时政
财经
科技
虚拟货币
其他
登录
#Prompt
关注
卡颂
1天前
越早意识到下面这点的程序员越有优势: 当 AI 生成代码有问题时,你不应该自己改(或教他改),而是通过: - prompt 层面:更详尽的任务规划 - 工程层面:e2e、单测、强类型语言... - 应用层面:选择合适模型、agent 不断给到更多约束和线索(而不是具体指导),像个循循善诱的智者,完全让 AI 自己领悟、迭代 这样才不会与 AI 发展的趋势发生对抗...
#AI浪潮:重塑就业,风险暗涌?· 85 条信息
#AI
#程序员
#Prompt
#工程
#约束
分享
评论 0
0
LinearUncle
1天前
苏格拉底真是伟人,我这个木瓜脑袋,有时prompt里不提“苏格拉底”的大名,大模型就不知道怎么把话说到我懂。
#苏格拉底
#伟人
#大模型
#Prompt
#理解
分享
评论 0
0
MapleShaw
3周前
分享两个收藏了很久一直没试过的 Prompt,用 Gemini 2.5 Pro 输出的 HTML,包装一下就是很赞的社媒卡片生成器了😍 Prompt 跟 Demo 见评论👇
Google Gemini 2.5发布引发AI模型性价比热议· 97 条信息
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 327 条信息
#Gemini 2.5 Pro
#社媒卡片生成器
#Prompt
#HTML
#积极
分享
评论 0
0
Susan STEM
3周前
从分布式认知到智能体沙盒:上下文工程的前世今生 我们一直在追问一个问题:“上下文”到底是什么? 在大语言模型时代,“上下文”似乎成了万物解释器。它是 prompt,是历史,是 token,是 memory,是一切的因。但真正追溯起来,这个词不过是现代工程视角下的临时叫法。在历史长河中,人类从未依赖固定术语来传达概念。意义的表达,一直是动态的、时代性的、多义的。 我知道有人会在推特上不断争论名词定义,纠结术语本体,害怕说错话。其实你会这么焦虑,是因为你还太年轻。你还没来得及在图书馆把所有能读的书都翻过一遍,没啃完泛读课几千张的试卷,也没刷过晋江论坛上一万篇看起来无聊却构成语感基础的网络小说,更没读够《哈利波特》的一百种同人演绎版本,不管恶心还是不恶心的,我都看完了。你还没有亲身验证过:人类的认知,不靠术语确证,而靠结构对齐。 工科生也要多读点文学。读书破万卷,下笔如有神。 不同的时代用不同的话说同样的事。今天你说“上下文”,十年前的人也许说“语境”,更早的人说“记忆”,结构主义者说“框架”,认知心理学者说“图式(schema)”,而《Cognition in the Wild》会说“文化任务系统”。语言在变,但核心的问题没有变:我们如何在系统中保持连续性、追踪状态、组织行为? 上下文不是术语,而是时代对“认知调度结构”的一种指认方式。而我相信,大语言模型的下一个关键跃迁,不会来自模型本身的微调、参数堆叠或幻觉率的下降,而是来自“上下文工程”作为系统性结构工程的确立。这不是拼 prompt 的技巧,而是构建结构、规划路径、调度智能体、维持状态协同的全过程。 从 Hutchins 的分布式认知,到 Minsky 的心智社会模型,再到今天的多智能体沙盒(如 Smallville),其实探索的是一个问题。我们说说 Hutchins 的分布式认知。 在 1995 年出版的《Cognition in the Wild》中,认知人类学家 Edwin Hutchins 提出了一个至今仍具有颠覆性的观点——认知不是发生在某个人的头脑中,而是分布在整个社会性系统中的。这本书的“野”,并非意指原始或混乱,而是指他所观察的认知行为并非在实验室中进行,而是在自然环境、真实世界任务流程中的发生,比如他田野调查的对象:美国海军舰艇上的导航团队。 Hutchins 研究发现,一个看似简单的任务——导航,并不是某位军官独立思考的结果,而是由多人协作完成的结构性过程。有人读取雷达数据,有人记录数值,有人在图纸上进行计算,信息在他们之间流动,决策才得以形成。除此之外,还有纸笔、坐标系统、专用术语、表格、雷达等外部工具的参与,它们不仅是辅助,而是认知过程本身的一部分。语言、制度、流程、工具、环境,以及人的角色分工共同构成一个动态的认知网络,信息在其中穿梭、被加工、被传递。这意味着,大脑并不是认知的全部,它只是这个更大系统中的一个节点。 Hutchins 完全打破了“认知=大脑”的传统观念。他明确指出,认知是在多个层次上被分布的。首先,它在个体之间分布:认知任务通常不是一个人完成的,而是团队共同完成,每个人只掌握任务的一部分。其次,它在内部与外部结构之间分布:认知不仅存在于人脑中,还依赖于图纸、表格、工具,这些物理媒介实际构成了“外部记忆”。最后,它也在时间上分布:一个人的认知行为依赖于之前团队留下的结构和制度遗产,比如流程图、记录规范、指令格式等,它们都是认知的延续性基础。 这一理论,与 Marvin Minsky 在《Society of Mind》中提出的观点形成惊人共鸣。如果我们把 Hutchins 所说的“人在协作中的功能单位”理解为 Agent,那这就是一个运行在真实世界中的 Agent 系统。而他所说的“外部工具系统”则对应当代 AI 系统中由 RAG、数据库、图谱所组成的记忆补全机制。甚至时间上的认知延续,也可以理解为多智能体系统中长期计划与路径依赖的体现。 说到底,Hutchins 向我们揭示了一个根本性的真相:认知不是个体思考的能力总和,而是结构化信息流的组织能力。真正决定智能的,不是单个 Agent 有多聪明,而是这些 Agent 是否处于一个能支持信息流动、反馈、协调、演化的系统中。认知是一种“被调度”的结构过程,是一种嵌入式、路径化、可追踪的信息动态,而非脑内静态存储的内容。 他实际上为我们提供了一种语言模型时代“上下文工程”的最早形态:不是堆叠上下文,而是组织路径;不是增大参数,而是优化流动;不是强调理解,而是调度结构。 如果我们把 Edwin Hutchins 的《Cognition in the Wild》重新理解为一场沙盒模拟实验,就会发现,那艘军舰,其实就是三十年前的 Smallville——只不过它没有像素地图,没有代码,没有 LLM,却已具备全部结构要素。Smallville 是斯坦福团队 2023 年推出的多智能体模拟项目(Generative Agents – Smallville),在其中,每个角色都是由大语言模型驱动的认知个体,具备记忆流、计划能力与反思机制。 当他们在咖啡馆偶遇时,并不会访问全局知识,而是检索各自的片段记忆,基于当前场景与意图做出行为决策,并将对话与动作反馈回自己的记忆系统。事件通过语言传播,行动彼此影响,个体间的协作并非中心化控制,而是由意图触发,逐步组织,最终形成如 Valentine’s Day Party 那样自发出现的社会性行为。 回过头看,Hutchins 所描述的军舰系统就是一个没有计算平台的 Smallville 原型。人类成员承担 Agent 的角色,雷达是传感器,纸笔是外部记忆体,术语是通信协议,时间流程是结构化路径,整套认知行为并不是由某一个人单独完成的,而是分布在整个系统中的任务分工与信息流转之间。它的“上下文”从来不是某一段文字、某个人的记忆或某个模型的输入窗口,而是由角色、工具、任务、流程、制度、状态等维度共同构成的动态认知结构。它是一张可以流动、传递、反馈、演化的认知路径网,是结构意义上的上下文,而非语料意义上的上下文。 从这个角度看,Hutchins 实际上提供了一种极具前瞻性的认知沙盒设计思想:上下文不应该是被记住的内容,而是被调度的结构单元;结构不应该压缩进个体,而应该流经路径、联动角色、触发工具、反馈结果;智能不应该被定义为某个 Agent 的思维能力,而应该被定义为信息能否在一个系统中完整走完一条闭环路径。 这种理解直接反转了当代大模型系统中常见的误区——我们试图让一个超级 Agent 理解全部上下文,就像让一个人同时记住整个小镇的一切,而真正需要的不是更强的单点记忆力,而是更清晰的结构协作图谱。Hutchins 和 Smallville 一起告诉我们:我们不需要一个全知大脑,我们需要一座结构良好的小镇。
#大语言模型
#上下文
#智能体
#分布式认知
#Prompt
分享
评论 0
0
Tom Huang
1个月前
听过这个老哥创造了一段可以停止 ChatGPT 幻觉的 Prompt 👉
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 327 条信息
#ChatGPT
#Prompt
#幻觉
#人工智能
分享
评论 0
0
YuTengjing
1个月前
下面这个是我测了好几个小时总结的 mermaid 语法检查清单 prompt:
#mermaid
#语法检查清单
#Prompt
分享
评论 0
0
orange.ai
2个月前
把 Veo3 的几个玩法都试了一下 模型是真的好,用 chat 来控制是真的需要想清楚 prompt 才可以 比如 第一个,这是什么小刀。。 第二个,分辨率应该是指定竖屏的 16:9 第三个,台词是有点短,可以更长一点 Gemini 的bug太多了,每次开新窗口都要点两下 Video 按钮,不然会走到生成图片的路径
#Veo3
#模型
#chat控制
#Prompt
#分辨率
#竖屏
#台词
#Gemini
#bug
#Video按钮
#生成图片
分享
评论 0
0
dontbesilent
2个月前
看到一个观点,说人使用 AI 的时候,每一句 prompt 都是成本 但我觉得未必,这取决于你认为「思考」是成本还是收益 如果思考是成本、是代价、是 cost,那么当然 prompt 是成本,因为我们只是需要让 AI 思考 但是如果思考才是收益呢? 如果一个真正的好问题,有没有答案已经不那么重要呢? 同理,如果一个商人将死之前,发现这个商业旅程才是真正有价值的 那么,探索商业的时间、精力,是成本还是收益? 如果研究生意是成本,那就只有金钱才是收益 可是买完房、买完车之后呢?接着买更多房、更多车吗? 但如果钱是数字、是 KPI、是一纸报表的话,那就只能让「研究生意」成为收益和乐趣 这份收益的增长曲线、衰退曲线,比消费主义曲线要好看得多
#AI
#思考
#商人
#商业价值
#成本收益
#Prompt
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
anthropic 比较实在,LLM当前阶段交互,主要还是prompt。 自家的4的6万字系统提示词已经做了大部分工作。
#Anthropic
#LLM
#Prompt
分享
评论 0
0
Viking
2个月前
今天尝试用 Claude4 创建一些 Infographic(就是很流行的信息图表) 没有任何的微调,一个 prompt 直出,prompt 风格也是让大模型提供,我没有任何调整,发现真的很强,尽管有少许错位,但是想象力和风格都让我很满意和惊喜。 我尤其喜欢第二张的赛博朋克风,里面还有函数名称啥的,很前卫。第三张的复古风都很棒。 我还在想 prompt engineering 还存在吗?现在大模型能一下生成各种完美的提示词了。
#Claude4
#Infographic
#信息图表
#大模型
#Prompt
#赛博朋克
#复古风
#Prompt Engineering
分享
评论 0
0
Tom Huang
2个月前
Claude 4 最新的系统提示词最全揭密来了⚡️ 包括人设、安全、风格、Opus 和 Sonnet 区别、思考块格式设计、搜索 Instructions、Artifacts 指引等 非常值得学习,可能是 AI 时代写 Prompt 最好的一家工商了.... 👉
#Claude4
#系统提示词
#AI写作
#Prompt
#Opus
#sonnet
#思考块格式
#搜索语句
#最佳指引
分享
评论 0
0
Limbo
2个月前
claude-4-sonnet 在编程方面非常厉害,基本一次过,对于功能逻辑,你写的逻辑越清晰、给定条件限定和上下文越多,它就能生成符合预期的代码。最近实现一个比较复杂的功能,为了避免在 cursor 即时生成的快感导致给的输入质量不高,我专门在zed写了10 多分钟Prompt,完整、Review 之后才发cursor。
#claude-4-sonnet
#编程
#代码生成
#功能实现
#Prompt
分享
评论 0
0
howie.serious
2个月前
#暴论 :别折腾各种不明觉厉的prompt了。 氪一点金,使用最高IQ的模型(例如,不限量的o3+gpt-4.5搭配)比折腾prompt 有效多了。 一个建议:拿200美金测试一下。开一个月pro,以上1000条o3,500条gpt-4.5,保证你下个月再也不想在prompt上浪费时间了。 模型即产品。用最好的模型,就是在ai时代对自己最大的尊重。
#暴论
#Prompt
#模型
#AI时代
#建议
#GPT-4.5
#IQ
#产品
#测试
#浪费时间
#最好的模型
分享
评论 0
0
向阳乔木
3个月前
推荐大家多用谷歌的Deep research,获取专业知识,然后让 AI 生成Prompt。 开始标题Prompt的研究探索,一直不太满意现在用的标题生成。
#DeepResearch
#AI
#Prompt
#谷歌
#专业知识
分享
评论 0
0
向阳乔木
3个月前
迭代了十多版,专门用于suno歌曲生成,节后发布。 用gemini deep research发现了很多Reddit社区隐藏技巧,都融合到Prompt中了。 给定主题或一段内容,30s创作一首歌,特别有趣
#suno
#Gemini Deep Research
#Reddit社区
#歌曲生成
#Prompt
#快速创作
#隐藏技巧
分享
评论 0
0
向阳乔木
3个月前
正在调一个英语学习prompt。 把任意英文文章变成: 闪卡学单词->双语对照阅读->阅读理解测试三个环节。 体验地址见评论区
#英语学习
#Prompt
#闪卡
#双语对照
#阅读理解
分享
评论 0
0
向阳乔木
3个月前
写了一个Prompt,把任何书籍变成互动式问答学习方式。
#Prompt
#互动式学习
#问答
#书籍
#学习方式
分享
评论 0
0
向阳乔木
4个月前
咪蒙走了,但她的标题秘密被我找到了 上午用咪蒙标题风格,写了一个文章标题生成Prompt。 不少做自媒体的朋友用了,都觉得效果牛逼。 甚至追问,写文章都是咪蒙风格... Prompt地址见评论区
#咪蒙
#标题生成器
#自媒体
#风格
#Prompt
分享
评论 0
0
海拉鲁编程客
4个月前
「去除 AI 味 Prompt」开源放到 Github 上啦(地址见评论区) 人工手写稿子被「朱雀大模型」判定为 50% 的 AI 生成。让我一度怀疑我自己是个套壳机器人。 老婆说你只是像,但并不是。 于是我悬着的心放下来了,一口气研究了去除 AI 味的一些方案,最终在 Gemini 2.5 Pro 上调通了这个 Prompt
#AI
#人工智能
#去除AI味
#朱雀大模型
#手写稿
#Gemini 2.5 Pro
#Prompt
#开源
分享
评论 0
0
向阳乔木
4个月前
一个Prompt实现大字排版自由! 今天写个公众号分享。
#Prompt
#大字排版
#自由
#公众号
#分享
分享
评论 0
0
Shellming_dev
4个月前
基于Prompt写了一个网页,体验地址:
#Prompt
#网页
#体验地址
分享
评论 0
0
九原客
5个月前
最近两三周给很多客户反复提及的忠告: 用模型一定要用最好的那个,如果想省钱,请在你的场景下微调,而不是用一个低能力的通用模型,然后试图靠 Prompt 或者工程努力去拯救它。 比如 DeepSeek 的那一堆蒸馏模型是很好的场景级推理模型的Base,但是不要直接用,真的很差。
#模型选择
#微调
#场景应用
#Prompt
#工程努力
#DeepSeek
#蒸馏模型
#推理模型
分享
评论 0
0
Susan/STEM MOM
6个月前
2 个prompt把太阳系做出来了,还带mouse motion。你们去玩吧,我要去喝两杯。
#太阳系
#mouse motion
#喝酒
#做游戏
#Prompt
#人工智能
分享
评论 0
0
小互
6个月前
美国版权局发布关于人工智能(AI)与版权专题报告: 完全由人工智能创作的内容不受版权保护 单纯的 Prompt 不足以构成版权: -简单的 AI 提示,如"生成科幻风格的城市",通常不被视为有版权价值的创作。 -版权保护的是“表达”而非“想法”,Prompt 只是想法的表达方式之一。 复杂、高度详细的 Prompt 是否可版权化? -有些专家认为,极度详细的 Prompt 可能符合 版权保护标准(如包含原创性的内容结构)。 -但大多数法律意见认为,即使 Prompt 复杂,也只是影响 AI 的输出,不能自动赋予生成内容版权。 这是美国版权局(U.S. Copyright Office)发布的关于人工智能(AI)与版权的第二份专题报告,专注于探讨 AI 生成内容的版权问题。本报告: 分析 AI 生成内容的版权适用性,即人类的贡献是否足够使 AI 生成内容受到版权保护。 回应 2023 年 8 月的意见征询(NOI),收集了 10,000 多条公众意见,其中近半数涉及 AI 生成内容的版权问题。 与第一部分不同,第一部分讨论的是数字复制技术(如 AI 合成的声音或面部),而本部分专注于 AI 生成内容是否具备版权保护资格。
#美国版权
#人工智能
#AI创作
#版权保护
#Prompt
#版权局报告
分享
评论 0
0
Yachen Liu
6个月前
小红书新上的翻译功能是用大模型做的,于是大家开始在内容中用 prompt 操纵翻译结果玩梗。新时代 SQL 的注入。
#小红书
#翻译功能
#大模型
#Prompt
#玩梗
#SQL注入
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞