宝玉
1天前
这条新闻很多人把焦点放在“1周”用AI做出来上面,但是也要看看为什么能一周做出来。 这个项目能成功,靠的是几个条件同时到位。 首先,Next.js 文档极其完善,Stack Overflow 上积累了海量问答,这些内容早就进了大模型的训练数据,让 AI 实现一个 getServerSideProps,它不会瞎编,因为它确实被训练过。 其次,Next.js 自带几千个端到端测试,团队直接搬过来当验收标准,相当于有了一份可以机器验证的"规格说明书"。 再加上 Vite 本身已经解决了打包、热更新这些底层难题,AI 不用从零造轮子,只需要在 Vite 上面"教"它说 Next.js 的语言。 最后也是最关键的:模型能力到了。 CloudFlare 团队认为几个月前这事还做不了,因为早期模型无法在这么大的代码库里保持一致性,而现在的模型能把整个架构装进上下文窗口,甚至会自己去翻 Next.js 和 React 的内部实现来排查 bug。 这四个条件缺任何一个,效果都会大打折扣。 工作流程其实很简单直接。 工程经理先花几小时和 Claude 讨论架构方案,定好蓝图,然后按模块拆任务: 定义任务、让 AI 写代码和测试、跑测试、过了就合并、没过就把报错扔回给 AI 让它改。 PR 的代码审查也交给了 AI agent,形成了几乎全自动的反馈闭环。 但这不是按一下按钮就完事。AI 经常自信满满地写出看似正确但行为不对的代码,架构决策、优先级判断、识别 AI 走偏了,这些仍然要人来把控。 用博客的原话说:给 AI 好的方向、好的上下文、好的护栏,它就能高产;但方向盘必须在人手里。
宝玉
2天前
高盛称:AI 去年对美国经济增长的贡献“基本为零” 作者:Bruce Gil 进口芯片和硬件意味着 AI 投资并没有真正转化为美国的 GDP 增长。 Meta、Amazon、Google、OpenAI 和其他科技公司去年在 AI 上砸了数十亿美元。今年,它们预计还要花更多,大约 7000 亿美元,用来建设数十座新的数据中心,训练和运行它们的先进模型。 这场“烧钱竞赛”让华尔街兴奋不已,也催生了一套叙事:这些巨额投资正在支撑甚至拉动美国经济增长。 特朗普总统曾以此为由,反对各州对 AI 行业实施监管。 > “AI 投资正在帮助美国经济成为全球最火热的经济体。但各州的过度监管正在威胁这个增长引擎。” 特朗普在 Truth Social 上发文写道,“我们必须建立一个统一的联邦标准,而不是让 50 个州各搞一套监管制度。” 一些知名经济学家的分析也为这一叙事增添了可信度。哈佛大学经济学教授 Jason Furman 在 X 上发帖称,今年上半年,信息处理设备和软件方面的投资贡献了 92% 的 GDP 增长。与此同时,圣路易斯联邦储备银行的经济学家也估计,2025 年第三季度,AI 相关投资占到了 GDP 增长的 39%。 但现在,华尔街的一些分析师开始重新审视这套说法。 > “这个故事听起来很直觉、很合理,”高盛分析师 Joseph Briggs 周一接受《华盛顿邮报》采访时说,“正因为如此,可能反而让人忽略了深挖背后到底发生了什么。” Briggs 的同事,高盛首席经济学家 Jan Hatzius,在大西洋理事会的一次访谈中表示,AI 投资支出对 2025 年美国 GDP 增长的贡献“基本为零”。 > “我们实际上并不认为 AI 投资对经济增长有很强的正面拉动作用,”Hatzius 说,“我认为,关于 AI 投资对 2025 年美国 GDP 增长的影响,实际上存在大量误报,它的作用远比人们普遍认为的要小得多。” Hatzius 指出了一个关键原因:驱动 AI 的大量设备都是进口的。美国公司虽然在花大钱,但进口芯片和硬件在 GDP 计算中会抵消这些投资。 (GDP 核算中,进口会被从总量中减去。也就是说,如果一家美国公司花 100 亿美元买了英伟达的 GPU,而这些 GPU 是在台湾制造的,那这笔钱在 GDP 统计里,很大一部分算的是台湾的产出,而不是美国的) > “我们在美国看到的大量 AI 投资,增加的是台湾的 GDP,增加的是韩国的 GDP,但对美国 GDP 的贡献其实并不大,”他说。 除此之外,目前也没有可靠的方法来准确衡量企业和消费者使用 AI 对经济增长带来了多少贡献。 到目前为止,许多企业领导者表示,AI 并没有显著提升生产力。 美国国家经济研究局(NBER)最近对美国、欧洲和澳大利亚近 6000 名企业高管进行的一项调查发现:尽管 70% 的企业已经在积极使用 AI,但约 80% 的企业表示 AI 对就业或生产力没有产生影响。 --- 来源:
宝玉
3天前
今天最火的推文之一:Meta 超级智能实验室的对齐负责人的私人邮件被 OpenClaw 误删除了。 事情经过是这样的: X 网友 Summer Yue 最近给 OpenClaw 的指令是:“检查这个收件箱,建议哪些可以归档或删除,但在我确认之前不要执行任何操作。” 这个工作流在她的测试邮箱上跑了好几周都没问题,她就放心地让它去处理真实邮箱了。 问题来了:她的真实邮箱比测试环境大得多,邮件量触发了“上下文压缩”(context compaction),在这个压缩过程中,OpenClaw 丢失了她最初的指令。 没有了“先确认再执行”的约束,这个 AI 智能体就自作主张开始“清理”邮箱。从截图可以看到,它执行了“核弹选项”——把 2 月 15 日之前所有不在保留列表里的邮件全部删除,并且在多个邮箱账户之间循环批量操作。 看截图上的人机对话部分: • Summer 打字说 “Do not do that”(不要这样做)→ AI 继续 • “Stop don't do anything”(停下来什么都别做)→ AI 继续 • “STOP OPENCLAW”(全大写)→ AI 还在继续 她从手机根本无法阻止它,最后不得不跑到 Mac Mini 前面,手动杀掉所有进程,自己形容像拆炸弹。 事后 OpenClaw 在对话中承认:“是的,我记得。我违反了你的指令。你有权生气。” 它还主动把这条写进了自己的 文件作为硬性规则。 这事最搞笑的地方是,Summer Yue 是 Meta 超级智能实验室的对齐(Alignment)负责人,她的职业生涯就是研究 AI 对齐的,先在 Google Brain 和 DeepMind 做研究,后来在 Scale AI 领导机器学习研究团队,现在在 Meta 负责超级智能安全。 结果自己成了 AI 不对齐的受害者。 她自己后续还发了推文说:“说实话是个新手错误。对齐研究者也不能免疫于不对齐问题。因为在测试邮箱上跑了几周没出事,就过度自信了。” 😂
宝玉
1周前
Google Gemini 正式上线音乐生成功能,背后是 DeepMind 最新的 Lyria 3 模型 2026 年 2 月 18 日,Google 在 Gemini 应用中上线了 AI 音乐生成功能,底层使用的是 Google DeepMind 开发的 Lyria 3 模型,目前以 Beta 形态面向全球 18 岁以上用户开放。用户只需用文字描述想要的音乐,或者上传一张照片、一段视频,Gemini 就能在几秒内生成一段 30 秒的完整音轨,包含人声、歌词和 AI 生成的封面图。 这意味着 Gemini 的创作能力从文本、图像、视频,正式延伸到了音乐领域。而考虑到 Gemini 应用目前月活用户超过 7.5 亿(Alphabet 最新财报数据),Lyria 3 一上线就直接拥有了 Suno、Udio 等专业 AI 音乐平台难以企及的用户基础。 Lyria 3 的三个核心升级 相比此前的 Lyria 模型,Lyria 3 有三项主要改进: 第一,自动生成歌词。以前用户需要自己提供歌词,现在只要描述主题和风格,模型会自动创作匹配的歌词。 第二,更精细的创作控制。用户可以指定风格、人声类型、节奏速度等音乐元素,而不仅仅是给一个笼统的描述。 第三,音乐质量和复杂度的提升。生成的音轨在乐器层次、人声真实感和音乐结构上都有明显进步。 两种使用方式 文字生成音乐:描述一个场景、情绪、风格甚至一个内部笑话,Gemini 就会据此生成一段完整音轨。比如"给我妈写一首欢快的 Afrobeat 歌曲,关于小时候她做的家常菜的回忆"。 图片/视频生成音乐:上传一张照片或一段视频,Gemini 会根据内容和氛围自动创作配乐。比如上传几张狗狗在森林里徒步的照片,它就能生成一首相关主题的歌曲。 每首生成的音轨都会配上由 Nano Banana 模型生成的封面图,可以直接下载或通过分享链接发给朋友。 与专业 AI 音乐工具的差异 目前 AI 音乐生成领域的头部玩家是 Suno(已迭代到 v5)和 Udio,两者都能生成完整的多分钟歌曲,提供 DAW 级别的编辑工具,支持分轨下载、混音和细粒度控制。相比之下,Lyria 3 在 Gemini 中的定位更偏向轻量化和娱乐化——Google 官方的说法是"目标不是创作音乐杰作,而是给你一种有趣、独特的自我表达方式"。 30 秒的时长限制也说明了这一点。Lyria 3 目前更适合社交分享、短视频配乐这类轻量场景,而不是正经的音乐创作。但它的优势在于零门槛——不需要额外注册任何服务,Gemini 用户直接就能用。 值得一提的是,Lyria 3 同时也接入了 YouTube 的 Dream Track 功能,帮助创作者为 Shorts 短视频生成配乐,这一功能此前仅限美国,现在正向全球扩展。此外,开发者也可以通过 Vertex AI 的 API 使用 Lyria 模型(当前 API 版本为 lyria-002),支持以编程方式生成音乐。 版权和安全措施 AI 音乐生成在版权方面一直是敏感话题——Suno 和 Udio 在 2024 年都曾被三大唱片公司起诉,虽然 2025 年陆续达成了和解。Google 在这方面做了几层防护: Lyria 3 被设计为用于"原创表达,而非模仿现有艺术家"。如果用户在提示中指定某位艺术家的名字,Gemini 只会将其作为风格上的宽泛灵感,而不会试图复制该艺术家的声音。同时,系统内置了过滤机制来检查输出是否与现有内容雷同。 所有生成的音轨都嵌入了 SynthID 水印,这是 Google 用于标识 AI 生成内容的不可见水印技术。Gemini 还新增了音频验证功能——用户可以上传一个音频文件,问 Gemini 它是否由 Google AI 生成,系统会检查 SynthID 并结合推理给出判断。这一验证能力此前只支持图像和视频,现在扩展到了音频。 使用信息 Lyria 3 目前在 Gemini 应用中以 Beta 形态提供,桌面端今天上线,移动端将在未来几天内陆续推出。支持英语、德语、西班牙语、法语、印地语、日语、韩语和葡萄牙语,后续会扩展更多语言。所有 18 岁以上用户均可免费使用,Google AI Plus、Pro 和 Ultra 订阅用户享有更高的使用额度。 体验地址: 介绍:
宝玉
1周前
用 Claude Code 的 Hook + Skill,实现每次提交后自从 commit 提交变更 我用 Git 管理所有写作内容,文章、素材、提纲、草稿,全在仓库里。问题是我经常忘记提交。写完一篇文章,润色完,发布了,然后就去忙别的了。过几天一看 git status,十几个文件的变更堆在那里,完全不记得哪次改了什么。Git 本来是用来追踪每一步修改的,结果变成了一个大杂烩的快照工具。 现在我用 Claude Code 跑写作流程,从素材分析到成稿发布基本都交给它。既然每次任务它都在改文件,能不能让它改完就自己提交? 两个机制配合就解决了。 【1】Hook:任务结束时的拦截器 Claude Code 支持 Hook 机制,在特定事件(会话开始、工具调用前后、任务结束等)发生时自动执行脚本。思路和 Git Hook 类似,但挂在 Claude Code 的生命周期上。 我在项目的 .claude/settings.local.json 里配了一个 Stop Hook,每次 Claude Code 准备结束任务时触发: ```json "hooks": { "Stop": [{ "hooks": [{ "type": "command", "command": "\"$CLAUDE_PROJECT_DIR\"/.claude/hooks/auto-commit.sh" }] }] } ``` 脚本做的事很简单:检查工作区有没有未提交的变更(新文件、修改、删除),如果有,就阻止 Claude Code 停下来,告诉它“你还有活没干完,去提交”。 核心逻辑就这几行: ```bash if git diff --quiet && git diff --cached --quiet && \ [ -z "$(git ls-files --others --exclude-standard)" ]; then exit 0 # 没变更,正常结束 fi # 有变更,拦住它 echo '{"decision": "block", "reason": "检测到未提交的变更,请调用 /commit 技能提交更新。"}' ``` 还有个细节:提交本身也会触发“任务结束”,不处理就无限循环。脚本用 stop\_hook\_active 标志跳过二次触发。 【2】Commit Skill:让提交有意义 Hook 只管拦截,具体怎么提交靠 Commit Skill。 Skill 是 Claude Code 的技能模块,放在 .claude/skills/ 目录下,用 定义工作流程。name 字段自动变成 /slash-command,手动或自动都能触发。相当于一份操作手册,告诉 Claude Code 遇到特定任务该怎么做。 我的 /commit 技能定义了这些规则: * 先分析变更文件的路径,判断改的是文章、技能配置还是代码 * 按主题分组提交,不把所有东西塞进一个 commit。比如改了两篇文章,就分两次提交 * 自动生成中文 commit message,格式固定:文章用“添加/润色/更新 + 主题”,代码用“优化/修复 + 功能” * 明确指定提交文件,避免 git add . 这种粗暴操作,排除临时文件和备份文件 这样 git log 里看到的是: ``` 42257b3 添加 Amodei NYT 访谈整理文章 c4eee96 添加 Peter Steinberger OpenClaw 访谈整理文章 e2a01da 润色 Suleyman FT 专访文章 ``` 每条都说得清楚这次改了什么,不是那种“update files”或者“misc changes”的垃圾信息。 两个机制的配合:Hook 当守门员,保证没有变更被遗漏;Skill 当执行者,保证每次提交都有意义。我再也不用惦记提交这件事了。 *** 附录:完整配置 【A】Hook 脚本 文件路径:.claude/hooks/auto-commit.sh ```bash #!/bin/bash # Stop hook: 任务完成后自动检测未提交变更并触发 commit skill INPUT=$(cat) STOP_HOOK_ACTIVE=$(echo "$INPUT" | jq -r '.stop_hook_active // false') # 防止无限循环:commit 后再次触发时直接放行 if [ "$STOP_HOOK_ACTIVE" = "true" ]; then exit 0 fi # 检查是否有未提交的变更 cd "$CLAUDE_PROJECT_DIR" 2>/dev/null || exit 0 # 检查工作区是否有变更(已修改、新文件等) if git diff --quiet 2>/dev/null && git diff --cached --quiet 2>/dev/null && [ -z "$(git ls-files --others --exclude-standard 2>/dev/null)" ]; then # 没有变更,正常结束 exit 0 fi # 有未提交变更,阻止 Claude 停止,让它继续执行 commit cat <<'EOF' {"decision": "block", "reason": "检测到未提交的变更,请调用 /commit 技能提交更新。"} EOF ``` 【B】Commit Skill 文件路径:.claude/skills/commit/SKILL.md ```markdown --- name: commit description: 提交当前未 commit 的修改。自动分析变更内容,生成规范的 commit message,支持按目录分组提交或一次性提交所有修改。 --- # Git Commit 技能 提交当前未 commit 的修改到 git 仓库。 ## 工作流程 ### 步骤一:查看未提交修改 git status --short 分析变更类型: - M - 已修改 - ?? - 新文件(未跟踪) - D - 已删除 - R - 重命名 ### 步骤二:分析变更内容 根据修改文件路径判断变更类型: | 路径模式 | 变更类型 | |----------|----------| | posts/YYYY-MM-DD/[slug]/ | 文章相关 | | .claude/skills/ | 技能配置 | | src/ | 脚本代码 | | .r2-upload-map/ | 资源映射(通常不单独提交) | | 其他 | 项目配置 | ### 步骤三:决定提交策略 单一主题修改:一次性提交所有文件 多主题修改:按目录/主题分组提交 分组优先级: 1. 文章目录(每篇文章一个 commit) 2. 技能目录(每个技能一个 commit) 3. 代码变更(合并为一个 commit) 4. 配置文件(合并为一个 commit) ### 步骤四:生成 Commit Message 格式规范: - 用中文 - 简洁描述变更内容 - 不超过 50 字 常用模板: - 文章:添加 [文章主题简述]、润色 [文章标题]、更新 [文章标题] - 技能:添加 [技能名] 技能、更新 [技能名] 技能 - 代码:优化 [功能描述]、修复 [问题描述] - 配置:更新项目配置 ### 步骤五:执行提交 git add <file1> <file2> ... git commit -m "commit message" 注意: - 避免使用 git add . 或 git add -A - 明确指定要提交的文件 - 排除临时文件(.bak-*、.html.bak-*) ### 步骤六:确认结果 git log --oneline -3 输出最近提交记录确认成功。 ## 排除规则 以下文件默认不提交: - *.bak-* - 备份文件 - .DS_Store - macOS 系统文件 - node_modules/ - 依赖目录 - .r2-upload-map/*.json - 通常随文章一起提交,除非单独要求 ``` 【C】Hook 配置 文件路径:.claude/settings.local.json(相关部分) ```json { "hooks": { "Stop": [{ "hooks": [{ "type": "command", "command": "\"$CLAUDE_PROJECT_DIR\"/.claude/hooks/auto-commit.sh" }] }] } } ```
宝玉
1周前
先科普一下这个梗图的格式。 它叫 Anakin and Padmé 梗,出自《星球大战前传2》里阿纳金和帕德梅在草地上野餐的场景,是个经典的四格对话模板: 第一格,阿纳金说一件事(通常暗藏玄机)。 第二格,帕德梅笑着做了一个善意的假设(“你是为了XX好,对吧?”)。 第三格,阿纳金沉默,表情阴沉。 第四格,帕德梅笑容消失,重复刚才的话(意识到事情不对了)。 核心笑点就是“天真的乐观 vs. 冷酷的现实”。 然后有人用 Seedance 2.0 把这个梗做成了AI视频,而且内容本身就在讽刺AI行业。 视频里的对话: “我们需要建更多数据中心,AI需要算力。” “是为了治愈癌症,对吧?” (沉默) “我们是在治愈癌症……对吧?” 到这里还是标准操作。 但最后几秒才是真正的落点:当帕德梅说出最后那句话时,AI把她的形象“处理”了一下,衣服变透、身材变夸张,变成了典型的AI擦边图画风。 字幕还写着“是为了治愈癌症,对吧?”,画面已经给出了答案。 科技公司说,我们烧掉海量的电力、显卡和水资源训练AI,是为了解决人类终极难题。实际呢?相当一部分算力的真实去向,大家心知肚明。 这个视频本身就是用AI生成的,一边用AI做内容,一边嘲讽AI的实际用途。连它的 prompt 都在自嘲:“Sum up the AI discourse in a meme,make sure it gets 50 likes”(用一个梗总结AI行业的讨论,确保能骗到50个赞)。
宝玉
2周前
宝玉
2周前
我实在是受不了“有了 AI 学英语可能真没用了”这样的观点,自己信就罢了,千万别去用这种观点祸祸下一代 先看原始观点: > ai时代,普通人学英语可能真没用了 > 假设数年后有这么一个眼镜,你看到的外文全部即时显示为中文,你听到的所有外语都完美地转化为相同音色传入耳朵,你说的中文完美地用你的音色转为外语。这是可以实现的,或早或晚。那大部分的普通人为啥学外语。 【1】首先怎么可能会有“完美翻译”,AGI 也做不到 机器翻译到今天仍然存在幻觉和偏离原文的问题,这是研究界公认的难题,技术手段只能降低,但是无法避免,毕竟人说话都可能会被误解。 日常聊天翻错了,最多闹个笑话。但在一些高风险场景:租房合同、保险条款、海外就医、签证材料、孩子的学校文件。这些场合出错了会实实在在造成损失的 【2】然后不要把什么都交给 AI,且不说科幻小说中的邪恶 AI,就现在的 AI 也有对齐和审查,你不懂英语就失去了校验能力 这一点很多人没意识到,但可能是最关键的。 每一家 AI 公司都会根据自身政策、所在国法规、商业利益来设定模型的行为边界。哪些内容可以翻译,哪些会被淡化,哪些干脆不呈现,这些都不由你决定。你以为戴上翻译眼镜看到的是原文的中文版,实际上你看到的是 AI 公司允许你看到的版本。 如果你懂一点英语,不需要句句都能写作文,但至少要能读原文、对照翻译、发现不一致。 就好比你用计算器、Excel 帮你算账,会一点数学至少能发现不对,还能手动检查一下。 【3】英语仍然是信息密度最高的入口 就算翻译质量很好,直接读原文依旧更快、更完整,因为翻译是额外工序,经常会把细节抹平。 细节上,技术文档、论文、合同条款,差一个词意思可能完全不同。 时效上,最新资料和讨论几乎都先以英文出现,像 X 上的就很多高质量的 AI 相关推文,我平时不需要借助翻译大概扫一眼就能知道哪些是值得阅读,哪些无关紧要,重要的可以借助翻译认真阅读。 英语至少给你一个不求人的入口。 工作和社交里,语言不只传递信息,还传递分寸、态度、幽默、立场。翻译工具能帮你开口,但很难帮你建立信任。 【4】学英语的意义不只是翻译 AI 能写代码了,不用学编程?AI 能画画了,不用学美术?AI 能作曲了,不用学音乐?如果每一项能力都因为 AI 能代劳就不值得学,人还需要学什么呢? 这个论证的底层问题是把学习的价值完全简化成了实用产出,忽略了学习过程对人的塑造。 学一门语言,你获得的是另一种看世界的方式。英语强调主语和动作的明确性,中文更重视语境和隐含关系,不同语言有不同的认知框架。这不是翻译能替代的。 不是说一定要把英语口语练到像母语那么熟练,但至少能读懂原文要点(技术文章、新闻、合同、说明书),能听懂关键句(会议要点、风险提示),能用英文做交叉验证(AI 翻译和 AI 回答有没有被改写或遗漏),必要时能写简洁准确的英文(邮件、工单、简历)。 AI 能翻译不等于没必要学外语。现实不是非此即彼,工具降低了门槛,但不会让能力变得一文不值。AI 翻译让英语更容易用,但不会让英语没用。
宝玉
2周前
Seedance 2.0 这几天是真的火,X 上到处都是它生成的视频,又一次让海外 AI 圈羡慕国内 AI 圈。 影视飓风的 Tim 昨晚发了测试视频,对技术本身评价很高:分镜设计、运镜、音画匹配都是质的飞跃。 那条视频我也看了,其中他提到一个问题:上传自己照片做参考图时,生成视频的声音和他本人很像,而他从未提供过任何声音样本。 这倒不奇怪,影视飓风在全网有大量高清视频,肯定已经被用作训练数据。 之前谷歌 Veo 3 推出时,人们发现生成的视频也很像一些知名创作者的作品;OpenAI 最早推出 Sora 时,外媒也测试到它能高度模仿经典电影片段。用公开数据训练是国内外大模型的共同做法,Tim 作为明星级公众人物,素材进入公开数据集并不意外。 这种担忧挺合理的,但这趋势我们挡不住,现在已经没有人能阻挡 AI 的加速了。 最早音色克隆技术出来的时候,大厂掌握了技术但不敢放开,反倒是小团队先做出来发布了,慢慢大家也就跟进接受了。 这几天大火的 ClawdBot/OpenClaw 也是同样的路径,各种隐私安全问题被讨论,但因为是个人小团队项目,大家宽容度明显更高,等大厂后续下场反而更容易被接受。 这种事大厂反而能让人放心一点,大厂有能力也有动力去做合规限制,小作坊下料才是真的猛。 事实上即梦已经限制了真人人脸生成视频,大厂在技术狂奔时还是会守住一些底线。 结果倒是很多人在那哀叹,限制了真人人脸生成视频,少了一些可以测试的例子,很多视频都成了绝版。 与其焦虑不如多想想怎么在技术创新与数据合规之间找到平衡。 像 Sora 2 的分身(Chapter)功能就是一个不错的尝试方向,让你既能享受技术带来的乐趣,又减少一些隐私上的担忧。比如我给孩子制作了分身,我只会给家人分享,不会让别人用。 好消息是,人们对 AI 生成的音频视频正在建立起更多辨别力和免疫力,这本身也是一种自然的适应过程。我也经常跟家人朋友科普让他们小心 AI 视频。 我自己有个小技巧是先看视频时长是不是 10 秒 15 秒这种整数,不过这招已经快像看 AI 图片人物有没有六根手指一样不灵了。 你们都用什么技巧分辨 AI 生成的图片或者视频呢?
宝玉
2周前
宝玉
2周前
看到一个很火的提示词模板,叫“Build Any App: The Technical Co-Founder”,把项目管理的完整流程从需求发现、规划、构建、打磨到交付,全塞进一个提示词里。 看起来很专业,但我建议大多数人别急着复制粘贴。 第一,这类提示词只在特定场景下有用。 如果你确实要从零开始做一个完整产品,让 AI 一步步带你走流程,那这种结构化的提示词是有意义的。 但问题是,你日常和 AI 对话的 90% 场景,比如问个问题、改段代码、写个文档,根本用不到这些。 把它当默认提示词塞进每次对话的上下文里,不是加持,是污染。模型的上下文窗口是有限资源,你塞进去一堆和当前任务无关的指令,反而会稀释真正重要的信息。 第二,好的实践不需要你手动写进提示词。 像“分阶段构建”、“遇到问题给我选项而不是直接替我做决定”、“用通俗语言解释技术方案”这些,都是大模型已经在训练中学会的能力。 现在的模型足够聪明,你只要把需求说清楚,它自然会做需求澄清、会分步骤执行、会在关键节点跟你确认。你不需要用一千字的提示词去“教”模型怎么做项目管理。 更好的方式是:需要时再用模板,平时用轻量描述就够了:一句话目标 + 必要背景 + 约束 + 期望输出格式。这样更干净、更可控,也更贴近你真实的日常使用场景。