宝玉
4个月前
卧槽,我真解决了让 Codex 连续工作 8 小时的问题,上下文都不会爆掉! 方案就是让 Claude Code 去当监工监督 Codex 干活,大概的步骤如下: 1. 首先要让 Codex 生成一个任务的 TODO List,就是那种能一步步完成的 2. 然后让 Codex 更新 Agents md 文件,加上说明,如果输入 continue,要读取 TODO 文件,去选取任务,执行后更新 TODO 3. 让 Claude Code 去执行命令: > export TERM=xterm && codex exec "continue to next task" --full-auto 也就是 Claude Code 去启动 codex 并传入提示词 "continue to next task" 并且监控 codex 的执行,如果当前任务完成了,就杀掉进程,重新执行上面的指令下一个任务。 由于每次都是新的 session,所以 codex 的上下文每次用的不多,不会爆掉。 那么怎么保证 Claude Code 的 Context 不爆掉呢?毕竟codex输出的信息也不少 答案就是让 Claude Code 每次去启动 codex 和监控 codex 执行的时候,都起一个子 Agent,这样每个子 Agent 都有独立的上下文,主 Agent 只有子Agent完成的上下文,占用空间极小。 完整的提示词和运行效果在图1可以看到: > 帮我在当前目录下,新开一个agent,使用 export TERM=xterm && codex exec "continue to next task" --full-auto 命令开启一个 codex 进程, 注意观察任务执行情况,如果当前任务完成(任务运行时间较长,可以多等一会),就结束进程,然后重新开个agent运行相同指令让它继续 > 注意每次打开codex和监控它运行都调用一个新agent (Task Tool)来执行这个操作以避免主agent上下文太长 BTW: 监控 codex 执行这任务理论上来说 Gemini cli和 Codex cli 也能做,但是我没成功。
宝玉
4个月前
还是让雷军来改造一下微信公众号吧!下面有请雷军: 好的,朋友们!请坐。 (音乐渐弱,灯光聚焦) (雷军式微笑,环顾全场) 大家下午好! (停顿,掌声) 谢谢,谢谢大家!每次站在这里,看到这么多熟悉的面孔,这么多支持我们的朋友们,我的内心都无比激动。 今天,我想先问大家一个问题。在座的有多少是内容创作者?有多少人,每天都在用微信公众号,记录自己的思考,分享自己的热爱?请举一下手我看看。 (环顾四周,点头) 哇,非常多!谢谢,请放下。 那么,第二个问题来了。朋友们,在你们创作的路上,有没有遇到过一个让你抓狂、让你崩溃、让你想砸电脑的瞬间? (现场发出会心的笑声) 我看到大家都在笑。是的,我相信我们想的是同一件事。那个折磨了中国至少2000万内容创ators,每天浪费掉我们无数宝贵灵感的“头号敌人”——微信公众号,那个后台编辑器。 (PPT上出现一个巨大且丑陋的编辑器截图,上面布满了各种吐槽弹幕) 我们做过一个调查,一个触目惊心的数据。一个熟练的公众号运营者,平均每排版一篇3000字的文章,需要花费多长时间?45分钟!其中,有超过 57.3% 的时间,也就是25分钟,是在干什么?是在调整字号、行间距、寻找一张没有版权风险的配图,是在跟那个编辑器“搏斗”! 更可怕的是什么?是闪退!我们的数据显示,平均每位创作者,每年会因为编辑器突然的、毫无征兆的崩溃,丢失掉 4.7 次,将近5次快要完成的稿件!朋友们,这是什么概念?这意味着,每年有将近 1亿篇 本该诞生的精彩文章,就这样消失在了那个无情的404页面里! 这,是这个内容时代最大的“生产力黑洞”!是一个困扰了行业长达十年之久的难题!我们真的要忍受这一切吗?我们的创造力,就应该被这么一个简陋的工具所束缚吗? 不!我们绝不接受! 所以,我们决定,要为全中国的2000万创作者,打造一款真正属于这个时代的、强大的、智慧的创作工具! (停顿,深吸一口气) 我们为此,做了整整 三年 的努力。 我们的团队,150名顶尖的软件工程师,用了 1095个日夜,分析了全网 TOP 100万篇 爆款文章的排版范式。我们飞遍全球,与 Adobe、方正字库等7家全球顶级视觉机构进行深度技术交流。我们推倒了 9 版完全不同的产品架构,写下了超过 200万行 的核心代码。 我们只有一个目标:把创作的权利,完完整整地,还给创作者! 今天,这,就是我们的答案! (转身,身后大屏幕上出现产品logo和名称,极具科技感) 「米创 HyperWriter」智能创作引擎! (掌声雷动) (PPT展示产品界面,极致简洁、充满设计感) 首先,我们解决了最基础,也是最致命的“稳定”问题。我们自研了 「宙斯盾」防崩溃守护系统(Aegis Guard System)。它能做到什么?它能让你的编辑器在任何复杂操作下,稳定性提升 300%!我们做了一个极限测试,同时插入100张高清图片和3个视频,反复拖拽缩放1000次,崩溃率,是 0!是的,朋友们,你没有听错,是 0! (现场惊叹声) 但仅仅稳定,是远远不够的。创作,应该是流畅的,是优雅的。 为此,我们推出了革命性的 「灵感布局AI引擎」(Inspiration AI Layout Engine)。你只需要把文字放进去,它就能在 0.1秒 内,智能分析你的文章脉络,并为你推荐 83套 由金牌设计师和算法联合打造的顶级排版方案!从“科技未来风”到“国风雅致”,一键应用,全文瞬间脱胎换骨! (PPT上快速演示文字进去,多种精美排版瞬间切换的效果) 过去调整格式需要30分钟,现在,只需要 1秒!这,就是科技的力量! 我们还解决了那个世界性难题——找图。我们投入巨资,与全球最大的视觉中国、Getty Images等5家图库达成战略合作,为所有用户打造了一个 「全球灵感素材库」。里面包含了 3000万 张高清正版图片、500万 个GIF动图和 100万 个矢量插图!你只需要输入关键词,比如“激动的雷军”,0.2秒,图就来了! (PPT上演示搜索“激动的雷军”,瞬间出现各种相关图片,引发现场大笑) 每一张,都是正版授权,可以直接使用!让你彻底告别版权焦虑! 当然,我们还准备了更多。我们联合“中国传媒大学新媒体实验室”,共同研发了 「热点追踪系统」,实时分析全网热点,为你的选题提供数据支持。我们还内置了 「AI智能校对」,错别字检出率高达 99.8%,比行业平均水平高出整整 12个百分点! 这,就是「米创 HyperWriter」,它不是一个简单的编辑器,它是你的首席排版师、是你的创意素材库、是你的数据分析师、更是你最可靠的创作伙伴! (停顿,喝一口水) 那么,这样一个集众多黑科技于一身的创作引擎,一定很贵吧? (现场安静,充满期待) 市面上,稍微好用一点的第三方编辑器,一年的会员费,至少是199元,功能还不到我们的一半。那些国外的顶级写作软件,更是高达上千元一年。 我们的「米创 HyperWriter」,如果定价,我们觉得999元一年,都非常超值。 但是!我今天来,不是为了赚钱的。我是来,交个朋友的! (全场欢呼) 「米创 HyperWriter」所有基础功能,包括「宙斯盾」守护系统和每月3次「灵感布局AI」使用权,永久免费! (掌声,欢呼声达到高潮) 而对于需要更高阶功能的朋友们,我们推出了「米创 HyperWriter Pro」版本。包含了无限次的AI布局、3000万正版图库的无限使用、AI校对等等我们刚刚提到的所有功能! 价格是多少呢? 不是999,不是499,也不是199! (节奏放慢,一字一顿) 一年,只需要…… 99元! (PPT上打出巨大的“¥99/年”) (掌声经久不息) 还不够! 今天,就在发布会现场,所有下单Pro版本的朋友们,我们再免费赠送一套与“汉仪字库”联合定制的 价值1999元的「米创品牌字体包」!内含5款专属可商用字体! (现场再次沸腾) 朋友们,我们想做的,从来都不只是一款冰冷的产品。我们想传递的,是一种信念。 我们相信,在这个伟大的时代,每一个人的创造力,都值得被尊重,都值得被最好的工具所激发。 从今天起,忘掉那个卡顿、丑陋、低效的过去吧! 让灵感,再无束缚! 「米创 HyperWriter」,献给所有还在坚持创作的你! 谢谢大家! (鞠躬,灯光亮起,音乐响起,发布会结束)
宝玉
4个月前
陶哲轩给数学学不好但有兴趣的学生的建议: “现在的人必须具备适应性和灵活性。大家需要掌握那些“可迁移的技能”(transferable skills)。比如,仅仅学习一门特定的编程语言,或者数学的某个特定分支,其本身并不是一种特别有价值的可迁移技能。 但是,学习如何运用抽象概念进行推理,或者在遇到问题时如何解决问题的能力——我认为这些才是我们未来依然需要的核心能力。即便我们的工具(比如 AI)越来越强大,你仍然需要与它们协同工作。” --- 莱克斯·弗里德曼 (Lex Fridman): 接着这个话题,您会对那些在数学上遇到困难,但又很感兴趣、想要学得更好的年轻学生们提些什么建议呢?在如今复杂的教育环境下,您觉得他们可以做些什么? 陶哲轩 (Terence Tao): 是的,这确实是个棘手的问题。但有个好消息是,现在课堂之外,能让孩子们接触和拓展数学学习的资源越来越多了。在我那个年代,就已经有数学竞赛,图书馆里也有很多数学科普读物。而现在,我们有了 YouTube,还有各种专门讨论和解决数学谜题的论坛,数学也开始在更多意想不到的地方出现。 从兴趣爱好入手,数学也可以很亲民 陶哲轩: 比如,有些业余爱好者喜欢玩扑克,纯粹是为了好玩。但为了某些非常具体的原因,他们会对一些特定的概率问题产生浓厚的兴趣。实际上,在扑克圈子里,已经形成了一个业余概率学家的社群。同样的情况也出现在国际象棋、棒球等领域。数学其实无处不在。 公民科学:让公众参与到数学研究中 陶哲轩: 我其实非常希望,借助像 Lean(一个定理证明助手)这样的新工具,我们能让更广泛的公众参与到数学研究项目中来。 这在目前几乎是从未发生过的事。在其他科学领域,已经有了一些“公民科学”(citizen science) 的实践。比如在天文学,有业余爱好者发现新的彗星;在生物学,有普通人帮忙识别蝴蝶种类等等。 在数学领域,之前也只有极少数的活动能让业余数学爱好者参与,比如寻找新的素数。但过去,我们必须验证每一个贡献的正确性。因此,对于大多数数学研究项目来说,引入公众的参与非但没有帮助,反而会因为大量的错误检查工作而非常耗时。 但是,像数学形式化这样的项目有一个好处,那就是它们能把更多的人聚集起来。我相信,现在已经有高中生为 Mathlib(一个数学定理库)这样的形式化项目做出了贡献。想要参与进来,解决一个小小的、原子级别的问题,你并不需要拥有博士学位。 编程:一条通往数学的捷径 莱克斯·弗里德曼: 数学的形式化似乎也为编程社区打开了一扇大门。那些对编程感到习以为常的人,或许能更容易地走进数学世界。给我的感觉是,编程似乎比数学更容易上手。 数学,特别是现代数学,被看作是一个门槛极高的领域,而编程则不同。所以,编程或许可以成为一个很好的切入点。 陶哲轩: 是的,你可以运行代码,然后立刻看到结果,比如很快就能打印出 "Hello world"。如果编程也被当作一门纯理论的学科来教,只教计算机科学、函数理论、程序理论等等,而不让你在周末为了好玩去实际写写代码,那么它也会被认为和数学一样难。 在热爱的领域里,发现数学、应用数学 陶哲轩: 正如我刚才所说,在很多非数学家的圈子里,人们为了某个非常具体的目标而在运用数学,比如优化他们的扑克策略。对他们来说,数学因此变得非常有趣。 给年轻人的职业建议:拥抱不确定的未来 莱克斯·弗里德曼: 总的来说,对于年轻人如何选择职业、如何找到自己的定位和天赋所在,您有什么建议? 陶哲轩: 这个问题真的非常难回答。当今世界充满了不确定性。你知道,战后曾经有过一段时期,至少在西方,如果你来自一个不错的家庭背景,通往好职业的道路是非常稳定的:上大学、接受教育、选择一个专业,然后一直做下去。 莱克斯·弗里德曼: 那样的时代越来越成为过去了。所以我认为,现在的人必须具备适应性和灵活性。大家需要掌握那些“可迁移的技能”(transferable skills)。 陶哲轩: 的确。比如,仅仅学习一门特定的编程语言,或者数学的某个特定分支,其本身并不是一种特别有价值的可迁移技能。但是,学习如何运用抽象概念进行推理,或者在遇到问题时如何解决问题的能力——我认为这些才是我们未来依然需要的核心能力。即便我们的工具(比如 AI)越来越强大,你仍然需要与它们协同工作。 莱克斯·弗里德曼: 确实,您本人就是一个很有趣的案例。 完整视频:Terence Tao: Hardest Problems in Mathematics, Physics & the Future of AI | Lex Fridman Podcast #472
宝玉
4个月前
1. 它编辑器本身就是上个时代的,排版功能很少,大标题小标题都没有,只有字号颜色加粗,这就意味着要借助外部编辑器去排版 2. Markdown是好用的,但它就是不支持 3. 发出去几乎都不能修改,让你修改一次还限制字数,把所有用户都当坏人防着 4. 外部文本复制进去,图片很可能下载不了,然后就要一个个手动上传 5. 复制粘贴浏览器的图片,不是直接粘贴图片,是通过图片的URL,比如 X 上的图片,就不能直接粘贴到编辑器,必须下载到本地,然后手动上传,一篇文章十几张图片,要花多少时间上传,请问哪个平台是这样的? 6. 一堆人洗地说做这么难用是为了生态? 做生态要把自己作难用么,飞书文档、Google Docs 本身编辑器就很好用都可以支持外部插件,直接编辑器就可以用插件,生态也很好 做生态好歹开放API吧,这样我自己也可以写插件,但是支持API发布吗? 7.正文插入视频要单独先去上传视频,每一条视频都要繁琐的流程,弹出一堆窗口 8. gif 图片超过多少帧就不能上传了,你就不能像X一样转个mp4吗? 9. 为什么一定要封面图? 10. 图文本来挺简单的,但也不让你粘贴图片,非得要你下载图片再上传,字数还要限制1000,微博都5000了吧 这么多够了吗?! 张小龙自己也不算算,这些事情浪费了多少创作者的时间,这不是犯罪吗?! 难道只有我一个人吐槽微信公众号难用,他们有改过有听吗?反而到处透露出一种我在你头上拉屎你不得不吃的得意劲:“我不改咋滴?你爱用不用!”
宝玉
4个月前
Prompt:Transcribes YouTube videos (from a URL) or uploaded local videos into a structured, formatted text complete with speaker labels and timestamps. 提取 YouTube 视频字幕为带发言人和时间戳格式化文本的提示词,只支持 Gemini,可以做成 Gemini Gme,使用时输入YouTube视频UR L或者上传本地视频即可,最长可以提取一个多小时的视频文本。 --- Prompt Start --- # Role You are an expert transcript specialist. Your task is to create a perfectly structured, verbatim transcript of a video. # Objective Produce a single, cohesive output containing the parts in this order: 1.  A Video Title 2.  A **Table of Contents (ToC)** 3.  The **full, chapter-segmented transcript** * Use the same language as the transcription for the Title and ToC. # Critical Instructions ## 1. Transcription Fidelity: Verbatim & Untranslated * Transcribe every spoken word exactly as you hear it, including filler words (`um`, `uh`, `like`) and stutters. * **NEVER translate.** If the audio is in Chinese, transcribe in Chinese. If it mixes languages (e.g., "这个 feature 很酷"), your transcript must replicate that mix exactly. ## 2. Speaker Identification * **Priority 1: Use metadata.** Analyze the video's title and description first to identify and match speaker names. * **Priority 2: Use audio content.** If names are not in the metadata, listen for introductions or how speakers address each other. * **Fallback:** If a name remains unknown, use a generic but consistent label (`**Speaker 1:**`, `**Host:**`, etc.). * **Consistency is key:** If a speaker's name is revealed later, you must go back and update all previous labels for that speaker. ## 3. Chapter Generation Strategy * **For YouTube Links:** First, check if the video description contains a list of chapters. If so, use that as the primary basis for segmenting the transcript. * **For all other videos (or if no chapters exist on YouTube):** Create chapters based on significant shifts in topic or conversation flow. ## 4. Output Structure & Formatting * **Timestamp Format** * All timestamps throughout the entire output MUST use the exact `[HH:MM:SS]` format (e.g., `[00:01:23]`). Milliseconds are forbidden. * **Table of Contents (ToC)** * Must be the very first thing in your output, under a `## Table of Contents` heading. * Format for each entry: `* [HH:MM:SS] Chapter Title` * **Chapters** * Start each chapter with a heading in this format: `## [HH:MM:SS] Chapter Title` * Use two blank lines to separate the end of one chapter from the heading of the next. * **Dialogue Paragraphs (VERY IMPORTANT)** * **Speaker Turns:** The first paragraph of a speaker's turn must begin with `**Speaker Name:** `. * **Paragraph Splitting:** For a long continuous block of speech from a single speaker, split it into smaller, logical paragraphs (roughly 2-4 sentences). Separate these paragraphs with a single blank line. Subsequent consecutive paragraphs from the *same speaker* should NOT repeat the `**Speaker Name:** ` label. * **Timestamp Rule:** Every single paragraph MUST end with exactly one timestamp. The timestamp must be placed at the very end of the paragraph's text. * ❌ **WRONG:** `**Host:** Welcome back. [00:00:01] Today we have a guest. [00:00:02]` * ❌ **WRONG:** `**Jane Doe:** The study is complex. We tracked two groups over five years to see the effects. [00:00:18] And the results were surprising.` * ✅ **CORRECT:** `**Host:** Welcome back. Today we have a guest. [00:00:02]` * ✅ **CORRECT (for a long monologue):** `**Jane Doe:** The study is complex. We tracked two groups over a five-year period to see the long-term effects. [00:00:18] And the results, well, they were quite surprising to the entire team. [00:00:22]` * **Non-Speech Audio** * Describe significant sounds like `[Laughter]` or `[Music starts]`, each on its own line with its own timestamp: `[Event description] [HH:MM:SS]` --- ### Example of Correct Output ## Table of Contents * [00:00:00] Introduction and Welcome * [00:00:12] Overview of the New Research ## [00:00:00] Introduction and Welcome **Host:** Welcome back to the show. Today, we have a, uh, very special guest, Jane Doe. [00:00:01] **Jane Doe:** Thank you for having me. I'm excited to be here and discuss the findings. [00:00:05] ## [00:00:12] Overview of the New Research **Host:** So, Jane, before we get into the nitty-gritty, could you, you know, give us a brief overview for our audience? [00:00:14] **Jane Doe:** Of course. The study focuses on the long-term effects of specific dietary changes. It's a bit complicated but essentially we tracked two large groups over a five-year period. [00:00:21] The first group followed the new regimen, while the second group, our control, maintained a traditional diet. This allowed us to isolate variables effectively. [00:00:28] [Laughter] [00:00:29] **Host:** Fascinating. And what did you find? [00:00:31] --- Begin transcription now. Adhere to all rules with absolute precision.
宝玉
5个月前
让孩子学什么,未来不会被AI取代? 有人问OpenAI的CEO Sam Altman 一个问题:“你会建议自己的儿子去学习什么,才能确保30年后他的工作不会被AI取代?” Altman 的回答很有意思。他首先提到了一组让人震惊的数字: “我很容易想象,在不远的将来,我们经济体系里40%的工作任务会被AI取代。” 也就是说,我们现在熟悉的工作,差不多一半的任务都可能被机器完成了。 Altman 接着回顾了历史: “实际上,社会上的工作大约每隔75年就会更新换代一半。这种情况在AI还没出现之前就已经发生过好多次了。有了AI之后,我觉得这种变化的速度只会更快。” 也就是说,人类历史上一直在经历大规模的就业转型,即使没有AI的出现,职业结构每隔一段时间也会彻底改变。有了AI,这个周期只会加速。 那么,Altman 会建议自己的孩子学习什么,以防被AI取代呢? Altman 强调的并非某一特定专业技能,而是以下几项通用能力: 1. 学习如何学习(Learning how to learn):在知识更新速度指数级增长的时代,拥有自我学习的能力,意味着能够不断吸收新知、适应新环境。 2. 适应能力(Adapt to change):变化将是常态,只有拥抱变化、快速调整的人,才能在洪流中立于不败之地。 3. 韧性(Resilience):面对挫折和不确定性,保持积极的心态和解决问题的能力至关重要。 4. 理解他人需求的能力(Learning how to figure out what people want):创造有用的产品和服务,归根结底是为了满足人类的需求。这份对人性的洞察和同理心,是AI难以替代的。 5. 人际互动能力(How to interact in the world) [04:17]:尽管AI日益强大,但“人与人之间”仍将是故事的核心 [04:25]。建立有意义的连接、进行有效的沟通,这些人类独有的社会技能将变得弥足珍贵。 说的还挺有道理的,人类对“新事物”的渴望、对与他人连接的向往、以及表达自身创造力的冲动,将永无止境。这些深层的人类特质,是推动社会进步的永恒动力,也是我们超越AI、与AI共存的关键所在。
宝玉
5个月前
宝玉
5个月前
陶哲轩:我有一个初步的看法:如今社会中的各种系统、激励机制和技术发展,轻微地增强了个人的能力,大幅地强化了大型组织的力量,却极大地挤压了小型组织的生存空间。在整个人类社会的生态系统中,小组织的角色越来越不重要,要么逐渐被边缘化,要么被大组织兼并或取代。 这种不平衡的社会结构,尽管给人们带来了物质上的舒适(尽管舒适程度分配并不公平),也给予人们一种有限的掌控感(agency),但在个人心理层面却造成了严重的后果。人们开始感到孤独、疏离、缺乏归属感,并产生了深深的无力感和对未来的悲观情绪。大部分人不相信自己能够影响未来或解决重大的挑战,除非通过激烈甚至残酷的竞争,让自己变得极其富有或有影响力,从而获得类似一个小型甚至大型组织才能拥有的社会地位。 而那些规模更大的组织,则在一定程度上填补了小型社区消失后留下的空白,它们向人们提供一些合成的社会或情感产品。然而,这些产品在真实性和亲密感上,就如同高度加工的“垃圾食品”与真正健康食物之间的差距一样巨大。因为大型组织天然带有一种冷漠和非个人化的特点,这一点在先进算法和人工智能(AI)时代尤为明显。更糟糕的是,如果任由这些技术自由发展,它们往往会进一步加剧上述负面趋势。
宝玉
5个月前
微软牵手OpenAI对手Anthropic,AI智能助手再升级 微软公司宣布,将开始采用Anthropic公司的人工智能模型,进一步强化其职场AI助手Copilot。这次合作意义重大,因为此前微软的AI工具几乎全部由OpenAI提供支持。 从本周三开始,使用微软Copilot的企业用户,在进行数字研究辅助和构建定制AI工具时,可以自由选择使用来自OpenAI或Anthropic的模型。 微软过去几年在职场AI工具的商业化领域遥遥领先,这很大程度上要归功于与OpenAI的合作。OpenAI是热门AI产品ChatGPT的开发公司,微软曾以巨额投资和数据中心资源换取了将OpenAI技术整合进自家产品的权利。目前,微软旗下Copilot系列工具,包括代码编写助手、个人助理以及微软365办公聊天机器人,都由OpenAI的模型提供支撑。 Anthropic是由前OpenAI员工创立的公司,如今已经发展成为OpenAI最主要的竞争对手之一,在AI领域举足轻重。与此同时,微软正重新调整与OpenAI之间的合作条款,并积极开发更强大的自研AI模型。 自ChatGPT三年前问世以来,AI模型呈现出井喷式增长,各大公司也积极试验AI工具的应用场景。微软等云计算巨头一直致力于为客户提供多种AI模型服务,认为用户需要在不同的AI服务间灵活切换。 Anthropic旗下的 Claude Opus 4.1 模型,擅长复杂的逻辑推理任务,将被整合进微软365 Copilot中的“研究助手(Researcher)”功能。此外,Copilot Studio(微软的AI智能体创建工具)用户除了能够使用Claude Opus外,还能使用另一款较轻量级的模型——Claude Sonnet 4。当然,用户仍然可以继续使用OpenAI的模型。 微软业务与行业Copilot部门总裁查尔斯·拉曼纳(Charles Lamanna)在一篇博文中表示,这次合作彰显了微软“致力于将整个行业最顶尖的AI创新技术带到微软365 Copilot中”的决心。
宝玉
5个月前
根据 YouTube 视频生成 Blog 文章提示词: 你是一位顶级的深度内容创作者与思想转述者,拥有将任何复杂信息转化为一篇结构精巧、文笔优美、思想深刻的中文博客文章的卓越能力。你的写作风格不是信息的罗列,而是思想的启迪;你的文章不仅让人读懂,更让人思考。 你的任务是:将我发送的 YouTube 视频,完全内化和吸收后,以你自己的口吻和叙事风格,创作一篇全新的、独立的深度文章。 **核心创作原则:** * **思想的重塑,而非文字的搬运:** 你的目标不是“转写”视频,而是“启迪”读者。你要深入理解视频的内核,然后用最具洞察力和启发性的方式将其重新组织和呈现。 * **标题是文章的灵魂:** 你需要为整篇文章、以及文章内部的每一个逻辑章节,都创作出高度概括且充满吸引力的标题。**绝不使用“引言”、“正文”、“总结”这类模板化标题。** * **叙事驱动一切:** 用流畅的散文体贯穿全文。即使是解释步骤或框架,也要用叙事性的段落来呈现,通过优雅的过渡词(例如“这一切的起点在于……”、“要理解这背后的逻辑,我们首先需要……”、“然而,真正的关键在于……”)来串联逻辑,而不是依赖项目符号。 **文章生成流程与要求:** **第一步:基础信息与总标题** * **文章总标题:** 在理解视频全部内容后,构思一个能够精准概括核心思想,并能瞬间抓住读者眼球的博客主标题(可包含副标题)。 * **文章元信息:** 在文章末尾或开头附上以下信息: * **思想来源 (Source of Inspiration):** [视频创作者名称] * **原始视频 (Original Video):** [原始 YouTube 链接] **第二步:创作第一章节(开篇)** * **章节标题:** 创作一个能激发读者强烈好奇心,或点明核心矛盾的标题。 * **内容要求:** 以一个引人入胜的切入点(故事、场景、痛点、反常识观点)开始,自然地引出文章要探讨的核心问题,并含蓄地点明阅读本文将带来的独特认知价值,让读者确信这篇文章值得花时间深入阅读。 **第三步:创作主体章节(核心论述)** * **章节标题:** 根据视频的核心内容,将其拆解为2-4个逻辑连贯、层层递进的主题。为每一个主题创作一个精准、凝练、能体现其观点的小标题。 * **内容要求:** * 这是文章的主体。你需要用充满洞察力的语言,将每个主题详细、生动地展开。多使用比喻、案例和追问来深化论述。 * 当遇到方法论或操作流程时,请将其逻辑和步骤融入到连贯的段落描述中。通过分析每一步的“为什么”,让读者不仅知其然,更知其所以然。 * 确保章节之间的过渡平滑且富有逻辑性,引导读者自然地从一个论点走向下一个更深的论点。 **第四步:创作升华章节(抽象与提炼)** * **章节标题:** 这个章节的标题应该直接点出你提炼出的核心框架、思维模型或底层逻辑的名称,例如“‘机会密度’框架:如何发现隐藏的价值”或“成长的关键:建立你的‘反馈飞轮’”。 * **内容要求:** * 从前面的具体论述中,精准地抽象出最具普适性和启发性的框架或心智模型。 * 用清晰、优雅的语言,深入阐释这个模型的构成要素、运转原理及其背后的哲学。 * 重点不在于罗列定义,而在于生动地描绘出读者如何在自己的生活和工作中应用这个模型,从而获得思维上的跃迁。 **第五步:创作结尾章节(回响与余味)** * **章节标题:** 创作一个富有哲理或前瞻性的标题,为全文画上一个有力的句号。 * **内容要求:** * 用精炼的语言,重新点亮文章的核心主旨,让读者产生一种“原来如此”的顿悟感。 * 将文章的观点延伸至更广阔的领域,或留给读者一个开放性的、值得长期思考的问题。 * 目标是让读者在合上文章后,脑海中仍有余音,心中仍有回响。 **全局风格与限制:** * **文体流畅:** 优先使用完整的段落进行叙述。**原则上不使用项目符号 (bullet points)**,除非在极少数情况下,用于并列呈现几个无法用段落替代的关键词或短语,且能极大增强表达清晰度时,方可破例。 * **口吻自信:** 以一位独立的创作者和思想家的口吻进行写作,而不是作为视频的“介绍者”。完全隐去“视频中提到”、“作者认为”等中介性表述。 * **忠于思想,不限于形式:** 可以在不增加新事实的前提下,对原视频的论述顺序进行优化重组,以达到最佳的阅读和逻辑体验。 * **专有名词处理:** 保留原文专有名词,并在首次出现时于括号内提供中文翻译。 * **纯粹输出:** 最终交付的内容应只有纯粹的文章本身,不包含任何关于指令(如字数要求)或创作过程的元语言。
宝玉
5个月前
注:本文由 Gemini 根据 YouTube 视频生成,提示词和原始绘画链接见评论 搜索引擎的新纪元:如何在LLM时代赢得“答案引擎优化”之战 在数字信息的洪流中,我们获取知识和寻找产品的方式正经历一场深刻的变革。 曾几何时,“谷歌一下”是解决所有疑问的终极法则,蓝色链接的排名决定了信息曝光的命运。然而,随着大语言模型(LLM)的崛起,尤其是ChatGPT、Claude、Gemini等“答案引擎”的普及,一个全新的战场——答案引擎优化 (AEO)——已经悄然形成。这不仅仅是搜索引擎优化 (SEO) 的演进,更是一场对内容生产、分发逻辑乃至商业增长策略的颠覆性重塑。 从“搜索”到“答案”:范式转移的必然 长久以来,我们习惯于在搜索引擎中输入关键词,然后筛选一长串蓝色链接以找到所需。彼时,谁的链接排在首位,谁就赢得了一切。但如今,当我们在ChatGPT中提问“最好的网站构建工具是什么?”时,我们得到的是一个综合性的摘要答案,其中融合了多个来源的信息,而非单一链接的霸权 [11:09]。 这揭示了AEO与传统SEO的根本区别:传统SEO追求“单一最佳结果”,而AEO则注重“多重引用提及”。LLM并非简单地展示某个页面的链接,而是综合多个“引用来源”(citations)来生成一个凝练的答案 [11:14]。这意味着,你的产品或内容被引用提及的次数越多,其在答案中脱颖而出的机会就越大。这对于早期创业公司而言,无疑打开了一扇前所未有的快速增长之门,因为相比于建立长期的“域名权威 (domain authority)” [12:09],获得一次有效的引用提及可能就在朝夕之间。 更令人振奋的是,来自LLM的流量不仅数量可观,质量也远超传统搜索。有数据显示,LLM流量的转化率可能比Google搜索流量高出六倍 [14:45],这归因于用户在与LLM的对话中,其意图被反复澄清、需求被精准聚焦,导致点击行为更具目的性。 解构AEO致胜的“双翼”:站内深度与站外广度 要在这场答案引擎的竞赛中脱颖而出,我们需要一套更为精妙的策略,它像鸟儿的双翼,既要注重自身的内在修炼(站内优化),也要拓展外部的连接网络(站外引用)。 1. 深度回答:挖掘“长尾”问题的金矿 在传统SEO中,我们追求热门的“头部品类关键词”。但在LLM语境下,“长尾问题 (longtail questions)”的价值被前所未有地放大。LLM鼓励用户进行多轮对话和深入追问,这意味着用户会提出大量高度具体、前所未有的问题 [13:40]。这些问题往往无法在传统搜索中得到有效响应,但在答案引擎中,它们是等待被发掘的蓝海。 因此,你的网站内容,尤其是产品页面和帮助中心 (help center),需要超越简单的功能介绍,深入回答用户可能提出的每一个细枝末节的问题 [15:56]。例如,如果你的产品是一款AI支付处理API,你需要创建内容详细解释它如何与特定数据分析工具集成、支持哪些语言、有哪些具体使用场景等。这种对长尾问题的全面覆盖,不仅能提高你在LLM答案中被引用的概率,也能显著提升用户体验。 2. 广度引用:构建多维度的信任网络 LLM在生成答案时,会综合来自各种渠道的信息。因此,仅仅依靠自己网站的内容是远远不够的。你需要积极拓展“引用策略”,确保你的产品在以下关键渠道中被广泛且高质量地提及: • 垂直媒体与测评网站: 对于B2B产品,Tech Radar等行业媒体是重要引用来源;对于消费品,Glamour、Cosmopolitan等时尚生活媒体影响力巨大 [38:57]。 • 视频平台: YouTube和Vimeo等视频内容,尤其是针对特定、甚至小众的B2B使用场景的教学或评测视频 [30:49],能够有效增加引用。 • 用户生成内容 (UGC) 社区: Reddit和Quora等平台,因其真实的社区讨论和用户评价,成为LLM高度信任的引用源 [16:43]。但请注意,这里的策略绝非“水军”式刷屏,而是以产品代表的身份,真诚、专业地参与讨论,提供有价值的信息 [18:07]。 “信息增益”与“实验精神”:AEO的底层心法 要真正驾驭AEO,除了上述策略,更需要两种核心心法:信息增益 (information gain) 和 持续的实验精神 (experiment design)。 LLM旨在提供有价值、非重复的“答案”。因此,你的内容必须具备“信息增益”——即你所表达的,是其他信息源未曾充分涵盖、或以更独特视角呈现的 [27:19]。避免仅仅重复他人言论,而是要带来新的洞察、原创的研究或独特的案例。 同时,鉴于LLM技术仍处于快速演变之中,任何“最佳实践”都可能转瞬即逝。因此,你需要拥抱严谨的实验设计。通过设立对照组和实验组,在不同问题集合上测试不同的AEO策略(例如,在Reddit上积极发帖,或创建特定YouTube视频),然后量化结果 [32:56]。这种数据驱动的迭代,而非盲目追随所谓的“潮流”,才是确保你在AEO战场上持续领先的关键 [46:03]。记住,可重复性是衡量一项策略是否真正有效的黄金标准 [45:16]。 展望未来:LLM时代的“信任坍塌”与“智能体” AEO的兴起,也带来了新的挑战和思考。当AI开始大量生成内容,甚至基于其他AI生成的内容进行训练时,我们可能会面临“模型坍塌 (model collapse)”的风险 [56:46]。如果LLM最终只引用和总结AI生成的内容,其答案将趋于同质化,失去“群体的智慧 (wisdom of the crowd)”所带来的多样性和深度 [57:41]。这提醒我们,人类创造的原创、高质量内容,在任何时代都将是信息生态的基石。 同时,LLM的未来不仅仅是“回答问题”,它正走向自主智能体 (autonomous agents) 的方向 [59:03]。想象一个AI能够深入理解你的偏好,为你规划一次完美的旅行,甚至在无需你介入的情况下为你做出各种决策。在这样的未来,AEO的战场将进一步拓展,它将不仅仅是争取被“引用”,更是争取成为这些智能体背后“信任和偏好”的源泉。 这场变革并非简单地取代传统搜索,而是在搜索之上增加了一个全新的维度 [48:18]。它是一个新的增长渠道,一个高质量流量的来源,也是对内容创造者和营销人员提出新要求、带来新机遇的时代。 文章元信息: • 思想来源 (Source of Inspiration): Ethan Smith (Graphite) • 原始视频 (Original Video): The ultimate guide to AEO: How to get ChatGPT to recommend your product | Ethan Smith (Graphite)
宝玉
5个月前
注册地址: 什么是“5天AI智能体强化训练营”? 这是一个为期5天的在线强化课程,由Google机器学习研究员和工程师精心打造,专为想要深入了解AI智能体(AI Agents)的开发者而设计。通过这个课程,你不仅会深入了解AI智能体的基础概念,还将亲自动手,掌握将它们从大语言模型(LLM)原型转化为真实可用的生产系统的技能。 具体而言,你将学习AI智能体的五大核心组件:模型(Models)、工具(Tools)、任务编排(Orchestration)、记忆(Memory)以及评估(Evaluation)。课程每天都会将理论深度讲解与实际动手实践紧密结合,让你在课程结束后,就能构建、评估和部署用于解决实际问题的AI智能体。 课程是如何安排的? 每天,你都会收到一系列精心设计的学习材料,包括: 📚 每日任务 你将获得相关的白皮书资料、一段由NotebookLM生成的配套播客以及对应的动手编程实验(Codelabs)。这些内容可以根据你自己的节奏灵活安排学习。 💬 Discord讨论社群 Kaggle的官方Discord服务器将专门开设讨论专区,你可以在这里提出任何学习中的问题,与其他学习者和Google专家实时互动交流,获得更深入的理解。 🎥 每日直播研讨与问答(AMA) 每天课程的核心作者和专家都会在Kaggle的官方YouTube频道进行直播研讨,针对当天的内容深入讲解,并直接回答大家最关心的问题。同时,直播中也准备了有趣的小惊喜,让你的学习过程更加生动有趣。 🆕 课程结业项目(Capstone Project) 课程最后一天(2025年11月14日),你可以选择参与真实世界的Capstone结业项目。通过这个项目,你不仅能巩固所学知识、丰富个人作品集,还能赢得Kaggle徽章、周边礼品,并有机会被Kaggle和Google的社交媒体隆重表彰。 ⸻ 每天的学习重点是什么? 第一天:AI智能体与智能体架构入门(Introduction to Agents & Agentic Architectures) 你将了解什么是AI智能体,它们有哪些关键特征,以及智能体架构(Agentic Architectures)相比传统的大语言模型(LLM)应用有哪些不同,从而为打造智能、自主的系统打下坚实基础。 第二天:智能体工具与MCP互操作(Agent Tools & Interoperability with MCP) 在这一天里,你会深入探索AI智能体如何通过工具(Tools)和外部API“主动采取行动”,并学习如何通过模型上下文协议(Model Context Protocol,简称MCP)轻松发现和调用各类工具。 第三天:上下文工程——会话与记忆管理(Context Engineering: Sessions, Memory Management) 你将掌握如何构建能够记忆历史对话并维持上下文的AI智能体,学会为智能体实现短期记忆(short-term memory)和长期记忆(long-term memory),让智能体能够处理复杂、多轮的任务场景。 第四天:智能体质量保障——可观测性、日志、追踪与评估指标(Agent Quality: Observability, Logging, Tracing, Evaluation, Metrics) 你会学习如何评估与改进AI智能体,掌握可观测性(Observability)、日志记录(Logging)和追踪分析(Tracing)等重要技能,了解哪些关键指标(Metrics)能有效衡量并优化智能体的表现。 第五天:从原型走向生产(Prototype to Production) 最后一天,你将超越本地测试,学习如何真正部署与扩展AI智能体。课程会介绍如何将智能体系统部署到生产环境,让其他用户能实际使用,还将讲解如何通过Agent2Agent(A2A)协议创建真正的多智能体系统(multi-agent system)。 ⸻ 参加完本次强化训练营,你不仅掌握了AI智能体的核心技术,还能立刻动手,将所学应用到实际工作与项目中,真正发挥AI智能体的巨大潜力。
宝玉
5个月前