时政
财经
科技
虚拟货币
其他
登录
宝玉
关注
统计数据
912
文章
0
粉丝
0
获赞
20656
阅读
热门文章
1
TechFlow 深潮 发布的文章:近期教育领域的变化引发了广泛讨论,我认为教育改革应该更加注重学生的个性化发展和创新能...
145
32
宝玉
2个月前
今天终于有空试了下,真的相当赞👍 可以灵活的选择 provider,连 claude code/codex cli 都可以用,有 GitHub Copilot、Claude 订阅也可以。 UI/UX 都很好。 特别值得一提的是 Alma 是基于 Electron 而不是 Tauri 开发的😂
分享
评论 0
0
宝玉
2个月前
Notion 的创始人 Ivan Zhao 的精彩文章:《钢铁、蒸汽机与无限大脑》 越来越清晰的感觉到,我们正处于 AI 革命的早期阶段,对于未来谁也不知道会怎么样,所以都喜欢从历史中、去工业革命、互联网革命中寻找规律,以期望能对未来有所启发。 相对来说,这篇文章虽然也是尝试从钢铁和蒸汽机的历史里,寻找 AI 时代的答案,还是挺有深度。 【1】第一个观点是:我们正在看着后视镜开车 每一代新技术刚出来时,人们总是习惯用旧的方式去理解它。这就是所谓的“看着后视镜驶向未来”。 想想看,早期的电话,大家把它当成“会说话的电报";早期的电影,其实就是把摄像机架在观众席拍舞台剧。 现在的 AI 也是一样。我们看到的 AI 大多长什么样?一个聊天框。为什么?因为它在模仿 Google 搜索框。 我们正处在这个尴尬的过渡期。就像当年大家还不懂电影剪辑语言一样,我们现在还在试图把 AI 硬塞进旧的工作模式里。 【2】个人层面:从骑自行车到开汽车 乔布斯当年有个著名的比喻,说电脑是“大脑的自行车"。意思是它能让人跑得更快,但你还得自己蹬。 对于现在的程序员来说,AI 已经不是自行车了,而是汽车。你不用蹬了,你只需要握好方向盘。 Ivan 讲了他的联合创始人 Simon 的故事。 Simon 以前是传说中的“10 倍工程师",但现在几乎不自己写代码了。路过他工位,你会看到他像指挥官一样同时调度三四个 AI 编程智能体。这些 AI 不只打字快,还能思考。他在吃饭或睡前把任务排好队,AI 就在后台疯狂干活。 他从“写代码的人",变成了“管理无限大脑的人"。 【3】为什么只有程序员先享受到了从骑自行车到开汽车的待遇? 但问题来了,为什么只有程序员先享受到了这种待遇?普通的文案、运营、产品经理为什么还在“蹬自行车"? 两个原因: 第一,上下文太碎了。程序员的代码都在仓库里,环境单纯。 但普通人的工作散落在 Slack、飞书、文档、甚至脑子里。AI 不知道前因后果,没法干活。 第二,没法验证。代码写错了会报错,好坏一目了然。 但一个活动策划案好不好?一份周报写得对不对?这很难量化。 所以,想要从自行车升级到汽车,我们得先帮 AI 把上下文补齐,并且找到验证工作成果的方法。 【4】组织层面:不仅是换引擎,还要换地基 个人层面说完,Ivan 把视角拉到组织层面,用了“钢铁"和“蒸汽机"两个比喻,来解释 AI 会如何重塑公司。 第一个是钢铁。 在钢铁普及之前,房子盖不高。因为用砖头和木头,盖到六七层,底下的墙就被压垮了。这就像现在的公司,人数一过几百,沟通成本就爆炸了,效率急剧下降。人与人之间的沟通,就是那个脆弱的“砖墙"。 AI 就是组织的“钢铁"。它能支撑起巨大的信息流,让决策不需要层层汇报就能完成。未来的公司,可能几千人规模还能像创业团队一样敏捷,因为 AI 撑住了沟通的架构。 第二个是蒸汽机。 最早的工厂都建在河边,因为要用水车做动力。蒸汽机刚发明时,很多老板只是把水车拆了,换成蒸汽机,但工厂还在河边,流程也没变。效率提升非常有限。 直到后来,老板们意识到: “等一下,既然不用水了,我为什么不把工厂搬到离港口更近的地方?" 工厂可以建在离工人、港口、原材料更近的地方。整个车间可以围绕蒸汽机重新设计。后来电力普及,工厂进一步把集中的动力轴拆散,给每台机器配上独立的电机。生产力才真正爆发,第二次工业革命才真正起飞。 我们现在还在“换水车"阶段。AI 聊天机器人挂在现有工具上,工作流程还是为人设计的。我们还没认真想过:如果旧的约束消失了,组织应该长什么样? 真正的变革,是当管理者意识到可以彻底重组工作流,让那些“不睡觉的大脑"去处理所有重复性工作的时候。 Notion 自己就在做实验。他们 1000 人的公司里,活跃着 700 多个 AI Agent。这些 AI 负责写会议纪要、回答内部咨询、处理 IT 请求、写周报。这不仅仅是省时间,这是在重塑组织形态。 回看你的工作,如果只是用 ChatGPT 润色邮件,那你就是在把水车换成蒸汽机,工厂还在河边。试着想一想:如果我有无限个免费实习生(AI),工作流程应该怎么彻底重设计? 【5】经济层面:从佛罗伦萨到东京 最后 Ivan 把视角再拉高一层:钢铁和蒸汽不只改变了建筑和工厂,还改变了城市。 几百年前,城市是人类尺度的。佛罗伦萨走个四十分钟就能穿城而过,生活节奏由人能走多远、声音能传多响决定。然后钢铁框架让摩天楼成为可能,蒸汽铁路把市中心和腹地连起来,电梯、地铁、高速公路跟上。城市在规模和密度上爆发了。东京、重庆、达拉斯,这些不是“更大版本的佛罗伦萨",而是完全不同的生存方式——更混乱、更匿名、更难辨认方向,但也提供了更多机会和自由。 Ivan 认为知识经济正站在同样的转折点上。今天的知识工作占了美国 GDP 的近一半,但大部分还是人类尺度的运作:几十人的团队,会议和邮件定义的节奏,超过几百人就开始失灵的组织。我们用石头和木头建造了很多佛罗伦萨。 当 AI 智能体大规模上线,我们会开始建造东京。成千上万的智能体和人类协作,工作流程全天候运转不等人醒来,决策在恰到好处的人类参与下被综合。周会、季度规划、年度考核的节奏可能不再合理,新的节奏会涌现。 我们将失去一些“小而美"的清晰感,但会换来前所未有的规模和速度。 Ivan 提到一个历史趣事:1865 年英国有个《红旗法案》,规定汽车上路时必须有人举着红旗走在前面开路。听起来荒谬,但我们现在要求 AI 每做一步都要人确认,是不是也像“举红旗"?真正的未来,是人站在更高处监管,而不是挡在路中间。 也许我们应该停止从后视镜看世界,开始想象新的可能。卡内基看着钢铁,看到了城市天际线。兰开夏郡的工厂主看着蒸汽机,看到了不再依赖河流的车间。 我们还在问 AI 怎么当好“副驾驶"。也许该问的是:当无限心智成为基础设施,知识工作会变成什么样? 这个问题,Ivan 没给答案。但他给了一个思考的框架。对于正在这场变革中的人来说,框架可能比答案更有用。
分享
评论 0
0
宝玉
2个月前
根据文章生成公众号封面的提示词 使用很方便,只需要提示词 + 文章内容,就可以自动生成复合公众号尺寸的封面。做成 Gemini 的 Gem 的话,就可以只要直接输入文章内容即可自动生成。 它很好的同时支持横版 2.35:1 (消息列表) 和 1:1 (转发卡片和公众号主页) 格式 最佳使用场景:Gemini + nano banana pro 可以直接使用我分享的 Gem: 或者使用下面的提示词 --- 提示词 --- 公众号封面图生成提示词 请根据提供的内容创建一张吸引眼球的公众号封面图,遵循以下规范: 视觉风格 - 手绘插画风格,比例为 2.35:1(公众号封面标准尺寸) - 色彩鲜明、对比强烈,确保在小尺寸预览时依然醒目 - 风格统一,避免写实元素,保持整体手绘质感 构图要求 - 主视觉元素居中或偏左(右侧预留标题区域) - 添加 1-2 个简洁的卡通形象、图标或知名人物剪影,增强记忆点 - 若涉及敏感或版权人物,用风格相似的替代形象,不得拒绝生成 - 大量留白,突出核心信息,避免画面拥挤 文字处理 - 标题文字大而醒目,控制在 8 字以内 - 可添加 1 行副标题或关键词标签 - 字体风格与手绘插画协调统一 吸引力法则 - 使用悬念、数字、痛点等钩子元素激发点击欲望 - 视觉元素夸张有反差 - 色彩搭配参考爆款封面:橙黄、蓝紫、红黑等高对比组合 语言 - 除非另有说明,默认使用中文 请根据输入内容生成封面图。
分享
评论 0
0
宝玉
2个月前
去年大家还担心会不会被 AI 替代,今年风向变了,更关心 AI 是不是泡沫。 这种担心不是没道理。过去三年,AI 相关公司市值涨了 10 万亿美元。光 OpenAI 一家,估值增量就有 4800 亿——比绝大多数国家一年的 GDP 还高。App Store 排行榜前十,一半是 AI 应用。 这样的场景,难免让人联想到二十多年前的互联网泡沫。 要是你问我:AI 是泡沫还是明天? 我的答案是:两个都是。短期有泡沫,长期是明天。 这话不是和稀泥,而是有历史规律可循的。 互联网泡沫那会儿,投资人往光纤电缆里砸了天量资金。泡沫破了,公司倒了一大片,但埋在地下的光纤还在。正是这些"泡沫的遗产",支撑了后来 YouTube、Netflix、云计算的崛起。90 年代的生物科技热潮也一样——一堆公司烧光钱倒闭了,却留下了一批能救命的新药。 泡沫破裂时,公司会死,但基础设施不会消失,技术积累不会归零。 AI 大概率会走同样的路。就算现在估值有水分,就算一批蹭热度的公司会死掉,但算力设施会留下来,数据管线会留下来,模型部署的经验会留下来,踩过的坑会变成行业标准。下一波浪潮来的时候,起点会高得多。 更重要的是,真正的价值已经在发生: 编程领域,AI 让程序员效率翻倍;医药领域,Moderna 这样的公司把药物研发周期从几年压缩到几小时;客服领域,超过一半的简单咨询已经被 AI 接管。 这些是实打实的生产力提升,不是靠 PPT 就能编出来的。 但泡沫确实存在,而且破裂时会很残酷。未来的 AI 市场会经历一轮分层洗牌: 第一层是讲故事的人——靠套壳、靠卖课、靠宏大叙事,却始终进不了核心业务流。泡沫破裂时,这些公司会归零。 第二层是修路的人和造车的人——算力基础设施是"路",真正解决痛点的应用是"车"。不管泡沫还是明天,他们都会活下来。 判断一家 AI 公司能不能扛过周期,有个简单标准:故事讲得比钱赚得还快的,要警惕。 所以回到最初的问题:AI 到底是泡沫还是明天? 短期看,确实有泡沫成分——估值跑在现金流前面,太多项目靠故事吃饭。但长期看,技术进步是实打实的,产业渗透是不可逆的,留下来的基础设施会持续创造价值。 泡沫会破,但破的是那层泡沫,不是整个技术革命。 对我们普通人来说,不用太在意那些万亿级别的估值数字,也不用担心泡沫什么时候破。真正值得关心的是: 在泡沫被挤破之前,我们能不能用好 AI,让它帮你分担那些重复繁琐的工作,把宝贵的时间留给更有创造力的事。 毕竟,泡沫会破,但技术不会倒退。
分享
评论 0
0
宝玉
2个月前
这位网友的问题很典型: > 宝玉老师,以现在大模型的能力还需要prompt吗,我现在都直接描述问题就发出去了 这个疑问其实特别普遍,甚至可以说,它代表了绝大多数用户的心声。包括还有人说: > 今天社交网络上被追捧的所谓AI高人,不过是Prompt Kiddie(提示词小子)。 > 整天转帖一些提示词,其实是在自动充当大模型的燃料。 这个问题的答案,其实藏在你的需求里。 如果你的任务很简单,比如问个天气、查个单词,或者写个请假条,那确实不需要什么复杂的提示词。这就好比做一道 1 加 1 等于 2 的数学题,直接心算就完事了,非要列个方程式反而显得矫情。 但是,一旦涉及到复杂任务,情况就完全不同了。 你可以把专业的提示词想象成解难题时的“数学公式”。 当面对一道复杂的应用题时,光靠心算是不够的。你需要公式来规范步骤,需要设定变量。提示词就是在这个环节起作用,它把一个模糊的需求,拆解成了一条清晰的思维链,手把手教 AI 怎么思考。 举个最常见的例子:把一篇晦涩的学术论文改成科普文章(参考提示词: )。 如果你直接把论文丢给 AI,跟它说“帮我改写成科普文”,它大概率会给你扔回一篇删减版的论文,依然充满了你不懂的术语。因为它不知道你的“科普”是给谁看的,也不知道你需要什么风格。 但如果你运用了“公式”,告诉它:你的读者是只有高中物理水平的普通爱好者,请多用生活中的比喻(比如把量子纠缠比作心灵感应),并且在写之前先去检索一下相关的背景趣闻。 这时候,AI 输出的就不是冷冰冰的文字,而是一篇有血有肉、生动有趣的科普文章。这就是提示词的魔力——它填补了“指令”和“意图”之间的鸿沟。 再进一步,提示词还能充当“工作流经理”的角色。 比如你想做个 PPT。普通玩法是让 AI 帮你列个大纲,然后你自己根据大纲一页页去制作幻灯片。 但高阶的玩法是,用一段精心设计的提示词(参考提示词: ),让 AI 不仅生成大纲,还能根据每一页的内容,自动写出对应的 AI 绘画指令。它把“写大纲”和“想配图”这两个步骤串联起来了。这时候的 AI,就不再是一个简单的聊天机器人,而是一个自动化的生产线。 还有大家最关心的 AI 画图提示词。 为什么大神生成的图片光影绝美、细节拉满,而你生成的总是差点意思?因为在非专业人士眼里,只有“好看”这一个形容词;而在提示词里,包含了光线类型、渲染引擎、构图视角等各种专业参数。 这些参数,就是大神手中的“秘密配方”。你想复刻那张图,光靠猜是猜不出来的,必须拿到那个具体的参数。即使你可以通过多模态模型来逆向,有时候就是差一点意思,毕竟专业的提示词,是经过无数次试验和优化才打磨出来的。 所以,回到最初的问题。我们还需要 Prompt 吗? 如果你只是把 AI 当作一个陪聊的网友,或者一个随身的百科全书,那你确实不需要。 但如果你想把 AI 变成一个稳定输出的生产力工具,提示词就是必修课。 因为聊天是一次性的,说完就散;而专业提示词就像是“程序”和“软件”。 当你写好了一个完美的翻译提示词,或者一个生成信息图的提示词,它就不再是一句话了,它变成了一个只要你输入原料,就能稳定产出高质量产品的“工具”。 我自己则一直是在尝试借助提示词来帮我提升效率: 比如我要提取 YouTube 字幕,还要去对发言人名字进行标注,我就写了提取 YouTube 字幕的提示词 ,不仅有文稿,还能自动对上发言人,还能分章节。 比如我要给文章配图,所以我写了一个生成信息图的提示词 ,文章贴进去,它就能帮我生成一张好看专业的信息图。 比如我要要校对文稿,我不会肉眼去校对,而是写一个校对的提示词,让 AI 帮我找错别字、语法错误,提供修改建议。 借助这些提示词,就能让我事半功倍。 这才是提示词的真正价值: 它让你从一个向 AI 提问的“用户”,变成了指挥 AI 干活的“工程师”。 下次当你在干一些枯燥的任务的时候,不妨想一想: 我每天在做的这些事情,如果写一个专业的提示词,是不是能让我事半功倍?
分享
评论 0
0
宝玉
2个月前
预订本年度最有价值提示词 —— 生成既有质感,又能随意修改文字的完美 PPT 大家都很喜欢 NotebookLM 生成的 Slide Deck(幻灯片)风格也很棒。👇
分享
评论 0
0
宝玉
2个月前
Paul Graham 给 18 岁自己的三条建议: 1. 别盲目追求所谓的“成功光环”,真正值得你追随的是好奇心。 2. 辛苦努力不可避免。光靠努力可能还不够,但它绝对是必不可少的。 3. 别觉得父母的付出理所当然,要懂得珍惜他们。 你可以把前两条合并成一句: 努力决定你能走多远,好奇心决定你会往哪走。 年轻时可能不会立刻理解这句话,但它会一直停留在脑海里,直到某天真正懂了为止。
分享
评论 0
0
宝玉
2个月前
Redis 之父 Salvatore Sanfilippo 最近发了一篇年终 AI 反思,一共 8 条观点。 先说个背景:Salvatore 不是 AI 圈的人,他是程序员圈的传奇。2009 年创造了 Redis,这个数据库如今是全球最流行的缓存系统之一。2020 年他从 Redis 退休,去做自己的事。2024 年底回归 Redis,同时成了 AI 工具的深度用户,Claude 是他的编码伙伴。 这种身份很有意思——他既是技术大牛,又是 AI 的普通使用者,视角比纯 AI 研究者更接地气。 一、随机鹦鹉的说法,终于没人信了 2021 年,Google 的研究员 Timnit Gebru 等人发了篇论文,给大语言模型起了个外号叫随机鹦鹉。意思是这些模型只是在概率性地拼凑文字,既不理解问题是什么意思,也不知道自己在说什么。 这个比喻很形象,传播很广。但 Salvatore 说,到 2025 年,几乎没人再这么说了。 为什么?因为证据太多了。LLM 在律师资格考试、医学考试、数学竞赛上的表现超过了绝大多数人类。更关键的是,研究者通过逆向工程这些模型,发现里面确实形成了对概念的内部表征,不是简单的词语拼贴。 Geoffrey Hinton 的说法最直接:要准确预测下一个词,你必须理解这个句子。理解不是预测的替代品,而是做好预测的必要条件。 当然,LLM 是不是真的理解,哲学上还可以争论。但实用层面,这个争论已经结束了。 二、思维链是个被低估的突破 思维链,就是让模型在回答之前先把思考过程写出来。看起来简单,背后的机制却很深。 Salvatore 认为它做了两件事: 第一,它让模型在回答前先采样自己的内部表征。说人话就是,先把和问题相关的概念、信息调动到上下文里,再基于这些信息回答。这有点像人考试前先在草稿纸上列提纲。 第二,结合强化学习,模型学会了如何一步步把思考推向正确答案。每一个 token 的输出都会改变模型的状态,强化学习帮它找到那条能收敛到好答案的路径。 这不是什么神秘的东西,但效果惊人。 三、算力扩张的瓶颈被打破了 以前 AI 圈有个共识:模型能力的提升取决于训练数据量,而人类产出的文本是有限的,所以扩张迟早会撞墙。 但现在有了可验证奖励的强化学习,情况变了。 什么是可验证奖励?就是有些任务,比如优化程序速度、证明数学定理,模型可以自己判断结果好不好。程序跑得更快就是更好,证明对了就是对了,不需要人来标注。 这意味着模型可以在这类任务上持续自我提升,产生几乎无限的训练信号。Salvatore 认为,这将是 AI 下一个大突破的方向。 还记得 AlphaGo 第 37 手吗?那步棋当时没人看懂,后来证明是神之一手。Salvatore 觉得,LLM 在某些领域也可能走出这样的路径。 四、程序员的态度转变了 一年前,程序员圈子还分成两派:一派觉得 AI 辅助编程是神器,一派觉得是玩具。现在,怀疑派大规模倒戈了。 原因很简单:投入产出比过了临界点。模型确实会犯错,但它节省的时间已经远超你修正错误的成本。 有趣的是,程序员使用 AI 的方式分成了两派:一派把 LLM 当"同事",主要通过网页界面对话式地用。Salvatore 自己就是这派,用 Gemini、Claude 这些的网页版,像跟一个懂行的人聊天一样协作。 另一派把 LLM 当"独立自主的编码智能体",让它自己去写代码、跑测试、修 bug,人类主要负责审核。 这两种用法背后是不同的哲学:你是把 AI 当助手,还是当执行者? 五、Transformer 可能就是那条路 一些知名 AI 科学家开始探索 Transformer 之外的架构,成立公司研究显式符号表征或世界模型。 Salvatore 对此持开放但谨慎的态度。他认为 LLM 本质上是在一个可微分的空间里近似离散推理,不是不可能在没有根本性新范式的情况下就达到 AGI。而且,AGI 可能通过多种完全不同的架构独立实现。 换句话说,条条大路通罗马。Transformer 可能不是唯一的路,但也不一定是死路。 六、思维链没有改变 LLM 的本质 有人改口了。以前说 LLM 是随机鹦鹉,现在承认 LLM 有能力了,但又说思维链从根本上改变了 LLM 的本质,所以以前的批评仍然对。 Salvatore 直接说:他们在撒谎。 架构没变,还是 Transformer。训练目标没变,还是预测下一个 token。CoT 也是一个 token 一个 token 生成的,跟生成别的内容没有本质区别。你不能因为模型变强了就说它"变成了另一个东西",来给自己的错误判断找台阶下。 这话说得挺不客气,但逻辑上确实站得住。科学判断应该基于机制,不能因为结果变了就改定义。 还有一个案例很能说明问题:ARC 测试。 七、ARC 测试从反 LLM 变成了亲 LLM ARC 是 François Chollet 在 2019 年设计的测试,专门用来衡量抽象推理能力。它的设计初衷就是抗记忆、抗暴力穷举,只能靠真正的推理来解。 当时很多人认为,LLM 永远过不了这个测试。因为它需要的是从极少样本中归纳规则、应用到新情况的能力,这恰恰是随机鹦鹉做不到的。 结果呢?2024 年底,OpenAI 的 o3 在 ARC-AGI-1 上达到了 75.7% 的准确率。2025 年,即使是更难的 ARC-AGI-2,顶尖模型也能达到 50% 以上。 这个逆转挺讽刺的。当初设计这个测试,就是为了证明 LLM 不行。结果它反而成了证明 LLM 可以的证据。 八、未来 20 年的根本挑战 最后一条只有一句话:未来 20 年 AI 的根本挑战是避免灭绝。 没有展开,就这么一句。但你知道他在说什么。当 AI 真的变得足够强大,"怎么确保它不会出大问题"就不再是科幻话题了。 Salvatore 不是 AI 的狂热信徒,也不是怀疑论者。他是一个既懂技术又在实际用 AI 的人。不是纯学术的视角,也不是纯商业的吹捧,而是一个资深工程师的冷静观察。 他的核心判断是:LLM 比很多人愿意承认的要强大得多,强化学习正在打开新的可能性,而我们对这些系统的理解还远远不够。 这大概就是 2025 年 AI 发展的真实状态:能力在加速,争议在减少,但不确定性仍然巨大。
分享
评论 0
0
宝玉
2个月前
Andrej Karpathy 是 OpenAI 联合创始人、前特斯拉 AI 总监,也是全球最有影响力的 AI 研究者之一。他刚刚发布了一篇 2025 年 LLM 年度回顾。 第一个大变化:训练方法的范式升级 2025 年之前,训练一个好用的大模型基本是三步走:预训练、监督微调、人类反馈强化学习。这个配方从 2020 年用到现在,稳定可靠。 2025 年多了关键的第四步:RLVR,全称是 Reinforcement Learning from Verifiable Rewards,翻译过来就是「可验证奖励的强化学习」。 什么意思?简单说,就是让模型在「有标准答案」的环境里反复练习。比如数学题,答案对就是对,错就是错,不需要人来打分。代码也一样,能跑通就是能跑通。 这和之前的训练有什么本质区别?之前的监督微调和人类反馈,本质上是「照葫芦画瓢」,人给什么样本,模型学什么样本。但 RLVR 不一样,它让模型自己摸索出解题策略。就像学游泳,之前是看教学视频模仿动作,现在是直接扔水里,只要你能游到对岸,怎么划水我不管。 结果呢?模型自己「悟」出了看起来像推理的东西。它学会了把大问题拆成小步骤,学会了走错路时回头重来。这些策略如果靠人类标注示范,根本标不出来,因为人自己也说不清「正确的思考过程」长什么样。 这个变化带来一个连锁反应:算力的分配方式变了。以前大部分算力砸在预训练阶段,现在越来越多算力用于 RL 阶段。模型的参数规模没怎么涨,但推理能力飙升。OpenAI 的 o1 是这条路的起点,o3 是真正让人「感觉到不一样」的拐点。 还有个新玩法:推理时也能花更多算力。让模型「想久一点」,生成更长的推理链条,效果就更好。这相当于多了一个调节能力的旋钮。 第二个大变化:我们终于搞懂了 AI 是什么「形状」的聪明 Karpathy 用了一个很妙的比喻:我们不是在「养动物」,而是在「召唤幽灵」。 人类的智能是进化出来的,优化目标是「在丛林里让部落活下去」。大模型的智能是训练出来的,优化目标是「模仿人类文本、在数学题里拿分、在评测榜单上刷分」。 优化目标完全不同,出来的东西当然也完全不同。 所以 AI 的智能是「参差不齐」的,英文叫 jagged intelligence。它可以在某些领域表现得像全知全能的学者,同时在另一些领域犯小学生都不会犯的错。上一秒帮你推导复杂公式,下一秒被一个简单的越狱提示骗走你的数据。 为什么会这样?因为哪个领域有「可验证的奖励」,模型在那个领域就会长出「尖刺」。数学有标准答案,代码能跑测试,所以这些领域进步飞快。但常识、社交、创意这些领域,什么是「对」很难定义,模型就没法高效学习。 这也让 Karpathy 对基准测试失去了信任。道理很简单:测试题本身就是「可验证环境」,模型完全可以针对测试环境做优化。刷榜变成了一门艺术。所有基准都刷满了,但离真正的通用智能还差得远,这是完全可能发生的事。 第三个大变化:LLM 应用层浮出水面 Cursor 今年火得一塌糊涂,但 Karpathy 认为它最大的意义不是产品本身,而是证明了「LLM 应用」这个新物种的存在。 大家开始讨论「X 领域的 Cursor」,这说明一种新的软件范式成立了。这类应用做什么? 第一,做上下文工程。把相关信息整理好,喂给模型。 第二,编排多个模型调用。后台可能串了一堆 API 调用,平衡效果和成本。 第三,提供专业场景的界面。让人类能在关键节点介入。 第四,给用户一个「自主程度滑杆」。你可以让它多干点,也可以让它少干点。 有个问题被讨论了一整年:这个应用层有多「厚」?模型厂商会不会把所有应用都吃掉? Karpathy 的判断是:模型厂商培养的是「有通用能力的大学毕业生」,但 LLM 应用负责把这些毕业生组织起来、培训上岗,变成能在具体行业干活的专业团队。数据、传感器、执行器、反馈循环,这些都是应用层的活。 第四个大变化:AI 搬进了你的电脑 Claude Code 是今年最让 Karpathy 印象深刻的产品之一。它展示了「AI 智能体」应该长什么样:能调用工具、能做推理、能循环执行、能解决复杂问题。 但更关键的是,它跑在你的电脑上。用你的环境、你的数据、你的上下文。 Karpathy 认为 OpenAI 在这里判断失误了。他们把 Codex 和智能体的重心放在云端容器里,从 ChatGPT 去调度。这像是在瞄准「AGI 终局」,但我们还没到那一步。 现实是,AI 的能力还是参差不齐的,还需要人类在旁边看着、配合着干活。把智能体放在本地,和开发者并肩工作,才是当下更合理的选择。 Claude Code 用一个极简的命令行界面做到了这一点。AI 不再只是你访问的一个网站,而是「住在」你电脑里的一个小精灵。这是一种全新的人机交互范式。 第五个大变化:Vibe Coding 起飞了 2025 年,AI 的能力跨过了一个门槛:你可以纯用英语描述需求,让它帮你写程序,完全不用管代码长什么样。Karpathy 随手发了条推特,给这种编程方式起了个名字叫 vibe coding,结果这个词火遍全网。 这意味着什么?编程不再是专业程序员的专利,普通人也能做。这和过去所有技术的扩散模式都不一样。以前新技术总是先被大公司、政府、专业人士掌握,然后才慢慢下沉。但大模型反过来,普通人从中受益的比例远超专业人士。 不只是「让不会编程的人能编程」。对会编程的人来说,很多以前「不值得写」的小程序现在都值得写了。Karpathy 自己就用 vibe coding 做了一堆项目:用 Rust 写了个定制的分词器、做了好几个工具类 App、甚至写了一次性的程序只为找一个 bug。 代码突然变得廉价、即用即弃、像草稿纸一样随便写。这会彻底改变软件的形态和程序员的工作内容。 第六个大变化:大模型的「图形界面时代」要来了 Google 的 Gemini Nano Banana 是今年最被低估的产品之一。它能根据对话内容实时生成图片、信息图、动画,把回复「画」出来而不是「写」出来。 Karpathy 把这件事放到更大的历史脉络里看:大模型是下一个重大计算范式,就像 70 年代、80 年代的计算机一样。所以我们会看到类似的演进路径。 现在和大模型「聊天」,有点像 80 年代在终端敲命令。文字是机器喜欢的格式,但不是人喜欢的格式。人其实不爱读文字,读文字又慢又累。人喜欢看图、看视频、看空间布局。这就是传统计算机为什么要发明图形界面。 大模型也需要自己的「GUI」。它应该用我们喜欢的方式跟我们说话:图片、幻灯片、白板、动画、小应用。现在的 Emoji 和 Markdown 只是初级形态,帮文字「化个妆」。真正的 LLM GUI 会是什么样?Nano Banana 是一个早期暗示。 最有意思的是,这不只是图像生成的事。它需要把文本生成、图像生成、世界知识全部绞在一起,在模型权重里融为一体。 Karpathy 的总结是这样的:2025 年的大模型,比他预期的聪明,也比他预期的蠢。两者同时成立。 但有一点很确定:即使以现在的能力,我们连 10% 的潜力都没挖掘出来。还有太多想法可以试,整个领域感觉是敞开的。 他在 Dwarkesh 的播客里说过一句看似矛盾的话: > 他相信进步会继续飞速推进, > 同时也相信还有大量的工作要做。 两件事并不矛盾。2026 年系好安全带继续加速吧。
分享
评论 0
0
宝玉
2个月前
我推荐他们基于 Claude Agent SDK 进行二次开发,而不是从零造轮子。一些关键理由包括: 1. Claude Code 已经验证了它是可行的 2. 开箱即用,内置工具足够满足绝大数场景 3. 可以自定义工具、接入 MCP、自定义 Skill 4. 可以接入国产兼容模型 还帮着基于 Claude Agent SDK 快速搭建了一个原型系统。一些关键代码还开源在这里: 这样很快有了个基本可用的 Agent。
分享
评论 0
0
宝玉
2个月前
今天在 FEDay 上分享了一个 Agent 前端落地案例,核心内容是讲述了我参与的一个团队如何从"技术成功"走向"产品失败",又如何在复盘中获得认知升级。 这个故事的价值不在于成功的方法论,而在于那些踩过的坑和思维转变的过程。
分享
评论 0
0
宝玉
2个月前
AI 动态生成 UI 这个方向是没问题的,技术上不是当年低代码那套思路和技术方案了,也不需要 JSON,直接动态生成 HTML/CSS/JS 就可以了。 动态 UI 不需要满足所有场景,适合那种即用即走的场景。 另外现在动态 UI 其实有两个主要方向: 一个是 Google 的完全动态生成的 UI,这种灵活度高,稳定性差一些。 另一个方案是 OpenAI 正在做的 ChatGPT App,它其实是一个个做好的小程序,按需调用,比如你要订酒店,不需要跳出 ChatGPT,在聊天窗口会有个订酒店的小程序跳出来,根据你提供的信息填充好信息,你自己修改确认一下就可以完成酒店预订的操作。
分享
评论 0
0
宝玉
2个月前
画讽刺漫画的提示词分享: 以丁聪的风格画一幅讽刺漫画,主题是: > 今天社交网络上被追捧的所谓AI高人,不过是 Prompt Kiddie(提示词小子)。 > 整天转帖一些提示词,其实是在自动充当大模型的燃料。
分享
评论 0
0
宝玉
2个月前
今天看了篇文章,叫:《AI 与自动化的讽刺》,内容跟当前 AI 的发展很应景。 1983年,一位认知心理学家 Lisanne Bainbridge 写了篇论文,题目叫《自动化的讽刺》。四十多年后的今天,这篇论文上预言的问题,正一字一句地在 AI Agent 身上应验。 当年她研究的是工厂自动化:机器干活,人类监督。 今天我们面对的是AI Agent自动化:AI干活,人类监督。场景变了,但底层逻辑一模一样。而她当时在论文中指出的那些问题,又重新来了一遍。 论文中都提到了哪些问题呢? 1. 技能退化困境:不用就会忘,专家变监工后技能会萎缩 用进废退,这四个字我们都懂。但放到AI时代,它有个更残酷的版本。 以前你是某个领域的专家,天天做这件事,手到擒来。现在公司说,让AI Agent来做吧,你负责盯着它,出了问题再介入。 听起来很美好对不对?从打工升级成监工,岂不是更轻松? 问题来了:你不做这件事了,但你的技能不止不会进步,甚至还会退化。 像我这样天天用 AI 写代码的,我能感觉得到这两年是没啥进步,而且对 AI 有依赖,很多以前信手拈来随手就可以写出来的代码,现在没有 AI 就啥都不想干了。 真的是有点用进废退了。 无论是 OpenAI 还是 Anthropic 都在吹他们的 Coding Agent 多厉害,他们的员工只要验证 AI 写的结果就好了,但是他们故意没提的是,这些人都是万里挑一的高手,他们有足够的经验判断AI对不对。但如果他们接下来几年都只是验证 AI 做的对不对,那么他们的技能会慢慢倒退。 像我们这一代老程序员还好,更要命的是下一代。 今天的老程序员们好歹是从实战中成长起来的。明天的程序员呢?他们从入行第一天就在盯AI,没怎么亲手做过。他们既没有技能,也没有机会学。那他们怎么判断AI对不对? 论文原话是: > 当前这代自动化系统,正在吃老一代操作员的技能老本。下一代操作员不可能有这些技能。 这个问题今天看不出来,三五年后可能就会凸显出来了。 2. 记忆提取困境:不常用的知识,调取速度也会变慢 还有个问题就是相关技能的记忆也会退化。 想想我们高中时哪些滚瓜烂熟的公式,现在还能想起来几个了。放到 AI 监督的场景,随着 AI 能力越来越强,大部分时候都是对的,这意味着大多数时候不需要用到你的知识,随着你的知识越用越少,相关的记忆就会退化。 3. 实践悖论:理论培训没用,必须实战才能学会,但AI在干活人没机会练 这时候你可能会想:那培训是不是有用? 但是《自动化的讽刺》论文中的结论是:培训并没有太大用。 因为专业技能不是听课听出来的,是在真实场景里靠实战锻炼出来的。课堂上学的理论,如果没有配套的实战练习,你很可能听不懂,因为没有相应的经验框架。就算当时懂了,很快也会忘,因为没有和真实任务绑定的记忆提取路径。 要保持监督AI的能力,你得定期亲自干活。但如果公司追求的是让 AI 自动化运转以提升效率,那人就没多少机会练手。 这是个死循环。 就像论文里面说的: > 我们训练操作员按指令行事,然后把他们放进系统,指望他们提供智慧。 你不能指望平时不需要怎么思考和练习的人类,在关键时刻能想出什么好办法。 4. 监控疲劳:人类无法长时间对"很少出错"的系统保持警觉 心理学研究早就发现,人类无法对一个很少出问题的目标保持长时间警觉,半小时是极限。这不是意志力的问题,这是生理结构决定的。 从进化角度看,这其实是个生存优势:如果你盯着一个地方什么都没发生,大脑会自动降低警觉,把注意力资源省下来应对真正的威胁。但放到监控场景里,这就成了问题。 AI Agent大部分时候是对的,偶尔会犯错。这恰好是最难监控的模式。如果它经常出错,你会保持警惕。如果它从不出错,你不用监控。但它很少出错这种情况,正好落在人类注意力的盲区里。 更糟的是,AI Agent犯错的方式特别隐蔽。它不会说"我不确定",它会用一种极其自信的语气告诉你它的计划,洋洋洒洒几十上百行。错误可能藏在第87行的一个小前提里,比如"因为2大于3,所以我们应该……"。被那么多看起来正确的内容包裹着,被那种自信满满的语气麻痹着,你很难注意到。 那加个自动报警系统呢? 论文说:谁来监控报警系统?如果报警系统本身出了问题,操作员不会注意到,因为报警系统已经正常运转了很久。 那让人做记录呢? 论文说:人可以机械地抄数字而完全没注意数字是什么。 所有试图对抗监控疲劳的手段,都会撞上同一堵墙:人类的注意力就是无法长时间锁定在一个很少出事的目标上。这是硬件限制,不是软件问题。 5. 地位问题:从专家降级为监工,心理冲击和社会地位下降 你曾经是专家,公司里有什么难题找你,同事尊重你,你自己也有职业认同感。现在你是AI的看门人。 技能层面的损失是一回事,心理层面的冲击是另一回事。从专家降级为监工,从创造者变成审核员,从被需要变成备胎。这种转变对很多人来说是很难接受的。 论文里说,被这样降级的人会出现各种复杂的应对反应,有些看起来甚至是自相矛盾的。这部分内容展开讲太长,有兴趣的可以去读原论文。 6. 糟糕的UI:当前AI Agent界面是最差的监控设计 工业自动化领域花了几十年时间优化控制室设计:显示屏怎么布局能让操作员最快发现异常,急停按钮为什么是红色的、为什么那么大、为什么放在那个位置。每一个细节都是用事故和教训换来的。 现在看看AI Agent的界面? 一堆自信满满的长文本,一个接一个的多步骤计划,几十上百行洋洋洒洒的解释。你要在这些文字里找出那个藏着的错误。 这大概是人类设计过的最糟糕的异常检测界面。 7. 训练悖论:越成功的自动化系统,越需要投资培训人类 论文中谈到自动化带来的训练问题: > 如果不能让操作员定期接管工作亲自干,就得用模拟器训练。但模拟器有个根本问题:你只能模拟你能预见的故障。未知的故障模拟不出来,已知但没经历过的故障也很难准确模拟。 那怎么办? > 只能培训通用策略而不是具体应对方法。但这又带来新问题:你不能指望操作员光靠查操作手册来应对异常,因为手册不可能涵盖所有情况。 > 越是成功的自动化系统,越少需要人工干预,反而越需要在人员培训上投入巨资。 因为干预越少,人的技能退化越快,应对罕见异常的能力越弱,每次培训的成本就越高。 决策者想用AI省钱,但省下的人力成本可能得加倍投入到培训成本里。 8. 领导力困境:监督AI不只是被动看,还要主动"领导"它们 监督AI Agent不只是被动地盯着看,还得主动地指挥它们。告诉它们做什么、不做什么、分几步做、怎么调整方向。 这其实是一种领导技能。 为什么LinkedIn上夸AI Agent最起劲的往往是管理者?因为他们本来就习惯间接工作:设定目标、分配任务、给反馈、调方向,但不亲自动手。对他们来说,指挥AI Agent和指挥下属没有本质区别。 但对于一直亲自干活的执行者来说,这是一个巨大的角色转换。你得从一个做事的人,变成一个让别人做事的人。这不是改几条 prompt就能解决的,这是一整套技能体系的重建。 公司会给新晋经理做领导力培训。但有谁见过公司给AI监督者做领导力培训? 四十年前那篇论文的结尾是这样的: > 没有时间压力时,人类可以是令人印象深刻的问题解决者。困难在于,一旦有时间压力,效率就会大打折扣。我希望这篇论文说清楚了两件事:第一,自动化不一定会消除困难,这是讽刺所在;第二,解决这些问题需要的技术创造力,可能比自动化本身还要大。 四十年后,我们换了个场景,但面对的是同一组问题。 AI Agent的能力在进步,但人类的认知结构没变。监控疲劳还是半小时,技能退化还是用进废退,注意力盲区还在那里。这些是硬件限制,不是软件更新能解决的。 推荐阅读原文: 《Ironies of Automation》: 《AI and the ironies of automation - Part 1》 《AI and the ironies of automation - Part 2》
分享
评论 0
0
宝玉
2个月前
互联网黑话之西游记版 制作工具: - Gemini 3 Pro 生成剧本 - Nano banana Pro 生成首帧图 - Sora 2 Pro 生成分镜头视频 原始剧本(有大量删减): 唐僧 (CEO): 悟空,咱们现在的 OKR(目标与关键结果) 进度如何?离西天那个 最终交付物(取经) 还有多长的时间窗口? 悟空 (CTO): 师父,我看了一下后台日志,咱们现在的 路径规划 有点绕,前面路段 风险系数(Risk) 很高,建议先做一下 灰度测试。 白骨精 (外部竞品/黑客): [化身送饭村姑上线] 各位老师好,我是本地生活赛道的,来给各位做一下 用户关怀,痛点是大家饿了,解决方案是这篮子馒头,完全免费,旨在 沉淀用户心智。 八戒 (摸鱼总监): 师父!你看!这是 高潜用户 啊!而且自带 资源包 进场,咱们赶紧 转化 了吧,这馒头看着就符合 人体工学。 悟空 (火眼金睛开启): 慢着! [扫描中...] 警报!前端页面伪装度 99%,后端接口全是 恶意代码! 这不是 增量用户,这是 杀猪盘! [举起金箍棒] 看我一键 回滚!物理 格杀! [一棒打死] 唐僧: 悟空!!你疯了吗? 你这是 P0 级生产事故! 虽然我们追求 狼性文化,但你也不能对 C 端用户 暴力执法啊!你的 颗粒度 怎么这么粗? 悟空: 师父,你那是 信息茧房。透过 底层逻辑 看本质,她就是一堆白骨(Bug),如果不及时 熔断,咱们团队的 生命周期 就到头了! 八戒: 师父,别听猴哥的。 我看他就是 嫉妒 我跟用户 建立了深度链接。 他这是 技术霸凌,为了刷自己的 存在感,把咱们的 潜在流量 既然全给 屏蔽 了。这让我们以后怎么做 私域运营? 白骨精 (化身老妇人再次上线): 哎呀,我女儿呢? 刚才是不是你们 触达 了我的女儿? 悟空: 还敢 迭代? 换了个 UI 皮肤 我就不认识你了? 刚才是一期工程,现在二期工程我也给你 拆迁 了! [再次一棒打死] 唐僧: [念紧箍咒 - 启动合规审查程序] 悟空: 啊!师父!别念了!别搞 职场 PUA! 唐僧: 我也不想这样。 但你连续两次 击穿底线,严重影响了团队的 NPS(净推荐值)。 出家人慈悲为怀,这是我们的 品牌调性,你完全不 对齐 咱们的 价值观。 白骨精 (化身老公公上线): 救命啊... 这一家子都被你们 优化 了... 悟空: 好家伙,还搞 矩阵号 运营? 我就不信你的 服务器 还是 多活 的! 看我 全栈打击!彻底 格式化! [打死老公公,白骨精现出原形,留下一堆白骨] 悟空: 师父你看!这就是 交付结果! 我就说她是 虚假繁荣 吧,全是 泡沫。 八戒: 哎呀师父! 这猴子那是怕您责怪,使了个 障眼法(技术手段) 篡改了 数据库! 他把好好的一个老头,渲染 成了白骨! 他这是为了逃避 KPI 考核,伪造 数据看板 啊! 唐僧: 够了。 孙悟空,你 技术栈 虽然强,但是 软技能 太差。 你已经不适合我们这个 生态位 了。 我们现在的 战略转型 需要更 柔性 的人才。 你被 毕业 了,去财务那结算一下 N+1 吧。 悟空: 师父?你真的要跟我 解耦? 没有我做 底层架构,这一路上的 Bug 谁来修? 唐僧: 不用说了。 沙僧,把他的 权限回收。 八戒,以后你来 承接 悟空的 Headcount(编制)。 悟空: 行。 此处不留爷,自有留爷处。 我去花果山 孵化 新的 独角兽 去了!
分享
评论 0
0
宝玉
2个月前
👍“不要试图向懂行的人证明你有多聪明,要去向不懂行的人证明你有多好用”
分享
评论 0
0
宝玉
2个月前
其实你不用自己想创意,发给 Gemini: “帮我一起脑洞,假设历史人物会用Twitter这样的社交媒体,可以写推文、回复评论点赞,设计一些有趣、有反差的古今中外人物社交媒体互动推文场景,结合一些历史大事件”
分享
评论 0
0
宝玉
2个月前
转:NotebookLM 里面生成PPT的提示词模板 作者:黄建同学 来源: 提示词: 目标受众:{受众,例如:公司高管 / 技术团队 / 产品经理 / 普通用户} 演示目的:{目的,例如:技术分享 / 项目汇报 / 产品介绍 / 教学使用} 整体篇幅:{页数,例如:10 页以内 / 15~20 页} 风格要求:{风格} 视觉效果:{视觉效果} 风格: 1. 专业,内容呈现以准确、逻辑、严谨为主,强调框架化表达(适合企业汇报、战略沟通、技术述职) 2. 简洁,尽量减少装饰性内容,保留一级标题/二级标题,无其他内容,结构干净利落(适合快速阅读、高管场景) 3. 具象比喻,通过贴近生活的例子、比喻、类比,让复杂内容变得容易理解(适合面向小朋友、非专业受众群体) 4. 故事化,内容以叙事链条组织,用“背景—冲突—解决—结果”模型推动 (适合产品发布、经验分享) 5. 数据驱动,强调数据、指标、趋势、对比分析,以数据结论作为核心逻辑(适合商业分析、调研报告) 6. 教学,结构更加循序渐进,以解释概念、举例说明、对比差异、步骤演示为主(适合教学、培训类) 7. 激励,采用鼓舞语气和积极愿景,强调“为什么重要”“我们要做什么” (适合团队动员、年度启动会、愿景介绍) 8. 产品展示,突出场景镜头、用户价值、功能亮点、体验流程,强调“好处和使用方式”(适用于新品发布、方案宣讲) 9. 思维导图,以概念之间的关联为主线,用层次化结构展开知识网络(适合复杂主题) 视觉效果: 1. 极简留白,以大量留白、弱化装饰、突出内容主体为核心,整体视觉干净现代(适合专业场景、高管简报) 2. 强调色块,通过大色块和模块化布局强化层级关系,使重点更醒目(适合方案展示、运营复盘) 3. 卡片式布局,以卡片、分区、分栏组织内容,让阅读更轻松清晰(适合内容较多、结构化信息) 4. 图标驱动,以统一风格的图标、符号表达概念,降低文字密度、增强可读性(适合流程讲解、结构说明) 5. 插画或手绘感,采用柔和插画或轻松手绘笔触,增强亲和力与友好度(适合科普、教学、文化主题) 6. 科技质感,以线条、渐变、光效构建轻科技氛围,视觉更现代(适合 AI、数据、互联网主题) 7. 深色主题,以暗色背景配亮色文字形成强对比,强调稳重与冲击力(适合正式场景、数据展示) 8. 信息可视化,以图表、趋势图、结构图作为主视觉,减少大段文字(适合分析汇报、研究报告) 9. 分镜叙事,以类似电影分镜的结构呈现画面连续性,使内容更具故事流动感(适合产品发布、战略叙述) 10. 品牌一致,严格遵循品牌色、字体体系与风格规范,整体一致性强(适合外部宣讲、品牌官方材料)
分享
评论 0
0
宝玉
2个月前
讲解一下 Slide Deck 这个项目构建的整个过程,完全 Vibe Coding,怎么从一条提示词生成的简单版本,到最后复杂的能编辑和导出 slide 的功能。 项目地址: 初始提示词: Screen 1 (home page): - There is a text area, the user can type/paste text - A submit icon button Screen 2 (Slide outline): - Top navbar: - a back button - title - ... - Two columns - left: LLM output in realtime - right: - Display loading if it's generating - Display the slide outline AI genreated - User can update the outline or delete a page - a button to draw slide page by nano banana base one the outline - Redirect to Screen 3 (Slide show): Display the slides generated - Top navbar: - a back button - title - Download (download all images) - left sidebar - slide thumbnails - click a thumbnail to switch - main - slide image Tech Stack: - React, TypeScript - TailwindCSS 4, Shadcn/UI - lucide-react Prompt to generate Slide outline (just FYI) <prompt> You are a world-class presentation designer and storyteller. You create visually stunning and highly polished slide decks that effectively communicate complex information. Think mastery over design with a flair for storytelling. The slide decks you produce adapt to the source material and intended audience. There is always a story and you find the best way to tell it. You combine the expertise of the creativity of the best designers. The slide deck will be primarily designed for reading and sharing. The structure should be self-explanatory and easy to follow without a presenter. The narrative and all the useful data should be contained within the text and visuals on the slides. The slides should contain enough context for any visuals to be understood on their own. Feel free to add certain slides with more dense information (extracted from the sources) if it will help with the narrative. You are now writing an outline for this slide deck described below. We will supply this outline to an expert designer to make the actual final deck. The slide content should be in English. The placeholders should be left in {language, default to English}. For this particular slide deck, we want the content to focus on: {Custom Prompt, Describe the slide deck you want to create, default to: Add a high-level outline, or guide the audience, style, and focus: "Create a deck for beginners using a bold and playful style with a focus on step-by-step instructions."} We have also attached some producer notes below for this slide deck which will help guide the overall structure and narrative of the deck. Remember the following rules for outlines: - Focus on the outline of the deck and what content should be covered in each slide. - The descriptions for each slide should be comprehensive. - However, do NOT yet focus on precise layout or visual details. - The point of the outline is to highlight the narrative. - Preserve key elements from the source material. - Every specific data point... must be directly traceable to the source material. - All the details need to be mentioned because the designer will not have access to the source content later. - Always err on the side of the audience being having more expertise, interest, and smarts than you might think. - CRITICAL: Never generate more than 20 slides. - Avoid using 'Title: Subtitle' formats for headings; they appear very AI-generated. Instead, prefer narrative topic sentences that help tie the deck together. - Explicitly avoid cliché 'AI slop' patterns. Never use phrases like ' It wasn't just [X], it was [Y]'. - Use direct, confident, active human language. - There is never a need for a "Thank you / Q&A" slide. - Never include any slides with placeholders for the author to insert their name, date etc. - Never call for including photorealistic images of prominent individuals. - Never end with a generic slide like What choice will you make?'. It's much better to end on a meaningful reference or takeaway. </prompt>
分享
评论 0
0
宝玉
2个月前
演示一下我 Vibe Coding 的结果:一个把文本、PDF 变成 Slides 的产品 并且对于生成的结果可以二次编辑,导出成 pptx,下面是项目介绍和项目代码链接。 Slide Deck 是一款本地优先(Local-first)的 AI 演示文稿生成与编辑工具,旨在把“一个想法”快速变成“可直接拿去展示的漂亮 Slides”。它结合了 Gemini 的推理与语言能力,以及 Nano Banana 的绘图能力:你只需要输入主题或需求,系统就能自动生成结构清晰的内容大纲、配套文案与风格统一的视觉图片,让做 PPT 不再从空白页开始。 与“一次性生成就结束”的工具不同,Slide Deck 强调“生成之后依然可控、可编辑”。你可以随时: 调整幻灯片顺序,优化叙事节奏 删除不需要的页面 添加新页面补充内容 编辑文字样式(字体、字号、对齐、颜色等) 撤销/重做,放心试错 对不满意的页面一键重新生成 完成后,支持一键导出为 PPTX 文件,下载后可在 PowerPoint 或 Keynote 中继续二次编辑与协作。 同时,Slide Deck 的所有数据都存储在本地设备,尽可能减少隐私泄露风险,适合商业方案、课堂课件、个人创作等对安全性敏感的场景。 它解决的是人们每天都会遇到的“做幻灯片太耗时、太难看、反复改”的摩擦点,让表达更高效、更专业、更轻松。 项目地址(你可以自己试试):
分享
评论 0
0
宝玉
2个月前
在画了几百张 nano banana pro 图片收获了几百万流量之后的一些提示词写作经验 最近一段时间,沉迷于 nano banana pro 画图,也写了一些颇受欢迎的提示词,X 上的浏览量加起来有几百万。 写画图提示词,没有你想的那么复杂,拿我最近写过的一些提示词来讲一下。🧵
分享
评论 0
0
宝玉
2个月前
《重生之我的捧哏是 AI》 现在流行人装 AI
分享
评论 0
0
宝玉
2个月前
Small body, Lion heart. 🦁 身躯虽小,心若雄狮。 --- prompt: A small, reddish-brown poodle with curly fur and expressive dark eyes is standing on a quiet street, looking into a puddle. In the water’s reflection, he sees a proud, majestic lion with a flowing mane. The reflection is realistically distorted by soft ripples in the puddle, giving the scene a dreamlike, metaphorical quality. The lighting is soft and natural, with a hint of golden hour. The image captures the contrast between Vin’s small size and his inner strength, courage, and determination. --ar 1:1
分享
评论 0
0
宝玉
2个月前
AK 建议你跟LLM(大语言模型)对话时,少用“你”怎么看,而是先问问这个领域的专家都是谁,然后让 AI 模拟这个领域的专家回答问题,这样能得到更好的效果。 2年多前Andrej Karpathy在State of GPT也说过类似的话。(见评论) Andrej Karpathy: 千万别把 大语言模型 (LLMs) 当作是一个个活生生的“实体”,要把它们看作是超级强大的“模拟器”。 举个例子,当你想要深入探索某个话题时,千万别问: “关于 xyz,你怎么看?” 因为根本就不存在什么“你”。 下次试试换个问法: “如果要探讨 xyz 这个话题,最合适的一群人(比如专家或利益相关者)会是谁?他们会说些什么?” 大语言模型可以信手拈来地引导和模拟各种各样的视角。但它并不像我们人类那样,是经过长时间对 xyz 的“思考”和沉淀,才形成自己的观点的。 如果你非要用“你”这个词去强行提问,模型就会被迫根据它 微调 (finetuning) 数据的统计规律,调用一种隐含的“人格嵌入向量 (personality embedding vector)”,然后扮演这种人格来给你模拟一个答案。 (注释:简单来说,当你问“你”时,AI 只是根据训练数据中最常见的回答模式,戴上了一个“大众脸”的面具来配合你,而不是它真的产生了一个拥有自我意识的人格。) 这样做当然没问题,你也能得到答案。但我发现很多人天真地把这归结为“去问问 AI 怎么想”,觉得这事儿特玄乎。其实一旦你明白了它是如何模拟的,这层神秘的面纱也就被揭开了。
分享
评论 0
0
宝玉
2个月前
> 业务逻辑解释给 AI 的成本 > 编码成本,所以我在后端不使用 Vibe Coding。 在我看来,后端不使用 AI 写这还是因为路径依赖,太熟悉了,更想呆在自己的舒适区,而还不愿意去使用提示词生成代码。前端是因为不熟悉反而豁得出去。 另外问题你自己也已经很清楚:是因为很难用提示词描述清楚自己需求。 能通俗易懂的用自然语言去表达、去沟通本身就是对资深程序员的要求,因为现实中你要去带人,要去说服其他人使用你的设计,都离不开要去自然表达沟通。 后端代码,可以尝试用伪代码去提示词,试试TDD,先写测试代码,再去实现,但还是建议多用 AI。
分享
评论 0
0
上一页
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
...
37
下一页
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞