对"心流"的依赖,很可能是程序员成长的敌人 很多程序员喜欢熬夜,不是因为夜猫子体质。 而是因为晚上没人打扰,可以进入那种传说中的"心流"状态。 “心流”一直是很多程序员喜欢的状态,甚至是追求的状态。 程序员的工作本质上是"沉浸式"的: 一个完整且明确的问题,固定的上下文,需要你沉下心来几个小时甚至几天地死磕。 解决了,爽! 那种满足感是实实在在的,就像游戏通关一样。 但从程序员变成创业者后,这种状态几乎消失了。 创业的工作本质上是“碎片化”的: 邮件、客服、申请、会议、人事、通话…… 不同上下文,不同人群,优先级还一直变。 这些问题是如此的繁琐,枯燥,压抑,甚至会感觉到“恶心”。且大多发生在白天,和生活中的各种琐事交织在一起,也更容易被分心。 程序员习惯解决“大问题”, 而创业者每天都在解决“小问题”。 那些小问题往往只是捅破一层窗户纸, 我觉得甚至都不能叫“解决”问题, 单纯只是在“处理”问题。 做完没成就感,还满是焦虑。 所以很多创业者怀念写代码的日子。 至少那时,问题明确、可控、能收获快乐。 所以很多程序员天生就不适合创业。 扩散一点说,很多学术出生的天生就不适合创业。 从心态上看,做运营的人反而更适应创业, 因为他们天生就能在碎片化中保持产出。 但 AI 的出现, 不说改变了这一切,起码给了程序员一个机会。 AI 让程序员可以多线程工作, 同时处理不同项目、不同上下文,甚至可以在碎片时间里也有产出。 我看到很多人,也包括我自己, 在用 AI 编程后,抱怨现在没有了“心流”的状态。 其实,这又何尝不是一种丢掉“心流”的包袱和依赖呢。 换个角度, AI 让程序员第一次具备了“像创业者一样工作”的能力。 尽管这个体验前面所说,没有解决问题的愉悦感,没有专注的成就感。 所以在 AI 时代,我觉得,程序员如果拿着 AI 只是用来上班写代码,这简直是暴殄天物。 程序员的正确 AI 打开方式应该是:尝试创业。 当然大概率不会成功,但是起码能真正拓展你思维和认知的边界。
所谓"心流",很可能是你最大的敌人 很多程序员喜欢熬夜,不是因为夜猫子体质。 而是因为晚上没人打扰,可以进入那种传说中的"心流"状态。 “心流”一直是很多程序员喜欢的状态,甚至是追求的状态。 程序员的工作本质上是"沉浸式"的: 一个完整且明确的问题,固定的上下文,需要你沉下心来几个小时甚至几天地死磕。 解决了,爽! 那种满足感是实实在在的,就像游戏通关一样。 但从程序员变成创业者后,这种状态几乎消失了。 创业的工作本质上是“碎片化”的: 邮件、客服、申请、会议、人事、通话…… 不同上下文,不同人群,优先级还一直变。 这些问题是如此的繁琐,枯燥,压抑,甚至会感觉到“恶心”。且大多发生在白天,和生活中的各种琐事交织在一起,也更容易被分心。 程序员习惯解决“大问题”, 而创业者每天都在解决“小问题”。 那些小问题往往只是捅破一层窗户纸, 我觉得甚至都不能叫“解决”问题, 单纯只是在“处理”问题。 做完没成就感,还满是焦虑。 所以很多创业者怀念写代码的日子。 至少那时,问题明确、可控、能收获快乐。 所以很多程序员天生就不适合创业。 扩散一点说,很多学术出生的天生就不适合创业。 从心态上看,做运营的人反而更适应创业, 因为他们天生就能在碎片化中保持产出。 但 AI 的出现, 不说改变了这一切,起码给了程序员一个机会。 AI 让程序员可以多线程工作, 同时处理不同项目、不同上下文,甚至可以在碎片时间里也有产出。 我看到很多人,也包括我自己, 在用 AI 编程后,抱怨现在没有了“心流”的状态。 其实,这又何尝不是一种丢掉“心流”的包袱和依赖呢。 换个角度, AI 让程序员第一次具备了“像创业者一样工作”的能力。 尽管这个体验前面所说,没有解决问题的愉悦感,没有专注的成就感。 所以在 AI 时代,我觉得,程序员如果拿着 AI 只是用来上班写代码,这简直是暴殄天物。 程序员的正确 AI 打开方式应该是:尝试创业。 当然大概率不会成功,但是起码能真正拓展你思维和认知的边界。
今天给大家分享一个百万粉丝博主的内容生产工作流。 同样是用AI辅助创作,很多人用AI写的内容自己都看不下去;而有些创作者用同样的工具,产出的内容却能在多个平台拿到百万级曝光。 这中间差了什么? 前几天看到Dan Koe的一个访谈,他全网有几百万粉丝,内容遍布Twitter、YouTube、Newsletter。 但其实,他每天只花2小时创作,就能覆盖所有平台。 他说:我从不让AI替我写东西,但AI帮我把6小时的视频浓缩成1000字的知识点。 很多人用AI写作,直接打开ChatGPT,输入"帮我写一篇关于XX的文章",然后AI刷刷刷输出3000字,复制粘贴,发布。 结果AI味太浓,根本没人看。 但AI最擅长的其实不是写,而是拆解和重组。 Dan的做法是,把内容生产分成了几个清晰的模块,每个模块AI都有明确分工。 我们一起来拆解一下: 首先第一步,他会选择用Twitter做想法的试验场。 什么是好内容? 在Dan看来,好内容首先得是经过验证的想法。 他不会拍脑袋写,而是先在Twitter发短内容测试反应。280个字的限制反而是优势,因为你必须把一个idea压缩到最精炼的状态。 他会把Twitter上表现好的帖子,扩展成Newsletter的选题。 同理,YouTube上播放量高的视频主题,他也会拆解成Twitter帖子。 这最终会形成一个循环系统,每个平台互相喂养。 然后是第二步,让AI辅助整理相关素材。 Dan经常看3到6小时的长视频学习,但他不会边看边记笔记,为什么? 因为有Gemini这样的工具,可以直接处理YouTube视频,把核心观点提取出来。 这就相当于把6小时的信息浓缩成1000字的关键点,让你可以快速回顾和引用。 同理,当他写Newsletter时,会把之前的推文、看过的视频、读过的书,全部丢给AI,让AI找出相似点和可以组合的角度。 这不是让AI代写,而是让AI帮你整理思路的原材料。 第三步,拆解爆款内容的DNA,这一步也是整个系统里最精妙的部分。 Dan不会直接让AI写帖子,因为AI写出来的东西总是很平。 他做的是:找一条自己或别人写得特别好的帖子,让AI分析它为什么好。 他有条推文是这样的:"如何判断你在做有意义的事?你会感觉好几周、好几个月甚至好几年都没进步。然后突然某一天,成长一下子全来了。" 他会让AI回答:这条推文用了什么结构?触发了什么心理机制?为什么会让人产生共鸣? AI给出的分析包括:钩子声明、痛苦与挣扎、回报、洞察与警告等等。 然后Dan把这些结构要素提取出来,变成一个模板。 下次写类似主题时,他不是照搬那条推文,而是把新的想法套进这个经过验证的结构里。 同样的idea,换一个结构,又是一条新帖子。 同一个事实,用不同的框架呈现,受众的感知完全不同。 Dan做的就是建立自己的框架库,然后灵活运用。 第四步:创建两阶段提示词系统,这一步也是技术层面最值得学的部分。 Dan设计了一套两阶段Prompt: 1️⃣第一阶段:上下文采集。 AI会像记者一样采访你,问你的领域是什么、受众痛点是什么、你的独特观点是什么。 2️⃣第二阶段:内容生成。 基于你提供的信息,AI按照你预设的结构,生成3个不同版本的帖子。 但关键在于,他不是直接问AI"帮我写3条推文",而是先让AI理解你是谁、你的声音是什么、你想表达什么。 更妙的是,他还有一个超级提示词,或者说可以叫“元提示词”,专门用来生成其他提示词。 步骤也很简单👇: 1、找到3条你喜欢的高表现内容 2、让AI拆解这些内容的结构和原理 3、把拆解结果输入超级提示词 4、生成一个定制化的两阶段提示词 5、用这个提示词开始创作 这套方法可以迁移到任何内容形式:推文、YouTube脚本、着陆页文案等等。 第五步:每天2小时的执行节奏。 知道方法论是一回事,能不能持续执行是另一回事。 Dan的日常很简单:早上起床,做完简单的routine,然后坐到电脑前,接下来2小时专注做两件事: 1、完成Newsletter的一个章节 2、写3条社交媒体帖子 这2小时里,他会把写好的内容分发到所有平台,或者提前排期。 然后,他会每周选一天录YouTube视频,剩下的时间留给学习和生活。 AI不会让所有人都变成好的创作者,但会让好的创作者变得更高效。 区别在于,你把AI当什么。 如果你指望AI替你思考、替你提炼观点,那输出的东西一定是平庸的。 但如果你把AI当成放大器,用它来扩展你的思考边界、加速你的迭代速度,那它就成了一个强大的杠杆。 Dan说:AI时代最稀缺的不是会用工具的人,而是有密度想法的人。
程序员现在真的要开始深度思考一个问题: 算力大基建铺好了,这么多海量算力——到底要用来干什么? 我们都觉得自己是小虾米,跟“国家级基建”“能源部批文”这些大词没关系。 可真的无关吗? 最后这些算力要落地,不还是靠一行行代码、一段段逻辑来跑? 谁在写逻辑?不就是我们吗。 我那天就在想,几年前一个闺蜜跟我说: “我觉得你肯定喜欢那个东北雨姐。” “我怎么会喜欢这种..." 但她还真说对了,我确实背着她在看东北雨姐的视频, 连她那个东北小老公我也挺喜欢的。 我后来就开始想: 如果要让推荐算法算出我这种又隐秘又细微的小心思, 要消耗多少算力? 得跑多少数据、训练多少模型、调多少参数? 我们用几百兆瓦的电,几万个GPU, 只是为了精确预测一个人深夜会偷偷喜欢哪个网红? 这就是“智能时代”的伟大成就? 把全世界人所有最隐秘的小癖好、恶趣味、情绪波动全都算出来, 然后精准地推荐回给他们, 让他们沉溺其中,再看一条、再买一点? 这就是海量算力的用途? 这就是我们程序员亲手写出来的文明形态? 我不反感推荐算法,也不是不懂商业逻辑。 但当我们能支配的能量已经大到可以模拟宇宙、 可以预测生态系统、 却被用来计算“谁会多看一眼谁”的时候, 你不得不开始问: 我们到底在建什么? 是算力大厦,还是注意力监狱? 敬请关注:
小V对这张牛图的感想是,“啊这不就是用复杂的会计术语来描述的 “实物抵付” 吗?” 这个以Nvidia为核心的AI生态风险在哪里呢? Nvidia悖论的深层结构决定了这不是一个简单的商业风险,而是一个自我强化的系统在接近临界点时的结构性脆弱性。 AI产业的价值创造基于一个简单公式: Token成本下降 到 应用可行性增加 到 经济生产力提升 到 更多资本投入 然后 循环 基于此,Jansen黄仁勋的核心论述是Hopper到Blackwell芯片让token成本下降10-20倍,这个降幅足以让AI从“回答问题”进化到“自主使用工具”。这是质变。 但这里有三个嵌套的风险结构: 1. 技术依赖的脆性(Single Point of Failure) Nvidia不仅提供芯片(硬件层),还投资OpenAI、xAI、CoreWeave(应用层、基础设施层) 这意味着整个产业链的60%+成本流向同一个实体,且这个实体同时是供应商、投资者、客户 好比如果在1990年代互联网泡沫中,Cisco不仅卖路由器,还投资Yahoo、Amazon,并持有ISP股份——风险集中度会高到什么程度? 2. 资本循环的庞氏结构特征 Nvidia投资的公司(如CoreWeave)又回过头来购买Nvidia芯片。这不是传统的产业链垂直整合,而是资本-需求的闭环: Nvidia投资, 到被投公司获得资金,用来购买Nvidia芯片 导致Nvidia财报亮眼,估值上升, 形成更多投资能力, 然后投资 循环 这个循环在token成本持续下降、应用爆发时是良性的;但一旦停滞,就是多米诺骨牌 3. 不可调和的社会性悖论 现在,二元困境的consequences来了,这是真正的哲学问题, 如果情境A:AI投资回报足够 那么 意味着劳动力大规模被替代 , 社会动荡、消费能力下降、政治干预 如果情境B:AI投资回报不足 那么 泡沫破裂 然后 Nvidia需求崩溃 导致 金融系统震荡(因为Nvidia已经渗透到ETF、私募信贷、数据中心债务等各领域) 传统的“技术进步创造新工作”论述在这里遇到时间尺度问题。AI替代速度(以月/年为单位)vs 新岗位创造速度(以“代”为单位)的不匹配。 Jansen黄的策略本质是有意制造生态锁定,“我们每年改变数据中心的每一块芯片”,但这不是技术必然性,而是战略选择。 对比传统基础设施(铁路、光纤)等技术稳定的长周期资产,Nvidia的模式是强制快速迭代,让竞争对手无法建立兼容生态 这既是护城河,也是风险放大器。如果迭代速度慢下来(技术瓶颈/市场饱和),这个模式的正当性就会被质疑。 Nvidia本质上是在玩一个“速度差套利”游戏。 用技术迭代速度超过资本回收周期, 用生态整合速度超过监管反应速度, 用AI能力增长速度超过社会适应速度。 只要保持速度优势,所有风险都被增长掩盖; 但一旦任何一个维度的速度下降,系统性风险立刻暴露。 假设,假设啊, 测试一下当前模式的真实脆弱性。如果Nvidia明天宣布芯片迭代周期从1年拖延到3年(就像传统的半导体模式),对整个AI生态的资本流动会发生什么变化? 短期6-12个月内,在数据中心上的资本支出骤降,因为客户可以延长现有设备折旧周期。Nvidia毛利率下降(失去“强制升级”溢价),股价承压20-30%。 中期(2-3年):竞争对手(AMD、Intel、中国厂商)获得追赶窗口,生态多元化。Token成本下降速度放缓,部分边缘AI应用的商业模式崩溃(依赖廉价推理的应用)。 长期(5年+):AI产业从“军备竞赛”模式转向“效率优化”模式,类似云计算在2015年后的成熟化。Nvidia从“增长故事”变为“现金牛”,估值重估。 再一个,Token成本下降存在物理极限(能源效率、量子噪声)和经济极限(边际效益递减)。“10-20倍下降”能持续几代?基于当前晶体管技术,大约还有3-4代(到2030年左右)的摩尔定律空间。之后必须依赖架构创新或新物理(光子芯片、量子计算)。一旦降至个位数改进,叙事如何维持? 如果中国、欧盟或其他实体成功建立非Nvidia依赖的AI芯片生态(即使性能落后20-30%),对Nvidia垄断地位的冲击有多大?历史类比看看Linux对Windows的长期侵蚀。 社会承受力阈值即AI替代劳动力的速度上限在哪里?如果2027-2030年间白领失业率上升5-10%,政治系统的反应(监管、税收、禁令)会如何影响Nvidia的商业模式? 参考以下, 1930年代大萧条:失业率25%,导致政治体系重构(新政、法西斯主义) 1980年代制造业自动化:失业率10%,可通过服务业吸收 2008年金融危机:失业率10%,引发民粹主义浪潮 而这次AI替代的是认知劳动力(白领专业人士),这个群体的政治影响力远高于蓝领。 如果2028-2030年间,律师、会计、初级程序员等岗位的净减少超过5%,会触发临界点,监管加速,反垄断调查,社会抵制运动(类似转基因、核能的公众反弹) 直接影响AI应用层的增长速度,间接影响Nvidia需求。 如果Nvidia股价因任何原因(业绩不达预期、竞争加剧、监管)下跌40%,通过ETF持仓、数据中心抵押贷款、私募基金敞口等金融传染路径,会在哪些非预期领域引发连锁反应呢 明摆着的路径有: ETF持仓(Nvidia占S&P 500权重约6-7%) 数据中心贷款(60%成本是Nvidia芯片,作为抵押物价值) 私募信贷(大量资金流向数据中心建设) 隐藏的路径有: 养老金体系,全球养老金通过被动指数基金使间接持有大量Nvidia。如果股价腰斩,退休储蓄缩水引发政治压力。 日本央行/金融机构通过ETF持有日本股票,而日本科技股(Sony、软银)重度依赖AI叙事,Nvidia崩盘会传染到日元资产。 部分新兴市场国家的主权基金投资于AI基础设施,Nvidia下跌会影响其偿债能力。 最危险的场景是信心的突然转变。不需要基本面彻底恶化,只需市场从“AI肯定成功”转向“AI可能失败”的叙事切换,就能触发抛售螺旋。 Nvidia生态以外的威胁是真实存在的 如果性能差距可以容忍(云服务商已经在使用自研芯片如Google TPU、AWS Inferentia,尽管性能略低)。关键是生态完整性——CUDA的软件护城河比硬件本身更难攻克,但也不是绝对的 地缘政治方面,中国的AI芯片产业(华为昇腾、寒武纪)在美国出口管制下被迫独立发展,5-10年后可能形成平行生态。虽然不会直接打败Nvidia,但至少会分割市场,降低其定价权。 好比当年ARM架构用了20年才在服务器市场挑战x86,但一旦站稳就势不可挡。
最近在看一圈 ToB agent 的落地情况,有个判断越来越清晰: 至少还得 1 年,国内 ToB agent 才可能真正起来。 第一,国内的模型能力,还不够。 ToB 业务链条长、场景复杂、对结果的容错率极低。 现在的大模型,哪怕再微调十遍,稳定性不够,自洽性不够,还不够听话这些问题依然严重。 prompt 写得挺对,它干的事还是不怎么靠谱。像个刚转岗的实习生,流程懂了点,但是做起来全是 bug。 第二,做技术和懂业务的,不是一拨人。 ToB agent 最大的挑战是知识怎么迁移。比如想让 agent 搞懂保险理赔、医疗问诊、法律审查……这些不是写 prompt 能解决的,它们背后是几十年经验、人情流程和模糊判断。 越值钱的知识,掌握它的人越年长,越难被结构化表达,更别说这批人愿不愿意倾囊相授。 技术今天搞出来一个 agent,业务方只会说三句话:你这不准啊、我们流程不是这样的、你这漏了关键条件,但这个流程是之前开发跟业务一起梳理出来的。 这背后藏了抵触,技术和业务之间,隔着的不是 AI,是一整座山。 那为什么 AI coding 能先跑出来?因为这事里最懂业务的就是技术自己。 谁最懂代码结构?技术! 谁能写 agent 调 agent?技术! 谁能 debug agent?还是技术! 技术是唯一一拨能自己用,自己调 bug的群体。业务等于本体,没有认知 gap,也不需要跨专业翻译,一整个闭环自然就跑通了。 本质区别在这:AI coding 是单边迁移服务自己, ToB agent 是双边博弈,需要认知共建。一个能快,一个必须慢。 对于 AI coding,只要模型理解开发者就够了。ToB agent,不仅模型要懂业务,开发者还得懂业务,然后两边还得对得上话。 这,太难了。 真正的转折点要出现:必须满足模型能稳定 编码行业知识,Agent 能封装复杂动作并处理结果反馈(前提是老顽固们愿意掏心窝),企业能放心把核心流程交出去。 到那一天,ToB 才真正算是 ready 了。 那时候再回头看 coding agent 的进化速度,也许已经不是一个量级的对比了。 技术在革自己命这件事上,从来没有输过任何群体。
Y11
1天前
有一个常被忽视却至关重要的挑战,是技术迭代带来的架构重构难题。 当行业内新的AI模型不断涌现,许多人可能会误以为只要简单替换最新模型就能实现突破。 但实际上,每一次技术升级,哪怕只是模型检查点(checkpoint)的微小调整,都可能引发连锁反应。 这就像在精密的钟表里更换一个齿轮,看似简单的改动,却需要重新审视整个系统的适配性——从数据处理流程到算法逻辑,从硬件资源调度到应用层交互,都可能需要推倒重来。 以我多年的观察来看,这种架构重构往往伴随着巨大的时间成本和资源消耗。 团队需要重新理解新模型的底层逻辑,调整原有的工程化框架,甚至可能要推翻已有的技术路线。 更关键的是,在这个过程中,产品迭代会被迫停滞,用户体验可能出现波动,团队士气也面临考验。 这让我想起曾经接触过的一个案例:某AI公司在引入新一代大模型时,因未充分评估架构兼容性,导致数据预处理模块与新模型的输入格式不匹配,最终不得不花三个月时间重构整个数据链路。 这个过程中,不仅技术团队承受着巨大压力,公司的市场竞争力也因此受到影响。 为什么会出现这种情况? 核心在于AI技术的快速演进与现有系统的稳定性之间存在天然矛盾。 就像汽车行业在从燃油车转向电动车时,不能简单更换发动机,需要重新设计底盘、电路和软件系统。 AI领域的架构重构,本质上是技术发展的必然代价,也是企业保持技术领先性必须跨越的门槛。 对于创业者而言,面对这种挑战,或许可以尝试建立更灵活的技术架构——比如采用模块化设计,将核心功能解耦,为未来的技术升级预留接口;或者在引入新技术时,先进行小范围试点,验证兼容性后再逐步推广。当然,最根本的是保持开放的学习心态,把架构重构看作技术成长的催化剂,而非障碍。 技术的本质是不断突破边界,而每一次边界的突破,都需要我们有勇气重构认知与实践的框架。这或许就是AI创业最迷人也最具挑战性的地方——在不确定性中寻找确定的路径,在技术浪潮中保持前行的力量。