Y11
2个月前
学习一个新东西,就像学游泳,光看理论没用,得下水扑腾。 费曼学习法就是那个帮你“下水扑腾”的好教练,20分钟就能练一次,简单又实用。 第一步:把“知识点”拎出来,说清楚你知道多少 先找个小概念,比如“什么是区块链”“为什么会有通货膨胀”,在纸上写下它的名字。 然后,别急着查资料,先把你脑子里现有的东西都倒出来,用自己的话写下来。这一步不是要写多好,而是帮你搞明白:我到底知道什么?不知道什么?目标在哪里? 第二步:假装给4岁小孩讲,把话说得像讲故事 这是最有意思的一步。别用那些“专业术语”,比如不说“边际效应”,要说“多吃一块蛋糕,比前一块甜多少”;不说“商业模式画布”,就说“怎么通过卖东西赚钱,怎么让别人愿意买你的东西”。想象面前坐着个小不点,眼睛瞪得大大的问你:“这到底是啥呀?”你得用大白话把它讲明白,就像讲个小故事。如果讲到一半卡壳了,说明这里是你的“知识盲区”,得记下来。 第三步:盯着“卡壳的地方”补漏,再讲一遍 卡壳的地方就是你的“知识漏洞”。这时候别慌,回到原来的资料(书、文章、视频都行),把不懂的部分搞清楚。然后再试一次,像给小不点讲故事一样,把刚才没讲明白的地方重新说清楚。直到你能像说顺口溜一样,从头到尾把这个概念讲得顺顺畅畅,没有“卡壳”,才算过了这一关。 第四步:把话说得更“精炼”,用一句话抓住核心 最后一步,试着把刚才的解释再压缩。能不能用一句话说清楚这个概念最本质的东西?比如“区块链”,如果用一句话说,可能是“一种大家都能看到、一起记事情的账本,改不了、删不掉”。或者“通货膨胀”,就是“钱变多了,东西就变贵了”。这一步是为了检验你是不是真的“懂”了——不是记住了一堆话,而是抓住了核心。 为啥这么做就有用? 就像你帮别人学,你得自己真的懂,不然讲不明白。这时候大脑会主动去“检查”自己:这里对不对?那里怎么说才清楚?这种“倒逼自己输出”的过程,比只是“看”“听”要有效得多。研究发现,用这种方法学东西,记住的时间会更长,理解也会更透。 下次想搞懂一个新东西,别先急着啃大部头,试试费曼学习法:从一个小问题开始,讲给别人听,把话说笨一点,把漏洞补起来,最后再把它“压缩”成一句话。坚持几次,你会发现自己对知识的“掌控感”越来越强。
更新/昨天是程序员节,作为一个从PC软件、桌面互联网和移动互联网、加密网络和AI时代的穿越者,真心谈谈自己肤浅看法。 AI改变会不可逆转。但是我不想泛泛而谈。 1/直面最大的挑战的,一定是堆积在大厂里的前端程序员、UI和平面设计师,这是个人计算机应用进入商业和生活后,熟悉JS等流行语言的程序员和类似PS工具设计师一直是过去二十年职业岗位上的宠儿。但是,从算法和程序代码库中训练乃至强化学习出来的AI以及Agent,恰恰是对于当下绝大部分程序员最大的挑战。 2/计算机软件行业,本世纪初期那几年,几个人的程序员团队自嘲是软件作坊,程序员作业流水线和集成工厂令人骄傲,但是今天,中小型软件公司正在成为过去,计算机软件完成的是通用或者专用Knowledge Labary和Workflow的工具化,大量的传统应用程序概念可能会消亡。但是今天,AI替代软件,是提出需求直接给我终极结果。对了,以后程序员别再说码农这个过时打趣称谓了。 3/AI直接受益者很多,最大的是有产品经理背景的人和年轻创业者。从弓弩到火枪,每一次工具革命都是冒险家的阶层跨越。和个人电脑和互联网时代一样,有敢于行动不怕失败的勇气、学习能力、想象力在A时代更为有价值。当然,聪明人总能找打恰到好处的机会。 4/基于以上,进一步说,一个人的跨领域知识结构和创造意识更为重要。商业、经济、金融、艺术乃至人文的结合十分重要。以当下教育来说,根本性的挑战更突出、除非装死。综合性大学远远比专业性学院更为提升一个人的价值。这不是今天才有的共识,但是当下的AI正在掀开红头巾和遮羞布。 5/纯技术岗位以外的机会依旧很大,很多人说市场和销售岗位被边缘化,别啊,其实恰恰相反,AI时代,人与人之间真实场景的连接更为重要了。人最爱的,还是人类和同类异性, 6/所以,我甚至敢说,线下空间和场景的归属和使用,意义上堪比历史上的土地和黄金。等着看吧。 先说到这里。
Easycompany
2个月前
36岁失业,全职All in AI,听起来又是一个失败者换个赛道继续失败的故事有没有,2011年本科毕业于University of Essex,回国后在苹果公司工作一年,在央企金融机构工作了2年后,就一直创业到2025年,折腾过很多事情。为什么选择和AI沾边的领域——创造力、活力、风口!第一步是做出一个产品,哪怕是个MVP。目的不是挣钱,是把产品从0到1的流程走通——因为我不是产品、设计或编程科班出身。在一条不熟悉的路上摸索不是一件容易的事。 未来这个账号会分享一些创业心得,一些AI工具使用的体会和好工具的推荐。我喜欢有点深度的内容,也希望有朝一日自己的账号能做的符合自己的初心。做一个有深度、有温度、有存在的账号。反正也是个絮絮叨叨的账号吧,将就看吧,看官大大们! 为什么是现在? 我可以说说我错过的东西,我错过了淘宝账号代充电话卡的时代,当年还嘲笑周边为什么有人做这个事,后来一个淘宝账号能卖30万;我错过了电商时代,虽然我到今天为止也不太清楚电商、团购那个年代怎么挣钱的,我错过了08-15中国经济腾飞,股市快牛的时代,那会感觉周边人,就连我姥爷都是股市专家。我错过了疫情期间,抖音快速崛起的时代,那会已经有商业意识了,结果就是拍了5条500播放的视频就放弃了,现在回看我拍的视频,那种形式叫vlog,还挺好的。但是这次,我深刻能感受到AI行业以天为单位的快速迭代带来的巨大的商业机会和中间的信息差,俗话说,有信息差就有机会,也坚信这是未来、甚至可以说是我们这一代人的最大一次普通人够得到的风口,AI可以大幅降低人与人之间的鸿沟,前提是你会,我说的是真的会,使用AI工具。 可以看到我这个账号是在2010年左右就创建的,但是根本没有概念自媒体和流量的力量,回看过去,无论是以任何形式的与公众见面,文章、视频、博客等等,只有把自己放给观众,你才能不是一个互联网小透明,今年36本命年,其实是一个挺大的年纪了,好就好在,我自己心态跟大学刚毕业没有多少区别,偶尔混在大学校园里总觉得自己跟他们一样年轻,殊不知别人看我已经当自己老师的年纪看待。 所以非常想抓住这次AI带来的世界格局的重塑,有句话说的好,“一切行业都值得被AI重构。” 我也坚信,事实即是如此。 未来的路还很长,但是做自己喜欢的,有创造性的,能和优秀的人为伍的工作,本身就是一件快乐的事情。从中如果还能挣些钱,那岂不是一件快事儿。与其说我将是一名solo founder,不如称自己是一位“依然心存少年心气的中年大叔吧“。很高兴介绍自己,也期待认识更多志同道合的朋友。 ps.下图这提示词还挺叼的
背包健客
2个月前
重度斑秃可恢复80%头发生长 今日,礼来公布了其与Incyte联合开发的JAK抑制剂Olumiant(baricitinib,巴瑞替尼),治疗重度斑秃(AA)青少年患者(12至<18岁)的3期临床试验BRAVE-AA-PEDS的最新结果。 分析显示,患者在接受治疗一年后实现头皮、眉毛及睫毛的显著再生。 礼来计划向全球监管机构提交此数据,以推动该疗法适应症标签更新,并计划于明年启动BRAVE-AA-PEDS试验的6至<12岁儿童患者入组。 在该研究开始时,患者平均头皮脱发面积为89%,其中63.8%的患者在基线时被评估为极重度斑秃(斑秃严重度评分工具[SALT]评分95-100)。此外,65%的患者眉毛稀少或缺失(临床医生报告结局[ClinRO]评分为2或3),57%的患者睫毛稀少或缺失(ClinRO评分为2或3)。 分析显示,在治疗一年时:接受4 mg巴瑞替尼治疗的患者中,54.1%实现了显著毛发再生(定义为头皮毛发覆盖率≥80%,SALT≤20),而此数值在接受2 mg巴瑞替尼治疗的患者中为31%。接受4 mg巴瑞替尼治疗的患者中,41.2%实现了近乎完全的头皮毛发再生(定义为头皮毛发覆盖率≥90%,SALT≤10),2 mg治疗组为26.2%。接受4 mg巴瑞替尼治疗的患者中,64.8%实现了显著眉毛再生(ClinRO评分为0或1,且较基线改善≥2分),而2 mg组为27.8%。接受4 mg巴瑞替尼治疗的患者中,63.3%实现了睫毛再生,2 mg组为34%。在重度疾病患者(基线SALT评分50-94)中,4 mg组有71%实现了显著毛发再生,2 mg组为58.6%。 在另一项针对在接受治疗前确诊重度AA不足两年的青少年患者的事后分析中,接受4 mg巴瑞替尼治疗的患者中有80%,2 mg组中有64.3%在一年时实现了显著毛发再生。 青少年斑秃患者使用巴瑞替尼的安全性特征与成人及青少年人群既往临床试验结果一致,经过一年治疗未发现新的安全性信号。最常见的治疗伴发不良事件包括痤疮、上呼吸道感染及流感。研究中未报告死亡、机会性感染、重大不良心血管事件或静脉血栓栓塞事件。 巴瑞替尼是一款每日一次的口服JAK抑制剂,已经在超过75个国家和地区获批用于治疗类风湿性关节炎,并在超过50个国家和地区获批用于治疗中重度特应性皮炎。该疗法在2022年获得FDA的批准,用于治疗患有严重斑秃的成人患者,成为FDA批准用于治疗斑秃的首款全身性疗法。
宝玉
2个月前
这篇文章确实是指出了当前 LLM 存在的问题,但解决方案并不见得可行,另外这文章实在太长了点。 如果几句话总结一下,这篇文章主要就是想讲清楚:强化学习(RL)的教父、图灵奖得主 Richard Sutton 到底在担心什么?为什么我们现在的 Agent 这么“笨”?以及,我们该如何跨过这道鸿沟? Sutton 就是“AI 圣经”《苦涩的教训》(The Bitter Lesson) 的作者,他的理念就是: > 在人工智能领域,长远来看,依赖大规模计算的通用方法(如搜索和学习)最终将胜过依赖人类专家知识的复杂方法。 按理说,他应该对 GPT-5、Claude 这样的大模型拍案叫绝才对。 但他没有。相反,他直言不讳:今天所有的 LLM(大语言模型)都是一条死路。 为什么?Sutton 的原话:LLM 只是在模仿人会“说什么”,而不是在理解世界是“如何运转”的。 这个观点引发了很多讨论,AI 大神 Andrej Karpathy 前几天在播客中也对此有回应和深入探讨(参见: )。 > “我以前就说过,人类不使用强化学习。我认为人类的学习方式完全不同。强化学习比普通人想的要糟糕得多。强化学习很烂。只不过,我们以前有的其他算法比它还要烂得多罢了。” 两位大神都在揭露一个真相: 我们今天津津乐道的“推理器”(Reasoner),离一个真正的“智能体”(Agent)还差得远。而这个鸿沟,就叫“持续学习”。 1. 为什么 Sutton 说 LLM 是“死路”? Sutton 的批评主要集中在两点。 批评一:LLM 是“鹦鹉”,不是“物理学家” Sutton 说,LLM 根本不是真正的“世界模型”。 - 真正的世界模型:能预测“如果我做了A,世界会发生B”。比如,我松开手(动作A),杯子会掉地上摔碎(结果B)。这是对因果和物理规律的理解。 - LLM 在做什么:它在预测“如果我问了A,人类会回答B”。比如,我问“杯子掉了会怎样?”,它会回答“会摔碎”。 看到区别了吗?LLM 是在模仿一个“观察者”会如何描述这个世界,而不是作为“参与者”去理解这个世界的规律。它学的是“人会说什么”,而不是“世界会怎样”。 批评二:现在的强化学习“笨得可以” Sutton 的另一个批评是,我们现在主流的 RL 算法(比如 PPO)样本效率低到发指,而且它们只从“奖励”中学习,不从“观察”中学习。 这话说得有点绕,用原文里的一个例子,你一下就懂了: > 假设我们开发一个 AI Agent,帮用户打电话给 Xfinity(一家运营商)客服。 > > 第一次尝试:Agent 打过去,客服说:“我需要您的信用卡后四位来验证身份。” Agent 没有这个信息,任务失败,挂断。 > > 好了,问题来了: > > - 传统 RL Agent (PPO):它只知道这次尝试失败了(Reward = 0)。它不知道为什么失败。客服明明已经告诉它答案了(“需要信用卡后四位”),但这个信息是“观察”(Observation),不是“奖励”(Reward)。所以,这个笨蛋 Agent 只能下次再试,再失败……可能要试几百次,某一次瞎猫碰上死耗子,它碰巧提供了信用卡信息,成功了(Reward = 1),它这才“学会”了。 > > - 人类:第一次被告知需要信用卡信息,立刻就记住了。下次打电话前就会主动要这个信息。 这就是差距。人类能从环境的丰富反馈(观察)中学习,而现在的 RL 算法大多是“无模型”的,它们只关心“我这么做能不能拿分”,而无视了环境给出的所有其他宝贵信息。 2. “无限上下文”的陷阱:为什么 RAG (检索增强生成)不是学习? 很多人可能会反驳:“没关系,我们现在有超长上下文(Long Context)了!我把 Agent 第一次失败的经验(“客服要信用卡后四位”)直接放进下一次任务的提示词里不就行了?” 这就是目前大多数 Agent 的做法,包括 In-Context Learning(上下文学习)或者 RAG。 但这是对“学习”最大的误解。 把历史记录塞进上下文,不叫“学习”,这叫“开卷考试”。 原文中打个比方: > 让你计算 100 个案例中黑猫和白猫的比例。 > > - 真正的学习(压缩):你看完一遍,在脑子里总结出一个结论:“90只黑猫,10只白猫”。下次再问你,你直接给出答案。 > - 长上下文(RAG):你把 100 个案例的原始记录全堆在桌上。每次有人问你,你就重新把这 100 个案例再数一遍,然后得出结论。 这种方式极其低效,因为知识没有被提炼和压缩。你只是在进行一次又一次的重复检索,而不是把经验内化成了“规律”或“知识”。 AK 在前几天播客里面有一个引起很多人共鸣的结论:人类记性差,这不是 Bug,反而是 Feature(特性)。 正因为我们记不住所有原始细节,才被迫去提炼、总结、压缩知识,找出事物背后的规律。而这个“压缩”和“提炼”的过程,才是学习的本质。 3. “新员工”的困境:为什么 Agent 没法“上班”? 这就引出了一个核心问题:为什么现在的 Agent 解数学题比99%的人都强,但你让它去你公司干个具体工作,它却一塌糊涂? 你可以这么想:你找一个再聪明的天才,不培训就让他来你公司上班,他能干好吗? 大概率不能。因为他不知道: - 公司的代码规范 (Coding Style) - 公司的业务逻辑和黑话 - 团队的协作流程 - 哪些是不能碰的隐形红线 这些知识,绝大部分是非公开的、特定的、隐性的,你没法用一个简短的 prompt 教会它。 人类是怎么做的?在工作中持续学习。 这就带出了 Sutton 坚信的“大世界假设”(Big World Hypothesis):世界上的信息是无限的,模型不可能在预训练阶段就学完所有东西。你必须在与具体环境的交互中不断学习新知识。 而很多 LLM 派持有的是“小世界假设”:世界是复杂的,但规律是简洁的。只要模型足够大(比如 GPT-5),就能掌握绝大部分重要知识,不需要再学了。 显然,现实世界更符合“大世界”假设。 4. 怎样才算“真学习”?从“奖励”到“预测” 既然必须持续学习,而传统 RL 又那么笨(只认 Reward),那该怎么办? 原文作者结合实践,提出了一个非常有启发的改进思路,我把它称为“双 LoRA”策略。(LoRA 是一种高效微调技术,你可以理解为给大模型打上一个小小的“能力补丁”) 这个策略的核心是:在学习“怎么做对”(Policy)的同时,也要学习“世界会怎样”(World Model)。 回到那个 Xfinity 客服的例子: 1. LoRA 1 (策略补丁):它还是从 Reward 学习。任务失败,Reward = 0,它学不到东西。 2. LoRA 2 (世界模型补丁):它不关心 Reward,它的唯一任务是预测环境的下一个反馈。当客服说“我需要信用卡后四位”时,这个补丁会因为“预测失败”(它没料到客服会说这个)而产生一个 loss,然后它就会更新自己,学会“哦,原来打电话给 Xfinity,对方会要信用卡信息”。 看,这就是一种时序差分学习(TD-Learning)。Agent 不再是只看重“得分”的偏科生,还成了能“理解”环境反馈的好学生。 效果是天差地别的: - 传统 RL:要试几百次才能学会。 - 双 LoRA:只要 1、2 个 step 就能学会。 这,才开始有点“持续学习”的样子了。 5. 另一个“致命”瓶颈:AI 为什么反应这么慢? 解决了学习效率,还有一个大问题:现在的 Agent 交互起来为什么那么“卡”? 明明模型的输入输出速度(token/s)都比人类快得多,为什么我们总觉得它反应迟钝? 作者认为根源在于一个僵化的“ReAct 循环”:观察 → 思考 → 行动。 现在的 Agent 都是这个死循环: 1. 观察(听):必须等你把话说完,看到句号了,它才开始下一步。 2. 思考:开始处理你的话,进行推理。 3. 行动(说):把思考完的结果一口气说出来。 但人类根本不是这样工作的! 人类是“事件驱动”的,我们的“听、想、说”是交错进行的 (interleaved): - 边听边想:你刚说开头,我就开始思考和预测你后面要说什么了。等你把话说完,我可能已经想好答案了。 - 边想边说:如果我没想好,我会先说点“嗯……”、“让我想想啊……”这样的“填充词”,在说这些话的同时,我的大脑在高速进行下一步思考。 人类充分利用了所有“间隙”在思考,所以交互体验才如此流畅。 未来的 Agent 必须抛弃僵化的 ReAct 循环,转向这种“边听边想边说”的事件驱动架构。这对于语音助手、机器人、甚至 AI 帮你打游戏都至关重要。 对于这点我觉得虽然“ReAct 循环”,但是实现起来是最简单直接的,作者所说的那种思路看起来很好,但真要实施当前技术未必做的到。 当然很多事情还是得要加上时间维度,有时候并不能用现在的眼光来看这些问题。 至少当前 AI Agent 存在的问题是客观存在的: - 一个真正的 Agent,其核心价值不在于它“知道多少”,而在于它“能学多快”。 - Agent 必须要有持续学习的能力,能从丰富的“观察”中学习世界模型 - “ReAct 循环”很慢,Agent 也应该想人一样能具有“边听边想边说”的实时架构