时政
财经
科技
虚拟货币
其他
登录
serva huang
关注
统计数据
32
文章
0
粉丝
0
获赞
69
阅读
热门文章
1
TechFlow 深潮 发布的文章:近期教育领域的变化引发了广泛讨论,我认为教育改革应该更加注重学生的个性化发展和创新能...
145
32
serva huang
2周前
🔥颠覆!万亿参数RL: Mind Lab 团队基于Kimi K2模型训练LoRA背后三大创新 🚀 万亿参数级别模型的强化学习(RL)训练不再是天方夜谭。 64张 H800 GPU,并只需要 10% 的GPU,就能成功做到。 不想看文字可以看图片或者 听一下我给你们做的AI前沿播客(地址文章末尾) 看看这个来自清华MIT的团队有多牛! 他们通过三大创新彻底改变了游戏规则,使得训练LoRA变得高效且节省成本。 传统方法面临的三大难题: 算力瓶颈:混合专家模型的路由不平衡和通信瓶颈严重影响效率。 训练稳定性:不同引擎带来的计算差异导致梯度爆炸。 工程实现:大规模模型的保存和加载时间长,易出现内存不足。 三大创新突破 创新一:四维混合并行系统 问题:MoE架构面临两大瓶颈:1)路由不均衡导致某些专家负载过重;2)All-to-All通信开销巨大(每个token需路由到不同GPU的专家) 方案:采用张量(TP)、流水线(PP)、专家(EP)、序列(SP)四种并行技术的动态调度。 TP(张量并行):把单个算子拆到多卡上同时算 PP(流水线并行):把模型按层切分,像流水线一样逐层处理 EP(专家并行):把MoE的专家分散到不同GPU SP(序列并行):把长序列切段并行处理 效果:GPU利用率从55%飙升到95%+。想象这是一个动态的四维俄罗斯方块,填满了所有计算资源。 创新二:截断重要性采样 问题:使用vLLM和Megatron导致计算差异,进而引发梯度爆炸。 方案:引入"保险丝"式的截断机制,将差异比值截断到2.0。 效果:模型奖励提升超过20%,训练过程中稳如泰山。 创新三:分片LoRA操作 问题:1TB模型保存/加载耗时长且易OOM。 方案:推出完整的分布式操作Zoo,并采用LoRA rank=128的配置来平衡表达能力和稳定性。这个rank值既能让LoRA有足够的表达能力影响推理行为,又能保持训练的稳定性和效率。 具体包括四大核心技术: 分布式存储(Distributed Save):将模型分片保存,时间从225分钟缩短至2分钟(75倍提速) 分布式加载(Distributed Load):并行加载模型,从180分钟降至28分钟,避免OOM,降到2分钟(90倍提速) 分布式LoRA合并(Merge LoRA):就地合并LoRA权重,从180分钟降至25分钟,OOM风险降至1.5分钟(80倍提速) 分布式量化(Quantize):内存节省50%以上,从60分钟降至15分钟,OOM风险降至1分钟(90倍提速) 效果:操作时间从4小时缩短至2分钟,速度提升80倍。 总结 更大的基础模型+小LoRA的效果提升比小模型+全参数RL高出2-3倍。 这说明RL是"先验受限"的,当基础模型已经足够强大时,RL只需要精调行为而非重新学习,因此在最强的模型上花费RL算力更加高效。 通过这三板斧的协同创新,万亿参数模型的强化学习训练变得高效、稳定且更容易落地。 这不仅打开了现代AI模型训练的新篇章,更让研究人员可以快速迭代和验证新想法。 论文在官方地址里: AI前沿播客:
分享
评论 0
0
serva huang
4周前
我未来的目标,拥有一支由多个AI员工组成的团队 所以我最近一直研究如何让AI Agent真正自己干活。 很快我就遇到了所有AI代理最致命的缺陷:失忆。 每次重启,上下文窗口一关,它就忘了一切,变成一个对自己项目一无所知的“新人”。 这导致它要么留下烂摊子,要么草草宣布胜利。 而Anthropic最近提出的框架给了我巨大的启发。 它的核心思想不是治好AI的“失忆”,而是为它打造一套外部记忆和工作流。 他们用了两个AI Agent,分工堪称绝妙: 初始化代理 (项目经理): 它不写代码,只负责把任务彻底拆解成详细的功能清单并建立 git 仓库。 这相当于为AI植入了项目的“长期记忆”。 编码代理 (轮班码农): 它每次“上班”,先读取清单和 git 日志来“恢复记忆”, 然后只专注完成一个功能,测试、提交。 这确保了AI拥有可靠的“短期执行力”。 关键不在于AI模型本身有多强,而在于我们设计的工作流有多聪明。 我已经按照这套思想植入到自己的项目中,感觉非常有用! 原文: 给你们翻译理解文章后共享出来:
#多智能体之争:Anthropic生态VS单智能体· 81 条信息
#AI Agent
#外部记忆
#项目管理
#任务拆解
#工作流
分享
评论 0
0
serva huang
1个月前
感谢鸟山明先生,给了我一个精彩的童年记忆 记得那个时候,一本龙珠全班男生传阅,直到翻烂 今天复刻一下龙珠卡牌 感谢YouMind的 4K高清图,真的赞(25M一张) 感谢古一老师的原提示词 最后一张才理解了的SR和SSR的区别 老规矩,提示词回复👇
#鸟山明
#龙珠
#童年记忆
#卡牌
#感谢
分享
评论 0
0
serva huang
1个月前
写推特两个月,终于到10K了 今天轮到我发10K感言了 一路走来,推特给我带来的持续的学习和进步, 这个是我最大的收获 我坚持能付费坚决不白嫖,因为这样才快 当然也会踩坑,但是比起来,还是进步更重要 我进了panda老师的群,最大的收获是:多发,借势 进了锤哥的培训班, 最大的认知就是: 简洁有力的让你的受众人群共鸣 看到了神老师,这个神一样的男人,昨天一夜硬涨粉2.5K,让人羡慕,只好奋起直追! 我会继续努力,持续输出给大家 最近一直在做开源的一个画图产品,希望最后能贡献出来,能帮到大家!
#推特
#10K粉丝
#知识付费
#快速成长
#开源画图产品
分享
评论 0
0
serva huang
1个月前
我艹,这么多的汉字,怎么都不糊呢?? 中文“零糊率”的终极秘籍? 你的长Prompt触发了Gemini 3 Pro的文字集成革命。 核心在于:它激活了字形感知编码器,将汉字视为高优先级矢量图层,而非像素纹理。 同时,结构化的排版指令强迫模型“先推理再排版”,为文字创建独立的渲染空间。 这让4K下的汉字获得了印刷级锐利度。你的Prompt是一份精确的规格书,逼迫Pro版动用其最昂贵的文字处理算力。 提示词prompt在评论区👇
Google Gemini 2.5发布引发AI模型性价比热议· 475 条信息
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 869 条信息
#Gemini 3 Pro
#文字集成革命
#字形感知编码器
#零糊率
#4K汉字
分享
评论 0
0
serva huang
1个月前
最近为了搞一个开源,太投入了 感觉回到创业之初的时候: 走路想,吃饭想,洗澡想, 现在好了,开车到高速服务区,停下来先搞一下
#开源
#创业
#投入
#高速服务区
#积极
分享
评论 0
0
serva huang
1个月前
我就想说NotebookLM都这样了,其他竞品慌不慌? 直接用NotebookLM的Deep Research功能,搜索到20篇关于龙珠的文章 然后用最新的功能,信息卡和演示文稿,直接输出! 这个强大的输入+输出能力,叹为观止!
#NotebookLM
#Deep Research
#龙珠
#信息卡
#演示文稿
分享
评论 0
0
serva huang
1个月前
最近我有点“走火入魔” 为了研究AI出图,把图布局算法的底层逻辑准备开扒。 图表不是随便画的,它有“骨架”。 大多数人不知道,你的流程图、思维导图、组织结构图,背后有五种完全不同的算法支持 对比了主流算法: Dagre: 有向无环图 → 流程图 Force-Directed: 物理模拟 → 思维导图 Hierarchical: 树形结构 → 组织图 Orthogonal: 直角连接 → 电路图 Circular: 环形布局 → 社交圈 实战测试: 用 Gemini 3.0 生成了 Dagre 和 Force-Directed 算法的交互式网页,演示算法动画
#AI出图
#图布局算法
#Gemini 3.0
#Dagre算法
#Force-Directed算法
分享
评论 0
0
serva huang
1个月前
🍌 Nano Banana 2 正式来啦! 看看手绘风格图,汉字表现如何? 这款基于 Google Gemini 3 Pro 大模型深度优化的 AI 图像生成模型迎来重磅升级!不再是简单的“图案拼接” Nano Banana 2 真正迈向「懂物理、会推理」的生成时代! 核心亮点一览:文字渲染终于靠谱了! 告别乱码和歪扭字 图像一致性拉满,多角色、多角度不再“崩” 原生 2K 高分辨率,细节爆炸 强大图像编辑能力,想改哪儿改哪儿,精准可控 专业级输出品质,商用直接上! 从此告别“看起来很美但经不起推敲”的AI画作, Nano Banana 2 要带我们进入真正可靠、可信、能落地的AI图像新时代!
nanobanana平台助力个人形象照生成,专业形象照引发热议· 107 条信息
#Nano Banana 2
#AI图像生成
#Google Gemini 3 Pro
#文字渲染
#图像一致性
分享
评论 0
0
serva huang
1个月前
我昨天晚上就像过年一样,守着零点的钟声, 实际上是在等 Google 发布最新的大模型。 这份狂热,源自我与 Google 二十年的羁绊。 故事始于 2005 年,那时的 Google 是神一般的存在,一个简洁却无所不能的入口,是连接墙内与知识海洋的桥梁。 我们这些初代码农,能无需 VPN 就直通 Stack Overflow,享受着信息纯净的黄金时代。 然而 2010 年,这扇窗悄然关上。Google 的退出不仅是商业退让,更是一场文化断层,我们从此开始在代理服务器的迷雾中追寻它的身影。 二十年弹指一挥间,Google 再次让我惊艳。 今天发布的 Gemini 3.0 Pro,是其 AI 帝国的华丽转身。它不仅拥有百万级 Token 上下文与“主动代理”能力,更带来了以 AI 为核心的 Antigravity IDE 和嵌入终端的 Gemini CLI更新,彻底颠覆了程序员的工作流。 Google 的节奏一如既往:不张扬,却总在关键节点引爆惊喜。 这让我不由感慨,二十年过去,Google 依旧是那个不朽的创新者。 它曾因原则退出,却从未放弃全球视野;从搜索引擎到AI帝国,始终坚守着“不作恶”的初心。 致敬 Google,不只是缅怀过去。 墙内,每一次登录都如重逢故人。 愿这篇文章,成为一封迟到的书信,诉说那份跨越二十载的敬意。 Google,谢谢你,让世界永不孤岛。
Google Gemini 2.5发布引发AI模型性价比热议· 475 条信息
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 869 条信息
#Google
#Gemini 3.0 Pro
#AI
#程序员
#创新
分享
评论 0
0
serva huang
1个月前
为了这套“AI手绘提示词公式”,刚刚“肝爆”了6个小时。🔥 说实话,每次看到这种清爽、有质感的手绘草图,都羡慕得不行。 所以我今天豁出去了,花了整整一个下午,就为了攻克这个难题。 从找风格到定结构,从炼提示词到批量测试,终于搞出了一套能稳定输出的“魔法公式”! 这里吐血推荐大家用「既梦4」来跑这套提示词,效果亲测惊艳! 但这还不是终点。 为了实现真正的“一劳永逸”,我更进一步,把它封装成了一个 YouMind 的 Shortcut 快捷指令,实现完全自动化! 这个快捷指令里,我内置了5种不同信息类型的绘图模版。 你只需要把图片、书、链接、文章或者视频丢给它, 它就会自动分析内容,智能匹配最合适的模版,一键生成你要的手绘图片! 从一个想法,到一个提示词,再到一个完整的自动化工作流,这套流程彻底解决了我的痛点。 喜欢这个风格、想get这个自动化流程的朋友,请一定点赞、关注! 这会是我持续分享这类硬核干货的最大动力!🚀 我的“爆肝”成果全在这里了,直接取用👇 提示词文档地址:
AI视频井喷:Midjourney领跑,多模态混战· 337 条信息
#AI手绘
#提示词公式
#自动化工作流
#YouMind Shortcut
#效率工具
分享
评论 0
0
serva huang
1个月前
读完《一人公司》,会让很多人脊背发凉。 这本书瞄准的不是别人,正是这些曾以为手捧铁饭碗的精英:程序员、设计师和工程师。 就像志辉,一位10年“全栈工程师”,刚拿了9万块的N+1“大礼包”被毕业。 他没有沉沦,而是转身All in AI,成了一家“一人公司”: 写公众号、做视频、当教练,硬生生在不确定性里,为自己杀出一条活路。 他的故事,就是这本书揭示的残酷现实: AI和自动化浪潮下,高薪和专业技能,早已不是护城河。 书中层层的数据和访谈撕开了一个真相: 越来越多白领正被迫脱离企业轨道,以“一人公司”的孤军奋战姿态存活。 这不再是选择,而是生存。 这不只是中产的隐痛,这是劳动形态的剧变信号。 读完,你脑子里是否盘旋一个问题: 下一波裁员,会砸到我头上吗?
从月薪1800到被裁后独立开发,程序员的逆袭之路· 65 条信息
#一人公司
#AI转型
#裁员危机
#劳动形态剧变
#中产焦虑
分享
评论 0
0
serva huang
1个月前
8K 遇到波折,因为没扣到款,premium账号一下限流了2天,第三天才发现
#8K
#premium账号
#限流
#波折
#消极
分享
评论 0
0
serva huang
1个月前
我越来越觉得,普通人想改变现状,必须做好这几件事。 它不需要你天赋异禀,只需要你马上开始行动。 1. 先有好身体,这个“基础” (地基) 没有精力,再牛的杠杆你也撬不动。如果健康是0,后面的一切都没有意义。先让身体动起来。 2. 学好英语,这个“杠杆” (视野) 瞬间把你的信息源和机会池扩大10倍。让你能直接获取全球最顶尖的资源和信息。把通勤、排队的碎片时间变成投资。 3. 用好AI,这个“超级大脑” (效率) 它是你24小时待命的免费顾问,帮你思考、写作、分析。别人用腿跑,你用AI飞。这是普通人追赶精英的最大机会。 4. 做好自媒体,这个“放大器” (价值) 把你前面三件事的积累,全部放大并找到价值。你的思考、你的改变、你的成长,都会在这里找到共鸣,最终实现变现。 在X或小红书等等,每天发一条,就记录你今天的改变。 别再只收藏不行动了。这四件事,今天就开始。
#阶层固化:求变之路,殊途同归· 976 条信息
#改变现状
#行动
#英语
#AI
#自媒体
分享
评论 0
0
serva huang
1个月前
拥抱失败,这是你甩开90%的人的秘密武器 稻盛和夫 曾反复强调一个看似反常的智慧: “越是失败,越要感谢。” 他认为,失败不是终点,而是一面镜子,让你有机会审视自我、磨炼心性。每一次跌倒,都是一次成长的催化剂,迫使我们反思、调整,并以更强的姿态站起来。 纳瓦尔也指出,很多人误以为“忍受痛苦”本身就是进步,但真正的成长源于 “从痛苦中解脱”。 这并非逃避,而是勇敢地经历它、学习它,最终超越它。 为什么大多数人如此平庸? 因为他们连第一次尝试的勇气都没有,他们太害怕失败带来的痛苦。 就像马斯克(Elon Musk)的哲学所启示的“10%法则”: 当你敢于尝试并坚持10次时,你就已经甩开了身后90%因害怕失败而从未开始的人。 所以,别再把失败看作是羞耻的印记,每一次阵痛,都是新生的前奏。
#拥抱失败
#稻盛和夫
#马斯克10%法则
#成长
#积极
分享
评论 0
0
serva huang
1个月前
找需求,也可以潜伏在各个大佬群,看看他们说什么,做什么。付费都学一遍,花钱把好的软件用一遍。 最后找到自己能做的,适合的方向ALL IN!
#需求挖掘
#大佬群体
#付费学习
#All In
#方向选择
分享
评论 0
0
serva huang
1个月前
很多人都错了,老登感跟年龄无关。 它只关乎:心智的退化。 过去两年,我过上了无数人梦想中的生活: 远程管理3家公司,踏进办公室不超过 15 次。 我用身体填补空虚,用自由麻痹自己。 我攀登了慕士塔格峰,穿越了216羌塘无人区,跑过了 318、219国界线、217独库公路,314中巴友谊公路,伊昭公路,格聂南线,塔莎古道,蒙特克古道等等等等 身体的极致探索,换来的却是内心巨大的虚无感。 我曾以为开心自由就是目标。但这种“无目标”的状态,才是真正的精神停滞。 而虚无感的本质,就是感觉自己:没有在进步! 直到今年 9 月,我踏进推特大门。我才猛然发现,我离这个世界太远了,落后太多。 那一刻,我才理解: 真正的“老登”: 不是退休,而是停止学习。是心智的肌肉退坡,是主动与时代的连接断裂。 攀登的意义: 肉体攀登了高峰,心智却躺在了山脚。 我开始了疯狂学习的一个多月。 现在我知道,持续地学习新东西,是避免成为老登的唯一,也是最难的办法。 你内心的那片“羌塘无人区”,是否也因为“停止进步”而正在蔓延?
#心智退化
#停止学习
#精神虚无
#持续进步
#探索与成长
分享
评论 0
0
serva huang
1个月前
80%的人第一眼看到YouMind的时候就觉得和NotebookLM很像 我一开始也是这样觉得,后来仔细研究后发现,它们有很多的区别 如果你是内容创作者,请注意:它们的核心路径完全不同。 结论先行:NotebookLM更偏向于学习,而YouMind更适合创作 先说插件:YouMind 胜在“辅助阅读” NotebookLM 插件: 只能保存文章到源。 YouMind 插件: 不仅保存,还有 AI Assistant。它可以将文章段落结构化、重点摘要,极方便区分阅读。 小遗憾:AI Assistant 暂无“保存为笔记”功能,但已在开发中。 核心区别:“修改和编辑” 这一点决定了其用户属性。 NotebookLM源是不可以编辑和改写的,但是它可以根据思维导图不停生成新“源”,脑风暴的概念(我的最爱) YouMind的源叫做Materials,它是可以编辑和修改,不停的添加,这个非常适合创作者 并且NotebookLM偏重于笔记形式有时候比较零散,而YouMind则可以对文章进行group分组。 细节区别:通过文章生成思维导图,语音,视频等。 NotebookLM可以生成视频,并且可以选择视频风格。 而 YouMind除了视频暂时不能生成,但是它的Craft区可以更多的自定义, 这个功能相当适合创作者,在这里生成简报摘要,博客文章,研究指南等, 更完美的是可以自定义自己的风格, 实际上是定义自己风格的Prompt,其实就是让你的AI模版代替你输出 设想一下,当你的 Prompt 完全囊括你的风格时,它的输出会有多像你? 最后夸奖一下YouMind的Pick功能:Pick what matters to you. "剪存与分组":快速捕捉信息 "动态注释":标记卡壳点 "知识复利引擎":每次标记都在积累资产 简单说:边学边存,化被动消费为主动建构! 创作者还不快来用?我怕你会爱不释手
#YouMind
#NotebookLM
#AI创作工具
#内容创作
#知识管理
分享
评论 0
0
serva huang
1个月前
费曼学习法爆火后,最多人问我: "有没有工具能让费曼学习法更高效?" 有。而且用了之后,可能停不下来。 YouMind + 费曼学习法 = 新一代数字化学习系统。 想把知识转化为复利式增长的认知资产? 今天介绍费曼学习法的数字化超级助推器。 费曼学习法很强,但有3个痛点:讲完就忘、卡壳难追踪、知识难串联。 YouMind完美对齐费曼学习法的4步,并做了数字化增强: 1. 选定主题 → YouMind剪存与分组 瞬间从信息碎片化到知识体系化,为后续讲解提供坚实根基。 2. 教授输出 → YouMind AI助手 你的即时AI听众。极速生成讲解或总结,帮你"教会自己",立即验证理解是否到位。 「1-2的核心升级」:AI驱动极速输出,检验知识内化。 3. 查漏补缺 → YouMind动态注释与修改 发现卡壳点,即时标记和修正。知识漏洞实时闭环,深化真正理解,避免知识结构断层。 4. 简化再表达 → YouMind跨文章串联 将孤立知识点网络化、系统化。助力知识迁移和创新整合,形成高价值的个人知识资产。 「3-4的核心升级」:动态修正机制,实现认知迭代的闭环。 YouMind驱动的费曼法,启动了"数字+认知"双飞轮: 效率飞轮: 自动化剪存/分组/AI辅助,大幅提升学习速度。 质量闭环: AI实时陪练 + 动态修正,知识内化更彻底。 每一次学习、输出、修正,都在为个人知识体系积累复利。 学习成果不再是线性叠加,而是指数级增长。 YouMind是最适合现代高知创作者的费曼学习工具。 它将费曼法从"学习技巧"升级为"认知和创作迭代系统"。 用YouMind,你不是在管理笔记,而是在构建你的知识复利引擎和资产。 纳瓦尔说:"那种睡着的时候都能为你赚钱的资产。" 你的知识体系,就是这样的资产。
#费曼学习法
#YouMind
#数字化学习
#知识复利
#AI辅助
分享
评论 0
0
serva huang
1个月前
真正阻止你用第一性原理的,不是知识,而是人性。 马斯克最厉害的不是算成本, 而是敢于挑战所有权威和经验的“信念”。 这才是第一性原理的灵魂: 人类大脑天生依赖“类比思维”,从而掉进“陷阱” 我们习惯用“别人失败了”来论证“我也会失败”。 这就是行业惯性收割你的原因。 “如果我必须成功,有没有任何一条规则能阻止我?” 答案:必然是没有 第一性原理不是解题,它是心法。 它逼你站在真理的高台去俯视那可笑的“市场经验”。 马斯克的SpaceX 证明了:你所有的“不可能”,都只是别人固化信念的投射。 下次你觉得某事太贵或太难时, 请清除掉你脑子里所谓的“恐惧”和“经验”的无效数据。 你会发现: 随时都可以重新定义它们, 重新夺回游戏规则的制定权。
#第一性原理
#马斯克
#信念
#挑战权威
#突破思维定势
分享
评论 0
0
serva huang
1个月前
话题太热,让我根本停不下来 为什么大脑偏爱费曼学习法? 费曼学习法的核心,精准击中了大脑最爱的学习模式。 同时满足了三种“神经快感”。 1. 主动生成:大脑喜欢“自己说出来”的知识 当你试着解释一个概念,大脑必须从记忆中主动拉取信息。 这就是“生成效应”(Generation Effect) 比起反复阅读,记忆强度可提升十倍以上。 解释 = 检索 + 组织 + 输出, 此刻大脑在“动手造房子”,而不是“被动存档”。 2. 意义化结构:大脑讨厌碎片,喜欢故事 当你用自己的话讲例子、打比方, 其实是在帮大脑搭建知识网络。 这叫“阐述效应”(Elaboration Effect)。 大脑偏爱有故事线的知识, 那种能“串起来”的内容才容易记住。 学习越像讲故事,大脑越容易“沉浸其中”。 3. 内在奖励:从“啊哈时刻”中分泌多巴胺 当你卡壳、查资料、终于讲明白的那一刻—— 大脑释放多巴胺,让你感到愉悦。 那种从“困惑”到“通透”的瞬间,是最强的学习快感。 费曼学习法让大脑不再“记知识”,而是“重建知识”。
#费曼学习法
#大脑学习模式
#神经快感
#主动生成
#意义化结构
#内在奖励
#多巴胺
分享
评论 0
0
serva huang
1个月前
推特30天,5000粉 听起来还不错? 但第二周的时候,我差点放弃了。 刚开始涨粉快,当我洋洋得意的时候,第二周我就怂了。 Panda老师群里牛人辈出,执行力超强, 一篇涨几百粉,20天涨了3000多粉 我一条条看,一条条点赞。 点完赞,关掉群,刷新自己可怜的粉丝数。 想逃避:老登在忙正事 但每隔一段时间,还是忍不住打开X,焦虑地刷新后台,盯着那个数字看 忍不住跑去问Panda老师, “你过去赚过大钱, 我以为你应该能看明白。我的专栏里已经有答案了。1。 多发, 2.多思考” 被直接戳中,思考深层的原因:太把自己当回事了。 很害怕做不好,所有人都会投来异样的眼光。 后来写了那篇创业故事,文章爆了后, 我开始不停的爆贴10万+,粉丝也不停的增加 才明白: 真正的聚光灯,从来都只在自己心里。 而阻碍你的,从来不是能力不够,而是那个"害怕被看见"的自己。 其实最关键的是:做推特就是要演好自己 这一个多月, 治好了我的拖延症, 重新开始锻炼, 重新开始学英语, 每天坚持读书, 找到各种工具,让我工作效率倍增 突破了这一关,接下来还有更多值得尝试的事。 你呢?什么阻碍了你? 别急着离开,评论区有彩蛋
#推特涨粉
#克服焦虑
#个人成长
#经验分享
#内容创作
分享
评论 0
0
serva huang
2个月前
是的,我又来了:又要讲「费曼学习法」 不是因为没别的可讲,而是我发现很多人把它用反了。 你越讲越顺,可能并不是你懂了,而是你在把错误讲得越来越流畅。 所以这次我们专讲:费曼学习法的三大致命陷阱。 1. 为了简化而简化 费曼学习法强调把新知识解释得通俗易懂,这本质上属于认知科学中的精细化编码(Elaboration): 它要求在确保概念准确的前提下再进行简化,并与已有知识建立连接。 如果“简化”变成了把概念讲错,那学习和验证知识的全过程就会被破坏。 此时你看似“解释得很简单”,但实际上却无法推动从“知道”到“理解”再到“精通”。 简化不是削弱,而是用更清晰的方式保持原本的准确性。 2. 选择了错误的听众 费曼学习法的核心目的,是通过讲解过程暴露自己知识结构中的漏洞。 如果你选择的听众比你更专业,对方可能会自动补全你讲解中的缺口, 这会让你错过最关键的时刻,你自己卡住的瞬间。 而这个“卡顿点”,恰恰是费曼学习法中最有价值的部分: 它揭示了你哪里“以为懂了,但其实没懂”。 所以听众最好是能听懂但不比你更懂的人,这样你的盲点才会被暴露出来。 3. 发现卡壳后停住,没有继续打磨 费曼学习法最有价值的不是讲解,而是卡壳。 “卡壳”本质是一种元认知时刻: 你意识到自己其实并没有掌握得足够扎实。 如果你在这里停下来,没有回去重新查阅、补充、再解释、再简化, 那学习就只是停留在表层。 真正的精通,是在每一次卡壳处返回源头,重新打磨解释,直到能够顺畅、准确、清晰地讲出来。 总结一句话 费曼学习法不是为了让你讲得简单,而是通过讲解暴露你没懂的地方,并逼迫你把它补全。 图片配上我用NotebookLM工具生成的费曼学习法的脑图
#费曼学习法
#学习方法陷阱
#知识精通
#元认知
#简化误区
分享
评论 0
0
serva huang
2个月前
上次说到从租书店创业到和女友私奔深圳。 后来父母提着诚意去找系领导,毕业的事算解决了。 临走前,领导看着我说:“像你这样的人,肯定找不到工作。” 毕业后托关系进了一家公司。 我当时完全是白纸,编程只会课上的那点皮毛。 第一次团队会议,老大分配任务,说要做状态服务器(Linux C开发)。 我嘴快说:“我会。” 老大抬头:“SIP协议状态服务器,你会吗?” 所有人都看着我,其实我连Linux都没碰过。 任务接下,慌得不行。 我开始狂查资料,把状态机每个逻辑都啃下来。 然后去找新来的同事,不停地给他们讲我刚学会的东西。 讲一遍,卡一遍。 卡的地方,就是我还没真懂的地方。 于是继续查、继续试,再讲一遍。 讲得不好意思,就请他们吃饭,接着讲。 一周后,老大查进度,让我演示。 逻辑还行,但她一眼看穿:“AR静态库编译你不懂吧?” 我硬着头皮,脸通红。 她看了我几秒,说:“给你一次机会,两周时间。” 那两周,我就一个办法:“学一遍 → 讲一遍 → 卡住 → 再学一遍。” 很多同事都被我搞烦了,我就请他们吃东西喝饮料 每个核心原理都这样过了3到5遍。 项目按时交付。 老大笑着说:“我就知道你行,小子,胆子挺大。” 二十年后我才知道, 原来这个办法早有名字:费曼学习法。 所以动起来吧,友友们。 别怕不懂,先教别人。你讲不清的地方,就是你成长最快的地方。
#租书店创业
#私奔深圳
#费曼学习法
#技术学习
#职场成长
分享
评论 0
0
serva huang
2个月前
查了一下,才发现我原来一直在用费曼学习法方式学习 费曼学习法的四个核心步骤,以下是该方法的典型实施流程,通常只需20分钟左右即可完成一个循环: 选择概念并记录:挑选一个你要学习或掌握的知识点,在纸上写下它的名称,并尝试用自己的话初步总结你已知的全部内容。这一步帮助你明确目标。 假装讲解给孩子听:用最简单的语言,像教给一个4岁小孩一样解释这个概念。避免专业术语,使用日常词汇和类比。如果能流畅讲解,说明你已理解;如果卡壳,就标记出空白点。 识别并填补空白:回顾卡住的地方,返回原资料(如书籍或笔记)学习缺失知识,然后重新尝试讲解。重复直到能完整无碍地解释。 简化与优化:进一步精炼你的解释,使用比喻或故事让它更简洁生动。最终目标是能用一句话概括核心本质,这时你真正掌握了它。 为什么有效? 费曼学习法通过“教学输出”激活大脑的主动加工机制,能显著提升记忆保留率和理解深度。 如果你想实践,从一个小概念开始试试
#费曼学习法
#学习方法
#知识掌握
#主动学习
#概念简化
分享
评论 0
0
1
2
下一页
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞