时政
财经
科技
虚拟货币
其他
登录
宝玉
关注
统计数据
774
文章
0
粉丝
0
获赞
6912
阅读
热门文章
1
TechFlow 深潮 发布的文章:近期教育领域的变化引发了广泛讨论,我认为教育改革应该更加注重学生的个性化发展和创新能...
145
32
宝玉
2个月前
3. 让 AI 当老师 让 AI 帮自己写,AI 很擅长写提示词,我的很多提示词就是 AI 帮我写的,我会先给 AI 说清楚我的需求,然后让 AI 帮我生成提示词,再去用 AI 生成的提示词生成,通常会得到很好的效果。 比如一个有意思的案例是昨天看到归藏分享的头像 Prompt,是需要垫图的,比较麻烦。于是我把垫图的图片发给 AI,让 AI 帮我生成一段提示词,根据 AI 生成的提示词,就可以直接得到原来类似的效果,而不需要垫图。 --- 参考照片生成卡通头像,圆角方形头像框,白色贴纸描边,半身胸像,正面像,手绘粗线稿(深灰/黑),极简配色,柔和粉彩底色,轻水彩上色与蜡笔/粉笔纹理,纸张颗粒噪点,干净留白,少量元素突破边框标志性元素/特效,可爱明快表情,柔和内阴影或投影,画面整洁、无复杂背景 ---
#AI
#提示词生成
#卡通头像
#图像处理
#效率提升
分享
评论 0
0
宝玉
2个月前
场景二:翻译图片文字 前几天看到一张有趣的英文漫画,想翻译成中文分享,无奈没有靠谱的模型帮忙,只好手动 PS 了一下,花了一点时间。 今天又重新用豆包试了一下,效果很好,完美的替换了漫画的文字为中文,甚至提示词只用了一句话: > 请帮我把图片中的文字替换为中文
#豆包
#图片翻译
#漫画翻译
#中文替换
#AI工具
分享
评论 0
0
宝玉
2个月前
AI 画图不是玩具,而是可以变成效率工具 | 豆包 P 图Seedream 4.0 效率场景挖掘 这两天在豆包测试了新的豆包 P 图 Seedream 4.0,画图能力确实名不虚传,既有 GPT-4o 画图的那种对指令的深度意图理解,又有 nano banana 那种对角色一致性的高度特征保持,还可以精准的用指令对图片进行编辑,最重要是对中文的支持比 GPT-4o 和 nano banana 都好太多了。 在测试中重新发掘出了不少有趣的场景,更重要是它不止像把照片变成手办那样好玩,而是你能把它变成效率工具,在很多场景中帮到你,帮你提升效率。 我在这里列举几个我用它提升效率的场景,分享一下我日常是怎么用一套自己的公式来套用发掘这些 AI 应用场景的,以及怎么写好画图的提示词。🧵
#AI画图
#豆包P图Seedream 4.0
#效率工具
#中文支持
#场景挖掘
分享
评论 0
0
宝玉
2个月前
这是 MIT 网站的相关信息: AlterEgo 是一款非侵入式的可穿戴外周神经接口。它能让人类通过在内部默念词语的方式,与机器、人工智能助手、各类服务以及他人进行自然语言交流——整个过程无需发出声音,无需张开嘴巴,甚至没有任何外部可见的动作。 设备会通过骨传导技术,以音频形式向用户提供反馈,这既不会干扰用户正常的听觉,也让整个交互形成了一个闭环。由此,一种主观体验上完全内化的人机交互诞生了——感觉就像在和自己对话。 该项目的一个核心焦点是为患有语言障碍的人士提供沟通支持,例如肌萎缩侧索硬化症(ALS,俗称“渐冻症”)和多发性硬化症(MS)等疾病的患者。除此之外,该系统还有潜力将人类与计算机无缝融合——让计算、互联网和人工智能像“第二自我”一样融入我们的日常生活,从而增强我们的认知和能力。 当用户在心中默念词语时,其内部的言语构音器官会被自主地、神经性地激活,此时可穿戴系统便会捕捉相应的外周神经信号。这使得用户可以在不被察觉、不侵犯个人隐私、不脱离周围环境的情况下,与计算设备或他人收发信息流,而无需任何可见的动作。 AlterEgo 项目于 2018 年诞生于麻省理工学院(MIT)媒体实验室,并于 2025 年初分拆为一家营利性公司。
#MIT
#AlterEgo
#人机交互
#神经接口
#语言障碍
分享
评论 0
0
宝玉
2个月前
哈哈,柯洁这对 AI 的态度,变化好大
#柯洁
#AI
#态度变化
#围棋
#积极
分享
评论 0
0
宝玉
2个月前
让你效率倍增的指令参数: claude --dangerously-skip-permissions codex --dangerously-bypass-approvals-and-sandbox
AI编程工具激战:Claude Code、Gemini Cli崛起· 1242 条信息
#效率工具
#Claude
#Codex
#指令参数
#开发者效率
分享
评论 0
0
宝玉
2个月前
不知道为啥最近那么多人吹 GPT-5,Deep Rearch 确实有独到的地方,编程我目前真没觉得比 Claude 4.1 强的地方,尤其是 Codex,比起 Claude Code 还是要差不少。我最近特地重开了 ChatGPT Pro,codex 都是用 GPT-5 high,每次复杂一点任务都不如 Claude Code。
AI编程工具激战:Claude Code、Gemini Cli崛起· 1242 条信息
#GPT-5
#Claude 4.1
#编程能力
#Deep Research
#Codex
分享
评论 0
0
宝玉
2个月前
在正式对话结束后,扎克伯格私下凑到特朗普耳边,略带歉意地说道:“抱歉啊,总统,我刚才没准备好……我不太确定您心里想的是哪个数字。” 不料,这段本以为是私人交流的话却被桌上的麦克风悄悄录了下来 --- 硅谷巨头们频频造访华盛顿已不是什么新鲜事。他们常常带着巨额投资计划前来示好政界。就在上个月,苹果CEO蒂姆·库克就带着一座苹果造型的玻璃摆件登上椭圆形办公室,宣布未来四年将再投1000亿美元,使苹果对美投资总额达到惊人的6000亿美元。 或许正是这个数字,让Meta公司CEO马克·扎克伯格最近在白宫出席晚宴时,倍感压力。当时,他与特朗普总统就坐在一起,特朗普突然凑近问道:“你们未来几年准备投多少钱?” 扎克伯格明显被这个突如其来的问题打了个措手不及,他有些尴尬地回答道:“呃,我觉得可能至少会达到6000亿美元,到2028年吧。” 特朗普一脸若有所思地重复:“那可不少啊,真的不少。” 没错,这笔投资的确堪称天文数字。然而,更有趣的是,就在正式对话结束后,扎克伯格私下凑到特朗普耳边,略带歉意地说道:“抱歉啊,总统,我刚才没准备好……我不太确定您心里想的是哪个数字。” 不料,这段本以为是私人交流的话却被桌上的麦克风悄悄录了下来,一时间成了媒体竞相报道的焦点。 6000亿美元到底有多大?对于Meta来说,这意味着公司接下来几年要大幅增加在AI领域的投入。要知道,Meta今年7月才公开表示,预计2025年全年支出会在1140到1180亿美元之间。公司CFO苏珊·李(Susan Li)甚至表示:“我们还没开始2026年的预算规划呢。” 而明年Meta最大的成本主要集中在基础设施和员工薪酬,预计年度开支增速为20%至24%。这么看来,到2028年达到6000亿美元的投资目标实在野心勃勃,甚至有些夸张了。
#扎克伯格
#特朗普
#投资
#Meta
#尴尬
分享
评论 0
0
宝玉
2个月前
推荐阅读:《高效学习:构建知识的20条黄金法则 (Effective learning: Twenty rules of formulating knowledge)》 我们都曾是知识的“囤积症”患者。 我们习惯于收藏长文、划下整段的重点、将密密麻麻的定义复制粘贴。在这个过程中,我们获得了一种“已经学到”的虚假满足感。然而,当需要调用这些知识时,大脑却一片空白。我们以为是记忆力出了问题,但真相可能恰恰相反:问题不在于我们记不住,而在于我们试图记忆的“知识”本身,就是无法被记忆的。 这听起来像个悖论,不是吗?我们总以为学习是“合并同类项”,是构建宏大的知识宫殿。但这篇文章将彻底颠覆这个预设。它提出了一个近乎于物理定律的观点:真正高效的学习,不是“加法”,而是“除法”——一种将知识进行原子化拆解,直至其不可再分的精密切割。 这篇文章的作者,Piotr Wozniak,不是一位空谈理论的教育家,他更像是一位认知的“工程师”。作为记忆软件SuperMemo的创造者,他从海量用户的记忆数据中,窥见了大脑记忆与遗忘的底层代码。他发现,知识的“形态”远比我们投入的“努力”更重要。一个臃肿、模糊、充满干扰的知识点,就像一个设计拙劣的程序,无论你运行多少次,都只会不断崩溃。 文中那个关于“死海”的例子,就是一面能照出我们所有人学习误区的镜子。它会逼你直面一个残酷的事实:你以为的“融会贯通”,很可能只是“囫囵吞枣”;你引以为傲的“知识体系”,或许只是一堆无法被大脑精准调用的松散素材。 在你下一次打开笔记本、准备划下长长的重点之前,你需要先阅读这篇文章。因为它所提供的,不是20条技巧,而是20把思想的手术刀,帮你剔除知识中所有无效的“脂肪”,只留下坚实的“肌肉”。这关乎的,不只是学习效率,更是你与知识之间最底层的关系。
#高效学习
#知识原子化
#Piotr Wozniak
#SuperMemo
#学习方法
分享
评论 0
0
宝玉
2个月前
FT:计算机科学家杰弗里·辛顿:“AI会让少数人更富,多数人更穷” “人工智能教父”畅谈:人类的“唯一希望”,中国的优势,以及机器何时将超越我们 我提前了十分钟到,但杰弗里·辛顿(Geoffrey Hinton)已经等在了多伦多一家雅致的餐吧——里士满车站(Richmond Station)的门厅里。这位计算机科学家——人工智能领域的先驱、诺贝尔物理学奖得主——之所以选在这里,是因为他曾与加拿大总理贾斯汀·特鲁多(Justin Trudeau)在此共进午餐。 我们穿过一个充满工业风、感觉很潮的酒吧,来到一间嘈杂的后厅,里面已经坐满了食客。辛顿摘下他那只旧旧的绿色谷歌科学家背包——这是他之前工作单位的纪念品。因为慢性背伤,他需要用背包当坐垫,好让身体坐直。 他像猫头鹰一样,白发从眼镜框边探出来,低头看着我,问我大学学的是什么专业。“因为如果对方有科学学位,你解释事情的方式就会不一样。”我没有。而特鲁多,至少还“懂点微积分”。 这位被誉为“人工智能教父”的学者,如今已习惯于向世人解释他毕生的心血,因为这项技术正开始渗透到我们生活的每个角落。他见证了人工智能如何从学术圈——他几乎整个职业生涯都在那里度过,包括在多伦多大学的二十多年——走向主流,被那些手握重金、渴望触达消费者和企业的科技公司推向风口浪尖。 辛顿因在20世纪80年代中期的“基础性发现与发明”而获得诺贝尔奖,这些成果促成了“基于人工神经网络的机器学习”。这种大致模仿人脑工作方式的方法,为我们今天触手可及的强大人工智能系统奠定了基础。 然而,ChatGPT的问世以及随之而来的人工智能开发热潮,让辛顿停下了脚步。他从一个技术的加速者,转变为一个对其风险大声疾呼的警示者。在过去的几年里,随着该领域的飞速发展,辛顿变得极度悲观,他指出人工智能有可能对人类造成严重伤害。 在两个小时的午餐中,我们谈论了许多话题:从核威胁(“一个普通人在AI的帮助下很快就能制造出生物武器,这太可怕了。想象一下,如果街上的普通人都能制造核弹会怎样”)到他自己使用AI的习惯(它“非常有用”),再到聊天机器人如何在他最近的分手中意外地成了“第三者”。 “这对我来说显而易见。你和这些东西交谈,问它们问题,它能理解,”辛顿继续说道。“技术圈里几乎没人怀疑这些东西会变得更聪明。” 辛顿在该领域的泰斗地位毋庸置疑,但也有人,甚至包括业内人士,认为现有技术不过是一种复杂的工具。例如,他的前同事、图灵奖共同得主杨立昆(Yann LeCun)——现任Meta首席人工智能科学家——就认为,支撑ChatGPT等产品的大语言模型(Large Language Models, LLM)能力有限,无法与物理世界进行有意义的互动。对于这些怀疑论者来说,这一代人工智能还无法达到人类的智能水平。 辛顿说:“我们对自己的心智知之甚少。”但对于人工智能系统,“是我们创造了它们,构建了它们……我们的理解水平远超对人脑的理解,因为我们知道每个神经元在做什么。”他说话时充满信心,但也承认存在许多未知。在整个谈话过程中,他很坦然地陷入长时间的思考,然后得出结论:“我不知道”或“没头绪”。 辛顿于1947年出生在伦敦西南部的温布尔登,父亲是昆虫学家,母亲是学校教师。在剑桥大学国王学院,他辗转于多个学科,最终选择了实验心理学作为本科学位,并在20世纪70年代初转向计算机科学。尽管神经网络(neural networks)曾被计算机科学界轻视和摒弃,但他始终坚持研究,直到2010年代取得突破,硅谷才开始拥抱这项技术。 当我们喝着汤时,房间里嘈杂的声响,与这位轻声细语、深思熟虑地谈论人类生存问题的长者形成了鲜明对比。他激情澎湃地提出了一个方案,来应对那些由“雄心勃勃、争强好胜的男人们”开发的现代人工智能系统所带来的风险。这些人设想人工智能成为个人助理。这听起来似乎无伤大雅,但辛顿不这么认为。 “当助理比你聪明得多的时候,你如何保住自己的权力?我们只知道一个例子,那就是一个智慧得多的生物被一个智慧得少的生物所控制,那就是母亲和婴儿……如果婴儿无法控制母亲,他们就会死掉。” 辛顿认为,人类“唯一的希望”是把人工智能设计成我们的母亲,“因为母亲非常关心孩子,会保护孩子的生命”和成长。“这才是我们应该追求的关系。” “这可以作为你文章的标题,”他笑着说,用勺子指了指我的记事本。 他告诉我,他以前的研究生伊利亞·蘇茲克維(Ilya Sutskever)也认同这个“母婴”方案。蘇茲克維是顶尖的人工智能研究员,也是OpenAI的联合创始人。在试图罢免首席执行官萨姆·奥尔特曼(Sam Altman)失败并离开OpenAI后,他现在正在自己的初创公司Safe Superintelligence开发新系统。但我猜测,奥尔特曼或埃隆·马斯克(Elon Musk)更有可能赢得这场竞赛。“是的。”那你更信任他们中的哪一个? 他停顿了很久,然后回忆起2016年共和党参议员林赛·格雷厄姆(Lindsey Graham)被问及在唐纳德·特朗普(Donald Trump)和特德·克鲁兹(Ted Cruz)之间选择总统候选人时的一句话:“这就像是被枪杀还是被毒死。” 说到这里,辛顿建议换个安静点的地方。我试图吸引忙碌的服务员的注意,但没成功。他却突然站起来开玩笑说:“我去跟他们说,我可以说我跟特鲁多一起来过这儿。” 换到门口的吧台高脚凳上坐定后,我们讨论了人工智能何时会达到超级智能(superintelligent)——届时它可能拥有超越人类的谋略。“很多科学家都认为在5到20年之间,这是最靠谱的猜测。” 虽然辛顿对自己的命运很坦然——“我已经77岁了,反正也快到头了”——但许多年轻人可能会对这种前景感到沮丧;他们该如何保持积极? “我真想说,‘他们为什么要保持积极?’也许如果他们不那么积极,反而会做得更多,”他用一个问题回答了我的问题——这是他惯常的习惯。 “假设你用望远镜看到一场外星人入侵,10年后就会抵达地球,你会说‘我们如何保持积极?’吗?不,你会说,‘我们到底该怎么应对?’如果保持积极意味着假装这一切不会发生,那人们就不应该保持积极。” 辛顿对西方政府的干预不抱希望,并批评美国政府缺乏监管人工智能的意愿。白宫称必须迅速行动,发展技术以击败中国并保护民主价值观。巧的是,辛顿刚刚从上海回来,还倒着时差。他在那里与一些政治局成员开了会。他们邀请他去谈论“人工智能的生存威胁”。 “中国很重视这件事。很多政界人士都是工程师出身。他们理解这个问题的深度,是律师和销售员无法比拟的,”他补充道。“对于生存威胁,只要有一个国家想出应对办法,就可以告诉其他国家。” 我们能相信中国会维护全人类的利益吗?“这是次要问题。人类的生存比过得舒不舒服更重要。你能相信美国吗?你能相信马克·扎克伯格(Mark Zuckerberg)吗?” 随着我们的中等熟度三文鱼端上桌,卧在甜玉米浓汤上,科技公司开发人工智能的动机也被摆上了台面。辛顿一边说,一边用一片鱼肉蘸着盘里的酱汁。 他之前曾主张暂停人工智能开发,并签署了多封信件,反对OpenAI转型为营利性公司——马斯克正试图在一场进行中的诉讼中阻止这一举动。 谈论人工智能的力量常常被说成是纯粹的炒作,目的是为了抬高开发它的初创公司的估值,但辛顿说,“一个说法可以既对科技公司有利,又同时是事实”。 我很好奇他在日常生活中是否经常使用人工智能。原来,ChatGPT是辛顿的首选产品,主要用于“研究”,但也用来做一些诸如询问如何修理烘干机之类的事情。然而,它甚至还出现在他最近与交往多年的伴侣分手的故事里。 “她让ChatGPT告诉我,我就是个渣男,”他说,并承认此举让他很惊讶。“她让聊天机器人解释我的行为有多恶劣,然后把内容给了我。我并不觉得自己是渣男,所以这并没有让我感觉太糟……我遇到了一个我更喜欢的人,你知道的,事情就是这样。”他笑了,然后补充道:“也许你不知道!” 我忍住了八卦前任的冲动,转而提到我刚庆祝了我的第一个结婚纪念日。“希望这暂时不会成为你的问题,”他回答道,我们都笑了起来。 **辛顿吃饭的速度快得多,**所以当他接到姐姐的电话时,我松了一口气。他告诉姐姐自己正在“一家非常嘈杂的餐厅”接受采访。他的姐姐住在塔斯马尼亚(“她想念伦敦”),哥哥住在法国南部(“他也想念伦敦”),而辛顿自己住在多伦多(当然,也想念伦敦)。 “所以我用从谷歌拿到的钱,在汉普斯特德西斯公园(Hampstead Heath)南边买了一座小房子”,这样他全家,包括他从拉丁美洲领养的两个孩子,都可以去住。 辛顿的谷歌钱来自于2013年卖掉的一家公司。这家公司是他和蘇茲克維以及另一位研究生亚历克斯·克里热夫斯基(Alex Krizhevsky)共同创办的,他们构建了一个能以人类水平的准确度识别物体的AI系统。他们卖了4400万美元,辛顿本想三人平分,但他的学生们坚持让他拿40%。交易完成后,他们加入了谷歌——辛顿在那里工作了十年。 他卖公司的动机是什么?为了支付他患有神经多样性(neurodiverse)的儿子的护理费用。辛顿“估算他大概需要500万美元……而我从学术界是拿不到这笔钱的”。他在脑子里算了算,税后从谷歌拿到的钱“略微超出了”这个目标。 他于2023年离开了这家科技巨头,并在接受《纽约时报》采访时警告了该技术的危险。媒体报道称,他辞职是为了能更坦率地谈论人工智能的风险。 “每次我和记者交谈,我都会纠正这个误解。但这从没什么效果,因为那个故事太吸引人了,”他说。“我离开是因为我75岁了,我的编程能力不如从前了,而且Netflix上还有一大堆我没来得及看的东西。我已经非常努力地工作了55年,我觉得是时候退休了……而且我想,既然我都要走了,我正好可以谈谈那些风险。” 科技高管们常常描绘一幅乌托邦式的未来图景,人工智能将帮助解决饥饿、贫困和疾病等宏大问题。辛顿曾因癌症失去了两位妻子,他对医疗保健和教育的前景感到兴奋——教育是他非常关心的领域,但对其他方面则不然。 “实际会发生的是,富人将使用人工智能来取代工人,”他说。“这将造成大规模失业和利润的急剧增长。它会让少数人变得更富,而大多数人变得更穷。这不是人工智能的错,这是资本主义制度的错。” 奥尔特曼和他的同行们曾建议,如果劳动力市场对人口来说变得太小,可以引入全民基本收入(universal basic income),但这“无法解决人的尊严问题”,因为人们从工作中获得价值感,辛顿说。他承认想念他的研究生们,可以和他们碰撞想法或向他们提问,因为“他们年轻,理解事物更快”。现在,他转而问ChatGPT。 这会导致我们变得懒惰和缺乏创造力吗?认知外包(Cognitive offloading)是目前正在讨论的一个概念,即人工智能工具的用户将任务委托出去,而没有进行批判性思考或记住检索到的信息。又到了打比方的时候了。 “我们穿衣服,因为穿衣服,我们的毛发就变少了。我们更容易因寒冷而死,但前提是我们没有衣服穿”。辛顿认为,只要我们能接触到有用的人工智能系统,它就是一个有价值的工具。 他看了看甜点选项,并确保这次自己先点:草莓配奶油。巧的是,这也是我想要的。他要了一杯卡布奇诺,我要了一杯茶。“这是我们产生分歧的地方。” 奶油实际上是微微融化的冰淇淋,在我描述一个在硅谷司空见惯,但对大多数人来说如同科幻的场景时,它正慢慢变成液体:我们幸福地生活在“具身AI”(embodied AI)——也就是机器人——中间,并随着我们将人造部件和化学物质添加到身体中以延长生命,而慢慢变成赛博格(cyborgs)。 “那有什么问题吗?”他问。我们会失去自我意识和作为人的意义,我反驳道。“那又有什么好的呢?”他回应道。我试图追问:这不一定非得是好的,但我们将不再拥有它,那就是灭绝,不是吗? “是的,”他说,停顿了一下。 “我们不知道将会发生什么,我们毫无头绪,那些告诉你将会发生什么的人只是在犯傻,”他补充道。“我们正处于历史的一个节点,一些惊人的事情正在发生,它可能好得惊人,也可能坏得惊人。我们可以猜测,但事情不会一成不变。” 克里斯蒂娜·克里德尔是《金融时报》驻旧金山的科技记者,负责报道人工智能领域
#杰弗里·辛顿
#人工智能风险
#技术伦理
#AI监管
#未来科技
分享
评论 0
0
宝玉
2个月前
我们似乎正处在一个软件开发的黄金时代,又或者,是一个巨大的幻觉之中。 AI 一声令下,代码如瀑布般涌现,过去数周的工作量,如今在几小时内就能完成。我们痴迷于这种前所未有的“产出”速度,仿佛只要油门踩得够深,就能抵达任何目的地。 但这里有一个我们不愿正视的悖论:我们正以惊人的速度,奔向不确定的终点。 麦肯锡的报告和长达数十年的行业研究,像一面冷静的镜子,映照出一个尴尬的现实——绝大多数项目依然在预算超支、偏离目标的泥潭中挣扎。我们创造软件的速度,已经远远超过了我们验证它的速度。当代码的生产成本趋近于零,一个更严峻的瓶颈浮现了:我们如何确保自己没有在用更快的速度,制造更精致的垃圾? 这正是这篇文章试图引爆的认知奇点。它大胆地提出一个反直觉的论断:在 AI 时代,我们最需要的可能不是下一个加速器,而是一套精巧的“减速带”。 我们被“效率”的叙事绑架太久了,以至于忘记了软件开发的核心,从来都不是打字的速度。当一位产品战略顾问开始引述 90 年代的极限编程(XP)时,他并非在怀旧,而是在发出一个清醒的警告。他提醒我们,有些古老的智慧,在今天这个技术狂飙的时代,反而具有了前所未有的现实意义。 比如,那个听起来像是效率“公敌”的原则——结对编程。从账面上看,它直接将产出减半。但这篇文章会引导你看到硬币的另一面:你用一半的产出,换来了一倍的共识、提前暴露的假设、更健壮的代码质量,以及一个持续学习的团队。这笔投资,在 AI 加剧混乱的今天,显得无比划算。 它引导我们直面一个根本性的转变:当 AI 将“写代码”这件事变得越来越廉价,那么人类工程师的价值在哪里?答案不在于和机器比拼速度,而在于那些机器无法胜任的领域:沟通、反馈、简化、勇气和尊重。这篇文章的核心论点,正是那句振聋发聩的宣言:“在小处慢,才能在大处快”。 这不仅仅是一篇关于编程方法的文章,它更像一则关于“数字时代的匠人精神”的寓言。它在提醒我们,无论工具如何进化,软件的终点,永远是人。在 AI 可以为我们提供任何答案的未来,最稀缺的能力,是提出正确的问题。 而极限编程,恰恰是那个不断强迫我们停下来,去追问那个终极问题的框架: 我们正在构建的东西,是正确的吗? 在点击阅读之前,请先放下对速度的执念。因为这篇文章将带领你重新思考,在 AI 时代,真正的“快”究竟意味着什么。
#AI 时代
#软件开发
#效率悖论
#极限编程
#数字匠人精神
分享
评论 0
0
宝玉
2个月前
原文: 翻译:
分享
评论 0
0
宝玉
2个月前
特朗普: 萨姆,你是一个非常新兴的行业的伟大领导者,而且非常年轻。你是个年轻人。 呃,你想告诉我们你在做什么吗?你之前告诉我的事情绝对令人难以置信。那么,你在做什么? 萨姆·奥尔特曼 (Sam Altman): 首先,我想呼应蒂姆和其他人的发言,非常感谢您将我们大家聚集在一起。感谢您是一位如此亲商、亲创新的总统。这是一个非常令人耳目一新的变化。 我们非常高兴地看到您为使我们所有公司和我们整个国家如此成功所做的一切。这里的投资,以及让力量和产业重返美国的能力,我认为这将为我们奠定基础,带来一个长期领导世界的巨大成功。而且我认为,如果没有您的领导,这一切现在是不可能发生的。 呃,我们非常感激能够在这里建立我们的公司,在这里建立数据中心,建立整个人工智能产业并在美国引领世界。 呃,呼应其他许多人的评论,我认为这将以一种深刻的方式改变世界。呃,而且我认为,能够以这种方式领导世界,对美国来说确实是一个优势。 嗯,第一夫人今天主办的关于教育的活动真的非常棒,看到人工智能即使在今天为教育和许多其他行业所做的事情,也真的很了不起。 嗯,所以非常感谢您促成这一切。呃,我们将在美国投入巨资,呃,并且我们将尽最大努力确保我们在这里继续保持领先。 特朗普: 没错。谢谢你。数千亿美元,这将是非常值得的。而且你们拥有一个无限的市场。对吧?
特朗普宣布美国5000亿AI投资计划事件· 38 条信息
#特朗普
#萨姆·奥尔特曼
#人工智能
#亲商
#美国
分享
评论 0
0
宝玉
2个月前
OpenAI 揭秘:AI为什么会一本正经地胡说八道? OpenAI 最近发表了一篇名为《语言模型为何会产生幻觉》(Why Language Models Hallucinate) 的文章,深入解释了 AI “幻觉”产生的根本原因,并提出了减少这种现象的解决方案。 规则的“锅”:AI 被鼓励去猜测,而非承认无知 文章指出,大语言模型之所以会产生“幻觉”,是因为我们现有的训练和评估方式存在一个根本性问题:它奖励猜测,而不是鼓励模型承认自己的不确定性。 大多数评估体系衡量模型表现的方式,都无形中让模型养成了“猜答案”的习惯。当模型的评分标准只基于准确性时,它为了拿高分,自然会倾向于在不确定的时候蒙一个答案,而不是诚实地回答“我不知道”。 问题的根源:来自“预训练”阶段的先天不足 这种“爱猜测”的习惯,其实在模型的“学前教育”阶段,也就是 预训练 (pretraining) 过程中,就已经埋下了种子。 在预训练期间,模型通过预测海量文本中的下一个词来进行学习。但问题在于,这些学习材料并没有为每一句话贴上“真”或“假”的标签。这使得模型很难区分哪些是有效陈述,哪些是无效信息。 这个挑战在处理那些偶然出现的、低频事实时尤其突出。比如,某个特定宠物的生日是哪天?这类信息无法单靠语言模式来预测,模型只能去“编造”,而这正是幻觉的直接来源。 未来的出路:教会AI保持“诚实” 研究人员总结道,要解决幻觉问题,就必须更新那些只看重准确率的评估方法,让新的评分机制不再鼓励猜测。如果主流的评估“排行榜”继续奖励那些侥幸猜对的行为,那么模型就会继续学习并依赖猜测。 他们强调,幻觉并非AI不可避免的缺陷。语言模型完全有能力在不确定的时候选择“弃权”,而不是胡说八道。我们需要做的,是创造一个能鼓励这种“诚实”行为的环境和规则。
#OpenAI
#AI幻觉
#语言模型
#预训练
#诚实AI
分享
评论 0
0
宝玉
2个月前
AI Agent 现状
#多智能体之争:Anthropic生态VS单智能体· 79 条信息
#AI
#agent
#发展
#挑战
分享
评论 0
0
宝玉
2个月前
有了 AI 提升效率后,无论是只裁年轻人还是只裁年纪大的都有点极端了,一个正常的团队还是要多元化比较好一点,有经验丰富的做后盾,做设计审查代码解决疑难问题,带新人;有年轻人在前面冲锋陷阵,做些相对简单但是工作量大的活。 一个团队有不同年龄、性别甚至种族的搭配会更有活力,会更容易迸发出好的想法,思维不至于太僵化。 一个不容忽视的问题是,如果都不去培养年轻人,将来团队可能会青黄不接的。
#AI
#裁员
#团队多元化
#年轻人培养
#团队活力
分享
评论 0
0
宝玉
2个月前
推荐看看,专业程序员写提示词是不一样的,更精准,引用一目了然👍 我以前用 Cursor 也这么写,要精确的引用,现在用 Claude Code 简单省心多了,一般只是关键的文件引用一下,其他的都是让它自己去找,CC 在找代码补气上下文方面相当强。 对于不那么专业或者想偷懒省心的话,我的建议是这样的: 首先一定要配合 git,因为 CC 没法回滚代码 有了git,养成好习惯每次让 CC 更新代码前 commit 一下,你也可以加到 Claude MD 文件,让它每次完成任务都帮你 commit 配合好 git 就放心的加 --dangerously-skip-permissions 参数,别中间还要确认,CC 最佳实践就是抽卡,也就是你也别想太多太细,先扔个提示词让它写个版本试试看,然后根据结果再调整,要么追加一点要求,要么回滚调整提示词重试 对于复杂一点的任务,shift + tab 两次进入 plan mode,先让它定个任务计划,确认计划没问题再开始,这样可以有效避免走岔 写好的代码要审查,不要偷懒,审查配合 VSCode 的 源代码对比视图最直观,GitHub Desktop 官方客户端也不错。审查的时候小问题手动就修改了,也不一定要再让它继续。 让 CC 写单元测试代码或者修复单元测试,要告诉它怎么运行验证单元测试(只运行单个测试文件),这样它就会在写完单元测试代码后运行验证,如果出错了就自己修改,知道运行通过。当然也要审查,有时候它会为了通过测试“不择手段”。 改 bug 的话,最好就是把错误日志扔给它,那种有错误堆栈的最好,有错误信息、代码行、文件路径的最好,CC 能精准的定位到文件和可能的错误位置。 如果没有错误日志就难一些,最好还是先人工复现,能复现后告诉 CC 重现的步骤、期望的结果、实际结果,可以配合截图。 CC 的截图很坑,Mac 上是 Ctrl + V 而不是 CMD + V,新手很难知道。但截图很有用,在做 UI 的时候,一图胜千言。 用 CC 或者 AI 做项目,多用流行的技术栈,比如 React、Nextjs、shadcn/UI、Tailwind CSS 这些,效果最好,你不需要教它 API 怎么写。 如果需要引用外部文档,最好手动把相关文档复制粘贴过去,而不要让它自己联网检索,因为网页内容无关信息太多,不如手动复制粘贴精准。也可以本地建一个文档,让它可以直接读取。
AI编程工具激战:Claude Code、Gemini Cli崛起· 1242 条信息
#程序员
#Claude Code
#git
#代码审查
#技术栈
分享
评论 0
0
宝玉
2个月前
容易遇到“捞女”跟文科理科没关系吧,还是谈恋爱晚了谈恋爱少了,早点谈多谈,至少多接触异性就不容易被美色迷糊,本质还是 RL(强化学习)+ 运气(概率)
#捞女
#恋爱
#RL
#异性
#概率
分享
评论 0
0
宝玉
2个月前
#AI开源项目推荐:VisualStoryWriting 可视化故事创作:让你笔尖起舞,文思泉涌 想象一下,在你写作的同时,你笔下的世界就活生生地展现在眼前——时间线、世界地图、人物关系图……这一切都会被自动可视化。 更神奇的是,你对这些视觉元素的任何修改,都会立刻同步到你的故事文本中(比如,在地图上拖动一个角色,他在文中的位置也随之改变)。 这就是我们将要在 UIST2025 大会上分享的论文精髓。 我们开发了一款智能文字处理器,它能自动生成三种可视化视图:人物关系图、故事地图和场景时间线。这些视图能清晰地展示角色间的互动、他们在世界各地的足迹,以及故事场景的先后顺序,极大地帮助作者审阅和编辑自己的作品。 审视角色的移动轨迹,从此变成了一项直观的视觉任务。想改变一个角色在某个场景中的位置?太简单了,直接在地图上把他从一个地方拖到另一个地方就行。 调整故事场景的顺序,也只需要在时间轴上拖拽几下,就像整理幻灯片一样轻松。 想要创造一个新角色,或是让他们之间产生新的互动?同样简单,在关系图里新建一个节点,再连上一条线就搞定了。 我们邀请了经验丰富和初出茅庐的创作者们进行了两轮用户研究。结果发现,这些自动生成的可视化图表,能有效地帮助参与者规划故事的宏观修改、追踪故事元素,并探索情节的多种可能性,极大地激发了他们的创造力。 当然,能够帮助作者的可视化方式还有很多。因此,我们提出了一个设计框架,希望能启发未来更多样的可视化故事创作工具的设计。 我们的工作为未来的写作辅助工具奠定了基础——它不再仅仅依赖文字,更能借助视觉的
#AI
#故事创作
#可视化
#UIST2025
#智能文字处理器
分享
评论 0
0
宝玉
2个月前
我今天在 Mac 上要 zip 一个文件,要加密码,但是没现成 zip 工具,灵机一动,用 gemini cli,分分钟帮我解决。才知道 Mac 自带 zip 命令行,并且还支持 -P 加密码。
#Mac
#zip文件
#Gemini CLI
#密码
#命令行
分享
评论 0
0
宝玉
2个月前
我现在用Gemini pro远多于ChatGPT
Google Gemini 2.5发布引发AI模型性价比热议· 465 条信息
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 854 条信息
#Gemini Pro
#ChatGPT
#AI
#使用体验
#对比
分享
评论 0
0
宝玉
2个月前
Manus 诞生背后的故事: 故事始于2023年3月,当时开发 Manus 的团队“蝴蝶效应”正在全力投入一个名为“AI浏览器”的项目。团队投入了近一半的人力,耗时7个月,产品已经打磨到随时可以发布的状态。 然而,就在产品上线前一周,团队的CEO和产品负责人做出了一个惊人的决定:砍掉这个项目。他们预见到,这个浏览器即使发布,也只会吸引一小部分用户,虽然能活下来,但会耗尽团队资源,让他们陷入一个“局部最优”的困境,从而失去探索其他更有潜力方向的机会。 在砍掉项目后,团队经历了两三周看似“无所事事”的空窗期。正是在这段时间,团队成员在观察市场上的其他产品时,发现了一个奇怪的现象:许多非程序员用户竟然在使用一款名为 “Cursor” 的AI编程工具。 他们发现,这些用户完全看不懂编程代码,只是通过和右侧的聊天框对话来解决一些日常问题(比如音视频格式转换),然后不断点击“接受”按钮。这个用户“误用”的场景,给了团队巨大的灵感,他们意识到一个让普通人仅通过对话就能驱动AI完成复杂任务的产品的巨大潜力。 基于这个灵感,一个仅有6人的小团队在两个月内开发出了 Manus 的原型。有趣的是,在寻找早期用户进行测试时,他们收到的反馈大多是负面的,充满了质疑。但团队并未因此动摇,他们判断,对于一个全新的、开创性的产品,用户很难基于过去的经验给出有效的反馈。因此,他们选择相信自己的判断,停止了发布前的用户调研,最终将 Manus 推向了市场。
#Manus
#AI浏览器项目取消
#用户误用AI编程工具
#AI对话驱动
#产品早期负面反馈
分享
评论 0
0
宝玉
2个月前
有网友问我有没有去除 AI 味的提示词,说实话,真没有,包括网上号称能去掉 AI 味的提示词我都试过,没有靠谱的。 这其实是个悖论:如果 AI 知道自己有 AI 味,它就不会写出 AI 味,你让它自己去掉 AI 味它都不知道怎么写出没有 AI 味的内容。 就我的经验,要让写出的内容没有 AI 味,第一要靠模型,越是参数大能力强的模型效果越好,比如 GPT-4.5 是我测试下来最好的,其次是 Gemini 2.5 Pro。Claude 对于有些特定提示词写作效果非常好,比如可以去看看李继刚分享的那些,但是普通提示词写出来 AI 味特别重。 提示词角度最好是你提供几篇范文给它参考,让它照葫芦画瓢会好一点。
#AI
#AI味
#GPT-4.5
#Gemini 2.5 Pro
#李继刚
分享
评论 0
0
宝玉
2个月前
13个月后,正式退订 Cursor 了,前几个月大量使用 Claude Code 之后就不怎么使用 Cursor 了,当时就想退订了,纠结了下还是保留着订阅,主要是因为 Tab 自动完成,现在 VSCode + GitHub Copilo 自带的 Tab 就挺好用了
AI编程工具激战:Claude Code、Gemini Cli崛起· 1242 条信息
#Cursor退订
#Claude Code
#VsCode
#GitHub Copilot
#Tab自动完成
分享
评论 0
0
宝玉
2个月前
高效学习:构建知识的20条黄金法则(浓缩精华版) 学习的速度,很大程度上不取决于你多聪明,而取决于你如何组织知识。方法得当,学习效率可以提升数倍。以下20条法则是构建高效知识体系的基石,它们按照重要性排序,越靠前,越是人们容易犯错或收益越大的地方。本文假设你会使用“间隔重复”类工具(如Anki, SuperMemo等)进行复习。 核心法则:让记忆变简单 前16条法则都围绕一个核心思想:把知识变得简单好记。 1. 理解之前,不要记忆 这是最重要的一条法则。记忆你不理解的东西,是在做无用功。这就像一个不懂德语的人,试图背下一整本德语历史书。就算他做到了,他对历史本身还是一无所知,而且这个过程会耗费巨量的时间。 在日常学习中,我们常常因为教材写得不好或者时间紧迫,就开始“囫囵吞枣”。这种行为不仅效率低下,而且学到的知识毫无价值,无法应用和推理。你必须先花时间去理解一个概念,搞清楚它的来龙去脉、前因后果,然后再去记忆相关的细节。 • 行动指南: 遇到不理解的内容,停下来!去查资料、看视频、问老师,直到你真正弄懂为止。不要把希望寄托于“背下来以后自然就懂了”。 2. 先学习,再记忆 在记忆零散的知识点之前,你需要先建立一个“全局观”。想象一下拼图,如果你不看盒子上的成品图,而是直接拿起一块块碎片就想硬拼,那会非常困难。学习也是一样。 你应该先通读相关章节,了解整个知识框架(比如“内燃机的基本原理”),在脑中形成一个简单的模型。然后,再把这个框架中的关键细节,制作成一个个具体的问答卡片来记忆(比如“是什么推动了内燃机的活塞?”)。这样,每个知识点都不是孤立的,而是有组织、有联系的,记忆起来会快得多。 • 行动指南: 不要一上来就扎进细节。先快速浏览一遍材料,了解主题的整体结构和核心思想,然后再深入学习和记忆。 3. 从基础开始,层层递进 第二条法则提到的“全局观”或“知识框架”,一开始越简单越好。不要试图一下子掌握一个复杂而精细的模型。从一个最简化的版本开始,然后在这个基础上慢慢添砖加瓦。 永远不要轻视基础知识。即使它们看起来显而易见,也值得花时间去记忆。因为基础知识是我们构建更复杂知识的基石。忘记一个基础概念,可能会导致建立在其上的一整套知识体系的崩塌。而记忆基础知识的成本非常低,它们通常很简单,复习几次就能牢牢记住。相比之下,你学习中50%的时间,可能都花在了攻克那最难的3-5%的知识上。在基础上多花一点时间,绝对是稳赚不赔的投资。 • 行动指南: 无论学习什么新领域,都从最核心、最基础的概念开始。确保你对这些基础了如指掌,再去挑战更高级的内容。 4. 坚守“最小信息原则” 这是将复杂知识变简单的核心技术。它的意思是,你制作的每一个记忆卡片,都应该尽可能只包含一条最小化的信息。 • 为什么简单才好记?• 单一路径: 记忆一个简单的知识点,大脑每次回忆时激活的神经通路几乎是固定的。这就像在一条路上反复走,路会越走越清晰。而复杂的知识点,每次回忆时大脑走的路径可能都不同,各种信息互相干扰,记忆就很难稳固。 • 精准复习: 如果一个卡片包含两个知识点(A和B),其中A简单,B困难。为了记住B,你不得不按照B的复习频率来频繁复习整个卡片,这就浪费了复习A的时间。把它们拆开,A和B就可以各自按照自己的最优间隔来复习,大大节省时间。 • 糟糕的例子(复杂): 问:死海有哪些特征? 答:死海是位于以色列和约旦边界的盐湖,海岸线是地球最低点(-396米),长74公里,含盐量是海洋的7倍(30%),高密度能让人浮起,因盐度太高只有简单生物能存活。 • 优秀的例子(拆分后): 问:死海位于哪里? 答:以色列和约旦边界。 问:地球表面的最低点是哪里? 答:死海的海岸线。 问:死海的平均海拔约多少? 答:海平面以下400米。 问:死海的含盐量大约是海洋的多少倍? 答:7倍。 问:为什么死海能让人浮起来? 答:因为含盐量高(密度大)。 问:为什么死海被称为“死”海? 答:因为高盐度使大多数生物无法生存。 注意: 拆分后的问题和答案都非常简短。我们的目标是让每次回忆时,从大脑中提取的信息量最小化。长期来看,知识点越简单,记忆效果越好。 5. 挖空填空,简单有效 如果你觉得遵守“最小信息原则”很难,那就用“挖空填空”(Cloze Deletion)。这是一个能快速将书本知识转换成记忆卡片的强大工具。它指的是将一个句子中的关键词挖掉,让你去填充。 • 例子: 原始句子:“1991年,苹果和IBM共同投资4000万美元成立了Kaleida公司,旨在创造一种多媒体编程语言Script X。” • 可以制作的挖空卡片: 问:1991年,...和IBM共同投资4000万美元成立了Kaleida公司。 答:苹果 问:1991年,苹果和IBM共同投资...成立了Kaleida公司。 答:4000万美元 问:...年,苹果和IBM共同投资4000万美元成立了Kaleida公司。 答:1991 问:Kaleida公司的目标是创造一种名为...的多媒体编程语言。 答:Script X 这种方法能让你轻松地从一段话中提取出多个、符合最小信息原则的知识点。 6. 善用图像 人脑的视觉处理能力远超语言处理能力,“一图胜千言”是有科学依据的。一张图片所包含的细节和信息,我们往往能毫不费力地记住。在学习中,尤其是在解剖学、地理、化学、历史等领域,善用图片可以极大地缩短学习时间。 思维导图(Mind Map)之所以流行,也是因为它利用了大脑对图像和空间关系的强大记忆能力。 • 行动指南: 在制作卡片时,想一想:“这个知识点能用一张图来表示吗?” 能用图就尽量用图。 7. 运用助记技巧 助记技巧(Mnemonic)是各种能让记忆变得更容易的“花招”。比如用谐音、编故事、首字母缩写等方法。这些技巧的效果惊人,一个普通人经过训练,也能记住一副扑克牌的顺序。 但是,请记住:助记技巧解决的是“快速记下”的问题,而学习的真正瓶颈是“长期留存”。要实现长期记忆,你依然需要间隔重复。不过,在学习的初始阶段,尤其面对一些枯燥无味的信息时,助记技巧是你的得力助手。随着练习,使用助记技巧会逐渐变成一种下意识的习惯。 8. 图片挖空 和文字挖空类似,图片挖空(Graphic Deletion)是把图片的一部分遮盖起来,让你回忆被遮住的是什么。这在学习需要识别位置和部件的学科时极为有效。 • 例子:• 解剖学: 用一张人体骨骼图,遮住“肱骨”,提问“这里是什么?”。 • 地理学: 用一张世界地图,遮住巴西,提问“这个国家是?”。 同一张图片可以被用来制作几十个不同的卡片,每个卡片提问一个不同的部分,效率非常高。 9. 避免集合 集合(Set)是一堆无序的东西,比如“请列出欧盟的所有成员国”。这类问题非常难记,因为每次回忆时,你大脑里蹦出这些国家的顺序可能都不同,这严重干扰了记忆的巩固。 • 解决方案: 把无序的集合,想办法转换成有序的列表(Enumeration)。比如,可以按照这些国家加入欧盟的时间顺序来记忆。 • 糟糕的例子(集合): 问:欧盟有哪些成员国(截至2002年)? 答:(列出15个国家的名字) • 优秀的例子(转化为有序的历史线索): 问:1952年,除了法国,还有哪些国家加入了欧洲煤钢共同体? 答:德国、意大利和比荷卢三国。 问:1973年,哪三个国家一起加入了欧共体? 答:英国、爱尔兰和丹麦。 ...以此类推。 通过这种方式,你不仅把一个巨大的集合拆分成了几个小问题,还顺便学习了欧盟扩张的历史,知识点之间建立了有意义的联系。 10. 避免列表 列表(Enumeration)虽然比集合好,但如果太长,依然是记忆的难点。比如背诵一首长诗或者一个长长的化学流程。 • 解决方案: 使用重叠式挖空填空来拆解它。 • 学习字母表的例子: 问:字母表的前三个字母是什么? 答:A B C 问:请填上缺失的字母:A ... C ... E 答:B, D 问:请填上缺失的字母:B ... D ... F 答:C, E ... 这样,你每次只需要专注于一小段序列,而不是整个冗长的列表。在每次复习完一个小片段后,再完整地背诵一遍,你会发现整个过程变得轻松愉快。背诗也是同理,如果总在某一句卡壳,就把它和它的上一句、下一句做成挖空卡片来重点攻克。 11. 对抗记忆干扰 当你学习两个相似的东西时,它们很容易互相“打架”,让你混淆。比如,你可能分不清 historic(有历史意义的)和 historical(与历史有关的)的区别。这是遗忘最主要的原因之一。 干扰的发生难以预测,最好的办法是在它造成严重问题之前,就主动预防和消除它。 • 应对策略:• 让知识点更明确: 使用例子、图片、个人经历等来区分相似概念。 • 遵守最小信息原则: 知识点越简单,越不容易与其他信息混淆。 • 及时消除: 一旦发现自己混淆了两个知识点,立即把它们找出来,专门制作卡片来对比区分,不要拖延。 12. 优化措辞 卡片上问题的措辞,应该像一把精准的钥匙,能立刻打开你大脑中那把正确的锁。措辞必须简洁、明确、直指核心。 • 糟糕的例子(啰嗦): 问:1985年,Aldus公司凭借PageMaker开创了桌面出版。后来,由于未能改进,丹佛的哪家公司超越了它? 答:Quark • 优秀的例子(精炼): 问:在桌面出版领域,哪个公司超越了未能改进的PageMaker? 答:Quark • 更好的例子: 问:PageMaker的市场输给了谁? 答:Quark 删除所有不必要的背景信息。这些额外信息只会拖慢你的反应速度,甚至产生干扰。如果其他信息也很重要,请把它们制作成单独的卡片。 13. 关联其他记忆 把新知识和你已经知道的东西联系起来,能极大地增强记忆。这能为新知识提供背景,减少干扰,并使其更容易被大脑“接纳”。 • 例子(学习单词 cringing - 谄媚的):• 不好的提问: (贬义词)形容无耻地意识到自己缺点并乞求的样子。 • 好的提问: (贬义词)形容一种无耻地谦卑(humble)和恳求(supplicant)的样子。 如果你已经认识 humble 和 supplicant,用它们来解释 cringing,就能更快、更准确地锁定新词的含义。 14. 个性化并提供实例 将知识与你自己的生活联系起来,是最高效的记忆术之一。个人经历是独一无二的,能提供强大的记忆挂钩。 • 例子(学习单词 divan - 沙发床):• 不好的提问: 没有扶手和靠背的软床叫什么? • 好的提问: 那种没有扶手和靠背的软床(就像我朋友小明家的那种)叫什么? 如果你对小明家的那张沙发床有清晰的印象,这个个人化的例子会比任何抽象的定义都更容易记住。 15. 借助情绪状态 情绪能极大地增强记忆。能唤起你强烈情感(无论是喜悦、震惊、悲伤还是愤怒)的例子,都能让知识点变得更“刻骨铭心”。 • 例子(学习单词 banter - 轻松的玩笑):• 不好的提问: 一种轻松、开玩笑的交谈。 • 好的提问: 形容那种轻松、开玩笑的交谈(比如你看过的那部喜剧电影里主角和朋友的对话)。 一个生动、带有情感色彩的例子,能帮你把抽象概念具体化,从而将学习时间缩短数倍。 16. 使用情景提示 为你的知识点添加一个简单的“标签”或“前缀”,来告诉大脑它属于哪个领域。这能帮助大脑快速进入正确的“思维频道”,避免混淆。 • 例子: 缩写 GRE 可以指“美国研究生入学考试”,但在生物化学里指另一种东西。• 不好的提问: 在生物化学中,GRE代表什么? • 好的提问: 生化: GRE 这个 生化: 的前缀就像一个开关,能瞬间把你的思维调整到生物化学的语境下,避免你先想到“研究生考试”,从而减少了反应时间和干扰。 高级法则:优化与管理 17. 适当的冗余是必要的 “最小信息原则”不等于“信息量最少”。在某些情况下,适当的重复和补充是受欢迎的,甚至是必须的。 • 主动与被动记忆: 学外语时,你不仅要能“看英文说中文”(被动),还要能“看中文说英文”(主动)。所以 phone -> telefono 和 telefono -> phone 这两张卡片都是必要的。 • 补充推理过程: 在学习一个数学问题的解法时,你可以在答案中包含关键的推理步骤。这并非死记硬背,而是为了确保你每次都能沿着正确的逻辑路径思考。 • 多角度理解: 对于一个非常重要的概念,从不同角度创建几个问题来记忆它,可以加深理解,确保在任何情况下都能回忆起来。 18. 注明来源 为你学到的知识注明出处。这在未来非常有用,比如当你发现不同来源的信息相互矛盾时,你可以追溯和判断哪个更可靠。来源还能在你需要深入研究或向他人证明时提供依据。来源信息应作为参考,一般不需要记忆。 19. 标注日期 知识是有保质期的。经济数据、科技知识、个人统计数据等都会随时间变化。为这些知识点加上日期或版本号,能提醒你它可能已经过时,需要更新。 20. 明确优先级 你永远不可能学完所有想学的东西。因此,分清主次至关重要。优先级贯穿于学习的整个过程: • 选择来源: 决定哪些书、文章或课程对你最重要。 • 提取知识: 从材料中挑选出最有价值的部分进行学习。 • 组织知识: 可以先把大量材料导入学习工具,然后根据优先级,逐步处理和优化成记忆卡片。 • 复习过程: 利用学习工具的功能,对特别重要或已更新的知识进行特殊处理(如提前复习、重新记忆、调整复习频率等),对不再重要或错误的知识进行忽略或删除。 高效学习的关键,不仅在于努力,更在于明智地分配你的时间和精力。 总结:20条黄金法则清单 1. 不懂就不学: 先求理解,再谈记忆。 2. 先学后记: 先建立全局观,再深入细节。 3. 从基础开始: 根基不牢,地动山摇。 4. 最小信息原则: 把知识拆到最简单。 5. 挖空填空: 制作卡片的利器。 6. 善用图像: 一图胜千言。 7. 运用助记技巧: 给枯燥的知识加点“料”。 8. 图片挖空: 地理、解剖学神器。 9. 避免集合: 把无序变为有序。 10. 避免列表: 用挖空填空拆解长列表。 11. 对抗干扰: 用例子和细节区分相似概念。 12. 优化措辞: 让问题像手术刀一样精准。 13. 关联旧知: 在已有知识上“添砖加瓦”。 14. 个性化实例: 你自己的经历是最好的记忆材料。 15. 借助情绪: 让情感为记忆赋能。 16. 情景提示: 用标签为大脑“导航”。 17. 适当冗余: 从不同角度巩固重要知识。 18. 注明来源: 知道你的知识从何而来。 19. 标注日期: 警惕知识的“保质期”。 20. 明确优先级: 把精力用在刀刃上。
#高效学习
#知识体系构建
#记忆技巧
#最小信息原则
#理解先于记忆
分享
评论 0
0
上一页
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
...
31
下一页
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞