2个月前
绝对干货!openai deep research最长的一次研究:50分钟,68000字,一次性讲透教育部300本中小学必读书目 很多人应该都知道教育部发布过一份给中小学生的推荐阅读书单,从小学1年级到高3,总计300本之多。 (“教育部推荐书目”的全称是 《中小学生阅读指导目录(2020年版)》,由教育部基础教育课程教材发展中心组织研制并发布。分为小学、初中、高中三个学段,其中小学110种、初中100种、高中90种,涵盖人文社科、自然科学、文学等科目) 重磅!宝藏!赶快收藏! 然而,有多少人真的知道这300本书到底包括哪些书?有多少人会在不知道给孩子读什么书时,从这里选书?有多少人自己己读过或比较了解这些“教育部精选”书目? 在2025年以前,这些很难做到,近乎不可能。对供给侧来说,书单发布就发布了,没有然后;对需求侧来说,书单收藏就收藏了,也没有然后。 但是,这种状况需要且可以被改变。 不久前,我用openai deep research做了一次深度研究,结果让我震惊:我使用deep search快300次,这次研究是任务运行时间最长的一次,50分钟,产出了一份长达68000的字报告(目前最长)! (有人会好奇google deep research的结果。我这边的测试结果是几分钟,长度一万字,只解读了几十本就潦草收尾了。我的理解是因为output length受限) 恰逢第30届“世界读书日”,我把这份报告分享出来,欢迎大家下载。这份报告有两点价值: 首先,我们通过阅读这篇文章和deep research报告,立刻马上就可以对“教育部推荐书单”有一个整体而全面的了解; 其次,在孩子12年的成长过程中,可以随时按图索骥,从这份书单和deep research报告中选择阅读书目; 而且,这份报告只是对教育部推荐书目的一次性整体解读,我会把其中每一本(是的,每一本)值得deep research的书都做一次解读报告。 我把文章链接放评论区。点击“阅读原文”,即可下载全面介绍300本书的openai deep research报告。全文68000字,包括pdf和epub版本,可以导入“微信读书”app。 阅读使人快乐(真的如此,就是字面意义,而非比喻或口号)。祝阅读愉快~
3个月前
openai deep research vs google deep research: 如果美国和中国明天突然决定停止一切相互贸易,哪个国家会面临更大的麻烦?|结论:openai更deep,google更broad,看谁更适合你。 why:一方面这是当前的特点话题,意义重大,值得思考;另一方面,两个DR报告呈现出完全不同的特征,而且相当有代表性,可以看出两个DR的特点。 原始报告太长,都是2万字左右。所以,我用gpt-4.5对两份报告的内容进行了“压缩”。我仔细看了一下,报告结构和内容要点都高度保留(人类要做到这一点可不容易),读总结可以快速了解两份报告的结论,包括对比二者对同一个prompt的应对差异。 图1-2是openai DR的总结;图3是google DR的总结。 我的总结:openai的DR报告更deep,报告内容字数略少于google,但是全文都紧密围绕问题本身,从GDP影响、就业、科技产业链、供应链中断、消费品价格这些角度深度分析; 对比之下,google的DR报告更broad,报告字数略多于前者,但是全文铺的很广,具体分析部分只占报告全文很小一部分; openai DR的这个“deep”特点,充分利用了o3模型的强大推理能力,指令跟随能力,强调智能体的基础模型本身的智能。 google DR的这个“broad”特点,充分展示了google search的原生search index,访问网站数量数百个,参考网站100多个,是前者的近10倍! 在主题研究这件事上,到底你需要deep,还是需要broad?研究报告质量、研究目标的完成度,多大程度上取决于智能本身,或者搜索资料的资料,这是我们需要持续在实践中观察、思考和总结的。 两份原始报告的link,我放在评论区。有空大家可以细细阅读。
3个月前
claude团队揭秘:ai大脑不用英文也不用中文思考,而是靠“思维语言”。|这证明了英语学习/教育失败的根本原因? llm用什么语言“思考”?中文?英文? 都不是。 llms的思考,使用的不是中文或英文这样的自然语言,而是一种超越自然语言的“思维语言”。anthropic的最新研究,用实验方式首次证明了这一点,这是理解llm内部黑箱的一个巨大突破。 在llm内部,不同语言共享同一个概念空间。不论是中文、英文还是法语,这些自然语言都只是这个更深层次“思维语言”的表面形式而已。 举个例子,你用英语教llm一个概念,它能用中文流利地表达出来;你用中文教它,它一样能在英文里准确使用。语言不同,但背后的概念是一样的。 anthropic的实验很有意思:面对同一个问题,不论你用英语问(the opposite of "small" is),是中文问(“小”的反义词是),还是用法语问(le contraire de "petit" est),llm实际上都在用自己跨语言共享的特征来思考,在同一个共享的概念空间里思考,然后再把结果翻译为对应的英文、中文或法语输出给你。 对人类学习的启示? 如果你同时理解llm和人脑的运作原理,不难想到以下几点: - 人脑也不是通过中文或英文这样的自然语言思考的,而是一种更为底层、更为通用的“思维语言”; - 中文和英文只是表面差异,真正重要的是思维语言本身的运动(俗称”思考“); - 概念、事实性知识砖块和心理模型等心理表征,这些才是思维语言真正的词汇。概念语言先于自然语言。如果你掌握的思维词汇太少,不论你说哪种语言,都没法深度思考。 昨天读到anthropic的这篇文章,我心情激动。毕竟早在一年前,我就在twitter和公众号文章里多次表达这样的观点。 于是,双语对照版本文章奉上,祝你阅读愉快~