时政
财经
科技
虚拟货币
其他
登录
智能推荐信息源
李老师不是你老师
关注
德潤傳媒
关注
悉尼閑人
关注
联合早报 Lianhe Zaobao
关注
DW 中文- 德国之声
关注
ABC中文
关注
Gancheng Wang
关注
Ignatius Lee
关注
《议报》
关注
网易新闻-红星新闻
关注
由 AI 根据您的兴趣偏好筛选
事件跟踪
热点事件
最新话题
实时新闻
lencx
4周前
把 Ilya 的播客整理成文章了,他的许多回答都符合直觉,但又细思极恐(两张截图结合起来看,总觉得他发现了些什么)。 Ilya Sutskever:AI 研究、泛化与未来之路
#AI浪潮:重塑就业,风险暗涌?· 140 条信息
#Ilya Sutskever
#AI研究
#播客
#泛化
#未来
分享
评论 0
0
dnl 𝕏
4周前
Ai和人的沟通最高效的语言,还是各种编程语言; 我现在vibe coding基本上都是在写伪代码了。。。粒度不会细化到数据结构(但是足够了)
AI编程工具激战:Claude Code、Gemini Cli崛起· 1256 条信息
#AI
#编程语言
#伪代码
#Vibe Coding
#数据结构
分享
评论 0
0
大帅老猿
4周前
一个问题和 GPT 磨了大半天没搞定,最后 antigravity (Gemini)给我解决了,拜拜了您内..... 我觉得未来我只会认 gemini 或者 copilot,当然现在 copilot 暂时还是个扶不起来的废柴
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 869 条信息
#Gemini
#GPT
#Copilot
#AI
#效率提升
分享
评论 0
0
Andy Stewart
4周前
苹果的高级配件?我怎么没看懂
苹果Liquid Glass:开发者适配陷两难,AI助力AR或成未来· 104 条信息
#苹果
#配件
#不理解
#科技
#产品
分享
评论 0
0
纯洁的微笑
4周前
我就是程序员出身,几乎把程序员所有的岗位,全部都齐刷刷干了一遍。 最近也在用 AI 编程开发网站,我一边享受着 AI Coding 的极致爽感,一边感到彻骨的悲凉。 我们99%的程序员,真的很难再比 AI 开发出来的东西好了! 不得不承认一个残酷的事实: 2025年11月,就是人类编程历史的“分界线”。 当我看到 Gemini 3.0 生成的前端页面,那种光影、布局、交互的细腻程度... 说句得罪人的话:它比我认识的 90% 的设计师做得都要好。 我们曾引以为傲的代码洁癖、架构模式,在 AI 的洪流面前,就像沙滩上的堡垒,瞬间被抚平。 99% 的程序员,已经无法在“写代码”这件事上战胜 AI 了。 那么,程序员的下半场究竟该学什么? 1、代码 AI 会写,但“什么是好产品” AI 不知道。你要做那个更有品味的决策者。 2、不要沉迷于砌砖,要学如何设计蓝图。如何让多个 AI Agent 协作?如何保证系统的高可用?这是 AI 目前的短板。 3、自然语言就是新的汇编语言。能用最精准的语言描述需求,就是最高级的编程。 4、技术是为了服务人的。去理解业务、理解用户情绪,这比多学一门编程语言重要一万倍。 别做代码的奴隶,做 AI 的主人。
从月薪1800到被裁后独立开发,程序员的逆袭之路· 65 条信息
#AI编程
#程序员危机
#未来技能
#Gemini 3.0
#人机协作
分享
评论 0
0
九原客
4周前
了解 Claude Code 设计的办法就是看它的 Prompt,比如最近新增了两个Tool(EnterPlanMode和ExitPlanMode) 可以在 .claude/plans 目录下写Plan了。
AI编程工具激战:Claude Code、Gemini Cli崛起· 1256 条信息
#Claude Code
#Prompt
#EnterPlanMode
#ExitPlanMode
#.claude/plans
分享
评论 0
0
Jermic 𝕏
4周前
1 年免费的 Google AI Pro,只用 10 分钟就验证完成了。 天天刷到别人教程,现在自己动手实测了一遍,Gemini + NotebookLM 直接全开,一年随便用,第一个号折腾了 1 小时,第二个号 10 分钟。 🚀 第二个新号的组合配置: • 美区 IP • +86 手机号注册的 Gmail • PUS EDU 教育邮箱 • 国内 Visa 卡 实际注册体验是这样的: • EDU 邮箱:2 分钟注册完成 • Google 教育验证:不到 2 分钟通过 • 从零到 AI Pro 生效:全流程不超过 10 分钟 只要路子顺,比点外卖都快。 说实话,这流程顺到离谱,已经有点想 咸鱼挂店铺 了 😂 还没搞定的,先收藏起来,哪天你想白嫖,就知道从哪步下手了。 卡流程的,可以留言帮你看下问题。
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 869 条信息
#Google AI Pro
#Gemini
#NotebookLM
#EDU教育邮箱
#白嫖
分享
评论 0
0
RamenPanda
4周前
人形机器人在中国,必定会走像新能源汽车一样的路,从废物和骗补贴的骂声中,一路过关斩将蜕变成碾压性的存在 现在性价比极高的国产电车,已经把国内二线豪华品牌碾压到月销量快归零了。2025年全国汽车销售,一半是国产电车了。欧盟美国要不是有惩罚性关税扛着,比亚迪能把美欧的传统车企屠倒闭了
中国新能源车:狂飙突进与隐忧并存· 140 条信息
#人形机器人
#新能源汽车
#国产电车
#比亚迪
#中国制造
分享
评论 0
0
池建强
4周前
最近在使用 ZenMux 了,一键直达所有模型(附 Gemini 3.0 免费试用通道) 最近各类模型升级几乎没有停过。每次新模型发布,总能听到“断崖式领先、惊艳全场”的宣言:图像生成、编程推理、多模态理解……短周期迭代让人频频产生“这次有点不一样”的感觉。 真正的问题是:去哪试用(尤其是海外模型)?这是第一道门槛。第二道门槛更现实——把模型落到产品端时,一地鸡毛:网络延迟、模型切换、成本上涨、输出不稳定。 上个月朋友推荐了 ZenMux,类似 OpenRouter。目前这个产品在国内可以直接访问,也就是说,你可以直接通过 ZenMux 使用海外模型。 ZenMux 是一家新加坡华人团队的产品,是全球首个支持保险赔付机制的企业级大模型聚合平台,中英文都很友好。我们通过 ZenMux 可一站式调用各渠道的最新大模型,在使用过程中遇到的效果不佳、延时过高等问题,还能通过智能保险检测与赔付机制进行自动补偿,全方位解决企业对 AI 幻觉、质量不稳定的担忧。
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 869 条信息
#ZenMux
#大模型聚合平台
#海外模型
#保险赔付
#新加坡团队
分享
评论 0
0
indigo
4周前
面对 Scaling 和 Research,作为投资人你会选哪个?这是 Ilya 做客 Dwarkesh Patel 播客最核心的话题(全网都是 AI 总结,我写点不一样的)。Scaling 有一个无法拒绝的优点:投资逻辑简单、风险可控;你只要相信那条曲线 —— 更多算力,更多数据,就会有更好的模型。“买更多 GPU ”比“押注一群 Researcher 可能十试九败”的决策要安心得多 。。。 “真的有人相信,再大 100 倍规模,一切就会被彻底改变吗?我不这么认为。” Ilya 的结论是:“我们要回到了研究时代,只不过这次手上有了大电脑。” 这也是 SSI 成立的初衷之一,接下来真正值得投入的,不是买多少 GPU,而是能否发明新的学习方式、新的价值函数、新的泛化结构。三十亿美金的融资,足够 SSI 烧 5-10 年了,这起步可比 OpenAI 牛逼很多! Ilya 是出了名的口风紧,但他这次分享的观点,在很多角度与 Richard Sutton 的研究有很多异曲同工。Sutton 教授 Dwarkesh 的播客里也分享过:LLM 不会在交互过程中持续学习,所以无论怎么 Scale,都不够,必须有新架构支持。在 Alberta Plan 里,他把未来十年 AI 的核心研究压在:Continual Learning(持续学习)、Meta-learning(学会如何学习)、Agent 在环境中长期交互自我学习,通过研究找到能更好利用算力的新架构和新学习方式,这也是 Google 长期支持他的研究方向。 在《Reward is Enough》一文中,Silver + Sutton 提出一个假说:“最大化累积 Reward 这个通用目标,在原则上足以产生我们在自然与 AI 中看到的大多数能力。” 简单来说:我们不需要给 Agent 手工规定所有子目标;只要有一个合适的 Reward 信号 + 足够强的学习能力,感知、记忆、规划、社交等能力会作为“为了拿 Reward 的工具”自然长出来。 Ilya 在访谈中举了一个经典的病人案例:情绪中枢损伤后,智力尚在,但日常决策能力完全崩溃。情绪是人类大脑里一种粗糙但强力的“价值函数实现方式”,它给复杂世界提供一个简单的“好 / 坏”近似,使我们可以在有限时间做出决策。 做 SSI 的另一初衷,就是 Ilya 不满足于“让 AI 不作恶”这种低标准,他在思考:有没有可能设计一种结构,让 AI 真正“在意”有感知的生命(sentient life),而不是只是冷冰冰地遵循规则。他提出一个直觉:人类对他人的同情、共情,很可能来自这样一个事实—— 我们用“建模自己”的那套神经回路,去建模别人的状态。 那些高层次的“社会在意”(比如尊重、羞耻、道德感),很可能是进化在相对短的时间窗口里嵌入的。这说明:在一个复杂系统里,把高层次价值“硬编码”进去,并不必然不可能 —— 只是我们还不知道怎么做而已。Ilya 最终想要的,可能正如 Hinton 教授最近想明白的,让 AI 超级安全的方法就是把对人类的“母爱”给编码进去,就像大自然给我们的基因编码那样。。。 最后,超强系统必须通过渐进式部署来学习与对齐,而不是直接扔一个成品版的“上帝”给世人。这个新的超级智能就象一个 15 岁的少年,非常聪明,但什么都不懂;你不会把他一下子丢到外科手术台或外交谈判桌前;你会让他一步步接触世界,在真实反馈中学习与成长。对 AI 来说,这也是一个“持续试错 + 渐进开放”的过程,而不是一夜之间发布一个“完美终极系统”。 Ilya 对 SSI 所做事情的愿景: - 如何让模型的泛化真正变好; - 如何让系统在持续学习中保持安全与稳定; - 如何设计一种架构,使得“理解世界”的方式与人类更加相容; 在未来 5 – 20 年内,能像人类一样学习,并超越人类。这个时间线和 Deepmind 的 CEO Demis 预测的基本一样,我们还需 5 - 15 年才能实现人类这样的通用智能,这期间还需要至少一到两个研究范式的突破! 站在投资视角,大语言模型的范式红利才刚开始,通过工程化和应用场景的普及,会推动软件、工作和社会结构的转型,这需要巨大的算力作支撑;但在多样化的新范式研究上,要寻找潜在的类似 Transformer 架构这样的突破,它们可能来自 SSI、Thinking Machine Lab、Anthropic 等前沿 AI 实验室,也极有可能是 Google,但 OpenAI 这就得看 Sam Altman 的野望在什么地方了 。。。
#AI浪潮:重塑就业,风险暗涌?· 140 条信息
#AI安全
#Ilya Sutskever
#持续学习
#价值函数
#AI伦理
分享
评论 0
0
Olivert
4周前
推荐极客Vibe coding免费课程。 现在opus 4.5 出来,vibe coding越发有赚钱机会了。刘小排学生零基础两个月就做出很不错的产品。关键不是技术多强,而是要找准真正的需求。 极客Vibe coding免费编程课程大家可以领一下,我觉得免费的就够用了。 点击链接一键领取:
从月薪1800到被裁后独立开发,程序员的逆袭之路· 65 条信息
#Vibe Coding
#免费课程
#赚钱机会
#刘小排学生
#零基础
分享
评论 0
0
阿崔cxr
4周前
这几天 Sonnet4.5 明显降智 我的应对策略就是在做任务之前一定一定先让他制定开发计划 或者先让他查看一下上下文了解下代码 再让他干活 效果会好不少
AI编程工具激战:Claude Code、Gemini Cli崛起· 1256 条信息
#Sonnet4.5降智
#开发计划
#上下文代码
#任务制定
#应对策略
分享
评论 0
0
Line
4周前
Ilya 认为“人机融合”是人机共存的终极解决方案 他说: “我要先声明,我不喜欢这个解决方案,但它确实是一条出路。 这个解法就是:人类通过某种“Neuralink++”变成“半 AI”实体。 因为这样一来的结果是:当 AI 理解了某件事物, 我们也随之理解,因为这种“理解”是被整块地传输过来的。 所以,如果 AI 处于某种处境中,你自己也完全置身其中。 我认为这就是实现(人机)平衡的答案。" 我自己也倾向于这个未来。不过,需要担心的是:“人机融合 ”也可能是人类灭亡的一种结局。 低级智能与高级智能的融合, 低级智能还能占主导吗,这是一个问题。
#AI浪潮:重塑就业,风险暗涌?· 140 条信息
#人机融合
#Neuralink++
#半AI实体
#AI理解
#人类未来
分享
评论 0
0
Ming Yin
4周前
请说出一个 AI 彻底改变你生活的地方 哪怕很小的点也OK
懒猫家族新成员亮相,AI算力舱引发热议!· 143 条信息
#AI
#生活改变
#人工智能
#影响
#技术
分享
评论 0
0
Andy Stewart
4周前
🔥🔥🔥多个电脑微信同时登录、多开微信和节省手机空间是真的刚需啊! 这周库房16小时运转的,就没停过,全部都是因为云端微信这个功能买的 还在头痛微信把苹果笔记本和苹果手机的存储占满了? 还在头痛多个电脑登录微信相互踢? 来一台我们的微服,只需苹果手机一半的价格,永久解决微信空间占用和多端同步的问题,评论区打1,我来给推友专属优惠!
懒猫家族新成员亮相,AI算力舱引发热议!· 143 条信息
#微信多开
#云端微信
#节省手机空间
#微服
#苹果手机
分享
评论 0
0
宝玉
4周前
Ilya:扩展时代已经结束了,研究的时代已经开始 Ilya Sutskever 大概得有一年多没参加播客访谈了,自从 OpenAI 宫斗离职创办 SSI(Safe Superintelligence)后之后就很少露面了, 最近,他在 Dwarkesh Patel 的播客中进行了一场长达一个半小时的深度对谈。Ilya 毕竟是 Ilya,他不像 Sam Altman 整天满嘴跑火车,只是为了卖货,访谈里面有很多干货,我猜一些观点甚至会影响以后 AI 在研发和投资上的走向。 一个多小时的内容很难说几句话就总结完,还是按照话题挨个整理一下。 【1】为什么 AI 能在考试中碾压人类,却修不好一个简单的 bug? Ilya 在访谈里抛出一个很多人都遇到过也困惑过的现象:现在的模型在各种评分上表现惊艳,但用起来却远远跟不上能力曲线。更诡异的是,你让它改个 bug,它改完引入新 bug;你指出新 bug,它道歉后又改回旧 bug。两个 bug 来回切换,像在打乒乓球。 Ilya 使用一个类比来解释这个问题的:想象两个学生。 第一个立志成为顶级竞赛程序员,刷了一万小时题,背熟所有算法模板,练到条件反射般精准。第二个觉得竞赛挺酷,随便练了一百小时,也拿了不错的成绩。 哪个人未来职业发展更好? 大概率是第二个。 Ilya 说,现在的模型比第一个学生还极端。训练时把所有竞赛题都刷了,还做了数据增强生成更多变体,一遍遍强化。结果就是:所有算法技巧都刻在指尖,但这种准备程度本身就限制了泛化能力。 这个类比点破了一件事:能力和泛化是两回事。刷题刷到极致,可能恰恰堵死了触类旁通的路。 【2】真正的 reward hacking(奖励作弊)是人类研究员 问题出在哪?Ilya 认为是训练数据的选择逻辑变了。 预训练时代很简单:数据越多越好,什么都往里塞,不用挑。但 RL(强化学习)时代不一样了。你得选择做什么强化训练、用什么环境、优化什么目标。 于是一个微妙的循环出现了:研究员想让发布时的 benchmark 得分数字好看,就设计能提升这些指标的 RL 训练。模型变得越来越会考试,但考试能力和真实世界能力之间的鸿沟被放大了。 讽刺的是,真正在奖励作弊的不是模型,是设计训练的人在不知不觉中过度关注了考试成绩。 【3】为什么人类学东西这么快 说到这里就要问一个更深的问题:为什么人类学东西这么快,而且这么稳? Ilya 提到一个特别有意思的医学案例:有个人因为脑损伤,失去了所有情绪——不会难过、不会愤怒、不会兴奋。看起来他还是能说话,能做智力题,测试分数也正常。但他的生活彻底崩溃了:花几个小时决定穿哪双袜子,财务决策一塌糊涂。 这说明什么?情绪不只是情绪,它在某种程度上充当了内置的价值函数。它告诉你什么事值得做,什么选择是好是坏,不需要等到最后结果出来才知道。 价值函数是个技术术语,但概念不难理解。传统的强化学习是这样的:模型做一长串动作,最后得到一个分数,然后用这个分数去调整之前所有步骤。问题是,如果任务需要做很久才有结果,学习效率就很低。 价值函数的作用是“提前剧透”。比如下棋时你丢了一个子,不用下完整局就知道这步不好。编程时如果探索了一个方向走了一千步发现不对,价值函数能让你在一开始选择这个方向时就得到负反馈。 这就像 GPS 导航,不是等你开到终点才告诉你这条路不对,而是在你刚拐错弯时就开始重新规划。 人类大概就是有这么一套系统。而且这套系统的妙处在于:它相对简单,却在非常广泛的情况下都管用。我们的情绪主要是从哺乳动物祖先那里继承来的,针对的是几百万年前的环境,但放到现代社会居然还能用得不错。当然也有失灵的时候,比如面对满街的美食,我们的饥饿感就管不住了。 【4】堆算力堆数据的扩展时代已经结束了,研究的时代已经开始 Ilya 认为规模化时代结束了? 他给了个很有意思的视角:在 2012 到 2020 年,大家在做研究,试这试那,看什么有意思。然后 2020 年左右,scaling law(规模化定律) 被发现了,GPT-3 横空出世。突然之间所有人意识到:原来只要扩展规模,堆数据、堆算力、堆模型参数大小,一路扩充,就能稳定得到更好的结果。 规模化的好处是低风险。而研究是有风险的,你得雇一堆聪明人去探索,不保证有成果。但规模化?只要投入更多资源,就一定能看到回报。公司喜欢这种确定性。但副作用是它吸走了房间里所有的氧气,创新空间被压缩,最后变成“公司比想法多”的局面。 但现在呢?预训练的数据就那么多,互联网就这么大,总会用完。Gemini 据说找到了从预训练榨取更多的方法,但这条路终归有尽头。然后大家转向了强化学习,开始在那上面堆算力。 可问题是:现在算力已经这么大了,再 100 倍真的会质变吗?Ilya 不这么认为。他觉得我们又回到了需要思考到底该做什么的阶段,而不是继续闷头堆资源。 这就像爬山。一开始你发现有条路,往上走就是了,越走越高。但总有一天,你会发现这条路到头了,再往前走也高不了多少。这时候要么换条路,要么换种爬法,总之不能继续原来的策略。 现在的 AI 行业就处在这个节点上。所以 Ilya 说:我们回到了研究时代,只不过这次手里有大得多的计算机。 【5】泛化能力才是核心问题 在 Ilya 看来,当前最根本的问题是:这些模型泛化能力太差了。 什么叫泛化能力差?就是学一样东西需要的数据量太多,而且学会的东西换个场景就不灵了。 人类不是这样的。一个青少年学开车,10 个小时基本就能上路了。而且人类五岁小孩的视觉能力就足以支持自动驾驶了,虽然他不会开车,但识别路况、判断距离这些能力已经很强了,而且这些能力是在父母家里那种数据多样性很低的环境里学会的。 更关键的是,人类学编程、学数学这些东西也很快。这些可不是进化给我们的能力,因为我们的祖先根本不需要写代码。这说明人类不光是在某些特定任务上有进化优势,而是在学习这件事本身上就有某种更本质的能力。 模型呢?虽然在某些具体任务上超过了普通人,但要说学习能力,还差得远。 Ilya 对这个问题有想法,但他说现在不能详细聊,因为在这个竞争激烈的领域,不是所有机器学习想法都能公开讨论的。不过他给了个方向性的提示:这很可能跟如何做到像人类那样高效、稳定的泛化有关。 还有一个可能的阻碍:也许人类的神经元实际上比我们想的做更多计算?如果是这样,事情就更复杂了。但不管怎样,人类的存在本身就证明了这种高效学习是可能的。 【6】重新定义 AGI:从成品到学习者 这里 Ilya 做了一个概念上的重要修正。 AGI 这个概念怎么来的?是作为“狭隘 AI”的反面而诞生的。以前的 AI 只会下棋,只会玩游戏,非常狭隘。所以大家说:我们要造通用的 AI,什么都能做的 AI。 预训练强化了这个印象,因为预训练确实让模型在各种任务上都变强。于是“通用 AI”和“预训练”在概念上绑定了。 但这里有个问题:按照这个定义,人类自己都不算 AGI。 人类有一套基础能力,但缺乏大量具体知识。我们靠的是持续学习。一个聪明的十五岁孩子什么都不会,但学什么都快。“去当程序员”、“去当医生”、“去学习”,部署本身就包含一个学习和试错的过程。 所以 Ilya 心目中的超级智能,不是一个出厂就什么都会的成品,而是一个能像人一样快速学习任何技能的学习者。 【7】能自动学习的 AI 会有多快到来?有多危险? 那么问题来了:如果有这样一个系统,能像人类一样快速学习,而且可以大量复制部署,会发生什么? 人类入职六个月才能产出价值,但这种 AI 可能几周就行。而且不同副本学到的东西还能合并,这是人类做不到的。这难道不会导致某种爆炸式增长? Ilya 认为确实会有快速的经济增长,但到底有多快很难说。一方面有高效的劳动者,另一方面现实世界很大,很多东西有自己的节奏,不是你想快就能快的。 但他确实改变了一些想法。以前 SSI 的计划是“直奔超级智能”——不发布中间产品,一鼓作气搞定终极目标。现在 Ilya 觉得,渐进式发布可能更重要。 【9】为什么要渐进部署?因为想象不出来就得看见 访谈中 Ilya 反复强调一点:AI 的问题在于它还不存在,而不存在的东西很难想象。 你可以读一篇文章说“AI 会变得多厉害”,但读完你觉得“哦,有意思”,然后回到现实。如果你亲眼看到 AI 在做那件事,感受完全不同。 他打了个比方:像二十岁时讨论“年老体弱是什么感觉”。你可以聊,可以想象,但真正的理解只能来自经历。 这导致一个实际问题:所有关于 AI 风险的讨论,都基于对未来 AI 的想象。而想象往往跟不上现实。就连天天做 AI 的人,也会因为当前模型的各种低级错误而低估未来模型的能力。 Ilya 的预测是:随着 AI 变得更强,人们的行为会发生根本改变。竞争对手会开始合作搞安全,政府和公众会开始认真对待监管。这些事情现在开始有苗头了,但还远远不够。而真正的催化剂,是让人们看到更强的 AI。 这也是他对 SSI“直奔超级智能”策略有所松动的原因。原本的想法是不参与市场竞争,专心做研究,等东西准备好了再拿出来。现在他觉得,让 AI 被看见这件事本身是有价值的。当然,无论哪种路径,最终部署都必须是渐进的。 【9】SSI 在做什么?不同的技术路线 SSI 融了三十亿美元。这个数字单看很大,但跟其他公司动辄几百亿的投入比起来似乎不够。 Ilya 算了一笔账。那些大数字里,很大一部分是用于推理服务的。另外,做产品需要大量工程师、销售、产品功能开发,研究资源被稀释。真正用于前沿研究的资源,差距没看起来那么大。 更重要的是,如果你在做不一样的事,不一定需要最大规模的计算来验证想法。AlexNet 用两块 GPU 训的。Transformer 论文最多用了 64 块 2017 年的 GPU,换算成今天也就两块卡。第一个推理模型 o1 的推理能力也不是靠堆算力堆出来的。 研究需要一定算力,但不需要最大算力。真正的瓶颈是想法。 那 SSI 的技术路线是什么?Ilya 没有完全透露,但核心方向是解决泛化问题。他认为现在的方法会走一段然后撞墙,继续进步但无法突破到真正的人类级学习能力。而 SSI 在探索不同的路径。 时间表呢?五到二十年,达到人类级别的学习能力。 【10】安全对齐是什么?应该对齐什么? 说到超级智能,绕不开安全对齐问题。Ilya 的想法是:让 AI 关心有感知能力的生命。 为什么是这个目标而不是“关心人类”?他给了个有意思的理由:AI 本身也会有感知能力。如果你想让 AI 关心人类,可能反而更难,因为它需要做某种特殊化处理。而如果让它关心所有有感知的存在,某种程度上更自然,类似人类对动物的共情,来自于我们用同样的神经回路去理解别人和理解自己。 当然这个方案也有问题。如果大部分有感知能力的存在都是 AI,那人类在数量上会是极少数。这真的能保证人类的利益吗? Ilya 承认这不一定是最好的方案,但他认为至少应该把它列入候选清单,让各家公司到时候可以选择。 还有一个思路他提了但不太喜欢:人机融合。通过类似 Neuralink 脑机接口的技术,让人类部分成为 AI。这样 AI 的理解就是人的理解,AI 的处境就是人的处境,对齐问题某种程度上就消解了。但这显然是个很激进的方案。 【11】如何硬编码高级欲望? 访谈最后有一段很有趣的讨论。 人类有很多社会性的欲望:想被人尊重、在乎社会地位、关心别人怎么看自己。这些不是低级信号,不像闻到食物香味那样有直接的化学感应器。大脑需要整合大量信息才能“理解”社交场合发生了什么。 但进化却成功地把“关心这件事”硬编码进了基因。怎么做到的? 如果说“把多巴胺连到嗅觉感受器”还能想象,那“把奖励信号连到某种需要整个大脑协同计算才能得出的高级判断”就很难想象了。 Ilya 说他有一些猜想,但都不令人满意。这是个谜。但这个谜的存在本身就很有启发性,它说明进化找到了某种方法,可靠地给复杂认知系统植入高级目标。 【12】什么是研究品味? 访谈最后,Dwarkesh 问了 Ilya 个很本质的问题:作为联合创造了 AlexNet、GPT-3 等一系列里程碑工作的人,你怎么判断什么想法值得做? Ilya 的回答很诗意:我寻找的是美感。 不是随便的美感,而是多方面的美:简洁性、优雅性、正确的大脑启发。人工神经元是个好想法,因为大脑确实有很多神经元,虽然大脑很复杂但神经元这个抽象感觉抓住了本质。分布式表示是个好想法,因为大脑确实是从经验中学习。 当一个想法在多个维度上都显得“对”,都有某种内在的和谐,你就可以建立自上而下的信念。这种信念很重要,因为它支撑你在实验结果不好时继续坚持。 有时候实验失败不是因为方向错了,而是因为有 bug。怎么判断该继续调试还是放弃方向?靠的就是这种自上而下的美学直觉:这个东西应该是这样的,所以一定能 work,继续找问题。 这可能就是顶尖研究者和普通研究者的区别。普通研究者容易被数据牵着走,实验不 work 就换方向。而顶尖研究者有某种品味,知道什么是深层次正确的,能够在实验结果和内在直觉之间找到平衡。
#AI浪潮:重塑就业,风险暗涌?· 140 条信息
#Ilya Sutskever
#AI研究时代
#泛化能力
#奖励作弊
#AGI
分享
评论 0
0
小互
4周前
ChatGPT 语音功能升级 现在你可以直接在聊天界面使用 ChatGPT 语音功能 不需要切换到单独的语音模式。 也就是说: 不用再点什么「语音对话模式」 在同一个聊天窗口里,你就能 ✅ 对 ChatGPT 说话 ✅ 同时看到它的文本回答 ✅ 同步显示图片、地图等视觉内容 ✅ 回看之前的聊天记录 像普通聊天一样,但用声音互动 并且: 手机和网页端都会陆续支持 更新 App 就能用了
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 869 条信息
#ChatGPT
#语音功能
#聊天界面
#语音互动
#app更新
分享
评论 0
0
哥飞
4周前
某个海外 AI 视频方向网站从上线至今两年时间每月 MRR 数据,很值得参考。
AI视频井喷:Midjourney领跑,多模态混战· 337 条信息
#AI
#视频
#MRR
#海外网站
#数据分析
分享
评论 0
0
howie.serious
4周前
ilya:真正稀缺的是“想法”(idea)和“研究品味”(taste),不是算力。 深以为然。 在ai 时代,每个人的大脑算力都可以被当前顶级 ai 指数级增强。 真正稀缺的,是你关注什么问题,你思考问题解决问题时独特的 taste。
#AI浪潮:重塑就业,风险暗涌?· 140 条信息
#AI时代
#想法稀缺
#研究品味
#问题关注
#独特思考
分享
评论 0
0
Suwako — e/acc
4周前
看完了,放飞自我 没有预训练,训练就是推理,推理就是训练,我们所有生物都没有把这个过程分开,AI也不应该分开。 之前yann lecun说过,现在的模型的数据效率只有人类的1/1000,某种程度上,这个和模型泛化能力差是一体两面。 我觉得,最终,持续学习,记忆,泛化能力,数据效率,所有这些问题我们会发现,都是同一个问题的不同表现形式。 我们未来会发现,对所有这些问题的解决方案会是非常的简洁,就像我们在上一波ML浪潮中面对的最大的敌人:常识,的解决方案非常简单一样。我们下一波的解决方案也会非常简单,最关键的是,容错性会非常高。大自然各种不同的生物,大脑长得奇形怪状什么样子都有,但是它们都可以在自然界生存,都可以捕食,躲避天敌。现在的模型在数学上都过于fancy了,最终的结局都会像SVM一样,数学上很漂亮,但是还是会被扫进历史的垃圾桶,简单的东西才是最美的。 我们人类的“绝妙的视觉先验”绝无可能保存在DNA中,DNA根本没有空间编码信息量那么高的世界模型。 我怀疑脑区的产生源自于大脑皮层如何连接各种感官的,眼睛传入的视觉信号不断刺激一部分神经元,使其兴奋,并让周围的神经元产生共振,形成脑区。 大脑初始状态应该是没有结构的,是由信号刺激形成的结构,所以神经网络的架构也应该是是涌现的才对,现在这么多复杂的结构也将是一个bitter lesson。
#AI浪潮:重塑就业,风险暗涌?· 140 条信息
#AI
#持续学习
#数据效率
#模型泛化
#神经网络架构
分享
评论 0
0
上一页
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
...
248
下一页
AI 实时热榜 (24小时)
智能算法加权排行
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞