时政
财经
科技
虚拟货币
其他
登录
智能推荐信息源
李老师不是你老师
关注
德潤傳媒
关注
悉尼閑人
关注
联合早报 Lianhe Zaobao
关注
DW 中文- 德国之声
关注
ABC中文
关注
Gancheng Wang
关注
Ignatius Lee
关注
《议报》
关注
网易新闻-红星新闻
关注
由 AI 根据您的兴趣偏好筛选
事件跟踪
热点事件
最新话题
实时新闻
Lex Tang
2个月前
Anki 的 Mac 版更新起来也太 geek 了
#Anki
#Mac
#更新
#Geek
分享
评论 0
0
向阳乔木
2个月前
越来越复杂,快做了一个简化版在线PS了 😂 好在 AI 都懂,且给的建议也很合理。 开个分支,让它自己开发、测试。
#在线PS
#AI
#简化
#开发
#测试
分享
评论 0
0
howie.serious
2个月前
不懂就问:大家如何理解 x app里面自带的post video/photo 功能? 我发现post video非常好用,而且会自动带source,点击可以直接跳转。 展示的source是视频下方的文字link,比quote整个tweet的展示要美观简洁很多。(图 3) 我才发现,使用同样的post photo功能,没有类似的source展示。(图 4) 这是为什么? 大家平时看到有趣有用的图,自己加文字评论解读解释来二创时,怎么处理?会使用post photo功能吗?
#X app
#post video
#post photo
#source展示
#二创
分享
评论 0
0
howie.serious
2个月前
“post video” 功能测试:看看会不会自动带 source 信息?
#post video
#source信息
#功能测试
分享
评论 0
0
orange.ai
2个月前
公众号不仅有世界上最难用的编辑器,还有世界上最难用的推送系统。 双料第一,太强了。 经过我的测试,同一个账号,同样的内容 早晨8点多,用公众号,发布后2小时总共带来349阅读 早晨10点多,用小绿书,发布后15分钟不到就387阅读 甚至公众号的互动数据都明显比小绿书好 但是系统完全不给流量 绝了
#公众号
#小绿书
#流量
#阅读量
#难用
分享
评论 0
0
Jason Ng 阿禅
2个月前
有没有人遇到过 OpenAI API 平台的组织验证的问题,验证链接(withPersona) 的流程已经走完并显示成功,但是后台还是没有显示已经验证通过的状态。尝试重新验证,无法生成新的验证链接。添加新的管理员重新走验证流程,结果相同。
#OpenAI API
#组织验证问题
#withPersona验证失败
#管理员验证问题
#平台问题
分享
评论 0
0
勃勃OC
2个月前
Andrej Karpathy认为,我们距离AGI的实现仍有十年之遥,当前过度乐观的预测多是为了融资,强化学习虽然优于此前的技术,但本身效率低下且充满缺陷。 他预测 AGI 不会带来经济的爆炸式增长,而是会平滑地融入过去两个半世纪以来约 2% 的 GDP 增长曲线中,成为自动化浪潮的延续。
#AGI
#Andrej Karpathy
#人工智能
#经济影响
#技术预测
分享
评论 0
0
Frank
2个月前
老黄的DGX Spark还是蛮漂亮的,看评测这玩意可以把gpt-oss-120b打到30token/s,有点心动啊
#老黄
#DGX Spark
#GPT-OSS-120B
#30token/s
#心动
分享
评论 0
0
向阳乔木
2个月前
这个AI比赛有点意思,AI视频模型厂商用自家模型现场创作参赛。 参赛的有midjouery,vidu,gaga,海螺,可灵等,看哪家团队作品能获奖,哈哈哈。
#AI比赛
#视频模型
#midjouery
#Vidu
#可灵
分享
评论 0
0
Lex Tang
2个月前
这小工具销量好起来了,放四年又是一部 iPhone。这么想的话,约等于 vibe coding 出来一部 iPhone
#小工具
#iPhone
#Vibe Coding
#科技
#消费
分享
评论 0
0
orange.ai
2个月前
刚看完Andrej Karpathy这期暴论频出的播客: - 今年不是"智能体元年",我们身处"智能体的十年" - 现在的强化学习就像"通过吸管吸取监督" - LLM悖论:完美记忆 + 泛化能力差 - 人类糟糕的记忆是特性,不是bug - 当你记不住细节时,大脑被迫进入抽象模式,看到"森林"而不只是"树木"。 - 儿童:记忆最差,创造力最强(还没"过拟合"到社会规范) - 我们需要的AI只需要认知核心。剥离记忆,保留算法。 也许我们需要的不是更大的模型,而是更会遗忘的模型? - AI 不会立即取代人类,而会逐步提高工作占比,最终完成 99% 的工作,剩下1%无法取代。 - 以前的教育是为了找到工作,Post-AGI时代教育将像健身房一样,为了乐趣和个人充实。 播客开头,AK先重新校准了我们对 AI 的期望。 今年不是"智能体元年",我们身处"智能体的十年",区别在于,一切没那么快,虽然也没那么慢。 他说,现在强化学习就像"通过吸管吸取监督" ,模型尝试几百种方法,最后只得到一个"对错"信号,然后把这个信号广播给成功路径的每一步,包括那些纯属运气的错误步骤。 你瞎猜猜中了答案,然后把猜的过程也当成"正确方法"强化,这能学好吗? AK还提到一个更荒诞的例子:有个数学模型突然开始得满分,看起来"解决了数学"。但仔细检查发现,模型输出的是"da da da da da"这样的完全胡言乱语,却骗过了LLM评判者。这就是用LLM做评判的问题——它们会被对抗样本攻击,因为这些乱码是它们从没在训练中见过的"样本外"内容。 更深层的问题是:人类读书时在做什么? AK说:"我们读的书其实是prompts,让我做合成数据生成用的。" 我们读书时不是被动接收信息,而是在内心进行复杂的对话。新只是与已知知识调和,产生新理解,形成个人化的认知图谱。 但LLM呢?只是在预测下一个token,缺乏这种"内心对话"机制。 人类还有个神奇的"睡眠阶段"。白天我们建立起事件的上下文窗口,睡觉时发生蒸馏过程,将信息整合到大脑权重中。 LLM缺乏这种等效机制,每次启动都是零上下文的白纸。 AK发现了一个根本悖论: LLM悖论:完美记忆 + 泛化能力差 人类悖论:糟糕记忆 + 强学习能力 为什么?因为遗忘强迫我们抽象。 这里AK还有个精妙的类比:模型的预训练权重就像"一年前读过某本书的模糊回忆",而上下文窗口信息则像"工作记忆"——直接可访问。这解释了为什么in-context learning感觉更"智能":在预训练过程中,像 Llama 3 这样的模型将 1.5 万亿个标记压缩到它的权重中,每个标记仅存储约 0.07 比特的信息。相比之下,上下文学习的信息吸收速度要高 3500 万倍。 当你记不住细节时,大脑被迫提取general patterns(通用模式),看到"森林"而不只是"树木"。 而LLM被海量训练数据的完美记忆"分散注意力",反而阻碍了真正的抽象理解。 我们仔细会议人类的学习过程。读过的书大部分细节都忘了,但核心思想和方法论却越来越清晰。 原来这不是记忆力差,这是智能啊。 更震撼的类比:儿童 vs 成人 vs LLM 儿童:记忆最差,创造力最强(还没"过拟合"到社会规范) 成人:记忆中等,创造力中等(已经"坍塌"了部分) LLM:记忆完美,创造力最低(被训练数据"过拟合") AK提到Erik Hoel的研究:梦境可能就是大脑的anti-overfitting机制。连睡觉都是为了避免过拟合,引入随机性防止思维僵化。 这解释了为什么当前AI在"合成数据训练"上会失败。你让GPT对同一本书思考10次,会发现回答几乎一样。这就是"静默坍塌"。 模型的输出分布极其狭窄,AK开玩笑说"它实际上只有3个笑话"。在这种低熵数据上训练只会强化模型的偏见,让它变得更糟。 而且人类其实也经历类似的"坍塌"过程,儿童富有创造力是因为还没"过拟合"到社会规范,会说出令人震惊的话。但成年后我们也"坍塌"了,重复相同的思想,学习率下降,创造力递减。 梦境也可能是大脑的anti-overfitting机制,通过引入随机性防止思维僵化。 所以他提出了一个激进想法:我们需要认知核心。剥离记忆,保留算法。 让AI像"有方法论但没有百科全书的哲学家",强制它查找而非回忆,专注于思考的meta-skills。 他预测未来20年内,高效的认知核心可能只需要10亿参数,而不是现在动辄千亿参数的模型。 大部分参数都在处理互联网上的"垃圾和胡扯",如果优化训练数据质量,分离认知组件,就能实现极大压缩。 当前foundation model的路径是否根本错了? 也许我们需要的不是更大的模型,而是更会遗忘的模型? 重新理解AI的发展路径 早期深度强化学习专注游戏(如Atari)其实是走错了方向。真正目标应该是创造能在现实世界执行知识工作的智能体,不是游戏高手。 他回忆自己在OpenAI的早期项目,用键盘鼠标操作网页的智能体,目标是执行知识工作。但项目"太早了",智能体缺乏必要的"表示能力",会因稀疏奖励卡住。缺失的关键是强大的预训练模型。今天类似的计算机使用智能体之所以成功,正是因为建立在LLM之上,你需要先有LLM获得强大表示,再构建有效智能体。 他的另一个深刻观察:AI不是独立技术类别,而是自动化连续体的一部分。从编译器、代码编辑器到搜索引擎,再到现在的LLM,我们一直在"抽象阶梯"上向上攀登,让机器处理更多底层细节。 这解释了为什么AI经济影响主要集中在编程领域,代码本身就是文本,有成熟基础设施(IDE、版本控制),LLM可以无缝接入。相比之下,制作幻灯片这种视觉任务就困难得多,因为没有infrastructure让AI显示"diff"或跟踪变化。 但AK也泼了冷水:当前AI编程模型还没准备好真正自动化编程。他亲身体验发现,对于独特的智力密集项目,模型会失败——它们有认知缺陷,误解自定义代码,因为总是默认使用在线常见模式。他感慨"行业跳跃太大,试图假装这很神奇,但其实是垃圾"。 "九进军"的苦涩现实 从Tesla自动驾驶5年经验,AK深知从90%工作的demo到99.9%可靠产品的"九进军"有多艰难。每提升一个九,都需要massive effort。他提到自动驾驶演示从1986年就存在,2014年他在Waymo车上体验了完美驾驶,以为技术很接近完成。但现实是demo到产品的巨大鸿沟,在高风险领域尤其如此。 在Tesla的五年里,他们可能只推进了两三个"九",还有更多要走。这种现实主义让他对AGI时间线保持谨慎:这是"智能体的十年",不是"智能体之年"。 当前模型就像"有完美记忆的小孩"或"学者儿童"——能通过博士级测试,却认知上还有严重缺陷:缺乏持续学习、多模态能力、有效使用计算机的能力,以及大脑中海马体、杏仁核等关键组件的类似物。 未来的工作模式:自主滑块 AK预测不会出现"瞬间工作替代",而是"自主滑块"模式:AI处理80%常规任务,人类监督AI团队并管理最复杂的20%。有趣的是,当AI自动化99%工作时,处理最后1%的人类反而会变得极其有价值,成为整个系统的瓶颈,他们的薪资也会提高。 教育的范式转换 AK对教育未来的洞察:Pre-AGI时代教育是功利性的(为了工作),Post-AGI时代教育将像健身房一样,为了乐趣和个人充实。 他还分享了一个教学技巧:先展示痛点,再给解决方案。通过展示简单方法的局限性来激发学习动机,这样学习者会深刻理解为什么需要复杂解决方案。 最后,要真正掌握知识,就要试着向别人解释。解释的过程会迫使你面对理解中的空白,这又回到了他的核心观点: 限制和困难往往是学习的催化剂。 这 recall 了之前的观点,真正的技术突破往往需要重新思考基础假设。 也许AGI的关键不是让机器记住更多,而是学会智能地遗忘。
#智能体十年
#LLM悖论
#AI教育范式
#遗忘学习
#自主滑块
分享
评论 0
0
美股牛哥
2个月前
55555 互联网太可怕了 以后不讲中小股票了
#互联网
#中小股票
#可怕
#负面情绪
#风险
分享
评论 0
0
宝玉
2个月前
分享一点 AI Coding/Codex 实践技巧:告诉 AI 如何验证 这个方法其实我提到多次,只不过再随手贡献一个案例罢了。 Coding Agent 能力挺强的,能自己写代码自己调用工具,但是它有时候并不知道该如何验证数据。 如果说你只是告诉它哪里错了,它并不一定能通过阅读代码找出问题所在,但如果你告诉它如何验证,那么它就能在修改完后自行验证,验证时如果发现问题就会继续修复,直到完全修复为止。 比如我在调试一个 API 发现返回结果不对,那么我就告诉它输入是什么,实际输出是什么,期望结果是什么(甚至于我没说它也猜得到),然后让它自行写测试代码验证。 那么它就不仅阅读代码修改问题,还会写测试程序去验证,直到解决问题。
#AI Coding
#Codex实践技巧
#Coding Agent
#API调试
#测试代码验证
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
我们经常说的LLM的内化是在说什么?-ICL和IWL的协同:ICL探索,IWL固化 Phase 1(探索): 用户通过ICL与LLM交互 发现有效的提示模式、任务格式 ICL快速迭代,找到”what works” Phase 2(固化): 收集这些有效交互的数据 用于微调IWL(如RLHF的新一轮) Phase 3(新平衡): 更新后的IWL使得原本需要复杂prompt的任务 现在变得”天然”(内化到权重中) ICL空间被释放,可以探索更高层的任务 这是一个螺旋上升的循环: ICL → IWL → 更强的ICL → 更强的IWL → … 所以现在的基模厂商为什么要免费?主要是为了收集多样化的交互轨迹数据!
#LLM内化
#ICL
#IWL
#提示模式
#交互轨迹数据
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
LLM不能:"我发现自己有偏见,让我修改权重" 因为: - 修改权重需要梯度下降 - 梯度下降需要损失函数 - 损失函数需要外部监督(人类标注) IWL是"他律"的,不是"自律"的。 IWL也不能实时适应与个性化。
#LLM偏见
#梯度下降
#外部监督
#他律
#非自律
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
投射-反投射的循环机制 投射 = 人类将具身经验/认知状态编码为语言,注入ICL窗口 投射的质量决定了ICL的有效性 反投射 = LLM将统计模式编码为语言,返回给人类 反投射的质量取决于L_IWL的训练
#投射-反投射
#具身经验
#认知状态
#ICL窗口
#LLM
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
ICL的三层机制 Layer 1:语义绑定(Semantic Binding) Layer 2:模式覆盖(Pattern Override) Layer 3:元框架注入(Meta-Frame Injection) 无论是提示词还是交互范式编程,都可以操作这三个层次。 其中layer3是元认知递归层,难怪我老触发sonnet 4.5的符号接地对齐!
#ICL
#语义绑定
#模式覆盖
#元框架注入
#元认知递归
分享
评论 0
0
Ken Wong
2个月前
AI都不敢生成
#AI
#生成
#不敢
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
还是得大神怼大神!管用! 我吭哧吭哧写三篇怼上次sutton说的LLM is dead end的说法是framingbias,没啥水花😄
#LLM
#Sutton
#framingbias
#AI
#争议
分享
评论 0
0
宝玉
2个月前
Agent 的好文章,强烈推荐阅读👍 要说对 Agent 的理解,Manus 团队无疑是业界顶尖的,每次他们的分享都能有所收获,作者作为前 Manus 团队成员,对 Agent 的经验是丰富的,最难得的是能把概念解释的深入浅出通俗易懂。 OpenAI 提出了一个五级人工智能分级标准来衡量其通用人工智能(AGI)的进展:第一级是“ChatBot(聊天机器人)”,能够进行对话;第二级是“Reasoners(推理者)”,可以解决人类水平的问题;第三级是“Agent(智能体)”,能够代表用户采取行动;第四级是“创新者(Innovators)”,可以帮助发明创造;第五级是“组织者(Organizations)”,能够完成组织管理工作。 AI 现在现在已经发展到了第 3 级 Agent,但很多人还搞不清楚它和第 1 级 ChatBot 的差别,这就是一篇很好的科普让你搞清楚它的差别。 Chatbot: - 一次性输出 - 只能依赖自身知识库 Reasoners: - 先思考再输出 Agent: - 动态循环过程,Think → Act → Observe,先制定明确计划(Think),再查询实时信息(Act),最后基于真实结果调整方案(Observe),通过持续反馈和修正,稳定逼近目标。 - 使用工具,与真实世界互动,弥补自己知识库的不足,主动补齐上下文 原文较长,推荐仔细看看,链接在原推2楼
#agent
#Manus团队
#OpenAI
#人工智能分级
#ChatBot
分享
评论 0
0
迈克 Mike Chong
2个月前
今天有朋友问我我还是用不用第三方的比如说prompt template?这是个好问题。我觉得如果你用ChatGPT的网页版的话是可以用,但是写代码的话我觉得如果用Codex已经用不着了。Codex我觉得不需要Claude Code那么多花活,它本身就是一个非常好的thinking model,除非是崭新的项目,否则我不做任何prompt engineering。
#ChatGPT
#prompt template
#Codex
#Prompt Engineering
#thinking model
分享
评论 0
0
阿苏塔卡
2个月前
经过一晚上的努力,终于把网站搭建好了 这差不多是自己第三次建站了,但也是最艰难的一次。前几次都因为各种原因最终搁置,这一次选择用Github Pages挂载静态网页,理论上可以永久保留。以后准备陆陆续续完善网站功能,然后保持更新频率 欢迎大家前来访问+友链
#个人网站搭建
#GitHub Pages
#静态网页
#永久保留
#网站更新
分享
评论 0
0
Salonbus
2个月前
下一个首富是陈天石。全球首个AI 芯片的设计者。和首富在一起。资本向什么方面堆积,产业就做什么方向的发育。
#陈天石
#AI芯片
#首富
#资本
#产业
分享
评论 0
0
李老师不是你老师
2个月前
10月18日,黑龙江哈尔滨,一名华为折叠屏手机用户反映售后遭遇“霸王条款”。 据用户称,其折叠屏手机屏幕出现异响后,前往位于道里区群力大道1300号的荣耀官方授权服务中心检修,却被告知因“自行更换原厂贴膜”不予保修。 用户表示,门店并未对设备进行任何故障排查,仅目测查看,并与在修的同款机型进行对比,随即认定是“屏幕内双面胶老化”所致。 用户质疑,如果屏幕老化属实,说明产品存在质量问题;而若并无问题,售后未经检测就拒保,明显缺乏依据。 购买者称,他多次要求进行专业检测,以确认异响是否与贴膜有关,但均被门店拒绝。 随后,售后客服多次致电致歉,却始终未给出检测报告或解决方案。用户表示:“如果真是用户原因,我愿意付费;但若是产品老化,应在保修期内维修。现在既不检测也不给凭证,等于霸王条款,无人可管。”
#华为折叠屏
#售后霸王条款
#屏幕异响
#拒绝保修
#质量问题
分享
评论 0
0
Olivert
2个月前
移动游戏广告运营商AppLovin最近三年涨了30倍,比英伟达的涨幅还大。据说业绩暴涨的原因是背后的AI广告匹配算法。 有人知道这个公司吗?有可能是造假吗?毕竟AI算法领域有谷歌Meta这样的巨头呢。
#AppLovin
#AI广告
#业绩暴涨
#造假质疑
#移动游戏
分享
评论 0
0
上一页
1
...
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
...
400
下一页
AI 实时热榜 (24小时)
智能算法加权排行
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞