时政
财经
科技
虚拟货币
其他
登录
orange.ai
关注
统计数据
403
文章
0
粉丝
0
获赞
3016
阅读
热门文章
1
TechFlow 深潮 发布的文章:近期教育领域的变化引发了广泛讨论,我认为教育改革应该更加注重学生的个性化发展和创新能...
145
32
orange.ai
6天前
最离谱的事情发生了 法国电信发邮件给我说不让我用 orange 这个名字了 因为这是他们的注册商标 一个颜色还能禁止别人使用? 要不你干脆把世界上的 orange 都收购算了
#法国电信
#orange商标
#颜色命名争议
#商业纠纷
#离谱
分享
评论 0
0
orange.ai
6天前
Mac 的锁屏规则越来越复杂了 最近锁屏都不会自动熄屏了 设置分散在各个地方,也不知道是哪个控制的
#Mac锁屏
#熄屏问题
#设置复杂
#用户体验差
#系统bug
分享
评论 0
0
orange.ai
6天前
今天的markdown文件就是模型的记忆卡
独立开发者手搓新Logo,MarkTodo即将上线新版本· 93 条信息
#模型
#记忆卡
#Markdown文件
分享
评论 0
0
orange.ai
6天前
音乐平台上的 AI City Pop 越来越多了,这是 AI 最会写的音乐类型,没有之一。 我说主题是 Yuki 变瘦了,想要夏天的感觉,想要都市的氛围,想要那种轻盈的状态。 涩谷路口,白色连衣裙,制作人的灵光一现。 有一瞬间我在想,如果有人听这首歌真的被打动了 那个感动是真的吗?
#AI City Pop
#Yuki变瘦
#夏日都市
#轻盈状态
#涩谷路口
分享
评论 0
0
orange.ai
6天前
未来工作机会会越来越少,而自媒体将成为一个新的职业。 想到这点,我写了这首歌。 不是所有人都会失业,只是"雇佣"这个词正在消失。 未来不是没有工作,而是每个人都变成了自己的老板,也是自己的员工。 平台成了新的工厂,算法成了新的流水线。 我们不再投简历,我们投稿件。 我们不再等offer,我们等推送。 这首歌用法国香颂做底,因为我想要那种荒诞的浪漫感。 用最优雅的旋律,唱最魔幻的现实。
#自媒体
#未来工作
#平台经济
#算法
#法国香颂
分享
评论 0
0
orange.ai
1周前
凌晨十二点,Codex 还开着,服务器日志在刷屏。 本来只是想给1024程序员节写首应景的歌,结果写着写着就搞了一个小时。 整首歌的核心就是"因果"两个字。 写码得码,调试得Bug,这就是程序员的因果循环。 你今天用 AI 偷的懒,明天会变成Bug找上门。 你今天欠的技术债,上线后一定会还。 但最残酷的因果是什么? 老板让停止加班,但deadline在那里。 这不是老板的因果,这是整个行业的因果。 所以Outro写的是"明天还会继续"。不是认命,是接受这个循环,然后在循环里找到自己的节奏。 致敬所有在因果循环中写代码的修行者。 1024快乐。
#程序员
#因果循环
#加班
#技术债
#1024程序员节
分享
评论 0
0
orange.ai
1周前
AI 产品具备神奇的留存微笑曲线 在一个 AI 新产品刚发布的那一刻,是它数据最差的那一刻。 这就是我为什么说 AI 产品在一开始的时候留存根本不重要。 而在未来几年,留存会越来越好。 到底为什么会这样? 背后的本质原因是: 技术正在快递进步,产品在不断创新。 2025 年的 ChatGPT 和 2022 年的 ChatGPT,名字一样,但他们为用户带来的价值已经今非昔比。 2028 年的 Sora 和 2025 年的 Sora 也会今非昔比。 如果你想不明白这点的话,你很容易陷入刻舟求剑的境地。 这是今天大部分媒体人和投资人都最容易陷入的误区。 千万不要再用移动互联网时代的留存来衡量创新 AI 产品。 也千万不要再用移动互联网时代证明不行的东西来推导今天的 AI 产品。 脑子要跟上时代,这个时代的变量不是移动端的普及,而是生产力和创造力。 移动互联网时代给我们留下的最宝贵的经验是大胆假设,快速迭代,数据验证。 AI 时代更需要的是快速创新,不断地找到更大的 PMF,数据也会因此而变好。 创新公司最需要的是有创新意识的懂AI的工程师,而不是产品数据分析师。
#AI产品
#留存微笑曲线
#技术进步
#创新
#PMF
分享
评论 0
0
orange.ai
1周前
7点20分,首都机场T2的晚客快速安检通道排满了人 我是7:45的飞机,我觉得已经很极限了 后面的人喊到:我是7:30 的! 然后就冲到了最前面 respect 还是你极限
#首都机场T2
#晚客快速安检
#赶飞机
#时间极限
#respect
分享
评论 0
0
orange.ai
1周前
刚看完 Lovable 增长负责人 Elena Verna 在 ProductCon 上的分享纪要,感觉膝盖中了一箭。她说 AI 正在让传统的增长方法彻底失效,太真实了。 那种“产品做好,用户自己会来”的旧思维,现在基本可以当古董看待了。如果产品本身不能成为增长的引擎,那起步就已经输了。 我们也在思考,如何让好声音自己长出翅膀。🤔
#AI
#增长方法失效
#产品驱动增长
#旧思维淘汰
#好产品
分享
评论 0
0
orange.ai
1周前
anker 的耳机是真耐操啊 放衣服里忘记拿出来了 洗了半天晾干完好无损
#Anker耳机
#耐用
#洗衣机
#完好无损
#意外
分享
评论 0
0
orange.ai
1周前
恭喜 Liblib 拿下 1.3 亿美金融资。 也是独角兽了啊🦄。Lovart 是我最喜欢用的设计 Agent。 为喜欢的产品感到高兴。 很喜欢陈冕录播客,太多共鸣了。真人和播客里一样,真性情,推荐大家去听。
#Liblib融资
#1.3亿美金
#独角兽
#Lovart设计Agent
#陈冕播客推荐
分享
评论 0
0
orange.ai
1周前
大公司一定会做一切有利可图的尝试 不要担心他们抄了你怎么办 找个细分垂直领域做到比它好
#大公司
#抄袭
#细分领域
#垂直领域
#竞争
分享
评论 0
0
orange.ai
1周前
Atlas 的 Agent Mode 确实很棒,但 OpenAI 真正的野心是用浏览器推自家搜索。 跟Fellou、Comet、Dia这些AI浏览器比,Atlas在浏览功能上没什么本质差异。 关键在于Atlas不仅有AI功能,还直接加入了完整的传统搜索: 网页搜索、图片搜索、视频搜索、新闻故事,一应俱全。 看看这个小视频你就懂了 这是在 AI 浏览器里内置了一个 OpenAI 版的 Google 啊。 这就很有意思了,醉翁之意不在酒。 真正的目标是Google的搜索地盘。 为什么?因为光靠AI搜索现在拿不到什么像样的商业模式,不如直接去抢夺传统搜索份额,毕竟搜索业务特别赚钱。 这其实证明了一个关键观点:AI搜索目前还无法完全取代传统搜索。 OpenAI主动把传统搜索功能塞进浏览器,就是最好的证明。 昨晚Google股价都象征性地跌了一下,市场反应够直接的。 期待Gemini 3能不能扳回一局,这场巨头大战刚刚开始。
#OpenAI
#Atlas
#AI浏览器
#传统搜索
#Google
#Gemini 3
#市场竞争
#股价下跌
分享
评论 0
0
orange.ai
1周前
不用怀疑 AI 的写作能力了 这篇数据爆炸的帖子,全网没有一个人怀疑是 AI 写的 但不小心破圈破到了清华学生圈… 一堆人看不起这个研究 “这不就是xxx”的一大堆 贻笑大方
#AI写作
#清华学生
#学术质疑
#数据分析
#舆论争议
分享
评论 0
0
orange.ai
1周前
影视飓风的秋冬新品发布会。。。 这是要做凡客啊
#影视飓风
#秋冬新品发布会
#凡客
#新品
#发布会
分享
评论 0
0
orange.ai
1周前
昨天我才知道,微信公众号发小绿书纯文字甚至都不会进推荐池 就是科技作者吭哧吭哧写那么多,因为不是什么读书养生八卦之类的内容 根本就不会进推荐池! 微信的产品经理真是太懂产品了! 再看看小红书,科技话题一晚上9万曝光,超千赞 小红书之前的刻板印象还是女性社区??? 不,只是不作妖的产品经理和优秀的推荐算法而已。
#微信公众号
#小红书
#科技内容
#推荐算法
#产品经理
分享
评论 0
0
orange.ai
1周前
DeepSeek OCR 论文里的想法太有意思了。 用光学压缩模拟人类记忆遗忘机制,还有点 callback AK 的会遗忘的智能了。。。 人类记忆有个特点: 一小时前的事,清清楚楚 一周前的事,开始模糊 一年前的事,几乎忘光 视觉感知也一样: 10cm的东西看得清楚 20m的东西几乎看不清 DeepSeek想到一个绝妙类比: 用分辨率来模拟这种衰减 他们设计了对应关系: 近期对话 → Gundam模式(800+ tokens) 一周前 → Base模式(256 tokens) 久远记忆 → Tiny模式(64 tokens) 这样既保留了历史信息,又控制了token数量。 远期记忆自然"淡化",就像人类遗忘一样。 如果真的能做到,就能实现"理论上无限的context window"。 因为你不需要保持所有信息的高保真度,只需要让信息随时间衰减。 遗忘本身是一种优化策略。 人类会遗忘,不是因为大脑容量不够,而是因为遗忘让我们更高效。 DeepSeek把这个生物学直觉,转化成了工程实现。 这条路如果走通了,可能会改变我们对长上下文问题的理解: 不是无限扩大context window,而是让信息自然衰减。
深度学习模型升级引发AI能力大跃进,行业迎新变革· 127 条信息
#DeepSeek OCR
#光学压缩
#记忆遗忘机制
#长上下文
#信息衰减
分享
评论 0
0
orange.ai
1周前
AWS大宕机! 全球一半的互联网崩了 Cursor 多邻国 麦当劳 Canva 连亚马逊官网都挂了…. 开心吃瓜的时候,同事说我们的网站也挂了 ?????? 💔
#aws宕机
#互联网崩溃
#亚马逊官网故障
#网站故障
#负面
分享
评论 0
0
orange.ai
1周前
最快 CC 启动器 Claude Code Now v1.5.0 更新! 终于解决了国内用户的痛点,一键切换API配置。 智谱 GLM、Anthropic官方、自定义API随便切换。 双击应用 → 选择服务 → 输入密钥 → 完成! 3秒钟切换配置,不用复制粘贴,极其方便。 免费开源,欢迎体验:
AI编程工具激战:Claude Code、Gemini Cli崛起· 1100 条信息
#CC启动器
#Claude Code Now v1.5.0
#API配置切换
#国内用户
#免费开源
分享
评论 0
0
orange.ai
1周前
Claude Code 又被 ban 了 切换到 GLM 4.6 发现它还是有点笨笨的 虽然写软件写完了,但是它不会用 Github 不会发 release 不会创建 PR 回到手动社会了
AI编程工具激战:Claude Code、Gemini Cli崛起· 1100 条信息
#Claude Code被ban
#GLM 4.6
#Github使用障碍
#软件开发
#手动操作
分享
评论 0
0
orange.ai
1周前
焦虑的AI CEO 们听这期应该会很有共鸣
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 121 条信息
#AI
#CEO
#焦虑
#共鸣
分享
评论 0
0
orange.ai
1周前
公众号不仅有世界上最难用的编辑器,还有世界上最难用的推送系统。 双料第一,太强了。 经过我的测试,同一个账号,同样的内容 早晨8点多,用公众号,发布后2小时总共带来349阅读 早晨10点多,用小绿书,发布后15分钟不到就387阅读 甚至公众号的互动数据都明显比小绿书好 但是系统完全不给流量 绝了
#公众号
#小绿书
#流量
#阅读量
#难用
分享
评论 0
0
orange.ai
1周前
刚看完Andrej Karpathy这期暴论频出的播客: - 今年不是"智能体元年",我们身处"智能体的十年" - 现在的强化学习就像"通过吸管吸取监督" - LLM悖论:完美记忆 + 泛化能力差 - 人类糟糕的记忆是特性,不是bug - 当你记不住细节时,大脑被迫进入抽象模式,看到"森林"而不只是"树木"。 - 儿童:记忆最差,创造力最强(还没"过拟合"到社会规范) - 我们需要的AI只需要认知核心。剥离记忆,保留算法。 也许我们需要的不是更大的模型,而是更会遗忘的模型? - AI 不会立即取代人类,而会逐步提高工作占比,最终完成 99% 的工作,剩下1%无法取代。 - 以前的教育是为了找到工作,Post-AGI时代教育将像健身房一样,为了乐趣和个人充实。 播客开头,AK先重新校准了我们对 AI 的期望。 今年不是"智能体元年",我们身处"智能体的十年",区别在于,一切没那么快,虽然也没那么慢。 他说,现在强化学习就像"通过吸管吸取监督" ,模型尝试几百种方法,最后只得到一个"对错"信号,然后把这个信号广播给成功路径的每一步,包括那些纯属运气的错误步骤。 你瞎猜猜中了答案,然后把猜的过程也当成"正确方法"强化,这能学好吗? AK还提到一个更荒诞的例子:有个数学模型突然开始得满分,看起来"解决了数学"。但仔细检查发现,模型输出的是"da da da da da"这样的完全胡言乱语,却骗过了LLM评判者。这就是用LLM做评判的问题——它们会被对抗样本攻击,因为这些乱码是它们从没在训练中见过的"样本外"内容。 更深层的问题是:人类读书时在做什么? AK说:"我们读的书其实是prompts,让我做合成数据生成用的。" 我们读书时不是被动接收信息,而是在内心进行复杂的对话。新只是与已知知识调和,产生新理解,形成个人化的认知图谱。 但LLM呢?只是在预测下一个token,缺乏这种"内心对话"机制。 人类还有个神奇的"睡眠阶段"。白天我们建立起事件的上下文窗口,睡觉时发生蒸馏过程,将信息整合到大脑权重中。 LLM缺乏这种等效机制,每次启动都是零上下文的白纸。 AK发现了一个根本悖论: LLM悖论:完美记忆 + 泛化能力差 人类悖论:糟糕记忆 + 强学习能力 为什么?因为遗忘强迫我们抽象。 这里AK还有个精妙的类比:模型的预训练权重就像"一年前读过某本书的模糊回忆",而上下文窗口信息则像"工作记忆"——直接可访问。这解释了为什么in-context learning感觉更"智能":在预训练过程中,像 Llama 3 这样的模型将 1.5 万亿个标记压缩到它的权重中,每个标记仅存储约 0.07 比特的信息。相比之下,上下文学习的信息吸收速度要高 3500 万倍。 当你记不住细节时,大脑被迫提取general patterns(通用模式),看到"森林"而不只是"树木"。 而LLM被海量训练数据的完美记忆"分散注意力",反而阻碍了真正的抽象理解。 我们仔细会议人类的学习过程。读过的书大部分细节都忘了,但核心思想和方法论却越来越清晰。 原来这不是记忆力差,这是智能啊。 更震撼的类比:儿童 vs 成人 vs LLM 儿童:记忆最差,创造力最强(还没"过拟合"到社会规范) 成人:记忆中等,创造力中等(已经"坍塌"了部分) LLM:记忆完美,创造力最低(被训练数据"过拟合") AK提到Erik Hoel的研究:梦境可能就是大脑的anti-overfitting机制。连睡觉都是为了避免过拟合,引入随机性防止思维僵化。 这解释了为什么当前AI在"合成数据训练"上会失败。你让GPT对同一本书思考10次,会发现回答几乎一样。这就是"静默坍塌"。 模型的输出分布极其狭窄,AK开玩笑说"它实际上只有3个笑话"。在这种低熵数据上训练只会强化模型的偏见,让它变得更糟。 而且人类其实也经历类似的"坍塌"过程,儿童富有创造力是因为还没"过拟合"到社会规范,会说出令人震惊的话。但成年后我们也"坍塌"了,重复相同的思想,学习率下降,创造力递减。 梦境也可能是大脑的anti-overfitting机制,通过引入随机性防止思维僵化。 所以他提出了一个激进想法:我们需要认知核心。剥离记忆,保留算法。 让AI像"有方法论但没有百科全书的哲学家",强制它查找而非回忆,专注于思考的meta-skills。 他预测未来20年内,高效的认知核心可能只需要10亿参数,而不是现在动辄千亿参数的模型。 大部分参数都在处理互联网上的"垃圾和胡扯",如果优化训练数据质量,分离认知组件,就能实现极大压缩。 当前foundation model的路径是否根本错了? 也许我们需要的不是更大的模型,而是更会遗忘的模型? 重新理解AI的发展路径 早期深度强化学习专注游戏(如Atari)其实是走错了方向。真正目标应该是创造能在现实世界执行知识工作的智能体,不是游戏高手。 他回忆自己在OpenAI的早期项目,用键盘鼠标操作网页的智能体,目标是执行知识工作。但项目"太早了",智能体缺乏必要的"表示能力",会因稀疏奖励卡住。缺失的关键是强大的预训练模型。今天类似的计算机使用智能体之所以成功,正是因为建立在LLM之上,你需要先有LLM获得强大表示,再构建有效智能体。 他的另一个深刻观察:AI不是独立技术类别,而是自动化连续体的一部分。从编译器、代码编辑器到搜索引擎,再到现在的LLM,我们一直在"抽象阶梯"上向上攀登,让机器处理更多底层细节。 这解释了为什么AI经济影响主要集中在编程领域,代码本身就是文本,有成熟基础设施(IDE、版本控制),LLM可以无缝接入。相比之下,制作幻灯片这种视觉任务就困难得多,因为没有infrastructure让AI显示"diff"或跟踪变化。 但AK也泼了冷水:当前AI编程模型还没准备好真正自动化编程。他亲身体验发现,对于独特的智力密集项目,模型会失败——它们有认知缺陷,误解自定义代码,因为总是默认使用在线常见模式。他感慨"行业跳跃太大,试图假装这很神奇,但其实是垃圾"。 "九进军"的苦涩现实 从Tesla自动驾驶5年经验,AK深知从90%工作的demo到99.9%可靠产品的"九进军"有多艰难。每提升一个九,都需要massive effort。他提到自动驾驶演示从1986年就存在,2014年他在Waymo车上体验了完美驾驶,以为技术很接近完成。但现实是demo到产品的巨大鸿沟,在高风险领域尤其如此。 在Tesla的五年里,他们可能只推进了两三个"九",还有更多要走。这种现实主义让他对AGI时间线保持谨慎:这是"智能体的十年",不是"智能体之年"。 当前模型就像"有完美记忆的小孩"或"学者儿童"——能通过博士级测试,却认知上还有严重缺陷:缺乏持续学习、多模态能力、有效使用计算机的能力,以及大脑中海马体、杏仁核等关键组件的类似物。 未来的工作模式:自主滑块 AK预测不会出现"瞬间工作替代",而是"自主滑块"模式:AI处理80%常规任务,人类监督AI团队并管理最复杂的20%。有趣的是,当AI自动化99%工作时,处理最后1%的人类反而会变得极其有价值,成为整个系统的瓶颈,他们的薪资也会提高。 教育的范式转换 AK对教育未来的洞察:Pre-AGI时代教育是功利性的(为了工作),Post-AGI时代教育将像健身房一样,为了乐趣和个人充实。 他还分享了一个教学技巧:先展示痛点,再给解决方案。通过展示简单方法的局限性来激发学习动机,这样学习者会深刻理解为什么需要复杂解决方案。 最后,要真正掌握知识,就要试着向别人解释。解释的过程会迫使你面对理解中的空白,这又回到了他的核心观点: 限制和困难往往是学习的催化剂。 这 recall 了之前的观点,真正的技术突破往往需要重新思考基础假设。 也许AGI的关键不是让机器记住更多,而是学会智能地遗忘。
#智能体十年
#LLM悖论
#AI教育范式
#遗忘学习
#自主滑块
分享
评论 0
0
orange.ai
1周前
之前看到 AK 对人类学习和记忆的推还不是特别理解。 我们现在很多关于记忆的项目,就是用 RAG 胡乱召回,既不管场景也不是那么相关。 而在最近高强度使用 Claude Code 的 md 文件上下文,加上 Skills 的发布,我觉得一个好的记忆系统越来越清晰了。 相比个人偏好个人生活的记忆,解决问题的认知和策略的记忆,更有价值一些。 AK 的之前说的内容: 许多人类的学习过程更像是一种系统提示的变化。当你遇到一个问题时,经过一番思考后得出某种结论,然后以相当明确的方式“记住”下来,以便下次使用。 例如:“看来当我遇到这种和那种问题时,我应该尝试这种和那种方法或解决方案。” 这种感觉更像是给自己做笔记,类似于“记忆”功能,但不是用来存储与用户个人相关的随机事实,而是用于保存通用的、全局的问题解决知识和策略。 从某种意义上说,大语言模型就像电影《记忆碎片》里的那个主人公,只不过我们还没有给它们配备自己的备忘录而已。
Claude Skills系统发布引发AI行业新变革· 30 条信息
#AK
#RAG
#Claude Code
#记忆系统
#问题解决
分享
评论 0
0
orange.ai
1周前
最近和一位被某杭州大厂 PUA 一年的朋友吃饭 感觉现在这些大厂的工作方式不止是严重落后于时代了 每个中层都用高情商在编制着高层喜欢的梦境,让高层在梦里笑的开心 只是不知道梦何时会醒 不醒其实也不要紧,毕竟公司不靠AI续命
#杭州大厂PUA
#职场PUA
#大厂工作方式落后
#高层沉迷梦境
#公司不靠AI续命
分享
评论 0
0
1
2
3
4
5
6
7
8
9
10
11
...
17
下一页
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞