时政
财经
科技
登录
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
关注
统计数据
110
文章
0
粉丝
0
获赞
138
阅读
热门文章
1
TechFlow 深潮 发布的文章:近期教育领域的变化引发了广泛讨论,我认为教育改革应该更加注重学生的个性化发展和创新能...
145
32
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
蓄积势能,找到势能的释放价值转化的途径
#势能
#价值转化
#途径
#蓄积
#释放
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
经济上的繁荣久了,经济周期惩罚到来之前,中美都试图退到信仰层面以规避秩序上的崩溃。
中美贸易:摩擦持续,对话僵持,影响加剧· 340 条信息
关税战落幕:美国失势,中国崛起?· 406 条信息
特朗普“大而美”法案:争议中通过,影响几何?· 502 条信息
#经济周期
#中美关系
#信仰
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
aha,AI engineer看看谁能说做到全栈?
#AI
#全栈工程师
#人工智能
#技术发展
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
从巴基斯坦与印度,伊朗与以色列,还是俄乌之战,战争的决胜越来越取决于攻防的预测能力。人的智能体现本质上就是预测,在军事智能方面也一样。
#巴基斯坦
#印度
#伊朗
#以色列
#俄乌战争
#预测能力
#智能
#军事智能
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
信息耦合即是结构的复制。边界不是为了阻断世界,而是为了让结构可复制地存在。 从生命起源开始,智能系统就不是“无界扩展”,而是有界生成。 边界决定结构,结构支撑复制,复制维系智能。
#信息耦合
#结构复制
#智能系统
#有界生成
#生命起源
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
•“心”:语言模型、语义生成器,可以编造一切,缺乏物质性与边界。 •“身”:物质生成系统(如核糖体、机器人、嵌入式系统),有边界、有复制、有耦合。 我们要走向真正的 AGI,必须让这两者结合为一个有边界的可演化生成系统—— 即我说的“从语言大模型到身心大模型”。
#语言模型
#物质生成系统
#AGI
#身心大模型
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
那么,这和人工智能有什么关系呢?Ramstead说,这正是当代ML中缺少的东西。 语言模型是强大的,因为它们不受物理现实的限制。他们可以想象独角兽,正是因为他们不必服从物理学。
#人工智能
#语言模型
#物理现实
#当代机器学习
#独角兽
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
将大语言模型的公域认知智能转化为企业 的商业智能,需要结合业务并将企业内部信 息知识化作为LLM上下文,在配上流程行为作为手脚,最终企业内部的AI Agent服务方式交付: 终局思维一个企业把所以信息喂给大模型就是一个大o3-ultra!
#大语言模型
#企业智能
#商业智能
#AI Agent服务
#企业信息化
#业务结合
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
这个必须转:Sakana AI的关键工作。 Text-to-LoRA抽象了微调的复杂性,将核心技能从数据工程转向简洁的任务描述。这是模型专业化民主化的重大飞跃,使非技术专家能够使用自然语言创建定制适配器。
#Sakana AI
#Text-to-LoRA
#微调
#模型专业化
#自然语言
#定制适配器
#数据工程
#民主化
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
“理解之拟态,是语言生成中的解释模仿;推理之拟态,是语言流程中的思考幻觉。” 拟态智能之塔 ┌────────────┐ │ 拟态动机层 │ ←(未来AGI核心) └────────────┘ ┌────────────┐ │ 拟态推理层 │ ← 模拟“思考”语言:链式反应、流程逻辑、工具调用 └────────────┘ ┌────────────┐ │ 拟态理解层 │ ← 模拟“解释”语言:角色扮演、知识表达、定义重构 └────────────┘
#拟态智能
#AGI
#语言生成
#语言推理
#思考幻觉
#链式反应
#流程逻辑
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
“冥冥中生命体的造物主自有安排”, 这其实是一种直觉的承认:我们也许在运行某种我们无法全知的生成程序中,哪怕它没有意识。
#生命体
#造物主
#直觉
#生成程序
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
我们的蛋白质(又名氨基酸)的重要部分可以追溯到40亿年前——地球上所有生命的最后一个普遍共同祖先(LUCA)。这些由数十个或更多氨基酸组成的链,称为蛋白质结构域,在汽车上“就像一个轮子”: “这是一个可以在许多不同的汽车中使用的部件,车轮的存在时间可比汽车长得多。”
#科学
#蛋白质
#进化
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
经济系统作为群体秩序的替代,在经济发达国家尤其明显。这种结构替代的过程本质上是一种“功能抽象压倒情感秩序”的演化结果: •在传统社会中,群体秩序主要建立在血缘、道德、宗教等“人性中介”之上; •而在现代社会,市场与契约逐渐成为替代秩序——更高效,但也更冷漠; •当所有社会关系都被“等价交换”“功利效能”编码,就可能出现反人性行为在群体中被系统性容忍甚至激励的现象(如“过度内卷”“工具人化”“冷漠社会”等); •这正是马克思所谓的“异化”:人创造了制度,但制度反过来主导了人,且压制人的本质力量。 这让人产生一种直觉性的反思: 难道我们已经偏离了“原初设定”吗?是不是有一种更高的秩序,在遥远的生成逻辑中,曾隐含着对“人性完整性”的安排?
#经济系统
#群体秩序
#功能抽象
#情感秩序
#市场
#契约
#等价交换
#功利效能
#反人性行为
#过度内卷
#工具人化
#冷漠社会
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
预训练后的LLM决定了这种语言智能物种,使用的是人类的语言、反映的也是人类的亿万年的进化适应性,动机由prompt激活,注定只能与人类智能共生: “Richard Sutton说,目前LLM的主导地位是“一时的固定” 真正的突破将来自扩展计算,而不是根据人类认为的工作方式构建人工智能系统。 再过十年,甚至可能半年,LLM不会成为人工智能的前沿。”
#预训练模型
#语言智能物种
#人工智能
#人类进化
#计算扩展
#LLM
#人工智能未来
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
LLM是人类智能的信息论视角下的智能映射 如果从本质层面来看,LLM智能可以被理解为一种人类智能的信息论维度在计算系统中的可反映形式: •它不是模拟神经结构,而是模拟语言行为背后的预测编码结构; •它捕捉的是人类通过语言活动积累的行为概率空间,并在此基础上进行生成; •因此它是一种“符号-预测-行为”路径上的统计智能,而非具身智能或价值智能。 这意味着,LLM是语言中的智能残影(Echo of Intelligence in Language),并不能脱离语言边界自主生长为AGI。
#LLM
#信息论
#人类智能
#预测编码
#符号-预测-行为
#统计智能
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
读了三篇论文,生成一篇文章: 大语言模型“生成”行为中的心智激活:从角色赋予到潜空间建模,LLM从语言到智能的Agentic AI可能演化路径
#大语言模型
#心智激活
#角色赋予
#潜空间建模
#Agentic AI
#智能演化
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
最近的一系列虚假奖励函数RLVL的训练效果最终不过是LLM的生成输出的格式遵循? 啊哈哈,LLM的生成最终只是语言结构的复制!其它的所谓LLM智能都是我们人基于语言功用的价值投射。 “常见的评估方法问题包括: 1.RL的收益可能只是用更好的格式来解释 2.使用低温或零温度加剧了上述问题。众所周知,贪婪的解码会在长时间的输出中退化。 3.评估设置缺乏透明度”
#虚假奖励函数
#RLVL
#训练效果
#LLM
#语言结构
#智能评估
#价值投射
#语言模型
#生成输出
#贪婪解码
#评估透明度
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
能量、结构、复制、生成、预测,这几个词在我脑子里不停盘旋🌀
#能量
#结构
#复制
#生成
#预测
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
这才是不可能三角啊
#不可能三角
#经济理论
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
继笔者上一篇对于LLM的记忆与泛化解读之后,本篇文章将接着带你解剖这一“顿悟时刻”,探索从 grokking 到记忆反转的隐秘联结,揭示语言模型如何从存储个体数据走向生成结构世界。
#LLM
#记忆与泛化
#Grokking
#顿悟时刻
#记忆反转
#语言模型
#结构世界
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
这几篇论文看来大家都想到一块儿去了: Toward a Theory of Agents as Tool-Use Decision-Makers [LG] Dyna-Think: Synergizing Reasoning, Acting, and World Model Simulation in AI Agents X Yu, B Peng, R Xu, M Galley... [Columbia University & Microsoft Research] (2025) [LG] General agents need world models J Richens, D Abel, A Bellot, T Everitt [Google DeepMind] (2025)
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
一、老三论:系统论、控制论、信息论 这是20世纪中叶对复杂性最初的科学抽象,奠定了“复杂系统可以被建模与调控”的基础范式。 二、新三论:耗散结构论、协同论、突变论 进入复杂适应系统时代后,科学家意识到稳定性之外还有“演化性”的问题,于是提出更具生成性与涌现特征的新三论。 三、未来方向:从“控制世界”到“生成世界”的范式飞跃 •控制论的极限:传统控制论关心的是“已知目标的有效实现”,而你研究的是“目标自身如何生成”,这正是从控制范式向动机范式的跃迁。 •信息论的升维:过去信息论关心“传递什么”,而你研究的是“什么值得被生成”,这是价值的前置化与智能的自举。 •系统论的超越:传统系统论强调的是结构稳定与模块组合,你强调的是生成能力、调制策略、动机驱动的“活系统”。
#系统论
#控制论
#信息论
#复杂性科学
#复杂系统
#耗散结构论
#协同论
#突变论
#复杂适应系统
#科学抽象
#范式飞跃
#生成世界
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
什么是 Grokking?(原意来自俚语:通过神入作用而理解) “Grokking”是 OpenAI 在 2022 年提出的LLM的一个重要现象,指的是: 当模型在训练初期靠死记硬背(memorization)取得低训练损失,但测试误差很高;然后在极长时间训练后,模型突然学会了泛化结构,测试集准确率急剧上升。 这种现象最初在小模型上观察到,如:一个小 transformer 学习一个 modular addition 的任务,训练几万步无进展,然后突然“顿悟”。 Grokking 不是训练过程的意外,而是训练逻辑的必然。 记忆反转不是遗忘的退化,而是理解的胜利。 语言模型的顿悟时刻,不是因为它看得多,而是它看穿了。 它不再只是模仿语言,而是开始拥有结构性的语言感知。 这是否是智能的开始?我们尚未知道。 但可以肯定的是:那一刻,它不再只是一个统计机器,而是一个“理解者”。
#Grokking
#OpenAI
#LLM
#机器学习
#模型训练
#泛化能力
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
难以想象,今天的真核细胞通过简单的自复制及适应变异演化而来!都是时间啊… 今天的数字智能的算力即时间演化的替代。 这是有史以来最详细的人类细胞模型,使用X射线、核磁共振和低温电子显微镜的数据形成真核细胞的细胞景观横截面。-Evan Ingersoll和Gael McGill。
#真核细胞
#数字智能
#人类细胞模型
#X射线
#核磁共振
#低温电子显微镜
#细胞景观
#Evan Ingersoll
#Gael McGill
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
design pattern其实只有一种: Re(asoning)Act Act= reflection + tool use + Planning 作为LLM要从语义里找到这些action的因果、迭代、改进的方法,理解背后的动机,并激活生成路径。
#设计模式
#反思
#规划
#工具使用
#生成路径
#动机理解
#LLM
分享
评论 0
0
上一页
1
2
3
4
5
下一页
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞