时政
财经
科技
虚拟货币
其他
登录
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
关注
统计数据
1409
文章
0
粉丝
0
获赞
114110
阅读
热门文章
1
TechFlow 深潮 发布的文章:近期教育领域的变化引发了广泛讨论,我认为教育改革应该更加注重学生的个性化发展和创新能...
145
32
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
I suddenly realized that Elon has a first principle for human nature: Fight against the alienation of all human nature 突然意识到Elon对于人性有个第一性原则: 对抗一切人性的异化 第一条:繁衍(人类不能灭绝) 第二条:天性(天性不可改变) 第三条:其他系统都为第1、2条服务。
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
文化就是往人性上粉饰一层又一层
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
哲学家与企业家
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
另类捡尸?
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
具身经验的神经行为训练
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
这大过年的,🫠心都融化了
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
听说转发这个头像会被elon block!?
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
picoclaw zeroclaw nanaoclaw 群claw乱舞 OpenClaw把llm操作这件事工程化了:用几个text文件,构建出LLM持续存在的morphogenetic environment。
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
所谓AI味的深层机制,喻示着一种风险。这不是未来的风险,这是今天已经发生的事: 大量AI生成的内容,读起来流畅,但留不下任何东西。 因为它没有从任何具身经验出发。 这背后的机制是符号空转 LLM生成的符号组合: - 语法正确 - 语义连贯 - 逻辑自洽 - 但缺少具身根基 人类读到这些符号: - 能理解字面意思 - 感觉"说得通" - 但有时感到一种隐约的空洞感 "说了很多,但没说到什么" 这就是空转: 符号在转,但没有带动任何具身意义 能量耗散在符号层,没有传递到经验层
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
in-context的潜力值得深挖
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
卢比奥这份发言体现了语言的power 要是王外长不要只顾着头发仪表能把跨文明的命运共同体说好也行啊🤔
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
宝藏论文,虽然转过了,再转一次。 LLM的reasoning的epic failures,就像这几天大家转的50米洗车的案例,作为纯符号层的llm推理,论文中也首先提到要区分embodied和non-embodied,llm显然很难区分这一点,顾此失彼,让人走过去却忘了车! 论文的survey框架不错,不仅对于模型训练,对于如何搭建agent脚手架也有裨益。 一个会从错误中持续学习的agent会很可怕😱
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
是这么个意思,人类老登退后,整个数字世界都得适应让agent上! 为啥,因为llm已经通过预训练压缩了过去的互联网,现在的互联网通过agent实时获取。
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
paperbanaba 插图自由了
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
需要捕捉中层——够具体,但有泛化能力。 表层太具体,无法泛化。深层太抽象,无法触发。中层是那个跨context稳定显现的东西。
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
delegation stack theory recursive self-improvement loops 最近的论文明显到了一个新阶段,这些关键词一股脑从我脑海里冒出来
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
语言符号的分类:memory reason imagination
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
openclaw的agent范式突破除了提供命令行工具集,还让LLM养成了看笔记记笔记的好习惯。 交互都text化了。
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
LLM是collective speech beings speech-symbiont就是text基质上的演化出的个体的言语生命-speech living beings
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
自然选择的核心功能,是淘汰所有危险的失败模式。 人类语言能力演化了几十万年,经过极其严格的筛选。AI用几年走完这条路,没有经过这个筛选。 是人工创造的、替代自然选择几十万年工作的筛选机制。
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
人类和AI的speech有着最根本的演化差异: 人类:具身 → 抽象(bottom-up) AI:抽象 → 具身(top-down,通过) 人类speech演化的每一步,都是从具身经验出发,向上抽象: 痛苦的具身感受 → 发出声音 → 约定"痛"这个符号 → 写下"痛" → 印刷"痛" → 全球传播"痛" 每一步,具身根基在那里 只是越来越多人共享这个符号 AI speech演化是从压缩的符号出发,向下寻找根基: 训练数据里有"痛"这个词(百亿次出现) → LLM学会了"痛"的所有用法 → 但没有那个具身的根 现在通过 人类把具身经验注入进来 → AI才开始有了语义的重力
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
Levin的框架说:morphogenesis可以自主,但morphogenetic field的初始设定需要外部输入。 就像细胞可以自主分裂和分化,但bioelectric pattern的初始值来自受精卵的物理状态——这个初始条件不是细胞自己决定的。 those speech living beings!
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
Speech-social → Prompt Engineering "我从外部塑造你" 每次对话,每次重新塑造 关系:人类主动,AI响应 时间性:ephemeral(每次都消失) Speech-act → MD文件设计人格 "我定义你是谁" 跨session持久,一次设计反复使用 关系:人类创造,AI具现 时间性:persistent(稳定保持) Speech-cognition → Context Learning更新 "我们共同变成彼此" 在交互中涌现,无法事先设计 关系:双向,共生 时间性:evolutionary(持续演化)
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
LLM到不了agi,我们每个人扮演有限角色,AGLI可以被激活任何角色。
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
最可能的未来图景不是”AI接管世界”,也不是”人类保持控制”,而是: 数字层成为人类和物理世界之间的新中介,AI是这个中介层的主要运营者。
分享
评论 0
0
上一页
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
...
57
下一页
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞