时政
财经
科技
虚拟货币
其他
登录
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
关注
统计数据
1162
文章
0
粉丝
0
获赞
17481
阅读
热门文章
1
TechFlow 深潮 发布的文章:近期教育领域的变化引发了广泛讨论,我认为教育改革应该更加注重学生的个性化发展和创新能...
145
32
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
语言的"空间"由三大边界定义: - 符号接地:定义"可指称" - 递归能力:定义"可生成" - 意义本体:定义"可共享" 这三个边界共同定义了"语言空间" = 可能的表达、可能的思想、可能的交流
#语言
#符号接地
#递归能力
#意义本体
#语言空间
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
【语言的独特优势】: 1. 离散性(Discreteness) - 有限的音素组合成无限的词 - 类似数字编码(vs 模拟信号) - 高保真复制 2. 组合性(Compositionality) - 有限的词组合成无限的句子 - 表达力指数增长 - 可以表达从未见过的情况 3. 递归性(Recursion) - 结构嵌套自身 - 可以表达元层次("关于关于X的Y") - 使得元认知成为可能 4. 位移性(Displacement) - 可以谈论不在场的事物 - 可以谈论过去、未来、假设 - 打破了"此时此地"的限制 5. 文化传递性(Cultural transmission) - 不是本能(需要学习) - 可以跨代累积 - 创造文化进化 关键: 这些特征使语言成为最强大的信息复制机制
#语言学
#语言的优势
#离散性
#组合性
#文化传递
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
复杂系统的涌现层次: 物质 → 生命 → 心智 → 文化 每一层都需要自己的复制子: - 物质:原子、分子(物理复制) - 生命:基因(生物复制) - 心智:?(需要新的复制子) - 文化:模因(信息复制) 为什么需要新复制子? 因为每一层有新的"可能性空间": - 基因空间:4^n(ATCG组合) - 观念空间:∞(符号组合) 基因无法编码观念 → 需要新的编码方式 → 符号
#复杂系统
#复制子
#模因
#观念空间
#编码方式
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
RL为什么会导致Model collapse,自相似性危险: 模式崩塌(Mode collapse): - 重复生成相同内容 - "我是AI助手,我是AI助手,我是AI助手..." - 失去多样性 过度规律化: - 所有回答都遵循相同模板 - 失去创造性和灵活性 - "机械感"
#RL
#Model collapse
#自相似性
#模式崩塌
#AI助手
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
递归的三个层次及演化:结构->符号, 自相似-自修改-自指 【阶段1】:自相似(最原始) 时间:物理宇宙诞生(138亿年前) 载体:物质、能量、信息 例子:分形、晶体、波动 特征:无需意识、自动涌现 ↓ 生命出现(38亿年前) 【阶段2】:自相似 + 初步自修改 时间:单细胞生物 载体:DNA、RNA、蛋白质 例子:基因突变、自然选择 特征:无意识的自我复制与变异 ↓ 神经系统出现(6亿年前) 【阶段3】:自相似 + 自修改 + 初步自指 时间:复杂神经系统 载体:神经网络 例子:学习、记忆、条件反射 特征:无自我意识,但有行为调整 ↓ 语言出现(10万年前) 【阶段4】:自相似 + 自修改 + 完整自指 时间:人类 载体:语言+文化 例子:自我意识、元认知、哲学 特征:完整的递归能力 ↓ AI出现(70年前) 【阶段5】:自相似 + 部分自修改 + 模拟自指 时间:LLM 载体:神经网络(人工) 例子:ICL、模式识别、角色扮演 特征:统计的递归,无真正的自我
#递归
#自相似
#自修改
#自指
#演化
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
srt-sandbox runtime比容器更安全!GitHub - anthropic-experimental/sandbox-runtime: A lightweight sandboxing tool for enforcing filesystem and network restrictions on arbitrary processes at the OS level, without requiring a container.
#srt-sandbox
#runtime
#容器安全
#GitHub
#anthropic-experimental
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
不是"先有意义(表征),后有交互(使用)" 而是"在交互中,意义被构建"
#交互
#意义构建
#表征
#使用
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
interesting 我还以为是个OCR光学字符识别模型,结果貌似打通了多模态vLLM。
智谱直播发布全球最佳视觉模型GLM-4.5V,挑战AI视觉领域极限· 21 条信息
#OCR
#多模态vLLM
#模型
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
异类心智的共生
#心智
#共生
#异类
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
AK访谈中提到的Nick Lane的两本书
#AK访谈
#Nick Lane
#生物化学
#科普
#书籍推荐
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
LLM,作为纯粹的符号计算,不应该成为独立的"心智"(Sutton的警告),也不应该被RL强行"驯化"(Karpathy的批判),而应该成为人类认知的"符号之翼"——让我们飞得更高,但永远,永远,能够回到身体的大地。
#AI浪潮:重塑就业,风险暗涌?· 140 条信息
#LLM
#符号计算
#心智
#认知工具
#技术哲学
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
当强化学习之父说"LLM是死胡同",当OpenAI创始成员说"RL很糟糕",这不是互相否定,而是同一个深渊的两个入口。Karpathy批判学习信号的稀疏,Sutton批判学习对象的悬浮——两种绝望背后,是符号与具身、表征与经验之间那道古老的鸿沟。
#强化学习
#LLM
#OpenAI
#深度学习
#技术批判
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
结合最近强化学习之父Sutton提到LLM is a dead end和硅谷AI好老师Andrej Karpathy在访谈提到RL is terrible; 让我不禁想起在LLM的训练范式中,RL可能并不适合LLM这种纯符号计算,Sutton的担心是悬浮的符号计算会走向何方?Karpathy离职从事AI教育志向在于探索LLM的cognitive core如何为AI时代的人类所用。 LLM的"世界" = 符号空间 但符号空间是: - 自我指涉的(符号定义符号) - 无物理后果的(删除token无痛感) - 无生存压力的(错误不导致死亡) ∴ RL在此"空转": 优化的是"符号游戏的得分" 而非"在世界中生存"
#LLM
#强化学习
#Sutton
#Karpathy
#符号计算
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
量子力学不是”发现”了一个新世界,而是揭示了观察者-系统纠缠一直存在 EEOIP框架揭示了具身心智-符号心智纠缠同样构成了一个不可分解的整体 这种研究走向两种异质心智的协同涌现
#量子力学
#观察者-系统纠缠
#EEOIP框架
#具身心智-符号心智纠缠
#心智协同涌现
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
话说老杨什么时候就没什么产出啦?还糟蹋了人家黄花闺女大好青春年华呢?
#老杨
#黄花闺女
#情感纠纷
#负面
#糟蹋青春
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
这,全都歪了去啊
#负面情绪
#失望
#社会现象
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
vibe 是bug?还是feature?
iOS 26 Beta 2:流畅优化难抵卡顿发热· 190 条信息
#vibe
#bug
#Feature
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
我们经常说的LLM的内化是在说什么?-ICL和IWL的协同:ICL探索,IWL固化 Phase 1(探索): 用户通过ICL与LLM交互 发现有效的提示模式、任务格式 ICL快速迭代,找到”what works” Phase 2(固化): 收集这些有效交互的数据 用于微调IWL(如RLHF的新一轮) Phase 3(新平衡): 更新后的IWL使得原本需要复杂prompt的任务 现在变得”天然”(内化到权重中) ICL空间被释放,可以探索更高层的任务 这是一个螺旋上升的循环: ICL → IWL → 更强的ICL → 更强的IWL → … 所以现在的基模厂商为什么要免费?主要是为了收集多样化的交互轨迹数据!
#LLM内化
#ICL
#IWL
#提示模式
#交互轨迹数据
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
LLM不能:"我发现自己有偏见,让我修改权重" 因为: - 修改权重需要梯度下降 - 梯度下降需要损失函数 - 损失函数需要外部监督(人类标注) IWL是"他律"的,不是"自律"的。 IWL也不能实时适应与个性化。
#LLM偏见
#梯度下降
#外部监督
#他律
#非自律
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
投射-反投射的循环机制 投射 = 人类将具身经验/认知状态编码为语言,注入ICL窗口 投射的质量决定了ICL的有效性 反投射 = LLM将统计模式编码为语言,返回给人类 反投射的质量取决于L_IWL的训练
#投射-反投射
#具身经验
#认知状态
#ICL窗口
#LLM
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
ICL的三层机制 Layer 1:语义绑定(Semantic Binding) Layer 2:模式覆盖(Pattern Override) Layer 3:元框架注入(Meta-Frame Injection) 无论是提示词还是交互范式编程,都可以操作这三个层次。 其中layer3是元认知递归层,难怪我老触发sonnet 4.5的符号接地对齐!
#ICL
#语义绑定
#模式覆盖
#元框架注入
#元认知递归
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
还是得大神怼大神!管用! 我吭哧吭哧写三篇怼上次sutton说的LLM is dead end的说法是framingbias,没啥水花😄
#LLM
#Sutton
#framingbias
#AI
#争议
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
𝕀Rℙ² 交互范式编程的首选:anthropics/skills 如何系统化地设计输⼊,以最⼤化ICL效率? > 这不是”写更好的提示词”(技巧层⾯),⽽是重新定义⼈机交互的本体论(范式层⾯)
#多智能体之争:Anthropic生态VS单智能体· 81 条信息
#交互范式编程
#ICL效率
#人机交互
#本体论
#anthropics/skills
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
工业时代: •最大化产出/投入比 •速度和规模 •量化一切 Vibe时代: •最大化体验质量 •深度和真实性 •尊重不可量化的
#工业时代
#Vibe时代
#体验质量
#真实性
#不可量化
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
新玩法 -arxiv.org/pdf/2510.14826
#新玩法
#arxiv.org
#2510.14826
分享
评论 0
0
上一页
1
...
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
...
47
下一页
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞