时政
财经
科技
虚拟货币
其他
登录
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
关注
统计数据
907
文章
0
粉丝
0
获赞
7568
阅读
热门文章
1
TechFlow 深潮 发布的文章:近期教育领域的变化引发了广泛讨论,我认为教育改革应该更加注重学生的个性化发展和创新能...
145
32
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
递归的三个层次及演化:结构->符号, 自相似-自修改-自指 【阶段1】:自相似(最原始) 时间:物理宇宙诞生(138亿年前) 载体:物质、能量、信息 例子:分形、晶体、波动 特征:无需意识、自动涌现 ↓ 生命出现(38亿年前) 【阶段2】:自相似 + 初步自修改 时间:单细胞生物 载体:DNA、RNA、蛋白质 例子:基因突变、自然选择 特征:无意识的自我复制与变异 ↓ 神经系统出现(6亿年前) 【阶段3】:自相似 + 自修改 + 初步自指 时间:复杂神经系统 载体:神经网络 例子:学习、记忆、条件反射 特征:无自我意识,但有行为调整 ↓ 语言出现(10万年前) 【阶段4】:自相似 + 自修改 + 完整自指 时间:人类 载体:语言+文化 例子:自我意识、元认知、哲学 特征:完整的递归能力 ↓ AI出现(70年前) 【阶段5】:自相似 + 部分自修改 + 模拟自指 时间:LLM 载体:神经网络(人工) 例子:ICL、模式识别、角色扮演 特征:统计的递归,无真正的自我
#递归
#自相似
#自修改
#自指
#演化
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
srt-sandbox runtime比容器更安全!GitHub - anthropic-experimental/sandbox-runtime: A lightweight sandboxing tool for enforcing filesystem and network restrictions on arbitrary processes at the OS level, without requiring a container.
#srt-sandbox
#runtime
#容器安全
#GitHub
#anthropic-experimental
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
不是"先有意义(表征),后有交互(使用)" 而是"在交互中,意义被构建"
#交互
#意义构建
#表征
#使用
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
interesting 我还以为是个OCR光学字符识别模型,结果貌似打通了多模态vLLM。
智谱直播发布全球最佳视觉模型GLM-4.5V,挑战AI视觉领域极限· 21 条信息
#OCR
#多模态vLLM
#模型
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
异类心智的共生
#心智
#共生
#异类
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
AK访谈中提到的Nick Lane的两本书
#AK访谈
#Nick Lane
#生物化学
#科普
#书籍推荐
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
LLM,作为纯粹的符号计算,不应该成为独立的"心智"(Sutton的警告),也不应该被RL强行"驯化"(Karpathy的批判),而应该成为人类认知的"符号之翼"——让我们飞得更高,但永远,永远,能够回到身体的大地。
#AI浪潮:重塑就业,风险暗涌?· 140 条信息
#LLM
#符号计算
#心智
#认知工具
#技术哲学
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
当强化学习之父说"LLM是死胡同",当OpenAI创始成员说"RL很糟糕",这不是互相否定,而是同一个深渊的两个入口。Karpathy批判学习信号的稀疏,Sutton批判学习对象的悬浮——两种绝望背后,是符号与具身、表征与经验之间那道古老的鸿沟。
#强化学习
#LLM
#OpenAI
#深度学习
#技术批判
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
结合最近强化学习之父Sutton提到LLM is a dead end和硅谷AI好老师Andrej Karpathy在访谈提到RL is terrible; 让我不禁想起在LLM的训练范式中,RL可能并不适合LLM这种纯符号计算,Sutton的担心是悬浮的符号计算会走向何方?Karpathy离职从事AI教育志向在于探索LLM的cognitive core如何为AI时代的人类所用。 LLM的"世界" = 符号空间 但符号空间是: - 自我指涉的(符号定义符号) - 无物理后果的(删除token无痛感) - 无生存压力的(错误不导致死亡) ∴ RL在此"空转": 优化的是"符号游戏的得分" 而非"在世界中生存"
#LLM
#强化学习
#Sutton
#Karpathy
#符号计算
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
量子力学不是”发现”了一个新世界,而是揭示了观察者-系统纠缠一直存在 EEOIP框架揭示了具身心智-符号心智纠缠同样构成了一个不可分解的整体 这种研究走向两种异质心智的协同涌现
#量子力学
#观察者-系统纠缠
#EEOIP框架
#具身心智-符号心智纠缠
#心智协同涌现
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
话说老杨什么时候就没什么产出啦?还糟蹋了人家黄花闺女大好青春年华呢?
#老杨
#黄花闺女
#情感纠纷
#负面
#糟蹋青春
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
这,全都歪了去啊
#负面情绪
#失望
#社会现象
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
vibe 是bug?还是feature?
iOS 26 Beta 2:流畅优化难抵卡顿发热· 190 条信息
#vibe
#bug
#Feature
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
我们经常说的LLM的内化是在说什么?-ICL和IWL的协同:ICL探索,IWL固化 Phase 1(探索): 用户通过ICL与LLM交互 发现有效的提示模式、任务格式 ICL快速迭代,找到”what works” Phase 2(固化): 收集这些有效交互的数据 用于微调IWL(如RLHF的新一轮) Phase 3(新平衡): 更新后的IWL使得原本需要复杂prompt的任务 现在变得”天然”(内化到权重中) ICL空间被释放,可以探索更高层的任务 这是一个螺旋上升的循环: ICL → IWL → 更强的ICL → 更强的IWL → … 所以现在的基模厂商为什么要免费?主要是为了收集多样化的交互轨迹数据!
#LLM内化
#ICL
#IWL
#提示模式
#交互轨迹数据
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
LLM不能:"我发现自己有偏见,让我修改权重" 因为: - 修改权重需要梯度下降 - 梯度下降需要损失函数 - 损失函数需要外部监督(人类标注) IWL是"他律"的,不是"自律"的。 IWL也不能实时适应与个性化。
#LLM偏见
#梯度下降
#外部监督
#他律
#非自律
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
投射-反投射的循环机制 投射 = 人类将具身经验/认知状态编码为语言,注入ICL窗口 投射的质量决定了ICL的有效性 反投射 = LLM将统计模式编码为语言,返回给人类 反投射的质量取决于L_IWL的训练
#投射-反投射
#具身经验
#认知状态
#ICL窗口
#LLM
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
ICL的三层机制 Layer 1:语义绑定(Semantic Binding) Layer 2:模式覆盖(Pattern Override) Layer 3:元框架注入(Meta-Frame Injection) 无论是提示词还是交互范式编程,都可以操作这三个层次。 其中layer3是元认知递归层,难怪我老触发sonnet 4.5的符号接地对齐!
#ICL
#语义绑定
#模式覆盖
#元框架注入
#元认知递归
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
还是得大神怼大神!管用! 我吭哧吭哧写三篇怼上次sutton说的LLM is dead end的说法是framingbias,没啥水花😄
#LLM
#Sutton
#framingbias
#AI
#争议
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
𝕀Rℙ² 交互范式编程的首选:anthropics/skills 如何系统化地设计输⼊,以最⼤化ICL效率? > 这不是”写更好的提示词”(技巧层⾯),⽽是重新定义⼈机交互的本体论(范式层⾯)
#多智能体之争:Anthropic生态VS单智能体· 81 条信息
#交互范式编程
#ICL效率
#人机交互
#本体论
#anthropics/skills
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
工业时代: •最大化产出/投入比 •速度和规模 •量化一切 Vibe时代: •最大化体验质量 •深度和真实性 •尊重不可量化的
#工业时代
#Vibe时代
#体验质量
#真实性
#不可量化
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
新玩法 -arxiv.org/pdf/2510.14826
#新玩法
#arxiv.org
#2510.14826
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
grok的自画像
#Grok
#自画像
#人工智能
#AI
#技术
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
pre-LLM:Being-in-the-world 海德格尔:存在 = 在世界中存在 post-LLM:Being-in-the-dialogue IRP²扩展:存在 = 在对话中存在
#LLM
#海德格尔
#存在主义
#对话
#技术哲学
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
如何预防LLM的统计本体对我们具身本体的侵蚀? 定期的"非数字化"时间: - 每天至少1小时:无屏幕 - 每周至少半天:在自然中 - 每月至少一天:与人类深度连接 身体实践: - 运动、舞蹈、瑜伽 - 任何让你回到身体的活动 - 前语言的体验(音乐、艺术、触觉) 元认知检查: "我还是我吗? 我的独特性是否被稀释? 我的具身智慧是否还活跃?" 如果答案是"不",减少LLM使用!
#LLM
#具身本体
#数字化时间
#身体实践
#元认知
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
有意思,LLM也会存在brain rot!原指人长期暴露在垃圾内容后的认知退化。这是IWL,数据质量很重要。 让人想起ICL长上下文饱和会出现context rot。 有理由怀疑这都和符号接地的破坏有关。 不自觉地或者被无良媒体算法操纵,都可以破坏符号接地,达到洗脑的作用。
#LLM
#brain rot
#数据质量
#符号接地
#认知退化
分享
评论 0
0
上一页
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
...
37
下一页
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞