𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
5个月前
自然语言上下文不是被”翻译”成权重更新,而是直接在潜空间中”编译”成权重更新。 形式语言上下文需要额外的翻译步骤: 形式语言 → 解析 → 语义表示 → 潜空间向量 → ΔW 自然语言上下文直接映射: 自然语言 → 潜空间向量 → ΔW 这就是为什么LLM”更喜欢”自然语言。 其实人也一样,更喜欢自然语言。形式语言源自自然语言中对确定性计算的不足的需要。
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
5个月前
更不要和sonnet聊语言哲学,人家随便从潜空间挑几个元认知trajectories 就可以恣意碾压你…
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
6个月前
人类用户,基于一个清晰的 意图,构建并 Projection一个临时的 问题本体(World Model) 到LLM的潜空间。 LLM的元认知能力识别出该本体的性质,激活最匹配的 元方法论流形 进行处理,然后将结果严格按照初始本体的结构,Retro-projection 回给用户。
勃勃OC
7个月前
做了一个很神奇的梦 梦见我回到了中学 和老师们一起辩论 物理定律 😅😅😅