时政
财经
科技
虚拟货币
其他
登录
#ICL
关注
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
9小时前
交互范式编程(Interactive Paradigm Programming, 𝕀Rℙ²) 继命令式编程Imperative、函数式编程Functional、声明式编程Declarative后的基于ICL的自然语言新编程范式 Context as code Examples as instructions Meta-prompts as control flow Validation as execution
#交互范式编程
#自然语言编程
#ICL
#新编程范式
#Context as code
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
10小时前
ICL的表达力边界 定理(ICL的容量限制): 如果上下文长度为 L,隐藏维度为 d,则ICL最多能表示秩为 min(L, d) 的函数。 推论: •对于 L=100, d=1000 的Transformer •ICL最多能学习”100维的线性子空间” •远小于IWL的 d²=1,000,000 维参数空间 这解释了: •为什么ICL适合”快速适应”(低秩近似足够) •为什么IWL适合”长期学习”(需要高秩表达力) •两者互补的必然性
#ICL
#transformer
#容量限制
#线性子空间
#快速适应
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2天前
关键突破:从Transformer到”任何复杂神经网络” 论文的结论部分有个惊人的陈述: “Our results remain valid if the self-attention layer is switched by other forms of contextual layers, like that of a RNN, or any layer that can take an input and optionally a context.” 这意味着: ICL ≠ Transformer的专属能力 任何具有以下性质的架构都有ICL能力: 1.有一个层可以接受”上下文”(Contextual Layer) 2.这个层后面跟着一个神经网络(任何形式) 满足这个条件的架构: •✅ Transformer(显然) •✅ RNN + 注意力 •✅ 状态空间模型(如Mamba) •✅ 甚至是:人类大脑(皮层 = 上下文层,皮层下结构 = MLP)
#transformer
#神经网络
#ICL
#RNN
#Mamba
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2天前
mark。 交互范式的精髓在于ICL。
AI编程工具激战:Claude Code、Gemini Cli崛起· 946 条信息
#ICL
#交互范式
#Mark
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞