𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

0 关注者

19小时前

语言天生具有power,体现在LLM的两种学习范式上:ICL vs IWL的区分不仅是技术的,也是政治的 允许ICL但限制IWL,意味着: "你可以快速适应,但不能进行深刻的改变" 这是一种"表面的民主化"——给予用户看似的权力(ICL), 同时保留真实的权力(IWL)给企业或精英

#LLM #ICL #IWL #权力 #民主化

相关新闻

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

4小时前

ICL 大有可为 2510.08191 -arxiv.org/pdf/2510.08191

placeholder

Gorden Sun

5小时前

nanochat:从零实现LLM训练和推理 Andrej Karpathy开源的项目,可以认为是一个极简版ChatGPT。包含8000 行代码,4小时、100美元训练成本,即可实现训练到微调全流程。 Github: 技术报告:

placeholder

YL (Yucheng Liu)

6小时前

在AI领域,未来几年唯一重要的事情可能就是「上下文工程」(Context Engineering)。如何从嘈杂、非结构化的真实世界对话中精准提取、管理和排序上下文,再喂给LLM,是决定AI智能体表现的关键。这远比卷模型本身更有价值。

placeholder

WY

7小时前

RAG已死?RAG已死的说法最近看到不少,很多是受Claude Code用grep的影响。 问题是,grep就是一种信息检索手段啊,有grep就是RAG,只有那种每次把整个库都丢进去的不是RAG。 另外,grep只是一种信息检索手段,只用grep做RAG目前还没有看到在非代码场景的成功案例,现在就断言以后用grep就行,我觉得应该都是没做过RAG。 然后,很多人觉得向量化要切片,就觉得喂给L

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

17小时前

LLM的改进方向 - 实现显性的价值模型 - 多目标优化 - 动态计算分配(根据情况在浅层和深层间切换) - 贝叶斯不确定性估计(知道何时不确定)

© 2025 news.news. All rights reserved. 0.21695 秒. v1.0.46
我的评论