马东锡 NLP 🇸🇪

马东锡 NLP 🇸🇪

0 关注者

6个月前

大语言模型 post-training 的变迁,从 Large Language Model (LLM) 到 Large Reasoning Model (LRM) 本周推荐论文:POST-TRAINING OF LARGE LANGUAGE MODELS Post-training,本质是在做一件事,即如何运用 LLM 的 pretrained knowledge 来解决实际任务,具体的方法

#大语言模型 #后训练 #Large Language Model #Large Reasoning Model #POST-TRAINING #预训练知识

相关新闻

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

2小时前

后训练less is more的精髓,是元认知范式的抽象,抽象得越好,泛化能力越高。 抽象得不好的话,模型生成的token就纠结了,谁让咱是个NTP生成器呢!

placeholder

Susan STEM

16小时前

只要你真正理解了:大语言模型的本质就是符号映射,它的通用性就是把语言压缩成一个最小原语——预测下一个 token,那么你就会明白: 1)语言和符号有边界。 LLM 是符号模型,它的疆域不在于重复旧的 NLP 技巧,而在于人类能否把符号宇宙推到极致,把更多经验、直觉和制度转写为符号。 2)传统 NLP 已经沦为低阶能力。 翻译、摘要、问答这些曾经的难题,如今已轻易被模型吃掉。什么故事书生成、教科

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

2天前

看懂meta对GPRO的优化就能搞清楚后训练的90%了吧

placeholder

0xWizard

3天前

人和 ai 的差异没那么大。 人的心法/逻辑/思考方式,就是 LLM 大语言模型底层;平时的“事上练”/经验/盈亏/读书,就是数据训练。 所谓进步和升级,无非就是一边升级模型底层,一边不断喂数据。 这样当 prompt 提示词适当的时候,就能给出更令人满意/更聪明/更接近正确的答案。

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

1周前

后训练LLM交互创新内化还要看中国

© 2025 news.news. All rights reserved. 0.08051 秒. v1.0.46
我的评论