𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

0 关注者

3小时前

后训练less is more的精髓,是元认知范式的抽象,抽象得越好,泛化能力越高。 抽象得不好的话,模型生成的token就纠结了,谁让咱是个NTP生成器呢!

#后训练 #元认知 #泛化能力 #NTP生成器 #抽象

相关新闻

placeholder

勃勃OC

20小时前

WOLF 什么玩意 🤣🤣🤣

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

2天前

看懂meta对GPRO的优化就能搞清楚后训练的90%了吧

placeholder

Jimmy 米哥 🚀🚀🚀

4天前

疯了,推特上辱骂粉丝+装逼,一年也有50w的收入。 真鸡巴抽象啊我操

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

4天前

本体的本体,元本体 meta-ontology 元认知是LLM的智能杠杆

placeholder

卫斯理

6天前

太过于抽象 不知道说什么 蔚来汽车 CEO展示在坐在车上钓鱼🥲🥲🥲🥲

© 2025 news.news. All rights reserved. 0.06502 秒. v1.0.46
我的评论