16小时前

这个论文看到过很久了,现在合成数据已经很普遍了吧,尤其是后训练,大模型崩塌了吗? 如果指的是Pre-training,倒是个问题。LLM生成的文章越来越普遍,但是以目前投射与反投射的生成机制,还是human-in-loop,质量普遍也越来越高了啊🤔 另外语言的语义一直在发展,思考的的结构、角度好像就那么几种吧…