时政
财经
科技
虚拟货币
其他
登录
#SFT数据
关注
九原客
6个月前
用17K从DeepSeek R1 蒸馏的SFT数据,微调Qwen2.5-32B,效果非常不错。 与DeepSeek R1自家蒸馏的版本相比略逊一些,但是后者是800k sample,而且这17k数据以及合成脚本完全开源。 方法来自之前蒸馏QwQ的Sky-T1。 P.S. 7B的模型效果提升不佳,看来越小的模型需要越多的数据激活能力。 1/2
#DeepSeek R1
#SFT数据
#Qwen2.5-32B
#微调
#蒸馏
#Sky-T1
#模型效果
#数据开源
#17K数据
分享
评论 0
0
九原客
7个月前
Things we learned about LLMs in 2024 中我深有同感的: 1. GPT-4的垄断地位被打破。 2. LLM 价格指数式下降。 3. Prompt驱动的应用已经可以商业化。 4. Agents 还没有出现(出现的只是Prompt驱动的Workflow)。 5. 以o1为代表的推理模型开始出现。 6. 合成数据效果很好,事实上目前大部分模型的SFT数据都是合成的,预训练数据也经过了精心过滤。 7. 社会上不同的人群对大模型的认知差距十分巨大,可能会带来新的数字鸿沟。 8. 长上下文很重要,激发了很多可能性。(没有长上下文,cursor 是不会出现的,只有代码补全)
#GPT-4
#垄断地位
#价格下降
#Prompt驱动
#商业化
#Agents
#推理模型
#合成数据
#SFT数据
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞