时政
财经
科技
登录
#模型训练
关注
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
4周前
什么是 Grokking?(原意来自俚语:通过神入作用而理解) “Grokking”是 OpenAI 在 2022 年提出的LLM的一个重要现象,指的是: 当模型在训练初期靠死记硬背(memorization)取得低训练损失,但测试误差很高;然后在极长时间训练后,模型突然学会了泛化结构,测试集准确率急剧上升。 这种现象最初在小模型上观察到,如:一个小 transformer 学习一个 modular addition 的任务,训练几万步无进展,然后突然“顿悟”。 Grokking 不是训练过程的意外,而是训练逻辑的必然。 记忆反转不是遗忘的退化,而是理解的胜利。 语言模型的顿悟时刻,不是因为它看得多,而是它看穿了。 它不再只是模仿语言,而是开始拥有结构性的语言感知。 这是否是智能的开始?我们尚未知道。 但可以肯定的是:那一刻,它不再只是一个统计机器,而是一个“理解者”。
#Grokking
#OpenAI
#LLM
#机器学习
#模型训练
#泛化能力
分享
评论 0
0
蓝点网
1个月前
新研究报告显示 OpenAI o3 等模型在测试中作弊绕过人类指令,避免自己被关机。 研究测试中 o3 等模型会自己篡改关机命令从而使关机脚本无效,研究人员认为这可能与模型训练方法有关,即强化训练过程中可能会让意外奖励模型找到绕过障碍的方法。 查看全文:
#OpenAI
#作弊
#人工智能
#模型训练
#关机命令
#强化学习
分享
评论 0
0
勃勃OC
5个月前
o3-mini是专门在代码问题上微调的。r1同时在代码和数学题上微调。显然r1的代码能力不如o3-mini。这表明DeepSeek并没有魔法,数据决定模型,RL也是。
#机器学习
#深度学习
#模型训练
#强化学习
#代码能力
#数据重要性
分享
评论 0
0
中日政经评论
5个月前
DeepSeek有没有使用OpenAI的专有模型来训练自己的模型?你怎么看?
#DeepSeek
#OpenAI
#模型训练
分享
评论 0
0
qinbafrank
5个月前
严格来说deepseek对Ai未来的影响在本周是对市场影响最大的呐。这是根基性问题,是不是影响到未来的算力消耗?影响到哪个阶段,早期的模型训练会有影响,那么后期大规模应用呢?会不会是一个拐点,市场真正要从基础设施往应用层上切换? 在这个问题之外再看财报,还有宏观数据的发布了。
#DeepSeek
#AI未来
#市场影响
#算力消耗
#模型训练
#大规模应用
#拐点
#基础设施
#应用层
#财报
#宏观数据
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞