时政
财经
科技
登录
#逻辑能力
关注
澳洲护士卡子弟
4个月前
虽然有可能是摆拍,但是现实中这类孩子也确实存在。我读小学的时候班里就有几个。简单来说就是同年龄段小朋友都会做的数学题,他就不会,基础逻辑能力低下,基本算数都磕磕绊绊,长大了随着大脑发育,会有所提升,但是一旦逻辑复杂一点马上懵了。比如无法理解双盲对照实验,无法理解“动物没有中医怎么也生存下来了”,不过没事。这都是小事。 有类似的小孩,家长早点放弃所谓孩子将来考状元的梦,别逼孩子了,踏实赚点钱,让孩子开开心心,学点技术,将来能养活自己就行。 我小学班里有个可怜人,自己确实不聪明,家里也穷,老爹死了,老娘脸上有个茄子这么大的动脉瘤,现在他生了三个孩子,和他同样不怎么聪明的老婆在村里干干活,孩子往公立学校一送爱咋咋滴,生活比很多每天卷死卷活要进步的中产阶级好多了。
#儿童教育
#学业压力
#逻辑能力
#智力发展
#家庭教育
#摆拍现象
分享
评论 0
0
悉尼奶爸 SydneyDaddy 雪梨奶爸 🇦🇺
4个月前
即便是目前的AI翻译,也已经强过大多数人工翻译 根据我二十多年的审稿经验,大多数英翻中的翻译,跟大多数中国人一样,最普遍的短板,是文字之上的逻辑能力欠缺 但AI翻译,它不是文字转换器,它是自带逻辑校验和对齐的信息转换器,翻译只是一个典型应用 引发我这个小感触的,是下面片段里的一个处理
#AI翻译
#人工智能
#翻译技术
#逻辑能力
#信息转换
#语言处理
#审稿经验
分享
评论 0
0
JundeWu
5个月前
我之前说OpenAI>Deepseek,所以追赶OpenAI的临门一脚到底差在哪里?先说结论,我认为是超高质量的RLHF (Reinforcement Learning from Human Feedback),也就是人类反馈 Deepseek-R1这次的训练,仅利用了rule-based outcome reward,也就是数学题答案对错/测代码能不能跑通,训练出来了超强的逻辑,在math/code打平了O1。但是正如他们论文中也有提及,这样的训练是有损于模型表达的,所以经常能看到Deepseek的回答是有内在逻辑的,但是缺乏对逻辑之间转折的解释,以及观点之间细粒度的桥接。 另外也不是问题都需要推理,很多领域还需要的是经验性的判断,约定成俗的规则,抽象概念的理解,道德价值观的考量,模型在这些问题强行推理就会答偏。 能不能在开放问题上得到符合人类标准的答案取决于RLHF,简单来说就是让人给模型的答案打分,然后训练模型在人类那里得到更高的分数。 这里面算法能带来的提升很有限,主要是人力资源的较量:当模型越聪明越专业,我们就一定需要更加专业的领域专家来进行打分,毕竟一小时5刀的外包标注员是不可能对人文,艺术,法律,医学,生物等等专业领域的回答正确打分的---AI本身的专业度已经远远超过普通人。当然要雇佣更高级的专家进行标注的成本也是很高的。 openai对于RLHF有很深的理解,半年前就已经开始已经招聘相关领域博士来对模型回答进行标注。我们现在看到deepseek通过R1的训练已经达到o1的逻辑水平,差的,可能就在于人类专家对齐 所以,合理推测,类deepseek推理训练+博士级别的人类反馈,可能就是openai的所有秘密
#OpenAI
#DeepSeek
#RLHF
#Reinforcement Learning from Human Feedback
#rule-based outcome reward
#逻辑能力
#math/c
分享
评论 0
0
亚军&王歪嘴
5个月前
中国人没有是非观念也没有逻辑能力,评判事务的标准就是那一方是老弱病残孕乃至于穷都属于天然的正确。 弱者有理,胡搅蛮缠者有理,闹得凶的有理等等:
#中国社会
#评判标准
#弱者有理
#社会观念
#逻辑能力
#文化批评
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞