科学家证实大模型能像人类一样“理解”事物
记者10日从中国科学院自动化研究所获悉,来自该所等单位的科研人员首次证实,多模态大语言模型在训练过程中自己学会了“理解”事物,而且这种理解方式和人类非常类似。这一发现为探索人工智能如何“思考”开辟了新路,也为未来打造像人类一样“理解”世界的人工智能系统打下了基础。
记者10日从中国科学院自动化研究所获悉,来自该所等单位的科研人员首次证实,多模态大语言模型在训练过程中自己学会了“理解”事物,而且这种理解方式和人类非常类似。这一发现为探索人工智能如何“思考”开辟了新路,也为未来打造像人类一样“理解”世界的人工智能系统打下了基础。
Xiaowen
34分钟前
Banana Nano 的画图能力是真的厉害。 给文章配图都不用动脑子,直接扔全文就可以了。
dontbesilent
2小时前
以后很可能不会买大模型产品的会员了,只会买 agent 的会员,genspark、manus、cursor 一类 2010,移动互联网元年,当年还小 2025,agent 元年,必须赶上
Salonbus
11小时前
软件并不承接AI硬件的红利,而是大模型包揽大部份下游生态资本价值
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
13小时前
当然目前LLM还不具备生成解释性的动机,还依赖于人与LLM交互的投射与反投射机制。但是这种机制背后的人工神经网络计算的不可解释性,也是Hinton等人细思极恐不寒而栗的所在。