研究:长期依赖ChatGPT等大型语言模型或将损害认知能力 麻省理工学院、韦尔斯利学院和马萨诸塞艺术学院的研究团队最新发现,长期依赖ChatGPT等大型语言模型(LLM)可能损害认知能力。研究显示,使用AI写作的参与者大脑中Alpha波连接数量仅为独立思考者的一半(42比79),且83.3%无法准确引用自己的文章内容。研究者称这种现象为"认知负债"——短期内减轻思维负担但长期导致批判性思维和创造力下降。
研究:长期依赖ChatGPT等大型语言模型或将损害认知能力 麻省理工学院、韦尔斯利学院和马萨诸塞艺术学院的研究团队最新发现,长期依赖ChatGPT等大型语言模型(LLM)可能损害认知能力。研究显示,使用AI写作的参与者大脑中Alpha波连接数量仅为独立思考者的一半(42比79),且83.3%无法准确引用自己的文章内容。研究者称这种现象为"认知负债"——短期内减轻思维负担但长期导致批判性思维和创造力下降。
王局志安
7小时前
那位专门找中国人麻烦的日本奈良公园的YouTuber,成功当选奈良市议员。
看不懂的sol
5小时前
最新消息:川普总统发布了“有史以来最伟大的比特币解释”。 BTC长周期看,除了涨已经没有其他方向了!