2025-06-18 16:10:05
人类学习闭环中的“编码”环节 quanta杂志的这篇文章,讲的是科学家如何通过llm来更好地理解人类大脑的运作机制,用人工神经网络来理解人类的大脑神经网络。 我的笔记(只提取了一点🤣): - 人脑的语言系统和视觉系统,都可以视为一种“特征编码器”(feature encoder),即能够对输入的信息(无论是视觉图像还是语言符号)进行处理并提取出特征。 - 语言系统不是简单地存储单词或句子,而是对语言材料进行编码,将语言输入信息转换成特定的神经表征(neural representations)。 - 就如同视觉系统接收外部世界的光学信号并将之转化为神经信号,从而在大脑中形成视觉特征表征一样,语言系统将单词、句子或概念转换为抽象的、能够在脑内被“解读”和“理解”的编码模式。 - 语言与视觉等认知功能共享类似的神经编码原理,这种认识打开了理解人类智能本质及AI与人脑深层次互动的大门。 在我的学习方法论(小能熊版费曼学习法)中,“编码”是学习闭环的关键环节。也就是说,一切输入,必须通过大脑积极主动、深度加工(关键是特征提取,和llm一样),encode为特定的心理表征(概念、模型等心理符号、知识砖块)。 这些表征,最好是用logseq、obsidian的砖块笔记,显式展现,结构化呈现,便于巩固、迭代(以及供llm+MCP来打通、调用、思想综合)。 结论就是:记录。尽可能多记录,多写笔记。并且,用符合大脑/llm认知原理的方式记笔记(而非随心所欲、经验主义乱记录)🤣
2025-06-18 16:10:05
2025-06-18 11:38:15
2025-06-17 13:23:09