howie.serious2025-06-19 10:14:42 人类学习闭环中的“编码”环节 quanta杂志的这篇文章,讲的是科学家如何通过llm来更好地理解人类大脑的运作机制,用人工神经网络来理解人类的大脑神经网络。 我的笔记(只提取了一点🤣): - 人脑的语言系统和视觉系统,都可以视为一种“特征编码器”(feature encoder),即能够对输入的信息(无论是视觉图像还是语言符号)进行处理并提取出特征。 - 语言系统不是简单地存储单词或句子
wwwgoubuli2025-06-18 16:10:05说实话当我接受了 LLM 无状态这个“第一性原理”之后,并且我也练出了相对熟练的技能后: 我是不需要且反对记录我的行为的,我不喜欢 memory 。 工作中构造上下文我自有方法。 生活中你个 AI 最好不要知道我是谁。
大帅老猿2025-06-17 16:20:03两天用掉我 5000 次 API,没事,敞开了用。我把首页的聚合关掉了,黄色太多了。我害怕~~~ 话说,有没有胆儿大非中国籍推友,我发现我这个开源项目搭建黄网也是一绝。
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞2025-06-17 14:22:46LLM出现的第一天起,就有很多人想把LLM这种公域的认知智能应用于企业场景。首先面临的是需要喂给LLM企业具体场景的知识作为上下文,输出为企业场景需要的业务文本、逻辑和智能,以及结合agent自动化工作流提高效率。 场景知识注入的挑战,表现为一个RAG问题,RAG从naive、advanced到modular,以及为了解决知识碎片化的GraphRAG,甚至近期更提出了agentic RAG,把知