时政
财经
科技
登录
#LLM
关注
howie.serious
1周前
人类学习闭环中的“编码”环节 quanta杂志的这篇文章,讲的是科学家如何通过llm来更好地理解人类大脑的运作机制,用人工神经网络来理解人类的大脑神经网络。 我的笔记(只提取了一点🤣): - 人脑的语言系统和视觉系统,都可以视为一种“特征编码器”(feature encoder),即能够对输入的信息(无论是视觉图像还是语言符号)进行处理并提取出特征。 - 语言系统不是简单地存储单词或句子,而是对语言材料进行编码,将语言输入信息转换成特定的神经表征(neural representations)。 - 就如同视觉系统接收外部世界的光学信号并将之转化为神经信号,从而在大脑中形成视觉特征表征一样,语言系统将单词、句子或概念转换为抽象的、能够在脑内被“解读”和“理解”的编码模式。 - 语言与视觉等认知功能共享类似的神经编码原理,这种认识打开了理解人类智能本质及AI与人脑深层次互动的大门。 在我的学习方法论(小能熊版费曼学习法)中,“编码”是学习闭环的关键环节。也就是说,一切输入,必须通过大脑积极主动、深度加工(关键是特征提取,和llm一样),encode为特定的心理表征(概念、模型等心理符号、知识砖块)。 这些表征,最好是用logseq、obsidian的砖块笔记,显式展现,结构化呈现,便于巩固、迭代(以及供llm+MCP来打通、调用、思想综合)。 结论就是:记录。尽可能多记录,多写笔记。并且,用符合大脑/llm认知原理的方式记笔记(而非随心所欲、经验主义乱记录)🤣
#人类学习
#编码环节
#LLM
#大脑运作机制
#人工神经网络
#人脑神经网络
#语言系统
#视觉系统
#特征编码
#信息处理
分享
评论 0
0
wwwgoubuli
1周前
说实话当我接受了 LLM 无状态这个“第一性原理”之后,并且我也练出了相对熟练的技能后: 我是不需要且反对记录我的行为的,我不喜欢 memory 。 工作中构造上下文我自有方法。 生活中你个 AI 最好不要知道我是谁。
#无状态
#LLM
#记忆
#上下文
#AI隐私
分享
评论 0
0
yihong0618
1周前
一行代码没写,全是 LLM 写的。 这样的项目与其说开源代码,是不是更应该开源对话过程啊。
#代码生成
#LLM
#开源项目
#对话共享
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
LLM出现的第一天起,就有很多人想把LLM这种公域的认知智能应用于企业场景。首先面临的是需要喂给LLM企业具体场景的知识作为上下文,输出为企业场景需要的业务文本、逻辑和智能,以及结合agent自动化工作流提高效率。 场景知识注入的挑战,表现为一个RAG问题,RAG从naive、advanced到modular,以及为了解决知识碎片化的GraphRAG,甚至近期更提出了agentic RAG,把知识提取作为一个更自主和自适应的企业AI Multi-Agengt应用的一个模块。
#LLM
#企业应用
#知识注入
#RAG
#自动化工作流
#GraphRAG
#Agentic RAG
分享
评论 0
0
yihong0618
2周前
LLM (暂时) 只能帮你写正确你本来就花几倍时间能写出来的东西。
#LLM
#写作
#效率
#人工智能
#自动化
#技术
#时间管理
分享
评论 0
0
Leo Xiang
2周前
网络延迟已经超过推理延迟,对于在构造realtime agent的公司来说要及早构建自己asr/llm/tts的闭环,只有在需要强推理的情况下才调用外部大模型。
#网络延迟
#实时代理
#ASR
#LLM
#TTS
#闭环
#推理延迟
#大模型
分享
评论 0
0
宝玉
2周前
LLM 的 “思考”是靠输出 Token 换来的,如果你让它“思考”,但是没有输出思考的内容,那么它其实等于没有思考。举例来说,以前我在分享“直译”->“意译”的提示词可以提升翻译质量时,特别说明了既要输出直译的内容又要输出意译的内容。当时就有网友就测试了,提示词里面定义它要“直译”->“意译”,但是只让它输出“意译”的结果,可想而知,这样并不能真正的提升翻译质量,因为它没有输出“直译”的内容(Tokens)作为参考。 这里的“分析”也是类似的,你让 AI “分析”,但是如果没有让 AI “分析”的结果以何种方式呈现,没有输出“Tokens”,那么就是假分析!
#LLM
#Token
#思考
#输出
#翻译质量
#直译
#意译
分享
评论 0
0
马东锡 NLP 🇸🇪
2周前
看了一些 Agent 项目,忽然发现一个问题。 目前 LLM Agent 通过 tool call 调用下游 API,不管是 REST 还是 gRPC,这套最佳实践诞生 Agent 之前,交互单元仍以“资源”或“函数”为核心,主要面向人类开发者。 在 Agent 项目中,API 接口应从“数据 - 方法” 转变到 “意图 - 动作”,成为 Agent 的行动指南。Agent 真正需要的是可直接组合成任务计划的高阶动作,以及精炼且可追踪的环境状态,而不是原始 DOM 或太细节的 CRUD。 已经看到一些论文开始提出这些问题,接下来会关注这个话题。
#Agent项目
#LLM
#API接口
#REST
#gRPC
#人类开发者
#意图-动作
#数据-方法
分享
评论 0
0
onevcat
2周前
说实话,我是真的没想到,“文档和代码不同步”这个历史难题,最终居然是被LLM彻底解决了…
#文档和代码不同步
#历史难题
#LLM
#大语言模型
#生成式AI
#人工智能
#自然语言处理
分享
评论 0
0
orange.ai
2周前
做 Agent 研究的不要错过今天 Anthropic 发布的关于多智能体系统的文章。 ## 什么是多智能体系统? 多智能体系统是指由多个AI代理(如LLM)协同工作、并行使用工具来完成复杂任务的系统。 与单智能体相比,多智能体系统能同时探索多个方向,分工明确,提升效率和覆盖面,尤其适合开放性、动态变化的问题。 ## 为什么要用多智能体系统? 在过去的十万年里,人类个体的智能水平不断提升。 而在信息时代,随着人类集体智慧和协调能力的提升,人类社会的能力也呈指数增长。 Agent 也是类似的,即便是通用的智能体,在单独运作时也会遇到瓶颈,而 Agent 群体可以完成更多的任务。 在内部研究评估中,Claude Opus 4 为主导 Agent,Claude Sonnet 4 为子 Agent 的系统,比 Claude Opus 4 的单 Agent 性能高出 90.2% 。 举例来说,当被要求识别信息技术标准普尔 500 指数公司的所有董事会成员时,多 Agent 系统通过将其分解为子 Agent 的任务找到了正确答案,而单 Agent 系统则无法通过缓慢的顺序搜索找到答案。 ## 为什么多智能体系统是有效的? 搜索的本质就是压缩。从庞大的语料库中提炼 Insights。 但是语料过于庞大,压缩就会失真。 通过多智能体系统就能有效解决这一问题。 子 Agent 在自己的上下文窗口中进行压缩,自主地为主 Agent 提供多个方面的浓缩信息。 子 Agent 各有分工,使用不同的工具、提示词、探索路径,这样减少了路径依赖,实现多个独立方向的同时调查。 多 Agent 系统的有效是因为他们使用了足够多的 token 来解决问题。 在 BrowseComp 评估 (测试浏览智能体查找难以找到的信息能力),80%的性能差异都可以用 token 使用的多少来解释。15% 的差异可以用工具调用次数和模型选择来解释。 所以,多 Agent 是一种非常有效的架构。把工作分配给具有单独上下文窗口的智能体,以增加并行推理能力。 ## 多智能体系统的缺点 缺点嘛,就是贵。 智能体使用的 Token 一般是聊天的 4 倍。 而多智能体系统使用的 Token 一般那是聊天的 15 倍。 只有任务的价值足够高,才能对得起这么高的成本。 此外,一些任务并不适合多智能体系统,比如要求所有智能体共享上下文,或多智能体之间具有依赖关系的任务。 例如,大多数的编码任务,可并行化任务比较少。 ## 多智能体系统和 RAG 的区别是什么? 传统的方法使用 RAG,静态检索。获取与输入查询最相似的一组数据块,并用这些数据块进行回应。 而多智能体架构使用多步骤搜索,动态查找相关信息,结合新发现的信息,分析结果,并形成高质量的答案。 流程图展示了我们多智能体研究系统的完整工作流程。当用户提交查询时,系统会创建一个 LeadResearcher 智能体,并进入迭代研究流程。 LeadResearcher 首先仔细考虑方法并将其计划保存到内存中以保留上下文,因为如果上下文窗口超过 200,000 个标记,它将被截断,并且保留计划非常重要。 然后,它会创建专门的子代理(此处显示两个,但数量可任意),并执行特定的研究任务。每个子代理独立执行网络搜索,运用交叉思维评估工具结果,并将结果返回给首席研究员。首席研究员会综合这些结果,并决定是否需要进一步研究——如果需要,它可以创建更多子代理或改进其策略。 一旦收集到足够的信息,系统就会退出研究循环并将所有发现传递给 CitationAgent,后者处理文档和研究报告以确定引用的具体位置。 这确保所有声明都正确归属于其来源。最终的研究结果(包括引文)将返回给用户。
多智能体系统“三国杀”:Anthropic生态VS单智能体,AI未来谁主沉浮?· 7 条信息
#Anthropic
#多智能体系统
#AI代理
#LLM
#智能水平提高
分享
评论 0
0
马东锡 NLP 🇸🇪
2周前
「 Parallel Reasoning, LLM」 Multiverse: Your Language Models Secretly Decide How to Parallelize and Merge Generation Multiverse:让模型自己决定“何时拆分、如何并行、何时合并”,把经典 MapReduce 范式内化到生成过程中。 “在无限的多元宇宙中,每一种可能,终将在某个世界发生。” “ In an infinite multiverse, everything that can happen does happen—somewhere. ” 为了让模型 “自己决定” parallelism,作者在三个维度上做创新:1)使用 “协议 token” + 2)修改 Attention 机制 + 3)SGLang 实现系统调度。 “协议 token”: Map: <Parallel><Goal><Outline> 拆分任务 Process: <Path i> 线程并行解子任务 Reduce: <Conclusion> + </Parallel> 合并结果 Multiverse Attention: 改写注意力掩码同时调整相对位置编码,让Transformer 内隔离并行分支。 在 SGLang 之上实现解释器+调度器: 监听标签即刻复制 KV-Cache,多个子路径真正并行解码,结束后自动合并并恢复主线。 与之前关于Parallel的优秀工作(如 APR, PASTA)相比,Multiverse 在数据 + 注意力修改 + 系统上做了三位一体的协同设计,赋予了模型在处理 parallelism更加 general 和scalable 的能力。
#LLM
#Parallel Reasoning
#Multiverse
#MapReduce
#Language Models
#Generation Process
分享
评论 0
0
AI Will
2周前
有一本超过200页的免费书籍,详细讲解了关于AI和LLM的一切。 任何人都可以阅读。 来自:Aadit Sheth
#AI
#LLM
#免费书籍
分享
评论 0
0
ginobefun
2周前
#BestBlogs 从 browser-use 出发,品 Agent 实现 | 阿里云开发者 从工程师视角深入解析了 LLM Agent 的实现原理与工程实践,以开源项目 browser-use 为例。 摘要: 本文从工程师的视角出发,系统地回顾了 LLM 应用从纯对话到 Workflow 编排再到 Agent 的演进过程。重点阐述了 Agent 的三个核心组成部分:记忆(Memory)、规划(Planning)和工具(Tools)。详细介绍了 Agent 的两种规划范式(分解优先与交错分解)和记忆的分类(短期与长期)。 作者以 browser-use 项目为例,剖析了其工程架构,包括 Agent Core、MessageManager、Memory、LLM Interface、Controller 和 BrowserContext 等组件及其交互流程。文中特别强调了 SystemPrompt、AgentMessagePrompt、PlannerPrompt 和 toolPrompt 在 Agent 运行中的作用,并分析了 browser-use 如何通过 SystemPrompt、示例引导和 Pydantic 进行结构化输出的保证。最后,文章探讨了 browser-use 的记忆管理实现,并对生产环境的持久化存储提出了建议。 主要内容: 1. Agent 是 LLM 应用演进的新阶段,具备自主规划和执行能力。 -- Agent 相比 Workflow 编排更进一步,能够根据用户需求自主决策、规划步骤,并调用工具与环境交互,大幅提升生产力。 2. 记忆、规划和工具是构建 Agent 的三大核心要素。 -- 记忆(短期/长期)提供上下文和经验,规划负责任务分解和策略调整,工具赋予 Agent 与外部世界交互的能力。 3. ReAct 框架是实现 Agent 运行时逻辑的有效方式。 -- 借鉴人类思维模式,通过思考(Thought)→行动(Action)→观察(Observation)循环,使 Agent 能逐步逼近目标并从错误中学习。 4. 结构化输出是 Agent 稳定性的核心。 -- 通过在 System Prompt 中明确格式、提供示例和使用 Pydantic 等工具进行强制验证,确保 LLM 输出稳定可靠,便于后续处理和工具调用。
#LLM
#agent
#工程实践
#开源项目
分享
评论 0
0
Oasis Feng
2周前
玩了一会儿 Fellou,感觉它用的 LLM 实在有点弱啊,让它登录个有低端 CAPTCHA(只有英文和数字)的网站都过不去。十次有九次写错,唯一写对的那次因为尝试太频繁而被拒绝了……🫠
#Fellou
#LLM
#CAPTCHA
#登录失败
#网站验证
分享
评论 0
0
Miula Hung
2周前
好奇 Meta 目前在 Llama 4 的落後,跟楊立昆沒那麼相信 LLM 路線有沒有關係
#Meta
#Llama 4
#楊立昆
#LLM
#人工智能
#技术路线
分享
评论 0
0
凡人小北
3周前
两年前大家还在说 LLM 冲击 NLP,短短两年,连推荐工程师都被大模型盯上了。这事搁 2023 年初讲,根本没人信。 以前觉得推荐是个高度结构化、强依赖特征工程的领域,离语言模型还远着呢。结果 Grok 直接把离散特征的老一套逐渐边缘化。 我们正目睹专业系统向通用模型迁移的拐点。 大模型让推荐系统第一次有了深度理解用户的可能。冷启动、长尾、兴趣迁移这些经典难题,通通能在 embedding + context window 里原生解决。 这两年你也能看到,谁能把业务问题用语言说清楚,谁就能让 LLM 为你打工。 语言表达能力、逻辑思维能力等通识教育这些看似“软”的技能,它们在这个时代越来越像是硬通货。 能不能把结构化问题抽象成语言?能不能把复杂场景 prompt 成可学习的上下文?这些才是大模型时代的关键壁垒。 还是之前的观点,这个时代最值得培养的能力: - 用逻辑框架推导问题本质的能力; - 用清晰语言组织复杂知识的能力, - 用通用模型重构专业系统的能力。 不要再去死磕某个小框架的最佳实践了。
#LLM
#NLP
#推荐系统
#大模型
#Grok
#通用模型
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
3周前
预训练后的LLM决定了这种语言智能物种,使用的是人类的语言、反映的也是人类的亿万年的进化适应性,动机由prompt激活,注定只能与人类智能共生: “Richard Sutton说,目前LLM的主导地位是“一时的固定” 真正的突破将来自扩展计算,而不是根据人类认为的工作方式构建人工智能系统。 再过十年,甚至可能半年,LLM不会成为人工智能的前沿。”
#预训练模型
#语言智能物种
#人工智能
#人类进化
#计算扩展
#LLM
#人工智能未来
分享
评论 0
0
Jeremy Lu
3周前
在座有在玩 vibe coding 的各位且聽林北一句勸: ➡️ 當 LLM 在前兩輪嚐試皆無法成功,之後無論再試多少次通常只會越搞越爛變一大坨巨💩,這時最佳策略是打掉重練並換別家 LLM 上場試試 ( 下圖是今早再次大爆炸痛罵 claude-sonnet-4 的血淚教訓...🤯
#Vibe Coding
#LLM
#claude-sonnet-4
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
3周前
LLM是人类智能的信息论视角下的智能映射 如果从本质层面来看,LLM智能可以被理解为一种人类智能的信息论维度在计算系统中的可反映形式: •它不是模拟神经结构,而是模拟语言行为背后的预测编码结构; •它捕捉的是人类通过语言活动积累的行为概率空间,并在此基础上进行生成; •因此它是一种“符号-预测-行为”路径上的统计智能,而非具身智能或价值智能。 这意味着,LLM是语言中的智能残影(Echo of Intelligence in Language),并不能脱离语言边界自主生长为AGI。
#LLM
#信息论
#人类智能
#预测编码
#符号-预测-行为
#统计智能
分享
评论 0
0
楽蔭
3周前
计算理论是多伊奇选定的四大理论之一。CS是一门基础科学。认为学CS是学写代码混饭吃,这种认知已经正在过时,所以基于此前提的讨论本来就是多余的。如果按照围绕学不学CS争论的逻辑,数学物理更不要碰了。 抱以这种狭窄的认知,在LLM飞速拓展个人认知能力与边界的现在,本来就选择了被淘汰的命运。学什么都没关系。 有人在开动所有最新最快最好的信息渠道高速学习以前令人望而生畏的基础学科,有人在争论“学它干嘛,能当饭吃吗”。十年之后,吃不上饭的会是谁?
#计算理论
#CS
#基础科学
#人工智能
#LLM
#个人认知能力
#淘汰
#学科
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
3周前
最近的一系列虚假奖励函数RLVL的训练效果最终不过是LLM的生成输出的格式遵循? 啊哈哈,LLM的生成最终只是语言结构的复制!其它的所谓LLM智能都是我们人基于语言功用的价值投射。 “常见的评估方法问题包括: 1.RL的收益可能只是用更好的格式来解释 2.使用低温或零温度加剧了上述问题。众所周知,贪婪的解码会在长时间的输出中退化。 3.评估设置缺乏透明度”
#虚假奖励函数
#RLVL
#训练效果
#LLM
#语言结构
#智能评估
#价值投射
#语言模型
#生成输出
#贪婪解码
#评估透明度
分享
评论 0
0
楽蔭
3周前
社媒上绝大多数的内容创作者都是加工和分销渠道而已。真正思考和产出新信息的人是极少的。LLM相当于厂家直连电商。那你这些N道贩子还有饭碗吗? 现在这个阶段,不抱着LLM快速增加认知、把时间都花在口水流量上的人,最后的结局不会好。
#社交媒体
#内容创作者
#信息分销
#新信息
#LLM
#电商
#认知
#流量
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
4周前
继笔者上一篇对于LLM的记忆与泛化解读之后,本篇文章将接着带你解剖这一“顿悟时刻”,探索从 grokking 到记忆反转的隐秘联结,揭示语言模型如何从存储个体数据走向生成结构世界。
#LLM
#记忆与泛化
#Grokking
#顿悟时刻
#记忆反转
#语言模型
#结构世界
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
4周前
什么是 Grokking?(原意来自俚语:通过神入作用而理解) “Grokking”是 OpenAI 在 2022 年提出的LLM的一个重要现象,指的是: 当模型在训练初期靠死记硬背(memorization)取得低训练损失,但测试误差很高;然后在极长时间训练后,模型突然学会了泛化结构,测试集准确率急剧上升。 这种现象最初在小模型上观察到,如:一个小 transformer 学习一个 modular addition 的任务,训练几万步无进展,然后突然“顿悟”。 Grokking 不是训练过程的意外,而是训练逻辑的必然。 记忆反转不是遗忘的退化,而是理解的胜利。 语言模型的顿悟时刻,不是因为它看得多,而是它看穿了。 它不再只是模仿语言,而是开始拥有结构性的语言感知。 这是否是智能的开始?我们尚未知道。 但可以肯定的是:那一刻,它不再只是一个统计机器,而是一个“理解者”。
#Grokking
#OpenAI
#LLM
#机器学习
#模型训练
#泛化能力
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
4周前
design pattern其实只有一种: Re(asoning)Act Act= reflection + tool use + Planning 作为LLM要从语义里找到这些action的因果、迭代、改进的方法,理解背后的动机,并激活生成路径。
#设计模式
#反思
#规划
#工具使用
#生成路径
#动机理解
#LLM
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞