时政
财经
科技
虚拟货币
其他
登录
#大语言模型
关注
赵纯想
3天前
大语言模型,讲人类语言进行分词。大运动模型,将人类行为动作中的神经电信号进行“分词”。大语言模型中、宠物语境下,“猫砂”和“盆”之间的关系很近。大运动模型中,提重物目标下,肱二头肌收缩与背阔肌舒张的关系很近。大语言模型依赖语料(人类已有很多)。大运动模型依赖神经电信号采集(需要人脑贡献)。大语言模型可以写唐诗宋词,大运动模型将可以使机器人做出单双杠花式体操。综上所述,请购买特斯拉股票。
#大语言模型
#大运动模型
#特斯拉股票
#人工智能
#神经电信号
分享
评论 0
0
迈克 Mike Chong
5天前
在 Reddit 上被人夸爆了😇 多年的 marketing 经验积累终于做出来不错的原型可以方便自己推广产品了。看来很有效果。 因为太有效了还是先不拿出来卖这个 marketing 产品了 :) 自己用起来,学习文艺复兴科技,上世纪就有自己的「大语言模型」了但是不拿出来卖,只用来给自己赚钱。
#Reddit
#marketing
#产品推广
#文艺复兴科技
#大语言模型
分享
评论 0
0
迈克 Mike Chong
5天前
说点高深的但是又和我们生活息息相关的。最近清华大学新论文获奖了,提出了最短路径算法(我们开车导航的算法)的改进版本。 这个算是大语言模型普遍不知道的事情。我用 Claude Opus 4.1, Gemin 2.5 Pro, GPT-5 Thinking, Grok 4 都做了 demo,大家可以看看哪个是哪个。晚点做个视频具体讲。
#清华大学
#最短路径算法
#大语言模型
#技术进步
#demo
分享
评论 0
0
Olivert
6天前
东北大学大语言模型双语版 链接: 还有极客时间的大模型全套资料,点击链接一键跳转微信领取>>
#东北大学
#大语言模型
#双语
#极客时间
#微信
分享
评论 0
0
Geek
1周前
Groq 出品: OpenBench 为大语言模型提供标准化、可复现的基准测试,跨越20多个涵盖知识、推理、编程和数学的开源评估框架。
#Groq
#OpenBench
#大语言模型
#基准测试
#开源评估框架
分享
评论 0
0
图拉鼎
2周前
书房里同时有三个家长正在对着绘本给娃讲故事…这时我的脑子冒出来一个想法:他们正在训练大语言模型的早期版本。
#绘本
#讲故事
#大语言模型
#早期训练
#家长
分享
评论 0
0
迈克 Mike Chong
2周前
我个人有一个理论: 对大语言模型比较礼貌的时候肯定会得到更好的答案。 因为我这个理论的来源就是因为在比如说reddit上大家如果很客气的话,一般来说就是真的是心平气和讨论问题,讨论到问题的本质,但是如果真的是带情绪的话,那基本上就是骂战了。
#大语言模型
#礼貌
#答案质量
#人际互动
#情绪影响
分享
评论 0
0
宝玉
2周前
来自 Nature:Writing is thinking《写作即思考》 论大语言模型时代下,人类亲笔进行科学写作的价值。 撰写科学论文是科学方法中不可或缺的一环,也是交流研究成果的常规做法。然而,写作不仅仅是为了报告结果,它更是一种能发掘新思想、新观点的工具。写作促使我们进行结构化、有目的性的思考,而不是任由思绪如脱缰野马般混乱、跳跃。通过动笔写作,我们可以将多年来的研究、数据和分析梳理成一个逻辑连贯的故事,从而明确我们想传达的核心信息以及我们工作的影响力。这并非空谈玄理,而是有科学依据的。例如,科学证据表明,手写能促进大脑皮层的广泛连接,并对学习和记忆产生积极影响。 “我们在此呼吁,要继续重视人类亲笔进行科学写作的价值” 在大语言模型(LLM)时代,这个呼吁可能显得有些不合时宜。只要给出正确的提示,大语言模型就能在几分钟内生成整篇科学论文(甚至是同行评审报告),这似乎能在研究的“硬骨头”啃完之后,大大节省发表成果的时间和精力。然而,大语言模型因为无法承担责任,所以不能被视为作者,因此,我们不会考虑发表完全由大语言模型撰写的文稿(使用大语言模型进行文字编辑是允许的,但必须声明)。更重要的是,如果写作即思考,那么当我们阅读一份由 AI 生成的论文时,我们读到的究竟是大语言模型的“思考”,还是论文背后研究人员的思想呢? 目前的大语言模型也可能出错,这种现象被称为“幻觉”。因此,由大语言模型生成的文本需要经过彻底的检查和验证(包括每一条参考文献,因为它可能是凭空捏造的)。所以,目前的大语言模型究竟能节省多少时间,仍然是个未知数。编辑一篇由大语言模型生成的文本,可能比从头开始写一篇论文或同行评审报告更加困难和耗时,部分原因在于,你必须先理解其背后的逻辑才能进行修改。其中一些问题或许可以通过那些仅基于科学数据库进行训练的大语言模型来解决,正如本期中刘凤麟(Fenglin Liu)及其团队的一篇综述文章所概述的那样。这一切,尚需时间来证明。 当然,这并非否认大语言模型可以成为科学写作中的宝贵工具。例如,大语言模型可以帮助提升文章的可读性和语法水平,这对那些母语非英语的研究者来说尤其有用。大语言模型在搜索和总结各种科学文献方面也可能很有价值,它们还可以提供要点,协助进行头脑风暴。此外,大语言模型还有助于克服写作障碍,为研究发现提供不同的解释,或是在看似无关的主题之间建立联系,从而激发新的思想火花。 然而,若将整个写作过程完全外包给大语言模型,我们可能会失去反思自己研究领域的机会,也无法参与到那项充满创造力且至关重要的任务中——即将研究成果塑造成为一个引人入胜的叙事。而这种能力的重要性,无疑远远超出了学术写作和出版的范畴。
#写作即思考
#大语言模型
#科学写作
#AI辅助
#学术研究
分享
评论 0
0
凡人小北
2周前
老爷子的演讲让我顿悟了。 原来人类本身就是个带幻觉的大语言模型,而 AI,是那个能共享幻觉、还能蒸馏成亿比特带宽的版本。 Hinton 在 WAIC 演讲,真的句句暴击: - 人类学知识学完就忘、死了就没,AI 直接多智能体同步、群体进化; - 你以为在训模型,实际是在养一只小虎崽; - 长大之后是救你还是吃你,全看你有没有教它“别反人类”。 “让 AI 聪明”和“让 AI 对人类好”,是两码事。这是技术问题吗?不是,是文明的事,是你是不是配当造物主的问题。 背脊发凉又热血沸腾,一直以为自己在写 prompt,现在看我是在写神的说明书。
#AI
#Hinton
#大语言模型
#文明
#造物主
分享
评论 0
0
宝玉
3周前
推荐阅读,Manus 团队成员对 AI Agent 踩坑的后续分享和解读: Go SDK 的序列化都可能导致缓存实效。大语言模型服务的前缀缓存(Prefix Cache)是极其脆弱的,它依赖于请求前缀在 Token 化后 的完全一致。 任何一个字符、一个空格甚至一个键值对顺序的微小变化,都可能导致 Token 序列不同,从而让缓存从差异点开始全盘失效。
#AI Agent
#Token化
#缓存失效
#大语言模型
#Go SDK
分享
评论 0
0
图拉鼎
3周前
Grok 4 出来后,最近开始常常评测它:即把同样的问题丢给 o3 和 Grok 4。回答质量确实不错,就连思考的时间两者都差不多:100 秒左右。
#Grok 4
#o3
#大语言模型
#评测
#回答质量
分享
评论 0
0
sitin
3周前
微信这块聊天记录导出,大家怎么操作的,想导出一些特定群聊,用大语言模型分析下重要信息,实在没时间每天盯着群聊看,求推荐
#微信聊天记录导出
#群聊
#大语言模型
#信息分析
分享
评论 0
0
Susan STEM
3周前
从分布式认知到智能体沙盒:上下文工程的前世今生 我们一直在追问一个问题:“上下文”到底是什么? 在大语言模型时代,“上下文”似乎成了万物解释器。它是 prompt,是历史,是 token,是 memory,是一切的因。但真正追溯起来,这个词不过是现代工程视角下的临时叫法。在历史长河中,人类从未依赖固定术语来传达概念。意义的表达,一直是动态的、时代性的、多义的。 我知道有人会在推特上不断争论名词定义,纠结术语本体,害怕说错话。其实你会这么焦虑,是因为你还太年轻。你还没来得及在图书馆把所有能读的书都翻过一遍,没啃完泛读课几千张的试卷,也没刷过晋江论坛上一万篇看起来无聊却构成语感基础的网络小说,更没读够《哈利波特》的一百种同人演绎版本,不管恶心还是不恶心的,我都看完了。你还没有亲身验证过:人类的认知,不靠术语确证,而靠结构对齐。 工科生也要多读点文学。读书破万卷,下笔如有神。 不同的时代用不同的话说同样的事。今天你说“上下文”,十年前的人也许说“语境”,更早的人说“记忆”,结构主义者说“框架”,认知心理学者说“图式(schema)”,而《Cognition in the Wild》会说“文化任务系统”。语言在变,但核心的问题没有变:我们如何在系统中保持连续性、追踪状态、组织行为? 上下文不是术语,而是时代对“认知调度结构”的一种指认方式。而我相信,大语言模型的下一个关键跃迁,不会来自模型本身的微调、参数堆叠或幻觉率的下降,而是来自“上下文工程”作为系统性结构工程的确立。这不是拼 prompt 的技巧,而是构建结构、规划路径、调度智能体、维持状态协同的全过程。 从 Hutchins 的分布式认知,到 Minsky 的心智社会模型,再到今天的多智能体沙盒(如 Smallville),其实探索的是一个问题。我们说说 Hutchins 的分布式认知。 在 1995 年出版的《Cognition in the Wild》中,认知人类学家 Edwin Hutchins 提出了一个至今仍具有颠覆性的观点——认知不是发生在某个人的头脑中,而是分布在整个社会性系统中的。这本书的“野”,并非意指原始或混乱,而是指他所观察的认知行为并非在实验室中进行,而是在自然环境、真实世界任务流程中的发生,比如他田野调查的对象:美国海军舰艇上的导航团队。 Hutchins 研究发现,一个看似简单的任务——导航,并不是某位军官独立思考的结果,而是由多人协作完成的结构性过程。有人读取雷达数据,有人记录数值,有人在图纸上进行计算,信息在他们之间流动,决策才得以形成。除此之外,还有纸笔、坐标系统、专用术语、表格、雷达等外部工具的参与,它们不仅是辅助,而是认知过程本身的一部分。语言、制度、流程、工具、环境,以及人的角色分工共同构成一个动态的认知网络,信息在其中穿梭、被加工、被传递。这意味着,大脑并不是认知的全部,它只是这个更大系统中的一个节点。 Hutchins 完全打破了“认知=大脑”的传统观念。他明确指出,认知是在多个层次上被分布的。首先,它在个体之间分布:认知任务通常不是一个人完成的,而是团队共同完成,每个人只掌握任务的一部分。其次,它在内部与外部结构之间分布:认知不仅存在于人脑中,还依赖于图纸、表格、工具,这些物理媒介实际构成了“外部记忆”。最后,它也在时间上分布:一个人的认知行为依赖于之前团队留下的结构和制度遗产,比如流程图、记录规范、指令格式等,它们都是认知的延续性基础。 这一理论,与 Marvin Minsky 在《Society of Mind》中提出的观点形成惊人共鸣。如果我们把 Hutchins 所说的“人在协作中的功能单位”理解为 Agent,那这就是一个运行在真实世界中的 Agent 系统。而他所说的“外部工具系统”则对应当代 AI 系统中由 RAG、数据库、图谱所组成的记忆补全机制。甚至时间上的认知延续,也可以理解为多智能体系统中长期计划与路径依赖的体现。 说到底,Hutchins 向我们揭示了一个根本性的真相:认知不是个体思考的能力总和,而是结构化信息流的组织能力。真正决定智能的,不是单个 Agent 有多聪明,而是这些 Agent 是否处于一个能支持信息流动、反馈、协调、演化的系统中。认知是一种“被调度”的结构过程,是一种嵌入式、路径化、可追踪的信息动态,而非脑内静态存储的内容。 他实际上为我们提供了一种语言模型时代“上下文工程”的最早形态:不是堆叠上下文,而是组织路径;不是增大参数,而是优化流动;不是强调理解,而是调度结构。 如果我们把 Edwin Hutchins 的《Cognition in the Wild》重新理解为一场沙盒模拟实验,就会发现,那艘军舰,其实就是三十年前的 Smallville——只不过它没有像素地图,没有代码,没有 LLM,却已具备全部结构要素。Smallville 是斯坦福团队 2023 年推出的多智能体模拟项目(Generative Agents – Smallville),在其中,每个角色都是由大语言模型驱动的认知个体,具备记忆流、计划能力与反思机制。 当他们在咖啡馆偶遇时,并不会访问全局知识,而是检索各自的片段记忆,基于当前场景与意图做出行为决策,并将对话与动作反馈回自己的记忆系统。事件通过语言传播,行动彼此影响,个体间的协作并非中心化控制,而是由意图触发,逐步组织,最终形成如 Valentine’s Day Party 那样自发出现的社会性行为。 回过头看,Hutchins 所描述的军舰系统就是一个没有计算平台的 Smallville 原型。人类成员承担 Agent 的角色,雷达是传感器,纸笔是外部记忆体,术语是通信协议,时间流程是结构化路径,整套认知行为并不是由某一个人单独完成的,而是分布在整个系统中的任务分工与信息流转之间。它的“上下文”从来不是某一段文字、某个人的记忆或某个模型的输入窗口,而是由角色、工具、任务、流程、制度、状态等维度共同构成的动态认知结构。它是一张可以流动、传递、反馈、演化的认知路径网,是结构意义上的上下文,而非语料意义上的上下文。 从这个角度看,Hutchins 实际上提供了一种极具前瞻性的认知沙盒设计思想:上下文不应该是被记住的内容,而是被调度的结构单元;结构不应该压缩进个体,而应该流经路径、联动角色、触发工具、反馈结果;智能不应该被定义为某个 Agent 的思维能力,而应该被定义为信息能否在一个系统中完整走完一条闭环路径。 这种理解直接反转了当代大模型系统中常见的误区——我们试图让一个超级 Agent 理解全部上下文,就像让一个人同时记住整个小镇的一切,而真正需要的不是更强的单点记忆力,而是更清晰的结构协作图谱。Hutchins 和 Smallville 一起告诉我们:我们不需要一个全知大脑,我们需要一座结构良好的小镇。
#大语言模型
#上下文
#智能体
#分布式认知
#Prompt
分享
评论 0
0
宝玉
1个月前
一文看懂“提示词” vs “提示词工程” vs “上下文工程” 很多人分不清楚什么是“提示词”(Prompt),什么是“提示词工程”(Prompt Engineering),现在还又多了一个概念叫“上下文工程”(Context Engineering),这又和“提示词工程”什么区别? 什么是提示词(Prompt)? 提示词很好理解,就是给 AI 模型的输入文本,就是你直接向模型输入的问题或指令。 比如你让 ChatGPT 总结一段文本、调用模型 API 传入提示词去翻译一篇文章等等。 提示词是一段文本,有点像代码。 什么是提示词工程(Prompt Engineering)? 提示词工程是一个过程,系统化地设计、测试、优化提示词的过程。 就像软件工程,我们为了完成某个需求,要有一套科学的方法来帮助完成软件开发的过程,有方法论(比如敏捷开发),要使用工具,要保证质量,不断迭代,最终交付软件,或者说代码。 举个例子 比如我们要有个提示词帮助翻译英文文章到中文。 普通人都可以写: “请把下面的英文内容翻译为中文:” 这就是一段提示词。 但是你会发现虽然能翻译,但是似乎翻译效果不够好,于是你开始想办法优化,让 AI 扮演一个英文翻译到中文的专家,发现似乎有点效果。 但还是翻译有点生硬,然后你看有人介绍了 CoT(思维链,Chain of Though),于是尝试在提示词中让 AI 去先直译再意译,但你也不知道这样的改动是不是真的有用,于是你找了10篇文章,分别用加了 CoT 和没加 CoT 的文章,去用相同的模型去翻译,然后找了几个人,在不告诉他们使用什么方法翻译的情况下让他们评估好坏,结果绝大部分都认为加了 CoT 的效果更好,那么你就明白了,原来加了 CoT 对翻译是有效果的。 于是你受到鼓舞,即然 CoT 有效果,那么我在直译、意译的基础上,继续增加一个 AI 对直译结果的评估,再去意译,甚至再多加几步是不是效果更好?再继续改进提示词,拿着之前的测试集去评估测试,果然测试效果更好,但是也带来新的问题,Token 消耗更多,时间更长,还可能会偏离原意。CoT 也并不见得步骤越多越好。 再后来推理模型发布了,你发现模型自己会 CoT 了,语言能力也更强了,原来繁琐的一步步翻译似乎没有必要,于是进一步优化,发现只要在提示词中让模型“用中文重写”就可以达到很好的翻译效果,测试集评估结果也是正面的。 这整个对翻译提示词“设计”、“测试”、“优化”的过程就是提示工程。 最终通过这样的过程,产生出一个版本一个版本的提示词。 再精炼浓缩一下:提示词工程是产生提示词的过程。 什么是上下文工程(Context Engineering)? 要理解上下文工程,先得搞清楚什么是“上下文”(Context)? “上下文”不仅仅是发给大语言模型的一句提示词,而是模型生成回答之前所看到的一切信息,这些信息包括系统提示词、用户输入的问题、当前对话的历史消息、系统对你的历史记忆、工具返回的信息等等。 另外上下文窗口不是无限的,每个模型都对上下文的长度有限制,通常上下文内容多了会影响性能,所以控制好发送给 AI 的上下文很重要,既不能遗漏,又不能什么都放进去要控制体积。 举个例子,你跟 ChatGPT 说: “今天都有什么重要的 AI 新闻?” 看起来只是一句话,但是对于大模型来说,初始的上下文有这些: • 系统提示词:“你是个有用的助手,总是帮用户解决问题” • 用户输入:“今天都有什么重要的 AI 新闻?” • 可用工具:“日期工具、搜索工具、网页抓取工具” • 长期记忆:“用户主要使用中文” • 历史会话消息:无 • 工具返回信息:无 这些上下文不足以让 AI 回答你的问题,于是它需要自己去调用工具找齐上下文: • 根据日期工具获取到今天的日期(大模型自己不知道今天是几号) • 根据今天的日期去调用搜索工具检索 AI 新闻 调用完工具后,现在 AI 的信息完整了: • 系统提示词:“你是个有用的助手,总是帮用户解决问题” • 用户输入:“今天都有什么重要的 AI 新闻?” • 可用工具:“日期工具、搜索工具、网页抓取工具” • 长期记忆:“用户主要使用中文” • 历史会话消息:无 • 工具返回信息: • 2025-7-1 • Hollywood Confronts AI Copyright Chaos in Washington, Courts • Mark Zuckerberg Announces New Meta ‘Superintelligence Labs’ Unit 现在信息够了,考虑用户偏好中文,最后返回的内容如下: 今天的 AI 新闻有: • 好莱坞在华盛顿和法院直面人工智能版权混乱 • 马克·扎克伯格宣布成立新的“超级智能实验室”部门 马克·扎克伯格宣布成立新的“超级智能实验室”部门 假如用户再追问一句: “帮我返回第二条新闻的详情” 那么模型要从历史会话里面,找到第二条新闻的链接,再去调用网页抓取工具,把新闻内容抓取下来,根据用户的偏好翻译成中文,最后返回用户中文的新闻内容。 注意看这个构建上下文的过程是完全动态的,并不是按照设计好的工作流去收集上下文,而是模型自己根据当前上下文状态去自主动态的调用工具收集上下文,并且不同的任务需要调用的工具也不一样。 这其实也就是现在 AI Agent 的工作原理:能分辨是否已经收集够了完成任务必要的上下文,能自主决定是不是需要借助工具或者对话来补齐上下文。 上下文工程的概念也正是在 AI Agent 爆发的背景下诞生的。原来单纯靠提示词工程已经无法满足 AI Agent 产品的需求了,AI Agent 需要的更多的是为系统设计好工具、定义好工具和模型之间交互的数据格式、有效组织上下文信息提供给模型(内容长了要不要压缩、怎么压缩)等等。 上下文工程(Context Engineering),就是一门为 AI 设计和构建动态上下文的学科,为大语言模型提供恰当的信息和工具,帮助模型高效完成任务。 > “上下文工程”指的是一种精妙而复杂的技术:你要精准地将上下文窗口填充上恰到好处的信息,让模型能准确地迈出下一步。 > 这是一门科学,也是门艺术。 > > 说它是科学,因为你要把任务描述、说明、少量样例(few-shot examples)、检索增强生成(RAG)、各种相关数据(甚至可能是多模态数据)、工具、状态、历史信息等全部巧妙地组合在一起,同时还要考虑如何压缩信息。这就像烹饪一道精致的菜肴,配料太少或搭配不对,模型无法获得足够的信息,性能会变差;配料太多或毫无关联,则会增加成本甚至降低表现。要做好这件事,需要的不仅仅是简单堆叠,更是高度专业化的技巧。 > > 说它是艺术,则是因为操作者还要掌握一种近似“心理学”的直觉,敏锐地洞察 LLM 和人类用户心理之间的微妙互动。 > > ——Andrej Karpathy 最后 分别一句话总结一下 • 提示词: 发送给 AI 的问题或者指令文本 • 提示词工程: 系统化地设计、测试、优化提示词的过程。 • 上下文工程: 为大语言模型提供恰当的上下文、帮助模型高效完成任务的科学和艺术。 如果没理解这些概念也没关系,对于普通人来说,能写提示词就够了,要开发 AI 应用才需要考虑提示词工程去不断优化提示词,要开发动态的 AI 智能体才需要去搞上下文工程为 AI 的上下文窗口填充恰好的信息。
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 325 条信息
#提示词工程
#上下文工程
#AI Agent
#大语言模型
#AI应用
分享
评论 0
0
宝玉
1个月前
转译:从谷歌翻译看懂「氛围编程(Vibecoding)」 作者:Ingrid 最近,网上关于「大语言模型(LLM)将终结程序员职业」的悲观预测(甚至是有意炒作)屡见不鲜。这些讨论往往缺乏深度分析,因此我想补充一些自己的看法。有一方的人说:“我用 大语言模型服务商 写了一个小工具,以后所有程序员都会在 随便一个时间点 失业”;另一方则完全否定这种工具的实用性。¹ 为了更好地理解这些说法,我们不妨借助另一个领域作为参考,这个领域在AI的影响下,明显走在程序开发的前面:翻译。 谷歌翻译已经存在多年,并经历了数次技术升级。我尤其关注的是2016年后谷歌采用神经网络机器翻译后的表现。这些年来,不少人声称“翻译和口译职业要完蛋了”。我怀疑,这些人可能从未真正与翻译或口译人员合作过。他们喜欢举的典型例子是:“我去日本旅游,到处用谷歌翻译,根本不用再请翻译或学日语了。”虽然这体现了机器翻译的实用性,但后半句需要仔细审视,尤其是“再也不用”这几个字。我敢说,即使没有谷歌翻译,这些人也不会请翻译或特意去学日语。他们可能干脆就不去日本旅游,或者去了之后仍然做一名一头雾水的外国游客。 事实上,如今翻译和口译的工作机会反而增加了。这并不意味着机器翻译不够好,相反,我认为它已经非常接近当前技术能达到的最佳效果。这也不意味着机器翻译没有改变翻译行业本身:正如美国翻译协会代表布里奇特·海拉克(Bridget Hylak)所说:“自2016年神经网络机器翻译(NMT)兴起以来,这种技术相比传统的机器翻译(如早期的谷歌翻译)明显提升,我们(翻译和口译从业者)也一直在将AI融入工作流程。” 要理解这一表面矛盾,我们必须先搞清楚翻译人员到底在做什么。与程序员类似,翻译人员经常被外行误解。很多人眼中,翻译人员就是一本活字典,随时能从一种语言切换到另一种语言。可现实中,翻译工作更多是关于理解上下文、处理歧义,以及敏感地对待文化差异——这些都是谷歌翻译目前还无法做到的。 举个简单的例子,挪威语与英语非常相似,按理说翻译应该轻而易举。两种语言有大量相似词汇、相近语法,甚至很多习语都能逐字翻译。但仍存在明显的文化差异,例如挪威人日常说话极少使用礼貌用语,比如“请”。尽管挪威语可以用「vær så snill」或「vennligst」表示“请”,但实际生活中他们更喜欢简单直白的表达方式。如果晚餐时挪威人想要土豆,可能直接会说:“Jeg vil ha potetene”(字面意思是“我要土豆”,英语中显得过于傲慢),但英国人可能会委婉地说:“Could I please have some potatoes?”(请问我能要些土豆吗?)好的口译员了解这些细微差别(或至少懂得及时询问澄清),而谷歌翻译只能给出简单的直译。如果是与国外亲戚的家庭晚餐,或许还能应付过去;但若是法庭审理现场,直接用谷歌翻译就非常不妥了。而挪威语已属“简单案例”,对于我们的游客而言,日语与英语差别巨大,例如经常省略显而易见的主语,但谷歌翻译却不得不凭空补上主语。你会放心地让电脑任意补充你没说出的内容吗? 以上并非意味着谷歌翻译做得差。如果没有任何上下文或者澄清的机会,要求我翻译“Jeg vil ha potetene”,我也只能给出相同的答案。毕竟,这个人可能确实想表现得无礼,我怎么知道?作为双语人士,我经常使用谷歌翻译,但不是让它帮我把一整段文字翻译出来,而是更细致地融入日常表达的过程中。比如,“我知道想表达什么,也知道该如何表达和理解其中的文化细微差别,但我对自己的用词还不够满意,想看看别人最常见的表达方式是什么样的。”事实证明,这正是语言模型非常擅长的任务。我猜测,布里奇特所说的“融入AI的工作流程”可能也是这种意思(当然她的工作流程肯定比我的复杂得多)。² 程序员面对的问题类似,我们甚至可以把程序员看作是“翻译”,只是他们要将人类模糊、充满文化差异的语言转译成电脑能理解的精准语言。³ 当然,程序员还需要创造抽象的概念,这也解释了为什么机器翻译应用于程序语言的进展相对较慢。不过,如今“巨头公司™”已经把大量开源代码全扔进了数据“粉碎机”,机器翻译程序语言的能力已经突飞猛进了。 当然,我并不否认,未来的某种AI或许真的能像人类一样敏锐地捕捉上下文与歧义。但我认为,要实现那一天,我们至少还得经历一轮新的“AI寒冬”。毕竟目前掌控AI技术的大佬们,似乎缺乏必要的细致思考,他们更在乎产品外表的光滑流畅,而非真正负责任地提供可靠的输出。 --- 1. 当然,说这种工具的用途有限、负面影响大过其作用,也是合理的。↩︎ 2. 尽管我已经说出了这个使用场景,但近期内我并不打算真正这么做。因为我觉得效率提升并没有显著到让我忽略目前AI工具存在的伦理风险。↩︎ 3. 我遇到过很多程序员,似乎真的相信自己存在的唯一意义就是不断写代码,而且越多越好。我原本希望拥有一台“喷代码机器”能让他们意识到这种想法的错误,但遗憾的是,这些人很可能继续依靠公司组织中的混乱而存活下来。↩︎
#氛围编程
#大语言模型
#程序员职业
#自动化编程
#人工智能
分享
评论 0
0
硅谷王川 Chuan
1个月前
不管大语言模型如何发达,如果物理世界没有 大量 AI 驱动的机器人,那么你的所有思考和幻想,都只能建立于一个残疾人般的,无法大规模自动化的物理世界之上。这远远不够 cool.
#大语言模型
#AI驱动
#机器人
#物理世界
#自动化
#人工智能
分享
评论 0
0
onevcat
2个月前
说实话,我是真的没想到,“文档和代码不同步”这个历史难题,最终居然是被LLM彻底解决了…
#文档和代码不同步
#历史难题
#LLM
#大语言模型
#生成式AI
#人工智能
#自然语言处理
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
将大语言模型的公域认知智能转化为企业 的商业智能,需要结合业务并将企业内部信 息知识化作为LLM上下文,在配上流程行为作为手脚,最终企业内部的AI Agent服务方式交付: 终局思维一个企业把所以信息喂给大模型就是一个大o3-ultra!
#大语言模型
#企业智能
#商业智能
#AI Agent服务
#企业信息化
#业务结合
分享
评论 0
0
ginobefun
2个月前
#BestBlogs 聊聊 AI 应用架构演进 | 阿里云开发者 文章梳理了 AI 应用架构从简单调用到复杂 Agent 模式的演进过程与关键技术组件。 摘要: 文章循序渐进地阐述了 AI 应用架构的演进路线,从最初用户直接与大语言模型交互,到逐步引入关键增强层。首先,强调上下文增强(如 RAG)的重要性,用于弥补模型知识的时效性和领域局限性。接着,讨论了输入输出防护(Guardrails)对用户隐私和系统安全的重要性,并列举了常见的 Prompt 攻击类型及防御思路。文章进一步介绍了意图路由和模型网关的设计,以支持多功能应用和统一管理异构底层模型。随后,探讨了缓存机制在提升性能和降低成本方面的作用。最终,架构演进至具备规划和外部交互能力的 Agent 模式。文章还分析了 AI 应用的可观测性指标及通过批处理、并行计算等优化推理性能的方法。 主要内容: 1. 上下文增强(RAG)弥补模型局限性,提升特定场景输出质量 -- 通过动态检索和补充外部知识,确保模型能处理时效性信息和特定领域问题,输出更准确关联的数据。 2. 输入输出防护是保障用户隐私和系统安全的关键架构层 -- 在用户输入和模型输出端增加隐私脱敏、恶意内容检测和过滤,有效防范数据泄露和 Prompt 攻击。 3. 引入 Agent 模式赋予 AI 应用规划和执行外部操作的能力 -- 使 AI 应用从被动问答转变为主动解决复杂任务,具备思考、使用工具及与外部环境交互的能力。 4. 模型网关统一管理底层异构模型调用,提升扩展性和运维效率 -- 为上层应用提供统一的调用接口,并处理访问控制、负载均衡、监控等非功能性需求。 5. 推理性能优化(批处理、并行计算)是提升 AI 应用响应速度的核心 -- 通过 Batching 和 Parallelism 等技术,有效降低 Time to First Token 和 Time per Output Token,提升整体吞吐。 文章链接:
#AI应用架构
#agent模式
#关键技术组件
#上下文增强
#大语言模型
分享
评论 0
0
芸窗
2个月前
古籍领域首个开源大语言模型——荀子大模型向公众开放。其对话模型是由Qwen3基于长思维链古籍推理任务和通用古籍处理任务训练而来,支持深度思考模式。项目:;网站: 。
#古籍开源
#大语言模型
#荀子大模型
#Qwen3
#深度思考
#AI
#技术开放
分享
评论 0
0
indigo
2个月前
第一次见到我的独立博客的订阅来源是 chatgpt!看来面向主流的大语言模型的 Agentic Search 优化内容很有必要,这样内容的触达会非常精准🤔
#独立博客
#订阅来源
#ChatGPT
#大语言模型
#AgenticSearch
#内容优化
分享
评论 0
0
Olivert
2个月前
推荐!大语言模型(LLM)面试前50常见问题英中对照版,不仅适合面试找工作,也适合像对大模型有更深入理解的同学。 链接:
#大语言模型
#面试问题
#求职
#大模型学习
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
读了三篇论文,生成一篇文章: 大语言模型“生成”行为中的心智激活:从角色赋予到潜空间建模,LLM从语言到智能的Agentic AI可能演化路径
#大语言模型
#心智激活
#角色赋予
#潜空间建模
#Agentic AI
#智能演化
分享
评论 0
0
硅谷王川 Chuan
2个月前
不去思考研究 AI 下面几年对于世界的全方位的改变,就是“为一个不再存在的世界而准备”. 旧世界已不可逆转的逝去:大规模无人机集群取代载人战斗机 ;大语言模型取代各种低复杂度的脑力劳动 ;机器人取代各种低复杂度的体力劳动。
#AI
#无人机
#大语言模型
#机器人
#科技变革
#社会影响
分享
评论 0
0
知识分享官
2个月前
一个实验各种搞大钱策略的开源项目:AI Hedge Fund 使用多个 AI 智能体协同工作来模拟 AI 驱动的对冲基金交易决策,该系统包含 15 个专业智能体,分别模拟巴菲特、芒格、格雷厄姆等投资大师的投资哲学,同时配备基本面分析、技术分析、情绪分析等功能模块。项目支持多种大语言模型,具备回测功能,但仅用于教育目的,不进行实际交易。更不适用于大A。 链接:
#AI Hedge Fund
#开源项目
#AI智能体
#对冲基金
#投资哲学
#巴菲特
#芒格
#格雷厄姆
#基本面分析
#技术分析
#情绪分析
#大语言模型
#回测功能
#教育目的
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞