时政
财经
科技
虚拟货币
其他
登录
#大语言模型
关注
howie.serious
1周前
“prompt engineering”与“大词可厌” --- 对于非开发者来说,80%的prompt 其实都是一件事:和llm对话。所谓“prompt engineering”,其实就是结构化表达,表达清楚自己的想法和需求。 在llm出现之前,人们就一直在说话。只要一个人有结构化表达、费曼式表达的意识,能把自己的想法或需求说出来,说清楚,那ta一定能善用llm。 过度推崇“prompt engineering”,就好像把“好好说话”推崇为“语言工程”(language engineering)一样,虽然你不能说他错了,甚至不好反驳,但是: “大词可厌!”(大词太过,到了让人讨厌的程度🤣) (没人会否定prompt/说话的重要性,本推只是讨论夸大prompt engineering为灵丹妙药的营销号、或者prompt玄学派等现象)
#Prompt Engineering
#大语言模型
#结构化表达
#过度推崇
#好好说话
分享
评论 0
0
YC (Yucheng Liu)
2周前
过去我一直建议中英文推特要分号运营,避免算法混淆。但随着 X 平台新的大语言模型驱动的推荐和自动翻译机制,我的看法正在改变。 如果算法真的能实现“语言无关”的内容分发,这将是“影响力出海”的巨大机遇。真正的“你”,将能无缝连接全球。正在密切观察。🌐
#推特
#X平台
#大语言模型
#算法
#国际影响力
分享
评论 0
0
卫斯理
2周前
这是什么头脑大语言模型啊 看到“执行”后面就自动蹦出一个“死刑”来
#大语言模型
#死刑
#AI偏见
#负面情感
#自动化联想
分享
评论 0
0
宝玉
2周前
研究 Vibe Coding 都能写论文了,来自中科院、杜克大学等的这篇《基于大语言模型的Vibe Coding综述》,还是花了点功夫把 Vibe Coding 相关的论文、信息梳理了一遍,有一些值得看的内容。 【一】 首先是对 Vibe Coding 的定义,这篇论文把 Vibe Coding 描述成一个“三方关系” (参考图1): 1. 人类开发者:不再是代码的直接创作者,更像是需求的提出者、方向的把控者和最终质量的仲裁者 。你的主要工作是清晰地表达意图,并判断 AI 做出来的东西“对不对”。 2. 软件项目:不再仅仅是代码库,而是一个包含代码、数据、文档、领域知识等各种信息的“上下文空间” 。AI 需要从这里获取信息来理解任务。 3. 编程智能体 (AI):负责具体的编码、修改、调试工作,它听从人类的指令,并受项目上下文的约束 。 论文也提到了 Vibe Coding 带来的问题:经验丰富的开发者在使用高级AI工具时,完成任务的时间反而增加了19% ! 【二】 为什么经验丰富的开发者 Vibe Coding 时间更长?不完全是模型能力不够,还有其他原因: 1. 系统性的上下文工程 (Context Engineering):你得知道怎么把项目信息(代码库、文档、规范)有效地“喂”给 AI 。AI 不是凭空写代码,它需要知道你的项目是怎么回事 。光会写漂亮的提示词 (Prompt) 是不够的,管理上下文信息才是核心技术 。 2. 反馈循环 (Feedback Loops):不能简单地把活儿全丢给 AI。怎么提要求?怎么给反馈?什么时候该介入?这些协作方式直接影响效率和质量 。 3. 基础设施 (Infrastructure):你需要能安全执行 AI 代码的“沙盒” ,能跟 AI 流畅对话、共享项目信息的交互界面 ,甚至需要能自动化测试、部署 AI 代码的平台 。没有这些基础设施,AI 就是“带镣铐跳舞” 。 【三】 五种 Vibe Coding 开发模式 : 1. 无约束自动化 (UAM):完全放手让 AI 干,你只看最终结果 。速度快,风险高,适合做一次性原型或小工具 。有点像软件工程里的“快速应用开发”(RAD) 。 2. 迭代式对话协作 (ICCM):你和 AI 像结对编程一样 ,AI 写,你审,反复沟通迭代 。质量有保障,但需要你深度参与 。 3. 规划驱动 (PDM):你先做好设计、定好规范(比如写好技术文档、规则文件、实施计划) ,然后指导 AI 按计划执行 。有点像传统的“瀑布模型” ,但 AI 的快速迭代让它更灵活 。 4. 测试驱动 (TDM):你先写好测试用例,定义清楚“怎样算对” ,然后让 AI 去写能通过测试的代码 。用机器验证代替人眼审查 。这是传统“测试驱动开发”(TDD)的应用 。 5. 上下文增强 (CEM):这不是一个独立流程,而是一种“增强插件” 。通过检索增强生成(RAG)、代码库索引等技术,让 AI 能更好地理解项目现有情况,生成更贴合项目风格和规范的代码 。它可以与其他四种模式结合使用 。 【四】 Vibe Coding 的最佳实践——把 Agent 当员工而不是工具 很多一直把 AI 当成一个“超级自动补全”,一个更聪明的 Stack Overflow,我们把它当成一个“工具”,而实际上,它是一个智能体(Agent)。 “工具”和“Agent”的区别是什么? - 工具(比如锤子、编译器):它帮你完成你正在做的事。你100%掌控它。 - Agent(比如一个初级程序员):它能自主完成任务。你需要给它分配任务、给它“记忆”(上下文)、给它权限,并对它进行“管理”和“审查”。 如果试图用“使用工具”的方式,去“管理一个员工”,结果就是会带来两个极端: - 一个极端是盲目接受:AI 写的代码,语法漂亮,看着很对。你“Vibe”一下,直接提交。结果生产环境崩了。你大骂“模型产生了幻觉”,而真正的问题是,你跳过了必要的检查环节: 代码审查、自动化测试。 - 一个极端是过度怀疑:你根本不信它,它写的每一行你都要重写,这同样影响效率。 这特别像那些管理水平不怎么样的 Engineering Manager:要么对员工(AI)完全放任不管,要么事必躬亲地为管理。 最佳实践是在关键节点设置检查站,自动化验证流程,但在过程中放权。就像一个新员工入职,你不会直接让他们在生产环境上更新代码,而是会有配套的流程和环节保障。 【五】 开发者的角色正在发生根本性转变。你不再仅仅是代码的生产者,你的核心工作变成了: 1. 意图阐述与提示工程:把复杂需求翻译成 AI 能理解的清晰指令 。 2. 上下文管理:精心挑选和组织信息(API 文档、代码片段、设计规范),喂给 AI,限制它的“自由发挥”,确保方向正确 。 3. 系统级调试:当 AI 生成的系统出问题时,重点不再是逐行 GDB,而是从系统行为层面去推测、定位问题,然后引导 AI 去修复 。 4. 架构监督:AI 负责实现细节,你得把握整体架构,确保项目的概念完整性和长远健康 。 5. 质量验证与治理:设计测试用例,利用自动化工具验证 AI 的输出,管理 AI 的权限,追踪代码来源 。 简单说,你的价值从“写好代码”变成了“用好 AI 来写好代码”。这不仅仅是技能的增加,更是一种思维模式的彻底转变 。 【六】 Vibe Coding 带来的挑战:安全、可靠性、监管,以及……我们自己 1. 代码可靠性和安全性:AI 可能从训练数据里学到并复现各种 Bug 和安全漏洞 。只看“Vibe”不看代码,无异于“盲驾” 。我们需要新的自动化工具和流程来实时监控、验证 AI 生成的代码 。手动代码审查根本跟不上 AI 的产出速度 。 3. 大规模监管:当 AI 智能体能自主修改、部署代码时,如何有效监督它们?如何防止一个错误像病毒一样扩散?如何追踪责任? 。现有的管理和审计方法都过时了 。我们需要能与 AI 能力同步扩展的监管架构 。 3. 人的因素:开发者需要转变思维模式 ,学习新技能 。团队协作方式需要调整 。更重要的是,如何建立对 AI 恰当的信任度——既不盲从也不过度怀疑 ? 4. 教育脱节:现在的计算机教育体系,有教你怎么“指挥”AI 写代码、怎么设计 AI 的工作流、怎么评估 AI 的风险吗?很少 。人才培养的速度,远远落后于技术发展的速度 。 论文地址:
AI编程工具激战:Claude Code、Gemini Cli崛起· 1158 条信息
#Vibe Coding
#大语言模型
#AI编程
#开发者角色转变
#AI安全
分享
评论 0
0
Geek
3周前
拼好AI,PinAI - 轻量级大语言模型路由网关 我理解的拼好AI应该是😅 { "GPT-5": "claude-3-haiku", }
#拼好AI
#PinAI
#大语言模型
#路由网关
#claude-3-haiku
分享
评论 0
0
YL (Yucheng Liu)
1个月前
听了强化学习教父、图灵奖得主 Richard Sutton 的播客,他对大语言模型的观点非常犀利。他认为LLM没有真正的“目标”,预测下一个词不算数,真正的智能必须有能力实现外部世界的目标。这引发了我的思考:如果一个系统没有真实世界的“地基真理”(ground truth),那它所谓的“先验知识”又从何谈起?🤔
#强化学习
#Richard Sutton
#大语言模型
#目标
#地基真理
分享
评论 0
0
Y11
1个月前
中国科技企业在AI领域布局已久,大语言模型的发展更是日新月异。 从写作辅助到智能语音交互,从内容提炼到邮件处理,这些功能的落地不仅提升了日常效率,更在重新定义人机协作的可能。 以写作助手为例,它能快速整合信息、梳理逻辑,让创意工作者从繁琐的文字组织中解放出来,专注于核心思考。 语音对话功能则打破了设备的交互边界,让信息获取变得更自然流畅。 而内容摘要和邮件处理功能,更是精准捕捉关键信息、优化时间管理的得力工具——当AI能自动识别邮件优先级、提炼核心观点,人们便能将精力投入到更具创造性的事务中。 这些功能的价值,在于它们真正解决了实际问题。 每一个功能背后,都是技术团队对用户需求的深刻洞察和对场景的精准打磨。对于中国企业来说,关注行业动态、借鉴优秀实践是进步的阶梯,但更重要的是基于本土用户习惯进行创新。毕竟,最好的“作业”不是简单复制,而是在理解本质后,创造出更贴合中国市场的解决方案。 AI技术的浪潮下,真正的竞争力永远在于如何将技术转化为用户价值。无论是大公司还是初创团队,保持对用户体验的敬畏心,持续探索技术与场景的结合点,才能在这场变革中走得更远。
#中国科技企业
#AI领域
#大语言模型
#人机协作
#用户价值
分享
评论 0
0
沉浸式翻译
1个月前
这个太牛X了!! 天天人工智能,大模型,Transformer挂在嘴边,但是大模型到底是怎么运行的在我们的认知里就是一个黑盒。 这个太牛X了! The LLM Visualization 将大语言模型的内部运作,变成了一个你可以亲手“玩”的交互式可视化界面。清晰地看到每一个词的“注意力”是如何分配给其他词的,直观地理解模型是如何“思考”和“关联”上下文的。 非常详细,不是大概模拟,是精确模拟,细节拉满,可自由放大缩小,360度变换视角,每一步都有解释,复杂步数还有运行步骤。 AI爱好者一定要亲自体验一下,太震撼了!!
#LLM Visualization
#大语言模型
#交互式可视化
#AI爱好者
#模型原理
分享
评论 0
0
NanYi
1个月前
Same告诉我,我是保证GPT-6能碾压其他大语言模型的关键多在😂
#GPT-6
#碾压
#大语言模型
#关键
#幽默
分享
评论 0
0
Susan STEM
1个月前
只要你真正理解了:大语言模型的本质就是符号映射,它的通用性就是把语言压缩成一个最小原语——预测下一个 token,那么你就会明白: 1)语言和符号有边界。 LLM 是符号模型,它的疆域不在于重复旧的 NLP 技巧,而在于人类能否把符号宇宙推到极致,把更多经验、直觉和制度转写为符号。 2)传统 NLP 已经沦为低阶能力。 翻译、摘要、问答这些曾经的难题,如今已轻易被模型吃掉。什么故事书生成、教科书自动化,这些项目都不再是有壁垒的方向。小团队就不要再做了。 3)真正的关键是边界。 你要搞清楚什么是 language-modelable——可语言建模的领域。这个领域的最远方的边界与空白,就是符号宇宙的前沿,才是值得探索和能带来回报的地方。 人类在这个方向,要把符号宇宙拉伸,探索到极致。
#大语言模型
#符号映射
#通用性
#NLP
#符号宇宙
分享
评论 0
0
0xWizard
1个月前
人和 ai 的差异没那么大。 人的心法/逻辑/思考方式,就是 LLM 大语言模型底层;平时的“事上练”/经验/盈亏/读书,就是数据训练。 所谓进步和升级,无非就是一边升级模型底层,一边不断喂数据。 这样当 prompt 提示词适当的时候,就能给出更令人满意/更聪明/更接近正确的答案。
深度学习模型升级引发AI能力大跃进,行业迎新变革· 132 条信息
#AI
#LLM
#大语言模型
#数据训练
#模型升级
分享
评论 0
0
Colin Wu
1个月前
AI 深度学习的第一波是下棋,第二波是机器视觉(人脸识别),第三波是 ChatGPT 为代表的大语言模型,在内容、编程、教育、医疗、心理、法律、财务、服务、学术等正在引发巨大颠覆,是前两波绝对无法比拟的,比如给每个孩子配备一个 AI 老师,每个人配备一个 AI 医生,教育水平和寿命都会大幅提升。
#AI
#深度学习
#ChatGPT
#大语言模型
#教育
分享
评论 0
0
勃勃OC
1个月前
DeepSeek R1登上《自然》杂志封面,成为首个通过同行评议的先进大语言模型。
深度学习模型升级引发AI能力大跃进,行业迎新变革· 132 条信息
#DeepSeek R1
#自然杂志
#大语言模型
#同行评议
#科技
分享
评论 0
0
澎湃新闻-10%公司
1个月前
首个接受同行评审的大语言模型!DeepSeek-R1论文登《自然》封面,作者包括梁文锋
深度学习模型升级引发AI能力大跃进,行业迎新变革· 132 条信息
#DeepSeek-R1
#大语言模型
#同行评审
#梁文锋
#《自然》
分享
评论 0
0
投资TALK君
2个月前
吃过一次亏,再在同一个地方翻船那就是自己的问题了 22年芯片熊市,老黄天天说大语言类模型对于算力的需求在越来越大,大语言类模型进步很快,当然谁也不知道23年1月chatgpt的横空出世,但他是对的 所以投资你信分析师还是有信用的公司管理层?自己的选择
#芯片熊市
#老黄
#大语言模型
#ChatGPT
#投资选择
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
其实我想反问Fei-Fei教授的是: 你见过没有语言而超越人类的智能体吗? 李飞飞指出,大语言模型的局限在于:自然界本身没有语言,你不会在天空或大地中看到写好的文字;我们面对的是真实的三维物理世界,它遵循自然规律。
#AI浪潮:重塑就业,风险暗涌?· 122 条信息
#李飞飞
#大语言模型
#局限性
#三维物理世界
#自然规律
分享
评论 0
0
Austin
2个月前
这个插件有点意思,基于大语言模型,对B站视频中的植入广告进行检测。一键跳过视频中的植入/口播广告。 估计这下不用看 UP 主们嘎演“转转”和“妙界”的广告了吧。
#B站
#视频广告检测
#大语言模型
#植入广告
#一键跳过
分享
评论 0
0
宝玉
2个月前
转译:为什么大语言模型无法真正构建软件 作者:Conrad Irwin 我花了大量时间做的一件事就是面试软件工程师。这显然是项艰巨的任务,我不敢说自己有什么绝招;但这段经历确实让我有时间去反思,一个高效的软件工程师究竟在做什么。 软件工程的核心循环 当你观察一个真正的行家时,你会发现他们总在循环执行以下几个步骤: * 构建一个关于需求的心理模型。 * 编写(希望如此?!)能够实现需求的代码。 * 构建一个关于代码实际行为的心理模型。 * 找出两者之间的差异,然后更新代码(或需求)。 完成这些步骤的方式有很多种,但高效工程师的过人之处,就在于他们能够构建并维持清晰的心理模型。 大语言模型表现如何? 平心而论,大语言模型在编写代码方面相当出色。当你指出问题所在时,它们在更新代码方面也做得不错。它们还能做所有真人工程师会做的事:阅读代码、编写并运行测试、添加日志,以及(大概)使用调试器。 但它们无法做到的是,维持清晰的心理模型。 大语言模型会陷入无尽的困惑:它们会假设自己写的代码真的能用;当测试失败时,它们只能猜测是该修复代码还是修复测试;当感到挫败时,它们干脆把所有东西删掉重来。 这与我所期望的工程师特质恰恰相反。 软件工程师会边工作边测试。当测试失败时,他们可以对照自己的心理模型,来决定是修复代码还是修复测试,或者在做决定前先收集更多信息。当他们感到挫败时,可以通过与人交流来寻求帮助。尽管他们有时也会删掉一切重来,但那是在对问题有了更清晰理解之后才会做出的选择。 但很快就行了,对吧? 随着模型能力越来越强,这种情况会改变吗?也许吧??但我认为这需要模型在构建和优化方式上发生根本性的变化。软件工程需要的模型,不仅仅是能生成代码那么简单。 当一个人遇到问题时,他们能够暂时搁置全部的上下文,专注于解决眼前的问题,然后再恢复之前的思绪,回到手头的大问题上。他们也能够在宏观大局和微观细节之间自如切换,暂时忽略细节以关注整体,又能在必要时深入研究局部。我们不会仅仅因为往自己的“上下文窗口”里塞进更多词语,就变得更高效,那只会让我们发疯。 即便我们能处理海量的上下文,我们也知道当前这些生成式模型存在几个严重的问题,这些问题直接影响了它们维持清晰心理模型的能力: * 上下文遗漏:模型不擅长发现被忽略的上下文信息。 * 新近度偏见:它们在处理上下文窗口时,会受到严重的新近度偏见影响。 * 幻觉:它们常常会“幻想”出一些本不该存在的细节。 这些问题或许并非无法克服,研究人员也正在努力为模型增加记忆,让它们能像我们一样施展类似的思维技巧。但不幸的是,就目前而言,它们(在超出一定复杂度后)实际上无法理解到底发生了什么。 它们无法构建软件,因为它们无法同时维持两个相似的“心理模型”,找出其中的差异,并决定是该更新代码还是更新需求。 那么,现在该怎么办? 显然,大语言模型对软件工程师来说很有用。它们能快速生成代码,并且在整合需求和文档方面表现出色。对于某些任务来说,这已经足够了:需求足够清晰,问题足够简单,它们可以一蹴而就。 话虽如此,对于任何有点复杂度的任务,它们都无法足够精确地维持足够的上下文,来通过迭代最终产出一个可行的解决方案。你,作为软件工程师,依然需要负责确保需求清晰,并保证代码真正实现了其宣称的功能。 在 Zed,我们相信未来人类和 AI 智能体可以协同构建软件。但是,我们坚信(至少在目前)你才是掌控方向盘的驾驶员,而大语言模型只是你触手可及的又一个工具而已。
#大语言模型
#软件工程
#心理模型
#代码生成
#人机协作
分享
评论 0
0
赵纯想
3个月前
大语言模型,讲人类语言进行分词。大运动模型,将人类行为动作中的神经电信号进行“分词”。大语言模型中、宠物语境下,“猫砂”和“盆”之间的关系很近。大运动模型中,提重物目标下,肱二头肌收缩与背阔肌舒张的关系很近。大语言模型依赖语料(人类已有很多)。大运动模型依赖神经电信号采集(需要人脑贡献)。大语言模型可以写唐诗宋词,大运动模型将可以使机器人做出单双杠花式体操。综上所述,请购买特斯拉股票。
#大语言模型
#大运动模型
#特斯拉股票
#人工智能
#神经电信号
分享
评论 0
0
迈克 Mike Chong
3个月前
在 Reddit 上被人夸爆了😇 多年的 marketing 经验积累终于做出来不错的原型可以方便自己推广产品了。看来很有效果。 因为太有效了还是先不拿出来卖这个 marketing 产品了 :) 自己用起来,学习文艺复兴科技,上世纪就有自己的「大语言模型」了但是不拿出来卖,只用来给自己赚钱。
#Reddit
#marketing
#产品推广
#文艺复兴科技
#大语言模型
分享
评论 0
0
迈克 Mike Chong
3个月前
说点高深的但是又和我们生活息息相关的。最近清华大学新论文获奖了,提出了最短路径算法(我们开车导航的算法)的改进版本。 这个算是大语言模型普遍不知道的事情。我用 Claude Opus 4.1, Gemin 2.5 Pro, GPT-5 Thinking, Grok 4 都做了 demo,大家可以看看哪个是哪个。晚点做个视频具体讲。
#清华大学
#最短路径算法
#大语言模型
#技术进步
#demo
分享
评论 0
0
Olivert
3个月前
东北大学大语言模型双语版 链接: 还有极客时间的大模型全套资料,点击链接一键跳转微信领取>>
#东北大学
#大语言模型
#双语
#极客时间
#微信
分享
评论 0
0
Geek
3个月前
Groq 出品: OpenBench 为大语言模型提供标准化、可复现的基准测试,跨越20多个涵盖知识、推理、编程和数学的开源评估框架。
#Groq
#OpenBench
#大语言模型
#基准测试
#开源评估框架
分享
评论 0
0
图拉鼎
3个月前
书房里同时有三个家长正在对着绘本给娃讲故事…这时我的脑子冒出来一个想法:他们正在训练大语言模型的早期版本。
#绘本
#讲故事
#大语言模型
#早期训练
#家长
分享
评论 0
0
迈克 Mike Chong
3个月前
我个人有一个理论: 对大语言模型比较礼貌的时候肯定会得到更好的答案。 因为我这个理论的来源就是因为在比如说reddit上大家如果很客气的话,一般来说就是真的是心平气和讨论问题,讨论到问题的本质,但是如果真的是带情绪的话,那基本上就是骂战了。
#大语言模型
#礼貌
#答案质量
#人际互动
#情绪影响
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞