Shelly
1周前
所有深耕在agent行业的创业者,都值得一个点赞。 你知道吗?大部分做了几年的agent应用,都不赚钱。还要时刻担心着大厂的制裁,模型的覆盖,用户的流失。 用户看到ChatGPT聊天,就以为Agent能自动处理一切。开发者看到Demo酷炫,就以为生产环境顺滑。别人瞅着Anthropic的multi-agent公开Prompt,以为照着做就能行,却不知Claude客户端做了多少优化,才能勉强撑起research级垂直应用。 很多人天真地以为只需写几个精妙的Prompt,就能搞定一个智能Agent。但现实是残酷的:Agent需要处理用户意图、行动链条、工具使用和错误处理,这背后是层层挑战的深渊。 核心处理逻辑:从模糊输入提炼意图(如“帮我订票”→旅行规划+预算),构建ReAct循环多步链条,调用工具注入上下文,检测失败并学习。 这些看似简单,一深挖就暴露血泪:挑战包括上下文管理(随意堆Prompt导致混乱,需系统化框架);窗口爆炸(工具膨胀、海量返回数据、历史积累、链式级联、动态变化);LLM工具调用问题(幻觉、选错工具、解析失败、反馈缺失、成本退化、安全风险)。 这些问题在多模态Agent中凸显,尤其长任务中幻觉让开发者一夜白头。 垂直Agent创业更添隐形血泪:需深挖Know-how(数据、知识、best practice,如医疗需海量病例),极致体验绑定工作流。但数据治理差导致判断失准,项目夭折;忽略细节,用户流失。 这些不是空谈,是开发者天天撞的墙。 期望与现实错配,是所有血泪的根源。但不只是用户不懂技术,是整个行业贩卖错误预期。每个AI公司暗示“通用智能触手可及”。每个Demo展示完美case。没人说:这只在受控环境下奏效。媒体放大幻象,“AI取代所有工作”的标题比“AI辅助部分任务”吸睛。连开发者都被自家Demo骗了。 现今的Agent的创业者,正在不断地在摸爬滚打中,回归更现实主义:从“Prompt主义”转向系统工程+领域专家,视Agent为混合人力。老实降期望,狠抓体验。 Anthropic手册:Prompt起步,加MCP,告诉用户“research止步”。企业推人机混:AI帮,人管。行业从业者,我们可以多多晒败仗,媒体的宣传也可以实诚点。我们都多多给行业挤挤泡。 仰望星空,脚踏实地,匍匐前进。
Shelly
3周前
看到很多人在讨论workflow和agent哪个更好,我想说几个被忽略的关键点。 技术上,类n8n工作流集成LLM节点后,已经具备了推理、记忆、工具调用能力。 一个有LLM节点的n8n工作流,本质上就是带结构化约束的agent。 纯agent是完全自由的智能体,会学习、演进以及适应复杂的变化场景,n8n+LLM是有规则边界的智能体。 功能上,两者越来越相似。但是,当一个产品要客户买单的时候,真正的问题不是技术实现,而是谁掏钱,为什么掏钱。 企业老板的逻辑: - 不买工具,买结果 - 降本的逻辑最直接 - 原来10个人的活,现在3个人干,这是他能算清楚的账 - 但他担心风险:出错怎么办(需要有风险承担者)? 个人用户的逻辑: - 不要配置,要即用 - 今天写文案,明天分析数据,后天回复邮件 - 没人愿意为每个随机任务去配工作流(已经有的工作流,遇到要根据个人情况去做调整,整个工作流就不work了) - 一句话能解决的,绝不用两句话 其实这里有分化3层的人群: 工具层:功能强大,给专业人士用 服务层:个人开发者做外包,企业买结果 终端层:直接面向最终用户,零门槛 而现在需要KOC,就是承担着使用工具层去给企业交付结果的中间撮合层。n8n, make, RPA 这种,他的客户群体更多是个人开发者,而不是终端使用的人。企业端要交付结果,个人端要灵活易用。 中间层撮合很重要。到底这里的撮合是用技术实现,还是人去实现,不重要。 我们也不用纠结是哪个技术路线,理解客户的掏钱逻辑会更重要。
Shelly
1个月前
看完这篇文章,想起了最近我儿子问我的一个问题:“妈妈,AI什么都会,我为什么还要学物理化学语文?” 这个问题和文章里那个咖啡馆程序员的困境,本质上是同一个问题——在AI时代,基础知识还有意义吗? 先要承认一个事实:基础知识的定义本身就在变化。五十年前,程序员需要理解汇编语言和硬件原理;三十年前,需要掌握内存管理;十年前,需要理解HTTP协议细节。每一代人都在抱怨“现在的年轻人不懂基础”,但实际上技术栈的抽象层次一直在上升。 那个CSS居中的问题,在更抽象的视角下,也许根本不值得花时间学习——就像我们不再要求程序员手写汇编一样。 那个年轻工程师的真正问题不是不懂CSS,而是失去了拆解问题的能力。 同样,我儿子的疑问也反映了对“学习”的误解——把知识当成了信息存储。但物理教的不是公式,是建模思维;化学教的不是方程式,是变化思维;语文教的不是词汇,是表达思维。 这些思维框架决定了你能提出什么质量的问题,而问题的质量决定了AI能给你什么质量的答案。 有基础思维框架的人,用AI如虎添翼——他们知道如何精确描述需求,如何拆解复杂问题,如何验证AI的输出。 没有思维框架的人,用AI如盲人骑瞎马——他们只能提出模糊的需求,然后在AI的试错中消耗时间,最终沦为“提示工程师”。 AI时代的基本功不是记住更多知识,而是: 问题拆解能力 - 能把复杂需求分解成可操作的具体步骤 调试思维 - 当结果不对时,知道从哪里开始排查 系统性思考 - 理解各个组件之间的关系和影响 这些能力需要通过传统学科的训练来获得。物理给你建模能力,化学给你变化分析能力,语文给你精准表达能力。 我告诉我儿子:AI是一个超级聪明的助手,但它需要一个会思考的主人。 你学物理,不是为了记住公式,而是训练大脑把复杂现象拆解成清晰的因果关系。你学语文,不是为了背诵词汇,而是训练如何把内心复杂的想法准确传达出来。 没有这些思维训练,你只能对着AI说"这个不对",却说不出哪里不对、应该怎么改。 真正的成长,不是学会了多少知识,而是拥有了什么样的思维质量。 AI时代,这种思维质量比以往任何时候都更加重要。