#LLM工具调用

Shelly
1周前
所有深耕在agent行业的创业者,都值得一个点赞。 你知道吗?大部分做了几年的agent应用,都不赚钱。还要时刻担心着大厂的制裁,模型的覆盖,用户的流失。 用户看到ChatGPT聊天,就以为Agent能自动处理一切。开发者看到Demo酷炫,就以为生产环境顺滑。别人瞅着Anthropic的multi-agent公开Prompt,以为照着做就能行,却不知Claude客户端做了多少优化,才能勉强撑起research级垂直应用。 很多人天真地以为只需写几个精妙的Prompt,就能搞定一个智能Agent。但现实是残酷的:Agent需要处理用户意图、行动链条、工具使用和错误处理,这背后是层层挑战的深渊。 核心处理逻辑:从模糊输入提炼意图(如“帮我订票”→旅行规划+预算),构建ReAct循环多步链条,调用工具注入上下文,检测失败并学习。 这些看似简单,一深挖就暴露血泪:挑战包括上下文管理(随意堆Prompt导致混乱,需系统化框架);窗口爆炸(工具膨胀、海量返回数据、历史积累、链式级联、动态变化);LLM工具调用问题(幻觉、选错工具、解析失败、反馈缺失、成本退化、安全风险)。 这些问题在多模态Agent中凸显,尤其长任务中幻觉让开发者一夜白头。 垂直Agent创业更添隐形血泪:需深挖Know-how(数据、知识、best practice,如医疗需海量病例),极致体验绑定工作流。但数据治理差导致判断失准,项目夭折;忽略细节,用户流失。 这些不是空谈,是开发者天天撞的墙。 期望与现实错配,是所有血泪的根源。但不只是用户不懂技术,是整个行业贩卖错误预期。每个AI公司暗示“通用智能触手可及”。每个Demo展示完美case。没人说:这只在受控环境下奏效。媒体放大幻象,“AI取代所有工作”的标题比“AI辅助部分任务”吸睛。连开发者都被自家Demo骗了。 现今的Agent的创业者,正在不断地在摸爬滚打中,回归更现实主义:从“Prompt主义”转向系统工程+领域专家,视Agent为混合人力。老实降期望,狠抓体验。 Anthropic手册:Prompt起步,加MCP,告诉用户“research止步”。企业推人机混:AI帮,人管。行业从业者,我们可以多多晒败仗,媒体的宣传也可以实诚点。我们都多多给行业挤挤泡。 仰望星空,脚踏实地,匍匐前进。