Shelly
3天前
有两个类型的自动化需求,我是不会接的。 1. 想用 AI 直接干掉某个职能岗位。 就举短视频切片这个需求。理想的情况下,是给一个指令描述,AI 直接把短视频内容做音转字幕,把字幕去做分段,理解,剪辑切片,配转场配开头爆款 5 秒钩子,AI 直接口喷一个能做爆款视频的短视频。不好意思,现在的模型还做不到。 AI 能做的,是把机械剪辑部分全自动化。把机械剪辑的人力投入去掉,并且产能从一个基础编辑一天出 30 条切片,变成 300 条。人放在视频的设计,高级编辑上,真正做差异化价值的投入上。 2. 没有成功案例,把 AI 当 magic tricks ,解决连人都不知道,没有成功经验的东西。 举个例子,预测买哪个币能赚钱,哪个品会爆,哪条视频会火,但是自己没有任何方法论。 给企业做 AI 落地,我会通过以下问题,评估能不能做 1. 有没自己的方法论。 2. 方法论人工能不能实现。 3. 方法论依赖的数据源是否可获取。 4. 有没这套流程,效果是否有差异。能否评估落地的效果。 举个例子,客户说,我不知道为什么在当地做的直播,销量就是不好。你 AI 能帮我分析,生成视频吗?这种我会直接告诉对方,不能。 人都不知道从而入手,没有任何成功经验,是用不好 AI 的。 AI 能提升效率、响应效率,产能,它是一个杠杆。但是无法解决你自己都不清晰路径的问题。起码当前很难。
Shelly
1周前
这两天又看到几波产品发布。 timeline 上同时出现整齐划一的震惊体推广。我知道这是常规操作,就是还是有点不适应。 大模型和 agent 特别容易这样推。 因为能力太抽象,你说它 “理解更深” “推理更强”,谁也没法立刻验证。所以 “颠覆性” “革命性” 这些词就很好用。 工具型产品会好一点。至少会有人写使用反馈。 但仔细看,这些反馈都在讲品牌方预设的卖点。 “提升效率” “节省时间” “优化流程” “完成了不可能任务”。 说的都对,但总觉得少了点什么。 我理解为什么会这样。 这个行业太挤了。大家在做类似的事,不喊大声点,谁看得到你?投资人要数字,团队要增长,产品还没完全 ready 但窗口期不等人。 仿佛诞生于大力出奇迹的模型自己也被训练出这种焦躁,希望立刻获取用户注意力的文字输出,急切希望能讨好一切。 都急。都没错。 但用户也会累。 今天你说突破,明天他说革命,下周又有新的突破。看多了,就麻木了。最后大家都在喊,但没人在听。 而且这样推,会错过一些东西。 你知道 Excel 刚出来时,没人想到会有人用它画画、做游戏。 Notion 最初只是笔记工具,现在有人用它管公司、建数据库。 很多工具最有价值的用法,是用户自己发现的。 有人把自动化工具串起来做了个意想不到的流程。 有人发现某个功能组合起来,能解决一个从没被正视过的痛点。 有人用你完全没想到的方式,把产品用到了另一个领域。 这些才是真实的惊喜。 但它们很难被 “设计” 出来,只能被 “发现”。 现在的推广都在说 “你应该这样用”。 但如果每个人都按同一套话术在用,其实挺无聊的。 产品真正活起来,是用户开始玩出花样的时候。 所以也许可以换个思路: 别急着告诉用户答案。 而是给他们空间去探索。 那些不在计划内的尝试,那些 “哎,原来还能这么用”的发现,可能才是产品真正的潜力。最近也看到几个挺好的用心使用产品的推广例子。 不知道行业会往哪走。 但我希望,几年后回头看,timeline 上不只是一波波整齐划一的发布。 还能看到很多乱七八糟的尝试。 看到用户说 “我用它做了个奇怪的东西”。 看到那些完全没被预设的用法。 那才是真正的生长。
Shelly
3周前
AI落地为什么这么难? 前天见了个做美妆的朋友。 他们品牌在东南亚卖到在平台上全品类第一。 国内今年销量翻倍,但他愁眉苦脸。 一场直播 1000 万, 6 折促销,单件利润 2 块。老板要他降本一半。 旁边的同事赶紧建议他上 AI,可以帮他降本。 他说:千万别,不要向老板卖降本的方案。 降本是个陷阱。 老板说要降本, 其实要的是利润。 降本本身很难被衡量。 你说省了10个人, 老板会问:为什么业绩没涨? 而且降本意味着裁人。 要用 AI 的人,就是会被裁的人。 他们当然抵制。 这听起来,好像很矛盾。但是却很玄妙。 老板明确说了“降本”。他却说“不要卖降本方案”。 这说明什么? 老板自己也不知道要什么。 他说降本, 因为利润只有 2 块,急了。 但 2 块利润,不是成本高。 是价格卷穿了地心。 6 折直播,1000 万流水,20 万利润。 你裁掉 10 个人,省 50 万。 有用吗? 杯水车薪。 AI to B 落地,往往会遇到三方博弈: 老板要利润,但说不清路径。 中层要业绩,不敢碰组织。 员工要饭碗,会软抵抗。 所以许多降本的 AI 项目都死在“试点”。 试点成功了,不敢推广。 因为推广就要动人。 前同事说到: 先帮他赚钱,再谈降本。 但还有第三条路:找一个“无主之地”。 不是取代现有岗位, 是做现在没人做的事,做增收,或者能帮采用部门,扩大预算或者人头的事。听起来好像跟老板原来降本的需求南辕北辙。但却是真实发生的案例。 他们原来每年都要花大几百万去买数据以及配备分析人员,分析品类在个个短视频里的销售情况。有人建议调研,我给你上 AI 替代一半的调研预算。 你猜结果?调研总监极力反对。 为什么? 预算砍了,他部门就小了。 后来怎么办? 他们换了个方案。 AI 不替代调研。 AI做“实时舆情监控”。 这是新需求。 以前没人做。 因为人工来不及。 现在 AI 做。 调研总监变成了“舆情中心负责人”,也能及时回答上老板,为什么竞品的销量最近突然上去了。 团队没裁人,还扩了 2 个。 项目落地了。 AI落地的关键, 不是证明 AI 比人强。 是让人觉得: 我用了 AI,我更强。 别动存量,找增量。 别替代人, 武装人。 去找那些人做不到的事:实时的、大规模的、 跨部门的。 那是 AI 的主场,也是无主之地。 没有利益冲突, 只有利益增量。 项目才能活。 听完,也就明白我前同事开头说,千万不要卖降本方案的原因。
Shelly
3个月前
所有深耕在agent行业的创业者,都值得一个点赞。 你知道吗?大部分做了几年的agent应用,都不赚钱。还要时刻担心着大厂的制裁,模型的覆盖,用户的流失。 用户看到ChatGPT聊天,就以为Agent能自动处理一切。开发者看到Demo酷炫,就以为生产环境顺滑。别人瞅着Anthropic的multi-agent公开Prompt,以为照着做就能行,却不知Claude客户端做了多少优化,才能勉强撑起research级垂直应用。 很多人天真地以为只需写几个精妙的Prompt,就能搞定一个智能Agent。但现实是残酷的:Agent需要处理用户意图、行动链条、工具使用和错误处理,这背后是层层挑战的深渊。 核心处理逻辑:从模糊输入提炼意图(如“帮我订票”→旅行规划+预算),构建ReAct循环多步链条,调用工具注入上下文,检测失败并学习。 这些看似简单,一深挖就暴露血泪:挑战包括上下文管理(随意堆Prompt导致混乱,需系统化框架);窗口爆炸(工具膨胀、海量返回数据、历史积累、链式级联、动态变化);LLM工具调用问题(幻觉、选错工具、解析失败、反馈缺失、成本退化、安全风险)。 这些问题在多模态Agent中凸显,尤其长任务中幻觉让开发者一夜白头。 垂直Agent创业更添隐形血泪:需深挖Know-how(数据、知识、best practice,如医疗需海量病例),极致体验绑定工作流。但数据治理差导致判断失准,项目夭折;忽略细节,用户流失。 这些不是空谈,是开发者天天撞的墙。 期望与现实错配,是所有血泪的根源。但不只是用户不懂技术,是整个行业贩卖错误预期。每个AI公司暗示“通用智能触手可及”。每个Demo展示完美case。没人说:这只在受控环境下奏效。媒体放大幻象,“AI取代所有工作”的标题比“AI辅助部分任务”吸睛。连开发者都被自家Demo骗了。 现今的Agent的创业者,正在不断地在摸爬滚打中,回归更现实主义:从“Prompt主义”转向系统工程+领域专家,视Agent为混合人力。老实降期望,狠抓体验。 Anthropic手册:Prompt起步,加MCP,告诉用户“research止步”。企业推人机混:AI帮,人管。行业从业者,我们可以多多晒败仗,媒体的宣传也可以实诚点。我们都多多给行业挤挤泡。 仰望星空,脚踏实地,匍匐前进。
Shelly
4个月前
看到很多人在讨论workflow和agent哪个更好,我想说几个被忽略的关键点。 技术上,类n8n工作流集成LLM节点后,已经具备了推理、记忆、工具调用能力。 一个有LLM节点的n8n工作流,本质上就是带结构化约束的agent。 纯agent是完全自由的智能体,会学习、演进以及适应复杂的变化场景,n8n+LLM是有规则边界的智能体。 功能上,两者越来越相似。但是,当一个产品要客户买单的时候,真正的问题不是技术实现,而是谁掏钱,为什么掏钱。 企业老板的逻辑: - 不买工具,买结果 - 降本的逻辑最直接 - 原来10个人的活,现在3个人干,这是他能算清楚的账 - 但他担心风险:出错怎么办(需要有风险承担者)? 个人用户的逻辑: - 不要配置,要即用 - 今天写文案,明天分析数据,后天回复邮件 - 没人愿意为每个随机任务去配工作流(已经有的工作流,遇到要根据个人情况去做调整,整个工作流就不work了) - 一句话能解决的,绝不用两句话 其实这里有分化3层的人群: 工具层:功能强大,给专业人士用 服务层:个人开发者做外包,企业买结果 终端层:直接面向最终用户,零门槛 而现在需要KOC,就是承担着使用工具层去给企业交付结果的中间撮合层。n8n, make, RPA 这种,他的客户群体更多是个人开发者,而不是终端使用的人。企业端要交付结果,个人端要灵活易用。 中间层撮合很重要。到底这里的撮合是用技术实现,还是人去实现,不重要。 我们也不用纠结是哪个技术路线,理解客户的掏钱逻辑会更重要。
Shelly
5个月前
看完这篇文章,想起了最近我儿子问我的一个问题:“妈妈,AI什么都会,我为什么还要学物理化学语文?” 这个问题和文章里那个咖啡馆程序员的困境,本质上是同一个问题——在AI时代,基础知识还有意义吗? 先要承认一个事实:基础知识的定义本身就在变化。五十年前,程序员需要理解汇编语言和硬件原理;三十年前,需要掌握内存管理;十年前,需要理解HTTP协议细节。每一代人都在抱怨“现在的年轻人不懂基础”,但实际上技术栈的抽象层次一直在上升。 那个CSS居中的问题,在更抽象的视角下,也许根本不值得花时间学习——就像我们不再要求程序员手写汇编一样。 那个年轻工程师的真正问题不是不懂CSS,而是失去了拆解问题的能力。 同样,我儿子的疑问也反映了对“学习”的误解——把知识当成了信息存储。但物理教的不是公式,是建模思维;化学教的不是方程式,是变化思维;语文教的不是词汇,是表达思维。 这些思维框架决定了你能提出什么质量的问题,而问题的质量决定了AI能给你什么质量的答案。 有基础思维框架的人,用AI如虎添翼——他们知道如何精确描述需求,如何拆解复杂问题,如何验证AI的输出。 没有思维框架的人,用AI如盲人骑瞎马——他们只能提出模糊的需求,然后在AI的试错中消耗时间,最终沦为“提示工程师”。 AI时代的基本功不是记住更多知识,而是: 问题拆解能力 - 能把复杂需求分解成可操作的具体步骤 调试思维 - 当结果不对时,知道从哪里开始排查 系统性思考 - 理解各个组件之间的关系和影响 这些能力需要通过传统学科的训练来获得。物理给你建模能力,化学给你变化分析能力,语文给你精准表达能力。 我告诉我儿子:AI是一个超级聪明的助手,但它需要一个会思考的主人。 你学物理,不是为了记住公式,而是训练大脑把复杂现象拆解成清晰的因果关系。你学语文,不是为了背诵词汇,而是训练如何把内心复杂的想法准确传达出来。 没有这些思维训练,你只能对着AI说"这个不对",却说不出哪里不对、应该怎么改。 真正的成长,不是学会了多少知识,而是拥有了什么样的思维质量。 AI时代,这种思维质量比以往任何时候都更加重要。