Andy Stewart
2个月前
技术人可以锻炼成销售的,下面是方法 1. 技术人智商都很高,只要技术人想学习,是可以学的很快的,不是能力和难度的问题,而是想不想的问题 2. 话术变化: 技术人喜欢讲过程&原理,不懂技术的听不懂。销售主要讲利益和结论,所以销售表达效率更高,因为普通用户听不懂宝马发动机牛的物理原理,但是他懂利益结论: 快,质量好,操控性好 3. 勤奋脸皮厚:销售主要就是勤奋,不怕拒绝,拒绝后马上谈下一个客户。技术人太追求完美,希望每个客户都满意,一个不满意就在那里郁闷。销售不一样,在负责任的前提下,销售从来不会被不买的人,白P的人还有坏人的情绪影响,销售的理念就是下一个客户 4. 没有软肋:销售的心理强大基础是睁眼就要卖货,因为不吆喝不卖货就没吃的。很多技术人之所以做不到是没有逼到那份上,你没有销售的责任,你当然理解不了销售的难,你也理解不了销售的简单 5. 善于总结:销售会看数据总结好的策略,丢弃没用的策略。技术人因为不关心销售,所以对销售的风向不敏感,也就没法冲浪享受销售了 上年是代码狂魔转换销售狂魔的经验,我觉得最重要的还是第4点,没有逼到那份上,逼到那份上,一定可以 一旦你会了,就可以在代码狂魔和销售狂魔之间切换,和游泳骑自行车一样,不冲突,忘不了
汉松
2个月前
从零实现 vLLM 的第四篇文章,我们将目光转向 Transformer 架构中另一个看似简单、却至关重要的组件:RMSNorm(均方根归一化)。 我们先来看看什么是归一化,假设你刚考完期末考试,三门课的成绩出来了: 数学:120分(满分150) 英语:80分(满分100) 物理:160分(满分200) 哪门课考得最好?如果你直接比较 120、80、160,会得出物理最好的结论。但真实情况是:三门课其实考得一样好。 数学:120/150 = 80% 英语:80/100 = 80% 物理:160/200 = 80% 这就是归一化的核心思想:把不同量纲、不同范围的数据转换到统一的标准下进行比较。 为什么神经网络需要归一化? 想象一下,你在玩传话游戏。第一个人说"我喜欢苹果",传到第十个人那里变成了"我喜欢菠萝"。这就是深度神经网络面临的问题。 每一层网络都会对输入做一些计算,然后把结果传给下一层。问题是,随着层数增加,这些数值会变得越来越不可控——要么爆炸式增长,要么消失得无影无踪。就像传话游戏一样,信息在传递过程中逐渐失真。 在模型中加入归一化层,能够降低梯度爆炸或者消失的概率,模型的训练过程变得更加稳定。归一化技术从一开始的 BatchNorm 先演进到 LayerNorm,最后进化到了 RMSNorm,成为大模型的标配。 我的文章会带大家走进归一化技术的演进史,感兴趣的可以查看原文。
一个AI应用如何4个月做到3000万美金年收入? 一个AI设计工具,5月内测,7月公测,到9月底,日活跃用户(DAU)就冲到了15-20万,预估年收入(ARR)超过3000万美金。 这家公司叫Lovart,它的创始人陈冕说,增长的秘诀不是信息流投放,而是“把未来会发生的东西提前描绘出来,然后等它发生了。” 这听起来有点玄学,但在技术范式剧烈变革的AI时代,这可能就是唯一的答案。 01 “未来”发生时,你必须在场 2025年5月,Lovart开启内测,DAU维持在一两万的水平。7月底,产品全面开放,DAU迅速涨到8-10万。紧接着,新的多模态大模型“Nano Banana”发布,Lovart因为早已做好产品适配,无缝衔接了模型能力,DAU再次跃升至15-20万。 “我们基本上是一个月上一个台阶。”陈冕说。 收入曲线与用户增长几乎完全同步,从测试期几乎为零,到9月底,ARR突破3000万美金。这一切只用了短短4个月。 惊人的增长背后,是陈冕对AI时代节奏感的精准判断。她认为,AI应用公司并不掌握底层模型的创新能力,增长的核心驱动力,来自于对模型演进方向的“预判”。 “你就得预判模型会有的演化方向,然后你提前把模型成熟后,它对用户交互(interface)的颠覆先描绘出来,等模型ready的那一刻,你就疯狂地秀出来。” Lovart的“Chat Canvas”功能,就是这个方法论最完美的实战案例。 02 实战案例:Chat Canvas的诞生 在Lovart之前,大部分AI设计工具的交互都停留在“对话框”——你输入提示词,AI给你一张图。 但这种方式完全不符合真实的设计工作流。 “你跟一个设计师沟通,你不会只对着他的脸说话。”陈冕打了个比方,“你们一定需要一个屏幕或者桌子去做视觉的对齐,你指着那个视觉产物说我要改这里,我要改那里。” 这个行业痛点显而易见,但为什么没人做?因为在过去,模型根本听不懂这么复杂的需求。对着图片“指指点点”,AI改不准,也理解不了。 但陈冕赌模型的能力一定会进化。 “我们最开始做Lovart的时候,连GPT-4o的图像功能(GPT image one)都还没出来。”但通过与模型公司的交流,她预判到,更强的多模态理解和图像编辑能力,一定是技术演进的下一个方向。 于是,在模型能力还未“Ready”时,Lovart团队就超前提开发了“Chat Canvas”功能——一个允许用户在画布上直接与AI沟通、实现“指哪改哪”的全新交互界面。 后果可想而知。当GPT image one、Nano Banana等一系列支持复杂指令遵循的新模型发布后,整个行业还在研究如何接入API时,Lovart早已万事俱备。 “别人还没来得及做,我们已经上了。”陈冕说。 这种快,不是源于蛮力,而是源于对未来的清晰描绘和提前布局。 03 护城河:比模型更重要的是上下文 当所有应用都能用上同样强大的模型时,新的问题出现了:你的产品凭什么比别人更好? 陈冕的答案是:Context,即上下文。 “其实大家模型都一样,所以谁能收集更多的Context,就意味着谁的体验更好。” 她再次用与真人设计师沟通的场景举例: “如果要为‘晚点’做一个系列海报,一个优秀的设计师首先要理解,‘晚点’是一家什么调性的媒体?它过往的物料是什么风格?它的受众是谁?” 这些信息,就是最关键的Context。一个刚毕业的实习生和一个资深设计总监的差距,本质上就是对这些行业经验、客户偏好等隐性知识的掌握程度。 Lovart正在做的,就是把这套真人设计师的工作流,复刻给AI。 “我们会做一个Context模块。当你输入需求时,我们的小模型会快速思考,然后反问你,可能需要你提供更多信息,比如公司的官网链接、过往的设计图,或者让你从最近流行的几种风格里选一个你的偏好。” 通过多轮交互,Lovart就能逐渐沉淀出每个用户专属的“风格库”和“偏好库”。当这个用户再次创作时,AI就能像一个合作多年的老搭档,快速调取这些Context,交付出更精准、更个性化的结果。 这就是应用层的护城河——当模型能力趋同,数据成为新的壁垒,而最核心的数据,就是用户在真实场景中沉淀下的、独一无二的上下文。 04 赌AI会越来越像“人” 从预判技术趋势,到构建原生交互,再到沉淀核心数据,Lovart的增长飞轮,建立在一个最底层的信念之上。 “我就是赌一件事儿,AI最终会越来越像一个人。”陈冕说。 “所以我们回到与‘人’沟通最自然的方式去设计产品。如果技术发展慢了,那我们可能看起来有点傻。但是,一旦它的速度就是这么快,它就是越来越像人,那我们的产品就越来越强,我们就提前拥有了正确的答案。” 在AI时代,技术的发展曲线陡峭得超乎想象。正如陈冕所说:“你往往在觉得短期可能有点高估它的时候,过两天你就发现,你低估了它。” 4个月,3000万美金年收入,这只是一个开始。真正的壁垒,是在技术浪潮来临前,就已经描绘出未来的蓝图,并坚定地把它造出来。 from 晚点聊 LateTalk 136: Sora新世界 & Lovart 4个月复盘 | 与陈冕聊怎么做垂类Agent|Agent#5