时政
财经
科技
虚拟货币
其他
登录
#Kimi
关注
Kai
1周前
一个观察: 为什么我说 cursor 的本质上就是二道贩子,因为如果你想做一个很强的 agent,定义一些自己的“高科技”tool。 但如果这种 tool 是在训练模型的数据中没有相似的,也就是模型完全没见过这种模式的 tool,模型是很难正确调用这个 tool 的,因为 GPT 这种架构的泛化能力并不强。 这就是为什么你看到 cursor 的 tool 都是模仿现有的 tool,比如 grep 这种模型已经见过格式和形式。 如果你发明了一种特别高效 特别强的 tool,那必须用大量的跟这个 tool 相关合成数据在训练的时候交互模型这个 tool 的使用方式。但靠 prompt 是教不会的。 这也就是为什么在 kimi 公开的文档中,为了强化 k2 的 agent 能力,他们搞了一堆模拟真实 coder 会用的 tool 调用的输入和输出,让模型学会不同类型的 tool 大概是什么样的,才能强化模型在 agent 的场景的能力。 TLDR: 好的 agent 必须搭配针对这个场景 fine-tune 过后的 model
#Cursor
#agent
#Tool
#GPT
#Kimi
分享
评论 0
0
宝玉
1周前
推荐阅读:大模型大逃杀:一山不容「六小虎」 中国AI领域聚集了最多钱和人才的几家创业明星公司,为什么集体失意? 摘录一段零一万物的: 一开始,不少零一万物的早期产品核心成员,是为了做出“Super App”,才选择加入零一万物。 一名知情人士记得,李开复承诺他们,公司会给予产品立项很高的自由度:“开复鼓励大家对Super App的形态进行自由探索,只要有好想法,公司就给团队和资源试水。” 这样的承诺为零一吸引了不少人才,包括在飞书工作过的曹大鹏和蓝雨川。 很快,曹大鹏就做出了PopAi,一款在海外上线的AI办公工具。效果也不错——截止2024年3月,PopAi的ROI已经打正,每周付费的增长率达到了30-40%,高峰期ARR接近千万美元。 这本是一场不错的胜仗。若是延续下去,PopAi会成为零一万物找到PMF(产品-市场适配度)的代表作,也会成为零一万物继续融资、维持生存的重要砝码。 但不出一年,零一万物却戏剧性地暂时搁置了PopAi。 原因也相当戏谑。2024年3月,月之暗面的产品Kimi在国内出圈,由于担心丢失国内市场,零一万物决定将产品的重心,从成熟的海外市场,转向国内。 当月,零一万物的高管就拍板,复刻Kimi,在国内上线一款AI生产力工具“万知”——一款几乎每家AI公司都有的对话框产品。 最终,被零一寄予厚望的“万知”,分走了PopAi的大部分人力和金钱。失去了迭代和营销的资源,PopAi急转直下,“付费平均每个月都跌20%”。 就这样,零一在厮杀中反而丢掉了一个重要武器。 更具戏剧性的是,被零一效仿的对手,月之暗面,其看似华丽的增长数据,也是用近乎饮鸩止渴的手段实现。 “内部对标的是全盛时期的小红书增长曲线。”月之暗面员工刘磊对“智能涌现”打了个比方:如果Kimi第一个月的正常增长达到了200万,下个月和下下个月就得达到400万和600万,“没有任何一款初期产品能够达到这样的指数型增长。” 为了达成不现实的数据指标,月之暗面只能选择激进的投流。在过去的2024年,Kimi的投放预算一度水涨船高。另有月暗的员工告诉“智能涌现”,投流的最高峰在2024年12月,预算达到了惊人的2亿元。 只是,烧出来流量,需要靠不断迭代的产品力去承接。但Kimi团队忽略了这一点。 “Kimi只管花钱,但产品团队怎么和增长团队配合,怎么迭代功能去提高用户留存,完全没有概念。”上述员工直言,靠“长文本”出圈后,Kimi在2024年,几乎没有再造一个爆点功能,“维持原有的增长率,已经很不容易。” 这就是这场“六小虎”生存战的荒谬之处:他们将“超越对手”当做了核心目标,而正常的产品研发流程、健康的业务增长方法,都因为杀红了眼,统统被忽略。 总结PopAi的成功,一名零一万物员工告诉“智能涌现”,关键在于匹配市场需求。但为了尽快上线,“万知”跳过了用户调研、竞品对比、产品形态规划。后来,万知这款没有差异化竞争力的产品,推出仅3个月后,就因成绩不佳停止了运营。 并非没有人给高层敲响警钟。 “万知”和PopAi两款产品的负责人曹大鹏,并不是“万知”立项的支持者。相反,他是最反对的一个。不少PopAi团队成员,也对“万知”有所顾虑,原因在于国内工具类市场已经被Kimi占据的心智,彼时入局不是好时机。 产品策略的不合,最终导致人才的出走。2024年8月,曹大鹏选择离职,随后辗转加入字节,出任AI视频生成工具“即梦”的产品负责人。 一名专做高级人才招聘的猎头,曾在2023年给两家六小虎的高管提出建议,让他们尽快从大厂和创业者中找一位产品主理,去弥补产品基建的短板。 其中一家小虎的产品经理,也曾形容在其中做产品的感觉为“刀耕火种”:“完全不成体系,连最基础的A/B Test(一种产品效果的测试方法),也没有人去搭建。” 事与愿违。两家企业拒绝猎头的口径如出一辙,“他们和我说,做产品相对做技术而言简单得多,只要做好技术,他们做产品也不在话下。” 六小虎往往都是一手做产品,一手做模型。最后,两家企业招人的预算,都用在了技术人才上。
#大模型
#零一万物
#PopAi
#Kimi
#内卷
分享
评论 0
0
砍砍@标准件厂长
1周前
让 kimi 找了一下十年内 macOS 的更新和包大小 感觉这几年的更新都不痛不痒的。。。
#macOS更新
#Kimi
#不痛不痒
#近十年
#包大小
分享
评论 0
0
Geek
1周前
我脑补今天国内开源大语言模型智谱、千问、Kimi、DeepSeek团队满怀期待的下载 GPT-OSS 使用后,一脸懵逼的问这玩意研发花了多少钱?? 旁边人: 数十亿美元研究的成果🤣
#开源大语言模型
#gpt-oss
#智谱
#千问
#Kimi
#DeepSeek
#数十亿美元
#懵逼
分享
评论 0
0
Kai
2周前
2025年7月绝对可以被称为,中国大模型的「安卓时刻」。 就像 iPhone 改变了世界,但安卓真正普及了新时代体验。 国产大模型 Kimi Qwen GLM连续一个月开源一系列模型,悄无声息地完成了「规模对等」「性能对齐」「成本反杀」的三连击。 Kimi K2 是 1T 参数 MoE 架构;Kimi-K2 与 GLM-4.5 能够在 Claude Code 运行并完成复杂软件开发。Qwen3-Coder 也在 openrouter 编程用量榜单排到第二。 过去 AI 编程几乎只有 Claude 一个选择,完全不存在性价比平替,但在7月之后,局面被完全改变。好几家 AI 编程产品如 Cursor,Windsurf 以极快的时间上线了 Kimi 和 Qwen。 这是一种「安卓时刻」的重演:不是因为硬件超越,而是因为足够便宜、足够好用、足够自由。不再需要巨头模型的 API 许可,就可以构建自己的全流程 Coding Agent;不再需要受制于欧美定价,可以自行托管运行专属的代码引擎。 将超级 AI 的权力普惠化,并不是要打倒谁,而是给出另一个普世的选择。
#中国大模型
#Kimi
#Qwen
#开源
#AI编程
分享
评论 0
0
dontbesilent
2周前
怎么能知道元器里面这个模型是 kimi K1 还是 K2 🤔
#元器
#Kimi
#K1
#K2
#模型
分享
评论 0
0
張小珺 Xiaojùn
2周前
给大家整理了技术报告link: 第一篇技术报告:Kimi K2: Open Agentic Intelligence 第二篇技术报告访谈:Introducing ChatGPT agent: bridging research and action 红杉访谈OpenAI:OpenAI Just Released ChatGPT Agent, Its Most Powerful Agent Yet 第三篇技术报告:Qwen3-Coder: Agentic Coding in the World 第四篇技术博文:AI代理的上下文工程:构建Manus的经验教训(作者:Yichao 'Peak' Ji)
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 328 条信息
#Kimi
#ChatGPT Agent
#Qwen3-Coder
#AI代理
#技术报告
分享
评论 0
0
Cell 细胞
2周前
笑死,感觉被某大模型厂商耍了,RNM退钱!诈骗营销! Kimi 锐评:“1 万亿”是营销锚点,“3.89 亿”才是你摸得到的天花板。
#大模型
#虚假宣传
#Kimi
#营销锚点
#差评
分享
评论 0
0
𝗖𝘆𝗱𝗶𝗮𝗿
3周前
Juchats 化学分子式展示已上线,新版本新结构将会继续深耕。 Kimi K2 Speed 模型(快速模型)支持全模态 Kimi K2 官方模型(慢速模型)效果突出,支持全模态 针对 化学分子结构展示
#Kimi
#K2 Speed 模型
#化学分子结构
#全模态支持
#新版本
分享
评论 0
0
LysonOber
3周前
晚上跑去学校闲逛碰到了正在做 Research 的外国同班同学,他过来就是一顿猛夸 Kimi & Qwen。说抛开那些测评榜单不谈,就事论事 —— 「Kimi 在我的实际使用过程中和 Claude 相差不大但要便宜很多,数学能力也令人满意;Qwen 完全可以 handle 自己的研究需求。感觉中国团队非常 Crazy,不仅做到让模型的使用成本低,而且效率还很高。」
#Kimi
#Qwen
#大模型
#成本
#效率
分享
评论 0
0
Geek
3周前
Kimi K2 还没捂热,Qwen3 235B A22B 2507 又上线了,现在我每天最期待的就是各种新模型发布。OpenRouter 免费版不太稳定,有时需要重试几次才能成功。今天收到 Google Cloud 平台邮件,大号有望解封…
#Kimi
#Qwen3
#大模型
#Openrouter
#Google Cloud
分享
评论 0
0
Y11
3周前
Kimi公司最近估计到了新的台阶,需要新一波流量支撑用户增长,目前下一轮增长目标应该是在海外,最近开出了好多新岗位,分享给大家。即使你不懂AI,但是你特别会投流(譬如之前做游戏投流、短剧投流、出海投流),你也可以借着这个稀缺的机会,进入到这一家优秀的大模型公司。传送门:
#Kimi
#AI
#海外市场
#招聘
#投流
分享
评论 0
0
Oasis Feng
4周前
哈哈,让 Kimi K2 作事实核查,居然把一篇其它 AI 幻觉出的裁判文书说得全是真的……🤣 #艾艾相卫
#AI乱象不止:内容注水,隐私堪忧· 155 条信息
#Kimi
#K2
#AI幻觉
#事实核查
#裁判文书
分享
评论 0
0
Kai
4周前
cursor 悄悄上了 Kimi 的 K2-instruct 模型 “谁赢他们帮谁”
#Kimi
#K2-instruct
#Cursor
#大模型
#竞争
分享
评论 0
0
Kai
4周前
联系到了微软前同事,现 kimi 工程师,准备对 Kimi 的 K2 模型进行一次播客采访 大家有什么想问的嘛 😋 快来恭喜贡献一些话题!
#Kimi
#K2模型
#微软
#播客采访
#话题征集
分享
评论 0
0
Tom Huang
4周前
哈哈哈没想到有一天,Kimi K2 也能出现在 Refly 中⚡️ 同时上的还有 Grok4😆 开始进入主流赛道了,Kimi 起飞了🛫
#Kimi
#Refly
#Grok4
#大模型
#AI
分享
评论 0
0
Ray Song
4周前
Kimi 三个劣势: 太慢。 不够便宜。 context 太短。 如果跟我一样主要用于分析代码,而不是 agent,gemini 2.5 flash 还是更好的选择。
Google Gemini 2.5发布引发AI模型性价比热议· 97 条信息
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 328 条信息
#Kimi
#Gemini 2.5 Flash
#代码分析
#性能对比
#劣势
分享
评论 0
0
張小珺 Xiaojùn
5个月前
长篇技术科普第三篇,关于注意力机制。 上周DeepSeek和Kimi发布了最新研究工作,我们对DeepSeek NSA、Kimi MoBA、MiniMax-01,最近的3篇注意力机制论文逐篇精读。(嘉宾松琳在MIT做注意力机制研究方向)——希望和你一起领略科技平权,感受技术之美,也希望我们能与AI共同进步🤩
#技术科普
#注意力机制
#AI
#DeepSeek
#Kimi
#科技平权
分享
评论 0
0
阑夕
6个月前
一年前,也是在春节期间,OpenAI突然发布了断档领先的视频大模型Sora,给国产AI厂商添了大堵,被调侃为都过不好年了。 一年后的这次临近春节,轮到中国AI厂商给美国竞对们上眼药了,Qwen、DeepSeek、Kimi、Doubao连着发大招,你方唱罢我登场,实在热闹。 因为别人太强而过不好年,和因为自个忙起来根本就没想过好年,是完全不同的两码事。 字节跳动新发布的豆包1.5 Pro,除了在基准测试里表现抢眼之外,还特意强调了两个点: - 基于豆包产品的大规模用户反馈,实现了以用户数据飞轮持续提升模型能力的优化系统; - 模型训练过程中,未使用任何其他模型生成的数据,坚持不走捷径,确保数据来源的独立性和可靠性。 这两个点,很容易联想到最近的两件事:前一个是MiniMax的创始人在接受采访时提出的反共识,认为用户越多并不能推动模型越强;后一个则是中科院、北大等六家机构发了篇学术论文,用两种方法验证了Claude、Gemini和豆包没有蒸馏其他模型,DeepSeeek的蒸馏程度则比较高。 豆包的意思是,用户数据飞轮对大模型仍然有价值,推翻了它,就意味着否认用户市场和技术发展之间的关系,大家也都没必要追求MAU/DAU了,以及用先进模型去教出一个学生模型出来,并不能让学生真正变得比老师更加聪明。 Sam Altman早些时候也发过一条意有所指的隐晦推文:「复制你知道行得通的东西是(相对)容易的。当你不知道它是否行得通时,做一些新的、有风险的、困难的事情是非常困难的。」 严格来说,豆包的表态更像是在输出一种自我要求的标准,而没有太多的diss成分,中国需要DeepSeek这样的公司用最快速和低成本的方法推动AI技术开放,也需要字节这样的大厂用更重的投入、走更难的路去挑战更高目标。 这种并无计划的错位搭配,正是国产科技行业擅长的饱和式路线,资源受限的公司,可以拿出性价比最优的方案,突出一个物超所值,资源充裕的公司,也确实有资格不抄近道,做好和模型预研、实验、训练共同生长的数据基建。 豆包这次的亮点在于,即使没有采用能快速复制海外先进模型能力的蒸馏方法,而是老老实实的自建庞大的人工标注团队和数据生产体系,依然能把模型效果做到GPT-4o的水平,也充分发挥了中国团队的工程优化能力来降低推理成本,而且无论是DeepSeek还是豆包在谈及定价策略时,都曾很是无辜的表示并没有挑起价格战的意图,自己是有利润的,成本结构完全可以实现。 与此同时,Musk和Altman还在为「星际之门」项目到底有没有5000亿美金能够到账而吵个不休⋯⋯ 当然OpenAI依然值得尊重,只是在行业整体都在大幅前进的情况下,有多少是站在巨人的肩膀上,又有多少正在成为新的巨人,这是很有讨论价值的,也是在开启一个波澜壮阔的硅基时代前,不可缺少的仪式性帷幕。 科技公司通常会凸显研发支出占总收入的比重,视其为愿意在多大程度上投入核心竞争力的决心,以后倒可能会有一个类似的新指标出来,那就是对AI的支出占总支出的比重,这代表公司愿意在未来上押注多少现金流。 这是字节跳动最有力量的标志,从收入体量来看,它是全球级的互联网大厂,不但有着管够的弹药,而且可以自给自足,不必过于依赖外部输血,去年在AI设施上花的钱几乎相当于BAT之和,在投入和产出两个方面都成了国内断崖领先的榜一。 另一方面,豆包的发展也带有很强的商业逻辑,无论是它对大模型调用经济性的重视,还是带着火山剪映等兄弟业务协同发展,甚至包括衔接上下游产业链去做更多样化的的产品,都相当务实。 有的时候也会感慨,这种务实在需要喊口号时,也很难一下子变得浪漫化,尤其是在英文圈里言必称AGI、各种科幻梗层出不穷的背景下,再去看字节跳动为AGI团队Seed Edge设立的五大目标,只能说真的很理工化,没有半分虚的: - 探索推理能力的边界,用更先进的推理带动智能的提升; - 探索感知能力的边界,不止是语言模型,还要建立世界模型; - 探索软硬一体的下一代模型设计,用模型的需求反过来为硬件设计指路; - 探索下一代学习范式,既要挑战现在的共识,还得提出新的改进空间; - 探索下一个Scaling方向,推动智能边界的进步。 就,很具体明晰,很就事论事,有没有?根本不存在那种金句或者机锋,每一个字每一句话都是在精确的传达给字节跳动想要招揽的科学家和工程师,唯一画的大饼,就是承诺Seed Edge将会独立制定考核方式,充分提供前沿研究的工作环境。 也只有字节跳动来做这样的事情,是最合适的了。 张一鸣早年发过一条微博,说在遇到技术问题时,公司花了两天时间集中排查,终于得到解决,而这个过程让他感到愉悦: 「想起稻盛和夫说的:用尽全力,异常认真,神明就会来相助。其实神明未必相助,但是你会更接近问题的本质,从而解决问题。」 我想说的是,从今日头条,到抖音,再到豆包,其实都是这个过程的复现。
#OpenAI
#视频大模型Sora
#国产AI厂商
#Qwen
#DeepSeek
#Kimi
#Doubao
#字节跳动
#豆包1.5 Pro
#美国竞对
分享
评论 0
0
向阳乔木
6个月前
最近牛逼的模型都用到了这个论文提到的类似技术,从kimi k1.5到deepseek r1,到谷歌最新的flash thinking 实验版 01-21。 看来这篇论文要成为AI必读了,Mark下,明天就学。
#AI技术
#Kimi
#DeepSeek
#谷歌
#flash thinking
#AI论文
分享
评论 0
0
阑夕
6个月前
Kimi和DeepSeek的新模型这几天内同时发布,又是一波让人看不懂的突飞猛进,硅谷的反应也很有意思, 已经不再是惊讶「他们是怎么办到的」,而是变成了「他们是怎么能这么快的」,就快走完了质疑、理解、成为的三段论。 先说背景。大模型在运作上可用粗略分为训练和推理两大部分,在去年9月之前,训练的质量一直被视为重中之重,也就是通过所谓的算力堆叠,搭建万卡集群甚至十万卡集群来让大模型充分学习人类语料,去解决智能的进化。 为什么去年9月是个关键的转折点呢?因为OpenAI发布了GPT-o1,以思维链(Chain-of-Thought)的方式大幅提高了模型能力。 在那之前,行业里其实都在等GPT-5,以为一年以来传得沸沸扬扬的Q*就是GPT-5,对o1这条路线的准备严重不足,但这也不是说o1不能打,它的强大是在另一个层面,如果说训练能让AI变得更聪明,那么推理就会让AI变得更有用。 从o1到o3,OpenAI的方向都很明确,就是变着法儿奔向AGI,一招不行就换另一招,永远都有对策,大家平时对于OpenAI的调侃和批评很多,但那都是建立在高预期的前提下,真不要以为OpenAI没后劲了,事实上每次都还是它在推动最前沿的技术创新,踩出一条小径后别人才敢放心大胆的跟上去。 AI大厂们一直不太承认训练撞墙的问题,这涉及到扩展法则(Scaling Law)——只要有更多的数据和算力,大模型就能持续进步——有没有失效的问题,因为可被训练的全网数据早就被抓取殆尽了,没有新的知识增量,大模型的智能也就面临着无源之水的困局。 于是从训练到推理的重点转移,成了差不多半年以来最新的行业共识,推理采用的技术是强化学习(RL),让模型学会评估自己的预测并持续改进,这不是新东西,AlphaGo和GPT-4都是强化学习的受益者,但o1的思维链又把强化学习的效果往前推进了一大步,实现了用推理时间换推理质量的正比飞跃。 给AI越充分的思考时间,AI就能越缜密的输出答案,是不是有点像新的扩展法则?只不过这个扩展在于推理而非训练阶段。 理解了上述背景,才能理解Kimi和DeepSeek在做的事情有什么价值。 DeepSeek一直是「扮猪吃老虎」的角色,不但是价格战的发起者,600万美元训练出GPT-4o级模型的测试结果,更是让它一战成名,而Kimi正好相反,它的产品能力很强,有用户,甚至还为行业贡献了足够的融资八卦,但在科研方面,除了都知道杨植麟是个牛逼的人之外,其实还是不太被看到。 这次就不一样了,DeepSeek不再是一枝独秀,Kimi也把肌肉秀到了人家脸上,Kimi k1.5满血版在6项主流基准测试里和o1同台竞赛,拿到了3胜1平2负的结果,已经完全称得上是平起平坐了。(1/2)
#Kimi
#DeepSeek
#新模型
#硅谷
#人工智能
#训练
#推理
#大模型
#快速发展
分享
评论 0
0
九原客
7个月前
Minimax的模型我原本以为只是一个就很随大流的模型。但实际测试发现在长文本输出层面有点惊艳。 具体可以下载海螺AI,随便找一篇长的英文论文,让他逐字翻译并输出为Markdown格式。Kimi 会拒绝翻译长论文,但是Minimax的模型可以持续输出很久(实测输出1w tokens还不停)同时还可以输出论文插图。
#Minimax模型
#长文本输出
#海螺AI
#论文翻译
#Kimi
分享
评论 0
0
Andy Stewart
7个月前
DeepSeek好强哇, 互联网搜索功能准确, 而且快速, 一点都不差 poe 和 kimi 啊。
#DeepSeek
#搜索功能
#互联网
#Poe
#Kimi
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞