yan5xu

统计数据

19
文章
0
粉丝
0
获赞
111
阅读

热门文章

1

TechFlow 深潮 发布的文章:近期教育领域的变化引发了广泛讨论,我认为教育改革应该更加注重学生的个性化发展和创新能...

145 32
avatar
yan5xu
1天前
claude skills 有个没怎么被看到的点,就是信息分层设计。首先用元信息替代完整信息,离当前任务距离越远,展示的细节越少。其次是按需加载,skills 基于 markdown+grep,就搭建出一套简单但非常有用的按需加载层。真的是非常优雅。
Claude Skills系统发布引发AI行业新变革· 50 条信息
#Claude #信息分层设计 #按需加载 #Markdown #优雅
avatar
yan5xu
2周前
cursor 如果这次把产品到模型的飞轮走通并且在市场上完成验证 很有可能是后 agent 时代的新范式的开始 期待他们成功和后续的分享
#产品到模型飞轮 #Agent时代 #新范式 #市场验证 #期待成功
avatar
yan5xu
4周前
全文太长了,一万三千多字,所以发在公众号
#标签1 #标签2 #标签3
avatar
yan5xu
4周前
最近两个月和非常多团队交流之后有一个强烈感受。很多人因为 agentic 循环过程的体感缺失和理解,这里存在非常大的认知差距。 有人认为存在某种神迹让 Agent 有超越模型智力的表现;有人觉得无非多调用几次 API,哪有那么神奇; 这种差距导致大家很多时候说话都不在一个频道。 所以有了这篇长文,希望能够帮大家构成一个统一的上下文,“当我们在聊 agentic 的时候,我们在说什么”
#Agentic循环 #认知差距 #模型智力 #API调用 #统一上下文
avatar
yan5xu
1个月前
我认为,当下的人才观必须从“四处挖人”转变成“种庄稼”。 很多人还迷信字节那套“只筛选、不培养”,却忽略了他们打的是移动互联网下半场,人才是市场上的“成品”,可以直接花钱买。 但现在AI刚开局,哪有那么多“成品”?人才价格被炒到两亿美元,这真的是fair price吗? 所以,当团队里已经有一两个核心人才时,更重要的任务是:赶紧梳理出一套培养体系和方法论。 这可能会让产品慢上几个月。但现在本就是产品试错期,用时间换人才,换来一支能打硬仗的AI原生团队。这笔账,怎么算都值。甚至,足以让团队后发先至。
#人才培养 #AI人才 #长期主义 #人才体系 #后发先至
avatar
yan5xu
1个月前
前天听一个朋友说,他们为了加速开发一个人配了三台电脑😂
#加速开发 #三台电脑 #程序员 #工作强度 #效率
avatar
yan5xu
1个月前
两天时间 vibe coding 了一个中文版 Wispr Flow - 蛐蛐,阿里达摩院的 FunASR+ 通义千问3 30B改写,便宜好用,中文效果嘎嘎好,已开源!求体验!求喷!
#Vibe Coding #中文版 Wispr Flow - 蛐蛐 #阿里达摩院 FunASR #通义千问3 30B #开源
avatar
yan5xu
2个月前
原来很多人不知道gemini cli是一个很好的 agent 原型工具。system prompt 可以完全覆盖,通过mcp添加tool,甚至可以替换模型。快速出个原型完全足够了。
Google Gemini 2.5发布引发AI模型性价比热议· 280 条信息
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 655 条信息
#Gemini CLI #agent原型工具 #system prompt #MCP #原型开发
avatar
yan5xu
2个月前
LLM 优化,常用技巧是压缩,有两个相反操作路径。 1, 对输入进行压缩,常见于旗舰级模型,用概念替代大段描述;李继刚“神级 prompt”是典范,"Oscar Wilde" "鲁迅" "林语堂"替代行文风格;难度在于对概念的抽象理解和积累,并且需要反复尝试,跨模型适配差; 2. 对输出进行压缩,适用于所有模型,尤见于 agentic 产品,用精准封装的 tools 替代agent 完整执行任务;难度在于 tools 尺度的选择,太少没效果,太多又会占据注意力,导致效果劣化,考验设计哲学;
#LLM优化 #压缩技术 #输入压缩 #输出压缩 #tools
avatar
yan5xu
2个月前
感谢 nano banana,终于能给 linkedin 换一个正经点的头像了。 也不管像不像了,反正看我 linkedin 的人肯定也没见过我🤪
#LinkedIn #头像 #nano banana #社交 #幽默
avatar
yan5xu
2个月前
离职这段时间,在招聘市场荡了一圈。发现AI的核心或者主力研发是挖不到的但凡能被人看到的,都是有很强自驱力,被验证过实力的人。这个时间,都想自己做点事情。 企业方,与其花精力挖人,不如给空间,让内部有想法的人去实践,总能拔出一批来。 其实对未知的恐惧才是AI最大的门槛
#AI人才 #招聘市场 #人才自驱力 #企业内部培养 #未知恐惧
avatar
yan5xu
2个月前
说个暴论,现在是AI 产品的垃圾时间。模型进化降速,产品形态停滞,资本吵闹,创新乏力。我们正好回顾过去: 24 年初 Chatbot&套壳已现疲态;GPT-4o 宣告了数字游戏(3/3.5/4)的终结,也打碎了 LLM 无限进化的狂热。直到八月,Cursor 在 Claude 3.5 Sonnet 发布的两个月后,才在 Coding 这一垂直领域证明了 LLM 的应用深度,打破僵局。而市场,旋即回归平静。 25 年初,以 Deepseek 为代表的开源模型虽让市场再度火热,但这只是开源策略的胜利,但没有带来新的产品叙事。三个月后 manus 的登场,才真正拉开了 agent 的大幕; 而现在,正处在又一个垃圾时间。Agent 是不是已经端不出新的菜?能讲出下一个故事的,又会是谁呢~
#AI产品 #垃圾时间 #模型进化降速 #产品形态停滞 #agent
avatar
yan5xu
2个月前
最近和很多团队交流的时候,我都会说,面对llm/agent这样一个新技术,它的边界,可行性,远景还未形成大众共识时,如何能指望产品经理提出一个可靠的产品方向呢。新技术落地的草莽阶段,一定是从技术人员里选拔培养产品出来。还停留在移动互联网时代组织架构的团队,只会是产品很茫然,技术很无力,大量成本都浪费在沟通上。
#LLM #agent #产品经理 #技术人员 #组织架构
avatar
yan5xu
2个月前
说一个在前司的观察:搞应用的,天天手动拼 prompt、管理上下文,去提高prompt cache 命中率,都快卷的没招了,实际就是在模拟“状态”。这全赖底层的推理 API 还是最原始的 stateless 形态。 所以我有一个强烈的预感: 下个能掀起波澜的 AI 产品,会是一个深度结合推理和应用层的怪物,把状态管理、KV Cache 复用做到极致,当别人还在为优化 10% 的 prompt 成本而沾沾自喜时,它在推理层通过“降维打击”的方式,用更少的成本获得了 10 倍的性能。从此之后再也不会有人认为 AI 应用是简单的套壳了
#AI产品 #推理API #状态管理 #kv cache #降维打击
avatar
yan5xu
3个月前
才知道openrouter 相比原厂有5%的溢价,加上和厂商谈的折扣,or两头吃啊😅
#AI掘金:知识付费新机,流量为王时代· 240 条信息
#Openrouter #溢价 #折扣 #两头吃 #负面
avatar
yan5xu
3个月前
五月份发到即刻上的一个随想。 昨天回家路上突然想到一个让Agent自我成长的框架: 大部分工作都能梳理成SOP → SOP变成workflow → workflow打包成tool → tool又能成为新workflow的节点... 受《思考,快与慢》启发,这个框架天然就有两套系统: 慢系统:像人深度思考,注重逻辑推演。用最贵最聪明的大模型分析和梳理工作流程 快系统:像人的直觉,着重快速反应。用低成本模型/自动化工具执行 慢系统主动梳理工作流程,提炼成SOP,沉淀到快系统变成固定workflow。原本需要昂贵大模型一步步推理的任务,现在用便宜的工具就能快速执行! 就像公司里的牛人专门做SOP梳理一样,Agent也能主动优化自己。 现在LLM已经足够聪明,还能通过写代码自我拓展。Agent也需真的可以像人一样持续进化了!
#Agent自我成长 #SOP流程 #快慢系统 #LLM #自动化工具
avatar
yan5xu
3个月前
这篇文章其实在脑子里酝酿相当长一段时间。因为记忆碎片完美地把llm agent给具像化,不再更新的世界知识,有限的上下文窗口,如何构建外部记忆系统,以及来自信息的投毒,这几乎就是agent入门的完美教程。
#多智能体之争:Anthropic生态VS单智能体· 77 条信息
#LLM Agent #外部记忆系统 #信息投毒 #上下文窗口限制
avatar
yan5xu
3个月前
全文在公众号,文末有一段关于 kv cache 原理的科普强烈推荐读一读,对理解 llm 推理有帮助
#kv cache #LLM #推理 #原理科普
avatar
yan5xu
8个月前
摊牌了,manus 大量招人。我这里主要收两个方向。computer/browser use 以及 常规golang后端。base不限,目前北京/武汉已设点。 其他岗位大家可以关注蝴蝶效应招聘。我也可以帮忙内推。
#招聘 #golang #蝴蝶效应 #Beijing #专场招聘
© 2025 news.news. All rights reserved. 0.04561 秒. v1.0.46
我的评论