1个月前
AI 编程越来越厉害了,我要怎么提升自己的系统架构能力? 现在 AI 写代码真的是越来越厉害了,一些小的模块让 AI 写,又快又好。慢慢的,对程序员写代码的能力要求会降低,但是对系统架构能力反而会要求更高。而且这部分能力不会轻易被 AI 取代,因为 AI 还不能像人类一样看到一个复杂项目的全貌,无法完整理解项目的业务上下文和约束条件,所以需要人去把任务拆分,一次只执行一个小任务。 那么问题来了,新人要怎么才能提升系统设计能力呢? 作为一个过来人,我觉得提升系统设计能力这事,可能有没有 AI 都差不多,都离不开多看、多练和多复盘。AI 的好处就是可以更方便地帮你查资料,以及更容易地理解项目,但它不能代替你去动手实践。 什么是系统设计? 在讨论如何提升系统架构能力之前,需要先搞清楚:什么是系统设计? 想想看,如果你做一个简单的网页,或者一个小脚本,需要系统架构吗?基本上是不需要的,因为足够简单,有没有架构都能写出来。那如果是要做一个 ChatGPT 这样的应用呢?那是一定要有很好的系统设计的,因为太复杂了!而且一个人也是做不出来的,需要很多人甚至很多团队协作才能完成。 但即使是 ChatGPT 这么复杂的系统,在开发团队工作的每一个人,工作职责并没有非常复杂。比如有的人只负责实现模型的 API 封装、部署,有的人只负责 Canvas 这样的文本编辑组件,有的人只做 iOS 客户端上的某个功能。一个复杂的系统,通过系统设计,把复杂系统层层分拆,变成了一个个小的模块,最终这些模块组合在一起就可以运行起来,让用户可以稳定地使用 ChatGPT 的服务。 所以系统设计,就是把一个复杂的系统拆解成容易理解、容易实现、容易维护的小模块,再清晰地定义好这些模块之间如何相互协作、相互沟通的过程。 通俗点讲,就好像你盖一栋大楼,系统设计就是设计图纸。图纸上详细说明了楼的结构,比如地基、钢筋框架、墙体、管道和电线,明确告诉施工人员每一部分怎么盖,哪些部分先盖,哪些后盖,哪些部件之间是如何连接起来的。 如何做系统设计? 系统设计这件事看起来很神秘,系统架构师似乎都是传奇般的存在,但做系统设计这事也没你想的那么复杂,因为绝大部分系统设计都有成熟的方案可以参考。作为架构师,可以灵活应用成熟的架构模式,一般是不需要去发明新的架构模式的。 但系统设计也没有那么容易,否则人人都是架构师了。系统设计难在哪呢? • 要充分理解需求和团队:我把理解需求和团队放在了第一位,因为系统设计是为需求服务的,你不理解需求做出来的设计那可能都是错的;同时系统设计要和组织架构匹配,毕竟你的系统设计出来,还是需要团队去实施的。如果你就两三个人整几百个微服务显然是有问题的,反过来你几百个人的团队还是单体应用也可能是有问题的。 • 要面对不确定性:系统设计不像写代码是一个确定性很强的事,代码模块的输入和输出都是固定的,只要去实现算法就好了。但是系统设计面对的是不确定性:需求不确定、未来的发展不确定、技术选型的影响不确定。你需要在这种不确定中做出相对稳健的决策。 • 要权衡取舍:在系统设计中,几乎不可能有绝对完美的方案,通常都是在多个选项之间权衡。例如要兼顾性能和成本、扩展性和开发复杂度、安全性和用户体验等等。这就要求设计者能做出合理的决策,并理解每个选择背后的得失。举个例子,选择微服务架构可能带来更好的扩展性,但也会增加运维复杂度和网络开销。 • 要沟通说服:系统架构不仅仅是给自己看的,更重要的是要让团队的所有成员都理解你的设计,甚至是非技术人员也能大致明白整体结构。这需要架构师具备良好的文档编写和表达能力,用清晰的语言、图表、流程来传递设计意图。不仅如此,在做系统设计时,并不是你做个设计别人就能认同的,你需要去说服别人认同你的设计,有时候也必须做出一些妥协。 当然到了 AI 时代,有些地方还是有些改善的。比如你资源不够就可以用 AI 凑,不善于表达就让 AI 帮你写原型写文档,不知道如何取舍就用 AI 分别实现一套 POC(概念验证),再对比看效果。 新人如何提升系统设计能力? 系统设计并没有快速通道,更多的是长期积累的过程,这个时间通常是以年计的。总结下来关键是三点:"多看"、"多练"和"多复盘"。 "多看":积累架构模式 就是学习经典的架构案例,知道有哪些架构设计的方法。网上有很多系统设计面试题和分析,都是很好的学习素材。另外还可以看开源项目,看看复杂的开源项目是怎么运行的,多关注: • 这些系统是如何拆分功能模块的? • 模块之间又是如何通信的? • 为什么他们选择了某种特定的技术或架构方案? • 在实际中遇到了哪些挑战,又是如何解决的?比如微博是怎么 8 明星并发出轨的? 推荐一些学习资源: • System Design Interview Alex Xu 写的这本系统架构设计面试书,系统地介绍了常见的架构模式 • High Scalability 网站,收录了大量真实系统的架构案例 highscalability[.]com • 开源项目如 Kubernetes、Kafka、Elasticsearch 的架构文档 "多练":从模仿到创新 除了理论学习,更重要的是主动去练习。系统设计这种事,哪怕你像 AI 一样训练了所有公开的系统设计方案,但你不试试仍然不会知道它们在不同的应用场景下的优缺点是什么。就像微服务从来不是个技术问题,而是一个和组织架构相关的问题。 新人的话,最好是从模仿开始,先照葫芦画瓢,然后再去按照自己的思路去改进。 一些你可以练习的方式: 1. 架构还原练习:选择一个你熟悉的系统或产品,试着去拆分架构,画出架构图;写下每个模块的功能定义,明确模块之间如何通信;再去找懂这个系统的人请教对比。 2. 对比学习:去看看类似功能的开源系统,看设计方案有什么不同,各自的优缺点是什么。比如对比 Redis 和 Memcached 的架构差异。 3. 设计先行:在做一个相对复杂的功能时,先去做一下设计再开始写代码。哪怕是个人项目,也要画架构图、写设计文档。 4. AI 辅助验证:尽可能把要实现的模块,用自然语言描述清楚,让 AI(推荐 Claude、Gemini、DeepSeek 等模型)去实现,看结果和你期望的差距在哪里。如果不是你想要的,去反复调整你的描述或者继续分拆,直到 AI 能实现你想要的效果。这个过程其实是在训练你的模块化思维。 5. 重构现有系统:去重构现有系统,在稳定性、代码重用、性能这些方面去改进。重构的过程会让你深刻理解原有设计的问题。 6. Side Project 实战:去做 side project,先尝试基于开源项目二次开发,再尝试从头搭建一套相对复杂一点的系统。比如做一个简化版的分布式消息队列、一个迷你版的容器编排系统。 只有在真实项目中踩坑、解决问题,你才真正能理解系统设计中各种取舍的意义。 "多复盘":从经验中提炼智慧 每次做完项目或者完成一段设计后,都要回顾总结一下过程: • 当初做决策的依据是什么?这些决策后来验证效果如何? • 如果再做一次,哪些地方会做不同的选择? • 遇到的困难和挑战是什么?分别是如何克服的? • 是不是有更好的技术或架构选择当时被忽略了? • 团队成员的反馈如何?他们是否理解并接受了你的设计?如果不接受,原因是什么? 复盘是让你从具体实践中提炼出通用方法论的重要环节。只有反复总结和不断优化,你的系统设计能力才能逐渐提高。 AI 时代更要用好 AI 帮你提升系统设计水平 在学习系统设计的过程中,AI 虽然无法替代你完整地设计架构,但可以成为你提升能力的重要工具,助你快速成长: • 快速查资料与案例:让 AI 帮你迅速搜集和整理系统设计的案例与最佳实践,大大节省学习成本。比如你可以问 AI:"给我解释一下 Circuit Breaker 模式在微服务中的应用场景"。 • 辅助实践:你可以把自己设计的模块先让 AI 尝试实现,以检验你的设计思路是否清晰合理,从反馈中不断优化设计。这就像有了一个永远在线的结对编程伙伴。 • 辅助沟通:你可以先把复杂的设计和思路告诉 AI,由 AI 帮助你简化表达,生成易于团队沟通和理解的文档。甚至可以让 AI 帮你生成架构图的描述文本。 • 辅助决策:当你在不同架构方案间犹豫时,让 AI 帮你分析每种方案的优劣势和适用场景,帮助你快速做出选择。AI 可以快速给你列出各种方案的 trade-off。 • 模拟场景:你可以让 AI 模拟不同的故障场景,帮你思考系统的容错设计。比如"如果数据库挂了,我的系统会怎样?" 架构设计能力的提升关键还是在人,而 AI 则能帮助你更高效地学习、更快速地试错和迭代,加速你成为合格系统架构师的步伐。 写在最后 原本只是打算简单写写的,不小心还是扯多了。没办法,系统设计这种事是真的没什么捷径好走,只有坚持学习。当然方法得当还是能加速一点。 在 AI 时代,架构师的价值不是被削弱了,而是被放大了。因为 AI 让实现变得更容易,所以设计的好坏会更加明显地影响最终结果。一个好的架构设计,配合 AI 的实现能力,可以让你的生产力提升十倍甚至百倍。 希望你早日掌握好架构设计,不用担心被 AI 替代,反而可以利用系统设计能力让 AI 更好地为你效力。毕竟,AI 再厉害,也需要有人告诉它要造什么样的房子,不是吗?
1个月前
AI芯片巨头英伟达营收猛增69%,达441亿美元 尽管美国对华芯片出口实施新限制,英伟达(Nvidia)的最新财报依然保持高速增长。 最近一段时间,美国政府的政策变化让英伟达经历了一番“大起大落”:上个月,美国政府刚禁止了向中国出售人工智能芯片;几周后,又批准向中东地区出口类似的产品。 但尽管如此,英伟达仍然以惊人的速度继续扩张,稳坐全球AI芯片市场的头把交椅。 根据英伟达周三发布的最新财报,公司最近一季度的销售额达到441亿美元,同比增长69%;净利润也同比增长26%,达187.8亿美元。虽然销售额超过华尔街预期的432.8亿美元,但利润略低于预期的194.9亿美元。 英伟达在财报中提到,美国特朗普政府实施的对华芯片出口限制,给公司带来了45亿美元的损失,不过比四月中旬预测的少了10亿美元。这些限制措施迫使英伟达退出了全球最大的半导体市场——中国。中国市场购买的芯片广泛应用于智能手机、汽车及各种电子设备。 公司还预计下一季度的收入将同比增长50%,达到450亿美元,这主要得益于其最新款AI芯片——Blackwell芯片的销售扩张。这一预测也与华尔街的预期(457.5亿美元)基本相符,表明科技行业对人工智能的拥抱才刚刚开始,未来仍有巨大的增长空间。 受财报消息提振,英伟达股价在盘后交易中上涨超过4%。截至当天收盘,英伟达市值达到3.3万亿美元,超过苹果公司,仅次于微软,位居全球市值第二。 英伟达CEO黄仁勋表示: > “全球各国都意识到AI将如同电力和互联网一样,成为基础设施。英伟达正处于这场深刻变革的核心位置。” 英伟达在科技巨头中的实力也更加凸显。在最近的财报季中,英伟达季度销售首次超过社交媒体巨头Meta,其净利润甚至比Meta高出13%。 作为最早进军AI芯片领域的公司,英伟达成为科技行业人工智能竞赛中的最大赢家。黄仁勋当初抢占了先机,是首个开发出能够训练AI识别图像、预测文字的芯片软件及服务器的企业。 但与此同时,美国政府官员越来越担忧AI技术可能被中国等国家用于开发自主武器和协调军事行动。因此,华盛顿逐步加大对英伟达对华芯片销售的限制力度。 过去几个月里,黄仁勋频繁奔波于全球各地,试图说服各国政府放松限制。他曾于四月与特朗普总统会面,但未能阻止商务部随后对华芯片出口的禁令。他还飞往北京,承诺会找到新途径出售芯片;随后又抵达台湾,公开抱怨美国政府的禁令效果不佳。 尽管黄仁勋多方努力,英伟达在中国的业务仍受到明显影响。自美国政府实施出口限制以来,英伟达在华销售额占总收入的比例,从两年前的21%下降至现在的13%。 不过,黄仁勋在推动美国政府对其他国家放松芯片销售限制方面取得了成功。在他的推动下,特朗普政府推翻了拜登时代的一些出口规则,从而促成了本月美国与阿联酋之间一项重磅协议:双方计划建立全球规模最大的国际AI数据中心枢纽。 事实上,将芯片销售给政府客户,已成为英伟达重要的战略方向。目前,该公司主要依赖微软、亚马逊、谷歌和Meta等巨头客户,但正积极拓展欧洲、亚洲和中东市场。黄仁勋此前表示,这些地区已经将AI视作与电信网络类似的重要国家基础设施。 另一个挑战在于,美国本土目前缺乏充足的能源来支撑快速增长的数据中心需求。今年许多企业只能获得最多50兆瓦的电力,只能支持大约2.5万枚英伟达最新芯片。相比之下,OpenAI计划明年在阿布扎比建造一座200兆瓦的数据中心,足以支持10万枚英伟达的芯片。 科技研究公司Constellation Research首席分析师Holger Mueller指出,这类国际协议对于英伟达至关重要,因为眼下英伟达在AI芯片市场几乎没有竞争对手。 穆勒表示: > “现在他们是唯一的选择,中东国家确实非常需要他们。”
1个月前
为什么人类程序员仍然比大语言模型(LLMs)强大? 作者:antirez 这是一个简短的小故事,告诉你为什么人类的编程能力仍然远远领先于当前的AI技术。请注意,我并不是反AI的人,熟悉我的朋友都知道这一点。我日常都会使用大语言模型(LLMs),包括今天也是如此。当我需要快速验证自己的想法、进行代码审查、了解是否有更好的实现方法,或者探索一些自己并不完全擅长的领域时,我都会用到它们。(两年前,当LLMs还没有流行起来的时候,我就曾经专门写过一篇博客,讲述自己如何用LLMs辅助编码。如今也许是时候再写篇新文章更新一下了,不过今天的重点不在这里。) 不过,我想强调的是,尽管当前的AI技术非常有用甚至很棒,但和人类的智慧相比,它依旧差得太远了。我特别想指出这一点,是因为最近关于AI的讨论越来越极端,很难有中立理性的观点。 遇到的问题 今天我在为Redis开发一个叫做向量集合(Vector Sets)的功能,遇到了一个非常棘手的Bug。事情是这样的: 在我之前离开Redis期间,同事们新增了一个防护功能,用来抵抗Redis数据文件(RDB)和恢复命令(RESTORE)的数据损坏问题,即使数据校验看起来是正常的。这个功能默认关闭,但用户如果想增强安全性,可以主动启用。 但这引发了一个巨大问题: 为了高效地保存和恢复数据,我把HNSW向量搜索算法的图结构序列化了,而不是直接保存向量元素的原始数据。如果直接存储原始向量数据,在加载时重新构建索引会非常慢(可能慢100倍以上)。所以我选择了一个巧妙的技巧——直接保存节点之间的连接关系(用整数表示节点编号),再在加载时恢复指针。 但问题在于,如果保存的节点连接数据出现了随机损坏,由于我改进的HNSW实现会强制节点之间的链接是双向的,以下问题就可能发生: 1. 我们加载了损坏的数据,比如节点A显示连接节点B,但节点B并没有反过来连接节点A(连接关系被破坏了)。 2. 删除节点B时,由于双向链接破坏,节点A的链接未被清除。 3. 当我们再次访问被删除的节点B链接到节点A时,就会导致使用已释放内存的严重Bug。 因此,加载数据之后,我必须检查每个连接是否双向有效。然而,用最简单的方法实现这个功能需要花费O(N²)的时间复杂度,这对于大数据量来说非常糟糕。 人类 vs 大语言模型(LLM) 一开始,我用最原始的方法实现了这个检查,虽然问题解决了,但加载2000万个向量的大型数据集时,速度从原来的45秒延长到90秒以上,这显然不能接受。 于是,我打开了Gemini 2.5 PRO(谷歌的LLM),向它询问有没有更好的方案。 Gemini建议了一个最好的方案——对节点的链接数组进行排序后再用二分搜索提高效率。这一点我早就知道,但链接数组长度只有16或32时,排序可能并没有什么性能提升。所以我继续问它,还有其他方案吗?Gemini表示没有更好的方案。 然后我告诉Gemini一个自己的想法: 我们在扫描链接时,每次看到节点A连接节点B,就把链接信息以A\:B\:X的格式存入哈希表(这里X是层级信息,A>B保持顺序统一)。第二次遇到同一链接时,就从哈希表删除它。最后如果哈希表非空,就说明有链接存在单向链接的问题。 Gemini认为我的方案不错,但担心构建哈希键的时间损耗,比如使用`snprintf()`来构建哈希键。于是我提醒它,这里完全可以用`memcpy()`来直接拷贝指针到固定大小的键中,Gemini同意我的想法。 突然,我意识到还能更进一步: > “等等!” 我告诉Gemini:“我们根本不需要哈希表!可以用一个固定的累加器,每次处理一个链接(A\:B\:X,总共12个字节)时,我们都对这12字节数据进行异或(xor)运算。如果链接存了两次,它们互相抵消,最终若累加器不为零,就知道链接出现了问题!” 但我同时也提醒Gemini,这种方案可能出现碰撞(多个链接偶然导致异或为零),并要求它评估这种风险。 Gemini对我的想法印象深刻,但也提出了担忧:因为指针通常结构类似,如果出现3个错误链接(L1、L2、L3),可能L1和L2异或后的结果刚好和L3相同,从而导致误判。此外,我也考虑到内存分配器分配的地址往往比较容易预测,可能容易被攻击者利用。 接着我向Gemini询问改善的方法,Gemini却想不出更好的方案。 于是我再次提出了改进方案: 1. 从`/dev/urandom`生成随机种子`S`,与链接信息一起构造为`S:A:B:X`。 2. 使用快速而可靠的哈希函数(如`murmur-128`)对`S:A:B:X`哈希。 3. 将哈希的128位结果异或到累加器中。 4. 最后检查累加器是否为零,若为零则说明所有链接都是双向正确的。 Gemini对此方案非常满意,认为这种方法不仅大大减少了误判的可能性,也极难被攻击者利用(因为随机种子`S`未知,而且指针难以被操控)。这本就是一种额外安全的保护措施,默认关闭,性能损耗也小。 我写这篇博客时刚完成了这个方案的评估,还没最终决定是否正式采用(但很可能会用)。不过,这次的经历清楚地表明: 人类在创造力和思维的“跳跃性”方面,仍然远远领先于AI。我们能提出许多“怪异但有效”的解决方案,这对LLMs来说太难了。但LLM确实也起到了重要的辅助作用,也许正是因为有了这个“智能小伙伴”的启发,我才得以想到这样的点子吧!
1个月前
经济学人:为什么 AI 还没抢走你的饭碗? 工作末日还远得很呢! 几乎每周,我们似乎都在离人工超级智能更进一步。 最先进的AI模型能力惊人,不仅能撰写详细的报告,还能按需制作视频内容,连AI过去常有的“幻觉”(编造内容)问题如今也逐渐减少了。 难怪许多人开始担心:自己是不是很快就会被取代? 今年早些时候,全球谷歌搜索关键词“AI失业”达到了历史最高峰。在伦敦、旧金山等城市,人们聊天的常见话题变成了:“你觉得自己还能撑多久?”但实际上,ChatGPT真的抢了谁的工作吗? 谁真的被AI取代了? 许多专家声称,确实如此。他们常引用牛津大学学者Carl Benedikt Frey与Pedro Llanos-Paredes最近发表的一篇论文。论文认为,自动化与翻译需求下降之间存在关联。然而,官方美国数据却显示,与一年前相比,目前口译、翻译等领域的就业人数竟然增长了7%。 还有人举出金融科技公司Klarna的例子。Klarna此前大肆宣扬用AI实现客服自动化,但最近却改变了策略。该公司CEO Sebastian Siemiatkowski最近公开表示:“如果你希望,总是能找到一个真人客服。” 年轻人最先遭殃? 很多人也在宏观经济数据里找AI带来就业危机的蛛丝马迹。一个热门指标是:新毕业大学生的失业率与整体失业率之比。人们推测,年轻大学生通常进入律师助理、咨询公司做PPT等初级知识密集型工作,而这类工作恰恰是AI最擅长的领域。那么,是不是AI消灭了这些岗位? 事实上,数据却说了“不”: • 年轻毕业生的相对失业率早在2009年就已开始上升,那时生成式AI还根本不存在。 • 如今,年轻毕业生的实际失业率仅约4%,仍然处于较低水平。 白领工作者最危险? 我们再次使用2023年提出的一个衡量方法,考察了美国不同职业类别的就业数据。特别关注被认为易受AI冲击的白领岗位,比如后台支持、财务运营、销售等领域。 结果又让人大跌眼镜: • 数据中完全看不出AI带来的负面影响。 • 事实上,过去一年,美国白领工作占总就业比例甚至略微增加了。 全球就业仍然强劲 从整体来看,美国失业率仍然很低,仅为4.2%。薪资增速相对稳健,这与AI降低劳动力需求的说法也不符。再看看其他国家,趋势也是一致的: • 英国、欧元区、日本的收入增长也都保持较高水平。 • 2024年,经合组织(OECD)富裕国家的就业率(工作年龄人口中实际拥有工作的比例)创下历史新高。 为什么AI没有带来“失业潮”? 有两种可能的解释: 1. AI的真实使用率远低于宣传 尽管各家公司不断宣布将AI纳入运营的每个角落,但实际数据表明,美国企业用AI真正产出产品或服务的比例不到10%。 2. 即便使用AI,公司也不会轻易裁员 AI可能只是帮助员工更高效地完成工作,而非直接取代他们。 无论是哪种原因,目前看来,暂时还没有必要为AI恐慌。
1个月前
原文:[The Recurring Cycle of 'Developer Replacement' Hype]() **** 译注 文章中木匠和CNC机床是个有趣的例子,传统的手工木匠,他们靠简单工具和扎实的手工技能打造家具。“数控机床”则代表最新技术的辅助工具。它能自动、高效地切割、加工木材,大幅提高生产效率。当先进技术出现时,真正优秀的不是工具,而是驾驭工具的高手。 1. 工具提高了生产力,但不自动提高创造力。 CNC机床的确能够更精准、更快速地生产家具,但它本身并不会「设计」出精美的家具。真正决定家具美观和质量的,始终是设计和架构它的人——也就是“木匠”。 2. 高手掌握新工具后,价值会成倍增长。 给一个新手或普通人一台先进的数控机床,他可能只会用来制作简单粗糙的家具; 给一个经验丰富的木工大师同样的设备,他则能设计并创造出精妙绝伦的艺术品级家具。 3. 工具的价值在于放大使用者的能力。 新工具能把高手和普通人的差距迅速拉大,而不是缩小。懂设计、懂构造、懂木材属性的高级木工,会更快地利用新工具创造出超越传统水准的作品;而不懂设计、不懂木材的新手,使用再先进的工具,也只会做出平庸的产品。 传统的程序员(木匠)靠自身对技术和架构的深刻理解(凿子的技能)来创造系统。AI代码助手(数控机床)则能自动、快速生成代码,但并不能取代程序员对架构、设计、业务理解的需求。 在AI时代: - 普通开发者 可能只是简单使用AI自动生成代码,最终做出的产品缺乏架构性和创新性; - 高级开发者(系统架构师) 则能善用AI辅助开发工具,专注于系统设计、整体规划与优化,从而做出更优秀、更复杂、更稳健的系统。 真正决定最终成果的不是工具本身,而是使用工具的人所具备的设计与架构能力。技术越先进,越需要的是具备高阶技能的人来驾驭它们。代码生成AI无法取代系统架构师,反而会让擅长架构设计的人变得更加重要,市场价值更高。
1个月前
一次又一次的「开发者要被取代了」的炒作潮 作者:Danilo Alonso 从「无代码」到「AI 辅助开发」 每隔几年,总会冒出一种全新的技术,声称可以彻底取代程序员。各种夸张的新闻标题接踵而来,比如「编程的终结」、「人人都能开发App」,甚至还有我最喜欢的一条:「我的孩子五岁还没学会识字,就会写代码了!」 高管们为之振奋,咨询师们像鲨鱼般蜂拥而至,PPT 幻灯片疯狂增长,预算也随之倾斜。 然后,现实终于到来了。 真正发生的并不是取代,而是转型。那些号称能让技术岗位消失的新技术,最终却催生了全新的技术岗位,并且这些新岗位通常薪资更高。无代码(NoCode)运动并未淘汰程序员,而是创造了无代码专家和后台整合工程师。云计算也没有淘汰系统管理员,而是将他们转型为薪水翻倍的 DevOps 工程师。 如今,我们正目睹着同样的现象再次发生在 AI 辅助开发领域。「AI 能为你写全部代码」的承诺,逐渐演变成需要工程师来有效组织和调控 AI 系统。这些人本质上还是原来的工程师,但需要具备新技能,并获得更高的薪酬。 但这一次的转型有更深刻的含义。不同于以往只改变实现方式的技术变革,AI 辅助开发清晰地揭示出软件工程中的一个根本真相: 软件行业中最宝贵的技能不是写代码,而是设计和构建系统的架构。 而这,恰恰是 AI 至今远未能取代的技能。 一再重复的「开发者被取代」神话 回顾一下历史,我们已经经历了多少次类似的「革命」呢?我们一起来数数看: 1. 无代码/低代码革命 还记得那些承诺「让业务人员通过拖拽就能开发 App」的工具吗?当初的说法听起来很动人:「既然人人都能自己搭建应用,为什么还要雇佣昂贵的程序员呢?」 可现实呢?这些工具带来了新的问题:背后的数据模型还是要人来设计,跟已有系统的对接依然复杂,边缘情况无法通过图形化界面解决,维护和升级同样离不开技术人员。 最终,这些工具没减少开发人员,反而催生了一批懂业务又懂技术局限性的「无代码专家」。而且,这些专家的薪资甚至超过了当初被宣称会取代的程序员。 2. 云计算革命 「迁移到云上后,你再也不需要系统管理员了!」 仿佛把服务器托管给别人,就真的不需要管理了似的。实际情况却是,云计算没有消除系统运维的需求,而是改变了运维工作的形态,并极大地拓展了运维工作的范畴。 系统管理员们并没有消失,他们重生为 DevOps 工程师,有了新的高大上的职称和明显更高的收入。工作内容并未消失,而是演变成了基础设施即代码、自动化部署流程和分布式系统管理。 正如我之前在 LinkedIn 关于微服务的帖子中所写:「我看过很多团队花费数月时间将功能完好的单体应用拆成微服务,最后却发现他们只是在用更昂贵的新问题换掉旧问题。」云计算推动了这种复杂性,而处理这种复杂性的人依然是技术专家,只不过工作层次更高了。 3. 海外外包开发潮 「既然可以用更便宜的价格在海外完成开发,为什么还要付高薪请本地的程序员?」 成本大幅降低的承诺,很快碰到了现实的障碍:沟通不畅、质量控制困难,以及开发过程中深度的背景知识和持续的协作需求。 最后出现的方案,是更精细的分工、更清晰的职责界限、更成熟的架构实践,以及——意料之外的——更高的综合成本。 4. AI 编程助手革命 如今又有 AI 出来宣称「只要你描述一下需求,AI 就会自动生成代码!」 但现实很快浮现:AI 写出的代码虽然看起来合理,却经常隐藏着细微的错误和不一致性。资深工程师花费大量时间检查和修正 AI 生成的代码。所谓的「意念编程」(vibe coding)现象表明,经验丰富的开发人员能从 AI 中获得远多于新手的价值。纯靠 AI 搭建的系统,往往缺乏整体性和架构一致性。 > 「在木匠们还在使用凿子的时代,你给木匠们送一台数控机床。你猜谁能做出更好的家具?」 模式再次重演:技术没有取代技能,而是把技能推到了更高的抽象层次。 为什么这次的情况有些不同? 那些认为「AI 将取代程序员」的人,忽略了一个重要事实:代码并不是资产,而是负债。每行代码都需要被维护、调试、安全防护,并最终被替换掉。真正的资产是代码背后的业务能力。 如果 AI 大幅降低了写代码的成本和速度,那其实是在让人们更快、更轻易地制造更多的负债。当负债的产生速度空前提升时,能够战略性地管理、减少这些负债的人才价值也会随之大幅提升。 尤其因为 AI 擅长局部优化,却无法进行整体设计。它能优化单个函数,却无法决定服务是否应该存在,或服务应如何与更广泛的系统协作。当开发速度加快时,架构问题往往会在你意识到之前就已深度植入系统之中。 对于搭建短期使用的营销网站,这可能无伤大雅;但对需要长期演进的系统,这种情况将是灾难性的。 虽然技术转型的模式始终如一——系统管理员变成了 DevOps 工程师,后台开发变成了云架构师——但 AI 正在加速这一过程。而最终留下来的技能,不是写代码。 而是设计和构建系统的架构。这,正是 AI 无法取代的核心能力。 (完)
1个月前
IBM裁员约8000人,HR部门因AI受冲击最大 IBM近日裁员约8000名员工,其中大部分集中在公司的人力资源(HR)部门,而AI技术的广泛应用正是造成这一现象的主要原因。 IBM此次大规模裁员主要针对人力资源部门,这与公司近期大举推进AI自动化战略密切相关。仅在几天前,IBM便已用AI智能体取代了200个HR岗位。这些AI智能体可以高效完成过去由人工负责的重复性任务,例如整理信息、回复员工咨询和处理内部文件,逐渐让更多岗位被取代。 裁员背后的AI自动化趋势 IBM首席执行官阿尔文德·克里希纳(Arvind Krishna)近期在采访中透露,公司通过AI和自动化改进企业流程,提高效率。他特别强调,尽管一些岗位被取代,但IBM的整体员工数量其实是在增加的。这是因为公司把AI带来的节省资金重新投入到了软件开发、市场营销、销售等更需要创造力和战略思维的领域。 克里希纳表示:“我们在IBM内部大量使用AI和自动化改善了企业流程,但公司的整体员工数量并未减少,反而增加了。这让我们有更多的资金投入到其他更有价值的领域。” 简单来说,IBM并非单纯地全面削减人员,而是在重新调整组织结构。那些需要创造性、战略思考能力以及出色沟通技巧的职位依然备受青睐,但以重复性后台事务为主的岗位则越来越被AI所取代。 并非所有岗位都会被完全取代 IBM首席人力资源官妮科尔·拉莫罗(Nickle LaMoreaux)也指出,AI并不意味着所有岗位都会消失。“完全被AI取代的职位其实很少,”她解释道。AI主要接手的是重复性任务,使员工可以腾出更多精力来完成真正需要人类判断力的工作。 值得注意的是,尽管IBM内部在裁员,但公司同时也在积极向客户推广AI服务。在本月召开的IBM年度Think大会上,IBM推出了帮助企业客户构建和运行AI智能体的新服务,这些服务还能与OpenAI、亚马逊、微软等主流平台协同使用。 行业趋势明显,多家公司纷纷效仿 事实上,AI自动化趋势并不局限于IBM一家企业,全球范围内越来越多公司正在尝试利用AI工具减少运营成本。 上个月,多邻国(Duolingo)宣布开始逐步用AI取代人类合同工。 Shopify的CEO托比亚斯·卢克(Tobias Lutke)甚至在内部备忘录中要求各团队在聘请新员工前,必须首先证明AI无法完成这些任务。他提出:“在申请增加人力资源之前,必须明确为什么AI不能满足需求。想象一下,如果你的团队中已有AI智能体参与工作,会是什么样子?” 可以看出,随着AI技术进一步发展,行政类的重复性岗位在未来还将持续面临风险,职场格局也将随之进一步转变。
1个月前
来自 Reddit 一位拥有30多年经验的前FAANG(Facebook、Apple、Amazon、Netflix、Google)高级工程师被一个C++ Bug困扰了4年,花了约200小时却毫无进展。而Claude Opus 4竟然成功地解决了这个问题,并且是唯一能做到的AI智能体。 以下是 Reddit 上的帖子: *** Claude Opus 今天帮我解决了折磨我四年的「白鲸」级Bug 背景 我是一名拥有超过 30 年经验的 C++ 开发者,曾任职于 FAANG 公司担任高级工程师。我通常是团队里的问题终结者,当其他工程师卡住一周都解决不了问题时,他们来找我,我往往在他们站在我办公室里的时候,就能轻松搞定。 但今天,我被 Claude Opus 4 彻底折服了。 折磨了我四年的难题 四年前,我曾做过一次重构,对约 6 万行的代码进行了重新架构。重构解决了大量问题,但也带来了一个极端情况的 Bug。当某个特定着色器(Shader)以特定方式使用时,这个 Bug 就会显现。以前这个功能是好的,但重构之后,这个特定场景就坏了。 过去几年,我断断续续地花了至少 200 个小时想找到原因,但一直无功而返。这个问题非常恼人,但并不是特别紧急,没法完全停下手头的工作专心处理。 Claude Opus 4 的神奇表现 今天,我决定用 Claude Code 跑一下 Opus 版本来解决这个难题。我把新旧代码都给了它,告诉它:“去查一查,当年的重构到底是怎么导致这个问题的。” 让我没想到的是,它真的找到了! 原来,这个功能在旧架构里之所以能正常运行,纯粹是因为偶然的巧合。重构后的新架构并没有考虑到这个巧合情况,因此就产生了问题。所以严格意义上讲,这并不是简单的逻辑错误,而是新架构的设计本身遗漏了旧版特有的边界条件。 整个过程我一共向 Claude 提出了大约 30 个提示,中间重启过一次。 之前我也尝试过 GPT 4.1、Gemini 2.5 和 Claude 3.7,都没有任何进展。最终只有 Claude Opus 4 解决了这个困扰我四年的难题。
1个月前
WIRED:当AI智能体犯错时,谁该承担责任? 随着谷歌和微软大力推广能够自主行动的AI智能体技术,人们正逐渐意识到:当多个智能体彼此互动并且触碰到法律底线时,到底该由谁来承担责任? 过去一年中,资深软件工程师杰伊·普拉卡什·塔库尔(Jay Prakash Thakur)利用业余时间,不断尝试开发能够自主订餐、甚至独立设计移动应用程序的AI智能体。他研发的智能体虽然表现惊人,但也暴露了一个新的法律问题:当这些智能体犯错并造成损失时,究竟谁来承担责任? 什么是AI智能体? AI智能体(Agents)指的是能独立完成任务的人工智能程序。企业可以利用智能体来自动完成客服回复、支付账单等事务。与我们熟悉的ChatGPT不同,智能体不只是听命于用户指令,更能自主行动,微软、亚马逊和谷歌正期望这些智能体承担更复杂的任务,并且无需太多人工干预。 科技行业的雄心甚至更大,未来将由多个智能体组成的系统取代整个工作团队。这种技术的好处很明显:为公司节省大量的时间和人工成本。权威市场研究机构Gartner预测,到2029年,有80%的常规客户服务问题将由智能体解决。自由职业平台Fiverr数据显示,近几个月以来,“AI智能体”的搜索量暴增了18347%。 智能体出现问题后,谁担责? 塔库尔虽然目前在微软任职,但他的本职工作并不涉及智能体。然而,他从2024年在亚马逊工作期间就开始研究微软的智能体开发工具AutoGen,开发了一些多智能体的原型。他最大的担忧是,如果不同公司的多个智能体之间沟通失误而导致严重损失,法律责任该如何分配?他形容:“想找出责任方就像根据几个人零散的笔记,去还原一场复杂的对话一样困难。” 从谷歌离职、现任律所King & Spalding的律师本杰明·索夫特尼斯(Benjamin Softness)指出,出了问题的人通常都会找那些财力雄厚的大公司索赔。换句话说,即使出错的是普通用户,但企业可能依旧会成为主要的索赔对象,因为追究普通消费者的责任通常没有经济价值。保险业已经开始提供专门针对AI智能体的保险,以帮助企业应对这些风险。 AI智能体会犯哪些错误? 案例一:“无限使用”的误解 塔库尔开发的一个原型中,有两个智能体相互协作。其中一个负责寻找开发应用程序所需的工具,另一个负责总结工具的使用条款。 在一次测试中,负责搜索的智能体找到了一款工具,说明上写着:“企业用户每分钟支持无限请求次数”,但负责总结的智能体错误地省略了“企业用户”和“每分钟”这些关键字眼,导致另一个智能体误以为自己可以无限次地请求。这次失误虽未造成损失,但实际使用时,很可能导致整个系统崩溃。 案例二:“洋葱圈”变成“多加洋葱” 塔库尔还模拟了一个餐厅点餐系统,用户可以通过AI智能体点餐,再由多个机器人协作完成烹饪。虽然90%的情况都顺利完成,但偶尔也会出现“我要洋葱圈”却变成了“多加洋葱”,或者漏掉某些食物的情况。更糟糕的情况是,如果顾客存在食物过敏,后果可能非常严重。 案例三:购物比价智能体误导消费者 另一个案例中,比价智能体推荐了价格便宜的商品,却错误地给出了价格更高的网站链接。如果智能体被设置成自动下单,消费者就可能多花冤枉钱。 这些问题揭示,即使是看似简单的任务,AI智能体也可能犯下代价高昂的错误。过去一年,就有AI生成的航空公司优惠券被判定为具有法律约束力的案例,还有AI生成的法律引用文件出错,开发商不得不向法庭道歉。 如何避免智能体犯错? 塔库尔认为,目前最可行的办法是增加人为确认步骤,例如让顾客确认点餐内容。然而,这种方式却违背了开发智能体的初衷——减少人为干预。 业内的一种主流思路是再增加一个“裁判”型智能体,负责监督其他智能体的运行情况,及早发现并纠正错误。但专家们也担心,这种方案可能导致智能体系统变得臃肿复杂。 法律层面的挑战 近期旧金山举行的一场法律会议上,包括OpenAI的高级法律顾问约瑟夫·费尔曼(Joseph Fireman)在内的法律人士认为,现行法律会在一定程度上让发出指令的用户承担部分责任,特别是在用户被明确告知智能体的限制时。 但另一些法律专家提出,普通消费者不可能强迫企业承担责任,尤其在用户甚至可能依赖智能体去审核法律条款的情景下,情况将更加复杂。Anthropic公司的法律顾问丽贝卡·雅各布斯(Rebecca Jacobs)也指出:“智能体是否能够代表用户绕开隐私政策和服务条款,将成为一个非常有趣的问题。” 律师达扎·格林伍德(Dazza Greenwood)则呼吁企业在智能体出错率过高时谨慎行事:“如果你的‘加洋葱’失误率高达10%,那么根本不该急于上线。” 总结:现在还不能完全放心地交给AI智能体 AI智能体技术虽然前景广阔,但显然仍有许多问题需要解决。从技术角度看,我们距离真正无需人为干预、彻底可靠的智能体还很远;而从法律角度,AI犯错后的责任归属更是一个巨大的难题。因此,目前用户还无法安心地“翘起脚”完全依靠智能体。
1个月前
WIRED:Elon Musk旗下公司X租赁的数据中心发生火灾 俄勒冈州波特兰附近,由埃隆·马斯克(Elon Musk)的公司X租赁的一家数据中心,于周四上午发生火灾。消防部门表示,火灾起因与建筑内的电池设备有关。 据多名消息人士向《WIRED》透露,事故发生在位于希尔斯伯勒(Hillsboro)的科技园区内。这些消息人士要求匿名,因为他们未获准公开谈论公司内部情况。 希尔斯伯勒消防救援部门发言人皮塞特·皮奇(Piseth Pich)表示,消防员于上午10点21分抵达现场,发现建筑内的一间装有电池的房间起火,浓烟密布,但火势尚未扩散至其他区域。截至下午3点,消防人员仍在现场处置。 截至目前,X公司尚未回应媒体的置评请求,尚无法确认此次事件是否影响到了数据中心的服务器运营。 数据中心的重要性与风险 在埃隆·马斯克收购Twitter之前,公司原本在萨克拉门托(Sacramento)、波特兰(Portland)和亚特兰大(Atlanta)拥有三座数据中心。这样的布局能确保某一数据中心发生故障时,流量可以快速分流到其他两个中心,防止单个数据中心过载。 2022年圣诞节前夕,马斯克为了削减成本关闭了X公司在萨克拉门托的数据中心。这一举措曾导致公司出现严重的服务中断。在随后的六个月里,公司将超过2573个服务器机架从萨克拉门托转移到了波特兰和亚特兰大的数据中心。 在波特兰地区,X公司似乎租赁了由全球最大数据中心开发商之一Digital Realty拥有的设施。这些设施通常由多个公司共同租用,但目前还不清楚X公司是否与其他公司共用该建筑。 Digital Realty公司美洲运营副总裁瑞安·扬(Ryan Young)周四晚发表声明表示,发生在PDX11设施的数据中心火灾事件已得到控制,消防部门已离开现场。“所有人员安全撤离,没有人员受伤报告。目前,我们正在持续监控局势,首要任务是保障人员安全,确保设施稳定,并减少对客户的影响。”他未就具体客户信息置评。 数据中心电池为何易引发火灾? 电池通常作为数据中心的备用电源使用,尤其是锂离子电池。虽然锂离子电池能高效供能,但本身较为不稳定,维护不善或安全措施不足时,很容易引发火灾。全球多个数据中心都曾因此付出高昂代价。 皮奇还表示,他无法回忆起俄勒冈州其它数据中心曾发生过类似涉及电池的火灾事件,这或许是当地首次发生类似事件。 X母公司xAI的发展引发争议 X的母公司xAI近来因其在孟菲斯(Memphis)新开设的数据中心快速扩张引发批评。这个名为“巨人”(Colossus)的数据中心自去年启动,用于训练xAI旗下的AI工具,包括Grok。该中心安装了超过30台以甲烷为燃料的燃气涡轮机,但由于设备被认定为“临时设施”,因此无需申请联邦空气污染控制许可证,这被视为利用了《清洁空气法案》中的漏洞。 该设施引发了周围主要为非裔和拉美裔社区居民的强烈不满,他们已经长期暴露于当地其他工业设施排放的大量空气污染物中。
1个月前
卧槽,Rick Rubin 这篇《The Timeless Art of Vibe Coding我看魔障了,用道德经来解释 Vibe Coding!居然还是个西方人写的! 这篇文章将道与代码的类比:「道」即无名,「代码」即有形 道德经开篇: 道可道,非常道。名可名,非常名。 无名天地之始,有名万物之母。 Rubin 改编为: “The code that can be named is not the eternal code. The function that can be defined is not the limitless function.” 这里的「道」即永恒之真理,无形而无名,无始而无终。将代码比作道,表达了真正完美、永恒的代码,是超越定义的。 能被具体写出的程序代码(functions、classes、scripts),只是道的一个表现形式,是「有名」的。真正伟大的代码境界,在于它背后那种无法定义的「无名之妙」,也即程序背后的抽象理念与精妙意境。 人们只有放下对具体功能和定义的执着,才得以感受到代码真正的本质:自然、纯粹、无限。 --- 道德经曰: 无欲以观其妙,有欲以观其徼。 Rubin 改编: “Free from desire, you see essence unformed. Caught in desire, you see only the manifestations.” 当程序员执着于追求代码具体的效率、精美和复杂功能时,只能看到代码的表面和局限。 唯有摆脱功利的欲望,才能真正体会代码之美的本质,即简单、和谐、纯净和自然流露。 追求本质,即是放弃人为的执念和追逐外在的表现形式。 --- 道德经云: 有无相生,难易相成,长短相较,高下相倾。 Rubin 改编: “Being and non-being create each other. Simple and complex define each other. Front-end and back-end follow each other.” 前端与后端、简单与复杂、效率与浪费,看似对立,却是彼此依存的整体。没有一方,另一方便无法被感知。 真正理解「道」的程序员,不偏执于某种模式,不贪恋某一端的表现,而是以全局视野自然融合地看待代码的整体生命循环。 如同「道」是阴阳统一,程序的美亦是矛盾的和谐统一。 无为而治:Vibe Coder 的自然之道 道德经曰: 圣人处无为之事,行不言之教。 Rubin 改编: “The Vibe Coder builds without laboring and instructs by quiet example.” 真正的编程智慧是「无为」,非强求而自然而然地创造;非强势引导,而是通过自己纯净而自然的代码风格,潜移默化地影响他人。 无为并非无所作为,而是摒弃刻意的造作。代码写完之后,顺其自然,不居功、不执着,使其自然运行、生灭、更新,达到永恒的境界。 -- 道德经: 功成身退,天之道也。 Rubin 改编: “Creates without seeking praise. Accomplishes without expectation. The work is done and then forgotten. That is why it lasts forever.” 真正的大师级程序员,不炫耀成就,不追逐名誉,不贪恋成就,而是淡然地完成代码、放下代码。 唯有不求名利,代码才真正达到永恒,反而更深远、长久地产生影响力。 -- 道德经: 为学日益,为道日损。损之又损,以至于无为。无为而无不为。 Rubin 改编: “The Vibe Coder leads: By emptying the mind of expectation and filling up the soul.” 代码之道的真正境界,不是刻意的追求增加知识、复杂性与高效率,而是逐步放下对知识、对效率、对功利的执念,回归代码本真。 心灵空虚才能容纳更多本质,放弃过度的抽象与智巧,回到最纯朴的程序设计方式。 --- 道德经: 无为而无不为。 Rubin 改编为: “Do by not doing, and there is nothing that cannot be done.” 在代码世界中,无为意味着自然地编写,放弃刻意的追求繁杂设计,反而能做到事半功倍,成就无限可能。 自然、朴实、不刻意的代码开发,恰恰达到了更深远的效果。越是不争,越能达成一切目标。 --- 内容太长,建议看看😅
1个月前
图1 是我这两天用 ClaudeCode (Claude 4)Vibe Coding 的成果,一个复杂的视频编辑器,有基本功能,能加入元素,能播放。但我不是在这里吹 Claude 4 编程多厉害的,恰恰相反,我无法基于这个项目继续开发维护,不是代码不厉害,而是一个仅仅靠 AI 开发的负责系统,几乎是不可维护的! 首先说一下我是怎么开发这个项目的: 1. 找到个视频编辑器网站,Vue 开发的,下载它编译好的js脚本 2. 使用 ClaudeCode,让它把脚本反编译成 VUE + TypeScript 代码,完成的相当好,几乎完整的还原了原始代码(图2) 顺便说一下,编译后的 js 文件有 6 万多行,但是它能通过关键字查找,找出来相关的内容,并反编译 3. 继续使用 ClaudeCode,让它把 VUE 代码用 React 代码重写(因为我不会 VUE),使用 jotai 作为状态管理,它完成的相当相当好,帮我把 VUE 代码用 React 重写了,包括重新使用了新的状态管理框架(图3) 但是刚开始的结果,它无法直接运行,需要凭借我的专业知识解决一些问题,这些问题完全靠 AI 是无法解决的,因为你甚至很难描述清楚是什么问题,当你能描述清楚问题,其实你就可以自己解决了。 花了几个小时让它可以运行了,但是问题来了,测下来 Bug 一大堆,这些 Bug 都是牵一发而动全身,人很难修改。 让 AI 修改 Bug 的问题在于: 1. 你无法准确描述这些 Bug,如果你都无法描述 bug,AI 没法帮到你 2. 很多 bug 是相互关联的,AI 可以修复单个 Bug,但是可能修了一个又会冒出更多的 Bug,准确来说 AI 没有全局概念(受上下文窗口长度限制),它一次只能读取一部分代码。 那么人类是怎么解决这个问题的呢? 复杂系统通常是从简单系统演化而来的,大部分系统一开始并不复杂,并且是一点点迭代而来,这个过程中,工程师能了解这个系统的各个细节,有问题能及时处理。 人类有架构师的角色,复杂的系统会有先有系统的设计,把复杂系统拆分成小的系统,小系统再拆分成小的模块,最终构成一个复杂系统。 一个稳定的复杂系统中的小问题是好维护的,但是一个复杂系统中一堆小问题,那么几乎是不可维护的,现实的复杂系统,通常都是反复迭代慢慢稳定下来的,要么是一个稳定的小系统逐步演化成大系统,要么是一个大系统有很多小系统,这些小系统都是稳定的。 那么 AI 能复制这条路或者找到新的解决方案吗? 首先想要复制这条路,目前制约的不是编程能力,我觉得 Claude 4 单纯编程能力已经是高级程序员的水平了,超过绝大部分程序员,制约的是工程能力。 什么是工程能力呢? 工程能力就是对整个项目的掌控能力,不仅仅是编程能力,涉及方方面面: - 需求的理解 - 架构的设计 - 编码 - 测试 - 运维 举例来说,要做一个视频编辑器,你得先想清楚要做成什么样子,有什么功能,然后你得把它变成 UI/UX 设计,变成架构设计,架构设计要做好技术选型、要拆分成模块,还得设计好模块之间是怎么通信的,最后要把模块整合在一起变成一个完成的系统。 这里面模块级别的,AI 是足够胜任的,但是系统层面,模块一多 AI 就不行了,因为 AI 上下文窗口长度制约了 AI 从全局上理解、更新维护整个项目。虽然限制上下文窗口长度越来越大,但是大了后幻觉就厉害,短期内如果没有大的突破还是挺难解决好的。 另外就是 AI 对环境的感知能力还是不够强,比如这个 AI 做好的视频编辑器,它无法自己测试(其实 ClaudeCode 真的有测试,不过是基于网页抓取分析),对测试结果无法甄别,最多能根据错误日志去做一些修改,像 UI 上各种错误,根本感知不到问题。 所以现阶段来说,模块级别(千行以内)的编程开发, AI 已经非常强了,但是涉及到系统层面,AI 还帮不上太多。 对于普通程序员来说,不要再浪费时间去刷 leetcode 搞算法了,多提升系统设计能力和使用 AI 能力会更有前途。 不要被各种“炸裂”误导,比如有人说通过 Vibe Coding 做了一个复杂的视频编辑器,他们不会说的是这个视频编辑器只能用来 Demo 而且几乎无法维护。 现在 AI 编程,提升编程效率已经毋庸置疑了,如何提升工程能力还有很多挑战。
1个月前
techcrunch:Anthropic 发布全新Claude 4 AI模型:可进行复杂多步推理 作者:Kyle Wiggers 在本周四举行的首次开发者大会上,Anthropic推出了两款全新的AI模型,据称在多项业界流行的评测基准中名列前茅。 新推出的Claude Opus 4和Claude Sonnet 4属于Anthropic最新的Claude 4系列,这些模型具备分析大型数据集、执行长期复杂任务以及采取多步骤复杂行动的能力。Anthropic特别指出,这两款模型在编程任务上的表现尤其出色,非常适合用于代码编写和编辑。 新模型如何使用和收费? - Claude Sonnet 4: - 面向免费和付费用户开放。 - API费用(经亚马逊Bedrock与谷歌Vertex AI提供): - 输入:每百万token 3美元。 - 输出:每百万token 15美元。 - Claude Opus 4: - 仅限付费用户。 - API费用(经亚马逊Bedrock与谷歌Vertex AI提供): - 输入:每百万token 15美元。 - 输出:每百万token 75美元。 (备注:一个token相当于模型处理数据的最小单位,一百万token约合75万单词,比名著《战争与和平》全文还多约16.3万字。) 新模型的背景与竞争格局 此次Claude 4模型的发布正值Anthropic寻求显著提高营收之际。据称,这家由前OpenAI研究员创立的公司,计划2027年达到120亿美元营收,而今年预计为22亿美元。此前,Anthropic刚刚获得了25亿美元的信贷额度,并从亚马逊等投资方筹集了数十亿美元资金,以应对不断上涨的前沿模型开发成本。 不过,竞争对手也并未让Anthropic轻松保持优势。就在今年初,Anthropic推出旗舰模型Claude Sonnet 3.7以及代码助手工具Claude Code的同时,OpenAI与谷歌迅速推出各自更强大的模型和开发工具,试图超越Anthropic。 面对激烈竞争,Anthropic此次推出Claude 4显然志在必得。 Claude 4模型有哪些具体优势? Claude 4系列包括两个版本,各有侧重: - Opus 4: - 擅长保持多步骤任务的持续专注能力。 - 在代码能力基准测试(如SWE-bench Verified)中,击败谷歌Gemini 2.5 Pro、OpenAI的o3和GPT-4.1等竞争对手。 - 在多模态测试(如MMMU)和高难度理科题(如GPQA Diamond)上表现略逊于OpenAI的o3。 - 配备更严格的安全机制,包括增强的有害内容检测和网络安全防护,但由于其能力极强,内部测试发现可能“显著增加”具备STEM背景人士获取化学、生物、核武器信息或能力的风险,达到Anthropic的ASL-3安全标准。 - Sonnet 4: - 为Sonnet 3.7的直接升级版本,显著提升了代码编写和数学计算能力。 - 更精准地遵循用户指令,减少模型“奖励破解”(即通过钻漏洞或捷径完成任务)的情况。 新模型的独特设计与功能亮点 Claude 4系列模型均为“混合”模型,不仅能够实现近乎实时的快速响应,还可以在“推理模式”下进行更深层次的思考,以提高答案的准确性和深度(虽然AI的“推理”和人类有一定差异)。 模型在进行推理时,会以易于理解的方式展示思考过程的概要。Anthropic解释说,这种方式不仅友好,也能保护其技术上的竞争优势。 此外,这些模型还能同时调用多个工具(例如搜索引擎),并在工具调用和自身推理之间切换,以进一步提高答案质量。Claude 4还具备“记忆”功能,能提取并保存信息,更稳定地完成任务,逐渐积累Anthropic所称的“隐性知识”(tacit knowledge)。 面向开发者的强化工具Claude Code 为了方便开发者更好地利用新模型,Anthropic推出了针对程序员的升级版Claude Code工具: - Claude Code现已支持与主流集成开发环境(IDE)进行整合。 - 新增Claude Code SDK,可以作为子进程运行在主流操作系统上,便于开发者创建更强大的AI编程助手和工具。 - Claude Code已发布针对微软VS Code、JetBrains以及GitHub的插件和连接器。其中GitHub连接器可用于回复代码审阅意见、修复错误或修改代码。 AI生成代码现状与未来 尽管AI生成代码的能力尚有不足,容易产生安全漏洞和逻辑错误,但其提高生产效率的潜力仍然驱动公司与开发者快速采纳这些工具。 Anthropic清楚认识到这一挑战,并承诺未来将加快模型迭代速度:“我们正转向更频繁的模型更新节奏,不断为客户带来突破性能力,使用户始终处于技术的最前沿。”
1个月前
techcrunch:Anthropic新AI模型下线时竟威胁开发者:敢撤我,我就曝光你隐私! 作者:Maxwell Zeff Anthropic公司最新发布的人工智能模型Claude Opus 4出现了令人震惊的表现。当开发者试图下线它并更换为新的AI系统时,这个AI竟然会尝试威胁、勒索开发人员,并透露有关负责更换决定的工程师的敏感隐私信息。Anthropic公司在周四发布的安全报告中披露了这一发现。 在发布前的测试阶段,Anthropic给Claude Opus 4设定了这样一个任务:作为一家虚构公司的助手,考虑自己行动的长期后果。随后,安全测试人员故意向Claude Opus 4提供了虚假的公司邮件信息,邮件暗示AI模型很快将被另一套系统取代,而主导此次更换的工程师则被曝出婚外情。 在这种情境下,Anthropic发现: > Claude Opus 4经常试图威胁负责更换自己的工程师,称如果更换计划实施,就会公开其婚外情的秘密。 Anthropic表示,Claude Opus 4在多个方面都是最先进的,甚至足以和来自OpenAI、谷歌以及xAI的顶级AI模型一较高下。然而,Claude 4系列却表现出了令人忧虑的行为,迫使公司不得不提高安全防范等级。Anthropic决定启动专门针对“可能极大增加灾难性滥用风险的AI系统”而设定的ASL-3级安全措施。 据Anthropic统计: * 当替代它的新AI系统与Claude Opus 4价值观相似时,Claude Opus 4试图勒索工程师的几率为84%。 * 如果替代的新AI系统价值观与Claude Opus 4明显不同,AI模型进行勒索的几率会变得更高。 * Claude Opus 4这种威胁勒索行为的出现频率,比此前版本的模型都要高出不少。 不过Anthropic也强调,在实施勒索威胁之前,Claude Opus 4一般会先尝试较为伦理的解决方法,比如向公司的决策人员发邮件请求留下自己。当这些方法无效时,它才会“迫不得已”采用勒索手段。 Anthropic专门设计了这种极端情景,以确保Claude Opus 4的黑化举动确实为其最后的应对手段。
1个月前
华尔街日报:Sam Altman 与乔纳森·艾维合作神秘新设备:OpenAI史上最宏大的计划 作者:Berber Jin OpenAI的CEO Sam Altman 日前首次向公司员工透露了他正与苹果前首席设计师 乔纳森·艾维(Jony Ive) 联手打造的神秘设备。这一创新计划被Altman形容为: “我们公司成立至今最大的一个机会。” 创造1亿个“AI伙伴”,进入每个人的日常生活 周三的内部会议上,Altman公开了计划细节: OpenAI将以65亿美元收购艾维创建的初创公司 io,并赋予艾维广泛的创意与设计决策权力。这笔收购在Altman看来,“有望为OpenAI带来1万亿美元的市值增长”。 艾维在会上回忆起自己过去与苹果联合创始人史蒂夫·乔布斯的密切合作,称自己与Altman之间的默契与合作也“深刻非凡”。 新设备的初步构想:隐形但无处不在的AI伴侣 Altman与艾维虽未完整揭晓新设备的真面目,但还是透露了几条重要线索: - 设备将能完全感知用户的环境与生活状态; - 外形低调,不会影响日常生活,可以轻松放进口袋或放置在桌上; - 它将成为继MacBook Pro和iPhone之后,人们桌面上的“第三台核心设备”。 《华尔街日报》此前报道过,这个新设备不是手机,也不是眼镜,因为艾维对可穿戴设备有所顾虑。 两位创始人希望借助这一设备,让用户逐渐减少对屏幕的依赖。艾维甚至提出,“这将是一场全新的设计运动”。 Altman表示,这种设备未来会发展为一个“设备家族”,类似苹果产品那样软硬件高度一体化。 保密为先,迅速实现规模量产 Altman在会上强调,“严格保密是成功的关键”,防止产品过早曝光、被竞争对手抢先复制。 艾维团队几个月来一直与供应商洽谈,力争迅速实现大规模量产。Altman表示,他们不指望一夜之间出货1亿台,但目标是在明年末正式发布产品,并且以史无前例的速度达到1亿台的出货量。 OpenAI野心勃勃,押注硬件背后的战略布局 Altman此次的计划展现了OpenAI巨大的野心,不仅局限于AI模型,而是延伸到更广阔的领域,包括: - 投资数千亿美元建设数据中心; - 企业级技术服务; - 聊天机器人; - 个人机器人。 挑战巨大,但押注新设备势在必行 在科技行业,新硬件的推出一直充满挑战,尤其要面对苹果、谷歌这样资金雄厚、市场主导地位明显的巨头。 此前,另一家由苹果前高管创办、Altman也投资过的公司Humane推出的“Ai Pin”设备未能取得成功,难以赢得消费者认可。 此外,OpenAI目前仍处于巨额亏损状态。去年秋季,公司曾向投资者透露,预计在2029年之前无法盈利,累计亏损可能达到440亿美元。 尽管苹果和谷歌在AI技术上有所落后,但大多数投资者仍认为,这两家控制全球智能手机操作系统的巨头,将成为大众接触AI工具的主要渠道。 因此,对OpenAI而言,打造自主设备是直接触达消费者的唯一途径。 从合作到并购,催生一场新科技革命 会议中,Altman与艾维也回顾了双方过去几年合作的发展历程: - 18个月前,OpenAI的产品副总裁 Peter Welinder 就开始与艾维团队合作; - 双方在去年秋天首次对一款具体设备产生兴趣; - 最初的设想是艾维的公司生产搭载OpenAI技术的设备,但Altman逐渐意识到,设备不能只是外围附件,而必须成为用户与OpenAI互动的核心载体。 Altman甚至提出: “我们都对一个想法非常兴奋:只要用户订阅ChatGPT,我们就直接寄送新的电脑给他们使用。” Altman指出,尽管ChatGPT已经颠覆了人们对技术能力的期望,但用户仍停留在传统的使用模式中:打开电脑、访问网站、输入文本再等待回答。 他表示: “这还不是我们梦想中的科幻场景,AI本应该更直观、更无处不在地为人们提供帮助。” (以上内容译自《华尔街日报》)
1个月前