看字节seed这研究趋势,不会截胡了DeepSeek的下一个突破吧?🤔 北京大学、ByteDance Seed和香港大学研究:SWE-Swiss——一个用于构建人工智能的完整训练“公式”,用于解决软件工程任务。 基于此,他们的32B参数SWE-Swiss-32B在SWE-bench Verified上达到了60.2%,为其尺寸设定了新的SOTA。 这证明,通过合适的方法,中型模型可以超越其重量。
看字节seed这研究趋势,不会截胡了DeepSeek的下一个突破吧?🤔 北京大学、ByteDance Seed和香港大学研究:SWE-Swiss——一个用于构建人工智能的完整训练“公式”,用于解决软件工程任务。 基于此,他们的32B参数SWE-Swiss-32B在SWE-bench Verified上达到了60.2%,为其尺寸设定了新的SOTA。 这证明,通过合适的方法,中型模型可以超越其重量。
BBC News 中文
3天前
专家称,DeepSeek对美国科技的撼动并未持久。这部分归因于营运挫折,也源于来自美国与中国公司的激烈竞争。该公司的下一代产品DeepSeek-R2据报已延迟原因之一是高端晶片短缺。
karminski-牙医
4天前
GPT-5 召回的确牛逼,所以接 RAG 目前应该是最佳选择。 Fiction.LiveBench 测试数据,192K上下文仍然有 87.5%, 妥妥 SOTA 了. 奥特曼其实应该把这个数据拿出来炫的,从o3开始其实 OpenAI 系列模型的召回能力都是可圈可点的。 #GPT5