#国产大模型

石锤! Windsurf 的新模型 SWE-1.5 更像 GLM-4.5! 之前网传硅谷的公司已经在内部开始大面积用国产开放权重大模型来魔改了, 传的尤其猛的是 Cursor 的 Composer-1 是用 DeepSeek 魔改(后训练或微调)的, 而 Windsurf 的 SWE-1.5 是用 GLM-4.6 魔改的. 而上一个基本已经石锤了, 这个还没有被验证, 于是给大家整个活, 看看这个模型从输出特征进行聚类, 更像哪个模型. 我魔改了 Slop-Forensics 分析了 SWE-1.5 和其它国产大模型的语言指纹, 结果出乎意料: 它与 GLM-4.5 聚类在同一分支,而非之前网传的 GLM-4.6! 考虑到一个模型想要效果好, 即使用其他的基座模型也要后训练一段时间, 所以的确更可能是 GLM-4.5 (7月28号发布), 而不是 GLM-4.6 (10月1号发布). 可惜了它没用 GLM-4.6 后训练哈哈哈, 我觉得以目前 GLM-4.6 作为基座模型后训练会比现在更猛, 或者是不是这样? SWE-1.5 对应 GLM-4.5, SWE-1.6 对应 GLM-4.6? 另外, Cerebras (即 Windsurf 这个 SWE-1.5 模型的云计算服务商), 决定将 GLM-4.6 作为默认推荐模型, 考虑到 GLM-4.6 在测试上的表现 (SWE-Bench 68%, LiveCodeBenchV6 82.8%), 我估计下一个模型用GLM-4.6概率就特别大了. 国产大模型牛皮! 顺便讲一下 Slop-Forensics 这个项目的原理: • 统计每个模型的词汇使用频率和短语重复模式 • 将这些"语言习惯"转化为特征向量 • 用聚类算法构建系统发育树,距离近=语言模式相似 就像指纹鉴定,不同模型即使输出相同内容,其底层的词汇偏好、短语组合方式会暴露出训练数据或架构的相似性. SWE-1.5 和 GLM-4.5 在树上紧密聚类,说明它们在: 高频词选择 二元/三元短语组合 词汇复杂度分布 这些维度上高度一致。这种相似性很难伪造——它根植于模型的深层结构中. 我魔改的版本: #智谱 #GLM #Cursor #windsurf #cerebras #国产大模型 #AI编程
Y11
5个月前
今天是2025年06月15日,简单说说今日通过 首页的观察: 1. 国产大模型在国内全面大爆发,各个环节都很缺人,大中小互联网厂游戏厂以及银行、保险、消费金融等公司随随便便就无限HC地招人,要求极低,工资很高。 2. 随着国产大模型的发展,文科生的就业可选择面大幅缩减,只有极少数公司还接受文学专业的人才(譬如设计故事的世界观、HRBP、平台运营、游戏中AGI故事线角色个性化设计、银行柜员),如果大家有机会,劝大家都转大模型(这东西很简单的,随便学几个prompt就能上岗了) 3. 从地理位置上看,北京、上海、广州、深圳还是吸纳人才最多的城市。再往后就是重庆、长沙、武汉、南京招人的岗位也多。想要转行的朋友可以多看看不同的城市,不要只在一个招聘软件找工作,以防信息茧房。 4. 即使大家都说外贸不好,但出海的人才也很缺。安克创新、海尔、以及新能源车企(如电动汽车、电动摩托车),都大量招人,各个细分领域的人才都要。对机械工业感兴趣的朋友不要错过。 虽然大家都喊着25年就业大环境不好,但是本质上还是有着极大的信息差。大部分人只知道那么几个老牌的招聘软件,因信息渠道被垄断而企业招不到人才,大家找不到工作,平台赚得盆满钵满。 以上信息,同样也适用于高考完毕正在选专业的家长和孩子,大家可以用的移动端里的‘问问’功能,输入孩子的个人偏好或者相关大学专业,然后系统就能给他提供特定的高考专业以及毕业后的就业去向,行业平均工资范围。毕竟大家都希望给孩子一个宽松好就业高薪的未来。