飞书做了一个超安全且功能更强大的龙虾! 前段时间,龙虾爆火的时候,飞书因为健全的生态和开放的接入方式,成为了大家国内接入龙虾的首选 IM 平台。 但是毕竟 龙虾 有自己的体系,还有很多安全性问题,所以导致飞书服务的 to B 企业其实很多时候很难自己部署,或者是不敢自己部署。 这次飞书直接把他们的 aily 升级了,升级成了一个更安全、跟飞书契合度更高,而且更懂你的企业和你的龙虾。 你可以一键配置,随后它会直接生成一个联系人作为你的助手。你可以直接让他进行回复,或者在飞书中跟他聊天、给他安排任务。 他能读取你飞书里的所有信息,并帮你完成任务。此外,他还可以调用一些常见工具,甚至获取飞书之外的信息。 而且可以自定义 Skills,比如说:你的日报、PPT、安排日程,这些都可以让它去帮你做。 更强的是,他们还有一个专业版的 Aily,在网页上使用,自带了超级多的 Skills。 比如我这里就让他查找了一下对应的一个群,然后让他总结群里的信息,同时写了一个网页可视化的展示这些信息。 这个对于我们日常的企业管理和一些群的维护是非常好用的,而且还可以自动发送到比如说群里,对吧? 同时,它支持更多超长的指令和复杂任务拆解,以及定时任务。他还给这个 Aily 配备了 Agent 电脑,支持更稳定的调用。 我们都知道龙虾强就强在它丰富的生态,也就是那些 Skills。 这次除了官方内置的大量 Skills 以外,你还可以通过 aily 专业版自己创建 Skills,同时支持上传以前自己制作的 Skills。 这个功能非常厉害,可以将很多个人流程直接落地: 比如我之前做的一些“去 AI 味儿”的指令 还有一些视频剪辑或文本生成的 Skills 你完全可以将自己的工作流落地到 Skills 里,Agent 的创建门槛已经变得非常低了。 目前你可以飞书搜索 Aily,就可以开通 Aily 助手; 同时去网页版(aily.feishu. cn)可以使用专业版的 Aily,都有免费额度,可以去玩玩,非常好玩。
小米这波牛逼啊,一下掏出三个顶级模型! 前几天在 OpenRouter 杀疯了的 Hunter Alpha 就是 MiMo‑V2‑Pro! MiMo‑V2‑Pro 旗舰模型: 主要在 Agent 能力和代码能力上很强。 MiMo‑V2‑Omni: 多模态感知模型,负责感知环境为 Agent 模型提供信息。 MiMo‑V2‑TTS: TTS 语音模型负责 Agent 跟人类沟通 而且这几个模型会在接下里的一周提供免费试用,Codepilot 已经支持。 --------- MiMo‑V2‑Pro 顶级 Agent 编程模型: 总参数超 1T,激活参数 42B,最高支持 100 万上下文 Artificial Analysis 里面中文 LLM 第二,仅次于 GLM-5 测试集成绩来看,成绩非常接近 Sonnet4.6,价格只有 Sonnet 4.6 的 5 分之一。 256K 价格:1/3 美元百万 Token 1M 价格 2/6 美元百万 Token --------- MiMo‑V2‑Omni 全模态理解 LLM: 支持图像、视频和超长音频理解 官方宣称音频理解超过 Gemini3Pro,支持 10 小时以上连续音频理解 图像理解上复杂图表与多学科视觉推理能力 超过 Claude 4.6 Opus 支持音视频联合输入,强调「情景感知 + 未来预测」 原生支持 工具调用、函数执行、UI grounding --------- MiMo‑V2‑TTS 更猛: 支持「自然语言风格指令」,不限于固定标签 支持句中情绪切换、渐变、以及更细粒度的情绪控制 中英双语为主,同时支持多种方言风格 还支持人物化声音,例如孙悟空等 咳嗽、叹气、犹豫填充音等非言语声音建模 会用大小写、重复字符、标点符号作为韵律信号 在同一模型中支持说话与唱歌,能准确捕捉旋律和节奏
试了一下智谱刚出的 GLM-5-Turbo 模型,挺牛逼啊,太强了,又快又好! 这个模型是专门用来面向 OpenClaw 这种 Agent 的场景深度优化的。 输出速度非常快。它的提示遵循和工具链调用很稳定,在前端的表现上也不错。 据他们自己说,这个模型在以下核心能力上都变得非常强,并做了专项的迭代:工具调用、指令遵循、定时和持续任务、长程执行能力。具体比如说: 1. Tool Calling:强化了调用 Web 工具和 Skills 的能力 2. 复杂指令拆解能力更强 3. 定时任务和长时间的任务不中断(这个很重要) 4. 长链路高吞吐:即数据量大、链条长的任务,执行稳定性更强 我自己试了一下,做了几个任务,发现它的输出速度相当快,应该是同级别模型里面最快的。 同时我自己有个 AI 助理,需要加载非常多的上下文,因为涉及到我的日程、各种项目的完成情况,还有我好几个 memory 文档。 其实跟龙虾(Openclaw)的场景也差不多了,它很快就读到了所有相关的信息,而且没有错误,返回信息也巨快。 然后,第二个为什么说它前端强,是因为我之前不是自己做了一个 Claude 的生成式 UI 能力吗?那个其实非常考验模型对多模态前端位置的判断,以及画图时(尤其是 SVG 画图)的准确性。 还有就是这个东西具体应该用什么样的 UI 去表示,其实也非常重要。因为这类型用户通常不会告诉你用什么方式或图表去展示,你需要自己选一个合适的图表。 我先是让它生成了一个我这周的日程(通过读取我的记忆来生成)。我发现它生成的表现形式非常好: 1. 两周分的很清楚 2. 每一天都用条形图的方式去表示,让你能大概知道任务分配在哪个时间段 第二个是又试了一下让它解释大语言模型的训练过程。虽然整个画得很复杂,但所有的地方都很规整,没有出现错位的情况,这个即使是 Claude Sonnet 有时候都会出错。当然,另外它画得也很快。 他们现在还为这个模型去做了一个新的龙虾套餐,价格相当实惠。 我本来自己买了一个小的试了一下,但是看这个东西这么强,换成了那个高套餐。 而且我感觉如果你不是写代码,只是用来处理一些日常工作的话,这个东西非常合适。
终于腾出手来解决 Codepilot 服务商连接的老大难问题了,上了个诊断,还能自动帮你修复 如果你以前用 Codepilot 有连接问题的话,可以下这个版本试试 对已有用户无破坏性变更。 现有配置、会话、provider 数据全部保留,行为向后兼容。具体变化: - 新建聊天会记住上次选择的 provider/model,不再每次回退到 env 默认值 - 错误提示更具体 — 以前统一显示 exit code 1,现在会区分"认证失败""模型不可用""网络不通"等 16 种情况并给出修复建议 - Resume 失败不再闪现通知 — 对话恢复失败时静默回退,用户无感知 - 新增 provider 后会询问是否设为默认 — 不再需要手动切换 - 设置页新增"连接诊断" — 一键检测 CLI/认证/网络/模型兼容性 --- 之前遇到报错的用户怎么办 ▎ 如果你之前发送消息时看到 Claude Code process exited with code 1 错误: 1. 更新到此版本后直接重试 — 大部分情况已经自动修复(provider 未生效、auth style 选错、model 没传到上游) 2. 如果仍然报错 — 错误信息现在会告诉你具体原因和怎么做,按提示操作即可 3. 不确定问题在哪? 去 设置 → 服务商 → 运行诊断,系统会自动检测 CLI、密钥、网络等 5 项,有问题的会标红并提供一键修复 4. 诊断全绿但还是不行? 点「导出日志」下载诊断报告,然后到 GitHub Issues 提交,附上日志文件