迈克 Mike Chong

迈克 Mike Chong

0 关注者

4个月前

实测: gpt5-codex 虽然速度慢,但是配合 codex cli,即使是 API cache hit 概率很高,价格也不是很贵。 下图中,红色曲线是缓存覆盖率,蓝色区域是 token 数量,看起来和 OpenCode 创始人前几天提到的场景非常像。

#gpt5-codex #Codex CLI #API cache #opencode #Token

相关新闻

placeholder

Hanya Hu

1天前

你们有没有觉得,有了Al订阅后,一天不工作就觉得好像浪费了好多Token! 人反而不会休息了! 我要抵制这种想法!今天不工作!

placeholder

大宇

1天前

TOKEN这个词本来是币圈的 现在被AI抢了

placeholder

蓝点网

1天前

💥💥💥突发:#OpenCode 收到 #Anthropic 法律投诉,现已清空任何与Anthropic/Claude相关的内容。 变更内容如下: 删除 Anthropic 专有的系统提示词文件 anthropic-20250930.txt 从模型提供商和模型枚举列表中完全移除 Anthropic 和 Claude 相关选项 从软件内部彻底删除原本用来认证的 opencode-anthrop

placeholder

陈少举 (🦣 @[email protected] )

2天前

在TG上看到一个多Agent协作的Claude Code截图,找Grok重新构建了一下提示词,即使是在OpenCode+Gemini这种平替的情况下的表现也有些超出预期,提示词见: (记得修改项目路径地址)。

placeholder

Tw93

5天前

最近在看 Agent / LLM 的长期记忆方案,顺便研究了一下 MemOS 给 OpenClaw 做的这个插件。 很多 Agent 在长期任务里都会遇到一个问题:Session 一长,Context 和 Token 开销就开始迅速增长,而且历史交互也不一定会沉淀成可复用经验,很多事情会反复试。 MemOS 的思路是把 Memory 从 Prompt 里抽出来,做成系统层的一部分。这样 Age

© 2025 news.news. All rights reserved. 0.03139 秒. v1.0.46
我的评论