迈克 Mike Chong

迈克 Mike Chong

0 关注者

1个月前

Fun fact: 虽然 GPT-5 的上下文有 40 万,但是 codex 里只给了 20 万。原因当然是为了省钱啦。 opus/sonnet 也是 20 万。 不过实际使用体验来说 gpt-5 废话少就消耗的慢

#GPT-5 #上下文长度 #Codex #成本 #使用体验

相关新闻

placeholder

Rainman

23小时前

这么说Calvin French-Owen 大佬是真的牛逼。 真正的事了拂衣去。 codex 已经在他离开之前就走上了正轨,大佬做完这个产品就走了,剩下的就是运营/迭代了

placeholder

Cali Castle

1天前

Sonnet 4.5 好像很厉害 但还是一样的“(╹◡╹) you’re absolutely right!” 还是喜欢 GPT-5 系

placeholder

dontbesilent

1天前

我想在 300 人的线下课让大家用本地的 gpt oss 不卡顿,问了一下 manus 需要多少成本 跟我说需要 96w 人民币 有没有平替方案? 96w 其实也能回本,9600 的门票卖 100 张,勉强打平

placeholder

池建强

1天前

刚才做音频转义,感觉最好用的还是通义,语音转化速度非常快且没有容量上限,做 shownotes 也相对准确。 今天使用的时候发现通义有了 Mac 客户端,下载了,虽然是包了个壳,但打开还是更方便一点。不过安装后最好取消自动启动,另外去掉默认快捷键,否则会你的其他快捷键冲突。

placeholder

宝玉

2天前

卧槽,我真解决了让 Codex 连续工作 8 小时的问题,上下文都不会爆掉! 方案就是让 Claude Code 去当监工监督 Codex 干活,大概的步骤如下: 1. 首先要让 Codex 生成一个任务的 TODO List,就是那种能一步步完成的 2. 然后让 Codex 更新 Agents md 文件,加上说明,如果输入 continue,要读取 TODO 文件,去选取任务,执行后更新

© 2025 news.news. All rights reserved. 0.12659 秒. v1.0.46
我的评论