Fun fact: 虽然 GPT-5 的上下文有 40 万,但是 codex 里只给了 20 万。原因当然是为了省钱啦。 opus/sonnet 也是 20 万。 不过实际使用体验来说 gpt-5 废话少就消耗的慢
Fun fact: 虽然 GPT-5 的上下文有 40 万,但是 codex 里只给了 20 万。原因当然是为了省钱啦。 opus/sonnet 也是 20 万。 不过实际使用体验来说 gpt-5 废话少就消耗的慢
NanYi
3小时前
只是在Codex CLI中执行了/init,它就莫名其妙地改动了我22个文件,其中包括增加和删除回车…这还是使用了思考模型后的结果…我怀疑稍微多一点内容的项目,GPT-5就胜任不了…
NanYi
5小时前
当我能设置基佬紫,但是却不能看到GPT-5时…
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
6小时前
今天在GPT-5语言的幻觉里累劈了,看点不一样的