迈克 Mike Chong 0 关注者 关注 1个月前 Fun fact: 虽然 GPT-5 的上下文有 40 万,但是 codex 里只给了 20 万。原因当然是为了省钱啦。 opus/sonnet 也是 20 万。 不过实际使用体验来说 gpt-5 废话少就消耗的慢 #GPT-5 #上下文长度 #Codex #成本 #使用体验 前往原网页查看