迈克 Mike Chong

迈克 Mike Chong

0 关注者

4个月前

Fun fact: 虽然 GPT-5 的上下文有 40 万,但是 codex 里只给了 20 万。原因当然是为了省钱啦。 opus/sonnet 也是 20 万。 不过实际使用体验来说 gpt-5 废话少就消耗的慢

#GPT-5 #上下文长度 #Codex #成本 #使用体验

相关新闻

placeholder

kevinzhow

1个月前

感觉 OpenAI 终究还是得做个自己的 Code IDE,目前 Codex 在第三方里都用起来不舒服

placeholder

Jesse Lau 遁一子

1个月前

codex几分钟给109个EA生成一个汇总分类 技术指标MACD还是比较流行 资金管理马丁格尔则挺多

placeholder

Lex Tang

1个月前

说 Codex 靠谱吧,但是像 “RevenueCat is not configured” 这种明显不用做本地化的也提出来,就有点太憨厚了

placeholder

Justineo

1个月前

Copilot premium requests 用完了,Codex 周额度也用完了,这个周末怎么办哟 😅

placeholder

北火

1个月前

退订了 ChatGPT,开始使用 Gemini 一段时间

© 2025 news.news. All rights reserved. 0.0388 秒. v1.0.46
我的评论