迈克 Mike Chong

迈克 Mike Chong

0 关注者

3小时前

Fun fact: 虽然 GPT-5 的上下文有 40 万,但是 codex 里只给了 20 万。原因当然是为了省钱啦。 opus/sonnet 也是 20 万。 不过实际使用体验来说 gpt-5 废话少就消耗的慢

#GPT-5 #上下文长度 #Codex #成本 #使用体验

相关新闻

placeholder

空谷 Arvin Xu

2小时前

在我看来这次 GPT-5 发布的最大亮点应该是 Tools Calling 的 custom tools 和 CFG。这几乎指明了下一步 agentic models 的发展路径。 「JSON 不那么适用代码场景?」没问题,直接放开返回限制,可以直接输出代码; 「又需要特定结构约束?」没问题,自定义 CFG。 你 OpenAI 不愧是你 OpenAI。可以说 Tools Calling 在格

placeholder

NanYi

3小时前

只是在Codex CLI中执行了/init,它就莫名其妙地改动了我22个文件,其中包括增加和删除回车…这还是使用了思考模型后的结果…我怀疑稍微多一点内容的项目,GPT-5就胜任不了…

placeholder

NanYi

5小时前

当我能设置基佬紫,但是却不能看到GPT-5时…

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

6小时前

今天在GPT-5语言的幻觉里累劈了,看点不一样的

placeholder

LinearUncle

7小时前

一整天写代码、搭方案、学新东西,最顺手的还是 gpt-5 thinking。 简直可以说爱不释手! 它跟那几个大佬模型不是一个味,脑子最灵,智力估计排第一,感觉最聪明。 当然其他模型各有所长。

© 2025 news.news. All rights reserved. 0.07529 秒. v1.0.42
我的评论