Meathill
16小时前
OpenAI 的人自己不用 codex 网页版么?放置一会儿直接卡死,直接 CPU 干到 450%
Andy Stewart
1天前
你们都说我发推快,其实不是的,而是我学习速度快 比如这篇文章,算力舱对于3.5万字的段永平访谈,用了最好最慢的思考型AI模型,非常快的分析了文章的精髓和要点 我的学习速度是普通人的10倍,所以我发推的速度也是非常快的
吕立青_JimmyLv (闭关ing) 2𐃏25
1天前
OpenAI 又有新模型啦?GPT-5.1-Codex-Max 但不会是原来的中杯变大杯,小杯变中杯了吧? 😂
歸藏(guizang.ai)
1天前
移动端的 Gemini 上线了 3.0 Pro 模型