时政
财经
科技
虚拟货币
其他
登录
#模型配置
关注
Stephan
12小时前
分享一下如何配置OpenAI Codex接入OpenRouter的任意模型 Codex可以通过修改配置文件的方式改变默认使用的模型及模型提供方,只需要两步👇 1⃣修改 ~/.codex/config.toml 配置文件,增加如下配置: profile = "openrouter" [model_providers.openrouter] name = "OpenRouter" base_url = "" env_key = "OPENROUTER_API_KEY" wire_api = "chat" [profiles.openrouter] model = "openai/gpt-5-codex" model_provider = "openrouter" model_reasoning_effort = "high" 注意这里的 model="xxx" 定义,可以配置任意支持推理的openrouter模型 2⃣在环境变量中增加OPENROUTER_API_KEY: export OPENROUTER_API_KEY="你的OpenRouter API KEY" 启动 codex 即可看到,model已经指向配置文件中的模型:
#OpenAI Codex
#Openrouter
#模型配置
#API Key
#教程
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞