GPT-5.5がリリースされた。OpenAI Codexで使えて、有料ChatGPTユーザーにも順次展開中らしい。でも今回ちょっと気になったのはモデルの性能じゃなくて、APIがまだ公開されていないという点だ。
公式には「APIデプロイには異なる安全基準が必要で、パートナーと連携中。近日公開予定」とのこと。要するに今すぐAPIで触れない。普段LLMをコードから直接叩いている身としては、ChatGPTのUIで遊ぶだけというのはちょっとモヤる。
そこでSimon Willisonが面白いことをやっていた。OpenAIはCodex CLIをオープンソースとして公開している。その `/backend-api/codex/responses` エンドポイントが、実はChatGPTの有料プランのサブスクリプションと紐付いて動く仕組みになっている。OpenAIのRomain Huetが「CodexはJetBrains、Xcode、OpenCode、Piなど、好きなところで使っていい」と明言している。公式に許可されているわけだ。
SimonはClaude Codeにcodexリポジトリをリバースエンジニアリングさせて、認証トークンの保存場所を特定させた。そのうえで `llm-openai-via-codex` というLLMプラグインを作ってしまった。使い方はこんな感じ。
これだけでGPT-5.5を自分のコードから叩ける。画像アタッチも `-a filepath.jpg` でいける。チャットモードも `llm chat -m openai-codex/gpt-5.5` で動く。
これを読んで「じゃあ自分のプロジェクトでも使えるか」と考えた。いま個人開発でLLMを使ったツールを作っていて、OpenAI APIのコストが地味に気になっていた。すでにChatGPT Plusに課金しているなら、このルートで実験的な機能を試すのはコスト的に合理的だと思う。
ただし本番投入はしない方がいい。「バックドア」という名前がついている時点でわかる通り、正式なAPIと同じ安定性やSLAは期待できない。エンドポイントが変わったり認証の仕組みが変わったりするリスクがある。あくまでローカルの実験環境か、個人の検証用途に留めておくのが現実的だ。
もう一つ気になったのはreasoning_effortの話。SimonがSVG生成の検証(ペリカンが自転車に乗っている絵を作るベンチマーク)をやっていて、デフォルトは39トークンしか使われなかったのに、`-o reasoning_effort xhigh` にしたら9,322トークンまで増えた。生成に4分近くかかったが品質が明らかに上がったらしい。自分のアプリでLLMの品質が安定しないと感じているなら、このパラメーターを試す価値がある。
自分は今週末、手元のRAGツールにこのプラグインを繋いで、GPT-5.4と5.5の出力を比較してみるつもりだ。APIが正式公開される前に実装の勘所を掴んでおきたい。
公式には「APIデプロイには異なる安全基準が必要で、パートナーと連携中。近日公開予定」とのこと。要するに今すぐAPIで触れない。普段LLMをコードから直接叩いている身としては、ChatGPTのUIで遊ぶだけというのはちょっとモヤる。
CodexのバックドアAPIという選択肢
そこでSimon Willisonが面白いことをやっていた。OpenAIはCodex CLIをオープンソースとして公開している。その `/backend-api/codex/responses` エンドポイントが、実はChatGPTの有料プランのサブスクリプションと紐付いて動く仕組みになっている。OpenAIのRomain Huetが「CodexはJetBrains、Xcode、OpenCode、Piなど、好きなところで使っていい」と明言している。公式に許可されているわけだ。
SimonはClaude Codeにcodexリポジトリをリバースエンジニアリングさせて、認証トークンの保存場所を特定させた。そのうえで `llm-openai-via-codex` というLLMプラグインを作ってしまった。使い方はこんな感じ。
# Codex CLIをインストールしてOpenAIプランでログイン済みの前提
uv tool install llm
llm install llm-openai-via-codex
llm -m openai-codex/gpt-5.5 'Your prompt goes here'これだけでGPT-5.5を自分のコードから叩ける。画像アタッチも `-a filepath.jpg` でいける。チャットモードも `llm chat -m openai-codex/gpt-5.5` で動く。
自分のコードへの影響を考えてみた
これを読んで「じゃあ自分のプロジェクトでも使えるか」と考えた。いま個人開発でLLMを使ったツールを作っていて、OpenAI APIのコストが地味に気になっていた。すでにChatGPT Plusに課金しているなら、このルートで実験的な機能を試すのはコスト的に合理的だと思う。
ただし本番投入はしない方がいい。「バックドア」という名前がついている時点でわかる通り、正式なAPIと同じ安定性やSLAは期待できない。エンドポイントが変わったり認証の仕組みが変わったりするリスクがある。あくまでローカルの実験環境か、個人の検証用途に留めておくのが現実的だ。
もう一つ気になったのはreasoning_effortの話。SimonがSVG生成の検証(ペリカンが自転車に乗っている絵を作るベンチマーク)をやっていて、デフォルトは39トークンしか使われなかったのに、`-o reasoning_effort xhigh` にしたら9,322トークンまで増えた。生成に4分近くかかったが品質が明らかに上がったらしい。自分のアプリでLLMの品質が安定しないと感じているなら、このパラメーターを試す価値がある。
自分は今週末、手元のRAGツールにこのプラグインを繋いで、GPT-5.4と5.5の出力を比較してみるつもりだ。APIが正式公開される前に実装の勘所を掴んでおきたい。