たねやつの木

Photographs, Keyboards and Programming

Ollamaと連携してOpenAI Codex CLIをローカルで試す

こんにちは、たねやつです。

OpenAIが開発したCodex CLIは、自然言語で指示を出すだけでコマンドライン操作を実行してくれる便利なツールです。通常はOpenAIのAPIを利用しますが、今回はローカル環境で動作するOllamaと連携させることで、APIキーなしでCodex CLIを試す方法を紹介します。

この記事でできること

  • OpenAI Codex CLIのインストール
  • Ollamaと連携するためのCodex CLIの設定
  • ローカルLLMを使用したCodex CLIの実行

事前に必要なもの

  • Node.jsとnpm
  • Ollama (インストール済みで、実行中であること)
  • Ollamaで利用したいモデル (例: qwen:4b)

Codex CLIのインストール

まず、npmを使用してCodex CLIをグローバルにインストールします。

npm install -g @openai/codex

設定ファイルの作成

次に、Ollamaと連携するための設定ファイルを作成します。~/.codex/config.toml (Windowsの場合は C:\Users\<ユーザー名>\.codex\config.toml) を作成し、以下の内容を記述します。

この例では、Ollamaで提供されているqwen:4bモデルを使用するように設定しています。

profile = "qwen-4b"

[model_providers.ollama]
name = "Ollama"
base_url = "http://127.0.0.1:11434/v1"

[profiles.qwen-4b]
model = "qwen:4b"
model_provider = "ollama"

実行

設定が完了したら、ターミナルでcodexコマンドを実行します。

codex

すると、Codex CLIが起動し、プロンプトが表示されます。あとは自然言語でやりたいことを入力するだけです。

例えば、「test-dirという名前のディレクトリを作成して」と指示すると、mkdir test-dirのようなコマンドを提案・実行してくれます。

最後に

今回は、OpenAI Codex CLIをOllamaと連携させてローカル環境で動かす方法を紹介しました。これにより、APIキーを気にすることなく、手軽にCodex CLIの強力な機能を試すことができます。

まだ色々と試せそうな可能性を感じるので、もう少し探求してみたいと思います。