如何在 OpenAI Codex CLI 中集成 Ollama

1,306 阅读2分钟

一、概述

OpenAI Codex CLI 是一款开源的命令行工具,能够将 OpenAI 最新的推理模型直接引入你的终端。它作为一个轻量级的编程助手,可以在本地读取、修改和运行代码,帮助你更快地构建功能、修复漏洞以及理解陌生代码。由于 CLI 是本地运行的,你的源代码除非你主动分享,否则不会离开你的环境。

Ollama 是一个本地运行的 AI 模型管理工具,它提供了与 OpenAI Chat Completions API 的兼容接口,允许你在本地使用各种强大的语言模型,而无需依赖云端服务。将 Ollama 与 OpenAI Codex CLI 集成,可以让你在本地环境中利用 Ollama 提供的高性能 AI 编程辅助功能。

二、集成步骤

(一)安装 Ollama

  1. 下载并安装 Ollama:访问 Ollama 官网,下载适用于你操作系统的安装包并进行安装。
  2. 拉取模型:安装完成后,在终端运行以下命令拉取你想要使用的模型,例如 Llama 2:
    ollama pull llama2
    

(二)安装 OpenAI Codex CLI

在终端运行以下命令全局安装 OpenAI Codex CLI:

npm install -g @openai/codex

(三)配置 OpenAI Codex CLI 使用 Ollama

  1. 创建配置文件:在 ~/.codex/ 目录下创建或编辑 config.json 文件,添加 Ollama 提供商的配置信息:
    {
      "model":"deepseek-r1:7b"
      "provider": "ollama",
      "providers": {
        "ollama": {
          "name": "Ollama",
          "baseURL": "http://localhost:11434/v1",
          "envKey": "OLLAMA_API_KEY"
        }
      }
    }
    
  2. 设置环境变量:在终端运行以下命令设置 Ollama 的 API 密钥(虽然 Ollama 默认不使用 API 密钥,但需要设置一个占位符):
    export OLLAMA_API_KEY="ollama"
    

(四)使用 Ollama 模型

在终端运行以下命令,使用 Ollama 模型:

codex --provider ollama "Explain this codebase to me"

或者在全自动模式下运行:

codex --provider ollama --approval-mode full-auto "Create a simple to-do list app in Python"

三、小结

通过以上步骤,你可以在 OpenAI Codex CLI 中成功集成 Ollama,享受本地高性能的 AI 编程辅助体验。

image.png

image.png