本網站為獨立社群專案,與 OpenClaw 官方無任何關聯。內容僅供參考。 了解更多

翻譯文件

本頁為社群翻譯版本,可能與官方最新內容有出入。 查看官方英文原文 →

OpenAI

OpenClaw 的 OpenAI 整合指南,包含 API 金鑰和 ChatGPT/Codex 訂閱驗證方式。

OpenAI 提供 GPT 模型的開發者 API。Codex 支援 ChatGPT 登入(訂閱存取)或 API 金鑰登入(按用量計費)。Codex cloud 需要 ChatGPT 登入。

選項 A:OpenAI API 金鑰(OpenAI Platform)

適合: 直接 API 存取和按用量計費。從 OpenAI 儀表板取得你的 API 金鑰。

CLI 設定

openclaw onboard --auth-choice openai-api-key
# 或非互動式
openclaw onboard --openai-api-key "$OPENAI_API_KEY"

設定片段

{
  env: { OPENAI_API_KEY: "sk-..." },
  agents: { defaults: { model: { primary: "openai/gpt-5.1-codex" } } },
}

選項 B:OpenAI Code(Codex)訂閱

適合: 使用 ChatGPT/Codex 訂閱存取而非 API 金鑰。Codex cloud 需要 ChatGPT 登入,而 Codex CLI 支援 ChatGPT 或 API 金鑰登入。

CLI 設定(Codex OAuth)

# 在精靈中執行 Codex OAuth
openclaw onboard --auth-choice openai-codex
# 或直接執行 OAuth
openclaw models auth login --provider openai-codex

設定片段(Codex 訂閱)

{
  agents: { defaults: { model: { primary: "openai-codex/gpt-5.3-codex" } } },
}

Codex transport 預設值

OpenClaw 使用 pi-ai 進行模型串流。對於 openai-codex/* 模型,你可以設定 agents.defaults.models.<provider/model>.params.transport 來選擇傳輸方式:

  • 預設為 "auto"(先嘗試 WebSocket,再退回 SSE)。
  • "sse":強制使用 SSE
  • "websocket":強制使用 WebSocket
  • "auto":嘗試 WebSocket,再退回 SSE
{
  agents: {
    defaults: {
      model: { primary: "openai-codex/gpt-5.3-codex" },
      models: {
        "openai-codex/gpt-5.3-codex": {
          params: {
            transport: "auto",
          },
        },
      },
    },
  },
}

OpenAI Responses 伺服器端壓縮

對於直接的 OpenAI Responses 模型(使用 api: "openai-responses" 搭配 baseUrl 指向 api.openai.comopenai/*),OpenClaw 會自動啟用 OpenAI 伺服器端壓縮 payload 提示:

  • 強制 store: true(除非模型相容性設定 supportsStore: false
  • 注入 context_management: [{ type: "compaction", compact_threshold: ... }]

預設情況下,compact_threshold 為模型 contextWindow70%(不可用時為 80000)。

明確啟用伺服器端壓縮

當你想在相容的 Responses 模型上強制注入 context_management 時使用(例如 Azure OpenAI Responses):

{
  agents: {
    defaults: {
      models: {
        "azure-openai-responses/gpt-4o": {
          params: {
            responsesServerCompaction: true,
          },
        },
      },
    },
  },
}

使用自訂閾值啟用

{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5": {
          params: {
            responsesServerCompaction: true,
            responsesCompactThreshold: 120000,
          },
        },
      },
    },
  },
}

停用伺服器端壓縮

{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5": {
          params: {
            responsesServerCompaction: false,
          },
        },
      },
    },
  },
}

responsesServerCompaction 僅控制 context_management 注入。直接的 OpenAI Responses 模型仍會強制 store: true,除非相容性設定 supportsStore: false

注意事項