Skip to content

模型提供商的选择与覆盖

AIClient-2-API 允许你通过命令行参数 --model-provider 来指定后端使用的 LLM 提供商,例如:

bash
node src/api-server.js --model-provider openai-custom
node src/api-server.js --model-provider claude-custom
node src/api-server.js --model-provider gemini-cli-oauth
node src/api-server.js --model-provider kiro-api

运行时覆盖

你还可以在每个 API 请求中通过 HTTP 请求头来覆盖默认的模型提供商:

model-provider: openai-custom

示例 (使用 curl):

bash
curl -X POST http://localhost:3000/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer your_api_key" \
  -H "model-provider: claude-custom" \
  -d '{
    "model": "claude-3-5-sonnet-20241022",
    "messages": [
      { "role": "user", "content": "Hello, Claude!" }
    ]
  }'

路径段覆盖

你也可以通过 URL 的第一个路径段来覆盖模型提供商。例如:

POST http://localhost:3000/openai-custom/v1/chat/completions

这将把 openai-custom 作为当前的模型提供商。这在需要快速切换后端模型提供商进行测试时非常有用。