模型列表
AIClient-2-API 支持列出后端 LLM 提供的模型。目前支持多种模型提供商,各提供商支持的模型列表由 src/providers/provider-models.js 定义。
OpenAI 兼容接口
bash
GET http://localhost:3000/v1/models这将返回一个模拟 OpenAI models 端点的响应,其中包含后端配置的 LLM 模型列表。
Gemini 兼容接口
bash
GET http://localhost:3000/v1beta/models这将返回一个模拟 Gemini models 端点的响应。
各提供商支持的模型预览
以下是部分主流提供商预定义的模型列表(注:可以通过配置动态增加):
Google Gemini (GCP OAuth)
gemini-2.5-flashgemini-2.5-progemini-3.1-pro-previewgemini-3.1-flash-lite-previewgemini-3-pro-previewgemini-3-flash-preview
Anthropic Claude (Kiro/CodeWhisperer)
claude-3-7-sonnet-20250219claude-sonnet-4-6claude-opus-4-6claude-haiku-4-5
Grok (xAI)
grok-3grok-3-minigrok-3-thinkinggrok-4grok-4-minigrok-4-thinking
OpenAI Codex
gpt-5gpt-5-codexgpt-5.4
Qwen / iFlow
qwen3-coder-plusqwen3-maxdeepseek-v3.2deepseek-r1kimi-k2.5glm-5
模型自动选择 (AUTO 模式)
如果在配置中设置 MODEL_PROVIDER 为 auto,系统会根据请求中的模型名称自动匹配最佳的提供商:
- 系统会遍历所有已配置的账号池。
- 匹配模型名称对应的驱动。
- 如果首选账号失效,将自动切换到同协议或兼容协议的备份账号。