Skip to content

模型列表

AIClient-2-API 支持列出后端 LLM 提供的模型。目前支持多种模型提供商,各提供商支持的模型列表由 src/providers/provider-models.js 定义。

OpenAI 兼容接口

bash
GET http://localhost:3000/v1/models

这将返回一个模拟 OpenAI models 端点的响应,其中包含后端配置的 LLM 模型列表。

Gemini 兼容接口

bash
GET http://localhost:3000/v1beta/models

这将返回一个模拟 Gemini models 端点的响应。


各提供商支持的模型预览

以下是部分主流提供商预定义的模型列表(注:可以通过配置动态增加):

Google Gemini (GCP OAuth)

  • gemini-2.5-flash
  • gemini-2.5-pro
  • gemini-3.1-pro-preview
  • gemini-3.1-flash-lite-preview
  • gemini-3-pro-preview
  • gemini-3-flash-preview

Anthropic Claude (Kiro/CodeWhisperer)

  • claude-3-7-sonnet-20250219
  • claude-sonnet-4-6
  • claude-opus-4-6
  • claude-haiku-4-5

Grok (xAI)

  • grok-3
  • grok-3-mini
  • grok-3-thinking
  • grok-4
  • grok-4-mini
  • grok-4-thinking

OpenAI Codex

  • gpt-5
  • gpt-5-codex
  • gpt-5.4

Qwen / iFlow

  • qwen3-coder-plus
  • qwen3-max
  • deepseek-v3.2
  • deepseek-r1
  • kimi-k2.5
  • glm-5

模型自动选择 (AUTO 模式)

如果在配置中设置 MODEL_PROVIDERauto,系统会根据请求中的模型名称自动匹配最佳的提供商:

  1. 系统会遍历所有已配置的账号池。
  2. 匹配模型名称对应的驱动。
  3. 如果首选账号失效,将自动切换到同协议或兼容协议的备份账号。