LLM 提供商指南
LibreFang 包含全面的模型目录,覆盖 3 个原生 LLM 驱动、49 个提供商、230+ 个内置模型。
快速设置
# 选择一个提供商 - 设置环境变量即可
export GEMINI_API_KEY="your-key" # 免费额度可用
export GROQ_API_KEY="your-key" # 免费额度可用
export ANTHROPIC_API_KEY="your-key"
export OPENAI_API_KEY="your-key"
LibreFang 在启动时自动检测哪些提供商已配置 API 密钥。
推荐: Groq 和 Gemini 提供免费额度,适合测试和开发。
提供商参考
1. Anthropic
| 属性 | 值 |
|---|---|
| 显示名称 | Anthropic |
| 驱动 | 原生 Anthropic (Messages API) |
| 环境变量 | ANTHROPIC_API_KEY |
| 基础 URL | https://api.anthropic.com |
| 免费额度 | 无 |
| 模型数 | 7 |
可用模型:
claude-opus-4-20250514(旗舰)claude-sonnet-4-20250514(智能)claude-haiku-4-5-20251001(快速)claude-3.5-sonnet-20241022claude-3-5-haiku-20241022claude-3-opus-20240229claude-3-haiku-20240307
2. OpenAI
| 属性 | 值 |
|---|---|
| 显示名称 | OpenAI |
| 驱动 | OpenAI 兼容 |
| 环境变量 | OPENAI_API_KEY |
| 基础 URL | https://api.openai.com/v1 |
| 免费额度 | 无 |
| 模型数 | 18 |
可用模型:
gpt-4.1(旗舰)gpt-4o(智能)o3-mini(智能)o3(推理)o4-mini(推理)gpt-4.1-mini(平衡)gpt-4o-mini(快速)gpt-4.1-nano(快速)- 及更多变体
3. Google Gemini
| 属性 | 值 |
|---|---|
| 显示名称 | Google Gemini |
| 驱动 | 原生 Gemini |
| 环境变量 | GEMINI_API_KEY 或 GOOGLE_API_KEY |
| 基础 URL | https://generativelanguage.googleapis.com |
| 免费额度 | 有 |
| 模型数 | 10 |
4. Groq
| 属性 | 值 |
|---|---|
| 显示名称 | Groq |
| 驱动 | OpenAI 兼容 |
| 环境变量 | GROQ_API_KEY |
| 基础 URL | https://api.groq.com/openai/v1 |
| 免费额度 | 有 |
| 模型数 | 10 |
5. DeepSeek
| 属性 | 值 |
|---|---|
| 显示名称 | DeepSeek |
| 驱动 | OpenAI 兼容 |
| 环境变量 | DEEPSEEK_API_KEY |
| 基础 URL | https://api.deepseek.com/v1 |
| 免费额度 | 无 |
| 模型数 | 4 |
6. Ollama (本地)
| 属性 | 值 |
|---|---|
| 显示名称 | Ollama |
| 驱动 | OpenAI 兼容 |
| 环境变量 | 无需 |
| 基础 URL | http://localhost:11434/v1 |
| 免费额度 | 本地运行 |
| 模型数 | 取决于本地安装 |
7. GitHub Copilot
| 属性 | 值 |
|---|---|
| 显示名称 | GitHub Copilot |
| 驱动 | OpenAI 兼容(通过 Token 交换) |
| 环境变量 | GITHUB_TOKEN |
| 基础 URL | https://api.githubcopilot.com |
| 免费额度 | 含于 GitHub Copilot 订阅 |
| 认证 | OAuth PKCE 流程,自动交换短期 Copilot API Token |
设置:
- 订阅 GitHub Copilot
- 创建具有
copilot权限的 Personal Access Token export GITHUB_TOKEN="ghp_..."
8. Aider(CLI Provider)
| 属性 | 值 |
|---|---|
| 显示名称 | Aider |
| 类型 | CLI Provider(子进程) |
| 二进制 | aider(需在 PATH 中) |
| 环境变量 | 无(使用 Aider 自身的提供商配置) |
设置:
- 安装 Aider:
pip install aider-install && aider-install - 配置 Aider 的 LLM 提供商环境变量(如
OPENAI_API_KEY)
说明: LibreFang 以子进程方式调用 aider CLI,使用 --message 非交互模式。Aider 自行管理 LLM 认证。
9. Claude Code CLI(CLI Provider)
| 属性 | 值 |
|---|---|
| 显示名称 | Claude Code CLI |
| 类型 | CLI Provider(子进程) |
| 二进制 | claude(需在 PATH 中) |
| 环境变量 | 无(使用 Claude Code 自身的 OAuth 会话) |
设置:
- 安装 Claude Code:
npm install -g @anthropic-ai/claude-code - 认证:
claude auth login
说明: LibreFang 以子进程方式调用 claude CLI,使用 -p 打印模式。子进程环境中会移除其他提供商的 API Key 以防泄露。支持视觉输入(base64 图片)。
10. Codex CLI(CLI Provider)
| 属性 | 值 |
|---|---|
| 显示名称 | Codex CLI |
| 类型 | CLI Provider(子进程) |
| 二进制 | codex(需在 PATH 中) |
| 环境变量 | OPENAI_API_KEY(供 Codex CLI 自身使用) |
设置:
- 安装 Codex CLI:
npm install -g @openai/codex export OPENAI_API_KEY="sk-..."
说明: LibreFang 以子进程方式调用 codex CLI,使用 -q 安静模式。
11. Gemini CLI(CLI Provider)
| 属性 | 值 |
|---|---|
| 显示名称 | Gemini CLI |
| 类型 | CLI Provider(子进程) |
| 二进制 | gemini(需在 PATH 中) |
| 环境变量 | 无(使用 Google OAuth) |
| 免费额度 | 有(通过 Google 账户) |
设置:
- 安装 Gemini CLI:
npm install -g @google/gemini-cli - 认证:
gemini auth login
说明: LibreFang 以子进程方式调用 gemini CLI,使用 -p 打印模式。通过 Google OAuth 认证,无需单独配置 API Key。
12. Qwen Code(CLI Provider)
| 属性 | 值 |
|---|---|
| 显示名称 | Qwen Code |
| 类型 | CLI Provider(子进程) |
| 二进制 | qwen(需在 PATH 中) |
| 环境变量 | 无(使用通义千问 OAuth) |
| 免费额度 | 有(通过阿里云账户) |
设置:
- 安装 Qwen Code:
npm install -g @alibaba/qwen-code - 认证:
qwen auth login
说明: LibreFang 以子进程方式调用 qwen CLI,使用 -p 打印模式。通过阿里云 OAuth 认证,支持流式 JSON 输出,无需单独配置 API Key。
13. Vertex AI
| 属性 | 值 |
|---|---|
| 显示名称 | Google Vertex AI |
| 驱动 | 原生 Gemini(企业版,通过 Vertex AI) |
| 配置段 | [vertex_ai] |
| 环境变量 | GOOGLE_APPLICATION_CREDENTIALS、VERTEX_PROJECT、VERTEX_LOCATION |
| 基础 URL | https://<location>-aiplatform.googleapis.com |
| 免费额度 | 无 |
| 认证 | OAuth2 服务账号或 gcloud CLI |
设置:
- 在 Google Cloud Console 启用 Vertex AI API
- 创建服务账号密钥文件,或使用
gcloud auth application-default login - 设置环境变量:
export GOOGLE_APPLICATION_CREDENTIALS="/path/to/service-account.json" export VERTEX_PROJECT="your-gcp-project" export VERTEX_LOCATION="us-central1" - 在
config.toml中配置:[vertex_ai] project = "your-gcp-project" location = "us-central1"
说明: 使用与原生 Gemini 驱动相同的 generateContent API,但通过 Google Cloud OAuth2 认证(而非 API Key)。访问令牌缓存约 50 分钟并在到期前自动刷新。
支持的提供商列表
| 提供商 | 驱动 | 模型数 | 免费模型 |
|---|---|---|---|
| Anthropic | 原生 | 7 | ❌ |
| OpenAI | OpenAI 兼容 | 18 | ❌ |
| Gemini | 原生 | 10 | ✅ |
| Groq | OpenAI 兼容 | 10 | ✅ |
| DeepSeek | OpenAI 兼容 | 4 | ❌ |
| OpenRouter | OpenAI 兼容 | 17 | ✅ (8 免费) |
| xAI (Grok) | OpenAI 兼容 | 9 | ❌ |
| Qwen (阿里) | OpenAI 兼容 | 11 | ❌ |
| Mistral | OpenAI 兼容 | 6 | ❌ |
| Together | OpenAI 兼容 | 8 | ❌ |
| Fireworks | OpenAI 兼容 | 5 | ❌ |
| Cohere | OpenAI 兼容 | 4 | ❌ |
| Perplexity | OpenAI 兼容 | 4 | ❌ |
| AI21 | OpenAI 兼容 | 3 | ❌ |
| Cerebras | OpenAI 兼容 | 4 | ✅ |
| SambaNova | OpenAI 兼容 | 3 | ✅ |
| HuggingFace | OpenAI 兼容 | 3 | ❌ |
| Replicate | OpenAI 兼容 | 3 | ❌ |
| MiniMax | OpenAI 兼容 | 8 | ❌ |
| MiniMax (中国) | OpenAI 兼容 | 8 | ❌ |
| Zhipu (智谱) | OpenAI 兼容 | 6 | ❌ |
| Volcengine (豆包) | OpenAI 兼容 | 7 | ❌ |
| Moonshot (Kimi) | OpenAI 兼容 | 5 | ❌ |
| Baidu Qianfan (百度) | OpenAI 兼容 | 3 | ❌ |
| Baichuan (百川) | OpenAI 兼容 | 2 | ❌ |
| Stepfun (阶跃星辰) | OpenAI 兼容 | 4 | ❌ |
| Chutes.ai | OpenAI 兼容 | 5 | ❌ |
| Writer | OpenAI 兼容 | 4 | ❌ |
| Venice.ai | OpenAI 兼容 | 3 | ❌ |
| AWS Bedrock | OpenAI 兼容 | 8 | ❌ |
| Azure OpenAI | OpenAI 兼容 | - | ❌ |
| NVIDIA NIM | OpenAI 兼容 | - | ❌ |
| Vertex AI | 原生 Gemini(企业版) | 6 | ❌ |
| Ollama | OpenAI 兼容 | 6+ | 本地 |
| vLLM | OpenAI 兼容 | 1+ | 本地 |
| LM Studio | OpenAI 兼容 | 1+ | 本地 |
| GitHub Copilot | OpenAI 兼容(Token 交换) | 1 | 订阅 |
| ChatGPT | OpenAI 兼容(Session Auth) | 5 | 订阅 |
| Aider | CLI Provider | - | 取决于后端 |
| Claude Code CLI | CLI Provider | - | 取决于订阅 |
| Codex CLI | CLI Provider | - | ❌ |
| Gemini CLI | CLI Provider | - | ✅ |
| Qwen Code | CLI Provider | - | ✅ |
| Kimi Coding | CLI Provider | - | ❌ |
模型目录
按能力分类
旗舰模型:
- claude-opus-4-20250514
- gpt-4.1
- o3
- gemini-2.5-pro
智能模型:
- claude-sonnet-4-20250514
- gpt-4o
- o4-mini
- o3-mini
- gemini-2.5-flash
- gemini-2.0-flash-exp
快速模型:
- claude-haiku-4-5-20251001
- gpt-4o-mini
- gpt-4.1-mini
- gpt-4.1-nano
- llama-3.3-70b-versatile
每个 Agent 的模型覆盖
可以在 agent 级别覆盖默认模型:
[model]
provider = "groq"
model = "llama-3.3-70b-versatile"
模型路由
ModelRouter 根据任务复杂度自动选择模型:
- 简单任务 → 快速/便宜模型
- 复杂任务 → 智能/昂贵模型
成本追踪
LibreFang 跟踪每个模型的使用成本:
# 查看全局预算
curl http://127.0.0.1:4545/api/budget
# 查看每个 agent 的成本
curl http://127.0.0.1:4545/api/budget/agents
后备提供商
配置后备提供商以提高可靠性:
[[fallback_providers]]
provider = "groq"
model = "llama-3.1-70b-versatile"
api_key_env = "GROQ_API_KEY"
API 端点
# 列出可用模型
curl http://127.0.0.1:4545/api/models
# 列出提供商
curl http://127.0.0.1:4545/api/providers