LLM 提供商指南

LibreFang 包含全面的模型目录,覆盖 3 个原生 LLM 驱动49 个提供商230+ 个内置模型


快速设置

# 选择一个提供商 - 设置环境变量即可
export GEMINI_API_KEY="your-key"      # 免费额度可用
export GROQ_API_KEY="your-key"        # 免费额度可用
export ANTHROPIC_API_KEY="your-key"
export OPENAI_API_KEY="your-key"

LibreFang 在启动时自动检测哪些提供商已配置 API 密钥。


提供商参考

1. Anthropic

属性
显示名称Anthropic
驱动原生 Anthropic (Messages API)
环境变量ANTHROPIC_API_KEY
基础 URLhttps://api.anthropic.com
免费额度
模型数7

可用模型:

  • claude-opus-4-20250514 (旗舰)
  • claude-sonnet-4-20250514 (智能)
  • claude-haiku-4-5-20251001 (快速)
  • claude-3.5-sonnet-20241022
  • claude-3-5-haiku-20241022
  • claude-3-opus-20240229
  • claude-3-haiku-20240307

2. OpenAI

属性
显示名称OpenAI
驱动OpenAI 兼容
环境变量OPENAI_API_KEY
基础 URLhttps://api.openai.com/v1
免费额度
模型数18

可用模型:

  • gpt-4.1 (旗舰)
  • gpt-4o (智能)
  • o3-mini (智能)
  • o3 (推理)
  • o4-mini (推理)
  • gpt-4.1-mini (平衡)
  • gpt-4o-mini (快速)
  • gpt-4.1-nano (快速)
  • 及更多变体

3. Google Gemini

属性
显示名称Google Gemini
驱动原生 Gemini
环境变量GEMINI_API_KEYGOOGLE_API_KEY
基础 URLhttps://generativelanguage.googleapis.com
免费额度
模型数10

4. Groq

属性
显示名称Groq
驱动OpenAI 兼容
环境变量GROQ_API_KEY
基础 URLhttps://api.groq.com/openai/v1
免费额度
模型数10

5. DeepSeek

属性
显示名称DeepSeek
驱动OpenAI 兼容
环境变量DEEPSEEK_API_KEY
基础 URLhttps://api.deepseek.com/v1
免费额度
模型数4

6. Ollama (本地)

属性
显示名称Ollama
驱动OpenAI 兼容
环境变量无需
基础 URLhttp://localhost:11434/v1
免费额度本地运行
模型数取决于本地安装

7. GitHub Copilot

属性
显示名称GitHub Copilot
驱动OpenAI 兼容(通过 Token 交换)
环境变量GITHUB_TOKEN
基础 URLhttps://api.githubcopilot.com
免费额度含于 GitHub Copilot 订阅
认证OAuth PKCE 流程,自动交换短期 Copilot API Token

设置:

  1. 订阅 GitHub Copilot
  2. 创建具有 copilot 权限的 Personal Access Token
  3. export GITHUB_TOKEN="ghp_..."

8. Aider(CLI Provider)

属性
显示名称Aider
类型CLI Provider(子进程)
二进制aider(需在 PATH 中)
环境变量无(使用 Aider 自身的提供商配置)

设置:

  1. 安装 Aider: pip install aider-install && aider-install
  2. 配置 Aider 的 LLM 提供商环境变量(如 OPENAI_API_KEY

说明: LibreFang 以子进程方式调用 aider CLI,使用 --message 非交互模式。Aider 自行管理 LLM 认证。


9. Claude Code CLI(CLI Provider)

属性
显示名称Claude Code CLI
类型CLI Provider(子进程)
二进制claude(需在 PATH 中)
环境变量无(使用 Claude Code 自身的 OAuth 会话)

设置:

  1. 安装 Claude Code: npm install -g @anthropic-ai/claude-code
  2. 认证: claude auth login

说明: LibreFang 以子进程方式调用 claude CLI,使用 -p 打印模式。子进程环境中会移除其他提供商的 API Key 以防泄露。支持视觉输入(base64 图片)。


10. Codex CLI(CLI Provider)

属性
显示名称Codex CLI
类型CLI Provider(子进程)
二进制codex(需在 PATH 中)
环境变量OPENAI_API_KEY(供 Codex CLI 自身使用)

设置:

  1. 安装 Codex CLI: npm install -g @openai/codex
  2. export OPENAI_API_KEY="sk-..."

说明: LibreFang 以子进程方式调用 codex CLI,使用 -q 安静模式。


11. Gemini CLI(CLI Provider)

属性
显示名称Gemini CLI
类型CLI Provider(子进程)
二进制gemini(需在 PATH 中)
环境变量无(使用 Google OAuth)
免费额度有(通过 Google 账户)

设置:

  1. 安装 Gemini CLI: npm install -g @google/gemini-cli
  2. 认证: gemini auth login

说明: LibreFang 以子进程方式调用 gemini CLI,使用 -p 打印模式。通过 Google OAuth 认证,无需单独配置 API Key。


12. Qwen Code(CLI Provider)

属性
显示名称Qwen Code
类型CLI Provider(子进程)
二进制qwen(需在 PATH 中)
环境变量无(使用通义千问 OAuth)
免费额度有(通过阿里云账户)

设置:

  1. 安装 Qwen Code: npm install -g @alibaba/qwen-code
  2. 认证: qwen auth login

说明: LibreFang 以子进程方式调用 qwen CLI,使用 -p 打印模式。通过阿里云 OAuth 认证,支持流式 JSON 输出,无需单独配置 API Key。


13. Vertex AI

属性
显示名称Google Vertex AI
驱动原生 Gemini(企业版,通过 Vertex AI)
配置段[vertex_ai]
环境变量GOOGLE_APPLICATION_CREDENTIALSVERTEX_PROJECTVERTEX_LOCATION
基础 URLhttps://<location>-aiplatform.googleapis.com
免费额度
认证OAuth2 服务账号或 gcloud CLI

设置:

  1. Google Cloud Console 启用 Vertex AI API
  2. 创建服务账号密钥文件,或使用 gcloud auth application-default login
  3. 设置环境变量:
    export GOOGLE_APPLICATION_CREDENTIALS="/path/to/service-account.json"
    export VERTEX_PROJECT="your-gcp-project"
    export VERTEX_LOCATION="us-central1"
    
  4. config.toml 中配置:
    [vertex_ai]
    project = "your-gcp-project"
    location = "us-central1"
    

说明: 使用与原生 Gemini 驱动相同的 generateContent API,但通过 Google Cloud OAuth2 认证(而非 API Key)。访问令牌缓存约 50 分钟并在到期前自动刷新。


支持的提供商列表

提供商驱动模型数免费模型
Anthropic原生7
OpenAIOpenAI 兼容18
Gemini原生10
GroqOpenAI 兼容10
DeepSeekOpenAI 兼容4
OpenRouterOpenAI 兼容17✅ (8 免费)
xAI (Grok)OpenAI 兼容9
Qwen (阿里)OpenAI 兼容11
MistralOpenAI 兼容6
TogetherOpenAI 兼容8
FireworksOpenAI 兼容5
CohereOpenAI 兼容4
PerplexityOpenAI 兼容4
AI21OpenAI 兼容3
CerebrasOpenAI 兼容4
SambaNovaOpenAI 兼容3
HuggingFaceOpenAI 兼容3
ReplicateOpenAI 兼容3
MiniMaxOpenAI 兼容8
MiniMax (中国)OpenAI 兼容8
Zhipu (智谱)OpenAI 兼容6
Volcengine (豆包)OpenAI 兼容7
Moonshot (Kimi)OpenAI 兼容5
Baidu Qianfan (百度)OpenAI 兼容3
Baichuan (百川)OpenAI 兼容2
Stepfun (阶跃星辰)OpenAI 兼容4
Chutes.aiOpenAI 兼容5
WriterOpenAI 兼容4
Venice.aiOpenAI 兼容3
AWS BedrockOpenAI 兼容8
Azure OpenAIOpenAI 兼容-
NVIDIA NIMOpenAI 兼容-
Vertex AI原生 Gemini(企业版)6
OllamaOpenAI 兼容6+本地
vLLMOpenAI 兼容1+本地
LM StudioOpenAI 兼容1+本地
GitHub CopilotOpenAI 兼容(Token 交换)1订阅
ChatGPTOpenAI 兼容(Session Auth)5订阅
AiderCLI Provider-取决于后端
Claude Code CLICLI Provider-取决于订阅
Codex CLICLI Provider-
Gemini CLICLI Provider-
Qwen CodeCLI Provider-
Kimi CodingCLI Provider-

模型目录

按能力分类

旗舰模型:

  • claude-opus-4-20250514
  • gpt-4.1
  • o3
  • gemini-2.5-pro

智能模型:

  • claude-sonnet-4-20250514
  • gpt-4o
  • o4-mini
  • o3-mini
  • gemini-2.5-flash
  • gemini-2.0-flash-exp

快速模型:

  • claude-haiku-4-5-20251001
  • gpt-4o-mini
  • gpt-4.1-mini
  • gpt-4.1-nano
  • llama-3.3-70b-versatile

每个 Agent 的模型覆盖

可以在 agent 级别覆盖默认模型:

[model]
provider = "groq"
model = "llama-3.3-70b-versatile"

模型路由

ModelRouter 根据任务复杂度自动选择模型:

  • 简单任务 → 快速/便宜模型
  • 复杂任务 → 智能/昂贵模型

成本追踪

LibreFang 跟踪每个模型的使用成本:

# 查看全局预算
curl http://127.0.0.1:4545/api/budget

# 查看每个 agent 的成本
curl http://127.0.0.1:4545/api/budget/agents

后备提供商

配置后备提供商以提高可靠性:

[[fallback_providers]]
provider = "groq"
model = "llama-3.1-70b-versatile"
api_key_env = "GROQ_API_KEY"

API 端点

# 列出可用模型
curl http://127.0.0.1:4545/api/models

# 列出提供商
curl http://127.0.0.1:4545/api/providers