LobeChat 完全配置指南:接入 Claude、GPT、Gemini 等所有主流模型(2026)
摘要
LobeChat 是 GitHub 上 Star 数最多的开源 AI 客户端之一(72k+ Stars),支持 Web 和桌面两种形式。配置自定义 API 之后,你可以在一个界面里用 GPT-5.4、Claude Opus 4.7、Gemini 2.5 Pro、DeepSeek 等 80+ 模型,还能装插件联网搜索、生成图片、读文件。本文从零开始讲 LobeChat 的 API 配置,包括 Base URL 设置、多模型接入、插件启用,以及常见报错的排查。
LobeChat 是什么,为什么值得用
LobeChat 是 LobeHub 团队做的开源 AI 聊天框架,2023 年发布,现在是开发者社区里用得最多的 AI 客户端之一。
和 ChatGPT 官方客户端最大的区别是开放性:ChatGPT 只能用 OpenAI 的模型,LobeChat 可以接任何兼容 OpenAI 协议的 API,包括 Claude、Gemini、DeepSeek、Kimi 等。
| 对比项 | ChatGPT 官方 | LobeChat |
|---|---|---|
| 支持模型 | 仅 OpenAI | GPT / Claude / Gemini / DeepSeek / 本地模型 |
| 价格 | Plus $20/月 | 客户端免费,API 按量付费 |
| 自定义 API | 不支持 | 支持自定义 Base URL |
| 插件/工具 | GPTs | 内置插件市场 + 自定义 |
| 知识库 | 仅 GPTs | 内置 RAG 知识库 |
| 多模型对比 | 不支持 | 同一问题多模型同时回答 |
| 数据隐私 | 上传至 OpenAI | 可完全本地化 |
| 开源 | 否 | MIT 开源 |
需要同时用多个模型的开发者,LobeChat 是目前体验最顺手的选择之一。
安装 LobeChat
三种方式,按需选:
Web 版(最快):访问 chat.lobehub.com,注册即用。数据存在 LobeHub 服务器。
桌面客户端:从 GitHub Releases 下载安装包,macOS 用 .dmg,Windows 用 .exe,Linux 用 .AppImage 或 .deb。数据本地存储,隐私性更好。
Docker 自托管(进阶):有服务器的话可以自己部署,完全掌控数据。官方文档有详细说明,这里不展开。
配置 ofox.ai API
最简单的方式是通过 API 聚合平台接入,一个 Key 搞定所有模型。
第一步:获取 API Key
在 ofox.ai 注册,进控制台创建 API Key。支持 80+ 模型,支付宝、微信充值,不需要信用卡。
第二步:添加自定义服务商
- 打开 LobeChat,点左下角设置图标
- 进 AI 服务商 页面
- 点 「+ 添加服务商」
- 填写:
- 服务商名称:
Ofox或随便起个名字 - API 地址:
https://api.ofox.ai/v1 - API Key:你的 ofox.ai Key(
sk-开头)
- 服务商名称:
- 保存
第三步:添加模型
服务商配置好后,手动添加要用的模型:
- 在服务商设置页面点「添加模型」
- 填入模型 ID:
| 模型 ID | 说明 | 输入价格 |
|---|---|---|
claude-opus-4-7 | Claude 最强模型,1M 上下文 | $5/M tokens |
claude-sonnet-4-6 | Claude 性价比首选 | $3/M tokens |
gpt-5.4 | GPT 最新旗舰 | $2.5/M tokens |
gpt-5.4-mini | GPT 轻量版,速度快 | $0.75/M tokens |
gemini-2.5-pro | Gemini 旗舰,1M 上下文 | $1.25/M tokens |
deepseek-v3.2 | 国产高性价比 | $0.29/M tokens |
- 保存,模型就会出现在对话界面的选择列表里
第四步:验证
回到对话界面,选刚添加的模型,发条测试消息。收到回复就好了。
各模型适合什么场景
配好多个模型之后,怎么选?
Claude Opus 4.7:深度推理、长文档分析、复杂代码审查。1M 上下文,超长文档没问题。价格偏高,适合对质量要求高的任务。
Claude Sonnet 4.6:Claude 系列性价比最好的。编程能力强,价格是 Opus 的 60%。日常开发首选。
GPT-5.4:多模态能力强,支持图片输入和生成。需要处理图片或生成内容时用这个。
GPT-5.4 Mini:速度快,价格低($0.75/M 输入)。高频调用、对延迟敏感的场景。
Gemini 2.5 Pro:1M 上下文,价格比 Claude 便宜($1.25/M 输入)。需要大上下文但预算有限时的选择。
DeepSeek V3.2:价格极低($0.29/M 输入),中文理解好。中文内容处理、日常问答。
LobeChat 的几个实用功能
多模型对比:同一个问题让多个模型同时回答。选型阶段很有用,直接看 Claude 和 GPT 的回答差异,比自己猜靠谱多了。
插件系统:内置插件市场,联网搜索、代码执行、图片生成都有。配好 API 后在对话界面点插件图标启用。联网搜索插件能让模型拿到实时信息,训练数据截止日期的问题就不那么明显了。
知识库:上传 PDF、Word、网页,LobeChat 自动建向量索引,之后可以基于这些文档问答。公司内部文档、技术手册、合同都适合。
助手市场:LobeHub 维护了一个助手市场,几百个预设专业助手(代码审查、翻译、写作等),直接用,不用自己写 prompt。
常见问题排查
连接失败 / API 报错
十有八九是 API 地址格式不对。LobeChat 要填完整的 Base URL,包括 /v1 路径:https://api.ofox.ai/v1。只填域名不行,加 /chat/completions 也不行。
模型不可用
检查模型 ID 是否正确。可以在 ofox.ai/zh/models 查准确 ID。模型 ID 区分大小写,注意别多打空格。
响应速度慢
换轻量模型(GPT-5.4 Mini 或 Claude Sonnet 4.6),或者检查网络。ofox.ai 的 API 节点针对国内访问有优化,正常延迟在 1-3 秒。
429 限速错误
ofox.ai 速率限制是 200 请求/分钟。在 LobeChat 设置里调低并发请求数,或者升级账户。更多报错排查,参见《AI API 报错大全》。
LobeChat vs Cherry Studio:怎么选
两款都是开源 AI 客户端,区别主要在定位:
| 对比项 | LobeChat | Cherry Studio |
|---|---|---|
| 形态 | Web + 桌面 | 桌面(Win/Mac/Linux) |
| 插件系统 | 内置插件市场 | 插件支持有限 |
| 知识库 | 内置 RAG | 内置知识库 |
| 多模型对比 | 支持 | 支持 |
| 自托管 | Docker 一键部署 | 不支持 |
| 界面风格 | 现代感强 | 简洁实用 |
| GitHub Stars | 72k+ | 42k+ |
需要 Web 访问或自托管,选 LobeChat。只需要桌面应用,Cherry Studio 也够用,详见《Cherry Studio 配置指南》。
两款工具都支持通过 ofox.ai 接入所有主流模型,配置方式基本一样。如果你在多个 AI 工具之间切换,可以参考《AI API 中转站推荐》,了解怎么用一个 Key 统一管理所有工具的 API 调用。


