LobeChat 完全配置指南:接入 Claude、GPT、Gemini 等所有主流模型(2026)

LobeChat 完全配置指南:接入 Claude、GPT、Gemini 等所有主流模型(2026)

摘要

LobeChat 是 GitHub 上 Star 数最多的开源 AI 客户端之一(72k+ Stars),支持 Web 和桌面两种形式。配置自定义 API 之后,你可以在一个界面里用 GPT-5.4、Claude Opus 4.7、Gemini 2.5 Pro、DeepSeek 等 80+ 模型,还能装插件联网搜索、生成图片、读文件。本文从零开始讲 LobeChat 的 API 配置,包括 Base URL 设置、多模型接入、插件启用,以及常见报错的排查。

LobeChat 是什么,为什么值得用

LobeChat 是 LobeHub 团队做的开源 AI 聊天框架,2023 年发布,现在是开发者社区里用得最多的 AI 客户端之一。

和 ChatGPT 官方客户端最大的区别是开放性:ChatGPT 只能用 OpenAI 的模型,LobeChat 可以接任何兼容 OpenAI 协议的 API,包括 Claude、Gemini、DeepSeek、Kimi 等。

对比项ChatGPT 官方LobeChat
支持模型仅 OpenAIGPT / Claude / Gemini / DeepSeek / 本地模型
价格Plus $20/月客户端免费,API 按量付费
自定义 API不支持支持自定义 Base URL
插件/工具GPTs内置插件市场 + 自定义
知识库仅 GPTs内置 RAG 知识库
多模型对比不支持同一问题多模型同时回答
数据隐私上传至 OpenAI可完全本地化
开源MIT 开源

需要同时用多个模型的开发者,LobeChat 是目前体验最顺手的选择之一。

安装 LobeChat

三种方式,按需选:

Web 版(最快):访问 chat.lobehub.com,注册即用。数据存在 LobeHub 服务器。

桌面客户端:从 GitHub Releases 下载安装包,macOS 用 .dmg,Windows 用 .exe,Linux 用 .AppImage.deb。数据本地存储,隐私性更好。

Docker 自托管(进阶):有服务器的话可以自己部署,完全掌控数据。官方文档有详细说明,这里不展开。

配置 ofox.ai API

最简单的方式是通过 API 聚合平台接入,一个 Key 搞定所有模型。

第一步:获取 API Key

ofox.ai 注册,进控制台创建 API Key。支持 80+ 模型,支付宝、微信充值,不需要信用卡。

第二步:添加自定义服务商

  1. 打开 LobeChat,点左下角设置图标
  2. AI 服务商 页面
  3. 「+ 添加服务商」
  4. 填写:
    • 服务商名称:Ofox 或随便起个名字
    • API 地址:https://api.ofox.ai/v1
    • API Key:你的 ofox.ai Key(sk- 开头)
  5. 保存

第三步:添加模型

服务商配置好后,手动添加要用的模型:

  1. 在服务商设置页面点「添加模型」
  2. 填入模型 ID:
模型 ID说明输入价格
claude-opus-4-7Claude 最强模型,1M 上下文$5/M tokens
claude-sonnet-4-6Claude 性价比首选$3/M tokens
gpt-5.4GPT 最新旗舰$2.5/M tokens
gpt-5.4-miniGPT 轻量版,速度快$0.75/M tokens
gemini-2.5-proGemini 旗舰,1M 上下文$1.25/M tokens
deepseek-v3.2国产高性价比$0.29/M tokens
  1. 保存,模型就会出现在对话界面的选择列表里

第四步:验证

回到对话界面,选刚添加的模型,发条测试消息。收到回复就好了。

各模型适合什么场景

配好多个模型之后,怎么选?

Claude Opus 4.7:深度推理、长文档分析、复杂代码审查。1M 上下文,超长文档没问题。价格偏高,适合对质量要求高的任务。

Claude Sonnet 4.6:Claude 系列性价比最好的。编程能力强,价格是 Opus 的 60%。日常开发首选。

GPT-5.4:多模态能力强,支持图片输入和生成。需要处理图片或生成内容时用这个。

GPT-5.4 Mini:速度快,价格低($0.75/M 输入)。高频调用、对延迟敏感的场景。

Gemini 2.5 Pro:1M 上下文,价格比 Claude 便宜($1.25/M 输入)。需要大上下文但预算有限时的选择。

DeepSeek V3.2:价格极低($0.29/M 输入),中文理解好。中文内容处理、日常问答。

LobeChat 的几个实用功能

多模型对比:同一个问题让多个模型同时回答。选型阶段很有用,直接看 Claude 和 GPT 的回答差异,比自己猜靠谱多了。

插件系统:内置插件市场,联网搜索、代码执行、图片生成都有。配好 API 后在对话界面点插件图标启用。联网搜索插件能让模型拿到实时信息,训练数据截止日期的问题就不那么明显了。

知识库:上传 PDF、Word、网页,LobeChat 自动建向量索引,之后可以基于这些文档问答。公司内部文档、技术手册、合同都适合。

助手市场:LobeHub 维护了一个助手市场,几百个预设专业助手(代码审查、翻译、写作等),直接用,不用自己写 prompt。

常见问题排查

连接失败 / API 报错

十有八九是 API 地址格式不对。LobeChat 要填完整的 Base URL,包括 /v1 路径:https://api.ofox.ai/v1。只填域名不行,加 /chat/completions 也不行。

模型不可用

检查模型 ID 是否正确。可以在 ofox.ai/zh/models 查准确 ID。模型 ID 区分大小写,注意别多打空格。

响应速度慢

换轻量模型(GPT-5.4 Mini 或 Claude Sonnet 4.6),或者检查网络。ofox.ai 的 API 节点针对国内访问有优化,正常延迟在 1-3 秒。

429 限速错误

ofox.ai 速率限制是 200 请求/分钟。在 LobeChat 设置里调低并发请求数,或者升级账户。更多报错排查,参见《AI API 报错大全》

LobeChat vs Cherry Studio:怎么选

两款都是开源 AI 客户端,区别主要在定位:

对比项LobeChatCherry Studio
形态Web + 桌面桌面(Win/Mac/Linux)
插件系统内置插件市场插件支持有限
知识库内置 RAG内置知识库
多模型对比支持支持
自托管Docker 一键部署不支持
界面风格现代感强简洁实用
GitHub Stars72k+42k+

需要 Web 访问或自托管,选 LobeChat。只需要桌面应用,Cherry Studio 也够用,详见《Cherry Studio 配置指南》

两款工具都支持通过 ofox.ai 接入所有主流模型,配置方式基本一样。如果你在多个 AI 工具之间切换,可以参考《AI API 中转站推荐》,了解怎么用一个 Key 统一管理所有工具的 API 调用。