Skip to Content

Настройка LobeHub

LobeHub  — мощный клиент с открытым исходным кодом (macOS, Windows, Linux, Web), поддерживающий несколько провайдеров ИИ-сервисов.

OfoxAI поддерживает четыре протокола в LobeHub:

ПротоколПровайдерURL прокси APIПримеры моделей (часть)
OpenAI Chat (рекомендуется)OpenAIhttps://api.ofox.ai/v1openai/gpt-4.1, openai/gpt-4.1-mini, openai/gpt-5.4-mini и др.
OpenAI ResponseOpenAIhttps://api.ofox.ai/v1openai/gpt-4.1, openai/gpt-5.4-mini, только серия GPT
ClaudeAnthropichttps://api.ofox.ai/anthropicanthropic/claude-sonnet-4.6, anthropic/claude-opus-4.6, anthropic/claude-haiku-4.5
GeminiGooglehttps://api.ofox.ai/geminigoogle/gemini-3.1-flash-lite-preview, google/gemini-3.1-pro-preview

Требования

Шаги настройки

Шаг 1: Открыть настройки

Запустите LobeHub и нажмите значок Настройки в левом нижнем углу.

Открыть настройки LobeHub

Шаг 2: Перейти к провайдерам ИИ-сервисов

В боковой панели нажмите Провайдеры ИИ-сервисов и выберите провайдера.

Провайдеры ИИ-сервисов

Шаг 3: Заполнить конфигурацию

Пример с OpenAI Chat:

ПолеЗначение
API-ключВаш API-ключ OfoxAI
URL прокси APIhttps://api.ofox.ai/v1
Использовать Responses APIВыкл (OpenAI Chat) / Вкл (OpenAI Response)

URL прокси API по протоколу:

ПротоколПровайдерURL прокси API
OpenAI Chat / ResponseOpenAIhttps://api.ofox.ai/v1
ClaudeAnthropichttps://api.ofox.ai/anthropic
GeminiGooglehttps://api.ofox.ai/gemini

Выберите модель для проверки подключения и нажмите кнопку проверки. «Проверка пройдена» означает успех.

Заполнить конфигурацию и проверить подключение

При выключенном «Использовать Responses API» запросы идут на /v1/chat/completions (Chat). При включённом — на /v1/responses (Response, только серия GPT).

Начало работы

После настройки вернитесь на главный экран, нажмите значок модели слева от поля ввода, выберите модель и начните общение.

Начать чат

Устранение неполадок

В: Проверка подключения не удаётся

  1. Убедитесь, что URL прокси API указан правильно (см. таблицу выше)
  2. Убедитесь, что API-ключ полностью скопирован из консоли OfoxAI 
  3. Проверьте сетевое подключение

В: В чём разница между OpenAI Chat и OpenAI Response?

Оба используют один URL прокси API https://api.ofox.ai/v1, но отличаются форматом запросов:

  • OpenAI Chat (Responses API выкл): использует /v1/chat/completions, поддерживает все модели, лучшая совместимость
  • OpenAI Response (Responses API вкл): использует /v1/responses, только серия GPT, но поддерживает новые функции вроде кэширования instructions — лучше для частых запросов

В: Нужная модель отсутствует в списке

Нажмите «Получить список моделей» или + для добавления. Формат: провайдер/название-модели, напр.:

МодельID модели
DeepSeek V3deepseek/deepseek-v3.2
Claude Sonnetanthropic/claude-sonnet-4.6
Gemini Flashgoogle/gemini-3.1-flash-lite-preview

Полный список в каталоге моделей .

Last updated on