Skip to Content

LobeHub の設定

LobeHub  は強力なオープンソースのAIデスクトップクライアント(macOS、Windows、Linux、Web対応)で、複数のAIサービスプロバイダーをサポートしています。

OfoxAIはLobeHubで4つのプロトコルをサポートしています:

プロトコルプロバイダーAPIプロキシURL例示モデル(一部)
OpenAI Chat(推奨)OpenAIhttps://api.ofox.ai/v1openai/gpt-4.1openai/gpt-4.1-miniopenai/gpt-5.4-mini など
OpenAI ResponseOpenAIhttps://api.ofox.ai/v1openai/gpt-4.1openai/gpt-5.4-mini、GPTシリーズのみ
ClaudeAnthropichttps://api.ofox.ai/anthropicanthropic/claude-sonnet-4.6anthropic/claude-opus-4.6anthropic/claude-haiku-4.5
GeminiGooglehttps://api.ofox.ai/geminigoogle/gemini-3.1-flash-lite-previewgoogle/gemini-3.1-pro-preview

前提条件

設定手順

ステップ 1:設定を開く

LobeHubを起動し、左下の 設定 アイコンをクリックします。

LobeHub設定を開く

ステップ 2:AIサービスプロバイダーに移動

サイドバーで AIサービスプロバイダー をクリックし、プロバイダーを選択します。

AIサービスプロバイダー

ステップ 3:設定情報を入力

OpenAI Chat の例:

項目
APIキーOfoxAIのAPIキー
APIプロキシURLhttps://api.ofox.ai/v1
Responses API使用オフ(OpenAI Chat)/ オン(OpenAI Response)

プロトコル別のAPIプロキシURL:

プロトコルプロバイダーAPIプロキシURL
OpenAI Chat / ResponseOpenAIhttps://api.ofox.ai/v1
ClaudeAnthropichttps://api.ofox.ai/anthropic
GeminiGooglehttps://api.ofox.ai/gemini

接続確認でモデルを選択してチェックボタンをクリック。「チェック通過」で設定完了です。

設定入力と接続確認

「Responses API使用」オフ時は /v1/chat/completions(Chat)、オン時は /v1/responses(Response、GPTシリーズのみ)にリクエストが送られます。

使い始める

設定後、メイン画面に戻り、入力欄左のモデルアイコンをクリックしてモデルを選択し、会話を始めましょう。

チャットを開始

トラブルシューティング

Q:接続確認が失敗する

  1. APIプロキシURLが正しいか確認(上記の表を参照)
  2. APIキーが OfoxAIコンソール  から完全にコピーされているか確認
  3. ネットワーク接続を確認

Q:OpenAI ChatとOpenAI Responseの違いは何ですか?

どちらも同じAPIプロキシURL https://api.ofox.ai/v1 を使用しますが、リクエスト形式が異なります:

  • OpenAI Chat(Responses APIオフ):/v1/chat/completions を使用、全モデル対応、互換性最高
  • OpenAI Response(Responses APIオン):/v1/responses を使用、GPTシリーズのみ対応、instructions キャッシュなどの新機能をサポート — 高頻度利用に最適

Q:使いたいモデルがリストにない

「モデルリストを取得」をクリックするか、+ でカスタムモデルを追加。プロバイダー/モデル名 形式で入力:

モデルモデルID
DeepSeek V3deepseek/deepseek-v3.2
Claude Sonnetanthropic/claude-sonnet-4.6
Gemini Flashgoogle/gemini-3.1-flash-lite-preview

完全なリストは モデル一覧  で確認できます。

Last updated on