Skip to Content

LobeHub Konfiguration

LobeHub  ist ein leistungsstarker Open-Source-KI-Desktop-Client (macOS, Windows, Linux, Web) mit Unterstützung für mehrere KI-Anbieter.

OfoxAI unterstützt vier Protokolle in LobeHub:

ProtokollAnbieterAPI-Proxy-URLBeispielmodelle (Auswahl)
OpenAI Chat (empfohlen)OpenAIhttps://api.ofox.ai/v1openai/gpt-4.1, openai/gpt-4.1-mini, openai/gpt-5.4-mini usw.
OpenAI ResponseOpenAIhttps://api.ofox.ai/v1openai/gpt-4.1, openai/gpt-5.4-mini, nur GPT-Serie
ClaudeAnthropichttps://api.ofox.ai/anthropicanthropic/claude-sonnet-4.6, anthropic/claude-opus-4.6, anthropic/claude-haiku-4.5
GeminiGooglehttps://api.ofox.ai/geminigoogle/gemini-3.1-flash-lite-preview, google/gemini-3.1-pro-preview

Voraussetzungen

Einrichtungsschritte

Schritt 1: Einstellungen öffnen

Starten Sie LobeHub und klicken Sie unten links auf das Einstellungen-Symbol.

LobeHub Einstellungen öffnen

Schritt 2: KI-Dienstanbieter aufrufen

Klicken Sie in der Seitenleiste auf KI-Dienstanbieter und wählen Sie den gewünschten Anbieter.

KI-Dienstanbieter aufrufen

Schritt 3: Konfiguration ausfüllen

Beispiel mit OpenAI Chat:

FeldWert
API KeyIhr OfoxAI API Key
API-Proxy-URLhttps://api.ofox.ai/v1
Responses API verwendenAus (OpenAI Chat) / Ein (OpenAI Response)

API-Proxy-URL je Protokoll:

ProtokollAnbieterAPI-Proxy-URL
OpenAI Chat / ResponseOpenAIhttps://api.ofox.ai/v1
ClaudeAnthropichttps://api.ofox.ai/anthropic
GeminiGooglehttps://api.ofox.ai/gemini

Nach dem Ausfüllen ein Modell für die Verbindungsprüfung auswählen und auf Prüfen klicken. „Prüfung bestanden” bedeutet Erfolg.

Konfiguration ausfüllen und Verbindung prüfen

Bei deaktiviertem „Responses API”-Schalter werden Anfragen an /v1/chat/completions gesendet (Chat). Bei aktiviertem Schalter an /v1/responses (Response, nur GPT-Serie).

Loslegen

Nach der Konfiguration kehren Sie zum Hauptbildschirm zurück, klicken auf das Modell-Symbol links vom Eingabefeld und wählen ein Modell aus.

Chat starten

Fehlerbehebung

F: Verbindungsprüfung schlägt fehl

  1. API-Proxy-URL korrekt eingegeben (siehe Tabelle oben)
  2. API Key vollständig aus der OfoxAI-Konsole  kopiert
  3. Netzwerkverbindung prüfen

F: Was ist der Unterschied zwischen OpenAI Chat und OpenAI Response?

Beide verwenden dieselbe API-Proxy-URL https://api.ofox.ai/v1, unterscheiden sich aber im Anforderungsformat:

  • OpenAI Chat (Responses API aus): verwendet /v1/chat/completions, unterstützt alle Modelle, beste Kompatibilität
  • OpenAI Response (Responses API ein): verwendet /v1/responses, nur GPT-Serie, unterstützt aber neue Funktionen wie instructions-Caching — besser für häufige Anfragen

F: Das gewünschte Modell ist nicht in der Liste

„Modellliste abrufen” klicken oder + für ein benutzerdefiniertes Modell. Format: anbieter/modell-name, z.B.:

ModellModell-ID
DeepSeek V3deepseek/deepseek-v3.2
Claude Sonnetanthropic/claude-sonnet-4.6
Gemini Flashgoogle/gemini-3.1-flash-lite-preview

Vollständige Liste unter Modelle .

Last updated on