LobeHub Konfiguration
LobeHub ist ein leistungsstarker Open-Source-KI-Desktop-Client (macOS, Windows, Linux, Web) mit Unterstützung für mehrere KI-Anbieter.
OfoxAI unterstützt vier Protokolle in LobeHub:
| Protokoll | Anbieter | API-Proxy-URL | Beispielmodelle (Auswahl) |
|---|---|---|---|
| OpenAI Chat (empfohlen) | OpenAI | https://api.ofox.ai/v1 | openai/gpt-4.1, openai/gpt-4.1-mini, openai/gpt-5.4-mini usw. |
| OpenAI Response | OpenAI | https://api.ofox.ai/v1 | openai/gpt-4.1, openai/gpt-5.4-mini, nur GPT-Serie |
| Claude | Anthropic | https://api.ofox.ai/anthropic | anthropic/claude-sonnet-4.6, anthropic/claude-opus-4.6, anthropic/claude-haiku-4.5 |
| Gemini | https://api.ofox.ai/gemini | google/gemini-3.1-flash-lite-preview, google/gemini-3.1-pro-preview |
Voraussetzungen
- Ein OfoxAI-Konto mit API Key (Hier erhalten )
- LobeHub installiert (Download )
Einrichtungsschritte
Schritt 1: Einstellungen öffnen
Starten Sie LobeHub und klicken Sie unten links auf das Einstellungen-Symbol.

Schritt 2: KI-Dienstanbieter aufrufen
Klicken Sie in der Seitenleiste auf KI-Dienstanbieter und wählen Sie den gewünschten Anbieter.

Schritt 3: Konfiguration ausfüllen
Beispiel mit OpenAI Chat:
| Feld | Wert |
|---|---|
| API Key | Ihr OfoxAI API Key |
| API-Proxy-URL | https://api.ofox.ai/v1 |
| Responses API verwenden | Aus (OpenAI Chat) / Ein (OpenAI Response) |
API-Proxy-URL je Protokoll:
| Protokoll | Anbieter | API-Proxy-URL |
|---|---|---|
| OpenAI Chat / Response | OpenAI | https://api.ofox.ai/v1 |
| Claude | Anthropic | https://api.ofox.ai/anthropic |
| Gemini | https://api.ofox.ai/gemini |
Nach dem Ausfüllen ein Modell für die Verbindungsprüfung auswählen und auf Prüfen klicken. „Prüfung bestanden” bedeutet Erfolg.

Bei deaktiviertem „Responses API”-Schalter werden Anfragen an /v1/chat/completions gesendet (Chat). Bei aktiviertem Schalter an /v1/responses (Response, nur GPT-Serie).
Loslegen
Nach der Konfiguration kehren Sie zum Hauptbildschirm zurück, klicken auf das Modell-Symbol links vom Eingabefeld und wählen ein Modell aus.

Fehlerbehebung
F: Verbindungsprüfung schlägt fehl
- API-Proxy-URL korrekt eingegeben (siehe Tabelle oben)
- API Key vollständig aus der OfoxAI-Konsole kopiert
- Netzwerkverbindung prüfen
F: Was ist der Unterschied zwischen OpenAI Chat und OpenAI Response?
Beide verwenden dieselbe API-Proxy-URL https://api.ofox.ai/v1, unterscheiden sich aber im Anforderungsformat:
- OpenAI Chat (Responses API aus): verwendet
/v1/chat/completions, unterstützt alle Modelle, beste Kompatibilität - OpenAI Response (Responses API ein): verwendet
/v1/responses, nur GPT-Serie, unterstützt aber neue Funktionen wieinstructions-Caching — besser für häufige Anfragen
F: Das gewünschte Modell ist nicht in der Liste
„Modellliste abrufen” klicken oder + für ein benutzerdefiniertes Modell. Format: anbieter/modell-name, z.B.:
| Modell | Modell-ID |
|---|---|
| DeepSeek V3 | deepseek/deepseek-v3.2 |
| Claude Sonnet | anthropic/claude-sonnet-4.6 |
| Gemini Flash | google/gemini-3.1-flash-lite-preview |
Vollständige Liste unter Modelle .