Skip to Content

Configuration de LobeHub

LobeHub  est un puissant client de bureau IA open-source (macOS, Windows, Linux, Web) prenant en charge plusieurs fournisseurs de services IA.

OfoxAI prend en charge quatre protocoles dans LobeHub :

ProtocoleFournisseurURL proxy APIModèles exemples (partiel)
OpenAI Chat (recommandé)OpenAIhttps://api.ofox.ai/v1openai/gpt-4.1, openai/gpt-4.1-mini, openai/gpt-5.4-mini, etc.
OpenAI ResponseOpenAIhttps://api.ofox.ai/v1openai/gpt-4.1, openai/gpt-5.4-mini, série GPT uniquement
ClaudeAnthropichttps://api.ofox.ai/anthropicanthropic/claude-sonnet-4.6, anthropic/claude-opus-4.6, anthropic/claude-haiku-4.5
GeminiGooglehttps://api.ofox.ai/geminigoogle/gemini-3.1-flash-lite-preview, google/gemini-3.1-pro-preview

Prérequis

Étapes de configuration

Étape 1 : Ouvrir les paramètres

Lancez LobeHub et cliquez sur l’icône Paramètres en bas à gauche.

Ouvrir les paramètres LobeHub

Étape 2 : Accéder aux fournisseurs de services IA

Dans la barre latérale, cliquez sur Fournisseurs de services IA et sélectionnez le fournisseur.

Fournisseurs de services IA

Étape 3 : Remplir la configuration

Exemple avec OpenAI Chat :

ChampValeur
Clé APIVotre clé API OfoxAI
URL proxy APIhttps://api.ofox.ai/v1
Utiliser Responses APIDésactivé (OpenAI Chat) / Activé (OpenAI Response)

URL proxy API par protocole :

ProtocoleFournisseurURL proxy API
OpenAI Chat / ResponseOpenAIhttps://api.ofox.ai/v1
ClaudeAnthropichttps://api.ofox.ai/anthropic
GeminiGooglehttps://api.ofox.ai/gemini

Sélectionnez un modèle pour la vérification de connectivité et cliquez sur vérifier. « Vérification réussie » indique le succès.

Remplir la configuration et vérifier la connexion

Avec « Utiliser Responses API » désactivé, les requêtes vont vers /v1/chat/completions (Chat). Activé, vers /v1/responses (Response, série GPT uniquement).

Commencer à utiliser

Après la configuration, revenez à l’écran principal, cliquez sur l’icône du modèle à gauche du champ de saisie et sélectionnez un modèle pour commencer.

Démarrer une conversation

Dépannage

Q : La vérification de connectivité échoue

  1. Vérifiez que l’URL proxy API est correcte (voir tableau ci-dessus)
  2. Vérifiez que la clé API est copiée intégralement depuis la Console OfoxAI 
  3. Vérifiez votre connexion réseau

Q : Quelle est la différence entre OpenAI Chat et OpenAI Response ?

Les deux utilisent la même URL proxy API https://api.ofox.ai/v1, mais diffèrent dans le format des requêtes :

  • OpenAI Chat (Responses API désactivé) : utilise /v1/chat/completions, compatible avec tous les modèles
  • OpenAI Response (Responses API activé) : utilise /v1/responses, série GPT uniquement, mais prend en charge de nouvelles fonctionnalités comme le cache instructions — mieux pour les appels fréquents

Q : Le modèle souhaité n’est pas dans la liste

Cliquez sur « Obtenir la liste des modèles » ou + pour ajouter un modèle personnalisé. Format : fournisseur/nom-modèle, ex. :

ModèleID du modèle
DeepSeek V3deepseek/deepseek-v3.2
Claude Sonnetanthropic/claude-sonnet-4.6
Gemini Flashgoogle/gemini-3.1-flash-lite-preview

Liste complète sur Modèles .

Last updated on