Configuration de LobeHub
LobeHub est un puissant client de bureau IA open-source (macOS, Windows, Linux, Web) prenant en charge plusieurs fournisseurs de services IA.
OfoxAI prend en charge quatre protocoles dans LobeHub :
| Protocole | Fournisseur | URL proxy API | Modèles exemples (partiel) |
|---|---|---|---|
| OpenAI Chat (recommandé) | OpenAI | https://api.ofox.ai/v1 | openai/gpt-4.1, openai/gpt-4.1-mini, openai/gpt-5.4-mini, etc. |
| OpenAI Response | OpenAI | https://api.ofox.ai/v1 | openai/gpt-4.1, openai/gpt-5.4-mini, série GPT uniquement |
| Claude | Anthropic | https://api.ofox.ai/anthropic | anthropic/claude-sonnet-4.6, anthropic/claude-opus-4.6, anthropic/claude-haiku-4.5 |
| Gemini | https://api.ofox.ai/gemini | google/gemini-3.1-flash-lite-preview, google/gemini-3.1-pro-preview |
Prérequis
- Un compte OfoxAI avec une clé API (Obtenir ici )
- LobeHub installé (Télécharger )
Étapes de configuration
Étape 1 : Ouvrir les paramètres
Lancez LobeHub et cliquez sur l’icône Paramètres en bas à gauche.

Étape 2 : Accéder aux fournisseurs de services IA
Dans la barre latérale, cliquez sur Fournisseurs de services IA et sélectionnez le fournisseur.

Étape 3 : Remplir la configuration
Exemple avec OpenAI Chat :
| Champ | Valeur |
|---|---|
| Clé API | Votre clé API OfoxAI |
| URL proxy API | https://api.ofox.ai/v1 |
| Utiliser Responses API | Désactivé (OpenAI Chat) / Activé (OpenAI Response) |
URL proxy API par protocole :
| Protocole | Fournisseur | URL proxy API |
|---|---|---|
| OpenAI Chat / Response | OpenAI | https://api.ofox.ai/v1 |
| Claude | Anthropic | https://api.ofox.ai/anthropic |
| Gemini | https://api.ofox.ai/gemini |
Sélectionnez un modèle pour la vérification de connectivité et cliquez sur vérifier. « Vérification réussie » indique le succès.

Avec « Utiliser Responses API » désactivé, les requêtes vont vers /v1/chat/completions (Chat). Activé, vers /v1/responses (Response, série GPT uniquement).
Commencer à utiliser
Après la configuration, revenez à l’écran principal, cliquez sur l’icône du modèle à gauche du champ de saisie et sélectionnez un modèle pour commencer.

Dépannage
Q : La vérification de connectivité échoue
- Vérifiez que l’URL proxy API est correcte (voir tableau ci-dessus)
- Vérifiez que la clé API est copiée intégralement depuis la Console OfoxAI
- Vérifiez votre connexion réseau
Q : Quelle est la différence entre OpenAI Chat et OpenAI Response ?
Les deux utilisent la même URL proxy API https://api.ofox.ai/v1, mais diffèrent dans le format des requêtes :
- OpenAI Chat (Responses API désactivé) : utilise
/v1/chat/completions, compatible avec tous les modèles - OpenAI Response (Responses API activé) : utilise
/v1/responses, série GPT uniquement, mais prend en charge de nouvelles fonctionnalités comme le cacheinstructions— mieux pour les appels fréquents
Q : Le modèle souhaité n’est pas dans la liste
Cliquez sur « Obtenir la liste des modèles » ou + pour ajouter un modèle personnalisé. Format : fournisseur/nom-modèle, ex. :
| Modèle | ID du modèle |
|---|---|
| DeepSeek V3 | deepseek/deepseek-v3.2 |
| Claude Sonnet | anthropic/claude-sonnet-4.6 |
| Gemini Flash | google/gemini-3.1-flash-lite-preview |
Liste complète sur Modèles .