Configuración de LobeHub
LobeHub es un potente cliente de escritorio AI de código abierto (macOS, Windows, Linux, Web) que admite múltiples proveedores de servicios AI.
OfoxAI admite cuatro protocolos en LobeHub:
| Protocolo | Proveedor | URL proxy API | Modelos de ejemplo (parcial) |
|---|---|---|---|
| OpenAI Chat (recomendado) | OpenAI | https://api.ofox.ai/v1 | openai/gpt-4.1, openai/gpt-4.1-mini, openai/gpt-5.4-mini, etc. |
| OpenAI Response | OpenAI | https://api.ofox.ai/v1 | openai/gpt-4.1, openai/gpt-5.4-mini, solo serie GPT |
| Claude | Anthropic | https://api.ofox.ai/anthropic | anthropic/claude-sonnet-4.6, anthropic/claude-opus-4.6, anthropic/claude-haiku-4.5 |
| Gemini | https://api.ofox.ai/gemini | google/gemini-3.1-flash-lite-preview, google/gemini-3.1-pro-preview |
Requisitos previos
- Una cuenta OfoxAI con API Key (Obtener aquí )
- LobeHub instalado (Descargar )
Pasos de configuración
Paso 1: Abrir Configuración
Inicia LobeHub y haz clic en el icono de Configuración en la esquina inferior izquierda.

Paso 2: Ir a Proveedores de servicios AI
En la barra lateral, haz clic en Proveedores de servicios AI y selecciona el proveedor.

Paso 3: Completar la configuración
Ejemplo con OpenAI Chat:
| Campo | Valor |
|---|---|
| API Key | Tu API Key de OfoxAI |
| URL proxy API | https://api.ofox.ai/v1 |
| Usar Responses API | Desactivado (OpenAI Chat) / Activado (OpenAI Response) |
URL proxy API por protocolo:
| Protocolo | Proveedor | URL proxy API |
|---|---|---|
| OpenAI Chat / Response | OpenAI | https://api.ofox.ai/v1 |
| Claude | Anthropic | https://api.ofox.ai/anthropic |
| Gemini | https://api.ofox.ai/gemini |
Selecciona un modelo en la verificación de conectividad y haz clic en verificar. “Verificación superada” indica éxito.

Con “Usar Responses API” desactivado, las solicitudes van a /v1/chat/completions (Chat). Activado, van a /v1/responses (Response, solo serie GPT).
Empezar a usar
Después de configurar, vuelve a la pantalla principal, haz clic en el icono del modelo a la izquierda del campo de entrada y selecciona un modelo para comenzar.

Solución de problemas
P: La verificación de conectividad falla
- Verifica que la URL proxy API sea correcta (ver tabla arriba)
- Verifica que el API Key esté copiado completo desde la Consola OfoxAI
- Comprueba tu conexión a internet
P: ¿Cuál es la diferencia entre OpenAI Chat y OpenAI Response?
Ambos usan la misma URL proxy API https://api.ofox.ai/v1, pero difieren en el formato de solicitud:
- OpenAI Chat (Responses API desactivado): usa
/v1/chat/completions, compatible con todos los modelos - OpenAI Response (Responses API activado): usa
/v1/responses, solo serie GPT, pero admite nuevas funciones como caché deinstructions— mejor para uso frecuente
P: El modelo que quiero no está en la lista
Haz clic en “Obtener lista de modelos” o + para agregar uno personalizado. Usa el formato proveedor/nombre-modelo, ej.:
| Modelo | ID del modelo |
|---|---|
| DeepSeek V3 | deepseek/deepseek-v3.2 |
| Claude Sonnet | anthropic/claude-sonnet-4.6 |
| Gemini Flash | google/gemini-3.1-flash-lite-preview |
Lista completa en Modelos .