Skip to Content

Configuración de LobeHub

LobeHub  es un potente cliente de escritorio AI de código abierto (macOS, Windows, Linux, Web) que admite múltiples proveedores de servicios AI.

OfoxAI admite cuatro protocolos en LobeHub:

ProtocoloProveedorURL proxy APIModelos de ejemplo (parcial)
OpenAI Chat (recomendado)OpenAIhttps://api.ofox.ai/v1openai/gpt-4.1, openai/gpt-4.1-mini, openai/gpt-5.4-mini, etc.
OpenAI ResponseOpenAIhttps://api.ofox.ai/v1openai/gpt-4.1, openai/gpt-5.4-mini, solo serie GPT
ClaudeAnthropichttps://api.ofox.ai/anthropicanthropic/claude-sonnet-4.6, anthropic/claude-opus-4.6, anthropic/claude-haiku-4.5
GeminiGooglehttps://api.ofox.ai/geminigoogle/gemini-3.1-flash-lite-preview, google/gemini-3.1-pro-preview

Requisitos previos

Pasos de configuración

Paso 1: Abrir Configuración

Inicia LobeHub y haz clic en el icono de Configuración en la esquina inferior izquierda.

Abrir configuración de LobeHub

Paso 2: Ir a Proveedores de servicios AI

En la barra lateral, haz clic en Proveedores de servicios AI y selecciona el proveedor.

Proveedores de servicios AI

Paso 3: Completar la configuración

Ejemplo con OpenAI Chat:

CampoValor
API KeyTu API Key de OfoxAI
URL proxy APIhttps://api.ofox.ai/v1
Usar Responses APIDesactivado (OpenAI Chat) / Activado (OpenAI Response)

URL proxy API por protocolo:

ProtocoloProveedorURL proxy API
OpenAI Chat / ResponseOpenAIhttps://api.ofox.ai/v1
ClaudeAnthropichttps://api.ofox.ai/anthropic
GeminiGooglehttps://api.ofox.ai/gemini

Selecciona un modelo en la verificación de conectividad y haz clic en verificar. “Verificación superada” indica éxito.

Completar configuración y verificar conexión

Con “Usar Responses API” desactivado, las solicitudes van a /v1/chat/completions (Chat). Activado, van a /v1/responses (Response, solo serie GPT).

Empezar a usar

Después de configurar, vuelve a la pantalla principal, haz clic en el icono del modelo a la izquierda del campo de entrada y selecciona un modelo para comenzar.

Iniciar conversación

Solución de problemas

P: La verificación de conectividad falla

  1. Verifica que la URL proxy API sea correcta (ver tabla arriba)
  2. Verifica que el API Key esté copiado completo desde la Consola OfoxAI 
  3. Comprueba tu conexión a internet

P: ¿Cuál es la diferencia entre OpenAI Chat y OpenAI Response?

Ambos usan la misma URL proxy API https://api.ofox.ai/v1, pero difieren en el formato de solicitud:

  • OpenAI Chat (Responses API desactivado): usa /v1/chat/completions, compatible con todos los modelos
  • OpenAI Response (Responses API activado): usa /v1/responses, solo serie GPT, pero admite nuevas funciones como caché de instructions — mejor para uso frecuente

P: El modelo que quiero no está en la lista

Haz clic en “Obtener lista de modelos” o + para agregar uno personalizado. Usa el formato proveedor/nombre-modelo, ej.:

ModeloID del modelo
DeepSeek V3deepseek/deepseek-v3.2
Claude Sonnetanthropic/claude-sonnet-4.6
Gemini Flashgoogle/gemini-3.1-flash-lite-preview

Lista completa en Modelos .

Last updated on