Skip to Content

Configuração do LobeHub

LobeHub  é um poderoso cliente desktop de IA de código aberto (macOS, Windows, Linux, Web) que suporta vários provedores de serviços de IA.

O OfoxAI suporta quatro protocolos no LobeHub:

ProtocoloProvedorURL proxy APIModelos de exemplo (parcial)
OpenAI Chat (recomendado)OpenAIhttps://api.ofox.ai/v1openai/gpt-4.1, openai/gpt-4.1-mini, openai/gpt-5.4-mini, etc.
OpenAI ResponseOpenAIhttps://api.ofox.ai/v1openai/gpt-4.1, openai/gpt-5.4-mini, apenas série GPT
ClaudeAnthropichttps://api.ofox.ai/anthropicanthropic/claude-sonnet-4.6, anthropic/claude-opus-4.6, anthropic/claude-haiku-4.5
GeminiGooglehttps://api.ofox.ai/geminigoogle/gemini-3.1-flash-lite-preview, google/gemini-3.1-pro-preview

Pré-requisitos

Passos de configuração

Passo 1: Abrir Configurações

Inicie o LobeHub e clique no ícone de Configurações no canto inferior esquerdo.

Abrir configurações do LobeHub

Passo 2: Ir para Provedores de serviços de IA

Na barra lateral, clique em Provedores de serviços de IA e selecione o provedor.

Provedores de serviços de IA

Passo 3: Preencher a configuração

Exemplo com OpenAI Chat:

CampoValor
Chave APISua chave de API OfoxAI
URL proxy APIhttps://api.ofox.ai/v1
Usar Responses APIDesligado (OpenAI Chat) / Ligado (OpenAI Response)

URL proxy API por protocolo:

ProtocoloProvedorURL proxy API
OpenAI Chat / ResponseOpenAIhttps://api.ofox.ai/v1
ClaudeAnthropichttps://api.ofox.ai/anthropic
GeminiGooglehttps://api.ofox.ai/gemini

Selecione um modelo na verificação de conectividade e clique em verificar. “Verificação aprovada” indica sucesso.

Preencher configuração e verificar conexão

Com “Usar Responses API” desligado, as solicitações vão para /v1/chat/completions (Chat). Ligado, vão para /v1/responses (Response, apenas série GPT).

Começar a usar

Após a configuração, volte para a tela principal, clique no ícone do modelo à esquerda do campo de entrada e selecione um modelo para começar.

Iniciar conversa

Solução de problemas

P: A verificação de conectividade falha

  1. Verifique se a URL proxy API está correta (ver tabela acima)
  2. Verifique se a chave de API foi copiada completamente do Console OfoxAI 
  3. Verifique sua conexão de rede

P: Qual é a diferença entre OpenAI Chat e OpenAI Response?

Ambos usam a mesma URL proxy API https://api.ofox.ai/v1, mas diferem no formato de solicitação:

  • OpenAI Chat (Responses API desligado): usa /v1/chat/completions, suporta todos os modelos, melhor compatibilidade
  • OpenAI Response (Responses API ligado): usa /v1/responses, apenas série GPT, mas suporta novos recursos como cache de instructions — melhor para uso frequente

P: O modelo desejado não está na lista

Clique em “Obter lista de modelos” ou + para adicionar um modelo personalizado. Use o formato provedor/nome-modelo, ex.:

ModeloID do modelo
DeepSeek V3deepseek/deepseek-v3.2
Claude Sonnetanthropic/claude-sonnet-4.6
Gemini Flashgoogle/gemini-3.1-flash-lite-preview

Lista completa em Modelos .

Last updated on