Skip to Content

LobeHub 설정

LobeHub 은 강력한 오픈소스 AI 데스크톱 클라이언트(macOS, Windows, Linux, Web 지원)로, 여러 AI 서비스 제공자를 지원합니다.

OfoxAI는 LobeHub에서 4가지 프로토콜을 지원합니다:

프로토콜제공자API 프록시 URL예시 모델 (일부)
OpenAI Chat(권장)OpenAIhttps://api.ofox.ai/v1openai/gpt-4.1, openai/gpt-4.1-mini, openai/gpt-5.4-mini
OpenAI ResponseOpenAIhttps://api.ofox.ai/v1openai/gpt-4.1, openai/gpt-5.4-mini, GPT 시리즈만
ClaudeAnthropichttps://api.ofox.ai/anthropicanthropic/claude-sonnet-4.6, anthropic/claude-opus-4.6, anthropic/claude-haiku-4.5
GeminiGooglehttps://api.ofox.ai/geminigoogle/gemini-3.1-flash-lite-preview, google/gemini-3.1-pro-preview

사전 요구사항

설정 단계

1단계: 설정 열기

LobeHub를 실행하고 왼쪽 하단의 설정 아이콘을 클릭합니다.

LobeHub 설정 열기

2단계: AI 서비스 제공자로 이동

사이드바에서 AI 서비스 제공자를 클릭하고 제공자를 선택합니다.

AI 서비스 제공자

3단계: 설정 정보 입력

OpenAI Chat 예시:

항목
API KeyOfoxAI API Key
API 프록시 URLhttps://api.ofox.ai/v1
Responses API 사용끄기 (OpenAI Chat) / 켜기 (OpenAI Response)

프로토콜별 API 프록시 URL:

프로토콜제공자API 프록시 URL
OpenAI Chat / ResponseOpenAIhttps://api.ofox.ai/v1
ClaudeAnthropichttps://api.ofox.ai/anthropic
GeminiGooglehttps://api.ofox.ai/gemini

연결 확인에서 모델을 선택하고 확인 버튼을 클릭합니다. “확인 통과”가 표시되면 성공입니다.

설정 입력 및 연결 확인

“Responses API 사용” 끄기 시 /v1/chat/completions(Chat), 켜기 시 /v1/responses(Response, GPT 시리즈만)로 요청이 전송됩니다.

사용 시작

설정 후 메인 화면으로 돌아가 입력창 왼쪽의 모델 아이콘을 클릭하여 모델을 선택하고 대화를 시작하세요.

대화 시작

문제 해결

Q: 연결 확인이 실패합니다

  1. API 프록시 URL이 올바른지 확인 (위 표 참조)
  2. API Key가 OfoxAI 콘솔 에서 완전히 복사되었는지 확인
  3. 네트워크 연결 확인

Q: OpenAI Chat과 OpenAI Response의 차이점은 무엇인가요?

둘 다 같은 API 프록시 URL https://api.ofox.ai/v1을 사용하지만 요청 형식이 다릅니다:

  • OpenAI Chat (Responses API 끄기): /v1/chat/completions 사용, 모든 모델 지원, 호환성 최고
  • OpenAI Response (Responses API 켜기): /v1/responses 사용, GPT 시리즈만 지원, instructions 캐시 등 새 기능 지원 — 고빈도 사용에 적합

Q: 원하는 모델이 목록에 없습니다

“모델 목록 가져오기”를 클릭하거나 **+**로 커스텀 모델 추가. 제공자/모델명 형식 사용:

모델모델 ID
DeepSeek V3deepseek/deepseek-v3.2
Claude Sonnetanthropic/claude-sonnet-4.6
Gemini Flashgoogle/gemini-3.1-flash-lite-preview

전체 목록은 모델 목록 에서 확인하세요.

Last updated on