Skip to Content
APIGemini natives ProtokollGenerate Content

Generate Content

Rufe Google-Gemini-Modelle über das native Gemini-Protokoll auf. OfoxAI ist mit dem Google GenAI SDK kompatibel.

Endpunkt

POST https://api.ofox.ai/gemini/v1beta/models/{model}:generateContent POST https://api.ofox.ai/gemini/v1beta/models/{model}:streamGenerateContent

Authentifizierung

Das Gemini-Protokoll nutzt den Header x-goog-api-key:

x-goog-api-key: <Dein OFOXAI_API_KEY>

Beispielanfrage

Terminal
curl "https://api.ofox.ai/gemini/v1beta/models/google/gemini-3.1-flash-lite-preview:generateContent" \ -H "x-goog-api-key: $OFOX_API_KEY" \ -H "Content-Type: application/json" \ -d '{ "contents": [ { "parts": [{"text": "Implementiere einen einfachen Webserver in Python"}] } ] }'

Streaming-Antwort

gemini_stream.py
response = client.models.generate_content_stream( model="google/gemini-3.1-flash-lite-preview", contents="Schreibe einen Artikel über KI" ) for chunk in response: print(chunk.text, end="", flush=True)

Multimodale Eingabe

Gemini unterstützt nativ multimodale Eingaben, darunter Bilder, Audio und Video:

import base64 # Bildanalyse with open("photo.jpg", "rb") as f: image_data = base64.b64encode(f.read()).decode() response = client.models.generate_content( model="google/gemini-3.1-flash-lite-preview", contents=[ {"text": "Beschreibe den Inhalt dieses Bildes"}, {"inline_data": {"mime_type": "image/jpeg", "data": image_data}} ] )

Bilder generieren und bearbeiten

Im nativen Gemini-Protokoll übernimmt der einzelne Endpunkt generateContent sowohl die Bildgenerierung (text → image) als auch die Bildbearbeitung (image + text → image). Empfohlenes Modell: google/gemini-3.1-flash-image-preview.

POST https://api.ofox.ai/gemini/v1beta/models/google/gemini-3.1-flash-image-preview:generateContent

Du kannst dasselbe Modell auch über den OpenAI-kompatiblen Endpunkt zum Generieren nutzen, die Bildbearbeitung ist jedoch ausschließlich im nativen Gemini-Protokoll verfügbar.

Generierung: text → image

gen.py
from google import genai client = genai.Client( api_key="YOUR_OFOX_API_KEY", http_options={"api_version": "v1beta", "base_url": "https://api.ofox.ai/gemini"}, ) resp = client.models.generate_content( model="google/gemini-3.1-flash-image-preview", contents="A simple red apple on a white table, photorealistic", ) for part in resp.candidates[0].content.parts: if part.inline_data and part.inline_data.data: with open("output.png", "wb") as f: f.write(part.inline_data.data) break

Tatsächliches Ergebnis:

Über das native Gemini-Protokoll generierter roter Apfel

Bearbeitung: image + text → image

Lege das Originalbild zusammen mit der Textanweisung als inlineData in parts:

edit.py
from google import genai from google.genai import types client = genai.Client( api_key="YOUR_OFOX_API_KEY", http_options={"api_version": "v1beta", "base_url": "https://api.ofox.ai/gemini"}, ) with open("apple.png", "rb") as f: image_bytes = f.read() resp = client.models.generate_content( model="google/gemini-3.1-flash-image-preview", contents=[ "Mach den Apfel grün, lass alles andere unverändert", types.Part.from_bytes(data=image_bytes, mime_type="image/png"), ], ) for part in resp.candidates[0].content.parts: if part.inline_data and part.inline_data.data: with open("apple_edited.png", "wb") as out: out.write(part.inline_data.data) break

Direkter Vergleich:

OriginalNach Bearbeitung
Originaler roter ApfelBearbeiteter grüner Apfel

Antwort

{ "candidates": [{ "content": { "role": "model", "parts": [ { "text": "...", "thought": true }, { "inlineData": { "mimeType": "image/png", "data": "<Bild Base64>" } } ] }, "finishReason": "STOP" }], "modelVersion": "google/gemini-3.1-flash-image-preview", "usageMetadata": { "promptTokenCount": 1097, "candidatesTokenCount": 1120, "thoughtsTokenCount": 1306, "totalTokenCount": 3523, "candidatesTokensDetails": [ { "modality": "IMAGE", "tokenCount": 1120 } ] } }
  • Das Bild steht in candidates[0].content.parts[].inlineData.data als Base64-String
  • In parts können mehrere text-Einträge mit thought: true (Gedankengang) auftauchen — beim Iterieren ausschließlich inlineData verwenden
  • In usageMetadata.candidatesTokensDetails gibt der tokenCount mit modality: IMAGE den Tokenverbrauch der Bildausgabe an

Unterstützte Modelle

Die folgende Tabelle führt nur gängige Vertreter auf, die vollständige Liste verfügbarer Modelle findest du unter:

  • Programmatische Schnittstelle: GET /gemini/v1beta/models — fragt in Echtzeit ab, welche Modelle für dein Konto im Gateway verfügbar sind
  • Browser-Seite: Modellkatalog  — visuelle Suche inklusive Preisen
ModellBeschreibung
google/gemini-3.1-pro-previewGemini 3.1 Pro — stärkste Reasoning-Leistung
google/gemini-3-pro-previewGemini 3 Pro — ausgewogene Leistung
google/gemini-3.1-flash-lite-previewGemini 3 Flash — hohe Geschwindigkeit, hervorragendes Preis-Leistungs-Verhältnis
google/gemini-3.1-flash-image-previewGemini Flash Image — Bildgenerierung und -bearbeitung

Das Gemini-Protokoll von OfoxAI unterstützt die wichtigsten Funktionen des Google GenAI SDK, darunter Function Calling, Code Execution, Grounding sowie Bildgenerierung und -bearbeitung.

Last updated on