Die Bild-API das liest was es schreibt.
OpenAI gpt-image-2 hinter einem HTTP-Endpunkt. Nativer 2K-Text, mehrsprachiger Text mit einer Lesbarkeit von über 95 % und eine Argumentation, die jede Anweisung in Ihrer Eingabeaufforderung berücksichtigt.
$ curl https://gptimage2.com/api/images \
-H "Authorization: Bearer $GPTIMAGE2_API_KEY" \
-H "Content-Type: application/json" \
-d '{ "model": "gpt-image-2", "prompt": "editorial portrait, shallow dof", "size": "1024x1024" }'



Wie es stapelt sich.
Unabhängige Benchmarks von LM Arena und Artificial Analysis. Die folgenden Zahlen stammen von Dritten – nicht von uns.
| Fähigkeit | gpt-image-2 OpenAI | Nano Banana Pro Gemini 3 Pro-Bild | Nano Banana 2 Gemini 3.1 Flash-Image |
|---|---|---|---|
| LM Arena ELO (Text-zu-Bild) | 1,512 | 1,360 | 1,360 |
| Textgenauigkeit im Bild | 99 %+ mehrsprachig | Stark (EN-Fokus) | Stark (EN-Fokus) |
| Generationszeit | ~3 s | 10–20 s | 4–8 Sek |
| Native Auflösung | 2K (4K hochskaliert) | 1K (4K verfügbar) | 1K (4K verfügbar) |
| Argumentationsmodus | Integriertes Denken | — | Minimal · Hoch · Dynamisch |
| Mehrsprachige Skripte | EN · ZH · JA · KO · AR · HI · BN | EN-stark, andere variabel | EN-stark, andere variabel |
| Charakterkonsistenz | Pixelebene über Winkel hinweg | Bis zu 5 Fächer | Bis zu 5 Fächer |
| Charge pro Anruf | Bis zu 10 | Mehrere | 1–4 |
| API-Schema | OpenAI-Bilder (Drop-in) | Google Gemini API | Google Gemini API |
| Offizieller Listenpreis (1024px, hoch) | $0.21 | $0.12 | $0.06–$0.12 |
Gleiches Modell. Ein Bruchteil der Kosten.
Wir kaufen OpenAI-Kapazität in großen Mengen vorab und geben den Mengenrabatt über Credit-Pakete weiter. Damit kostet gpt-image-2 auf Ihrem Konto nur $0,035–$0,056 pro Bild – dasselbe OpenAI-Modell, ~75 % unter dem direkten Listenpreis und günstiger als jede Nano-Banana-Stufe. Nutzen Sie es als Standard, nicht nur für Hero-Assets.
Öffentliche APIs, keine Platzhalter.
Die folgenden Karten spiegeln nun die Dokumente wider: echte öffentliche Endpunkte, echte Modell-IDs und die Bild- und Video-APIs, die tatsächlich zuerst aufgerufen werden – GPT Image 2, die drei Nano Banana-Stufen, Veo 3.1 und Sora 2.
GPT Image 2 API
Our primary OpenAI image endpoint. Use `gpt-image-2` on `POST /api/ai/image/generate` for text-to-image or image-to-image with the same model ID and a flat 3-credit call.
Nano-Bananen-API
The fastest Nano Banana tier. Call `POST /api/ai/image/generate` with `google/nano-banana` for lightweight text-to-image or image-to-image jobs at a flat 3 credits.
Nano Banana 2 API
Die Flaggschiff-Bildebene von Google in diesem Stapel. Gleicher öffentlicher Bildendpunkt, Modell-ID `nano-banana-2`, mit 1K-/2K-/4K-Ausgabeebenen und bis zu 14 Referenzbildern.
Nano Banana Pro-API
Die teurere Nano-Bananen-Variante mit höherer Wiedergabetreue. Verwenden Sie `nano-banana-pro` auf demselben Bildendpunkt, wenn Sie eine 2K-/4K-Ausgabe und eine stärkere Premium-Generierung benötigen.
Veo 3.1 Video API
Flagship Google video generation through `POST /api/ai/video/generate`. Public models include `veo3`, `veo3_fast`, and `veo3_lite`, with both text-to-video and image-to-video support.
Sora 2 Video API
OpenAI-Videogenerierung auf dem öffentlichen Videoendpunkt. Unterstützt `sora-2-text-to-video`, `sora-2-pro-text-to-video` und `sora-2-image-to-video` für die bekanntesten OpenAI-Video-Einstiegspunkte.
Was macht gpt-image-2 anders.
Vier Schichten gegenüber der vorherigen Generation – die Gründe, warum Produktionsteams aufgehört haben, sich mit verstümmeltem Text, abweichenden Zeichen und ignorierten Eingabeaufforderungen herumzuschlagen.

Pro Bild. Keine Überraschungen.
Zahlen Sie nur für die Bilder, die Sie generieren. Beginnen Sie mit 5 kostenlosen Credits bei der Anmeldung – keine Karte erforderlich – und skalieren Sie dann mit dem Pauschalpreis pro Bild für gpt-image-2.
Lite
250 credits≈ 250 GPT-Image-2-Bilder
Einsteiger-API für Indie-Entwickler
- 250 Credits
- Bildgenerierungs-API
- 3 parallele Anfragen
- E-Mail-Support
- Videogenerierungs-API
- Kommerzielle Lizenz
Pro
1,000 credits≈ 1,000 GPT-Image-2-Bilder
Skalierbare API für produktive Workloads
- 1,000–8,000 Credits
- Bild- & Video-API
- 10 parallele Anfragen
- Prioritätswarteschlange — 2× schneller
- Kommerzielle Lizenz
Geschäft
16,000 credits≈ 16,000 GPT-Image-2-Bilder
High-Volume-API für Teams und Agenturen
- 16,000 Credits
- Alle Modelle + Early Access
- 50 parallele Anfragen
- Dedizierte Warteschlange — 3× schneller
- Team-Sitze + Nutzungs-Dashboard
- Priority-Support & SLA
Oder starten Sie kostenlos
Kostenlos
50 credits≈ 50 GPT-Image-2-Bilder
Starten Sie mit KI-Bildgenerierung
- 5 Credits pro Tag (Anmeldung erforderlich)
- Standardqualität
- Community-Support
- Basis-KI-Modelle
- HD & 4K Auflösung
- Prioritätswarteschlange
Antworten
Häufige Fragen, die Teams stellen, bevor sie GPT Image 2 in ihren Stack integrieren.
Brauchen Sie noch Hilfe? Sprich mit einem Menschen
GPT Image 2 (Modell-ID gpt-image-2) ist das native Bildmodell der zweiten Generation von OpenAI, das am 21. April 2026 veröffentlicht wurde. Es folgt GPT Image 1.5 mit drei wesentlichen Änderungen: mehrsprachige Textwiedergabe im Bild mit einer Lesbarkeit von über 95 %, Argumentation, die mehrschichtige Eingabeaufforderungen interpretiert, und native 2K-Auflösung mit optionaler 4K-Hochskalierung. Wir stellen das Modell über eine HTTPS-API bereit, die Text-zu-Bild, Bearbeitung in natürlicher Sprache, Variationen, Stilübertragung, 4K-Upscale und Multi-Referenz-Mischung abdeckt.
Drei Orte. (1) Text in Bildern: 1,5 Treffer ~70 % nur bei lateinischen Schriften; gpt-image-2 erreicht 95 %+ auf Englisch, Chinesisch, Japanisch, Koreanisch und Arabisch. (2) Sofortige Wiedergabetreue: 1,5 beginnt mit dem Weglassen von Elementen nach sechs oder sieben; gpt-image-2 enthält dank der Argumentationsintegration Szenen mit fünfzehn Elementen. (3) Auflösung: natives 2K (im Vergleich zu 1K), mit optionaler zerstörungsfreier 4K-Hochskalierung. Aus Gründen der Abwärtskompatibilität wird DALL-E 3 weiterhin ausgeliefert, gpt-image-2 ist jedoch das Modell, auf dem man aufbauen kann.
Zwei Orte, die Sie vor dem Versand kennen sollten. Die Reproduktion von Markenlogos ist unzuverlässig – für exakte Vektormarkierungen setzen Sie diese nach der Generierung in Photoshop oder Figma zusammen. Und die Erzeugung ist langsamer als bei leichten Modellen wie FLUX, typischerweise 30–60 Sekunden pro Bild. Für Produktionspipelines ist dies ein fairer Tausch für die schnelle Wiedergabetreue, aber nicht die richtige Wahl für sofortige interaktive Benutzeroberflächen.
Ja. Neue Konten erhalten bei der Anmeldung 5 kostenlose Bild-Credits – keine Karte erforderlich. Tägliche Gratisguthaben werden wochentags aktualisiert, sodass Sie durch Prototyping weiterbauen können.
Ja. Jede kostenpflichtige Stufe beinhaltet eine gebührenfreie kommerzielle Lizenz für Werbung, E-Commerce, redaktionelle, gedruckte und abgeleitete Werke. Sie besitzen die vollen Rechte an Ihren Ausgaben; wir behalten keine.
Jeder HTTP-Client funktioniert. Das Anforderungsschema spiegelt die Bilder-API von OpenAI wider, sodass vorhandene OpenAI-SDKs (TypeScript, Python, Go, Swift) die Basis-URL umleiten und weiter ausführen können. Innerhalb von Bildern stellt gpt-image-2 zuverlässig Englisch, Chinesisch, Japanisch, Koreanisch, Arabisch und die meisten anderen wichtigen Skripte dar.
Brauchen Sie noch Hilfe? Sprich mit einem Menschen
Von prompt bis Produktion bis zum Ende des Tages.
Ein Curl-Aufruf, ein Webhook, dann lebt gpt-image-2 in Ihrem Produkt. Das Anforderungsschema spiegelt die Bilder-API von OpenAI wider – die meisten vorhandenen SDKs benötigen lediglich eine Änderung der Basis-URL, um mit der Generierung zu beginnen.
