När vi lade till stöd för gpt-oss hade Responses API ingen standard och vi reverse-engineerade protokollet genom att iterera och gissa baserat på beteendet. Vi är väldigt entusiastiska över Open Responses-specifikationen: rena primitiv, bättre verktyg, konsekvens för vinsten!
Idag tillkännager vi Open Responses: en öppen källkodsspecifikation för att bygga multi-leverantörs, interoperabla LLM-gränssnitt byggda ovanpå det ursprungliga OpenAI Responses-API:et.
✅ Multi-leverantör som standard
✅ Användbart för verkliga arbetsflöden
✅ Utbyggbar utan fragmentering
Bygg agentiska system utan att skriva om din stack för varje modell:
16 000 tokens per sekund! 🤯
Jag har ALDRIG sett så här många tokens i mitt liv!!
> Nvidia B200 från Prime
> Trinity Mini från Arcee (26B, MOE)
> betjänas av VLLM (0,13) med 8 tensorer parallellism
> pipeline för generering av medicinska SYNTH-dataset
> ~350 krav/s
> ~16 000 tps!!
FAN!
Grattis till @Alibaba_Qwen med lanseringen av Qwen-Image-2512! 🎉
Vi är glada att kunna tillkännage Day-0-stöd i vLLM-Omni. Du kan nu omedelbart leverera denna SOTA open source-bildmodell med vår optimerade pipeline-arkitektur.
Läs mer:
👇 Se den löpa nedan:
🎁 En nyårspresent från Qwen — Qwen-Image-2512 finns här.
🚀 Vår decemberuppgradering till Qwen-Image, precis lagom till det nya året.
✨ Vad är det senaste:
• Mer realistiska människor — dramatiskt minskad "AI-look", rikare ansiktsdetaljer
• Finare naturliga texturer — skarpare landskap, vatten, päls och material
• Starkare textrendering — bättre layout, högre noggrannhet i text–bild-komposition
🏆 Testat i 10 000+ blinda omgångar på AI Arena rankas Qwen-Image-2512 som den starkaste öppna bildmodellen, samtidigt som den förblir konkurrenskraftig med stängda system.
👉 Prova nu i Qwen Chat:
🤗 Kramande ansikte:
📦 ModelScope:
💻 GitHub:
📝 Blogg:
🤗 Demo av kramansikte:
📦 ModelScope-demo:
✨API:
🎆 Börja det nya året med bättre bilder.