Alibaba veröffentlicht die neue Generation des Basismodells Qianwen 3.5 und erreicht den Spitzenplatz bei den weltweit stärksten Open-Source-Großmodellen

Am 16. Februar, am Tag des chinesischen Neujahrs, hat Alibaba die neueste Generation des großen Modells Qwen3.5-Plus Open Source veröffentlicht, das in Leistung mit Gemini 3 Pro konkurriert und den Titel des stärksten Open-Source-Modells weltweit errungen hat.

Laut Berichten hat Qwen3.5 eine umfassende Revolution in der zugrunde liegenden Modellarchitektur vollzogen. Die Version Qwen3.5-Plus, die bei der Veröffentlichung insgesamt 397 Milliarden Parameter aufweist, aktiviert nur 17 Milliarden, was einen kleinen Vorteil gegenüber größeren Modellen darstellt. Die Leistung übertrifft das Qwen3-Max-Modell mit über einer Billion Parameter, während der Speicherverbrauch für die Bereitstellung um 60 % reduziert wurde. Die Inferenzgeschwindigkeit wurde erheblich gesteigert, mit einer maximalen Inferenzdurchsatzsteigerung um das 19-fache. Der API-Preis für Qwen3.5-Plus liegt bei nur 0,8 Yuan pro Million Tokens, das ist nur ein 18stel des Preises von Gemini 3 Pro.

Im Gegensatz zu den vorherigen Generationen der Qwen-Sprachmodelle hat Qwen3.5 einen Generationensprung vom reinen Textmodell zum nativen multimodalen Modell vollzogen. Während Qwen3 auf reinen Texttokens vortrainiert wurde, basiert Qwen3.5 auf einer Mischung aus visuellen und Text-Token und wurde deutlich um Daten in Chinesisch, Englisch, Mehrsprachigkeit, STEM-Fächern und logischem Schlussfolgern erweitert. Dadurch lernt das große Modell, die Weltkenntnisse und logisches Denken intensiver zu erfassen. Mit weniger als 40 % der Parameter erreicht es die Spitzenleistung des Qwen3-Max-Base-Modells mit über einer Billion Parametern und zeigt in Benchmarks für Inferenz, Programmierung und Agenten-KI herausragende Ergebnisse. Beispielsweise erzielte Qwen3.5 in der MMLU-Pro Wissens- und Schlussfolgerungsbewertung 87,8 Punkte, übertrifft GPT-5.2; im GPQA-Test für hochschulähnliche Aufgaben erreichte es 88,4 Punkte, höher als Claude 4.5; im Instruction-Following-Benchmark IFBench erzielte es 76,5 Punkte und stellte alle bisherigen Modelle in den Schatten; in allgemeinen Agenten-Bewertungen wie BFCL-V4 und Suchagenten-Benchmarks wie Browsecomp übertrifft Qwen3.5 ebenfalls Gemini 3 Pro und GPT-5.2.

Das native multimodale Training hat auch zu einem Sprung in den visuellen Fähigkeiten von Qwen3.5 geführt: In zahlreichen anerkannten Tests wie MathVison für multimodale Schlussfolgerung, VQA (RealWorldQA) für allgemeine visuelle Fragen, CC_OCR für Text- und Dokumentenerkennung, RefCOCO-avg für räumliche Intelligenz und MLVU für Videoverständnis erzielt Qwen3.5 Bestleistungen. Bei Aufgaben wie Fachwissen, Aufgabenplanung und physikalischer Raum-Logik übertrifft Qwen3.5 das spezialisierte Modell Qwen3-VL, mit deutlich verbesserten Fähigkeiten in räumlicher Lokalisierung und bildgestütztem Schlussfolgern, sowie präziserer Analyse. Im Videoverständnis unterstützt Qwen3.5 Eingaben von bis zu zwei Stunden (1 Million Tokens Kontext), ideal für die Analyse und Zusammenfassung langer Videos. Zudem integriert Qwen3.5 visuelles Verständnis und Programmierfähigkeiten nativen Ursprungs: Mit Bildsuch- und Generierungstools kann man Skizzen direkt in funktionierenden Frontend-Code umwandeln, Screenshots zur UI-Fehlerbehebung nutzen – so wird visuelles Programmieren zu einem echten Produktivitätswerkzeug.

Das native multimodale Training von Qwen3.5 wurde effizient auf Alibaba Cloud AI-Infrastruktur durchgeführt. Durch eine Reihe technischer Innovationen bei den Grundlagentechnologien liegt die Trainingsdurchsatzrate für Text-, Bild- und Videodaten bei nahezu 100 % im Vergleich zu rein textbasierten Basismodellen, was die Einstiegshürde für multimodale Modelle deutlich senkt. Durch den Einsatz ausgeklügelter FP8- und FP32-Genauigkeitsstrategien konnte bei der Skalierung auf Hunderttausende Milliarden Tokens der Speicherverbrauch um etwa 50 % reduziert werden, während die Trainingsgeschwindigkeit um 10 % gesteigert wurde, was die Kosten senkt und die Effizienz erhöht.

Qwen3.5 markiert auch einen Durchbruch vom Agenten-Framework zu praktischen Agenten-Anwendungen: Es kann eigenständig Smartphones und PCs steuern, um alltägliche Aufgaben effizient zu erledigen. Auf Mobilgeräten unterstützt es mehr Mainstream-Apps und Befehle, auf PCs komplexe Mehrschritt-Operationen wie plattformübergreifende Datenorganisation und Automatisierungsprozesse. Damit wird die Bedienung deutlich effizienter. Das Team hat zudem ein skalierbares, asynchrones Verstärkungslern-Framework für Agenten entwickelt, das End-to-End-Geschwindigkeiten um das 3- bis 5-fache ermöglicht und Plugin-basierte Agenten auf eine Millionstärke erweitern kann.

Berichtet wird, dass die Qwen3.5-Modelle bereits in die Qwen-App und die PC-Version integriert wurden. Entwickler können die neuen Modelle im Mofa-Community-Portal und auf HuggingFace herunterladen oder direkt über Alibaba Cloud Bailing API-Dienste nutzen. Alibaba plant, in Kürze weitere Modelle der Qwen3.5-Serie in verschiedenen Größen und Funktionen open source zu stellen. Das leistungsstärkere Flaggschiff Qwen3.5-Max wird ebenfalls bald veröffentlicht.

Original anzeigen
Diese Seite kann Inhalte Dritter enthalten, die ausschließlich zu Informationszwecken bereitgestellt werden (keine Zusicherungen oder Garantien), und sie sind nicht als Billigung der darin geäußerten Ansichten durch Gate oder als finanzielle bzw. fachliche Beratung zu verstehen. Weitere Informationen finden Sie im Haftungsausschluss.
  • Angebot
  • Kommentieren
  • Reposten
  • Teilen
Kommentieren
0/400
Keine Kommentare
  • Anheften

Handeln Sie jederzeit und überall mit Kryptowährungen
qrCode
Scannen, um die Gate App herunterzuladen
Community
Deutsch
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский язык
  • Français
  • Deutsch
  • Português (Portugal)
  • ภาษาไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)