Laatste nieuws
wo. jan 14th, 2026

Qwen: Het AI-Model dat GPT-4 en Llama Uitdaagt

Door Redaktie dec 29, 2025
Leestijd: 3 minuten

Qwen

Het AI-model Qwen (Tongyi Qianwen), ontwikkeld door de Chinese techreus Alibaba, heeft zich in korte tijd gepositioneerd als een van de meest geduchte concurrenten voor modellen zoals GPT-4 en Llama. Wat Qwen uniek maakt, is niet één enkele functie, maar een combinatie van technische openheid, extreme veelzijdigheid en superieure prestaties in specifieke domeinen.

1. Uitzonderlijke Prestaties in Wiskunde en Programmeren

Qwen staat erom bekend dat het modellen van Meta (Llama) en soms zelfs OpenAI verslaat op het gebied van exacte wetenschappen, met name in de Qwen2.5-Math en Qwen3-series.

Wiskunde

Het Qwen2.5-Math-72B-Instruct model scoort extreem hoog op gerenommeerde benchmarks:

  • MATH benchmark: 83.6 met Chain-of-Thought (CoT) en 85.3 met Tool-Integrated Reasoning (TIR) voor het 7B-model
  • 92.9 score op MATH met RM@8 voor het 72B-model
  • GSM8K: Significant hogere scores dan voorgaande versies

Het model overtreft zelfs gesloten modellen zoals GPT-4o en Gemini Math-Specialized 1.5 Pro. Op de extreme moeilijke AIME 2024 benchmark (waar GPT-4 Turbo en Claude 3 Opus slechts 1-2 van de 30 problemen oplossen), lost Qwen2.5-Math-72B-Instruct 9 problemen op in standaardmodus en 12 met TIR. Bron: Qwen2.5-Math Technical Report

Programmeren

Met gespecialiseerde varianten zoals Qwen3-Coder is het een van de beste open-source modellen voor het schrijven en debuggen van complexe code:

  • 69.6% op SWE-Bench Verified – hiermee overtreft het zowel Claude als GPT-4
  • HumanEval: ~70-72% score
  • LiveCodeBench: 70.7 score met een Elo-rating van 2056

Bron: Qwen AI Review 2025

2. “Thinking” Modellen en Geavanceerd Redeneren

Een van de meest unieke recente ontwikkelingen is de introductie van hybride redeneer-modi in Qwen3. Het model ondersteunt twee werkwijzen:

Thinking Mode: Het model neemt tijd om stap voor stap te redeneren voordat het een antwoord geeft, ideaal voor complexe problemen die diepere analyse vereisen.

Non-Thinking Mode: Snelle, directe antwoorden voor eenvoudigere vragen waar snelheid belangrijker is dan diepgang.

Vergelijkbaar met OpenAI’s ‘o1’-serie, gebruikt Qwen een interne Chain-of-Thought om complexe logische puzzels methodisch op te lossen. Gebruikers kunnen zelf bepalen hoeveel “denkbudget” het model krijgt voor elke taak, wat resulteert in een optimale balans tussen kosten en kwaliteit. Bron: Qwen3 Blog

3. Multilinguale Kracht (Focus op Aziatische Talen)

Terwijl veel westerse modellen (zoals die van Google of Meta) een sterke focus hebben op het Engels, is Qwen getraind op een enorme variëteit aan talen:

  • 119 talen en dialecten worden ondersteund in Qwen3 (upgrade van 29 talen in Qwen2.5)
  • Het model blinkt vooral uit in de balans tussen Chinees en Engels
  • De tokenizer is zeer efficiënt voor CJK-talen (Chinees, Japans, Koreaans), wat resulteert in ongeveer 2x hogere efficiëntie voor Chinese tekst vergeleken met Llama

Qwen3 gebruikt 40% minder tokens bij redeneren in het Chinees vergeleken met Engels voor dezelfde nauwkeurigheid – dit efficiëntievoordeel schaalt van 7% bij eenvoudige problemen tot 35% bij de moeilijkste vraagstukken. [Bronnen: Qwen3 Blog, Qwen Architecture Analysis]

4. Multimodale Innovaties (Beeld & Video)

Qwen is niet alleen een tekstmodel. De Qwen3-VL (Vision-Language) varianten zijn uniek omdat ze:

  • Documenten en grafieken extreem nauwkeurig kunnen uitlezen met geavanceerde OCR-capaciteiten in 32 talen (upgrade van 19)
  • Video’s kunnen begrijpen en analyseren, inclusief long-form video content
  • Robuust werken onder uitdagende omstandigheden zoals slecht licht, vervaging en kanteling
  • Verbeterde prestaties bij zeldzame karakters, oude tekens en jargon

Het model behaalt state-of-the-art resultaten op benchmarks voor beeldherkenning, objectdetectie en video-begrip. [Bronnen: Qwen3-VL GitHub, Qwen AI Blog]

5. Open-Source Filosofie met Enterprise-Schaal

In tegenstelling tot de “gesloten” modellen van OpenAI of Anthropic, stelt Alibaba de gewichten van de meeste Qwen-modellen beschikbaar onder de Apache 2.0 licentie.

Schaalbaarheid

Er zijn modellen beschikbaar van extreem klein tot gigantisch:

  • Qwen3-0.6B: Voor smartphones en edge devices
  • Qwen3-1.7B, 4B, 8B, 14B, 32B: Dense modellen voor verschillende toepassingen
  • Qwen3-30B-A3B: MoE-model met 30B totale parameters en 3B actieve parameters
  • Qwen3-235B-A22B: Flagship MoE-model met 235B totale parameters en 22B actieve parameters

De kleinere modellen bieden indrukwekkende prestaties – bijvoorbeeld, Qwen3-4B kan rivaliseren met Qwen2.5-72B-Instruct, terwijl Qwen3-30B-A3B QwQ-32B overtreft met 10x minder geactiveerde parameters.

Training-schaal

  • Qwen2.5 werd getraind op 18 trillion tokens
  • Qwen3 gebruikt bijna 36 trillion tokens over 119 talen en dialecten
  • De pretraining-dataset omvat web-data, PDF-documenten, synthetische data gegenereerd door eerdere Qwen-modellen

Toegankelijkheid

Bedrijven kunnen Qwen lokaal draaien op hun eigen servers zonder data naar een externe cloud te sturen, wat cruciaal is voor privacy en GDPR-compliance. Het model is beschikbaar op platforms zoals Hugging Face, ModelScope, en Kaggle, en ondersteunt deployment-frameworks zoals SGLang, vLLM, Ollama, en llama.cpp.

Bron: Qwen3 Technical Report

Samenvattend

Qwen is uniek omdat het de kloof dicht tussen “open source” en de allerhoogste prestaties van “closed source” modellen. Het model onderscheidt zich met:

Wiskundige excellentie: Overtreft GPT-4 en Gemini op MATH en AIME benchmarks
Programmeer-expertise: Top prestaties op SWE-Bench en HumanEval
Hybride redeneren: Flexibel schakelend tussen thinking en non-thinking modes
Multilinguale kracht: 119 talen met bijzondere efficiëntie voor Aziatische talen
Multimodale capaciteiten: Geavanceerde beeld-, video- en documentanalyse
Complete openheid: Van 0.6B tot 235B parameters, allemaal open-source

Met de release van Qwen3 heeft Alibaba bewezen dat open-source AI-modellen kunnen concurreren met en zelfs overtreffen de best gesloten modellen in de industrie.


Bronnen:


Laatste update: December 2025