Alibaba heeft zojuist officieel zijn nieuwste redeneermodel aangekondigd, en het lijkt erop dat DeepSeek en OpenAI reden tot zorg hebben – als alle “hype” rond Alibaba waar is. Dit model is open source, wat betekent dat iedereen er gratis toegang toe heeft en het kan uitproberen.
Het nieuwe AI-model van Alibaba heeft de naam QwQ-32b (Quan-with-Questions) en draait op aanzienlijk minder parameters dan bijna alle andere belangrijke huidige taalmodellen. Hierdoor zijn er minder bronnen nodig. Alibaba beweert dat QwQ-32b op hetzelfde niveau presteert als DeepSeek of OpenAI's o1-mini.
Het DeepSeek-R1-model voor grote talen (LLM) zorgde begin februari voor ophef toen het werd gelanceerd. Het vormde een uitdaging voor de gouden standaard van ChatGPT, maar de operationele kosten waren veel lager. Met de QwQ-32b lijkt het erop dat Alibaba deze grens nog verder wil verleggen.
Technisch gezien heeft DeepSeek-R1 671 miljard parameters nodig om te kunnen draaien, waarvan 37 miljard parameters zijn ingeschakeld. Ondertussen heeft Alibaba's QwQ-32b slechts 32 miljard parameters nodig. Voor velen lijken deze getallen misschien abstract, maar ze maken een enorm verschil in computerkracht: terwijl DeepSeek-R1 1600 GB VRAM nodig had om te draaien, heeft QwQ-32b slechts 24 GB VRAM nodig. In de meeste gevallen heb je hiervoor een grafische kaart nodig, zoals de Nvidia H100 of een gelijkwaardig model, maar zelfs de gamevriendelijke RTX 4090 heeft 24 GB VRAM. De nieuwste RTX 5090 verhoogt dit aantal naar 32 GB.
Er wordt zelfs beweerd dat QwQ-32B, zelfs met slechts 32 miljard parameters, nog steeds dezelfde of betere prestaties levert dan R1 op het gebied van wiskunde, programmeren en algemene probleemoplossing. Alibaba zei ook dat de QwQ-32B beter presteert dan de o1-mini van OpenAI, die is gebouwd met 100 miljard parameters. QwQ-32B is beschikbaar op Hugging Face, 's werelds grootste open source AI-modelcommunity.

Alibaba's QwQ-32b is beschikbaar onder de Apache 2.0-licentie, wat betekent dat bedrijven en onderzoekers het vrij kunnen gebruiken. En nog belangrijker: we kunnen het uitproberen via Alibaba's Qwen Chat. Net als DeepSeek kent QwQ-32b enkele beperkingen wat betreft de onderwerplimieten. Wanneer er bijvoorbeeld naar politieke kwesties wordt gevraagd, geeft Qwen Chat de melding dat dit een ongepast onderwerp is. Maar er zijn ook een paar voordelen die direct opvallen.
De QwQ-32b lijkt behoorlijk gedetailleerde antwoorden te geven, zelfs op snelle en eenvoudige vragen. Dat kan goed zijn, maar het is op de een of andere manier ook behoorlijk vervelend, omdat het een hoop onnodige informatie oplevert waar je niet om hebt gevraagd. Een voordeel is dat QwQ-32b het volledige redeneerproces kan weergeven, vergelijkbaar met de Deep Thinking-functie van ChatGPT, maar dan met minder diepgang.
Of de claims van Alibaba werkelijkheid worden, is nog maar de vraag, maar het lijkt erop dat ChatGPT en DeepSeek er een waardige nieuwe concurrent bij hebben.