Donderdag 9 april 2026
SlimmeKrant
Technologie

NVIDIA GTC dag 3: Jensen Huang opent debat over open versus gesloten AI-modellen

Op de derde dag van de NVIDIA GTC 2026-conferentie in San Jose modereert CEO Jensen Huang een panelgesprek over de opmars van open AI-modellen. Samen met de oprichter van LangChain en leiders van A16Z, AI2 en Cursor debatteert hij over de vraag waar open-source frontier-modellen staan ten opzichte van gesloten systemen van OpenAI, Google en Anthropic.

NVIDIA GTC dag 3: Jensen Huang opent debat over open versus gesloten AI-modellen

Open modellen winnen terrein op de frontier

Op de derde dag van NVIDIA's GTC 2026-conferentie in San Jose staat een van de meest strategisch geladen debatten in de AI-wereld op het programma. Jensen Huang, de CEO van NVIDIA, zit woensdag om 12.30 uur lokale tijd aan het hoofd van een panelgesprek over de opkomst van open AI-modellen. Zijn gesprekspartners zijn Harrison Chase, medeoprichter en CEO van LangChain, en vertegenwoordigers van venture capital-firma A16Z, het AI-onderzoeksinstituut AI2, de codeereassistent Cursor en het pas opgerichte Thinking Machines Lab. Het debat is openbaar en live te volgen vanuit de Civic Center-hal van het conferentiecentrum.

De centrale vraag is waar open-source frontier-modellen staan in de strijd met gesloten systemen. In 2025 veranderde het landschap drastisch. Meta's Llama 3, het Franse Mistral en het Chinese DeepSeek lieten zien dat open modellen voor een groeiend scala aan taken vergelijkbare resultaten boeken als de gesloten topmodellen van OpenAI, Google en Anthropic. Voor bedrijven en ontwikkelaars die hun AI-kosten willen controleren en niet afhankelijk willen zijn van een externe API, zijn open modellen aantrekkelijk geworden.

Groq 3 LPX: inferentiechip die het speelveld verandert

Een concrete aankondiging op dag 3 is de integratie van Groq's 3 LPX-inferentieprocessor in het NVIDIA-platform. Tot nu toe was NVIDIA's platform sterk gericht op training van AI-modellen. Met de Groq 3 LPX voegt NVIDIA voor het eerst gespecialiseerde inferentiehardware toe: chips die zijn geoptimaliseerd voor het snel en goedkoop uitvoeren van al getrainde modellen. Inferentie is de stap waarbij een AI-model daadwerkelijk wordt ingezet door gebruikers, en daarmee de meest kostenintensieve fase voor bedrijven die AI op grote schaal aanbieden.

De Groq 3 LPX kan taalmodellen tot twintig keer sneller laten "denken" dan standaard GPU's bij hetzelfde stroomverbruik. Dat is relevant voor toepassingen waarbij responstijden van milliseconden de dienstverlening bepalen, zoals klantenservice, real-time vertaling of medische diagnose-assistenten. Door Groq's technologie in te lijven biedt NVIDIA nu een volledig spectrum: van trainingshardware tot snelle inferentieoplossingen onder een dak.

LangChain en de enterprise-markt

Harrison Chase van LangChain speelt een bijzondere rol op dit panel. LangChain is het meest gebruikte raamwerk voor het bouwen van AI-agents en applicaties die meerdere AI-modellen combineren. Zijn aanwezigheid bij het NVIDIA-panel onderstreept een samenwerking die eerder deze week al werd aangekondigd: de integratie van NVIDIA's Agent Toolkit in de LangChain-bibliotheek. Daarmee kunnen developers die LangChain gebruiken nu ook NVIDIA's agent-infrastructuur inzetten voor het bouwen van geavanceerde enterprise AI-systemen.

Voor het mkb en de enterprise-markt is het open-gesloten debat niet alleen academisch. Bedrijven die gesloten modellen via een API gebruiken, betalen per verwerkt token en zijn afhankelijk van de prijsstelling van de aanbieder. Wie overschakelt op een open model dat lokaal of op eigen cloud-infrastructuur draait, heeft eenmalig hogere kosten voor hardware en implementatie, maar lagere lopende kosten. NVIDIA's positie in dit debat is prikkelend: het bedrijf verkoopt de hardware waarop open modellen draaien en heeft er commercieel belang bij dat open modellen populair worden.

Wat betekent dit voor Nederlandse bedrijven?

Nederland loopt qua AI-adoptie achter op het EU-gemiddelde, zo blijkt uit recent CBS-onderzoek. Slechts 14 procent van de kleinste bedrijven gebruikt AI. Een van de redenen is de afhankelijkheid van dure API-contracten met grote Amerikaanse aanbieders. Open modellen verlagen de drempel: een eenmanszaak of een MKB-bedrijf kan in principe een Llama of Mistral-model draaien op relatief bescheiden hardware, zonder maandelijkse API-rekeningen.

Tegelijk zijn er risico's. Open modellen vereisen meer technische kennis om veilig in te zetten. Zonder de privacywaarborgen die grote aanbieders bieden, moeten bedrijven zelf zorgen voor data-isolatie en compliance met de AVG. De integratie van NVIDIA's Agent Toolkit in LangChain is juist bedoeld om die drempel te verlagen: standaard beveiligings- en governanceprotocols zijn vooraf ingebouwd, zodat ook kleinere teams ze kunnen gebruiken. GTC 2026 loopt nog door tot en met 19 maart, met meer sessies en aankondigingen verwacht op de slotdag.

Bronnen

Reacties

Nog geen reacties. Wees de eerste!

Laat een reactie achter

Reacties worden gemodereerd voor publicatie. Uw e-mailadres wordt niet gepubliceerd.