Meta bouwt vier generaties eigen AI-chips om Nvidia-afhankelijkheid te doorbreken
Meta werkt aan vier generaties MTIA-chips voor AI-training en inferentie, uitrollen tot 2027. Het bedrijf volgt Google, Amazon en Microsoft in een industriebrede omschakeling naar eigen silicium, gedreven door recordprijzen voor geheugen en tekorten aan Nvidia-GPU's.

De AI-chipmarkt zit in een structurele crisis
De vraag naar AI-rekenkracht overtreft al bijna twee jaar het aanbod van geavanceerde chips, en de kloof wordt groter in plaats van kleiner. DRAM-geheugenprijzen zijn in 2025 en vroeg 2026 met 171 procent gestegen. De nieuwste Nvidia Blackwell-architectuur is uitverkocht tot diep in 2027. Bedrijven die grootschalig AI draaien, staan voor een simpel maar pijnlijk probleem: de chips die ze nodig hebben, zijn er simpelweg niet of nauwelijks beschikbaar, en als ze er al zijn, zijn de kosten explosief gestegen.
Meta kiest voor eigen silicium: vier MTIA-generaties
Meta Platforms gaf bekendheid aan een ambitieus chipplan: het bedrijf ontwikkelt vier opeenvolgende generaties van zijn Meta Training and Inference Accelerator, afgekort MTIA. De uitrol is gepland tot 2027. De MTIA-chips zijn specifiek ontworpen voor de twee meest rekenintensieve AI-taken: het trainen van grote modellen op datasets en het draaien van die modellen in productie, de zogeheten inferentie.
De motivatie is strategisch en economisch tegelijk. AI-modellen groeien exponentieel in omvang: de parametertellingen stijgen met elke generatie met een factor tien of meer. Zonder gespecialiseerde hardware worden de kosten en het energieverbruik van het draaien van deze modellen onhoudbaar voor bedrijven die ze op miljardenschaal inzetten, zoals Meta met zijn platforms Instagram, Facebook en WhatsApp.
Google, Amazon en Microsoft gingen Meta voor
Meta is niet de eerste hyperscaler die de stap naar eigen chips zet. Google ontwikkelt al jaren zijn Tensor Processing Units (TPU), die specifiek zijn geoptimaliseerd voor TensorFlow- en JAX-workloads en worden ingezet in Google Cloud. Amazon bouwt Trainium-chips voor training en Inferentia-chips voor inferentie op AWS. Microsoft werkt aan eigen AI-versnellers voor Azure. De vierde grote speler, Apple, bouwt al langer eigen silicium voor zijn consumentenapparaten en breidt dit uit naar datacentertoepassingen.
De gemeenschappelijke drijfveer is onafhankelijkheid. Alle grote techbedrijven zijn in de voorgaande jaren sterk afhankelijk geworden van Nvidia, dat met zijn CUDA-softwareplatform een bijna onneembare positie heeft opgebouwd in de AI-chipmarkt. Door eigen chips te bouwen proberen de hyperscalers die afhankelijkheid te verminderen, de totale eigendomskosten te drukken en hun infrastructuur precies af te stemmen op hun eigen AI-architecturen.
De gevolgen voor Nvidia en de markt
Het zou te vroeg zijn om Nvidia's dominantie af te schrijven. De CUDA-ecosysteem is diep verankerd in de AI-onderzoekswereld en in de toolchains van duizenden bedrijven. Eigen chips van de hyperscalers zijn vooralsnog aanvullend op Nvidia-hardware, niet volledig vervangers. Toch is de richting duidelijk: de grote techbedrijven willen minder, niet meer afhankelijk worden van een enkele leverancier voor hun meest kritieke infrastructuur.
Voor Europese bedrijven die AI in hun processen integreren, heeft de chipschaarste directe gevolgen. De wachttijden voor cloudcapaciteit bij AWS, Azure en Google Cloud zijn gestegen. De kosten per AI-rekenuur zijn hoger dan een jaar geleden. Europese AI-startups die afhankelijk zijn van cloudinfrastructuur, merken dat hun berekeningsbudgetten sneller opraken. De Europese Commissie heeft de chipkwestie erkend als een strategisch risico en bespreekt aanvullende steun voor eigen Europese chipproductiecapaciteit als onderdeel van de Chips Act.
Eigen chips als langetermijnstrategie
De verschuiving naar eigen silicium is een langetermijninvestering die pas na meerdere jaren rendement oplevert. Het ontwerpen, fabriceren en integreren van een compleet chipecosysteem kost minstens vijf jaar en meerdere miljarden euro's aan ontwikkelkosten. Nvidia bouwde zijn voorsprong ook in meer dan tien jaar op. Dat de grote techbedrijven desondanks die investering doen, zegt alles over hoe fundamenteel ze AI-rekenkracht beschouwen: niet als een inkooppost, maar als een kerncompetentie die ze in eigen hand willen houden.
Bronnen
Reacties
Nog geen reacties. Wees de eerste!
Laat een reactie achter
Reacties worden gemodereerd voor publicatie. Uw e-mailadres wordt niet gepubliceerd.