Anthropic, het bedrijf onder leiding van Dario Amodei, heeft onlangs een deal van 1,8 miljard dollar gesloten met Akamai Technologies om meer rekencapaciteit te verkrijgen voor zijn AI-modellen, met name voor het Claude-platform.
De overeenkomst, die zeven jaar geldig is, is het grootste contract dat ooit in de geschiedenis van Akamai is ondertekend en komt op een moment waarop de vraag naar AI-infrastructuur groeit in een tempo dat zelfs voor grote techbedrijven steeds moeilijker vol te houden is.
Achter de bovengenoemde operatie schuilt niet alleen de groei van Anthropic, maar ook een bredere verschuiving in de gehele cloudmarkt.
In de afgelopen maanden heeft de sector voor kunstmatige intelligentie namelijk een steeds duidelijker structureel probleem blootgelegd.
Namelijk dat het bouwen van geavanceerde AI-modellen enorme hoeveelheden rekenkracht, gespecialiseerde GPU's en gedistribueerde infrastructuren vereist die continue werklast kunnen ondersteunen.
Niet toevallig verklaarde Amodei tijdens de Code with Claude-conferentie in San Francisco dat Anthropic een groei van 80% zou zien in de geannualiseerde omzet en het gebruik van zijn diensten in het eerste kwartaal van 2026.
Een aanzienlijk deel van deze uitbreiding zou verband houden met het gebruik van Claude voor codering, automatisering en door AI ondersteunde softwareontwikkeling.
En juist deze groei dwingt AI-bedrijven om nieuwe bronnen van rekencapaciteit te zoeken, ver buiten de traditionele hyperscalers.
Anthropic beperkt zich namelijk niet tot de overeenkomst met Akamai: in de afgelopen maanden heeft het ook partnerschappen gesloten met Google Cloud, Amazon Web Services, CoreWeave en zelfs met Elon Musks SpaceX.
De boodschap die hieruit naar voren komt is dan ook heel duidelijk: de echte strijd in kunstmatige intelligentie gaat niet langer alleen over taalmodellen, maar over toegang tot de infrastructuren die deze mogelijk maken.
Aan de andere kant vertegenwoordigt de overeenkomst met Anthropic ook voor Akamai veel meer dan een eenvoudig commercieel partnerschap.
Historisch gezien was het bedrijf voornamelijk bekend om zijn content delivery- en cyberbeveiligingsdiensten, maar de explosie van kunstmatige intelligentie opent nieuwe strategische kansen.
Dankzij zijn wereldwijde netwerk van meer dan 4.000 aanwezigheidspunten verspreid over meer dan 130 landen beschikt Akamai over een gedecentraliseerde infrastructuur die goed kan worden aangepast aan de behoeften van moderne AI-workloads.
En dit is precies een van de meest interessante aspecten van de operatie. In de afgelopen jaren werd de cloudmarkt voornamelijk gedomineerd door een paar gecentraliseerde hyperscalers zoals AWS, Google Cloud en Microsoft Azure.
Kunstmatige intelligentie vergroot echter de druk op de beschikbare resources enorm en veel bedrijven zijn op zoek naar meer gedistribueerde en flexibele oplossingen.
In deze context lijkt Anthropic te hebben begrepen dat uitsluitend vertrouwen op de grote traditionele aanbieders op de lange termijn niet voldoende kan zijn.
Het is dan ook niet verwonderlijk dat beleggers enthousiast reageerden op het nieuws.
Na de aankondiging stegen de aandelen van Akamai met ongeveer 28%, een duidelijk teken van hoeveel de markt kunstmatige intelligentie ziet als een kans voor radicale transformatie voor veel techbedrijven.
Volgens schattingen van analisten zou het contract uiteindelijk ongeveer 6% van de jaarlijkse omzet van Akamai kunnen vertegenwoordigen zodra het volledig operationeel is, waarbij de eerste economische effecten worden verwacht tegen eind 2026.
Deze evolutie laat ook zien hoe de AI-sector de technologische waardeketen hervormt. Niet alleen de bedrijven die taalmodellen ontwikkelen profiteren hiervan, maar ook alle spelers die infrastructuur, energie, datacenters en connectiviteit kunnen leveren.
Het probleem is echter dat deze 'race' steeds duurder wordt. Het trainen en onderhouden van geavanceerde AI-modellen vereist continue investeringen van miljarden dollars, waardoor de sector steeds meer geconcentreerd raakt in de handen van een paar grote bedrijven met toegang tot enorm kapitaal.
De overeenkomst tussen Anthropic en Akamai onthult een realiteit die vaak wordt onderschat in het publieke debat over kunstmatige intelligentie: de belangrijkste beperking van moderne AI is niet langer alleen algoritmisch, maar infrastructureel.
In de afgelopen jaren heeft de sector zich voornamelijk gericht op de concurrentie tussen chatbots, taalmodellen en geavanceerde functies.
Vandaag de dag komt echter een tweede probleem naar voren, minder zichtbaar maar misschien nog belangrijker: dat van toegang tot rekencapaciteit. AI-bedrijven verbruiken namelijk enorme hoeveelheden energie, GPU's en databandwijdte.
Elke nieuwe generatie modellen vereist meer resources dan de vorige, waardoor een investeringsspiraal ontstaat die het risico loopt steeds meer alleen de groepen met grotere financiële middelen te begunstigen.
En Anthropic is niet het enige bedrijf in deze situatie. OpenAI, Google en Meta investeren ook miljarden om chips, datacenters en cloudinfrastructuren veilig te stellen die voldoende zijn om de groei van generatieve AI te ondersteunen.
Dit scenario roept ook kritische vragen op over de toekomst van de sector. Als kunstmatige intelligentie steeds meer afhankelijk wordt van gigantische infrastructuurinvesteringen, bestaat het risico dat de markt progressief minder open en meer gecentraliseerd wordt.
Bovendien zou de druk op computerresources ook gevolgen kunnen hebben voor energiekosten en milieuduurzaamheid.
De uitbreiding van AI vereist namelijk enorme hoeveelheden elektriciteit en geavanceerde koelsystemen, waardoor datacenters steeds belangrijkere strategische activa worden.

