Het is een wilde tijd. Aan de andere kant is het al decennia zo dat Amerikaanse bedrijven hoog van de toren blazen.
Het hele concept van goedkoop of gratis de markt betreden, iedereen overhalen en daarna de prijs laten exploderen, is al jaren de norm voor Amerikaans durfkapitaal.
De claim van Anthropic dat ze een AI-model dusdanig hard hebben getraind dat ze het niet vrij durven te geven, is op zichzelf niet eens zo interessant. Sterker nog, het past in een bekend patroon van “dit is te gevaarlijk om zomaar te releasen” dat we vaker zien in security en AI.
Goed om te weten is dat Anthropic een AI-bedrijf is dat zich positioneert als alternatief binnen de LLM-wereld. Niet zozeer een directe GPT-kloon, maar wel een speler met een andere focus en filosofie.
Ook goed om te weten is dat Anthropic betrokken is bij overheidsaanbestedingen in de VS, en dat de relatie tussen big tech en overheid zelden neutraal is.
De claim dat Anthropic met “Claude Mythos” een model heeft dat “te sterk is om te delen met de wereld” heeft een bijsmaak. Niet omdat het per se onwaar is, maar omdat het precies past in een wereld waar AI-capabilities steeds vaker op het snijvlak zitten van defensief en offensief gebruik.
Het echte punt is niet Anthropic zelf. Het punt is dat elke serieuze overheid bezig is met AI en cybercapaciteit. En ja, staten hebben al decennia interesse in het breken of omzeilen van encryptie en het vinden van zwaktes in systemen. De vraag is dus niet of dit soort technologie bestaat, maar wie er toegang toe heeft en onder welke voorwaarden.
Als een AI in staat is om structureel zwaktes in software te vinden of zelfs te exploiteren, dan wordt het een dual-use systeem in de puurste vorm. Dan ben je niet alleen bezig met “security research”, maar ook met iets dat direct offensief inzetbaar is. En precies daar ontstaat de spanning: deel je dat breed, of beperk je het tot een selecte groep partners?
Anthropic zou, in een ideale wereld, twee dingen moeten doen. Eén: helder maken wat hier feitelijk is en wat marketing of interpretatie is. Twee: als dit echt klopt, de bredere security-community in staat stellen om zich ertegen te wapenen.
De keuze om dit soort modellen alleen te delen met een kleine groep grote techbedrijven staat ze als commercieel bedrijf vrij. Maar het schuurt met het traditionele ethos van infosec, waar het idee juist is dat kennis uiteindelijk de verdediging sterker maakt.
Met meer dan twintig jaar ervaring in informatieveiligheid is het niet controversieel om te zeggen dat AI het vinden van kwetsbaarheden kan versnellen. Dat is geen nieuw idee. Infosec is zelfs één van de eerste domeinen geweest waar machine learning en automatisering serieus werden toegepast, lang voordat “LLMs” de aandacht kregen. Alleen ging dat om gerichte, taak-specifieke systemen, niet om algemene taalmodellen met brede redeneercapaciteit.
De hype rond LLM’s heeft dat deel van AI een beetje overschaduwd, terwijl juist daar vaak de praktische impact zit: systemen die zelfstandig patronen herkennen, varianten genereren en iteratief verbeteren in security-contexten.
Mijn punt blijft daarom vrij simpel. Niet dat Anthropic per se ongelijk heeft, maar dat dit soort claims te makkelijk in een geopolitieke of marketinglaag worden getrokken. En in die ruis verdwijnt de kern: we bouwen systemen die potentieel zowel verdediging als aanval versnellen, zonder dat er een duidelijk speelveld of toezicht is.
En dat is misschien wel het meest ongemakkelijke deel. Niet dat één bedrijf “een grote mond” heeft, maar dat een bedrijf dat het wél waar weet te maken sneller groeit dan de machtstructuren die het nog zouden moeten begrenzen.