Overslaan en naar de inhoud gaan

Wat je moet weten over de ruzie tussen de VS en Anthropic

Anthropic wil niet dat de Amerikaanse overheid het AI-model achter chatbot Claude gebruikt voor massale binnenlandse surveillance en volledig autonome wapens zonder dat daar betekenisvolle menselijke controle op wordt toegepast. De Amerikaanse defensieminister Pete Hegseth heeft daarop Anthropic aangemerkt als een veiligheidsrisico voor de toeleveringsketen. Anthropic stapt nu naar de rechter om dit besluit aan te vechten.

Twee vuisten raken elkaar
© Shutterstock

De aanleiding van het conflict tussen Anthropic en de Amerikaanse overheid is een contract uit juli 2025 ter waarde van ongeveer 200 miljoen dollar waarmee het Pentagon het taalmodel Claude inzet voor toepassingen voor nationale veiligheid. Twee maanden later beperkte Anthropic het gebruik van Claude door opsporingsdiensten, wat de eerste serieuze wrijving met Washington veroorzaakte. Op 3 januari 2026 werd Claude via Palantir ingezet bij een operatie tegen het regime van Maduro in Venezuela, waarbij volgens berichten tientallen mensen omkwamen. Sindsdien weigert Anthropic het gebruik van Claude goed te keuren voor dit soort toepassingen.

Het conflict escaleert

Hegseth eist sindsdien dat AI‑leveranciers ‘alle wettige militaire doeleinden’ toestaan en dat modellen niet ‘woke’ mogen zijn. Anthropic trekt juist twee rode lijnen: met Claude mag geen massale binnenlandse surveillance meer plaatsvinden en de AI mag geen volledig autonome dodelijke wapens aansturen zonder betekenisvolle menselijke controle. Op 16 februari dreigt het Pentagon Anthropic officieel als ‘supply chain risk’ aan te merken; een label dat normaal voor buitenlandse tegenstanders wordt gebruikt. Een week later vindt topoverleg plaats tussen Hegseth en Anthropic-ceo Dario Amodei, maar dat loopt op niets uit. Hegseth stelt Anthropic een ultimatum met als deadline 27 februari. President Trump kondigt vlak voor het verstrijken van de deadline aan dat alle federale agentschappen binnen zes maanden moeten stoppen met de samenwerking met Anthropic.

Afgelopen vrijdag volgde de officiële bekendmaking van het Pentagon dat Anthropic een veiligheidsrisico vormt. Anthropic mag volgens Hegseth nog maximaal 6 maanden diensten blijven leveren aan Defensie om over te stappen naar een andere leverancier.

Anthropic stelt dat deze maatregel ongekend is voor een Amerikaans bedrijf en waarschuwt voor een gevaarlijk precedent bij onderhandelingen met de overheid. Het bedrijf stapt naar de rechter voor een oordeel over de rechtmatigheid van deze beslissing, die de mogelijkheden om voor de overheid te werken ernstig inperkt. Overigens benadrukt Anthropic expliciet dat de druk vanuit het Pentagon niets verandert aan de weigering om beschermingsmaatregelen te verwijderen.

Viert Anthropic toch de teugels?

Toch heeft Anthropic de eigen ‘Responsible Scaling Policy’ aangepast en een eerdere belofte laten vallen om te stoppen met het trainen van krachtigere modellen zodra ze niet meer veilig te beheersen zijn. Het heeft geen zin om eenzijdige beloften te doen als de concurrentie maar voortraast, zei Jared Kaplan, Chief Science Officer afgelopen week in Time Magazine. Critici zien hierin dat door de druk van de markt Anthropic toch zwicht en tornt aan de oorspronkelijke missie om een ‘safety‑first’-AI-bedrijf te zijn. Intern leidt het bij Anthropic ook tot spanning. Vooraanstaande AI-veiligheidsonderzoekers zijn de afgelopen tijd opgestapt, waaronder Mrinank Sharma, die publiekelijk waarschuwde dat “de wereld in gevaar is” en suggereerde dat de waarden van het bedrijf naar de achtergrond zijn geraakt, meldt Forbes.

Ondertussen beschuldigde Sam Altman, ceo van concurrent OpenAI, Anthropic publiekelijk van misleidende claims in een Super Bowl-reclame. Anthropic suggereert daarin dat de modellen van concurrenten met lachwekkende, compleet verkeerde adviezen komen op een vraag. “Ik vraag me af waarom Anthropic gaat voor iets dat zo duidelijk oneerlijk is.” Hij zegt het nog belangrijker te vinden dat Anthropic wil controleren wat mensen doen met AI. “Anthropic blokkeert het gebruik van hun code door bedrijven die het management niet aanstaat. Daar vallen wij ook onder. Ze willen ook iets te zeggen hebben over het bedrijfsmodel van andere bedrijven.”

Anthropic verdedigt publieke waarden

De oprichters van Anthropic, Dario en Daniela Amodei, en een kleine groep gelijkgestemde collega-onderzoekers splitsten zich in 2021 af van OpenAI. Zij vertrokken na onenigheid over de koers van OpenAI en wilden een lab bouwen dat veiligheid en publieke verantwoordelijkheid expliciet centraal zou stellen. Het bedrijf kreeg daarbij steun van onder meer voormalig Google-topman Eric Schmidt en diverse andere investeerders. In de periode 2023–2025 stroomden grote strategische investeringen binnen van Google en Amazon, plus meerdere venture capital-rondes, waardoor de waardering in 2025 opliep tot ruim 60 miljard dollar. Via een intern Long‑Term Benefit Trust probeerde het bedrijf de governance zo in te richten dat de missie om op lange termijn veilige, mensgerichte AI te ontwikkelen, wordt beschermd tegen puur commerciële of politieke druk.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Melden als ongepast

Door u gemelde berichten worden door ons verwijderd indien ze niet voldoen aan onze gebruiksvoorwaarden.

Schrijvers van gemelde berichten zien niet wie de melding heeft gedaan.

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in