De AI-Oorlog is begonnen. Wat doe jij?
Wat er precies gebeurde...
Anthropic had een contract van 200 miljoen dollar met de Amerikaanse overheid. Claude was het enige AI-model dat draaide in geclassificeerde militaire systemen en werd zelfs ingezet tijdens de operatie die leidde tot de arrestatie van Nicolas Maduro.
Maar de Amerikaanse overheid wilde meer. Ze eisten "volledige, onbeperkte toegang voor alle wettige doeleinden" zonder dat Anthropic het recht had om individuele toepassingen te weigeren. Anthorpic was daar niet helemaal mee eens. Ze wilden twee garanties voordat zij over zoiets wilde nadenken: geen inzet voor massale binnenlandse surveillance, geen autonome wapens zonder menselijke controle. De deal ging uiteindelijk niet door.
Wat daarna gebeurde was ongekend.
Hegsetih bestempelde Anthropic offcieel als een "Supply-Chain Risk to National Security". Dit wordt vaak gebruikt bij vijandige buitenlandse bedrijven. Trump gaf vervolgens alle federale instanties de opdracht om binnen zes maanden te stoppen met het gebruik van Anthropic.
Nog geen uur na de aankondiging tegen Anthropic maakte OpenAI een deal met de Amerikaanse overheid bekend. CEO Sam Altman claimde dat zijn bedrijf dezelfde "rode lijnen" hanteert als Anthropic (geen surveillance, geen autonome wapens) maar dat de Amerikaanse overheid deze principes simpelweg in het contract heeft opgenomen. Tegelijkertijd kondigde Amazon een investering van 50 miljard dollar in OpenAI aan.
Dit is zo raar
Terwijl Anthropic de confrontatie aanging en wegliep met niks, sloot OpenAI een deal die althans op papier dezelfde beschermingen biedt.
Anthropic heeft inmiddels aangekondigd juridisch aan te vechten. Of dat succesvol zal zijn, is onzeker.
Het einde van "veiligheid eerst"
Terwijl dit alles speelt, past Anthropic ook intern hun beleid aan. Hun "responsible scaling policy" (het kader dat bepaalt wanneer de ontwikkeling van een model gepauseerd moet worden) is versoepeld. Ze kunnen zich namelijk niet meer veroorloven te pauzeren als een concurrent al een vergelijkbaar model op de markt heeft.
Anthropic werd opgericht door ex-OpenAI modewerkers die vonden dat veiligheid op de eerste plaats moest komen. Nu dwingt de commerciele situatie en geopolitieke realiteit hen tot dezelfde race waar zij niet aan mee wilde doen.
Wat dit voor jou betekent
Als ondernemer en gebruiker van AI-tools sta je middenin een verschuiving. De AI die je dagelijks gebruikt of dat nu Claude, ChatGPT of iets anders is, is niet neutraal. Elke tool heeft een eigenaar, een businessmodel, en nu ook een politieke positie.
De keuze welk model je inzet, wie je vertrouwt met je data, welk bedrijf je ondersteunt met je abonnement dat zijn geen puur technische keuzes meer. Het zijn politieke keuzes.
De belangrijke vraag is dus: welke AI past bij jouw waarden, jouw klanten en de wereld die jij wilt bouwen?
Asmat
© AIZ Business Coaching - kvk 95732853 - btw id NL005171925B41 - Algemene Voorwaarden - Privacyverklaring