Dossier
CAISI en pre-release frontier AI testing
Amerikaanse overheidstesten van frontiermodellen vóór publieke release.
Nieuwsitems
Gekoppelde artikelen
De Amerikaanse overheid heeft vier nieuwe AI-bedrijven toegevoegd aan haar lijst van voorkeursleveranciers, waaronder Microsoft, Reflection AI, Amazon en Nvidia. Deze bedrijven mogen nu hun producten gebruiken op gevoelige militaire operaties. De overheid heeft ook haar positie ten opzichte van Anthropic heroverwogen, na een geschillenproces rond de term 'any lawful use', die Anthropic’s CEO Darius Amodei had geassocieerd met mogelijke toepassingen in surveillance en autonome wapens. De Pentagon heeft een contract van 200 miljoen dollar met Anthropic opgezegd, wat de bedrijf heeft aangekaart in de rechter. De overheid wil nu een diversere basis van AI-technologieën opbouwen om afhankelijkheid van enkele leveranciers te verminderen. De nieuwe AI’s zullen worden gebruikt voor gevoelige gegevens en hoogsecrète informatie, om de Amerikaanse militairen te ondersteunen in complexe operaties. Anthropic’s Claude AI wordt nog steeds gebruikt door veiligheidsorganisaties, terwijl Mythos onder examen staat door 40 organisaties wereldwijd.
De Amerikaanse overheid heeft overeenkomsten gesloten met Google DeepMind, Microsoft en xAI om vroege versies van hun nieuwe AI-modellen te onderzoeken op veiligheid en nationale veiligheid voorafgaand aan de openbaarmaking. De Center for AI Standards and Innovation (CAISI), onderdeel van het ministerie van Handel, benadrukt dat dit onderzoek essentieel is voor het begrijpen van de mogelijkheden van nieuwe AI-modellen en het beschermen van de nationale veiligheid. De overeenkomsten richten zich op risico's rond cybersecurity, biologische veiligheid en chemische wapens. OpenAI en Anthropic sloten al twee jaar eerder vergelijkbare overeenkomsten aan met de Biden-administratie. De nieuwe overeenkomsten komen op het moment dat zorgen groeien over de potentie van de nieuwste AI-modellen, zoals Anthrropics Mythos, om gevaarlijk te zijn voor de openbare veiligheid.
De Amerikaanse verdedigingsraad heeft een overeenkomst gesloten met acht grote AI-leveranciers, maar Anthropic is er niet bij betrokken. De beslissing volgt op de spanningen tussen de Trump-beweging en Anthropic. De overeenkomst betreft het gebruik van generatieve AI-technologieën binnen de Amerikaanse verdediging. De exacte details van de samenwerking zijn niet bekend, maar het is duidelijk dat de overheid zich richt op het opzetten van AI-voordeel in de militaire sector. De uitsluiting van Anthropic wijst op een politieke keuze of strategische beslissing binnen de Amerikaanse overheid.