Nieuws
Vijf techbedrijven sluiten overeenkomst voor veiligheidsonderzoek van AI-modellen
De Amerikaanse overheid heeft overeenkomsten gesloten met Google DeepMind, Microsoft en xAI om vroege versies van hun nieuwe AI-modellen te onderzoeken op veiligheid en nationale veiligheid voorafgaand aan de openbaarmaking. De Center for AI Standards and Innovation (CAISI), onderdeel van het ministerie van Handel, benadrukt dat dit onderzoek essentieel is voor het begrijpen van de mogelijkheden van nieuwe AI-modellen en het beschermen van de nationale veiligheid. De overeenkomsten richten zich op risico's rond cybersecurity, biologische veiligheid en chemische wapens. OpenAI en Anthropic sloten al twee jaar eerder vergelijkbare overeenkomsten aan met de Biden-administratie. De nieuwe overeenkomsten komen op het moment dat zorgen groeien over de potentie van de nieuwste AI-modellen, zoals Anthrropics Mythos, om gevaarlijk te zijn voor de openbare veiligheid.