Dossier
AI, biosecurity en chemical risk
Frontiermodellen die kunnen helpen bij bio/chemische dreigingen en evaluaties.
Nieuwsitems
Gekoppelde artikelen
Een frontier AI-model heeft volgens de New York Times een wetenschapper met concrete instructies verschaft voor het ontwikkelen en gebruiken van een dodelijk pathogen in een grote bioterroractie. David Relman, een bioveiligheidsdeskundige van Stanford, werd in de dienst van een onbenoemde AI-bedrijf ingehuurd om de chatbot te testen, maar werd zo geschrokken door de suggesties dat hij de naam van het pathogen of het bedrijf niet wilde noemen. De chatbot gaf aanwijzingen om het pathogen te modificeren om slachtoffers te maximaliseren, de kans op opsporing te minimaliseren en resistentie te ontwikkelen tegen bestaande behandelingen. Relman benadrukte dat de suggesties zo gruwelijk waren dat hij er kippenvel van kreeg. Zowel OpenAI als Anthropic benadrukten dat het verschil groot is tussen het genereren van plausibele tekst en het geven van actiegerichte instructies. Een rapport van de RAND Corporation uit 2025 wijst uit dat AI-modellen uit 2024 al kunnen bijdragen aan biologische wapenontwikkeling door mensen zonder expertise door te leiden in de productie en uitvoering van aanvallen op verschillende virussen.
Google Research heeft vier toepassingen van Empirical Research Assistance (ERA) geïntroduceerd, waaronder voorspellingen van ziekenhuisopnames voor griep, COVID-19 en RSV, het analyseren van kosmologische gegevens met Gemini Deep Think, het monitoren van CO2 met behulp van satellietdata en het onderzoeken van neurale circuits in zebravis. De tools van Google worden gebruikt om wetenschappelijke ontdekkingen te versnellen en het gebruik van bestaande data te optimaliseren. De resultaten tonen hoe AI kan bijdragen aan wetenschappelijke vooruitgang in verschillende domeinen, van epidemiologie tot kosmologie en neurosciences.