Nieuws
Anthropic versterkt veiligheidsmaatregelen voor verkiezingen
Anthropic, een AI-onderzoeksbureau, heeft zijn veiligheidsmaatregelen bijgewerkt om te zorgen dat de AI-models Claude tijdens verkiezingen betrouwbare en neutrale informatie geven. De maatregelen omvatten het trainen van Claude om verschillende politieke standpunten eerlijk te behandelen, het toetsen van de modellen op neutraliteit en het testen van de reacties op schadelijke vragen. De modellen Opus 4.7 en Sonnet 4.6 bleken in tests 95% en 96% te scoren op neutraliteit. Bovendien worden er veiligheidsmaatregelen toegepast om de kans op manipulatie via AI te beperken. Anthropic introduceert ook verkiezingsbanners die gebruikers naar betrouwbare bronnen sturen, zoals TurboVote voor de Amerikaanse midterms.