Nieuws

Anthropic versterkt veiligheidsmaatregelen voor verkiezingen

Anthropic, een AI-onderzoeksbureau, heeft zijn veiligheidsmaatregelen bijgewerkt om te zorgen dat de AI-models Claude tijdens verkiezingen betrouwbare en neutrale informatie geven. De maatregelen omvatten het trainen van Claude om verschillende politieke standpunten eerlijk te behandelen, het toetsen van de modellen op neutraliteit en het testen van de reacties op schadelijke vragen. De modellen Opus 4.7 en Sonnet 4.6 bleken in tests 95% en 96% te scoren op neutraliteit. Bovendien worden er veiligheidsmaatregelen toegepast om de kans op manipulatie via AI te beperken. Anthropic introduceert ook verkiezingsbanners die gebruikers naar betrouwbare bronnen sturen, zoals TurboVote voor de Amerikaanse midterms.

Bron: Anthropic

Originele taal: [en]

Lees hier het originele artikel

Dossier: