Nieuws

Deep research System Card

OpenAI heeft een rapport gepubliceerd over de veiligheidsmaatregelen die zijn genomen voor het uitbrengen van de nieuwe deep research-functionaliteit. Het rapport bespreekt onderwerpen zoals externe red teaming, frontier risk evaluations volgens de Preparedness Framework en de mitigaties die zijn ontwikkeld om belangrijke risico-gebieden aan te pakken. Alleen modellen met een post-mitigatie-score van 'medium' of lager kunnen worden ingezet, en modellen met een score van 'high' of lager kunnen verder worden ontwikkeld.

Bron: OpenAI News

Originele taal: [en]

Lees hier het originele artikel