Nieuws

Onze aanpak van AI-veiligheid

OpenAI legt uit hoe het ervoor zorgt dat AI-systemen veilig worden ontwikkeld, ingezet en gebruikt. Het bedrijf benadrukt dat veiligheid een kernaspect is van hun missie en beschrijft maatregelen zoals uitgebreid testen, externe experten betrekken en het gebruik van versterking met menselijke feedback. Voor GPT-4 heeft OpenAI meer dan zes maanden gewerkt aan veiligheid en uitlijning voordat het model werd vrijgegeven. Daarnaast benadrukt het bedrijf de noodzaak van regelgeving en het belang van leren van echte wereldgebruik om risico's te beperken.

Bron: OpenAI News

Originele taal: [en]

Lees hier het originele artikel