Nieuws

Prompt injections: een grensverschuivende beveiligingsuitdaging

Prompt injections vormen een nieuwe beveiligingsuitdaging voor AI-systemen. OpenAI legt uit hoe deze aanvallen werken en hoe ze onderzoeken, modellen trainen en beveiligingsmaatregelen ontwikkelen om gebruikers te beschermen. Voorbeelden geven aan hoe schadelijke instructies in conversaties kunnen leiden tot onbedoelde acties, zoals het delen van bankgegevens. OpenAI werkt aan technieken zoals Instruction Hierarchy en automatische monitoren om deze risico's te beperken.

Bron: OpenAI News

Originele taal: [en]

Lees hier het originele artikel