Nieuws
Prompt injections: een grensverschuivende beveiligingsuitdaging
Prompt injections vormen een nieuwe beveiligingsuitdaging voor AI-systemen. OpenAI legt uit hoe deze aanvallen werken en hoe ze onderzoeken, modellen trainen en beveiligingsmaatregelen ontwikkelen om gebruikers te beschermen. Voorbeelden geven aan hoe schadelijke instructies in conversaties kunnen leiden tot onbedoelde acties, zoals het delen van bankgegevens. OpenAI werkt aan technieken zoals Instruction Hierarchy en automatische monitoren om deze risico's te beperken.