Nieuws
Verdediging tegen promptinjekties met StruQ en SecAlign
Onderzoekers stellen twee nieuwe methoden voor om promptinjekties bij grote taalmodellen (LLMs) te voorkomen: StruQ en SecAlign. Deze technieken verminderen de succesrate van aanvallen tot bijna 0% en bieden een robuuste verdediging zonder extra kosten. SecAlign verbetert de veiligheid aanzienlijk ten opzichte van bestaande methoden en behoudt de algemene prestaties van de modellen.