Nieuws

Aanvallen op machine learning met adversariale voorbeelden

Adversariale voorbeelden zijn ingevoegde invoerdata die bedoeld zijn om machine learning modellen te laten falen. OpenAI legt uit hoe deze voorbeelden werken en waarom het systeem er tegegenwerken lastig is. Voorbeelden tonen aan dat zelfs eenvoudige algoritmen op onverwachte manieren kunnen reageren. Onderzoek toont aan dat adversariale voorbeelden zelfs op papier kunnen worden geprint en met een smartphone kunnen worden gefotografeerd om systemen te misleiden.

Bron: OpenAI News

Originele taal: [en]

Lees hier het originele artikel