Nieuws
AI neemt geen bias aan, maar erfert die – hoe zorgen we voor eerlijkheid bij automatische beslissingen?
AI-systemen erfert bias uit historische datasets, waardoor eerlijkheid bij automatische beslissingen complex is. Wat als ‘eerlijk’ wordt beschouwd, hangt af van het domein en de context. In het onderwijs kan het bijvoorbeeld om gelijke kansen gaan, terwijl in de strafrechtspraak het vermijden van ongeoorloofde schade aan bepaalde groepen centraal staat. De keuze van metrieken en het gebruik van data beïnvloeden hoe eerlijk een systeem is, en technische oplossingen zijn niet voldoende om structurele ongelijkheden te corrigeren.