Nieuws
Waarom taalmodellen hallucineren
OpenAI legt uit waarom taalmodellen hallucineren, dat wil zeggen dat ze onjuiste informatie genereren alsof het waar is. Volgens hun onderzoek ontstaan hallucinaties gedeeltelijk door evaluatiemethoden die modellen belonen voor gokken in plaats van onzekerheid toe te geven. De onderzoekers stellen voor om scoreborden aan te passen zodat onzekerheid wordt beloond en gokken wordt bestraft. Dit kan bijdragen aan betrouwbaardere en eerlijkere AI-systemen.