Nieuws

Waarom taalmodellen hallucineren

OpenAI legt uit waarom taalmodellen hallucineren, dat wil zeggen dat ze onjuiste informatie genereren alsof het waar is. Volgens hun onderzoek ontstaan hallucinaties gedeeltelijk door evaluatiemethoden die modellen belonen voor gokken in plaats van onzekerheid toe te geven. De onderzoekers stellen voor om scoreborden aan te passen zodat onzekerheid wordt beloond en gokken wordt bestraft. Dit kan bijdragen aan betrouwbaardere en eerlijkere AI-systemen.

Bron: OpenAI News

Originele taal: [en]

Lees hier het originele artikel