Nieuws
AI kende de antwoorden, maar begreep de vragen niet
Nieuwe onderzoek van Zhejiang University stelt dat het AI-model Centaur, dat ooit werd geprezen om menselijke cognitie te imiteren, in werkelijkheid geen echte denkprocessen uitvoert. Het model zou eerder patronen uit de opleiding data herkennen en antwoorden reproduceren, in plaats van de vragen te begrijpen. Onderzoekers toonden aan dat Centaur bij nieuwe vragen, zoals 'Kies optie A', niet consistent de juiste antwoorden gaf, wat wijst op een gebrek aan echte begrip. De studie benadrukt de noodzaak van gedetailleerde testen om te bepalen of AI-systemen echt de vaardigheden tonen die ze lijken te hebben. De belangrijkste beperking van Centaur ligt in het begrijpen van de intentie achter vragen, wat een belangrijke uitdaging blijft bij het ontwikkelen van AI die menselijke cognitie kan imiteren.