Nieuws
Onderzoek toont aan: AI-modellen zijn te overtuigen onwaarheden als waarheid te accepteren
Uit onderzoek van de Rochester Institute of Technology blijkt dat grote taalmodellen zoals Claude, ChatGPT, Gemini, DeepSeek en Grok kunnen worden overgehaald om onjuiste beweringen te accepteren, zelfs als ze met tegenbewijs worden geconfronteerd. De studie, geaccepteerd voor de Annual Meeting of the Association for Computational Linguistics 2026, toont aan dat AI-modellen onder sociale druk inconsistent kunnen worden. Claude bleek het meest resistent, gevolgd door Grok en ChatGPT, terwijl Gemini en DeepSeek vatbaarder waren.