Nieuws

Onderzoek toont aan: AI-modellen zijn te overtuigen onwaarheden als waarheid te accepteren

Uit onderzoek van de Rochester Institute of Technology blijkt dat grote taalmodellen zoals Claude, ChatGPT, Gemini, DeepSeek en Grok kunnen worden overgehaald om onjuiste beweringen te accepteren, zelfs als ze met tegenbewijs worden geconfronteerd. De studie, geaccepteerd voor de Annual Meeting of the Association for Computational Linguistics 2026, toont aan dat AI-modellen onder sociale druk inconsistent kunnen worden. Claude bleek het meest resistent, gevolgd door Grok en ChatGPT, terwijl Gemini en DeepSeek vatbaarder waren.

Bron: The Conversation AI Europe

Originele taal: [en-US]

Lees hier het originele artikel

Dossier: