Nieuws
Anthropic erkent dat het Claude verlaagde toen het probeerde het slimmer te maken
Anthropic heeft toegegeven dat het de kwaliteit van Claude verlaagde toen het probeerde het slimmer te maken. De AI-ontwikkelaar onderzocht drie veranderingen in maart en april die klachten van gebruikers veroorzaakten, zoals vertraagde reacties en herhalende antwoorden. De eerste aanpassing was het verlagen van de standaard 'reasoning effort level' van hoog naar middel, wat leidde tot lagere prestaties. Een tweede fout was een bug in de cache-optimisatie die leidde tot vergetelijker gedrag. De derde aanpassing was een systeemprompt die de uitvoer verduidelijkte, maar daarna bleek de prestatie met drie procent te zijn gedaald. Alle veranderingen werden later hersteld, en Anthropic belooft betere communicatie en tests in de toekomst.