Nieuws
Deliberatieve uitlijning: redeneren leidt tot veiligere taalmodellen
OpenAI introduceert een nieuwe uitlijningstrategie voor de o-series modellen genaamd deliberatieve uitlijning. Deze methode leert modellen expliciet hoe ze moeten redeneren over veiligheidsvoorschriften voordat ze antwoorden geven. Hierdoor kunnen de modellen beter naleven van OpenAI’s veiligheidsbeleid en bieden ze veiligere reacties. De o1-modellen presteren aanzienlijk beter dan GPT-4o en andere moderne taalmodellen op interne en externe veiligheidstests.