Nieuws

Deliberatieve uitlijning: redeneren leidt tot veiligere taalmodellen

OpenAI introduceert een nieuwe uitlijningstrategie voor de o-series modellen genaamd deliberatieve uitlijning. Deze methode leert modellen expliciet hoe ze moeten redeneren over veiligheidsvoorschriften voordat ze antwoorden geven. Hierdoor kunnen de modellen beter naleven van OpenAI’s veiligheidsbeleid en bieden ze veiligere reacties. De o1-modellen presteren aanzienlijk beter dan GPT-4o en andere moderne taalmodellen op interne en externe veiligheidstests.

Bron: OpenAI News

Originele taal: [en]

Lees hier het originele artikel