Nieuws

10.000 keer minder trainingdata met hoge kwaliteit labels

Google heeft een nieuw actief leerproces ontwikkeld dat de benodigde trainingdata voor het fijnafstellen van grote taalmodellen (LLMs) met tot 10.000 keer kan verminderen, terwijl de uitlijning met menselijke experts aanzienlijk verbetert. Het proces gebruikt een combi van grote taalmodellen en menselijke experts om de meest informatieve voorbeelden te selecteren, wat leidt tot betere modellen met veel minder data. In tests met Gemini-modellen bleek het proces tot 65% verbetering in uitlijning te opleveren bij gebruik van slechts 500 trainingvoorbeelden in plaats van 100.000.

Bron: Google Research Blog

Originele taal: [en-us]

Lees hier het originele artikel