Nieuws
10.000 keer minder trainingdata met hoge kwaliteit labels
Google heeft een nieuw actief leerproces ontwikkeld dat de benodigde trainingdata voor het fijnafstellen van grote taalmodellen (LLMs) met tot 10.000 keer kan verminderen, terwijl de uitlijning met menselijke experts aanzienlijk verbetert. Het proces gebruikt een combi van grote taalmodellen en menselijke experts om de meest informatieve voorbeelden te selecteren, wat leidt tot betere modellen met veel minder data. In tests met Gemini-modellen bleek het proces tot 65% verbetering in uitlijning te opleveren bij gebruik van slechts 500 trainingvoorbeelden in plaats van 100.000.