Nieuws

ATLAS: Praktische schaalwetten voor multilingual modellen

Google introduceert ATLAS, een nieuw systeem van schaalwetten voor multilingual modellen dat helpt bij het optimaliseren van modelgrootte, datavolume en taalcombinaties. Het onderzoek, dat wordt gepresenteerd op ICLR 2026, is het grootste openbare multilingual pre-training onderzoek tot nu toe en omvat 774 trainingssessies over 10M–8B parametermodellen. ATLAS biedt richtlijnen voor het efficiënt combineren van talen in trainingdata en helpt bij het verminderen van de 'curse of multilinguality' door positieve taaloverdracht te maximaliseren.

Bron: Google Research Blog

Originele taal: [en-us]

Lees hier het originele artikel