Nieuws
Kleine modellen, grote resultaten: betere intentie-extractie via decompositie
Google onderzoekt hoe kleine multimodale grote taalmodellen (MLLMs) kunnen worden gebruikt om gebruikersintenties te begrijpen op basis van interacties op mobiele en webapparaten, zonder dat gegevens naar een server hoeven te worden gestuurd. Door de taak in twee stappen te verdelen – eerst elk scherm apart te samenvatten en daarna een intentie te extraheren – bereiken kleine modellen resultaten die vergelijkbaar zijn met die van veel grotere modellen. De methode wordt getest met modellen zoals Gemini 1.5 Flash 8B en Qwen2, en levert betere prestaties dan standaardmethoden zoals chain-of-thought prompting.