Nieuws
Qwen1.5-110B: het eerste 100B+-model van de Qwen1.5-reeks
Alibaba Cloud heeft het Qwen1.5-110B-model vrijgegeven, het eerste model met meer dan 100 miljard parameters in de Qwen1.5-reeks. Het model presteert vergelijkbaar met Meta-Llama3-70B in basis-evaluaties en overtreft het aanzienlijk in chat-evaluaties zoals MT-Bench en AlpacaEval 2.0. Het ondersteunt een contextlengte van 32K tokens en is multilingual, met ondersteuning voor talen zoals Engels, Chinees, Frans en Spaans.