Nieuws

Hoe DeepL de volgende generatie LLMs bouwt met FP8 voor training en inference

DeepL heeft FP8 ingezet voor training en inference van de volgende generatie LLMs, wat leidde tot een toename van doorvoer en modelkwaliteit. Met de hulp van NVIDIA's technologie zijn snellere trainingen en betere vertalingen mogelijk, terwijl de latentie laag blijft. FP8 maakt het mogelijk om grotere taalmodellen te bouwen met betere kwaliteit en hogere doorvoer.

Bron: DeepL

Originele taal: [en]

Lees hier het originele artikel