Nieuws

Groq introduceert LPU-architectuur voor snellere en efficiëntere AI-inferentie

Groq heeft de LPU-architectuur geïntroduceerd, die honderden megabytes SRAM integreert als primaire gewichtopslag, waardoor latentie wordt verlaagd en rekenunits volledig kunnen functioneren. Dit biedt een praktisch voordeel voor snelle en schaalbare AI-inferentie.

Bron: Groq

Originele taal: [en]

Lees hier het originele artikel