Nieuws

Half-precisie-inferentie verdubbelt de prestaties van AI op apparaten

TensorFlow Lite heeft half-precisie-inferentie ingeschakeld in de XNNPack-backend, wat leidt tot een verdubbeling van de prestaties van floating-point-inferentie op ARM-CPU's. Dit maakt het mogelijk om meer AI-functies te implementeren op oudere en lagere eindapparaten. De techniek biedt een balans tussen gebruiksgemak en prestaties en is al getest in productieomgevingen zoals Google Assistant en YouTube. De update is beschikbaar voor een breed scala aan apparaten, waaronder Android-telefoons, iOS-apparaten en Apple Silicon Macs.

Bron: TensorFlow Blog

Originele taal: [en]

Lees hier het originele artikel