News Nvidia Tesla T4: Inferencing-Beschleuniger mit 320 Tensor Kernen

Jakob Ginzburg

Urgestein
Mitglied seit
Jun 17, 2018
Beiträge
843
Bewertungspunkte
290
Punkte
63
NVIDIA-Tesla-T4-1024x681.jpg


Jakob Ginzburg Neuen News-Beitrag vorschlagen
Nvidia hat auf der GPU Technology Conference, die kürzlich in Japan stattfand, einen Inferencing-Beschleuniger vorgestellt. Die Aufgabe des abgespeckten Chips ist die Bereitstellung zusätzlicher Rechenleistung bei geringfügig komplexen Rechenoperationen wie FP16, INT8 sowie INT4.

NVIDIA-Tesla-T4-1024x681.jpg




Der neue Tesla T4 Inferencing-Beschleuniger ist eine PCI-Express-Karte, die über 16 GB an GDDR6 verfügt und auf eine Speicherbandbreite von 320 GB/s kommt. Die Leistungsaufnahme der Karte soll bei 75 W liegen. Dabei verspricht Nvidia eine Rechenleistung von 8,1 TFLOPS bei einfacher Genauigkeit (FP32), 65 TFLOPS bei Mixed Precision (FP16/FP32), 130 TOPS bei INT8 sowie 260 TOPS bei INT4. Welche Turing-GPU hier zum Einsatz kommt, verrät Nvidia bisher nicht. Es könnte sich um eine beschnittene TU104 handeln, die im Vollausbau 3.072 Shadereinheiten und 384 Tensor Cores hat.

teslat4.gif


Doch was macht ein Inferencing-Beschleuniger eigentlich? Sie gleichen Vorhandene Daten und Datenpakete mit einem Deep-Learning-Netzwerk ab und erstellen auf Basis dieser Daten entsprechende Aufgaben, die sie dann an weitere Prozesse weitergeben. Die Tesla T4 soll unter anderem in der Lage sein, bis zu 38 FullHD-Videostreams in Echtzeit auszuwerten. Dies sind doppelt So viele Stream, wie der Vorgänger, die Tesla P4, analysieren kann.

tesla-t4-1024x391.png

Den Originalbeitrag lesen
 
Zuletzt bearbeitet :
Oben Unten