Enterprise Solutions News Professional Server

Nvidia Tesla T4: Inferencing-Beschleuniger mit 320 Tensor Kernen

Nvidia hat auf der GPU Technology Conference, die kürzlich in Japan stattfand, einen Inferencing-Beschleuniger vorgestellt. Die Aufgabe des abgespeckten Chips ist die Bereitstellung zusätzlicher Rechenleistung bei geringfügig komplexen Rechenoperationen wie FP16, INT8 sowie INT4.

Der neue Tesla T4 Inferencing-Beschleuniger ist eine PCI-Express-Karte, die über 16 GB an GDDR6 verfügt und auf eine Speicherbandbreite von 320 GB/s kommt. Die Leistungsaufnahme der Karte soll bei 75 W liegen. Dabei verspricht Nvidia eine Rechenleistung von 8,1 TFLOPS bei einfacher Genauigkeit (FP32), 65 TFLOPS bei Mixed Precision (FP16/FP32), 130 TOPS bei INT8 sowie 260 TOPS bei INT4. Welche Turing-GPU hier zum Einsatz kommt, verrät Nvidia bisher nicht. Es könnte sich um eine beschnittene TU104 handeln, die im Vollausbau 3.072 Shadereinheiten und 384 Tensor Cores hat.

Doch was macht ein Inferencing-Beschleuniger eigentlich? Sie gleichen Vorhandene Daten und Datenpakete mit einem Deep-Learning-Netzwerk ab und erstellen auf Basis dieser Daten entsprechende Aufgaben, die sie dann an weitere Prozesse weitergeben. Die Tesla T4 soll unter anderem in der Lage sein, bis zu 38 FullHD-Videostreams in Echtzeit auszuwerten. Dies sind doppelt So viele Stream, wie der Vorgänger, die Tesla P4, analysieren kann.

Wir verwenden Cookies, um Ihnen das beste Nutzererlebnis bieten zu können. Wenn Sie fortfahren, diese Seite zu verwenden, nehmen wir an, dass Sie damit einverstanden sind. Datenschutzerklärung