Analyse: Wie viel GeForce ist in der Verstärkerarchitektur

0

Die Ampere-Architektur ist NVIDIAs neuer Ansatz, um alle Anforderungen an eine GPU auszugleichen. Es bleibt abzuwarten, ob dies nur für das Rechenzentrumssegment oder auch für das Workstation- und Gaming-Segment gelten wird. Der GA100-GPU hat eine Größe von 826 mm². Die Anzahl der Transistoren beträgt 54 Milliarden.

Während der Präsentation der Tensor Core CPU A100 gab NVIDIA einige Details über die Ampere-Architektur bekannt. Nun wurde der Vorhang jedoch vollständig gelüftet, so dass wir unserer ursprünglichen Analyse einige Details hinzufügen können. Statt einer Aktualisierung wollen wir jedoch das Thema Ampere-Architektur und GA100 völlig neu aufrollen, auch um Fehler zu vermeiden, die wir im ursprünglichen Artikel aufgrund der fehlenden Informationen gemacht haben.

Der komplette GA100-GPU besteht aus acht GPCs (Graphics Processing Cluster), acht TPCs (Texture Processing Cluster) pro GPC und zwei SMs (Streaming Multiprocessor) pro TPC oder 16 SMs pro GPC, also insgesamt 128 SMs für einen kompletten GA100-GPU. Bislang hat NVIDIA nur den Tesla A100 mit GA100-GPU eingeführt, der 108 SMs verwendet.

Gegenüberstellung der Architekturen
Voller GA100 A100
GPU GA100 GA100
SMs 128 108
FP64-Kerne / SM 32 32
FP64-Kerne / GPU 4.096 3.456
FP32-Kerne / SM 64 64
FP32-Kerne / GPU 8.192 6.912
INT32-Kerne / SM 64 64
INT32-Kerne / GPU 4.096 3.456
Tensor-Kerne / SM 4 4
Tensor-Kerne / GPU 512 432
Speicher 6 HBM2-Stacks
6.144 Bit
1.920 GB/s
5 HBM2-Stacks
5.120 Bit
1.555 GB/s

Für die Ampere-Architektur stellt NVIDIA weiterhin 64 Shader-Einheiten pro SM zur Verfügung. Damit erhöht sich die Gesamtzahl der Shader-Einheiten für 128 SMs auf 8.192. Neben 64 FP32-Recheneinheiten pro SM gibt es auch 64 INT32-Recheneinheiten pro SM. Darüber hinaus gibt es 32 FP64-Recheneinheiten und vier der neuen Tensorkerne der dritten Generation. Einen Vergleich der Rechenleistung zwischen Ampere, Volta und Turing haben wir in den ersten Nachrichten zu diesem Thema vorgenommen.

NVIDIA nutzt für die A100-Module also derzeit nur 85 % der GA100-GPU, was weit weniger als beispielsweise bei der GV100-GPU für die Tesla V100 ist, wo 80 von 84 SMs verwendet wurden. Der Grund dürfte die Ausbeute der Chips sein. Einen vollständig funktionsfähigen Chip gibt es in dieser Größe praktisch nicht. NVIDIA muss also Teile deaktivieren.

Dies wirkt sich auf die Anbindung des Speicher aus. Insgesamt verfügt die GA100-GPU über zwölf Speichercontroller. Jeweils zwei davon sind mit einem HBM2-Speicherchip verbunden. Für die Tesla A100 verwendet NVIDIA nur ein 5.120 Bit breites Speicherinterface und demnach nur zehn Speichercontroller – also nur fünf der sechs Speicherchips. Dies passt zur Kapazität von 5x 8 = 40 GB.

Der Takt des HBM2-Speichers liegt bei 1.250 MHz. Für das 5.120 Bit breite Speicherinterface der Tesla A100 ergibt sich eine Speicherbandbreite von 1.555 GB/s. Der Vollausbau käme bei 6.144 Bit und ebenfalls 1.250 MHz auf 1.920 MB/s.

Share.

About Author

Avatar

Mein Name ist Rainer Proksch. Ich bin 37 Jahre alt. Ich schreibe seit mehr als 4 Jahren Zeitungsartikel. Ich interessiere mich für Nachrichten aus Wirtschaft und Wirtschaft. Wenn Sie Fragen haben, kontaktieren Sie mich bitte unter [email protected]

Leave A Reply