AMD huet just d’Spezifikatioune vu sengem Instinct MI300 ‘CDNA 3’ Beschleuniger bestätegt deen d’Zen 4 CPU Cores an engem 5nm 3D Chiplet Package benotzt.
AMD Instinct MI300 ‘CDNA 3’ Spezifikatioune: 5nm Chiplet Design, 146 Milliarde Transistoren, 24 Zen 4 CPU Cores, 128 GB HBM3
Déi lescht Spezifikatioune, déi fir den AMD Instinct MI300 Beschleuniger enthüllt goufen, bestätegen datt dës exascale APU e Monster vun engem Chiplet-Design wäert sinn. D’CPU wäert e puer 5nm 3D Chiplet Packagen ëmfaassen, all kombinéiere fir eng verréckt 146 Milliarde Transistoren ze Haus. Dës Transistoren enthalen verschidde Core IPs, Memory Interfaces, Interconnects, a vill méi. D’CDNA 3 Architektur ass d’fundamental DNA vum Instinct MI300 awer d’APU kënnt och mat insgesamt 24 Zen 4 Data Center CPU Cores & 128 GB vun der nächster Generatioun HBM3 Gedächtnis déi an 8192-Bit breet Buskonfiguratioun leeft, dat ass wierklech Geescht – blosen.
Wärend dem AMD Financial Day 2022 huet d’Firma bestätegt datt de MI300 e Multi-Chip an e Multi-IP Instinct Beschleuniger wäert sinn, deen net nëmmen déi nächst Generatioun CDNA 3 GPU Cores huet, awer och mat der nächster Generatioun Zen 4 CPU ausgestatt ass. Kären.
Fir méi wéi 2 Exaflops vun der duebeler Präzisiounsveraarbechtungskraaft z’erméiglechen, hunn den US Department of Energy, Lawrence Livermore National Laboratory, an HPE sech mat AMD zesummegeschafft fir den El Capitan ze designen, erwaart de schnellsten Supercomputer vun der Welt mat der Liwwerung virauszegesinn am fréien 2023. Capitan wäert d’nächst Generatioun Produkter profitéieren déi Verbesserunge vum personaliséierte Prozessor Design a Frontier integréieren.
- Nächst Generatioun AMD EPYC Prozessoren, Codenumm “Genua”, wäerten den “Zen 4” Prozessor Kär hunn fir d’nächst Generatioun Erënnerung an I/O Ënnersystemer fir AI an HPC Aarbechtslaascht z’ënnerstëtzen
- Nächst Generatioun AMD Instinct GPUs baséiert op neier Berechnungsoptimiséierter Architektur fir HPC an AI Aarbechtslaascht wäert d’nächst Generatioun High Bandwidth Memory fir eng optimal Deep Learning Leeschtung benotzen
Dësen Design wäert excel bei AI a Maschinnléierend Datenanalyse fir Modeller ze kreéieren déi méi séier, méi genau a fäeg sinn d’Onsécherheet vun hire Prognosen ze quantifizéieren.
iwwer AMD
An de leschte Leeschtungsvergläicher huet AMD gewisen datt den Instinct Mi300 en 8x Boost an der AI Leeschtung (TFLOPs) an eng 5x AI Performance pro Watt (TFLOPs / Watt) Boost iwwer den Instinct MI250X liwwert.

AMD wäert souwuel 5nm wéi och 6nm Prozessknäppchen fir seng Instinct MI300 ‘CDNA 3’ APUs benotzen. Den Chip gëtt mat der nächster Generatioun vun Infinity Cache ausgestatt an huet d’4th Gen Infinity Architektur déi CXL 3.0 Ökosystem Support erméiglecht. Den Instinct MI300 Beschleuniger wäert eng vereenegt Erënnerung APU Architektur an nei Math Formater rocken, wat eng 5x Leeschtung pro Watt Uplift iwwer CDNA 2 erlaabt wat massiv ass. AMD projizéiert och iwwer 8x d’AI Leeschtung versus den CDNA 2-baséiert Instinct MI250X Beschleuniger. Den UMAA vum CDNA 3 GPU verbënnt d’CPU an d’GPU mat engem vereenegten HBM Memory Package, eliminéiert redundante Gedächtniskopien wärend en nidderegen TCO liwwert.

AMD’s Instinct MI300 APU Beschleuniger ginn erwaart bis Enn 2023 verfügbar ze sinn, wat d’selwescht Zäit ass wéi d’Deployment vum El Capitan Supercomputer uewen ernimmt.