AMD presenta su Instinct MI300 en CES 2023

Se ha confirmado que la próxima generación de procesadores para centros de datos contará con hasta 24 núcleos Zen4.
AMD concluyó la keynote de CES 2023 presentando nuevos detalles sobre su «primera CPU + GPU integrada en un centro de datos del mundo». Este concepto ha demostrado su utilidad en el mercado de consumo, ya que combina núcleos de CPU y GPU en una única matriz, lo que reduce el espacio necesario para dicha integración y aumenta la eficiencia.
AMD MI300 llevará las cosas a un nuevo nivel, utilizando la tecnología de apilamiento de chips en 3D y combinando los núcleos de CPU/GPU con memoria de alta velocidad. Se ha confirmado que el MI300 incorporará hasta 128 GB de memoria HBM3, lo que permitirá utilizar la CPU sin memoria externa.

En palabras del propio CEO de AMD, el nuevo Instinct de AMD combina hasta 24 núcleos EPYC Zen4 y arquitectura de computación CDNA3 dentro de nueve chiplets de 5nm colocados encima de cuatro chiplets de 6nm. Esta tecnología será la primera vez que AMD utilice el apilamiento de chips en 3D. La Dra. Lisa Su ha confirmado que el chip ya está en los laboratorios y ha mostrado uno de los chips durante la keynote. El procesador llegará oficialmente en la segunda mitad de este año.

La «APU» MI300 es la sucesora de la MI250 basada en la arquitectura CDNA2, que salió al mercado el año pasado. AMD aún no ha facilitado cifras de rendimiento de su chip basado en CDNA3, por lo que no es posible realizar comparaciones. Sin embargo, no cabe duda de que supondrá un gran cambio en la pila de productos AMD EPYC/Instinct.
Especificaciones de los aceleradores AMD Instinct
AMD Radeon Instinct MI60 | AMD Instinct MI100 | AMD Instinct MI250X | AMD Instinct MI300 | |
---|---|---|---|---|
Año de lanzamiento | 2018 | 2020 | 2022 | 2023 |
Fabrication Nodes | 7nm | 7nm | 6nm MCM | 5nm + 6nm 3D Die Stacking |
CPU | – | – | – | up to 24 Zen4 cores |
GPU | Vega 20 GCN5 (GFX906) | Arcturus CDNA1 (GFX908) | Aldebaran CDNA2 (GFX90A) | CDNA3 (GFX940) |
Chiplets | – | – | – | hasta 2 |
Compute Tiles | 1 | 1 | 2 | hasta 8 |
Compute Units | 64 | 120 | 220 | TBC |
Velocidad de la GPU | 1800 MHz | ~1500 MHz | ~1700 MHz | TBC |
Capacidad de cómputo en FP16 | 29.5 TFLOPS | 185 TFLOPS | 383 TFLOPS | TBC |
Capacidad de cómputo en FP32 | 14.7 TFLOPS | 23.1 TFLOPS | 47.9 TFLOPS | TBC |
Capacidad de cómputo en FP64 | 7.4 TFLOPS | 11.5 TFLOPS | 47.9 TFLOPS | TBC |
VRAM | 32 GB HBM2 | 32 GB HBM2 | 128 GB HBM2e | 128GB HBM3 |
Velocidad de memoria | 2.0 Gbps | 2.4 Gbps | 3.2 Gbps | TBC |
Bus de memoria | 4096-bit | 4096-bit | 8192-bit | 8192-bit |
Ancho de banda de memoria | 1 TB/s | 1.23 TB/s | 3.2 TB/s | TBC |
Forma | Doble ranura, longitud completa | Doble ranura, longitud completa | OAM | OAM |
TDP | 300W | 300W | 560W | up to 600W+ |