La compañía ha detallado que los nuevos chips cuentan con «con ancho de banda de memoria líder en la industria para IA generativa y rendimiento de liderazgo para capacitación e inferencia de modelos de lenguaje grande (LLM)».
«Los aceleradores AMD Instinct MI300 Series están diseñados con nuestras tecnologías más avanzadas, brindan un rendimiento líder y estarán en implementaciones empresariales y en la nube a gran escala», subraya Victor Peng, presidente de AMD.
También ha destacado que estos nuevos dispositivos «están llevando al mercado tecnologías que permiten a las empresas adoptar e implementar soluciones impulsadas por IA«.
AMD ha manifestado que una de las firmas que empleará estos chips es Microsoft, «que recientemente anunció la nueva serie de máquinas virtuales Azure ND MI300x v5, optimizadas para cargas de trabajo de IA y con tecnología de aceleradores AMD Instinct MI300X».
Además, Oracle Cloud Infrastructure «planea agregar» estos chips «a las instancias informáticas aceleradas de alto rendimiento para IA de la compañía».
La compañía ha asegurado que el Instinct MI300X, en relación con sus predecesores, «ofrece casi un 40 % más de unidades de cómputo, 1,5 veces más capacidad de memoria y 1,7 veces más ancho de banda de memoria teórica máxima, así como soporte para nuevos formatos matemáticos».
«Los LLM actuales continúan aumentando en tamaño y complejidad, y requieren cantidades masivas de memoria y computación. Los aceleradores AMD Instinct MI300X cuentan con 192 GB de capacidad de memoria HBM3, la mejor de su clase, así como un ancho de banda de memoria máximo de 5,3 TB/s2 para ofrecer el rendimiento necesario para cargas de trabajo de IA cada vez más exigentes», explica la compañía.