AMD presenta su nuevo chip AI más rápido en Computex: se levanta el telón para AMD Instinct MI325X

Hoy, AMD realizó un discurso de apertura en Computex de este año. En esta feria AMD presentó su nuevo chip AI. El AMD Instinct MI325X. Fuente de la imagen: AMD Echemos un vistazo breve a la historia del acelerador de AMD y sus planes futuros. Todo empezó en 2020 con su acelerador AMD CDNA MI100. El primer acelerador diseñado específicamente para cargas de trabajo HPC FP64 y FP32. El sucesor llegó un año después. El acelerador CDNA MI200. Este tiene una arquitectura informática más densa con mayor capacidad de memoria y ancho de banda. CDNA 3 se lanzó en 2022. La atención se centró aquí en la memoria estandarizada con rendimiento de formato de datos de IA y redes en el nodo. Luego vino el CDNA 3 MI300X con liderazgo en IA generativa, disponible hasta hace poco, seguido del último acelerador de AMD para este año. La plataforma AMD Instinct MI325X con memoria HBM3E y mayor potencia informática. Pero el plan no acaba aquí, porque el año que viene continuaremos con una nueva versión del CDNA. El CDNA 4, que ofrecerá una potencia informática y una gestión de memoria aún mayores. En 2026 se presentará una arquitectura de próxima generación del acelerador. Fuente de la imagen: AMD Pero basta con profundizar en esta historia. Echemos un vistazo más de cerca a los detalles del nuevo acelerador. Como se mencionó anteriormente, la memoria HBM3 está instalada. Se dice que la memoria es dos veces mayor que la de su predecesor. Más precisamente, hasta 288 GB. El ancho de banda también aumentará en un factor de 1,3 veces hasta 6 TB/s. AMD también está dando el ejemplo en este caso respecto a las aceleradoras NVIDIA H200. Es muchas veces superior a su chip H200. Se instalan 8 GPU AMD Instinct MI325X en una plataforma AMD Instinct MI325X. En este caso, el PF máximo teórico debería ser de alrededor de 10,4. La memoria AN HBM3E tiene la friolera de 2,3 TB, lo cual es alcanzable. El ancho de banda de Infinity Fabric está establecido en aproximadamente 896 GB/s. El Instinct es compatible con los modelos Gen-AI más populares, como GPT-4, LLAMA 2 y Stable Diffusion. Aquí también se utiliza la tecnología AMD ROCm. Por ejemplo, se pueden utilizar más de 700.000 modelos con Hugging Face a través de ROCm. El soporte total con ROCm también es posible con Triton de OpenAI. El objetivo es superar los límites del rendimiento de la IA de los centros de datos. Satya Nadella, socio de AMD, Microsoft, dijo que el MI300X ofrece una excelente relación calidad-precio y también está optimizado para cargas de trabajo de Microsoft Azure. “El MI300X ofrece una relación precio/rendimiento líder en inferencia GPT4. Optimizado para cargas de trabajo de Microsoft Azure” Fuente de la imagen: AMD También se presentó un pequeño adelanto del modelo del próximo año. Este será un nodo de proceso de 3 nm con memoria HBME3 de 288 GB y soporte para tipos de datos FP4/FP6. Probablemente sólo sabremos más el próximo año. La información fue proporcionada de antemano por AMD. La única condición era el cumplimiento del período de bloqueo el 06.03.2024 a las 5.00 am Fuente: AMD

About Carlos Carraveo Jimenez

Check Also

Podcast de ThinkComputers n. 411 – ¡Modo de diseño fractal, NVIDIA, placas base con IA y más!

Compartir en Facebook Compartir en Twitter Esta semana en el podcast analizamos nuestra revisión de …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *