Radeon RX 7900 XT hasta 8 veces más rápida que Ryzen 7 8700G

AMD ha compartido algunos datos interesantes sobre las capacidades de su GPU RDNA 3 y su hardware XDNA NPU en cargas de trabajo de IA centradas en el consumidor. GPU RDNA 3 de AMD e implementación de . La primera NPU se lanzó en 2023 con las APU Phoenix “Ryzen 7040” y se actualizó recientemente con la serie Hawk Point “Ryzen 8040”. Además de la NPU, la arquitectura de GPU RDNA 3 de AMD también ha incorporado una gran cantidad de núcleos de IA dedicados que pueden manejar estas cargas de trabajo, y la compañía busca aprovechar su impulso con su paquete de software ROCm. Durante el último seminario web «Conozca a los expertos», AMD analizó cómo su suite de gráficos Radeon, al igual que la serie RDNA 3, ofrece a los jugadores, creadores y desarrolladores una variedad de cargas de trabajo optimizadas que incluyen: Calidad de video mejorada Eliminación del ruido de fondo Texto a imagen (GenAI) Modelos de lenguajes grandes (GenAI) Edición de fotografías Edición de video Mejora de la escala Capacitación de modelos de texto a imagen (Linux) Plataforma ROCm (Linux) Comenzando con la arquitectura de gráficos AMD RDNA 3, las últimas GPU incluidas en las GPU Radeon RX 7000 y Ryzen 7000 Las CPU /8000 proporcionan más del doble de mejoras en el rendimiento de la IA con respecto a la última generación. Estos productos GPU ofrecen hasta 192 aceleradores de IA optimizados para cargas de trabajo FP16, están optimizados en múltiples marcos de ML como Microsoft DirectML, Nod.AI Shark y ROCm, y cuentan con grandes grupos de VRAM dedicada, esenciales para manejar grandes conjuntos de datos (hasta 48 GB) y también cuentan con un ancho de banda más rápido impulsado por la tecnología Infinity Cache. Según AMD, la mayoría de los casos de uso de IA en la plataforma de PC incluyen modelos LLM y Diffusion que dependen principalmente de las capacidades de computación y memoria del hardware en el que se ejecutan. Algunos modelos como SDXL (Diffusion) están vinculados a Compute y requieren entre 4 y 16 GB de memoria, mientras que Llama2-13B y Mistral-8x 7B están vinculados a memoria y pueden usar hasta 23 GB de memoria. Como se mencionó anteriormente, AMD tiene una amplia gama de hardware que cuenta con aceleración de IA dedicada. La Radeon RX 7600 XT de la compañía, una tarjeta gráfica de 329 dólares, también tiene 16 GB de VRAM y ofrece un aumento de rendimiento 3,6 veces mayor que el Ryzen 7 8700G en LM Studio, mientras que la RX 7900 XT es hasta 8 veces más rápida que la 8700G. Rendimiento de LM Studio (cuanto más alto, mejor): Ryzen 7 8700G NPU: 11 tokens/segundo RX 7600 XT 16 GB: 40 tokens/segundo RX 7900 XT 20 GB: 85 tokens/segundo AMUSE Difusión (cuanto más bajo, mejor): Ryzen 7 8700G NPU : 2,6 segundos/imagen RX 7600 XT 16GB: 0,97 segundos/imagen RX 7900 XT 20GB: 0,6 segundos/imagen AMD también hace una pequeña comparación con la GeForce RTX de NVIDIA, que el equipo verde llama la plataforma «Premium AI PC». Ambas líneas ofrecen soporte similar, pero AMD muestra cómo sus GPU de 16 GB tienen un precio más bajo de $329 dólares estadounidenses (7600 XT), mientras que la GPU de 16 GB más básica de NVIDIA comienza en alrededor de $500 dólares estadounidenses (4060 TI 16 GB). La compañía también tiene una pila de alta gama que escala hasta 48 GB de memoria. AMD también ha mostrado anteriormente un sólido rendimiento frente al Core Ultra de Intel en IA a un mejor valor. En el futuro, AMD habla sobre cómo está progresando ROCm 6.0 y cómo la pila de código abierto ha recibido soporte para hardware de consumo como Radeon RX 7900 XTX, 7900 XT, 7900 GRE, PRO W7900 y PRO W7800. ROCm 6.0 es compatible con los modelos y algoritmos PyTorch y ONNX Runtime ML en el sistema operativo Ubuntu 22.03.3 (Linux) y mejora la interoperabilidad agregando INT8 para modelos más complejos. La compañía también está tratando de hacer que ROCm sea aún más de código abierto ofreciendo a los desarrolladores una variedad de pilas de software y documentación de hardware. AMD y su suite ROCm compiten con la pila dominante NVIDIA CUDA y TensorRT, mientras que Intel también está ganando terreno con su propia pila OneAPI AI. Estas son las tres fuerzas a tener en cuenta cuando se trata de cargas de trabajo de IA en la plataforma de PC, por lo que se esperan muchas innovaciones y optimizaciones para el hardware existente y de próxima generación en el futuro. Comparte esta historia Facebook Twitter

About Carlos Carraveo Jimenez

Check Also

AMD Strix Halo: potencia con 16 núcleos Zen 5 y 40 núcleos GPU RDNA 3

La APU Strix Halo se basa en un diseño de chiplet con hasta tres. Esto …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *