NVIDIA enviará millones de GPU Blackwell, llevando la demanda de TSMC CoWoS y HBM DRAM a nuevas alturas

Se espera que las GPU Blackwell AI de NVIDIA impulsen todos los demás segmentos asociados, incluidos CoWoS (TSMC) y HBM DRAM, ya que el mercado espera que se envíen millones de chips para 2025. HBM y la industria del empaquetado de chips presenciarán un enorme crecimiento el próximo año gracias a NVIDIA. GPU Blackwell AI, enormes cantidades que se enviarán en 2025 TrendForce informa que las últimas GPU NVIDIA Blackwell para AI se convertirán en el próximo «Santo Grial» de la industria, ya que el rendimiento que están aportando a los mercados ha atraído la atención de varios clientes importantes. Esto incluye el SUPERCHIP GB200, que se espera que represente entre el 40% y el 50% del suministro de Blackwell de NVIDIA en 2025. Así, se producirán millones de unidades de GPU Blackwell, replicando el éxito de la gama Hopper de NVIDIA. Fuente de la imagen: Trendforce Sin embargo, con este aumento significativo en la demanda, las empresas proveedoras asociadas a NVIDIA tendrán un año excepcional en términos de demanda del mercado; Por tanto, empresas como TSMC y otras tendrán que mejorar las instalaciones existentes. La cadena de suministro tiene grandes expectativas para el GB200, y las proyecciones sugieren que sus envíos podrían superar los millones de unidades para 2025, lo que podría representar casi el 40-50% del mercado de GPU de gama alta de NVIDIA. Trendforce Se informa que se espera que la capacidad total de CoWoS (Chip-on-Wafer-on-Substrate) de TSMC alcance las 40.000 unidades para fines de 2024, lo que marca un enorme aumento interanual del 150%, acreditado por la pregunta gigante. abordado por el gigante taiwanés. Además, la tecnología CoWoS también juega un papel crucial para otros productos de IA, lo que significa que el segmento de embalaje experimentará un crecimiento considerable. Además de los mercados CoWoS, también se espera que las GPU Blackwell de NVIDIA eleven el segmento HBM a nuevas alturas, especialmente con el cambio generacional pendiente de HBM3 a HBM3e DRAM que todavía se espera en los productos principales de NVIDIA y otros competidores. . Fuente de la imagen: NVIDIA Además, con el debut de las GPU Blackwell AI de NVIDIA, como GB200, B200 y B100, la tasa de adopción de HBM3e aumentará significativamente, sin mencionar también las actualizaciones de capacidad, que se espera que alcancen hasta 192 GB y 288 GB en finales de 2024. Los próximos mercados de IA serán muy diferentes de los existentes, no solo por la exageración del mercado. Sin embargo, esta vez el flujo de ingresos será mucho mayor, ya que genAI y AGI han experimentado recientemente una adopción masiva, impulsando tanto el segmento de informática como el de clientes. Comparte esta historia Facebook Twitter

About Carlos Carraveo Jimenez

Check Also

TSMC prepara matrices base HBM4 de próxima generación, construidas en nodos de 12 nm y 5 nm

Entre los principales cambios en la memoria HBM4, uno de los más inmediatos es el …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *