Sumérgete en @nvidia 🐰 Arquitecturas de GPU Hopper vs ⚙️ Blackwell: saltos sucesivos en potencia de cálculo e interconexiones para tus cargas de trabajo de IA👇
🐰 Hopper (H100 y H200) presentó núcleos Tensor de cuarta generación + un motor de transformador FP8, ofreciendo hasta 9× más rápido entrenamiento y 30× más rápida inferencia en comparación con A100. ⚙️ Blackwell (B200)—enviando a finales de 2024—combina dos chips sobre un NV-HBI de 10 TB/s, añade FP4 y utiliza NVLink-5 para hasta 30× de inferencia en clúster.
@nvidia 🐰 Especificaciones de Hopper Núcleos Tensor: mezcla de FP8/FP16/TF32 Memoria: - H100 → 80 GB HBM3 a 3.35 TB/s - H200 → 141 GB HBM3e a 4.8 TB/s NVLink: hasta 900 GB/s por GPU
@nvidia 🐰 Hopper en acción Los benchmarks muestran que el H200 potencia la inferencia de Llama-2 70B de un 45 a un 100% más rápido en comparación con el H100. ⚠️ Ambos experimentaron escasez de suministro en 2023–25. 💻 En la nube de Hyperbolic: VMs H100 y clusters bare-metal con Ethernet + InfiniBand comenzando en $1.49/hora. H200 y B200 a través de cotización instantánea.
@nvidia ⚙️ Innovaciones Blackwell - Diseño de chiplet (TSMC 4NP, 208 B transistores, 10 TB/s NV-HBI) - Motor Transformer de 2ª generación: FP4 + FP8 mejorado - NVLink-5: 18 enlaces a 1.8 TB/s en total - Motor de descompresión: 800 GB/s CPU↔GPU - RAS completo y Computación Confidencial
📊 Comparando Rendimiento H100 SXM: 80 GB @ 3.35 TB/s, 3.96 PFLOPS (FP8), 1.98 PFLOPS (FP16), 67 TFLOPS (FP32), NVLink 900 GB/s, 700 W H200 SXM: 141 GB @ 4.8 TB/s, mismos PFLOPS/TFLOPS de computación, NVLink 900 GB/s, 700 W HGX B200: 180 GB @ 7.7 TB/s, 9 PFLOPS (FP8), 4.5 PFLOPS (FP16), 75 TFLOPS (FP32), NVLink 1.8 TB/s, 1000 W
@nvidia ❓ ¿Qué es un FLOP? 1 operación de punto flotante (suma/multiplicación) 1 TFLOP = 10¹² ops/s 1 PFLOP = 10¹⁵ ops/s = 1000× un TFLOP Estas métricas muestran cuán rápido las GPU procesan las enormes matemáticas detrás del entrenamiento de IA y HPC.
@nvidia 🔚 Conclusión: 🐰 Hopper estableció el estándar con precisión mixta FP8 y tuberías asíncronas. ⚙️ Blackwell impulsa la próxima generación con FP4, más memoria, NVLink-5. H100 sigue siendo el caballo de batalla—alquílalo por $1.49/hora. H200 y B200 disponibles a pedido a través de
@nvidia Lee el artículo completo en:
4.46K