La GPU B300 es la nueva bestia de NVIDIA para IA. Y ya sabemos qué prepara para 2026 y 2027

  • Las GPU Blackwell Ultra trabajan en la plataforma B300 codo con codo con un mapa de 2,3 TB de memoria HBM3e

  • Este hardware llegará a los primeros centros de datos durante el segundo semestre de 2025

Nvidia Ap
1 comentario Facebook Twitter Flipboard E-mail

Jensen Huang, el cofundador y director general de NVIDIA, no ha dejado escapar la oportunidad de dar a conocer las próximas GPU para inteligencia artificial (IA) que han puesto a punto sus ingenieros en el marco de la GTC 2025 (GPU Technology Conference). Lo más espectacular que ha presentado este ingeniero eléctrico es la plataforma DGX B300. Este hardware es lo más potente que tiene actualmente NVIDIA para IA generativa, aunque según esta compañía también es su propuesta más eficiente desde un punto de vista energético.

Las GPU Blackwell Ultra trabajan en la plataforma B300 codo con codo con un mapa de 2,3 TB de memoria HBM3e, entregando según NVIDIA 72 PFLOPS en procesos de entrenamiento con precisión FP8 y nada menos que 144 PFLOPS en tareas de inferencia con precisión FP4. Estas cifras son una auténtica monstruosidad. De hecho, la plataforma B300 es 11 veces más rápida en inferencia y 4 veces en entrenamiento que su predecesora, la B200.

Este es el hardware con el que NVIDIA quiere mantener su liderazgo

Si nos fijamos en las cifras de consumo anunciadas por NVIDIA comprobaremos que aparentemente la eficiencia energética de las plataformas B200 y B300 es similar. La primera consume aproximadamente 14,3 kW máximos, y la segunda unos 14 kW. No obstante, hay algo que no debemos pasar por alto: las GPU de ambas soluciones han sido implementadas sobre la microarquitectura Blackwell, pero no son iguales. Los chips Blackwell Ultra de la plataforma B300 son más potentes que los Blackwell a secas de la infraestructura B200.

La plataforma B300 integra un 50% más de memoria, lo que le permite lidiar con modelos de IA más grandes

Además, la plataforma B300 integra un 50% más de memoria, lo que en teoría permite a este hardware lidiar con modelos de IA más grandes y con más parámetros. Esta propuesta llegará a los primeros centros de datos durante el segundo semestre de 2025. En cualquier caso, NVIDIA no ha hablado solo de su hardware actual en esta edición de su conferencia dedicada a la IA; también ha anticipado en qué están trabajando sus ingenieros para 2026 y 2027. La microarquitectura que reemplazará a Blackwell se conoce como Rubin, y, como cabe esperar, será aún mucho más potente que su predecesora.

Un detalle interesante es que Rubin será compatible con Blackwell a nivel de infraestructura, lo que permitirá a los clientes de NVIDIA combinar ambas soluciones. En cualquier caso, Rubin entregará 1,2 exaflops en procesos de entrenamiento con precisión FP8 frente a los 0,36 exaflops de la plataforma B300. Llegará durante la segunda mitad de 2026.

Y durante el segundo semestre de 2027 NVIDIA lanzará Rubin Ultra, una revisión que según esta compañía alcanzará los 5 exaflops en tareas de entrenamiento con precisión FP8, por lo que su rendimiento en este escenario será casi cuatro veces mayor que el de Rubin. Un último apunte interesante: Rubin usará memoria HBM4, mientras que Rubin Ultra contará con HBM4e.

Imagen | NVIDIA

Más información | NVIDIA

En Xataka | La IA ya es nuestra mejor aliada para resolver los problemas matemáticos que parecen imposibles

Inicio