Nvidia presenta Blackwell B200, el “chip más potente del mundo” diseñado para IA

Nvidia presenta Blackwell B200, el “chip más potente del mundo” diseñado para IA
El GB200
Agrandar / El “superchip” GB200 cubierto por una extraña explosión azul.

Nvidia/Benj Edwards

El lunes, Nvidia desvelado el chip de núcleo tensor Blackwell B200, la GPU de un solo chip más potente de la compañía, con 208 mil millones de transistores, que según Nvidia puede reducir los costos operativos de inferencia de IA (como la ejecución de ChatGPT) y el consumo de energía hasta 25 veces en comparación con el H100. La compañía también presentó el GB200, un “superchip” que combina dos chips B200 y una CPU Grace para lograr un rendimiento aún mayor.

La noticia surgió como parte de la conferencia anual GTC de Nvidia, que se llevará a cabo esta semana en el Centro de Convenciones de San José. El director ejecutivo de Nvidia, Jensen Huang, pronunció el fundamental La tarde del Lunes. “Necesitamos GPU más grandes”, dijo Huang durante su discurso de apertura. La plataforma Blackwell permitirá el entrenamiento de modelos de IA de billones de parámetros que harán que los modelos de IA generativos actuales parezcan rudimentarios en comparación, dijo. Como referencia, el GPT-3 de OpenAI, lanzado en 2020, incluía 175 mil millones de parámetros. El recuento de parámetros es un indicador aproximado de la complejidad del modelo de IA.

Nvidia nombró la arquitectura Blackwell en honor a < a rel="nofollow noopener" target="_blank" href="https://en.wikipedia.org/wiki/David_Blackwell">David Harold Blackwell

, un matemático que se especializó en teoría de juegos y estadística y fue el primer académico negro ingresado en la Academia Nacional de Ciencias. La plataforma presenta seis tecnologías para computación acelerada, incluido un Transformer Engine de segunda generación, NVLink de quinta generación, RAS Engine, capacidades seguras de IA y un motor de descompresión para consultas aceleradas de bases de datos.

Fotografía de prensa del chip Grace Blackwell GB200, que combina dos GPU B200 con una CPU Grace en un solo chip.
Agrandar / Fotografía de prensa del chip Grace Blackwell GB200, que combina dos GPU B200 con una CPU Grace en un solo chip.

Se espera que varias organizaciones importantes, como Amazon Web Services, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla y xAI, adopten la plataforma Blackwell y Nvidia. presione soltar está repleto de citas enlatadas de directores ejecutivos de tecnología (clientes clave de Nvidia) como Mark Zuckerberg y Sam Altman elogiando la plataforma.

Las GPU, que antes solo estaban diseñadas para la aceleración de juegos, son especialmente adecuadas para tareas de IA porque su arquitectura masivamente paralela acelera la inmensa cantidad de tareas de multiplicación de matrices necesarias para ejecutar las redes neuronales actuales. Con el surgimiento de nuevas arquitecturas de aprendizaje profundo en la década de 2010, Nvidia se encontró en una posición ideal para capitalizar la revolución de la IA y comenzó a diseñar GPU especializadas solo para la tarea de acelerar modelos de IA.

El enfoque de Nvidia en los centros de datos ha hecho que la empresa sea tremendamente rica y valiosa, y estos nuevos chips continúan la tendencia. Los ingresos por GPU para juegos de Nvidia (2.900 millones de dólares en el último trimestre) son eclipsados ​​en comparación con los ingresos del centro de datos (18.400 millones de dólares), y eso no muestra signos de detenerse.

Una bestia dentro de una bestia

Fotografía de prensa del sistema informático del centro de datos Nvidia GB200 NVL72.
Agrandar / Fotografía de prensa del sistema informático del centro de datos Nvidia GB200 NVL72.

El chip Grace Blackwell GB200 antes mencionado llega como parte clave del nuevo NVIDIA GB200 NVL72, un sistema informático de centro de datos de múltiples nodos y refrigeración líquida diseñado específicamente para tareas de inferencia y entrenamiento de IA. Combina 36 GB200 (es decir, 72 GPU B200 y 36 CPU Grace en total), interconectados por NVLink de quinta generación, que vincula chips para multiplicar el rendimiento.

Una tabla de especificaciones para el sistema Nvidia GB200 NVL72.
Agrandar / Una tabla de especificaciones para el sistema Nvidia GB200 NVL72.

“El GB200 NVL72 proporciona un aumento de rendimiento de hasta 30 veces en comparación con la misma cantidad de GPU NVIDIA H100 Tensor Core para cargas de trabajo de inferencia LLM y reduce el costo y el consumo de energía hasta 25 veces”, dijo Nvidia.

Ese tipo de aceleración podría potencialmente ahorrar dinero y tiempo al ejecutar los modelos de IA actuales, pero también permitirá construir modelos de IA más complejos. Los modelos de IA generativa, como los que impulsan Google Gemini y los generadores de imágenes de IA, son famosos por su hambre computacional. Se ha citado ampliamente que la escasez de potencia informática frena el progreso y investigación en el campo de la IA, y la búsqueda de más computación ha llevado a figuras como el CEO de OpenAI, Sam Altman, a intentar negociar acuerdos para crear nuevas fundiciones de chips.

Si bien las afirmaciones de Nvidia sobre las capacidades de la plataforma Blackwell son significativas, vale la pena señalar que su rendimiento en el mundo real y la adopción de la tecnología aún están por verse a medida que las organizaciones comiencen a implementar y utilizar la plataforma por sí mismas. Competidores como Intel y AMD También están buscando hacerse con una parte del pastel de IA de Nvidia.

Nvidia dice que los productos basados ​​en Blackwell estarán disponibles a través de varios socios a partir de finales de este año.

Leave a Reply

Your email address will not be published. Required fields are marked *