La GPU Nvidia H100 Tensor Core
Agrandar / Una foto de prensa de la GPU Nvidia H100 Tensor Core.

Nvidia anunció ayer que su próxima GPU H100 «Hopper» Tensor Core estableció nuevos récords de rendimiento en su debut en los puntos de referencia MLPerf estándar de la industria, brindando resultados hasta 4.5 veces más rápido que el A100, actualmente el chip AI de producción más rápido de Nvidia.

Los puntos de referencia de MPerf (técnicamente llamados «MLPerfTM Inference 2.1») miden las cargas de trabajo de «inferencia», que muestran qué tan bien un chip puede aplicar un modelo de aprendizaje automático previamente entrenado a nuevos datos. Un grupo de empresas industriales conocido como MLCommons desarrolló los puntos de referencia de MLPerf en 2018 para proporcionar a los clientes potenciales una métrica estandarizada para enseñar el rendimiento del aprendizaje automático.

Los resultados de referencia de la H100 de Nvidia frente a la A100 en un elegante gráfico de barras.
Agrandar / Los resultados de referencia de la H100 de Nvidia frente a la A100 en un elegante gráfico de barras.

NVIDIA

El H100 se desempeñó particularmente bien en el benchmark BERT Large, que mide la potencia de procesamiento del lenguaje natural utilizando el modelo BERT desarrollado por Google. Nvidia atribuye este resultado particular de Transformer Engine a la arquitectura Hopper, que acelera específicamente el entrenamiento de los modelos de Transformer. Esto significa que el H100 podría acelerar futuros modelos de lenguaje natural similares a GPT-3 de OpenAI, capaz de escribir en muchos estilos diferentes y tener chats conversacionales.

Nvidia está posicionando el H100 como un chip de GPU de centro de datos de gama alta diseñado para aplicaciones de inteligencia artificial y supercomputación, como reconocimiento de imágenes, modelos de lenguaje grande, síntesis de imágenes y más. Los analistas esperan que reemplace a la A100 como la GPU insignia de Nvidia para centros de datos, pero aún está en desarrollo. Las restricciones a las exportaciones de chips a China, impuestas la semana pasada por el gobierno de EE. UU., generaron temores de que Nvidia no pueda enviar el H100 para fines de 2022, ya que parte de su desarrollo se lleva a cabo allí.

Nvidia aclaró en una segunda presentación ante la Comisión de Bolsa y Valores la semana pasada que el gobierno de EE. UU. permitirá un mayor desarrollo del H100 en China, por lo que el proyecto parece estar de nuevo en marcha por ahora. Según Nvidia, el H100 estará disponible «a finales de este año». Si el éxito del chip A100 de la generación anterior es una indicación, el H100 podría admitir una variedad de aplicaciones innovadoras de IA en los próximos años.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí