Nvidia tiene como objetivo acelerar la transferencia de datos mediante la fusión de GPU de centros de datos con SSD

imágenes falsas

Microsoft trajo DirectStorage a las PC con Windows esta semana. La API promete tiempos de carga más rápidos y gráficos más detallados al permitir que los desarrolladores de juegos creen aplicaciones que carguen datos gráficos desde el SSD directamente a la GPU. Ahora Nvidia e IBM han desarrollado una tecnología SSD/GPU similar, pero apuntan a los grandes conjuntos de datos en los centros de datos.

En lugar de apuntar a juegos de consola o PC como DirectStorage, Big Accelerator Memory (BaM) tiene como objetivo brindar a los centros de datos acceso rápido a cantidades masivas de datos en aplicaciones intensivas en GPU como aprendizaje automático, análisis y computación de alto rendimiento, según una investigación descubierta esta semana. por El Registro. Titulado «BaM: Un caso para habilitar el acceso al almacenamiento orquestado por GPU de alto rendimiento y grano fino» (PDF), el artículo de investigadores de Nvidia, IBM y algunas universidades de EE. UU. propone una forma más eficiente de ejecutar aplicaciones de próxima generación en centros de datos. con enorme poder de cómputo y ancho de banda de memoria.

BaM también se diferencia de DirectStorage en que los desarrolladores de la arquitectura del sistema planean hacerlo de código abierto.

El documento establece que, si bien el acceso a datos de memoria orquestado por CPU es adecuado para aplicaciones de GPU «clásicas», como o impulso de tráfico de E/S». Esto lo hace menos adecuado para las aplicaciones de próxima generación que utilizan gráficos y análisis de datos, sistemas de recomendación, redes neuronales gráficas y otros «patrones de acceso dependientes de datos de grano fino», escriben los autores.

Implementación del prototipo BaM con
Agrandar / Implementación de prototipos de BaM con componentes listos para usar.

Al igual que DirectStorage, BaM funciona con un SSD NVMe. Según el artículo, «BaM mitiga el aumento en el tráfico de E/S al permitir que los subprocesos de la GPU lean o escriban pequeñas cantidades de datos bajo demanda, según lo determine la computadora».

Más específicamente, BaM utiliza la memoria integrada de una GPU, que es un caché administrado por software y una biblioteca de software de subprocesos de GPU. Los subprocesos reciben datos del SSD y los mueven mediante un controlador de kernel de Linux personalizado. Los investigadores realizaron pruebas en un sistema prototipo con una GPU PCIe Nvidia A100 de 40 GB, dos CPU AMD EPYC 7702, cada una con 64 núcleos y 1 TB de memoria DDR4-3200. El sistema ejecuta Ubuntu 20.04 LTS.

El sistema prototipo de los investigadores incluía una GPU PCIe Nvidia A100 de 40 GB (en la foto).

El sistema prototipo de los investigadores incluía una GPU PCIe Nvidia A100 de 40 GB (en la foto).

Los autores señalaron que incluso un SSD de «grado de consumidor» podría admitir BaM con un rendimiento de la aplicación «competitivo frente a una solución mucho más costosa de solo DRAM».

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí