Graphcore refuerza sus ofertas de inteligencia artificial para centros de datos

hace 2 años

Los servidores con aceleradores de IA pueden aumentar el rendimiento a un nivel equivalente a las supercomputadoras, todo en un espacio reducido.

La empresa británica Graphcore, que desarrolla aceleradores para inteligencia artificial y aprendizaje automático, ha aumentado significativamente el rendimiento de sus servidores IPU (Unidad de procesamiento de inteligencia) masivamente paralelos. Los chips orientados a IA de Graphcore se venden en diseños de montaje en bastidor llamados IPU-POD. Hasta ahora, el bastidor IPU-POD64 existente podía acomodar un máximo de 64 unidades. Pero los últimos racks IPU-POD128 e IPU-POD256 pueden acomodar entre dos y cuatro veces más.

Graphcore afirma que los 32 petaFLOPS de capacidad de procesamiento de IA del IPU-POD 128 y los 64 petaFLOPS del IPU-POD 256, llevan sus racks al nivel de supercomputadoras de IA, además de una huella mucho mayor. más débil que el de una supercomputadora convencional, que es del tamaño de una cancha de baloncesto. Los sistemas IPU-POD son capaces de manejar tareas de cómputo de IA desde servidores por separado, lo que significa que se pueden ejecutar diferentes tipos de cargas de trabajo de IA que requieren diferentes niveles de rendimiento en el mismo POD. Por ejemplo, se puede asignar un IPU-POD para aprender más rápidamente modelos de lenguaje grandes basados ​​en Transformer en todo un sistema, o dividir el sistema en vPOD más pequeños y flexibles para permitir que un mayor número de desarrolladores acceda a las IPU.

De HPC a formato compacto

Este desglose es posible gracias a la pila de software Poplar de Graphcore, que incluye un SDK, Graphcore Communication Library (GCL) para administrar la comunicación y sincronización entre las IPU y PopRun y ​​PopDist, que permiten a los desarrolladores ejecutar sus aplicaciones en varios sistemas IPU-POD. Para la comunicación IPU dentro del rack, los POD anteriores usaban enlaces IPU de 64 Gb / s. Ahora, el IPU-POD128 y el IPU-POD256 utilizan los nuevos enlaces de puerta de enlace, una conexión horizontal de rack a rack que amplía los enlaces IPU mediante un túnel a través de Ethernet de 100 Gb.

Ambos sistemas han sido desarrollados para hiperescaladores en la nube, laboratorios de computación científica nacionales y empresas con grandes equipos de IA en mercados como los servicios financieros o la industria farmacéutica. Entre los primeros clientes de Graphcore se encontraban el Laboratorio Nacional Lawrence Berkeley del Departamento de Energía de EE. UU. Y JP Morgan. Los modelos IPU-POD16, IPU-POD64, IPU-POD128 e IPU-POD256 son entregados hoy por el gigante francés de TI ATOS y otros socios integradores de sistemas de todo el mundo. También están disponibles en la nube en Cirrascale.

Si quieres conocer otros artículos parecidos a Graphcore refuerza sus ofertas de inteligencia artificial para centros de datos puedes visitar la categoría Otros.

Otras noticias que te pueden interesar

Subir