DPU e IPU para hacer que los centros de datos sean más eficientes

D

Como parte de su Proyecto de Infraestructura Programable Abierta, la Fundación Linux tiene la intención de confiar en las unidades de infraestructura y procesamiento de datos para aliviar el procesamiento de las tareas de la CPU.

El anuncio de la Fundación Linux esta semana de un plan para integrar Unidades de procesamiento de datos (DPU) y Unidades de procesamiento de infraestructura (IPU) en futuros centros de datos e infraestructuras en la nube debería deleitar a las empresas interesadas. en uso de estas unidades de procesamiento. De hecho, estos dispositivos de red programables (DPU, IPU y smartNIC) pueden liberar CPU y, por lo tanto, mejorar el rendimiento de los servicios de nube, procesamiento, redes, almacenamiento y seguridad definidos por software. Llamados Proyectos de Infraestructura Programable Abierta (OPI), el nuevo proyecto planea confiar a una comunidad el desarrollo de estándares para construir arquitecturas basadas en DPU/IPU. “OPI desarrollará técnicas para simplificar las API de red, almacenamiento y seguridad en las aplicaciones y aumentar la portabilidad y la eficiencia de las aplicaciones en la nube y del centro de datos aprovechando los enfoques DevOps, SecOps y NetOps”, dijo Linux Foundation.

Dell Technologies, F5, Intel, Keysight Technologies, Marvell, Nvidia y Red Hat se encuentran entre los miembros fundadores de la OPI. Otras empresas, como AWS y AMD, que están desarrollando smartNIC y DPU para su implementación en redes perimetrales, de colocación o de proveedores de servicios, también se unirán al proyecto. “Las DPU y las IPU son un ejemplo perfecto de tecnología emergenteSe encuentra entre los más prometedores para la nube y los centros de datos en la actualidad, y OPI está preparado para acelerar la adopción y la oportunidad al respaldar un ecosistema para las tecnologías DPU e IPU”, dijo Mike Dolan, vicepresidente senior de estos proyectos. en la Fundación Linux.

DPU e IPU cada vez más ocupadas

Los objetivos de la OPI son: definir marcos y arquitecturas independientes del proveedor para pilas de software basadas en DPU e IPU, de modo que sean aplicables a todas las soluciones de hardware; permitir la creación de un rico ecosistema de aplicaciones de código abierto; integrar proyectos de código abierto existentes que tengan el mismo objetivo, como el kernel de Linux; crear nuevas API para interactuar con y entre los elementos del ecosistema DPU e IPU, incluido el hardware, las aplicaciones alojadas, el nodo host y el aprovisionamiento y orquestación de software remoto. Según Dolan, las aplicaciones como 5G, AI/ML, Web3, criptografía, etc. utilizan cada vez más DPU e IPU para admitir capacidades y procesamiento de red de alta velocidad. algunos paquetes. En lugar de hacer de los servidores la unidad de infraestructura para la nube, el perímetro y el centro de datos, los operadores podrían crear grupos desagregados de recursos de redes, cómputo y almacenamiento alimentados por DPU, IPU, GPU y CPU para cumplir con las cargas de trabajo de las aplicaciones y los requisitos de escala de sus clientes. .

Además de este anuncio, la Fundación Linux aclaró que Nvidia ha contribuido al proyecto de Infraestructura abierta programable al ofrecer sus API de software de red DOCA. «DOCA incluye controladores, bibliotecas, servicios, documentación, aplicaciones de muestra y herramientas de gestión para acelerar y simplificar el desarrollo y el rendimiento de las aplicaciones», dijo Nvidia. DOCA permite la flexibilidad y la portabilidad de las aplicaciones BlueField, el paquete acelerador de servicios del centro de datos de NVIDIA, escrito con controladores acelerados o bibliotecas de bajo nivel, como DPDK, SPDK, Open vSwitch u Open SSL.

Salir de la versión móvil