• Latest
  • Trending
Raja Koduri, Intel: «Ponte Vecchio supera a las GPU de Nvidia en muchas cargas de trabajo»

Raja Koduri, Intel: «Ponte Vecchio supera a las GPU de Nvidia en muchas cargas de trabajo»

marzo 29, 2022
MEREG SETTEMBRE ETHEEREUM

Ethereum vuela gracias a la fusión | Prueba en Görli ok, ahora falta…

agosto 13, 2022
L

Palo Alto lanza el servicio experto de detección y respuesta gestionada

agosto 13, 2022
Illustration shows Swedish and NATO flags

Suecia acuerda extraditar a un hombre a Turquía a raíz del acuerdo de la OTAN

agosto 13, 2022
Commerzbank aborda una breve interrupción en la banca móvil y en línea

Commerzbank aborda una breve interrupción en la banca móvil y en línea

agosto 13, 2022
TUTTO OK BITCOIN

Bitcoin se dispara por encima de los 24.000 dólares | Wall Street se prepara para este evento

agosto 13, 2022
La FTC asume la protección de datos y la privacidad

La FTC asume la protección de datos y la privacidad

agosto 13, 2022
Sierra Leone imposes nationwide curfew amid deadly anti-government protests

Freetown en estado de shock después de decenas de muertos en las protestas de Sierra Leona

agosto 13, 2022
Toshiba registra una sorpresiva pérdida operativa trimestral debido al aumento de los costos

Toshiba registra una sorpresiva pérdida operativa trimestral debido al aumento de los costos

agosto 13, 2022
Los estudiantes aplauden mientras las herramientas de traducción en línea agregan más idiomas africanos

Los estudiantes aplauden mientras las herramientas de traducción en línea agregan más idiomas africanos

agosto 12, 2022
LAMBORGHINI ARRIVANO NFT

Lamborghini sigue en el mundo NFT | Aquí está el último proyecto de superdeportivo.

agosto 12, 2022
Decathlon ha completado su migración a la nube

Decathlon ha completado su migración a la nube

agosto 12, 2022
North Korean leader Kim Jong Un attends a Worker

Corea del Norte declara victoria sobre COVID, sugiere que el líder Kim lo tenía

agosto 12, 2022
Mundo Informático
sábado, agosto 13, 2022
  • Inicio
  • Ciencia
  • Artículos
  • Criptomonedas
  • Tecnología
  • Otros
No Result
View All Result
Mundo Informático
No Result
View All Result

Raja Koduri, Intel: «Ponte Vecchio supera a las GPU de Nvidia en muchas cargas de trabajo»

by Mundo Informatico
marzo 29, 2022
in Otros
0

Hace dos semanas, Intel anunció una inversión de varios miles de millones de euros en Europa, particularmente en Francia, en el campo de HPC e IA. Raja Koduri, vicepresidente senior y gerente general del grupo de gráficos y sistemas de computación acelerada de Intel, habló sobre las últimas tecnologías presentadas.

¿Puede volver a las inversiones en HPC e IA anunciadas por Intel en Europa el 15 de marzo? ¿Cuáles son los puntos clave?

Raja Koduri: La conclusión es que esta es nuestra mayor inversión en investigación y desarrollo en computación de alto rendimiento e inteligencia artificial fuera de nuestros sitios de diseño central. Esto es muy importante porque estos dos campos, HPC e IA, se están desarrollando a un ritmo muy rápido. El tamaño de este mercado alcanzará los 155 mil millones de dólares en 2026. Es un mercado que está creciendo muy rápidamente y podrá atraer habilidades muy avanzadas en matemáticas, física e informática y, por lo tanto, los mejores cerebros en Francia y en Europa, es algo particularmente emocionante para nosotros. Así que estamos ansiosos por participar y desarrollar productos y tecnologías que ayudarán a Intel a ser muy fuerte, a Europa a ser muy fuerte, porque HPC e IA impactan en todo: automotriz, agricultura, clima, descubrimiento de fármacos, energía, genómica, ciencias de la vida, así como aplicaciones de metaverso.

En HPC, ¿cuáles son los puntos fuertes de Intel frente a los aceleradores de Nvidia?

Más del 85 % de los sistemas informáticos de alto rendimiento del mundo actual se basan en procesadores Xeon en la parte de la CPU. En cuanto a la aceleración, las GPU de Nvidia se han convertido en las líderes. Es cierto, Intel no ha estado en este mercado durante los últimos diez años. Pero este año, lanzaremos Ponte Vecchio, nuestra primera GPU para centros de datos. Recientemente demostramos que venció a la GPU de Nvidia en muchas, muchas cargas de trabajo de HPC. Por lo tanto, Intel está entrando en este mercado. Y con esta inversión en Europa, tenemos una hoja de ruta de 5 años, aumentando nuestras capacidades en esta área cada año y superando a Nvidia en este campo. Este es por tanto el objetivo del centro.

Frente a AMD, que ha fortalecido significativamente su posición en el mercado en los últimos años, ¿cuáles son sus puntos fuertes?

AMD ha puesto mucho énfasis en la parte del centro de datos. Este año estamos lanzando nuestra CPU Xeon para HPC con capacidades de memoria de alto ancho de banda. Somos los únicos con memoria de gran ancho de banda [ndlr : HBM, high bandwidth memory] Y allí también, en la reciente reunión de inversores, demostré que nuestro Xeon con HBM [ndlr : Xeon Sapphire Rapids + HBM] es significativamente más rápido que el mejor de AMD [ndlr : Epyc Milan-X]. Por lo tanto, con el Ponte Vecchio en el lado de la GPU y el Xeon HBM en el lado de la CPU, estamos muy bien posicionados este año para recuperar nuestro liderazgo tanto en el lado de la CPU como en el de la GPU del mercado de HPC.

¿Cómo combina Intel los chips Xeon y las GPU para optimizar el rendimiento?

Nuestras CPU, como las próximas Sapphire Rapids, las Xeon HBM, ya cuentan con una potencia informática inmensa. Y ahora, cuando recurrimos a la GPU, el software puede aprovechar ambas. Nuestro software utilizará capacidades de operación de coma flotante, capacidades de operación de enteros y otros motores de movimiento de datos en la CPU y la GPU, lo que traerá beneficios al software en general. Más allá de eso, Intel también probó el estándar CXL [ndlr : Compute Express Link]. Y en los próximos años, la CPU y la GPU se comunicarán mucho más estrechamente con los accesos persistentes a la memoria y similares. También anunciamos recientemente una nueva arquitectura llamada Falcon Shores que combina CPU y GPU en el mismo zócalo. Todo esto va en la dirección de una optimización conjunta de la CPU y la GPU por parte de Intel.

En cuanto al software, ¿qué ofrece Intel para ayudar a los desarrolladores a paralelizar sus aplicaciones para su GPU?

A lo largo de los años, Intel ha proporcionado muchas bibliotecas y herramientas para paralelizar aplicaciones para CPU, subprocesos múltiples, etc. Durante 20 años, Intel ha sido líder en este campo. Para las GPU, creamos esta tecnología llamada oneAPI que es abierta, está disponible para todos e incluso funciona en Nvidia y AMD. Lo que hace oneAPI es aprovechar los 20 años de trabajo de Intel en herramientas para la paralelización, la programación paralela, la creación de perfiles y la depuración, y llevarlos a las GPU para beneficiarse de todo el trabajo ya realizado para las CPU. Así que oneAPI está aquí y está ganando una gran popularidad. Y uno de nuestros objetivos con nuestras inversiones en Europa es promover oneAPI, aumentar la adopción, crear más bibliotecas para que sea más fácil de usar, etc.

Sobre las tecnologías de aceleración de procesamiento de IA, ¿qué ya se está implementando y qué aún debe suceder?

En la IA, es por lo menos un curso de 20 años que está comprometido y estamos en los primeros 5 años. Todo lo básico, como el aprendizaje profundo de redes pequeñas a nivel de un solo nodo, ha sucedido en los últimos 5 años. Y el siguiente paso, que por cierto también es un área prioritaria de nuestro centro europeo de I+D, es que los problemas de IA no se limiten a un nodo, ni a 10 nodos sino que se extiendan a miles de nodos. Es por eso que necesitamos tratamientos de zettascale. ¿Cómo construimos estas poderosas computadoras para estas grandes redes de IA de tal manera que podamos programarlas de manera productiva y muy eficiente? Y eso es lo que esperamos con estas nuevas arquitecturas como Falcon Shores y otras iniciativas de escala zetta que hemos anunciado. En este contexto, también mencionamos la colaboración con el Barcelona Supercomputing Center.

En cuanto a la reducción del consumo energético de los chips y de los sistemas de refrigeración de los servidores, ¿cuáles son los avances de Intel?

En los aspectos de consumo energético, en la perspectiva de zettascale, nos hemos fijado un objetivo muy difícil de multiplicar por mil el rendimiento en los próximos 5 años al mismo nivel de potencia eléctrica. Estamos viendo 5 áreas. El primero es la arquitectura de la computadora y el rendimiento por vatio. El segundo aspecto se relaciona con la memoria y cómo movemos datos entre diferentes elementos computacionales. Y hoy en día la mayor parte de la energía se consume para mover los datos y no para los tratamientos en sí. Entonces, ¿cómo podemos reducir la cantidad de datos que movemos? Es una gran oportunidad. El tercer aspecto, que usted menciona, se refiere al enfriamiento térmico y al suministro de energía. Estamos viendo diferentes iniciativas. Y, de hecho, estas son áreas a las que se dirigen nuestros Centros Europeos de Diseño. El cuarto aspecto es la próxima generación de tecnología de transistores que nos traerá muchas ventajas. Y también imaginamos una operación de voltaje muy bajo de estos transistores para lograr una eficiencia energética o un rendimiento por vatio muy altos. Todas estas técnicas serán objeto de un diseño arquitectónico a lo largo de los próximos años.

¿Qué papel juegan los aceleradores de red?

Sobre aceleradores IPU [ndlr : Infrastructure processing unit] y SmartNIC, anunciamos nuestra primera generación cuya arquitectura detallamos. Y tenemos un historial completo de varios años en nuestra IPU, que consideramos una categoría muy importante. No solo para HPC, sino también para centros de datos y edge computing.

Hace dos semanas, Intel anunció una inversión de varios miles de millones de euros en Europa, particularmente en Francia, en el campo de HPC e IA. Raja Koduri, vicepresidente senior y gerente general del grupo de gráficos y sistemas de computación acelerada de Intel, habló sobre las últimas tecnologías presentadas.

¿Puede volver a las inversiones en HPC e IA anunciadas por Intel en Europa el 15 de marzo? ¿Cuáles son los puntos clave?

Raja Koduri: La conclusión es que esta es nuestra mayor inversión en investigación y desarrollo en computación de alto rendimiento e inteligencia artificial fuera de nuestros sitios de diseño central. Esto es muy importante porque estos dos campos, HPC e IA, se están desarrollando a un ritmo muy rápido. El tamaño de este mercado alcanzará los 155 mil millones de dólares en 2026. Es un mercado que está creciendo muy rápidamente y podrá atraer habilidades muy avanzadas en matemáticas, física e informática y, por lo tanto, los mejores cerebros en Francia y en Europa, es algo particularmente emocionante para nosotros. Así que estamos ansiosos por participar y desarrollar productos y tecnologías que ayudarán a Intel a ser muy fuerte, a Europa a ser muy fuerte, porque HPC e IA impactan en todo: automotriz, agricultura, clima, descubrimiento de fármacos, energía, genómica, ciencias de la vida, así como aplicaciones de metaverso.

En HPC, ¿cuáles son los puntos fuertes de Intel frente a los aceleradores de Nvidia?

Más del 85 % de los sistemas informáticos de alto rendimiento del mundo actual se basan en procesadores Xeon en la parte de la CPU. En cuanto a la aceleración, las GPU de Nvidia se han convertido en las líderes. Es cierto, Intel no ha estado en este mercado durante los últimos diez años. Pero este año, lanzaremos Ponte Vecchio, nuestra primera GPU para centros de datos. Recientemente demostramos que venció a la GPU de Nvidia en muchas, muchas cargas de trabajo de HPC. Por lo tanto, Intel está entrando en este mercado. Y con esta inversión en Europa, tenemos una hoja de ruta de 5 años, aumentando nuestras capacidades en esta área cada año y superando a Nvidia en este campo. Este es por tanto el objetivo del centro.

Frente a AMD, que ha fortalecido significativamente su posición en el mercado en los últimos años, ¿cuáles son sus puntos fuertes?

AMD ha puesto mucho énfasis en la parte del centro de datos. Este año estamos lanzando nuestra CPU Xeon para HPC con capacidades de memoria de alto ancho de banda. Somos los únicos con memoria de gran ancho de banda [ndlr : HBM, high bandwidth memory] Y allí también, en la reciente reunión de inversores, demostré que nuestro Xeon con HBM [ndlr : Xeon Sapphire Rapids + HBM] es significativamente más rápido que el mejor de AMD [ndlr : Epyc Milan-X]. Por lo tanto, con el Ponte Vecchio en el lado de la GPU y el Xeon HBM en el lado de la CPU, estamos muy bien posicionados este año para recuperar nuestro liderazgo tanto en el lado de la CPU como en el de la GPU del mercado de HPC.

¿Cómo combina Intel los chips Xeon y las GPU para optimizar el rendimiento?

Nuestras CPU, como las próximas Sapphire Rapids, las Xeon HBM, ya cuentan con una potencia informática inmensa. Y ahora, cuando recurrimos a la GPU, el software puede aprovechar ambas. Nuestro software utilizará capacidades de operación de coma flotante, capacidades de operación de enteros y otros motores de movimiento de datos en la CPU y la GPU, lo que traerá beneficios al software en general. Más allá de eso, Intel también probó el estándar CXL [ndlr : Compute Express Link]. Y en los próximos años, la CPU y la GPU se comunicarán mucho más estrechamente con los accesos persistentes a la memoria y similares. También anunciamos recientemente una nueva arquitectura llamada Falcon Shores que combina CPU y GPU en el mismo zócalo. Todo esto va en la dirección de una optimización conjunta de la CPU y la GPU por parte de Intel.

En cuanto al software, ¿qué ofrece Intel para ayudar a los desarrolladores a paralelizar sus aplicaciones para su GPU?

A lo largo de los años, Intel ha proporcionado muchas bibliotecas y herramientas para paralelizar aplicaciones para CPU, subprocesos múltiples, etc. Durante 20 años, Intel ha sido líder en este campo. Para las GPU, creamos esta tecnología llamada oneAPI que es abierta, está disponible para todos e incluso funciona en Nvidia y AMD. Lo que hace oneAPI es aprovechar los 20 años de trabajo de Intel en herramientas para la paralelización, la programación paralela, la creación de perfiles y la depuración, y llevarlos a las GPU para beneficiarse de todo el trabajo ya realizado para las CPU. Así que oneAPI está aquí y está ganando una gran popularidad. Y uno de nuestros objetivos con nuestras inversiones en Europa es promover oneAPI, aumentar la adopción, crear más bibliotecas para que sea más fácil de usar, etc.

Sobre las tecnologías de aceleración de procesamiento de IA, ¿qué ya se está implementando y qué aún debe suceder?

En la IA, es por lo menos un curso de 20 años que está comprometido y estamos en los primeros 5 años. Todo lo básico, como el aprendizaje profundo de redes pequeñas a nivel de un solo nodo, ha sucedido en los últimos 5 años. Y el siguiente paso, que por cierto también es un área prioritaria de nuestro centro europeo de I+D, es que los problemas de IA no se limiten a un nodo, ni a 10 nodos sino que se extiendan a miles de nodos. Es por eso que necesitamos tratamientos de zettascale. ¿Cómo construimos estas poderosas computadoras para estas grandes redes de IA de tal manera que podamos programarlas de manera productiva y muy eficiente? Y eso es lo que esperamos con estas nuevas arquitecturas como Falcon Shores y otras iniciativas de escala zetta que hemos anunciado. En este contexto, también mencionamos la colaboración con el Barcelona Supercomputing Center.

En cuanto a la reducción del consumo energético de los chips y de los sistemas de refrigeración de los servidores, ¿cuáles son los avances de Intel?

En los aspectos de consumo energético, en la perspectiva de zettascale, nos hemos fijado un objetivo muy difícil de multiplicar por mil el rendimiento en los próximos 5 años al mismo nivel de potencia eléctrica. Estamos viendo 5 áreas. El primero es la arquitectura de la computadora y el rendimiento por vatio. El segundo aspecto se relaciona con la memoria y cómo movemos datos entre diferentes elementos computacionales. Y hoy en día la mayor parte de la energía se consume para mover los datos y no para los tratamientos en sí. Entonces, ¿cómo podemos reducir la cantidad de datos que movemos? Es una gran oportunidad. El tercer aspecto, que usted menciona, se refiere al enfriamiento térmico y al suministro de energía. Estamos viendo diferentes iniciativas. Y, de hecho, estas son áreas a las que se dirigen nuestros Centros Europeos de Diseño. El cuarto aspecto es la próxima generación de tecnología de transistores que nos traerá muchas ventajas. Y también imaginamos una operación de voltaje muy bajo de estos transistores para lograr una eficiencia energética o un rendimiento por vatio muy altos. Todas estas técnicas serán objeto de un diseño arquitectónico a lo largo de los próximos años.

¿Qué papel juegan los aceleradores de red?

Sobre aceleradores IPU [ndlr : Infrastructure processing unit] y SmartNIC, anunciamos nuestra primera generación cuya arquitectura detallamos. Y tenemos un historial completo de varios años en nuestra IPU, que consideramos una categoría muy importante. No solo para HPC, sino también para centros de datos y edge computing.

Hace dos semanas, Intel anunció una inversión de varios miles de millones de euros en Europa, particularmente en Francia, en el campo de HPC e IA. Raja Koduri, vicepresidente senior y gerente general del grupo de gráficos y sistemas de computación acelerada de Intel, habló sobre las últimas tecnologías presentadas.

¿Puede volver a las inversiones en HPC e IA anunciadas por Intel en Europa el 15 de marzo? ¿Cuáles son los puntos clave?

Raja Koduri: La conclusión es que esta es nuestra mayor inversión en investigación y desarrollo en computación de alto rendimiento e inteligencia artificial fuera de nuestros sitios de diseño central. Esto es muy importante porque estos dos campos, HPC e IA, se están desarrollando a un ritmo muy rápido. El tamaño de este mercado alcanzará los 155 mil millones de dólares en 2026. Es un mercado que está creciendo muy rápidamente y podrá atraer habilidades muy avanzadas en matemáticas, física e informática y, por lo tanto, los mejores cerebros en Francia y en Europa, es algo particularmente emocionante para nosotros. Así que estamos ansiosos por participar y desarrollar productos y tecnologías que ayudarán a Intel a ser muy fuerte, a Europa a ser muy fuerte, porque HPC e IA impactan en todo: automotriz, agricultura, clima, descubrimiento de fármacos, energía, genómica, ciencias de la vida, así como aplicaciones de metaverso.

En HPC, ¿cuáles son los puntos fuertes de Intel frente a los aceleradores de Nvidia?

Más del 85 % de los sistemas informáticos de alto rendimiento del mundo actual se basan en procesadores Xeon en la parte de la CPU. En cuanto a la aceleración, las GPU de Nvidia se han convertido en las líderes. Es cierto, Intel no ha estado en este mercado durante los últimos diez años. Pero este año, lanzaremos Ponte Vecchio, nuestra primera GPU para centros de datos. Recientemente demostramos que venció a la GPU de Nvidia en muchas, muchas cargas de trabajo de HPC. Por lo tanto, Intel está entrando en este mercado. Y con esta inversión en Europa, tenemos una hoja de ruta de 5 años, aumentando nuestras capacidades en esta área cada año y superando a Nvidia en este campo. Este es por tanto el objetivo del centro.

Frente a AMD, que ha fortalecido significativamente su posición en el mercado en los últimos años, ¿cuáles son sus puntos fuertes?

AMD ha puesto mucho énfasis en la parte del centro de datos. Este año estamos lanzando nuestra CPU Xeon para HPC con capacidades de memoria de alto ancho de banda. Somos los únicos con memoria de gran ancho de banda [ndlr : HBM, high bandwidth memory] Y allí también, en la reciente reunión de inversores, demostré que nuestro Xeon con HBM [ndlr : Xeon Sapphire Rapids + HBM] es significativamente más rápido que el mejor de AMD [ndlr : Epyc Milan-X]. Por lo tanto, con el Ponte Vecchio en el lado de la GPU y el Xeon HBM en el lado de la CPU, estamos muy bien posicionados este año para recuperar nuestro liderazgo tanto en el lado de la CPU como en el de la GPU del mercado de HPC.

¿Cómo combina Intel los chips Xeon y las GPU para optimizar el rendimiento?

Nuestras CPU, como las próximas Sapphire Rapids, las Xeon HBM, ya cuentan con una potencia informática inmensa. Y ahora, cuando recurrimos a la GPU, el software puede aprovechar ambas. Nuestro software utilizará capacidades de operación de coma flotante, capacidades de operación de enteros y otros motores de movimiento de datos en la CPU y la GPU, lo que traerá beneficios al software en general. Más allá de eso, Intel también probó el estándar CXL [ndlr : Compute Express Link]. Y en los próximos años, la CPU y la GPU se comunicarán mucho más estrechamente con los accesos persistentes a la memoria y similares. También anunciamos recientemente una nueva arquitectura llamada Falcon Shores que combina CPU y GPU en el mismo zócalo. Todo esto va en la dirección de una optimización conjunta de la CPU y la GPU por parte de Intel.

En cuanto al software, ¿qué ofrece Intel para ayudar a los desarrolladores a paralelizar sus aplicaciones para su GPU?

A lo largo de los años, Intel ha proporcionado muchas bibliotecas y herramientas para paralelizar aplicaciones para CPU, subprocesos múltiples, etc. Durante 20 años, Intel ha sido líder en este campo. Para las GPU, creamos esta tecnología llamada oneAPI que es abierta, está disponible para todos e incluso funciona en Nvidia y AMD. Lo que hace oneAPI es aprovechar los 20 años de trabajo de Intel en herramientas para la paralelización, la programación paralela, la creación de perfiles y la depuración, y llevarlos a las GPU para beneficiarse de todo el trabajo ya realizado para las CPU. Así que oneAPI está aquí y está ganando una gran popularidad. Y uno de nuestros objetivos con nuestras inversiones en Europa es promover oneAPI, aumentar la adopción, crear más bibliotecas para que sea más fácil de usar, etc.

Sobre las tecnologías de aceleración de procesamiento de IA, ¿qué ya se está implementando y qué aún debe suceder?

En la IA, es por lo menos un curso de 20 años que está comprometido y estamos en los primeros 5 años. Todo lo básico, como el aprendizaje profundo de redes pequeñas a nivel de un solo nodo, ha sucedido en los últimos 5 años. Y el siguiente paso, que por cierto también es un área prioritaria de nuestro centro europeo de I+D, es que los problemas de IA no se limiten a un nodo, ni a 10 nodos sino que se extiendan a miles de nodos. Es por eso que necesitamos tratamientos de zettascale. ¿Cómo construimos estas poderosas computadoras para estas grandes redes de IA de tal manera que podamos programarlas de manera productiva y muy eficiente? Y eso es lo que esperamos con estas nuevas arquitecturas como Falcon Shores y otras iniciativas de escala zetta que hemos anunciado. En este contexto, también mencionamos la colaboración con el Barcelona Supercomputing Center.

En cuanto a la reducción del consumo energético de los chips y de los sistemas de refrigeración de los servidores, ¿cuáles son los avances de Intel?

En los aspectos de consumo energético, en la perspectiva de zettascale, nos hemos fijado un objetivo muy difícil de multiplicar por mil el rendimiento en los próximos 5 años al mismo nivel de potencia eléctrica. Estamos viendo 5 áreas. El primero es la arquitectura de la computadora y el rendimiento por vatio. El segundo aspecto se relaciona con la memoria y cómo movemos datos entre diferentes elementos computacionales. Y hoy en día la mayor parte de la energía se consume para mover los datos y no para los tratamientos en sí. Entonces, ¿cómo podemos reducir la cantidad de datos que movemos? Es una gran oportunidad. El tercer aspecto, que usted menciona, se refiere al enfriamiento térmico y al suministro de energía. Estamos viendo diferentes iniciativas. Y, de hecho, estas son áreas a las que se dirigen nuestros Centros Europeos de Diseño. El cuarto aspecto es la próxima generación de tecnología de transistores que nos traerá muchas ventajas. Y también imaginamos una operación de voltaje muy bajo de estos transistores para lograr una eficiencia energética o un rendimiento por vatio muy altos. Todas estas técnicas serán objeto de un diseño arquitectónico a lo largo de los próximos años.

¿Qué papel juegan los aceleradores de red?

Sobre aceleradores IPU [ndlr : Infrastructure processing unit] y SmartNIC, anunciamos nuestra primera generación cuya arquitectura detallamos. Y tenemos un historial completo de varios años en nuestra IPU, que consideramos una categoría muy importante. No solo para HPC, sino también para centros de datos y edge computing.

Hace dos semanas, Intel anunció una inversión de varios miles de millones de euros en Europa, particularmente en Francia, en el campo de HPC e IA. Raja Koduri, vicepresidente senior y gerente general del grupo de gráficos y sistemas de computación acelerada de Intel, habló sobre las últimas tecnologías presentadas.

¿Puede volver a las inversiones en HPC e IA anunciadas por Intel en Europa el 15 de marzo? ¿Cuáles son los puntos clave?

Raja Koduri: La conclusión es que esta es nuestra mayor inversión en investigación y desarrollo en computación de alto rendimiento e inteligencia artificial fuera de nuestros sitios de diseño central. Esto es muy importante porque estos dos campos, HPC e IA, se están desarrollando a un ritmo muy rápido. El tamaño de este mercado alcanzará los 155 mil millones de dólares en 2026. Es un mercado que está creciendo muy rápidamente y podrá atraer habilidades muy avanzadas en matemáticas, física e informática y, por lo tanto, los mejores cerebros en Francia y en Europa, es algo particularmente emocionante para nosotros. Así que estamos ansiosos por participar y desarrollar productos y tecnologías que ayudarán a Intel a ser muy fuerte, a Europa a ser muy fuerte, porque HPC e IA impactan en todo: automotriz, agricultura, clima, descubrimiento de fármacos, energía, genómica, ciencias de la vida, así como aplicaciones de metaverso.

En HPC, ¿cuáles son los puntos fuertes de Intel frente a los aceleradores de Nvidia?

Más del 85 % de los sistemas informáticos de alto rendimiento del mundo actual se basan en procesadores Xeon en la parte de la CPU. En cuanto a la aceleración, las GPU de Nvidia se han convertido en las líderes. Es cierto, Intel no ha estado en este mercado durante los últimos diez años. Pero este año, lanzaremos Ponte Vecchio, nuestra primera GPU para centros de datos. Recientemente demostramos que venció a la GPU de Nvidia en muchas, muchas cargas de trabajo de HPC. Por lo tanto, Intel está entrando en este mercado. Y con esta inversión en Europa, tenemos una hoja de ruta de 5 años, aumentando nuestras capacidades en esta área cada año y superando a Nvidia en este campo. Este es por tanto el objetivo del centro.

Frente a AMD, que ha fortalecido significativamente su posición en el mercado en los últimos años, ¿cuáles son sus puntos fuertes?

AMD ha puesto mucho énfasis en la parte del centro de datos. Este año estamos lanzando nuestra CPU Xeon para HPC con capacidades de memoria de alto ancho de banda. Somos los únicos con memoria de gran ancho de banda [ndlr : HBM, high bandwidth memory] Y allí también, en la reciente reunión de inversores, demostré que nuestro Xeon con HBM [ndlr : Xeon Sapphire Rapids + HBM] es significativamente más rápido que el mejor de AMD [ndlr : Epyc Milan-X]. Por lo tanto, con el Ponte Vecchio en el lado de la GPU y el Xeon HBM en el lado de la CPU, estamos muy bien posicionados este año para recuperar nuestro liderazgo tanto en el lado de la CPU como en el de la GPU del mercado de HPC.

¿Cómo combina Intel los chips Xeon y las GPU para optimizar el rendimiento?

Nuestras CPU, como las próximas Sapphire Rapids, las Xeon HBM, ya cuentan con una potencia informática inmensa. Y ahora, cuando recurrimos a la GPU, el software puede aprovechar ambas. Nuestro software utilizará capacidades de operación de coma flotante, capacidades de operación de enteros y otros motores de movimiento de datos en la CPU y la GPU, lo que traerá beneficios al software en general. Más allá de eso, Intel también probó el estándar CXL [ndlr : Compute Express Link]. Y en los próximos años, la CPU y la GPU se comunicarán mucho más estrechamente con los accesos persistentes a la memoria y similares. También anunciamos recientemente una nueva arquitectura llamada Falcon Shores que combina CPU y GPU en el mismo zócalo. Todo esto va en la dirección de una optimización conjunta de la CPU y la GPU por parte de Intel.

En cuanto al software, ¿qué ofrece Intel para ayudar a los desarrolladores a paralelizar sus aplicaciones para su GPU?

A lo largo de los años, Intel ha proporcionado muchas bibliotecas y herramientas para paralelizar aplicaciones para CPU, subprocesos múltiples, etc. Durante 20 años, Intel ha sido líder en este campo. Para las GPU, creamos esta tecnología llamada oneAPI que es abierta, está disponible para todos e incluso funciona en Nvidia y AMD. Lo que hace oneAPI es aprovechar los 20 años de trabajo de Intel en herramientas para la paralelización, la programación paralela, la creación de perfiles y la depuración, y llevarlos a las GPU para beneficiarse de todo el trabajo ya realizado para las CPU. Así que oneAPI está aquí y está ganando una gran popularidad. Y uno de nuestros objetivos con nuestras inversiones en Europa es promover oneAPI, aumentar la adopción, crear más bibliotecas para que sea más fácil de usar, etc.

Sobre las tecnologías de aceleración de procesamiento de IA, ¿qué ya se está implementando y qué aún debe suceder?

En la IA, es por lo menos un curso de 20 años que está comprometido y estamos en los primeros 5 años. Todo lo básico, como el aprendizaje profundo de redes pequeñas a nivel de un solo nodo, ha sucedido en los últimos 5 años. Y el siguiente paso, que por cierto también es un área prioritaria de nuestro centro europeo de I+D, es que los problemas de IA no se limiten a un nodo, ni a 10 nodos sino que se extiendan a miles de nodos. Es por eso que necesitamos tratamientos de zettascale. ¿Cómo construimos estas poderosas computadoras para estas grandes redes de IA de tal manera que podamos programarlas de manera productiva y muy eficiente? Y eso es lo que esperamos con estas nuevas arquitecturas como Falcon Shores y otras iniciativas de escala zetta que hemos anunciado. En este contexto, también mencionamos la colaboración con el Barcelona Supercomputing Center.

En cuanto a la reducción del consumo energético de los chips y de los sistemas de refrigeración de los servidores, ¿cuáles son los avances de Intel?

En los aspectos de consumo energético, en la perspectiva de zettascale, nos hemos fijado un objetivo muy difícil de multiplicar por mil el rendimiento en los próximos 5 años al mismo nivel de potencia eléctrica. Estamos viendo 5 áreas. El primero es la arquitectura de la computadora y el rendimiento por vatio. El segundo aspecto se relaciona con la memoria y cómo movemos datos entre diferentes elementos computacionales. Y hoy en día la mayor parte de la energía se consume para mover los datos y no para los tratamientos en sí. Entonces, ¿cómo podemos reducir la cantidad de datos que movemos? Es una gran oportunidad. El tercer aspecto, que usted menciona, se refiere al enfriamiento térmico y al suministro de energía. Estamos viendo diferentes iniciativas. Y, de hecho, estas son áreas a las que se dirigen nuestros Centros Europeos de Diseño. El cuarto aspecto es la próxima generación de tecnología de transistores que nos traerá muchas ventajas. Y también imaginamos una operación de voltaje muy bajo de estos transistores para lograr una eficiencia energética o un rendimiento por vatio muy altos. Todas estas técnicas serán objeto de un diseño arquitectónico a lo largo de los próximos años.

¿Qué papel juegan los aceleradores de red?

Sobre aceleradores IPU [ndlr : Infrastructure processing unit] y SmartNIC, anunciamos nuestra primera generación cuya arquitectura detallamos. Y tenemos un historial completo de varios años en nuestra IPU, que consideramos una categoría muy importante. No solo para HPC, sino también para centros de datos y edge computing.

YOU MAY ALSO LIKE

Palo Alto lanza el servicio experto de detección y respuesta gestionada

La FTC asume la protección de datos y la privacidad

Hace dos semanas, Intel anunció una inversión de varios miles de millones de euros en Europa, particularmente en Francia, en el campo de HPC e IA. Raja Koduri, vicepresidente senior y gerente general del grupo de gráficos y sistemas de computación acelerada de Intel, habló sobre las últimas tecnologías presentadas.

¿Puede volver a las inversiones en HPC e IA anunciadas por Intel en Europa el 15 de marzo? ¿Cuáles son los puntos clave?

Raja Koduri: La conclusión es que esta es nuestra mayor inversión en investigación y desarrollo en computación de alto rendimiento e inteligencia artificial fuera de nuestros sitios de diseño central. Esto es muy importante porque estos dos campos, HPC e IA, se están desarrollando a un ritmo muy rápido. El tamaño de este mercado alcanzará los 155 mil millones de dólares en 2026. Es un mercado que está creciendo muy rápidamente y podrá atraer habilidades muy avanzadas en matemáticas, física e informática y, por lo tanto, los mejores cerebros en Francia y en Europa, es algo particularmente emocionante para nosotros. Así que estamos ansiosos por participar y desarrollar productos y tecnologías que ayudarán a Intel a ser muy fuerte, a Europa a ser muy fuerte, porque HPC e IA impactan en todo: automotriz, agricultura, clima, descubrimiento de fármacos, energía, genómica, ciencias de la vida, así como aplicaciones de metaverso.

En HPC, ¿cuáles son los puntos fuertes de Intel frente a los aceleradores de Nvidia?

Más del 85 % de los sistemas informáticos de alto rendimiento del mundo actual se basan en procesadores Xeon en la parte de la CPU. En cuanto a la aceleración, las GPU de Nvidia se han convertido en las líderes. Es cierto, Intel no ha estado en este mercado durante los últimos diez años. Pero este año, lanzaremos Ponte Vecchio, nuestra primera GPU para centros de datos. Recientemente demostramos que venció a la GPU de Nvidia en muchas, muchas cargas de trabajo de HPC. Por lo tanto, Intel está entrando en este mercado. Y con esta inversión en Europa, tenemos una hoja de ruta de 5 años, aumentando nuestras capacidades en esta área cada año y superando a Nvidia en este campo. Este es por tanto el objetivo del centro.

Frente a AMD, que ha fortalecido significativamente su posición en el mercado en los últimos años, ¿cuáles son sus puntos fuertes?

AMD ha puesto mucho énfasis en la parte del centro de datos. Este año estamos lanzando nuestra CPU Xeon para HPC con capacidades de memoria de alto ancho de banda. Somos los únicos con memoria de gran ancho de banda [ndlr : HBM, high bandwidth memory] Y allí también, en la reciente reunión de inversores, demostré que nuestro Xeon con HBM [ndlr : Xeon Sapphire Rapids + HBM] es significativamente más rápido que el mejor de AMD [ndlr : Epyc Milan-X]. Por lo tanto, con el Ponte Vecchio en el lado de la GPU y el Xeon HBM en el lado de la CPU, estamos muy bien posicionados este año para recuperar nuestro liderazgo tanto en el lado de la CPU como en el de la GPU del mercado de HPC.

¿Cómo combina Intel los chips Xeon y las GPU para optimizar el rendimiento?

Nuestras CPU, como las próximas Sapphire Rapids, las Xeon HBM, ya cuentan con una potencia informática inmensa. Y ahora, cuando recurrimos a la GPU, el software puede aprovechar ambas. Nuestro software utilizará capacidades de operación de coma flotante, capacidades de operación de enteros y otros motores de movimiento de datos en la CPU y la GPU, lo que traerá beneficios al software en general. Más allá de eso, Intel también probó el estándar CXL [ndlr : Compute Express Link]. Y en los próximos años, la CPU y la GPU se comunicarán mucho más estrechamente con los accesos persistentes a la memoria y similares. También anunciamos recientemente una nueva arquitectura llamada Falcon Shores que combina CPU y GPU en el mismo zócalo. Todo esto va en la dirección de una optimización conjunta de la CPU y la GPU por parte de Intel.

En cuanto al software, ¿qué ofrece Intel para ayudar a los desarrolladores a paralelizar sus aplicaciones para su GPU?

A lo largo de los años, Intel ha proporcionado muchas bibliotecas y herramientas para paralelizar aplicaciones para CPU, subprocesos múltiples, etc. Durante 20 años, Intel ha sido líder en este campo. Para las GPU, creamos esta tecnología llamada oneAPI que es abierta, está disponible para todos e incluso funciona en Nvidia y AMD. Lo que hace oneAPI es aprovechar los 20 años de trabajo de Intel en herramientas para la paralelización, la programación paralela, la creación de perfiles y la depuración, y llevarlos a las GPU para beneficiarse de todo el trabajo ya realizado para las CPU. Así que oneAPI está aquí y está ganando una gran popularidad. Y uno de nuestros objetivos con nuestras inversiones en Europa es promover oneAPI, aumentar la adopción, crear más bibliotecas para que sea más fácil de usar, etc.

Sobre las tecnologías de aceleración de procesamiento de IA, ¿qué ya se está implementando y qué aún debe suceder?

En la IA, es por lo menos un curso de 20 años que está comprometido y estamos en los primeros 5 años. Todo lo básico, como el aprendizaje profundo de redes pequeñas a nivel de un solo nodo, ha sucedido en los últimos 5 años. Y el siguiente paso, que por cierto también es un área prioritaria de nuestro centro europeo de I+D, es que los problemas de IA no se limiten a un nodo, ni a 10 nodos sino que se extiendan a miles de nodos. Es por eso que necesitamos tratamientos de zettascale. ¿Cómo construimos estas poderosas computadoras para estas grandes redes de IA de tal manera que podamos programarlas de manera productiva y muy eficiente? Y eso es lo que esperamos con estas nuevas arquitecturas como Falcon Shores y otras iniciativas de escala zetta que hemos anunciado. En este contexto, también mencionamos la colaboración con el Barcelona Supercomputing Center.

En cuanto a la reducción del consumo energético de los chips y de los sistemas de refrigeración de los servidores, ¿cuáles son los avances de Intel?

En los aspectos de consumo energético, en la perspectiva de zettascale, nos hemos fijado un objetivo muy difícil de multiplicar por mil el rendimiento en los próximos 5 años al mismo nivel de potencia eléctrica. Estamos viendo 5 áreas. El primero es la arquitectura de la computadora y el rendimiento por vatio. El segundo aspecto se relaciona con la memoria y cómo movemos datos entre diferentes elementos computacionales. Y hoy en día la mayor parte de la energía se consume para mover los datos y no para los tratamientos en sí. Entonces, ¿cómo podemos reducir la cantidad de datos que movemos? Es una gran oportunidad. El tercer aspecto, que usted menciona, se refiere al enfriamiento térmico y al suministro de energía. Estamos viendo diferentes iniciativas. Y, de hecho, estas son áreas a las que se dirigen nuestros Centros Europeos de Diseño. El cuarto aspecto es la próxima generación de tecnología de transistores que nos traerá muchas ventajas. Y también imaginamos una operación de voltaje muy bajo de estos transistores para lograr una eficiencia energética o un rendimiento por vatio muy altos. Todas estas técnicas serán objeto de un diseño arquitectónico a lo largo de los próximos años.

¿Qué papel juegan los aceleradores de red?

Sobre aceleradores IPU [ndlr : Infrastructure processing unit] y SmartNIC, anunciamos nuestra primera generación cuya arquitectura detallamos. Y tenemos un historial completo de varios años en nuestra IPU, que consideramos una categoría muy importante. No solo para HPC, sino también para centros de datos y edge computing.

Hace dos semanas, Intel anunció una inversión de varios miles de millones de euros en Europa, particularmente en Francia, en el campo de HPC e IA. Raja Koduri, vicepresidente senior y gerente general del grupo de gráficos y sistemas de computación acelerada de Intel, habló sobre las últimas tecnologías presentadas.

¿Puede volver a las inversiones en HPC e IA anunciadas por Intel en Europa el 15 de marzo? ¿Cuáles son los puntos clave?

Raja Koduri: La conclusión es que esta es nuestra mayor inversión en investigación y desarrollo en computación de alto rendimiento e inteligencia artificial fuera de nuestros sitios de diseño central. Esto es muy importante porque estos dos campos, HPC e IA, se están desarrollando a un ritmo muy rápido. El tamaño de este mercado alcanzará los 155 mil millones de dólares en 2026. Es un mercado que está creciendo muy rápidamente y podrá atraer habilidades muy avanzadas en matemáticas, física e informática y, por lo tanto, los mejores cerebros en Francia y en Europa, es algo particularmente emocionante para nosotros. Así que estamos ansiosos por participar y desarrollar productos y tecnologías que ayudarán a Intel a ser muy fuerte, a Europa a ser muy fuerte, porque HPC e IA impactan en todo: automotriz, agricultura, clima, descubrimiento de fármacos, energía, genómica, ciencias de la vida, así como aplicaciones de metaverso.

En HPC, ¿cuáles son los puntos fuertes de Intel frente a los aceleradores de Nvidia?

Más del 85 % de los sistemas informáticos de alto rendimiento del mundo actual se basan en procesadores Xeon en la parte de la CPU. En cuanto a la aceleración, las GPU de Nvidia se han convertido en las líderes. Es cierto, Intel no ha estado en este mercado durante los últimos diez años. Pero este año, lanzaremos Ponte Vecchio, nuestra primera GPU para centros de datos. Recientemente demostramos que venció a la GPU de Nvidia en muchas, muchas cargas de trabajo de HPC. Por lo tanto, Intel está entrando en este mercado. Y con esta inversión en Europa, tenemos una hoja de ruta de 5 años, aumentando nuestras capacidades en esta área cada año y superando a Nvidia en este campo. Este es por tanto el objetivo del centro.

Frente a AMD, que ha fortalecido significativamente su posición en el mercado en los últimos años, ¿cuáles son sus puntos fuertes?

AMD ha puesto mucho énfasis en la parte del centro de datos. Este año estamos lanzando nuestra CPU Xeon para HPC con capacidades de memoria de alto ancho de banda. Somos los únicos con memoria de gran ancho de banda [ndlr : HBM, high bandwidth memory] Y allí también, en la reciente reunión de inversores, demostré que nuestro Xeon con HBM [ndlr : Xeon Sapphire Rapids + HBM] es significativamente más rápido que el mejor de AMD [ndlr : Epyc Milan-X]. Por lo tanto, con el Ponte Vecchio en el lado de la GPU y el Xeon HBM en el lado de la CPU, estamos muy bien posicionados este año para recuperar nuestro liderazgo tanto en el lado de la CPU como en el de la GPU del mercado de HPC.

¿Cómo combina Intel los chips Xeon y las GPU para optimizar el rendimiento?

Nuestras CPU, como las próximas Sapphire Rapids, las Xeon HBM, ya cuentan con una potencia informática inmensa. Y ahora, cuando recurrimos a la GPU, el software puede aprovechar ambas. Nuestro software utilizará capacidades de operación de coma flotante, capacidades de operación de enteros y otros motores de movimiento de datos en la CPU y la GPU, lo que traerá beneficios al software en general. Más allá de eso, Intel también probó el estándar CXL [ndlr : Compute Express Link]. Y en los próximos años, la CPU y la GPU se comunicarán mucho más estrechamente con los accesos persistentes a la memoria y similares. También anunciamos recientemente una nueva arquitectura llamada Falcon Shores que combina CPU y GPU en el mismo zócalo. Todo esto va en la dirección de una optimización conjunta de la CPU y la GPU por parte de Intel.

En cuanto al software, ¿qué ofrece Intel para ayudar a los desarrolladores a paralelizar sus aplicaciones para su GPU?

A lo largo de los años, Intel ha proporcionado muchas bibliotecas y herramientas para paralelizar aplicaciones para CPU, subprocesos múltiples, etc. Durante 20 años, Intel ha sido líder en este campo. Para las GPU, creamos esta tecnología llamada oneAPI que es abierta, está disponible para todos e incluso funciona en Nvidia y AMD. Lo que hace oneAPI es aprovechar los 20 años de trabajo de Intel en herramientas para la paralelización, la programación paralela, la creación de perfiles y la depuración, y llevarlos a las GPU para beneficiarse de todo el trabajo ya realizado para las CPU. Así que oneAPI está aquí y está ganando una gran popularidad. Y uno de nuestros objetivos con nuestras inversiones en Europa es promover oneAPI, aumentar la adopción, crear más bibliotecas para que sea más fácil de usar, etc.

Sobre las tecnologías de aceleración de procesamiento de IA, ¿qué ya se está implementando y qué aún debe suceder?

En la IA, es por lo menos un curso de 20 años que está comprometido y estamos en los primeros 5 años. Todo lo básico, como el aprendizaje profundo de redes pequeñas a nivel de un solo nodo, ha sucedido en los últimos 5 años. Y el siguiente paso, que por cierto también es un área prioritaria de nuestro centro europeo de I+D, es que los problemas de IA no se limiten a un nodo, ni a 10 nodos sino que se extiendan a miles de nodos. Es por eso que necesitamos tratamientos de zettascale. ¿Cómo construimos estas poderosas computadoras para estas grandes redes de IA de tal manera que podamos programarlas de manera productiva y muy eficiente? Y eso es lo que esperamos con estas nuevas arquitecturas como Falcon Shores y otras iniciativas de escala zetta que hemos anunciado. En este contexto, también mencionamos la colaboración con el Barcelona Supercomputing Center.

En cuanto a la reducción del consumo energético de los chips y de los sistemas de refrigeración de los servidores, ¿cuáles son los avances de Intel?

En los aspectos de consumo energético, en la perspectiva de zettascale, nos hemos fijado un objetivo muy difícil de multiplicar por mil el rendimiento en los próximos 5 años al mismo nivel de potencia eléctrica. Estamos viendo 5 áreas. El primero es la arquitectura de la computadora y el rendimiento por vatio. El segundo aspecto se relaciona con la memoria y cómo movemos datos entre diferentes elementos computacionales. Y hoy en día la mayor parte de la energía se consume para mover los datos y no para los tratamientos en sí. Entonces, ¿cómo podemos reducir la cantidad de datos que movemos? Es una gran oportunidad. El tercer aspecto, que usted menciona, se refiere al enfriamiento térmico y al suministro de energía. Estamos viendo diferentes iniciativas. Y, de hecho, estas son áreas a las que se dirigen nuestros Centros Europeos de Diseño. El cuarto aspecto es la próxima generación de tecnología de transistores que nos traerá muchas ventajas. Y también imaginamos una operación de voltaje muy bajo de estos transistores para lograr una eficiencia energética o un rendimiento por vatio muy altos. Todas estas técnicas serán objeto de un diseño arquitectónico a lo largo de los próximos años.

¿Qué papel juegan los aceleradores de red?

Sobre aceleradores IPU [ndlr : Infrastructure processing unit] y SmartNIC, anunciamos nuestra primera generación cuya arquitectura detallamos. Y tenemos un historial completo de varios años en nuestra IPU, que consideramos una categoría muy importante. No solo para HPC, sino también para centros de datos y edge computing.

Hace dos semanas, Intel anunció una inversión de varios miles de millones de euros en Europa, particularmente en Francia, en el campo de HPC e IA. Raja Koduri, vicepresidente senior y gerente general del grupo de gráficos y sistemas de computación acelerada de Intel, habló sobre las últimas tecnologías presentadas.

¿Puede volver a las inversiones en HPC e IA anunciadas por Intel en Europa el 15 de marzo? ¿Cuáles son los puntos clave?

Raja Koduri: La conclusión es que esta es nuestra mayor inversión en investigación y desarrollo en computación de alto rendimiento e inteligencia artificial fuera de nuestros sitios de diseño central. Esto es muy importante porque estos dos campos, HPC e IA, se están desarrollando a un ritmo muy rápido. El tamaño de este mercado alcanzará los 155 mil millones de dólares en 2026. Es un mercado que está creciendo muy rápidamente y podrá atraer habilidades muy avanzadas en matemáticas, física e informática y, por lo tanto, los mejores cerebros en Francia y en Europa, es algo particularmente emocionante para nosotros. Así que estamos ansiosos por participar y desarrollar productos y tecnologías que ayudarán a Intel a ser muy fuerte, a Europa a ser muy fuerte, porque HPC e IA impactan en todo: automotriz, agricultura, clima, descubrimiento de fármacos, energía, genómica, ciencias de la vida, así como aplicaciones de metaverso.

En HPC, ¿cuáles son los puntos fuertes de Intel frente a los aceleradores de Nvidia?

Más del 85 % de los sistemas informáticos de alto rendimiento del mundo actual se basan en procesadores Xeon en la parte de la CPU. En cuanto a la aceleración, las GPU de Nvidia se han convertido en las líderes. Es cierto, Intel no ha estado en este mercado durante los últimos diez años. Pero este año, lanzaremos Ponte Vecchio, nuestra primera GPU para centros de datos. Recientemente demostramos que venció a la GPU de Nvidia en muchas, muchas cargas de trabajo de HPC. Por lo tanto, Intel está entrando en este mercado. Y con esta inversión en Europa, tenemos una hoja de ruta de 5 años, aumentando nuestras capacidades en esta área cada año y superando a Nvidia en este campo. Este es por tanto el objetivo del centro.

Frente a AMD, que ha fortalecido significativamente su posición en el mercado en los últimos años, ¿cuáles son sus puntos fuertes?

AMD ha puesto mucho énfasis en la parte del centro de datos. Este año estamos lanzando nuestra CPU Xeon para HPC con capacidades de memoria de alto ancho de banda. Somos los únicos con memoria de gran ancho de banda [ndlr : HBM, high bandwidth memory] Y allí también, en la reciente reunión de inversores, demostré que nuestro Xeon con HBM [ndlr : Xeon Sapphire Rapids + HBM] es significativamente más rápido que el mejor de AMD [ndlr : Epyc Milan-X]. Por lo tanto, con el Ponte Vecchio en el lado de la GPU y el Xeon HBM en el lado de la CPU, estamos muy bien posicionados este año para recuperar nuestro liderazgo tanto en el lado de la CPU como en el de la GPU del mercado de HPC.

¿Cómo combina Intel los chips Xeon y las GPU para optimizar el rendimiento?

Nuestras CPU, como las próximas Sapphire Rapids, las Xeon HBM, ya cuentan con una potencia informática inmensa. Y ahora, cuando recurrimos a la GPU, el software puede aprovechar ambas. Nuestro software utilizará capacidades de operación de coma flotante, capacidades de operación de enteros y otros motores de movimiento de datos en la CPU y la GPU, lo que traerá beneficios al software en general. Más allá de eso, Intel también probó el estándar CXL [ndlr : Compute Express Link]. Y en los próximos años, la CPU y la GPU se comunicarán mucho más estrechamente con los accesos persistentes a la memoria y similares. También anunciamos recientemente una nueva arquitectura llamada Falcon Shores que combina CPU y GPU en el mismo zócalo. Todo esto va en la dirección de una optimización conjunta de la CPU y la GPU por parte de Intel.

En cuanto al software, ¿qué ofrece Intel para ayudar a los desarrolladores a paralelizar sus aplicaciones para su GPU?

A lo largo de los años, Intel ha proporcionado muchas bibliotecas y herramientas para paralelizar aplicaciones para CPU, subprocesos múltiples, etc. Durante 20 años, Intel ha sido líder en este campo. Para las GPU, creamos esta tecnología llamada oneAPI que es abierta, está disponible para todos e incluso funciona en Nvidia y AMD. Lo que hace oneAPI es aprovechar los 20 años de trabajo de Intel en herramientas para la paralelización, la programación paralela, la creación de perfiles y la depuración, y llevarlos a las GPU para beneficiarse de todo el trabajo ya realizado para las CPU. Así que oneAPI está aquí y está ganando una gran popularidad. Y uno de nuestros objetivos con nuestras inversiones en Europa es promover oneAPI, aumentar la adopción, crear más bibliotecas para que sea más fácil de usar, etc.

Sobre las tecnologías de aceleración de procesamiento de IA, ¿qué ya se está implementando y qué aún debe suceder?

En la IA, es por lo menos un curso de 20 años que está comprometido y estamos en los primeros 5 años. Todo lo básico, como el aprendizaje profundo de redes pequeñas a nivel de un solo nodo, ha sucedido en los últimos 5 años. Y el siguiente paso, que por cierto también es un área prioritaria de nuestro centro europeo de I+D, es que los problemas de IA no se limiten a un nodo, ni a 10 nodos sino que se extiendan a miles de nodos. Es por eso que necesitamos tratamientos de zettascale. ¿Cómo construimos estas poderosas computadoras para estas grandes redes de IA de tal manera que podamos programarlas de manera productiva y muy eficiente? Y eso es lo que esperamos con estas nuevas arquitecturas como Falcon Shores y otras iniciativas de escala zetta que hemos anunciado. En este contexto, también mencionamos la colaboración con el Barcelona Supercomputing Center.

En cuanto a la reducción del consumo energético de los chips y de los sistemas de refrigeración de los servidores, ¿cuáles son los avances de Intel?

En los aspectos de consumo energético, en la perspectiva de zettascale, nos hemos fijado un objetivo muy difícil de multiplicar por mil el rendimiento en los próximos 5 años al mismo nivel de potencia eléctrica. Estamos viendo 5 áreas. El primero es la arquitectura de la computadora y el rendimiento por vatio. El segundo aspecto se relaciona con la memoria y cómo movemos datos entre diferentes elementos computacionales. Y hoy en día la mayor parte de la energía se consume para mover los datos y no para los tratamientos en sí. Entonces, ¿cómo podemos reducir la cantidad de datos que movemos? Es una gran oportunidad. El tercer aspecto, que usted menciona, se refiere al enfriamiento térmico y al suministro de energía. Estamos viendo diferentes iniciativas. Y, de hecho, estas son áreas a las que se dirigen nuestros Centros Europeos de Diseño. El cuarto aspecto es la próxima generación de tecnología de transistores que nos traerá muchas ventajas. Y también imaginamos una operación de voltaje muy bajo de estos transistores para lograr una eficiencia energética o un rendimiento por vatio muy altos. Todas estas técnicas serán objeto de un diseño arquitectónico a lo largo de los próximos años.

¿Qué papel juegan los aceleradores de red?

Sobre aceleradores IPU [ndlr : Infrastructure processing unit] y SmartNIC, anunciamos nuestra primera generación cuya arquitectura detallamos. Y tenemos un historial completo de varios años en nuestra IPU, que consideramos una categoría muy importante. No solo para HPC, sino también para centros de datos y edge computing.

Hace dos semanas, Intel anunció una inversión de varios miles de millones de euros en Europa, particularmente en Francia, en el campo de HPC e IA. Raja Koduri, vicepresidente senior y gerente general del grupo de gráficos y sistemas de computación acelerada de Intel, habló sobre las últimas tecnologías presentadas.

¿Puede volver a las inversiones en HPC e IA anunciadas por Intel en Europa el 15 de marzo? ¿Cuáles son los puntos clave?

Raja Koduri: La conclusión es que esta es nuestra mayor inversión en investigación y desarrollo en computación de alto rendimiento e inteligencia artificial fuera de nuestros sitios de diseño central. Esto es muy importante porque estos dos campos, HPC e IA, se están desarrollando a un ritmo muy rápido. El tamaño de este mercado alcanzará los 155 mil millones de dólares en 2026. Es un mercado que está creciendo muy rápidamente y podrá atraer habilidades muy avanzadas en matemáticas, física e informática y, por lo tanto, los mejores cerebros en Francia y en Europa, es algo particularmente emocionante para nosotros. Así que estamos ansiosos por participar y desarrollar productos y tecnologías que ayudarán a Intel a ser muy fuerte, a Europa a ser muy fuerte, porque HPC e IA impactan en todo: automotriz, agricultura, clima, descubrimiento de fármacos, energía, genómica, ciencias de la vida, así como aplicaciones de metaverso.

En HPC, ¿cuáles son los puntos fuertes de Intel frente a los aceleradores de Nvidia?

Más del 85 % de los sistemas informáticos de alto rendimiento del mundo actual se basan en procesadores Xeon en la parte de la CPU. En cuanto a la aceleración, las GPU de Nvidia se han convertido en las líderes. Es cierto, Intel no ha estado en este mercado durante los últimos diez años. Pero este año, lanzaremos Ponte Vecchio, nuestra primera GPU para centros de datos. Recientemente demostramos que venció a la GPU de Nvidia en muchas, muchas cargas de trabajo de HPC. Por lo tanto, Intel está entrando en este mercado. Y con esta inversión en Europa, tenemos una hoja de ruta de 5 años, aumentando nuestras capacidades en esta área cada año y superando a Nvidia en este campo. Este es por tanto el objetivo del centro.

Frente a AMD, que ha fortalecido significativamente su posición en el mercado en los últimos años, ¿cuáles son sus puntos fuertes?

AMD ha puesto mucho énfasis en la parte del centro de datos. Este año estamos lanzando nuestra CPU Xeon para HPC con capacidades de memoria de alto ancho de banda. Somos los únicos con memoria de gran ancho de banda [ndlr : HBM, high bandwidth memory] Y allí también, en la reciente reunión de inversores, demostré que nuestro Xeon con HBM [ndlr : Xeon Sapphire Rapids + HBM] es significativamente más rápido que el mejor de AMD [ndlr : Epyc Milan-X]. Por lo tanto, con el Ponte Vecchio en el lado de la GPU y el Xeon HBM en el lado de la CPU, estamos muy bien posicionados este año para recuperar nuestro liderazgo tanto en el lado de la CPU como en el de la GPU del mercado de HPC.

¿Cómo combina Intel los chips Xeon y las GPU para optimizar el rendimiento?

Nuestras CPU, como las próximas Sapphire Rapids, las Xeon HBM, ya cuentan con una potencia informática inmensa. Y ahora, cuando recurrimos a la GPU, el software puede aprovechar ambas. Nuestro software utilizará capacidades de operación de coma flotante, capacidades de operación de enteros y otros motores de movimiento de datos en la CPU y la GPU, lo que traerá beneficios al software en general. Más allá de eso, Intel también probó el estándar CXL [ndlr : Compute Express Link]. Y en los próximos años, la CPU y la GPU se comunicarán mucho más estrechamente con los accesos persistentes a la memoria y similares. También anunciamos recientemente una nueva arquitectura llamada Falcon Shores que combina CPU y GPU en el mismo zócalo. Todo esto va en la dirección de una optimización conjunta de la CPU y la GPU por parte de Intel.

En cuanto al software, ¿qué ofrece Intel para ayudar a los desarrolladores a paralelizar sus aplicaciones para su GPU?

A lo largo de los años, Intel ha proporcionado muchas bibliotecas y herramientas para paralelizar aplicaciones para CPU, subprocesos múltiples, etc. Durante 20 años, Intel ha sido líder en este campo. Para las GPU, creamos esta tecnología llamada oneAPI que es abierta, está disponible para todos e incluso funciona en Nvidia y AMD. Lo que hace oneAPI es aprovechar los 20 años de trabajo de Intel en herramientas para la paralelización, la programación paralela, la creación de perfiles y la depuración, y llevarlos a las GPU para beneficiarse de todo el trabajo ya realizado para las CPU. Así que oneAPI está aquí y está ganando una gran popularidad. Y uno de nuestros objetivos con nuestras inversiones en Europa es promover oneAPI, aumentar la adopción, crear más bibliotecas para que sea más fácil de usar, etc.

Sobre las tecnologías de aceleración de procesamiento de IA, ¿qué ya se está implementando y qué aún debe suceder?

En la IA, es por lo menos un curso de 20 años que está comprometido y estamos en los primeros 5 años. Todo lo básico, como el aprendizaje profundo de redes pequeñas a nivel de un solo nodo, ha sucedido en los últimos 5 años. Y el siguiente paso, que por cierto también es un área prioritaria de nuestro centro europeo de I+D, es que los problemas de IA no se limiten a un nodo, ni a 10 nodos sino que se extiendan a miles de nodos. Es por eso que necesitamos tratamientos de zettascale. ¿Cómo construimos estas poderosas computadoras para estas grandes redes de IA de tal manera que podamos programarlas de manera productiva y muy eficiente? Y eso es lo que esperamos con estas nuevas arquitecturas como Falcon Shores y otras iniciativas de escala zetta que hemos anunciado. En este contexto, también mencionamos la colaboración con el Barcelona Supercomputing Center.

En cuanto a la reducción del consumo energético de los chips y de los sistemas de refrigeración de los servidores, ¿cuáles son los avances de Intel?

En los aspectos de consumo energético, en la perspectiva de zettascale, nos hemos fijado un objetivo muy difícil de multiplicar por mil el rendimiento en los próximos 5 años al mismo nivel de potencia eléctrica. Estamos viendo 5 áreas. El primero es la arquitectura de la computadora y el rendimiento por vatio. El segundo aspecto se relaciona con la memoria y cómo movemos datos entre diferentes elementos computacionales. Y hoy en día la mayor parte de la energía se consume para mover los datos y no para los tratamientos en sí. Entonces, ¿cómo podemos reducir la cantidad de datos que movemos? Es una gran oportunidad. El tercer aspecto, que usted menciona, se refiere al enfriamiento térmico y al suministro de energía. Estamos viendo diferentes iniciativas. Y, de hecho, estas son áreas a las que se dirigen nuestros Centros Europeos de Diseño. El cuarto aspecto es la próxima generación de tecnología de transistores que nos traerá muchas ventajas. Y también imaginamos una operación de voltaje muy bajo de estos transistores para lograr una eficiencia energética o un rendimiento por vatio muy altos. Todas estas técnicas serán objeto de un diseño arquitectónico a lo largo de los próximos años.

¿Qué papel juegan los aceleradores de red?

Sobre aceleradores IPU [ndlr : Infrastructure processing unit] y SmartNIC, anunciamos nuestra primera generación cuya arquitectura detallamos. Y tenemos un historial completo de varios años en nuestra IPU, que consideramos una categoría muy importante. No solo para HPC, sino también para centros de datos y edge computing.

ShareTweetPin

Search

No Result
View All Result

Recent News

MEREG SETTEMBRE ETHEEREUM

Ethereum vuela gracias a la fusión | Prueba en Görli ok, ahora falta…

agosto 13, 2022
L

Palo Alto lanza el servicio experto de detección y respuesta gestionada

agosto 13, 2022
Illustration shows Swedish and NATO flags

Suecia acuerda extraditar a un hombre a Turquía a raíz del acuerdo de la OTAN

agosto 13, 2022
Mundo Informático

© 2022 Mundo Informático

Navegar

  • About
  • advertise
  • Privacy & Policy
  • Contact Us

Síguenos

No Result
View All Result
  • Inicio
  • Ciencia
  • Artículos
  • Criptomonedas
  • Tecnología
  • Otros

© 2022 Mundo Informático

Usamos cookies propias y de terceros para ofrecer nuestros servicios, estadísticas y publicidad. Si navegas aceptas su instalación y uso. Configuración de CookiesAceptar

Privacy Overview

This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary
Siempre activado
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Non-necessary
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.
GUARDAR Y ACEPTAR
Ir a la versión móvil