Conclusiones del seminario web para inversores de Intel
Los líderes de Intel se centran en la unidad de negocios de Centro de Datos e Inteligencia Artificial de la compañía con hojas de ruta y actualizaciones de progreso.
Redacción T21 / 05.04.2023 / 5:10 pm
Todos los ojos, especialmente los ojos de los inversores, están puestos en el negocio de centros de datos de Intel en la actualidad.
Sandra Rivera, Greg Lavender y Lisa Spelman de Intel organizaron un seminario web centrado en la unidad de negocios de Data Center e Inteligencia Artificial de la compañía. Ofrecieron una gran actualización sobre las últimas previsiones de mercado de Intel, los planes de hardware y la forma en que Intel está capacitando a los desarrolladores con software.
Los ejecutivos repartieron actualizaciones sobre el negocio de centros de datos de Intel para los inversores. Esto incluyó revelaciones sobre futuras generaciones de chips Intel Xeon®, actualizaciones de progreso en procesadores escalables Intel Xeon de 4ª generación (nombre en código Sapphire Rapids) y demostraciones de hardware Intel que abordan la competencia, cargas de trabajo pesadas de IA y más.
Si no tienes tiempo para ver la repetición, aquí están las cuatro conclusiones principales:
Pase de lista de la hoja de ruta de Xeon
Entre Sapphire Rapids, Emerald Rapids, Sierra Forest y Granite Rapids, están sucediendo muchas cosas en el negocio de las CPU de servidores. Aquí están las actualizaciones de su hoja de ruta de Xeon en orden de aparición:
Hoy: Una actualización de 4ª generación de Intel Xeon escalable (Sapphire Rapids)
Todos los principales fabricantes de equipos originales (OEM) y fabricantes de diseño original (ODM) están enviando sistemas Xeon de 4ª generación, y los 10 principales proveedores mundiales de servicios en la nube están trabajando en la implementación de servicios en Xeon de 4ª generación. Es la CPU de centro de datos de más alta calidad que Intel haya entregado, y la rampa continúa agresivamente. Lisa Spelman, vicepresidenta corporativa y gerente general de Intel Xeon Products, ofreció una demostración de un Xeon de 48 núcleos de 4ª generación que se enfrenta cara a cara con una CPU AMD Epyc de 48 núcleos de 48 núcleos. ¿El resultado? El Xeon de 4ª generación de Intel con Intel Advanced Matrix Extensions (Intel AMX) ofrece una ganancia de rendimiento promedio de 4 veces la última tecnología de la competencia en un amplio conjunto de cargas de trabajo de aprendizaje profundo.2
Q4 2023: 5ª generación de Intel Xeon escalable (nombre en código Emerald Rapids)
Emerald Rapids es el próximo producto Performance-core (P-core) de Intel. A partir de hoy, se conoce oficialmente como Intel® Xeon® Scalable de 5ª generación. A medida que se despoja de su nombre en clave y se pone una marca formal en preparación para su lanzamiento, la CPU ya está muestreando a los clientes. La validación de volumen está en marcha y Sandra Rivera, vicepresidenta ejecutiva y gerente general del Data Center and AI Group, dijo a los inversores que la calidad del silicio de fábrica es muy alta.
Primer semestre 2024: Sierra Forest
Sierra Forest, el primer procesador Efficiency-core (E-core), está en camino para la primera mitad de 2024. Hoy, Intel anunció que Sierra Forest contará con 144 núcleos por socket. La primera CPU basada en el próximo proceso Intel 3, Sierra Forest se encendió a principios de este trimestre con múltiples sistemas operativos arrancando en un tiempo récord (menos de un día). Está a tiempo con las primeras muestras ya fuera de la puerta. Una demostración de Sierra Forest durante la presentación de hoy incluyó una buena toma del administrador de tareas que muestra los 144 núcleos resoplando a lo largo del procesamiento de la carga de trabajo de demostración.
Un seguimiento rápido: Granite Rapids
Granite Rapids llegará pisándole los talones a Sierra Forest en 2024. Aunque aún no se ha revelado una fecha de lanzamiento específica, su tiempo de comercialización se beneficiará de compartir una plataforma con Sierra Forest. La propiedad intelectual y la tecnología compartidas minimizan el tiempo de desarrollo y diseño. Granite Rapids está alcanzando todos los hitos importantes y el primer paso está fuera de la fábrica y saludable. También está muestreando a los clientes con comentarios positivos. Spelman organizó una primera muestra de la innovación de Granite Rapids durante una demostración.
"Estamos construyendo la interfaz de memoria más rápida del mundo para Granite Rapids", dijo Spelman mientras iniciaba un símbolo del sistema para mostrar su configuración de memoria. "Intel inventó y lideró el ecosistema en el desarrollo de un nuevo tipo de DIMM llamado Multiplexer Combined Rank (MCR) que nos permite alcanzar velocidades de 8.800 mega transferencias por segundo, basadas en DDR5".
La innovación MCR DIMM logra un aumento del ancho de banda máximo del 80% sobre la tecnología de memoria de servidor de generación actual, y Lisa pudo demostrar la estabilidad de Granite Rapids mientras saturaba un subsistema de memoria saludable con lectura/escritura.
Más adelante en el futuro
Hablando públicamente por primera vez, Intel continuará ejecutando su hoja de ruta E-core con la continuación de Sierra Forest: Clearwater Forest. Llegando al mercado en 2025, Clearwater Forest se fabricará en Intel 18A, el nodo donde Intel planea lograr el liderazgo en procesos: es la culminación de la estrategia de cinco nodos en cuatro años de la compañía.
Bits de bonificación
- El acelerador de AI Habana Gaudí3 se ha grabado. Los detalles de rendimiento aún no se han compartido, pero Habana® Gaudí®2 está en el entorno y ofrece una ventaja de 1.8x en rendimiento por vatio sobre un servidor A100 comparable cuando se ejecuta una carga de trabajo de visión artificial popular.1
- Hay 15 nuevos productos FPGA programados para pasar por el proceso de calificación de lanzamiento de producción (PRQ) este año, es decir, más presentaciones de productos nuevos que nunca antes en el negocio de FPGA de Intel.
Mirando más allá de la CPU por $ 110 mil millones
Esta hoja de ruta repleta está en camino de cumplir con un mercado total disponible (TAM) aún mayor de lo que se consideraba anteriormente. El TAM de cinco años de $110 mil millones que Rivera citó para el negocio de silicio de centros de datos es aproximadamente el doble de la oportunidad destacada durante el Día del Inversor de Intel del año pasado. ¿La razón? Un panorama cambiante del centro de datos que va más allá de la CPU.
"Cuando hablamos de demanda de cómputo, a menudo miramos el TAM a través de la lente de las unidades de CPU", explicó Rivera. "Sin embargo, contar los zócalos no refleja completamente cómo las innovaciones de silicio ofrecen valor al mercado. Hoy en día, las innovaciones se entregan de varias maneras, incluida una mayor densidad del núcleo de la CPU, el uso de aceleradores integrados en el silicio y el uso de aceleradores discretos".
Con base en lo anterior, Rivera citó un par de razones específicas para el aumento de TAM: Con la integración de la computación aceleradora y las ofertas avanzadas de GPU en su negocio de centros de datos, Intel está mejor posicionada para servir a una franja más amplia de clientes. Además, el rendimiento de Xeon en cargas de trabajo de alto perfil (como IA, análisis, seguridad, redes y HPC) está impulsando la demanda de cómputo convencional, así como aceleradores discretos diseñados para la tarea en cuestión.
AI está en todas partes, es para todos y se ejecuta en Intel
Dejando a un lado las actualizaciones de silicio, la IA fue un tema persistente en el seminario web de hoy.
Intel ya es fundamental en hardware de IA, desde la preparación y administración de datos hasta la capacitación e inferencia a pequeña y mediana escala en Xeon, y el entrenamiento e inferencia de modelos cada vez más grandes utilizando GPU y aceleradores Intel.
Hoy, Rivera definió el compromiso de Intel con la verdadera democratización de la IA desde la nube hasta la red y hasta el borde al permitir un acceso más amplio a las soluciones y despliegues más rentables a través de un enfoque de ecosistema abierto.
"Los clientes quieren portabilidad en sus cargas de trabajo de IA. Quieren construir una vez y desplegarse en cualquier lugar", dijo Rivera. "A medida que continuamos entregando arquitecturas heterogéneas para cargas de trabajo de IA, implementarlas a escala requerirá un software que facilite a los desarrolladores programar y que florezca un ecosistema vibrante, abierto y seguro".
Greg Lavender, director de tecnología y líder del Grupo de Software y Tecnología de Intel, estuvo presente para hablar sobre el software avanzado de Intel, así como su inversión en un enfoque holístico a nivel de sistemas de extremo a extremo para el software de IA, incluido el trabajo para estandarizar los lenguajes de programación para la portabilidad que Rivera mencionó.
"El deseo de una alternativa abierta y multiarquitectura de múltiples proveedores al CUDA (de Nvidia) no está disminuyendo", dijo Lavender. "Creemos que la industria se beneficiará de un lenguaje de programación estandarizado al que todos puedan contribuir, colaborar, no esté encerrado en un proveedor en particular y pueda evolucionar orgánicamente en función de sus miembros y requisitos públicos".
Intel ha hecho contribuciones a SYCL, un modelo de programación abierto basado en C ++, y adquirió Codeplay Software (líder en el lenguaje y la comunidad SYCL). SYCL ahora se incluye en oneAPI para que los clientes puedan programar y compilar a través de CPU, GPU y aceleradores de múltiples proveedores. El trabajo adicional en optimizaciones de software ascendentes incluye optimizaciones para PyTorch 2.0 y TensorFlow 2.9, así como una colaboración con Hugging Face para entrenar, ajustar y predecir con la ayuda de Intel Xeon y Gaudi 2.
Impulsar el progreso en la IA generativa
La filosofía abierta de Intel se extiende al campo de la IA generativa, donde herramientas poderosas como ChatGPT y el modelo de texto a imagen DALL· E 2 está aprovechando los algoritmos de IA y los grandes conjuntos de datos para producir nuevo contenido basado en indicaciones humanas cada vez más complejas.
La IA generativa está evolucionando a gran velocidad (parece que hay titulares casi diarios sobre avances), e Intel está trabajando activamente para apoyar un ecosistema de IA generativa abierta al tiempo que aborda las crecientes demandas de rendimiento.
A principios de esta semana, Hugging Face, un jugador importante en el desarrollo de aplicaciones de aprendizaje automático, anunció que había habilitado el modelo BLOOMZ de 176 mil millones de parámetros en Gaudí 2 de Habana. El modelo BLOOM es un modelo de IA de lenguaje grande de código abierto análogo al modelo GPT-3 del parámetro 175B empleado por ChatGPT. La compañía también confirmó que está ejecutando el modelo de texto a imagen de aprendizaje profundo Stable Diffusion en Xeon de 4ª generación con Intel AMX incorporado para la aceleración de la carga de trabajo de IA (Stable Diffusion es una alternativa de acceso abierto a DALL· E).
Más allá de los esfuerzos de Intel para reforzar un ecosistema abierto y ético, Xeon también está presente y se tiene en cuenta en otras partes del panorama de la IA generativa. Rivera recordó hoy a los inversores que Nvidia está utilizando Xeon de 4ª generación como nodo principal para ejecutarse junto con sus GPU H100 para alimentar las máquinas virtuales acelerando los modelos generativos de IA en Microsoft Azure, incluido ChatGPT.
1 Informe de validación de Supermicro L12 de Gaudi2 HL-225H SYS-820GH-THR2, 20 de octubre de 2022.
2 procesadores escalables Intel® Xeon® de 4ª generación - 1 | Índice de rendimiento
T21
Área de notas de prensa del medio Tecnología 21, especializado en tecnología y negocios.
Damos prioridad al contenido exclusivo y anticipado.