Los centros de datos de IA están entrando silenciosamente en una nueva fase, lo que podría cambiar las empresas que más se benefician de la próxima ola de gasto. Así lo afirma Sri Kanajan, científico de datos de Scale AI y antiguo científico de datos sénior de Meta Platforms Inc (NASDAQ:META), que participó en una conferencia organizada por JPMorgan para analizar cómo está evolucionando la infraestructura de IA y dónde se está invirtiendo realmente el dinero.
El entrenamiento fue la historia del año pasado; la inferencia es la de este año
A pesar de toda la atención prestada a los modelos fronterizos gigantes, Kanajan afirma que el verdadero cambio se está produciendo en otro ámbito: el gasto en capital informático está pasando más rápido de lo esperado del entrenamiento a la inferencia. Técnicas como la destilación, la cuantificación, la cadena de pensamiento y la optimización en varios pasos están haciendo que la inferencia sea más barata y eficiente, mientras que los ciclos de entrenamiento están mostrando rendimientos decrecientes.
Kanajan espera que la inferencia ocupe la mayor parte del gasto incremental en computación para 2027, y que 2025-2026 ya se incline en esa dirección.
¿Cuál es la conclusión práctica? Las empresas ya no quieren el modelo más grande, sino el más barato que haga el trabajo.
También puedes leer: Microsoft redefine su estrategia de IA y apunta a liderar la nueva economía de agentes
Broadcom y Marvell destacan
Este cambio también redefine quién sale ganando.
Kanajan señaló a Broadcom Inc (NASDAQ:AVGO) como uno de los principales beneficiarios gracias a su trabajo en ASIC personalizados que impulsan la inferencia para Alphabet Inc (NASDAQ:GOOGL) (NASDAQ:GOOG) Google (TPU), Amazon.com Inc (NASDAQ:AMZN) (Inferentia) y Meta (MTIA). En un mundo en el que priman los modelos más pequeños, baratos y eficientes, Broadcom se sitúa en la vanguardia.
Marvell Technology Inc (NASDAQ:MRVL) también se beneficia, ya que las cargas de trabajo de inferencia se inclinan en gran medida por Ethernet y PCIe, en lugar de las costosas estructuras NVLink e InfiniBand, orientadas al entrenamiento. A medida que las redes de IA se estandarizan y avanzan hacia el multisourcing, las soluciones de Marvell ganan relevancia.
Pero los ganadores van más allá de los chips.
Celestica Inc (NYSE:CLS) está bien posicionada, ya que la industria se inclina por el hardware de caja blanca alineado con OCP, especialmente porque los operadores buscan racks de inferencia más baratos y estandarizados que puedan adquirir de múltiples proveedores.
Mientras tanto, Arista Networks Inc (NYSE:ANET) sigue siendo el pilar de las redes de entrenamiento de mayor rendimiento, pero Kanajan señaló que el cambio general hacia Ethernet en la inferencia abre la puerta a más beneficiarios de las redes en los próximos años.
Estandarización + restricciones de energía = vientos favorables
Otro factor que impulsa el cambio: la energía. El entrenamiento sigue consumiendo mucha energía, a menudo entre 5 y 10 veces más que la inferencia, y muchos centros de datos simplemente no tienen la capacidad de red necesaria para ejecutar grandes clústeres de entrenamiento a plena capacidad. La inferencia, por su parte, se escala mejor en servidores distribuidos y clústeres periféricos.
Esa dinámica hace que la inferencia no solo sea más barata, sino también más fácil de implementar.
La siguiente etapa de la IA no consiste en crear el modelo más grande, sino en hacer que la IA sea más barata, más rápida y más fácil de ejecutar, y Broadcom y Marvell están en condiciones de beneficiarse a medida que el gasto siga esa dirección.
Imagen: YAKOBCHUK V / Shutterstock.com
Recibe noticias exclusivas 30 minutos antes que otros tradersLa prueba gratuita de 14 días de Benzinga Pro te brinda acceso a noticias exclusivas para que puedas realizar transacciones antes que millones de otros inversores. Comienza tu prueba gratuita de 14 días haciendo CLIC AQUÍ.
Para más actualizaciones sobre este tema, activa las notificaciones de Benzinga España o síguenos en nuestras redes sociales: X y Facebook.
