No solo Nvidia se beneficia de la fiebre del oro de la IA

Los resultados trimestrales de NVIDIA se hicieron eco de todo el mercado y posicionaron a la firma como el ganador indiscutido de la fiebre del oro de la IA o inteligencia artificial. Pero tras estos titulares grandilocuentes, otras firmas conocidas y no tanto también se están beneficiando del boom desde los chips hasta centros de datos según The Economist en Yahoo Finance.

Un edificio RECTANGULAR GRIS en las afueras de San José alberga filas y filas de máquinas parpadeantes. Marañas de cables coloridos conectan servidores de alta gama, equipos de red y sistemas de almacenamiento de datos. Las voluminosas unidades de aire acondicionado zumban en lo alto. El ruido obliga a los visitantes a gritar.

El edificio pertenece a Equinix REIT, una empresa que alquila espacio para centros de datos. El equipo en el interior pertenece a empresas, desde gigantes corporativos hasta nuevas empresas, que lo utilizan cada vez más para ejecutar sus sistemas de inteligencia artificial (IA). La fiebre del oro de la IA, impulsada por la asombrosa sofisticación de los sistemas "generativos" como ChatGPT, un exitoso conversador virtual, promete generar grandes ganancias para quienes aprovechen el potencial de la tecnología. Sin embargo, como en los primeros días de cualquier fiebre del oro, ya está acuñando fortunas para los vendedores de los picos y palas necesarios.

El 24 de mayo, Nvidia, que diseña los semiconductores elegidos para muchos servidores de IA, superó las previsiones de ingresos y beneficios de los analistas para los tres meses hasta abril. Espera ventas de 11 mil millones de dólares en su trimestre actual, la mitad de lo que predijo Wall Street. A medida que el precio de sus acciones subió un 30% al día siguiente, el valor de mercado de la empresa flirteó con 1 billón de dólares. El director ejecutivo de Nvidia, Jensen Huang, declaró el 29 de mayo que el mundo se encuentra en "el punto de inflexión de una nueva era informática".

Otras firmas de chips, desde diseñadores como Advanced Micro Dhasta fabricantes como Taiwan Semi Sp ADR de Taiwán, se han dejado llevar por la emoción de la IA. También lo han hecho los proveedores de otra infraestructura informática, que incluye todo, desde esos cables coloridos, las unidades de aire acondicionado ruidosas y el espacio del piso del centro de datos hasta el software que ayuda a ejecutar los modelos de IA y ordenar los datos. Un índice igualmente ponderado de 30 empresas de este tipo ha aumentado un 40% desde el lanzamiento de ChatGPT en noviembre, en comparación con el 13% del índice NASDAQ de gran tecnología (ver gráfico). “Está surgiendo una nueva pila tecnológica”, resume Daniel Jeffries de AI Infrastructure Alliance, un grupo de presión.

A primera vista, los gubbins de IA parecen mucho menos emocionantes que los inteligentes "modelos de lenguaje grande" detrás de ChatGPT y su variedad de rivales en rápida expansión. Pero a medida que los constructores de modelos y los creadores de aplicaciones que aprovechan esos modelos compiten por una porción del futuro pastel de IA, todos necesitan poder de cómputo aquí y ahora, y mucho.

Los últimos sistemas de IA, incluido el tipo generativo, requieren mucha más informática que los más antiguos, por no hablar de las aplicaciones que no son de IA. Amin Vahdat, jefe de infraestructura de IA en Google Cloud Platform, el brazo de computación en la nube del gigante de Internet Alphabet-A, observa que los tamaños de los modelos se han multiplicado por diez cada año durante los últimos seis años. GPT-4, la última versión de la que impulsa a ChatGPT, analiza datos usando quizás 1 trn de parámetros, más de cinco veces más que su predecesor. A medida que los modelos crecen en complejidad, las necesidades computacionales para entrenarlos aumentan correspondientemente.

Una vez entrenadas, las IA requieren menos capacidad de procesamiento de números para ser utilizadas en un proceso llamado inferencia. Pero dada la gama de aplicaciones que se ofrecen, la inferencia, de forma acumulativa, también demandará mucho empuje de procesamiento. Microsofttiene más de 2.500 clientes para un servicio que utiliza tecnología de OpenAI, el creador de ChatGPT, del cual el gigante del software posee casi la mitad. Eso es diez veces más que el trimestre anterior. La empresa matriz de Google, Alphabet, tiene seis productos con 2.000 millones de usuarios o más en todo el mundo y planea impulsarlos con IA generativa.

Los ganadores más obvios de la creciente demanda de potencia informática son los fabricantes de chips. Empresas como Nvidia y AMD obtienen una tarifa de licencia cada vez que sus planos son grabados en silicio por fabricantes como TSMC en nombre de los clientes finales, en particular los grandes proveedores de computación en la nube que impulsan la mayoría de las aplicaciones de IA. La IA es, por lo tanto, una bendición para los diseñadores de chips, ya que se beneficia de chips más potentes (que tienden a generar márgenes más altos) y más de ellos. UBS Group N calcula que en los próximos uno o dos años la IA aumentará la demanda de chips especializados conocidos como unidades de procesamiento de gráficos (GPU) en 10 mil millones-15 mil millones de dólares.

Como resultado, los ingresos anuales del centro de datos de Nvidia, que representan el 56 % de sus ventas, podrían duplicarse. AMD lanzará una nueva GPU a finales de este año. “Aunque es un jugador mucho más pequeño en el juego de diseño de GPU que Nvidia, la escala del auge de la IA significa que la empresa está preparada para beneficiarse incluso si solo obtiene los restos del mercado”, dice Stacy Rasgon de Bernstein. Las nuevas empresas de diseño de chips centradas en la IA, como Cerebras y Graphcore, están tratando de hacerse un nombre. PitchBook, un proveedor de datos, cuenta con unas 300 empresas de este tipo.

Naturalmente, parte de la ganancia inesperada también se acumulará para los fabricantes. En abril, el jefe de TSMC, C.C. Wei, habló con cautela de "alza incremental en la demanda relacionada con la IA". Los inversores se han mostrado bastante más entusiastas. El precio de las acciones de la empresa aumentó un 10% después de las últimas ganancias de Nvidia, agregando alrededor de 20 mil millones de dólares a su capitalización de mercado.

Los empaquetadores

Los beneficiarios menos obvios también incluyen empresas que permiten empaquetar más chips en una sola unidad de procesamiento. Besi, una empresa holandesa, fabrica las herramientas que ayudan a unir los chips. Según Pierre Ferragu de New Street Research, otra firma de analistas, la empresa holandesa controla las tres cuartas partes del mercado de unión de alta precisión. El precio de sus acciones ha subido más de la mitad este año.

GPUs

UBS estima que los gpus representan aproximadamente la mitad del costo de los servidores de IA especializados, en comparación con una décima parte de los servidores estándar. Pero no son el único equipo necesario. Para funcionar como una sola computadora, las GPU de un centro de datos también deben comunicarse entre sí.

Equipos de red

Eso, a su vez, requiere equipos de red cada vez más avanzados, como conmutadores, enrutadores y chips especializados. Se espera que el mercado de dicho kit crezca un 40% anual en los próximos años, a casi 9.000 millones de dólares para 2027, según 650 Group, una firma de investigación. Nvidia, que también otorga licencias de dicho kit, representa el 78% de las ventas globales. Pero competidores como Arista Networks, una empresa californiana, también están recibiendo la atención de los inversores: el precio de sus acciones aumentó casi un 70% el año pasado. Broadcom, que vende chips especializados que ayudan a operar las redes, dijo que sus ventas anuales de tales semiconductores se cuadriplicarían en 2023, a 800 millones de dólares.

“El auge de la IA también es una buena noticia para las empresas que ensamblan los servidores que van a los centros de datos”, señala Peter Rutten de IDC, otra firma de investigación. Dell'Oro Group, una firma más de analistas, predice que los centros de datos de todo el mundo aumentarán la proporción de servidores dedicados a la IA de menos del 10%actual a alrededor del 20 % dentro de cinco años, y la participación de ese equipo en el capital de los centros de datos el gasto en servidores aumentará de alrededor del 20% actual al 45%.

Esto beneficiará a los fabricantes de servidores como Wistron e Inventec, ambos de Taiwán, que producen servidores personalizados principalmente para gigantes proveedores de la nube como Amazon Web Services y Azure de Microsoft. Los fabricantes más pequeños también deberían hacerlo bien. Los jefes de Wiwynn, otro fabricante de servidores taiwanés, dijeron recientemente que los proyectos relacionados con la IA representan más de la mitad de su cartera de pedidos actual. Super Micro Comp, una empresa estadounidense, dijo que en los tres meses hasta abril, los productos de IA representaron el 29% de sus ventas, frente a un promedio del 20% en los 12 meses anteriores.

Software especializado

Todo este hardware de IA requiere un software especializado para funcionar. Algunos de estos programas provienen de las empresas de hardware. La plataforma de software de Nvidia, llamada CUDA, permite a los clientes aprovechar al máximo sus GPU, por ejemplo. Otras empresas crean aplicaciones que permiten a las empresas de IA gestionar datos (Datagen, Pinecone, Scale AI) o albergar modelos de lenguaje grandes (HuggingFace, Replicate). PitchBook cuenta con alrededor de 80 nuevas empresas de este tipo. Más de 20 han recaudado nuevo capital en lo que va del año; Pinecone cuenta con Andreessen Horowitz y Tiger Global, dos gigantes del capital de riesgo, como inversores.

Al igual que con el hardware, los principales clientes de gran parte de este software son los gigantes de la nube. Juntos, Amazon, Alphabet y Microsoft planean realizar un gasto de capital de alrededor de 120 mil millones de dólares este año, frente a los 78 mil millones de dólares en 2022. Gran parte de eso se destinará a expandir su capacidad en la nube. Aun así, la demanda de computación de IA es tan alta que incluso ellos tienen dificultades para mantenerse al día.

Eso ha creado una apertura para los retadores. En los últimos años, IBM, Nvidia y Equinix han comenzado a ofrecer acceso a las GPU “como servicio”. Las nuevas empresas en la nube centradas en la IA también están proliferando. En marzo, uno de ellos, Lambda, recaudó 44 millones de dólares de inversores como Gradient Ventures, uno de los brazos de riesgo de Google, y Greg Brockman, cofundador de OpenAI. El acuerdo valoró a la empresa en alrededor de 200 millones de dólares. Un equipo similar, CoreWeave, recaudó 221 millones de dólares en abril, incluso de Nvidia, con una valoración de 2 mil millones de dólares. Brannin McBee, cofundador de CoreWeave, argumenta que un enfoque en el servicio al cliente y la infraestructura diseñada en torno a la IA lo ayudan a competir con los gigantes de la nube.

Propietarios de centro de datos

El último grupo de ganadores de infraestructura de IA está más cerca de proporcionar palas reales: los propietarios de los centros de datos. A medida que aumenta la demanda de computación en la nube, sus propiedades se están llenando. En la segunda mitad de 2022, las tasas de disponibilidad de centros de datos se situaron en el 3%, un mínimo histórico. Los especialistas como Equinix o su rival, Digital Realty, compiten cada vez más con los grandes administradores de activos, que están ansiosos por agregar centros de datos a sus carteras de propiedades. En 2021, Blackstone, un gigante de los mercados privados, pagó 10 mil millones de dólares por QTS Realty Trust, uno de los operadores de centros de datos más grandes de Estados Unidos. En abril, Brookfield, el rival canadiense de Blackstone que ha estado invirtiendo fuertemente en centros de datos, compró Data4, una empresa francesa de centros de datos.

Pero no todo es oro

El crecimiento continuo de la pila de infraestructura de IA aún podría encontrarse con limitaciones. Uno es energía. Un gran inversionista en centros de datos señala que se espera que el acceso a la electricidad, de la cual los centros de datos son usuarios prodigiosos, reduzca el desarrollo de nuevos centros de datos en centros como el norte de Virginia y Silicon Valley. Otro bloqueo potencial es un cambio de los grandes modelos de IA y la inferencia basada en la nube a sistemas más pequeños que requieren menos poder de cómputo para entrenar y pueden ejecutar la inferencia en un teléfono inteligente, como es el caso de la versión reducida recientemente presentada por Google de su modelo PaLM.

El mayor interrogante se cierne sobre la permanencia del propio auge de la IA. A pesar de la popularidad de ChatGPT y sus similares, los casos de uso rentables de la tecnología siguen sin estar claros. En Silicon Valley, la exageración puede convertirse en decepción en un abrir y cerrar de ojos. El valor de mercado de Nvidia aumentó en 2021, ya que sus GPU resultaron ser perfectas para extraer bitcoins y otras criptomonedas, y luego se derrumbó cuando el auge de las criptomonedas cayó.

Y si la tecnología está a la altura de su facturación transformadora, los reguladores podrían tomar medidas drásticas. Los legisladores de todo el mundo, preocupados por el potencial de la IA generativa para eliminar puestos de trabajo o difundir información errónea, ya están considerando medidas de protección. De hecho, el 11 de mayo, los legisladores de la UE propusieron un conjunto de reglas que restringirían los chatbots.

Todos estos factores limitantes pueden ralentizar el despliegue de la IA y, al hacerlo, empañar las perspectivas de las empresas de infraestructura de IA. Pero probablemente solo un poco. Incluso si la IA generativa no resulta ser tan transformadora como afirman sus impulsores, es casi seguro que será más útil que la criptografía. Y hay muchas otras IA no generativas que también necesitan mucha potencia informática. Es probable que nada menos que una prohibición global de la IA generativa, que no está en el horizonte, detenga la fiebre del oro. Y mientras todos se apresuren, los vendedores ambulantes de picos y palas cobrarán.