• Nvidia está vendiendo una gran cantidad de GPU muy caras.
  • Jensen Huang espera que estos chips y otras actualizaciones del centro de datos de IA cuesten 1 billón de dólares en 4 años.
  • Amazon, Google, Microsoft y Meta probablemente pagarán una gran parte de esta factura.
  • ¿Ya conoces nuestra cuenta de Threads? Síguenos.

Nvidia está vendiendo grandes cantidades de procesadores (o GPU), pero alguien tiene que pagar por estos chips increíblemente caros.

El CEO de Nvidia acaba de ponerle precio a esto, y es una sorpresa. A última hora del miércoles, Jensen Huang predijo que se gastarán 1 billón de dólares en 4 años para actualizar centros de datos para inteligencia artificial (las GPU son una gran parte de eso). Incluso lo desglosó en coste anual.

«Hay alrededor de un billón de dólares en centros de datos; digamos un cuarto de billón de dólares de capital gastado cada año», dijo.

Gran parte de esa factura probablemente la pagarán los principales proveedores de nube (también conocidos como hiperescaladores) y otras grandes empresas tecnológicas, que están desesperadas por sumergirse en la carrera de la IA generativa.

Amazon, Google, Microsoft y Meta serán las principales compañías en comprar los procesadores de Nvidia

Como mencioné en julio, se supone que los gigantes tecnológicos deberían gastar menos. Con el aumento de las ventas de Nvidia, ambas cosas no pueden suceder al mismo tiempo.

Estos son los proveedores de nube a hiperescala: Amazon, Microsoft y Google. Luego está Meta, que se está inclinando mucho hacia la IA generativa con Llama 2 y otros modelos de IA. ¿Cuánto efectivo tienen? ¿Es suficiente?

Al 30 de junio, Amazon, Microsoft, Google y Meta tenían alrededor de 334 mil millones de dólares en efectivo y equivalentes de efectivo. La factura total del centro de datos de IA es de 250,000 millones de dólares (mdd) el próximo año y luego de 750,000 mdd durante los siguientes tres años, según Nvidia. Esas son algunas matemáticas difíciles. Amazon y Meta parecen los más expuestos aquí: Amazon tiene 41,000 mdd en efectivo y Meta tiene 64,000 mdd.

El jueves pregunté a estas empresas cuánto de esta factura anual de 250,000 mdd planean pagar. Meta me señaló comentarios recientes de Mark Zuckerberg y otros altos ejecutivos sobre los planes de gastos de la empresa.

«Las inversiones que hemos realizado a lo largo de los años en IA, incluidos los miles de millones de dólares que hemos gastado en infraestructura de IA, están claramente dando sus frutos en nuestros sistemas de clasificación y recomendación y mejorando el compromiso y la monetización», dijo Zuckerberg.

La directora financiera Susan Li dijo que Meta espera que el gasto de capital sea de entre 27,000 y 30,000 mdd este año. En 2024, esa cifra aumentará a medida que la compañía construya centros de datos de nuevo diseño e invierta más en servidores «para que ambas cargas de trabajo de IA respalden todo el trabajo de IA del que hemos hablado en la clasificación central de IA, el trabajo de recomendación junto con los siguientes de IA generativa».

Nvidia no respondió si será capaz de sostener la demanda de chips de IA

Estas grandes empresas tecnológicas generarán más efectivo en los próximos años. Sin embargo, esta preocupación quedó patente durante la conferencia telefónica de Nvidia el miércoles.

«Jensen, la pregunta para usted es: cuando analizamos el gasto general de los hiperescaladores, ese pastel en realidad no está creciendo tanto», preguntó al CEO de Nvidia Vivek Arya, analista de Bank of America Merrill Lynch. «Entonces, ¿qué les da la confianza de que pueden seguir ganando más del pastel para la IA generativa? Simplemente dennos su idea de cuán sostenible es esta demanda a medida que analizamos los próximos uno o dos años».

El CEO se saltó la pregunta. Está entusiasmado. ¿Quién puede culparlo? Esto es lo que dijo, según una transcripción de la llamada de Sentieo:

«El mundo tiene alrededor de 1 billón de dólares en centros de datos instalados en la nube y en empresas y otros lugares. Y ese billón de dólares de centros de datos está en proceso de transición hacia la computación acelerada y la IA generativa», dijo Huang.

«Hay alrededor de 1 billón de dólares en centros de datos; digamos, un cuarto de billón de dólares de gasto de capital cada año. Se está viendo que los centros de datos de todo el mundo están tomando ese gasto de capital y centrándolo en las dos tendencias más importantes de informática actual: informática acelerada e IA generativa. Por lo tanto, creo que esto no es algo a corto plazo. Se trata de una transición industrial a largo plazo, y estamos viendo que estos dos cambios de plataforma ocurren al mismo tiempo», agregó.

AHORA LEE: Nvidia planea triplicar la producción de sus chips para satisfacer la demanda de las empresas de inteligencia artificial, según un informe

TAMBIÉN LEE: AMD presenta nuevo chip enfocado a potenciar modelos de inteligencia artificial generativa como ChatGPT

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA ESCUCHA:

AHORA VE: