Jefe de IA de Google: la falta de memoria crea un "punto de estrangulamiento"

 | Tech,AI,artificial-intelligence,technology,google,supply-chain,alphabet-inc,demis-hassabis,google-deep-mind,memory-shortage

📂 Categoría: Tech,AI,artificial-intelligence,technology,google,supply-chain,alphabet-inc,demis-hassabis,google-deep-mind,memory-shortage | 📅 Fecha: 1771633406

🔍 En este artículo:

La falta de memoria no toma prisioneros. Ni siquiera Google es inmune.

Las empresas de inteligencia artificial están trabajando en cantidades cada vez mayores de chips de memoria. ¿El problema? La industria está severamente limitada en términos de oferta. Los costos se dispararon, los productos se bloquearon y algunas empresas, particularmente las del sector de la electrónica de consumo, subieron los precios.

En el frente de la IA, dijo el director ejecutivo de Google DeepMind, Demis Hassabis CNBC que las dificultades físicas “limitaron gran parte del despliegue”. Google ve «mucha más demanda» para Gemini y sus otros modelos de la que podría satisfacer, afirmó.

«Además, limita un poco la investigación», dijo Hassabis. «Se necesitan muchos chips para poder experimentar con nuevas ideas a una escala lo suficientemente grande como para poder ver si van a funcionar».

Los investigadores quieren chips, ya sea que trabajen en Google, Meta, OpenAI u otras grandes empresas tecnológicas, y la memoria es un componente clave. Mark Zuckerberg dijo que los investigadores de IA exigen dos cosas más allá del dinero: la menor cantidad de personas que les reporten y la mayor cantidad de chips posible.

Hassabis dijo que dondequiera que había una limitación de capacidad, había un “punto de estrangulamiento”.

«Toda la cadena de suministro está bastante tensa», dijo Hassabis. «Tenemos suerte porque tenemos nuestros propios TPU y, por tanto, nuestros propios diseños de chips».

Google lleva mucho tiempo construyendo TPU (Unidades de Procesamiento Tensoriales) para uso interno. La compañía también los alquila a clientes externos a través de su nube, lo que también ha puesto a Nvidia a la vanguardia.

Pero ni siquiera el acceso a sus propios TPU salvará a Google de tener que navegar en el mercado de la memoria altamente competitivo. «En última instancia, todo se reduce a unos pocos proveedores de unos pocos componentes clave», dijo Hassabis.

Tres proveedores dominan la producción de chips de memoria: Samsung, Micron y SK Hynix. Estas empresas están luchando por satisfacer la demanda de chips de los hiperescaladores de IA sin perder a sus clientes de electrónica de toda la vida.

No ayuda que las empresas de IA quieran principalmente un tipo de chip de memoria diferente al de los fabricantes de PC. Los grandes productores de lenguajes de patrones quieren chips HBM (memoria de alto ancho de banda).

No espere que el gasto de Google en infraestructura y chips de inteligencia artificial disminuya pronto. Cuando informó sus resultados del cuarto trimestre, la compañía pronosticó un gasto de capital de entre 175.000 y 185.000 millones de dólares para 2026.

La falta de memoria no toma prisioneros. Ni siquiera Google es inmune.

Las empresas de inteligencia artificial están trabajando en cantidades cada vez mayores de chips de memoria. ¿El problema? La industria está severamente limitada en términos de oferta. Los costos se dispararon, los productos se bloquearon y algunas empresas, particularmente las del sector de la electrónica de consumo, subieron los precios.

En el frente de la IA, dijo el director ejecutivo de Google DeepMind, Demis Hassabis CNBC que las dificultades físicas “limitaron gran parte del despliegue”. Google ve «mucha más demanda» para Gemini y sus otros modelos de la que podría satisfacer, afirmó.

«Además, limita un poco la investigación», dijo Hassabis. «Se necesitan muchos chips para poder experimentar con nuevas ideas a una escala lo suficientemente grande como para poder ver si van a funcionar».

Los investigadores quieren chips, ya sea que trabajen en Google, Meta, OpenAI u otras grandes empresas tecnológicas, y la memoria es un componente clave. Mark Zuckerberg dijo que los investigadores de IA exigen dos cosas más allá del dinero: la menor cantidad de personas que les reporten y la mayor cantidad de chips posible.

Hassabis dijo que dondequiera que había una limitación de capacidad, había un “punto de estrangulamiento”.

«Toda la cadena de suministro está bastante tensa», dijo Hassabis. «Tenemos suerte porque tenemos nuestros propios TPU y, por tanto, nuestros propios diseños de chips».

Google lleva mucho tiempo construyendo TPU (Unidades de Procesamiento Tensoriales) para uso interno. La compañía también los alquila a clientes externos a través de su nube, lo que también ha puesto a Nvidia a la vanguardia.

Pero ni siquiera el acceso a sus propios TPU salvará a Google de tener que navegar en el mercado de la memoria altamente competitivo. «En última instancia, todo se reduce a unos pocos proveedores de unos pocos componentes clave», dijo Hassabis.

Tres proveedores dominan la producción de chips de memoria: Samsung, Micron y SK Hynix. Estas empresas están luchando por satisfacer la demanda de chips de los hiperescaladores de IA sin perder a sus clientes de electrónica de toda la vida.

No ayuda que las empresas de IA quieran principalmente un tipo de chip de memoria diferente al de los fabricantes de PC. Los grandes productores de lenguajes de patrones quieren chips HBM (memoria de alto ancho de banda).

No espere que el gasto de Google en infraestructura y chips de inteligencia artificial disminuya pronto. Cuando informó sus resultados del cuarto trimestre, la compañía pronosticó un gasto de capital de entre 175.000 y 185.000 millones de dólares para 2026.

💡 Puntos Clave

  • Este artículo cubre aspectos importantes sobre Tech,AI,artificial-intelligence,technology,google,supply-chain,alphabet-inc,demis-hassabis,google-deep-mind,memory-shortage
  • Información verificada y traducida de fuente confiable
  • Contenido actualizado y relevante para nuestra audiencia

📚 Información de la Fuente

📰 Publicación: www.businessinsider.com
✍️ Autor: Henry Chandonnet
📅 Fecha Original: 2026-02-20 16:52:00
🔗 Enlace: Ver artículo original

Nota de transparencia: Este artículo ha sido traducido y adaptado del inglés al español para facilitar su comprensión. El contenido se mantiene fiel a la fuente original, disponible en el enlace proporcionado arriba.

📬 ¿Te gustó este artículo?

Tu opinión es importante para nosotros. Comparte tus comentarios o suscríbete para recibir más contenido histórico de calidad.

💬 Dejar un comentario