Nvidia lanza un sistema de inteligencia artificial con tecnología Groq, impulsando la inferencia

 | Tech,AI,Enterprise,jensen-huang,nvidia,gtc-conference,ai-inference,ai-agents,groq,openai,limited-synd,beacon-industries-big-bet,chips,artificial-intelligence,gpu,data-centers,gpus,big-tech

📂 Categoría: Tech,AI,Enterprise,jensen-huang,nvidia,gtc-conference,ai-inference,ai-agents,groq,openai,limited-synd,beacon-industries-big-bet,chips,artificial-intelligence,gpu,data-centers,gpus,big-tech | 📅 Fecha: 1773698566

🔍 En este artículo:

El director ejecutivo de Nvidia, Jensen Huang, presentó un nuevo sistema de inferencia el lunes en la conferencia anual GTC de la compañía: el movimiento más decisivo de la compañía hasta el momento para defender su dominio a medida que la inferencia se convierte en el próximo campo de batalla para la IA.

Este nuevo avance se produce cuando Huang dijo que Nvidia pronostica una demanda masiva. La compañía espera una demanda de al menos 1 billón de dólares para sus sistemas de inteligencia artificial Blackwell y Rubin hasta 2027, frente a los 500 mil millones de dólares de demanda proyectada hasta 2026, dijo.

El gigante de los chips de IA anunció la nueva Nvidia Groq 3 LPX, que según Huang puede acelerar las cargas de trabajo de inferencia hasta 35 veces. Lihat juga ads3d. Toma tecnología de la startup de chips de IA Groq y la combina con la arquitectura Vera Rubin de Nvidia.

Samsung está fabricando el nuevo chip Groq y Nvidia espera que el sistema esté disponible en la segunda mitad de este año.

«Ha llegado el punto de inflexión de la inferencia», dijo Huang durante el discurso de apertura.

El nuevo sistema de Nvidia se basa en el acuerdo de aproximadamente 20 mil millones de dólares que alcanzó con Groq en diciembre, que le permitió licenciar la tecnología de Groq y contratar a sus mejores ingenieros.

Huang ya había insinuado una colaboración con la startup Groq durante la última convocatoria de resultados de Nvidia. El Wall Street Journal informó anteriormente que la empresa estaba preparando un nuevo sistema de inferencia que incorpora la tecnología Groq.

Las unidades de procesamiento de gráficos (GPU) de Nvidia todavía dominan el campo de la IA y pueden usarse tanto para entrenar modelos de IA como para inferir, o cómo los modelos de IA toman decisiones o predicciones.

Hoy en día, un número creciente de competidores de Nvidia (desde hiperescaladores hasta nuevas empresas de chips) están desarrollando sistemas especializados más baratos y eficientes para trabajos de inferencia repetitivos y sensibles a los costos.

El auge de los agentes de IA (o herramientas que realizan tareas en nombre de los humanos) podría aumentar significativamente la demanda de inferencia.

Con este fin, empresas de inteligencia artificial como OpenAI han estado explorando alternativas al hardware de Nvidia. Reuters informó anteriormente que no estaba satisfecho con los chips de inferencia de la empresa. En enero, OpenAI firmó un acuerdo informático de 10.000 millones de dólares con la startup de chips de inferencia Cerebras.

¿Tiene algún consejo? Póngase en contacto con este periodista por correo electrónico a gweiss@businessinsider.com o Informe a @geoffweiss.25. Usar una dirección de correo electrónico personal, una red WiFi que no sea del trabajo y un dispositivo que no sea del trabajo; aquíes nuestra guía para compartir información de forma segura.

El director ejecutivo de Nvidia, Jensen Huang, presentó un nuevo sistema de inferencia el lunes en la conferencia anual GTC de la compañía: el movimiento más decisivo de la compañía hasta el momento para defender su dominio a medida que la inferencia se convierte en el próximo campo de batalla para la IA.

Este nuevo avance se produce cuando Huang dijo que Nvidia pronostica una demanda masiva. La compañía espera una demanda de al menos 1 billón de dólares para sus sistemas de inteligencia artificial Blackwell y Rubin hasta 2027, frente a los 500 mil millones de dólares de demanda proyectada hasta 2026, dijo.

El gigante de los chips de IA anunció la nueva Nvidia Groq 3 LPX, que según Huang puede acelerar las cargas de trabajo de inferencia hasta 35 veces. Lihat juga ads3d. Toma tecnología de la startup de chips de IA Groq y la combina con la arquitectura Vera Rubin de Nvidia.

Samsung está fabricando el nuevo chip Groq y Nvidia espera que el sistema esté disponible en la segunda mitad de este año.

«Ha llegado el punto de inflexión de la inferencia», dijo Huang durante el discurso de apertura.

El nuevo sistema de Nvidia se basa en el acuerdo de aproximadamente 20 mil millones de dólares que alcanzó con Groq en diciembre, que le permitió licenciar la tecnología de Groq y contratar a sus mejores ingenieros.

Huang ya había insinuado una colaboración con la startup Groq durante la última convocatoria de resultados de Nvidia. El Wall Street Journal informó anteriormente que la empresa estaba preparando un nuevo sistema de inferencia que incorpora la tecnología Groq.

Las unidades de procesamiento de gráficos (GPU) de Nvidia todavía dominan el campo de la IA y pueden usarse tanto para entrenar modelos de IA como para inferir, o cómo los modelos de IA toman decisiones o predicciones.

Hoy en día, un número creciente de competidores de Nvidia (desde hiperescaladores hasta nuevas empresas de chips) están desarrollando sistemas especializados más baratos y eficientes para trabajos de inferencia repetitivos y sensibles a los costos.

El auge de los agentes de IA (o herramientas que realizan tareas en nombre de los humanos) podría aumentar significativamente la demanda de inferencia.

Con este fin, empresas de inteligencia artificial como OpenAI han estado explorando alternativas al hardware de Nvidia. Reuters informó anteriormente que no estaba satisfecho con los chips de inferencia de la empresa. En enero, OpenAI firmó un acuerdo informático de 10.000 millones de dólares con la startup de chips de inferencia Cerebras.

¿Tiene algún consejo? Póngase en contacto con este periodista por correo electrónico a gweiss@businessinsider.com o Informe a @geoffweiss.25. Usar una dirección de correo electrónico personal, una red WiFi que no sea del trabajo y un dispositivo que no sea del trabajo; aquíes nuestra guía para compartir información de forma segura.

💡 Puntos Clave

  • Este artículo cubre aspectos importantes sobre Tech,AI,Enterprise,jensen-huang,nvidia,gtc-conference,ai-inference,ai-agents,groq,openai,limited-synd,beacon-industries-big-bet,chips,artificial-intelligence,gpu,data-centers,gpus,big-tech
  • Información verificada y traducida de fuente confiable
  • Contenido actualizado y relevante para nuestra audiencia

📚 Información de la Fuente

📰 Publicación: www.businessinsider.com
✍️ Autor: Geoff Weiss
📅 Fecha Original: 2026-03-16 20:48:00
🔗 Enlace: Ver artículo original

Nota de transparencia: Este artículo ha sido traducido y adaptado del inglés al español para facilitar su comprensión. El contenido se mantiene fiel a la fuente original, disponible en el enlace proporcionado arriba.

📬 ¿Te gustó este artículo?

Tu opinión es importante para nosotros. Comparte tus comentarios o suscríbete para recibir más contenido histórico de calidad.

💬 Dejar un comentario