Cinco conclusiones del acuerdo OpenAI-Pentagon de Sam Altman AMA

 | Tech,openai,department-of-defense,ai,sam-altman,tech-leaders

📂 Categoría: Tech,openai,department-of-defense,ai,sam-altman,tech-leaders | 📅 Fecha: 1772329238

🔍 En este artículo:

2026-03-01T01:36:49.680Z

  • Sam Altman apareció en X el sábado por la noche y pidió a los usuarios que le preguntaran sobre el acuerdo de OpenAI con el Pentágono.
  • Altman anunció el viernes por la noche que OpenAI trabajaría con el Pentágono y le permitiría utilizar sus modelos de IA.
  • Aquí hay cinco conclusiones importantes de la sesión AMA de Altman.

Sam Altman subió a X el sábado por la noche y pidió a los usuarios que le preguntaran sobre el acuerdo entre OpenAI y el Pentágono.

Altman anunció el viernes por la noche que su empresa había finalizó un acuerdo con el Departamento de Guerra para utilizar sus modelos de IA. El acuerdo con OpenAI se produjo después de que Anthropic rechazara un ultimátum sobre los términos de uso de su modelo fronterizo, Claude, para su despliegue en vigilancia doméstica masiva y armas totalmente autónomas.

Aquí hay cinco conclusiones importantes del AMA de Altman.

El acuerdo entre OpenAI y el Pentágono fue «apresurado» y Altman sabe que la «óptica» no se ve bien

El acuerdo con el Pentágono se alcanzó rápidamente en «un intento de calmar la situación», escribió Altman en

Añadió en otro artículo que el acuerdo fue «apresurado».

Aun así, “la óptica no pinta bien” para OpenAI, escribió.

«Si tenemos razón y esto conduce a una reducción de la tensión entre el Departamento de Trabajo y la industria, pareceremos genios y una empresa que ha hecho todo lo posible para hacer cosas para ayudar a la industria», escribió.

«De lo contrario, seguiremos siendo caracterizados como apresurados y descuidados», escribió.

Altman agregó que ve «señales prometedoras» sobre dónde terminará todo esto para OpenAI.

OpenAI aceptó el acuerdo con el Pentágono porque se sentía «cómodo» con el «lenguaje del contrato»

Se le preguntó a Altman por qué el Departamento de Guerra optó por OpenAI en lugar de Anthropic. Dijo que no hablaría en nombre de sus competidores, pero especuló sobre por qué OpenAI firmó el contrato primero.

«Primero, vi informes de noticias de que estaban muy cerca de llegar a un acuerdo y, en su mayor parte, ambas partes realmente querían llegar a un acuerdo», escribió Altman. «He visto lo que sucede en negociaciones tensas, cuando las cosas se vuelven estresantes y se deterioran muy rápidamente, y podría creer que eso es una gran parte de lo que pasó aquí».

Añadió que OpenAI y el Departamento de Guerra también «se han familiarizado con el lenguaje del contrato».

«Creo que tal vez Anthropic quería más control operativo que nosotros», añadió.

OpenAI tiene 3 líneas rojas, pero está abierto a cambiarlas a medida que evoluciona la tecnología

Altman dijo que OpenAI tiene «tres líneas rojas». Pero estas líneas rojas podrían cambiar –y podrían establecerse más– a medida que la tecnología evolucione y entren en juego “nuevos riesgos”.

«Pero hay un punto realmente importante: no somos elegidos. Tenemos un proceso democrático en el que elegimos a nuestros líderes», escribió Altman. «Hemos dominado la tecnología y entendemos sus limitaciones, pero creo que deberíamos tener miedo de que una empresa privada decida qué es ético o no en las áreas más importantes».

«Nos parece apropiado decidir cómo debe responder ChatGPT a una pregunta controvertida», añadió. «Pero realmente no quiero que decidamos qué hacer si un arma nuclear llega hacia Estados Unidos».

Altman dice que Anthropic está en un camino «peligroso»

Altman dijo que OpenAI había estado hablando con el Departamento de Guerra durante «muchos meses» sobre el trabajo no clasificado, antes de que «las cosas se aceleraran en el lado clasificado».

«Descubrimos que el Departamento de Guerra era flexible en lo que necesitábamos y queríamos apoyarlos en su importante misión», escribió.

«Creo que la dirección actual de las cosas es peligrosa para la competencia antrópica y sana y para los Estados Unidos», escribió Altman también en X. «Negociamos para garantizar que se ofrecieran condiciones similares a todos los demás laboratorios de IA».

También pidió “cierta empatía” hacia el Ministerio de Guerra, dada su “muy importante misión”.

Y, en palabras de Altman:

Nuestra industria les está diciendo: «La tecnología que estamos construyendo va a ser una parte importante del conflicto geopolítico. China se está apresurando hacia adelante. Llegan muy tarde».

Y luego decimos

«Pero no te ayudaremos y creemos que estás bastante mal».

No creo que reaccionaría muy bien en esta situación.

No creo que los líderes no elegidos de empresas privadas deban tener tanto poder como nuestro gobierno democráticamente elegido. Pero creo que tenemos que ayudarlos.

Altman dice que la IA puede ayudar a contrarrestar grandes amenazas a la seguridad en dos frentes

Altman dice que la IA podría resultar útil en dos frentes. En primer lugar, la «capacidad de Estados Unidos para defenderse de grandes ciberataques», en particular uno que podría destruir la red eléctrica del país.

En segundo lugar, la bioseguridad es un área en la que la IA podría ayudar.

«No creo que actualmente estemos lo suficientemente preparados para detectar y responder a una nueva amenaza pandémica», dijo Altman.

2026-03-01T01:36:49.680Z

  • Sam Altman apareció en X el sábado por la noche y pidió a los usuarios que le preguntaran sobre el acuerdo de OpenAI con el Pentágono.
  • Altman anunció el viernes por la noche que OpenAI trabajaría con el Pentágono y le permitiría utilizar sus modelos de IA.
  • Aquí hay cinco conclusiones importantes de la sesión AMA de Altman.

Sam Altman subió a X el sábado por la noche y pidió a los usuarios que le preguntaran sobre el acuerdo entre OpenAI y el Pentágono.

Altman anunció el viernes por la noche que su empresa había finalizó un acuerdo con el Departamento de Guerra para utilizar sus modelos de IA. El acuerdo con OpenAI se produjo después de que Anthropic rechazara un ultimátum sobre los términos de uso de su modelo fronterizo, Claude, para su despliegue en vigilancia doméstica masiva y armas totalmente autónomas.

Aquí hay cinco conclusiones importantes del AMA de Altman.

El acuerdo entre OpenAI y el Pentágono fue «apresurado» y Altman sabe que la «óptica» no se ve bien

El acuerdo con el Pentágono se alcanzó rápidamente en «un intento de calmar la situación», escribió Altman en

Añadió en otro artículo que el acuerdo fue «apresurado».

Aun así, “la óptica no pinta bien” para OpenAI, escribió.

«Si tenemos razón y esto conduce a una reducción de la tensión entre el Departamento de Trabajo y la industria, pareceremos genios y una empresa que ha hecho todo lo posible para hacer cosas para ayudar a la industria», escribió.

«De lo contrario, seguiremos siendo caracterizados como apresurados y descuidados», escribió.

Altman agregó que ve «señales prometedoras» sobre dónde terminará todo esto para OpenAI.

OpenAI aceptó el acuerdo con el Pentágono porque se sentía «cómodo» con el «lenguaje del contrato»

Se le preguntó a Altman por qué el Departamento de Guerra optó por OpenAI en lugar de Anthropic. Dijo que no hablaría en nombre de sus competidores, pero especuló sobre por qué OpenAI firmó el contrato primero.

«Primero, vi informes de noticias de que estaban muy cerca de llegar a un acuerdo y, en su mayor parte, ambas partes realmente querían llegar a un acuerdo», escribió Altman. «He visto lo que sucede en negociaciones tensas, cuando las cosas se vuelven estresantes y se deterioran muy rápidamente, y podría creer que eso es una gran parte de lo que pasó aquí».

Añadió que OpenAI y el Departamento de Guerra también «se han familiarizado con el lenguaje del contrato».

«Creo que tal vez Anthropic quería más control operativo que nosotros», añadió.

OpenAI tiene 3 líneas rojas, pero está abierto a cambiarlas a medida que evoluciona la tecnología

Altman dijo que OpenAI tiene «tres líneas rojas». Pero estas líneas rojas podrían cambiar –y podrían establecerse más– a medida que la tecnología evolucione y entren en juego “nuevos riesgos”.

«Pero hay un punto realmente importante: no somos elegidos. Tenemos un proceso democrático en el que elegimos a nuestros líderes», escribió Altman. «Hemos dominado la tecnología y entendemos sus limitaciones, pero creo que deberíamos tener miedo de que una empresa privada decida qué es ético o no en las áreas más importantes».

«Nos parece apropiado decidir cómo debe responder ChatGPT a una pregunta controvertida», añadió. «Pero realmente no quiero que decidamos qué hacer si un arma nuclear llega hacia Estados Unidos».

Altman dice que Anthropic está en un camino «peligroso»

Altman dijo que OpenAI había estado hablando con el Departamento de Guerra durante «muchos meses» sobre el trabajo no clasificado, antes de que «las cosas se aceleraran en el lado clasificado».

«Descubrimos que el Departamento de Guerra era flexible en lo que necesitábamos y queríamos apoyarlos en su importante misión», escribió.

«Creo que la dirección actual de las cosas es peligrosa para la competencia antrópica y sana y para los Estados Unidos», escribió Altman también en X. «Negociamos para garantizar que se ofrecieran condiciones similares a todos los demás laboratorios de IA».

También pidió “cierta empatía” hacia el Ministerio de Guerra, dada su “muy importante misión”.

Y, en palabras de Altman:

Nuestra industria les está diciendo: «La tecnología que estamos construyendo va a ser una parte importante del conflicto geopolítico. China se está apresurando hacia adelante. Llegan muy tarde».

Y luego decimos

«Pero no te ayudaremos y creemos que estás bastante mal».

No creo que reaccionaría muy bien en esta situación.

No creo que los líderes no elegidos de empresas privadas deban tener tanto poder como nuestro gobierno democráticamente elegido. Pero creo que tenemos que ayudarlos.

Altman dice que la IA puede ayudar a contrarrestar grandes amenazas a la seguridad en dos frentes

Altman dice que la IA podría resultar útil en dos frentes. En primer lugar, la «capacidad de Estados Unidos para defenderse de grandes ciberataques», en particular uno que podría destruir la red eléctrica del país.

En segundo lugar, la bioseguridad es un área en la que la IA podría ayudar.

«No creo que actualmente estemos lo suficientemente preparados para detectar y responder a una nueva amenaza pandémica», dijo Altman.

💡 Puntos Clave

  • Este artículo cubre aspectos importantes sobre Tech,openai,department-of-defense,ai,sam-altman,tech-leaders
  • Información verificada y traducida de fuente confiable
  • Contenido actualizado y relevante para nuestra audiencia

📚 Información de la Fuente

📰 Publicación: www.businessinsider.com
✍️ Autor: Cheryl Teh
📅 Fecha Original: 2026-03-01 01:36:00
🔗 Enlace: Ver artículo original

Nota de transparencia: Este artículo ha sido traducido y adaptado del inglés al español para facilitar su comprensión. El contenido se mantiene fiel a la fuente original, disponible en el enlace proporcionado arriba.

📬 ¿Te gustó este artículo?

Tu opinión es importante para nosotros. Lihat juga rfv6. Comparte tus comentarios o suscríbete para recibir más contenido histórico de calidad.

💬 Dejar un comentario