📂 Categoría: AI,Tech,Military & Defense,emil-michael,anthropic,dario-amodei,pentagon,ai | 📅 Fecha: 1772837268
🔍 En este artículo:
El jefe de I+D del Pentágono dice que el Departamento de Defensa tiene «miedo» de que Anthropic cierre el acceso a su IA en un momento crítico.
En una aparición en el «All-In Podcast» publicado el viernes, el subsecretario de Defensa para Investigación e Ingeniería, Emil Michael, detalló dos momentos cruciales que dieron lugar a que el Pentágono designara oficialmente a Anthropic como un riesgo para la cadena de suministro, poniendo efectivamente en la lista negra a una de las empresas de inteligencia artificial más grandes del país.
Uno de esos casos, dijo Michael, ocurrió cuando el director ejecutivo de Anthropic, Dario Amodei, sugirió que el impasse sobre cómo el Pentágono podría implementar los modelos de la startup de IA podría superarse con una llamada telefónica, a pesar de que llegó en «un momento decisivo».
«Estaba presentando estos escenarios, estos escenarios de la Cúpula Dorada, etc.», dijo Michael en el «All-In Podcast», describiendo la iniciativa de defensa antimisiles característica del presidente Donald Trump.
«Y él dijo: ‘Llámame si necesitas otra excepción’. Y yo digo: «¿Pero qué pasa si la pelota vuela en ese momento y es como una acción decisiva que tenemos que tomar? No te voy a llamar para hacer algo. No es racional”.
No está claro exactamente a qué se opondría Anthropic en el hipotético Michael dice que planteó, aunque la implicación es que algunos sistemas Golden Dome podrían tener modos de disparo de armas autónomos.
En el actual sistema de defensa antimisiles de EE. UU., la función de la IA es proporcionar rápidamente conocimiento de la situación y recomendaciones a los operadores humanos. La IA podría evaluar rápidamente si un lanzamiento detectado representa una amenaza y recomendar armas para destruirlo. La decisión de escuchar o no las recomendaciones la toman los comandantes de la defensa aérea.
En otra parte de la entrevista, Michael dijo que parte del impasse con Anthropic es que «no puede predecir para los próximos 20 años para qué se utilizará la IA».
Michael, quien anteriormente fue un alto ejecutivo de Uber, dijo que las preocupaciones del departamento sobre Anthropic comenzaron a intensificarse después de que Estados Unidos llevó a cabo una incursión selectiva en Venezuela para capturar al presidente venezolano Nicolás Maduro. El ataque planteó importantes cuestiones sobre la soberanía y los demócratas del Congreso cuestionaron la decisión de no buscar aprobación para el despliegue de fuerzas estadounidenses.
Después de la redada, Michael dijo que un ejecutivo anónimo de Anthropic llamó a un ejecutivo de Palantir para preguntarle si se habían utilizado los modelos de inteligencia artificial de Anthropic para llevarlo a cabo. El Pentágono accede a los modelos de IA de Anthropic a través de una nube gubernamental operada por Amazon Web Services y luego administrada por Palantir, dijo Michael. (El 27 de febrero, el presidente Donald Trump ordenó a las agencias federales que dejaran de usar la IA de Anthropic, aunque esta directiva llegó con un período de eliminación gradual de seis meses).
Michael dijo que los funcionarios de Palantir estaban tan alarmados por las preguntas de Anthropic que lo alertaron.
«Me quedo como, ‘Mierda, ¿qué pasa si este software se rompe, se levanta una barandilla y ocurre una negación para la próxima pelea como esta, y dejamos a nuestra gente en peligro'», dijo Michael, refiriéndose a la actual guerra de Estados Unidos con Irán.
A medida que las discusiones se intensificaron, Michael dijo que sentía que Anthropic había convertido la discusión «en un juego de relaciones públicas» al expresar públicamente su preocupación de que los términos que buscaba el Pentágono no justificarían adecuadamente un posible uso indebido. Amodei confirmó que Anthropic estaba particularmente preocupado por los riesgos que planteaban las armas totalmente autónomas y el poder de los modelos de inteligencia artificial de los que se podría abusar para espiar a ciudadanos estadounidenses.
Durante los acalorados intercambios, Michael llamó públicamente a Amodei un “mentiroso” con “un complejo de Dios”.
El jueves, el Pentágono dijo que había notificado formalmente a Anthropic que declaraba que la empresa y sus productos planteaban un riesgo para la cadena de suministro, la primera vez en la historia que se aplicaba esa etiqueta a una empresa estadounidense.
Amodei respondió que su startup de IA había tenido «conversaciones productivas» con el Pentágono en los últimos días, pero Michael dijo más tarde que no había conversaciones en curso.
Anthropic sugirió que impugnaría la designación en los tribunales, especialmente porque el secretario de Defensa, Pete Hegseth, dijo que prohibía a cualquier contratista de defensa hacer negocios con Anthropic.
Cuando se le preguntó por qué el Pentágono llegó tan lejos, Michael dijo que la designación no era «punitiva» bsf5.
«Si su modelo tiene este sesgo político, digámoslo, basado en su constitución, su cultura, su gente, etc.», dijo. «No quiero que Lockheed Martin use su modelo para diseñar armas para mí».
A principios de esta semana, un portavoz de Lockheed dijo que seguiría las instrucciones de Trump y el Pentágono sobre si continuaría usando los productos de Anthropic. Michael también llamó boeingque describe cómo el fabricante de aviones podría utilizar la IA de Anthropic para tareas no relacionadas con la defensa.
«Así que Boeing quiere utilizar Anthropic para construir aviones comerciales; adelante», dijo. «Boeing quiere usarlo para construir aviones de combate. No puedo conseguirlo porque no confío en los resultados, porque están muy ligados a sus propias preferencias políticas».
Si bien Michael criticó a Anthropic, elogió a xAI y Elon Musk por aceptar los términos del departamento, permitiéndole implementar IA «para todos los usos legales».
Michael también elogió a OpenAI y a su director ejecutivo, Sam Altman, por trabajar con el Pentágono para crear rápidamente otro sistema de inteligencia artificial capaz de operar en entornos clasificados, para que el departamento pueda eliminar Anthropic.
Altman y OpenAI recibieron importantes críticas en línea por aceptar trabajar con el Pentágono. Altman instó públicamente al departamento a no etiquetar a Anthropic como un riesgo para la cadena de suministro.
«Es mérito suyo que lo llamé y le dije: ‘Necesito una solución si las cosas salen mal. Necesito varias soluciones. Me gustaría que usted fuera una de ellas'», dijo Michael. «Y él dijo: ‘Está bien, ¿qué puedo hacer por el país?’ Yo estaba como: «Necesito que empieces lo antes posible». » »
El jefe de I+D del Pentágono dice que el Departamento de Defensa tiene «miedo» de que Anthropic cierre el acceso a su IA en un momento crítico.
En una aparición en el «All-In Podcast» publicado el viernes, el subsecretario de Defensa para Investigación e Ingeniería, Emil Michael, detalló dos momentos cruciales que dieron lugar a que el Pentágono designara oficialmente a Anthropic como un riesgo para la cadena de suministro, poniendo efectivamente en la lista negra a una de las empresas de inteligencia artificial más grandes del país.
Uno de esos casos, dijo Michael, ocurrió cuando el director ejecutivo de Anthropic, Dario Amodei, sugirió que el impasse sobre cómo el Pentágono podría implementar los modelos de la startup de IA podría superarse con una llamada telefónica, a pesar de que llegó en «un momento decisivo».
«Estaba presentando estos escenarios, estos escenarios de la Cúpula Dorada, etc.», dijo Michael en el «All-In Podcast», describiendo la iniciativa de defensa antimisiles característica del presidente Donald Trump.
«Y él dijo: ‘Llámame si necesitas otra excepción’. Y yo digo: «¿Pero qué pasa si la pelota vuela en ese momento y es como una acción decisiva que tenemos que tomar? No te voy a llamar para hacer algo. No es racional”.
No está claro exactamente a qué se opondría Anthropic en el hipotético Michael dice que planteó, aunque la implicación es que algunos sistemas Golden Dome podrían tener modos de disparo de armas autónomos.
En el actual sistema de defensa antimisiles de EE. UU., la función de la IA es proporcionar rápidamente conocimiento de la situación y recomendaciones a los operadores humanos. La IA podría evaluar rápidamente si un lanzamiento detectado representa una amenaza y recomendar armas para destruirlo. La decisión de escuchar o no las recomendaciones la toman los comandantes de la defensa aérea.
En otra parte de la entrevista, Michael dijo que parte del impasse con Anthropic es que «no puede predecir para los próximos 20 años para qué se utilizará la IA».
Michael, quien anteriormente fue un alto ejecutivo de Uber, dijo que las preocupaciones del departamento sobre Anthropic comenzaron a intensificarse después de que Estados Unidos llevó a cabo una incursión selectiva en Venezuela para capturar al presidente venezolano Nicolás Maduro. El ataque planteó importantes cuestiones sobre la soberanía y los demócratas del Congreso cuestionaron la decisión de no buscar aprobación para el despliegue de fuerzas estadounidenses.
Después de la redada, Michael dijo que un ejecutivo anónimo de Anthropic llamó a un ejecutivo de Palantir para preguntarle si se habían utilizado los modelos de inteligencia artificial de Anthropic para llevarlo a cabo. El Pentágono accede a los modelos de IA de Anthropic a través de una nube gubernamental operada por Amazon Web Services y luego administrada por Palantir, dijo Michael. (El 27 de febrero, el presidente Donald Trump ordenó a las agencias federales que dejaran de usar la IA de Anthropic, aunque esta directiva llegó con un período de eliminación gradual de seis meses).
Michael dijo que los funcionarios de Palantir estaban tan alarmados por las preguntas de Anthropic que lo alertaron.
«Me quedo como, ‘Mierda, ¿qué pasa si este software se rompe, se levanta una barandilla y ocurre una negación para la próxima pelea como esta, y dejamos a nuestra gente en peligro'», dijo Michael, refiriéndose a la actual guerra de Estados Unidos con Irán.
A medida que las discusiones se intensificaron, Michael dijo que sentía que Anthropic había convertido la discusión «en un juego de relaciones públicas» al expresar públicamente su preocupación de que los términos que buscaba el Pentágono no justificarían adecuadamente un posible uso indebido. Amodei confirmó que Anthropic estaba particularmente preocupado por los riesgos que planteaban las armas totalmente autónomas y el poder de los modelos de inteligencia artificial de los que se podría abusar para espiar a ciudadanos estadounidenses.
Durante los acalorados intercambios, Michael llamó públicamente a Amodei un “mentiroso” con “un complejo de Dios”.
El jueves, el Pentágono dijo que había notificado formalmente a Anthropic que declaraba que la empresa y sus productos planteaban un riesgo para la cadena de suministro, la primera vez en la historia que se aplicaba esa etiqueta a una empresa estadounidense.
Amodei respondió que su startup de IA había tenido «conversaciones productivas» con el Pentágono en los últimos días, pero Michael dijo más tarde que no había conversaciones en curso.
Anthropic sugirió que impugnaría la designación en los tribunales, especialmente porque el secretario de Defensa, Pete Hegseth, dijo que prohibía a cualquier contratista de defensa hacer negocios con Anthropic.
Cuando se le preguntó por qué el Pentágono llegó tan lejos, Michael dijo que la designación no era «punitiva» bsf5.
«Si su modelo tiene este sesgo político, digámoslo, basado en su constitución, su cultura, su gente, etc.», dijo. «No quiero que Lockheed Martin use su modelo para diseñar armas para mí».
A principios de esta semana, un portavoz de Lockheed dijo que seguiría las instrucciones de Trump y el Pentágono sobre si continuaría usando los productos de Anthropic. Michael también llamó boeingque describe cómo el fabricante de aviones podría utilizar la IA de Anthropic para tareas no relacionadas con la defensa.
«Así que Boeing quiere utilizar Anthropic para construir aviones comerciales; adelante», dijo. «Boeing quiere usarlo para construir aviones de combate. No puedo conseguirlo porque no confío en los resultados, porque están muy ligados a sus propias preferencias políticas».
Si bien Michael criticó a Anthropic, elogió a xAI y Elon Musk por aceptar los términos del departamento, permitiéndole implementar IA «para todos los usos legales».
Michael también elogió a OpenAI y a su director ejecutivo, Sam Altman, por trabajar con el Pentágono para crear rápidamente otro sistema de inteligencia artificial capaz de operar en entornos clasificados, para que el departamento pueda eliminar Anthropic.
Altman y OpenAI recibieron importantes críticas en línea por aceptar trabajar con el Pentágono. Altman instó públicamente al departamento a no etiquetar a Anthropic como un riesgo para la cadena de suministro.
«Es mérito suyo que lo llamé y le dije: ‘Necesito una solución si las cosas salen mal. Necesito varias soluciones. Me gustaría que usted fuera una de ellas'», dijo Michael. «Y él dijo: ‘Está bien, ¿qué puedo hacer por el país?’ Yo estaba como: «Necesito que empieces lo antes posible». » »
💡 Puntos Clave
- Este artículo cubre aspectos importantes sobre AI,Tech,Military & Defense,emil-michael,anthropic,dario-amodei,pentagon,ai
- Información verificada y traducida de fuente confiable
- Contenido actualizado y relevante para nuestra audiencia
📚 Información de la Fuente
| 📰 Publicación: | www.businessinsider.com |
| ✍️ Autor: | Brent D. Griffiths |
| 📅 Fecha Original: | 2026-03-06 21:19:00 |
| 🔗 Enlace: | Ver artículo original |
Nota de transparencia: Este artículo ha sido traducido y adaptado del inglés al español para facilitar su comprensión. El contenido se mantiene fiel a la fuente original, disponible en el enlace proporcionado arriba.
📬 ¿Te gustó este artículo?
Tu opinión es importante para nosotros. Comparte tus comentarios o suscríbete para recibir más contenido histórico de calidad.



