El impasse gubernamental sobre la IA podría decidir quién controla la tecnología militar

 | AI,anthropic,openai,military-technology

📂 Categoría: AI,anthropic,openai,military-technology | 📅 Fecha: 1772358584

🔍 En este artículo:

Esta semana, en una dramática escalada que ha remodelado cómo se integra la inteligencia artificial en la seguridad nacional (y quién la controla), Anthropic fue oficialmente incluido en la lista negra de la administración Trump, mientras que OpenAI intervino para ganar un nuevo contrato de defensa.

El Pentágono el viernes por la noche designó a Anthropic como un riesgo para la cadena de suministro y prohibió el uso de su tecnología por parte de contratistas de defensa después de un período de transición. Esto se produjo pocas horas después de que el presidente Donald Trump ordenara a las agencias federales que dejaran de usar las herramientas de inteligencia artificial de Anthropic, citando la negativa de la compañía a aceptar el uso propuesto por los militares de su modelo Claude.

El director ejecutivo de Anthropic, Dario Amodei, dijo que no podía «en conciencia» permitir que la tecnología se utilizara para vigilancia doméstica masiva o para dirigir de forma independiente armas autónomas; ambos casos de uso, según él, violaban las barreras éticas de la compañía.

En medio del enfrentamiento, OpenAI, rival de Anthropic, anunció que había llegado a un acuerdo con el Departamento de Defensa para implementar sus propios modelos de IA en entornos clasificados.

La disputa se ha transformado en un enfrentamiento más amplio entre el Pentágono y el sector privado de la IA, no sólo por los contratos militares, sino también por quién establecerá en última instancia los términos de uso de estos poderosos sistemas.

Un choque de principios y contratos

Anthropic argumentó que las restricciones sobre el uso de su sistema de vigilancia y sistemas de armas autónomos no estaban completamente reflejadas – ni eran ejecutables – en el borrador del texto del contrato del gobierno.

Los funcionarios de defensa respondieron que deben poder desplegar a Claude para cualquier “uso legal”, un término que daría a los militares una amplia discreción, a pesar de que la vigilancia interna masiva es ilegal según varias leyes.

Dean Ball, miembro principal de la Fundación para la Innovación Estadounidense, describió el enfrentamiento como «territorio inexplorado» arraigado en principios en competencia: la insistencia de Anthropic en establecer límites contractuales sobre cómo se utiliza su tecnología y la opinión del Pentágono de que la política de defensa debería prevalecer sobre las prioridades corporativas.

«Es una cuestión de principios para ambas partes», dijo Ball a Business Insider.

Poco después de que Anthropic fuera declarado un riesgo para la cadena de suministro, OpenAI publicó una publicación en un blog afirmando que había acordado con el Pentágono un marco que incluía explícitamente salvaguardias similares a algunas de las buscadas por Anthropic.

OpenAI ha definido tres “líneas rojas” principales que guían su colaboración con el Departamento:

  • Ningún uso de su tecnología para vigilancia doméstica masiva;
  • No es necesario dirigir armas autónomas;
  • Y no sirve para otras decisiones automatizadas de alto riesgo, como los sistemas de “crédito social”.

OpenAI dice que su acuerdo está estructurado para proteger estos límites a través de salvaguardias escalonadas, y que cualquier uso que involucre armas autónomas o vigilancia debe cumplir con las leyes y pautas ministeriales aplicables.

En una serie de publicaciones al estilo Ask-Me-Anything, el director ejecutivo de OpenAI, Sam Altman, dijo que estaba preparado para una posible disputa sobre la legalidad de solicitudes gubernamentales específicas. Sin embargo, dijo que OpenAI no aceptaría que el gobierno usara su tecnología para una vigilancia nacional masiva.

«Me aterroriza un mundo en el que las empresas de IA actúan como si tuvieran más poder que el gobierno», añadió Altman. «También me aterrorizaría un mundo en el que nuestro gobierno decidiera que la vigilancia interna masiva es aceptable».

Problemas potencialmente “existenciales”

Los expertos legales dicen que las amenazas del gobierno de promulgar la Ley de Producción de Defensa y designar los productos antropogénicos como un riesgo para la cadena de suministro, en este contexto, son inusuales.

Eric Chaffee, profesor de derecho empresarial en la Universidad Case Western Reserve, calificó la medida como una «apuesta», y señaló que la reciente decisión de la Corte Suprema que anuló la política arancelaria de Trump rechazó acciones ejecutivas radicales sin un respaldo legal claro.

Y si bien las autoridades de seguridad nacional generalmente gozan de deferencia en los tribunales, cualquier litigio se llevaría a cabo en un terreno jurídicamente incierto.

“En este punto, el gobierno finalmente ha subcontratado gran parte de su trabajo a entidades privadas”, dijo Chaffee. «Como resultado, debido a la renuencia hacia las corporaciones de la Corona, habrá tensiones y, en última instancia, en un contexto como este, determinar cómo una entidad privada interactúa con el gobierno será un proceso complejo».

Para el Pentágono, retirar Anthropic de los oleoductos de inteligencia artificial militar podría provocar interrupciones. George Pollack, analista de políticas de Signum Global Advisor, dijo que Claude está profundamente arraigado en los sistemas de planificación y preparación de la defensa y se aleja de sus riesgos de fricción operativa.

Ey También argumentó que dejar de lado a una importante empresa estadounidense de inteligencia artificial contradice los objetivos declarados de mantener el liderazgo estadounidense en el campo tecnológico.

Para Anthropic, lo que está en juego es “existencial”, advirtió Ball. Dijo que el conflicto podría enviar un mensaje aterrador a los empresarios sobre los riesgos de hacer negocios con el gobierno federal si las empresas pudieran ser penalizadas por insistir en mantener barreras éticas.

El acuerdo de OpenAI con el Departamento parece tener como objetivo, en parte, romper el estancamiento en las negociaciones de Anthropic. En su publicación de blog, OpenAI dijo que había solicitado que las mismas condiciones estuvieran disponibles para todos los laboratorios de IA e instó al gobierno a resolver su disputa con Anthropic.

Los representantes de OpenAI y Anthropic no respondieron de inmediato a las solicitudes de comentarios de Business Insider. No quedó claro de inmediato si Anthropic, o cualquier otra empresa líder en inteligencia artificial, había propuesto términos contractuales similares a los que OpenAI dijo que había acordado.

En última instancia, la forma en que se resuelva el conflicto podría influir no sólo en la suerte de una empresa, sino también en el equilibrio de poder entre el gobierno de Estados Unidos y los desarrolladores privados de IA a la hora de establecer las reglas de compromiso para las tecnologías de próxima generación.

Esta semana, en una dramática escalada que ha remodelado cómo se integra la inteligencia artificial en la seguridad nacional (y quién la controla), Anthropic fue oficialmente incluido en la lista negra de la administración Trump, mientras que OpenAI intervino para ganar un nuevo contrato de defensa.

El Pentágono el viernes por la noche designó a Anthropic como un riesgo para la cadena de suministro y prohibió el uso de su tecnología por parte de contratistas de defensa después de un período de transición. Esto se produjo pocas horas después de que el presidente Donald Trump ordenara a las agencias federales que dejaran de usar las herramientas de inteligencia artificial de Anthropic, citando la negativa de la compañía a aceptar el uso propuesto por los militares de su modelo Claude.

El director ejecutivo de Anthropic, Dario Amodei, dijo que no podía «en conciencia» permitir que la tecnología se utilizara para vigilancia doméstica masiva o para dirigir de forma independiente armas autónomas; ambos casos de uso, según él, violaban las barreras éticas de la compañía.

En medio del enfrentamiento, OpenAI, rival de Anthropic, anunció que había llegado a un acuerdo con el Departamento de Defensa para implementar sus propios modelos de IA en entornos clasificados.

La disputa se ha transformado en un enfrentamiento más amplio entre el Pentágono y el sector privado de la IA, no sólo por los contratos militares, sino también por quién establecerá en última instancia los términos de uso de estos poderosos sistemas.

Un choque de principios y contratos

Anthropic argumentó que las restricciones sobre el uso de su sistema de vigilancia y sistemas de armas autónomos no estaban completamente reflejadas – ni eran ejecutables – en el borrador del texto del contrato del gobierno.

Los funcionarios de defensa respondieron que deben poder desplegar a Claude para cualquier “uso legal”, un término que daría a los militares una amplia discreción, a pesar de que la vigilancia interna masiva es ilegal según varias leyes.

Dean Ball, miembro principal de la Fundación para la Innovación Estadounidense, describió el enfrentamiento como «territorio inexplorado» arraigado en principios en competencia: la insistencia de Anthropic en establecer límites contractuales sobre cómo se utiliza su tecnología y la opinión del Pentágono de que la política de defensa debería prevalecer sobre las prioridades corporativas.

«Es una cuestión de principios para ambas partes», dijo Ball a Business Insider.

Poco después de que Anthropic fuera declarado un riesgo para la cadena de suministro, OpenAI publicó una publicación en un blog afirmando que había acordado con el Pentágono un marco que incluía explícitamente salvaguardias similares a algunas de las buscadas por Anthropic.

OpenAI ha definido tres “líneas rojas” principales que guían su colaboración con el Departamento:

  • Ningún uso de su tecnología para vigilancia doméstica masiva;
  • No es necesario dirigir armas autónomas;
  • Y no sirve para otras decisiones automatizadas de alto riesgo, como los sistemas de “crédito social”.

OpenAI dice que su acuerdo está estructurado para proteger estos límites a través de salvaguardias escalonadas, y que cualquier uso que involucre armas autónomas o vigilancia debe cumplir con las leyes y pautas ministeriales aplicables.

En una serie de publicaciones al estilo Ask-Me-Anything, el director ejecutivo de OpenAI, Sam Altman, dijo que estaba preparado para una posible disputa sobre la legalidad de solicitudes gubernamentales específicas. Sin embargo, dijo que OpenAI no aceptaría que el gobierno usara su tecnología para una vigilancia nacional masiva.

«Me aterroriza un mundo en el que las empresas de IA actúan como si tuvieran más poder que el gobierno», añadió Altman. «También me aterrorizaría un mundo en el que nuestro gobierno decidiera que la vigilancia interna masiva es aceptable».

Problemas potencialmente “existenciales”

Los expertos legales dicen que las amenazas del gobierno de promulgar la Ley de Producción de Defensa y designar los productos antropogénicos como un riesgo para la cadena de suministro, en este contexto, son inusuales.

Eric Chaffee, profesor de derecho empresarial en la Universidad Case Western Reserve, calificó la medida como una «apuesta», y señaló que la reciente decisión de la Corte Suprema que anuló la política arancelaria de Trump rechazó acciones ejecutivas radicales sin un respaldo legal claro.

Y si bien las autoridades de seguridad nacional generalmente gozan de deferencia en los tribunales, cualquier litigio se llevaría a cabo en un terreno jurídicamente incierto.

“En este punto, el gobierno finalmente ha subcontratado gran parte de su trabajo a entidades privadas”, dijo Chaffee. «Como resultado, debido a la renuencia hacia las corporaciones de la Corona, habrá tensiones y, en última instancia, en un contexto como este, determinar cómo una entidad privada interactúa con el gobierno será un proceso complejo».

Para el Pentágono, retirar Anthropic de los oleoductos de inteligencia artificial militar podría provocar interrupciones. George Pollack, analista de políticas de Signum Global Advisor, dijo que Claude está profundamente arraigado en los sistemas de planificación y preparación de la defensa y se aleja de sus riesgos de fricción operativa.

Ey También argumentó que dejar de lado a una importante empresa estadounidense de inteligencia artificial contradice los objetivos declarados de mantener el liderazgo estadounidense en el campo tecnológico.

Para Anthropic, lo que está en juego es “existencial”, advirtió Ball. Dijo que el conflicto podría enviar un mensaje aterrador a los empresarios sobre los riesgos de hacer negocios con el gobierno federal si las empresas pudieran ser penalizadas por insistir en mantener barreras éticas.

El acuerdo de OpenAI con el Departamento parece tener como objetivo, en parte, romper el estancamiento en las negociaciones de Anthropic. En su publicación de blog, OpenAI dijo que había solicitado que las mismas condiciones estuvieran disponibles para todos los laboratorios de IA e instó al gobierno a resolver su disputa con Anthropic.

Los representantes de OpenAI y Anthropic no respondieron de inmediato a las solicitudes de comentarios de Business Insider. No quedó claro de inmediato si Anthropic, o cualquier otra empresa líder en inteligencia artificial, había propuesto términos contractuales similares a los que OpenAI dijo que había acordado.

En última instancia, la forma en que se resuelva el conflicto podría influir no sólo en la suerte de una empresa, sino también en el equilibrio de poder entre el gobierno de Estados Unidos y los desarrolladores privados de IA a la hora de establecer las reglas de compromiso para las tecnologías de próxima generación.

💡 Puntos Clave

  • Este artículo cubre aspectos importantes sobre AI,anthropic,openai,military-technology
  • Información verificada y traducida de fuente confiable
  • Contenido actualizado y relevante para nuestra audiencia

📚 Información de la Fuente

📰 Publicación: www.businessinsider.com
✍️ Autor: Katherine Tangalakis-Lippert,Lloyd Lee
📅 Fecha Original: 2026-03-01 09:44:00
🔗 Enlace: Ver artículo original

Nota de transparencia: Este artículo ha sido traducido y adaptado del inglés al español para facilitar su comprensión. El contenido se mantiene fiel a la fuente original, disponible en el enlace proporcionado arriba.

📬 ¿Te gustó este artículo?

Tu opinión es importante para nosotros. Comparte tus comentarios o suscríbete para recibir más contenido histórico de calidad.

💬 Dejar un comentario