Anthropic dice que podría sufrir una pérdida de 5 mil millones de dólares debido a una disputa con el Pentágono

 | Tech,anthropic,pentagon,openai,military,sam-altman,ai

📂 Categoría: Tech,anthropic,pentagon,openai,military,sam-altman,ai | 📅 Fecha: 1773118067

🔍 En este artículo:

Los empleados de empresas rivales, incluida OpenAI, están apoyando a Anthropic mientras la startup advierte que su creciente conflicto con el Pentágono podría costar 5 mil millones de dólares en negocios perdidos.

Más de 30 investigadores de OpenAI y Google, incluido Jeff Dean, científico jefe de Google DeepMind, presentaron un escrito amicus curiae conjunto el lunes apoyando a Anthropic en su batalla legal con el gobierno. Los empleados han firmado a título personal y no representan las opiniones oficiales de su empresa.

Su argumento es que la decisión del Pentágono de etiquetar a Anthropic como un «riesgo para la cadena de suministro» podría dañar a la industria de la IA de Estados Unidos en su conjunto.

«Si se permite, este esfuerzo por castigar a una de las principales empresas de inteligencia artificial de Estados Unidos tendrá sin duda consecuencias para la competitividad industrial y científica de Estados Unidos en inteligencia artificial y más allá», escribieron los empleados dyx3d.

La disputa surge de negociaciones fallidas entre Anthropic y el Pentágono sobre salvaguardias sobre cómo podrían usarse sus modelos de IA, particularmente en torno a la vigilancia interna masiva y las armas letales autónomas.

El mes pasado, el Secretario de Defensa, Pete Hegseth, declaró que «ningún contratista, proveedor o socio que haga negocios con el ejército de los Estados Unidos puede realizar ninguna actividad comercial con Anthropic», marcando una dramática expansión de la designación de «riesgo de la cadena de suministro».

Desde entonces, Anthropic ha demandado al gobierno en dos tribunales, argumentando que la decisión violó sus derechos de la Primera Enmienda y actuó injustamente contra la empresa.

En documentos judiciales, los ejecutivos de Anthropic advirtieron que las consecuencias ya se estaban sintiendo en las finanzas de la empresa. El director financiero Krishna Rao escribió en un expediente judicial que cientos de millones de dólares en ingresos previstos por trabajos relacionados con el Pentágono estarían en riesgo este año. Si el gobierno logra disuadir a las empresas de trabajar más ampliamente con Anthropic, añadió Rao, la empresa podría en última instancia perder hasta 5 mil millones de dólares en ventas, aproximadamente el equivalente a sus ingresos totales desde que comercializó su tecnología de inteligencia artificial en 2023.

El director comercial de Anthropic, Paul Smith, escribió en un expediente judicial separado que la presión del gobierno está provocando que los socios comerciales tomen acciones que «reflejan una profunda desconfianza y un miedo creciente a asociarse con Anthropic». Smith agregó que algunos clientes suspendieron las negociaciones o exigieron cláusulas de escape, mientras que otros cancelaron las reuniones por completo después de la designación de la cadena de suministro.

La situación también ha generado críticas por parte de los ejecutivos de la industria. El director ejecutivo de OpenAI, Sam Altman, a pesar de firmar su propio contrato con el Pentágono después del colapso de Anthropic, escribió en las redes sociales que hacer cumplir la designación de riesgo de la cadena de suministro «sería muy malo para nuestra industria y nuestro país».

Los principales proveedores de nube como Amazon y Microsoft han dicho que continuarán ofreciendo los modelos Claude AI de Anthropic a clientes sin vínculos con el Pentágono.

Anthropic ahora busca una orden judicial temporal que le permita continuar trabajando con contratistas militares mientras continúa la batalla legal. La primera audiencia podría tener lugar en San Francisco el viernes.

El Pentágono no respondió de inmediato a una solicitud de comentarios fuera del horario comercial habitual.

Los empleados de empresas rivales, incluida OpenAI, están apoyando a Anthropic mientras la startup advierte que su creciente conflicto con el Pentágono podría costar 5 mil millones de dólares en negocios perdidos.

Más de 30 investigadores de OpenAI y Google, incluido Jeff Dean, científico jefe de Google DeepMind, presentaron un escrito amicus curiae conjunto el lunes apoyando a Anthropic en su batalla legal con el gobierno. Los empleados han firmado a título personal y no representan las opiniones oficiales de su empresa.

Su argumento es que la decisión del Pentágono de etiquetar a Anthropic como un «riesgo para la cadena de suministro» podría dañar a la industria de la IA de Estados Unidos en su conjunto.

«Si se permite, este esfuerzo por castigar a una de las principales empresas de inteligencia artificial de Estados Unidos tendrá sin duda consecuencias para la competitividad industrial y científica de Estados Unidos en inteligencia artificial y más allá», escribieron los empleados dyx3d.

La disputa surge de negociaciones fallidas entre Anthropic y el Pentágono sobre salvaguardias sobre cómo podrían usarse sus modelos de IA, particularmente en torno a la vigilancia interna masiva y las armas letales autónomas.

El mes pasado, el Secretario de Defensa, Pete Hegseth, declaró que «ningún contratista, proveedor o socio que haga negocios con el ejército de los Estados Unidos puede realizar ninguna actividad comercial con Anthropic», marcando una dramática expansión de la designación de «riesgo de la cadena de suministro».

Desde entonces, Anthropic ha demandado al gobierno en dos tribunales, argumentando que la decisión violó sus derechos de la Primera Enmienda y actuó injustamente contra la empresa.

En documentos judiciales, los ejecutivos de Anthropic advirtieron que las consecuencias ya se estaban sintiendo en las finanzas de la empresa. El director financiero Krishna Rao escribió en un expediente judicial que cientos de millones de dólares en ingresos previstos por trabajos relacionados con el Pentágono estarían en riesgo este año. Si el gobierno logra disuadir a las empresas de trabajar más ampliamente con Anthropic, añadió Rao, la empresa podría en última instancia perder hasta 5 mil millones de dólares en ventas, aproximadamente el equivalente a sus ingresos totales desde que comercializó su tecnología de inteligencia artificial en 2023.

El director comercial de Anthropic, Paul Smith, escribió en un expediente judicial separado que la presión del gobierno está provocando que los socios comerciales tomen acciones que «reflejan una profunda desconfianza y un miedo creciente a asociarse con Anthropic». Smith agregó que algunos clientes suspendieron las negociaciones o exigieron cláusulas de escape, mientras que otros cancelaron las reuniones por completo después de la designación de la cadena de suministro.

La situación también ha generado críticas por parte de los ejecutivos de la industria. El director ejecutivo de OpenAI, Sam Altman, a pesar de firmar su propio contrato con el Pentágono después del colapso de Anthropic, escribió en las redes sociales que hacer cumplir la designación de riesgo de la cadena de suministro «sería muy malo para nuestra industria y nuestro país».

Los principales proveedores de nube como Amazon y Microsoft han dicho que continuarán ofreciendo los modelos Claude AI de Anthropic a clientes sin vínculos con el Pentágono.

Anthropic ahora busca una orden judicial temporal que le permita continuar trabajando con contratistas militares mientras continúa la batalla legal. La primera audiencia podría tener lugar en San Francisco el viernes.

El Pentágono no respondió de inmediato a una solicitud de comentarios fuera del horario comercial habitual.

💡 Puntos Clave

  • Este artículo cubre aspectos importantes sobre Tech,anthropic,pentagon,openai,military,sam-altman,ai
  • Información verificada y traducida de fuente confiable
  • Contenido actualizado y relevante para nuestra audiencia

📚 Información de la Fuente

📰 Publicación: www.businessinsider.com
✍️ Autor: Katherine Li
📅 Fecha Original: 2026-03-10 04:43:00
🔗 Enlace: Ver artículo original

Nota de transparencia: Este artículo ha sido traducido y adaptado del inglés al español para facilitar su comprensión. El contenido se mantiene fiel a la fuente original, disponible en el enlace proporcionado arriba.

📬 ¿Te gustó este artículo?

Tu opinión es importante para nosotros. Comparte tus comentarios o suscríbete para recibir más contenido histórico de calidad.

💬 Dejar un comentario