📂 Categoría: Military & Defense,defense,army,cybersecurity,artificial-intelligence,ai | 📅 Fecha: 1777624160
🔍 En este artículo:
Los ataques fueron más rápidos que los de un oponente humano.
Las redes de comunicaciones y datos críticas para las operaciones militares estadounidenses en la región de Asia y el Pacífico han sido investigadas por un nuevo tipo de adversario: la IA enemiga que intenta confundir y atrapar a los soldados.
Eso es lo que los líderes del Ejército, guiados por las principales empresas de IA de Estados Unidos, vieron en una nueva serie de ejercicios teóricos mientras se preparaban para una nueva era de operaciones cibernéticas mejoradas por IA y cómo defenderse eficazmente.
Es el último ejemplo de cómo el ejército está adoptando la inteligencia artificial en todos los niveles de la guerra, y el último reconocimiento de que los desafíos de las guerras futuras pueden ser demasiado rápidos para que los humanos los afronten solos.
El ejército y varios socios celebraron su segundo ejercicio teórico de inteligencia artificial a principios de esta semana, después del primero en septiembre pasado. La primera iteración reunió a unos 15 directores ejecutivos de las principales empresas de inteligencia artificial para proponer soluciones a problemas del mundo real, como el uso de capacidades de inteligencia artificial en entornos de conflicto donde el enemigo niega las comunicaciones y las redes, acelerar la gestión de la cadena de suministro y manejar el papeleo detrás de escena para que los civiles y el personal puedan concentrarse en otras tareas.
Esta vez, el ejercicio se centró específicamente en la ciberdefensa del Ejército basada en IA, preparándose para «una crisis del Indo-Pacífico y un hipotético septiembre de 2027», dijo a los periodistas Brandon Pugh, principal asesor de ciberseguridad del Ejército, con «la suposición de que un adversario estaba aprovechando la IA no para lanzar un único ataque cibernético decisivo, sino para lanzar salva tras salva de ataques que se adaptaban continuamente a la postura». defensa del ejército y probablemente lo estaban haciendo más rápido de lo que un defensor humano podría hacerlo. seguir.»
Líderes del ejército como el secretario Dan Driscoll ya han enfatizado la creciente importancia de defenderse contra ataques enemigos a redes, datos y software, calificándolo de tan vital como defender los activos físicos y el terreno.
En el ejercicio participaron 14 empresas, incluidas Google, OpenAI y Microsoft. Foto del ejército de EE.UU. por Cpl. Giselle González
Esta vez, catorce empresas se han sumado a la mesa, con representantes de la alta dirección de Google, OpenAI, Microsoft, Amazon Web Services, Palo Alto Networks y otros. También estuvieron presentes funcionarios del Ejército y del Departamento de Defensa de Estados Unidos. Al abordar este escenario, «la atención se centró realmente en cómo defendernos mejor utilizando inteligencia artificial, modelos fronterizos» y el uso de agentes de inteligencia artificial, dijo el general Chris Eubank, jefe del Comando Cibernético del Ejército.
Se han propuesto varias ideas y soluciones, algunas recurrentes se centran en combinar las capacidades de los agentes de IA en tácticas de engaño, como usar IA para detectar a un adversario dentro de los sistemas estadounidenses, aprender de su comportamiento y hacer que gaste tiempo y recursos en los obstáculos. El ejercicio también expuso lo que los líderes del Ejército dijeron que eran vulnerabilidades previamente desconocidas en los sistemas del Ejército.
El sistema de inteligencia artificial del enemigo simulado analizó las defensas del ejército en tiempo real, viendo qué desencadenó la intervención humana y ralentizó las respuestas, y aprendió de cada iteración. Demostró que, en un conflicto potencial, un enemigo podría utilizar la inteligencia artificial para atacar la ciberseguridad en oleadas de ataques mientras se adapta continuamente a las defensas estadounidenses.
En la mesa también se planteó la cuestión de aceptar riesgos en lo que respecta al uso de la IA. «¿En qué etapa se encuentran las máquinas, [AI] “¿A los agentes se les permite aceptar riesgos en lugar de que un ser humano los acepte?”, dijo Eubank. ¿Para qué se podría utilizar mejor la IA en el ámbito de la ciberseguridad? ¿Y existe la posibilidad de que los agentes de IA puedan realizar determinadas funciones por sí solos?
Los oficiales y expertos militares estadounidenses han cuestionado el papel más amplio de la IA y si puede y debe operar sola en ciertas áreas, temiendo que la velocidad de la toma de decisiones en una guerra futura con un adversario equipado con IA pueda ser demasiado rápida para los humanos. Actualmente, los líderes del Ejército están impulsando el uso de inteligencia artificial para una variedad de tareas, desde el papeleo hasta la codificación, y requieren un ser humano familiarizado con todas las tareas.
Después del ejercicio teórico, el servicio espera examinar más de cerca el papel de la IA en la ciberseguridad y determinar hasta qué punto se le debe prestar menos atención.
«Si pensamos que el objetivo final es utilizar la IA para mejorar a los humanos, estaremos muy por detrás», dijo Eubank. «Necesitamos llegar a un punto en el que no solo estemos aumentando a los humanos. ¿Dónde tiene la IA la autonomía para hacer cosas en el entorno de defensa del ciberespacio?»



