IA de uso militar: Cómo Estados Unidos anticipó los ataques talibanes en Afganistán

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación+3

Conoce cómo el sistema de inteligencia artificial «Raven Sentry» fue desarrollado por el ejército de EE.UU. para anticipar ataques talibanes en Afganistán y sus repercusiones en la guerra moderna.

En el contexto de un deterioro de los recursos y un aumento de la violencia en Afganistán, el ejército de Estados Unidos llevó a cabo el desarrollo de un sistema de inteligencia artificial en 2019 destinado a predecir ataques talibanes. Este sistema, denominado «Raven Sentry», demostró ser sorprendentemente preciso y cambió la forma en que se entiende el uso de la inteligencia en conflictos bélicos.

El Proyecto Raven Sentry: Un Enfoque Innovador en la Guerra Moderna

A medida que las fuerzas de la OTAN empezaron a reducir su presencia en Afganistán durante el 2019, el ejército de EE.UU. se enfrentó al reto de realizar labores de inteligencia con menos recursos. La creciente presión por la violencia perpetrada por los talibanes motivó a un pequeño grupo de oficiales de inteligencia a lanzar el proyecto Raven Sentry, un esfuerzo que necesitaba ser innovador para enfrentar una situación cada vez más complicada.

En octubre de 2019, este equipo, conocido cariñosamente como el «nerd locker», dio inicio al desarrollo del sistema. Se diseñó un modelo de IA para evaluar el riesgo de ataques en centros distritales o provinciales, con el objetivo de estimar el número de posibles víctimas. Para ello, se utilizaron datos de fuentes abiertas como informes meteorológicos, publicaciones en redes sociales, noticias y imágenes satelitales comerciales.

Análisis de patrones históricos

El equipo comenzó por investigar los patrones recurrentes de ataques insurgentes que se remontan a la ocupación soviética en la década de 1980. Estos patrones revelaron que, en ciertos casos, los ataques modernos ocurrían en los mismos lugares y con una composición insurgente similar a la de las fuerzas rusas de aquella época. Según el coronel Thomas Spahr, que lideró el experimento, esto significaba que había lecciones valiosas que aprender del pasado.

El equipo de «nerd locker» fue integrado en una unidad especial que fomentaba la experimentación libre. Los analistas debían cumplir turnos regulares en el centro de operaciones para entender mejor las necesidades de la misión, estableciendo así la confianza necesaria para que el sistema de IA fuera efectivo. “La confianza en las personas que operan el sistema generó confianza en los resultados del mismo”, explica el coronel Spahr.

Impacto de las condiciones climáticas

Un aspecto que se destacó en el desarrollo del sistema fue la ayuda de expertos de Silicon Valley en la creación de una red neuronal que correlacionaba datos históricos de ataques con diversas fuentes abiertas. En una primera fase, se tuvo que convertir datos de inteligencia de fuentes abiertas (OSINT), obtenidos de medios de comunicación y redes sociales, en un formato legible por máquinas. Esta descomposición de eventos históricos permitió etiquetar los componentes relevantes para el sistema.

Indicadores adicionales

Una segunda fase implicó la recopilación de indicadores adicionales, como actividades en mezquitas, rutas de insurgentes y puntos de reunión conocidos. También se incluyeron conjuntos de datos de influencia que abordaban factores como las condiciones meteorológicas y la estabilidad política. Por ejemplo, Raven Sentry demostró que los ataques eran más propensos a ocurrir cuando la temperatura superaba los 4°C, con un brillo lunar por debajo del 30% y sin lluvia.

Entrenamiento del prototipo IA militares

El prototipo de Raven Sentry fue finalmente entrenado utilizando tres bases de datos desclasificadas de ataques históricos y monitoreó 17 fuentes de geodatos comerciales, informes OSINT y conjuntos de datos de sistemas de información geográfica (SIG). Una vez que se alcanzaba una combinación específica de factores, el sistema generaba una alerta. Informes sobre reuniones políticas o militares, por ejemplo, llamaban la atención del sistema, así como patrones de movimiento en rutas de infiltración históricas.

Para octubre de 2020, el modelo había alcanzado una precisión del 70%, comparable al rendimiento de analistas humanos, pero a una velocidad significativamente mayor. Los analistas, sin embargo, no consideraban estos resultados como infalibles, sino que los utilizaban para aplicar sistemas clasificados más precisamente, como satélites espías o comunicaciones interceptadas.

Evolución y lecciones aprendidas

Raven Sentry estaba “aprendiendo por su cuenta”, y mejoraba constantemente hasta su cierre, según el coronel. En el corto tiempo de operación, el sistema acumuló experiencia valiosa sobre cómo las IA pueden ayudar a los analistas a procesar grandes cantidades de datos de sensores.

En los tres años posteriores a la desactivación de Raven Sentry, las agencias militares y de inteligencia han realizado inversiones significativas en la detección anticipada de ataques asistida por inteligencia artificial. Como señaló una fuente de la Inteligencia de Defensa del Reino Unido, “si tuviéramos estos algoritmos antes de la invasión rusa de Ucrania, las cosas habrían sido mucho más simples”.

Limitaciones y desafíos futuros

A pesar de sus éxitos, el coronel Spahr subraya las limitaciones de este sistema. Al igual que los insurgentes iraquíes aprendieron a degradar los sistemas ópticos de los aviones de EE.UU. quemando neumáticos, los adversarios de EE.UU. también aprenderán a manipular las IA y a corromper datos de entrada. Esto pone de manifiesto que, a pesar de la tecnología avanzada, el Talibán logró recuperar el control en Afganistán.

Finalmente, el coronel enfatiza que “Raven Sentry hizo más eficientes a los analistas, pero no pudo reemplazarlos”. Las experiencias del mundo real plantean inquietudes sobre cómo se aplicará la inteligencia artificial en conflictos futuros. “A medida que la velocidad de la guerra aumenta y los adversarios adoptan IA, podría ser necesario que el ejército de EE.UU. se mueva hacia una posición de supervisión, donde se monitoreen los resultados pero se permita que la máquina haga predicciones y ordene acciones”, concluye el coronel Spahr.

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo