Un informe sobre el uso de inteligencia artificial en operaciones militares documentó errores significativos en la identificación de objetivos y movimientos, atribuyéndolos a sesgos en los datos de entrenamiento y a la complejidad del terreno.
El despliegue de sistemas de inteligencia artificial en escenarios de conflicto en Medio Oriente ha presentado serias dificultades, según revela el informe ‘Artificial Intelligence in Modern Warfare 2026’. Los algoritmos destinados a predecir movimientos tácticos mostraron un margen de error del 40% en sus proyecciones de combate, comprometiendo operaciones en terreno.
El documento señala que, en varios casos, los sistemas proporcionaron análisis que se alineaban con las ideas preconcebidas de los mandos, en lugar de reflejar la realidad del campo de batalla. Esto llevó, por ejemplo, a ordenar desplazamientos de tropas hacia zonas donde no había presencia enemiga.
Uno de los problemas centrales identificados fue la falta de diversidad en los datos utilizados para entrenar a los modelos en entornos desérticos y urbanos específicos de la región. Esta limitación redujo la precisión de las predicciones y la capacidad de los sistemas para interpretar tácticas de camuflaje o mimetismo.
El informe de la Global Tech Oversight advirtió que ‘los modelos replicaron prejuicios estratégicos que se arrastran desde hace décadas en la doctrina militar’. Un incidente crítico ocurrió cuando un sistema de alerta temprana clasificó erróneamente un convoy civil como una batería de misiles móviles, elevando el riesgo de una escalada involuntaria.
Además, se reportaron fallas en equipos de infantería, donde interfaces de realidad aumentada en cascos inteligentes proyectaron marcadores de enemigos que no existían, debido a errores en la integración de sensores. Ante la persistencia de estos problemas, que incluyeron la generación por parte de la IA de rutas de escape topográficamente inexistentes, varios mandos operativos optaron por desactivar los módulos de predicción de comportamiento.
