Se espera que la inteligencia artificial impacte la vida humana en todos los aspectos de su existencia, pero el más preocupante y que más temen los expertos es su aplicación en la guerra, y no se equivocan. El ejército estadounidense ha llevado a cabo el primer combate aéreo entre una aeronave controlada por humanos y un caza a reacción controlado por IA.
Por otro lado, la IA ya está decidiendo a quién atacar en zonas de guerra reales, como Gaza y Ucrania. Se dice que Israel ha implementado un algoritmo de IA llamado Lavender paradentobjetivos potenciales, según una investigación de la revista +972, y se dice que tiene una aplicación mínima de la decisión humana, lo que resultó en un gran número de víctimas civiles.
Países de todo el mundo están probando armas de IA
Como podemos ver, el despliegue descuidado de la IA en la guerra puede tener efectos devastadores para la humanidad. Es esencial contar con un sólido control humano, que debe ser la principal fuente de decisión antes de atacar un objetivo. Rusia también está utilizando drones iraníes para atacar a Ucrania, mientras que Ucrania depende del apoyo de sus aliados occidentales en materia de armas guiadas por IA y armas tradicionales. Recientemente, atacó varias refinerías de petróleo a una profundidad de hasta 1300 kilómetros en Rusia. Estos hechos no solo revelan los peligros directos de la IA para las vidas humanas, sino también para los recursos clave y las cadenas de suministro que sustentan la civilización humana.
La Fuerza Aérea de EE. UU. probó recientemente un F-16 con IA en combate aéreo, en el marco del Proyecto de Evolución del Combate Aéreo (ACE) de DARPA, iniciado hace unos años. Se instaló software de IA en una versión altamente modificada de un avión de investigación F-16. El avión, denominado X-62 VISTA (Avión de Prueba de Simulador de Vuelo de Estabilidad Variable), participó en varios combates aéreos contra F-16 de serie pilotados por pilotos humanos.
Según la conferencia de prensa, los funcionarios de la Fuerza Aérea de EE. UU. dijeron que VISTA tuvo un desempeño similar al de los pilotos humanos y hablaron sobre el proceso de entrenamiento del sistema de inteligencia artificial a bordo del avión.
El aprendizaje automático ha proporcionado otra dimensión a la industria de las aeronaves no tripuladas, y el ejército estadounidense ha estado volando estas naves autónomas durante décadas, pero participar en un combate aéreo que exige un contacto cercano entre los oponentes es una historia en sí misma en la aviación debido a los riesgos involucrados y nunca se ha intentado antes.
Se necesita una legislación urgente para mitigar la amenaza de la IA

Mientras muchos países están desarrollando vehículos autónomos, ya sea aéreos o terrestres, que puedandenty alcanzar objetivos sin interferencia humana,.
Según un informe de 2020 de las Naciones Unidas, un dron militar atacó a soldados en la guerra de Libia, y se espera que el dron actuara por sí solo contra miembros de la milicia enemiga que huían del ataque con cohetes.
Teniendo en cuenta las prácticas explicadas anteriormente, no cabe duda de que la comunidad internacional debería reunirse en un solo lugar y abordar estas cuestiones con urgencia, involucrando a todas las partes interesadas.
La IA aún no ha madurado como tecnología y está en continua evolución, mostrando un enorme potencial y, si no se regula adecuadamente, puede tener graves consecuencias para la existencia misma de la vida humana.

