Your bank is using your money. You’re getting the scraps.WATCH FREE

A pesar de la inmadurez de la IA, hay prisa por implementarla en combate

En esta publicación:

  • La innovación avanza a un ritmo vertiginoso, pero las regulaciones tardan en hacerlo.
  • La tecnología no está madura, pero los ejércitos de todo el mundo tienen prisa por utilizarla contra objetivos humanos.
  • Es urgente abordar las estancadas conversaciones sobre la regulación de la IA para uso militar.

Recientemente, los titulares se han centrado en los avances en inteligencia artificial. Sin embargo, la IA lleva décadas presente y seguirá siendo un componente fundamental de la guerra en el futuro para diversas aplicaciones militares y de defensa.

No se trata solo de los militares; es posible que estés leyendo este texto en un dispositivo que ya depende en gran medida de la inteligencia artificial; por lo tanto, probablemente ya hayas utilizado IA de alguna manera incluso antes del reciente revuelo. 

Es muy probable que la IA se haya utilizado en cualquier situación en la que hayas pagado algo en línea, por ejemplo, comida o entretenimiento, hayas utilizado tu rostro o huella digital para desbloquear tu teléfono, hayas participado en redes sociales o hayas programado un viaje a través de una aplicación de teléfono. 

Nos hemos acostumbrado a la IA de diversas maneras, incorporándola, a menudo sin darnos cuenta, a nuestra vida diaria.

La IA militar existe desde la Segunda Guerra Mundial

Aunque las armas han podido tomar algunas decisiones desde la Segunda Guerra Mundial, la inteligencia artificial ahora les permite tomar muchas más decisiones y, con el tiempo, las convertirá en algo común. 

¿Qué pasaría si alguien fuera atacado y sudentse determinara mediante un software de reconocimiento facial? En lugar dedentel mejor restaurante para comer, ¿qué pasaría si un software similar guiara a los aviones para lanzar un ataque aéreo contra un objetivo? 

Lea también: ¿La adopción de sistemas militares de IA predice un giro siniestro en la guerra?

Hasta ahora, esto parece un gran problema. La pregunta es: ¿podrían los sistemas de IA realmente tomar decisiones cruciales por sí solos? Su precisión no es perfecta y varía según la situación, y sabemos que no siempre son correctos.

En zonas de conflicto reales, la IA ya está seleccionando a qué personas atacar, como Gaza y Ucrania. Se dice que Israel ha utilizado un sistema de inteligencia artificial (IA) llamado Lavender, con una capacidad mínima para la toma de decisiones humanas, para seleccionar posibles objetivos, lo que ha provocado un número significativo de víctimas civiles, según una investigación publicada en el medio de comunicación israelí +972 Magazine.

Véase también  Evento de piratería masiva: la Casa Blanca se asocia con gigantes tecnológicos para ayudar a solucionar vulnerabilidades de IA

Las máquinas pueden hacerlo en frío

Recientemente, Austria celebró una conferencia para abordar la regulación de las armas de IA y abordar sus efectos devastadores. La IA ya está combatiendo y atacando a los humanos y sus asentamientos. El ministro de Asuntos Exteriores austriaco, Alexander Schallenberg, declaró:

No podemos dejar pasar este momento sin actuar. Es hora de acordar reglas y normas internacionales para garantizar el control humano

Fuente: Reuters .

La tecnología que muchos ejércitos están desplegando en zonas de guerra aún está lejos de madurar y aún no se utiliza para decidir a quién atacar. La tecnología que llamamos inteligente aún no tiene la capacidad del cerebro de un gato; incluso los expertos afirman que si alcanzamos la inteligencia de un ratón en los próximos años, será un gran logro. 

Pero su nivel de dependencia es tan alto que se utiliza brutalmente, deshumanizando tanto al objetivo como a quien posee la potencia de fuego. Plantea serias dudas sobre cuestiones morales, humanitarias y éticas. 

Como humanos, tenemos quejas, pero para evitar el duelo de un soldado, los militares ahora pueden usar esta nueva arma, como menciona la revista +972 a una fuente secreta de inteligencia que dijo:

La máquina lo hizo con frialdad. Y eso lo hizo más fácil.

Fuente: Revista +972 .

¿Es realmente importante que la gente participe en el proceso de selección? Cuando otro usuario de Lavender le preguntó, comentó que, en ese momento, dedicaba 20 segundos a cada objetivo y completaba docenas de ellos cada día. Como, aparte de ser un sello oficial de aprobación, no tenía ningún valor añadido como persona. Ahorraba mucho tiempo.

Es fácil entender cuánto poder de decisión estamos dispuestos a ceder los humanos a las máquinas.

Véase también  La crisis laboral de la Generación Z no tiene nada que ver con la IA, después de todo

Los acuerdos internacionales aún están lejos

Estados Unidos ha iniciado iniciativas regulatorias mediante la implementación de la Declaración Política sobre el Uso Militar Responsable de la Inteligencia Artificial y la Autonomía. La proclamación también incluye a Australia. Sin embargo, un acuerdo internacional aún está muy lejos.

La declaración menciona que es esencial garantizar las salvaguardias, ya que establece que,

“Los Estados deberían implementar salvaguardias adecuadas para mitigar los riesgos de fallas en las capacidades de IA militar, como la capacidad de detectar y evitar consecuencias imprevistas y la capacidad de responder, por ejemplo, desconectando o desactivando los sistemas desplegados, cuando dichos sistemas demuestren un comportamiento imprevisto”.

Fuente: Departamento de Estado de EE.UU.

El documento también enfatiza que el uso de la IA en el ámbito militar "puede y debe ser" ético, además de mejorar la seguridad internacional. Sin embargo, la realidad sobre el terreno muestra un panorama completamente diferente, como se mencionó anteriormente.

Encontrar y localizar personal militar enemigo es una aplicación de tales sistemas; con la innovación en materia de explosiones que se está desarrollando, no tenemos idea de qué otros usos militares complejos podrían surgir. 

Lea también: Kaspersky niega las acusaciones de ayudar al ejército ruso

El debate para descartar la IA en la guerra no parece ser una opción en este momento, pero los legisladores de todo el mundo y los gobiernos involucrados en conflictos deben adherirse a la falta de capacidades que tiene la IA y los posibles estragos que podría causar en nosotros, los humanos.

Actualmente, la formulación de políticas no está a la altura de la innovación, y esto debe abordarse en cierta medida, si no por completo, ya que no podemos simplemente quedarnos sentados y decir: "¡Guau! La IA ha causado otras 1000 muertes". ¿Qué nos aportará la IA? Aún no lo sabemos, pero lo que deberían hacer los responsables políticos no es una pregunta solo para genios.


Reportaje Cryptopolitan de Aamir Sheikh

Las mentes más brillantes del mundo de las criptomonedas ya leen nuestro boletín. ¿Te apuntas? ¡ Únete !

Compartir enlace:

Aviso legal. La información proporcionada no constituye asesoramiento comercial. Cryptopolitan no se responsabiliza de las inversiones realizadas con base en la información proporcionada en esta página. Recomendamos encarecidamente realizar una investigación independiente tron consultar dent un profesional cualificado antes de tomar cualquier decisión de inversión.

Lo más leído

Cargando artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas, reciba actualizaciones diarias en su bandeja de entrada

Selección del editor

Cargando artículos de Elección del editor...

- El boletín de criptomonedas que te mantiene a la vanguardia -

Los mercados se mueven rápido.

Nos movemos más rápido.

Suscríbete a Cryptopolitan Daily y recibe información sobre criptomonedas actualizada, precisa y relevante directamente en tu bandeja de entrada.

Únete ahora y
no te pierdas ningún movimiento.

Entra. Infórmate.
Adelántate.

Suscríbete a CryptoPolitan