Cargando...

Los robots asesinos no son robots, sino humanos

TL;DR

  • Los robots asesinos ya están presentes en el terreno y están demostrando su impacto devastador en la humanidad.
  • La gente de todo el mundo está preocupada por el uso descuidado de los sistemas de inteligencia artificial en las guerras.
  • El verdadero peligro no es el robot en este momento, sino la persona que lo controla sin precaución o quizás con malas intenciones.

Los robots asesinos ya están en el campo de batalla y están demostrando ser armas bastante destructivas. Deberíamos estar preocupados; de hecho, muy preocupados. Como han demostrado su potencial letal en las guerras de Gaza y Ucrania, las consecuencias podrían ser devastadoras si se manejan con negligencia. El 3 de abril, la revista +972, una publicación israelí, publicó un informe sobre el uso de IA por parte de Israel para dent objetivos en Gaza.  

El sistema de inteligencia artificial se llama Lavender y se dice que selecciona listas de asesinatos de personal sospechoso de Hamás, incluidos los que trabajan en rangos inferiores. No tenemos idea de qué tan correctas eran las listas, pero el hecho más preocupante es que se utilizó para atacar a los militantes incluso si estaban en sus casas con sus familias, sus hijos y muchos civiles alrededor. El siguiente cuadro muestra el número de víctimas y heridos hasta el 15 de abril.

Fuente: Statista .

Los algoritmos dicen a quién apuntar

Como se dent del elevado número de muertes civiles y la escala masiva de destrucción de infraestructura después de la invasión israelí de Gaza, el informe causó serias preocupaciones entre las sociedades humanitarias, los funcionarios gubernamentales y todas las personas sensatas en todo el mundo y en Estados Unidos. Antonio Guterres, secretario general de las Naciones Unidas, dijo que estaba "profundamente preocupado" y John Kirby, portavoz de la Casa Blanca, dijo que "Estados Unidos estaba revisando el informe de cerca".

Guterres mostró más preocupación por las víctimas y dijo:

 "Ninguna parte de las decisiones de vida o muerte que afectan a familias enteras debe delegarse al frío cálculo de algoritmos".

Fuente: Worldpoliticsreview .

El informe se publicó después del dent en el que Israel atacó y mató a siete trabajadores humanitarios occidentales, algunos de los cuales eran exmilitares británicos. Por supuesto, esto incitó a jueces y abogados de Gran Bretaña a detener la venta de armas a Israel debido a sus crímenes de guerra y sus graves violaciones del derecho internacional.

Otra dimensión del pensamiento sobre los robots asesinos

Aljazeera visualiza escenas en Gaza en noviembre basándose en estadísticas de OCHA. Fuente: Aljazeera .

La Campaña Para Detener a los Robots Asesinos mostró su preocupación pero dijo que no es contra lo que luchan desde 2012, ya que según ellos se trata de un sistema de procesamiento de datos, y la decisión final de disparar sigue en manos humanas, pero una de sus declaraciones aporta otra dimensión pensar sobre. La declaración se produjo después de la publicación de la noticia, dijo,

"Falta de control humano significativo y de compromiso involucrado en las decisiones de atacar los objetivos recomendados".

Fuente: Worldpoliticsreview .

Esta declaración utiliza la palabra “falta de control humano significativo”, lo que añade otra capa de complejidad a la ya condenada inteligencia artificial y a los robots asesinos, y también proporciona a los activistas una nueva preocupación por la que defender.

La inteligencia artificial suele presentarse como algo que algún día podría apoderarse del planeta y causar daños catastróficos , incluso la extinción humana. Pero un hecho más preocupante es que las fuerzas que los utilizan tendrán menos precaución al atacar, lo que los hará menos responsables, lo que resultará en que tomen decisiones poco éticas en las guerras, como ya hemos visto en Gaza. Entonces, al final del día, no se trata de robots que toman decisiones contra los humanos, sino de humanos que toman decisiones robóticas sin utilizar sus propias capacidades cognitivas al máximo en situaciones tan sensibles de vida o muerte. Como el informe menciona una fuente que dice:

"La máquina lo hizo en frío".

Fuente: +972mag.

También hay otro ángulo: esto puede corromper la capacidad de los programadores para comunicarse de manera efectiva con los sistemas de inteligencia artificial, lo que terminará en crímenes de guerra.

La noticia original se puede ver aquí .

Descargo de responsabilidad:  la información proporcionada no es un consejo comercial. Cryptopolitan.com no asume ninguna responsabilidad por las inversiones realizadas en función de la información proporcionada en esta página. Recomendamos tron dent y/o la consulta con un profesional calificado antes de tomar cualquier decisión de inversión .

Compartir enlace:

Aamir jeque

Amir es un profesional de medios, marketing y contenido que trabaja en la industria digital. Un veterano en la producción de contenido, Amir es ahora un entusiasta defensor, analista y escritor de criptomonedas.

Cargando los artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada

Noticias relacionadas

tecnología
criptopolitano
Suscríbete a CryptoPolitan