Cargando...

¿Qué sucede cuando los algoritmos asesinos superan el derecho internacional?

En esta publicación:

  • Las consecuencias son letales y muy preocupantes cuando la innovación supera a las regulaciones.
  • La inteligencia artificial avanza a la velocidad del rayo y su despliegue descuidado puede ser un peligro para la humanidad.
  • Desde la integración militar hasta la ingeniería política, los efectos negativos de la IA son claramente visibles.

El uso descuidado de algoritmos de inteligencia artificial puede tener impactos negativos en la raza humana más allá de nuestra imaginación. Todavía no existen regulaciones globales para prevenir los efectos negativos de los algoritmos asesinos, a pesar de que la IA ha avanzado mucho durante los últimos dos años.  

Muchos países están integrando inteligencia artificial en sus sistemas militares para reconocer objetivos y acelerar su potencia de fuego, pero su uso descuidado es devastador. El impacto negativo de la IA también es claramente visible al perturbar los procesos democráticos al intentar alterar la opinión pública con afirmaciones falsas a través de la desinformación.

Algoritmos asesinos que se cobran vidas inocentes

Recientemente hemos visto anuncios de integración de la IA en sistemas militares de muchos países, y un buen número de trac militares han lanzado sus sistemas de puntería y disparo mejorados con IA, desde drones hasta sistemas de radar, y también sistemas de vigilancia para el reconocimiento de objetivos humanos. . 

Israel ha sido testigo del despliegue más descuidado, dirigido a la población de Gaza, generando listas de objetivos mediante algoritmos asesinos, que a menudo son erróneos o se despliegan con negligencia criminal, matando a decenas y cientos de civiles inocentes con un individuo potencial como objetivo principal. Imagínese los estragos que ha causado a la población civil de Gaza, matando a miles de niños y mujeres, mientras un funcionario expresó que la máquina lo hizo con frialdad. ¿En realidad? Matar civiles a sangre fría es la realidad de lo crueles que pueden llegar a ser los algoritmos asesinos.

Una investigación reciente realizada por una publicación israelí, +972 Magazine, descubrió hechos sorprendentes sobre el uso de IA por parte de las fuerzas israelíes para ataques aéreos. El sistema conocido como Lavender se ha utilizado para generar listas de miles de militantes sospechosos, y otro sistema llamado Gospel para seleccionar edificios e infraestructuras como objetivos. La estrategia utilizada fue atacar a individuos de Hamás incluso si estaban en sus casas ubicadas en barrios civiles, matando a cientos de civiles en el camino.  

El informe incluye entrevistas con seis fuentes de inteligencia israelíes cuyos nombres se mantuvieron en secreto por razones de seguridad. Las fuentes afirmaron el uso de Lavender, junto con otros sistemas de inteligencia artificial, para seleccionar objetivos. También discutieron la indulgencia en las regulaciones para el uso de estos sistemas y su estimación de los civiles que son asesinados o que se permite que sean asesinados como daño colateral, con cada funcionario de Hamás de alto o bajo rango que oscila entre dos y tres dígitos.  

Pero las cifras reales parecen superar con creces estas estimaciones permitidas, que ya eran las más altas en comparación con los acontecimientos bélicos modernos en todo el mundo. El número de niños asesinados durante los primeros tres meses de la guerra también superó el número de niños muertos en guerras en todo el mundo. Es desgarrador sólo pensar en ellos.

Todavía falta una regulación global

A pesar de que los algoritmos de IA matan personas en las guerras, no parece haber suficientes esfuerzos por parte de los líderes mundiales para poner fin a esta amenaza. No existe un conjunto de regulaciones globales para el uso de la IA en la guerra, a pesar de que matar personas y dañar infraestructuras cruciales para privar a la población civil de sus necesidades humanas básicas es un claro crimen de guerra.  

Lo que vemos es una palabrería por parte de los líderes mundiales, seguida de otra concesión de armas por parte de EE. UU., que podría utilizarse en colaboración con dichos algoritmos asesinos basados ​​en IA. La única acción legal fue la de Sudáfrica que acudió a la Corte Internacional de Justicia por crímenes de guerra contra Israel.

Los ejércitos de todo el mundo están tratando de aprovechar la inteligencia artificial y muchos países están tratando de obtener una ventaja militar mediante el despliegue de estos sistemas. Las tensiones geopolíticas también están impulsando estos avances, ya que países desde Estados Unidos hasta China se apresuran a desarrollar sistemas de inteligencia artificial para la selección de objetivos y la toma de decisiones para acelerar los procesos.

Hasta ahora, las afirmaciones apuntan a una mayor precisión y menos daños civiles con el despliegue de inteligencia artificial, pero la realidad sobre el terreno contradice las afirmaciones y los peligros de los algoritmos asesinos superan con creces las afirmaciones de precisión, que exigen esfuerzos sólidos para regular la IA a nivel global.

Los informes de la Revista +972 se pueden encontrar aquí .

Descargo de responsabilidad. La información proporcionada no es un consejo comercial. Cryptopolitan.com no asume ninguna responsabilidad por las inversiones realizadas en función de la información proporcionada en esta página. Recomendamos tron dent independiente y/o la consulta con un profesional calificado antes de tomar cualquier decisión de inversión.

Compartir enlace:

Cargando los artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada

Noticias relacionadas

Apple no paga a OpenAI por la integración de ChatGPT en iOS18
criptopolitano
Suscríbete a CryptoPolitan