Os robôs assassinos já estão no campo de batalha e estão se provando armas bastante destrutivas. Devemos estar preocupados – aliás, muito preocupados. Como demonstraram seu potencial letal nas guerras em Gaza e na Ucrânia, as consequências podem ser devastadoras se forem manuseados com negligência. Em 3 de abril, a revista israelense +972 publicou uma reportagem sobre o uso de inteligência artificial por Israel paradentalvos em Gaza.
O sistema de IA chama-se Lavender e diz-se que compilou listas de alvos com nomes de suspeitos de pertencerem ao Hamas, incluindo membros de escalões inferiores. Não sabemos o quão corretas eram essas listas, mas o mais preocupante é que o sistema foi usado para alvejar militantes mesmo quando estes estavam em suas casas com suas famílias, filhos e muitos civis por perto. O gráfico abaixo mostra o número de mortos e feridos até 15 de abril.

Os algoritmos estão indicando quem deve ser o alvo
Comodent pelo elevado número de mortes de civis e pela enorme destruição de infraestrutura após a invasão israelense de Gaza, o relatório causou sérias preocupações entre as organizações humanitárias, autoridades governamentais e todos os indivíduos sensatos ao redor do mundo e nos Estados Unidos. António Guterres, Secretário-Geral das Nações Unidas, afirmou estar "profundamente preocupado", e John Kirby, porta-voz da Casa Branca, disse que "os Estados Unidos estavam analisando o relatório atentamente"
Guterres demonstrou maior preocupação com as vítimas e disse:
“Nenhuma parte das decisões de vida ou morte que afetam famílias inteiras deve ser delegada ao cálculo frio de algoritmos.”
Fonte: Worldpoliticsreview .
O relatório foi publicado após odent em que Israel atacou e matou sete trabalhadores humanitários ocidentais, alguns dos quais eram ex-militares britânicos. Naturalmente, isso levou juízes e advogados em toda a Grã-Bretanha a suspenderem a venda de armas a Israel devido aos seus crimes de guerra e graves violações do direito internacional.
Outra dimensão para se pensar sobre robôs assassinos

A Campanha para Acabar com os Robôs Assassinos manifestou preocupação, mas afirmou que não se trata do que vem combatendo desde 2012, pois, segundo eles, trata-se de um sistema de processamento de dados e a decisão final de disparar permanece nas mãos humanas. No entanto, uma de suas declarações, divulgada após a publicação da notícia, traz outra perspectiva para reflexão
“Falta de controle e envolvimento humano significativos nas decisões de atacar os alvos recomendados.”
Fonte: Worldpoliticsreview .
Esta declaração usa a expressão "falta de controle humano significativo", o que adiciona mais uma camada de complexidade à já condenada inteligência artificial e aos robôs assassinos, e também fornece aos ativistas uma nova preocupação para defender.
A inteligência artificial costuma ser retratada como algo que um dia poderá dominar o planeta e causar danos catastróficos , até mesmo a extinção da humanidade. Mas um fato ainda mais preocupante é que as forças que a utilizam terão menos cautela ao escolher seus alvos, o que as tornará menos responsáveis e, consequentemente, as levará a tomar decisões antiéticas em guerras, como já vimos em Gaza. Portanto, no fim das contas, não se trata de robôs tomando decisões contra humanos, mas sim de humanos tomando decisões robóticas sem utilizar plenamente suas próprias capacidades cognitivas em situações tão delicadas de vida ou morte. Como mencionado no relatório, uma fonte afirmou:
“A máquina fez isso friamente.”
Fonte: +972mag.
Há também outra perspectiva: isso pode corromper a capacidade dos programadores de se comunicarem efetivamente com os sistemas de IA, o que pode acabar resultando em crimes de guerra.

