Your bank is using your money. You’re getting the scraps.WATCH FREE

Os robôs assassinos não são robôs, mas humanos

Neste post:

  • Robôs assassinos já estão presentes na Terra e comprovam seu impacto devastador sobre a humanidade.
  • Pessoas em todo o mundo estão preocupadas com o uso irresponsável de sistemas de IA em guerras.
  • O verdadeiro perigo não é o robô em si, mas sim a pessoa que o controla sem cautela ou talvez com más intenções.

Os robôs assassinos já estão no campo de batalha e estão se provando armas bastante destrutivas. Devemos estar preocupados – aliás, muito preocupados. Como demonstraram seu potencial letal nas guerras em Gaza e na Ucrânia, as consequências podem ser devastadoras se forem manuseados com negligência. Em 3 de abril, a revista israelense +972 publicou uma reportagem sobre o uso de inteligência artificial por Israel paradentalvos em Gaza. 

O sistema de IA chama-se Lavender e diz-se que compilou listas de alvos com nomes de suspeitos de pertencerem ao Hamas, incluindo membros de escalões inferiores. Não sabemos o quão corretas eram essas listas, mas o mais preocupante é que o sistema foi usado para alvejar militantes mesmo quando estes estavam em suas casas com suas famílias, filhos e muitos civis por perto. O gráfico abaixo mostra o número de mortos e feridos até 15 de abril.

Fonte: Statista .

Os algoritmos estão indicando quem deve ser o alvo

Comodent pelo elevado número de mortes de civis e pela enorme destruição de infraestrutura após a invasão israelense de Gaza, o relatório causou sérias preocupações entre as organizações humanitárias, autoridades governamentais e todos os indivíduos sensatos ao redor do mundo e nos Estados Unidos. António Guterres, Secretário-Geral das Nações Unidas, afirmou estar "profundamente preocupado", e John Kirby, porta-voz da Casa Branca, disse que "os Estados Unidos estavam analisando o relatório atentamente"

Veja também:  Zoom aborda preocupações com a privacidade em relação à coleta de dados por IA em seus Termos de Serviço.

Guterres demonstrou maior preocupação com as vítimas e disse:

 “Nenhuma parte das decisões de vida ou morte que afetam famílias inteiras deve ser delegada ao cálculo frio de algoritmos.”

Fonte: Worldpoliticsreview .

O relatório foi publicado após odent em que Israel atacou e matou sete trabalhadores humanitários ocidentais, alguns dos quais eram ex-militares britânicos. Naturalmente, isso levou juízes e advogados em toda a Grã-Bretanha a suspenderem a venda de armas a Israel devido aos seus crimes de guerra e graves violações do direito internacional.

Outra dimensão para se pensar sobre robôs assassinos

A Al Jazeera visualizou cenas em Gaza em novembro, com base em estatísticas do OCHA. Fonte: Al Jazeera .

A Campanha para Acabar com os Robôs Assassinos manifestou preocupação, mas afirmou que não se trata do que vem combatendo desde 2012, pois, segundo eles, trata-se de um sistema de processamento de dados e a decisão final de disparar permanece nas mãos humanas. No entanto, uma de suas declarações, divulgada após a publicação da notícia, traz outra perspectiva para reflexão

“Falta de controle e envolvimento humano significativos nas decisões de atacar os alvos recomendados.”

Fonte: Worldpoliticsreview .

Esta declaração usa a expressão "falta de controle humano significativo", o que adiciona mais uma camada de complexidade à já condenada inteligência artificial e aos robôs assassinos, e também fornece aos ativistas uma nova preocupação para defender.

Veja também:  OpenAI revela "cadeia de raciocínio" no modelo o3-mini do ChatGPT para corresponder à expectativa em torno do código aberto do DeepSeek.

A inteligência artificial costuma ser retratada como algo que um dia poderá dominar o planeta e causar danos catastróficos , até mesmo a extinção da humanidade. Mas um fato ainda mais preocupante é que as forças que a utilizam terão menos cautela ao escolher seus alvos, o que as tornará menos responsáveis ​​e, consequentemente, as levará a tomar decisões antiéticas em guerras, como já vimos em Gaza. Portanto, no fim das contas, não se trata de robôs tomando decisões contra humanos, mas sim de humanos tomando decisões robóticas sem utilizar plenamente suas próprias capacidades cognitivas em situações tão delicadas de vida ou morte. Como mencionado no relatório, uma fonte afirmou:

“A máquina fez isso friamente.”

Fonte: +972mag.

Há também outra perspectiva: isso pode corromper a capacidade dos programadores de se comunicarem efetivamente com os sistemas de IA, o que pode acabar resultando em crimes de guerra.

Se você está lendo isto, já está um passo à frente. Continue assim assinando nossa newsletter .

Compartilhar link:

Aviso:  As informações fornecidas não constituem aconselhamento de investimento. Cryptopolitan não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamos tron a realização de pesquisas independentes dent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

Mais lidas

Carregando os artigos mais lidos...

Fique por dentro das notícias sobre criptomoedas e receba atualizações diárias na sua caixa de entrada

Escolha do editor

Carregando artigos selecionados pela equipe editorial...

- A newsletter de criptomoedas que te mantém sempre um passo à frente -

Os mercados se movem rapidamente.

Nós nos movemos mais rápido.

Assine o Cryptopolitan Daily e receba informações oportunas, precisas e relevantes sobre criptomoedas diretamente na sua caixa de entrada.

Inscreva-se agora e
não perca nenhum lance.

Entre. Informe-se.
Saia na frente.

Inscreva-se no CryptoPolitan