Apesar da imaturidade da IA, há uma corrida para implantá-la em combate

- A inovação está avançando a passos largos, mas as regulamentações estão demorando muito.
- A tecnologia ainda não está madura, mas as forças armadas de todo o mundo estão com pressa para implantá-la em alvos humanos.
- É urgente abordar as negociações estagnadas sobre a regulamentação da IA para uso militar.
Recentemente, as manchetes têm se concentrado nos avanços da inteligência artificial. Mas a IA existe há décadas e continuará sendo uma parte importante de como a guerra será travada no futuro, para uma série de aplicações militares e de defesa.
Não se trata apenas de militares; você pode estar lendo este texto em um dispositivo que já depende bastante de inteligência artificial; portanto, você provavelmente já utilizou IA de alguma forma, mesmo antes de toda essa recente repercussão.
É muito provável que a inteligência artificial tenha sido utilizada em qualquer situação em que você tenha pago por algo online, por exemplo, por comida ou entretenimento, usado seu rosto ou impressão digital para desbloquear seu telefone, interagido em redes sociais ou agendado viagens por meio de um aplicativo de celular.
Nos acostumamos com a IA de diversas maneiras, incorporando-a — muitas vezes sem perceber — em nosso cotidiano.
A inteligência artificial militar existe desde a Segunda Guerra Mundial
Embora as armas sejam capazes de tomar algumas decisões desde a Segunda Guerra Mundial, a inteligência artificial agora lhes permite tomar muito mais decisões e, eventualmente, as tornará comuns.
E se alguém fosse atacado e suadentfosse determinada por um software de reconhecimento facial? Em vez dedento melhor restaurante para comer, e se um software semelhante guiasse aviões para lançar um ataque aéreo contra um alvo?
Leia também: A adoção de sistemas militares de IA prevê uma virada sinistra na guerra?
Até agora, isso parece ser um problema realmente sério. A questão é: será que os sistemas de IA realmente poderiam tomar decisões de vida ou morte por conta própria? A precisão deles não é perfeita e varia dependendo da situação, e sabemos que nem sempre estão certos.
Em zonas de conflito reais, a IA já está escolhendo quais pessoas atacar, como em Gaza e na Ucrânia. Israel teria usado um sistema de inteligência artificial (IA) chamado Lavender, que possui mínima capacidade de tomada de decisão humana, para selecionar possíveis alvos, resultando em um número significativo de vítimas civis, de acordo com uma pesquisa publicada no veículo de notícias israelense +972 Magazine.
As máquinas podem fazer isso friamente
Recentemente, a Áustria realizou uma conferência para discutir a regulamentação de armas com inteligência artificial, visando combater os efeitos devastadores que elas podem causar. A IA já está em combate, atacando humanos e seus assentamentos. O Ministro das Relações Exteriores austríaco, Alexander Schallenberg, afirmou:
“Não podemos deixar essa oportunidade passar sem agir. Agora é a hora de concordar com regras e normas internacionais para garantir o controle humano.”
Fonte: Reuters.
A tecnologia que muitas forças armadas estão implantando em zonas de guerra ainda está longe da maturidade e não é usada para determinar alvos. A tecnologia que chamamos de inteligente ainda não é tão capaz quanto o cérebro de um gato; mesmo especialistas afirmam que, se alcançarmos o nível de inteligência de um rato nos próximos anos, isso já será uma grande conquista.
Mas o nível de dependência dessa arma é tão alto que ela é usada de forma brutal, desumanizando tanto o alvo quanto quem a utiliza. Isso levanta sérias questões morais, humanitárias e éticas.
Como seres humanos, temos nossas queixas, mas para evitar que um soldado sofra, os militares agora podem usar essa nova arma, conforme mencionado pela revista +972, citando uma fonte secreta da inteligência que afirmou:
“A máquina fez isso a frio. E isso facilitou o processo.”
Fonte: Revista +972.
Será mesmo importante que as pessoas participem do processo de seleção? Quando questionado por outro usuário do Lavender, ele respondeu que, naquele momento, dedicava 20 segundos a cada objetivo e completava dezenas deles diariamente. Afinal, além de ser um selo oficial de aprovação, ele não tinha nenhum valor adicional como pessoa. Era uma grande economia de tempo.
É fácil entender o quanto de poder de decisão nós, humanos, estamos voluntariamente cedendo às máquinas.
Acordos internacionais ainda estão longe de serem alcançados
Os Estados Unidos iniciaram esforços regulatórios por meio da implementação da Declaração Política sobre o Uso Militar Responsável da Inteligência Artificial e da Autonomia. A proclamação também inclui a Austrália. No entanto, um acordo internacional ainda está muito longe de ser alcançado.
A declaração menciona que garantir salvaguardas é essencial, pois afirma que,
“Os Estados devem implementar salvaguardas adequadas para mitigar os riscos de falhas nas capacidades de IA militar, como a capacidade de detectar e evitar consequências não intencionais e a capacidade de responder, por exemplo, desativando ou desligando sistemas implantados, quando tais sistemas demonstrarem comportamento não intencional.”
Fonte: Departamento de Estado dos EUA.
O documento também enfatiza que o uso de IA nas forças armadas “pode e deve ser” ético, além de contribuir para a segurança internacional. No entanto, a realidade no terreno revela um cenário completamente diferente, como discutido anteriormente.
Encontrar e localizar pessoal militar inimigo é uma das aplicações desses sistemas; com a inovação explosiva em curso, não temos ideia de quais outros usos militares complexos poderão surgir.
Leia também: Kaspersky nega acusações de auxílio às forças armadas russas
O debate sobre a exclusão da IA da guerra não parece ser uma opção neste momento, mas legisladores de todo o mundo e governos envolvidos em conflitos devem levar em consideração a falta de capacidades da IA e o potencial de devastação que ela poderia causar aos seres humanos.
Atualmente, a formulação de políticas não está acompanhando o ritmo da inovação, e isso precisa ser abordado, em certa medida, se não completamente, pois não podemos simplesmente ficar sentados e dizer: "Uau! A IA matou mais mil pessoas. O que a IA nos reserva?". Ainda não sabemos, mas o que os formuladores de políticas devem fazer não é uma questão exclusiva de gênios.
Reportagem Cryptopolitan por Aamir Sheikh
Se você está lendo isto, já está um passo à frente. Continue assim assinando nossa newsletter.
Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. CryptopolitanO não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrona realização de pesquisas independentesdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.
CURSO
- Quais criptomoedas podem te fazer ganhar dinheiro?
- Como aumentar a segurança da sua carteira digital (e quais realmente valem a pena usar)
- Estratégias de investimento pouco conhecidas que os profissionais utilizam
- Como começar a investir em criptomoedas (quais corretoras usar, as melhores criptomoedas para comprar etc.)















