Adent da Signal, Meredith Whittaker, alertou o público em geral sobre os riscos associados à inteligência artificial (IA) ativa. Em um discurso na conferência SXSW em Austin, Texas, ela mencionou que o uso de IA ativa pode representar um risco à privacidade dos usuários.
Segundo a declaração , ela mencionou a necessidade de formas seguras de comunicação, observando que usar agentes de IA é o mesmo que "colocar seu cérebro em um frasco". Ela acrescentou que a nova tendência em que os usuários permitem que a IA execute tarefas em seu nome pode acarretar problemas tanto de privacidade quanto de segurança.
O uso de agentes de IA tornou-se desenfreado na indústria de criptomoedas, com usuários do setor de finanças descentralizadas (DeFi) utilizando essas máquinas para realizar tarefas como executar negociações, adaptar e até mesmo otimizar estratégias com pouca ou nenhuma intervenção do usuário. Esses agentes de IA também são integrados a plataformas para ajudar os usuários a negociar de forma mais fácil, inteligente e rápida. No entanto, alguns bots precisam ser baixados antes que os usuários possam interagir com um agente de IA.
Odent da Signal alerta para os riscos dos agentes de IA
De acordo com adentda Signal, diversas plataformas estão começando a comercializar agentes de IA como uma forma de serviço de valor agregado para melhorar a vida dos usuários. Em seu discurso, Whittaker mencionou que, além do uso no setor de criptomoedas, esses agentes realizam diversas tarefas online para os usuários. Por exemplo, agentes de IA podem comprar ingressos para eventos, agendar compromissos no calendário e enviar mensagens para amigos.
"Então podemos simplesmente colocar nosso cérebro em um frasco, já que o dispositivo está fazendo isso, e não precisamos tocá-lo, certo?", perguntou odent da Signal.
Após fazer a pergunta, ela iniciou uma longa discussão sobre as permissões que os usuários precisam conceder aos agentes de IA antes que eles possam realizar todas essas tarefas para tornar a vida dos usuários mais eficiente. Whittaker acrescentou que isso inclui acesso ao nosso navegador, calendário, aplicativos de mensagens e, às vezes, ao nosso cartão de crédito, pois é necessário pagar pelos ingressos para eventos que a IA reserva para nós.
“Seria necessário que esse processo fosse capaz de ser executado em todo o nosso sistema com algo semelhante a permissões de root, acessando cada um desses bancos de dados — provavelmente em texto não criptografado, porque não existe um modelo para fazer isso de forma criptografada”, acrescentou Whittaker.
A declaração de Whittaker pede cautela no setor de IA
Em sua declaração, Whittaker mencionou que os agentes de IA não funcionam de forma autônoma, pois precisam ser alimentados por modelos de IA. Ela também discutiu a relação entre o processo e a segurança, observando que as informações são enviadas a um servidor para serem processadas antes de serem reenviadas.
“Portanto, existe um problema profundo de segurança e privacidade que assombra toda essa euforia em torno dos agentes e que, em última análise, ameaça romper a barreira hematoencefálica entre a camada de aplicação e a camada do sistema operacional, ao unir todos esses serviços separados [e] confundir seus dados”, acrescentou Whittaker.
Ela também observou que, se o Signal decidir integrar agentes de IA em seu aplicativo, isso comprometerá a privacidade das mensagens de seus usuários. Ela acrescentou que o agente precisa obter acesso ao aplicativo para enviar mensagens a outras pessoas e também extrair informações para resumir o texto.
Seus comentários surgiram após sua participação em um painel que discutia como a indústria de IA se baseia em um modelo de vigilância devido à forma como coleta dados em massa. Whittaker também acrescentou que acredita que quanto mais dados forem coletados, maiores serão as consequências potenciais que ela considera negativas.
Com a IA ativa, adent da Signal mencionou que "prejudicaremos ainda mais a privacidade e a segurança por causa de um 'gênio da lâmpada mágico' que cuidará das exigências da vida", concluiu ela.

