Uma em cada três empresas no Reino Unido se preocupa com a segurança de seus dados ao usar Modelos de Linguagem de Grande Porte (LLMs, na sigla em inglês), porque eles evoluíram de assistentes que respondiam a comandos ou perguntas para sistemasdent que atuam sem intervenção humana constante.
Consequentemente, essas organizações hesitam em incorporar totalmente agentes de IA em seus sistemas operacionais, pois temem perder o controle de seus dados e segurança para máquinas que podem "pensar por si mesmas".
O governo do Reino Unido está tomando medidas para enfrentar esses desafios. O Ministro do Gabinete, Pat McFadden, anunciou a desclassificação de uma avaliação de inteligência que indica que a IA intensificará as ameaças cibernéticas nos próximos anos.
Em 2024, o NCSC recebeu quase 2.000 relatos de ataques cibernéticos, dos quais quase 90 foram considerados "significativos" e 12 de "gravidade máxima". Isso representou três vezes mais ataques graves em comparação com o ano anterior.
Empresas do Reino Unido levantam preocupações sobre a segurança de dados em cursos de mestrado em direito (LLM)
As empresas no Reino Unido devem cumprir regulamentações rigorosas que protegem os dados das pessoas e impedem seu uso indevido, como a Lei de Proteção de Dados e o Regulamento Geral de Proteção de Dados (RGPD) da UE.
Empresas que infringem essas leis correm o risco de sofrer ações judiciais e danos à sua reputação, por isso estão repensando suas estratégias de gestão de leis. A inteligência artificial pode revelar informações privadas ou gerar resultados enganosos sem supervisão humana cuidadosa ou instruções precisas.
Inicialmente, ferramentas de IA como chatbots forneciam respostas fixas, enquanto termostatos inteligentes apenas alteravam a temperatura seguindo regras simples, sem pensar ou aprender com novos dados, ações anteriores ou os resultados de suas decisões. No entanto, os agentes de IA atuais usam Modelos de Aprendizagem Baseados em Lógica (LLMs) para aprender com dados, modificar suas ações com base em novas informações e resolver diferentes problemas raciocinando como um ser humano.
Mas isso é apenas uma fração de uma preocupação muito maior, já que as pessoas também podem solicitar que o agente execute uma tarefa, e ele a dividirá em atividades menores, lidará com cada uma individualmente e, em seguida, avaliará os resultados. Além disso, alguns agentes podem trabalhar em conjunto para lidar com uma tarefa complexa, em que um deles executa a tarefa enquanto o outro verifica os resultados para melhorar o desempenho.
Embora esse crescimento ajude as empresas a automatizar operações e reduza o tempo que as equipes humanas gastariam, ele também representa uma ameaça, pois quanto mais decisões esses agentes tomam por conta própria, mais difícil se torna para nós entender, prever ou controlar completamente o que eles estão fazendo. Da mesma forma, as consequências de seus erros podem crescer exponencialmente, porque esses agentes de IA agem sem consultar um profissional.
As empresas adotam agentes de IA com cautela em todos os departamentos
Muitas empresas no Reino Unido utilizam agentes de IA em suas operações diárias, com departamentos como atendimento ao cliente, recursos humanos (RH) e marketing testando as ferramentas gradualmente e monitorando-as atentamente.
Um bom exemplo empresarial é a Pets at Home, que criou um agente de IA para sua equipe veterinária, a fim de fornecer respostas rápidas e suporte durante as consultas dos animais de estimação, demonstrando o quanto os agentes de IA continuam sendo úteis para pequenas funções em empregos reais.
Atualmente, a maioria dos sistemas de IA com agentes precisa de pessoas para orientá-los, verificar seu trabalho e corrigir erros, pois ainda não estão prontos para substituir completamente os humanos sem supervisão. No entanto, o futuro pode exigir que as empresas tomem decisões difíceis que lhes permitam incorporar agentes de IA aos sistemas, mantendo, ao mesmo tempo, o controle.

