Uma em cada três empresas no Reino Unido se preocupa com a segurança de seus dados ao usar grandes modelos de idiomas (LLMs) porque evoluíram de assistentes que respondem a comandos ou perguntas em sistemasdent que agem sem intervenção humana constante.
Como resultado, essas organizações hesitam em incorporar totalmente os agentes de IA em seus sistemas de operação porque temem perder o controle de seus dados e segurança para máquinas que podem "pensar por si mesmas".
O governo do Reino Unido está tomando medidas para enfrentar esses desafios. O ministro do Gabinete, Pat McFadden, anunciou a desclassificação de uma avaliação de inteligência, indicando que a IA escalar as ameaças cibernéticas nos próximos anos.
Em 2024, o NCSC recebeu quase 2.000 relatórios de ataques cibernéticos, com quase 90 considerados "significativos" e 12 no "extremo superior da gravidade". Isso foi três vezes o número de ataques graves em comparação com o ano anterior.
As empresas do Reino Unido levantam bandeiras vermelhas sobre a segurança dos dados no LLMS
As empresas no Reino Unido devem cumprir regulamentos estritos que protegem os dados das pessoas e impedem seu uso indevido, como a Lei de Proteção de Dados e o Regulamento Geral de Proteção de Dados (GDPR) da UE.
As empresas que quebram essas leis correm o risco de ação legal e prejudicando sua reputação, por isso estão repensando suas estratégias de LLM. A IA poderia revelar informações privadas ou gerar resultados enganosos sem supervisão humana cuidadosa ou solicitação precisa.
Inicialmente, ferramentas de IA como chatbots forneceram respostas fixas, enquanto os termostatos inteligentes mudaram a temperatura seguindo regras simples e sem pensar ou aprender com novos dados, ações anteriores ou os resultados de suas decisões. No entanto, hoje em dia, os agentes da IA usam o LLMS para aprender com os dados, alterar suas ações com base em novas informações e resolver problemas diferentes, raciocinando como um ser humano.
Mas isso é apenas uma fração de uma preocupação muito maior, pois as pessoas também podem levar o agente a lidar com uma tarefa, e isso a divide em atividades menores, enfrentará cada uma delas individualmente e avaliará os resultados. Além disso, alguns agentes podem fazer parceria para lidar com uma tarefa complexa, pela qual um deles trabalha no trabalho enquanto o outro verifica os resultados para melhorar o resultado.
Embora esse crescimento ajude as empresas automatizando operações e reduza o tempo que as equipes humanas teriam usado, também é uma ameaça porque quanto mais decisões esses agentes tomam por conta própria, mais difícil se torna para nós entender, prever ou controlar completamente o que estão fazendo. Da mesma forma, as consequências de seus erros podem crescer exponencialmente porque esses agentes da IA agem sem parar para obter contribuições humanas.
As empresas adotam agentes de IA cautelosamente entre departamentos
Muitas empresas do Reino Unido usam agentes de IA em suas operações diárias, com departamentos como atendimento ao cliente, Recursos Humanos (RH) e Marketing testando as ferramentas lentamente e monitorando -as profundamente.
Um bom exemplo de negócios é o Pets em casa, que construiu um agente de IA para sua equipe veterinária fornecer respostas e suporte rápidos durante os exames de animais de estimação, mostrando o quanto os agentes da IA permanecem úteis para pequenos papéis em trabalhos reais.
Atualmente, a maioria dos sistemas de IA agêntica precisa de pessoas para guiá -los, verificar seu trabalho e corrigir erros porque não estão prontos para substituir os seres humanos completamente sem supervisão. No entanto, o futuro pode exigir que as empresas tomem decisões difíceis que lhes permitam incorporar agentes de IA nos sistemas, mas também mantenham o controle.
Suas notícias criptográficas merecem atenção - o fio de diferença -chave coloca você em mais de 250 sites superiores