Una de cada tres empresas en el Reino Unido se preocupa por la seguridad de sus datos cuando utiliza grandes modelos de lenguaje (LLMs) porque han evolucionado desde asistentes que responden a comandos o preguntas a sistemasdent que actúan sin intervención humana constante.
Como resultado, estas organizaciones se muestran reacias a incorporar plenamente agentes de IA en sus sistemas operativos porque temen perder el control de sus datos y su seguridad a manos de máquinas que pueden "pensar por sí mismas".
El gobierno del Reino Unido está tomando medidas para afrontar estos desafíos. El ministro de la Oficina del Gabinete, Pat McFadden, anunció la desclasificación de una evaluación de inteligencia que indica que la IA intensificará las ciberamenazas en los próximos años.
En 2024, el NCSC recibió casi 2000 informes de ciberataques, de los cuales casi 90 se consideraron "significativos" y 12 en el extremo superior de la gravedad. Esto triplicó el número de ataques graves en comparación con el año anterior.
Las empresas del Reino Unido alertan sobre la seguridad de los datos en los LLM
Las empresas en el Reino Unido deben cumplir con regulaciones estrictas que protegen los datos de las personas y evitan su uso indebido, como la Ley de Protección de Datos y el Reglamento General de Protección de Datos (RGPD) de la UE.
Las empresas que infringen estas leyes se arriesgan a acciones legales y a dañar su reputación, por lo que están replanteando sus estrategias de LLM. La IA podría revelar información privada o generar resultados engañosos sin una supervisión humana cuidadosa ni indicaciones precisas.
Inicialmente, las herramientas de IA como los chatbots proporcionaban respuestas fijas, mientras que los termostatos inteligentes simplemente modificaban la temperatura siguiendo reglas sencillas, sin pensar ni aprender de nuevos datos, acciones previas ni los resultados de sus decisiones. Sin embargo, hoy en día, los agentes de IA utilizan LLM para aprender de los datos, modificar sus acciones basándose en nueva información y resolver diferentes problemas razonando como un ser humano.
Pero eso es solo una pequeña parte de un problema mucho mayor, ya que las personas también pueden pedirle al agente que gestione una tarea, quien la dividirá en actividades más pequeñas, abordará cada una individualmente y luego evaluará los resultados. Además, algunos agentes pueden colaborar para gestionar una tarea compleja: uno trabaja en la tarea mientras el otro revisa los resultados para mejorarlos.
Si bien este crecimiento ayuda a las empresas a automatizar sus operaciones y reduce el tiempo que los equipos humanos habrían empleado, también representa una amenaza, ya que cuantas más decisiones toman estos agentes por sí mismos, más difícil nos resulta comprender, predecir o controlar plenamente sus acciones. De igual manera, las consecuencias de sus errores pueden crecer exponencialmente, ya que estos agentes de IA actúan sin detenerse a escuchar la intervención humana.
Las empresas adoptan agentes de IA con cautela en todos los departamentos
Muchas empresas en el Reino Unido utilizan agentes de IA en sus operaciones diarias, y departamentos como atención al cliente, recursos humanos (RR.HH.) y marketing prueban las herramientas lentamente y las monitorean de cerca.
Un buen ejemplo empresarial es Pets at Home, que creó un agente de IA para su personal veterinario para brindar respuestas rápidas y apoyo durante los controles de las mascotas, lo que demuestra lo útiles que siguen siendo los agentes de IA para pequeños roles en trabajos reales.
Actualmente, la mayoría de los sistemas de IA con agentes requieren personas que los guíen, supervisen su trabajo y corrijan errores, ya que no están preparados para reemplazar completamente a los humanos sin supervisión. Sin embargo, el futuro podría exigir a las empresas tomar decisiones difíciles que les permitan incorporar agentes de IA en los sistemas, pero también mantener el control.

