영국 기업 3곳 중 1곳은 대규모 언어 모델(LLM)을 사용할 때 데이터 안전에 대해 우려하고 있습니다. 이는 LLM이 명령이나 질문에 응답하는 보조 도구에서 지속적인 인간 개입 없이 작동하는dent 시스템으로 진화했기 때문입니다.
결과적으로 이러한 조직들은 AI 에이전트를 운영 시스템에 완전히 통합하는 것을 주저하고 있습니다.
영국 정부는 이러한 문제들을 해결하기 위한 조치를 취하고 있습니다. 팻 맥패든 내각부 장관은 인공지능(AI)이 향후 몇 년 동안 사이버 위협을 증가시킬 것이라는 정보 평가 보고서를 기밀 해제했다고 발표했습니다.
2024년 NCSC는 약 2,000건의 사이버 공격 신고를 접수했으며, 그중 약 90건은 "중요" 등급, 12건은 "최악 수준"으로 분류되었습니다. 이는 전년도에 비해 심각한 공격 건수가 3배 증가한 수치입니다.
영국 기업들이 LLM의 데이터 보안에 대해 우려를 표명하고 있다
과 같이 개인 정보를 보호하고 오용을 방지하는 엄격한 규정을 준수해야 합니다 데이터 보호법 과 유럽 연합의 일반 데이터 보호 규정(GDPR)
이러한 법률을 위반하는 기업은 법적 조치를 당하고 평판이 손상될 위험이 있으므로 LLM 전략을 재고하고 있습니다. AI는 세심한 인간의 감독이나 정확한 안내 없이는 개인 정보를 노출하거나 오해의 소지가 있는 결과를 생성할 수 있습니다.
초기에는 챗봇과 같은 AI 도구가 정해진 답변만 제공했고, 스마트 온도 조절기는 단순한 규칙에 따라 온도만 조절할 뿐 새로운 데이터, 이전 행동, 또는 결정 결과로부터 학습하거나 생각하지 않았습니다. 그러나 오늘날의 AI 에이전트는 LLM(학습 기반 모델)을 사용하여 데이터를 학습하고, 새로운 정보에 따라 행동을 변경하며, 인간처럼 추론하여 다양한 문제를 해결합니다.
하지만 이는 훨씬 더 큰 문제의 일부분에 불과합니다. 사용자는 에이전트에게 특정 작업을 지시할 수 있으며, 에이전트는 해당 작업을 더 작은 활동으로 나누어 각각 개별적으로 처리한 후 결과를 평가합니다. 또한 일부 에이전트는 복잡한 작업을 처리하기 위해 협력할 수 있으며, 한 에이전트는 작업을 수행하고 다른 에이전트는 결과를 검토하여 개선하는 역할을 합니다.
이러한 성장은 기업의 운영 자동화를 돕고 인간 팀이 소요했을 시간을 단축시켜 주지만, 동시에 위협이 되기도 합니다. 인공지능 에이전트가 스스로 결정을 내리는 횟수가 많아질수록 우리가 그들의 행동을 완전히 이해하고 예측하며 제어하기가 더욱 어려워지기 때문입니다. 또한, 이러한 AI 에이전트는 인간의 개입 없이 스스로 행동하기 때문에 그들의 실수로 인한 결과가 기하급수적으로 커질 수 있습니다.
기업들은 부서 전반에 걸쳐 AI 에이전트를 신중하게 도입하고 있습니다
영국의 많은 기업들이 일상 업무에 AI 에이전트를 사용하고 있으며, 고객 서비스, 인사(HR), 마케팅과 같은 부서에서 이러한 도구를 천천히 테스트하고 면밀히 모니터링하고 있습니다.
좋은 비즈니스 사례로는 반려동물 전문 업체인 펫츠 앳 홈(Pets at Home)이 있습니다. 이 회사는 수의사들이 반려동물 검진 중에 신속한 답변과 지원을 받을 수 있도록 AI 에이전트를 개발했는데, 이는 AI 에이전트가 실제 업무에서 작은 역할을 수행하는 데 여전히 얼마나 유용한지를 보여줍니다.
현재 대부분의 인공지능 에이전트 시스템은 인간의 지시, 검증, 오류 수정이 필요합니다. 아직 감독 없이 인간을 완전히 대체할 준비가 되어 있지 않기 때문입니다. 그러나 미래에는 기업들이 인공지능 에이전트를 시스템에 통합하면서도 통제권을 유지할 수 있도록 어려운 결정을 내려야 할 수도 있습니다.

