영국의 3 개 회사 중 1 명은 LLM (Large Language Models)을 사용할 때 데이터의 안전에 대해 걱정하고 있기 때문에 끊임없이 인간의 개입없이 행동하는 Independent 시스템으로 명령이나 질문에 응답하는 보조원으로부터 발전했기 때문입니다.
결과적으로, 이들 조직은 AI 에이전트를 운영 시스템에 완전히 통합하는 것을 주저하고 있습니다. 왜냐하면 그들은 '스스로 생각할 수있는 기계에 대한 데이터와 보안 제어를 상실하는 것을 두려워하기 때문입니다.
영국 정부는 이러한 과제를 해결하기위한 조치를 취하고 있습니다. Pat McFadden 내각부 장관은 AI가 향후 몇 년 동안 사이버 위협을 확대 할 것이라는 정보 평가의 분류를 발표했다.
2024 년에 NCSC는 사이버 공격에 대한 거의 2,000 개의 보고서를 받았으며, 거의 90 명이“중요한”것으로 간주되었고 12 개는“심각도의 최상위 끝”으로 간주되었습니다. 이것은 전년도에 비해 심각한 공격의 3 배였습니다.
영국 기업은 LLM의 데이터 보안에 대한 적기를 높입니다.
영국의 기업은 영국의 데이터 보호법 및 EU의 일반 데이터 보호 규정 (GDPR)과 같은 사람들의 데이터를 보호하고 오용을 방지하는 엄격한 규정을 준수해야합니다.
이러한 법률을 위반하는 회사는 법적 조치를 취하고 평판을 손상시켜 LLM 전략을 다시 생각하고 있습니다. AI는 신중한 인간 감독이나 정확한 프롬프트없이 개인 정보를 공개하거나 오해의 소지가있는 결과를 생성 할 수 있습니다.
처음에는 챗봇과 같은 AI 도구가 고정 답변을 제공했으며, 스마트 온도 조절기는 단순한 규칙에 따라 새로운 데이터, 이전 조치 또는 의사 결정 결과로부터 생각하거나 배우지 않고 온도를 변경했습니다. 그러나 AI 에이전트는 오늘날 LLM을 사용하여 데이터를 배우고 새로운 정보를 기반으로 행동을 변경하며 인간과 같은 추론을 통해 다양한 문제를 해결합니다.
그러나 사람들이 대리인에게 작업을 처리하도록 자극 할 수 있기 때문에 이는 훨씬 더 큰 관심사의 일부일 뿐이며,이를 작은 활동으로 분류하고 각각의 활동을 개별적으로 다루고 결과를 평가할 수 있기 때문입니다. 또한 일부 에이전트는 복잡한 작업을 처리하기 위해 파트너 관계를 맺을 수 있으며, 그 중 하나는 작업에서 작동하는 반면 다른 에이전트는 결과를 개선하기 위해 결과를 확인합니다.
이러한 성장이 비즈니스가 운영을 자동화하고 인간 팀이 사용했을 때 삭감하는 데 도움이되지만,이 에이전트가 스스로 결정을 내릴수록 우리가하고있는 일을 완전히 이해, 예측 또는 통제하기가 더 어려워지기 때문에 위협이기도합니다. 마찬가지로, 실수의 결과는 이러한 AI 요원이 인간의 입력을 막지 않고 작용하기 때문에 기하 급수적으로 성장할 수 있습니다.
회사는 부서 전체에서 AI 에이전트를 신중하게 채택합니다
영국의 많은 회사는 고객 서비스, 인적 자원 (HR)과 같은 부서와 함께 일일 운영에서 AI 에이전트를 사용하고 도구를 천천히 테스트하고 예리하게 모니터링하는 마케팅 마케팅을 사용합니다.
좋은 비즈니스 사례는 집에 애완 동물이 있는데, 수의학 직원이 애완 동물 검진 중에 빠른 답변과 지원을 제공 할 수 있도록 AI 에이전트를 구축하여 AI 요원이 실제 일자리에서 소규모 역할에 얼마나 유용한지를 보여줍니다.
현재 대부분의 에이전트 AI 시스템은 감독없이 인간을 완전히 대체 할 준비가되지 않았기 때문에 사람들을 안내하고, 작업을 확인하고, 오류를 수정해야합니다. 그러나 미래는 회사가 AI 에이전트를 시스템에 통합 할 수있을뿐만 아니라 통제력을 유지할 수있는 어려운 결정을 내릴 필요가있을 수 있습니다.
Cryptopolitan Academy : 2025 년에 돈을 키우고 싶습니까? 다가오는 웹 클래스에서 DeFi 로 수행하는 방법을 배우십시오 당신의 지점을 저장하십시오