英国では、3 社に 1 社が大規模言語モデル (LLM) を使用する際のデータの安全性を懸念しています。これは、LLM が、コマンドや質問に応答するアシスタントから、人間の継続的な介入なしに動作する独立dent システムへと進化しているためです。.
その結果、これらの組織は、 AIエージェントを 自社の運用システムに完全に組み込むことに躊躇している。なぜなら、「自ら考える」ことができる機械にデータとセキュリティの制御を奪われることを恐れているからだ。
英国政府はこれらの課題に対処するための措置を講じている。 内閣府担当大臣のパット・マクファデン氏は、AIが今後数年間でサイバー脅威を増大させることを示す情報評価報告書の機密解除を発表した。
2024年、NCSCは約2,000件のサイバー攻撃の報告を受け、そのうち約90件が「重大」、12件が「深刻度最上位」と判断されました。これは、前年と比較して深刻な攻撃件数の3倍に相当します。.
英国企業は法学修士課程におけるデータセキュリティに警鐘を鳴らす
英国の企業は、英国の データ保護法 やEUの一般データ保護規則(GDPR)など、人々のデータを保護し、その悪用を防ぐための厳格な規制を遵守しなければなりません。
これらの法律に違反した企業は、法的措置や評判の失墜のリスクにさらされるため、LLM戦略の見直しを迫られています。AIは、人間による慎重な監視や正確な指示がなければ、個人情報を漏洩したり、誤解を招くような結果を生成したりする可能性があります。.
当初、チャットボットなどのAIツールは固定的な回答を提供し、スマートサーモスタットは単純なルールに従って温度を調整するだけで、新しいデータ、過去の行動、あるいは意思決定の結果から思考したり学習したりすることはありませんでした。しかし、今日のAIエージェントはLLMを使用してデータから学習し、新しい情報に基づいて行動を変更し、人間のように推論することでさまざまな問題を解決します。.
しかし、これははるかに大きな懸念事項のほんの一部に過ぎません。人がエージェントにタスクの処理を指示すると、エージェントはそれをより小さな活動に分解し、それぞれに個別に取り組み、結果を評価します。さらに、一部のエージェントは複雑なタスクを処理するためにパートナーを組むことができ、片方が作業に取り組んでいる間にもう片方が結果を確認し、成果を向上させることができます。.
この成長は、企業の業務自動化に貢献し、人間チームが費やすはずだった時間を削減します。しかし同時に、これらのエージェントが独自に判断を下すほど、その行動を完全に理解、予測、制御することが難しくなるため、脅威にもなります。同様に、これらのAIエージェントは人間の入力を待たずに行動するため、そのミスによる影響は指数関数的に増大する可能性があります。.
企業は部門間でAIエージェントを慎重に導入している
英国では多くの企業が日常業務で AI エージェントを使用しており、カスタマー サービス、人事 (HR)、マーケティングなどの部門がツールをじっくりとテストし、注意深く監視しています。.
良いビジネス例としては、ペットの健康診断中に獣医スタッフが迅速な回答とサポートを提供できるように AI エージェントを構築した Pets at Home が挙げられます。これは、AI エージェントが実際の仕事の小さな役割においてどれほど有用であるかを示しています。.
現在、ほとんどのエージェント型AIシステムは、人間による指導、動作の確認、エラー修正を必要とします。なぜなら、監視なしに人間を完全に代替できる段階には至っていないからです。しかし、将来的には、企業はAIエージェントをシステムに組み込みつつも、制御を維持するための難しい決断を迫られるかもしれません。.

