テクノロジー界の巨人、Apple社は大胆な決断を下し、OpenAIのAIチャットボット「ChatGPT」の事業全体における利用を停止した。この決定は、企業の機密データの漏洩リスクが高まる中で行われた。
アップル社内の警戒
アップルは従業員に出した指示の中で、ChatGPTや類似のAIユーティリティの使用を禁止した。
この禁輸措置は、Apple 独自の AI 技術開発期間中に実施されたものであり、社内のイノベーションとセキュリティへの重点強化を示している。
同社が懸念しているのは、従業員がこれらの AI システムとのやり取りを通じて、会社の機密情報をうっかり漏洩してしまう可能性があることだ。
注目すべきは、ソフトウェアコードの自動化を支援するGitHubのAIツールであるMicrosoft所有のCopilotも、Apple社内で制限を受けていることだ。
この社内禁止のニュースは、わずか数日前にApple App StoreでChatGPTがiOS向けにリリースされた直後に発表されました。この待望のアプリは現在、米国のiPhoneおよびiPadユーザーが利用可能で、近い将来、他の地域にも展開する予定です。
AIツールの制限の増加傾向
Apple だけがこのような姿勢を取っているわけではなく、世界中の大手企業が ChatGPT のような AI チャットボットの社内使用を制限し始めています。
たとえば、電子tronの巨人サムスンは、プラットフォームへの機密コードのアップロードに関わる不幸なdent 受けて、今年5月初旬に従業員にメモを送り、生成AIユーティリティの使用を禁止した。
同様に、JPモルガン、バンク・オブ・アメリカ、ゴールドマン・サックス、シティグループなどの著名な金融機関も同様の措置を実施し、従業員によるこれらのAIツールの使用を禁止しています。
注目すべきは、これらの企業の多くは、サードパーティの AI ユーティリティを制限しながらも、独自のカスタム アプリケーションを開発中であるということです。
AI活用におけるリスクと機会
ChatGPT や GitHub の Copilot などの AI ツールを取り巻く懸念は、独自のコードやその他のdentデータが漏洩する潜在的なリスクを伴うデータ処理方法に起因しています。
これらのプラットフォームは、Microsoftなどの競合他社によって所有または資金援助を受けているため、リスクはさらに増大します。しかし、多くの企業がワークフローにAIの力を取り入れています。
実際、ゴールドマン・サックスは、ソフトウェアのコード作成とテストを支援するために生成AIツールを活用していることを明らかにしています。同様に、経営コンサルティング会社のベイン・アンド・カンパニーは、OpenAIの生成ツールを自社の経営システムに統合する計画を明らかにしました。
これは、大幅な効率化とコスト削減を実現する一方で、厳格なセキュリティ対策を必要とするという AI の二面性を浮き彫りにしています。
一部の企業による AI ツールの使用制限は、必ずしも人工知能に対する幅広い懸念から生じているわけではなく、むしろ OpenAI、Google、Microsoft などのサードパーティ AI プラットフォーム プロバイダーがこれらのサービスで共有される独自のデータをどのように処理するかに起因しています。
報道によると、Apple の最近の決定は、独自の AI ツールの作成に向けたより広範な戦略的転換の一環であり、業界の競争環境において注目すべき展開となっている。
Apple、データ漏洩の懸念から従業員のChatGPT使用を禁止