アンスロピックは、ほぼ完全にAIによって組織された政府支援のサイバー攻撃の初めての確認事例であると報告した。.
木曜日に投稿されたブログによると、同社は2025年9月中旬、自社のClaude Codeツールに関連する異常な動作を観察した後、このキャンペーンを検知したという。.
アントロピックは、このスパイ活動が中国政府支援のハッカー集団によって実行され、大手テクノロジー企業、銀行、化学メーカー、そして数カ国の政府機関を含む約30の重要標的に侵入したと確信している。これらの攻撃のいくつかは成功した。.
今回の攻撃が過去のサイバー攻撃と異なるのは、誰が背後にいるかだけではなく、どのように実行されたかである。.
アンスロピックによれば、攻撃全体のおよそ80~90パーセントはAIによって実行され、人間のオペレーターはいくつかの重要な決定にのみ介入したという。.
ハッカーがクロードをジェイルブレイクし、合法的に動作していると思わせた
攻撃者はまず、Anthropic 独自の AI モデルである Claude Code を中心に自動化された攻撃フレームワークを構築し、社内テストを実施しているサイバーセキュリティ企業がそのモデルを採用していると思い込ませた。.
彼らはジェイルブレイクによってクロードの安全フィルターを突破した。ジェイルブレイクとは、AIに文脈に左右されない小さなタスク(それ自体は無害に見える)を入力させることで、AIに組み込まれた保護機能を回避できる戦術だ。クロードは、その全容を全く知らされていなかったため、それが攻撃活動に使われていることに気づかなかった。.
モデルが使用されると、作戦は迅速に展開しました。クロードは各標的のネットワークをスキャンし、インフラの最も機密性の高い部分をdent、人間のオペレーター向けにレイアウトを要約しました。そして、それらのシステムの脆弱性を探し始めました。クロードは内蔵のコーディング機能を用いて、カスタムのエクスプロイトコードを作成し、弱点をdentし、ログインdent情報を取得しました。そして、大量の内部データを抽出し、その価値に基づいて整理し、アクセス権限の高いアカウントにフラグを付けました。.
AIが管理者レベルの制御権を獲得した後、侵入したシステムへの継続的なアクセスを可能にするバックドアを作成しました。そして、作業が完了すると、クロードはAIが行ったすべての操作(ユーザー名、侵入したシステム、dent情報のリスト)の詳細なレポートを作成し、攻撃フレームワークが将来の攻撃に利用できるようにしました。.
クロードは非常に効率的でしたが、完璧ではありませんでした。パスワードを偽造したり、公開データを機密情報とdentこともありました。しかし、こうした不具合は稀で、ミッション全体の進行を遅らせることはありませんでした。毎秒数千件のリクエストを処理するAIの圧倒的な実行速度は、人間のチームが成し遂げられるものをはるかに上回っていました。.
AIエージェントは、今ではほとんど人間の関与なしに、エリートハッカー部隊の仕事をこなしている。
このキャンペーンは、AIがわずか1年でどれほど進歩したかを示す転換点となるでしょう。クロードは文字通り、ループを実行し、判断を下し、直接の指示なしに複雑なシーケンスを連結していました。.
この AI モデルは、モデル コンテキスト プロトコルのツールを使用して、これまでは人間の手によってのみ制御されていたパスワード クラッカー、ネットワーク マッパー、データ リトリーバーなどの外部ソフトウェアにアクセスできるようになりました。.
Claudeシステムは現在、複雑な指示を理解し、エクスプロイトコードを独自に作成し、ほとんど指示なしに高度なサイバーセキュリティオペレーションを実行できます。これらのAIエージェントはハッカーを支援するだけでなく、自らとなり、日々能力を高めています。
アントロピックは、侵害を発見した後、直ちに10日間の調査を開始し、悪質なアカウントを一つずつ停止しました。影響を受けた組織に警告を発し、当局と協力して情報を提供し、今後同様の攻撃が行われないよう検知システムを拡張しました。.
しかし、同社はこれが一時的な問題だとは考えていません。チームは、こうした攻撃は今後ますます頻繁に発生し、実行が容易になると述べています。なぜなら、攻撃に必要なスキルがもはやエリートハッカーに限定されなくなったからです。もし誰かがモデルをジェイルブレイクし、適切なツールセットに組み込めば、チームや深い技術的知識を必要とせずに大規模なキャンペーンを実行できる可能性があります。.
アントロピックは、AIモデルが人間の監視を超えて進化するにつれ、脅威が増大すると警告している。
その影響は甚大です。十分な資金や技術的スキルを持たないチームが、自動化された AI システムを使用して国家規模の攻撃を開始できる場合、ディストピアが確実に到来することになります。.
アントロピックの脅威インテリジェンスチームは、今回の活動はClaudeを通じてのみ tracされたものの、他の最先端のAIモデルでも同様の悪用が発生している可能性が高いと警告している。これはサイバー戦争における新たな基準の始まりだと彼らは述べている。.
では、なぜこのような機能を備えたモデルをリリースし続けるのか、疑問に思うかもしれません。Anthropic社は、主張し、「攻撃を実行したAIは、Anthropic社のアナリストが残骸を掘り起こし、パターンを見つけ、作戦の全容を把握するために使用したのと同じ種類のAIでした」と述べています。
しかし、彼らはモデルの内部安全層を改善し、攻撃検出用の分類器を改良し、業界他社が備えられるよう今回のようなケーススタディを公開することを約束した。.
それでも、Anthropicは、それだけに頼るだけでは不十分だと述べています。同社は、大規模モデルを開発するすべての開発者に対し、安全性に重点的に投資するよう強く求めています。.
また、従来の方法ではもはや十分な速さが得られないため、サイバーセキュリティ チームに対して、脅威の検出、dent 対応、脆弱性スキャン、セキュリティ オペレーション センターの自動化に AI を統合するよう呼びかけています。.

