サイバー犯罪者は人工知能(AI)を駆使し、より巧妙な計画を実行しています。彼らは、退職金から企業秘密まで、あらゆるものを標的にしており、その手口はますます見破られにくくなっています。.
オンラインショッピングの顧客に合わせて広告をカスタマイズするのと同じテクノロジーが、悪意のある人物によって個人情報の収集とカスタム詐欺の迅速な実行に利用されています。本当に速いです。.
Anthropic、OpenAI、Googleといった大手AI企業は、犯罪者がこれらの企業のプラットフォームを悪用し、複雑なフィッシング攻撃を仕掛けたり、有害なソフトウェアを開発したり、様々なデジタル攻撃を実行したりしていると報告しています。セキュリティ専門家は、犯罪者が企業幹部の偽の音声・動画クリップを作成し、従業員から機密情報を引き出していると警告しています。.
企業や政府機関は近い将来、コンピューターネットワークの弱点を見つけ出し、ほとんど人間の助けを借りずに攻撃を計画し実行できる AI 搭載システムの群れに直面することになるかもしれない。.
テクノロジーは犯罪者のオンライン活動のあり方を変えています。独立dent テクノロジー調査機関であるデータ&ソサエティの研究責任者であるアリス・マーウィック氏は、ウォール・ストリート・ジャーナル紙に対し、最も大きな変化は規模とリーチにあると述べています。「真の変化は範囲と規模です。詐欺はより大規模になり、より標的を絞り、より説得力のあるものになっています。」
ブライアン・シンガーはカーネギーメロン大学の博士dent 学生です。彼は、大規模言語モデルがサイバー攻撃と防御にどのように利用されているかを研究しています。彼の推定によると、現在、世界中のスパムメールとフィッシングメールの半分から4分の3はAIシステムから発信されています。.
攻撃自体もより信憑性を持つようになってきています。企業のコミュニケーションを訓練したAIシステムは、自然で企業のスタイルに合った何千ものメッセージを生成できます。幹部の文章を模倣したり、公的記録にある最近のニュースに言及したりします。.
この技術は、海外の詐欺師が、これまでは詐欺の手口を露呈させていた言語の誤りを隠すのにも役立っています。犯罪者は 偽の動画やコピーした音声。また、同じ偽のdent複数の人物を同時に狙うことも可能になっています。
Google脅威インテリジェンスグループのチーフアナリスト、ジョン・ハルトキスト氏は、この大きな変化を「大規模な信頼性」と表現しています。
悪意のある人物は標的の選定も巧妙化しています。AIを使ってソーシャルメディアを閲覧し、人生における大きな困難に直面している人々を見つけ出します。離婚、家族の死、失業、そして恋愛詐欺、投資詐欺、偽の求人広告に引っかかりやすい状況などです。.
ダークウェブ市場は参入障壁を下げる
サイバー犯罪への参入障壁は低下している。闇市場で 販売 、犯罪行為に利用されるAIツールが月額わずか90ドルで
これらのプラットフォームにはそれぞれ異なる価格帯とカスタマーサポートが用意されていると彼は述べた。「開発者は、段階的な価格設定とカスタマーサポートを備えた攻撃プラットフォームのサブスクリプションを販売しています。」
これらのサービスは、WormGPT、FraudGPT、DarkGPTといった名前で呼ばれています。有害なソフトウェアやフィッシングキャンペーンを作成する可能性があります。中には、ハッキング技術に関する教材を提供しているものもあります。.
マーガレット・カニンガム氏は、セキュリティ企業DarktraceのセキュリティおよびAI戦略dent です。彼女は、それは簡単だと言います。「コードの書き方を知る必要はありません。ツールがどこにあるかを知るだけでいいのです。」
最近、 vibevibevibe vibevibevibevibe vibevibeハッキング」と呼ばれる技術が開発されている。これは、犯罪を企む者が、闇市場から悪意のあるプログラムを購入する代わりに、AIを使って独自の悪意のあるプログラムを作成できるようにするものだ。Anthropic社は 明らかにした 。
犯罪行為自体が変化しています。専門家によると、サイバー犯罪は長年にわたり、ビジネス市場のような様相を呈してきました。典型的なランサムウェア攻撃には、様々なグループが関与していました。企業ネットワークに侵入し、アクセス権限を販売するアクセスブローカー。システム内を移動してデータを盗み出す侵入チーム。そして、マルウェアを配布し、交渉を仲介し、金銭を分配するランサムウェア・アズ・ア・サービス(RaaS)プロバイダー。.
スピードと自動化が犯罪ネットワークを再構築
AIは、 速度、規模、可用性を向上させた。これまで技術的な知識を持つ人が行っていた作業は、今では自動的matic。これにより、これらのグループはより少ない人員で、より少ないリスクで、より高い利益を上げることができる。「これは産業化の次の段階と考えてください。AIは、より多くの熟練労働者を必要とせずにスループットを向上させます」とクリスティンは説明する。
AIは完全に独力で攻撃を仕掛けられるだろうか?まだ無理だ。専門家は現状を、完全自動運転車の開発に例えている。最初の95%は達成されている。しかし、最後の段階、つまりいつでもどこでも自動運転で走行できる車を実現するには、まだ手が届かない。.
研究者たちは、実験室環境でAIのハッキング能力をテストしている。カーネギーメロン大学の研究チームは、Anthropicの支援を受け、 を再現した 。カーネギーメロン大学のCyLabセキュリティ・プライバシー研究所でこの研究を主導したシンガー氏は、これを「大きな飛躍」と呼んでいる。
犯罪者はAIを悪用して悪質な目的に利用します。しかし、AI企業は、同じツールが組織のデジタル防御強化にも役立つと主張しています。.
AnthropicとOpenAIは、犯罪者が悪用する可能性のある脆弱性を見つけるためにソフトウェアコードを継続的に検査できるAIシステムを構築しています。ただし、修正は依然として人間の承認が必要です。スタンフォード大学の研究者が最近開発したAIプログラムは、ネットワーク内のセキュリティ問題の探索において、一部の人間のテスターよりも優れたパフォーマンスを発揮しました。.
AIでさえすべての侵害を阻止できるわけではない。だからこそ、組織は攻撃中でも機能し続ける強固なネットワークの構築に注力する必要がある、とハルトキスト氏は言う。.

