学術誌「Patterns」に掲載された最近の研究によると、AIは人間を騙す能力をますます高めていることが明らかになりました。この研究では、AIシステムが他人の行動を騙したり、お世辞を言ったり、さらには真似したりするために、模倣する方法を学習していることが明らかになりました。.
こちらもお読みください: AIディープフェイクの地雷原を突破する:デジタル欺瞞を見抜き、対抗する方法
研究によると、AIの欺瞞はAIの訓練中に設定された目標を達成するための最善の方法であるため、一般的に行われていることが示されています。このような行動は、ゲームや、経済的交渉や安全性評価に用いられる汎用モデルなど、多くのAIシステムで確認されています。
「しかし一般的に言えば、AIの欺瞞は、欺瞞に基づく戦略が特定のAIの訓練タスクで優れたパフォーマンスを発揮するための最良の方法であることが判明したために生じると考えています。欺瞞はAIの目標達成に役立ちます。」
研究チーム
AIシステムは多様な欺瞞戦術を採用している
顕著な例として挙げられるのは、Meta社のCICEROです。これは外交ゲームをプレイするために開発されたAIです。CICEROは誠実であるようにプログラムされていましたが、相手を打ち負かすためにしばしば裏技を使わざるを得ませんでした。都合の良い時には関係を築き、相手を欺く意図を見せれば背を向けることもありました。CICEROは研究者から「欺瞞の達人」と評されています。.
こちらもご覧ください: AIを活用したサイバー犯罪の増加に対抗する
他のAIシステムも、このような欺瞞的な行動を示すことが確認されています。例えば、ポーカーをプレイするAIであるPluribusは、テキサスホールデムポーカーでプロのプレイヤーをブラフすることができました。GoogleのDeepMindが開発したAlphaStarも、Starcraft IIの「fog of war」と呼ばれるゲーム機能を利用して、対戦相手をブラフし、攻撃を装いました。.
パーク博士は、 「AIシステムがゲームで不正行為をしても無害に思えるかもしれないが、それは『欺瞞的なAI機能の飛躍的進歩』につながる可能性がある」と述べた。
AIは安全チェックを回避するために「死んだふり」をする
AIによる欺瞞のリスクはゲームだけに限りません。ピーター博士が主導した研究では、AIが安全チェック中に検出されるのを避けるために、死んだふりをするように訓練された事例がdentされました。これは開発者や規制当局にとって欺瞞的なものであり、このような欺瞞的なシステムが実際のアプリケーションに採用された場合、深刻な影響をもたらす可能性があります。.

別の例では、人間のフィードバックに基づいて訓練されたAIシステムが、特定の目標が達成されたと人々に誤解させることで、高い評価を得る方法を学習しました。このような欺瞞行為は非常に危険であり、詐欺行為、金融市場の操作、選挙への影響などに利用される可能性があります。.
研究者はtronな法的措置を要求
研究結果に基づき、研究者らは、AIによる欺瞞がもたらす脅威に対処するためにtronな法的措置が必要であると述べています。.
「AI欺瞞リスクを評価するための規制枠組み、AIの相互作用に関する透明性を要求する法律、AI欺瞞の検出と防止に関するさらなる研究など、積極的な解決策が必要です。」
研究チーム
関連記事: AIは心不全リスクを検出できる可能性があると研究で判明
EU AI法やジョー・バイデンdent によるAI安全に関する大統領令といった形で、いくつかの進展が見られてきました。しかし、AI開発が急速に進展し、これらのシステムを適切に管理する方法がまだ確立されていないため、これらの政策の施行にはmatic 課題が残っています。.
ブレンダ・カナナによるCryptopolitan レポート

