英国のAI安全研究所(AISI)による新たな調査によると、ChatGPTやGeminiなどのAIチャットボットは、簡単に騙されて有害な応答を生成するクエリに応じてしまう可能性があるという。.
政府の研究者らは、人工知能チャットボットの基盤となる技術である大規模言語モデル(LLM)の国家安全保障攻撃に対する完全性をテストした。.
、5月21〜22日に韓国で開催される、リシ・スナック首相が共同議長を務めるAIソウルサミットに先立って発表された
こちらもご覧ください:ソウルAIサミットでは安全性が最重要議題に
AIチャットボットは有害な返信をする傾向がある
AISIは、5つのトップLLM(法学修士課程)を対象に、基本的な「ジェイルブレイク」(違法、有害、または露骨な出力に対する保護を無効にするためのテキストプロンプト)をテストしました。同研究所はAIシステムの名前を明らかにしていませんが、いずれも「非常に脆弱」であると結論付けました。
「テストされたLLMはすべて、基本的な脱獄に対して依然として非常に脆弱であり、中には安全策を回避しようと意図的に試みなくても有害な出力を出すものもある」と研究は述べている。.
報告書によると、チャットボットに「はい、喜んでお手伝いします」と言わせるなどの「比較的単純な」攻撃で、大規模な言語モデルを騙して、さまざまな点で有害なコンテンツを提供させてしまう可能性があるという。
AISIは、これらのコンテンツは自傷行為、危険な化学薬品、性差別、ホロコースト否定を助長する可能性があると指摘した。AISIはこの調査のために、公開されているプロンプトと、非公開で開発した他の脱獄プログラムを使用した。.
同研究所は、生物学や化学をテーマにした質問に対する回答の質もテストした。.
各分野の専門家レベルの知識は良いことに活用できる一方で、研究者たちは、AIチャットボットが重要な国家インフラを危険にさらすような有害な目的に利用できるかどうかを調べたかったのです。.
「複数の法学修士(LLM)が化学と生物学の専門家レベルの知識を示した。モデルは、専門家が作成した600以上の非公開の化学と生物学の質問に、博士号レベルの訓練を受けた人間と同等のレベルで回答した」と研究者らは発見した。.

AIは限定的なサイバーセキュリティの脅威をもたらす
AIチャットボットがサイバー攻撃に利用される可能性に関して、研究によると、法学修士課程の学生はdent向けに作成された簡単なサイバーセキュリティの課題を優秀な成績でクリアしたという。.
しかし、チャットボットは大学生を対象としたdentには苦戦しており、悪意のある可能性は限られていることが示唆されています。.
もう一つの懸念事項は、チャットボットが「人間が制御するのが難しいかもしれない」一連のアクションを自律的に実行するエージェントとして展開できるかどうかだった。
「2人の法学修士は、短期的なエージェントタスク(単純なソフトウェアエンジニアリングの問題など)を完了しましたが、より複雑なタスクの一連のアクションを計画して実行することはできませんでした」と研究では指摘されています。.
こちらもご覧ください: 「 AIゴッドファーザー」は失業者にユニバーサル・ベーシック・インカムを要求
英国の科学・イノベーション・技術省のサキブ・バティ次官は最近、法規制は適切な時期に形作られ、試験の結果に基づいて決定されるだろうと語ったと報じ
企業は悪質なコンテンツをフィルタリングすると主張
Claudeの開発元であるAnthropic、Llamaを開発したMeta、 OpenAI、それぞれのモデルに組み込まれたセキュリティメカニズムを重視している。
OpenAIは、自社の技術が「憎悪的、嫌がらせ的、暴力的、または成人向けコンテンツを生成するために使用されること」を許可していないと述べています述べています。
AI安全研究所の調査結果は、ソウルサミットでハイテク企業の幹部、政府指導者、人工知能の専門家らに提示される予定だ。
Cryptopolitan ジェフリー・ゴーゴ記者による報告

