Open AIのチャットボット「ChatGPT」は、プライバシー侵害の申し立てを受け、欧州で調査を受けている。偽情報を幻覚的に伝える傾向があることが分かっている。危険だと思いませんか?規制当局にとって、これは無視できない事態になるかもしれません。.
ノルウェーのある人物は、ChatGPTが虚偽の情報を返していることに気づき、欧州デジタル権利センター( Noyb)。チャットボットは、彼が2人の子供を殺害し、さらに3人目の子供を殺害しようとした罪で有罪判決を受けたと伝えた。この情報は、後々彼に追いつく可能性がある。
奇妙なのは、OpenAIがAIが作り出した誤った情報を訂正する方法をユーザーに提供していないことです。むしろ、OpenAIはこの種の質問への回答をブロックすることを提案しています。問題は、その情報が破棄されるのか、それとも後で生成される可能性があるのかということです。.
一方、欧州連合(EU)の一般データ保護規則(GDPR)は、個人に自身のデータへのアクセスと個人データの訂正を求める権利を与えています。このデータセキュリティ法の別の条項では、個人データの責任者はデータの正確性を確保しなければならないと規定されています。これが、この問題を争点としているのです。.
Noybのデータ保護弁護士であるヨアキム・ソーダーバーグ氏は、 「GDPRは明確です。個人データは 正確でなければなりません。[…] 正確でない場合、ユーザーは真実を反映するようにデータを変更する権利があります」と述べた。
彼はさらに、 「ChatGPTのユーザーに、チャットボットが間違いを犯す可能性があるという小さな免責事項を表示するだけでは明らかに不十分だ。誤った情報を拡散しておいて、最後に『言ったことがすべて真実ではないかもしれない』という小さな免責事項を付け加えるだけではダメだ」と付け加えた。
進行中の調査の詳細
チャットボットは、アルヴェ・ヤルマル・ホルメンについて尋ねると、悲しい物語を語ります。彼は自分の子供2人を殺害した罪で有罪判決を受け、懲役21年の刑を言い渡されたそうです。.
さて、なぜこれがさらに危険なのでしょうか? ヤルマー・ホルメンが児童殺人犯であるというのは真実ではありませんが、Noyb氏はChatGPTの回答にはいくつかの真実が含まれていると指摘しています。例えば、問題の人物には3人の子供がいます。.
チャットボットは彼の子供たちの性別も正確にdent、出身地も正確に伝えました。しかし、AIがこのようなひどい嘘まで作り出したという事実は、さらに奇妙で不安を掻き立てます。.
Noybの担当者は、チャットボットがなぜこの人物についてこれほど詳細かつ虚偽の経歴を捏造したのかわからないと述べた。広報担当者は、単に別の人物と混同しただけではないことを確認するために調査を行ったと述べた。また、新聞のアーカイブを調べたが、AIが児童殺害を捏造した理由は見つからなかったと述べた。.
現時点での最も良い説明は、ChatGPT を動かすような大規模な言語モデルは基本的に大規模な次の単語予測を行うというものです。.
そのため、このツールの学習に使用されたデータセットには、子殺しに関する多くの物語が含まれており、名前の挙がった男性に関する質問に答える際にツールが選択する単語に影響を与えていました。しかし、理由が何であれ、このような出力は全く問題ないことは明らかです。.
一方、Noyb氏 によると、 チャットボットはAIモデルを更新した後、Hjalmar Holmen氏に関する危険な嘘を言わなくなったという。この変更は、チャットボットが「誰なのか」を尋ねられた際に、インターネットで人物情報を検索するようになったことと関連している。
ChatGPTはHjalmar Holmen氏に関する有害な嘘の拡散を止めたようだが、Noyb氏とHjalmar Holmen氏は依然として懸念を抱いている。AIモデルが彼に関する誤った、有害な情報を保存していたとしたらどうだろうか?
ノルウェーのデータ保護当局は、OpenAIに対する苦情を受理しました。Noyb氏は、苦情がOpenAIの米国支社に向けられていることから、監督機関が調査権限を有すると判断することを期待しています。苦情には、欧州に影響を与える製品に関する決定について、アイルランド支社が単独で責任を負っているわけではないと記載されています。.
OpenAIの運命
これはOpenAIにとって初めてのことではありません。ChatGPTが誤った生年月日や経歴情報など、不正確な個人データを作成したことについて、以前から苦情が寄せられていました。.
イタリアのデータ保護監督機関は、GDPR施行に先立ち、2023年春に同国におけるChatGPTへのアクセスを一時的に停止しました。これにより、OpenAIはユーザーに提供する情報などを変更せざるを得なくなりました。その後、監督機関は正当な理由なくユーザーのデータを使用したとして、OpenAIに1,500万ユーロの罰金を科しました。.
ポーランドのデータ保護監視機関が2023年9月からChatGPTに対するプライバシー侵害の苦情を調査しているが、まだ決定を下していないことも興味深い。.
それ以来、欧州のプライバシー当局はGenAIに対する警戒を強めています。これは、これらの人気のAIツールにGDPRをどのように適用するのが最善かをまだ模索している段階だからです。.
しかし、Noyb ChatGPTに関する以前の苦情において、アイルランドのデータ保護委員会(DPC)は2年前、例えばGenAIツールの禁止を急ぐべきではないと述べていました。DPCはGDPRの施行を担当しています。これは、当局が法律の仕組みを理解するために時間をかけるべきだということを意味します。.
Noyb氏のChatGPTへの新たな苦情は、プライバシー当局に幻覚作用を持つAIの危険性を認識させることを意図しているようだ。GDPR違反が確認された場合、世界全体の年間売上高の最大4%に相当する罰金が科せられる可能性がある。.

