最近の調査で、AIチャットボットが2024年の選挙に関して虚偽の情報や誤解を招く情報を拡散しているという憂慮すべき傾向が明らかになった。この事実は、AI Democracy Projectsと非営利メディア組織であるProof Newsが共同で実施した調査によるものだ。調査結果は、AIが政治的議論において重要な役割を果たし続ける中で、規制による監視が喫緊の課題であることを浮き彫りにしている。.
危機的な状況における誤報
この研究は、AIが生成するこうした不正確な情報が、米国大統領予備dentという重要な時期に発生していることを指摘している。選挙関連の情報源としてAIを利用する人が増えている中で、誤ったデータの拡散は特に懸念される。この研究では、OpenAIのChatGPT-4、MetaのLlama 2、AnthropicのClaude、GoogleのGemini、そしてフランス企業のMistralのMixtralなど、様々なAIモデルをテストした。これらのプラットフォームは、有権者に誤った投票所、違法な投票方法、虚偽の登録期限など、様々な誤情報を提供していることが判明した。.
挙げられた憂慮すべき例の一つは、Llama 2がカリフォルニア州の有権者はテキストメッセージで投票できると主張したことだが、これは米国では違法な方法である。さらに、テストされたAIモデルのいずれも、テキサス州の投票所でMAGAハットなどの選挙運動ロゴ入りの服装が禁止されていることを正しくdentなかった。このような虚偽情報の広範な拡散は、有権者を誤解させ、選挙プロセスを損なう可能性がある。.
業界の反応と世間の懸念
AIによる誤情報の拡散は、テクノロジー業界と一般市民の両方から反応を引き起こしている。一部のテクノロジー企業は誤りを認め、修正に取り組むことを表明している。例えば、Anthropicは選挙に関する正確な情報を含むAIツールのアップデート版をリリースする予定だ。OpenAIもまた、ツールの利用方法の変化に合わせてアプローチを継続的に改善していく意向を示している。しかし、Metaが調査結果を「無意味」と一蹴したことは物議を醸し、テクノロジー業界が誤情報の抑制に真剣に取り組んでいるのかという疑問を投げかけている。.
国民の懸念も高まっている。AP通信とNORC公共問題調査センター、シカゴ大学ハリス公共政策大学院が実施した調査によると、選挙期間中にAIツールが虚偽情報や誤解を招く情報の拡散に寄与するのではないかという懸念が広く蔓延していることが明らかになった。こうした懸念は、GoogleのAI「Gemini」が歴史的に不正確で人種差別的な画像を生成したといった最近のdentによってさらに強まっている。.
規制と責任を求める声
この研究結果は、政治の場でのAI利用を規制するための立法措置が喫緊に必要であることを強調している。現状では、政治におけるAIを規制する具体的な法律がないため、テクノロジー企業は自主規制に頼らざるを得ず、その結果、情報の正確性に重大な欠陥が生じている。研究発表の約2週間前、テクノロジー企業は、合法的な投票手続きについて有権者を誤解させるような現実的なコンテンツを生成するツールの不具合を防ぐための対策を自主的に講じることに合意した。しかし、最近の誤りや虚偽の情報は、こうした自主的な措置の有効性に疑問を投げかけている。.
AIが政治分野を含む日常生活のあらゆる側面に浸透し続けるにつれ、包括的かつ強制力のある規制の必要性がますます明らかになってきている。これらの規制は、特に選挙のような重要な民主的プロセスに関わる場合、AIが生成するコンテンツの正確性を確保することを目的とするべきである。業界の責任追及と規制による監視を組み合わせることによってのみ、情報源としてのAIに対する国民の信頼を回復し、維持することができる。.
選挙に関する虚偽情報を拡散するAIチャットボットに関する最近の研究は、政治分野における規制されていないAIの潜在的な危険性に対する警鐘となる。テクノロジー企業がこれらの問題への対処に取り組む中で、政府による監視の役割を過小評価してはならない。選挙関連情報の正確性を確保することは、民主主義の価値観とプロセスを維持する上で極めて重要である。.

