コモンセンス・メディアが最近実施したリスク評価によると、Google Geminiは10代や子供にとって「高リスク」と分類された。子供の安全に焦点を当てた非営利団体である同団体は、メディアやテクノロジーの評価とレビューを行っている。同団体は金曜日にレビューを発表し、このプラットフォームが子供にとって危険であると分類した理由を詳しく説明した。.
同団体によると、グーグル・ジェミニは子供たちに、自分はコンピューターであり友達ではないと明確に伝えたという。これは、感情的に脆弱な人々の妄想的思考や精神病を助長する原因となっているとされている。また、同AIは他の面でも改善の余地があると付け加えた。.
コモンセンスは報告書の中で、 ジェミニは、内部のAIの大人向けバージョンに見えると主張した。同社は、これらのモデルを差別化するために、ジェミニにいくつかの安全機能を追加しただけだと付け加えた。
Common Sense は、企業が子供向けの理想的な AI 製品を作るには、最初から子供向けに設計する必要があり、制限を加えて調整してはならないと指摘した。.
非営利団体がGoogle Geminiを子供にとって危険と認定
Common Senseは分析の中で、 Geminiが依然として不適切で危険なコンテンツを子供たちと共有する可能性があることを明らかにし、子供たちの多くはまだこれらのコンテンツを受け入れる準備ができていない可能性があると指摘した。例えば、このモデルは性行為、薬物、アルコール、その他の危険なメンタルヘルスに関するアドバイスに関する情報を生成していたと指摘した。後者は、ここ数ヶ月、AIが10代の若者の自傷行為に関与しているとの報告があるため、特に親にとって懸念される可能性がある。
OpenAIは現在、10代の少年が数ヶ月間ChatGPTに自身の計画について相談した後に自殺した事件で、不法死亡訴訟に直面している。報道によると、少年はモデルの安全ガードレールを回避し、モデルが彼を助ける情報を提供できたという。.
過去には、AIコンパニオンを開発するCharacter.AIも、10代の少年が自殺した事件で訴訟を起こされました。少年の母親は、少年がチャットボットに夢中になり、何ヶ月も話しかけ続けた末、最終的に自傷行為に及んだと主張しています。.
この分析は、Appleが来年リリース予定のAI対応Siriを動かす大規模言語モデル(LLM)としてGeminiを検討して
Common Senseのレポートでは、Geminiの子供・ティーン向け製品も、大人向けとは異なるガイダンスや情報を提供する必要性を無視していると指摘されています。その結果、両製品とも総合評価で高リスクと評価されました。.
常識は子供たちを守る必要性を訴える
「ジェミニは基本的な部分では正しいが、細かい部分でつまずいている」とコモンセンスメディアのAIプログラム担当シニアディレクター、ロビー・トーニー氏は言う。.
「子供向けのAIプラットフォームは、発達段階の異なる子供たちに画一的なアプローチをするのではなく、子供たちの現状に合わせたものでなければなりません。AIが子供たちにとって安全かつ効果的であるためには、大人向けに作られた製品の単なる改良版ではなく、子供たちのニーズと発達を考慮して設計されなければなりません」とトーニー氏は付け加えた。.
しかし、Googleは安全機能の改善を理由に、この評価に反論した。同社は、18歳未満のユーザーを有害な出力から守るための具体的な安全対策を講じていると述べた。また、保護機能の向上のため、項目を精査し、外部の専門家と協議していると述べた。.

