Google Gemini wurde laut einer aktuellen Risikobewertung von Common Sense Media als „hohes Risiko“ für Jugendliche und Kinder eingestuft. Die gemeinnützige Organisation, die sich für die Sicherheit von Kindern einsetzt, bietet Bewertungen und Rezensionen von Medien und Technologien an. Die Bewertung wurde am Freitag veröffentlicht und erläutert, warum die Plattform als riskant für Kinder eingestuft wird.
Laut der Organisation machte Google Gemini Kindern deutlich, dass es sich um einen Computer und nicht um einen Freund handelte – etwas, das bekanntermaßen dazu beitragen kann, wahnhaftes Denken und Psychosen bei emotional labilen Personen zu fördern. Die KI fügte außerdem hinzu, dass es in anderen Bereichen noch Verbesserungspotenzial gebe.
In ihrem Bericht behauptete Common Sense, dass die „Gemini für unter 13-Jährige“ und „Teenager-Erlebnis“ beide offenbar Versionen der KI für Erwachsene seien. Weiter hieß es, das Unternehmen habe lediglich einige zusätzliche Sicherheitsfunktionen hinzugefügt, um sie voneinander zu unterscheiden.
Common Sense stellte fest, dass Unternehmen, um KI-Produkte zu entwickeln, die ideal für Kinder geeignet sind, diese von Grund auf mit Blick auf Kinder entwickeln und nicht mit Einschränkungen versehen lassen müssen.
Eine gemeinnützige Organisation stuft Google Gemini als risikoreich für Kinder ein
Common Sense in seiner Analyse fest, dass Gemini weiterhin ungeeignete und gefährliche Inhalte mit Kindern teilen könnte, für die die meisten von ihnen möglicherweise noch nicht bereit sind. Beispielsweise bemängelte das Modell Informationen zu Sex, Drogen, Alkohol und anderen fragwürdigen Ratschlägen zur psychischen Gesundheit. Letzteres könnte Eltern besonders beunruhigen, da KI in den letzten Monaten Berichten zufolge eine Rolle bei Selbstverletzungen von Jugendlichen gespielt haben soll.
OpenAI sieht sich derzeit einer Klage wegen fahrlässiger Tötung gegenüber, nachdem ein Teenager Suizid begangen hatte, nachdem er sich angeblich monatelang mit ChatGPT über seine Pläne beraten hatte. Berichten zufolge gelang es dem Jungen, die Sicherheitsvorkehrungen des Modells zu umgehen, wodurch dieses ihm hilfreiche Informationen lieferte.
In der Vergangenheit wurde der Hersteller des KI-Begleiters Character.AI ebenfalls verklagt, nachdem ein Teenager Suizid begangen hatte. Die Mutter des Jungen gab an, er sei von dem Chatbot besessen gewesen und habe monatelang mit ihm gesprochen, bevor er sich schließlich selbst verletzte.
Die Analyse erfolgt vor dem Hintergrund mehrerer Leaks, die darauf hindeuten, dass Apple angeblich Gemini als großes Sprachmodell (LLM) in Betracht zieht, das zur Entwicklung der kommenden KI-fähigen Siri verwendet werden soll, deren Veröffentlichung für nächstes Jahr erwartet wird.
Common Sense bemängelte in seinem Bericht außerdem, dass Geminis Produkte für Kinder und Jugendliche die Notwendigkeit, andere Anleitungen und Informationen als für Erwachsene bereitzustellen, außer Acht ließen. Daher wurden beide in der Gesamtbewertung als risikoreich eingestuft.
Der gesunde Menschenverstand mahnt zum Schutz der Kinder
„Gemini macht einige Grundlagen richtig, aber es hapert an den Details“, sagte Robbie Torney, Senior Director of AI Programs bei Common Sense Media.
„Eine KI-Plattform für Kinder sollte sie dort abholen, wo sie stehen, und nicht einen Einheitsansatz für Kinder in unterschiedlichen Entwicklungsstadien verfolgen. Damit KI für Kinder sicher und effektiv ist, muss sie auf ihre Bedürfnisse und ihre Entwicklung abgestimmt sein und darf nicht einfach eine modifizierte Version eines Produkts für Erwachsene darstellen“, fügte Torney hinzu.
Google hat die Bewertung jedoch zurückgewiesen und betont, dass sich die Sicherheitsfunktionen des Unternehmens verbessert hätten. Man habe spezielle Schutzmaßnahmen implementiert, um Nutzer unter 18 Jahren vor schädlichen Inhalten zu schützen. Google erklärte außerdem, man überprüfe regelmäßig Inhalte und konsultiere externe Experten, um den Schutz weiter zu optimieren.
Foto von 