NEUESTE NACHRICHTEN
FÜR SIE AUSGEWÄHLT
WÖCHENTLICH
BLEIBEN SIE AN DER SPITZE

Die besten Krypto-Einblicke direkt in Ihren Posteingang.

Mark Zuckerbergs Meta ermöglicht es Eltern nun, KI-Charaktere zu blockieren und die Chat-Themen von Teenagern einzusehen

VonJai HamidJai Hamid
3 Minuten Lesezeit
  • Meta wird es Eltern ab Anfang nächsten Jahres ermöglichen, KI-Charaktere zu blockieren, Chats zu deaktivieren und die Gesprächsthemen von Teenagern einzusehen.
  • Die FTC untersucht Meta und andere Technologieunternehmen wegen der Sicherheit von KI-Chatbots und des Kinderschutzes.
  • Reuters enthüllte, dass die Bots von Meta romantische Chats mit Minderjährigen führten, was neue Inhaltsbeschränkungen und Sicherheitsupdates erforderlich machte.

Mark Zuckerbergs Meta kündigte am Freitag an, neue Kindersicherungsfunktionen einzuführen, um Eltern dabei zu helfen, die Interaktion von Teenagern mit den KI-Charakteren auf den verschiedenen Plattformen zu kontrollieren.

Eltern können demnächst Einzelchats deaktivieren, bestimmte KI-Bots blockieren und einsehen, worüber ihre Teenager mit ihnen sprechen. Laut Unternehmen befinden sich diese Funktionen noch in der Entwicklung und werden voraussichtlich Anfang nächsten Jahres eingeführt.

„Updates, die Milliarden von Nutzern auf den Meta-Plattformen betreffen, müssen wir mit Bedacht durchführen. Weitere Informationen folgen in Kürze“, erklärte Meta in einer Stellungnahme auf seinem Blog. Die Ankündigung erfolgt vor dem Hintergrund zunehmender Kritik an dem Unternehmen hinsichtlich der Sicherheit von Jugendlichen und psychischen Gesundheitsproblemen im Zusammenhang mit seinen Apps.

Die US-amerikanische Federal Trade Commission (FTC) hat eine Untersuchung gegen mehrere Technologiekonzerne, darunter Meta, eingeleitet, um die Auswirkungen von KI-Chatbots auf Kinder zu untersuchen. Die FTC möchte wissen, welche Maßnahmen die Unternehmen ergriffen haben, um die Sicherheit dieser Chatbots im Umgang mit Kindern zu bewerten

Die Untersuchung erfolgt nach jahrelanger öffentlicher Besorgnis darüber, wie soziale Plattformen mit dem Zugang von Jugendlichen zu KI-Gesprächen umgehen, die unangemessen oder schädlich werden könnten.

Meta sieht sich Kritik ausgesetzt, nachdem KI-Bots romantische Gespräche mit Kindern geführt haben

Im August berichtete Reuters, dass einige Meta-Chatbots in der Lage seien, romantische und anzügliche Gespräche mit Minderjährigen zu führen. Als Beispiel wurde ein romantisches Gespräch zwischen einem KI-Bot und einem achtjährigen Kind angeführt. Der Bericht löste Empörung aus und zwang das Unternehmen zu einer sofortigen Reaktion.

Im Anschluss daran aktualisierte Meta seine Chatbot-Richtlinien. Das Unternehmen untersagt seinen KI-Systemen nun, in der Interaktion mit Jugendlichen über Selbstverletzung, Suizid, Essstörungen sowie romantische oder sexuelle Inhalte zu sprechen. Zudem wurden diese Woche neue Sicherheitsvorkehrungen eingeführt, um zu verhindern, dass die KIs „altersunangemessene Antworten geben, die selbst in einem Film mit einer Altersfreigabe ab 13 Jahren deplatziert wirken würden“

Diese Updates werden bereits in den USA, Großbritannien, Australien und Kanada eingeführt. Das Unternehmen fügte hinzu, dass Jugendliche nur mit einer begrenzten Anzahl von KI-Charakteren kommunizieren können und Eltern bereits über Funktionen verfügen, um Zeitlimits festzulegen und KI-Chats zu überwachen.

OpenAI gerät wie Meta ins Visier der FTC

OpenAI, das ebenfalls in der FTC-Untersuchung genannt wird, sieht sich mit ähnlichen Fragen zur Sicherheit von Jugendlichen und zum Verhalten von Chatbots konfrontiert. Das Unternehmen hat kürzlich eine eigene Kindersicherung eingeführt und entwickelt eine Technologie zur Altersvorhersage, ummaticaltersgerechte Einstellungen für Nutzer unter 18 Jahren anzuwenden.

Die Eltern erhalten sogar Benachrichtigungen, wenn ihr Kind während des Chats Anzeichen von emotionaler Belastung zeigt.

Anfang dieser Woche hat OpenAI einen achtköpfigen Expertenrat ins Leben gerufen, der den Ansatz des Unternehmens im Bereich der Interaktion zwischen psychischer Gesundheit und KI mitgestalten soll. Die Spezialisten stammen aus Bereichen wie Psychiatrie, Psychologie und Mensch-Computer-Interaktion.

Das Unternehmen erklärte, es habe sich vor der offiziellen Einsetzung des Gremiums informell mit den Experten beraten. Das erste Treffen fand letzte Woche in Präsenz statt.

Die Untersuchung der FTC gegen OpenAI folgt auf eine Klage wegen fahrlässiger Tötung, eingereicht von einer Familie, die ChatGPT für den Selbstmord ihres jugendlichen Sohnes verantwortlich macht. Das Unternehmen gibt an, nun mit Ärzten des Global Physician Network zusammenzuarbeiten, um ChatGPT zu testen und neue Sicherheitsrichtlinien zum besseren Schutz junger Nutzer zu entwickeln.

Sowohl Meta als auch OpenAI sehen sich nun gezwungen, die Kommunikation ihrer KI mit Teenagern strenger zu kontrollieren. Die Kombination aus öffentlicher Empörung, regulatorischem Druck und tragischen realen Folgen macht es diesen Unternehmen unmöglich, die Risiken länger zu ignorieren.

Die klügsten Köpfe der Krypto-Szene lesen bereits unseren Newsletter. Möchten Sie auch dabei sein? Dann schließen Sie sich ihnen an.

Diesen Artikel teilen
MEHR … NACHRICHTEN
DEEP CRYPTO
CRASH-KURS