Meta Platforms führt am Dienstag die Funktion „Teenager-Konten“ auf Facebook und Messenger ein. Diese Konten werden über strengere Datenschutzeinstellungen für die Nutzer verfügen.
Dies ist der jüngste Versuch, Kritiker zum Schweigen zu bringen, die behaupten, das soziale Netzwerk tue nicht genug, um junge Nutzer vor Online-Gefahren zu schützen.
Meta erweitert den Schutz von Jugendlichen durch strengere Kontrollen und Inhaltsfilter
Im Zuge der am Dienstag angekündigten Aktualisierung der Richtlinien dürfen Jugendliche unter 16 Jahren keine Live-Videos mehr ohne Zustimmung ihrer Eltern veranstalten oder Bilder, die Nacktheit enthalten könnten, über Direktnachrichten versenden.
Das Unternehmen erklärte, dass die im vergangenen Jahr auf Instagram eingeführten verbesserten Datenschutz- und Kindersicherungsfunktionen die Bedenken hinsichtlich der Zeit, die Teenager in sozialen Medien verbringen, ausräumen würden.
Mit Teenager-Konten sind Nutzer unter 18 Jahren vor sensiblen Inhalten geschützt, können bestimmte Konten nicht anschreiben und ihre Profile sind nicht öffentlich sichtbar. Während 16- und 17-Jährige diese Einstellungen selbst anpassen können, benötigen jüngere Teenager für Änderungen die Zustimmung ihrer Eltern.
Laut Meta haben 97 % der Jugendlichen im Alter von 13 bis 15 Jahren entschieden, diese Schutzfunktionen aktiviert zu lassen, und über 54 Millionen Nutzer verfügen derzeit über Teenager-Konten.
Wichtig ist, dass die speziell für Jugendliche entwickelten Inhaltsfilter von Meta die jüngsten Richtlinienänderungen außer Kraft setzen, die Hassrede in bestimmten Kontexten erlauben. Für Nutzer unter 18 Jahren bedeutet dies, dass Inhalte mit abwertender Sprache gegen Transgender- oder nicht-binäre Personen weiterhin blockiert bleiben.
„Es gibt keine Änderung in unserem Umgang mit Inhalten, die Kinder ausbeuten oder zu Selbstmord, Selbstverletzung oder Essstörungen anstiften, und auch unsere Richtlinien gegen Mobbing und Belästigung für Personen unter 18 Jahren bleiben unverändert“, sagte ein Sprecher von Meta.
Meta hat seine Bemühungen zum Schutz von Teenagern verstärkt, nachdem das Unternehmen jahrelang von Gesetzgebern, Eltern und Aufsichtsbehörden wegen seines unzureichenden Schutzes junger Nutzer im Internet intensiv kritisiert worden war.
Im vergangenen Jahr reichten mehr als 30 US-Bundesstaaten eine Klage gegen das Unternehmen ein und warfen ihm vor, junge Menschen über seine Plattformen auszubeuten.
Meta -Chef Mark Zuckerberg musste sich in einer Anhörung des US-Kongresses, die sich mit dem Schutz von Kindern vor sexuellen Übergriffen im Internet befasste, ebenfalls kritischen Fragen stellen. In einem vollbesetzten Saal entschuldigte er sich öffentlich bei den Familien von Kindern, die Opfer sexueller Ausbeutung in sozialen Medien geworden waren.
Richter lässt in wegweisendem Fall die Zulassung wichtiger Klagepunkte zu
Die US-Bezirksrichterin Yvonne Gonzalez Rogers wies auf eine 102-seitige Entscheidung , wonach viele Verbraucherschutzklagen, die von den Generalstaatsanwälten von 34 Bundesstaaten erhoben wurden, „zulässig“ seien.
Sie wies Metas Antrag auf Abweisung eines Teils der Klagen der Bundesstaaten gemäß dem Children's Online Privacy Protection Act (COPPA) zurück, der das Sammeln von Daten von Social-Media-Nutzern unter 13 Jahren ohne Benachrichtigung und Einholung der Zustimmung ihrer Eltern verbietet.
Meta beantragte die Abweisung dieser Klagen mit der Begründung, weder Facebook noch Instagram richteten sich an Kinder.
Meta argumentierte, dass Inhalte Dritter, die sich an Kinder richten, nicht dazu führen sollten, dass die Plattformen des Unternehmens als an Kinder gerichtet gelten. Richterin Gonzalez Rogers sah dies jedoch anders. Sie entschied, dass Inhalte, die von einer Plattform bereitgestellt werden – selbst wenn sie von Dritten veröffentlicht werden –, bei der Beurteilung, ob die Plattform oder Teile davon nach dem Gesetz an Kinder gerichtet sind, berücksichtigt werden können.
Die Richterin befand, dass Metas Design, Entwicklung und Implementierung bestimmter Produktfunktionen nach geltendem Bundes- und Landesrecht als unfair oder sittenwidrig angesehen werden könnten. Sie merkte jedoch auch an, dass Abschnitt 230 des Communications Decency Act – der Online-Plattformen vor Haftung für nutzergenerierte Inhalte schützt – Teile der Klage gegen das Unternehmen einschränkt.
Was die Verbraucherschutzansprüche der Bundesstaaten betrifft, so sind einige Facebook- und Instagram-Funktionen, die nach Ansicht der Bundesstaaten Kinder süchtig machen, gemäß Abschnitt 230 vor der Haftung für von Nutzern veröffentlichte Inhalte geschützt, schrieb Gonzalez Rogers.
Mit der Anfechtung dieser Merkmale sei sie bereits in einem damit zusammenhängenden Urteil aus dem Jahr 2023 zu dem Schluss gekommen, dass die Klagen direkt auf die Rolle der Plattformen als Herausgeber von Inhalten Dritter abzielen und gegen Abschnitt 230 verstoßen.
Zu den geschützten Funktionen gehören unendliches Scrollen und automatische Wiedergabe, kurzlebige Inhalte, störende audiovisuelle und Vibrationsbenachrichtigungen und -alarme sowie die Quantifizierung und Anzeige von „Likes“
Andere Funktionen, wie etwa Filter zur Veränderung des Aussehens, die die auf der Plattform verbrachte Zeit einschränken, und die Funktion für mehrere Konten auf Instagram, fallen jedoch nicht unter Abschnitt 230, da sie nicht die Veröffentlichung von Inhalten Dritter verändern, sagte Gonzalez Rogers und bezog sich dabei erneut auf ihr Urteil aus dem Jahr 2023.

