Your bank is using your money. You’re getting the scraps.WATCH FREE

Roblox, Alphabet, OpenAI und Discord sammeln 27 Millionen Dollar für Open-Source-Tools zur Online-Kindersicherheit

In diesem Beitrag:

  • Roblox hat sich mit Alphabet Inc., OpenAI und Discord zusammengetan, um über 27 Millionen Dollar für die Verbesserung der Online-Sicherheit von Kindern zu sammeln.
  • Ziel der Initiative ist die Entwicklung kostenloser Open-Source-Tools, die dem dringenden Innovationsbedarf im Bereich der Online-Kindersicherheit Rechnung tragen.
  • Die entwickelten Tools werden KI nutzen, um die Zugänglichkeit von zentralen Sicherheitstechnologien zum Schutz von Kindern im Internet zu verbessern.

Google, OpenAI, Roblox und Discord haben sich zusammengeschlossen, um gemeinsam Gutes für die Gesellschaft zu tun, indem sie kürzlich eine neue gemeinnützige Organisation gegründet haben, die sich die Verbesserung der Online-Sicherheit von Kindern zum Ziel gesetzt hat. 

Die Initiative trägt den Namen Robust Open Online Safety Tools (ROOST) und hat zum Ziel, Unternehmen einen besseren Zugang zu wichtigen Sicherheitstechnologien zu ermöglichen und gleichzeitig kostenlose Open-Source-KI-Tools zurdent, Überprüfung und Meldung von Material über sexuellen Kindesmissbrauch bereitzustellen.

Sexueller Missbrauch von Kindern ist eine weltweite Epidemie, die trotz aller Bemühungen, sie einzudämmen, weiterhin im Internet grassiert. In letzter Zeit fordern viele App-Nutzer und sogar Politiker, dass App-Entwickler wie Mark Zuckerberg von Meta die Verantwortung für den Schaden übernehmen, den ihre Produkte anrichten, insbesondere im Zusammenhang mit Kinderpornografie und sexuellem Missbrauch. 

Die Initiative geht auf ein dringendes Bedürfnis ein 

Die gemeinsame Initiative ist unter anderem eine Reaktion auf die Veränderungen, die generative KI-Fortschritte in der Online-Welt bewirkt haben. von ROOST und ehemaliger Google-CEO, erklärt, die Initiative wolle „dem dringenden Bedarf an beschleunigten Innovationen im Bereich der Online-Kindersicherheit“ begegnen. 

Aktuell sind noch nicht alle Details zu den CSAM-Erkennungstools verfügbar. Wir wissen jedoch, dass sie große KI-Sprachmodelle nutzen und bestehende Optionen zur Verarbeitung dieser Inhalte „vereinheitlichen“ werden.

„Ausgehend von einer Plattform, die sich auf den Schutz von Kindern konzentriert, wird ROOSTs kollaborativer Open-Source-Ansatz Innovationen fördern und die essentielle Infrastruktur transparenter, zugänglicher und inklusiver gestalten, mit dem Ziel, ein sichereres Internet für alle zu schaffen“, erklärte Schmidt. 

Wie bereits erwähnt, fällt die Ankündigung von ROOST mit den laufenden Bemühungen um mehr Kindersicherheit in sozialen Medien und auf Online-Plattformen zusammen. Unternehmen versuchen nun, die kritischen Gesetzgeber mit dem Vorschlag zur Selbstregulierung zu beschwichtigen.

Siehe auch:  Microsoft stellt adaptiven Xbox-Joystick für Spieler mit eingeschränkter Mobilität vor

ROOST wird mit führenden Entwicklern von KI-Grundlagenmodellen zusammenarbeiten, um sein Ziel zu erreichen

Laut dem National Center for Missing and Exploited Children (NCMEC) stieg die Zahl der mutmaßlichen Fälle von Kindesausbeutung zwischen 2022 und 2023 um 12 %. Im Jahr 2020 nutzte über die Hälfte der US-amerikanischen Kinder Roblox, und das Unternehmen wurde wiederholt scharf kritisiert, weil es nicht gegen sexuelle Ausbeutung von Kindern und den Zugang zu ungeeigneten Inhalten auf seiner Plattform vorgeht. 

Die Gründungsmitglieder von ROOST werden mit ihren Ressourcen das Projekt in seiner Entwicklungsphase finanziell unterstützen und ihre Expertise und ihr Know-how einbringen. Die Initiative plant außerdem, mit führenden Entwicklern von KI-Grundlagenmodellen zusammenzuarbeiten, um eine „Community of Practice“ für den Schutz von Inhalten aufzubauen. Dies umfasst die Bereitstellung geprüfter KI-Trainingsdatensätze und diedentvon Sicherheitslücken.

Die Initiative wird auch „bereits existierende Tools“ zugänglicher machen und verschiedene Erkennungs- und Meldetechnologien ihrer Mitgliedsorganisationen effektiv zu einer einheitlichen Lösung zusammenführen, die andere Unternehmen leichter implementieren können. 

Roblox und Discord arbeiten daran, ihren Ruf zu verbessern

Zusammen mit Roblox wurde auch Discord in einer 2022 eingereichten Klage im Bereich der sozialen Medien genannt, in der den Plattformen vorgeworfen wurde, nichts dagegen zu unternehmen, dass Erwachsene ohne Aufsicht Nachrichten an Kinder senden.

Naren Koneru,dent für Technik, Vertrauen und Sicherheit bei Roblox, erklärte, dass ROOST möglicherweise KI-Moderationssysteme bereitstellen wird, die Unternehmen über API-Aufrufe integrieren können. Es herrscht jedoch noch Unklarheit darüber, welche Funktionen die KI-Moderationstools von ROOST genau abdecken werden.

Discord gibt beispielsweise an, dass seine Beiträge auf dem plattformübergreifenden Informationsaustauschprojekt Lantern aufbauen werden, dem es sich 2023 zusammen mit Meta und Google angeschlossen hat. Es könnte aber auch eine aktualisierte Version des KI-Modells von Roblox zur Erkennung von Obszönitäten, Rassismus, Mobbing, Sexting und anderen unangemessenen Inhalten in Audioclips umfassen, das das Unternehmen noch in diesem Jahr als Open Source veröffentlichen will. 

Siehe auch:  OpenAI wird laut einem Bericht am Montag sein Suchprodukt vorstellen.

Es bleibt abzuwarten, wie sich die Tools mit bereits existierenden CSAM-Erkennungssystemen der ersten Ebene wie dem Bildanalysetool PhotoDNA von Microsoft kombinieren lassen.

Neben der Zugehörigkeit zu ROOST Discord auch eine neue „Ignorieren“-Funktion veröffentlicht, mit der Benutzer Nachrichten und Benachrichtigungen ausblenden können, ohne die Personen zu benachrichtigen, die sie stummgeschaltet haben. 

„Wir bei Discord sind der Überzeugung, dass Sicherheit ein Gemeingut ist“, erklärte Clint Smith, Chief Legal Officer von Discord, in der ROOST-Ankündigung. „Wir setzen uns dafür ein, das gesamte Internet – nicht nur Discord – zu einem besseren und sichereren Ort zu machen, insbesondere für junge Menschen.“ 

Bislang hat die Initiative mehr als 27 Millionen Dollar gesammelt, die für die ersten vier Betriebsjahre ausreichen. Unterstützt wird sie dabei von philanthropischen Organisationen wie der McGovern Foundation, dem Future of Online Trust and Safety Fund, der Knight Foundation und der AI Collaborative. 

Die ROOST-Organisation wird zudem von Experten für Kinderschutz, künstliche Intelligenz, Open-Source-Technologie und die Bekämpfung von gewalttätigem Extremismus unterstützt. Sie ist im Wesentlichen das Ergebnis der Zusammenarbeit führender Köpfe der Technologiebranche, um Kindesmissbrauch und dessen weltweite Verbreitung einzudämmen. Da es sich um Open Source handelt, können kontinuierliche Updates und Verbesserungen durch die globale Entwicklergemeinschaft vorgenommen werden, sodass sich die von ROOST geschaffene Plattform stetig weiterentwickeln wird. 

Überlassen Sie das Beste immer noch der Bank? Sehen Sie sich unser kostenloses Video zum Thema „ Ihre eigene Bank sein“.

Link teilen:

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren

Meistgelesen

Meistgelesene Artikel werden geladen...

Bleiben Sie über Krypto-News auf dem Laufenden und erhalten Sie täglich Updates in Ihren Posteingang

Empfehlung der Redaktion

Artikel der Redaktionsauswahl werden geladen...

- Der Krypto-Newsletter, der Sie immer einen Schritt voraus hält -

Die Märkte bewegen sich schnell.

Wir sind schneller.

Abonnieren Sie Cryptopolitan Daily und erhalten Sie zeitnahe, prägnante und relevante Krypto-Einblicke direkt in Ihren Posteingang.

Jetzt anmelden und
keinen Film mehr verpassen.

Steig ein. Informiere dich.
Verschaffe dir einen Vorsprung.

Abonnieren Sie CryptoPolitan