Die Datenschutzbehörde Hongkongs hat LinkedIn-Nutzer aufgefordert, ihre Datenschutzeinstellungen zu überprüfen. Berichten zufolge wird der Berufsnetzwerkriese ab kommenden Montag wieder personenbezogene Daten zur Entwicklung von KI-Modellen nutzen.
Das Büro des Datenschutzbeauftragten für personenbezogene Daten wies darauf hin, dass LinkedIn bestätigt hat, ab dem 3. November personenbezogene Daten zum Trainieren seiner generativen KI-Modelle zu verwenden.
„Die Datenschutzbeauftragte für personenbezogene Daten, Ada Chung Lai-ling, erinnert die LinkedIn-Nutzer daran, die Änderungen in der Datenschutzrichtlinie von LinkedIn zu beachten und deren relevanten Inhalt zu verstehen, insbesondere diejenigen, die sich auf die Verwendung personenbezogener Daten der Nutzer zum Trainieren generativer KI-Modelle beziehen, um entscheiden zu können, ob sie einer solchen Verwendung zustimmen“, heißt es .
Die Hongkonger Aufsichtsbehörde übt Druck auf LinkedIn aus, die Datenkontrolle im KI-Training zu verschärfen
LinkedIn kündigte bereits im September 2025 Pläne an, Mitgliederprofile, Beiträge, Lebensläufe und öffentliche Aktivitäten zum Trainieren seiner Modelle für künstliche Intelligenz zu nutzen.
Die professionelle Netzwerkplattform und Jobbörse bestätigte, dass Daten von Mitgliedern aus Großbritannien, der Europäischen Union, dem Europäischen Wirtschaftsraum, der Schweiz, Kanada und Hongkong einbezogen werden.
Zunächst schritt die Datenschutzbehörde Hongkongs ein und stoppte Ende 2024 die Nutzung dieser Daten durch LinkedIn, nachdem das Unternehmen seine Datenschutzrichtlinie überarbeitet hatte und Bedenken hinsichtlich der standardmäßigen Opt-in-Einstellung für Hongkonger Nutzer geäußert wurden.
Die Aufsichtsbehörde erklärte, sie habe den Dialog mit LinkedIn von Oktober 2024 bis April dieses Jahres fortgesetzt. Seitdem hat LinkedIn zugesichert, dass Nutzer in Hongkong weiterhin die Kontrolle darüber behalten, wie ihre Daten für das KI-Training verwendet werden, und dass die gesamte Datenverarbeitung der Datenschutzverordnung (Personal Data (Privacy) Ordinance) entspricht.

Zu diesem Zweck verwendet LinkedIn detaillierte Informationen aus Nutzerprofilen und öffentlich auf LinkedIn veröffentlichten Inhalten. Das Unternehmen versichert den Nutzern, dass private Nachrichten nicht in die Daten einbezogen werden. Nutzer unter 18 Jahren werden jedoch vom KI-Training ausgeschlossen.
Die Aufsichtsbehörde wies außerdem darauf hin, dass Nutzer, die der Datennutzung widersprechen möchten, in ihren Kontoeinstellungen den Bereich „Datenschutz“ aufrufen und dort unter „Daten zur Verbesserung generativer KI“ den entsprechenden Schalter auswählen sollten. Anschließend sollten sie die Option „Meine Daten für das Training von KI-Modellen zur Inhaltserstellung verwenden“ deaktivieren.

Die Aufsichtsbehörde erklärte außerdem, sie werde die Situation weiterhin beobachten, um den Schutz der personenbezogenen Daten der Nutzer in Hongkong zu gewährleisten. Dieser Ansatz entspricht einem breiteren Trend bei Social-Media-Plattformen.
Wie Cryptopolitan berichtet Cryptopolitan vergangenen Jahr einen ähnlichen Schritt für Facebook und Instagram unternommen und die Praxis nach Abschluss einer regulatorischen Überprüfung wieder aufgenommen.
KI-Modellen gehen die Trainingsdaten aus
LinkedIn plant, Nutzerdaten zum Zweck des KI-Trainings mit Microsoft und dessen Tochtergesellschaften zu teilen. Microsoft hat erhebliche Investitionen in OpenAI , den Entwickler von ChatGPT, getätigt.
Diese Entwicklung folgt auf die Aussage der Datenchefin von Goldman Sachs, dass KI-Modelle wie OpenAIs ChatGPT und Googles Gemini ihre Trainingsdaten erschöpft haben. Neema Raphael, Chief Data Officer und Leiterin der Datenentwicklung des Bankenriesen, erklärte, dieses Problem könne die Entwicklung künstlicher Intelligenz hemmen.
OpenAI-Mitbegründer Ilya Sutskever sagte letztes Jahr, dass der Mangel an Trainingsdaten das Ende der rasanten Entwicklung der KI bedeuten würde.
Der Mangel an neuen Daten könnte KI-Unternehmen dazu zwingen, von den aktuellen Trainingsmodellen abzurücken und sich stattdessen auf handlungsfähigere künstliche Intelligenz zu konzentrieren. KI-Agenten werden bereits von den meisten großen KI-Firmen entwickelt und eingesetzt. Sie fungieren als autonome Systeme, die online ohne menschliche Aufsicht Entscheidungen treffen und Aufgaben ausführen können.
Agentische KI-Systeme können Angriffe starten, die sich in Echtzeit anpassen, aus Abwehrmaßnahmen lernen und ihre Taktiken spontan weiterentwickeln. Dieselben autonomen Fähigkeiten könnten jedoch auch unsere Verteidigung gegen Cyberbedrohungen revolutionieren. Für die Menschheit stellt dies nach wie vor die größte Bedrohung dar.

