Einem aktuellen Bericht zufolge gab es eine Sicherheitslücke bei OpenAI. Ein Hacker verschaffte sich im vergangenen Jahr Zugang zu internen Nachrichtensystemen und stahl Designdetails zu den KI-Technologien des Unternehmens. Laut der New York Times ereignete sich das Datenleck in einem Online-Forum, in dem OpenAI-Mitarbeiter Informationen über ihre aktuellen Fortschritte austauschten.
Lesen Sie auch: Der mutmaßliche „Selbstmord“ eines südkoreanischen Roboters wird nun untersucht
Das Datenleck ereignete sich Berichten zufolge in einem Online-Forum, in dem OpenAI-Mitarbeiter aktuelle Updates teilten. Laut zwei anonymen Quellen, die mit dem Vorfall vertraut sind dent erlangte der Hacker keinen Zugriff auf die Kernsysteme, mit denen OpenAI seine KI entwickelt und speichert, wie beispielsweise ChatGPT. Wie die New York Times berichtete, informierte das Unternehmen die Öffentlichkeit nicht über den Vorfall, da keine kritischen Daten kompromittiert wurden und keine Bedrohung für die nationale Sicherheit bestand.
OpenAI hält die Sicherheitsmaßnahmen nach dem Sicherheitsvorfall aufrecht
Die Führungskräfte von OpenAI informierten die Mitarbeiter und den Aufsichtsrat im April letzten Jahres während der Betriebsversammlung über diese Vorfälle. Trotz des Sicherheitsverstoßes zog das Unternehmen die Einschaltung von Bundesbehörden nicht in Betracht und machte eine Privatpersondent , die keinerlei Verbindungen zu einem ausländischen Staat unterhielt.
Lesen Sie auch: ChatGPT übertrifft Menschen beim Witzeerzählen, wie eine Studie zeigt
Obwohl derdent die als besonders sensibel geltenden Kernsysteme der Organisation nicht betraf,dent der Bericht, dass es notwendig ist, angemessene Maßnahmen zum Schutz fortschrittlicher KI-Technologien zu ergreifen.
Der Rechtsstreit zwischen der New York Times und OpenAI nimmt eine unerwartete Wendung
In einer damit zusammenhängenden Entwicklung gab es kürzlich eine wichtige Neuerung im Rechtsstreit zwischen der New York Times und OpenAI. OpenAI reichte Dokumente ein, in denen das Gericht aufgefordert wird, den renommierten Verlag zu verpflichten, die Originalität seiner Artikel durch die Vorlage detaillierter Quellenangaben für jedes urheberrechtlich geschützte Werk nachzuweisen. Dieser Antrag hat den Fall zusätzlich verkompliziert, da es in der Klage um den Vorwurf der unerlaubten Nutzung von NYT-Inhalten zum Training von KI-Modellen geht.
„Die Times behauptet, […] sie investiere ‚enorm viel Zeit, . . Expertise und Talent‘, unter anderem durch ‚tiefgründige Recherchen – deren Berichterstattung und Veröffentlichung in der Regel Monate und manchmal Jahre dauern – in komplexe und wichtige Bereiche von öffentlichem Interesse‘.“
Die Anwälte von OpenAI
Die Anfrage fordert die New York Times auf, sämtliche Dokumente zum Entstehungsprozess des Artikels vorzulegen, insbesondere Reporternotizen, Interviewprotokolle und Quellenangaben. Die Anwälte von OpenAI wiesen zudem darauf hin, dass das Unternehmen laut NYT erhebliche Ressourcen für erstklassigen Journalismus aufwendet. Daher seien die Entstehungsmethoden, der Zeitaufwand, die Arbeitsleistung und die Investitionen von zentraler Bedeutung. OpenAI habe daher das Recht, diese Aspekte im Rahmen des Beweisaufnahmeverfahrens zu prüfen.
Lesen Sie auch: Shanghai ist Gastgeber der Welt-KI-Konferenz 2024
Die New York Times antwortete OpenAI mit einer am 3. Juli versandten Abmahnung, um sich gegen die Forderung nach Quellmaterial bezüglich destraczu wehren. Das Anwaltsteam der NYT argumentierte, OpenAIs Antrag sei neuartig und beruhe auf einer Fehlinterpretation des Urheberrechts. Sie behaupteten, der Entstehungsprozess urheberrechtlich geschützten Materials sei für die Kernfrage des Falles irrelevant.
Die Biden-Regierung wird voraussichtlich in Kürze neue Regeln ankündigen, um den Missbrauch von US-amerikanischer KI-Technologie durch besorgniserregende Länder wie China und Russland zu verhindern. Dies sind erste Maßnahmen, die vorgeschlagen wurden, um die derzeitigen hochentwickelten KI-Anwendungen wie ChatGPT einzudämmen.
Cryptopolitan Berichterstattung von Brenda Kanana

