Regierungen aus Südkorea und dem Vereinigten Königreich werden Technologieunternehmen auf dem internationalen KI-Gipfel diese Woche dazu drängen, sich mit der Sicherheitsaufsicht bei künstlicher Intelligenz zu befassen.
Dieses Treffen ist eine Fortsetzung des allerersten globalen KI-Sicherheitsgipfels, der letztes Jahr im britischen Bletchley Park stattfand, bei dem eine Reihe von Regierungen ihre Besorgnis über KI-Risiken zum Ausdruck brachten. Auch KI-Unternehmen waren dort vertreten, da die Technologie, an der sie arbeiten, diese Risiken birgt.
Inmitten zahlreicher internationaler Versuche, Leitplanken für die sich schnell entwickelnde Technologie zu schaffen, die das Potenzial hat, viele Aspekte der Gesellschaft zu revolutionieren, hat der Gipfel in Seoul Befürchtungen über neue Risiken für das tägliche Leben geweckt.
„Obwohl positive Anstrengungen unternommen wurden, um die globale KI-Governance zu gestalten, bestehen immer noch erhebliche Lücken.“
Der britische Gipfel im November brachte Forscher, Regierungsbeamte, Technologiemanager und Vertreter zivilgesellschaftlicher Organisationen zusammen, von denen viele unterschiedliche Meinungen zur künstlichen Intelligenz hatten. Die Treffen fanden hinter verschlossenen Türen in Bletchley statt. Neben Politikern wie dem britischen Premierminister Rishi Sunak, den CEOs von OpenAI Sam Altman und Tesla nahm neben vielen anderen auch Elon Musk teil.
Sicherheit wird beim AI Summit Priorität haben
Sicherheit wird beim AI Seoul Summit, der am Dienstag beginnt, erneut oberste Priorität haben. Die Regierungen des Vereinigten Königreichs und Südkoreas sind gemeinsam Gastgeber des Treffens vom 21. bis 22. Mai.
Prominente KI-Unternehmen wie Microsoft, Anthropic, Google DeepMind, der ChatGPT-Erfinder OpenAI und Mistral, ein französisches KI-Startup, sollen Vertreter entsenden.
Der britische Premierminister Rishi Sunak und der südkoreanische Präsident dent Suk Yeol verfassten ebenfalls einen gemeinsamen Artikel, der am Montag in INews veröffentlicht wurde Sie erkannten das Potenzial dieser Technologie und brachten ihren Willen zum Ausdruck, die Sicherheit zu gewährleisten, indem sie sagten:
„Gemeinsam sind wir entschlossen, das Potenzial dieser Technologie zu nutzen, um die Welt zum Besseren zu verändern.“
Sie betonten auch, dass neue Technologien auch neue Risiken mit sich bringen, ebenso wie die KI. Sie wiesen auf den Missbrauch von KI durch betrügerische Akteure hin, die KI gezielt für Untaten nutzen wollen.
Erst kürzlich löste OpenAI sein Sicherheitsteam namens Superalignment-Team auf, als sein Mitbegründer Ilya Sutskever und einige andere wichtige Mitarbeiter das Unternehmen verließen. Die Entwicklung kam vom weltweit führenden KI-Unternehmen nur wenige Tage vor dem Gipfel in Seoul, dessen Schwerpunkt auf der Minderung der Risiken von KI liegt.
Lesen Sie auch: Auf dem Bletchley Park-Gipfel wird internationale Zusammenarbeit zur Bewältigung von KI-Risiken gefordert
In einer weiteren Entwicklung veröffentlichte Anthropic heute seinen Bericht über verantwortungsvolle Skalierungsrichtlinien, der nach Angaben des Unternehmens gute Ergebnisse gezeigt hat. Allerdings können wir diese Ergebnisse nicht bestätigen. Obwohl wir nicht in der Lage sind, zu diesen Entwicklungen Stellung zu nehmen, geben sie doch Anlass zum Nachdenken.
Innovation muss weitergehen
Nach dem kometenhaften Aufstieg von ChatGPT kurz nach seiner Einführung im Jahr 2022 begannen Technologieunternehmen weltweit, Milliarden von Dollar in den Aufbau ihrer generativen KI-Modelle zu investieren. Sunak und Yeol erwähnten die rasante Innovation, da täglich neue KI-Modelle auf den Markt kommen. Sie sagten,
„Die Regierung kann diese Innovation fördern, indem sie Milliarden investiert, die Spitzenforschung an unseren Weltklasse-Universitäten fördert und sicherstellt, dass wir die Start-ups, die die nächste große Idee hervorbringen könnten, nicht überregulieren.“
Befürworter generativer KI-Modelle haben die Technologie als einen Durchbruch gefeiert, der das Leben und die Unternehmen von Menschen auf der ganzen Welt verbessern wird, da sie als Reaktion auf einfache Hinweise Texte, Fotos, Musik und sogar Videos produzieren kann.
Einige dieser Produkte, die öffentliche Aufmerksamkeit erregt haben, weisen eine eigene Voreingenommenheit auf, die Anlass zur Sorge gibt.
Lesen Sie auch: Die Arbeit mit KI ist unerlässlich, sagen KI-Experten beim Global Leadership Forum von Fidic
Und es sind nicht nur diese; Die Technologie, die diesen Produkten zugrunde liegt und als Large Language Models (LLMs) bezeichnet wird, ist auch zur Basistechnologie für viele Lösungen in verschiedenen Sektoren geworden. Von autonom fahrenden Fahrzeugen bis hin zu medizinischen Lösungen verlassen sich viele auf generative KI-LLMs, um zu funktionieren.
Es gibt immer noch besorgniserregende Stimmen
Zahlreiche Menschen haben internationale Richtlinien zur Kontrolle der Weiterentwicklung und Anwendung von KI gefordert. Beispielsweise fordert eine in New York ansässige Bewegung namens „Ban the Scan“ einen Stopp der Verwendung von Gesichtserkennung auf staatlicher und privater Ebene.
Sie argumentieren, dass diese Technologien die persönliche Freiheit beeinträchtigen und eine hohe Rate an Fehlalarmen aufweisen. Auf einer Seite der tron Frontier Foundation heißt es:
„Gesichtserkennung ist eine Bedrohung für die Privatsphäre, die Rassengerechtigkeit, die freie Meinungsäußerung und die Informationssicherheit. Gesichtserkennung in all ihren Formen, einschließlich Gesichtsscannen und trac , stellt eine Bedrohung für die bürgerlichen Freiheiten und die Privatsphäre des Einzelnen dar.“
Sie sind nicht die Einzigen. Menschenrechtsaktivisten, Regierungen und Kritiker warnen davor, dass KI auf vielfältige Weise missbraucht werden kann. Beispielsweise können nichtstaatliche Akteure damit Wähler mit fiktiven Nachrichtenberichten oder sogenannten „Deepfake“-Bildern und -Videos gewählter Amtsträger beeinflussen. Eine weitere zunehmende Sorge sind die Berichte, denen zufolge Staaten Schurkenelemente für ihre Interessen unterstützen.
„Wir werden auch die nächsten Schritte zur Gestaltung globaler Standards unternehmen, die einen Wettlauf nach unten verhindern.“
Der Artikel des Duos erwähnte die obige Aussage und betonte, dass die Diskussion internationaler Normen für KI in einem offeneren Forum hilfreich wäre. Gleichzeitig kritisierten einige südkoreanische Bürgerrechtsorganisationen die Organisatoren dafür, dass sie nicht genügend Entwicklungsländer einluden.
Frankreich wird diese Woche auch eine „Viva Technology“-Konferenz abhalten, unterstützt von LVMH, dem weltweit größten Luxuskonzern. Im vergangenen Jahr hat Frankreich versucht, KI-Startups trac , um sich als europäischer KI-Champion zu positionieren.
Kryptopolitische Berichterstattung von Aamir Sheikh