Die Kampagne, die Regierungen dazu bewegen soll, sich auf verbindliche internationale Beschränkungen zur Eindämmung des Missbrauchs von KI-Technologie zu einigen, wurde auf die UN-Ebene eskaliert, da mehr als 200 führende Politiker, Wissenschaftler und Vordenker, darunter 10 Nobelpreisträger, vor den Risiken der Technologie gewarnt haben.
Die am Montag zur Eröffnung der hochrangigen Woche der UN-Generalversammlung veröffentlichte Erklärung trägt den Titel „Globaler Aufruf zu roten Linien für KI“. Darin wird argumentiert, dass die gegenwärtige Entwicklung der KI „dentGefahren birgt“ und gefordert, dass die Staaten bis Ende 2026 auf ein internationales Abkommen über klare und überprüfbare Beschränkungen hinarbeiten.
Nobelpreisträger führen Appell vor der UNO an.
Der Appell wurde von der Friedensnobelpreisträgerin und Journalistin Maria Ressa veröffentlicht, die in ihrer Eröffnungsrede die Regierungen dazu aufrief, „universell inakzeptable Risiken zu verhindern“ und defi, was KI niemals tun darf.
Zu den Unterzeichnern der Erklärung gehören Nobelpreisträger in Chemie, Wirtschaftswissenschaften, Friedensforschung und Physik sowie namhafte Autoren wie Stephen Fry und Yuval Noah Harari. Auch die ehemalige irischedent Mary Robinson und der ehemalige kolumbianischedent Juan Manuel Santos, der ebenfalls den Friedensnobelpreis trägt, haben die Erklärung unterzeichnet.
Geoffrey Hinton und Yoshua Bengio, die im Volksmund als „Väter der KI“ bekannt sind und den Turing Award gewonnen haben, der weithin als Nobelpreis der Informatik gilt, haben die Erklärung ebenfalls unterzeichnet.
„Dies ist ein Wendepunkt“, sagte Harari. „Die Menschheit muss sich auf klare rote Linien für KI einigen, bevor die Technologie die Gesellschaft in einem Ausmaß umgestaltet, das unser Verständnis übersteigt, und die Grundlagen unserer Menschlichkeit zerstört.“
Bisherige Bemühungen, vor den Gefahren von KI zu warnen, konzentrierten sich oft auf freiwillige Verpflichtungen von Unternehmen und Regierungen. Im März 2023 forderten über 1.000 führende Technologieexperten, darunter Elon Musk, einen Entwicklungsstopp für leistungsstarke KI-Systeme. Wenige Monate später unterzeichneten KI-Manager wie Sam Altman von OpenAI und von Google DeepMind eine kurze Erklärung, in der sie die existenziellen Risiken von KI mit denen eines Atomkriegs oder einer Pandemie gleichsetzten.
KI schürt Ängste vor existenziellen und gesellschaftlichen Risiken
Erst letzte Woche wurde KI mit Fällen in Verbindung gebracht, die vom Selbstmord eines Teenagers bis hin zu Berichten über ihren Einsatz zur Manipulation öffentlicher Debatten reichen.
Die Unterzeichner des Aufrufs argumentieren, dass diese unmittelbaren Risiken bald von größeren Bedrohungen in den Schatten gestellt werden könnten. Kommentatoren warnen davor, dass hochentwickelte KI-Systeme, wenn sie nicht kontrolliert werden, zu Massenarbeitslosigkeit, künstlich herbeigeführten Pandemien oder systematischenmatic führen könnten.
Zu den Punkten auf der Embargoliste gehören unter anderem das Verbot letaler autonomer Waffensysteme, das Verbot sich selbst replizierender KI-Systeme und die Gewährleistung, dass KI niemals in einem Atomkrieg eingesetzt wird.
„Es liegt in unserem vitalen gemeinsamen Interesse, zu verhindern, dass KI der Menschheit ernsthaften und möglicherweise irreversiblen Schaden zufügt, und wir sollten entsprechend handeln“, sagte Ahmet Üzümcü, der ehemalige Generaldirektor der Organisation für das Verbot chemischer Waffen, die unter seiner Führung 2013 den Friedensnobelpreis gewann.
Mehr als 60 zivilgesellschaftliche Organisationen haben den Brief unterzeichnet, darunter der britische Thinktank Demos und das Pekinger Institut für KI-Sicherheit und -Governance. Die Initiative wird von drei gemeinnützigen Organisationen koordiniert: dem Center for Human-Compatible AI der University of California, Berkeley; The Future Society; und dem französischen Zentrum für KI-Sicherheit.
Trotz der jüngsten Sicherheitszusagen von Unternehmen wie OpenAI und Anthropic, die sich bereit erklärt haben, ihre Modelle vor der Veröffentlichung von der Regierung testen zu lassen, deuten Untersuchungen darauf hin, dass die Unternehmen nur etwa die Hälfte ihrer Verpflichtungen erfüllen.
„Wir können es uns nicht leisten zu warten“, sagte Ressa. „Wir müssen handeln, bevor die KI sich so weit entwickelt, dass wir sie nicht mehr kontrollieren können.“

