- Südkorea und Großbritannien veranstalten am 21. und 22. Mai gemeinsam einen KI-Sicherheitsgipfel in Seoul.
- Der britische Premierminister und der südkoreanischedent haben Innovation und Inklusivität ebenfalls Priorität eingeräumt.
- Die Konferenz ist eine Folgeveranstaltung der britischen KI-Sicherheitskonferenz, die im November in Bletchley Park stattfand.
Die Regierungen Südkoreas und Großbritanniens werden die Technologieunternehmen auf dem internationalen KI-Gipfel dieser Woche dazu auffordern, sich mit der Sicherheitsaufsicht im Bereich der künstlichen Intelligenz auseinanderzusetzen.
Dieses Treffen ist eine Folgeveranstaltung des ersten globalen KI-Sicherheitsgipfels, der letztes Jahr im britischen Bletchley Park stattfand und auf dem mehrere Regierungen ihre Bedenken hinsichtlich der KI-Risiken äußerten. Auch KI-Unternehmen waren anwesend, da die von ihnen entwickelte Technologie diese Risiken birgt.
Inmitten der zahlreichen internationalen Versuche, Leitplanken für die sich rasant entwickelnde Technologie zu schaffen, die das Potenzial hat, viele Aspekte der Gesellschaft zu revolutionieren, hat der Gipfel in Seoul Besorgnis über neu entstehende Risiken für den Alltag ausgelöst.
„Obwohl positive Anstrengungen unternommen wurden, um die globale KI-Governance zu gestalten, bestehen weiterhin erhebliche Lücken.“
Der britische Gipfel im November brachte Forscher, Regierungsbeamte, Führungskräfte aus der Technologiebranche und Vertreter zivilgesellschaftlicher Organisationen zusammen, die oft unterschiedliche Meinungen zur künstlichen Intelligenz vertraten. Die Treffen fanden unter Ausschluss der Öffentlichkeit in Bletchley statt. Neben Politikern wie dem britischen Premierminister Rishi Sunak, den CEOs von OpenAI, Sam Altman, und Tesla sowie Elon Musk und vielen anderen nahmen auch sie teil.
Sicherheit wird beim KI-Gipfel Priorität haben
Sicherheit wird auch beim KI-Gipfel in Seoul, der am Dienstag beginnt, wieder oberste Priorität haben. Die Regierungen Großbritanniens und Südkoreas richten das Treffen am 21. und 22. Mai gemeinsam aus.
Namhafte KI-Unternehmen wie Microsoft, Anthropic, Google DeepMind, OpenAI (Entwickler von ChatGPT) und Mistral, ein französisches KI-Startup, werden Vertreter entsenden.
Der britische Premierminister Rishi Sunak und der südkoreanische Präsidentdent Suk Yeol verfassten ebenfalls einen gemeinsamen Artikel, veröffentlicht wurde . Darin erkannten sie das Potenzial dieser Technologie an und brachten ihren Willen zum Ausdruck, für Sicherheit zu sorgen.
„Gemeinsam sind wir entschlossen, das Potenzial dieser Technologie zu nutzen, um die Welt zum Besseren zu verändern.“
Sie betonten außerdem, dass neue Technologien – wie auch KI – neue Risiken mit sich bringen. Sie wiesen auf den Missbrauch von KI durch skrupellose Akteure hin, die KI gezielt für kriminelle Zwecke einsetzen wollen.
Erst kürzlich löste OpenAI sein Sicherheitsteam, das sogenannte Superalignment-Team, auf, nachdem Mitgründer Ilya Sutskever und einige weitere Schlüsselmitarbeiter das Unternehmen verlassen hatten. Diese Entwicklung erfolgte nur wenige Tage vor dem Gipfeltreffen in Seoul, dessen Fokus auf der Risikominimierung im Bereich KI liegt.
Lesen Sie auch: Internationale Zusammenarbeit zur Bewältigung der KI-Risiken beim Bletchley-Park-Gipfel aufgerufen
Anthropic hat heute seinen Bericht zu verantwortungsvollen Skalierungsrichtlinien veröffentlicht, der laut Unternehmen gute Ergebnisse erzielt hat. Wir können diese Ergebnisse jedoch nicht bestätigen. Obwohl wir zu diesen Entwicklungen keine Stellungnahme abgeben können, regen sie doch zum Nachdenken an.
Innovation muss fortgesetzt werden
Nach dem kometenhaften Aufstieg von ChatGPT kurz nach dem Start im Jahr 2022 begannen Technologieunternehmen weltweit, Milliarden von Dollar in die Entwicklung ihrer generativen KI-Modelle zu investieren. Sunak und Yeol wiesen auf das rasante Innovationstempo hin, da täglich neue KI-Modelle auf den Markt kommen. Sie sagten:
„Die Regierung kann diese Innovation fördern, indem sie Milliarden investiert, Spitzenforschung an unseren Weltklasse-Universitäten vorantreibt und sicherstellt, dass wir die Start-ups, die die nächste große Idee hervorbringen könnten, nicht überregulieren.“
Befürworter generativer KI-Modelle preisen die Technologie als einen Durchbruch, der das Leben der Menschen und die Wirtschaft weltweit verbessern wird, da sie in der Lage ist, auf einfache Signale hin Texte, Fotos, Musik und sogar Videos zu erzeugen.
Einige dieser Produkte, die öffentliche Aufmerksamkeit erregt haben, weisen eine eigene, inhärente Voreingenommenheit auf, die Anlass zur Sorge gibt.
Lesen Sie auch: KI-Experten auf dem Global Leadership Forum von Fidic betonen die Unverzichtbarkeit der Zusammenarbeit mit KI.
Und nicht nur das; die Technologie hinter diesen Produkten, sogenannte große Sprachmodelle (LLMs), bildet auch die Basis für viele Lösungen in verschiedenen Branchen. Von autonomen Fahrzeugen bis hin zu medizinischen Anwendungen – viele Systeme nutzen generative KI-LLMs.
Es gibt immer noch besorgniserregende Stimmen
Zahlreiche Menschen fordern internationale Richtlinien zur Kontrolle der Entwicklung und Anwendung von KI. Beispielsweise fordert die in New York ansässige Bewegung „Ban the Scan“ ein Verbot der Gesichtserkennung im öffentlichen und privaten Sektor.
Sie argumentieren, dass diese Technologien die persönliche Freiheit einschränken und eine hohe Rate an Fehlalarmen aufweisen. Auf einer Seite dertronFrontier Foundation heißt es:
„Gesichtserkennung stellt eine Bedrohung für die Privatsphäre, die Rassengerechtigkeit, die freie Meinungsäußerung und die Informationssicherheit dar. Gesichtserkennung in all ihren Formen, einschließlich Gesichtsscanning und Echtzeit- trac, birgt Gefahren für die bürgerlichen Freiheiten und die Privatsphäre des Einzelnen.“
Sie sind nicht die Einzigen. Menschenrechtsaktivisten, Regierungen und Kritiker warnen davor, dass KI auf vielfältige Weise missbraucht werden kann. Beispielsweise können nichtstaatliche Akteure sie nutzen, um Wähler mit gefälschten Nachrichten oder sogenannten „Deepfake“-Bildern und -Videos von gewählten Amtsträgern zu beeinflussen. Eine weitere wachsende Sorge sind Berichte über Staaten, die kriminelle Gruppierungen unterstützen, um ihre eigenen Interessen zu verfolgen.
„Wir werden auch die nächsten Schritte unternehmen, um globale Standards zu gestalten, die einen Wettlauf nach unten verhindern.“
Der Artikel erwähnte die obige Aussage und betonte, dass eine Diskussion internationaler Normen für KI in einem offeneren Forum hilfreich wäre. Gleichzeitig kritisierten einige südkoreanische Bürgerrechtsorganisationen die Organisatoren dafür, nicht genügend Entwicklungsländer eingeladen zu haben.
Frankreich veranstaltet diese Woche außerdem die Konferenz „Viva Technology“, die vom weltgrößten Luxusgüterkonzern LVMH unterstützt wird. Im vergangenen Jahr hat Frankreich versucht, KI-Startupstrac, um sich als europäischer KI-Vorreiter zu positionieren.
Cryptopolitan Berichterstattung von Aamir Sheikh
Lesen Sie Krypto-News nicht nur, sondern verstehen Sie sie. Abonnieren Sie unseren Newsletter. Er ist kostenlos.
Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren
CRASH-KURS
- Mit welchen Kryptowährungen kann man Geld verdienen?
- Wie Sie Ihre Sicherheit mit einer digitalen Geldbörse erhöhen können (und welche sich tatsächlich lohnen)
- Wenig bekannte Anlagestrategien, die Profis anwenden
- Wie man mit dem Investieren in Kryptowährungen beginnt (welche Börsen man nutzen sollte, welche Kryptowährung am besten zum Kauf geeignet ist usw.)
















