Elon Musks Aufruf, alle gigantischen KI-Experimente zu stoppen , hat Schockwellen durch die Technologiebranche geschickt, und viele einflussreiche Persönlichkeiten unterstützen diesen Schritt. Da die Risiken einer ungeprüften KI-Entwicklung immer deutlicher werden, nimmt auch die Krypto-Community die Warnung zur Kenntnis.
Da viele Blockchain- und Kryptoprojekte angeblich stark auf KI- und maschinelle Lernalgorithmen angewiesen sind, könnten die potenziellen Auswirkungen unregulierter Experimente in diesem Bereich laut Experten katastrophale Folgen haben.
Steve Wozniak, der Mitbegründer von Apple, hat zusammen mit Musk den offenen Brief unterzeichnet und damit die Dringlichkeit der Situation unterstrichen. Bekannten Quellen zufolge ist eine ordnungsgemäße Integration mit Regierungen und Aufsichtsbehörden mit der zunehmenden Verflechtung von Krypto mit KI von größter Bedeutung.
Ohne angemessene Aufsicht könnten die Risiken, die von unkontrollierten Experimenten ausgehen, eine Katastrophe für die aufstrebende Industrie bedeuten. Daher fordern viele Experten eine Pause bei allen großen KI-Projekten, bis diese Probleme angegangen werden können.
Warnung vor mächtigen KI-Systemen und Auswirkungen auf Krypto
Der Brief fordert Technologieunternehmen auf, keine Systeme der künstlichen Intelligenz (KI) zu entwickeln, die die Fähigkeiten von GPT-4, der neuesten Spitzentechnologie in großen Sprachverarbeitungssystemen, übertreffen.
Insbesondere bezieht sich der Brief auf GPT-4 als die „neueste Spitzentechnologie in großen Sprachverarbeitungssystemen“. Laut einem in der Zeitschrift Fortune veröffentlichten Artikel ist die Effektivität von Modellen der künstlichen Intelligenz sowohl proportional zur Größe der Modelle als auch zur Anzahl der spezialisierten Computerchips, die für ihre Ausbildung erforderlich sind.
Infolgedessen soll der Brief als Warnung dienen, dass jede weitere Entwicklung der künstlichen Intelligenz zu Maschinen führen könnte, die sich der Kontrolle des Menschen entziehen. Dem Schreiben zufolge befindet sich die Technologiebranche derzeit an einem Scheideweg, an dem sie sich entscheiden muss, ob sie den Schwerpunkt auf die Sicherheit legen oder die Grenzen des Wachstums der künstlichen Intelligenz weiter verschieben soll.
Es wird befürchtet, dass, wenn Unternehmen mit der Entwicklung von Systemen der künstlichen Intelligenz über die Möglichkeiten von GPT-4 hinausgehen, dies katastrophale Auswirkungen wie den Verlust von Arbeitsplätzen, Eingriffe in die Privatsphäre und sogar existenzielle Gefahren für die Menschheit haben könnte. Infolgedessen ermutigt der Brief Technologieunternehmen, über die möglichen Ergebnisse ihrer Aktivitäten nachzudenken und einen verantwortungsbewussteren Umgang mit der Entwicklung künstlicher Intelligenz zu verfolgen.
Kurz gesagt fordert der Brief Technologieunternehmen auf, Vorsicht walten zu lassen und von der Entwicklung künstlicher Intelligenzsysteme abzusehen, die fortschrittlicher sind als die von bestimmten Unternehmen angebotenen.