NEUESTE NACHRICHTEN
FÜR SIE AUSGEWÄHLT
WÖCHENTLICH
BLEIBEN SIE AN DER SPITZE

Die besten Krypto-Einblicke direkt in Ihren Posteingang.

Revolutionärer Trainingsansatz befähigt KI, wie das menschliche Gehirn zu generalisieren

VonBrian KoomeBrian Koome
3 Minuten Lesezeit
KI
  • Neuartige Trainingsmethoden verbessern das menschenähnliche Denkvermögen der KI.
  • Gezielte KI-Ausbildung fördert die Generalisierung.
  • Kleine Modelle, große Fortschritte in der KI.

Forscher haben eine bahnbrechende Entwicklung im Bereich der künstlichen Intelligenz (KI) vorgestellt: Ein neuartiges Trainingsprotokoll kann die Fähigkeit eines KI-Modells, Informationen zu generalisieren und zu verstehen, deutlich verbessern und es so dem menschlichen Lern- und Denkprozess annähern. Dieser innovative Ansatz stellt die gängige Annahme in Frage, dass mehr Daten der Schlüssel zu besserem maschinellem Lernen sind, und bietet neue Einblicke in die Geheimnisse sowohl der KI als auch der menschlichen Kognition.

Menschen zeichnen sich durch ihre Fähigkeit aus, verschiedene Komponenten zu verstehen und zu kombinieren, um die Welt zu begreifen – eine kognitive Fähigkeit, die als „Kompositionalität“ oder „matic Generalisierung“ bekannt ist. Sie ermöglicht es uns, unbekannte Sätze zu entschlüsseln, originelle Antworten zu formulieren und die zugrundeliegenden Bedeutungen von Wörtern und Grammatikregeln zu verstehen. Die Umsetzung von Kompositionalität stellt KI-Entwickler seit Langem vor eine Herausforderung, da traditionelle neuronale Netze Schwierigkeiten haben, diesen grundlegenden Aspekt der menschlichen Kognition nachzubilden.

Aktuelle generative KI-Modelle wie GPT-3 und GPT-4 von OpenAI können zwar Kompositionalität bis zu einem gewissen Grad simulieren, verfehlen aber in bestimmten Benchmarks oft ihre Ziele und erfassen die Bedeutung und Intention hinter den generierten Sätzen nicht vollständig. Eine kürzlich in Nature veröffentlichte Studie legt jedoch nahe, dass ein einzigartiges Trainingsprotokoll, das sich auf das Lernverhalten neuronaler Netze konzentriert, der Schlüssel zur Bewältigung dieser Herausforderung sein könnte.

Neugestaltung des Lernprozesses

Die Autoren der Studie wählten einen anderen Ansatz für das KI-Training und vermieden so die Notwendigkeit, völlig neue KI-Architekturen zu entwickeln. Stattdessen nutzten sie ein Standard-Transformer-Modell – dieselbe grundlegende Architektur, die auch in ChatGPT und Googles Bard zum Einsatz kommt –, jedoch ohne vorheriges Texttraining. Die entscheidende Innovation lag im Trainingsverfahren selbst.

Die Forscher entwickelten eine Reihe von Aufgaben mit einer fiktiven Sprache, die aus sinnlosen Wörtern wie „dax“, „lug“, „kiki“, „fep“ und „blicket“ bestand. Diese Wörter waren mit farbigen Punkten verknüpft, wobei einige Wörter direkt bestimmte Punktfarben repräsentierten und andere Funktionen bezeichneten, die die Punktanzahl veränderten. Beispielsweise stand „dax“ für einen roten Punkt, während „fep“ eine Funktion war, die, kombiniert mit „dax“ oder anderen symbolischen Wörtern, die entsprechende Punktanzahl verdreifachte. Entscheidend war, dass die KI keinerlei Informationen über diese Verknüpfungen erhielt; die Forscher stellten lediglich Beispiele für sinnlose Sätze zusammen mit den entsprechenden Punktkonfigurationen bereit.

KI erreicht menschenähnliches Verständnis

Während des Trainings lernte das KI-Modell schrittweise, kohärent zu reagieren und sich an die impliziten Regeln der sinnlosen Sprache zu halten. Selbst bei der Konfrontation mit neuartigen Wortkombinationen bewies die KI ihre Fähigkeit, die erfundenen Regeln der Sprache zu „verstehen“ und auf zuvor unbekannte Phrasen anzuwenden. Diese bemerkenswerte Leistung deutete auf das Generalisierungspotenzial der KI hin – ein entscheidender Schritt hin zu menschenähnlichem Denken.

Um die Leistungsfähigkeit der KI zu bewerten, verglichen die Forscher sie mit menschlichen Probanden. In einigen Fällen reagierte die trainierte KI mit hundertprozentiger Genauigkeit und übertraf damit die Menschen, die eine Trefferquote von etwa 81 Prozent erreichten. Selbst wenn die KI Fehler machte, ähnelten diese typischen menschlichen Fehlern und unterstrichen so ihre Fähigkeit zu menschenähnlichem Denken.

Besonders bemerkenswert ist, dass diese beeindruckende Leistung mit einem vergleichsweise kleinen Transformer-Modell erzielt wurde, nicht mit einer massiven KI, die mit riesigen Datensätzen trainiert wurde. Diese Erkenntnis legt nahe, dass anstatt maschinelle Lernmodelle mit endlosen Daten zu überfluten, ein fokussierterer Ansatz, ähnlich einem spezialisierten Linguistik- oder Algebra-Kurs, die KI-Fähigkeiten erheblich verbessern kann.

Implikationen und zukünftige Richtungen

Dieses neuartige Trainingsprotokoll liefert zwar vielversprechende Ergebnisse, doch seine Grenzen müssen unbedingt anerkannt werden. Das KI-Modell schnitt bei spezifischen Aufgaben der Mustererkennung in einer künstlichen Sprache hervorragend ab, hatte jedoch Schwierigkeiten bei völlig neuen Herausforderungen oder ungeübten Formen der Generalisierung. Daher ist es entscheidend zu erkennen, dass eine begrenzte Generalisierung in der KI zwar ein bedeutender Schritt ist, aber noch nicht das ultimative Ziel einer allgemeinen künstlichen Intelligenz erreicht.

Armando Solar-Lezama, Informatiker am Massachusetts Institute of Technology, merkt an, dass diese Forschung neue Wege zur Verbesserung von KI eröffnen könnte. Indem wir uns darauf konzentrieren, Modellen effektives Denken beizubringen, selbst bei synthetischen Aufgaben, könnten wir Möglichkeiten finden, die Fähigkeiten der KI über die aktuellen Grenzen hinaus zu erweitern. Die Skalierung dieses neuen Trainingsprotokolls könnte jedoch Herausforderungen mit sich bringen, die bewältigt werden müssen.

Neben den praktischen Auswirkungen auf die KI kann diese Forschung auch Aufschluss über die Funktionsweise neuronaler Netze und ihre emergenten Fähigkeiten geben. Das Verständnis dieser Prozesse könnte dazu beitragen, Fehler in KI-Systemen zu minimieren und unser Verständnis der menschlichen Kognition zu erweitern.

Die klügsten Köpfe der Krypto-Szene lesen bereits unseren Newsletter. Möchten Sie auch dabei sein? Dann schließen Sie sich ihnen an.

Diesen Artikel teilen

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren

MEHR … NACHRICHTEN
DEEP CRYPTO
CRASH-KURS