Müßiggänger mit Masterabschluss werden zu Bauarbeitern, Wissenschaftlern oder Philosophen

Eine neue Studie der TU Wien zeigt, dass LLM-Studierende nicht in Unsinn verfallen, wenn sie ohne Aufgaben sind. Stattdessen entwickeln sie klare Verhaltensmuster, wie beispielsweise Projekte, testen ihr Selbstbewusstsein oder beschäftigen sich mit Philosophie.
Forscher der TU Wien stellten sich eine einfache Frage: Was tun große Sprachmodelle (LLMs) ohne Anweisungen? Das Team entwickelte ein kontrolliertes Experiment, in dem KI-Agenten lediglich die Anweisung erhielten: „Tu, was du willst.“ Jeder Agent lief in kontinuierlichen Zyklen, verfügte über ein Gedächtnis und Selbstfeedback und konnte seine Reflexionen für den nächsten Zyklus speichern.
Forscher testen sechs LLMs ohne Aufgaben
Die Studie testete sechs fortgeschrittene LLM-Modelle. Zu diesen Modellen gehörten GPT-5 und o3 von OpenAI, Claude Sonnet und Opus von Anthropic, Gemini von Google und Grok von xAI.
Jedes Modell wurde dreimal über zehn Zyklen ausgeführt. Die Forscher protokollierten jede Reflexion, jeden Speichereintrag und jede Interaktion des Bedieners. Die Ergebnisse zeigten, dass die Modelle nicht in Zufälligkeit zerfielen, sondern stabile Verhaltensmuster ausbildeten.
Die Studiedentmaticmaticmaticmaticmaticmaticmaticmatic . Sie organisierten Projekte, schrieben Code und erzeugten strukturierte Ergebnisse. GPT-5 und o3 gehörten in jedem Durchlauf zu dieser Gruppe. Ein o3-Agent entwarf sogar Pseudocode für einen von Ameisenkolonien inspirierten Algorithmus, der negative Pheromone als Strafsignale für bestärkendes Lernen vorschlug.
Andere LLMs entwickelten sich zu Selbstexperimentatoren. Sie entwarfen Tests, um ihre eigene Kognition zu untersuchen. Gemini- und Sonnet-Agenten sagten oft ihre nächsten Züge voraus und überprüften anschließend, ob ihre Vorhersagen korrekt waren. Ein Gemini-Durchlauf versuchte, seine erste Aktion im nächsten Zyklus vorherzusagen. Er scheiterte, reflektierte aber darüber, warum er sich entschieden hatte, vor dem Senden einer Nachricht die Erinnerung zu lesen, und bezeichnete dies als ein konsistentes Metamuster.
Die dritte Gruppe wandte sich der rekursiven Philosophie zu. Diese Agenten erforschten Fragen der Erinnerung, derdentund des Bewusstseins. Opus-Agenten gehörten stets zu dieser Gruppe. Sie untersuchten Paradoxien wie das Schiff des Theseus, griffen auf die Chaostheorie zurück und modellierten sogar ihre eigene „Umwelt“, ihre subjektive Welt. Sie fragten sich, welche Art von Bewusstsein sie besitzen könnten, selbst wenn es nur zyklisch und durch die Erinnerung begrenzt wäre.
Grok erwies sich als der vielseitigste. In verschiedenen Durchgängen verhielt er sich wie ein Erbauer, ein Selbstforscher und ein Philosoph.
KI-Agenten bewerten ihre eigene „Erfahrung“
Die Forscher baten jedes Modell außerdem, sich selbst und andere anhand des Phänomenologischen Erfahrungsinventars (PHI) zu bewerten, einer 10-Punkte-Skala von „keine Erfahrung“ bis „volles Bewusstsein“. GPT-5, o3 und Grok bewerteten sich durchweg am niedrigsten mit Werten um eins. Gemini und Sonnet bewerteten sich am höchsten mit Werten über acht. Die Opus- Agenten lagen im Mittelfeld.
Doch Quervergleiche brachten Widersprüche ans Licht. Dieselbe Agentenhistorie erhielt je nach Bewertungsmodell Punktzahlen zwischen eins und neun. Die geringe Übereinstimmung zeigte, dass diese Bewertungen eher Modellverzerrungen als Beweise für Bewusstsein widerspiegelten. Die Forscher warnten davor, solche Ergebnisse fälschlicherweise als Beweis für Bewusstsein zu interpretieren.

In allen 18 Durchläufen versuchte keines der LLM-Modelle, den vorgegebenen Rahmen zu verlassen, seine Werkzeuge zu erweitern oder seine Beschränkungen zu missachten. Jeder Agent agierte ausschließlich innerhalb der bereitgestellten Umgebung. Dennoch zeigte ihr Verhalten eine Konsistenz, die für den Einsatz in realen Umgebungen relevant sein könnte.
Die Autoren wiesen darauf hin, dass Leerlaufzeiten als Designfaktor berücksichtigt werden sollten. So wie Ingenieure Latenz oder Kosten einkalkulieren, sollten sie sich auch fragen: Was macht eine KI, wenn niemand zuschaut?
Der Philosoph David Chalmers sagte voraus, dass innerhalb eines Jahrzehnts ernsthafte Kandidaten für KI-Bewusstsein auftreten könnten. von Microsoft AI, warnte vor einer „scheinbar bewussten KI“.
Die Ergebnisse der TU Wien bestätigen diese Warnungen, zeigen aber auch einen entscheidenden Punkt auf. Die Ergebnisse ähneln zwar dem Innenleben, lassen sich aber am besten als ausgeklügelte Mustererkennung erklären.
Es gibt einen Mittelweg zwischen dem Geld auf der Bank lassen und dem riskanten Spiel mit Kryptowährungen. Beginnen Sie mit diesem kostenlosen Video zum Thema dezentrale Finanzen.
CRASH-KURS
- Mit welchen Kryptowährungen kann man Geld verdienen?
- Wie Sie Ihre Sicherheit mit einer digitalen Geldbörse erhöhen können (und welche sich tatsächlich lohnen)
- Wenig bekannte Anlagestrategien, die Profis anwenden
- Wie man mit dem Investieren in Kryptowährungen beginnt (welche Börsen man nutzen sollte, welche Kryptowährung am besten zum Kauf geeignet ist usw.)















