NEUESTE NACHRICHTEN
FÜR SIE AUSGEWÄHLT
WÖCHENTLICH
BLEIBEN SIE AN DER SPITZE

Die besten Krypto-Einblicke direkt in Ihren Posteingang.

Technologiekonzerne erwarten, dass ein nutzbarer Quantencomputer noch in diesem Jahrzehnt auf den Markt kommt

VonJai HamidJai Hamid
3 Minuten Lesezeit
Die großen Technologiekonzerne erwarten, dass ein nutzbarer Quantencomputer noch in diesem Jahrzehnt auf den Markt kommt.
  • IBM und Google behaupten, sie könnten vor 2030 einen großflächigen Quantencomputer bauen.

  • Amazon warnt davor, dass es 15 bis 30 Jahre dauern könnte, bis ein wirklich brauchbares System entwickelt ist.

  • Die Instabilität von Qubits, die hohen Kosten und die komplexe Fehlerkorrektur stellen weiterhin große Hürden dar.

Laut Angaben von IBM, Google, Amazon, Microsoft und anderen liefern sich Technologieunternehmen in den Vereinigten Staaten ein Wettrennen um die Skalierung von Quantencomputersystemen von Laborprototypen zu industriellen Maschinen.

Bahnbrechende Fortschritte im Chipdesign und bei der Fehlerkorrektur haben die technischen Lücken verringert und ein seit einem Jahrzehnt angestrebtes Ziel für einige in greifbare Nähe gerückt, während andere warnen, dass der Weg noch weitaus länger sein wird.

IBMs Ankündigung im Juni präsentierte ein umfassendes Design, das die in früheren Plänen fehlenden technischen Details ergänzt. Jay Gambetta, Leiter des Quantenprogramms des Unternehmens, erklärte, man habe nun einen klaren Weg zu einer Maschine, die classicKI-Computer in Aufgaben wie Materialsimulation und KI-Modellierung noch vor 2030 übertreffen könne.

Googles Quantenforschungsteam unter der Leitung von Julian Kelly hat im vergangenen Jahr eine seiner größten technischen Hürden überwunden und gibt an, noch vor Ende des Jahrzehnts Ergebnisse liefern zu können. Kelly bezeichnet alle verbleibenden Probleme als „überwindbar“

Unternehmen drängen auf die Lösung von Skalierungsproblemen

Amazons Leiter der Quantenhardware-Abteilung, Oskar Painter, warnte davor, dass die industrielle Phase trotz bedeutender physikalischer Meilensteine ​​noch 15 bis 30 Jahre dauern könnte. Der Sprung von weniger als 200 Qubits – den grundlegenden Quanteneinheiten – auf über eine Million ist für eine aussagekräftige Leistung notwendig.

Die Skalierung wird durch die Instabilität der Qubits behindert, wodurch deren nutzbarer Zustand auf Bruchteile einer Sekunde beschränkt ist. IBMs Condor-Chip mit 433 Qubits zeigte Interferenzen zwischen den Komponenten – ein Problem, das Subodh Kulkarni, CEO von Rigetti Computing, als „ein kniffliges physikalisches Problem“ bezeichnete. IBM gibt an, das Problem erwartet zu haben und verwendet nun einen anderen Koppler, um die Interferenzen zu reduzieren.

Frühe Systeme nutzten individuell abgestimmte Qubits zur Leistungssteigerung, doch das ist im großen Maßstab nicht praktikabel. Unternehmen entwickeln daher nun zuverlässigere Komponenten und kostengünstigere Herstellungsverfahren.

Google verfolgt das Ziel, die Teilepreise um das Zehnfache zu senken, um ein vollwertiges System für 1 Milliarde Dollar zu bauen. Fehlerkorrektur, also die Duplizierung von Daten auf mehreren Qubits, damit der Ausfall eines Qubits die Ergebnisse nicht verfälscht, gilt als Voraussetzung für die Skalierbarkeit.

Google ist der einzige Hersteller, der einen Chip vorstellt, bei dem sich die Fehlerkorrektur mit zunehmender Systemgröße verbessert. Kelly erklärte, das Überspringen dieses Schrittes würde zu „einer sehr teuren Maschine führen, die nur Rauschen produziert“

Konkurrierende Entwürfe und staatliche Unterstützung

IBM setzt auf ein anderes Fehlerkorrekturverfahren namens Low-Density Parity-Check Code (LDPC), das laut IBM 90 % weniger Qubits benötigt als Googles Surface-Code-Ansatz. Surface Code verbindet jedes Qubit in einem Gitter mit seinen Nachbarn, benötigt aber mehr als eine Million Qubits für sinnvolle Berechnungen.

IBMs Methode erfordert Verbindungen über große Entfernungen zwischen Qubits, deren Herstellung schwierig ist. IBM gibt an, dies nun erreicht zu haben, doch Analysten wie Mark Horvath von Gartner weisen darauf hin, dass das Design bisher nur theoretisch existiert und sich erst in der Praxis bewähren muss.

Es bestehen weiterhin technische Hürden: die Vereinfachung der Verkabelung, die Verbindung mehrerer Chips zu Modulen und der Bau größerer Kryokühlschränke, um die Systeme nahe dem absoluten Nullpunkt zu halten.

Supraleitende Qubits, die von IBM und Google eingesetzt werden, zeigen zwartronFortschritte, sind aber schwer zu kontrollieren. Alternativen wie gefangene Ionen, neutrale Atome und Photonen sind stabiler, jedoch langsamer und schwieriger in große Systeme zu integrieren.

Sebastian Weidt, CEO des britischen Unternehmens Universal Quantum, geht davon aus, dass die Entscheidungen der Regierung über die Mittelvergabe die Auswahl auf wenige Kandidaten beschränken werden. Die DARPA, die Forschungsagentur des Pentagons, hat eine Überprüfung eingeleitet, um den schnellsten Weg zu einem praxistauglichen System zudent.

Amazon und Microsoft experimentieren mit neuen Qubit-Designs, darunter auch mit exotischen Materiezuständen, während etablierte Unternehmen ältere Technologien weiterentwickeln. „Nur weil es schwierig ist, heißt das nicht, dass es unmöglich ist“, sagteund fasste damit die Entschlossenheit der Branche zusammen, die Marke von einer Million Qubits zu erreichen.

Die klügsten Köpfe der Krypto-Szene lesen bereits unseren Newsletter. Möchten Sie auch dabei sein? Dann schließen Sie sich ihnen an.

Diesen Artikel teilen
MEHR … NACHRICHTEN
DEEP CRYPTO
CRASH-KURS