Qubits: Die Grundlage der Quantencomputer
Was Bits für klassische Computer sind, sind Qubits für die Quantencomputer. Im Gegensatz zu binären Bits können sich Qubits bis zum Zeitpunkt einer Datenmessung im Zustand 1 und 0 gleichzeitig befinden. Diese elementare quantenmechanische Eigenschaft soll Computertechnologien revolutionieren und Quantencomputer mit millionenfach höherer Leistung gegenüber herkömmlichen PCs ermöglichen.
Was sind Qubits?
Die Zukunft des Computing schreibt sich: Qubits. Hinter diesem kryptischen Wort verbirgt sich die grundlegende, kleinstmögliche Recheneinheit des Quantum Computing, das „Quantenbit“. Dieses unterscheidet sich deutlich vom allseits bekannten Bit unserer gegenwärtigen Computer. Qubits werden als Zweizustands-Quantensystem definiert, d. h. sie können zwei Zustände gleichzeitig annehmen. Sie bilden die elementare Grundlage für Quantencomputer.
Um nachzuvollziehen, wie Qubits funktionieren, gilt es zunächst, drei wesentliche Prinzipien der Quantenmechanik zu verstehen:
- Superposition bezeichnet Quantensysteme, die zu gleicher Zeit zwei Zustände annehmen können. Dies lässt sich am Beispiel des binären Systems leicht veranschaulichen: Statt 1 oder 0 können Quantensysteme bis zum Moment der Datenmessung 1 und 0 sowie viele weitere Zwischenzustände zugleich einnehmen.
- Quantenverschränkung bezeichnet ein Phänomen der Quantenmechanik, das Albert Einstein als „spukhafte Fernwirkung“ beschrieb. Hierbei handelt es sich um zwei oder mehr Teilchen, die miteinander verschränkt sind und statt definierter Einzelzustände ein verbundenes Gesamtsystem erzeugen. Erfolgen Änderungen an einem Teilchen, wirken sich diese auf die verbundenen Teilchen des Systems aus.
- Quantenkollaps ist der Moment, wenn Systeme, die sich in einer undefinierten Superposition befanden, durch Messung oder Beobachtung „kollabieren“. Sie gehen somit in einen definierten Zustand wie 1 oder 0 über.
Alle drei Prinzipien finden sich in Qubits und somit im Quantum Computing wieder. Sie sind auch der Grund, warum Regierungen und Unternehmen wie IBM, Google und Microsoft große Hoffnungen auf Quantencomputer setzen. Obwohl praxistaugliche Quantencomputer noch in weiter Ferne liegen, sollen Qubits für die Leistungsfähigkeit und unser Verständnis von Computern ungeahnte Möglichkeiten eröffnen.
Qubits und Bits: Was ist der Unterschied?
Das Bit hat mit dem Quantenbit eins gemeinsam: Beide sind die kleinste Rechen- und Speichereinheit ihres jeweiligen Computersystems. Hier enden jedoch bereits die Gemeinsamkeiten, denn im Gegensatz zur binären Maßeinheit unserer klassischen Computer handelt es sich beim Quantenbit um eine quantenmechanische Maßeinheit. Was genau bedeutet das aber?
Zunächst gilt es, die Funktionsweise des Bits zu verstehen. Spätestens seit die „Matrix“-Filmreihe komplexe Themen wie künstliche Intelligenzen und Computersimulationen einem Millionenpublikum näherbrachte, sind vielen auch die binären Einsen und Nullen vertraut. Ein Bit basiert auf diesem Binärcode und stellt die kleinste Dateneinheit digitaler Technologien dar. Bits können entweder den Zustand 1 wie „Wahr/An“ oder 0 wie „Aus/Falsch“ annehmen.
Quantenbits basieren jedoch nicht auf Binärcode, müssen sich also nicht „entscheiden“. Im Sinne des quantenmechanischen Konzepts der Superposition befindet sich ein Qubit somit gleichzeitig im Zustand 1 und 0. Darüber hinaus kann es zahlreiche Zwischenzustände wie „Ein Drittel von 0“ oder „Zwei Drittel von 1“ annehmen. Erst im Moment der Messung nehmen Qubits durch den Quantenkollaps einen definierten binären Zustand an.
Wie viel mehr Rechenleistung bieten Qubits?
Die quantenmechanischen Eigenschaften von Qubits vervielfachen die Rechenleistung von Quantencomputern gegenüber herkömmlichen Computern enorm. Selbst mit 2 hoch 500 Bits lässt sich nicht dieselbe Datenmenge verarbeiten, die 500 Qubits mühelos bewältigen. 31 Qubits wiederum entsprechen bereits einer Speichergröße von 32 GB. Mit jedem weiteren Qubit verdoppeln sich die Speichergrößen.
Ein weiteres Beispiel: Ein Computer, der nur mit Bits rechnet, bräuchte für die Berechnung der Primfaktoren einer 2.050-Bit-Zahl einige Millionen Jahre. Quantencomputer erledigen Aufgaben dieser Art in wenigen Minuten, indem sie die Aufgaben nicht nacheinander, sondern gleichzeitig lösen. Diese offensichtlichen Vorteile werden sich voraussichtlich für die Verarbeitung und Analyse großer, komplexer Datenmengen revolutionär auswirken.
Wie werden Qubits erzeugt?
Um Qubits in Quantencomputern nutzbar zu machen, müssen sie erzeugt werden. Während für die Verarbeitung klassischer Bits in der Regel Siliziumchips zum Einsatz kommen, erfordern Quantencomputer neue Technologien. Hierzu kommen verschiedene Methoden in Frage. So werden beispielsweise Ionen in magnetischen, elektrischen Feldern „eingefangen“ oder Photonen, Quasipartikel sowie künstliche und echte Atome genutzt. Bei den sogenannten Ionen-Fallen erfolgt die Messung der Qubits zudem per Mikrowellenstrahlung. Google nutzt Quantenchips, in denen im Kreis fließende Ströme jeweils ein Qubit repräsentieren. Auch hier erfolgt die Messung der Qubits per Mikrowellenstrahlung.
Der Einsatz von Qubits in Quantencomputern bietet nicht nur deutlich mehr Leistungsfähigkeit. Auch neue Hardware, Software und neue Programmieransätze sind notwendig, um die ausgelesenen und in Quantengittern gespeicherten Qubits zu verarbeiten. Da es sich um sehr flüchtige, volatile Quantensysteme handelt, erfordert es Computer, um Quantenbits zuverlässig und in Millionenzahlen zu verbinden.
Ein weiterer wesentlicher Aspekt der aktuellen Quantencomputer-Technologie ist die richtige Kühlung. Mit der Erzeugung von leistungsstarken Qubits entsteht nämlich wie bei allen Computersystemen Wärme. Für optimale und sichere Leistungsfähigkeit müssen Quantencomputer daher dicht an den absoluten Temperatur-Nullpunkt (-273,15 Grad Celsius) heruntergekühlt werden.
Mögliche Anwendungsbereiche von Qubits
Bis praktische Quantencomputer im Alltag zum Einsatz kommen, werden noch Jahre vergehen. Hierzu erfordert es neue Technologien und ein Umdenken hinsichtlich der Art, wie Computer funktionieren. Wenn es so weit ist, werden Qubits zahlreiche Vorteile für verschiedene Einsatzzwecke bieten. Dazu zählen:
- E-Commerce
- Kryptografie
- Medizinische Forschung
- Verarbeitung, Speicherung und Auswertung von Big Data und Dark Data
- Künstliche Intelligenz
- Machine Learning
- Effizientes, leistungsstärkeres Data-Mining
- Quantensimulationen
- Erstellung komplexer Finanzmodelle
- Smarte Technologien
- Autonomes Fahren
- Luft- und Raumfahrtforschung
Die Zukunft der Qubits: Technische Hürden und Chancen
Glaubt man internationalen Großunternehmen wie IBM, Google und Microsoft, ist die Ankunft der ersten praxistauglichen Quantencomputer nur eine Frage der Zeit. Investitionen in Millionenhöhe und dedizierte Unternehmen wie Google AI oder D-Wave sind der Beweis, dass Quantum Computing die Zukunft ist. Zu den aktuell leistungsstärksten Quantencomputern zählt IBMs „Eagle“ mit 127 Qubits.
Google AI wiederum gab am 23. Oktober 2019 bekannt, dass Googles Sycamore-Chip erstmals Aufgaben löste, an denen die besten Supercomputer scheiterten. Ein Meilenstein, der als „Quantum Supremacy“ bezeichnet wird. Bis sich die vollständige Überlegenheit der Quantencomputer bemerkbar macht, wird es jedoch neue Technologien, Software und Programmiersprachen erfordern.