Subtilere Wahrheit
Veranstaltungshinweis:
Scott Aaronson hält heute, 21. Oktober, um 17.00 Uhr am Institute of Science and Technology IST Austria einen Vortrag zum Thema "Computational Complexity and Fundamental Physics".
Der 1982 vom US-Physiker Richard Feynman geprägte Begriff "Quantencomputer" meint einen Computer, der nach den Regeln der Quantentheorie rechnet. Die kleinste Informationseinheit ist nicht mehr das Bit, das exakt zwei Zustände (Ja/Nein oder 0/1) kennt, sondern das Quantenbit (Qubit). Dieses kann auch verschiedene Schwebezustände oder "Überlagerungszustände" zwischen zwei Möglichkeiten einnehmen. Mit mehreren Qubits könnte man deshalb bestimmte Probleme wesentlich schneller lösen als in einem klassischen Computer.
"Zum heutigen Zeitpunkt ist an dem Gedanken, dass tatsächlich ein funktionierender Quantencomputer gebaut wird, nichts Radikales. Entgegen manch populärem Artikel, der das behauptet, kann er aber nicht einfach alles beschleunigen und gleich das ganze Universum simulieren", bremste Aaronson im Gespräch mit der APA zu hohe Erwartungen: "Die Wahrheit ist viel subtiler und interessanter als das."
Für Kryptographie
Ein realistisches Einsatzgebiet für Quantencomputer ist die Primfaktorenzerlegung sehr großer Zahlen, was etwa für Verschlüsselungen (Kryptographie) benötigt wird. "Vor allem würde ein Quantencomputer aber Vorteile darin verschaffen, die Quantenphysik selbst zu simulieren", skizzierte der assoziierte Professor für Elektrotechnik und Informatik am Massachusetts Institute of Technology (MIT) die seiner Ansicht nach wichtigsten Anwendungen eines Quantenrechners.
Quantenmechanik an sich zu verstehen, ist für Aaronson viel einfacher als man glauben möchte. "Es ist ganz einfach eine andere Art von Wahrscheinlichkeit als die, die wir gewohnt sind." Der Computerwissenschaftler beschäftigt sich selbst mit einem neuen Konzept eines Quantencomputers auf Basis nicht interagierender Bosonen, der allerdings auch nur für wenige spezielle Anwendungsgebiete geeignet sei und bereits experimentell getestet werde.
Aaronsons prinzipielles Forschungsinteresse ist die algorithmische Komplexitätstheorie, die sich an der Schnittstelle von Physik und theoretischer Computerwissenschaft bewegt - dort, wo die fundamentalen physikalischen Limits von Berechnungen liegen. "Was wir alles effizient berechnen können und was nicht, ist so seltsam, dass kein Science-Fiction-Autor die Vorstellungskraft dafür hätte", sagte Aaronson über das, was ihn antreibt. Skaliert man die Möglichkeiten der Datenverarbeitung immer weiter nach oben, bewegt man sich bereits in den theoretischen Gefilden des "holografischen Universums" und der sogenannten Bekenstein-Grenze, die den maximal möglichen Informationsgehalt eines Raumgebietes beschreibt - und an dessen Ende sich vereinfacht gesagt immer ein Schwarzes Loch auftut.
Gedankenspiele
Es sind diese Art von Gedankenspielen am Rande von Zeit und Raum bis hin zum Problem des von Stephen Hawking beschriebenen Informationsverlusts Schwarzer Löcher, die den theoretischen Computerwissenschaftler besonders reizen. Was ist überhaupt denkbar, auch wenn es in der Praxis völlig abwegig erscheint? In seinen Vorträgen bringt er auch gerne das Gedankenexperiment, dass im Prinzip jedes an sich fast unendlich komplex erscheinende Problem auch mit einem klassischen Laptop berechenbar ist.
Man müsste am Computer einfach nur die Berechnung des Problems starten und dann ein Raumschiff besteigen, das mit annähernder Lichtgeschwindigkeit unterwegs ist. "Bei der Rückkehr wären auf der Erde Millionen von Jahren vergangen. Alle deine Freunde wären tot und die Zivilisation zu Ende, aber du könntest nachschauen, ob der Computer dein Problem gelöst hat." Ob am Ende dann als die ultimative Antwort aller Fragen die Zahl 42 auf dem Monitor leuchtet, wie vom Computer "Deep Thought" in Douglas Adams' "Per Anhalter durch die Galaxis" suggeriert, ließ Aaronson offen.
science.ORF.at/APA