Elementarteilchen: Rechenkünstler der Zukunft
Von Hans-Jörg Müllenmeister
Cui bono? Was nützt es… der maroden hochtechnisierten Gesellschaft, wenn sie verbissen der Computer-Zukunft nachjagt? In der Tat, denn jene Zukuftscomputer wären der heutigen Technik Vieltausendfach überlegen – hinsichtlich Speicherkapazität, Verschlüsselung und Geschwindigkeit der Datenverarbeitung.
Verbrämt als hehres Forschungsziel, versprechen sich damit vor allem Geheimdienstler gewaltige Vorteile im Lauschangriff und in der staatlich sanktionierten Industriespionage. Gleichzeitig steht der iPad- oder iPhone-süchtige gläserne Bürger an der Schwelle einer werteauflösenden Zeit. Einer Zeit, in der man den Glauben an das Scheingeld pflegt und das Überwachen von oben hündisch erträgt. Das einstige „Yes, we can, fand sein kryptisches Traumziel im „Yes, we scan“! So viel zum gesellschaftlich-politischem Aspekt der schaurig-schönen Computerwelt.
Ein Griff in die Vorgeschichte
Oft vergeht ein beschwerlich-langer Weg, ehe ein epochales Produkt die Welt verändert. Den Binärcode 1 und 0 − das sprunghafte Verhalten der Leitfähigkeit – Strom ein für 1, Strom aus für 0 − hatte bereits Leibniz vor mehr als 300 Jahren mathematisch als den Schlüssel für die digitale Rechentechnik erkannt. 1824 fand der Schwede Berzelius das geeignete Halbleitermaterial Silicium und schließlich erkannte Schottky in den 40er Jahren, dass die elektrische Leitfähigkeit bestimmter Halbleiter von außen steuerbar ist. Erst wenn bestimmte Entdeckungen wie Zahnräder ineinander greifen, dreht sich das Rad der Technik-Geschichte weiter. Grundelemente einer neuen Technologie reifen: die Entwicklung von Transistoren und in der Folge die IC-Bausteine bis hin zum komplexen Computer. Bis Mitte des Jahrhunderts könnten zwei mögliche Innovationen auf uns zukommen: Quantencomputer und Bio-Computer.
Grenzen der Miniaturisierung
Das eigentliche Silicium-Zeitalter begann vor etwa 40 Jahren. Seitdem hat sich die Dichte von Transistoren auf einem Chip nach dem empirischen Moore's Gesetz mit fast naturgesetzlicher Genauigkeit entwickelt. Im Mittel verdoppelte sich alle zwei Jahre die Speicherkapazität: Ein Fortschreiten der Miniaturisierung ad Infinitum ist indes unmöglich. Leitungen und Transistoren der heutigen Rechner sind bereits nur ein Hundertstel so breit wie ein menschliches Haar. Sind aber einzelne Schaltkreise allein durch wenige Atome voneinander getrennt, beginnen Quanteneffekte zu wirken. Das sind physikalische Gesetzmäßigkeiten, die Elektronen dazu befähigen, dünne isolierende Schranken zu „durchtunneln“ und damit Lecks in den Schaltkreisen solcher Chips zu erzeugen. Etwa für das Jahr 2020 sagen Experten das Erreichen physikalischer Grenzen voraus. Dann nämlich dürften Transistoren auf den Chips nur noch Abmessungen von rund 100 Atomen haben. Ein weiteres Verkleinern würde ein sicheres Funktionieren der Chips infrage stellen. Nur mit ganz neuen Methoden und Technologien lassen sich diese Barrieren überwinden.
Schlüssel zur Miniaturisierung
Die Foto-Lithografie ist einer der kritischsten Prozesse in der Halbleiterproduktion. Damit bringt man Fotolack auf die Oberfläche der Wafer, der Substrat-Grundplatten. Durch Belichten einer Maske auf die Oberfläche des Wafers werden die Schaltkreisstrukturen übertragen. Eine Optik reduziert die Größe der Strukturen auf Submikron-Ebene. Nach dem Belichten wird die Wafer-Oberfläche entwickelt, um die licht-undurchlässige Schicht von der belichteten Struktur zu entfernen.
Der Schlüssel zu immer kleineren Strukturgrößen war also die optische Lithographie mit immer kleineren Belichtungswellenlängen. Anfang 2000 kam es zum letzten Wellenlängen-„Umstieg“ − hin zum Argon Fluorit-Excimerlaser, Stichwort 193-nm-Lithografie. Diese Technologie ermöglicht heute das Herstellen der kleinsten Strukturen für den 45-nm-Technologieknoten bzw. 28-nm-Planartechnik. Direktschreibverfahren mit Elektronenstrahlen erzeugen dagegen Strukturen von weniger als 50 Nanometer Breite, mit Ionenstrahlen sogar bis hinunter zu drei Nanometern. Allerdings arbeiten diese Verfahren heute noch seriell, Schaltung für Schaltung ab, also sehr langsam. Parallel arbeitende Direktschreibverfahren sind in der Entwicklung. Sie könnten eines Tages die Lithographie-Verfahren ersetzen und Chips mit wenigen Nanometer großen Strukturen in großen Serien erzeugen.
Warum die Sucht zur Verkleinerung?
Durch stetes Verkleinern der Transistoren in Schaltkreisen konnte man mehr Funktionen auf derselben Chipfläche unterbringen. Das führt zu höherer Packungsdichte und zu geringeren Kosten. Kleinere Strukturen lassen kürzere Schaltzeiten der Transistoren zu. Dadurch steigt die Rechenleistung von Mikroprozessoren merklich, die Speicherkapazität erhöht sich. So entstanden Computer von wenigen zehntausend Byte der 1970er, über die 16 bis 64 Kilobyte des ersten IBM-PC, bis hin zu vielen Gigabyte großen Speichern in heutigen Computern. Eine natürliche Grenze ist das Annähern an die Dimension von atomaren oder molekularen Vorgängen.
Die Grenzen heutiger Computertechnologie sind erreicht − durch die Wellenlänge des Lichtes. Da ein Schaltbild auf den Chip durch ein lithografisches Verfahren übertragen wird, sind kleine Strukturdetails nur bei kleineren Wellenlängen des „Litho-Lichtes“ erkennbar. Mit den heutigen Techniken lassen sich Strukturen mit der Breite eines Viertelmillionstel Meters erzeugen. Auf Röntgen- und Elektronenstrahlen beruhende Methoden können das Auflösungsvermögen zwar noch etwas steigern. Das ist nur möglich mit aufwendigen und kostspieligen Produktionsverfahren.
Grenzprobleme der Materialien bei der Miniaturisierung
Die Lithografie basiert auf lichtempfindlichen Lacken, die aus langkettigen organischen Molekülen bestehen. Die Moleküle in der aufgetragenen Lackschicht sind zufällig verteilt. Das ist unbedeutend, solange die Strukturen deutlich grösser sind als die Moleküle selbst. Reichen die Strukturen − etwa die Leiterbahnen auf einem Chip − in die Größenordnung der Moleküle, beginnt die Breite der Leiterbahnen zu schwanken: Die Moleküle können quer zu einer vorgesehenen Leiterbahn liegen und damit nach der lithografischen Übertragung der Struktur zu Ausbuchtungen führen. Durch das Verkleinern wird außerdem die isolierende Schicht immer dünner gestaltet. Das birgt das Risiko von Strom-Lecks. Derzeit beträgt die Schichtdicke nur noch 1,1 Nanometer; das entspricht etwa fünf Atomlagen. Damit ist die Grenze erreicht, in der Siliciumdioxid noch als Isolator wirken kann.
Ein noch weiteres Miniaturisieren der Transistoren setzt zwingend neue Materialien voraus. Diese müssten eine höhere Dielektrizitätskonstante D als herkömmliches Siliciumdioxid haben. Die Konstante D gibt die Durchlässigkeit eines Materials für elektrische Felder an und ist damit ein Maß für dessen isolierende Wirkung. Intel und IBM gaben bekannt, dass Hafniumdioxid das Material der Wahl beim Schritt zur 45-Nanometer-Technologie sei.
Auf dem Weg zum Quantencomputer
Das zitierte Moore's Gesetz wird womöglich um das Jahr 2020 seine Gültigkeit verlieren, wenn nämlich die Schaltkreisstrukturen in die Größenordnung von Atomen und Molekülen eindringen. Im Reich der Atome und subatomaren Teilchen herrschen nämlich die „eigenwilligen“ Gesetze der Quantenmechanik. Noch seltsamer: Nicht nur die Natur eines Teilchens in der Quantenwelt ist nicht eindeutig, es weigert sich auch, sich auf einen Ort festlegen zu lassen. Erstmals postulierte das 1920 der Physiker Werner Heisenberg mit seiner Unschärfetheorie. Was bedeutet das? Nichts anderes, als dass der konkrete Aufenthaltsort eines Objekts unbestimmt ist und sich nur als Wahrscheinlichkeit schätzen lässt. So kann es sein, dass sich ein Photon an zwei Orten gleichzeitig aufhält.
Normal-Computer vs. Quantencomputer
Unsere heutigen Silicium basierten Digitalrechner sind eigentlich grobschlächtige „Rechengesellen“, denn ein Bit − die fundamentale Informationseinheit aller heutigen Computer − repräsentiert immer einen von zwei „klassischen“ Zuständen: Nein oder Ja, 0 oder 1, Strom oder kein Strom. Das „Urmeer“ des Universums, so glauben viele Physiker, ist die Quanten-Information. Ein Quantencomputer wäre darin heimisch. In der „unscharfen“ Quantenwelt kann aus dem „Entweder oder“ ein „Sowohl als auch“ werden. Die „Schalter-Hauptakteure“ sind hier keine elektronischen Bauteile, sondern Atome oder Photonen. Die gehorchen ganz eigenen Gesetzen der Quantenwelt, sie haben nicht nur die Wahl zwischen „Null“ und „Eins“. Gleichzeitig können sie nämlich auch alle Zustände dazwischen einnehmen.
Ein herkömmlicher Computer erledigt ja eine Rechenoperation nach der anderen. Im Gegensatz dazu kann ein Quantencomputer schon mit einem einzigen Quanten-Bit oder Qubit alle möglichen Ergebnisse einer Rechenoperation gleichzeitig kalkulieren. Das erlaubt ihm, eine Million Kalkulationen in der Zeit durchzuführen, in der ein bisheriger Computer gerade einmal eine einzige schafft. Aus nur 40 Qubits würde er in nur 100 Schritten dasselbe leisten wie ein Supercomputer mit Milliarden von Bits in vielen Jahren.
Neuere Erkenntnisse der Quantenphysik könnten helfen, eines Tages Schaltelemente für einen Quantencomputer zu entwickeln. Ein Beispiel ist der Ein-Elektron-Transistor, an dessen Verwirklichung man bereits arbeitet. Zum Vergleich: Heute benötigt ein Schaltvorgang auf einem Speicherchip noch einige 10 000 Elektronen. Volumenbezogen wäre es ein Würfel von einem Mikrometer Kantenlänge.
Kleinste mikrotechnisch erzeugte Strukturen?
Mit ultraspitzen Sonden wie sie z.B. in Rastertunnelmikroskopen verwendet werden, lassen sich sogar einzelne Atome verschieben und zu Mustern gruppieren. Inzwischen existieren sogar Konzepte, um komplexere Informationen innerhalb nur eines einzigen Atoms abzulegen, genauer gesagt, in den bis zu 80 Elektronen, welche die Hülle eines Atoms bilden.
Ein Quantenbit, das Qubit, dargestellt etwa durch ein Photon, kann einen Überlagerungszustand einnehmen – also die Werte 0 oder 1 gewissermaßen repräsentieren. Und mit jedem Qubit, das dazukommt, vervielfacht sich die Zahl der darstellbaren Werte. Die Rechenkapazität wächst atemberaubend schnell: Mit drei Qubits könnte man bereits acht Werte simultan darstellen, mit zehn bereits1024 – und mit 250 Qubits schon mehr Zahlen, als es Atome im Universum gibt!
Die seltsamen Regeln der Quantenphysik erlauben es theoretisch, mit all diesen Werten gleichzeitig zu rechnen. Um in einem Telefonbuch den Namen zu einer bestimmten Rufnummer zu finden, muss ein normaler Computer z.B. im Schnitt einige Hunderttausend Einträge prüfen. Geheimdienstler aufgepasst: Ein Quantencomputer kommt dagegen mit 1000 Suchschritten aus, weil er so viele Einträge gleichzeitig erfasst.
Zu den gängigen Ansätzen für die „Hardware“ eines Quantenrechners gehören so genannte Ionenfallen. Im Kern bestehen sie aus einem so genannten Käfig, in dem elektrische Felder geladene Atome festhalten und von der Umwelt isolieren. In diesem Schwebezustand können die Atome als Träger für Qubits fungieren. Mit Laserpulsen lassen sie sich beschreiben und auslesen. Das Problem ist allerdings die enorme Empfindlichkeit – die kleinste Störung zerstört das Arrangement der filigranen Quantenbits. Ein hypothetischer Quantenrechner könnte auch Probleme lösen, bei denen der notwendige Rechenaufwand ins Uferlose wächst, also exponentiell. Dazu gehört unter anderem das Zerlegen von großen Zahlen in ihre Primfaktoren. Das Fakturieren von Zahlen mit mehreren hundert Stellen überfordert alle heutigen Computer. Auf der Schwierigkeit dieses Problems beruhen wichtige Verschlüsselungs-Algorithmen, von denen etwa die Sicherheit unserer Daten im Internet abhängt.
Computer aus Biomolekülen
Noch liegt der fertige Computer mit DNA-Molekülen als Speichermedium in weiter Ferne. Nach den Plänen der Wissenschaftler übernehmen in Computern der Zukunft informationsspeichernde Moleküle die Funktion herkömmlicher Siliciumspeicher. Die Crux: Die Moleküle haben die Eigenschaft, auf unvorhersehbare Weise zu mutieren.
Wäre ein DNA-Computer denkbar, der mit der Erbsubstanz als Speicher- und Verarbeitungsmedium arbeiten könnte? Die DNA (deoxyribonucleic acid) verbirgt sich in jeder unserer Zellen. Insgesamt wabern im menschlichen Körper etwa fünf Gramm DNA. Diese DNA − zusammensetzt aus 1021 DNA-Basen – repräsentieren ungefähr den Speicherwert von 10 Millionen Terabyte. Das ist eine ungeheure Menge an Informationen, die unsere DNA speichern kann.
Noch eleganter wäre es, könnte man mit „Werkzeugen“ arbeiten, die selbst von molekularer Natur sind: Biocomputer also, die durch Steuerung einzelner Atome Nanomaschinen in der Größenordnung eines millionstel Millimeters schaffen. Diese könnten dann die molekularen Ausgangsstoffe Stück für Stück zu größeren Strukturen mit neuen funktionalen Eigenschaften zusammenlagern. Und jetzt wird es spannend, denn für diese Idee gibt es in der Natur ein großes Vorbild: Der Bauplan für einen kompletten Menschen steckt ja in einem einzigen großen Molekül, der DNA. Das ins Werk setzen dieses Bauplans geschieht vollständig durch hoch spezialisierte Moleküle; sie lesen die Erbinformation, übersetzen sie und bewirken, dass sich ganze Ketten von Molekülbausteinen bilden. Diese verarbeiten wiederum andere spezialisierte Moleküle weiter, bis sie verschiedenste Funktionen übernehmen können. Auf diese Weise sorgen Enzyme für den Aufbau von Eiweißen und Hormon-Moleküle beeinflussen in winzigen Mengen den Ablauf komplexer Körperfunktionen.
Die Science Fiction-Vision
Wären wir nach in der Lage nach diesem Natur-Vorbild sogar molekulare Werkzeuge herstellen, die neue Mikroprodukte zusammenbauen? Ließen sich planmäßig Moleküle aus einzelnen Atomen zusammensetzen, die spezielle ihre zugewiesenen Fertigungsaufgaben erfüllen? Die sich vielleicht sogar selber reproduzieren, andere Moleküle gezielt auffinden oder sich zu größeren Molekülverbänden zusammenlagern können? Können diese Verbände dadurch neue Funktionen erhalten und andere, komplexere Aufgaben wahrnehmen? Und wie weit ist molekulares Verhalten vorausplanbar? Das von der Natur seit Milliarden Jahre als Informationsträger eingesetzte Speichermolekül der DNA besteht aus den vier Basen Adenin, Cytosin, Guanin und Thyimin. Sie sind auf den beiden Strängen des DNA-Moleküls wie auf einer Perlenschnur aufgereiht. Computerspeicher aus DNA könnten somit vier Schaltzustände nutzen, zwei mehr als die elektronischen Speicher.
Die Domäne des DNA-Rechenkünstlers sehen Computerwissenschaftler in Suchproblemen, etwa die Suche einer bestimmten Zahlen- oder Buchstabenkombination. Nehmen die Kombinationsmöglichkeiten von Suchproblemen zu, so wachsen sie herkömmlichen Rechnern schnell über den Kopf, weil diese eine Rechenoperation nach der anderen ausführen. Ein Prozessor eines normalen PCs rechnet sich einen „Wolf“, dagegen würden parallelrechnende DNA-Moleküle in DNA-Prozessoren elegant diese Aufgabe schnell erledigen.
Einst werden Quanten- und Biocomputer die heutigen Computer weit übertreffen − durch hohe Vernetzung, Parallelität und Geschwindigkeit der Informationsverarbeitung auf engstem Raum. Vor allem bei bestimmten Problemen, die sich in viele parallele Rechenschritte zerlegen lassen. Dazu gehört die Datenbanksuche. Für die Geheimdienste wären das Fluch und Segen zugleich: Verschlüsselungs-Algorithmen wären „unknackbar“: Der Lauschangriff auf Transatlantikkabel fände z.B. ein Ende. Dagegen wäre ein weltweiter Zugriff auf unverschlüsselte gigantische Datenmengen der gläsernen Bürger ein Leichtes. Die schaurig-schöne Computerwelt bleibt uns erhalten „Sure, we scan“!