»Aus nichts kann nichts entstehen«, tadelt Shakespeares König Lear seine Tochter Cordelia, als die sich weigert, es ihren Schwestern gleichzutun und den Vater zu umschmeicheln. Aus diesem Nichts entspinnt der Dichter dann jedoch sein ganzes Drama. Und so ähnlich ist es mit dem mathematischen Nichts, der Null. Kurzum, König Lear hat Unrecht, das Gegenteil ist richtig: Aus nichts kann alles entstehen – selbst das Universum (die 1) ist, soweit wir wissen, aus dem Nichts entstanden. Oder sagen wir: aus fast nichts. Denn irgendetwas muss doch da gewesen sein. Aber was das ist, beginnen wir erst heute langsam zu verstehen.
Zwar können wir uns die Null denken, auch wenn uns vor der Leere grauen mag. Sobald wir aber versuchen, sie im Außen, im physikalischen Raum zu finden, werden wir enttäuscht. Die Null auf dem Thermometer, auf der Waage, auf dem Tacho ist eine mehr oder weniger willkürliche Setzung, die wir selbst beziehungsweise die jeweiligen Erfinder dieser Messinstrumente vorgenommen haben. Null Grad Celsius beispielsweise entsprechen 32 Fahrenheit. In allen Fällen aber steht die Null für eine Maß gebende Relation, für den Umschlagpunkt zwischen negativ und positiv, wobei uns die negativen Mengen dann ähnliches Kopfzerbrechen bereiten wie die Null selbst. Sagte uns jemand, er habe minus drei Äpfel im Einkaufswagen, oder hörten wir den Satz: »ich bewege mich mit minus 10 km/h«, würden wir am Verstand des Sprechers zweifeln.
Aber auch am eigenen Verstand kann man angesichts der Null immer wieder ins Zweifeln geraten. Auf die wunderbare Kinderfrage etwa, ob die Zeit einen Anfang, einen »Nullpunkt« hat, werden wir bis an ihr Ende keine Antwort geben können, jedenfalls keine, deren Richtigkeit sich nachweisen ließe. Und selbst die leersten Räume, das Vakuum, so lehrt uns die Physik, sind angefüllt mit Strahlung, mit Energie, und dies wiederum lässt sich leicht überprüfen, indem wir das Radio, den Fernseher oder unser Smartphone anschalten – und Bilder, Töne, Texte empfangen: aus dem »Off«, dem Nirgendwo und Überall. Das Nichts ist also weder stumm noch leer. Es ist da, in und außer uns, aber wir können es nicht dingfest machen.
Ist die Null also nichts als ein gedankliches Konstrukt? Im Prinzip ja, aber sie ist eine logisch absolut schlüssige »Idee« mit ungeheurer mathematischer Evidenz und machtvoller empirischer Wirkung. Lassen wir also das Grübeln hinter uns und wenden uns demütig dem Reich der Zahlen und der Dinge zu, bleiben aber noch für einen Moment theoretisch, weil das vermeintlich Abstrakte sehr handfeste Konsequenzen hat. Schauen wir uns die Null und ihren Counterpart, die Eins, etwas genauer an, haben beide Zahlen eine seltsame gemeinsame Eigenschaft, die sie von allen anderen Zahlen unterscheidet. Und diese Besonderheit ist gewissermaßen das schlagende Herz der Digitalisierung.
Null mit Null multipliziert, ergibt immer Null, Eins mit Eins multipliziert, bleibt immer Eins. Formalisiert man diese beiden Rechnungen, erhält man die verstörende Formel x=xⁿ. Jeder, der sich an ein wenig Schulmathematik erinnert, wird sogleich einwenden: Aber das kann doch nicht sein! Jedes distinkte x, jeder einzelne Wert ist praktisch zugleich unendlich groß, jeder Gegenstand im Überfluss vorhanden? Dass das Unsinn ist, wissen wir doch seit der Grundschule. 2 ist eben nicht gleich 2ⁿ, und dasselbe gilt für alle anderen Zahlen – außer eben der Null und der Eins. Soweit korrekt, aber Unsinn ist der Gedanke keineswegs. Denn was passiert, wenn man die gesamte Welt der Zahlen in einen binären Code überträgt? Wenn man sich, statt zehn Symbole zu nutzen, auf zwei, eben die 0 und die 1 beschränkt? Dann wird aus 2 »eins-null«, aus 3 »eins-eins«, aus 4 »eins-null-null«, aus 5 »eins-null-eins« und so weiter. Plötzlich stimmt die Formel irgendwie – und macht sie tatsächlich zu einer Art Grundformel der Digitalisierung.
Und hierbei handelt es sich nicht um einen Taschenspielertrick. Der auf den ersten Blick bizarr anmutende Gedanke ist keineswegs einem verwirrten Geist entsprungen. Er hatte schon einen Gottfried Wilhelm Leibniz (1646-1716) umgetrieben. In einem Brief an den Herzog Rudolf von Braunschweig-Wolfenbüttel vom 2. Januar 1697 erklärte er die Eins und die Null, die »leere Tiefe« oder »das Nichts« und den »Geist Gottes«, zum »Ursprung aller Zahlen«: Omnibus es nihilio ducendis sufficit unum (Alles aus dem Nichts zu entwickeln genügt Eins). Allein mit diesen beiden Zahlen, war Leibniz überzeugt, »mit denen man alle Zahlen schreiben kann«, würden sich mechanische Rechenoperationen durchführen und ein »Calculus ratiocinator«, eine Maschine, entwickeln lassen, die »die Leistungsfähigkeit des Geistes weit mehr erhöhen wird, als die optischen Instrumente die Sehschärfe der Augen verstärken«. Vor mehr als 300 Jahren nahm Leibniz damit ein binäres Codiersystem vorweg, das »sehr leicht und ohne Aufwand mit einer Maschine ausgeführt werden« könne. »Eine Büchse soll so mit Löchern versehen sein, dass diese geöffnet und geschlossen werden können. Sie sei offen an den Stellen, die jeweils 1 entsprechen, und bleibe geschlossen an denen, die 0 entsprechen. Durch die offenen Stellen lasse sie kleine Würfel oder Kugeln in Rinnen fallen, durch die anderen nichts. Sie werde so bewegt und von Spalte zu Spalte verschoben, wie die Multiplikation es erfordert.«
Gebaut hat Leibniz eine solche Vorrichtung meines Wissens nicht. Denn um damit wirklich rechnen zu können, hätte es der Möglichkeit bedurft, die Ergebnisse zu speichern und wieder aufzurufen. Ein solches Verfahren sollte erst sehr viel später entwickelt werden, und ein Ingenieur war der Universalgelehrte sicher nicht. Tatsächlich hat Leibniz aber mit seinen Gedanken das sogenannte Schieberegister erfunden, das heute in allen Prozessoren Anwendung findet, worin die ursprünglich genannten Glaskügelchen und Löcher lediglich durch Spannungsgradienten und Elektronenimpulse ersetzt sind. Das Prinzip ist das gleiche.
Leibniz‘ Grundgedanke inspirierte dann wiederum einen heute leider weitgehend vergessenen Denker, den Mathematiker George Boole (1815-1864), auf dessen binärer Logik unsere Computerkultur letztlich ebenso beruht wie auf der bereits ein Jahrhundert zuvor durch Luigi Galvani (1737-1798) und andere entdeckten Elektrizität. In seinem 1854 erschienenen Buch mit dem Titel »The Investigation of the Law of Thought« entwarf Boole ein logisches Universum, das allein auf den »Markern« Anwesenheit und Abwesenheit, 0 und 1, beruht. Alle anderen Zahlen werden dadurch bei ihm – wie zuvor schon bei Leibniz – zu Erscheinungsformen dieser binären Codierung. Und allerspätestens in diesem Moment beginnt unsere Zukunft.
Allerdings nicht sofort. Die Zutaten, die nötig waren, um Leibniz‘ Maschinentraum zu verwirklichen und die Boole’sche Logik praktisch werden zu lassen, waren zwar schon vorhanden – die Elektrizität und verschiedene Codierungsmethoden –, wurden aber noch nicht recht durchschaut, auch von Boole selbst nicht, und schon gar nicht beherrscht. Dass Booles Revolution darüber einerseits in Vergessenheit geriet, andererseits jedoch weiterhin ein Schattendasein führte, ist dem Wirken von Gottlob Frege (1848-1925), dem Begründer der Sprachphilosophie und der formalen Sprachen, zu verdanken. Denn dessen Logik, die geradewegs zur Informatik und Computerwissenschaft führt, war nichts anderes als eine »Umschrift« der Boole’schen Vorlage, deren Urheberschaft Frege allerdings geflissentlich verschwieg und sogar leugnete. So blieb George Boole lediglich unter Mathematikern bekannt, obwohl er strenggenommen gar keine Mathematik betrieb, sondern ein Zeichen- oder Ordnungssystem erschuf – von seiner Wortherkunft her bedeutet »rechnen«: etwas in Ordnung bringen –, das die Algebra vom Zahlzeichen löst, indem es die 0 und die 1 dem herkömmlichen Wertverständnis entzieht und zu Statthaltern macht, die auf nichts in der Welt verweisen und gerade daher für alles stehen können.
Erst Booles binärer Code macht es schließlich möglich, von einem Zahlensystem zum anderen zu springen, wobei sich alle mathematischen Operationen zugleich sehr viel einfacher gestalten als mit der herkömmlichen Dezimalrechnung. Dadurch gerät eine Maschine in den Blick, die sich, anders als die von Leibniz erdachte Gerätschaft und konsequenter noch als etwa ein Lochkarten-System, durch Programmwechsel in alles Erdenkliche zu verwandeln vermochte, sofern es gelingen würde, einige technischen Voraussetzungen zu schaffen. Nein, ich korrigiere mich: Dass eine solche Maschine »in den Blick gerät«, klingt wie ein logischer Schluss, erschließt sich in Wahrheit aber erst in der Rückschau. Boole, seine Zeitgenossen und die unmittelbar Nachgeborenen hatten noch keine Maschinen-Vision, die auch nur im Entferntesten auf unseren Computer zusteuerte – mit einer rühmlichen Ausnahme, Charles Babbage (1791-1871), von dessen »Analytical Engine« ich sicher mal in einem der nächsten Hefte erzählen werde.
Warum? Weil unser »digitales Zeitalter« auf diesen bereits im 19. Jahrhundert erdachten Grundlagen beruht. All die Wunderdinge, an denen wir uns heute erfreuen und/oder die uns Angst machen, basieren letztlich auf der Boole’schen Formel: x=xⁿ. Und das ist nicht nur wissenschaftsgeschichtlich interessant. Denn an derselben Formel – das ist gewissermaßen mein »Weihnachts-Orakel« – wird der Kapitalismus am Ende zugrunde gehen. Er weiß es nur noch nicht.
Lektüreempfehlungen: Martin Burckhardt/Dirk Höfner: Alles und Nichts: Ein Pandämonium digitaler Weltvernichtung, Berlin 2015, 93 S., 12 €.