Es mag befremdlich klingen, aber die Geschichte der Digitalisierung beginnt lange vor unserer Zeit, vor gut 5000 Jahren, als vermutlich die Sumerer die Null in ihr Zähl- und Rechensystem einfügten. Dieselbe bedeutende Weichenstellung geschah später, unabhängig davon, auch in Indien, wo die Null zum ersten Mal als Kreis auftaucht – entstanden aus dem Abdruck eines rundes Steins in einem mit Sand bedeckten Rechenbrett –, und von wo aus sie schließlich die arabische Welt erreichte. Die Umstände all dessen liegen weitgehend im Dunkeln. Die Null ist gewissermaßen ein Gedanke ohne Denker, sie ist plötzlich da – wie übrigens auch das für unsere Kultur so maßgebliche Alphabet, das der Legende nach vom phönizischen Königssohn Kadmos, dem späteren Gründer Thebens, nach Griechenland gebracht wurde, als er auf Geheiß seines Vaters Agenor nach seiner von Zeus in Gestalt eines weißen Stiers nach Kreta entführten Schwester Europa suchte.
So kam auch der Kontinent zu seinem Namen und gelangte nicht zuletzt durch eben jene Befähigung zum Schreiben und Rechnen zu großer Blüte, weil sich dadurch das Spektrum der Möglichkeiten, »Wissen« zu sammeln und weiterzugeben, enorm vergrößerte. Wie das alles im Einzelnen vor sich ging, lässt sich, wie angedeutet, nicht lückenlos rekonstruieren.
Die Zahlen und das Alphabet, so wird allgemein angenommen, sind ursprünglich vor allem erdacht worden, um Handel und Austausch zu ermöglichen. Gab es zunächst zahllose piktografische Codes und Sprachen – das sprichwörtliche babylonische Sprachgewirr –, so brauchte man, um auch außerhalb der eigenen Gruppe Waren zu tauschen, eine gemeinsame Verständigungsbasis. Entsprechend handelt es sich bei den ersten überlieferten, die Sprachgrenzen durch ein universelles Zeichensystem überwindenden Informationen zumeist um Lager- und Ladelisten, um Maße, Gewichte und Abrechnungen. Erst langsam wurde aus solchem »Zählen« dann auch das »Erzählen«, weil sich die universelle Zeichenbasis ja nicht nur eignete, um Kataloge und Lieferlisten zu erstellen oder Bestellungen aufzugeben, sie konnte auch genutzt werden, um Gedanken, Wünsche und Geschichten niederzuschreiben.
Zunächst einmal wurde jedoch vor allem nicht er-zählt, sondern ge-zählt, allerdings in weiten Teilen der Welt über viele Jahrhunderte ohne die Null. Die Null galt nicht als Zahl, sondern bis weit ins Mittelalter hinein allenfalls als Zeichen. Und gerade das deutsche Wort »null« kann diese ursprüngliche Zuschreibung kaum verleugnen; es gründet auf dem lateinischen Ausdruck »nulla figura« (keine Zahl). Gleichwohl war die Bedeutung des Wortes durchaus bekannt, weil bildlich nachvollziehbar: Es stand für die Leere, die ein aus einer Zahlenreihe des Rechenbretts entfernter Stein zurückließ. Aber dieses Nichts, das sich keinem Ding, keinem wahrnehmbaren Objekt zuordnen ließ, war buchstäblich nicht zu fassen und machte deshalb Angst. Die Abwesenheit von jedem sinnhaften Bezug hatte etwas Teuflisches. So stellte man sich die Hölle vor.
Das machte das Zählen und Rechnen allerdings kompliziert, denn sobald man ein Ergebnis festhalten wollte, benötigte man hierfür ein Symbol. Als Grundeinheiten dienten wahrscheinlich unsere zehn Finger, die sich beispielsweise durch zehn Striche symbolisieren ließen. Was aber, wenn das Ergebnis die Zehn überschritt? Man musste immer weitere Striche hinzufügen, was dann schnell vollständig unübersichtlich wurde. Die Römer kamen deshalb bekanntlich auf die Idee, verschiedene Buchstaben mit Zahlenwerten zu belegen: V für fünf, X für zehn, L für 50, C für 100 und so fort. Durch Kombination dieser Symbole ließen sich dann auch andere Werte einigermaßen elegant ausdrücken – XL für 40, LX für 60 –, aber wirklich rechnen konnte man mit den Ziffern nicht, sondern lediglich das Ergebnis darstellen. Und je größer die Zahlen wurden, desto umständlicher gestaltete sich die Angelegenheit; wir kennen das von frühen Kirchenbauten, deren Fertigstellungsjahr ins Mauerwerk gemeißelt wurde. Selbst die vergleichsweise überschaubare Zahl 1697 stellt sich dann als MDCXCVII (also 1000 + 600 + 90 + 7) dar.
Ohne die Zahl Null ist ein Stellenwertsystem, wie wir es nutzen, nicht denkbar, das die erste 6 in der Zahl 1697 als 600 kenntlich macht, ohne sie als 600 bezeichnen zu müssen, weil sie sich an der Hunderterstelle befindet. Erst mit der Null wird das Rechnen aus seinen Fesseln erlöst und das Reich der Zahlen immens erweitert, so dass sich die Mathematik in ungeahnte Höhen aufschwingen kann. Dienten die Zahlen bis dahin zur Beschreibung von Objekten, so wurden sie nun, wie die Null, gewissermaßen selbst zu Objekten, selbständig. Das änderte die Sicht auf die Welt ganz grundlegend und markiert einen kulturellen Nullpunkt, aus dem die uns bekannte Welt hervorgeht. War es bislang nicht möglich, beispielsweise 1 durch 4 zu teilen und als Resultat 0,25 auszugeben, weil sich das Ergebnis der Aufgabe, ohne Kenntnis der Null, nur durch eine andere Proportion – 1 : 4 verhält sich wie 2 : 8 – beschreiben ließ, so entstehen nun die Idee einer »objektiven« Betrachtung und die Logik der Repräsentation. Aus dem Denken in Analogien wird Wissenschaft, aus analog wird repräsentativ.
Wann dies geschah, ist nicht exakt zu datieren. Wiederum spielte hierbei ein Kaufmann, Leonardo von Pisa, genannt Fibonacci, eine wichtige Rolle, der die arabischen Zahlen, inklusive der Null, aus seinen Reisen durch Ägypten, Syrien und Sizilien nach Europa mitgebracht hatte. Seine 1202 in dem »Buch des Abakus« (Liber Abaci) veröffentlichten Kenntnisse hatten große Wirkung, weil durch eine stete Zunahme des Handels auch eine wachsende Nachfrage nach präzisen Berechnungen entstanden war. Es sollte zwar noch einmal mehrere hundert Jahre dauern, bis sich die Null als Zahl, nicht mehr nur als Zeichen endgültig durchgesetzt hatte, aber ihr Aufstieg war nicht aufzuhalten.
Wiederum waren hierbei Händler und Kaufleute die treibenden Kräfte. Eine enorme Ausweitung der Handelsaktivitäten insbesondere in den aufstrebenden italienischen Stadtstaaten Venedig, Genua und Florenz hatte die damit einhergehenden Datenmengen derart wuchern lassen, dass eine präzise, jederzeit auch von einem Dritten nachvollziehbare Buchführung immer dringlicher wurde. Die Idee war denkbar einfach – und ist im Wesentlichen bis heute unverändert geblieben: Soll und Haben, Ausgaben und Einnahmen, Verluste und Gewinne werden in parallelen Spalten nebeneinander dokumentiert und am Ende saldiert. Das ist im Grunde schon alles. Erst als diese »doppelte Buchführung« zu Beginn des 14. Jahrhunderts in Italien erfunden wurde und sich rasch in allen Handelsdynastien etablierte, trat die Null schließlich ihren Siegeszug als zweite Königszahl der Mathematik – neben der 1 – an. Als Minimalziel und als Beweis seriöser Buchhaltung galt fortan, wenn Ausgaben und Einnahmen ausgeglichen waren, die Differenz also null betrug. Die Null war nun der Wendepunkt zwischen negativen und positiven Mengen, zwischen Gewinn und Verlust, zwischen Vergangenheit und Zukunft.
Tatsächlich ist hiermit zugleich der Grundstein dafür gelegt, was wir heute Digitalisierung nennen. Denn deren inneres, ganz und gar einfaches Geheimnis besteht darin, dass alles, was es gibt oder geben könnte, alles, was geschieht oder geschehen könnte, durch eine Kombination von nur zwei Zuständen beschrieben werden kann: »ein« und »aus«, anwesend und abwesend. Indem ich diese zwei Zustände mit den Ziffern 1 (ein) und 0 (aus) benenne, erhalte ich ein binäres Zeichensystem, mit dem sich buchstäblich alles, auch das alphabetisch Unsagbare, also das Unmögliche, sagen lässt. Das mag zunächst kryptisch klingen, eröffnet aber einen praktisch unendlichen Möglichkeitsraum. Wie das?
Die kleinste Informations- oder Dateneinheit dieser neuartigen Universalsprache ist ein Bit – das ist eine Abkürzung des englischen »binary digit«, Binärziffer. Dieses Bit kann zwei Zustände haben, es ist entweder geladen (ein) oder nicht geladen (aus). Belegen wir das Bit mit einem Zahlenwert, stünde der nicht geladene Zustand für die 0, der geladene für die 1. Fügen wir ein Bit hinzu, kämen wir bis 3 (die Kombination aus geladen/nicht geladen wäre die 2, aus geladen/geladen die 3); wir hätten also, inklusive der Null, nun vier Zahlen beschrieben. Mit jedem weiteren Bit würden sich die möglichen Zustände – in unserem Fall also die Zahlen – verdoppeln, wir verzeichnen ein exponentielles Wachstum. Mit 4 Bits lassen sich 16 Zahlen, mit 8 Bits bereits 256 Zahlen notieren, und mit 32 Bits wären wir schon im Milliarden-Bereich angekommen, exakt bei 4.294.967.296 Zahlen.
Und was ist damit gewonnen? Nun, sobald die Elektrizität ins Spiel kommt, eine ganze Menge, im Grunde alles. Denn alles, was sich in elektrische Spannungszustände übersetzen lässt – und was wäre das nicht? – kann selbstverständlich in eine Serie von Einsen und Nullen überführt werden. Die gerade beispielhaft angeführten Bit-Zustandskombinationen lassen sich ja nicht nur mit Zahlen belegen, sondern auch mit Farbpixeln oder Bildpunkten, mit Tönen und Bewegungsabfolgen, mit Temperatur- und Positionsdaten oder mit Buchstaben. Sobald es also gelingen würde, solche Daten zu verarbeiten, zu speichern und zu übermitteln, würde sich ein Reich aus zahlenmäßig nahezu unbegrenzten Möglichkeiten eröffnen. Und genau das ist der Nährboden, auf dem die Digitalisierung gedeiht und aus dem sie ihre Dynamik bezieht. Kaum etwas, was uns heute unmöglich erscheint, wird noch Bestand haben. Der Fantasie (des Programmierens) sind keine Grenzen gesetzt. Eine Art »Schöpfung 2.0«. Ob das gut oder schlecht ausgeht, ist ungewiss. Umso wichtiger ist es, nicht nur über das »Neue« zu jubeln oder zu schimpfen, sondern unseren digitalen Analphabetismus zu überwinden und uns mit der Herkunft und der Funktionsweise all dessen möglichst vertraut zu machen, um es kritisch begleiten zu können.