Friedrich Kittler
Die Zukunft auf Siliziumbasis
The physical world is subtle and has many dimensions to play with. It is unsetting to remember that we are P time bounded symbol beings, dwarfed by the effective computing resources in a thimbleful of water.
Brosl Hasslacher
Der Bedarf an Propheten, wenn ich den Vortragseinladungen in meinem Briefkasten glauben darf, wächst unaufhaltsam. Offenbar werden die Bücher, die unsereins über Medientechnologien der letzten hundert Jahre vorgelegt hat, nurmehr durchblättert, um die Medientechnologien der nächsten hundert Jahre zu extrapolieren. Solchen Wünschen bleibt jedoch der achtundneunzigjährige Satz Mallarmés entgegenzuhalten, daß kein Würfelwurf - also auch kein Vortrag aus Wörtern oder ASCII-Zeichen - den Zufall jemals abschaffen wird.
Über die Zukunft im allgemeinen und die der Architektur im besonderen zu reden, steht mir als Medienwissenschaftler folglich nicht zu. Ohne empirische Datenbasis, wie sie den Hochrechnungen und Zukunftsprognosen etwa der Industrie zugrundeliegt, kann die Medientheorie nur ein paar einfache Fragen stellen. Was mich beschäftigt, ist zunächst das Problem, was aus dem Begriff Zukunft unter hochtechnischen Bedingungen geworden ist, und anschließend die Frage, welche Architekturen diese Zukunft auf Siliziumbasis erfordert.
Zukunft im untechnischen, im alteuropäischen Wortverstand stammt, soweit ich sehe, aus jener seltsam reflexiven Sprache, die Grammatiker seit den Griechen über Sprachen geführt haben. Noch im Althochdeutschen, also einer Sprache fast ohne Grammatiker, hieß Zukunft schlicht und einfach Ankunft irgendwo an einer Raumstelle. Das lateinische Wort Futurum dagegen, dem die deutsche Zukunft im zeitlichen Wortsinn als Lehnübersetzung entstammt, geht auf eine der ehrwürdigsten Wurzeln zurück, die das Indoeuropäische seinen Sprechern und zumal seinen Philosophen beschert hat. Die Wurzel *bhu, die auch in Wörtern wie bin und bauen am Werk ist, also nach Heidegger von der Zugehörigkeit zwischen Sein und Architektur zeugt1, bezeichnete das Werden, Wachsen oder Entstehen. Zukunft im Wortsinn war demnach ein Raum externer Entwicklungen, jedem Eingriff der Menschen oder ihrer Werkzeuge entrückt. Selbst die großen mathematischen Gebäude seit Ägyptern und Babyloniern konnten ja nur voraussagen, was mit Regelmäßigkeit oder Periodizität schon in einer Vergangenheit immer wiedergekehrt war: Jährliche Überschwemmungen des Nils, Finsternisse der Sonne oder des Mondes. Was dagegen als Zufall über die Leute einbrach, vom Wetter bis zum Todesaugenblick, entging jeder Vorhersage, die nicht selber hinterrücks einem Zufall verdankt war. Anders gesagt: Den Zufall unter alltagssprachlichen Bedingungen prozedierten nur Orakel.
Orakel als heilige Stätten der Zukunftsenthüllung nutzten - wie in Dodona - das Rauschen von Eichenwäldern oder - wie in Delphi - den Rausch von Lorbeerblättern aus, um aus ihren eigenen Rauschquellen auf die unvorhersehbare Rauschquelle namens Zukunft hochzurechnen. ,,All diese Sibyllen", hieß es schon in einer von Plutarch zitierten Kritik des Orakelwesens, ,,haben grundlose Namen und Wörter von allerhand Ereignissen und Zufällen gleichsam in das unermeßliche Meer der Zeit auf gerathewohl hingeworfen".2 Orakel unter alteuropäischen Bedingungen, das heißt unter der Herrschaft einer Alltagssprache, wären also, streng nach Epikur oder Mallarmé, nur der absurde Versuch gewesen, den Zufall namens Zukunft durch den Zufall namens Sprache zu bändigen.
Aber auch die gegenteilige Annahme antiker Stoiker, daß nämlich die Götter selbst als Herren der Orakel die von ihnen bestimmte Zukunft sehr wohl müßten vorhersagen können, mündete in eine Aporie. In derselben Abhandlung Plutarchs hieß es zwar über Apollon: ,,Dieser Gott nun ist ein Wahrsager über die Kunst, das Zukünftige aus dem Gegenwärtigen und Vergangenen vorherzusagen. Denn die Entstehung keiner einzigen Sache ist ohne Ursache, noch die Vorhersehung derselben ohne Grund; sondern weil alles Gegenwärtige mit dem Vergangenen, und das Zukünftige mit dem Gegenwärtigen, in einer vom Anfange bis ans Ende ununterbrochen fortgehenden Folge, verbunden ist und zusammenhängt, so muß derjenige, der die Ursachen der Dinge nach natürlichen Gründen mit einander vereinigen und verbinden kann, auch das Gegenwärtige, Zukünftige und Vergangene wissen und vorhersagen können."3 Aber auch mit dieser schönen Definition einer Ursachenkette war der Kurzschluß zwischen Rauschen und Rauschen beileibe nicht abgestellt. Denn die alten Götter selber fielen mit Blitz, Donner und anderen Wettererscheinungen, deren Vorhersage sie hätten leisten sollen, ja schlicht zusammen.
Heute dagegen scheint es angebracht, den schönen alten Bezug zwischen Zukunft und Wachstum, vorläufig zumindest, zu vergessen. Immerhin haben wir (oder haben uns) Chips, die selber auf Siliziumplatten wachsen. Seitdem laufen Wettervorhersagen nicht mehr über Bauernregeln, Orakelanrufungen und Götterworte; sie sind Sache einer Mathematik geworden, die Perioden noch in Bereichen ermitteln kann, wo kein unbewaffnetes Auge über die Wahrnehmung von Zufallsserien hinauskäme. Die ungeheure Übermacht westlicher Kultur beruht auf Maschinen, denen jedes Verständnis für das Symbolische von Götternamen abgeht, weil sie einzig auf Verarbeitung reeller Zahlenkolonnen ausgelegt sind.
Sofern und solange auch diese Kultur noch einen Gott kannte, dann nur den seltsamen Dämon, den Laplaces Philosophischer Versuch über die Wahrscheinlichkeit 1814 eingeführt hat: Laplaces Dämon kennt die endlosen Ursachenketten zwischen Vergangenheit und Zukunft nicht mehr, wie bei Plutarch, kraft philosophischer Einsichten, sondern kraft mathematischer Kalküle, die erst die neuzeitliche Infinitesimalrechnung ihm beigebracht hat. ,,Wir müssen also", hieß es bei Laplace, ,,den gegenwärtigen Zustand des Weltalls als die Wirkung seines früheren und als die Ursache des folgenden Zustands betrachten. Eine Intelligenz, welche für einen gegebenen Augenblick alle in der Natur wirkenden Kräfte sowie die gegenseitige Lage der sie zusammensetzenden Elemente kennte, und überdies in derselben Formel die Bewegungen der größten Weltkörper, wie des leichtesten Atoms umschließen; nichts würde ihr ungewiß sein und Zukunft wie Vergangenheit würde ihr offen vor Augen liegen. Der menschliche Geist bietet in der Vollendung, die er der Astronomie zu geben verstand, ein schwaches Abbild dieser Intelligenz dar: Seine Entdeckungen auf dem Gebiete der Mechanik und Geometrie [...] haben ihn in Stand gesetzt, in demselben analytischen Ausdruck die vergangenen und zukünftigen Zustände des Weltsystems zu umfassen."4
Laplaces aufgeklärter Optimismus, was die Berechenbarkeit aller Zukunft angeht, hat mittlerweile Schaden erleiden müssen. Auch Laplace stützte sich noch viel zu einseitig auf periodische Funktionen, deren klassisches Beispiel einmal mehr die Astronomie abgab. Dagegen steht die absolut moderne Erforschung des Zufalls, der mit Sicherheit unperiodisch und schlimmstenfalls eine (um mit Norbert Wiener zu sprechen) nirgendwo differenzierbare Funktion ist. Das Glücksgefühl der mathematischen Analysis, Übergänge zwischen unendlich Kleinem und unendlich Großem berechnen zu können, ist dahin, seitdem die Chaostheorie nachgewiesen hat, daß bei nichtlinearen Systemen wie dem Wetter kleinste Abweichungen in den Anfangsbedingungen unendlich verstärkte Folgen im Ergebnis zeitigen. Der seit Lorenz berühmte Schmetterling, dessen falscher Flügelschlag Orkane auf anderen Erdteilen auslöst, allegorisiert nur diese Schwierigkeit meteorologischer Vorhersagen.
Viel weniger bekannt ist allerdings, daß der moderne Abschied vom Laplaceschen Dämon zu allem anderen als Skepsis geführt hat. Als der geschworene Atheist Alan Turing die Prinzipschaltung aller Computer entwarf, war es sein geschworenes Ziel, das Problem kleinster Abweichungen einfach abzuschaffen. Deshalb und nur deshalb verließ Turing Laplaces mathematische Analysis mit ihren infintesimal kleinen Werten und entwarf den Computer als eine Kombinatorik, die ,,nur endlich viele Zustände annehmen" kann.
,,Es will scheinen", schrieb Turing voller Stolz auf seine Prinzipschaltung, ,,als ob es bei gegebenem Anfangszustand der Maschine und gegebenen Eingangssignalen immer möglich sei, alle zukünftigen Zustände vorherzusagen. Das erinnert an die Laplacesche Ansicht, daß es möglich sein müßte, aus dem vollständigen Zustand des Universums zu einem bestimmten Zeitpunkt, beschrieben durch Lage und Geschwindigkeit sämtlicher Partikel, alle zukünftigen Zustände vorherzusagen. Die von uns hier betrachtete Vorhersage ist jedoch praktikabler als die von Laplace erwogene. Das System des `Universums als ganzem' ist so beschaffen, daß minimale Fehler in den Anfangsbedingungen zu einem späteren Zeitpunkt einen überwältigenden Einfluß haben können. Die Verschiebung eines einzigen Elektrons um einen billionstel Zentimeter in einem Augenblick könnte ein Jahr später darüber entscheiden, ob ein Mensch von einer Lawine getötet wird oder ihr entkommt. Es ist eine wesentliche Eigenschaft der mechanischen Systeme, die wir `diskrete Maschinen' genannt haben, daß dieses Phänomen nicht auftritt. Selbst wenn wir die tatsächlichen, physikalischen Maschinen anstelle der idealisierten Maschinen betrachten, ergibt sich aus einer verhältnismäßig genauen Kenntnis des jeweiligen Zustandes eine verhältnismäßig genaue Kenntnis aller späteren Schritte."5
Seit Turing ist der Maßstab von Vorhersagen also nicht mehr, wie einst bei Laplace, eine mathematisch aufgeklärte Philosophie, sondern die schiere Praktikabilität. Maschinen mit abzählbar vielen Schaltzuständen, sogenannte Finite State Machines, liefern keine Gleichungslösungen im Sinn hergebrachter mathematischer Eleganz; statt dessen fressen sie berechenbare Zahlenmassen, deren Rundungsfehler allerdings beliebig klein gehalten werden kann. Damit aber verschieben Computer die Frage, welche Zukunft mit welcher Präzision vorhergesagt werden kann, von den Umweltdaten, um deren Berechnung es geht, auf das System selber, das ihre Berechnung (in jedem Wortsinn) übernimmt. Denn - auch dieses Orakel hat Turing ausgegeben - wir sollten damit rechnen, daß die Maschinen eines Tages übernehmen.6
Die Frage ist also nur noch, was Zukunft und was Architektur besagt, sobald wir (in völliger Paradoxie) damit rechnen, daß das Rechnen selber uns, den Leuten, in Maschinen davonläuft. Turings operationale Definition der Vorhersage verändert ja den Begriff von Zukunft selber. Gerade weil das berechnende System dank seiner diskreten Struktur garantiertermaßen vorhersagbar ist, rückt es zum Maßstab dessen auf, was heute noch Zukunft heißen kann. Mit der einfachen Frage, ob und wann ein bestimmter Rechenprozeß abgeschlossen sein wird, entscheidet sich auch, was berechenbar ist und was nicht.
Als Kriterium dieser Entscheidung fungiert, wie Sie wissen, der vielberufene Begriff Echtzeit. Die Abarbeitung von Umweltdaten, also ihre Simulation im geschlossenen System eines Digitalrechners, erfolgt immer dann in Echtzeit, wenn der Simulationsprozeß mit dem simulierten Prozeß zeitlich mithält oder dessen Zeitverbrauch gar unterschreitet.
Machen wir also die kühne Annahme, das mitteleuropäische Wetter einer eintägigen Zukunft könne in 12 Stunden berechnet werden, das Wetter der zweitägigen Zukunft in 24 Stunden undsoweiter in linearer Progression. Dann gäbe es dieses Wetter schon einen Tag, bevor es es gäbe. Der Laplacesche Dämon, von seiner überirdischen und materielosen, also auch rechenunfähigen Unform befreit oder eben implementiert, hätte das letzte Wort. Ein Modell, das ja (vor Architekten eine Binsenweisheit) grundsätzlich kleiner als das von ihm Modellierte sein muß, würde das Modellierte gleichwohl enthalten, wo nicht vollständig, so doch fehlerlos. Und die Zukunft, diese vormals unabsehbare Zeitentiefe, verschwände Schritt um Schritt, Tag um Tag in ihrer Simulation, bis die ,,No Future"-Generation buchstäbliches Recht bekäme.
Machen wir dagegen die weniger kühne Annahme, daß das künftige Wetter gerade noch in Echtzeit zu berechnen wäre, dann taucht auch unter Computerbedingungen wieder Zukunft auf. Die Systeme würden mit ihrer Umwelt Schritt halten, sie aber zu keiner Zeit überholen. Wie vor einer Bugwelle bliebe die Zukunft als berechenbare, aber unberechnete stets gegeben. Nichts hätte sich am jahrtausendelangen Unwissen geändert außer der Tautologie, daß das jeweils gegenwärtige Wetter zweimal vorhanden wäre: Im Reellen und in dessen Simulation.
Machen wir drittens die einigermaßen realistische Annahme, daß Wettervorhersagen über 24 Stunden lediglich mit lokalen Daten ihrer Umwelt zu rechnen haben, Wettervorhersagen über größere Zeiträume hingegen immer globalere Daten einbeziehen müssen, dann gerät die Hoffnung auf digitale Echtzeitverarbeitung in Probleme. Bei jedem Zuwachs an Umweltkomplexität muß dann nämlich auch die Systemkomplexität angemessen wachsen. Und der ehrwürdige Zusammenhang zwischen Zukunft und Wachstum kommt wieder zu Ehren.
Mit genau dieser Zukunft aber erscheint auch die Architektur. Wieviel Umweltkomplexität Mikroprozessoren pro Zeiteinheit abarbeiten können, hängt seit Turings operationaler Definition vollkommen davon ab, wieviele Elemente in welcher Anordnung sie auf ihrer Siliziumoberfläche integrieren. Dieses Layout heißt mit vollem Recht auch Chip-Architektur, einfach weil Computerschaltkreise mit ihrer Steuereinheit, ihrem Datenbus und ihren Speicherregistern aufgebaut sind wie eine Stadt mit ihrem Herrschersitz, ihrem Straßensystem und ihren Bevölkerungs- oder Güterspeichern. Die Elektronik zerstört also die Urbanistik nicht, wie noch Mumford fürchtete,7 sie miniaturisiert sie nur. Gegenüber dem unverkleinerbaren Modul Mensch, wie es spätestens seit Le Corbusier heißt, haust die Modularität Integrierter Schaltkreise in der fast unbegrenzten Möglichkeit zur Miniaturisierung.
Nun ist aber gerade diese Verkleinerung, mindestens solange absolute physikalische Grenzen vom Typ der Molekülgröße oder des Quanteneffekts ihr noch Spielraum lassen, der elektronische Königsweg zu weiteren Komplexitätssteigerungen. In den letzten zwanzig Jahren haben Mikroprozessoren die Zahl ihrer Transistoren von einigen Tausenden bis auf 3 Millionen, also auf das Tausendfache erhöhen können, ohne daß ein Nachlassen dieses Wachstums vor dem Jahr 2010 auch nur absehbar wäre. Damit aber sind gleichzeitig die Umweltausschnitte, deren Berechnung in Echtzeit machbar wird, um erheblich mehr als das Tausendfache gewachsen, weil nämlich bei jeder weiteren Miniaturisierung von Prozessoren zugleich ihre Arbeitsgeschwindigkeit heraufgesetzt werden kann. Erst diese Komplexitätssteigerung hat es den Mensch-Maschine-Schnittstellen erlaubt, allmählich auf die Höhe üblicher Lebenswelten zu kommen. Die Monitore sind im selben Zeitraum ja von der nullten Dimension nackter Zahlen über die erste Dimension von Kommandozeilen und die zweite Dimension graphischer Benutzeroberflächen bis zur dritten Dimension virtueller Realitäten fortgeschritten, bis sie am Ende auch die Architekten, denen unter drei Dimensionen ja nicht geholfen ist, erreicht haben.
Trotz dieser exponentiellen Komplexitätssteigerung der Benutzerschnittstellen ist jedoch die Chip-Architektur selber konstant geblieben: Sie bildet, von einigen brandneuen Labormustern abgesehen, alle virtuellen Dimensionen weiterhin, wie schon seit 1968, auf ein zweidimensionales Agglomerat von Transistorzellen ab. Das Millimeterpapier mit seinen rechten Winkeln bleibt also zumindest als Modell in Kraft. Durch Reduktion auf zwei Dimensionen wirft aber die Komplexitätssteigerung nicht nur die jedem Stadtplaner vertrauten Probleme etwa der Kreuzungsfreiheit oder Streckenoptimierung auf. Sie hat vielmehr schon die prinzipielle Unmöglichkeit herbeigeführt, Computer ohne Computer zu entwerfen.
1979, als Dr. Marcian E. Hoff und seine Kollegen von der Intel Corporation ans Design des Mikroprozessors 8086 gingen, dessen Befehlssatz ja leider bis heute als Industriestandard firmiert, sollen sie in einer Garage bei Santa Clara 64 Quadratmeter Millimeterpapier ausgebreitet haben. Dieses Papier füllten die Ingenieure sodann mit den bekannten Schaltungssymbolen für 29000 Transistoren8 samt zugehörigen Widerständen und Kondensatoren, wobei jedes Symbol etwa einen halben Quadratzentimeter Papier beanspruchte. Aus diesem symbolischen Layout leiteten die Ingenieure im zweiten Schritt sodann sein physikalisches Äquivalent ab, das nurmehr zwischen halbleitenden Siliziumflächen und isolierenden Siliziumoxidschichten unterschied. Im dritten Schritt schließlich verwandelte eine photomechanische Verkleinerung die reale Transistorgröße auf 1853 Quadratmikrometer9, bis der ganze Mikroprozessor 8086 als daumennagelgroße Siliziumscheibe erglänzte.
1992 dagegen, während die Intel Corporation immer noch an der Architektur seines Ur-Ur-Ur-Enkels, des Mikroprozessors 80586 mit 3,2 Millionen Transistoren laboriert, sind solche Garagen, Millimeterpapiere und Ingenieursmannjahre schlicht obsolet geworden. Kein Papier wäre groß genug, den Entwurf zu tragen, kein Ingenieursauge umfassend genug, das Labyrinth noch zu überblicken. Also schlägt ein mathematisches Theorem John von Neumanns, demzufolge Computer in geeigneter Umgebung aus lauter Computerteilen klügere Nachkommen als sich selber herstellen können, in schlichte ingenieursmäßige Praxis um: Heutzutage sind die Computer einer Generation n und nur sie noch imstande, das Design von Computern der Generation n+1 überhaupt zu entwerfen. Ihre Architektur, mit anderen Worten, wird autoreferenziell, als ob nur noch die Selbstorganisation von Silizium mit der Selbstorganisation einer Umwelt, um deren Berechnung es ja weiterhin geht, Schritt halten könnte.
Nichts jedoch im Computer Aided Computer-Design verbürgt, daß die monomane Vermehrung von Transistorzellen tatsächlich beliebig komplexen Umweltsystemen adäquat ist. Wie Architekten viel besser als Medienwissenschaftler wissen, führt jede Steigerung der Agglomeration zu erhöhter Abschottung zwischen ihren Elementen. Der große Vorteil integrierter Chips gegenüber diskret aufgebauten Schaltungen, daß sie nämlich mit dem thermischen Gleichlauf auch gleiche elektrische Arbeitswerte für alle Transistoren garantieren, muß in der Digitaltechnik durch strikte elektrische Isolation zwischen den Einzeltransistoren kompensiert werden. Dieser Gegensatz zwischen thermischem Kontinuum und elektrischer Abschottung hat aber den systemimmanenten Nachteil, daß jede Zelle und damit jeder logische Zustand elektrisch nur mit unmittelbaren Nachbarzellen in Verbindung steht, während die globalen Verbindungen über den ganzen Chip hinweg völlig ungenutzt bleiben.
Es läßt sich nun aber mathematisch beweisen, daß eine derart lokale Architektur, deren Modell die moderne Rasterbauweise abgegeben haben dürfte, bei aller Vermehrung ihrer Zellen immer nur sehr niedrige Komplexitätssteigerungen erlaubt. Und das im Gegensatz zu einer Analogschaltung, die durch Ausnutzung globaler Wechselwirkungen wesentlich mehr Berechenbarkeit oder eben Zukunftsvorhersage ermöglichen würde, bislang allerdings auch noch vollkommen hypothetisch ist.10 Aber schon in Existenzform einer bloßen Hypothese macht dieser Analogcomputer es fraglich, ob eine grundlegende Annahme Turings universale Gültigkeit behält. Stillschweigend wird seit Turing ja vorausgesetzt, daß der Digitalcomputer als universale diskrete Maschine, die alle anderen Maschinen imitieren kann, zugleich eine Aussage über dasjenige macht, was er berechnen soll können, die ehedem sogenannte Natur. Diese Natur aber, schon weil sie keine Ja-Nein-Entscheidungen11 und damit keine binären Schaltelemente kennt, ist nicht notwendig eine Turingmaschine. Und wenn nur jener hypothetische Analogcomputer mit ihrer Komplexität zurechtkommt, ist sie sogar höchstwahrscheinlich keine Turingmaschine. Ein trauriger Satz mit der Umkehrung, daß Digitalcomputer, allen Gerüchten zum Trotz, auch nicht das Ende von Geschichte überhaupt herbeiführen. Sie sind nur ein bestimmter technischer Stand der Mediengeschichte, das aber mit allen empirischen Folgen, wie Medien sie seit altersher gezeigt haben.
Die dramatische Folge dieser Nichtübereinstimmung zwischen Digitalsystem und globaler Umwelt ist es vermutlich, daß das System eben darum alles unternimmt, um wenigstens seine lokale Umwelt zur Übereinstimmung zu verhalten. Mit anderen Worten: Gerade das Scheitern der physikalischen Turing-Hypothese führt zu ihrer praktischen Realisierung. Wenn sich die Rechenkapazitäten von Digitalcomputern nicht im theoretisch erforderlichen Maß steigern lassen, bleibt ja nur die Alternative, statt dessen die Komplexität dessen zu senken, was zur Berechnung ansteht. Platon hat einst die Seele mit einer Wachstafel verglichen, also mit dem alltäglichen Medium antiker Schriftlichkeit, die Philosophen des 19. Jahrhunderts führten statt dessen als Modell der Seele den Phonographen ein, also ein damals brandneues Analogmedium.12 Seit 1943, als Pitts und McCulloch ihre Theorie der Nervenzellen vorlegten, ist es dagegen zur Selbstverständlichkeit geworden, das Gehirn (um von der Seele fortan zu schweigen) am Modell des Computers zu konzeptionalisieren.
Solche Modellbildungen, die von den Maschinen auf ihre Benutzer zurückschlagen, haben nicht nur metaphorischen Status. Als einer von Albert Speers jungen Leuten, der nachmalige TH-Stuttgart-Professor Ernst Neufert, noch im Zweiten Weltkrieg den Plan entwickelte, Deutschlands zerbombte Städteruinen durch gnadenlos standardisierte Rasterbauweise zu ersetzen, soll er auf kritische Einwände geantwortet haben, die Rasterbauweise übertrage ja nur das Prinzip der Schreibmaschine auf menschliches Wohnen.13 Ganz entsprechend gilt mit einiger prognostischer Wahrscheinlichkeit, daß die EDV-Zukunft auf Siliziumbasis auch andere Bereiche der Zukunft modelliert. Dafür sorgt schon Turings genialer Trick, die Vorhersagbarkeit vom Meßobjekt auf das Meßgerät selber verlagert zu haben. So produziert etwa die Elektronikindustrie seit etwa zehn Jahren nicht mehr einfach Chips, also Hardware-Elemente aus Silizium, Germanium undsoweiter, sondern gleichzeitig dieselben Chips als Software-Simulation, damit die Ingenieure sie dann wie Fertigbausteine in neue Schaltungsentwürfe am Computer einsetzen können. Das beschleunigt wie jede Standardisierung zwar die Konstruktion, schränkt aber den Spielraum der Innovation auch drastisch ein. Und im selben Maß, wie der Elektronik-Anteil in allen anderen Industriesparten unaufhörlich zunimmt, dürfte diese Standardisierung das Design der konstruierten Umwelt überhaupt bestimmen. Gerade die formale Entsprechung etwa zwischen einer Stadt und einem Mikroprozessor wird das Verhältnis zwischen beiden umkehren. Weil nur die elektronische Realisierung von Befehlszentrum, Speicherplatz und Übertragungsnetz durchgängig steuerbar und damit vorhersagbar ist, die urbane aber nicht, könnten Städte sehr wohl zu bloßen Projektionen einer Mikroarchitektur absinken. Die digitale Stadt ist zwar nur als virtuelle Realität bewohnbar, bildet jedoch die unterste, weil selber nicht mehr miniaturisierbare Ebene einer Hierarchie von Selbstähnlichkeiten, die schließlich bis zum Modul Mensch und darüber hinaus führen. Dieser fraktale Aufbau der hochtechnischen Realität unterscheidet sie von allen traditionellen Konstruktionen, deren Maß, nicht nur in Philosophensprüchen, besagter Mensch Mensch war und blieb. Mikrocontroller, also fest eingebettete Mikroprozessoren in jedem Haus und jeder Verkehrsampel, jedem Auto und jeder Granate installieren dagegen eine aktive Meßprozedur im Herzen aller hochtechnischen Dinge, die sich damit tendenziell auf Emanation der Siliziumarchitektur reduzieren.
Wie leicht zu erraten, hat diese fraktale Selbstorganisation technischer Realitäten eine einzige Leerstelle: Die Chips selber. Daß nur noch Computer der Generation n imstande sind, Computer der Generation n+1 zu entwerfen, heißt beileibe nicht, sie könnten sie auch optimieren. Ein Mikroprozessor von 1992 mit einer Million Transistorzellen hat keine Chance, die drei Millionen Transistorzellen des Mikroprozessors von 1993 nach allen möglichen Kombinationen, Variationen und Permutationen durchzurechnen, zumindest nicht in Echtzeit. Diese Unmöglichkeit ist aber das Loch, das Chiparchitekturen selber dem Einfluß ihrer Umwelten auftut. Wo strikt mathematische Optimierungen einfach nicht mehr greifen, treten Erfahrungswerte in ihr Recht, die selbstredend aus höheren Schichten der fraktalen Hierarchie stammen. Zumindest seitdem die Intel Corporation ihre Mikroprozessoren mit einem sogenannten Protected Mode ausgestattet hat, wird der Verdacht unabweisbar, daß dergleichen Sicherheitskonzepte, weitab von aller theoretischen Informatik, sehr einfach und sehr auftragsgemäß die Befehlslogik des US-amerikanischen Pentagon in Silizium brennen.14 Und da diese Befehlslogik aus Communication, Command, Control and Information womöglich nicht das Optimum für Häuser oder Städte darstellt, könnten andere Institutionen und andere Bürokratien, also auch Architekten, den kühnen Gedanken fassen, Chip-Architekturen lieber, gut biblisch, nach ihrem eigenen Bild zu entwerfen. Zumindest in Europa jedoch, diesem verschlafenen Erdteil der Automobilindustrie, scheint daran niemand auch nur zu denken.
Infolgedessen decken zwei amerikanische Hardware-Häuser, Intel und Motorola, weiterhin den weltweiten Bedarf an Mikroprozessoren ab. Motorola als ewiger Zweiter hat eines Tages die Kühnheit besessen, die eigenen Standards zum alten Eisen zu werfen und um der Komplexitätssteigerung willen eine ebenso elegante wie inkompatible Architektur einzuführen. Der Marktführer Intel hingegen bringt seit zwanzig Jahren das lukrative Kunststück zustande, Abwärtskompatibilität mit veralteten Prozessoren zu wahren, auch wenn die Architektur mittlerweile von 8-Bit- über 16-Bit- bis zu 32-Bit-Strukturen fortgeschritten ist. Die unvermeidliche Folge sind Chips, auf denen Ruinen ihrer eigenen Vorgänger überdauern. Als Redundanz, als Bremse oder als Sackgasse kehrt die Geschichte in einem System wieder, das von den Heroen der Computergründerzeit ja ganz ausdrücklich zu dem Zweck entworfen wurde, alle Mehrdeutigkeiten der Alltagssprache und Umwegigkeiten der Lebenswelt wegzuoptimieren. Die universale diskrete Maschine, sobald sie aus Turings Prinzipschaltung in industrielle Hardware übergeht, scheint also, wie einst Hegels Geist, selber in Zeit oder Geschichte zu fallen und keine Aussicht zu haben, zur Reinheit ihres Ursprungs je wieder zurückzufinden. Schon heute heißt Programmieren nur noch in den seltensten Fällen, ein neues Problem auf prinzipiell neue Art zu lösen; der Löwenanteil an Software beschränkt sich darauf, schon bestehende und millionenfach verkaufte Lösungen miteinander durch Kompromißlösungen zu vernetzen. Eine Resignation, die Architekten seit langem vertraut sein dürfte, lernen nun auch System-Designer kennen. Dem uralten Wildwuchs der Sprachen, Häuser und Städte folgt der postmoderne von Siliziumarchitekturen und Betriebssystemen. Was es vollends unmöglich macht, eine Zukunft auf Siliziumbasis vorherzusagen.
Wahrscheinlich ist nur, daß der Wildwuchs auf Siliziumbasis noch wachsen wird. Einerseits müssen die Systeme ihre Rechenleistung, vor allem durch höhere Parallelität, immer weiter steigern; andererseits müssen sie mit einer Umwelt kompatibel bleiben, die mehr und mehr aus früheren, also weniger komplexen Rechnergenerationen besteht. In dieser Notlage dürften die Chip-Architekturen allmählich jene historische Tiefe gewinnen, die Sprachen, Häuser oder Städte schon immer geprägt hat. Sie bringen das bittere Opfer ihrer mathematischen Eleganz, um Dinge unter Dingen zu werden. Gerade weil alle Computer-Entwicklung auf den Tag zutreibt, an dem Computer eine durchgängig computerisierte Umwelt werden steuern können, wird dieser mythische Tag wie jeder andere sein. Auch von der Strenge der Computertechnik gilt zuletzt, was Jorge Luis Borges über die Strenge der Wissenschaft Kartographie erzählt hat:
,,...In jenem Reich erlangte die Kunst der Kartographie eine solche Volkommenheit, daß die Karte einer einzigen Provinz den Raum einer Stadt einnahm und die Karte des Reichs den einer Provinz. Mit der Zeit befriedigten diese maßlosen Karten nicht länger, und die Kollegs der Kartographen erstellten eine Karte des Reichs, die die Größe des Reichs besaß und sich mit ihm in jedem Punkt deckte. Die nachfolgenden Geschlechter, die dem Studium der Kartographie nicht mehr so ergeben waren, waren der Ansicht, diese ausgedehnte Karte sei unnütz, und überließen sie, nicht ohne Verstoß gegen die Pietät, den Unbilden der Sonne und der Winter. In den Wüsten des Westens überdauern zerstückelte Ruinen der Karte, behaust von Tieren und von Bettlern; im ganzen Land gibt es keine anderen Überreste der geographischen Lehrwissenschaften."15
Der vorliegende Text ist die überarbeitete Fassung eines Vortrages, den Friedrich Kittler anläßlich des 1. Internationalen Festivals der Architektur 1992 in Graz hielt. Der Abdruck erfolgt mit freundlicher Genehmigung des Autors und Marc Mers. (Anm. d. Red.)
Fußnoten
- Vgl. Martin Heidegger, Bauen Wohnen Denken. In: Vorträge und Aufsätze, Pfullingen 1954, S. 146f.
- Plutarch, Über das Ei in Delphi. In: Plutarchs moralisch-philosophische Werke, übersetzt von J.F.S. Kaltwasser, Wien-Prag 1979, Bd. III, S. 204.
- Plutarch, Über das Ei in Delphi. Werke, Bd. III, S. 169.
- P[ierre] S[imon] de Laplace, Philosophischer Versuch über die Wahrscheinlichkeit, R.v. Mises (Hg.), Leipzig 1932, S. 1f.
- Alan M Turing, Rechenmaschinen und Intelligenz. In: Intelligence Service. Ausgewählte Schriften, Bernhard Dotzler und Friedrich Kittler (Hg.), Berlin 1987, S. 157f.
- Vgl. Alan Turing, Intelligente Maschinen. Eine häretische Theorie. In: Intelligence Service, S. 15.
- Vgl. Lewis Mumford, The City in History. Its Origins, its Transformations, and its Prospects, 2. Aufl. London 1963, S. 569: ,,Through its concentration of physical and cultural power, the city heightened the tempo of human intercourse and translated its products into forms that could be stored and reproduced. Through its monuments, written records, and orderly habits of association, the city enlarged the scope of all human activties, extending them backwards and forwards in time. By means of its storage facilities (buildings, vaults, archives, monuments, tablets, books), the city became capable of transmitting a complex culture from generation to generation, for it marshalled together not only the physical means but the human agents needed to pass on and enlarge this heritage. That remains the greatest of the city1s gifts. As compared with the complex human order of the city, our present ingenious electronic mechanisms for storing and transmitting information are crude and limited."
- Vgl. Josef Koller, 16 Bit Microcomputer, München 1981, S. 2.
- Vgl. Koller, ebenda.
- Vgl. Michael Conrad, The Prize Programmability. In: Rolf Herken (Hg.), The Universal Turing Machine. A Half-Century Survey, Hamburg-Berlin 1988, S. 285-307.
- Vgl. John von Neumann, Allgemeine und logische Theorie der Automaten. Kursbuch 8, März 1967, S. 150.
- Vgl. Friedrich Kittler, Grammophon Film Typewriter, Berlin 1986, S. 49-54.
- Vgl. Werner Durth, Deutsche Architekten. Biographische Verflechtungen 1900-1970, München 1990, S. 190.
- Die technischen Einzelheiten siehe bei Friedrich Kittler, Protected Mode. In: Computer, Macht und Gegenwehr. InformatikerInnen für eine andere Informatik, Ute Bernhardt, Ingo Ruhmann (Hg.). Bonn 1991, S. 34-44.
- Jorge Luis Borges, Borges und ich. In: Gesammelte Werke, Bd. VI, München 1982, S. 121.
Quellenangabe
Friedrich Kittler, Die Zukunft auf Siliziumbasis. In: SYSTEM-DATEN-WELT-ARCHITEKTUR, Triton-Verlag, Wien 1995, Seite 146 ff.
|