Text Bild

Peter Riedlsperger
Das Dasein der Maschine

Dasein ist ein Seiendes (...) das sich dadurch ontisch auszeichnet, daß es diesem Seienden in seinem Sein um dieses Sein selbst geht.

Martin Heidegger

Vor-Sicht

Wir wollen versuchen, eine theoretisch haltbare Definition oder zumindest den Versuch der Annäherung an einen theoretischen Diskurs über ,,Artificial Intelligence" (im folgenden kurz AI genannt) zu erarbeiten. Ausgangspunkt hierbei verwendeter Methode bzw. Vorgangsweise sei Heideggers ,,Sein und Zeit". Die Position der Entwicklung zum Diskurs sei durch drei Punkte bestimmt:

  • Beurteilung und Erklärung der Beziehung zwischen Ontologie und AI.
  • Über den Begriff des ,,Seins von Dasein" zu einer existenziellen Intelligenz.
  • Die Verbindung von hermeneutischer Phänomenologie und AI.

Ziel des Diskurses ist die Prüfung der These, daß AI und Ontologie, in einer noch zu beschreibenden Sicht, denselben Grund benötigen - Fundamentalontologie. Methodischer Weg zu dieser Vor-Sicht sei die Methode der hermeneutischen Phänomenologie. Die Notwendigkeit einer theoretisch gestützten Verbindung zwischen menschlicher und technischer Welt ist unbestreitbar das Grundproblem der AI. Die Möglichkeit der ,,Konstruktion" einer solchen soll im Vorliegenden von der Phänomenologie her aufgezeigt werden. Die ,,Phänomenologie" soll als ,,methodische Konzeption" das ,,Wie" dieses ,,Versuches" bestimmen.

Prinzipien, die es ermöglichen, von den Dingen und ihren gegenseitigen Beziehungen zu lernen, sowie die Fähigkeit der Erfassung der Entität des Daseins sind richtungsgebend. Die phänomenologische Methode ist immer auch Weg zum Ziel der ,,Grundlegung" des ,,Seins von Dasein". Ziel des vorliegenden Versuches soll das Konzept einer ,,synthetischen Intelligenz" (existenziellen Intelligenz) sein, das in klarer Distanz zu unserem Ausgangspunkt steht (AI) und es ermöglicht, den theoretischen Diskurs über die Vermitteltheit des Daseins durch elektronische Medien überhaupt führen zu können.

Da also Ontologie nur durch Phänomenologie möglich ist, wird auch die ,,Ontologie" des ,,Computers" nur phänomenologisch zugänglich. Phänomenologisch soll in drei Richtungen vorgegangen werden: Reduktion, Konstruktion und Destruktion. Reduktion wollen wir als Bewegung von Seiendem zum Sein definieren, denn Phänomenologie ist ultimativ ontisch, das heißt, sie basiert immer auf den Dingen der Welt. Das Seiende ist immer Ausganspunkt. Vom Be-greifen des Seienden wird der Blick zurückgeführt auf das Verstehen des Seins des Seienden - ,,zu den Dingen selbst". Konstruktion soll die positive Ausarbeitung der Strukturen und Konzepte ,,erwirklichen". Das durch die phänomenolgische Reduktion Erfahrene wird zu kohärenter und systematischer Beschreibung, Beziehungen und Abhängkeiten sind in Ausdrücken einer Projektion auf einen Horizont möglich. Destruktion besteht als Notwendigkeit der Zerstörung der Dinge (Erfahrungsgegenstände) aus unserer historischen Erfahrung. Destruktion ist also der kritische Prozeß, in dem traditionelle Konzepte dekonstruiert und ihre Wurzeln offengelegt werden. Orientieren wir uns noch einmal vorab über den Versuch:

  • Reduktion einiger Konzepte der AI um zu zeigen, daß AI und Fundamentalontologie im selben theoretischen Diskurs liegen.
  • Generierung einer phänomenologischen Konstruktion, die als Projektionsfläche für das, was als Sein einer intelligenten Maschine gelten kann, dienen soll.
  • Zerstörung aller Konzepte und Begriffe, die auf der traditionellen Subjekt/Objekt -Dichotomie basieren und dadurch die Sackgasse der theoretischen Beschreibung der Mensch-Maschine-Mensch-Beziehungsmodelle verursachen.

Um die Vorgangsweise noch ,,operationeller" zu gestalten, noch kurz zum ,,Hermeneutischen": Hermeneutisch heißt interpretativ; die Bedeutung der Phänomenologie liegt in der Interpretation - es ist immer eine Ausarbeitung der Möglichkeiten, die auf ein Verstehen gerichtet ist. Das heißt eigentlich nur: Die Resultate der phänomenologischen Analyse müssen immer in Begriffen der Strukturen und Möglichkeiten der Welt des Daseins formuliert werden (wenn sie verstanden werden wollen). Diese Interpretation kann man in drei Begriffen Heideggers beschreiben: Vorhabe, Vorsicht und Vorgriff.

In jedem Fall ist eine Interpretation immer in etwas begründet, das wir vorher haben - eine Vor-habe. Die Beziehung zur präexistenten Welt läßt sich immer als ,,etwas als etwas" ausdrücken. Jede Interpretation ist auch etwas, das wir im voraus sehen - eine Vor-Sicht. Die Beziehung zu unserer präexistenten Welt muß irgendwo starten. Es muß ein Schlüssel, eine Gleichheit bzw. Differenz da sein, die als Ausgangspunkt für beabsichtigte Interpretation ,,gesehen" werden kann. Zudem ist jede Interpretation bereits auch bestimmt. Sie ist begründet in etwas, was wir im voraus verstanden haben - in einem Vor-griff. Keine Intepretation kommt voraussetzungslos in unsere Wahrnehmung.

Schematisieren wir den Vorgang ein wenig: Die Vorsicht initialisiert Aktivität durch Schaffung einer vorläufig neuen Interpretation vom Vorhaben her, geführt durch einen Vorgriff. Nun wird die Interpretation gegenüber der ontischen Welt bewertet. Wenn diese Interpretation nicht die Notwendigkeiten der Situation trifft (Simulation, Erklärung), starten wir eine neue Interpretation basierend auf einer neuen Vor-Sicht und möglichen Vorgriffen, erweitert um vorliegende ontische Bewertung. In unserem Fall ist unser Vor-Haben das Sein des Daseins. Die Vor-Sicht ist das, das die AI als Simulation bestimmter Aspekte des Menschen, das sind Strukturen des Daseins, erfüllen muß. Was uns zum Vorgriff führt, daß AI wesentlich in Begriffen dieser Strukturen ausdrückbar sein muß.

Traditionelles

# Computer

Computer sind Maschinen, elektronische Schnittstellen mit einem Satz von Instruktionen, die ihre Operationen bestimmen. Der entscheidende Unterschied zu anderen Maschinen ist die Tatsache, daß der Satz der Instruktionen austauschbar ist, ohne die Konstruktion der Maschine zu verändern. Ohne jetzt weiter auf historische Wurzeln zu verweisen (Leibniz, Pascal), verwenden wir hier die Begründung und Beschreibung von Alan Turing (1930) als Definition des Begriffs ,,Computer".

Die ,,Turing-Maschine" besteht aus einer endlichen Anzahl von Zuständen und einer Schnittstelle für Ein- und Ausgabe. Zu jedem gegebenen Moment ist die Maschine in einem Zustand. Die Kombination aus Eingabe und dem gegebenen Zustand kann zu einer Ausgabe oder einer Änderung des Zustands führen. Egal ob eine Ausgabe oder eine Änderung des Zustandes erfolgt, durch eine Funktion der Instruktionen wird der momentane Zustand bestimmt. Wir haben ein System, das in einem gegebenen Zustand startet und dessen untergeordnete Aktionen und Zustandsänderungen auf Anwendung von Instruktionen vorhergehender Zustände basieren. Wir haben es mit einem formalen automatischen System zu tun. Turing hat gezeigt, daß die Operationen einer Turing-Maschine auf einer anderen Turing-Maschine simuliert werden können. Er nannte sie die universale Turing-Maschine. Diese ist die Basis aller modernen Computer.

# AI

Mit Entwicklung immer leistungsfähigerer Computer stellte sich bald die Frage nach der Simulation des Denkens, der Intelligenz und der Umwelt, entweder als lebend oder zumindest als Seiendes. Turing ging darauf in einem Artikel (,,Computing Machinery and Intelligence") ein und schlug folgenden Test vor:

Drei Personen und ein Spiel. Ein Mann, eine Frau und ein Interviewer. Der Interviewer und die beiden anderen Personen sitzen in zwei verschiedenen Räumen. Ziel des Spieles für den Interviewer soll sein, durch Fragen herauszufinden, welche Person welches Geschlecht besitzt. Nun fragen wir: Was passiert, wenn wir Mann/Frau durch eine Maschine ersetzen? Wird sich der Interviewer in seiner Beurteilung gleich oft irren wie im Spiel mit wirklichen Personen? Dieses Spiel - der Turing-Test - wurde zu einem Kriterium der Beurteilung von ,,denkenden" Maschinen. Die Ansätze der Konstruktion und der Zielvorgabe solcher Maschinen werden zur Zeit technisch, bewußtseinsphilosophisch, psychologisch und medizinisch gesetzt. Zwei Dinge sind aber gemeinsam: Die funktionalistische Betrachtungsweise und das Fehlen einer Definition von Intelligenz.

Der Funktionalismus glaubt, die Attribute des Denkens (des Seins), z.B die Intelligenz, seien ,,maschinenunabhängig" - unabhängig davon, ob Maschine organisch oder anorganisch ist, da die Beziehung von Algorithmen einer definierten physikalischen Schnittstelle - dem Computer - zu einer anderen Schnittstelle - dem Gehirn, denselben ontischen Status hätten. Intelligenz ist dabei etwas Unabhängiges, das nicht an den Menschen gebunden ist, sondern Organisation und Prozeß repräsentiert. Es wird Simulationsfähigkeit erreicht.

Die Definition der Intelligenz wird meist indirekt von bereits definierten artifiziellen Intelligenzdefinitionen abgeleitet, z.B. von AI. Weil Intelligenz als menschliches Attribut nicht vollständig definierbar ist, es aber eine Fülle von augenscheinlich Intelligentem gibt, muß es Ziel sein, das zu verstehen, was Intelligenz möglich macht. Wir verstehen es, weil wir die Maschinen bauen, die es uns zeigen. Ein fragwürdiger Ansatz. Technisch kann AI anhand folgender Bereiche der angewendeten AI-Forschung kurz abgesteckt werden:

  1. Wahrnehmung und Datenauswertung
    Optische Mustererkennung
    Akustische Mustererkennung
  2. Verstehen und Kommunikation
    Wissensrepräsentation
    Geschriebene natürliche Sprache
    Gesprochene natürliche Sprache
  3. Lernen und Schließen
    Assoziation
    Schlüsse ziehen
  4. Modellbildung und Problemlösung
    Teilzielanalyse
    Alternativengenerierung
    Suche
    Auswahl
  5. Robotik
    Mobilität
    Manipulation

Isomorphismus und Funktionalität: ein Vor-Haben

Eine existenzielle Analyse des Daseins ist gefordert, eine Analyse, um die funktionalen Strukturen, die den alltäglichen Aktivitäten des Daseins zugrundeliegen, bestimmen zu können. Die Konzepte von Intelligenz, Funktionalismus, Welt, Kontext, Wissen und Intentionalität sollen in ihrer strukturellen Ähnlichkeit zum Konzept des Seins von Dasein gebracht werden. AI versucht die Entwicklung einer funktionalen Beschreibung des Menschen, ein intelligentes Seiendes, das in den Computer implementiert werden kann. Die Schaffung einer funktionalen Beschreibung des Menschen - vom Dasein - muß eine ontologische Forschung sein. Dasein ist nicht durch seine Teile bestimmt, sondern existenziell. Wir müssen daher die Fragen stellen: Was ist die existenzielle Strukur von Dasein und wie verhält sich Intelligenz zu dieser Struktur? Kann ein Computer Intelligenz von Dasein emulieren? Erster Schritt der Untersuchung sei die Charakterisierung der Struktur des Daseins.

,,Die Frage nach dieser zielt auf die Auseinanderlegung dessen, was Existenz konstituiert. Den Zusammenhang dieser Strukturen nennen wir Existenzialität. Deren Analytik hat den Charakter nicht eines existenziellen, sondern existenzialen Verstehens." (Heidegger SZ:12)

Mit der Betonung, daß diese Analytik nicht existenziell sein solle, betont Heidegger, daß die Struktur des Daseins ,,unterhalb" unserer Alltagsexistenz liegt. Da die existenziale Struktur nicht als Ding in der Welt identifiziert werden kann, müssen wir die Existenz des Daseins in der Welt analysieren. Diese Definition ist funktional. Dieses Dasein könnte ein Mensch, ein Computer oder ein Marsmensch sein, solange sein Sein ein Thema für sich ist. Das Konzept ist also kompatibel zum Konzept des Funktionalismus. Man benötigt also die Position des ,,in-der-Welt-Seins". Dies ist unser konstitutiver Zustand des Daseins. Welt und Kontext. Was muß dem Computer also konstituiv sein, um das Konzept von Welt zu ermöglichen?

  • ,,Zu-Handenheit" - Daten, die präsent sein müssen, damit der Computer seinen ,,Zweck" erfüllt.
  • ,,Vor-Handenheit" - Daten die nicht präsent sind, aber im Computer sein müssen.
  • ,,Um-Sicht" - der Computer benötigt für einen Schluß auf Strukturen Begriffe, welche die Daten organisieren.
  • ,,Welt" - für all die Umsicht, Operationen und Datentypen brauchen wir eine Bindung, wenn interne Kohärenz und Flexibilität gefordert sind.

Zuhandenheit ist ein Attribut von Daten, das als erstes beobachtet und erforscht werden kann. Daten sind in der Computerwelt das Analogon zu den Dingen der Alltagswelt. Die frühe Computerwelt war eine, in der Computer lediglich als ,,user" und Manipulatoren von Daten betrachet wurden und auch so funktionierten. Die meisten Anwendungen waren mathematisch und logisch streng definiert. Jedes Datum unterlag ,,wohldefinierten" Funktionen (Gleichungslösung, Matrizeninvertierung usw.). Diese Daten/Dinge waren wirklich zuhandene.

Die Analyse des Zuhandenen zeigt uns aber, daß die Analyse des Zuhandenen des Daseins, beginnend mit der Welt, nicht eine Studie und Beurteilung von neutralen Objekten und ihrer möglichen kognitiven Werte ist, sondern unser erstes Umgehen mit Entitäten der Welt und die Beurteilung ihrer Möglichkeiten relativ zu unseren Wünschen. Primär sehen wir Dinge als Werkzeug und Ausrüstung. Werkzeuge werden verwendet, um ein Ziel zu erreichen. Werkzeuge sind durch diese ,,um zu" Relation gekennzeichnet. Weil aber das Objekt dieses ,,um zu" weitere Ziele und ,,um zu's " auslöst, brauchen wir die Totalität der ,,Ausrüstung" - Sammlungen von Werkzeugen, die nach den Gesichtspunkten der Brauchbarkeit, Benutzbarkeit usw. konstitutiert werden. Man nennt diese Art von Sein, die durch Ausrüstung bestimmt ist - Zuhandenheit.

Mit der Anwendung von Computern und Applikationen in der Geschäftswelt trat eine andere Erscheinung auf. So sind Kundeninformationen manchmal unbrauchbar, weil entweder ein Name falsch geschrieben oder ein Datum nicht an der richtigen Stelle eingegeben wurde, oder ähnliches. Diese Daten werden vom Programm nicht als gültige Eingabe erkannt, sie bedürfen vorhergehender ,,Reparatur". Mit ,,Reparatur" ist gemeint, daß die Daten untersucht werden müssen, ob sie sich in einer Weise von der geplanten Methode der Datenmanipulation abweichend verhalten. Resultat der Reparatur ist die Akzeptierung der Daten durch das Programm. In der Entwicklung von Strategien zur Behandlung fehlerhafter Daten braucht der Computer eine neue Art von Daten, nicht zu-handene Daten, sondern vor-handene Daten. Er benötigt Vorhandenheit. Im Alltag benötigen wir Vorhandenheit, um Aspekte in den Dingen zu erfahren, die ihre Zuhandenheit unmöglich machen (wenn sie z.B. kaputt sind). Eine Glühbirne ohne Stromanschluß ist lediglich vorhanden. Sobald man auf irgendeinem Gebiet der AI arbeitet, wird man sich sehr schnell der Tatsache bewußt, daß die meisten nicht-trivialen Probleme, die über mehrere Stufen (Iterationen) mit mehreren Möglichkeiten auf jeder Stufe einer Lösung angenähert werden, eine kombinatorische Explosion von Wahlmöglichkeiten auslösen, die den Computer überfordern. Beispiel Schach: Anzahl der möglichen Brettpositionen 10 hoch 120. Für den Computer sind alle Pfade gleich möglich und wahrscheinlich. Ohne Wissen über Beziehungen und praktische Limits, vorgegeben durch die Welt, kann kein Computer andere als triviale Aufgaben lösen. Wir sprechen über Wissen, das in der AI als Basisprämisse folgendermaßen definiert ist: ,,Knowledge of something is the abilty to form a mental model that represents the things as well as the actions that can be performed. Then by testing actions in models, a person (or robot) can produce what is likely to happen in the real world." (F. Sowa)

Wir haben also Beziehungen und Abhängigkeiten einzuführen, um die Anzahl der Möglichkeiten zu verringern und einen optimalen Pfad durch einen Entscheidungsbaum zu finden. Abhängigkeit oder Involviertheit ist immer mit oder in etwas und hat den Charakter der Verwiesenheit. Verwiesenheit endet immer in einer Beziehung zu-sich, die sich immer in einem Sein von Dasein begründet. Es gäbe nie ein Zuhandenes von Dingen, wenn das Dasein diese Zuhandenheit nicht ermöglichen würde. Dasein muß also eine inhärente Prädisposition aufweisen, bevor ontische Erfahrung möglich ist. Das ist ein a-priori. Wir müssen in der Welt sein.

Wenn der Computer Daten behandelt ohne die Möglichkeit zu haben, sie untereinander vollständig kombinatorisch zu verbinden, brauchen wir also ein Modell (Welt), das die Beziehungen und Grenzen bestimmt, den Kontext festlegt. Ein Konzept von Welt und eine Definition von Strukturen ist also immer notwendig, bevor wir ein intelligentes System entwerfen wollen und die Programmierung beginnen kann. Das ist das strukturelle Äquivalent zur Idee des a-priori des ,,in-der-Welt-sein", das das Dasein benötigt. Doch wird in der Regel AI-Software so geschrieben, daß die Regeln für die Computerwelt keine korrespondierenden Strukturen eines a-priori Verständnisses der Welt repräsentieren, das notwendig wäre, um diese zu formulieren. Das a-priori Verständnis liegt im Programmierer. Es liegen keine generativen Strukturen im Computer selbst. Wir benötigen also eine ontologisch gefaßte Idee der Welt für den Computer. Ausgehend von der Argumentation, daß die vollständige Referenz aller Dinge eine Weise des Daseins ist und das Dasein selbst als letzten Grund referenziert, ist klar, in welche Richtung dieses Vor-haben weisen muß. Die Existenz des Daseins muß ein ,,um-zu" initiieren und terminieren. Dasein teilt sich selbst die Welt zu, die Ort der Totalität aller Bedingungen ist. Das ist die Welt der Signifikanz, in der das Dasein funktioniert. Der Computer selbst muß in der Welt sein. Wie das möglich sein kann bzw. wie das für uns beschreibar sein wird, ist noch auszuführen.

Formales Denken und Schließen war und ist traditionell ein Ansatz der AI. Ein typisches Beispiel dafür sind sogenannte ,,Expertensysteme". Ein Expertensystem besteht im Normalfall aus Deklarationen (Fakten) und Regeln, die von menschlichen Experten abgeleitet werden. Die Regeln, sogenannte ,,heuristische Regeln", gelten nicht absolut, sondern werden während des Ablaufs der Anwendung lokal immer neu instantiert. Gesteuert wird die Regelanwendung auf die Fakten durch eine sogenannte ,,Inferenzmaschine", die ihr eigenes Set von Meta-Regeln besitzt. Regeln zur Anwendung der selbst definierten Regeln. Kern des Systems ist die Wissensbasis, also die Gesamtheit aller Fakten, Deklarationen und Regeln.

Wissen ist also eines der fundamentalen Konzepte der AI. Der Glaube, daß intelligentes Verhalten durch formales Schließen über eine Wissensbasis möglich ist, ist weitverbreitet. Doch die Welt wissen ist nicht ,,in-der-Welt-sein". ,,In-der-Welt-sein" ist nicht nur eine Frage der Repräsentation, es involviert auch eine ,,Offenheit" zur Welt. Für die traditionelle AI ist die Repräsentierung des Wissens die Welt bzw. Kontext des Computers; Aktionen über diesen Kontext sind Aktionen in der Welt. Natürlich ist Wissen wesentlich für das Dasein. Das Phänomen des ,,in-der-Welt-seins" ist ja meist als singuläres, exemplarisches Wissen realisiert, doch ist die Interpretation der Welt als Vor-handenes lediglich ein Modus des ,,in-der-Welt-seins". So verwenden wir meist das Wissen als Weise des Sehens, die das Sehen (Sehen wird hier weit gefaßt) lediglich der Zu-handenheit zuschreibt, aber die Vor-handenheit der Dinge nicht theoretisch fassen kann, also der Mangel des Verständnisses, daß das Verständnis von Sein ein Teil des Daseins ist. Dasein hat ein a-priori Konzept von ,,in-der-Welt-sein". Es gibt kein isoliertes Subjekt mit dem klassischen Problem der Transzendenz. Wissen ist vorderhand immer in einem Sein neben der Welt begründet, welches konstitutiv für das Sein des Daseins ist. Ein pures ,,objektives" Wissen repräsentiert also ein Defizit des Status von Dasein. Man enthält sich. AI als Vorstellung, daß die Welt ,,außen" ist, daß Wissen eine interne Repräsentation der Welt bzw. der Realität ist, daß Realität objektiv (auch wenn man mehrere Realitäten ,,toleriert") und Wahrheit die Übereinstimmung zwischen Realität und Repräsentation sei, ist nicht nur langweilig, sondern auch naiv und erfüllt nicht einmal die eigene Wahrheitsdefinition. Wissen ist nicht ursprünglich.

An dieser Stelle greifen zwei weitere Konzepte zur Erklärung menschlichen Verhaltens und für den Entwurf sich intelligent verhaltender Maschinen auf: Intentionalität und Denken. Intentionalität wird dabei zumeist nicht als ,,Spur des Geistes" oder im Sinne des philosophischen Konzeptes ,,der philosophischen Inexistenz" von Brentano verstanden, sondern im Sinne von J.Searle: ,,Intentionality is by definition that feature of certain mental states by which they are directed at or about objects and states of affairs in the world. Thus, beliefs, desires and intentions are intentional states: undirected forms of anxiety and depressions are not."

Mit dieser Defintion löst sich das Problem selbst in eine Beziehung mit der Welt auf. Wenn unsere Intentionalität auf die Dinge der Welt gerichtet ist, hängt sie von der Welt ab und somit ist sie auch nicht ursprünglich.

Das andere Konzept, wir nennen es ,,Denken", wird meist als internes Attribut gebraucht. Traditionellerweise wird ,,Denken" in der AI-Gemeinde für den Umgang mit Dingen, Zielen, für das Lösen konkreter Probleme und das Erstellen und das Benutzen von Werkzeugen gebraucht. Meist geschieht dies in zwei Weisen - algorithmisch und heuristisch. Algorithmische Prozesse sind jedoch immer determiniert und darin liegt auch ihr Problem. Komplexe Probleme erzeugen einen explodierenden logischen Baum von Entscheidungsmöglichkeiten (siehe oben). Die Maschine ist überfordert, obwohl das gleiche Problem vom Menschen in kurzer Zeit gelöst werden kann. Es ist also evident, daß diese Prozesse von Menschen anders bearbeitet werden als von Computern. Computer sind zur Zeit nicht in der Lage, relevante und irrelevante Informationen zu unterscheiden, sie haben, wie schon erwähnt, kein Weltverständnis. Ontologisch gesehen steht diese Struktur für ein ,,in-der-Welt-sein", und zu dieser Struktur sind zwei weitere Charakteristika zu nennen, Befindlichkeit und Verstehen.

Befindlichkeit vermittelt Kenntnis der aktuellen Situation und Verstehen der Möglichkeit des Zustandes dieser Angelegenheiten. Verstehen ist hier also nicht kognitiv zu gebrauchen, sondern in einem speziellen Sinn von Potentialität des Daseins für das Sein. Ohne genau darauf einzugehen sei hier nur soviel gesagt, daß Intentionalität (in ähnlicher Weise gilt dies für das Denken) hier in der ,,ekstatisch" begründeten Einheit des Daseins möglich wird. Nachdem nun einige Aspekte der Funktionalität und dazu passende ontologische Formen kurz aufgerissen wurden, stellt sich jetzt die Frage: ,,Wie kommt man zum Dasein der Maschine?"

Zum Dasein der Maschine - Synthetische Intelligenz

Aus vohergehender Annäherung ist bereits klar geworden, daß die ,,Künstlichkeit" (das A von AI) im Funktionalismus gründen muß. Dabei werden Funktionen (Eigenschaften), die ein Objekt charakterisieren, als unabhängig vom ,,aufbauenden" Material betrachtet. Die Künstlichkeit ist dann die Anwendung von Funktionen (Eigenschaften) eines Objektes auf ein anderes, dem diese normalerweise (unserer Alltagserfahrung nach) nicht zukommen. Simulation der Eigenschaften und Funktionen ,,natürlicher" Dinge durch menschlich produzierte Dinge. Im Fall von Dasein sind die Funktionen Seinsweisen und als solche unabhängig von ,,natürlichen" Dingen. Diese Funktionen, die zu ,,Grunde" liegen und das Künstliche möglich machen, existieren auf einer ontologischen Ebene. Das Konzept des Künstlichen ist ontisch. Attribute, die das Dasein beschreiben, können dem Computer also nicht eingegeben werden, als wären sie ontisch. So sind zumindest zwei Stufen der Entwicklung gefordert: Eine Metastruktur (ontologische Ebene), mit der die Funktionalität dieser Attribute strukturiert werden kann und die die Möglichkeit zur Implementierung daseinsähnlicher Strukturen ermöglichen. Die Artikulation dieser Strukturen, die ich synthetische Intelligenz nennen möchte, basieren auf den Konzepten von Welt und Kontext.

Wir benötigen also eine Reihe bereits angeführter Eigenschaften, um das Konzept synthetischer Intelligenz realisieren zu können. Wir benötigen eine transzendentale Struktur zur Begründung der Objekte und ihrer Beziehungen, um zu kennzeichnen, was zu einer ,,Welt" gehören kann oder nicht. Eine Wissensbasis in Begriffen einer referentiellen Totalität (das Befinden der ,,um-zu" Beziehungen und ihrer Prioritäten) und Prozesse des Denkens wie Projektion, Interpretation, Folgerung. Überdies muß eine Schnittstelle existieren, die einen hermeneutischen Zirkel zwischen Mensch und Maschine unterstützt. Mit diesen Eigenschaften ist eine daseinsähnliche Intelligenz für den Computer zumindest als Ziel zu beschreiben. Dabei ist ein wesentliches Moment noch nicht angeführt worden - das Selbst.

Die Geschlossenheit des Daseins, wie sie von Heidegger postuliert wird, hängt am Konzept des Selbst. Man kann davon ausgehen, daß das Selbst keine res cogitans ist, keine denkende Substanz oder irgendeine Sorte von logischem Subjekt und sich das Selbst nicht unter dem Ontischen bzw. dem Zuhandenen findet, es muß also existenziell sein. Nach Heidegger ist das Selbst in einer ,,Sorge" begründet. Sorge jedoch muß nicht im Selbst begründet sein, ist jedoch existenziell konstitutiv, eine ontologische Konstitution der Selbstkonstanz des Daseins, zu welcher auch das ,,Fallen" in Nicht-Selbstkonstanz gehört. Das Verständnis der Sorge inkludiert auch ein Verständnis des Phänomens des Selbst. Selbstkonstanz bezeichnet dabei lediglich eine antizipatorische Auflösung. Die ontologische Struktur einer solchen Auflösung enthüllt die Existenzialität der Selbstheit des Selbst. Ein ,,authentisches" Selbst, also ein geschlossenes Selbst in einer Weise des Sorgens, ist Notwendigkeit für einen daseinshaften Computer. Nur wenn die Maschine fähig ist, mit dem Dasein zu kommunizieren und die ,,Ziele" des Daseins zu verstehen, hat sie die Fähigkeit, selbst zu sein. Es ist das Selbst, das alle Aspekte der Geschlossenheit des Daseins vereint. So ist klarerweise die Frage zu stellen, wie der Tod der Maschine zu simulieren ist. Wir müssen den Tod als Möglichkeit der Unmöglichkeit jeder Existenz überhaupt in Betracht ziehen. Der Computer muß die Möglichkeit haben, seine Entscheidungsprozesse, seine Zielverfolgung im Rahmen eines Seins zum Tod hin auszurichten, das heißt Abläufe und Entscheidungen in dieser Bedingung zu antizipieren, als Aspekt der Existenzialität in Richtung der Zeit.

Das Dasein der Maschine ist die Möglichkeit ihres Todes.

PS.: In diesem kurzen Abriß habe ich lediglich einige Aspekte der Ontologie des Computers aufzeigen können. Wesentlich genauer und mit einer prototypischen Software-Realisierung wird dies im Rahmen einer Veröffentlichung meiner Dissertation zu lesen sein (August 1995). So möchte ich an dieser Stelle nur noch auf die WWW-Seite ,,http://ast5.uibk.ac.at" (the Sodom-Homepage) hinweisen, auf der im Rahmen des Projekts SODOM verschiedene AI-Realisierungen im Internet erarbeitet werden und auf der auch dieser Text (wie auch alle anderen dieses Katalogs) zu finden ist.

Kritik an: peter@ast5.uibk.ac.at


Quellenangabe

Peter Riedlsperger, Das Dasein der Maschine. In: SYSTEM-DATEN-WELT-ARCHITEKTUR, Triton-Verlag, Wien 1995, Seite 78 ff.

Top Index Archiv Mail