image/svg+xml engineering cything cyber something

Die Grenzen von intelligentem Verhalten in technischen (KI-)Systemen

Hubert L. Dreyfus hat in seinem Buch1 "Die Grenzen künstlicher Intelligenz" verschiedene Argumente zu den Grenzen eines künstlichen intelligenten Verhaltens vorgebracht. Eine genannte Schwierigkeit für KI-Systeme ist es, den Kontext zu erfassen und daraus, mit Einbeziehung von implizitem Wissen, ein situatives Handeln abzuleiten. Hubert L. Dreyfus betont dabei die Bedeutung der phänomenologischen Erfahrung und die Notwendigkeit von Verkörperung für intelligentes Verhalten2. Seine formulierte Kritik an opportunistischen Narrativen von KI-Systemen, basierend auf der Verwendung von symbolischen Repräsentationen und Regeln, führten zu einer gründlicheren Untersuchung der technischen Herausforderungen und Beschränkungen der damaligen KI-Systeme.

In der Entwicklung seit 1972 traten maschinelles Lernen und künstliche neuronale Netzwerke in den Vordergrund, um die Fähigkeiten eines künstlichen intelligenten Verhaltens zu verbessern. Sowohl Informatiker, wie Stuart Russell und Peter Norvig in ihrem populären Lehrbuch für künstliche Intelligenz3, als auch die Philosophen Hannes Bajohr4 und Andreas Sudmann5, sehen in maschinellem Lernen und künstlichen neuronalen Netzwerken Lösungen, um die von Hubert L. Dreyfus genannten Schwierigkeiten zu überwinden. Und obwohl Hubert L. Dreyfus nicht explizit den Einsatz neuronal-netzartigen parallelgeschalteter Architekturen6 oder analogen Rechenmaschinen7 erläutert, so sah auch er mit diesen neuen Ansätzen das Potential, intelligentes Verhalten erfolgreich simulieren zu können8.

Die mich leitende Fragestellung ist: Haben die Einwände von Hubert L. Dreyfus auch bei dem Einsatz von künstlichen neuronalen Netzen und analogen Rechenmaschinen Bestand?

Ich argumentiere, dass technische Systeme, unabhängig von ihrer spezifischen Architektur oder den verwendeten Rechenmethoden, kein intelligentes Verhalten aufweisen können. Meine These ist: Durch den strukturellen Charakter von Informationsverarbeitung kann kein implizites Wissen für ein Situationsverständnis entstehen. Die Wechselbeziehungen zwischen individuellen Bedürfnissen und der Selbstorganisation des neuronalen Netzes können nicht in technischen Systemen abgebildet werden.

Implizites Wissen und formale Darstellung in neuronalen Netzen

Die Kritik von Hubert L. Dreyfus an symbolischen KI-Systemen und regelbasierter Informationsverarbeitung, die auf formalen Regeln und expliziten Repräsentationen basieren, kann auch auf künstliche neuronale Netze übertragen werden. Dies werde ich in diesem Abschnitt argumentieren.

Ein Aspekt in der Argumentation von Hubert L. Dreyfus ist das Unvermögen von Computern unbestimmte Informationen zu verarbeiten. Die Daten, die Computer verarbeiten, müssen diskret und explizit sein9. Für intelligentes Verhalten ist jedoch der Kontext und die Interpretation von Wahrnehmungen notwendig. Damit ein Computer sich intelligent verhalten kann, bräuchte dieser ein implizites Hintergrundwissen. Hintergrundwissen, so argumentiert Hubert L. Dreyfus, wird als unbestimmte Informationen über das Randbewusstsein aufgenommen10. Durch das Randbewusstsein können Mehrdeutigkeiten aufgelöst werden, die so eine Ambiguitätstoleranz ermöglichen11 - d.h. auch, nicht alle Informationen zum Kontext müssen explizit erfasst werden. Die Ambiguitätstoleranz ermöglicht somit Flexibiliät für ein Situationsverständnis. Und Situationsverständnis gibt einen Rahmen für ein zielorientiertes Problemlösen, es bildet eine Metaebene12, um Wichtiges von Unwichtigem in der Wahrnehmung zu unterscheiden. Diese aufeinander aufbauenden und sich zugleich gegenseitig bedingenden Anforderungen13 sind notwendig für Systeme, die intelligentes Verhalten nachahmen sollen.

Michael Polanyi, auf den sich Hubert L. Dreyfus mehrfach bezieht, beschreibt das Konzept des impliziten Wissens14 als Kenntnis, die zwar vorhanden ist, aber nicht explizit artikuliert oder formalisiert werden kann. Dieses implizite Wissen hat funktionale Aspekte, da es in praktischen Fähigkeiten und Handlungen zum Ausdruck kommt, ohne dass die Person in der Lage ist, dieses Wissen in Worte zu fassen (zum Beispiel das Fahrrad fahren). Es hat phänomenale Aspekte mit subjektiven Erfahrungen und Interpretationen. Darüber hinaus gibt es semantische Aspekte, als Wirkung von Dingen, wenn diese angewandt werden (zum Beispiel das Ertasten von Umrissen mit einem Stock). Ich mache somit die Annahme, dass implizites Wissen gleichgesetzt werden kann als Anforderung, um intelligentes Verhalten nachahmen zu können.

In symbolischen KI-Systemen erfolgt die Informationsverarbeitung durch das Festlegen von Regeln und symbolischen Strukturen, die dazu dienen, Muster und Eigenschaften zwischen verschiedenen Eingabedaten zu beschreiben. Die Eingabedaten werden als symbolische Ausdrücke oder Sätze in einer formalen Sprache dargestellt. Es ist eine Form, um explizites Wissen darzustellen und aufgrund dieser Repräsentation logische Schlussfolgerungen und Manipulationen zu ermöglichen. Implizites Wissen ist nicht existent, eingehende und gespeicherte Daten sind explizit durch Symbole dargestellt.

In künstlichen neuronalen Netzwerken erfolgt die Repräsentation subsymbolisch15 durch die angewendeten Transformationsfunktionen (die mathematischen Regeln in den Knoten von neuronalen Netzen)16 und die Gewichtungen der Verbindungen zwischen ihnen, wodurch Muster und Eigenschaften von Eingabedaten beschrieben werden. Die Eingabedaten werden in einzelne Datenpunkte zerlegt und als formalisierte numerische Werte verarbeitet. Nun kann postuliert werden, dass künstliche neuronale Netzwerke implizites Wissen durch die Gewichtungen der neuronalen Verbindungen repräsentieren werden17. Das Wissen ist nicht mehr explizit und atomistisch in Fakten strukturiert, sondern quasi-holistisch18, wie Hannes Bajohr es formuliert.

Die Frage stellt sich, wie aus formalisierter Eingabe und Verarbeitung dieses implizite Wissen entstanden ist. Künstliche neuronale Netzwerke nutzen Eingabedaten, um durch einen iterativen Prozess19 gerichtete Graphen20 mit Eingabe-Ausgabebeziehung zu konfigurieren, also die Gewichte der Tranformationsfunktionen. Der iterative Prozess wird die statistischen Zusammenhängen zwischen den Datenpunkten nicht vollständig erfassen, wenn in der Summe aller Eingangsdaten nicht alle möglichen Zustände abgedeckt werden. Muster und Eigenschaften in den Eingangsdaten müssen ausreichend vertreten sein, um für neue Eingabedaten eine hinreichende Generalisierung ableiten zu können. Die Auswahl, getroffen durch die Programmierenden, einer passenden Modellarchitektur ist entscheidend, um Muster und Eigenschaften angemessen zu erfassen. Durch die Programmierenden müssen Eingabedaten normalisiert und formalisiert werden, sie (die Programmierenden und die Eingabedaten) definieren somit bereits bei der Genese des künstlichen neuronalen Netzes die zu erkennenden Muster und Eigenschaften. Implizites Wissen reduziert sich auf die statistischen Zusammenhänge von Zahlenwerten (statistische Induktion21) und den Strukturen des künstlichen neuronalen Netzes. Michael Polanyi bezeichnet das Finden von kausalen Zusammenhängen und ein Anwenden dessen als funktionalen Aspekt22 des impliziten Wissens.

Aus diesen statistischen Zusammenhängen ergibt sich jedoch weder ein Verständnis noch ein Erkennen von Situationen. Für das Situationsverständnis, so Hubert L. Dreyfus, ist das Erfassen der gesamten Situation notwendig23. Nun sind künstliche neuronale Netze prädestiniert Muster und Eigenschaften, die bislang nicht explizit vorgegeben wurden, in Eingabedaten zu finden. Diese unterscheiden jedoch nicht zwischen Hintergrund und Vordergrund einer Szenerie, die gesamte Situation wird explizit erfasst und ausgewertet. Wenn die signifikanten Muster und Eigenschaften in Eingabedaten gefunden werden, die Werte der Datenpunkte logisch wahr sind, dann liefert das künstliche neuronale Netz auch ein im Kontext oder der Situation unangepasstes Ergebnis24. Um diese unpassenden Ergebnisse auszuschließen, müsste jede erdenkliche Gesamtsituation durch den iterativen Prozess zur Ausbildung des gerichteten Graphen erfasst werden. Nur die Gesamtsituation liefert die unbestimmten Informationen, aus dem mit einer Erwartungshaltung das Wahrnehmen von Merkmalen in den Vordergrund tritt25. Die Erwartungshaltung, dies formulierte Karl Duncker passender, wird bestimmt durch unser Ziel und unsere praktischen Erfahrungen26. Es ist eine gezielte Suche im Wahrnehmungsraum.

Die Kritik von Hubert L. Dreyfus gegenüber symbolischen KI-Systemen und regelbasierten Systemen kann auch auf künstliche neuronale Netze angewendet werden. Künstliche neuronale Netze nutzen ebenso formale Regeln (Transformationsfunktionen und gerichtete Graphen) und diskrete Daten (Digitalcomputern inhärent) für die Informationsverarbeitung. Auch wenn sich Programmierparadigmen geändert haben, so können künstliche neuronale Netze kein implizites Wissen entwickeln, das über bloße statistische Zusammenhänge von Zahlenwerten hinausgeht. Computer (als Substrat, auf dem die Algorithmen der künstliche neuronale Netze sequenziell ablaufen) können kein Verständnis für eine Situation entwickeln, wenn diese subsymbolisch repräsentiert werden.

Wenn die Möglichkeiten von diskreten Daten und formalen Regeln verhindern, implizites Wissen und Situationsverständnis, angemessen zu erfassen, können dann analoge Rechenmaschinen dies ermöglichen?

Analoge parallele Signale und Verkörperung

Die menschliche Wahrnehmung ist kontinuierlich und analog27. Unsere Sinnesorgane wie Augen und Ohren erfassen die Umgebung in einer kontinuierlichen Weise und analoge Repräsentationen spiegeln diese natürliche Kontinuität. Diese analogen Repräsentationen haben in ihrer grundlegenden Form keine formale Darstellung. Die Repräsentationen werden als Verhältnisse zwischen kontinuierlichen physikalischen Phänomenen wie Schall, Licht, Temperatur oder Druck wahrgenommen. Sie repräsentieren unmittelbar und kontinuierlich die Eigenschaften von Objekten, ohne explizit auf eine symbolische Codierung durch Zahlen oder Einheiten angewiesen zu sein.

Einige Konzepte künstlicher analoger neuronaler Netze28 beziehen sich auf die Verwendung analoger Signale für die Imitation von intelligentem Verhalten. In diesen Konzepten erfassen Sensoren kontinuierlich die Umgebung und spiegeln diese als elektrische analoge Signale in ein System zur Signalverarbeitung. Die analoge Signalverarbeitung kann durch Verstärkung oder Filterung analoge Signale manipulieren, mit Modulation verschiedene Signale mischen und mit Rückkopplungen das Verhalten eines Systems in Echtzeit anpassen. Auf diese Weise können analoge neuronale Netze realisiert werden, die analoge Signale verarbeiten und Mustererkennungsaufgaben durch Aktivierungsfunktionen und Gewichtsanpassungen ausführen.

Diese analogen neuronalen Netze ermöglichen sensorische Eingaben kontinuierlich zu erfassen und parallel mit weiteren sensorischen und gespeicherten Signalen zu verarbeiten. Es ist die technische Grundlage für ein synergisches System29, wie Hubert L. Dreyfus mit Verweis auf Maurice Merleau-Ponty die notwendige Fähigkeit beschreibt, um überhaupt ein strukturelles Erkennen zu ermöglichen. Diese Form von analoger Parallelität unterscheidet sich grundlegend von Prinzipien paralleler Datenverarbeitung, wie sie in Grafikprozessoren30 zu finden ist. Grafikprozessoren31 verwenden häufig eine SIMD (Single Instruction, Multiple Data) Architektur, bei der dieselbe Anweisung auf verschiedene Daten angewendet wird. Dies ermöglicht es, Berechnungen für viele Daten gleichzeitig durchzuführen. Um die Leistung der Grafikprozessoren optimal zu nutzen, müssen spezielle Algorithmen entwickelt werden, die parallelisierbar sind. Eine Eingabe wird aufgeteilt in kleinere Teilaufgaben, die unabhängig voneinander serialisiert bearbeitet werden können. Es sind Abhängigkeiten zwischen Teilaufgaben aufzulösen, da parallele Berechnungen oft auf die Ergebnisse vorheriger Berechnungen zugreifen. Für ein finales Ergebnis sind die Ausgaben der Teilaufgaben zu synchronisieren und werden wieder zusammengefasst.

Diese technischen Herausforderungen bestehen bei analoger paralleler Verarbeitung nicht. Die analoge Verarbeitung im Nervensystem von Lebewesen beinhaltet hochdynamische Synapsen, die sich an unterschiedliche Zeitskalen von Millisekunden bis zu Sekunden anpassen32. Die übertragenen Reize unterschiedlicher räumlich-zeitlicher Signatur und mit variabler Bandbreite werden im neuronalen Geflecht verarbeitet. Einige dieser Operationen sind beispielsweise Multiplikationen, Verstärkung, Schärfung und Schwellenwertbildung, zeitliche und räumliche Sättigung, zeitliche und räumliche Filterung. In einem analogen künstlichen neuronalen Netzwerk wird dies durch zeitabhängige Signale und Operationsverstärker imitiert. Operationsverstärker können analoge Signale verstärken und kombinieren, ähnlich wie Neuronen, die Signale von verschiedenen Quellen integrieren.

Ein solches System ist in der Argumentation von Hubert L. Dreyfus regelfrei, es verarbeitet bedeutungsleere Signale als „Stimulus-Information“33. Die bedeutungsleeren Signale besitzen nur Syntax, beispielsweise unterscheidbare Energieniveaus34. Ein Teil ihrer Bedeutung entsteht erst durch die Ordnung, als Vergleichen unterschiedlicher Signale respektive Stimuli. Diese Ordnung (zum Beispiel: schwacher vs. starker Stimulus) liefert mit der Zuschreibung zu einem Sensor (zum Beispiel: Lichtstärke) eine Bedeutung (zum Beispiel: schwaches Licht). Hubert L. Dreyfus argumentiert, dass es die körperlichen Fertigkeiten (zum Beispiel: schwaches Licht auf der linken Seite) eines Menschen (allgemein eines Organismus) erfordert, um strukturelles Erkennen zu ermöglichen35. Intelligentes Verhalten beruht nicht ausschließlich auf der Verarbeitung im Gehirn, sondern, es entsteht durch die Interaktion des Lebewesens mit seiner Umwelt und seinem Körper.

Der Körper ist die Schnittstelle zur Umwelt und beherbergt Sinnesorgane, die Stimuli aufnehmen. Die Anatomie und Physiologie des Körpers beeinflusst, welche Arten von Stimuli ein Lebewesen wahrnehmen kann. Der Körperkontext beeinflusst die Bewegungsfähigkeit und die Interaktion mit der Umgebung, was wiederum die Art und Weise beeinflusst, wie Informationen wahrgenommen werden. Den Körper durchzieht ein feines Geflecht von Nervenbahnen und Nervenzellen. Im Bildatlas der Neuroanatomie36 anschaulich und technisch beschrieben, könnte auf diese Weise auch eine künstliche Struktur als menschlicher Roboter nachgebaut werden. Ein solcher Roboter, mit einem künstlichen neuronalen Netz für die Verarbeitung von sensorischen Signalen und der Steuerung von Aktoren für die Interaktion mit der Umwelt, kann als Androide ausgebaut werden, um den Menschen zu imitieren. So entsteht der semantische Aspekt37 des impliziten Wissens aus einer menschlichen Perspektive. Die Gesamtsituation liefert dem Androiden die unbestimmte Informationen, durch Filter und Fokussierung können Merkmale in den Vordergrund treten, die Interaktion mit der Umgebung in einer Situation kann mit einem Körper stattfinden aber mit welchem Ziel?

Subjektivität und Selbstorganisation

Was ich bisher in dem Essay geschrieben habe, offenbart dass sowohl digitale künstliche neuronale Netze als auch parallelisierte analoge neuronale Netze nicht den Anspruch erfüllen können, intelligentes Verhalten zu imitieren. Es fehlt ein Ziel als Voraussetzung, um eingehenden Signalen eine Bedeutung (zum Beispiel: dies ist hilfreich für eine Problemlösung) zuschreiben zu können und diese entsprechend zu interpretieren. Diese Voraussetzung, entsteht nicht intrinsisch aus dem neuronalen Netz heraus, sondern sind von außen zugeführte Eingaben. Dies verhindert ein Situationsverständnis im Sinn von Hubert L. Dreyfus, das ein Verstehen38 beinhaltet. Die Frage dazu ist nun, was sind die weiteren Voraussetzungen, um ein solches Situationsverständnis zu schaffen. Mit dem Verweis auf das Konzept des impliziten Wissens von Michael Polanyi, fand die phänomenale Struktur39 mit subjektiven Erfahrungen noch keine Berücksichtigung. Diesem Komplex will ich mich durch Skizzen von zukünftigen Quellenstudien abschließend nähern.

In der Klassifikation intelligenter Aktivitäten von Hubert L. Dreyfus40, wurde das komplex-formalen System definiert, gefolgt von der letzten Stufe, dem nicht-formalen Verhalten. Als Hubert L. Dreyfus das Buch 1972 verfasste, beschrieb er Schwierigkeiten und gab Ideen, um den Stillstand bei komplex-formalen Systemen aufzulösen. In meiner Einschätzung ist auch heute die zweite Schwierigkeit41 noch nicht gelöst. Hubert L. Dreyfus verweist auf Edward Feigenbaum und die Wahl der Problemstellung als schöpferischer Akt der Programmierenden. Die damit verbundene Aktivität ist das Auffinden der Tiefenstruktur beziehungsweise das Vorhandensein von Bedürfnissen respektive Zielen.

Der Organismus neigt dazu, auf Bedürfnisse zu reagieren, um einen Zustand des inneren Gleichgewichts wiederherzustellen. Bedürfnisse, sind somit Triebkräfte für motivierendes Verhalten42, mit dem Streben nach innerem Gleichgewicht und Stabilität. Die Homöostase, als Gleichgewichtszustand, wird durch den Metabolismus des Organismus erreicht. Der Metabolismus bezieht sich auf die Gesamtheit der chemischen Reaktionen im Körper, die den Auf- und Abbau von Substanzen ermöglichen, um Energie zu erzeugen. Der Energiehaushalt, der durch den Metabolismus geregelt wird, ist entscheidend für die Homöostase, wie zum Beispiel die Aufrechterhaltung einer konstanten Körpertemperatur und des Blutzuckerspiegels. Aus diesem Gemenge des Vitalen evolutioniert sich der Organismus ohne sich dabei selbst zu zerstören43.

Für künstliches intelligentes Verhalten respektive die Entstehung von impliziten Wissen ist relevant, wie diese Selbstorganisation des Organismus funktioniert und ob daraus eine Systemanalogie formuliert werden kann. Aus der Systemanalogie können wir überlegen, ob das System technisch realisierbar ist. In einem großen Organismus, wie dem Menschen, reguliert der Hypothalamus die Homöostase44. Das vegetative Nervensystem mit Neurotransmittern, Hormonen und den neuronalen Strukturen übernehmen die sensorische und aktorische Kontrolle des Körpers. Das Belohnungssystem wird aktiviert, wenn grundlegende Bedürfnisse befriedigt werden45. Die so erzeugten hormonellen Ausschüttungen erzeugen positive Gefühle und verstärken damit Verhaltensweisen, die zur Homöostase beitragen. So wird beispielsweise die Nahrungsaufnahme belohnt, wenn sie den Energiebedarf deckt. Wiederholte Belohnung kann zu langfristigen strukturellen und funktionellen Veränderungen in den neurologischen Strukturen führen. Dieser Prozess wird als Plastizität oder das adaptive Gehirn46 bezeichnet. Darüber hinaus zeigen neurowissenschaftliche Erkenntnisse, dass die Bedürfnisbefriedigung nicht nur auf physische Aspekte beschränkt ist, sondern auch soziale und emotionale Dimensionen umfasst. Dieses Gemenge ermöglicht eine Anpassung des Organismus an die individuellen Bedürfnisse und Umweltbedingungen, was zu vielfältigen Formen motivierten Verhaltens führt.

Die Plastizität im Nervensystem ist ein kontinuierlicher Prozess, bei dem neue Zellen entstehen, sich verlagern und neue Verbindungen eingehen, es ist ein aktives Umstrukturieren, um sich an Veränderungen in der Umwelt anzupassen. Diese Veränderungen können als die phänomenale Struktur des impliziten Wissens, geprägt durch die subjektiven Erfahrungen bezeichnet werden. Das implizite Wissen, das durch plastische Veränderungen geprägt ist, bildet die Grundlage für ein Situationsverständnis, da es die schnelle und effiziente Interpretation von Informationen ermöglicht und somit die Handlungsanpassung an verschiedene Kontexte erleichtert.

Das Ausbilden einer Motivation fehlt in technischen Systemen. Ein Digitalrechner oder Analogrechner hat keine Erwartung und keine Absichten. Diese verarbeiten Signale ohne eine Bedeutung in ihnen zu finden. Erwartungen und Absichten müssten dem technischen System vorgegeben werden. Bei dem Design von analogen Schaltungen werden die Beziehungen zwischen Spannungen, Strömen, Frequenzen und Bauelementen der Schaltung formalisiert. Das bislang nicht formalisierte technische System wird in ein mathematisches Modell überführt. Mit der Berechnung von Signalverstärkung, Frequenzgang, Rauschen und anderen Parametern definieren in diesem Sinne die Designenden auch die Eigenschaften des technischen Systems. Die Eigenschaften sind die vordefinierten Bedürfnisse und Absichten des technischen Systems. Die Formalisierung und mathematische Modellierung führen zu einer spezifischen Art der Bedeutungszuordnung und Einschränkung, die die ursprüngliche regelfreie Natur des Systems verändert.

Zusammenfassung

Technischen Systemen, wie digitale neuronale Netze, analoge neuronale Netze und Verkörperungen von Robotern, Androiden oder sonstigen menschengemachten Techniken zusammengefasst, fehlt die Möglichkeiten eigene Bedürfnisse zu denken und mittels der Selbstorganisation und durch Metabolismus zu befriedigen. Die Generierung von implizitem Wissen in technischen Systemen erfordert die Bildung von Bedürfnissen. Die in technischen Systemen definierten Ziele sind von den Designenden vorgegeben. Ein Wissen in künstlichen neuronalen Netzen ist berechnet und unabhängig von individuellen Bedürfnissen. Eingehende Stimuli können nicht selbstständig mit Empfindungen oder Bedürfnissen verbunden werden, wie es beim menschlichen impliziten Wissen der Fall ist. Für das gezielte Anpassen der elektronischen Schaltkreise ist eine Formalisierung des technischen Systems durch ein mathematisches Modell nötig. Das mathematische Modell ist nur eine weitere Abstraktionsebene des technischen Entwurfs eines Systems, in den von Designenden definierten Grenzen. Das technische System handelt nicht selbstständig, sondern folgt den ihr von außen vorgegebenen Freiheitsgraden. Es fehlt die Möglichkeit der Selbstorganisation. Daher können technische Systeme keine phänomenale Erfahrung haben und dem Menschen ähnliches implizites Wissen generieren.

Mit abschließenden Worten aus der Gestaltpsychologie kann aus technischen Systemen kein intelligentes Verhalten entstehen. Die Begrenzung der Freiheitsgrade in den elektronischen Schaltungen zwingen dem technischen System ein begrenztes dynamisches Verhalten, vorgegeben vom Menschen, für einen bestimmten Zweck auf47. Das technische System kann somit nicht seinen eignen Dynamiken folgen, die für ein intelligentes Verhalten stehen.

Literaturverzeichnis