| 
 Was läßt sich daraus im Zusammenhang mit den Fähigkeiten künstlicher
 neuronaler Netze, deren Prozesse analog und parallel verlaufen, die flexibel und
 plastisch sind, schließen?
 Wir haben gesehen, daß sie in gewisser Weise „lernen“, ohne durchgängig
 programmiert zu werden, daß sie in der Lage sind, auf unvollständige Eingaben
 mit korrekten „Antworten“ zu reagieren. Ihre Input-Output-Funktionen sind nicht
 berechenbar in dem Sinne, daß sie Fälle expliziter Regelbefolgung oder diskreter
 Zustandsveränderungen darstellen würden. Doch auch ihr Verhalten kann
 annäherungsweise durch einen Algorithmus berechnet werden. Sollten wir geneigt
 sein, die Fähigkeiten solcher Maschinen mit einem mentalen Vokabular zu
 beschreiben, wären wir dann auf einer neuen Stufe der Reflexion des Menschen
 angelangt?
 
 Der Physiker Roger Penrose glaubt dies nicht. Er ist der Überzeugung, daß
 menschliches Denken nicht einmal annäherungsweise algorithmisch berechenbar
 und damit etwas ist, was nicht mit künstlichen neuronalen Netzen simuliert werden
 kann. Er betrachtet Mikrotubuli als Wirkorte der Quantengravitation und somit als
 Fenster für nicht-algorithmische Prozesse der menschlichen Kognition
 (vergl. Rick Grush & Patricia Smith Churchland in Metzinger Th. (Hrsg.),
 1995, S. 225). Vielleicht zielt Searle auf etwas Ähnliches, wenn er meint,
 zur Grundvoraussetzung für die Generierung bestimmter mentaler Phänomene
 gehörten bestimmte kausale Kräfte. Das wäre nun ein Gegenargument auf der
 Ebene des metaphysischen Realismus.
 
 Eines der wichtigsten Probleme, dem man nach Putnam bei der „Erschaffung“
 menschlicher Intelligenz (auf künstlicher Basis) gegenübersteht, ist die Fähigkeit
 der Menschen zu induktivem Schließen, die wiederum das Vermögen voraussetzt,
 Ähnlichkeiten zu „erkennen“. Putnam hat hier das Wort „erkennen“ verwendet,
 und ich habe es unter Anführungszeichen gesetzt, weil er selbst auch in
 Ähnlichkeiten nicht nur Konstanten physischer Reize oder Inputmuster der
 Sinnesorgane sieht. Für uns Menschen, die wir in einem Sprachgebrauch stehen,
 sind oder werden viele Dinge nicht dadurch ähnlich, daß sie gleich aussehen,
 sondern dadurch, daß wir ihnen in bezug auf handelnde Personen einheitliche
 Zwecke zuschreiben. Putnam bringt das Beispiel von Messern, die dadurch ähnlich
 werden, daß sie zum Schneiden und Stechen verfertigt bzw. verwendet werden
 (vergl. Putnam Hilary. Für eine Erneuerung der Philosophie, Reclam, Stuttgart,
 1997 , S. 22). ...
 
 ... Dazu stellt sich des weiteren das bereits besprochene Problem der Existenz
 widerstreitender induktiver Schlüsse, wonach wir in vielen Fällen
 (vielleicht aufgrund angeborener Tendenzen – wie Putman meint) etwas schon
 anhand weniger Erfahrungen zu folgern geneigt sind (und damit richtig liegen),
 obwohl weit mehr Beobachtungen dagegen sprechen. Wie aber „gewichten“
 wir dann unser Wissen? Wieviel von dem, was wir Intelligenz nennen, setzt den
 Rest menschlicher Natur voraus? Putnam deutet hier an, daß wir möglicherweise
 mit dem Sprachgebrauch impliziten Informationen arbeiten
 (z.B. die Art und Weise,wie wir über etwas reden). Für das Projekt der künstlichen
 Intelligenz stellt sich dann aber die Frage,wie es möglich ist, die in den gehörten
 Äußerungen enthaltenen Informationen zu entschlüsseln. Und ferner: Wie und mit
 welchem Hintergrundwissen soll man ein künstliches System ausstatten?
 (Eine Frage, der ja auch R. Dreyfus großes Gewicht beimißt).
 
 Putnam ist der Ansicht, daß der Versuch, alle, d.h. auch nicht explizit artikulierte
 Informationen menschlicher Beurteiler induktiver Schlüsse zu programmieren,
 schon allein deswegen scheitert, weil zu deren Formalisierung Generationen von
 Forschern nötig wären. Und das Resultat wäre womöglich nichts weiteres als ein
 riesiges fantasieloses Expertensystem, das nicht einzusehen vermöchte, daß es in
 vielen Fällen gerade das Hintergrundwissen sei, das preisgegeben werden müsse.
 
 Der zweite Ansatz besteht eben darin, einen Roboter oder Ähnliches zu
 konstruieren, der sein Hintergrundwissen über Interaktionen mit Menschen
 so lernt wie ein Kind. D.h., der eine Sprache und mit ihr (und in ihr)
 alle übrigen expliziten und impliziten kulturgebundenen Informationen,
 aber auch Verhaltensweisen u.a. erwirbt.
 Orientiert man sich an Chomsky, dann dürfte auch diese Möglichkeit,
 wie wir gesehen haben,so gut wie ausgeschlossen sein. Denn demnach ist der
 Erwerb einer Sprache weniger ein Lernen als vielmehr eine in einer bestimmten
 Umgebung erfolgende Ausreifung angeborener Fähigkeiten.
 KI-Forscher hoffen natürlich andererseits, daß es das gibt, was Putnam eine
 mehr oder weniger themenabhängige Lernheuristik nennt, die (ohne Zuhilfenahme
 nicht praktikabler Mengen fest verdrahteten Hintergrundwissens oder
 themenunabhängiger begrifflicher Fähigkeiten) für das Erlernen einer natürlichen
 Sprache genügte.
 
 
 Werner Hermann: "Sprachphilosophische Reflexionen zur Möglichkeit der Schaffung
 künstlicher Intelligenz", Wien 2002.
 
 
 http://sammelpunkt.philo.at
 
 
 
 
 
 
 |