netzfit
art 017
   
Startseite
Artists
Kontakt
Impressum
 
neue Einträge :
   
             
       
"Der Computer-Mensch"
   
         
23.02.05 - 15:27:54
   
       
   
         
born • Michael Wagner
   
       
   
             
         
born
   



Was läßt sich daraus im Zusammenhang mit den Fähigkeiten künstlicher
neuronaler Netze, deren Prozesse analog und parallel verlaufen, die flexibel und
plastisch sind, schließen?
Wir haben gesehen, daß sie in gewisser Weise „lernen“, ohne durchgängig
programmiert zu werden, daß sie in der Lage sind, auf unvollständige Eingaben
mit korrekten „Antworten“ zu reagieren. Ihre Input-Output-Funktionen sind nicht
berechenbar in dem Sinne, daß sie Fälle expliziter Regelbefolgung oder diskreter
Zustandsveränderungen darstellen würden. Doch auch ihr Verhalten kann
annäherungsweise durch einen Algorithmus berechnet werden. Sollten wir geneigt
sein, die Fähigkeiten solcher Maschinen mit einem mentalen Vokabular zu
beschreiben, wären wir dann auf einer neuen Stufe der Reflexion des Menschen
angelangt?

Der Physiker Roger Penrose glaubt dies nicht. Er ist der Überzeugung, daß
menschliches Denken nicht einmal annäherungsweise algorithmisch berechenbar
und damit etwas ist, was nicht mit künstlichen neuronalen Netzen simuliert werden
kann. Er betrachtet Mikrotubuli als Wirkorte der Quantengravitation und somit als
Fenster für nicht-algorithmische Prozesse der menschlichen Kognition
(vergl. Rick Grush & Patricia Smith Churchland in Metzinger Th. (Hrsg.),
1995, S. 225). Vielleicht zielt Searle auf etwas Ähnliches, wenn er meint,
zur Grundvoraussetzung für die Generierung bestimmter mentaler Phänomene
gehörten bestimmte kausale Kräfte. Das wäre nun ein Gegenargument auf der
Ebene des metaphysischen Realismus.

Eines der wichtigsten Probleme, dem man nach Putnam bei der „Erschaffung“
menschlicher Intelligenz (auf künstlicher Basis) gegenübersteht, ist die Fähigkeit
der Menschen zu induktivem Schließen, die wiederum das Vermögen voraussetzt,
Ähnlichkeiten zu „erkennen“. Putnam hat hier das Wort „erkennen“ verwendet,
und ich habe es unter Anführungszeichen gesetzt, weil er selbst auch in
Ähnlichkeiten nicht nur Konstanten physischer Reize oder Inputmuster der
Sinnesorgane sieht. Für uns Menschen, die wir in einem Sprachgebrauch stehen,
sind oder werden viele Dinge nicht dadurch ähnlich, daß sie gleich aussehen,
sondern dadurch, daß wir ihnen in bezug auf handelnde Personen einheitliche
Zwecke zuschreiben. Putnam bringt das Beispiel von Messern, die dadurch ähnlich
werden, daß sie zum Schneiden und Stechen verfertigt bzw. verwendet werden
(vergl. Putnam Hilary. Für eine Erneuerung der Philosophie, Reclam, Stuttgart,
1997 , S. 22). ...

... Dazu stellt sich des weiteren das bereits besprochene Problem der Existenz
widerstreitender induktiver Schlüsse, wonach wir in vielen Fällen
(vielleicht aufgrund angeborener Tendenzen – wie Putman meint) etwas schon
anhand weniger Erfahrungen zu folgern geneigt sind (und damit richtig liegen),
obwohl weit mehr Beobachtungen dagegen sprechen. Wie aber „gewichten“
wir dann unser Wissen? Wieviel von dem, was wir Intelligenz nennen, setzt den
Rest menschlicher Natur voraus? Putnam deutet hier an, daß wir möglicherweise
mit dem Sprachgebrauch impliziten Informationen arbeiten
(z.B. die Art und Weise,wie wir über etwas reden). Für das Projekt der künstlichen
Intelligenz stellt sich dann aber die Frage,wie es möglich ist, die in den gehörten
Äußerungen enthaltenen Informationen zu entschlüsseln. Und ferner: Wie und mit
welchem Hintergrundwissen soll man ein künstliches System ausstatten?
(Eine Frage, der ja auch R. Dreyfus großes Gewicht beimißt).

Putnam ist der Ansicht, daß der Versuch, alle, d.h. auch nicht explizit artikulierte
Informationen menschlicher Beurteiler induktiver Schlüsse zu programmieren,
schon allein deswegen scheitert, weil zu deren Formalisierung Generationen von
Forschern nötig wären. Und das Resultat wäre womöglich nichts weiteres als ein
riesiges fantasieloses Expertensystem, das nicht einzusehen vermöchte, daß es in
vielen Fällen gerade das Hintergrundwissen sei, das preisgegeben werden müsse.

Der zweite Ansatz besteht eben darin, einen Roboter oder Ähnliches zu
konstruieren, der sein Hintergrundwissen über Interaktionen mit Menschen
so lernt wie ein Kind. D.h., der eine Sprache und mit ihr (und in ihr)
alle übrigen expliziten und impliziten kulturgebundenen Informationen,
aber auch Verhaltensweisen u.a. erwirbt.
Orientiert man sich an Chomsky, dann dürfte auch diese Möglichkeit,
wie wir gesehen haben,so gut wie ausgeschlossen sein. Denn demnach ist der
Erwerb einer Sprache weniger ein Lernen als vielmehr eine in einer bestimmten
Umgebung erfolgende Ausreifung angeborener Fähigkeiten.
KI-Forscher hoffen natürlich andererseits, daß es das gibt, was Putnam eine
mehr oder weniger themenabhängige Lernheuristik nennt, die (ohne Zuhilfenahme
nicht praktikabler Mengen fest verdrahteten Hintergrundwissens oder
themenunabhängiger begrifflicher Fähigkeiten) für das Erlernen einer natürlichen
Sprache genügte.


Werner Hermann: "Sprachphilosophische Reflexionen zur Möglichkeit der Schaffung
künstlicher Intelligenz", Wien 2002.


http://sammelpunkt.philo.at