[Eigentlich habe ich das ja auf Fisch und Fleisch gepostet, doch vielleicht gibt es einige hier, die es interessiert.]
Ich wurde gebeten, die Geschichte mit der künstlichen Intelligenz etwas »populärwissenschaftlicher« zu erklären, damit sie leichter vorstellbar wird. Es gibt die Metapher »in ein Wespennest zu stoßen«. Ich fühle mich jetzt so, als hätte ich das getan. Ich selbst bin ja kein Spezialist, der sich andauernd mit den damit verbundenen Problemen beschäftigen muss oder soll.
Allerdings kenne ich bestimmte Begriffe und die damit verbundenen Forschungsgebiete. Auf Wikipedia gibt es recht gute Zusammenfassungen, die teilweise aber nicht mehr ganz leicht verständlich sind, es sei denn man geilt sich bereits an den Schlagworten auf.
In Hinblick auf die Go-Software, die unter anderem mit zwei verschiedenen neuralen Netzwerken arbeitet, fange, fangte, fung oder fing ich mit dem Begriff »künstliche neurale Netzwerke« an.
Frei nach dem Buch »Die Feuerzangenbowle« von Spoerl fange ich also mit dem Satz an: »Da stelle ma uns ganz dumm, ...«. In bezug auf »KNN« (künstliche neurale Netzwerke) stellen wir vor, dass wir ein System haben, welches »lernen« kann. Das trauen wir eigentlich nur dem Menschen und allenfalls manchen Tieren zu, denen wir Kunststücke beibringen wollen.
Neuronen sind im Hirn oder auch sonst wo und bieten quasi das Informationsnetzwerk im Menschen. Wir behaupten einmal, dass die Neuronen, eigentlich Nervenzellen, notwendig sind, dass wir lernen können. Wir haben gehört, dass wir sehr, sehr viele davon haben und dass es noch viel mehr Verbindungen zwischen den einzelnen Neuronen gibt. Bis vor einiger Zeit war die Anzahl der Neuronen so groß, dass man keinen Computer bauen konnte, der rein mechanisch ein entsprechendes Gegenstück zum Hirn darstellen konnte. Das stimmt vermutlich nicht mehr, soll uns aber momentan nicht kümmern. Wir werden nämlich auf der Seite der KNN auf die Abgrenzung zur Neuroscience verwiesen. (Neuroscience ist wohl selbsterklärend, es gibt aber noch die Abgrenzung »computational neuroscience«, das klingt ja fast wie ein Bezug zum Computer.)
Und jetzt wird es interessant. Lapique führte 1907 das Integrate-and-Fire-Neuronenmodell ein, das wegen seiner Einfachheit bis heute eines der beliebtesten Modelle der Computational Neuroscience darstellt. Es gibt einen Forschungsbaukasten für Jugendliche (und jugendlich gebliebene Erwachsene) in denen man einen Baustein hat, der so ein Neuronenmodell simuliert. Ich habe diesen Baukasten nicht, aber vielleicht kaufe ich ihn mir noch einmal. (Der ist nämlich überhaupt super. Damit kann man z.B. auch ein EEG-Gerät bauen. Aber das gehört hier nicht herein.)
Die Funktionsweise dieses Modells wurde 50 Jahre später in der Praxis anhand eines Tintenfisches erforscht und sozusagen als richtig dargestellt. Die Typen, die sich damit beschäftigt wurden auch belohnt. Sowohl Hodgkin und Huxley als auch Hubel und Wiesel erhielten für ihre Arbeiten den Nobelpreis für Physiologie oder Medizin (1963 und 1981).
Man darf also davon ausgehen, dass die Forschung, die sich mit der Funktionsweise des Gehirns beschäftigt, nichts Esoterisches an sich hat. Allerdings habe ich mir während meiner Studienzeit in den 70erjahren ein Buch über das Gehirn gekauft. Das meiste darin enthaltene, kann heute als überholt oder zumindest so erweitert gesehen werden, dass man mit dem Buch heute nicht sehr weit kommen würde.
Die Arbeiten eines weiteren Forschers, David Marr konzentrierten sich auf die Interaktionen zwischen Neuronen verschiedener Areale wie z. B. dem Hippocampus und der Großhirnrinde. Er legte eine Theorie des Sehens vor, die sich an den Prinzipien der elektronischen Datenverarbeitung im Computer orientiert. Er gilt als einer der Begründer der Neuroinformatik.
Und damit beende ich das heutige erste Kapitel mit einer realen Anwendung, die zeigt, welche Fortschritte die Technik inzwischen gemacht hat. Die visuelle Verarbeitung vom Auge zum Hirn ist ziemlich »intelligent«. In den 80erjahren hatte ich mit dem Thema Bildanalyse zu tun. Damals konnte man einfache bildanalytische Operationen mit Hilfe von Computern durchführen, allerdings dauerte es ziemlich lange. Eine Dilatation, mit der man eine zerfranste Kontur auf zusammenhängend erweitern konnte, brauchte für die Berechnung eines 256*256-Bildpunktebildes in Schwarzweiß 20 Sekunden. Das ist vielleicht einer von zehntausend Schritten, die notwendig sind, damit ein Flaschenpfandrückgabeautomat heute das Etikett einer Bierflasche lesen kann, das Bild auf der runden Etikette geradebiegen und auswerten kann. Das funktioniert heute in einer Zehntelsekunde.
Das bedeutet einerseits, dass ich ein alter Mann geworden bin, der sich allerdings freut, diese ganze Entwicklung mitverfolgen zu können. Andererseits lässt sich daraus ablesen, das einiges, was heute möglich ist, vor 35 Jahren als unmöglich gegolten hat.
Es sollte als durchaus als Anlass dienen, auch andere »unmögliche« Ergebnisse als realisierbar anzunehmen.
Nachtrag: den Baukasten scheint es nicht mehr zu geben. Schade. Vermutlich wird das heute nur mehr über die Simulation durchgeführt.
2. Nachtrag: es scheint ihn doch noch zu geben. Zumindest gibt es noch die Dokumentation über die Versuche.
Versuchsbeschreibung
Tolle Sache, nicht wahr?