Computer

17
Okt
2019

Was ich nicht mehr brauche

Es gibt "Quora". Da stellen Leute Fragen und andere beantworten sie.
Die Qualität der Fragen sind sehr, sehr unterschiedlich. Von Mathematikaufgaben, die Zehnjährigen in der Schule gestellt werden, bis zu philosophischen Fragen.
Komplizierte mathematische Fragen werden oft sehr ausführlich und verständlich beantwortet.
Es gibt Fragen über Länder. Sie betreffen alle möglichen Umstände wie Gehalt, Mietkosten, Vergleiche zwischen verschiedenen Ländern etc.
Die meisten Fragen klicke ich weg, aber ab und zu erhalte ich auch Information, die ich sonst nicht bekomme.
Seit fast zehn Jahren gibt es eine neue Programmiersprache. Sie heißt "Julia".

Julia

Wenn ich die Beschreibung lese, ist sie eine eierlegende Wollmilchsau.
Sie versucht auch die Wiederverwendung von bereits bestehenden Programmen zu unterstützen.
Sie ist laut Beschreibung viel schneller als Python, was ich glauben kann.

Aber was bringt die Geschwindigkeit? Ich weiß nicht, wohin ich will, aber ich bin schneller dort.
Die Sprache wurde am MIT entwickelt. Dort werken keine Idioten. Ich werde mich aber sicher nicht damit anfreunden können.
Mir kommen die Anstrengungen so vor, wie sie beim Turmbau zu Babel investiert wurden.
read 1080 times

26
Sep
2019

Der erste Tag

Der Vormittag war sehr in Ordnung. Gute Vorträge, gute Sprecherinnen.

Der Nachmittag war einschläfernd. Ich komme morgen aber vor dem Lunch an. Ich habe schon mit einigen der Sprecherinnen und einem Sprecher näheren Kontakt aufgenommen.

Mit meinem Vortrag bin ich soweit zufrieden. Ich agiere als Advocatus Diaboli. "Der Mensch kann durch den Computer nicht ersetzt werden, zumindest nicht immer." (Obwohl ich mir das ja eigentlich vorstellen kann :) :) :) )






Material
read 511 times

21
Aug
2019

Vergangenheit und Zukunft

Man kann mir beim besten Willen nicht unterstellen, dass ich mich der Zukunft verweigere. Manchmal habe ich allerdings schon Schwierigkeitebn, mich mit der modernen Technik "vertraut" zu machen.

Ich nahm mir heute das Tablet und eine Bluetooth-Tastatur ins Kaffeehaus mit, um an meiner Presentation zu arbeiten. (Ich sollte auf jemanden warten, der "shopping" war.

Eigentlich funktionierte alles ziemlich gut, bis ich auf das Zeichen / stieß. Das wurde nämlich als & von der Tastatur gelesen. Kein Problem, dachte ich. Da ist halt noch irgendwas auf englische Tastatur gestellt. (Die könnte ich auch blind tippen, aber wenn es das Zeichen schon auf einer deutschsprachigen Tastatur gibt, sollte es auch richtig funktionieren.

Ich habe mindestens eine halbe Stunde gebraucht, bis ich die Einstellungen auf dem Tablet richtig ändern konnte. Ich dachte nämlich, dass es sich um eine Einstellung der Tastatur handeln müsste, weil auf dem Tablet mit Wischen und Fingerabdruck auf dem Schirm verteilen alles richtig interpretiert wurde.

Ich suchte also lange vergeblich nach entsprechenden Einstellungen. Letztendlich war es eine ganz ordinäre Spracheinstellung im Tablet selber.

Na gut, das Problem ist gelöst. Problem? Fürchterlich, dass ich dafür so lange brauche. Das wäre eine Geschichte von 20 Sekunden gewesen, zu einem Zeitpunkt, als ich noch 31 Minuten jünger als jetzt war :)

Egal, jetzt muss ich meinen eigentlichen Text in einem weiteren Beitrag verewigen.

Hier ist der Link, den ich nicht eingeben konnte: ):) :) :)





de.m.wikipedia.org/wiki/Detektorempfänger
read 470 times

26
Jul
2019

S C H A D E N F R E U D E

Die empfinde ich jetzt. Aber es ist keine gemeine Schadenfreude, die sich am Schaden, den andere erlitten haben, ergötzt. Nein, der Schaden ist bei mir selbst eingetreten. Ich hatte bei einer Vorlesung auf der Uni meinen Rucksack auf den Boden gelegt. Beim Hochheben glitt das Tablett heraus und siehe da, eine Höhe von 20 cm ist für das iPad nicht mehr zuträglich. Das iPad sieht aus wie die Frontscheibe eines Autos nach dem Zusammenstoss.
Jetzt wollte ich das Ding fast schon verschenken, weil ich mich so über Apples Software geärgert habe. Jetzt hat sich das Problem von selbst gelöst.
Der Nachfolger ist schon bestellt. Ein Huawei M5 lite mit LTE. Kostenpunkt 229 €. (Das iPad hatte über 800 gekostet.) Die Daten sind natürlich alle wesentlich besser. Ich habe auch keine Sorge wegen Updates oder künftigen Embargos, die Huawei treffen.
Jetzt bin ich gespannt auf die akustischen Qualitäten. Die sollen sehr gut sein.

Der Vortrag war übrigens auch sehr interessant. Juliet Floyd über Turing, Wittgenstein, Post etc.
read 419 times

24
Jul
2019

VISUAL BASIC 6

Gestern traf ich einen "Kollegen". Eigentlich wurde der Kontakt von meiner Klavierlehrerin vermittelt. Er spielt Klavier und Geige, die letztere allerdings seit zwei Jahren nicht mehr.
Er ist 3 Jahre älter als ich. Aber wir waren Kollegen an der Technischen Hochschule, im gleichen Institut. Er beschäftigte sich mit Plasmalinsen, ich mit der Elektronenbearbeitungsmaschine. Ich kannte ihn damals sicher, aber ich wiedererkannte ihn nicht. Aber Professoren und Kollegen waren uns gleichermaßen vertraut.

Beim Heurigen erzählte er mir, das er noch immer seine Software betraut, mit der er die letzten Jahre selbstständig war. (Industrielle Steuerungselektronik) Ich fand es lustig, dass er alles mit Visual Basic 6 macht. Ich kann es aber einsehen, auch wenn die Software schon mehr als 17 Jahre alt ist. Ich habe mit VB6 auch Programme geschrieben und eigentlich sehr gutes Geld damit verdient, innerhalb der Firma und auch nebenbei mit Genehmigung meines Arbeitgebers.

Heute hatte ich eine kleine Pause und es reizte mich, einen Blick auf VB6 zu werfen. Ich fand eine Anleitung, wie man es unter Windows 10 installieren könnte. Man muss zwei Eingriffe in das Installationsprogramm machen. Aber es hat funktioniert. Und nach 20 Minuten konnte ich das erste kleine Testprogramm starten. In einer vollkommen vertrauten Umgebung. Es ist sagenhaft, was man sich alles über die Jahre merken kann.

So binden sich die Jahrzehnte und Jahren zu ganz kleinen Einheiten. Es war nicht alles schlecht, was es einmal gegeben hat :)
read 463 times

7
Jul
2019

Answering a question

A very good question! ("Would you write code for free?")

Especially, if it is asked by someone from the States :)

When reading more I found subtle hint about selling, about your selling. But it is somewhat subtle, so I will write an answer, even if I am not your target.

The answer is yes! Or maybe no, if one considers future developments.

While I have written a lot of software when I was not a programmer, there were times when programming was just fun.

First of all: programming was not in my education. I have studied electronic engineering at the Technical University of Vienna.
So what did I do in the beginning? I have designed and built hardware. The first two projects that I did with microprocessors were measurement devices. (256 Byte RAM, 2 kB PROM, Z80) So what was measured) One instrument measured environmental data in 1974 and the device had to run without human interaction for at least one year. The other device was measuring temperature in the range of 1 to 1600° Celsius with an accuracy of 1°. It was the successor of an instrument that used a resistor network for simulation of a polynom of 4th degree. Calibration had needed more than one days work. My instrument needed one measurement run of half a day, measurements were taken all hours. The calibration needed 2 minutes. Setting of 5 twenty gear potentiometers.

I changed companies and was dealing with image analysis. I did not do real programming, maybe you could call it application programming, but I did not consider it programming. It was just applying some software tools.

Any free programming at that time? Not really. But analyzing software I did. During our honeymoon trip to Lake Garda in Italy I took some software listings with me. They were describing the software of the DEC PDP-11. After lunch, when it was too hot to do anything else, my wife rested and I studied the floating point software simulation of the PDP-11.
It was great. I had only a dissassembled listing and had to find out, what could have been symbols and how was the structure of the subroutines. Addressing data of subroutines in the memory in the particular DEC way would not be allowed today :)

Actually I did programming, too but that was because I was employed by the university.

I skip a few years. Eventually I programmed another measurement device where I had to do everything from scratch, including adapting a specific operation system so it was multi-processors capable. Then came a time when I was selling pianos. No programming, just supervising what somebody else programmed in his spare time.

And then in the 90s, I found the successor of FORTH. I had found SMALLTALK. Without any idea of applying for a job as programmer, I invested 30.000 ATS, would be 6000 € nowadays to buy myself the development system Visual Age Version 3 from IBM. My computers were much too small to handle it. Sometimes I had to wait 20 seconds after I had selected something from the menu. But I had been fascinated. The first thing I programmed with it was a "game of life". Actually, I wanted to enhance it to get a simulation of interacting cells with particular properties. Would be still interesting to do that today with the machines available today.
(When I write this I almost think of getting started with it again. Instead I have done some courses in machine learning and artificial intelligence. That satisfies me nowadays next to working through the bible of quantum computing by Nielsen.)

So here I was doing programming for "free". I had no idea to make money with it. I wanted to create "living entities" to program a higher version of "life".

As it turned out, I got an offer by a large company that was searching for Smalltalk programmers. Since I did not earn much money at that time I appied for the job. I passed the exam but I was not hired. Some problem with budgeting they had at that time.
They hired me however one week later and I stayed in the company for ten years. But it was not programming anymore. It was software testing. And I did that for the oncoming 20 years. In the beginning I was really testing, but that meant setting up a framework for automated testing. There did not exist tools like today. I had to program my own, but that was paid.
And then I programmed something for myself. It was a database for testcases. Very common nowadays, but not in 1999. Testcases were parameterized in Excel tables. Reworking on testcases was time consuming. My system is still used 25 years later.
I did it in my free time. My boss at that time smiled about my efforts but he did not believe in my idea how the system would work. One year later, when my system worked and was used heavily by the team which I led, he once came to me and excused himself. He was really surprised how it worked and how useful it proved for the company.
I did not get money for my programming.

But no! I did. Ten years later, when I left the company they paid me aroung 100.000 € for the right to continue to use it. I could prove that I had programmed it outside the company, outside of working hours. I had programmed it, because it allowed me to monitor the progress of testing projects. So I did it for myself basically.

Maybe, I will restart my "life"-project some time. Today I spend most of my time practicing piano, 3-4 hours a day, and writing a book about artificial intelligence.

So, if you have read so far, here is the facit: maybe I did not get paid for everything what I programmed. But you will never know if something pays off at a later time. Programming is fun! And it is LEARNING! and training your brain. Learning will always pay off.

Cheers
Hans

P.S: You can use my answer if you want it and if it suits you. But let me know if you publish anything of it. It is not money what interests me, just knowledge :)
read 469 times

26
Apr
2019

Abwechslung

Heute ist nach etwas über einem Monat das von mir bestellte Buch angekommen. Zwar über Amazon.de bestellt, aber die beziehen es auch erst aus Amerika.
Quantum Computation and Quantum Information von Michael A. Nielsen und Isaac L. Chuang.

Das Buch ist eine Jubiläumsausgabe zum zehnten Jahrestag seines Erscheinens. Ich habe es mir bestellt, nachdem ich ein Essay von den beiden gelesen hatte, das nicht nur verständlich war, sondern auch mit den Ungereimtheiten aufgeräumt hat, die in all den "populärwissenschaftlichen" Journalistenberichten für mich nicht nur unverständlich sondern auch unakzeptabel waren.
Das Buch hat über 600 Seiten, von denen die ersten 100 für mich aufgrund des Essays bereits als gelesen betrachtet werden können. Im Essay wird nämlich auch angeboten, sich selbst den Inhalt mit Hilfe einer elektronischen Lernkartei selbst zu verinnerlichen. Die nächsten Seiten sind dann schon etwas "unangenehmer" zu lesen. Ich werde mir dann wieder etwas an Basismathematik aneignen müssen. Quanten-Fouriertransformation und ihre Anwendung ist durch bloßes Querlesen nicht einfach zu verstehen.

Für diejenigen, die sich beschweren, dass ich nur über Musik oder Essen schreibe, werden allfällige Postings keine Abhilfe bringen. Ich schreibe das auch nicht, um etwas zu erklären (das könnte ich nicht so gut wie M. Nielsen), sondern um mir selbst klar zu machen, ob ich etwas wirklich verstanden habe. Im Prinzip geht es hier um ein Bonmot von Paolo Coelho, das auf einem Stein vor dem Stift Göttweig eingraviert ist: "erst wenn man etwas lehren kann, hat man es selbst richtig verstanden." (Sinngemäß)

Naja, man gönnt sich ja sonst nichts! :)
read 403 times

26
Mrz
2016

vergessen anders

Keine Tagebucheintragung ...

Ich stelle fest, dass mein Namensgedächtnis fürchterlich zu wünschen übrig lässt. Heute ist mir ums Verrecken nicht der Name Roger Penrose eingefallen.
Zum Glück konnte ich ihn ziemlich leicht googlen. Sein Buch "Weißer Mars", das er zusammen mit Brian Aldiss geschrieben hat, war schon ausreichend, um ihn zu finden. Allerdings finde ich "Shadows of the Mind" viel interessanter, gerade weil er in dem Buch "Harte Künstliche Intelligenz" ablehnt. Interessanterweise postuliert er aber gerade eine solche zehn Jahre später im "Weißen Mars".
-
Tja, so geht geht es, würde Kurt Vonnegut sagen.
read 1093 times

22
Mrz
2016

KI 2

Künstliche Intelligenz Teil 2

Sehr häufig wird von einer »menschlichen« Intelligenz gesprochen, wenn vom Thema »künstlicher Intelligenz« die Rede ist. Im folgenden werden vier Personen erwähnt, die in der Entwicklungsgeschichte der KI eine große Rolle gespielt haben. Drei waren Amerikaner. Einer lebt noch und mit ihm fange ich an: Er heißt Dietrich Dörner, ist deutscher Psychologe und emeritierter Hochschullehrer an der Otto-Friedrich-Universität in Bamberg.
Vor langer Zeit kam mir sein Buch in die Hände: »Tanaland und Lohhausen«. Da ging es nicht um KI, sondern um zwei Modellversuche. Eines spielte in einem fiktiven Land in Afrika (Tanaland) und eines in einer deutschen Kleinstadt. Die Versuchsanordnung schilderte den Ausgangszustand der beiden Orte und dann mussten die Teilnehmer »regieren«. Es gab Regierungssitzungen und dann wurde eine Simulation gefahren, was im Verlauf des nächsten Monats zu erwarten war. Soweit ich mich erinnere, war im Buch auch ein Bericht über ein tatsächliches Land enthalten, der ziemlich genau das Niederwirtschaften wiederspiegelte. Es gab 4 Regierungstruppen, nur eine, welche in der deutschen Kleinstadt fuhrwerkte, konnte zumindest den Status quo erhalten. Die drei anderen sandelten ab. Was kann man daraus für KI ableiten. Nun, es geht eher darum, dass menschliches Verhalten durch den Computer simulierbar ist. Und der Computer war in der damaligen Zeit sehr beschränkt. Die Ausgaben erfolgten rein textuell. Später gab es einmal das Spiel Sim-City und ähnliche. Die konnten wesentlich mehr Parameter erfassen und machten echt Lust, sich daran zu versuchen.
Dietrich Dörner hat später mehr mit dem Computer gemacht und hat versucht, Objekte mit Emotionen auszustatten. Das hat meinen Lebensweg auf kuriose Weise beeinflusst. Ich wollte selbst ähnliche Programme schreiben und besorgte mir um teures Geld eine bestimmte Software (Smalltalk), mit der ich die Simulationen programmieren wollte. Ich kam allerdings nicht dazu. Denn ich wurde »Smalltalk-Spezialist« und in das größte objektorientiere Programm Europas in den 90erjahren integriert. Letztlich hat das mein Leben bis zu meiner kürzlichen Pensionierung beeinflusst. Aber das gehört jetzt nicht hierher :)
Es reicht, hier fest zu stellen, dass für mich die Möglichkeit dieser Simulationen eine Parallelität von menschlicher Aktivität un berechneter Simulation bzw. Modellierung möglich ist, die mit den heutigen Computerleistungen in unterschiedlichsten Spielen unter Beweis gestellt wird.
Nun komme ich zu Marvin Minsky und Joseph Weizenbaum. Sie wurden einmal sowohl als Antipoden als auch als die Spitzen der KI-Forschung angesehen. Ihr Zugang an das Thema war sehr unterschiedlich. Minsky gilt als der Erfinder der »Frames«. Frames (engl. für: Rahmen) sind Konstrukte zur Wissensrepräsentation, die komplementär zur Repräsentation von Wissen mittels Logik (zum Beispiel Prädikatenlogik) sind. Als Erfinder der Frames gilt Marvin Minsky. (Man kann sie sich im Wesentlichen als Objekte ohne Methoden vorstellen, d. h. Frames sind in einer natürlichen und hierarchischen Vererbungsstruktur eingebettet und besitzen Attribute, sogenannte Slots (etwa: Schubfächer). Übergeordnete Frames können dabei ihre aktuellen Slotwerte, die sogenannten Filler, an untergeordnete Frames vererben. Eng verwandt mit den nicht-Logik-basierten Frames sind die semantischen Netze.Als kognitives Äquivalent zu Frames können beim Menschen Stereotype und Prototypen/Archetypen betrachtet werden. [Wikipedia])
Die Vorstellung von Frames hat mir ursprünglich überhaupt nicht gefallen. Ich sah sie als Einengung des »denkbaren« Bereichs. Inzwischen sehe ich das anderes. Wenn man die oben stehende Verwandtschaft mit Stereotypen, wie sie der Mensch sieht, betrachtet, kann man feststellen, dass Programme, die darauf beruhen, ja fast menschliche Verhaltensweisen zeigen. Eigentlich denken Beamte so und einfache Leute.
Joseph Weizenbaum hingegen kennt man als den »Erfinder« des Programmes Eliza. Dieses Programm simulierte einen Psychoanalytiker. Es konnte sich mit Personen unterhalten, die nicht wussten, dass sie sich mit einer Maschine unterhielten. Weizenbaum selbst war erstaunt, dass er mit einem relativ einfachen Programm die Leute so beeindrucken konnte. Sie waren fest überzeugt, dass ihre Gespräche mit einem Menschen geführt wurden. (Der natürlich hinter einem Vorhang versteckt war)
Joseph Weizenbaum hat sich in späten Jahren sehr skeptisch gegenüber KI gezeigt. Das was die Leute bewunderten oder bewundern, hat nichts mit Intelligenz zu tun. Diese Aussage wird diejenigen Leserinnen erfreuen, die sowieso meinen, dass der Computer nicht »denken« kann.
Phil Agre ist nun ein Wissenschaftler, der sich lange am MIT aufgehalten hat und dort mit KI-Forschung beschäftigt hat. Ich kann mich noch erinnern, dass er einmal ein »paper« geschrieben hat, mit dem er sich vom MIT verabschiedet hat. Er meinte, dass die Forschung in der KI ziemlich kindisch sei, wenn der Computer nur Fragen beantworten sollte, die darin gipfelten, ob ein Koffer vor dem Regenschirm oder dahinter stehen würde. Damals war das aber noch gar nicht ein Koffer oder ein Regenschirm. Es war ein Quader und ein Zylinder. Es ging um die räumliche Erfassung eines geometrischen Sachverhalts und um die Interpretation dessen, was gesehen werden kann. Der Mensch macht diese Auswertung quasi sofort zwischen Netzhaut und Gehirn in Blitzeseile, ohne dass er sich dessen bewusst ist. »Warum fragen wir den Computer nicht, ob es einen Gott gibt?« zitiere ich sinngemäß aus seinem damaligen Schreiben.
Vielleicht hatte er Recht mit dieser Fragestellung. Allerdings war man damals noch lange noch nicht so weit, abstrakte Inhalte zu verarbeiten. Man forschte daran, wie die Sensorik einer KI beschaffen sein müsste. Was muss der Computer von seiner Umwelt wissen und wie kommt er an dieses Wissen?
Heute könnte man bereits solche Fragen stellen. Man wird mit der Existenzfrage Gottes keine befriedigende Antwort bekommen, aber auf viele andere Fragen können heute bereits mobile Telefone eine gültige und hilfreiche Antwort geben.
Skeptiker behaupten in der Regel, dass der Computer nur das machen kann, was ihm der Mensch anschafft. Manche Menschen sind eigentlich genauso, oder? Aber auf alle Fälle ist es notwendig, dass der Computer in der Lage ist, zu erkennen, wie seine Umgebung beschaffen ist und was man daraus lernen kann. In einem beschränkten Rahmen können das heute System, die in Autos eingebaut sind und der Fahrsicherheit dienen sollen.

Soll ich diese Ausführungen fortsetzen?
read 1174 times

KI

[Eigentlich habe ich das ja auf Fisch und Fleisch gepostet, doch vielleicht gibt es einige hier, die es interessiert.]

Ich wurde gebeten, die Geschichte mit der künstlichen Intelligenz etwas »populärwissenschaftlicher« zu erklären, damit sie leichter vorstellbar wird. Es gibt die Metapher »in ein Wespennest zu stoßen«. Ich fühle mich jetzt so, als hätte ich das getan. Ich selbst bin ja kein Spezialist, der sich andauernd mit den damit verbundenen Problemen beschäftigen muss oder soll.
Allerdings kenne ich bestimmte Begriffe und die damit verbundenen Forschungsgebiete. Auf Wikipedia gibt es recht gute Zusammenfassungen, die teilweise aber nicht mehr ganz leicht verständlich sind, es sei denn man geilt sich bereits an den Schlagworten auf.
In Hinblick auf die Go-Software, die unter anderem mit zwei verschiedenen neuralen Netzwerken arbeitet, fange, fangte, fung oder fing ich mit dem Begriff »künstliche neurale Netzwerke« an.
Frei nach dem Buch »Die Feuerzangenbowle« von Spoerl fange ich also mit dem Satz an: »Da stelle ma uns ganz dumm, ...«. In bezug auf »KNN« (künstliche neurale Netzwerke) stellen wir vor, dass wir ein System haben, welches »lernen« kann. Das trauen wir eigentlich nur dem Menschen und allenfalls manchen Tieren zu, denen wir Kunststücke beibringen wollen.
Neuronen sind im Hirn oder auch sonst wo und bieten quasi das Informationsnetzwerk im Menschen. Wir behaupten einmal, dass die Neuronen, eigentlich Nervenzellen, notwendig sind, dass wir lernen können. Wir haben gehört, dass wir sehr, sehr viele davon haben und dass es noch viel mehr Verbindungen zwischen den einzelnen Neuronen gibt. Bis vor einiger Zeit war die Anzahl der Neuronen so groß, dass man keinen Computer bauen konnte, der rein mechanisch ein entsprechendes Gegenstück zum Hirn darstellen konnte. Das stimmt vermutlich nicht mehr, soll uns aber momentan nicht kümmern. Wir werden nämlich auf der Seite der KNN auf die Abgrenzung zur Neuroscience verwiesen. (Neuroscience ist wohl selbsterklärend, es gibt aber noch die Abgrenzung »computational neuroscience«, das klingt ja fast wie ein Bezug zum Computer.)
Und jetzt wird es interessant. Lapique führte 1907 das Integrate-and-Fire-Neuronenmodell ein, das wegen seiner Einfachheit bis heute eines der beliebtesten Modelle der Computational Neuroscience darstellt. Es gibt einen Forschungsbaukasten für Jugendliche (und jugendlich gebliebene Erwachsene) in denen man einen Baustein hat, der so ein Neuronenmodell simuliert. Ich habe diesen Baukasten nicht, aber vielleicht kaufe ich ihn mir noch einmal. (Der ist nämlich überhaupt super. Damit kann man z.B. auch ein EEG-Gerät bauen. Aber das gehört hier nicht herein.)
Die Funktionsweise dieses Modells wurde 50 Jahre später in der Praxis anhand eines Tintenfisches erforscht und sozusagen als richtig dargestellt. Die Typen, die sich damit beschäftigt wurden auch belohnt. Sowohl Hodgkin und Huxley als auch Hubel und Wiesel erhielten für ihre Arbeiten den Nobelpreis für Physiologie oder Medizin (1963 und 1981).
Man darf also davon ausgehen, dass die Forschung, die sich mit der Funktionsweise des Gehirns beschäftigt, nichts Esoterisches an sich hat. Allerdings habe ich mir während meiner Studienzeit in den 70erjahren ein Buch über das Gehirn gekauft. Das meiste darin enthaltene, kann heute als überholt oder zumindest so erweitert gesehen werden, dass man mit dem Buch heute nicht sehr weit kommen würde.
Die Arbeiten eines weiteren Forschers, David Marr konzentrierten sich auf die Interaktionen zwischen Neuronen verschiedener Areale wie z. B. dem Hippocampus und der Großhirnrinde. Er legte eine Theorie des Sehens vor, die sich an den Prinzipien der elektronischen Datenverarbeitung im Computer orientiert. Er gilt als einer der Begründer der Neuroinformatik.
Und damit beende ich das heutige erste Kapitel mit einer realen Anwendung, die zeigt, welche Fortschritte die Technik inzwischen gemacht hat. Die visuelle Verarbeitung vom Auge zum Hirn ist ziemlich »intelligent«. In den 80erjahren hatte ich mit dem Thema Bildanalyse zu tun. Damals konnte man einfache bildanalytische Operationen mit Hilfe von Computern durchführen, allerdings dauerte es ziemlich lange. Eine Dilatation, mit der man eine zerfranste Kontur auf zusammenhängend erweitern konnte, brauchte für die Berechnung eines 256*256-Bildpunktebildes in Schwarzweiß 20 Sekunden. Das ist vielleicht einer von zehntausend Schritten, die notwendig sind, damit ein Flaschenpfandrückgabeautomat heute das Etikett einer Bierflasche lesen kann, das Bild auf der runden Etikette geradebiegen und auswerten kann. Das funktioniert heute in einer Zehntelsekunde.
Das bedeutet einerseits, dass ich ein alter Mann geworden bin, der sich allerdings freut, diese ganze Entwicklung mitverfolgen zu können. Andererseits lässt sich daraus ablesen, das einiges, was heute möglich ist, vor 35 Jahren als unmöglich gegolten hat.
Es sollte als durchaus als Anlass dienen, auch andere »unmögliche« Ergebnisse als realisierbar anzunehmen.


Nachtrag: den Baukasten scheint es nicht mehr zu geben. Schade. Vermutlich wird das heute nur mehr über die Simulation durchgeführt.
2. Nachtrag: es scheint ihn doch noch zu geben. Zumindest gibt es noch die Dokumentation über die Versuche.
Versuchsbeschreibung
Tolle Sache, nicht wahr?
read 1213 times
logo

auf 70 steuernd

die Erfahrungen genießend

User Status

Du bist nicht angemeldet.

Aktuelle Beiträge

Nachtrag zu diesem Jahr
Abschluss der Musikaktivitäten Die Leistung des Jahre...
steppenhund - 10. Dez, 18:59
Langsamer Abschied
Долгое прощание - Langsamer Abschied Dieses Buch von...
steppenhund - 13. Nov, 12:01
Aleksandra Mikulska
Es gibt drei Pianistinnen, die ich ganz hoch einschätze,...
steppenhund - 22. Okt, 14:44
Quietschen
Q U I E T S C H E N Als ich gestern nach dem Aufstehen...
steppenhund - 20. Okt, 12:36
Ich liebe meinen Induktionsherd....
Ich liebe meinen Induktionsherd. Brauchst auch den...
la-mamma - 18. Okt, 18:10

Meine Kommentare

wenn Sie der Lehrer meiner...
würde ich mich wundern, dass Sie nicht auf meinen Kommentar...
abohn - 7. Mai, 09:56
Gut gewagt!
Ein sehr ansprechender Text! So etwas würde ich auch...
abohn - 25. Apr, 15:30
Eigentlich habe ich deinen...
Eigentlich habe ich deinen Sohn erkannt. Der ist ja...
lamamma - 27. Mär, 12:44
Überrascht
Ich bin wirkliich überrascht, dass gerade Du lamentierst....
lamamma - 26. Mär, 15:30
Wobei nähen sich ja viel...
Wobei nähen sich ja viel direkter geboten hätte.
Schwallhalla - 26. Feb, 10:30

The bridge


Bloggen
Computer
ernst
Familie
Film
fussball
Icebreaker
Ist das jetzt das Alter
Kino
Kultur
Leben
Lesen
Musik
nichttägliche Mathematik
Philosophie
Politik
... weitere
Profil
Abmelden
Weblog abonnieren