Die Geschichte der Entwicklung Künstlicher Neuronaler Netze

Eine moderne Technologie zur Analyse und Prognose von Finanzmarktkursen sind Künstliche Neuronale Netze. Dies sind mathematische Verfahren, die in ihrer Grundidee an der Funktionsweise des biologischen Gehirns orientiert sind. Neuronale Netze werden meist durch entsprechende Computerprogramme realisiert und den Verfahren der Künstlichen Intelligenz zugerechnet.

Die Geschichte Neuronaler Netzwerke reicht bis zum Ende des 19. Jahrhunderts zurück. Neben anderen namhaften Forschern entwickelte der amerikanische Psychologe William James im Jahr 1890 anhand seiner neurophysiologischen Kenntnisse ein Modell zur Erklärung der Assoziationsfähigkeit des menschlichen Gehirns.

Dieses Modell nahm bereits die 1949 von Donald Hebb später berühmt gewordene Hebbsche Lernregel vorweg, nach der unser Gehirn lernt, in dem es die Verbindung zwischen Neuronen verstärkt, wenn diese gleichzeitig aktiv sind.

Im Jahr 1943, in der Zeit der Entwicklung der Computertechnik, veröffentlichten McCulloch und Pitts eine Arbeit, die zeigte, dass Netzwerke mit einfachsten Verarbeitungseinheiten, den McCullochs-Pitts-Neuronen, komplizierteste Operationen ausführen konnten.

Das Jahr 1956 gilt als Geburtsstunde der Künstlichen Intelligenz. Damals organisierten die Computerpioniere Marvin Minsky, John McCarthy, Nathanial Rochester und Claude Shannon eine Konferenz in Dartmouth, USA, auf der sie Ergebnisse erster Computersimulationen Neuronaler Netzwerke vorführten.

Zwei Jahre später kam es zum ersten wirklichen Durchbruch. Frank Rosenblatt hatte das erste sich selbst organisierende und lernfähige Modell entwickelt: das Perceptron. Dieses konnte Erfahrungen verallgemeinern, in dem es auf unbekannte Eingaben korrekt antwortete.
Weitere erfolgreiche Modelle der Fachwelt folgten in den 60er, 70er und 80er Jahren. Einige Modelle beschäftigten sich mit Fragen des biologischen Lernens, andere stellten Bezüge zu physikalischen Fragen her.

Ein weiterer Meilenstein wurde 1985 mit der Entwicklung eines leistungsfähigen Lernalgorithmus für das sog. Multi-Layer-Perceptron erreicht. Mit der Entwicklung dieses sog. Backpropagation-Verfahrens, u.a. durch Rumelhart und Hinton, war der Siegeszug Neuronaler Netzwerke nicht mehr aufzuhalten.

 

www.Traducer.de
Copyright © 2000-2017 Josef Gebhardt Innovative Finanzmarktanalysen - Alle Rechte vorbehalten.