Die Geschichte der Entwicklung Künstlicher Neuronaler Netze
Eine
moderne Technologie zur Analyse und Prognose
von Finanzmarktkursen sind Künstliche
Neuronale Netze. Dies sind mathematische
Verfahren, die in ihrer Grundidee an der
Funktionsweise des biologischen Gehirns
orientiert sind. Neuronale Netze werden meist
durch entsprechende Computerprogramme
realisiert und den Verfahren der Künstlichen
Intelligenz zugerechnet.
Die Geschichte
Neuronaler Netzwerke reicht bis zum Ende des
19. Jahrhunderts zurück. Neben anderen
namhaften Forschern entwickelte der
amerikanische Psychologe William James im
Jahr 1890 anhand seiner neurophysiologischen
Kenntnisse ein Modell zur Erklärung der
Assoziationsfähigkeit des menschlichen
Gehirns.
Dieses Modell
nahm bereits die 1949 von Donald Hebb später
berühmt gewordene Hebbsche Lernregel vorweg,
nach der unser Gehirn lernt, in dem es die
Verbindung zwischen Neuronen verstärkt, wenn
diese gleichzeitig aktiv sind.
Im Jahr 1943,
in der Zeit der Entwicklung der
Computertechnik, veröffentlichten McCulloch
und Pitts eine Arbeit, die zeigte, dass
Netzwerke mit einfachsten
Verarbeitungseinheiten, den
McCullochs-Pitts-Neuronen, komplizierteste
Operationen ausführen konnten.
Das Jahr 1956
gilt als Geburtsstunde der Künstlichen
Intelligenz. Damals organisierten die
Computerpioniere Marvin Minsky, John
McCarthy, Nathanial Rochester und Claude
Shannon eine Konferenz in Dartmouth, USA, auf
der sie Ergebnisse erster Computersimulationen
Neuronaler Netzwerke vorführten.
Zwei Jahre
später kam es zum ersten wirklichen
Durchbruch. Frank Rosenblatt hatte das erste
sich selbst organisierende und lernfähige
Modell entwickelt: das Perceptron. Dieses
konnte Erfahrungen verallgemeinern, in dem es
auf unbekannte Eingaben korrekt antwortete.
Weitere erfolgreiche Modelle der Fachwelt
folgten in den 60er, 70er und 80er Jahren.
Einige Modelle beschäftigten sich mit Fragen
des biologischen Lernens, andere stellten
Bezüge zu physikalischen Fragen her.
Ein weiterer
Meilenstein wurde 1985 mit der Entwicklung
eines leistungsfähigen Lernalgorithmus für
das sog. Multi-Layer-Perceptron erreicht. Mit
der Entwicklung dieses sog.
Backpropagation-Verfahrens, u.a. durch
Rumelhart und Hinton, war der Siegeszug
Neuronaler Netzwerke nicht mehr aufzuhalten.