Tiefe Netze für tiefes Lernen und den Faktor „Zeit“ berücksichtigen

 
 

Nach dem Wiedererwachen der Neuronetz-F&E Anfang der 1980er Jahre mit der Einführung des Backpropagation-Algorithmus war die Forschergemeinde damit beschäftigt, alle möglichen Ausbaumöglichkeiten und Neu-Arrangierungen der bis dahin gelaufenen Entwicklungen auszuprobieren. Da ging es sowohl um die Strukturen der KNN wie auch um Kombinationen mit den Entwicklungen der Fuzzy-Logik, der genetischen Algorithmen und auch mit den Expertensystemen der symbolischen KI. Man darf nicht außer Acht lassen: Erstmals zu jener Zeit hatte die Mehrzahl der Forscher Zugang zu Computern, die schnell genug waren, Simulationen der KNN auf ihnen laufen zu lassen – auch wenn es nach heutigen Maßstäben ein Schneckentempo war. Eine Programm­anleitung von BrainMaker Professional aus dem Jahre 1990, die bei uns noch vorliegt, verlangt einen IBM oder kompatiblen PC mit MSDOS 3.0 als Voraussetzung für die Software (Abbildung 19)... Es verwundert nicht, dass eine entsprechende Hardware schon mit kleinen KNN ausgelastet war. Nach und nach verbesserte sich die Situation jedoch, und man erkannte die Grenzen der bis dahin entwickelten Neuronetze. Mit schnelleren Computern ließen sich diese jedoch ausweiten. Bei um Grunde ähnlicher Architektur wie Madaline-Backpropagationnetze ging es in die Tiefe – und mit ganz neuer Architektur in die Zeit.

 

Convolutional Neural Nets und LSTM dominieren – SNN in den Startlöchern?

Autor: Rolf Kickuth