Exkurs: Maschinelles Lernen - Delta-Regel nach Rosenblatt
Kommen wir nun zu der eigentlichen Stärke von Perzeptronen, dem so genannten maschinellen Lernen, durch das sich Perzeptronen ganz prinzipiell von herkömmlichen Algorithmen entscheiden.
Die Gewichte und Schwellenwerte von Perzeptronen mühsam per Hand zu justieren ist sehr arbeitsaufwendig. Daher hat Rosenblatt 1958 einen Algorithmus entwickelt, mit dessen Hilfe die Gewichte und Schwellenwerte von Perzeptronen automatisiert mittels so genannter Trainingsdaten bestimmt werden können. Dazu werden die Gewichte und Schwellenwerte zu Beginn des Lernprozesses einfach mit Zufallszahlen belegt und dann iterativ mittels vorklassifizierter Trainingsdaten sukzessive verbessert.
Um bei dem Beispiel mit den Tieren zu bleiben, kann man sich vorstellen, dass es eine Menge von Tieren gibt, die durch Menschen als gefährlich bzw. ungefährlich klassifiziert worden sind. Mit diesen Trainingsdaten werden Gewichte und Schwellenwert eines Perzeptron nun so trainiert (also sukzessive angepasst), dass das Perzeptron anschließend selbständig weitere, ihm bisher unbekannte, Tiere als gefährlich bzw. ungefährlich klassifizieren können soll.
Um den Lernalgorithmus nach Rosenblatt detailliert zu erläutern, betrachten wir zunächst wieder ein Perzeptron mit zwei Eingängen. Zur Veranschaulichung kann man sich vorstellen, dass es sich dabei wieder um die beiden Merkmale Zahn- und Augengröße handelt:

Statt die Gewichte
Bevor der Lernalgorithmus von Rosenblatt weiter unten formal in Pseudocode angegeben wird, kann man durch die folgende Klickstrecke schon mal ein Gefühl von der prinzipiellen Funktionsweise des Algorithmus' bekommen. Die rot dargestellten Punkte sollen durch die Separationsgerade von den grünen Punkten getrennt werden. Rote Punkte stellen gefährliche Tiere dar, so dass das Perzeptron in diesen Fällen feuern soll. Blau dargestellt ist jeweils die Separationsgerade mit angeheftetem Gewichtsvektor
Klickstrecke: Grundsätzliche Idee des Algorithmus nach Rosenblatt
Führe aus, solange noch nicht alle Lernpunkte korrekt klassifiziert werden:start:
wähle zufällig einen beliebigen Lernpunkt
test:
if Lernpunkt
goto test
adapt:
Drehe und translatiere die Gerade so, dass sie den Punkt
(durch geschickte Veränderung des Gewichtsvektors
goto test
Nun wird der Lernalgorithmus nach Rosenblatt zunächst in Pseudocode angegeben und im Anschluss daran wird die Funktionsweise des Algorithmus' dann auch noch einmal graphisch veranschaulicht.
Sei eine Menge an Eingabevektoren
Anschaulich formulierter Lern-Algorithmus nach Rosenblatt:
start:wähle
wähle
setzte
test:
Solange noch nicht ausgewählt
und solange noch nicht alle
wähle
if
if
if
if
add:
setzte
setzte
setzte
goto test
sub:
setzte
setzte
setzte
goto test
Anmerkung:
Im Rosenblatt-Algorithmus erscheint es zunächst etwas seltsam, dass der GewichtsvektorGeometrische Veranschaulichung des Lernalgorithmus

Zusammenfassung des Lernalgorithmus in einer einzigen Lernregel
Betrachte einen Eingangsvektor Die Teilmenge
Abschließend wird die obige Lernregel noch auf den Fall von
Lernalgorithmus für Perzeptronen
start:wähle
wähle
wähle
setzte
step:
wähle
if
if
berechne
berechne
update
update
setzte
end:
Solange es noch
Anmerkung
Wird der Schwellenwert
Rosenblatt hat 1958 gezeigt, dass der obige Algorithmus terminiert, falls die Menge der Eingabegrößen separierbar ist. Auf die Wiedergabe des Beweises wird an dieser Stelle verzichtet.
Anwendung auf neue Eingabegrößen
Nachdem das Perzeptron mit Hilfe der obigen Lernregel trainiert worden ist, kann es anschließend auch auf Eingabevektoren
Man beachte jedoch, dass es sich dabei lediglich um eine Vorhersage handelt, die sich (mit einer gewissen Wahrscheinlichkeit) bei näherer Analyse dann aber durchaus auch als falsch erweisen kann. In dem oben gewählten Beispiel könnte das bedeuten, dass das Perzeptron ein Tier als ungefährlich einstuft, während es sich in Wirklichkeit um ein äußerst gefährliches Tier handelt. Zum Beispiel könnte das Tier weder große Zähne noch große Augen haben aber trotzdem hochgiftig sein. Ein blindes Vertrauen auf die Vorhersage des Perzeptrons könnte abhängig vom Anwednungsszenario also sehr dramatische Konsequenzen haben.
Bedeutung der Trainingsdaten
Im Unterschied zu herkömmlichen Algorithmen ist für automatisiertes maschinelles Lernen die Verfügbarkeit von vorklassifizierte Trainingsdaten unerlässlich. Ohne solche Trainingsdaten kann der oben beschriebene Lern-Algorithmus zwar implementiert, aber nicht trainiert werden.
Damit liegt die Kontrolle solcher maschinell lernenden Algorithmen bei denjenigen, die Zugriff auf geeignete vorklassifizierten Daten haben. Vor diesem Hintergrund wird auch verständlich, warum es heute so lukrativ geworden ist, möglichst viele Daten über möglichst viele Menschen zu sammeln.