s n h m r u
i

Zusammenfassung

Ein künstliches Neuron kann selbstständig lernen, bereits gelabelte Daten zu trennen.
Es kann dann als Perzeptron bezeichnet werden.
Allgemein ist das Perzeptron (von engl. perception, „Wahrnehmung“) ein vereinfachtes künstliches neuronales Netz, das erstmals 1957 von Frank Rosenblattvorgestellt wurde.

Der Lernvorgang des Perzeptrons kann wie folgt beschrieben werden:

  1. Das Perzeptron startet mit beliebigen Startwerten für die Gewichte und den Schwellenwert.
  2. Das Perzeptron erhält „gelabelte“ Daten und wendet auf sie die Formeln an:
    Wi = Wi + (Labelwert - bisherige Ausgabe) ⋅ Lernrate ⋅ xi
    s = s - (Labelwert - bisherige Ausgabe) ⋅ Lernrate
  3. Dieser Vorgang wird für alle Datensätze wiederholt und zwar so lange, bis bei allen Datensätzen der Labelwert mit dem Ausgabewert übereinstimmt (oder die Daten nicht linear trennbar zu sein scheinen).

Nicht linear trennbare Daten (s. XOR-Problem) erfordern ein künstliches neuronales Netz zur Trennung.

Suche

v
5.1.2.5.3.6.1.6
inf-schule.de/ki/menueansicht/ki_erkunden/steinlaus_erkennung/einzelneNeuronen/lernendeNeuronen/lernstrecke/lerncheck
inf-schule.de/5.1.2.5.3.6.1.6
inf-schule.de/@/page/0TFMB0cUcqjyIzVO

Rückmeldung geben