Ein künstliches neuronales Netz ist eine Ansammlung von zusammenverbundenen Punkten in einem Computerprogramm. Egal wie viel Magie wir einem künstlichen neuronalen Netz (KNN) andichten, lernt ein KNN bei seinem Training seine Aufgabe nach einem mathematischen Optimierungsprozess lösen: dabei werden die Verbindungen zwischen den Punkten des Netzes mit Hilfe von Mathematik schrittweise gestärkt oder geschwächt, bis das Netz eine optimale Antwort auf seine Aufgabe liefert. Wenn man ein Programm mit Hilfe von Mathematik schrittweise anpasst, also optimiert, so dass es „optimal“ seine Aufgabe löst, ist es nun mal keine Magie, sondern ein mathematisches Optimierungsverfahren.
So wie es sich beim Kochen einer Kartoffelsuppe mit Steinpilzen auch um ein Optimierungsverfahren handelt, nur kein mathematisches: dabei tue ich Kartoffel in die Suppe, Steinpilze, etwas Salz, etwas Pfeffer, Majoran, Butter, wieder Pfeffer und Salz … Wenn die Suppe plötzlich zu salzig ist, schmeiße ich noch zwei Kartoffeln hinein. Und dann wieder Pfeffer. Auch Wasser gieße ich nach. Gebe Knoblauch dazu … So lange schütte ich Zutaten in die Suppe und koste die Suppe nach jedem solchen Schritt, bis die Suppe super schmeckt. Mit dem Kosten der Suppe ermittle ich schrittweise ihren Fehler und verbessere diesen. Immer wenn ich nach dem Kosten neue Zutaten hinzufüge, ist das Backpropagation of Error. Wie beim Training eines künstlichen neuronalen Netzes eben.
So wie es sich beim Kochen einer Kartoffelsuppe mit Steinpilzen auch um ein Optimierungsverfahren handelt, nur kein mathematisches: dabei tue ich Kartoffel in die Suppe, Steinpilze, etwas Salz, etwas Pfeffer, Majoran, Butter, wieder Pfeffer und Salz … Wenn die Suppe plötzlich zu salzig ist, schmeiße ich noch zwei Kartoffeln hinein. Und dann wieder Pfeffer. Auch Wasser gieße ich nach. Gebe Knoblauch dazu … So lange schütte ich Zutaten in die Suppe und koste die Suppe nach jedem solchen Schritt, bis die Suppe super schmeckt. Mit dem Kosten der Suppe ermittle ich schrittweise ihren Fehler und verbessere diesen. Immer wenn ich nach dem Kosten neue Zutaten hinzufüge, ist das Backpropagation of Error. Wie beim Training eines künstlichen neuronalen Netzes eben.
Neueste Kommentare