Dieser Beitrag ist Teil der Blog-Serie So einfach funktioniert KI.
Thema heute: Künstliches Neuronales Netzwerk.
In Kürze: Neuronale Netzwerke ermöglichen das Erstellen sehr komplizierter Regelwerke. Mit Hilfe des Machine Learning-Algorithmus Error Backpropagation wird solch ein neuronales Regelwerk automatisch justiert.
Selbstverständlich können KI-Modelle deutlich komplexer sein als die einfache Ausgleichsgerade im vorangegangenen Beispiel. Das Prinzip bleibt aber das gleiche: Ein beliebig komplexes Regelwerk wird mittels Algorithmen so eingestellt, dass Zusammenhänge zwischen Eingangsvariablen und Zielvariablen möglichst treffend beschrieben werden.
Künstliche Neuronale Netzwerke sind eine besonders komplexe Form von KI-Modellen. Sie sind die Grundlage für das Deep Learningund erlauben die Erstellung besonders komplizierter Regelwerke. Das kann sinnvoll sein, wenn eine Problemstellung besonders vielschichtig ist, beispielsweise weil die Zahl an Eingangsvariablen sehr hoch ist und in die Tausende geht.
Neuronale Netzwerke ähneln in ihrem Aufbau und ihrer Funktion der Neuronenstruktur des menschlichen Gehirns. Sie bestehen aus künstlichen Neuronen, die untereinander vernetzt sind. Wie im menschlichen Gehirn, ist jeder einzelnen Vernetzung eine bestimmte, einstellbare Gewichtung zugeordnet. Durch Einstellung der Neuronengewichtungen entsteht ein hochkomplexes Regelwerk, das eine Kombination aus Eingangssignalen in ein bestimmtes Ausgangssignal übersetzt.
Die Anordnung der künstlichen Neuronen kann auf vielfältige Weise erfolgen. Typischerweise sind sie in sogenannten Netzebenen angeordnet, um die Beschreibung zu vereinfachen.
Die folgende Abbildung zeigt ein Beispiel für ein künstliches Neuronales Netzwerk:
Es besteht aus drei Eingangsneuronen, an denen drei Eingangssignale anliegen. Dies könnten drei Variablen wie die Fläche, das Baujahr und die Anzahl an Bädern einer Immobilie sein, um im vorangegangenen Beispiel zu bleiben. Mit Hilfe zweier Netzebenen mit jeweils vier künstlichen Neuronen können unzählige Regeln implementiert werden, die die Eingangsvariablen in ein gewünschtes Ausgangssignal, wie den Immobilienpreis, übersetzen.
Wie für die Ausgleichsgerade im vorangegangenen Beispiel gibt es auch zur Einstellung Neuronaler Netzwerke Algorithmen. In diesem Fall nennt sich der Algorithmus Error Backpropagation. Wie auch in dem vorangegangenen Beispiel verwendet dieser Algorithmus Lernbeispiele, und variiert mit einer smarten Strategie so lange die Einstellungen der Neuronengewichtungen, bis die Übereinstimmung zwischen erzeugten Ausgangssignalen und Lernbeispielen möglichst hoch ist.
Abhängig von der Komplexität einer Fragestellung kann die Anzahl der künstlichen Neuronen variiert werden, denn je höher die Anzahl der Neuronen desto mehr Regeln kann ein Neuronales Netzwerk enthalten. Dabei entspricht übrigens ein Neuronales Netzwerk mit gerade einmal zwei Neuronen in seinen Fähigkeiten der einfachen Ausgleichsgeraden. Im Fall von Deep Learning-Anwendungen kann das Neuronale Netz aber auch aus tausenden Neuronen bestehen.
Zusammenfassung: Ein künstliches Neuronales Netzwerk besteht aus einer Eingangsebene, einer frei wählbaren Anzahl an Netzebenen und einer Ausgangsebene. Zwischen den Ebenen können durch einstellbare Gewichtungen komplizierte Regelwerke umgesetzt werden.
Zur Blog-Serie: So einfach funktioniert KI
Nächster Artikel: Bilderkennung mit KI einfach erklärt
Leave a Reply