Dieser Beitrag ist Teil der Blog-Serie So einfach funktioniert KI.

Thema heute: Bilderkennung mit KI – ein Spezialfall Neuronaler Netzwerke.
In Kürze: Bilderkennung ist ein spezieller Anwendungsfall für Neuronale Netzwerke. Das Regelwerk besteht in diesem Fall aus hochkomplexen Regeln, die beispielsweise aus der Anordnung von Bildpunkten darauf schließen, welche Objekte auf einem Bild zu sehen sind.
Ein Neuronales Netzwerk zur Unterscheidung von Objekten kann sehr einfach konzipiert sein, wenn sich leicht erfassbare Merkmale wie die Objektgröße stark unterscheiden.

Mit der Fähigkeit tausende von Variablen in Beziehung zueinander zu setzten, eignen sich Neuronale Netzwerke hervorragend zur Analyse von Bildern. In diesem Fall entspricht jeder Bildpunkt einer Eingangsvariable. Ein Neuronales Netzwerk zur Bildanalyse verfügt daher über viele Eingangsneuronen.

Durch Einstellung der Neuronengewichtungen zwischen mehreren Netzebenen werden die Bildpunkte miteinander in Beziehung gesetzt und in ein Ausgangssignal übersetzt. Beispielweise könnte das Ausgangssignal die Information darstellen, ob auf einem Bild ein Fahrzeug zu sehen ist.

Eingestellt wird die Neuronengewichtung des Neuronalen Netzwerks mit Hilfe der Error Backpropagation und vieler Beispielbilder. Damit das Neuronale Netzwerk lernt, Fahrzeuge zu erkennen, zeigt ein Teil der Beispielbilder Fahrzeuge der andere Teil andere Objekte.

Um dieses Prinzip zu veranschaulichen, ist in der folgenden Abbildung ein sehr einfaches weiteres Beispiel gezeigt:

Beispiel für Bilderkennung

Das Beispiel zeigt zwei größengetreue schematische Bilder mit einer groben Auflösung von jeweils 100 Bildpunkten.

Ein Neuronales Netzwerk könnte nun verwendet werden, um die dunkelgrauen Objekte in beiden Bildern zu unterscheiden – eine Maus auf der linken Seite von einem Wolf in dem rechten Bild.

Ein Neuronale Netzwerk für dieses Beispiel kann sehr einfach konzipiert sein. Es besteht aus 100 Eingangsneuronen – ein Neuron für jeden Bildpunkt – und einem einfachen Regelwerk, das die dunkelgrauen Objektpunkte zählt. Besteht das Objekt aus wenigen Bildpunkten, handelt es sich um die Maus. Ist das Objekt 18 Bildpunkte groß, handelt es sich in diesem Beispiel um einen Wolf.

Bereits an diesem einfachen Beispiel wird deutlich, dass Ergebnisse unter Umständen schwer nachvollziehbar werden, sobald die Komplexität eines Neuronalen Netzwerks steigt. Denn dem Error Backpropagation-Algorithmus ist es freigestellt, welcher Zusammenhang genutzt wird um ein Ziel zu erreichen. Entscheidend ist für den Algorithmus ist lediglich die Übereinstimmung zwischen Ausgangssignal und Lernbeispielen.

Für das einfache Bildbeispiel gibt es mehrere Möglichkeiten dieses Ziel zu erreichen. Beispielsweise könnte ein Neuronales Netzwerk statt Abzählung der dunkelgrauen Objektpunkte, die zwei Bilder auf Grund der Farbe des Bildhintergrundes unterscheiden. Auf dem linken Bild mit der Maus ist der Bildhintergrund hellgrau währen er in dem rechten Bild weiß ist. Das Ergebnis ist also das gleiche, das Regelwerk ist aber ein anderes.

Tatsächlich kann dieser Umstand in der Praxis zu erheblichen Herausforderungen führen, wenn Neuronale Netzwerke nicht umfassend getestet werden. Exemplarisch ist hier der Fall eines Forscherteams, das eine KI-Lösung zur Unterscheidung von Wölfen und Hunden auf Fotoaufnahmen entwickelt hat. Die KI wurde mit tausenden Beispielbildern von Wölfen und Hunden eingestellt und funktionierte hervorragend unter Testbedingungen. Im Realbetrieb war die Vorhersagegenauigkeit der KI dagegen erstaunlich schlecht. Nach eingehender Untersuchung des Sachverhalts stellte sich heraus, dass die verwendeten Lernbeispiele von Wölfen vorwiegend aus polaren Regionen stammten und einen schneebedeckten Hintergrund zeigten. Die KI hatte daher gelernt, schneebedeckte Hintergründe zu erkennen und nicht Wölfe von Hunden zu unterscheiden.

Das Beispiel zeigt, wie bei der Konzeption hochkomplexer KI-Lösungen oft die Nachvollziehbarkeit von Ergebnissen sinkt. Aus diesem Grund ist es notwendig besonders komplexe Lösungen vor dem Einsatz sehr genau zu überprüfen. So wird sichergestellt, dass Ergebnisse im Realbetrieb reproduzierbar sind.

Praxistipp: Besonders komplexe KI-Lösungen erlauben die Lösung hochkomplexer Problemstellungen. Die Komplexität von KI-Lösungen ist aber immer mit einem Rückgang an Nachvollziehbarkeit erkauft. Es sind daher umfangreiche Tests unter realistischen Bedingungen notwendig, um die Verlässlichkeit hochkomplexer KI-Lösungen zu gewährleisten.

Zur Blog-Serie: So einfach funktioniert KI
Vorheriger Artikel: Neuronale Netzwerke einfach erklärt

Leave a Reply

Your email address will not be published. Required fields are marked *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>