MENU
Künstliche Intelligenz

Wie lernt KI?

© iStock

07. April 2022

Machine Learning ist mittlerweile in aller Munde. Aber wie wird künstliche Intelligenz (KI) überhaupt trainiert? Wie unterscheiden sich die gängigen „Lernformen“? Was kann dabei schiefgehen, und wie kann der sogenannte Bias verhindert werden? Antworten von Thora Markert, KI-Expertin bei TÜViT.

Was sind künstliche neuronale Netze?

Thora Markert: Wenn wir Menschen lernen, verändert sich die Struktur unseres Gehirns: Bestimmte Verbindungen zwischen den Nervenzellen und Hirnarealen werden aktiver. Künstliche neuronale Netze orientieren sich an diesem Aufbau unseres Gehirns und seiner Synapsen. Diese Netze bestehen aus Neuronen – auch Knoten genannt –, die über Kanten miteinander verbunden sind. Im Laufe des Lernprozesses verändert sich die Gewichtung dieser Kanten, die später bestimmen, wie die verbundenen Neuronen auf gelernte Muster reagieren. Am Ende des Trainings sind alle Gewichte ausgelernt: Der „Lerninhalt“ hat sich verfestigt. Das Konzept der künstlichen neuronalen Netze wurde zwar bereits in den 1940er-Jahren ersonnen. Doch erst jüngere Fortschritte in der Computertechnologie machen heute immer komplexere Netze möglich: Im tiefen neuronalen Netz sind Abertausende Neuronen miteinander verkettet. Das sogenannte Deep Learning versetzt die künstliche Intelligenz in die Lage, Muster in komplexen Daten zu erkennen.

Was ist überwachtes Lernen?

Überwachtes Lernen ist die gängigste Form von Machine Learning und basiert in den meisten Fällen auf neuronalen Netzen. Es stützt sich beim Training der KI auf eine sogenannte Grundwahrheit („Ground Truth“). Das heißt, die Trainingsdaten sind bekannt und beschriftet. Will man der KI also beibringen, Katzen und Hunde zu erkennen und zu unterscheiden, füttert man sie mit einer Vielzahl beschrifteter, sogenannter gelabelter Beispielbilder. Ähnlich wie man einem Kleinkind Hunde und Katzen zeigt – bis es diese Tiere selbstständig erkennen kann. Während der Lernphase versucht das KI-System, aus diesen Daten Muster und Gesetzmäßigkeiten abzuleiten. In einem nächsten Schritt wird dann sein „Lernstand“ überprüft: Hält es einen Hund fälschlicherweise für eine Katze, werden in der folgenden Lernphase die Gewichte zwischen den Neuronen im neuronalen Netz angepasst, um den Fehler zu minimieren. Typische Anwendungsfälle für überwachtes Lernen sind Bilderkennung, Spracherkennung, Gesichtserkennung und Vorhersagemodelle, etwa zur Ausbreitung des Coronavirus.

Was ist teilüberwachtes Lernen?

Große Datenmengen zu beschaffen und durch Menschen zu labeln ist aufwendig und kostspielig. Stehen nicht genug beschriftete Daten für den Anwendungsbereich der KI zur Verfügung, kann teilüberwachtes Lernen zum Einsatz kommen. Die KI wird dabei zunächst mit gelabelten Daten angelernt und in einem nächsten Schritt mit unbekannten Daten gefüttert. Was es dabei erkennen soll, leitet das System aus dem vorab Gelernten ab. Wird dabei ein neuronales Netz verwendet, werden in einer weiteren Trainingsphase wiederum die Gewichte in diesem Netz angepasst, und so wird die Trefferquote erhöht. Da man sich anders als beim überwachten Lernen dabei nicht auf die Grundwahrheit komplett bekannter Daten stützen kann, handelt es sich entsprechend um einen Annäherungswert. Die Einsatzgebiete von überwachtem und teilüberwachtem Lernen sind meist die gleichen. Letzteres bietet sich dabei besonders für Bereiche an, die sich kaum umfassend durch Beispieldaten abdecken lassen. Beispielsweise in der Spracherkennung, bei der eine Vielzahl von regionalen und individuellen Sprachfärbungen zum Tragen kommt.

Was ist unüberwachtes Lernen?

Beim unüberwachten Lernen sind die Daten nicht gelabelt, und es ist auch kein konkretes Ziel für die KI definiert wie etwa: Erkenne eine Katze. Es wird genutzt, um Daten zu gruppieren oder einzuteilen. Beispielsweise, welche Eigenschaften – Farben, Formen und so weiter – sich bei Birnen, Äpfeln, Orangen am häufigsten überschneiden. Statt neuronaler Netze kommen beim unüberwachten Lernen überwiegend statistische Verfahren zum Einsatz.

„Der 'Lernerfolg' von KI steht und fällt mit der Qualität der Trainingsdaten.“

Thora Markert, Senior AI Expert bei TÜViT

Was kann beim KI-Lernen schiefgehen?

Der „Lernerfolg“ von KI steht und fällt mit der Qualität der Trainingsdaten: Sie müssen repräsentativ sein für das Einsatzgebiet und möglichst viele Varianten abdecken. Sind sich die Daten zu ähnlich, kann das zum sogenannten Overfitting führen. Ein Beispiel: Verschiedene Fotos zeigen jeweils unterschiedliche Katzen, die aber alle in der Bildmitte sitzen. Dann lernt die KI, dass Katzen immer nur in der Bildmitte sitzen können, aber keine generalisierten Muster. Und daher kann sie Katzen auf unbekannten Bildern nicht erkennen. Die Vorauswahl der Daten sollte daher immer mit Expertinnen und Experten der jeweiligen Fachgebiete abgestimmt werden. Ein weiteres Problem: Werden einseitige Daten verwendet, kann das zum sogenannten Bias – der Voreingenommenheit – führen, also zu Diskriminierungen von Menschen nach Alter, Geschlecht oder Herkunft durch die KI. Nutzt ein Unternehmen etwa KI zur Auswahl von Bewerberinnen und Bewerbern und stützt sich dabei auf seine „historischen“ Daten, dürfte diese vor allem weiße Männer mittleren Alters vorschlagen, weil sie in der Vergangenheit überwiegend in diesen Positionen gearbeitet haben. Bis verbindliche Richtlinien für einen ethischen Einsatz von KI definiert sind, kann diesem Problem nur durch Kontrollen begegnet werden: Wo kommen die Daten her? Wer ist für die Daten zuständig? Wie werden sie gelabelt? Anschließend kann stichprobenartig getestet werden, ob die KI zu „fairen“ Ergebnissen kommt.

 

ZUR PERSON

Thora Markert ist Senior AI Expert bei TÜViT. Die Informatikerin beschäftigt sich schwerpunktmäßig mit der Verlässlichkeit und IT-Sicherheit von KI, entwickelt eine Testumgebung für künstliche Intelligenz und fühlt dieser auch selbst in Prüfungen auf den Zahn.

Was ist robustes Lernen?

Wie eine KI ihre Schlüsse zieht, worauf sie etwa bei der Analyse eines Katzenbildes achtet, das lässt sich nur annäherungsweise nachvollziehen – auch im noch jungen Feld der sogenannten erklärbaren KI. Ob eine KI eine Katze immer als Katze und ein Stoppschild immer als Stoppschild erkennt, lässt sich daher nicht mit letzter Sicherheit voraussagen. Das macht die künstliche Intelligenz anfällig für sogenannte adversarial attacks, also für Muster, die über Bilder gelegt werden, um die KI in die Irre zu führen. Für Menschen kaum erkennbar, machen solche Muster für die KI einen Ballon zum Hund oder ein Stoppschild zum Vorfahrtsschild. Robustes Lernen konfrontiert die KI bereits im Training mit solchen Störmustern und Abweichungen, um sie auf diese Weise gegen Manipulationen und Fehler zu immunisieren.

Newsletter

Nichts mehr verpassen: Jetzt kostenlosen #explore-Newsletter abonnieren

Entdeckt, erklärt, erzählt - Der Podcast

Alle zwei Wochen eine neue Folge. Entdeckt, erklärt, erzählt ist der Podcast von #explore by TÜV NORD. In jeder Folge haben wir einen Gast, der uns spannende Einblicke in Zukunftsthemen und Trends gibt sowie Innovationen einordnet. Den Podcast gibt's auf allen gängigen Podcast-Apps - einfach kostenfrei abonnieren!

 

 

In Folge 32 beschreibt IT-Security-Experte Henning Kerstan Entwicklungen von maschinellem Lernen, Künstlicher Intelligenz und unserem Vertrauen in deren Sicherheit.