Was ist XAI und warum sollten wir uns damit beschäftigen?
XAI ist ein Ansatz in der Entwicklung von künstlichen Intelligenz-Systemen, bei dem besonderer Wert darauf gelegt wird, dass die Entscheidungsprozesse und Funktionsweisen der Modelle für Menschen verständlich, nachvollziehbar und interpretierbar sind.
Die Notwendigkeit von XAI ergibt sich aus der zunehmenden Verwendung von komplexen maschinellen Lernmodellen, insbesondere tiefer neuronaler Netze, die auf großen Datensätzen trainiert werden. Diese Modelle können hochdimensionale nicht-lineare Muster erkennen, sind jedoch oft schwer zu verstehen, selbst für diejenigen, die sie entwickelt haben. XAI zielt darauf ab, diese "Black Box" zu öffnen und die Transparenz von KI-Systemen zu verbessern, indem es klare Erklärungen für die getroffenen Entscheidungen liefert.
Wie funktioniert XAI?
Ein grundlegender Ansatz besteht darin, die Bedeutung einzelner Merkmale oder Variablen zu bewerten, um zu verstehen, welchen Einfluss sie auf die Entscheidungsfindung haben. Dieser Feature-Importance-Ansatz hilft dabei, die Beiträge einzelner Faktoren zur Gesamtentscheidung zu quantifizieren. Genauer gesagt wird so den einzelnen Koeffizienten ein Wert zugeschrieben, um bei einer Vorhersage dessen Wichtigkeit bestimmen zu können.
Ein weiterer Ansatzpunkt ist die lokale Interpretierbarkeit, bei der der Fokus auf der Erklärbarkeit einzelner Vorhersagen liegt. Techniken wie Local Interpretable Model-agnostic Explanations (LIME) ermöglichen es, den Kontext und die Gründe hinter einer spezifischen Entscheidung zu verstehen.
Um komplexe Modelle verständlicher zu machen, können diese durch einfachere und leichter interpretierbare Modelle ersetzt werden, ohne dabei wesentliche Entscheidungen zu beeinträchtigen. Das kann beispielsweise durch den Einsatz von Entscheidungsbäumen oder linearen Modellen erfolgen.
Bei Modellen, die mit Aufmerksamkeitsmechanismen arbeiten, lässt sich nachvollziehen, welche Teile der Eingabedaten besonders berücksichtigt wurden. Dies ist relevant in Bildverarbeitungsaufgaben, um zu verstehen, welche Teile eines Bildes für die Vorhersage entscheidend waren.
Zusätzlich können klare Regeln erstellt werden, die die Entscheidungen des Modells auf einfache logische Bedingungen zurückführen. Visualisierungstechniken ermöglichen es, komplexe Modelle und ihre Entscheidungen grafisch darzustellen, um eine intuitive Interpretation zu ermöglichen. Dabei spielt auch die Berücksichtigung des Kontexts, in dem eine Entscheidung getroffen wird, eine wichtige Rolle.
Die Auswahl der Technik hängt von der Art des KI-Modells und der spezifischen Anwendung ab. Oft ist eine Kombination mehrerer Techniken notwendig, um umfassende Erklärbarkeit zu erreichen. Der Schlüssel liegt darin, dass diese Erklärungen nicht nur für Expert:innen, sondern auch für Nicht-Expert:innen verständlich sind, um das Vertrauen in die KI-Modelle zu stärken und eine ethische Anwendung sicherzustellen.