Glossar

Erklärbare KI (XAI)

Entdecke Explainable AI (XAI): Baue Vertrauen auf, stelle Verantwortlichkeit sicher und erfülle Vorschriften mit interpretierbaren Erkenntnissen für intelligentere KI-Entscheidungen.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Der Begriff "erklärbare KI" (Explainable AI, XAI) bezieht sich auf Methoden und Techniken der Künstlichen Intelligenz (KI), die es menschlichen Nutzern ermöglichen, die Ergebnisse und Entscheidungen von KI-Systemen zu verstehen und zu interpretieren. Mit der zunehmenden Verbreitung von KI-Modellen, insbesondere von komplexen Modellen wie neuronalen Netzwerken mit Deep Learning, die in der Computer Vision eingesetzt werden, kann ihre interne Funktionsweise undurchsichtig sein und wird oft als "Black Box" bezeichnet. XAI zielt darauf ab, diese "Black Boxes" zu öffnen und Einblicke in die Art und Weise zu gewähren, wie Schlussfolgerungen getroffen werden, um so das Vertrauen, die Verantwortlichkeit und eine effektive menschliche Kontrolle zu fördern.

Warum erklärbare KI wichtig ist

Der Bedarf an XAI ergibt sich aus der zunehmenden Integration von KI in wichtige Entscheidungsprozesse in verschiedenen Sektoren. Während KI-Modelle wie Ultralytics YOLO eine hohe Genauigkeit erreichen können, ist es wichtig zu verstehen , warum sie bestimmte Vorhersagen treffen. Dieser Mangel an Interpretierbarkeit kann die Einführung von KI in wichtigen Bereichen wie dem Gesundheits- und Finanzwesen behindern. Zu den wichtigsten Treibern für XAI gehören:

  • Vertrauen und Verantwortlichkeit: Wenn du die Gründe für die Entscheidungen einer KI verstehst, kannst du den Ergebnissen vertrauen und die Entwickler für das Verhalten des Modells verantwortlich machen.
  • Fehlersuche und Verbesserung: XAI-Techniken können dabei helfen, Fehler, Verzerrungen oder unerwartetes Verhalten in Modellen zu erkennen, was den Entwicklern bei der Modellbewertung und Feinabstimmung hilft. Wenn du zum Beispiel verstehst, warum ein Objekterkennungsmodell unter bestimmten Bedingungen versagt, kannst du es gezielt verbessern.
  • Einhaltung gesetzlicher Vorschriften: Vorschriften wie die EU-Datenschutzgrundverordnung (GDPR) schreiben ein "Recht auf Erklärung" für automatisierte Entscheidungen vor, wodurch XAI für die Einhaltung von Gesetzen unerlässlich ist.
  • Ethische Überlegungen: Indem XAI offenlegt, wie Modelle Daten nutzen, hilft sie, potenzielle Verzerrungen in der KI aufzudecken und abzumildern.

Vorteile und Anwendungen

Die Implementierung von XAI bietet erhebliche Vorteile. Sie stärkt das Vertrauen der Nutzer, erleichtert die Modellentwicklung durch einfachere Fehlersuche und fördert den verantwortungsvollen Einsatz von KI. XAI-Techniken werden in verschiedenen Bereichen eingesetzt:

  1. Medizinische Diagnose: Bei der medizinischen Bildanalyse kann XAI die spezifischen Regionen in einem Bild (z. B. Röntgenbild oder MRT) hervorheben, die ein KI-Modell dazu veranlasst haben, eine mögliche Erkrankung zu erkennen. So können Ärzte und Ärztinnen die Ergebnisse der KI verifizieren und sie sicher in ihren Diagnoseprozess integrieren. Forschungsinitiativen wie das DARPA XAI-Programm haben die Entwicklung in diesem Bereich vorangetrieben.
  2. Finanzdienstleistungen: Wenn KI-Modelle für die Kreditwürdigkeitsprüfung oder die Kreditvergabe eingesetzt werden, kann XAI die Faktoren erklären, die zu der Entscheidung beitragen (z. B. Kreditgeschichte, Einkommenshöhe). Das hilft den Instituten, Vorschriften wie den Equal Credit Opportunity Act einzuhalten und den Kunden klare Gründe zu liefern, um Fairness zu gewährleisten. Erfahre mehr über KI im Finanzwesen.

XAI-Techniken

Es gibt verschiedene Techniken, um Erklärbarkeit zu erreichen, die oft nach ihrem Umfang (global vs. lokal) oder ihrem Zeitpunkt (intrinsisch vs. post-hoc) kategorisiert werden. Zu den gängigen Methoden gehören:

  • LIME (Local Interpretable Model-agnostic Explanations): Erklärt einzelne Vorhersagen, indem das komplexe Modell lokal durch ein einfacheres, interpretierbares Modell approximiert wird. Erfahre mehr über LIME.
  • SHAP (SHapley Additive exPlanations): Nutzt Konzepte aus der kooperativen Spieltheorie, um jedem Merkmal einen Wichtigkeitswert für eine bestimmte Vorhersage zuzuweisen. Entdecke SHAP-Werte.
  • Aufmerksamkeitsmechanismen: In Modellen wie Transformers können die Aufmerksamkeitsebenen manchmal visualisiert werden, um zu zeigen, auf welche Teile der Eingabedaten sich das Modell am meisten konzentriert hat.

XAI vs. Transparenz in der KI

XAI ist zwar verwandt, unterscheidet sich aber von Transparenz in der KI. Transparenz bezieht sich im Allgemeinen auf die Zugänglichkeit von Informationen über ein KI-System, z. B. seine Trainingsdaten, seinen Quellcode oder seine Gesamtarchitektur. XAI hingegen konzentriert sich darauf, die Gründe für bestimmte Entscheidungen oder Vorhersagen eines Modells für Menschen verständlich zu machen. Ein KI-System kann zwar transparent sein (z. B. durch offen zugänglichen Quellcode), aber dennoch nicht leicht zu erklären, wenn seine interne Logik komplex und nicht intuitiv ist. Eine wirksame KI-Governance erfordert oft beides: Transparenz und Erklärbarkeit. Mehr dazu erfährst du in unserem Blogbeitrag Alles, was du über erklärbare KI wissen musst.

Alles lesen