Glossar

Vorurteile in der KI

Erfahre, wie du Voreingenommenheit in KI-Systemen mit Strategien, Werkzeugen und Praxisbeispielen für ethische KI-Entwicklung erkennen, abmildern und verhindern kannst.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Voreingenommenheit in der Künstlichen Intelligenz (KI) bezieht sich auf systematische und wiederholbare Fehler innerhalb eines KI-Systems, die zu unfairen, verzerrten oder diskriminierenden Ergebnissen führen, die oft eine Gruppe aufgrund willkürlicher Merkmale gegenüber anderen bevorzugen. Diese Voreingenommenheit entsteht nicht dadurch, dass das KI-Modell selbst böswillig handelt, sondern vielmehr, wenn das Modell die impliziten Werte, historischen Ungleichheiten oder statistischen Ungleichgewichte in den Trainingsdaten, im Design der Algorithmen oder in den Entscheidungen der an der Entwicklung und dem Einsatz beteiligten Menschen erlernt und nachahmt. Der Umgang mit KI-Voreingenommenheit ist von grundlegender Bedeutung für die ethische Entwicklung von KI, da sie sich entscheidend auf die Leistung, die Zuverlässigkeit und das Vertrauen der Öffentlichkeit auswirkt, insbesondere in sensiblen Bereichen wie der Computer Vision (CV).

Quellen der Voreingenommenheit der KI

KI-Voreingenommenheit ist keine inhärente Eigenschaft von KI, sondern entsteht durch die menschlichen Prozesse und Daten, die zur Entwicklung dieser Systeme verwendet werden. Die Ursachen zu verstehen, ist der Schlüssel zur Schadensbegrenzung:

  • Datenverzerrung: Dies ist die häufigste Ursache, die auftritt, wenn die für das Training verwendeten Daten nicht repräsentativ für die reale Bevölkerung oder den Kontext sind, in dem das Modell eingesetzt werden soll. Dazu gehören historische Verzerrungen (die gesellschaftliche Vorurteile aus der Vergangenheit widerspiegeln), Messverzerrungen (uneinheitliche Datenerfassung in verschiedenen Gruppen), Repräsentationsverzerrungen (Untererfassung bestimmter Gruppen) und Probleme bei der Datenbeschriftung, wenn Anmerkungen subjektive Standpunkte widerspiegeln. Die Auswirkungen von Datenverzerrungen zu verstehen, ist für KI entscheidend.
  • Algorithmische Voreingenommenheit: Voreingenommenheit kann durch den Algorithmus selbst verursacht werden, z. B. wenn ein Algorithmus für eine Kennzahl optimiert wird, die unbeabsichtigt eine bestimmte Gruppe benachteiligt, oder wenn das Modelldesign Annahmen trifft, die nicht für alle gelten. Bestimmte Optimierungsentscheidungen können zum Beispiel die Gesamtgenauigkeit auf Kosten der Fairness für Minderheitenuntergruppen erhöhen.
  • Menschliche Voreingenommenheit: Die bewusste oder unbewusste Voreingenommenheit von Entwicklern und Nutzern kann das Modelldesign, die Datenauswahl, die Interpretation der Ergebnisse und die Einsatzentscheidungen beeinflussen, wodurch Unfairness in den KI-Lebenszyklus eingebettet wird.

Beispiele aus der Praxis

Voreingenommenheit in der KI kann sich in verschiedenen Anwendungen zeigen, manchmal mit schwerwiegenden Folgen:

  • Gesichtserkennungssysteme: Zahlreiche Studien, einschließlich umfangreicher Tests durch das NIST, haben gezeigt, dass einige Gesichtserkennungstechnologien bei Personen aus bestimmten demografischen Gruppen (z. B. dunkelhäutige Frauen) eine deutlich geringere Trefferquote aufweisen als bei anderen (z. B. hellhäutige Männer). Diese Ungleichheit ist oft auf nicht repräsentative Trainingsdaten zurückzuführen und kann zu falschen Identifizierungen und ungleicher Behandlung bei Anwendungen führen, die von der Entsperrung von Telefonen bis zur Strafverfolgung reichen. Organisationen wie die Algorithmic Justice League arbeiten aktiv daran, solche Vorurteile aufzudecken und zu bekämpfen.
  • KI im Gesundheitswesen: KI-Modelle, die für Aufgaben wie die Analyse medizinischer Bilder oder die Vorhersage von Patientenrisiken eingesetzt werden, können Verzerrungen aus historischen Gesundheitsdaten erben. Wenn ein Diagnosewerkzeug hauptsächlich auf Daten einer Bevölkerungsgruppe trainiert wurde, kann es bei unterrepräsentierten Gruppen weniger genau arbeiten, was zu verzögerten Diagnosen oder unangemessenen Behandlungsempfehlungen führen kann. Die Forschung zeigt die Risiken von Verzerrungen in klinischen Algorithmen auf, wenn die Fairness nicht aktiv berücksichtigt wird.

Voreingenommenheit in der KI von verwandten Konzepten unterscheiden

Es ist wichtig, Bias in der KI, bei dem es vor allem um Fairness und ethische Implikationen geht, von anderen verwandten Konzepten des maschinellen Lernens (ML) zu unterscheiden:

  • Datensatzverzerrung: Während die Datensatzverzerrung eine Hauptursache für KI-Verzerrung ist, bezieht sie sich speziell auf die nicht repräsentative Natur der Daten selbst. KI-Voreingenommenheit ist das weiter gefasste Ergebnis systematischer Ungerechtigkeit, die aus der Voreingenommenheit der Daten, algorithmischen Entscheidungen oder menschlichen Faktoren resultieren kann.
  • Algorithmische Verzerrungen: Dies bezieht sich speziell auf Verzerrungen, die durch den Entwurf oder den Optimierungsprozess des Modells entstehen, im Gegensatz zu Verzerrungen, die ausschließlich aus den Daten stammen. Dies ist eine weitere potenzielle Quelle, die zur Gesamtverzerrung der KI beiträgt.
  • Bias-Variance Tradeoff: Dies ist ein zentrales statistisches Konzept im ML, das das Spannungsverhältnis zwischen der Einfachheit des Modells (hoher Bias, der zu einer Unteranpassung führen kann) und der Komplexität des Modells (hohe Varianz, die zu einer Überanpassung führen kann) beschreibt. Der Begriff "Verzerrung" wird hier verwendet und bezieht sich auf Modellfehler, die auf zu einfache Annahmen zurückzuführen sind, und nicht auf die ethischen oder fairen Implikationen von KI-Verzerrungen.

KI-Vorurteile bekämpfen

Der Abbau von KI-Voreingenommenheit ist ein fortlaufender Prozess, der einen vielschichtigen Ansatz während des gesamten Lebenszyklus der KI-Entwicklung erfordert:

  • Datenkuratierung und -erweiterung: Sammle aktiv vielfältige und repräsentative Datensätze. Nutze Techniken wie die Datenerweiterung und möglicherweise die Generierung synthetischer Daten, um eine ausgewogene Vertretung verschiedener Gruppen zu erreichen. Erforsche Ressourcen wie die Ultralytics für verschiedene Datenquellen.
  • Fairness-Metriken und Auditing: Definiere und messe die Fairness mit Hilfe geeigneter Metriken während der Modellbewertung. Überprüfe die Modelle vor und nach dem Einsatz regelmäßig auf Leistungsverzerrungen zwischen verschiedenen Untergruppen.
  • Auswahl und Modifizierung von Algorithmen: Wähle Algorithmen, die weniger anfällig für Verzerrungen sind, oder ändere bestehende Algorithmen, um die Fairness zu berücksichtigen.
  • Transparenz und Erklärbarkeit: Nutze Techniken der erklärbaren KI (Explainable AI, XAI), um das Modellverhalten zu verstehen und mögliche Quellen von Verzerrungen zu identifizieren. Erfahre mehr über XAI-Konzepte.
  • Ethische Rahmenwerke und Governance: Implementiere strenge KI-Ethikrichtlinien und Governance-Strukturen, die sich auf Rahmenwerke wie das NIST AI Risk Management Framework beziehen, um die Entwicklung und den Einsatz zu steuern.

Plattformen wie Ultralytics HUB bieten Tools, die die Entwicklung fairer KI-Systeme unterstützen, indem sie eine sorgfältige Verwaltung der Datensätze ermöglichen, das Training benutzerdefinierter Modelle erleichtern und die Überwachung von Ultralytics YOLO Modellleistung ermöglicht. Die Bewusstseinsbildung und die Verankerung von Fairness-Prinzipien in der KI (die oft in Foren wie der ACM FAccT-Konferenz diskutiert werden) sind entscheidend für eine verantwortungsvolle KI-Entwicklung und die Entwicklung von Technologien, die der Gesellschaft gerecht werden.

Alles lesen