Glossar

Fairness in der KI

Sorge für Fairness in der KI mit ethischen, unvoreingenommenen Modellen. Erforsche Werkzeuge, Strategien und Ultralytics YOLO für gerechte KI-Lösungen.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Fairness in der KI ist ein wichtiger Bereich, der sicherstellen soll, dass Systeme der künstlichen Intelligenz gerecht funktionieren und bestehende gesellschaftliche Vorurteile nicht aufrechterhalten oder verstärken. Es geht darum, Modelle zu entwickeln und einzusetzen, die die Diskriminierung von Einzelpersonen oder Gruppen aufgrund von sensiblen Merkmalen wie Ethnie, Geschlecht, Alter, Religion oder sexueller Orientierung vermeiden. Da Systeme der Künstlichen Intelligenz (KI) zunehmend in wichtige Entscheidungsprozesse in verschiedenen Sektoren integriert werden, ist die Berücksichtigung von Fairness für die ethische Entwicklung, die Einhaltung von Gesetzen und die Schaffung von öffentlichem Vertrauen unerlässlich.

Fairness in der KI verstehen

Fairness in der KI hat viele Facetten und es gibt keine einheitliche, allgemein anerkannte Definition. Stattdessen umfasst sie verschiedene mathematische Formalismen und ethische Überlegungen, die darauf abzielen, ungerechte Ergebnisse abzumildern. Die zentrale Herausforderung besteht darin, Vorurteile in der KI zu erkennen und zu bekämpfen, die aus verschiedenen Quellen stammen können, z. B. aus verzerrten Trainingsdaten(Dataset Bias), voreingenommenen Algorithmen oder fehlerhaften Einsatzkontexten. Historische Verzerrungen in den Daten können den Modellen ungewollt beibringen, vergangene Diskriminierungen zu wiederholen, während Messverzerrungen durch uneinheitliche Datenerhebungen in verschiedenen Gruppen entstehen können. Das Erkennen dieser potenziellen Fallstricke ist der erste Schritt zum Aufbau fairerer Systeme. Verschiedene Gerechtigkeitskriterien wie die demografische Parität (die sicherstellt, dass die Ergebnisse unabhängig von sensiblen Merkmalen sind) oder die Chancengleichheit (die sicherstellt, dass die wahren Positivraten in allen Gruppen gleich sind) bieten verschiedene Möglichkeiten, Gerechtigkeit zu messen und anzustreben, auch wenn es eine Herausforderung sein kann, mehrere Kriterien gleichzeitig zu erfüllen, wie die Forschung in diesem Bereich zeigt (z. B. ACM FAccT Proceedings).

Relevanz und Wichtigkeit

Die Bedeutung von Fairness in der KI kann gar nicht hoch genug eingeschätzt werden, da sie tiefgreifende Auswirkungen auf den Einzelnen und die Gesellschaft haben kann. Unfaire KI-Systeme können zu diskriminierenden Ergebnissen in wichtigen Bereichen wie Einstellungen, Kreditanträgen, Strafjustiz und KI im Gesundheitswesen führen, wodurch bestimmten Gruppen Chancen oder wichtige Dienstleistungen verwehrt werden könnten. Die Sicherstellung von Fairness ist nicht nur eine ethische Überlegung, sondern oft auch eine gesetzliche Anforderung, da die Vorschriften zunehmend Rechenschaftspflicht und Nichtdiskriminierung bei KI-Anwendungen fordern (siehe NIST AI Risk Management Framework). Fairness trägt dazu bei, Schaden zu verhindern, soziale Gerechtigkeit zu fördern und das Vertrauen in KI-Technologien zu stärken, was ihre verantwortungsvolle Einführung begünstigt. Dies steht im Einklang mit den allgemeinen Grundsätzen der KI-Ethik, die Fairness, Transparenz, Rechenschaftspflicht und Datenschutz umfassen.

Anwendungen von Fairness in der KI

In zahlreichen KI-Anwendungen wird daran gearbeitet, Fairness einzubauen. Hier sind zwei Beispiele:

  • Fairness bei Einstellungstools: KI wird eingesetzt, um Lebensläufe zu prüfen und den Erfolg von Bewerbern vorherzusagen. Wenn die KI vor allem auf historische Daten trainiert wird, die frühere Einstellungsvoreingenommenheiten widerspiegeln (z. B. die Bevorzugung von Bewerbern aus bestimmten Universitäten oder demografischen Gruppen), könnte sie qualifizierte Bewerber aus unterrepräsentierten Gruppen unfair benachteiligen. Unternehmen entwickeln fairnessbewusste Algorithmen und Prüfwerkzeuge, wie IBMs AI Fairness 360, um solche Verzerrungen zu erkennen und abzumildern, wobei sie oft Techniken wie die Neugewichtung von Datenpunkten oder das Hinzufügen von Fairnessbedingungen während des Modelltrainings anwenden.
  • Fairness bei der Gesichtserkennung: Gesichtserkennungssysteme haben Unterschiede in der Genauigkeit zwischen verschiedenen demografischen Gruppen gezeigt, wobei Personen mit dunklerer Hautfarbe oder Frauen oft weniger genau erkannt werden. Dies kann schwerwiegende Folgen für Anwendungen haben, die von der Identitätsprüfung bis zur Strafverfolgung reichen. Forschungsorganisationen wie die Algorithmic Justice League haben auf diese Probleme aufmerksam gemacht und Anstrengungen unternommen, um vielfältigere Trainingsdatensätze zu erstellen und Modelle zu entwickeln, die in verschiedenen Bevölkerungsgruppen eine einheitlichere Leistung aufweisen. Techniken wie die Datenerweiterung und die Verwendung umfassenderer Benchmark-Datensätze sind wichtige Schritte.

Unterscheidung zwischen Fairness und verwandten Konzepten

Obwohl sie eng miteinander verwandt ist, unterscheidet sich Fairness in der KI von benachbarten Konzepten:

  • KI-Ethik: Dies ist ein breiteres Feld, das sich mit den moralischen Grundsätzen und Richtlinien für die Entwicklung und Nutzung von KI befasst, einschließlich Fairness, Verantwortlichkeit, Transparenz, Datenschutz und Sicherheit. Fairness ist ein wichtiger Bestandteil der KI-Ethik.
  • Algorithmische Verzerrung: Dies bezieht sich speziell auf die systematischen und wiederholbaren Fehler in einem KI-System, die zu ungerechten Ergebnissen führen. Fairness in der KI ist das proaktive Bemühen, algorithmische Verzerrungen zu erkennen, zu messen und abzuschwächen.
  • Erklärbare KI (XAI): XAI konzentriert sich darauf, KI-Entscheidungen für Menschen verständlich zu machen. XAI kann zwar dabei helfen, potenzielle Fairness-Probleme zu erkennen, indem sie offenlegt, wie ein Modell funktioniert, aber sie garantiert nicht per se Fairness. Dennoch ist die Transparenz durch XAI oft unerlässlich, um Fairness zu bewerten und zu gewährleisten.

Erreichen von Fairness

Um Fairness zu erreichen, bedarf es einer Kombination aus technischen und prozeduralen Ansätzen während des gesamten KI-Lebenszyklus. Dazu gehören eine sorgfältige Datenerfassung und -beschriftung, die Verwendung vielfältiger und repräsentativer Datensätze, der Einsatz fairnessorientierter Algorithmen für maschinelles Lernen, strenge Tests und eine Modellbewertung anhand geeigneter Fairness-Metriken sowie eine kontinuierliche Überwachung nach dem Einsatz. Mit Tools wie dem What-If-Tool vonGoogle können Praktiker das Verhalten von Modellen in verschiedenen Datenbereichen untersuchen. Plattformen wie Ultralytics HUB erleichtern das Training und die Verwaltung benutzerdefinierter Modelle und ermöglichen es den Nutzern, Techniken wie Datenerweiterung anzuwenden und Modelle wie Ultralytics YOLO11 auf Leistungsunterschiede zwischen verschiedenen Gruppen zu untersuchen und so die Entwicklung gerechterer Computer Vision Lösungen zu unterstützen.

Alles lesen