Glossar

Algorithmische Verzerrung

Entdecke algorithmische Verzerrungen, ihre Ursachen und Beispiele aus der Praxis. Lerne Strategien, um Vorurteile abzuschwächen und faire, ethische KI-Systeme zu entwickeln.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Algorithmische Voreingenommenheit bezieht sich auf systematische und wiederholbare Fehler in einem Computersystem, die zu ungerechten Ergebnissen führen und in der Regel eine Gruppe gegenüber einer anderen bevorzugen. Voreingenommenheit kann in den Daten enthalten sein, die zum Trainieren eines maschinellen Lernmodells verwendet werden, oder bestehende Vorurteile widerspiegeln und aufrechterhalten. Wenn ein Algorithmus Daten verarbeitet, die voreingenommene Informationen enthalten, kann er diese Vorurteile erlernen und in seinen Vorhersagen sogar noch verstärken. Dies kann zu diskriminierenden Ergebnissen führen, wenn der Algorithmus in realen Szenarien angewendet wird und sich auf Bereiche wie Einstellungen, Kreditanträge und sogar die Strafjustiz auswirkt. Um faire und gerechte KI-Systeme zu entwickeln, ist es wichtig, algorithmische Verzerrungen zu verstehen und abzumildern.

Quellen für algorithmische Verzerrungen

Algorithmische Verzerrungen können in verschiedenen Phasen der maschinellen Lernpipeline (ML) auftreten. Hier sind einige häufige Quellen:

  • Datenerhebung: Wenn die zum Trainieren eines Modells gesammelten Daten nicht repräsentativ für die Bevölkerung sind oder historische Verzerrungen enthalten, erbt das Modell diese Verzerrungen. Zum Beispiel können Gesichtserkennungssysteme, die überwiegend auf Bildern von weißen Gesichtern trainiert wurden, bei Gesichtern von People of Color schlecht abschneiden.
  • Datenbeschriftung: Bei der Datenkennzeichnung werden die Rohdaten mit Tags oder Etiketten versehen, um ihnen eine Bedeutung für ML-Modelle zu geben. Wenn der Kennzeichnungsprozess von menschlichen Vorurteilen beeinflusst wird, werden diese Vorurteile im Modell kodiert.
  • Merkmalsauswahl: Die Auswahl der Merkmale, die zum Trainieren eines Modells verwendet werden, kann zu Verzerrungen führen. Wenn bestimmte Merkmale in einer Gruppe häufiger vorkommen oder eine bessere Vorhersagekraft haben als in einer anderen, kann das Modell in diesen Gruppen unterschiedlich gut funktionieren.
  • Algorithmus-Design: Auch das Design des Algorithmus selbst kann zu Verzerrungen führen. Ein Algorithmus, der für ein bestimmtes Ergebnis optimiert ist, kann zum Beispiel ungewollt bestimmte Gruppen benachteiligen.

Arten von algorithmischen Verzerrungen

In KI-Systemen können verschiedene Arten von algorithmischen Verzerrungen auftreten. Diese Arten zu verstehen ist wichtig, um Verzerrungen zu erkennen und zu bekämpfen:

  • Historische Voreingenommenheit: Diese tritt auf, wenn die Daten, die zum Trainieren eines Modells verwendet werden, bestehende gesellschaftliche Vorurteile widerspiegeln. Ein Einstellungsalgorithmus, der auf der Grundlage historischer Einstellungsdaten trainiert wurde, die männliche Bewerber bevorzugen, kann zum Beispiel die Diskriminierung aufgrund des Geschlechts aufrechterhalten.
  • Repräsentationsverzerrung: Sie tritt auf, wenn die Trainingsdaten bestimmte Gruppen unterrepräsentieren und das Modell für diese Gruppen eine schlechte Leistung erbringt. Ein Spracherkennungssystem, das hauptsächlich auf die Sprache von Erwachsenen trainiert wurde, kann zum Beispiel die Sprache von Kindern nicht richtig wiedergeben.
  • Messverzerrung: Diese Art von Verzerrung tritt auf, wenn die Daten, die zur Messung einer bestimmten Variable verwendet werden, systematisch ungenau oder für bestimmte Gruppen verzerrt sind. Zum Beispiel kann ein Gesundheitsalgorithmus, der den Body-Mass-Index (BMI) als primären Gesundheitsindikator verwendet, für bestimmte Körpertypen verzerrt sein.
  • Aggregationsverzerrung: Sie tritt auf, wenn ein Einheitsmodell auf eine vielfältige Population angewendet wird und die Unterschiede zwischen den Gruppen ignoriert werden. Ein Algorithmus, der für eine allgemeine Bevölkerung entwickelt wurde, kann für bestimmte Untergruppen nicht gut funktionieren.

Beispiele für algorithmische Verzerrungen in der realen Welt

Algorithmische Verzerrungen können erhebliche Auswirkungen auf die reale Welt haben. Hier sind zwei konkrete Beispiele:

  1. Gesichtserkennung in der Strafverfolgung: Es hat sich gezeigt, dass Gesichtserkennungssysteme bei Menschen mit dunklerer Hautfarbe, insbesondere bei Frauen, weniger genau sind. Dies kann zu einer höheren Rate von falsch-positiven Ergebnissen und falschen Identifizierungen führen, was möglicherweise zu unrechtmäßigen Verhaftungen und Verurteilungen führt. Das National Institute of Standards and Technology (NIST) hat eine Studie durchgeführt, die diese Ungleichheiten aufzeigt und die Notwendigkeit vielfältigerer und repräsentativerer Trainingsdatensätze unterstreicht.
  2. Recruiting-Tools: KI-gestützte Rekrutierungstools werden zunehmend zur Überprüfung von Bewerbern eingesetzt. Wenn diese Tools jedoch auf der Grundlage historischer Einstellungsdaten trainiert werden, die Vorurteile aus der Vergangenheit widerspiegeln (z. B. die Bevorzugung männlicher Bewerber für technische Positionen), können sie weibliche Bewerber ungerechtfertigterweise schlechter bewerten. Amazons Erfahrung mit einem voreingenommenen Rekrutierungstool ist ein bemerkenswertes Beispiel: Das Unternehmen musste ein KI-Rekrutierungssystem ausrangieren, das eine starke Präferenz für männliche Bewerber zeigte.

Algorithmische Verzerrungen abmildern

Der Umgang mit algorithmischen Verzerrungen erfordert einen vielschichtigen Ansatz, der eine sorgfältige Datenerhebung, die Entwicklung von Modellen und eine kontinuierliche Überwachung umfasst. Hier sind einige Strategien:

  • Vielfältige und repräsentative Daten: Sorge dafür, dass die Trainingsdaten vielfältig sind und die Bevölkerung genau repräsentieren. Dazu kann es notwendig sein, zusätzliche Daten von unterrepräsentierten Gruppen zu sammeln oder Techniken wie die Datenerweiterung einzusetzen, um den Datensatz auszugleichen.
  • Techniken zur Erkennung von Verzerrungen: Verwende Methoden, um Verzerrungen in Daten und Modellen zu erkennen. Techniken wie die Kreuzvalidierung können helfen, Unterschiede in der Modellleistung zwischen verschiedenen Gruppen zu erkennen.
  • Fairness-Metriken: Verwende Fairness-Metriken, um die Voreingenommenheit in Modellen zu bewerten und zu quantifizieren. Metriken wie "disparate impact", "equal opportunity difference" und "average odds difference" können helfen, die Fairness von Modellvorhersagen zu bewerten.
  • Algorithmische Transparenz: Fördern Sie die Transparenz bei der Gestaltung und Entwicklung von Algorithmen. Techniken der erklärbaren KI (Explainable AI, XAI) können dabei helfen, zu verstehen, wie ein Modell zu seinen Entscheidungen kommt, sodass es einfacher wird, Verzerrungen zu erkennen und zu korrigieren.
  • Regelmäßige Prüfung und Überwachung: Prüfe und überwache KI-Systeme kontinuierlich auf Verzerrungen. Dazu gehört die regelmäßige Bewertung der Modellleistung anhand verschiedener Datensätze und die Aktualisierung der Modelle bei Bedarf, um festgestellte Verzerrungen zu beseitigen.
  • Ethische KI-Rahmenbedingungen: Entwickle ethische Richtlinien für die KI-Entwicklung und halte sie ein. Organisationen wie das IEEE und die Partnership on AI bieten Rahmenwerke für eine verantwortungsvolle KI-Entwicklung.

Algorithmische Verzerrungen vs. andere Arten von Verzerrungen

Algorithmische Voreingenommenheit ist ein weit gefasster Begriff, der verschiedene Formen von Voreingenommenheit in KI-Systemen umfasst, aber auch mit anderen spezifischen Arten von Voreingenommenheit verbunden ist:

  • Voreingenommenheit in der KI: Dies ist ein allgemeinerer Begriff, der jeden systematischen Fehler oder jede Abweichung von der Fairness in KI-Systemen umfasst. Algorithmische Voreingenommenheit ist eine Untergruppe dieser breiteren Kategorie, die sich speziell auf in Algorithmen eingebettete Voreingenommenheit konzentriert.
  • Dataset Bias: Dies bezieht sich auf Verzerrungen in den Daten, die zum Trainieren von Machine Learning-Modellen verwendet werden. Algorithmische Verzerrungen resultieren oft aus Datenverzerrungen, da Modelle aus den ihnen zur Verfügung stehenden Daten lernen.

Indem sie die Feinheiten der algorithmischen Voreingenommenheit und ihre Beziehung zu anderen Arten von Voreingenommenheit verstehen, können Entwickler und Organisationen proaktive Schritte unternehmen, um fairere und gerechtere KI-Systeme zu entwickeln. Ultralytics setzt sich für die Förderung der KI-Ethik ein und stellt Werkzeuge und Ressourcen bereit, um Voreingenommenheit in KI-Anwendungen zu verringern.

Alles lesen