Glossar

Vorurteile in der KI

Erfahre, wie du Voreingenommenheit in KI-Systemen mit Strategien, Werkzeugen und Praxisbeispielen für ethische KI-Entwicklung erkennen, abmildern und verhindern kannst.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Voreingenommenheit in der KI bezieht sich auf systematische Fehler in den Ergebnissen von maschinellen Lernmodellen, die bestimmte Gruppen gegenüber anderen bevorzugen und zu ungerechten oder ungenauen Ergebnissen führen. Diese Verzerrungen entstehen oft aus den Daten, die zum Trainieren der Modelle verwendet werden, und spiegeln bestehende gesellschaftliche Vorurteile oder Einschränkungen bei der Datenerfassung wider. Wenn KI-Systeme mit solchen Daten trainiert werden, können sie diese Vorurteile unbeabsichtigt erlernen und aufrechterhalten, was zu diskriminierenden oder verzerrten Vorhersagen führt. Der Umgang mit Vorurteilen ist entscheidend für die Entwicklung ethischer, zuverlässiger und gerechter KI-Systeme.

Arten von Vorurteilen

In KI-Systemen können verschiedene Arten von Verzerrungen auftreten. Algorithmische Verzerrungen entstehen, wenn der Algorithmus selbst systematische Fehler einführt, die oft auf ein fehlerhaftes Design oder fehlerhafte Annahmen zurückzuführen sind. Stichprobenverzerrungen entstehen, wenn die Trainingsdaten die Bevölkerung nicht genau repräsentieren, was zu Modellen führt, die bei unterrepräsentierten Gruppen schlecht abschneiden. Ein Gesichtserkennungssystem, das hauptsächlich auf Bildern einer bestimmten Ethnie trainiert wurde, kann zum Beispiel bei anderen Ethnien eine geringere Genauigkeit aufweisen. Vorurteilsbedingte Verzerrungen treten auf, wenn die Trainingsdaten bestehende Stereotypen und Vorurteile widerspiegeln, so dass die KI diese Vorurteile aufrechterhält. Ein Beispiel dafür ist ein Einstellungsprogramm, das auf der Grundlage historischer Einstellungsdaten trainiert wurde, die bestimmte demografische Gruppen bevorzugt haben, was zu voreingenommenen Einstellungsempfehlungen führt. Messfehler treten auf, wenn die gesammelten Daten systematisch ungenau oder inkonsistent sind und die Fähigkeit des Modells beeinträchtigen, genaue Vorhersagen zu treffen. Diese Arten von Verzerrungen zu verstehen, ist wichtig, um ihre Auswirkungen auf KI-Systeme zu erkennen und abzuschwächen.

Beispiele für Vorurteile in der KI

Voreingenommenheit in der KI kann in der realen Welt erhebliche Folgen haben und verschiedene Bereiche betreffen. Ein bemerkenswertes Beispiel ist die Gesichtserkennungstechnologie. Studien haben gezeigt, dass einige Gesichtserkennungssysteme bei Personen mit dunklerer Hautfarbe oder bestimmter ethnischer Herkunft eine höhere Fehlerquote aufweisen. Dies kann zu falschen Identifizierungen und falschen Anschuldigungen führen, insbesondere bei der Strafverfolgung. Ein weiteres Beispiel ist die Verarbeitung natürlicher Sprache (NLP), bei der Sprachmodelle aufgrund der voreingenommenen Textdaten, auf denen sie trainiert wurden, verzerrte oder beleidigende Inhalte produzieren können. Ein Sprachmodell könnte zum Beispiel bestimmte Berufe mit bestimmten Geschlechtern assoziieren, weil die Trainingsdaten historisch bedingt verzerrt sind. Diese Beispiele zeigen, wie wichtig es ist, Vorurteile zu beseitigen, um Fairness und Genauigkeit in KI-Anwendungen zu gewährleisten. Hier erfährst du mehr über algorithmische Verzerrungen.

Strategien zur Verringerung von Vorurteilen

Es gibt verschiedene Strategien, um Verzerrungen in KI-Systemen abzuschwächen. Ein Ansatz besteht darin, für vielfältige und repräsentative Trainingsdaten zu sorgen. Dazu müssen Daten gesammelt werden, die die Bevölkerung genau widerspiegeln und eine große Bandbreite an demografischen Merkmalen enthalten. Eine andere Strategie ist die algorithmische Fairness, bei der es darum geht, Algorithmen zu entwickeln, die Fairness explizit berücksichtigen und darauf abzielen, diskriminierende Ergebnisse zu minimieren. Techniken wie Pre-Processing, In-Processing und Post-Processing können eingesetzt werden, um die Daten oder das Modell anzupassen, um Verzerrungen zu reduzieren. Beim Pre-Processing werden die Trainingsdaten verändert, um Verzerrungen zu beseitigen, während beim In-Processing der Lernalgorithmus angepasst wird, um Fairness zu fördern. Beim Post-Processing werden die Ergebnisse des Modells geändert, um Verzerrungen zu korrigieren. Darüber hinaus kann die regelmäßige Überprüfung und Überwachung von KI-Systemen dabei helfen, Verzerrungen, die im Laufe der Zeit auftreten können, zu erkennen und zu beseitigen. Durch die Umsetzung dieser Strategien können Entwickler/innen daran arbeiten, gerechtere und unvoreingenommenere KI-Systeme zu entwickeln. Hier erfährst du mehr über Fairness in der KI.

Werkzeuge und Techniken zur Erkennung von Verzerrungen

Es gibt verschiedene Tools und Techniken, die helfen, Verzerrungen in KI-Systemen zu erkennen und zu beseitigen. Ein beliebtes Tool ist Fairlearn, ein Open-Source-Paket ( Python ), das Algorithmen zur Bewertung und Milderung von Verzerrungen in maschinellen Lernmodellen bietet. Ein weiteres Tool ist AI Fairness 360 von IBM, das ein umfassendes Set von Metriken und Algorithmen zur Erkennung und Abschwächung von Verzerrungen in Datensätzen und Modellen bietet. Diese Tools können in die Entwicklungspipeline integriert werden und helfen den Entwicklern, Verzerrungen während des Trainingsprozesses zu erkennen und zu korrigieren. Darüber hinaus können Techniken wie kontrafaktische Fairness und adversariales Debiasing eingesetzt werden, um die Fairness von KI-Modellen zu bewerten und zu verbessern. Bei der kontrafaktischen Fairness wird geprüft, ob sich die Vorhersage eines Modells ändern würde, wenn ein sensibles Attribut anders wäre, während beim Adversarial Debiasing ein gegnerisches Training eingesetzt wird, um die Abhängigkeit des Modells von verzerrten Merkmalen zu verringern. Durch den Einsatz dieser Werkzeuge und Techniken können Entwickler/innen die Fairness und Zuverlässigkeit ihrer KI-Systeme verbessern.

Verzerrung in der KI, Datenverzerrung und algorithmische Verzerrung

Die Begriffe "Bias in der KI", "Data Bias" und "Algorithmic Bias" sind zwar miteinander verwandt, beziehen sich aber auf unterschiedliche Aspekte des Problems. Verzerrung in der KI ist ein weit gefasster Begriff, der jeden systematischen Fehler in KI-Systemen umfasst, der zu ungerechten Ergebnissen führt. Datenverzerrung bezieht sich speziell auf Verzerrungen in den Trainingsdaten, die aus verschiedenen Quellen stammen können, wie z. B. historische Verzerrungen, verzerrte Stichproben oder ungenaue Messungen. Wenn KI-Modelle auf voreingenommenen Daten trainiert werden, ist die Wahrscheinlichkeit groß, dass sie diese Verzerrungen lernen und beibehalten. Algorithmische Verzerrungen hingegen sind Verzerrungen, die vom Algorithmus selbst verursacht werden, unabhängig von den Daten. Dies kann durch ein fehlerhaftes Design, falsche Annahmen oder ungeeignete Optimierungskriterien geschehen. Obwohl Datenverzerrungen und algorithmische Verzerrungen unterschiedlich sind, wirken sie oft zusammen und verstärken sich gegenseitig. So kann zum Beispiel ein verzerrter Datensatz zur Entwicklung eines verzerrten Algorithmus führen, und ein verzerrter Algorithmus kann die Verzerrungen in den Daten noch verstärken. Der Umgang mit Verzerrungen in der KI erfordert einen umfassenden Ansatz, der sowohl die Daten als auch die algorithmischen Aspekte berücksichtigt. Dazu gehören eine sorgfältige Datenerfassung und -vorverarbeitung, ein durchdachtes Algorithmusdesign und eine kontinuierliche Überwachung und Bewertung von KI-Systemen, um Fairness und Genauigkeit zu gewährleisten.

Alles lesen