Глоссарий

Алгоритмическая предвзятость

Узнай об алгоритмической предвзятости, ее источниках и реальных примерах. Узнай стратегии, позволяющие смягчить предвзятость и создать честные, этичные системы ИИ.

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

Алгоритмическая предвзятость - это систематические и повторяющиеся ошибки в компьютерной системе, которые приводят к несправедливым результатам, обычно отдавая предпочтение одной группе перед другой. Предвзятость может существовать в данных, используемых для обучения модели машинного обучения, или отражать и увековечивать существующие предрассудки. Когда алгоритм обрабатывает данные, содержащие предвзятую информацию, он может усвоить и даже усилить эти предрассудки в своих прогнозах. Это может привести к дискриминационным результатам, когда алгоритм применяется в реальных сценариях, влияя на такие области, как прием на работу, оформление кредитов и даже уголовное правосудие. Понимание и смягчение алгоритмической предвзятости крайне важно для разработки честных и справедливых систем ИИ.

Источники алгоритмической предвзятости

Алгоритмическая предвзятость может возникать на разных этапах конвейера машинного обучения (ML). Вот несколько распространенных источников:

  • Сбор данных: Если данные, собранные для обучения модели, не являются репрезентативными для населения или содержат исторические предубеждения, то модель унаследует эти предубеждения. Например, системы распознавания лиц, обученные преимущественно на изображениях белых лиц, могут плохо работать с лицами цветных людей.
  • Маркировка данных: Маркировка данных - это процесс добавления тегов или меток к необработанным данным, чтобы придать им смысл для ML-моделей. Если на процесс маркировки влияют человеческие предубеждения, то эти предубеждения будут закодированы в модели.
  • Выбор признаков: Выбор признаков, используемых для обучения модели, может внести погрешность. Если определенные признаки более распространены или предсказуемы для одной группы, чем для другой, модель может работать по-разному в этих группах.
  • Дизайн алгоритма: Дизайн самого алгоритма также может внести предвзятость. Например, алгоритм, оптимизированный под определенный результат, может непреднамеренно поставить в невыгодное положение некоторые группы.

Виды алгоритмической предвзятости

В системах искусственного интеллекта может проявляться несколько типов алгоритмической предвзятости. Понимание этих типов очень важно для выявления и устранения предвзятости:

  • Историческая предвзятость: она возникает, когда данные, используемые для обучения модели, отражают существующие в обществе предрассудки. Например, алгоритм найма, обученный на исторических данных о найме, в которых предпочтение отдавалось кандидатам-мужчинам, может увековечить гендерную дискриминацию.
  • Ошибка репрезентации: она возникает, когда в обучающих данных недостаточно представлены определенные группы, что приводит к тому, что модель плохо работает с этими группами. Например, система распознавания речи, обученная в основном на речи взрослых, может не совсем точно транскрибировать детскую речь.
  • Предвзятость измерений: этот тип предвзятости возникает, когда данные, используемые для измерения определенной переменной, систематически оказываются неточными или перекошенными для определенных групп. Например, алгоритм здоровья, использующий индекс массы тела (ИМТ) в качестве основного показателя здоровья, может быть предвзятым по отношению к определенным типам телосложения.
  • Агрегационная предвзятость: она возникает, когда к разнородной популяции применяется универсальная модель, игнорирующая различия между группами. Алгоритм, разработанный для общей популяции, может оказаться неэффективным для конкретных подгрупп.

Примеры алгоритмической предвзятости в реальных приложениях

Предвзятость алгоритмов может иметь значительные последствия в реальном мире. Вот два конкретных примера:

  1. Распознавание лиц в правоохранительных органах: Было доказано, что системы распознавания лиц менее точны для людей с темным оттенком кожи, особенно для женщин. Это может привести к увеличению числа ложных срабатываний и ошибочных идентификаций, что потенциально может привести к неправомерным арестам и приговорам. Национальный институт стандартов и технологий (NIST) провел исследование, в котором обратил внимание на эти различия, подчеркнув необходимость создания более разнообразных и репрезентативных наборов обучающих данных.
  2. Инструменты для рекрутинга: Инструменты для рекрутинга, работающие на основе искусственного интеллекта, все чаще используются для отбора кандидатов на работу. Однако если эти инструменты обучены на исторических данных о найме, которые отражают прошлые предубеждения (например, предпочтение кандидатов-мужчин на технические должности), они могут несправедливо оценивать кандидатов-женщин ниже. Ярким примером является опыт Amazon с предвзятым инструментом рекрутинга, когда компании пришлось отменить систему искусственного интеллекта, которая показывала сильное предпочтение кандидатам-мужчинам.

Смягчение алгоритмической предвзятости

Решение проблемы алгоритмической предвзятости требует многогранного подхода, включающего тщательный сбор данных, разработку моделей и постоянный мониторинг. Вот некоторые стратегии:

  • Разнообразные и репрезентативные данные: Убедись, что данные для тренировок разнообразны и точно представляют население. Для этого может потребоваться сбор дополнительных данных от недопредставленных групп или использование таких методов, как увеличение данных, чтобы сбалансировать набор данных.
  • Методы обнаружения предвзятости: Используй методы, позволяющие выявить необъективность данных и моделей. Такие методы, как перекрестная валидация, помогут выявить различия в эффективности моделей для разных групп.
  • Метрики справедливости: Используй метрики справедливости для оценки и количественного определения предвзятости в моделях. Такие метрики, как диспропорциональное воздействие, разница равных возможностей и средняя разница шансов, помогут оценить справедливость предсказаний модели.
  • Прозрачность алгоритмов: Продвигай прозрачность в проектировании и разработке алгоритмов. Методы объяснимого ИИ (XAI) могут помочь понять, как модель приходит к своим решениям, что облегчает выявление и исправление предвзятости.
  • Регулярный аудит и мониторинг: Постоянно проверяй и контролируй системы искусственного интеллекта на предмет предвзятости. Это включает в себя регулярную оценку производительности моделей на различных наборах данных и обновление моделей по мере необходимости для устранения выявленных предубеждений.
  • Этические основы ИИ: Разрабатывай и соблюдай этические принципы разработки ИИ. Такие организации, как IEEE и Partnership on AI, предоставляют рамки для ответственной разработки ИИ.

Алгоритмическая предвзятость по сравнению с другими видами предвзятости

Хотя алгоритмическая предвзятость - это широкий термин, охватывающий различные формы предвзятости в системах ИИ, она связана с другими специфическими видами предвзятости:

  • Предвзятость в ИИ: это более общий термин, который включает в себя любую систематическую ошибку или отклонение от справедливости в системах ИИ. Алгоритмическая предвзятость - это подмножество этой более широкой категории, сфокусированное конкретно на предвзятости, заложенной в алгоритмах.
  • Dataset Bias: речь идет о смещениях, присутствующих в данных, используемых для обучения моделей машинного обучения. Алгоритмическая предвзятость часто является результатом предвзятости набора данных, так как модели обучаются на тех данных, которые им предоставляются.

Понимая нюансы алгоритмической предвзятости и ее связь с другими видами предвзятости, разработчики и организации могут предпринять упреждающие шаги для создания более справедливых и равноправных систем ИИ. Ultralytics стремится продвигать этику ИИ и предоставлять инструменты и ресурсы, помогающие смягчить предвзятость в приложениях ИИ.

Читать полностью