Глоссарий

Предвзятость в искусственном интеллекте

Узнай, как выявлять, смягчать и предотвращать предвзятость в системах ИИ, используя стратегии, инструменты и реальные примеры разработки этичного ИИ.

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

Предвзятость в искусственном интеллекте (ИИ) - это систематические и повторяющиеся ошибки в системе ИИ, которые приводят к несправедливым, перекошенным или дискриминационным результатам, часто отдавая предпочтение одной группе перед другими на основе произвольных характеристик. Эта предвзятость возникает не из-за того, что сама модель ИИ действует злонамеренно, а когда модель учится и воспроизводит неявные ценности, историческое неравенство или статистический дисбаланс, присутствующие в обучающих данных, дизайне алгоритмов или выборе, сделанном людьми, участвующими в разработке и внедрении. Решение проблемы предвзятости ИИ имеет фундаментальное значение для этического развития ИИ, критически влияя на производительность моделей, их надежность и доверие общества, особенно в таких деликатных областях, как компьютерное зрение (КВ).

Источники предвзятости Аи

Предвзятость ИИ не является его неотъемлемым свойством, а проистекает из человеческих процессов и данных, используемых для создания этих систем. Понимание истоков - ключ к смягчению последствий:

  • Предвзятость набора данных: это наиболее распространенный источник, возникающий, когда данные, используемые для обучения, не являются репрезентативными для реальной популяции или контекста, в котором будет развернута модель. Сюда относятся историческая предвзятость (отражающая прошлые общественные предрассудки), предвзятость измерений (непоследовательный сбор данных по группам), предвзятость репрезентативности (недостаточная выборка определенных групп), а также проблемы с маркировкой данных, когда аннотации отражают субъективные точки зрения. Понимание влияния предвзятости наборов данных крайне важно для ИИ зрения.
  • Алгоритмическая предвзятость: предвзятость может быть привнесена самим алгоритмом, например, когда алгоритм оптимизируется для метрики, которая непреднамеренно ставит в невыгодное положение определенную группу, или когда при разработке модели делаются предположения, которые не верны для всех. Например, некоторые варианты оптимизации могут отдавать предпочтение общей точности в ущерб справедливости для подгрупп меньшинств.
  • Человеческая предвзятость: сознательные или бессознательные предубеждения разработчиков и пользователей могут влиять на проектирование моделей, выбор данных, интерпретацию результатов и решения о внедрении, внедряя несправедливость в жизненный цикл ИИ.

Примеры из реального мира

Предвзятость в ИИ может проявляться в различных приложениях, иногда с серьезными последствиями:

  • Системыраспознавания лиц: Многочисленные исследования, включая обширное тестирование, проведенное NIST, показали, что некоторые технологии распознавания лиц демонстрируют значительно более низкие показатели точности для людей из определенных демографических групп (например, темнокожих женщин) по сравнению с другими (например, светлокожими мужчинами). Такое неравенство часто возникает из-за нерепрезентативных наборов обучающих данных и может привести к неправильной идентификации и неравному обращению в самых разных приложениях - от разблокировки телефонов до правоохранительных органов. Такие организации, как Algorithmic Justice League, активно работают над выявлением и борьбой с подобными предубеждениями.
  • ИИ в здравоохранении: Модели ИИ, используемые для решения таких задач, как анализ медицинских изображений или прогнозирование риска для пациента, могут унаследовать предвзятость исторических данных о здоровье. Если диагностический инструмент обучен в основном на данных одной группы населения, он может работать менее точно для недостаточно представленных групп, что может привести к запоздалой постановке диагноза или неправильным рекомендациям по лечению. Исследования подчеркивают риск возникновения предвзятости в клинических алгоритмах, если активно не учитывать справедливость.

Различение предвзятости в Ai и смежных концепций

Важно отличать Bias in AI, которая в первую очередь касается справедливости и этических последствий, от других смежных понятий в машинном обучении (ML):

  • Предвзятость набора данных: хотя предвзятость ИИ является основным источником, предвзятость набора данных относится именно к нерепрезентативной природе самих данных. Предвзятость ИИ - это более широкий результат систематической несправедливости, которая может быть следствием предвзятости набора данных, алгоритмического выбора или человеческого фактора.
  • Алгоритмическая предвзятость: это относится именно к предвзятости, вносимой в процесс разработки или оптимизации модели, в отличие от предвзятости, исходящей исключительно из данных. Это еще один потенциальный источник, вносящий свой вклад в общую предвзятость ИИ.
  • Bias-Variance Tradeoff: это основная статистическая концепция в ML, описывающая противоречие между простотой модели (высокая погрешность, потенциально ведущая к недостаточной подгонке) и сложностью модели (высокая дисперсия, потенциально ведущая к избыточной подгонке). Хотя здесь используется слово "смещение", оно относится к ошибке модели из-за слишком упрощенных предположений, в отличие от этических или справедливых последствий смещения ИИ.

Решение проблемы предвзятого отношения к Ай

Смягчение предвзятости ИИ - это постоянный процесс, который требует многогранного подхода на протяжении всего жизненного цикла разработки ИИ:

  • Курирование и пополнение данных: Активно собирай разнообразные и репрезентативные наборы данных. Используй такие методы, как увеличение данных и потенциальное создание синтетических данных, чтобы сбалансировать представительство различных групп. Изучи такие ресурсы, как коллекция данныхUltralytics Datasets, чтобы найти разнообразные источники данных.
  • Метрики справедливости и аудит: Определяй и измеряй справедливость с помощью соответствующих метрик во время оценки модели. Регулярно проверяй модели на предвзятое отношение к различным подгруппам до и после развертывания.
  • Выбор и модификация алгоритмов: Выбирай алгоритмы, менее склонные к предвзятости, или модифицируй существующие, чтобы они учитывали ограничения справедливости.
  • Прозрачность и объяснимость: Используй методы объяснимого ИИ (XAI), чтобы понять поведение модели и выявить потенциальные источники предвзятости. Узнай больше о концепциях XAI.
  • Этические рамки и управление: Внедряй сильные руководства по этике ИИ и структуры управления, ссылаясь на такие рамки, как NIST AI Risk Management Framework, чтобы направлять разработку и внедрение.

Платформы вроде Ultralytics HUB предоставляют инструменты, которые поддерживают разработку более справедливых систем искусственного интеллекта, позволяя тщательно управлять наборами данных, облегчая обучение пользовательских моделей и обеспечивая мониторинг Ultralytics YOLO производительность моделей. Повышение осведомленности и внедрение принципов справедливости в ИИ (их часто обсуждают на форумах вроде конференции ACM FAccT) крайне важны для ответственного подхода к разработке ИИ и создания технологий, которые приносят обществу справедливую пользу.

Читать полностью