Глоссарий

Справедливость в искусственном интеллекте

Обеспечь справедливость в ИИ с помощью этичных, непредвзятых моделей. Изучи инструменты, стратегии и Ultralytics YOLO для создания справедливых ИИ-решений.

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

Справедливость в ИИ - это важнейшая область, посвященная обеспечению того, чтобы системы искусственного интеллекта работали справедливо и не увековечивали и не усиливали существующие в обществе предубеждения. Она подразумевает разработку и внедрение моделей, которые не допускают дискриминации отдельных людей или групп по таким чувствительным признакам, как раса, пол, возраст, религия или сексуальная ориентация. Поскольку системы искусственного интеллекта (ИИ) становятся все более интегрированными в процессы принятия важных решений в различных отраслях, решение проблемы справедливости имеет важное значение для этического развития, соблюдения законов и укрепления общественного доверия.

Понимание справедливости в искусственном интеллекте

Справедливость в ИИ многогранна и не имеет единого, общепринятого определения. Вместо этого она включает в себя различные математические формализмы и этические соображения, направленные на смягчение несправедливых результатов. Основная задача заключается в выявлении и устранении предвзятости в ИИ, которая может исходить из множества источников, включая перекошенные обучающие данные(Dataset Bias), предвзятые алгоритмы или несовершенный контекст внедрения. Исторические предубеждения, присутствующие в данных, могут непреднамеренно научить модели повторять прошлую дискриминацию, а предубеждение в измерениях может возникнуть из-за непоследовательного сбора данных в разных группах. Признание этих потенциальных подводных камней - первый шаг к созданию более справедливых систем. Различные критерии справедливости, такие как демографический паритет (обеспечение независимости результатов от чувствительных атрибутов) или равные возможности (обеспечение равной частоты истинных положительных результатов в разных группах), предлагают разные способы измерения и стремления к справедливости, хотя достижение нескольких критериев одновременно может быть сложной задачей, как показывают исследования в этой области (например, материалы ACM FAccT).

Актуальность и важность

Важность справедливости в ИИ невозможно переоценить, учитывая его глубокое потенциальное влияние на человека и общество. Несправедливые системы ИИ могут привести к дискриминационным результатам в таких ответственных сферах, как прием на работу, выдача кредитов, уголовное правосудие и ИИ в здравоохранении, потенциально лишая определенные группы людей возможностей или важнейших услуг. Обеспечение справедливости - это не просто этическое соображение, но и зачастую юридическое требование, поскольку нормативные акты все чаще требуют подотчетности и отсутствия дискриминации в приложениях ИИ (см. NIST AI Risk Management Framework). Решение проблемы справедливости помогает предотвратить вред, способствует социальной справедливости и укрепляет доверие к технологиям ИИ, поощряя их ответственное внедрение. Это согласуется с более широкими принципами этики ИИ, которые включают в себя справедливость, прозрачность, подотчетность и конфиденциальность.

Применение справедливости в искусственном интеллекте

Усилия по внедрению справедливости предпринимаются во многих приложениях ИИ. Вот два примера:

  • Справедливость в инструментах для найма: ИИ используется для отбора резюме и прогнозирования успешности кандидатов. Если ИИ обучается преимущественно на исторических данных, отражающих прошлые предубеждения при приеме на работу (например, предпочтение кандидатов из определенных университетов или демографических групп), он может несправедливо поставить в невыгодное положение квалифицированных кандидатов из недопредставленных групп. Компании разрабатывают алгоритмы и инструменты аудита с учетом принципа справедливости, такие как IBM's AI Fairness 360, для обнаружения и смягчения таких предубеждений, часто используя такие методы, как повторное взвешивание точек данных или добавление ограничений на справедливость во время обучения модели.
  • Справедливость в распознавании лиц: Системы распознавания лиц демонстрируют неравенство в точности для различных демографических групп, зачастую они работают менее точно для людей с темным оттенком кожи или женщин. Это может иметь серьезные последствия в самых разных сферах применения - от проверки личности до правоохранительной деятельности. Исследовательские организации, такие как Algorithmic Justice League, обратили внимание на эти проблемы, что побудило их к созданию более разнообразных обучающих наборов данных и разработке моделей, которые демонстрируют более стабильную работу в разных группах населения. Такие методы, как увеличение объема данных и использование более инклюзивных эталонных наборов данных, являются важнейшими шагами.

Отличай справедливость от смежных понятий

Несмотря на тесную взаимосвязь, справедливость в ИИ отличается от соседних понятий:

  • Этика ИИ: Это более широкая область, касающаяся моральных принципов и рекомендаций по разработке и использованию ИИ, включая справедливость, подотчетность, прозрачность, конфиденциальность и безопасность. Справедливость - один из важнейших компонентов этики ИИ.
  • Алгоритмическая предвзятость: речь идет именно о систематических и повторяющихся ошибках в системе ИИ, которые приводят к несправедливым результатам. Справедливость в ИИ - это проактивные усилия по выявлению, измерению и смягчению алгоритмической предвзятости.
  • Объяснимый ИИ (XAI): XAI фокусируется на том, чтобы сделать решения ИИ понятными для человека. Хотя XAI может помочь выявить потенциальные проблемы со справедливостью, раскрывая принцип работы модели, по своей сути он не гарантирует справедливости. Однако прозрачность с помощью XAI часто необходима для оценки и обеспечения справедливости.

Достижение справедливости

Достижение справедливости требует сочетания технических и процедурных подходов на протяжении всего жизненного цикла ИИ. Это включает в себя тщательный сбор и аннотирование данных, использование разнообразных и репрезентативных наборов данных, применение алгоритмов машинного обучения, учитывающих справедливость, тщательное тестирование и оценку моделей с использованием соответствующих метрик справедливости, а также постоянный мониторинг после развертывания. Такие инструменты, как What-If Tool отGoogle, позволяют специалистам исследовать поведение моделей на разных срезах данных. Платформы вроде Ultralytics HUB облегчают обучение и управление пользовательскими моделями, позволяя пользователям применять такие техники, как увеличение данных, и оценивать такие модели, как Ultralytics YOLO11 на предмет различий в производительности между разными группами, поддерживая разработку более справедливых решений в области компьютерного зрения.

Читать полностью