Алгоритмическая предвзятость - это систематические и повторяющиеся ошибки в системе искусственного интеллекта (ИИ), которые приводят к несправедливым или дискриминационным результатам. В отличие от предвзятости, возникающей исключительно из-за некачественных данных, алгоритмическая предвзятость возникает из-за разработки, реализации или применения самого алгоритма. Это может произойти даже тогда, когда входные обучающие данные кажутся сбалансированными. Это критическая проблема в машинном обучении (ML) и таких областях, как компьютерное зрение (CV), так как она может подорвать надежность и справедливость систем ИИ, влияя на все - от рекомендаций по продуктам до критических решений в финансах и здравоохранении. Борьба с этим типом предвзятости крайне важна для создания надежного ИИ, что подчеркивают такие исследовательские организации, как NIST.
Источники алгоритмической предвзятости
Хотя алгоритмическая предвзятость часто переплетается с проблемами данных, она возникает именно из-за механики алгоритма:
- Выбор дизайна: Решения, принятые во время разработки алгоритма, такие как выбор конкретных характеристик или используемого алгоритма оптимизации, могут непреднамеренно внести предвзятость. Например, оптимизация исключительно на точность может привести к тому, что модель будет плохо работать с группами меньшинств, если они представляют собой крайние случаи.
- Инженерия и отбор признаков: Процесс выбора, преобразования или создания признаков(инженерия признаков) может содержать в себе предубеждения. Алгоритм может выучить корреляции, которые отражают общественные предубеждения, косвенно присутствующие в признаках.
- Прокси-переменные: Алгоритмы могут использовать нейтральные на первый взгляд переменные (например, почтовый индекс или историю покупок) в качестве прокси для чувствительных атрибутов (например, расы или дохода). Такое использование прокси-переменных может привести к дискриминационным результатам даже без явных чувствительных данных.
- Петли обратной связи: В системах, которые обучаются с течением времени, первоначальные алгоритмические предубеждения могут усиливаться, так как предвзятые результаты системы влияют на будущий сбор данных или поведение пользователя.
Примеры из реального мира
Алгоритмическая предвзятость может проявляться в различных приложениях:
- Инструменты для найма: Системы искусственного интеллекта, предназначенные для отбора резюме, могут изучать закономерности из исторических данных о найме. Если прошлые практики благоприятствовали определенным демографическим группам, алгоритм может закрепить эту предвзятость, наказывая квалифицированных кандидатов из недопредставленных групп, как это печально произошло с экспериментальным инструментом в Amazon.
- Финансовые услуги: Алгоритмы, используемые для кредитного скоринга или одобрения кредитов, могут непропорционально отклонять заявки людей из определенных районов или демографических групп, даже если из них исключены защищаемые характеристики. Это может произойти, если алгоритм выявит корреляции между кажущимися нейтральными факторами (например, шаблонами просмотра интернет-страниц или конкретными торговыми сетями) и кредитным риском, которые соответствуют общественным предубеждениям. Озабоченность по поводу алгоритмической предвзятости в финансах растет.
Алгоритмическая предвзятость по сравнению со смежными понятиями
Важно отличать алгоритмическую предвзятость от смежных терминов:
- Предвзятость в ИИ: это широкий термин, охватывающий все формы систематической несправедливости в системах ИИ. Алгоритмическая предвзятость - один из конкретных источников предвзятости ИИ, наряду с другими, такими как Dataset Bias.
- Предвзятость набора данных: речь идет о предвзятости данных, используемых для обучения модели (например, нерепрезентативные выборки, перекошенные аннотации). Хотя предвзятость набора данных может вызвать или усилить алгоритмическую предвзятость, алгоритмическая предвзятость может возникнуть и самостоятельно из-за дизайна алгоритма, даже при использовании идеально репрезентативных данных. Понимание взаимодействия между предвзятостью ИИ и предвзятостью набора данных крайне важно.
- Bias-Variance Tradeoff: это фундаментальная концепция в ML, касающаяся сложности модели и типов ошибок. В данном контексте под "предвзятостью" понимаются упрощающие предположения, сделанные моделью, которые приводят к систематическим ошибкам(underfitting), а не предвзятость, связанная с обществом или справедливостью.
Стратегии смягчения последствий
Решение проблемы алгоритмической предвзятости требует проактивного и многогранного подхода на протяжении всего жизненного цикла ИИ:
- Метрики справедливости: Включи метрики справедливости в процесс обучения и проверки модели, наряду с традиционными показателями производительности, такими как точность.
- Аудит алгоритмов: Регулярно проверяй алгоритмы на предмет необъективных результатов для разных подгрупп. Такие инструменты, как AI Fairness 360 и Fairlearn, могут помочь в обнаружении и смягчении предвзятости.
- Методы уменьшения предвзятости: Используй методы, направленные на корректировку алгоритмов, такие как перевзвешивание точек данных, изменение ограничений обучения или постобработка результатов модели для обеспечения более справедливых результатов.
- Объяснимый ИИ (XAI): Используй методы XAI, чтобы понять , почему алгоритм принимает те или иные решения, что поможет выявить скрытые предубеждения в его логике. Повышение прозрачности ИИ - ключевой момент.
- Разнородные команды и тестирование: Привлекай к процессу разработки разнообразные команды и проводи тщательное тестирование с репрезентативными группами пользователей, чтобы выявить потенциальные предубеждения.
- Осведомленность о нормативных актах: Будь в курсе развивающихся нормативных актов, таких как закон ЕС об искусственном интеллекте, который включает в себя положения, касающиеся предвзятости и справедливости.
- Непрерывный мониторинг моделей: Следи за развернутыми моделями на предмет снижения производительности или появления новых предубеждений с течением времени.
Понимая нюансы алгоритмической предвзятости и активно работая над ее смягчением с помощью тщательного проектирования, тщательного тестирования и соблюдения принципов Fairness in AI и AI Ethics, разработчики смогут создавать более надежные, справедливые и полезные ИИ-приложения. Такие организации, как Partnership on AI и Algorithmic Justice League, выступают за ответственную разработку ИИ. Платформы вроде Ultralytics HUB и модели вроде Ultralytics YOLO предоставляют рамки, которые поддерживают тщательную разработку и оценку моделей, учитывая такие факторы, как конфиденциальность данных, и способствуя созданию более справедливых систем. Конференция ACM по справедливости, подотчетности и прозрачности (FAccT) - ведущая площадка для исследований в этой области.