Глоссарий

Предвзятость в искусственном интеллекте

Узнай, как выявлять, смягчать и предотвращать предвзятость в системах ИИ, используя стратегии, инструменты и реальные примеры разработки этичного ИИ.

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

Предвзятость в искусственном интеллекте (ИИ) - это систематические и повторяющиеся ошибки в системе ИИ, которые приводят к несправедливым результатам, отдавая предпочтение одной произвольной группе пользователей перед другими. Он возникает, когда модель ИИ отражает неявные ценности или предубеждения, присутствующие в данных, на которых она обучалась, используемых алгоритмах или решениях, принятых людьми, участвовавшими в ее разработке. Решение проблемы предвзятости ИИ имеет решающее значение для обеспечения этичности разработки и внедрения технологий ИИ, влияя на производительность моделей, надежность и доверие общества, особенно в таких критически важных приложениях, как компьютерное зрение (КЗ).

Источники предвзятости Аи

Предвзятость ИИ обычно исходит не от самого ИИ, а от данных и процессов, используемых для его создания. К основным источникам относятся:

  • Предвзятость набора данных: это основной фактор, возникающий, когда обучающие данные не соответствуют реальным сценариям или демографическим характеристикам, с которыми столкнется ИИ. Это может включать в себя недопредставленность определенных групп, искаженные методы сбора данных или ошибки в маркировке данных. Подробнее о влиянии наборов данных ты можешь узнать из нашей статьи в блоге "Понимание предвзятости ИИ и предвзятости наборов данных".
  • Алгоритмическая предвзятость: предвзятость может возникнуть из-за выбора алгоритма или того, как он разработан. Определенные алгоритмы могут по своей природе отдавать предпочтение определенным закономерностям или результатам, что приведет к необъективным прогнозам даже при сбалансированных данных.
  • Человеческая предвзятость: сознательные или бессознательные предубеждения разработчиков могут влиять на выбор данных, проектирование функций, метрики оценки моделей и решения о внедрении, внедряя несправедливость в систему. Для более глубокого погружения в рассуждения о справедливости смотри раздел "Этика ИИ".

Примеры из реального мира

Предвзятость в ИИ может проявляться в различных приложениях, приводя к значительным последствиям:

  1. Системыраспознавания лиц: Ранние модели распознавания лиц часто демонстрировали более низкую точность распознавания людей с темным цветом кожи или женщин, в первую очередь потому, что в обучающих базах данных преобладали светлокожие мужчины. Такое неравенство вызывает опасения по поводу справедливости в таких приложениях, как безопасность и проверка личности. Исследования таких организаций, как NIST, зафиксировали эти различия в производительности.
  2. ИИ в здравоохранении: Модели ИИ, используемые для анализа медицинских изображений, могут работать менее эффективно для демографических групп, недостаточно представленных в обучающих данных. Например, алгоритм обнаружения рака кожи, натренированный в основном на светлой коже, может оказаться не в состоянии точно определить меланому на темной коже, что может привести к задержке диагностики и лечения.

Различение предвзятости в Ai и смежных концепций

Важно отличать Bias in AI от похожих терминов:

  • Dataset Bias: это относится конкретно к проблемам в данных, используемых для обучения (например, отсутствие разнообразия). Это основная причина Bias в ИИ, которая описывает возникающую систематическую несправедливость в поведении модели.
  • Алгоритмическая предвзятость: здесь речь идет о предвзятости, проистекающей из структуры модели или самого процесса обучения - еще одна потенциальная причина более широкого явления предвзятости в ИИ.
  • Bias-Variance Tradeoff: это фундаментальное понятие в машинном обучении (ML), касающееся ошибки модели. Под "Bias" здесь понимается ошибка, вызванная неверными предположениями в алгоритме обучения (что приводит к недостаточной подгонке), в отличие от социальных или этических последствий Bias в ИИ.

Решение проблемы предвзятого отношения к Ай

Смягчение предвзятости ИИ требует многогранного подхода на протяжении всего жизненного цикла разработки ИИ:

  • Разнообразные и репрезентативные данные: Сбор высококачественных и разнообразных наборов данных, подобных тем, что можно найти в коллекцииUltralytics Datasets, имеет основополагающее значение. Такие техники, как увеличение данных, также могут помочь улучшить репрезентативность.
  • Метрики справедливости и аудит: Оценивать модели не только на предмет общей точности, но и на предмет эффективности в различных подгруппах с помощью метрик справедливости очень важно. Появляются инструменты и схемы, помогающие проводить аудит моделей на предмет предвзятости.
  • Объяснимый ИИ (XAI): Понимание того, почему модель делает определенные предсказания, может помочь выявить и исправить предвзятое поведение.
  • Инклюзивные команды: Разнородные команды разработчиков менее склонны упускать из виду потенциальные предубеждения.

Платформы вроде Ultralytics HUB предлагают инструменты для обучения и управления пользовательскими моделями, позволяя разработчикам тщательно собирать наборы данных и отслеживать Ultralytics YOLO производительность моделей, способствуя развитию более справедливых систем ИИ. Повышение осведомленности и внедрение принципов справедливости в ИИ жизненно важны для создания ИИ, который приносит равную пользу всем.

Читать полностью