Глоссарий

Объяснимый искусственный интеллект (XAI)

Открой для себя объяснимый ИИ (XAI): Укрепляй доверие, обеспечивай подотчетность и соблюдай нормативные требования, используя интерпретируемые сведения для принятия более разумных решений с помощью ИИ.

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

Объяснимый ИИ (XAI) включает в себя методы и техники в рамках искусственного интеллекта (ИИ), призванные сделать решения и прогнозы, генерируемые системами ИИ, понятными для человека. Поскольку модели ИИ, особенно такие сложные, как нейронные сети глубокого обучения, используемые в компьютерном зрении (CV), все чаще влияют на принятие важнейших решений, их внутренние механизмы часто напоминают непрозрачные"черные ящики". XAI стремится осветить эти процессы, давая представление о том, как получаются результаты, тем самым укрепляя доверие, обеспечивая подотчетность и способствуя эффективному человеческому контролю.

Почему объяснимый ИИ имеет значение

Спрос на XAI возникает в связи с растущей интеграцией ИИ в процесс принятия решений на высоких ставках в различных отраслях. В то время как модели ИИ, такие как Ultralytics YOLO для обнаружения объектов, могут достигать поразительной точности, однако понимание того, почему они приходят к определенным выводам, жизненно необходимо. Отсутствие возможности интерпретации может стать барьером в таких областях, как ИИ в здравоохранении и ИИ в финансах. Ключевыми мотивами для внедрения XAI являются:

  • Укрепление доверия: Пользователи и заинтересованные стороны с большей вероятностью будут доверять системам ИИ и принимать их, если смогут понять, что стоит за их результатами.
  • Отладка и совершенствование: Понимание поведения модели помогает разработчикам выявить недостатки, провести эффективную оценку и тонкую настройку модели, а также улучшить производительность.
  • Соответствие нормативным требованиям: Такие нормативные акты, как Общий регламент ЕС по защите данных (GDPR), могут потребовать объяснений автоматизированных решений, затрагивающих отдельных людей.
  • Выявление предвзятости: XAI может помочь выявить и смягчить предвзятость в ИИ, способствуя справедливости в ИИ.
  • Повышение ответственности: Понятные объяснения облегчают распределение ответственности при ошибках систем ИИ, что соответствует принципам этики ИИ.

Преимущества и применение

Внедрение XAI дает существенные преимущества, включая повышение доверия пользователей, упрощение процессов отладки и поощрение ответственного подхода к внедрению ИИ. Технологии XAI находят применение во многих областях:

  • Здравоохранение - Анализ медицинских изображений: В анализе медицинских изображений ИИ может обнаружить признаки заболевания на рентгеновском снимке. Технологии XAI могут выделить конкретные области или особенности изображения (например, текстуру, форму), которые привели модель к диагнозу. Это позволяет рентгенологам сверять выводы ИИ со своим опытом, повышая доверие к инструменту и потенциально выявляя ошибки. Это крайне важно для соблюдения стандартов, подобных тем, что FDA предъявляет к ИИ/ML в медицинских устройствах. Ознакомься с решениями AI in Healthcare, чтобы получить больше информации.
  • Финансы - Кредитный скоринг: Когда модель искусственного интеллекта отказывает в кредитной заявке, XAI может объяснить, какие факторы (например, длительность кредитной истории, соотношение долга к доходу, конкретные сделки) в наибольшей степени повлияли на решение. Это поможет финансовым организациям соответствовать таким нормам, как Закон о равных кредитных возможностях, который требует от кредиторов объяснять причины отказа, и поможет убедиться, что в решениях нет алгоритмической предвзятости.

Техника XAI

Для достижения объяснимости существуют различные методы, часто отличающиеся друг от друга подходом (например, объяснение отдельных предсказаний против общего поведения модели). Некоторые распространенные методы включают в себя:

  • LIME (Local Interpretable Model-agnostic Explanations): Аппроксимирует поведение сложной модели локально вокруг конкретного предсказания с помощью более простой, интерпретируемой модели. Узнай больше о LIME.
  • SHAP (SHapley Additive exPlanations): Использует понятия из теории кооперативных игр, чтобы назначить значение важности каждой характеристики для конкретного предсказания. Узнай значения SHAP.
  • Механизмы внимания: В частности, в таких моделях, как Transformers, показатели внимания иногда могут указывать на то, на какие части входных данных модель обращала наибольшее внимание при генерации выходных данных.

Такие исследовательские инициативы, как DARPA XAI Program, значительно продвинули развитие этих техник.

XAI против смежных концепций

Важно отличать XAI от родственных терминов:

  • Прозрачность в ИИ: прозрачность в ИИ - это видимость того, как работает система ИИ, включая ее архитектуру, данные, на которых она обучалась, и показатели ее работы. Хотя прозрачность обеспечивает фундаментальную информацию, XAI фокусируется на создании понятных человеку объяснений того , почему модель приняла то или иное решение или предсказание.
  • Наблюдаемость: Наблюдаемость - это более широкое свойство системы, касающееся возможности понять внутреннее состояние системы (включая AI/ML-модели), изучив ее внешние результаты, такие как журналы, метрики и трассировки. Это очень важно для MLOps и мониторинга моделей, позволяя отлаживать и отслеживать производительность. XAI - это специфическое подмножество, ориентированное на то, чтобы сделать интерпретируемыми рассуждения, лежащие в основе выводов моделей.

Проблемы и соображения

Достижение значимой объяснимости может быть сложным. Часто существует компромисс между производительностью (точностью) и интерпретируемостью модели; очень сложные модели могут быть более точными, но их труднее объяснить, как это обсуждалось в"Истории моделей зрения". Кроме того, раскрытие подробной логики модели может вызвать опасения по поводу интеллектуальной собственности или манипуляций со стороны противника. Такие организации, как Partnership on AI, работают над решением этих этических и практических проблем.

Ultralytics Способствует пониманию поведения моделей с помощью инструментов и ресурсов. Возможности визуализации в Ultralytics HUB и подробные руководства в Ultralytics Docs, такие как объяснение YOLO Performance Metrics, помогают пользователям оценивать и интерпретировать такие модели, как Ultralytics YOLOv8.

Читать полностью