Глоссарий

Объяснимый искусственный интеллект (XAI)

Открой для себя объяснимый ИИ (XAI): Укрепляй доверие, обеспечивай подотчетность и соблюдай нормативные требования, используя интерпретируемые сведения для принятия более разумных решений с помощью ИИ.

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

Объяснимый ИИ (XAI) - это методы и техники в искусственном интеллекте (ИИ), которые позволяют людям понимать и интерпретировать результаты и решения, принимаемые системами ИИ. По мере того как модели ИИ, особенно такие сложные, как нейронные сети глубокого обучения, используемые в компьютерном зрении, становятся все более распространенными, их внутренняя работа может быть непрозрачной и часто описывается как "черные ящики". Цель XAI - открыть эти "черные ящики", дать представление о том, как делаются выводы, тем самым способствуя доверию, подотчетности и эффективному человеческому контролю.

Почему объяснимый ИИ имеет значение

Потребность в XAI обусловлена все большей интеграцией ИИ в процессы принятия важных решений в различных отраслях. В то время как такие модели ИИ, как Ultralytics YOLO могут достигать высокой точности, понимание того , почему они делают конкретные прогнозы, имеет решающее значение. Недостаток интерпретируемости может препятствовать внедрению в таких ответственных областях, как ИИ в здравоохранении и финансах. К ключевым драйверам XAI относятся:

  • Доверие и ответственность: Понимание причин, лежащих в основе тех или иных решений ИИ, помогает пользователям доверять его результатам и заставляет разработчиков отвечать за поведение модели.
  • Отладка и совершенствование: Методы XAI могут помочь выявить недостатки, смещения или неожиданное поведение моделей, направляя разработчиков на оценку и тонкую настройку модели. Например, понимание того, почему модель обнаружения объектов не срабатывает в определенных условиях, позволяет целенаправленно вносить улучшения.
  • Соответствие нормативным требованиям: Такие нормативные акты, как Общий регламент ЕС по защите данных (GDPR), предписывают "право на объяснение" для автоматизированных решений, что делает XAI необходимым для соблюдения правовых норм.
  • Этические соображения: Раскрывая то, как модели используют данные, XAI помогает выявить и смягчить потенциальную предвзятость в ИИ, обеспечивая более справедливые результаты и соответствуя принципам этики ИИ.

Преимущества и применение

Внедрение XAI дает значительные преимущества. Она повышает доверие пользователей, способствует более качественной разработке моделей за счет упрощения отладки, а также способствует ответственному внедрению ИИ. Техники XAI применяются в различных областях:

  1. Медицинская диагностика: при анализе медицинских изображений XAI может выделить конкретные области на изображении (например, на рентгеновском или магнитно-резонансном снимке), по которым модель искусственного интеллекта определила потенциальное заболевание. Это позволяет врачам проверять выводы ИИ и уверенно внедрять их в свой диагностический процесс. Исследовательские инициативы вроде программы DARPA XAI подстегнули развитие в этой области.
  2. Финансовые услуги: Когда модели ИИ используются для кредитного скоринга или одобрения займов, XAI может объяснить факторы, способствующие принятию решения (например, кредитную историю, уровень дохода). Это помогает учреждениям соблюдать такие нормы, как Закон о равных кредитных возможностях, и предоставлять клиентам четкие обоснования, обеспечивая справедливость. Узнай больше об искусственном интеллекте в финансах.

Техника XAI

Для достижения объяснимости существует несколько методов, которые часто делятся на категории по охвату (глобальные против локальных) или по времени (внутренние против пост-хок). К распространенным методам относятся:

  • LIME (Local Interpretable Model-agnostic Explanations): Объясняет отдельные предсказания, локально аппроксимируя сложную модель более простой, интерпретируемой моделью. Узнай больше о LIME.
  • SHAP (SHapley Additive exPlanations): Использует понятия из теории кооперативных игр, чтобы назначить значение важности каждой характеристики для конкретного предсказания. Узнай значения SHAP.
  • Механизмы внимания: В таких моделях, как Transformers, слои внимания иногда можно визуализировать, чтобы показать, на каких частях входных данных модель сосредоточилась больше всего.

XAI против прозрачности в искусственном интеллекте

Несмотря на свою взаимосвязь, XAI отличается от прозрачности в ИИ. Под прозрачностью обычно понимается доступность информации о системе ИИ, такой как ее обучающие данные, исходный код или общая архитектура. Однако XAI фокусируется именно на том, чтобы сделать обоснование конкретных решений или предсказаний модели понятным для человека. Система ИИ может быть прозрачной (например, иметь открытый исходный код), но все равно не поддаваться объяснению, если ее внутренняя логика остается сложной и неинтуитивной. Эффективное управление ИИ часто требует как прозрачности, так и объяснимости. Подробнее ты можешь прочитать в нашей статье в блоге Все, что тебе нужно знать об объяснимом ИИ.

Читать полностью