Глоссарий

Средняя точность (mAP)

Узнай, насколько важен показатель средней точности (mAP) при оценке моделей обнаружения объектов в таких приложениях ИИ, как самостоятельное вождение и здравоохранение.

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

Mean Average Precision (mAP) - это широко используемая метрика для оценки производительности моделей обнаружения объектов, таких как в популярных Ultralytics YOLO семейства. Она представляет собой единый комплексный показатель, который суммирует способность модели правильно идентифицировать и находить объекты для различных классов и уровней доверия. В отличие от более простых метрик, mAP эффективно балансирует между компромиссом между нахождением всех релевантных объектов(recall) и гарантией того, что найденные объекты действительно правильные(precision), что делает его крайне важным для оценки моделей, используемых в сложных приложениях, таких как автономные системы и медицинская диагностика. Понимание mAP необходимо всем, кто занимается разработкой и внедрением моделей компьютерного зрения (КЗ).

Понимание основ: Precision и Recall

Чтобы понять mAP, необходимо сначала разобраться с Precision и Recall. В контексте обнаружения объектов:

  • Точность: Измеряет, сколько из идентифицированных объектов были на самом деле правильными. Высокая точность означает, что модель делает мало ложных положительных предсказаний.
  • Вспомни: Измеряет, сколько из реально присутствующих объектов было правильно идентифицировано моделью. Высокий показатель recall означает, что модель находит большинство соответствующих объектов (мало ложноотрицательных результатов).

Эти две метрики часто имеют обратную зависимость: улучшение одной из них иногда может привести к снижению другой. mAP дает возможность оценить модель в разных точках этого компромисса, предлагая более сбалансированный взгляд на производительность. Подробнее об основах Precision и Recall ты можешь узнать в Википедии.

Как рассчитывается mAP

Расчет mAP включает в себя несколько этапов, обеспечивающих надежную оценку эффективности модели для различных классов объектов и порогов обнаружения:

  1. Сортировка по степени доверия: Для каждого класса объектов предсказания модели (обнаруженные ограничительные рамки) сортируются по баллам доверия, от самого высокого к самому низкому.
  2. Кривая точности-результата: Для каждого класса строится кривая Precision-Recall. Эта кривая показывает соотношение точности и запоминания, рассчитанное при различных порогах доверия. При уменьшении порога запоминание обычно увеличивается (обнаруживается больше объектов), в то время как точность может уменьшиться (может быть включено больше ложных срабатываний).
  3. Средняя точность (AP): средняя точность (AP) для одного класса рассчитывается как площадь под его кривой "точность-отзыв". Это дает одно число, суммирующее производительность модели для этого конкретного класса на всех уровнях запоминания. Для аппроксимации этой площади существуют разные методы.
  4. Средняя точность (mAP): Наконец, mAP рассчитывается путем усреднения значений AP по всем классам объектов в наборе данных. Это дает общую оценку производительности модели на всем наборе данных.

Часто mAP сообщается при определенных пороговых значениях Intersection over Union (IoU). IoU измеряет перекрытие между предсказанным ограничительным боксом и истинным (реальным) ограничительным боксом. К распространенным вариантам mAP относятся:

  • mAP@0.5 (или mAP50): Рассчитывается с использованием фиксированного порога IoU, равного 0,5. Это стандартная метрика, используемая в бенчмарках вроде PASCAL VOC challenge. Обнаружение считается верным только в том случае, если его IoU по отношению к наземной истине составляет 0,5 или больше.
  • mAP@.5:.95 (или mAP[.5:.95]): Рассчитывается путем усреднения mAP по нескольким пороговым значениям IoU, обычно от 0,5 до 0,95 с шагом 0,05. Эта метрика, часто используемая при оценке набора данных COCO, дает более полную оценку, учитывая производительность при различных требованиях к точности локализации.

Чтобы подробно рассмотреть, как эти метрики применяются именно к моделям YOLO , смотри руководствоUltralytics YOLO Performance Metrics.

Почему mAP имеет значение

Среднее значение точности очень важно, потому что оно дает целостное представление о работе модели обнаружения объектов. Она одновременно учитывает и точность классификации (правильно ли определен класс объекта?), и точность локализации (правильно ли размещена ограничительная рамка?) для всех классов, определенных в обучающих данных. Это делает его более информативным, чем изолированное рассмотрение точности или запоминания, особенно в наборах данных с несколькими категориями объектов или несбалансированным распределением классов. Более высокий показатель mAP обычно указывает на более надежную и прочную модель обнаружения объектов. Такие приемы, как тщательное увеличение данных, настройка гиперпараметров и выбор подходящей архитектуры модели (например, YOLO11. YOLO11), являются общими стратегиями для улучшения mAP.

Применение в реальном мире

mAP имеет решающее значение при оценке моделей для реальных задач, где точность и надежность имеют первостепенное значение:

Другие области применения - видеонаблюдение, робототехника(интеграция компьютерного зрения в робототехнику), аналитика розничной торговли(ИИ для более умного управления запасами в розничной торговле) и сельское хозяйство.

mAP по сравнению с другими показателями

Важно отличать mAP от родственных метрик оценки, используемых в машинном обучении (ML):

  • Точность: В основном используется в задачах классификации, точность измеряет общую долю правильных предсказаний (как истинно положительных, так и истинно отрицательных) среди общего числа экземпляров. Она не дает прямой оценки качества локализации и может вводить в заблуждение при обнаружении объектов, особенно в несбалансированных наборах данных, где преобладает класс фона.
  • Пересечение через союз (IoU): Измеряет пространственное перекрытие между предсказанной границей и истинной границей. В то время как IoU оценивает качество локализации для отдельных обнаружений, mAP использует пороговые значения IoU (например, 0,5 или диапазон 0,5:0,95), чтобы определить, считается ли обнаружение истинно положительным, а затем агрегирует показатели по классам и уровням доверия. Сам по себе IoU - это компонент, используемый в расчете mAP, а не его замена.

Понимание этих различий очень важно для выбора подходящей метрики в зависимости от конкретной задачи и целей оценки. Чтобы узнать больше, обратись к руководству по оценке и тонкой настройке моделей.

Инструменты и контрольные показатели

Такие инструменты, как Ultralytics HUB, позволяют пользователям обучать, отслеживать и оценивать модели, при этом mAP выступает в качестве ключевого показателя эффективности в процессе обучения и проверки модели. Фреймворки ML, такие как PyTorch и TensorFlow обеспечивают базовые компоненты для построения и обучения этих моделей обнаружения объектов. Стандартизированные наборы данных, такие как COCO и PASCAL VOC, используют mAP в качестве основной метрики для сравнения моделей обнаружения объектов в публичных таблицах лидеров и исследовательских работах, стимулируя прогресс в этой области. Ты можешь изучить и сравнить различные показатели моделей, которые часто измеряются с помощью mAP, на страницах сравнения моделейUltralytics .

Читать полностью