Глоссарий

Контрастное обучение

Открой для себя силу контрастного обучения, самоконтролируемой техники для надежного представления данных с минимальным количеством меченых данных.

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

Контрастное обучение - это мощный подход в самоподдерживающемся обучении, когда модель учится определять похожие и непохожие точки данных, не опираясь на помеченные данные. Этот метод предполагает обучение модели пониманию взаимосвязей между различными образцами данных путем противопоставления положительных пар отрицательным. По сути, модель учится объединять представления похожих точек данных и одновременно отталкивать представления непохожих. Эта техника доказала свою высокую эффективность в различных областях, включая компьютерное зрение, обработку естественного языка (NLP) и обработку звука. Обучаясь богатым и надежным представлениям данных, контрастное обучение позволяет моделям хорошо справляться с поставленными задачами даже при ограниченном количестве помеченных данных, что делает его ценным инструментом в сценариях, где помеченных данных мало или их дорого получить.

Ключевые понятия в контрастном обучении

Контрастное обучение вращается вокруг идеи сравнения и противопоставления различных образцов данных для изучения значимых представлений. Используются два основных типа пар данных:

  • Положительные пары: Они состоят из двух похожих или связанных образцов данных. Например, в анализе изображений положительной парой могут быть два разных дополненных вида одного и того же изображения, например, повернутые или обрезанные версии.
  • Отрицательные пары: Они состоят из двух несхожих или не связанных между собой образцов данных. Продолжая пример с изображениями, отрицательная пара может представлять собой дополненные виды с двух разных изображений.

Цель - обучить модель так, чтобы представления положительных пар находились близко друг к другу в пространстве встраивания, а представления отрицательных пар - далеко друг от друга. Это достигается путем минимизации расстояния между положительными парами и максимизации расстояния между отрицательными парами.

Контрастное обучение против контролируемого обучения

Хотя и контрастное обучение, и контролируемое обучение нацелены на обучение моделей делать точные предсказания, они существенно отличаются друг от друга подходом и требованиями. Супервизорное обучение опирается на наборы данных с метками, где каждая точка данных связана с определенной меткой или целевой переменной. Модель учится сопоставлять входы с выходами на основе этих помеченных примеров. В отличие от этого, контрастное обучение относится к самоподдерживающемуся обучению, подмножеству несамостоятельного обучения, где модель учится на основе самих данных без необходимости в явных метках. Это делает контрастное обучение особенно полезным, когда данные с метками ограничены или недоступны.

Контрастное обучение против полуконтрольного обучения

Контрастное обучение и полуподконтрольное обучение - обе эти техники направлены на улучшение работы модели при нехватке меченых данных, но они используют для этого разные механизмы. Полуподконтрольное обучение использует комбинацию меченых и немеченых данных во время обучения. Модель обучается на меченых данных традиционным контролируемым способом, но при этом использует и немеченые данные, чтобы лучше понять структуру данных, лежащих в основе. Контрастное обучение, с другой стороны, сосредоточено исключительно на обучении представлений на основе немеченых данных путем противопоставления похожих и непохожих образцов. В то время как полуподконтрольное обучение может извлечь пользу из некоторых меченых данных, контрастное обучение вообще не требует меток, полагаясь вместо этого на внутренние взаимосвязи в самих данных.

Применение контрастного обучения

Контрастное обучение продемонстрировало поразительный успех в самых разных сферах применения:

  • Компьютерное зрение: В компьютерном зрении контрастное обучение используется для обучения надежным представлениям изображений. Например, обучая модель распознавать различные дополненные виды одного и того же изображения как похожие, модель учится фокусироваться на существенных особенностях, игнорируя нерелевантные вариации. Эти выученные представления затем могут быть использованы для последующих задач, таких как обнаружение объектов, классификация изображений и сегментация изображений.
  • Обработка естественного языка: Контрастное обучение также добилось значительных успехов в НЛП. Модели могут быть обучены различать похожие и непохожие предложения или документы, что приводит к улучшению производительности в таких задачах, как классификация текстов, анализ настроения и ответы на вопросы.
  • Обработка аудиосигналов: В обработке звука контрастное обучение может быть использовано для изучения представлений аудиосигналов. Например, модель может быть обучена идентифицировать различные сегменты одного и того же аудиоклипа как похожие, а сегменты из разных клипов - как непохожие. Эти представления могут улучшить такие задачи, как распознавание речи и идентификация диктора.

Примеры контрастного обучения в реальных условиях

Пример 1: Обучение представлению изображений с помощью SimCLR

SimCLR (A Simple Framework for Contrastive Learning of Visual Representations) - это широко известный фреймворк, который демонстрирует возможности контрастного обучения в области представления изображений. SimCLR работает путем обучения модели на парах дополненных изображений. Каждое изображение в паре преобразуется в два разных вида с помощью таких дополнений, как случайное кадрирование, изменение размера и искажение цвета. Эти дополненные виды образуют положительные пары, а виды с разных изображений - отрицательные пары. Модель, обычно представляющая собой сверточную нейронную сеть (CNN), учится создавать похожие вкрапления для положительных пар и непохожие вкрапления для отрицательных пар. После обучения модель может генерировать высококачественные представления изображений, которые передают основные характеристики и при этом инвариантны к конкретным примененным дополнениям. Эти представления могут значительно улучшить производительность в различных задачах компьютерного зрения. Узнай больше о SimCLR из оригинальной научной статьи.

Пример 2: Анализ медицинских изображений

Контрастное обучение показало большие перспективы в анализе медицинских изображений, особенно в сценариях, где не хватает маркированных медицинских данных. Например, модель можно обучить различать разные виды или срезы одного и того же медицинского снимка (например, снимки МРТ или КТ) как похожие, а снимки от разных пациентов считать несхожими. Такой подход позволяет модели научиться надежному представлению медицинских изображений, не полагаясь на обширные ручные аннотации. Затем эти выученные представления могут быть использованы для повышения точности и эффективности диагностических задач, таких как обнаружение аномалий, классификация заболеваний и сегментация анатомических структур. Используя контрастное обучение, системы медицинской визуализации могут достигать более высокой производительности при меньшем количестве помеченных данных, устраняя критически важное узкое место в этой области. Узнай больше о применении контрастного обучения в медицинской визуализации из этой научной статьи.

Читать полностью