Глоссарий

Дистилляция знаний

Узнай, как Knowledge Distillation оптимизирует ИИ, сжимая модели для более быстрой и эффективной работы на граничных устройствах и в реальных приложениях.

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

Дистилляция знаний - это техника машинного обучения, которая фокусируется на передаче знаний от большой, сложной модели (часто называемой "учителем") к меньшей, более простой модели (известной как "ученик"). Такой подход позволяет модели ученика достичь сравнимой с учителем производительности и при этом быть более эффективной с точки зрения вычислительных ресурсов, что делает ее идеальной для развертывания в средах с ограниченными ресурсами, таких как мобильные устройства, IoT-устройства или пограничные вычислительные системы.

Как работает дистилляция знаний

Процесс дистилляции знаний включает в себя обучение модели ученика, чтобы она повторяла поведение модели учителя. Вместо того чтобы полагаться исключительно на исходные помеченные данные, ученик обучается на "мягких метках" или вероятностных выводах учителя, которые содержат более богатую информацию о взаимосвязях между различными классами. Эти дополнительные знания помогают ученику лучше обобщать, даже при меньшем количестве параметров.

Например, в задаче классификации изображений модель учителя может выдавать такие вероятности, как 90% для "кошки", 8% для "собаки" и 2% для "кролика". Эти мягкие вероятности дают представление о сходстве классов, которое ученическая модель использует для уточнения своих предсказаний.

Преимущества дистилляции знаний

  • Сжатие модели: Уменьшает размер модели, сохраняя при этом высокую производительность, что позволяет развернуть ее на устройствах с ограниченной памятью и вычислительной мощностью.
  • Более быстрый вывод: Небольшие модели, обученные с помощью Knowledge Distillation, обычно имеют меньшую задержку, что делает их подходящими для приложений реального времени, таких как видеоаналитика или автономные транспортные средства.
  • Улучшенное обобщение: Обучаясь на мягких метках учителя, ученическая модель часто достигает лучшего обобщения по сравнению с моделями, обученными непосредственно на жестких, одноточечных метках.

Применение дистилляции знаний

Дистилляция знаний нашла широкое применение в различных областях искусственного интеллекта и машинного обучения:

1. Здравоохранение

В медицинской визуализации большие модели, обученные для выявления аномалий на рентгеновских снимках или МРТ, можно разделить на более мелкие для более быстрой диагностики в реальном времени. Например, Ultralytics YOLO модели, известные своей эффективностью в обнаружении объектов, могут выиграть от дистилляции, чтобы повысить их скорость и внедрить в медицинские устройства. Узнай больше об искусственном интеллекте в здравоохранении.

2. Автономное вождение

Автономные транспортные средства полагаются на модели обнаружения и классификации объектов для принятия решений в реальном времени. Разборчивые модели играют здесь решающую роль, поскольку они сокращают время вывода, сохраняя при этом точность. Узнай, как искусственный интеллект в самостоятельном вождении меняет безопасность и эффективность транспорта.

3. Обработка естественного языка (NLP)

В NLP большие модели на основе трансформаторов, такие как BERT, преобразуются в более мелкие версии, например DistilBERT, чтобы быстрее классифицировать текст, переводить его и отвечать на вопросы на устройствах, работающих на грани. Узнай больше о трансформаторах и НЛП.

4. Розничная торговля и производство

В таких отраслях, как розничная торговля и производство, дистилляция знаний используется для развертывания облегченных моделей для таких задач, как управление запасами и обнаружение дефектов. Например, модели компьютерного зрения Ultralytics , оптимизированные с помощью дистилляции, могут повысить эффективность производства, управляемого ИИ.

Ключевые отличия от родственных концепций

Модельная обрезка

Хотя и дистилляция знаний, и обрезка моделей направлены на оптимизацию модели, обрезка уменьшает сложность модели за счет удаления менее значимых параметров, а дистилляция предполагает обучение отдельной, меньшей модели, имитирующей поведение большей.

Квантование модели

Квантование модели снижает точность параметров модели (например, преобразование 32-битных чисел с плавающей точкой в 8-битные целые числа), тогда как дистилляция сохраняет точность, но переносит знания в более компактную архитектуру.

Примеры из реальной жизни

Видеоаналитика в реальном времени

Используя дистилляцию знаний, большая модель YOLO может обучить меньшую версию для обнаружения объектов в видеопотоке с высокой точностью, но с меньшей задержкой. Это особенно ценно для таких приложений, как охранное видеонаблюдение, где обработка данных в реальном времени является критически важной. Узнай больше о возможностяхYOLO по созданию выводов в реальном времени.

Умное сельское хозяйство

В точном земледелии большие модели ИИ, обученные на сложных массивах данных, могут быть преобразованы в компактные версии для установки на беспилотники или полевые датчики, что позволяет решать такие задачи, как обнаружение вредителей или мониторинг состояния урожая. Узнай, как ИИ преобразует сельское хозяйство.

Инструменты и фреймворки, поддерживающие дистилляцию знаний

Несколько фреймворков поддерживают функцию Knowledge Distillation, делая ее доступной для практиков машинного обучения:

  • PyTorch: Популярный фреймворк для реализации пользовательских конвейеров дистилляции. Узнай больше о PyTorch в искусственном интеллекте.
  • Hugging Face Трансформаторы: Предоставляет предварительно обученные модели вроде DistilBERT для задач NLP.
  • Ultralytics HUB: упрощает обучение и развертывание моделей, позволяя пользователям экспериментировать с оптимизированными моделями YOLO . Изучи Ultralytics HUB.

Дистилляция знаний продолжает играть ключевую роль в развитии систем ИИ, позволяя создавать мощные, но эффективные модели для реальных приложений. Преодолевая разрыв между точностью и эффективностью, она позволяет ИИ охватить больше устройств, отраслей и пользователей по всему миру.

Читать полностью