Глоссарий

Трансформатор

Изучи влияние трансформаторных моделей в ИИ с помощью сайта Ultralytics. Открой для себя их архитектуру, ключевые компоненты и области применения в NLP и зрении.

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

Модель Transformer стала краеугольным камнем в области искусственного интеллекта, особенно в обработке естественного языка (NLP) и, с недавних пор, в задачах компьютерного зрения. Впервые представленная в статье "Attention is All You Need", написанной Васвани и другими в 2017 году, архитектура Transformer фундаментально изменила то, как машины обрабатывают и понимают язык, задействовав механизмы самовнимания.

Понимание трансформаторов

Трансформеры разработаны для работы с последовательными данными с большей гибкостью, чем предыдущие модели, такие как рекуррентные нейронные сети (РНС) и конволюционные нейронные сети (КНС). В отличие от RNN, которые обрабатывают данные последовательно, трансформеры допускают гораздо большее распараллеливание, что значительно сокращает время обучения и повышает производительность на больших наборах данных.

Центральное место в модели Transformer занимает механизм самовнушения. Он позволяет модели взвешивать важность различных слов в предложении, обеспечивая контекстно-ориентированное понимание и генерацию языка. Подробнее о самовнимании читай на странице глоссария Self-Attention.

Основные компоненты

  1. Структура кодировщика-декодировщика: Трансформер построен по структуре кодер-декодер, где кодер обрабатывает входной текст, а декодер генерирует выходной. Каждый из них состоит из нескольких слоев, которые содержат механизм самовнушения и нейронную сеть с обратной связью.

  2. Позиционное кодирование: Поскольку трансформеры по своей природе не понимают порядок последовательностей, к входным вкраплениям добавляется позиционное кодирование, которое помогает закодировать положение слов внутри последовательности.

  3. Механизм внимания: В основе трансформера лежит механизм внимания, который присваивает различные уровни важности каждой части входной последовательности, позволяя ему фокусироваться на соответствующих частях при генерации выходных данных.

Применение в реальном мире

Обработка естественного языка

Трансформеры обеспечили значительные достижения в области NLP. Модели на базе архитектуры Transformer, такие как GPT-3 и BERT, установили новые ориентиры в самых разных задачах - от генерации текста до анализа настроения и машинного перевода. Эти модели справляются с задачами лучше, чем их предшественники, благодаря пониманию контекста на тонком уровне.

  • BERT известен своими задачами, которые требуют понимания как левого, так и правого контекста слов благодаря механизму двунаправленного внимания.

Компьютерное зрение

Хотя изначально трансформеры были разработаны для NLP, они все чаще применяются в задачах компьютерного зрения. Такие модели, как ViT (Vision Transformer), используют трансформеры для достижения самых современных результатов в классификации изображений, сегментации и многом другом. Вникни в роль трансформеров в моделях зрения, чтобы понять их влияние на компьютерное зрение.

Для тех, кому это интересно, Ultralytics HUB предлагает инструменты для интеграции моделей трансформеров в различные проекты, повышая производительность и масштабируемость. Узнай больше о внедрении моделей в реальные приложения с помощью Ultralytics HUB.

Отличия от родственных моделей

  • RNNs и LSTMs: В отличие от RNN и LSTM, трансформеры могут обрабатывать последовательности параллельно, что приводит к ускорению обучения и повышению эффективности улавливания дальних зависимостей.

  • CNN: Хотя CNN традиционно используются для работы с изображениями, трансформеры оказываются эффективными благодаря своей способности улавливать контекстуальные связи в данных, не будучи ограниченными пространственной иерархией.

Дальнейшее исследование

Изучи потенциал трансформеров в ИИ, прочитав статью "Attention is All You Need" и сопутствующую литературу. Чтобы узнать больше об эволюции этих архитектур, ознакомься с такими вариантами моделей, как Transformer-XL и Longformer, которые устраняют ограничения последовательности в оригинальных конструкциях трансформеров.

Трансформеры продолжают стимулировать инновации во всех областях ИИ, их применение расширяется от NLP до таких сфер, как здравоохранение, финансы и другие. Следи за новостями в блогеUltralytics ', чтобы узнавать о последних тенденциях и достижениях в области трансформаторных технологий.

Читать полностью