Глоссарий

Токен

Узнай, как токены, строительные блоки моделей искусственного интеллекта, питают NLP, компьютерное зрение и такие задачи, как анализ настроения и обнаружение объектов.

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

В сфере искусственного интеллекта и машинного обучения, особенно в обработке естественного языка (NLP) и все чаще в компьютерном зрении, "токен" представляет собой наименьшую единицу данных, которую обрабатывает модель. Думай о токенах как о фундаментальных строительных блоках, которые модели ИИ используют для понимания и анализа информации, будь то текст, изображения или другие формы данных.

Понимание токенов

Токенизация - это процесс разбиения сырых данных на такие более мелкие, легко усваиваемые части. Например, в NLP текст разбивается на слова, подслова или даже символы. Этот процесс превращает непрерывный текст в дискретные единицы, которые модели машинного обучения могут эффективно обрабатывать. Способ токенизации данных может существенно повлиять на производительность и эффективность модели.

Токены крайне важны, потому что модели машинного обучения, особенно модели глубокого обучения, вроде тех, что используются в Ultralytics YOLO , не могут напрямую обрабатывать сырые, неструктурированные данные. Они требуют, чтобы данные были в числовом или дискретном формате. Токенизация служит мостом, преобразуя сложные входные данные в формат, который алгоритмы могут понять и на котором они могут обучаться. Это преобразование необходимо для таких задач, как генерация текста, анализ настроения и обнаружение объектов.

Применение токенов

Токены находят применение в различных задачах ИИ и ML. Вот несколько конкретных примеров:

  • Обработка естественного языка (NLP): в NLP лексемы - это рабочие лошадки языковых моделей. Например, при анализе настроений предложение вроде "Этот фильм был фантастическим!" может быть токенизировано в ["Этот", "фильм", "был", "фантастический", "!"]. Затем каждая из этих лексем преобразуется в числовое представление, например вкрапления слов, которые модель использует для понимания настроения. Большие языковые модели, такие как GPT-4 и GPT-3, в значительной степени полагаются на токены при обработке и генерации текста. Такие техники, как цепочка подсказок и настройка подсказок, направлены на манипулирование и оптимизацию последовательностей лексем для получения желаемых результатов от этих моделей.

  • Компьютерное зрение: Хотя лексемы традиционно ассоциируются с НЛП, они приобретают все большее значение в современных моделях компьютерного зрения, особенно с появлением трансформаторов зрения (ViT). В таких моделях, как Segment Anything Model (SAM), изображения часто разбиваются на патчи, которые можно рассматривать как визуальные лексемы. Затем эти визуальные лексемы обрабатываются сетями-трансформерами, использующими механизмы внимания для понимания отношений между различными частями изображения для таких задач, как сегментация изображения и обнаружение объектов. Даже в таких моделях обнаружения объектов, как Ultralytics YOLOv8хотя и не используют явно "визуальные маркеры" так же, как ViTs, концепцию разбиения изображения на сетку и обработки каждой ячейки сетки можно рассматривать как форму неявной маркеризации, где каждая ячейка сетки становится единицей анализа.

Понимание токенов имеет фундаментальное значение для понимания того, как модели ИИ обрабатывают информацию. По мере того как ИИ будет развиваться, концепция токенов и токенизации, вероятно, станет еще более важной для работы с различными типами данных и построения более сложных и эффективных моделей.

Читать полностью