Глоссарий

GPU (Графический процессор)

Узнай, как GPU революционизируют ИИ и машинное обучение, ускоряя глубокое обучение, оптимизируя рабочие процессы и обеспечивая работу реальных приложений.

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

Графический процессорGPU) - это специализированная электронная схема, изначально предназначенная для ускорения создания и рендеринга изображений, видео и анимации. Хотя GPU зародились в игровой индустрии и графическом дизайне, их уникальная архитектура сделала их незаменимыми инструментами в современном искусственном интеллекте (AI) и машинном обучении (ML). GPU обладают тысячами вычислительных ядер, которые работают параллельно, что позволяет им одновременно обрабатывать огромное количество вычислений. Эта способность исключительно хорошо подходит для задач, требующих больших вычислений, которые встречаются в алгоритмах глубокого обучения, обеспечивая более быстрое обучение моделей и эффективные выводы в реальном времени. Понимание эволюции GPU дает представление о его нынешней роли в ИИ.

Важность в искусственном интеллекте и машинном обучении

Возможности параллельной обработки данных на графических процессорах - основной катализатор последних прорывов в области ИИ. Обучение глубоких нейронных сетей включает в себя обработку огромных массивов данных и выполнение бесчисленного количества сложных математических операций, таких как умножение матриц. GPU отлично справляются с этими операциями, резко сокращая время обучения моделей по сравнению с традиционными центральными процессорами (CPU). Такое ускорение позволяет исследователям и разработчикам в области развития ИИ быстрее проводить итерации, экспериментировать с более крупными и сложными моделями и добиваться более высокой точности в таких задачах, как обнаружение объектов и сегментация изображений.

Вот два примера использования GPU в реальных AI/ML-приложениях:

  1. Обнаружение объектов в реальном времени: МоделиUltralytics YOLO , известные своей скоростью и эффективностью, в значительной степени полагаются на графические процессоры, чтобы выполнять обнаружение объектов в реальном времени для таких приложений, как автономное вождение, наблюдение за безопасностью(повышение эффективности систем безопасности) и робототехника. Параллельная природа GPU позволяет этим моделям быстро обрабатывать видеокадры и точно идентифицировать несколько объектов одновременно. Ознакомься с разнообразными приложениямиYOLO11 , в которых используется GPU .
  2. Обучение больших моделей: Обучение больших языковых моделей (LLM) или сложных моделей компьютерного зрения часто требует значительных вычислительных мощностей, которые часто доступны через облачные вычислительные платформы. Такие сервисы, как Ultralytics HUB Cloud Training, используют мощные кластеры GPU от таких провайдеров, как AWS, Google Cloud и Azure, чтобы обучать модели на огромных наборах данных для решения самых разных задач - от обработки естественного языка (NLP) до продвинутого анализа медицинских изображений.

Основные отличия от процессоров и TPU

Хотя GPU, CPU и Tensor Processing Units (TPU) - это все типы процессоров, они имеют разные сильные стороны и оптимизированы для разных задач:

  • CPU (центральный процессор): Предназначен для вычислений общего назначения, отлично справляется с последовательными задачами и управляет системными операциями. ЦП имеют несколько мощных ядер, оптимизированных для работы с низкой задержкой. Смотри обзорCPU vs GPU .
  • GPU (графический процессор): Оптимизирован для параллельных операций с тысячами более простых ядер. Идеально подходит для задач, которые можно разбить на части и обрабатывать одновременно, например рендеринг графики и обучение моделей глубокого обучения. Для измерения производительности часто используются такие показатели, как FLOPS.
  • TPU (Tensor Processing Unit): Специально разработанная компанией Google интегральная схема (ASIC), предназначенная для ускорения рабочих нагрузок машинного обучения с использованием TensorFlow фреймворк. Они отлично оптимизированы для выполнения крупномасштабных матричных операций, характерных для нейронных сетей. Узнай больше из подробной информации о TPU отGoogle.

Графические процессоры обеспечивают баланс между высокой производительностью для задач параллельной обработки данных и универсальностью в различных приложениях, что делает их популярным выбором для многих рабочих нагрузок в области ИИ и высокопроизводительных вычислений (HPC).

Экосистема и использование

Широкое распространение GPU в искусственном интеллекте поддерживается надежными программными экосистемами. Такие крупные производители, как NVIDIA и AMD, выпускают графические процессоры, подходящие для задач ИИ. NVIDIACUDA (Compute Unified Device Architecture) - это широко используемая платформа для параллельных вычислений и модель программирования для графических процессоров NVIDIA . Фреймворки для глубокого обучения, такие как PyTorch и TensorFlow , оптимизированы для использования GPU . Настройка окружения для разработки GPU может быть упрощена с помощью инструментов контейнеризации, таких как Docker; за инструкциями по настройке обращайся круководству Ultralytics Docker Quickstart. Эффективное развертывание моделей часто включает в себя оптимизацию моделей для эффективной работы на целевом GPU . Ознакомься с различными решениямиUltralytics , которые используют возможности GPU .

Читать полностью