Глоссарий

Deepfakes

Узнай о технологиях, сферах применения и этических проблемах deepfakes - от развлечений до дезинформации. Узнай о решениях в области обнаружения и искусственного интеллекта.

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

Дипфейки - это высокореалистичные, синтетически сгенерированные или манипулированные видео, изображения или аудиозаписи, созданные с помощью передовых технологий искусственного интеллекта (ИИ) и машинного обучения (МЛ), в частности глубокого обучения (ГОО). Этот термин является портманто от слов "deep learning" и "fake". Эти техники позволяют убедительно заменять или синтезировать лица, голоса и действия, создавая впечатление, что кто-то сказал или сделал то, чего на самом деле никогда не делал. Зародившись в онлайн-сообществах, технология deepfake быстро развивалась, предоставляя как творческие возможности, так и значительные этические проблемы.

Как создаются глубокие подделки

Основная технология, лежащая в основе многих deepfakes, включает в себя генеративные адверсарные сети (GAN). GAN состоит из двух конкурирующих нейронных сетей: генератора, который создает поддельный контент (например, изображение с подмененным лицом), и дискриминатора, который пытается отличить реальный контент от поддельного. Благодаря итеративному обучению генератор становится все более искусным в создании реалистичных подделок, которые могут обмануть дискриминатор и, в конечном счете, людей-наблюдателей. Еще одна распространенная техника - автокодировщики, которые учат сжатые представления (кодировки) лиц из больших наборов данных, а затем декодируют эти представления, чтобы восстановить или подменить лица на целевых видео. Для создания убедительных глубоких подделок часто требуются значительные обучающие данные (изображения или видеоклипы целевых лиц) и значительные GPU вычислительных ресурсов, которые часто управляются с помощью таких платформ, как Ultralytics HUB.

Применение и примеры

Технология Deepfake имеет целый ряд применений, начиная от полезного использования и заканчивая вредоносными действиями:

  • Развлечения и медиа: Используется в кинематографе для старения актеров, воссоздания исторических личностей или улучшения дубляжа путем изменения движений губ в соответствии с переведенным звуком. Например, кинематографисты использовали технику deepfake в фильме The Mandalorian чтобы воссоздать в цифровом формате более молодую версию актера. Другой пример - Synthesia, платформа, которая использует аватары ИИ для создания обучающих видео и презентаций, эффективно генерируя синтетический видеоконтент.
  • Образование и доступность: Создание виртуальных преподавателей или оживление исторических личностей в образовательных целях. Клонирование голоса может помочь людям, которые потеряли голос.
  • Генерациясинтетических данных: Создание искусственных наборов данных для обучения других ML-моделей, особенно в компьютерном зрении, где реальные данные могут быть скудными или чувствительными. Это может помочь повысить надежность таких моделей, как Ultralytics YOLO11 для таких задач, как распознавание лиц.
  • Дезинформация и злой умысел: Распространение политической дезинформации, создание фальшивых одобрительных отзывов знаменитостей или скандалов, создание порнографии без согласия, а также мошенничество с помощью имперсонации (например, подделка голоса для авторизации транзакций). Все это вызывает серьезные опасения по поводу этики ИИ и конфиденциальности данных.

Обнаружение глубоких подделок

Рост числа глубоких подделок подстегнул исследования методов их обнаружения. Они часто включают в себя обучение ML-моделей для выявления тонких несоответствий или артефактов, характерных для сгенерированного контента, таких как необычные моргания, неестественное выражение лица или несоответствия в освещении или тенях. Методы компьютерного зрения (КВ) занимают центральное место в этой работе. Однако их обнаружение - это постоянная гонка вооружений, так как методы создания глубоких фейков постоянно совершенствуются, чтобы ускользнуть от обнаружения. Такие организации, как Deepfake Detection Challenge (DFDC) от Meta AI, и инициативы таких компаний, как Microsoft направлены на улучшение состояния технологии обнаружения. Стандартные эталоны и наборы данных очень важны для разработки и оценки этих моделей обнаружения.

Отличие от других медиаманипуляций

Глубокие подделки отличаются от традиционного редактирования фотографий или видео (например, с помощью Adobe Photoshop или After Effects) прежде всего тем, что используют глубокое обучение для генерации совершенно новых, реалистичных визуальных или аудиоэлементов на основе изученных шаблонов, а не просто изменяют существующие пиксели вручную или с помощью более простых алгоритмов. В то время как распознавание изображений фокусируется на идентификации объектов или особенностей внутри изображения, технология deepfake фокусируется на синтезе правдоподобных изображений или видео. Она представляет собой сложное применение генеративного ИИ в визуальной области. Возможность злоупотреблений подчеркивает важность ответственного подхода к разработке ИИ и информирования общественности.

Читать полностью