Глоссарий

Deepfakes

Узнай о технологиях, сферах применения и этических проблемах deepfakes - от развлечений до дезинформации. Узнай о решениях в области обнаружения и искусственного интеллекта.

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

Глубокими подделками называют синтетические медиа - изображения, видео или аудио, созданные с помощью искусственного интеллекта (ИИ), а именно методов глубокого обучения. Этот термин является портманто от слов "deep learning" и "fake". Эти техники позволяют манипулировать или генерировать визуальный и аудиоконтент с высокой степенью реалистичности, что дает возможность изображать людей, говорящих или делающих то, чего они на самом деле никогда не говорили и не делали. Хотя эти технологии часто ассоциируются с вредоносным использованием, они имеют и законное применение.

Как создаются глубокие подделки

Наиболее распространенные методы создания deepfakes включают в себя модели глубокого обучения, такие как генеративные адверсарные сети (GAN) или автоэнкодеры. В GAN-модели две нейронные сети соревнуются: генератор создает поддельные изображения/видео, а дискриминатор пытается отличить подделки от реальных обучающих данных. Этот состязательный процесс подталкивает генератор к созданию все более убедительных подделок. Автокодировщики работают, обучаясь сжатым представлениям лиц или голосов, а затем декодируя их, чтобы восстановить или поменять местами признаки. Оба метода обычно требуют значительного количества данных (изображений или аудиоклипов) о целевом человеке, чтобы эффективно изучить его сходство и манеры. Качество и реалистичность часто зависят от объема и разнообразия этих данных, а также от вычислительной мощности, используемой для обучения.

Применение и примеры

Технология Deepfake имеет целый ряд применений, охватывающих как полезное, так и вредное использование:

  • Развлечения и медиа: Используется для дубляжа фильмов на разные языки, синхронизации движений губ, старения актеров или создания спецэффектов. Такие компании, как Synthesia, используют подобный ИИ для создания обучающих видео с виртуальными ведущими.
  • Образование и доступность: Создание реалистичных исторических реконструкций или разработка инструментов для людей с нарушениями коммуникации.
  • Дезинформация и пропаганда: Сфабрикуй видео с публичными фигурами, например политиками, чтобы распространить ложные сведения или повлиять на общественное мнение. Например, в сети появились манипулируемые видеоролики, на которых политические деятели делают подстрекательские заявления(BBC News Report on Deepfakes).
  • Мошенничество и самозванство: Создай поддельное аудио или видео для финансовых афер, например, выдай себя за генерального директора, чтобы санкционировать мошеннические операции(статья Forbes о мошенничестве с клонированием голоса). Это распространяется и на кражу личных данных и создание фальшивых профилей.
  • Порнография без согласия: Одно из самых ранних и вредных применений - цифровая вставка лиц людей на порнографические материалы без их согласия.

Глубокие подделки по сравнению со смежными понятиями

Хотя программы для редактирования фото и видео существуют уже несколько десятилетий, deepfakes представляют собой значительный скачок благодаря тому, что они полагаются на ИИ для обучения и создания нового, реалистичного контента, а не просто манипулируют существующими пикселями вручную. Они попадают под зонтик генеративного ИИ, который фокусируется на создании новых данных. Это отличается от задач дискриминативного ИИ, таких как обнаружение объектов или классификация изображений, распространенных в компьютерном зрении (КВ), где цель обычно состоит в идентификации или категоризации существующего контента с помощью таких моделей, как Ultralytics YOLO.

Обнаружение и этические проблемы

Обнаружение глубоких подделок - постоянная задача, так как технологии, используемые для их создания, постоянно совершенствуются. Исследователи и организации активно разрабатывают методы выявления синтетических медиа, часто ища тонкие несоответствия или артефакты, оставшиеся после процесса создания(DARPA's Media Forensics Program). Рост числа глубоких подделок поднимает серьезные проблемы этики ИИ, связанные с согласием, конфиденциальностью данных, дезинформацией и потенциальным подрывом доверия к цифровым медиа(анализ Брукингского института). Решение проблемы потенциальной предвзятости наборов данных в моделях генерации и обнаружения также крайне важно. Платформы вроде Ultralytics HUB облегчают обучение и управление различными моделями ИИ, подчеркивая необходимость ответственного подхода к разработке во всей сфере ИИ. Для дальнейшего чтения о достижениях в области ИИ такие ресурсы, как MIT Technology Review on AI, предлагают обширную информацию.

Читать полностью