Узнай о технологиях, сферах применения и этических проблемах deepfakes - от развлечений до дезинформации. Узнай о решениях в области обнаружения и искусственного интеллекта.
Дипфейки - это высокореалистичные, синтетически сгенерированные или манипулированные видео, изображения или аудиозаписи, созданные с помощью передовых технологий искусственного интеллекта (ИИ) и машинного обучения (МЛ), в частности глубокого обучения (ГОО). Этот термин является портманто от слов "deep learning" и "fake". Эти техники позволяют убедительно заменять или синтезировать лица, голоса и действия, создавая впечатление, что кто-то сказал или сделал то, чего на самом деле никогда не делал. Зародившись в онлайн-сообществах, технология deepfake быстро развивалась, предоставляя как творческие возможности, так и значительные этические проблемы.
Основная технология, лежащая в основе многих deepfakes, включает в себя генеративные адверсарные сети (GAN). GAN состоит из двух конкурирующих нейронных сетей: генератора, который создает поддельный контент (например, изображение с подмененным лицом), и дискриминатора, который пытается отличить реальный контент от поддельного. Благодаря итеративному обучению генератор становится все более искусным в создании реалистичных подделок, которые могут обмануть дискриминатор и, в конечном счете, людей-наблюдателей. Еще одна распространенная техника - автокодировщики, которые учат сжатые представления (кодировки) лиц из больших наборов данных, а затем декодируют эти представления, чтобы восстановить или подменить лица на целевых видео. Для создания убедительных глубоких подделок часто требуются значительные обучающие данные (изображения или видеоклипы целевых лиц) и значительные GPU вычислительных ресурсов, которые часто управляются с помощью таких платформ, как Ultralytics HUB.
Технология Deepfake имеет целый ряд применений, начиная от полезного использования и заканчивая вредоносными действиями:
Рост числа глубоких подделок подстегнул исследования методов их обнаружения. Они часто включают в себя обучение ML-моделей для выявления тонких несоответствий или артефактов, характерных для сгенерированного контента, таких как необычные моргания, неестественное выражение лица или несоответствия в освещении или тенях. Методы компьютерного зрения (КВ) занимают центральное место в этой работе. Однако их обнаружение - это постоянная гонка вооружений, так как методы создания глубоких фейков постоянно совершенствуются, чтобы ускользнуть от обнаружения. Такие организации, как Deepfake Detection Challenge (DFDC) от Meta AI, и инициативы таких компаний, как Microsoft направлены на улучшение состояния технологии обнаружения. Стандартные эталоны и наборы данных очень важны для разработки и оценки этих моделей обнаружения.
Глубокие подделки отличаются от традиционного редактирования фотографий или видео (например, с помощью Adobe Photoshop или After Effects) прежде всего тем, что используют глубокое обучение для генерации совершенно новых, реалистичных визуальных или аудиоэлементов на основе изученных шаблонов, а не просто изменяют существующие пиксели вручную или с помощью более простых алгоритмов. В то время как распознавание изображений фокусируется на идентификации объектов или особенностей внутри изображения, технология deepfake фокусируется на синтезе правдоподобных изображений или видео. Она представляет собой сложное применение генеративного ИИ в визуальной области. Возможность злоупотреблений подчеркивает важность ответственного подхода к разработке ИИ и информирования общественности.