Découvre la technologie, les applications et les préoccupations éthiques des deepfakes, du divertissement à la désinformation. Apprends les solutions de détection et d'intelligence artificielle.
Les deepfakes désignent des médias synthétiques - images, vidéos ou audio - créés à l'aide de l'intelligence artificielle (IA), et plus précisément de techniques d'apprentissage profond. Le terme est un portmanteau de "deep learning" et "fake". Ces techniques permettent de manipuler ou de générer des contenus visuels et audio avec un haut degré de réalisme, ce qui permet de représenter des individus disant ou faisant des choses qu'ils n'ont en réalité jamais dites ou faites. Bien qu'elle soit souvent associée à des utilisations malveillantes, la technologie sous-jacente a également des applications légitimes.
La technologie Deepfake a un large éventail d'applications, couvrant à la fois des utilisations bénéfiques et nuisibles :
Alors que les logiciels d'édition de photos et de vidéos existent depuis des décennies, les deepfakes représentent un saut significatif en raison de leur dépendance à l'IA pour apprendre et générer de nouveaux contenus réalistes, plutôt que de se contenter de manipuler manuellement les pixels existants. Ils relèvent de l'IA générative, qui se concentre sur la création de données inédites. Cela diffère des tâches d'IA discriminative telles que la détection d'objets ou la classification d'images, courantes en vision par ordinateur (VA), où l'objectif est généralement d'identifier ou de catégoriser le contenu existant à l'aide de modèles tels qu'Ultralytics. Ultralytics YOLO.
La détection des deepfakes est un défi permanent, car la technologie utilisée pour les créer s'améliore constamment. Les chercheurs et les organisations développent activement des techniques pour identifier les médias synthétiques, souvent à la recherche d'incohérences subtiles ou d'artefacts laissés par le processus de génération(programme Media Forensics de la DARPA). L'essor des deepfakes soulève d'importantes préoccupations en matière d'éthique de l'IA liées au consentement, à la confidentialité des données, à la désinformation et à l'érosion potentielle de la confiance dans les médias numériques(Brookings Institution Analysis). Il est également crucial de s'attaquer aux biais potentiels des ensembles de données dans les modèles de génération et de détection. Des plateformes comme Ultralytics HUB facilitent la formation et la gestion de divers modèles d'IA, soulignant la nécessité de pratiques de développement responsables dans l'ensemble du domaine de l'IA. Pour en savoir plus sur les progrès de l'IA, des ressources telles que MIT Technology Review on AI offrent un aperçu général.
Comment les Deepfakes sont créés
Les méthodes les plus courantes pour créer des deepfakes font appel à des modèles d'apprentissage profond tels que les réseaux adversaires génératifs (GAN) ou les autoencodeurs. Dans une configuration GAN, deux réseaux neuronaux s'affrontent : un générateur crée de fausses images/vidéos, et un discriminateur tente de distinguer les faux des vraies données d'entraînement. Ce processus contradictoire pousse le générateur à produire des faux de plus en plus convaincants. Les autoencodeurs fonctionnent en apprenant des représentations compressées de visages ou de voix, puis en les décodant pour reconstruire ou échanger des caractéristiques. Les deux méthodes nécessitent généralement une quantité importante de données (images ou clips audio) de la personne cible pour apprendre efficacement sa ressemblance et ses manières. La qualité et le réalisme dépendent souvent du volume et de la variété de ces données, ainsi que de la puissance de calcul utilisée pour l'apprentissage.