Glossaire

Fausses informations

Découvre la technologie, les applications et les préoccupations éthiques des deepfakes, du divertissement à la désinformation. Apprends les solutions de détection et d'intelligence artificielle.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

Les deepfakes désignent des médias synthétiques - images, vidéos ou audio - créés à l'aide de l'intelligence artificielle (IA), et plus précisément de techniques d'apprentissage profond. Le terme est un portmanteau de "deep learning" et "fake". Ces techniques permettent de manipuler ou de générer des contenus visuels et audio avec un haut degré de réalisme, ce qui permet de représenter des individus disant ou faisant des choses qu'ils n'ont en réalité jamais dites ou faites. Bien qu'elle soit souvent associée à des utilisations malveillantes, la technologie sous-jacente a également des applications légitimes.

Comment les Deepfakes sont créés

Les méthodes les plus courantes pour créer des deepfakes font appel à des modèles d'apprentissage profond tels que les réseaux adversaires génératifs (GAN) ou les autoencodeurs. Dans une configuration GAN, deux réseaux neuronaux s'affrontent : un générateur crée de fausses images/vidéos, et un discriminateur tente de distinguer les faux des vraies données d'entraînement. Ce processus contradictoire pousse le générateur à produire des faux de plus en plus convaincants. Les autoencodeurs fonctionnent en apprenant des représentations compressées de visages ou de voix, puis en les décodant pour reconstruire ou échanger des caractéristiques. Les deux méthodes nécessitent généralement une quantité importante de données (images ou clips audio) de la personne cible pour apprendre efficacement sa ressemblance et ses manières. La qualité et le réalisme dépendent souvent du volume et de la variété de ces données, ainsi que de la puissance de calcul utilisée pour l'apprentissage.

Applications et exemples

La technologie Deepfake a un large éventail d'applications, couvrant à la fois des utilisations bénéfiques et nuisibles :

  • Divertissement et médias : Utilisée pour doubler des films dans différentes langues tout en synchronisant les mouvements des lèvres, en désimaginant les acteurs ou en créant des effets spéciaux. Des entreprises comme Synthesia utilisent une IA similaire pour créer des vidéos de formation avec des présentateurs virtuels.
  • Éducation et accessibilité : Créer des reconstitutions historiques réalistes ou développer des outils pour les personnes souffrant de troubles de la communication.
  • Désinformation et propagande : Fabrication de vidéos de personnalités publiques, telles que des politiciens, pour diffuser de faux récits ou influencer l'opinion publique. Par exemple, des vidéos manipulées semblant montrer des politiciens faisant des déclarations incendiaires ont fait surface en ligne(BBC News Report on Deepfakes).
  • Fraude et usurpation d'identité : Création de faux sons ou de fausses vidéos pour des escroqueries financières, comme se faire passer pour un PDG afin d'autoriser des transactions frauduleuses(article de Forbes sur la fraude par clonage de voix). Cela s'étend à l'usurpation d'identité et à la création de faux profils.
  • Pornographie non consensuelle : L'une des applications les plus anciennes et les plus nocives consiste à insérer numériquement le visage des personnes sur du matériel pornographique sans leur consentement.

Deepfakes vs. concepts apparentés

Alors que les logiciels d'édition de photos et de vidéos existent depuis des décennies, les deepfakes représentent un saut significatif en raison de leur dépendance à l'IA pour apprendre et générer de nouveaux contenus réalistes, plutôt que de se contenter de manipuler manuellement les pixels existants. Ils relèvent de l'IA générative, qui se concentre sur la création de données inédites. Cela diffère des tâches d'IA discriminative telles que la détection d'objets ou la classification d'images, courantes en vision par ordinateur (VA), où l'objectif est généralement d'identifier ou de catégoriser le contenu existant à l'aide de modèles tels qu'Ultralytics. Ultralytics YOLO.

Détection et préoccupations éthiques

La détection des deepfakes est un défi permanent, car la technologie utilisée pour les créer s'améliore constamment. Les chercheurs et les organisations développent activement des techniques pour identifier les médias synthétiques, souvent à la recherche d'incohérences subtiles ou d'artefacts laissés par le processus de génération(programme Media Forensics de la DARPA). L'essor des deepfakes soulève d'importantes préoccupations en matière d'éthique de l'IA liées au consentement, à la confidentialité des données, à la désinformation et à l'érosion potentielle de la confiance dans les médias numériques(Brookings Institution Analysis). Il est également crucial de s'attaquer aux biais potentiels des ensembles de données dans les modèles de génération et de détection. Des plateformes comme Ultralytics HUB facilitent la formation et la gestion de divers modèles d'IA, soulignant la nécessité de pratiques de développement responsables dans l'ensemble du domaine de l'IA. Pour en savoir plus sur les progrès de l'IA, des ressources telles que MIT Technology Review on AI offrent un aperçu général.

Tout lire