Glossário

Falsificações profundas

Descobre a tecnologia, as aplicações e as preocupações éticas dos deepfakes, desde o entretenimento à desinformação. Aprende soluções de deteção e de IA.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

Os deepfakes referem-se a meios sintéticos - imagens, vídeo ou áudio - criados com recurso a inteligência artificial (IA), especificamente técnicas de aprendizagem profunda. O termo é um portmanteau de "deep learning" e "fake". Estas técnicas permitem a manipulação ou a geração de conteúdos visuais e sonoros com um elevado grau de realismo, possibilitando a representação de indivíduos a dizer ou a fazer coisas que nunca disseram ou fizeram na realidade. Embora frequentemente associada a utilizações maliciosas, a tecnologia subjacente também tem aplicações legítimas.

Como são criadas as deepfakes

Os métodos mais comuns para a criação de deepfakes envolvem modelos de aprendizagem profunda como as Redes Adversárias Generativas (GANs) ou autoencoders. Numa configuração GAN, duas redes neurais competem: um gerador cria imagens/vídeos falsos e um discriminador tenta distinguir as falsificações dos dados de treino reais. Este processo contraditório leva o gerador a produzir falsificações cada vez mais convincentes. Os auto-codificadores funcionam aprendendo representações comprimidas de rostos ou vozes e depois descodificando-as para reconstruir ou trocar caraterísticas. Ambos os métodos requerem normalmente quantidades significativas de dados (imagens ou clips de áudio) do indivíduo alvo para aprenderem eficazmente a sua semelhança e maneirismos. A qualidade e o realismo dependem frequentemente do volume e da variedade destes dados e da capacidade computacional utilizada para o treino.

Aplicações e exemplos

A tecnologia Deepfake tem uma série de aplicações, tanto benéficas como prejudiciais:

  • Entretenimento e media: Utilizada para dobrar filmes em diferentes línguas, sincronizando os movimentos labiais, desenvelhecendo os actores ou criando efeitos especiais. Empresas como a Synthesia utilizam IA semelhante para criar vídeos de formação com apresentadores virtuais.
  • Educação e acessibilidade: Criar reconstituições históricas realistas ou desenvolver ferramentas para pessoas com dificuldades de comunicação.
  • Desinformação e Propaganda: Fabrica vídeos de figuras públicas, como políticos, para difundir narrativas falsas ou influenciar a opinião pública. Por exemplo, surgiram em linha vídeos manipulados que parecem mostrar políticos a fazer declarações inflamatórias(BBC News Report on Deepfakes).
  • Fraude e falsificação de identidade: Criar áudio ou vídeo falso para fraudes financeiras, como fazer-se passar por um CEO para autorizar transacções fraudulentas(artigo da Forbes sobre fraude de clonagem de voz). Isto estende-se ao roubo de identidade e à criação de perfis falsos.
  • Pornografia não consensual: Uma das primeiras e mais prejudiciais aplicações envolve a inserção digital de rostos de indivíduos em material pornográfico sem o seu consentimento.

Deepfakes vs. Conceitos relacionados

Embora o software de edição de fotos e vídeos exista há décadas, os deepfakes representam um salto significativo devido à sua dependência da IA para aprender e gerar conteúdo novo e realista, em vez de apenas manipular manualmente os pixels existentes. Enquadram-se no âmbito da IA generativa, que se concentra na criação de novos dados. Isto difere das tarefas de IA discriminativa, como a deteção de objectos ou a classificação de imagens, comuns na visão computacional (CV), em que o objetivo é normalmente identificar ou categorizar o conteúdo existente utilizando modelos como Ultralytics YOLO.

Deteção e preocupações éticas

A deteção de deepfakes é um desafio permanente, uma vez que a tecnologia utilizada para os criar está em constante aperfeiçoamento. Os investigadores e as organizações estão a desenvolver ativamente técnicas para identificar meios sintéticos, muitas vezes procurando inconsistências subtis ou artefactos deixados pelo processo de geração(Programa Media Forensics da DARPA). O aumento das falsificações profundas suscita preocupações éticas significativas em matéria de IA relacionadas com o consentimento, a privacidade dos dados, a desinformação e a potencial erosão da confiança nos meios digitais(Brookings Institution Analysis). Abordar o potencial enviesamento do conjunto de dados nos modelos de geração e deteção é também crucial. Plataformas como o Ultralytics HUB facilitam a formação e a gestão de vários modelos de IA, salientando a necessidade de práticas de desenvolvimento responsáveis em todo o domínio da IA. Para leres mais sobre os avanços da IA, recursos como o MIT Technology Review on AI oferecem amplas perspectivas.

Lê tudo