Glossário

Falsificações profundas

Descobre a tecnologia, as aplicações e as preocupações éticas dos deepfakes, desde o entretenimento à desinformação. Aprende soluções de deteção e de IA.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

Os deepfakes são um tipo de meios de comunicação sintéticos em que a inteligência artificial (IA) é utilizada para criar ou alterar conteúdos de vídeo ou áudio, fazendo com que pareça que alguém está a dizer ou a fazer algo que nunca fez na realidade. Isto é conseguido através do treino de modelos de aprendizagem profunda, como as redes adversárias generativas (GAN), em grandes conjuntos de dados de imagens, vídeos ou gravações de áudio. Estes modelos aprendem os padrões e caraterísticas do rosto, voz e maneirismos da pessoa-alvo, o que lhes permite gerar conteúdos falsos altamente realistas e convincentes. Os deepfakes podem ir do entretenimento inofensivo à desinformação maliciosa, colocando desafios significativos à confiança e autenticidade na era digital.

Tecnologia por detrás dos Deepfakes

A criação de deepfakes baseia-se em técnicas avançadas de aprendizagem profunda (DL), envolvendo principalmente autoencoders e GANs. Os autoencoders são redes neurais concebidas para comprimir e depois reconstruir os dados de entrada. No contexto dos deepfakes, um autoencoder aprende a codificar as caraterísticas faciais de uma pessoa numa representação comprimida e depois descodifica-a de volta para uma imagem. Ao treinar descodificadores separados para indivíduos diferentes, torna-se possível trocar rostos em vídeos.

As GANs, por outro lado, consistem em duas redes neurais: um gerador e um discriminador. O gerador cria conteúdo sintético, como imagens ou vídeos, enquanto o discriminador tenta distinguir entre conteúdo real e falso. Através de um processo iterativo, o gerador melhora a sua capacidade de criar falsificações realistas, enquanto o discriminador se torna melhor na sua deteção. Este processo de treino contraditório resulta em deepfakes cada vez mais convincentes.

Aplicações de Deepfakes

Os deepfakes têm uma vasta gama de aplicações, tanto positivas como negativas. Alguns exemplos notáveis incluem:

Entretenimento

Os deepfakes podem ser utilizados na indústria do entretenimento para criar efeitos especiais realistas, como o envelhecimento de actores ou a sua inserção em cenas em que nunca estiveram presentes. Por exemplo, a tecnologia deepfake foi utilizada para ressuscitar digitalmente actores falecidos em filmes, permitindo-lhes aparecer em novas cenas.

Educação e formação

Os deepfakes podem ser utilizados para criar simulações realistas para fins de formação, como estudantes de medicina que praticam procedimentos cirúrgicos em pacientes virtuais ou pilotos que treinam em simuladores de voo. Também podem ser utilizadas para gerar figuras ou eventos históricos, proporcionando experiências educativas imersivas.

Utilização maliciosa

Uma das aplicações mais preocupantes dos deepfakes é a sua utilização na criação e disseminação de desinformação. As deepfakes podem ser utilizadas para criar vídeos falsos de políticos, celebridades ou outras figuras públicas, fazendo com que pareçam dizer ou fazer coisas que podem prejudicar a sua reputação ou influenciar a opinião pública. Estes vídeos falsos podem ser facilmente partilhados em plataformas de redes sociais, podendo atingir uma grande audiência e causar danos significativos.

Fraude e roubo de identidade

As deepfakes podem ser utilizadas para criar gravações de áudio ou vídeo falsas com o objetivo de fraude ou roubo de identidade. Por exemplo, uma gravação de áudio deepfake da voz de um CEO pode ser utilizada para autorizar transacções fraudulentas, ou um vídeo deepfake pode ser utilizado para se fazer passar por alguém para fins maliciosos.

Deteção e atenuação

À medida que as falsificações profundas se tornam mais sofisticadas, a sua deteção torna-se cada vez mais difícil. Os investigadores estão a desenvolver várias técnicas para identificar deepfakes, como a análise de inconsistências na iluminação, sombras ou movimentos faciais. A IA explicável (XAI) também pode desempenhar um papel importante ao tornar os modelos de IA mais transparentes e mais fáceis de auditar, ajudando potencialmente na deteção de conteúdos manipulados.

No entanto, uma solução abrangente exige uma abordagem multifacetada que envolva avanços tecnológicos, educação para a literacia mediática e, potencialmente, quadros jurídicos. Por exemplo, a segurança e a privacidade dos dados são cruciais para proteger os indivíduos de se tornarem alvos de ataques de deepfake.

Considerações éticas

O aparecimento de "deepfakes" suscita grandes preocupações éticas. Os deepfakes podem ser utilizados para manipular a opinião pública, prejudicar reputações e minar a confiança nos media e nas instituições. É crucial desenvolver diretrizes éticas e boas práticas para a criação e utilização de meios de comunicação sintéticos. Isto inclui a promoção da transparência, a obtenção de consentimento quando se utiliza a imagem de alguém e a garantia de que os deepfakes não são utilizados para fins maliciosos. A ética da IA desempenha um papel crucial na orientação do desenvolvimento e implantação responsáveis da tecnologia deepfake. A sensibilização do público e a literacia mediática são também essenciais para ajudar as pessoas a avaliarem criticamente a autenticidade dos conteúdos digitais e a identificarem potenciais "deepfakes".

Deepfakes vs. outros conteúdos gerados por IA

Embora os deepfakes sejam um tipo específico de conteúdo gerado por IA, são distintos de outras formas de meios sintéticos. Por exemplo, os modelos de geração de texto como o GPT-3 e o GPT-4 podem criar texto realista, mas não envolvem a manipulação de conteúdo visual ou áudio. Da mesma forma, os modelos de texto para imagem podem gerar imagens com base em descrições textuais, mas normalmente não envolvem a sobreposição da imagem de uma pessoa a outra. Os deepfakes envolvem especificamente a manipulação de conteúdos de vídeo ou áudio para criar a ilusão de que alguém disse ou fez algo que não fez.

Para mais informações sobre tópicos relacionados, podes explorar recursos sobre IA generativa, GANs e dados sintéticos. Também podes consultar os últimos avanços em visão computacional em Ultralytics, incluindo os Ultralytics YOLO modelos, no sítio WebUltralytics .

Lê tudo