CuriosidadeNewsSegurançaTecnologia

Deepfake: Por que em 2020 ouviremos falar tanto dela?

De todos os poderes assustadores da Internet, sua capacidade de enganar os inocentes pode ser a mais assustadora. O Clickbait (que se refere à geração de receita de publicidade on-line às custas de manchetes sensacionalistas), fotos alteradas no photoshop e notícias falsas, são algumas das piores “invenções” da rede.  Nos últimos anos também houve o surgimento de uma nova ferramenta, potencialmente perigosa, conhecida como deepfake.

O termo deepfake refere-se a vídeo e áudio falsificados, gerados por computador, difíceis de distinguir de conteúdo genuíno e inalterado. Simplificando, é para um vídeo o que o Photoshop é para as fotos.

Como a inteligência artificial (IA) do deepfake funciona?

A ferramenta conta com o que chamamos de generative adversarial networks (GANs), uma técnica inventada em 2014 por Ian Goodfellow, Ph.D., estudante que agora trabalha na Apple.

O algoritmo GAN envolve duas IAs separadas, uma que gera conteúdo (que aqui chamaremos de IA gerador) e a outra adivinha se as imagens são reais ou falsas (IA adversário). A IA geradora começa com quase nenhuma ideia de como as pessoas são, o que significa que seu parceiro, o IA adversário, pode facilmente distinguir fotos verdadeiras de fotos falsas. Mas, com o tempo, cada tipo de IA melhora progressivamente e, eventualmente, a IA geradora começa a produzir conteúdo que parece perfeitamente real.

Exemplos do Deepfake

GANs são ferramentas impressionantes e nem sempre são usadas para fins maliciosos. Em 2018, uma pintura gerada pela GAN imitando o estilo holandês “Old Master” de artistas como Rembrandt van Rijn, do século XVII, foi vendida na casa de leilões da Christie’s por incríveis US$432.500.

Mas quando os GANs são treinados em arquivos de vídeo e áudio, eles podem produzir algum material realmente perturbador. Em 2017, pesquisadores da Universidade de Washington, em Seattle, treinaram uma IA para mudar um vídeo do ex-presidente Barack Obama, para que seus lábios se movessem de acordo com as palavras de um discurso totalmente diferente. O trabalho foi publicado na revista ACM Transactions on Graphics (TOG).

Outros GANs aprenderam a tirar uma única imagem de uma pessoa e a criar fotos ou vídeos alternativos bastante realistas dessa pessoa. Em 2019, um deepfake gerou filmes, digamos, espantosos, mas realistas, da Mona Lisa falando, se movendo e sorrindo em posições diferentes.

Os Deepfakes também podem alterar o conteúdo de áudio. Conforme relatado pelo The Verge no início deste ano, a técnica pode incluir novas palavras em um vídeo de uma pessoa falando, fazendo parecer que eles disseram algo que nunca pretendiam fazer.

A facilidade com que a nova ferramenta pode ser implantada tem ramificações potencialmente assustadoras. Se alguém, em qualquer lugar, pode fazer filmes realistas mostrando uma celebridade ou político falando, movendo e dizendo palavras que nunca disseram, os espectadores são forçados a ficar mais cautelosos com o conteúdo da internet.

Vale lembrar que em 2020 e 2022 teremos eleições e, cá pra nós, muitos políticos adorariam usar os deepfakes para colocar palavras na boca dos adversários. Isso significa que temos que ficar cada dia mais atentos.

Tags

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button
Close