O diretor Jordan Peele (Oscar de roteiro por “Corra!”) disseminou um vídeo em que Barack Obama aparece xingando Donald Trump com um termo chulo (“deepshit”). Só um problema: o vídeo é falso.

Foi gerado por técnicas de inteligência artificial —e dublado por— Peele que cada vez mais permitem sintetizar imagens e vídeos indistintos do que chamamos de realidade.

Esse fenômeno é chamado de “deepfake” (falsificação profunda). Quem acha que o tempo das “fake news” está passando precisa pensar melhor. Peele soltou o vídeo justamente para alertar sobre a popularização e o barateamento dessas novas ferramentas.

O que torna esse tema especialmente grave é que confiamos em imagens e em vídeos. Estamos culturalmente programados a aceitar o que vemos com nossos próprios olhos como real. Essa confiança pode agora ser abusada.

O pesquisador Giorgio Patrini dá em seu site um exemplo estarrecedor. Ele publicou quatro fotos de pessoas diferentes, perguntando para os leitores qual seria a imagem “falsa”.

Para a surpresa de quem vê as imagens, a resposta é que todas são falsas. E mais importante: nenhuma daquelas pessoas retratadas nas fotos existe.

Os rostos foram sintetizados digitalmente, utilizando aprendizado de máquina, e são indistinguíveis da imagem de pessoas reais.

O que faltou discutir na semana passada quando o vídeo de Peele viralizou é como combater as “deepfakes”.Hoje, as ferramentas de análise forense de vídeos e imagens são facilmente enganadas por esse tipo de técnica.

Em outras palavras, se for preciso provar que uma imagem dessa natureza é falsa, há chance grande de a perícia ser inconclusiva.

Com isso, há dois enfoques principais sendo propostos como antídoto ao fenômeno. O primeiro é utilizar a própria inteligência artificial para detectar se uma imagem ou vídeo é falso. Esse enfoque fazia muito sentido até pouco tempo atrás.

A questão é que surgiu um novo método que transforma o antídoto em veneno. Chamado GAN (acrônimo de “redes adversárias generativas”), ele faz com que a criação de uma técnica para identificar imagens falsas com inteligência artificial contribua para tornar as falsificações ainda mais perfeitas. Com um GAN os falsificadores poderão aperfeiçoar sua técnica, tornando a identificação do que é falso ainda mais difícil.

O outro enfoque é o uso de blockchain para certificação da captação de imagens virtuais. Em outras palavras, toda imagem captada diretamente da realidade, com celulares ou câmeras profissionais, seria registrada num arquivo global, imutável e acessível em qualquer parte do mundo, certificando que aquela imagem é “real”.

O problema desse enfoque é que ele é extremamente difícil de implementar. Além disso, qualquer edição na imagem ou no vídeo (por exemplo, colocando um filtro) tornaria a “certidão de realidade” inválida.

Essas duas estratégias são insatisfatórias. Até o momento, são o que há de mais concreto para combater “deepfakes”. Se eu fosse pessimista, diria que estamos lascados. Como sou otimista, tenho confiança de que a inventividade humana irá superar também esse abacaxi.

Já era ‘Deepfakes’ para gerar vídeos do ex-presidente Obama

Já é ‘Deepfakes’ para transformar os atores e atrizes de todos os filmes em Nicholas Cage

Já vem O primeiro caso de uso político de ‘deepfakes’ em áudio, imagem ou vídeo



DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here