Deepfakes com Lula, Moro e Dilma alertam para risco nas eleições

Leia mais

Evandro Oliveira
Evandro Oliveira
PÓS GRADUADO EM GESTÃO E DIREÇÃO ESCOLAR; ESPECIALISTA EM "POLÍTICAS DA IGUALDADE RACIAL NA ESCOLA", SABERES AFRICANOS E AFRO-BRASILEIROS NA AMAZÕNIA - PELA UNIVERSIDADE FEDERAL DO PARÁ (UFPA); GRADUADO CIÊNCIAS SOCIAIS COM ÊNFASE EM SOCIOLOGIA - UFPA; ATUA COMO PROFESSOR DE FILOSOFIA E SOCIOLOGIA NA REDE PÚBLICA E COMO PROFESSOR NO ENSINO SUPERIOR E CURSOS PRÉ-VESTIBULARES.
Deepfakes, como o nome sugere – algo como “mentira profunda”, em tradução livre -, é uma categoria de farsa que vai além das fake news tradicionais

Cada vez mais sofisticadas, técnicas de deepfake e deepdubs colocam na boca de pré-candidatos à Presidência frases que, na verdade, eles nunca proferiram. Muitas vezes, em lugares onde eles também não estiveram. Exemplo recente é um vídeo do ex-presidente Luiz Inácio Lula da Silva (PT) dizendo amar paçoca e abrindo um pote do doce, conteúdo que ganhou projeção nas redes nesta quinta-feira, 24. O “detalhe”, como a própria postagem explica, é que o líder petista não falou nada daquilo, e tudo não passou de uma farsa criada em computador.

O criador da peça, o jornalista e pesquisador de deepfake Bruno Sartori, relata na publicação ter usado a tecnologia para inserir o rosto de Lula no corpo de outra pessoa e transferir o timbre de sua voz para a fala original. Ele já compartilhou outros exemplos em seu perfil, como um vídeo que simula o pré-candidato Sérgio Moro (Podemos) recitando um poema satírico e um homem falando com a exata voz da ex-presidente Dilma Rousseff. Procurado pela reportagem, Sartori não quis se manifestar.

Deepfakes, como o nome sugere – algo como “mentira profunda”, em tradução livre -, é uma categoria de farsa que vai além das fake news tradicionais. Diferentemente do que ocorre nas montagens tradicionais, os personagens retratados aparecem em vídeos e podem gesticular, falar e inclusive imitar a voz das vítimas – nesse caso, a técnica se chama deepdub.

Os conteúdos são feitos por meio de inteligência artificial. Para desavisados, é muito difícil distinguir o que é real do que é falso – uma dica é se atentar para certa estranheza nas expressões faciais, discrepâncias no tom da pele, entre outras minúcias.

Segundo o pesquisador Anderson Soares, chefe do centro de inteligência artificial da Universidade Federal de Goiás (UFG), dois fatores criam o ambiente perfeito para a disseminação de deepfakes. Primeiro, o avanço das ferramentas digitais e o amadurecimento da tecnologia nos últimos anos. Segundo, o fato de haver vídeos e áudios disponíveis em abundância para que o computador recolha os dados de aparência e voz de que precisa.

Soares afirma que a tendência é que a técnica se popularize e passe a estar disponível mesmo para quem não trabalha com tecnologia nos próximos anos. Via aplicativo de celular, por exemplo – alguns já existem, como o Reface App. “Em breve, qualquer pessoa vai conseguir produzir um vídeo ou voz falsa, é questão de pouco tempo”.

Entretanto, o pesquisador argumenta que o melhor caminho não é proibir o uso da ferramenta. Ela pode ser útil para melhorar a dublagem de filmes, por exemplo, e bani-la afetaria a competitividade do Brasil no ramo da tecnologia. “O caminho é que os órgãos competentes tenham agilidade para coibir práticas antiéticas, sobretudo no que diz respeito às eleições, e a sociedade precisa ser educada para reconhecer vídeos falsos”, afirma.

Na campanha eleitoral de 2018, o então candidato a governador João Doria (PSDB) foi alvo de uma deepfake. À época, passou a circular nas redes um vídeo com cenas de sexo envolvendo seis mulheres e um homem, que na gravação foi identificado como sendo o tucano. O material foi explorado por adversários para enfraquecê-lo na disputa.

“Hoje eu vi um vídeo vergonhoso nas redes sociais, que foi produzido por alguém que só quer o meu mal e o mal da minha família. Uma produção grotesca. Fake news. Pedi a um perito criminal que verificasse essas imagens. Pedi também medidas judiciais e criminais contra os autores desse vídeo. Lamento muito que a campanha em São Paulo tenha chegado a esse nível de ferir a nossa família”, disse o tucano naquela ocasião.

Não é difícil, hoje, encontrar esse tipo de montagem envolvendo políticos na internet. Um caso famoso foi o que simulou o presidente Jair Bolsonaro (PL) elogiando as vacinas. Outro mostra o rosto do presidente no personagem mexicano Chapolim Colorado. Também há um exemplo em que o chefe do Executivo canta a canção “Admirável Gado Novo”, de Zé Ramalho; Silvio Santos já apresentou o Jornal Nacional; Lula já cantou uma música de Pabllo Vittar; e até o ex-presidente americano Donald Trump já chamou Bolsonaro de “Bolsolino”.

Questiona sobre como se prepara para enfrentar vídeos falsos, a equipe de Lula afirmou que não comenta estratégias de comunicação.

VOZ DO PARÁ: Essencial todo dia!

- Publicidade -spot_img

More articles

- Publicidade -spot_img

Últimas notíciais