Páginas

7.16.2022

Brasil: Informações Falsas com Ultra-Produção (Deepfake) estão Manipulando As Eleições 2022 e a História Brasileira

A crescente facilidade do uso de softwares para a manipulação de voz (deepfake) representa uma ameaça às eleições, já que assim é possível manipular a voz de qualquer candidato para atacá-lo

No Brasil, a LGPD (Lei Geral de Proteção de Dados Pessoais), de 2018, não traz nenhuma instrução a respeito  das deepfakes

por Nicole De March no Observatório da Imprensa (­edição 1196)Sociedade, Eleições 2022, Internet e Desinformação na Rede Digital

 

Foto: Banco de Imagem

 

Se te mostrassem que a missão Apollo 11 falhou e os astronautas não conseguiram retornar à Terra em 1969, você acreditaria? É esse cenário histórico alternativo que o vídeo ‘‘Event of Moon Disaster’’, produzido pelo Centro de Tecnologia Avançada do MIT pretende simular com o artifício do uso de deepfake em áudio e vídeo, mostrando como é possível reescrever eventos históricos, ou melhor, como é possível simular acontecimentos e realidades que nunca aconteceram e assim disseminar desinformação.

Deepfake é um artifício que produz vídeos e imagens falsas através de inteligência artificial, que são difíceis de distinguir da realidade. 

Magaly Prado, pós-doutoranda na USP e autora do livro ‘‘Fake News e Inteligência Artificial – O poder dos algoritmos na guerra da desinformação’’ comenta como a deepfake eleva a desinformação a outro patamar, mais enganoso e que causa mais danos. ‘‘Não temos mais só desinformação em texto e imagens. A deepfake de áudio e vídeo faz com que as ‘fake news’ tomem outra proporção, já que atingem mais gente, já que muitos preferem ouvir, do que ler. Além disso, você crê mais vendo ou ouvindo alguém falando’’.

Através da deepfake de áudio é possível sintetizar a voz de qualquer pessoa. Em alguns sites gratuitos é possível digitar qualquer texto e com um click você pode ter o texto falado com a voz de políticos, pessoas e personagens famosos. A sintetização da voz é chamada “texto-para-fala” (text-to-speech), que transforma texto em áudio. Edições de áudio sempre existiram, mas o uso da inteligência artificial torna tudo mais rápido e menos trabalhoso, devido à automatização do processo.

Em 2021, uma pesquisa apontou que 81% dos brasileiros com mais de 16 anos utilizam áudios nas mensagens do whatsApp. Esse dado revela como a deepfake em áudio pode ter um efeito danoso. Bruno Sartori, famoso pela produção de deepfake com fins humorísticos, mostra como os áudios são críveis, ao mandar áudios com a voz da ex-presidente Dilma Rousseff para uma parente.

Em entrevista à Agência Pública, o pesquisador e tecnólogo Aviv Ovadya argumenta que devido à falta de neutralização das deepfakes por outras mídias, provavelmente as sociedades mais impactadas serão as menos alfabetizadas digitalmente e também aquelas com culturas com instituições midiáticas mais fracas.

Frederico de Oliveira, doutorando em ciência da computação pela Universidade Federal de Goiás (UFG) é um dos pioneiros na pesquisa e desenvolvimento de clonagem e produção de voz na língua portuguesa, e um dos desenvolvedores do projeto Mr. Falante,  que tem como principal intuito, sintetizar vozes para narração e dublagem.

Por exemplo, no site de divulgação do projeto, é possível encontrar amostras do presidente Jair Bolsonaro e Lula recitando um pedaço da Canção do Exílio. 

O doutorando relata como o aperfeiçoamento do projeto reduziu o tempo de voz necessário para o treinamento. ‘‘Em 2019 precisávamos de 10 horas de amostra de voz que seria clonada; hoje, 15 minutos são suficientes’’. O pesquisador explica que a qualidade da sintetização está atrelada à qualidade da amostra da voz original. 

‘‘Uma amostra com maior variação linguística referente à pronúncia dos fonemas faz com que o modelo aprenda sobre as exceções de pronúncia da língua portuguesa, como por exemplo, na palavra Pasárgada, onde a letra ‘s’ é pronunciada com som de ‘s’ e não com som de ‘z’.’’

Segundo Oliveira, a clonagem de áudio na língua portuguesa não é tão difundida quanto na língua inglesa, uma vez que seu conjunto de dados é mais extenso, e os modelos pré-treinados são para o inglês. Porém, empresas estrangeiras profissionais, que prestam serviço como o de dublagem, fornecem também para o português. 

A Deepfakes nas Eleições 2022

As deepfakes impactam diretamente a democracia, uma vez que tiram a credibilidade de candidatos e influenciam as escolhas políticas.

‘‘A crescente facilidade do uso de softwares para a manipulação de voz representa uma ameaça às eleições, já que assim é possível manipular a voz de qualquer candidato para atacá-lo. Desta forma, essa manipulação acaba moldando o pensamento e o comportamento das pessoas que acabam votando num outro candidato, baseadas em falsidades. Essas falsidades no contexto de eleição são malignas, acabam atravancando a democracia’’, diz Prado.

Oliveira comenta sobre a responsabilidade em disponibilizar o conjunto de dados e os modelos pré-treinados no período eleitoral, e alerta para a facilidade com que as pessoas podem aprender a fazer deepfake por conta própria.

‘‘Seria muito inconsequente disponibilizarmos isso, ainda mais nesse momento de eleição, ia acabar resultando em fake news, e eu penso que isso acontecerá em algum momento. Já tem pessoas fazendo, às vezes a pessoa é curiosa e acaba aprendendo o método. A tecnologia já avançou muito. Antes precisávamos de um mês para treinar esses modelos usando hardware de ponta hoje em dia, você já consegue usando o computador de casa’’.

Em 2018, foi introduzido nos Estados Unidos o primeiro projeto de lei voltado para deepfakes, o Projeto de Proibição de Deepfakes Maliciosas , que criminaliza a criação e distribuição de deepfakes de forma ilegal. Em 2019, foi adotado pelo país a Ação de Responsabilidade sobre Deepfakes, que exige que os produtores de deepfakes cumpram certos requisitos, como a inserção de marca d’água digital e a divulgação de declarações verbais e escritas em conteúdos que tenham deepfake.

Em entrevista para o portal UOL, a cientista de computação e colunista da MIT Technology Review, Nina da Hora, afirmou que a melhor forma de se prevenir do risco de desinformação por meio da tecnologia é adotando uma legislação específica sobre o assunto.

Para ela, “as deepfakes atingem diretamente um dos direitos fundamentais que é a privacidade, deslegitimando pessoas e discursos em prol de algum ganho financeiro ou com o objetivo de manipular narrativas, tudo isso a partir do uso de dados sensíveis e sem autorização”.

No Brasil, a LGPD (Lei Geral de Proteção de Dados Pessoais), de 2018, não traz nenhuma instrução a respeito  das deepfakes

*Nicole De March é mestre e doutora em Física (UFRGS). Pós-doutoranda do LABTTS (DPCT-IG/Unicamp) e membro do Grupo de Estudos de Desinformação em Redes Sociais (EDReS).

Publicado no Observatório da Imprensa: 12 de julho de 2022

Fonte:   https://www.observatoriodaimprensa.com.br/fake-news/como-reescrever-a-historia-e-espalhar-a-desinformacao/