Notícia | IA com Direitos | Plataformas e Mercados Digitais
‘Nudes’ falsos, deepfake e jingles sintéticos marcam uso da IA no primeiro turno e apontam desafios para 2026
A criação de imagens falsas com rostos de candidatos, casos de “deepnudes” e geração de jingles de forma sintética marcaram o uso de inteligência artificial na primeira fase da disputa eleitoral municipal no Brasil. O temor de que a IA virasse munição para casos massivos de desinformação não se concretizou. Especialistas ouvidos pelo GLOBO alertam, no entanto, que o pleito é uma espécie de “laboratório” para 2026, em que o cenário pode ser mais desafiador.
Um relatório do “Observatório IA Nas Eleições”, coordenado pelo Data Privacy Brasil, o Aláfia Lab e o desinformante, mapeou seis usos predominantes da inteligência artificial nesse primeiro turno, incluindo vídeos sintéticos gerados pelos próprios candidatos e material de campanha que foi criado por IA, especialmente entre candidatos com poucos recursos.
—O temor de uso massivo de IA não se concretizou. Isso não significa que não houve uso. Um dos pontos do relatório foi mostrar que, apesar de não ter sido usada em grande escala e ter impacto reduzido em relação a outras campanhas de desinformação, essas tecnologias foram aplicadas tanto por candidatos quanto pelo eleitorado — diz Matheus Soares, um dos pesquisadores que faz parte do Observatório.
Soares avalia que, para as eleições presidenciais de 2026, a IA deve estar mais integrada a ferramentas e com recursos mais avançados, o que pode mudar o cenário em uso eleitoral.
Marco Aurelio Ruediger, diretor da Escola de Comunicação, Mídia e Informação da Fundação Getulio Vargas (FGV Comunicação Rio) concorda que a tecnologia não teve um impacto tão significativo em casos de desinformação até aqui, em parte porque o pleito municipal é pulverizado, diz. Ele também avalia que isso pode mudar em 2026, a exemplom do que houve em outros países:
— Em uma eleição presidencial, como já vimos em países como Argentina e Índia, o uso de IA tende a ser muito mais difundido. O custo de oportunidade é diferente em campanhas majoritárias, e isso deve tornar a tecnologia mais presente — avalia.
‘Deepnudes’ miraram candidatas em SP
O documento do grupo relata casos diversos de desinformação com deepfakes, as imagens realistas geradas por IA. Em Manaus, três semanas antes do primeiro turno, moradores do bairro Monte Sinai receberam nas redes sociais um trecho do Jornal Nacional em que o apresentador William Bonner indicava voto num candidato a vereador. O modelo do vídeo falso poderia ser replicado para outros candidatos.
Campanhas de desinformação desse tipo foram feitas em cidades maiores também. Um vídeo criado por apoiadores de Pablo Marçal (PRTB) com ajuda de IA mostrou um suposto abraço dele e de Tabata Amaral (PSD) durante um debate televisivo, sugerindo uma conciliação do ex-coach com a adversária.
Na Justiça Eleitoral, as deepfakes (por imagem e áudio) viraram alvo de ações. Um dos casos que entrou na jurisprudência dos tribunais eleitorais ocorreu em Canindé de São Francisco, no Sergipe, em que um vídeo postado em um grupo de WhatsApp usou uma voz gerada por IA para acusar falsamente um pré-candidato de má gestão. A Justiça determinou a remoção do conteúdo e aplicou multa ao responsável.
Confira a matéria completa escrita por Juliana Causin no site do O Globo.
DataPrivacyBr Research | Conteúdo sob licenciamento CC BY-SA 4.0