Cursos ensinam a lucrar com deepfakes de Lula e Bolsonaro – 26/07/2025 – Poder

Cursos ensinam a lucrar com deepfakes de Lula e Bolsonaro – 26/07/2025 – Poder

“Chega de só reclamar de política! Transforme sua indignação em conteúdo que milhares vão assistir e compartilhar.”

A promessa estampa anúncios de cursos que ensinam a criar vídeos políticos com inteligência artificial (IA) e, com eles, a lucrar nas redes sociais.

As aulas vêm com instruções na lógica “copiou, colou, gerou” para que as IAs produzam os conteúdos. Os “prompts virais” têm caracterizações como “pele envelhecida, rugas e a icônica barba branca” para o presidente Lula (PT) e “sobrancelhas levemente franzidas e lábios contraídos, enfatizando intensidade e tensão” para o ex-presidente Jair Bolsonaro (PL).

Entre as dicas oferecidas, também estão a substituição de palavras sensíveis e o uso do Grok, IA de Elon Musk. Isso porque o chatbot integrado à rede social X (ex-Twitter) gera imagens realistas de famosos, enquanto a maioria das outras IAs bloqueia tais aparições.

Testes realizados pela Folha mostraram que o Sora, modelo de geração de vídeos da OpenAI, dona do ChatGPT, também produz imagens com rostos de agentes públicos.

Procurada, a OpenAI afirmou ter barreiras adicionais para vídeos de candidatos políticos e proibir o uso da ferramenta para campanhas, “incluindo a geração de materiais de campanha personalizados ou direcionados a grupos demográficos específicos”.

A empresa disse permitir “usos valiosos como educação, sátira e comentários políticos” e que monitora gerações dentro e fora da plataforma. Pessoas famosas que preferem que seus rostos não sejam inseridos em vídeos gerados por IA devem falar diretamente com a OpenAI.

“Figuras públicas que desejam que sua representação fotorrealista não seja gerada podem entrar em contato conosco”, disse um porta-voz da empresa.

A xAI não respondeu aos pedidos de contato.

A reportagem participou de dois cursos de geração de vídeos com IA. Um deles, o “Escola da IA”, cobra cerca de R$ 300 e dá acesso a videoaulas, prompts e participação em um grupo de WhatsApp de ex-alunos com mais de 140 integrantes.

Outro curso, o “VEO3 Dark”, vendido por R$ 20, entrega um sistema que analisa se os vídeos podem ser bloqueados por plataformas como X, Instagram e TikTok. O usuário recebe alertas específicos sobre trechos que podem gerar suspensão ou remoção do conteúdo.

Existem alguns caminhos possíveis para a criação dos vídeos ensinados nos cursos. Um deles começa em pedir para que o ChatGPT, com base em notícias de jornal, faça as descrições de cenas que serão retratadas.

Esses roteiros são transferidos para as IAs que produzem as imagens, e as cenas estáticas viram vídeos com som por meio de outras ferramentas —uma hora de trabalho por vídeo.

O Veo3, modelo do Google que cria vídeos com áudio diretamente a partir de texto, reduz o processo para poucos minutos. Há um porém: ele funciona apenas com rostos genéricos e mostra sensibilidade a menções de figuras conhecidas até mesmo quando elas não estão sendo retratadas.

Durante demonstração acompanhada pela reportagem, um instrutor tentou criar uma cena em que militantes pediam “queremos mortadela”, com menção a Lula. O comando foi negado. A solução foi substituir o nome do petista por “polvo” na peça satírica.

O Sora, da OpenAI, não produz vídeos com áudio. Em suas políticas, a ferramenta da empresa de Sam Altman afirma que proíbe a geração de vídeos que usem a imagem de qualquer pessoa (incluindo políticos) sem consentimento. A empresa também diz que usa classificadores multimodais para analisar texto, imagens e vídeos para bloquear conteúdo eleitoral enganoso.

No caso do Grok, de Elon Musk, “o ‘system prompt’ [instrução interna que o modelo lê antes de responder] diz explicitamente que ele não é censurado e busca a ‘verdade máxima’, mesmo sendo politicamente incorreto”, afirma Pedro Burgos, consultor em IA e professor do Insper.

A xAI, empresa responsável pelo desenvolvimento do Grok, afirmou no início de julho que fez ajustes na tecnologia após o sistema apresentar respostas com conteúdos antissemitas e de exaltação a Adolf Hitler.

Para Burgos, Musk identificou demanda na comunidade tecnológica por modelos menos restritivos. “O Grok faz o oposto das outras empresas. Eles acham que os concorrentes se preocupam demais com moderação”, diz.

O PT aderiu aos vídeos com IA no final de junho para promover a taxação “BBB” (bilionários, bets e bancos) após o Congresso barrar o aumento do IOF (Imposto sobre Operações Financeiras).

Mais recentemente, para defender sua narrativa em meio à crise da sobretaxa imposta pelo presidente dos EUA, Donald Trump, ao Brasil, o partido investiu milhares de reais para impulsionar vídeos do tipo.

Integrantes do centrão têm se queixado dos conteúdos, mas o barateamento da produção tornou o fenômeno irreversível, de acordo com especialistas.

“Deepfake não é sinônimo de conteúdo criado para causar dano. Existem muitos artistas que usam o recurso para sátiras e até shows. O problema está em enganar”, afirma Beatriz Farrugia, professora da Faap (Fundação Armando Álvares Penteado) e pesquisadora de desinformação da Agência Lupa.

A lei brasileira ainda não prevê punições específicas para deepfakes. Segundo Patrícia Peck, advogada especialista em direito digital, a produção pode ser enquadrada em crimes contra a honra, crimes sexuais ou estelionato, “dependendo do conteúdo e da intenção”.

O TSE (Tribunal Superior Eleitoral) definiu a regulação do uso da IA nos contextos eleitorais e a vedação de uso de deepfakes por parte de partidos e candidatos em propaganda eleitoral oficial. Para Peck, “o responsável pela divulgação de propaganda eleitoral irregular na internet, mesmo não sendo candidato, é parte legítima para responder à representação”.

O criador de conteúdo digital Matheus Delalibera, 30, é o dono do Escola da IA. Ele é a favor de sinalizar quando o conteúdo é gerado por IA, “principalmente para os mais velhos, que não conseguem diferenciar o que é do que não é” real.

“Eu não quero nunca que usem o curso para o mal”, diz o dono da plataforma.

Segundo ele, os alunos são majoritariamente homens —mais velhos buscando soluções para negócios e jovens querendo viralizar com humor. Os conteúdos ofertados no Escola da IA vão desde a criação de deepfakes satíricos até a clonagem do próprio rosto para empreendedores que visam potencializar vendas.

Burgos, do Insper, se mostra cético quanto ao uso malicioso da tecnologia por parte das campanhas nas eleições de 2026. Ele cita o exemplo de Pablo Marçal (PRTB), denunciado no Ministério Público Eleitoral por divulgação de laudo médico falso contra Guilherme Boulos (PSOL) em 2024, quando os dois concorreram à Prefeitura de São Paulo.

A Justiça cassou o mandato do vereador Rubinho Nunes (União Brasil) por repostar o documento falso. Marçal está inelegível por outros episódios.

“A tecnologia já existia em outras eleições, e campanhas associadas a conteúdo fraudulento têm muito a perder”, diz Burgos.

A Folha tentou entrar em contato por meio de redes sociais com os responsáveis pelo curso VEO3 Dark, mas não recebeu resposta até a publicação desta reportagem.

Fonte Original do Artigo: redir.folha.com.br

Postagens Relacionadas

‘Não significa ausência de dor’

‘Não significa ausência de dor’

Na última semana, as publicações e comentários feitos por Gominho nas redes sociais após a morte de Preta Gil chamaram a…
Palmeiras bate o Grêmio e cola em Cruzeiro e Flamengo no Brasileirão

Palmeiras bate o Grêmio e cola em Cruzeiro e…

Cinco jogos na noite do sábado (26) abriram a 17ª rodada do Campeonato Brasileiro. O destaque ficou por conta do Palmeiras,…
Israel reduz restrições à entrada de comida em partes de Gaza sob expectativa da população: 'Não é suficiente'

Israel reduz restrições à entrada de comida em partes…

Palestinos deslocados internamente tentam pegar sacos de farinha de um caminhão de ajuda próximo a um ponto de distribuição de alimentos…