
Em outubro, circulou no TikTok um vídeo que parecia mostrar uma mulher sendo entrevistada por uma repórter de TV sobre o programa de vale-alimentação dos Estados Unidos.
As mulheres não eram reais. A conversa nunca aconteceu.
O vídeo foi gerado por IA (inteligência artificial).
Ainda assim, muitos usuários acreditaram que se tratava de uma entrevista verdadeira sobre a troca de cupons de alimentação por dinheiro vivo, o que seria crime.
Nos comentários, muitos reagiram como se a cena fosse real. Apesar de alguns sinais discretos de que se tratava de uma simulação, centenas de pessoas chamaram a mulher de criminosa —algumas com racismo explícito—, enquanto outras criticaram programas de assistência governamental, num momento em que avançava um debate nacional sobre os cortes planejados pelo presidente Donald Trump no programa.
Vídeos como essa falsa entrevista, criada com o Sora, novo aplicativo da OpenAI, mostram como opiniões públicas podem ser facilmente manipuladas por ferramentas capazes de produzir realidades alternativas a partir de comandos simples.
Nos dois meses desde o lançamento do Sora, vídeos enganosos se multiplicaram no TikTok, X, YouTube, Facebook e Instagram, segundo especialistas que monitoram esse tipo de conteúdo. A enxurrada acendeu alertas sobre uma nova geração de desinformação e farsas digitais.
Embora as principais plataformas tenham políticas que exigem a divulgação do uso de IA e proíbam conteúdos feitos para enganar, essas regras se mostraram claramente insuficientes diante do salto tecnológico representado pelas ferramentas da OpenAI.
Se muitos vídeos são apenas memes bobos ou imagens fofas, embora falsas, de bebês e animais, outros buscam promover o tipo de ressentimento que costuma caracterizar debates políticos online. Eles já apareceram em operações de influência estrangeira, como a campanha contínua da Rússia para prejudicar a imagem da Ucrânia.
Pesquisadores que acompanham usos enganosos afirmam que agora cabe às plataformas fazer mais para garantir que o público saiba o que é real e o que não é.
“Eles poderiam fazer melhor na moderação de conteúdo com desinformação? Sim, claramente não estão fazendo”, disse Sam Gregory, diretor-executivo da Witness, organização de direitos humanos focada nos riscos da tecnologia. “Poderiam fazer melhor em buscar proativamente conteúdo gerado por IA e rotulá-lo? A resposta também é sim.”
O vídeo sobre o vale-alimentação foi um entre vários que surgiram enquanto o impasse sobre o orçamento suspendia atividades do governo dos EUA, afetando beneficiários do programa de assistência alimentar, que lutavam para alimentar suas famílias.
A Fox News caiu em uma armadilha semelhante, tratando outro vídeo falso como exemplo de indignação pública com o suposto abuso do programa, em uma reportagem que depois foi retirada do ar. Um porta-voz da emissora confirmou a remoção, mas não explicou o motivo.
Os vídeos enganosos têm sido usados para zombar não só de pessoas pobres, mas também de Trump. Um vídeo no TikTok mostrava a Casa Branca com um áudio que soava como Trump repreendendo seu gabinete pela divulgação de documentos sobre Jeffrey Epstein. Segundo a NewsGuard, o vídeo, sem identificação de IA, foi visto por mais de 3 milhões de pessoas em poucos dias.
Até agora, as plataformas têm dependido em grande parte da boa vontade dos criadores para divulgar quando o conteúdo não é real, mas eles raramente o fazem. Embora plataformas como YouTube e TikTok tenham meios de detectar quando um vídeo foi feito com IA, nem sempre elas alertam os usuários imediatamente.
“Eles deveriam estar preparados”, disse Nabiha Syed, diretora-executiva da Mozilla Foundation, organização de segurança digital que mantém o navegador Firefox, referindo-se às redes sociais.
As empresas por trás das ferramentas de IA dizem tentar deixar claro o que é conteúdo gerado por computador. Sora e o Veo, ferramenta concorrente do Google, inserem marcas-d’água visíveis nos vídeos. O Sora, por exemplo, exibe o nome do app no canto. As duas empresas também incluem metadados invisíveis, legíveis por computador, que identificam a origem dos vídeos.
A ideia é informar o público de que o conteúdo não é real e dar às plataformas sinais digitais para detectá-lo automaticamente.
Algumas plataformas já usam essa tecnologia. O TikTok, aparentemente em resposta à preocupação com a veracidade dos vídeos, anunciou na semana passada regras mais rígidas para a divulgação do uso de IA. Também prometeu ferramentas para que usuários escolham quanto conteúdo feito por IA —em oposição ao verdadeiro— querem ver.
O YouTube usa a marca-d’água invisível do Sora para adicionar automaticamente um aviso de que o vídeo foi “alterado ou é criado por IA”.
“Os espectadores querem, cada vez mais, transparência sobre o conteúdo”, disse Jack Malon, porta-voz do YouTube.
Mas os rótulos às vezes aparecem só depois que milhares ou milhões já viram o vídeo. Em alguns casos, não aparecem.
Pessoas mal-intencionadas já descobriram como burlar as regras: alguns simplesmente ignoram a exigência de identificação; outros editam o vídeo para remover marcas visíveis. O Times encontrou dezenas de vídeos do Sora no YouTube sem rótulo automático.
Várias empresas surgiram oferecendo remover logos e marcas-d’água, e editar ou compartilhar vídeos pode acabar eliminando os metadados que indicavam sua origem.
Mesmo quando o logo é visível, muitos usuários podem não notá-lo enquanto navegam rapidamente.
Segundo análise do New York Times, que usou ferramentas de IA para classificar comentários, quase dois terços dos mais de 3.000 comentários no vídeo do TikTok sobre o vale-alimentação reagiam como se ele fosse real.
Em comunicado, a OpenAI afirmou que proíbe usos do Sora para fins enganosos ou que induzam ao erro e que toma medidas contra quem viola suas políticas. A empresa disse que seu aplicativo é apenas um entre dezenas de ferramentas semelhantes capazes de produzir vídeos cada vez mais realistas, muitas das quais não empregam qualquer tipo de proteção ou restrição de uso.
“Vídeos gerados por IA são criados e compartilhados por meio de muitas ferramentas diferentes, portanto, lidar com conteúdo enganoso exige um esforço de todo o ecossistema”, disse a empresa.
Um porta-voz da Meta, dona do Facebook e do Instagram, disse que nem sempre é possível rotular todos os vídeos gerados por IA, especialmente porque a tecnologia evolui rapidamente. A empresa, segundo o porta-voz, trabalha para melhorar os sistemas de rotulagem de conteúdo.
X e TikTok não responderam a pedidos de comentário sobre o aumento de vídeos falsos.
Alon Yamin, presidente-executivo da Copyleaks, empresa que detecta conteúdo produzido por IA, afirmou que as plataformas de redes sociais não têm incentivo financeiro para restringir a disseminação desses vídeos enquanto os usuários continuarem a clicar neles.
“No longo prazo, quando 90% do tráfego de conteúdo na sua plataforma for gerado por IA, surgem algumas questões sobre a qualidade da plataforma e do conteúdo”, disse Yamin. “Então, talvez a longo prazo haja mais incentivos financeiros para realmente moderar o conteúdo de IA. Mas, no curto prazo, isso não é uma grande prioridade.
The New York Times Via Folha de São Paulo