Vivemos uma transformação profunda no regime da verdade. Durante grande parte do século XX, a imagem funcionava como testemunha. Fotografias, gravações e vídeos tinham peso probatório. Podiam ser manipulados, é verdade, mas ainda carregavam autoridade simbólica.

A ascensão da inteligência artificial altera essa equação. Hoje, qualquer imagem pode ser fabricada. E, sobretudo, qualquer imagem pode ser declarada falsa. Esse deslocamento produz o que pesquisadores chamam de liar’s dividend — o “dividendo do mentiroso”: quando a simples existência de tecnologias de falsificação permite que culpados desacreditem provas autênticas. A IA não precisa criar a mentira; basta tornar a dúvida plausível.

Nesse cenário, surge uma hipótese inquietante: informações altamente comprometedoras tornam-se politicamente administráveis quando duas condições estão presentes — o poder já está suficientemente consolidado e a tecnologia permite questionar a veracidade das provas.

A era da IA cria exatamente esse ambiente. Se registros audiovisuais vierem a público — especialmente em casos que envolvem elites políticas ou econômicas —, a resposta defensiva já está pronta: “é deepfake”. Há dez anos, essa alegação soaria frágil. Hoje, encontra respaldo técnico e cultural.

No caso de Jeffrey Epstein, parte significativa do material divulgado ao longo dos anos consiste em e-mails e registros documentais. Observadores apontam lacunas temporais e a ausência de certos tipos de registros, como vídeos — embora seja amplamente reportado que suas propriedades possuíam sistemas de vigilância. A hipótese de que materiais audiovisuais mais comprometedores possam existir — e que sua eventual divulgação seja neutralizada pela alegação de manipulação digital — ilustra, de forma exemplar, o funcionamento estrutural do “dividendo do mentiroso”.

Não é necessário provar uma coordenação deliberada para reconhecer o problema. Basta compreender que o ambiente tecnológico atual oferece uma nova camada de blindagem.

A IA, porém, não atua isoladamente. Ela opera dentro de um ecossistema digital desenhado para maximizar engajamento, velocidade e choque. As plataformas não favorecem contemplação, investigação ou persistência moral. A sucessão contínua de escândalos gera saturação.

Esse processo é politicamente devastador. As pessoas podem não negar a gravidade de crimes cometidos por elites, mas passam a se acostumar com a ausência de consequências. A transição não é da negação para a aceitação; é da indignação para a normalização da impunidade.

Hannah Arendt descreveu a “banalidade do mal” como a capacidade de sistemas políticos transformarem o horror em rotina administrativa. Hoje, enfrentamos algo próximo: a banalização digital do escândalo.

Atos que antes provocariam rupturas institucionais passam a coexistir com ciclos acelerados de atenção pública. A exposição já não garante responsabilização. Quando crimes de guerra, violência extrema ou abusos sistemáticos são amplamente divulgados e, ainda assim, não resultam em consequências proporcionais, instala-se uma pedagogia perigosa: a mensagem deixa de ser “isso não aconteceu” e passa a ser “isso aconteceu — e nada mudou”.

Essa é a etapa mais crítica da erosão moral: não a negação, mas a indiferença aprendida.

A blindagem contemporânea das elites opera hoje em, pelo menos, três níveis interligados. No plano tecnológico, a evidência pode ser desqualificada pela alegação de deepfake, instaurando uma suspeita permanente sobre imagens, áudios e documentos. No plano narrativo, produz-se quase instantaneamente uma contra-narrativa capaz de disputar sentidos antes mesmo que os fatos se consolidem. No plano psicossocial, instala-se uma dinâmica de saturação informacional e fadiga moral, em que o excesso de versões e estímulos gera apatia, descrença e paralisia coletiva.

A inteligência artificial atravessa e intensifica esses três níveis. Ela fornece o argumento técnico — “pode ser falso” —, acelera a guerra narrativa e contribui para o colapso da confiança pública. Nesse contexto, a responsabilização deixa de depender apenas da existência de provas e passa a depender da capacidade coletiva de sustentar atenção e convicção moral.

O estágio mais perigoso não é a conspiração, mas a normalização. Pode parecer impensável que atos sádicos ou crimes contra crianças se tornem “normais”. Mas normalização não significa aprovação explícita. Significa integração ao pano de fundo do mundo — algo que choca menos a cada repetição e deixa de mobilizar transformação. A cultura digital acelera esse processo: o horror se converte em mais um conteúdo no fluxo.

Ainda assim, há um ponto decisivo: a tecnologia não elimina a agência moral.

Sistemas políticos se transformam não apenas por estruturas, mas pela persistência de indivíduos e pequenos grupos que se recusam a se aclimatar. A história mostra que mudanças profundas frequentemente começam com minorias moralmente obstinadas.

Quando a cultura política se inclina à resignação, a resistência pode parecer inútil. Mas a fidelidade a princípios éticos tem um efeito contagioso. Ela cria ilhas de consistência em meio à ambiguidade. Se a IA inaugura uma era de dúvida estrutural, a resposta não pode ser apenas técnica. Precisa ser ética.

Rima Awada Zahra é libanesa-brasileira, psicóloga, escritora e coordenadora da pós-graduação do curso de Psicologia e Migração da PUC Minas. Organizou e traduziu o livro Sumud em tempos de genocídio, da psiquiatra palestina Dra. Samah Jabr, e traduziu Diários de Gaza, ambos pela editora Tabla.