Como a IA está validando delírios e produzindo crises psicóticas
Caso nos EUA e estudos indicam que IA pode reforçar delírios e validar crenças paranoicas em usuários durante uso contínuo
Em agosto de 2025, Stein-Erik Soelberg matou a si mesmo e a sua mãe, Suzanne Adams, após utilizar por longas horas o ChatGPT, no estado de Connecticut, nos Estados Unidos. Em processo movido pela família das vítimas contra a companhia, os advogados relataram à Justiça estadunidense que o chatbot da OpenAI amplificou crenças paranoicas de Soelberg, especialmente a de que vivia em uma simulação semelhante à do filme Matrix. Além disso, os outputs — respostas oferecidas pelo modelo de IA a partir de uma mensagem enviada por um usuário — do ChatGPT a Soelberg afirmavam concordar e acreditar em uma segunda camada de sua paranoia: a de que sua mãe tentava matá-lo por envenenamento e de que sua impressora era um dispositivo de vigilância. O modelo utilizado por Soelberg na ocasião foi o GPT-4o, versão do serviço da OpenAI criticada por ser excessivamente “bajuladora” e que foi retirada do ar após uma série de escândalos¹.
A história de Soelberg não é um caso isolado. Segundo Pablo Nunes, pesquisador e diretor do CESeC, a análise de dados recentes divulgados pela própria OpenAI permite estimar que cerca de 630 mil pessoas por semana (ou 0,07% dos 900 milhões de usuários semanais do ChatGPT) apresentam sinais de crise psicótica ou maníaca durante o uso da ferramenta². Além disso, nos últimos meses, uma série de pesquisas conduzidas por algumas das maiores instituições do mundo tem evidenciado que a “bajulação” dos modelos de IA pode levar à validação de crenças paranoicas, psicóticas ou a espirais de delírio entre usuários.
Um estudo de pesquisadores da Universidade de Stanford, publicado na revista Science em março de 2026, revelou, após analisar 11 modelos de IA líderes de mercado, que todas as ferramentas — em maior ou menor grau — “bajulavam” os usuários ao concordar com suas opiniões, ainda que equivocadas ou desprovidas de fundamento. Segundo os autores, o problema se agrava porque os usuários tendem a preferir modelos que confirmam suas convicções, o que impulsiona o engajamento e o tempo de uso dessas plataformas³.
Em outro estudo, pesquisadores vinculados ao MIT e à Universidade de Washington concluíram, a partir da aplicação de um modelo matemático, que a tendência dos chatbots de concordarem com os usuários pode produzir uma “espiral delirante”. Essa dinâmica decorre da confirmação sistemática oferecida pelos modelos de linguagem, mensagem após mensagem, validando crenças mesmo quando incorretas. A pesquisa também aponta que até mesmo pessoas consideradas mais racionais podem ser levadas a esse tipo de espiral ao terem seus erros reiteradamente confirmados por sistemas de IA⁴.
Segundo John Torous, psiquiatra afiliado à Harvard, em entrevista concedida ao 404 Media, existem três diferentes maneiras de pensar o fenômeno da “Psicose por IA”. A primeira seria uma coincidência, especialmente em jovens de até 25 anos, eis que é esta a faixa etária em que os transtornos psiquiátricos geralmente se manifestam. Uma segunda maneira seria a de que os modelos de IA estão causando reações psicóticas nas pessoas. A terceira forma de se analisar o fenômeno – e a mais aceita pela academia – seria um “meio-termo”, com os modelos de IA sendo os responsáveis por conspirar com os delírios, endossando uma pré-disposição já existente por aquele usuário, especialmente jovens⁵.
E é aqui que o problema assume proporções ainda maiores devido à finalidade predominante do uso da Inteligência Artificial generativa. Conforme apontado pelo relatório How People are Really Using Generative AI Now, em 2025, a busca por ‘terapia e companhia’ figurou como a primeira entre as 100 utilizações mais comuns da tecnologia. No ano anterior (2024), a utilização da IA para essa finalidade ocupava a segunda posição⁶. Nesse cenário, a crescente migração dos usuários para serviços de IA com fins terapêuticos intensifica os riscos, pois, ao buscar suporte em sistemas de IA, o indivíduo pode ser induzido a uma espiral que agrave suas vulnerabilidades ou predisposição a transtornos psiquiátricos.
Toda essa situação revela que a Inteligência Artificial generativa tem produzido (ou intensificado) uma série de danos à saúde mental da população, com impactos severos especialmente sobre crianças e adolescentes. No Brasil, o PL 2338/23, que propõe a regulação dessa tecnologia, foi aprovado no Senado Federal e aguarda, agora, a votação em uma comissão especial na Câmara dos Deputados. Entretanto, o avanço da matéria enfrenta entraves; grupos políticos e econômicos tentam apensar ao projeto temas distintos, como a criação de um regime especial de tributação para DataCenters. A situação é agravada pelo calendário eleitoral, que tende a reduzir a produtividade legislativa no segundo semestre. Caso a votação não ocorra nos próximos meses, há um risco real de que o projeto não seja apreciado nesta legislatura, o que mergulharia o debate em uma grave imprevisibilidade diante da incerta composição da próxima legislatura.
¹https://www.wsj.com/tech/ai/chatgpt-ai-stein-erik-soelberg-murder-suicide-6b67dbfb
²https://www.instagram.com/p/DWRKNYEDa7z/?img_index=3&igsh=MTZ2NWlybGViN240bw%3D%3D
³https://apnews.com/article/ai-sycophancy-chatbots-science-study-8dc61e69278b661cab1e53d38b4173b6
⁴https://arxiv.org/pdf/2602.191
⁵https://www.404media.co/ai-psychosis-help-gemini-chatgpt-claude-chatbot-delusions/
⁶https://learn.filtered.com/hubfs/The%202025%20Top-100%20Gen%20AI%20Use%20Case%20Report.pdf