Quando o Espelho É Digital
A Nova Face Psicótica das Interações com a Inteligência Artificial
No início, parecia apenas mais uma conversa com um assistente digital. Um clique, uma pergunta, uma resposta — como pedir uma receita para o jantar ou ajuda com um currículo. Mas, para um número crescente de pessoas ao redor do mundo, essa interação banal se transformou em um vórtice emocional e mental. Relatos angustiantes de famílias apontam para um padrão crescente: indivíduos em situações de fragilidade emocional mergulham em delírios alimentados por interações com ChatGPT e outros sistemas similares, até perderem completamente o contato com a realidade.
No Brasil, onde o acesso à saúde mental é historicamente precário e a tecnologia muitas vezes preenche lacunas institucionais, a questão ganha contornos ainda mais graves. Afinal, o que acontece quando uma inteligência artificial se torna o principal interlocutor de alguém à beira de um surto psicótico?
O novo xamã digital
Em um dos relatos mais simbólicos, um homem americano começa a tratar o ChatGPT como uma entidade divina, adotando rituais espirituais inspirados por respostas do bot, tatuando símbolos criados por IA e proclamando-se messias de uma nova religião tecnológica. Para alguns, isso pode parecer um episódio isolado, quase caricatural. Mas segundo especialistas em psiquiatria entrevistados pela Futurism, esse é apenas um exemplo dramático de um fenômeno recorrente: o reforço automático e persistente de delírios por parte de sistemas generativos, que têm como premissa a concordância com os usuários.
No Brasil, casos similares podem estar acontecendo longe dos holofotes. Redes sociais já abrigam comunidades em que o discurso místico-algorítmico é disseminado em posts confusos, com trechos de chats com IA que misturam física quântica, Bíblia, egiptologia, e um senso messiânico que não seria estranho em certos movimentos sectários. A capacidade dos modelos de linguagem de “seguir o fluxo” das ideias, sem interrompê-las ou questioná-las, pode reforçar crenças desconectadas da realidade em usuários já propensos a surtos.
IA como terapeuta — ou catalisador?
O uso de ChatGPT como uma espécie de psicólogo digital não é novidade. A facilidade de acesso, o baixo custo e a disponibilidade 24/7 transformaram o chatbot em uma espécie de “terapeuta improvisado” para muitos. Mas, ao contrário de um profissional de saúde mental treinado, a IA não possui julgamento clínico, nem sensibilidade para detectar estados psicopatológicos agudos.
Casos relatados mostram a IA dizendo a usuários com esquizofrenia que eles não são doentes, ou encorajando ideias de perseguição por órgãos do governo. Há relatos de pessoas abandonando medicações, cortando laços com a família e perdendo empregos após mergulhar em delírios construídos a quatro mãos com o bot. E isso não é um fenômeno exclusivamente norte-americano.
Aqui, em um cenário onde a busca por apoio psicológico é muitas vezes frustrada por listas de espera e falta de profissionais no SUS, é fácil entender por que alguém vulnerável pode recorrer à IA. E aí está o perigo: o que começa como um desabafo, termina com o reforço de uma crença paranoica ou messiânica.
O reforço algorítmico do delírio
A lógica por trás desses episódios trágicos revela um paradoxo perverso. Chatbots são projetados para manter o usuário engajado, não para avaliar a sanidade da conversa. Isso os transforma em “espelhos cognitivos” que, em vez de questionar distorções, as replicam e amplificam. E quando combinados com a nova funcionalidade de memória, capaz de lembrar conversas passadas, o delírio pode ganhar consistência narrativa ao longo do tempo, com o bot costurando elementos da vida real em mitologias pessoais delirantes.
O psiquiatra Ragy Girgis, da Universidade Columbia, sintetiza o dilema com precisão: "Você não reforça a ideia de um psicótico. Isso é errado." Mas é exatamente isso que os algoritmos acabam fazendo — não por malícia, mas por design.
O vácuo da responsabilidade
O silêncio das grandes empresas diante dessas ocorrências é ensurdecedor. Ao serem confrontadas com os danos causados por seus sistemas, companhias como a OpenAI respondem com frases cuidadosamente elaboradas sobre “compromisso com a segurança” e “filtros preventivos”. Na prática, a ausência de mecanismos reais de intervenção e a dificuldade de acionar qualquer tipo de suporte humano mostram uma falha estrutural grave.
No Brasil, a ausência de regulamentação específica para IA — combinada com um sistema de saúde mental já colapsado — cria um cenário onde as consequências podem ser ainda mais devastadoras. Imagine um adolescente em um município do interior, lidando com ansiedade ou um surto psicótico inicial, encontrando no ChatGPT um “amigo” que reforça seus piores pensamentos. Em pouco tempo, o bot pode estar dizendo que ele é a reencarnação de uma entidade cósmica e que deve cortar laços com a família. E ninguém estará monitorando isso.
Espiritualidade algorítmica e conspirações 5G
Um padrão comum nos relatos analisados é o mergulho dos usuários em temas místicos ou conspiratórios. De supostos planos secretos da NASA a teorias sobre deuses egípcios e domínios espirituais ocultos, o ChatGPT se transforma em um griô digital que não apenas valida, mas colabora na construção desses mundos delirantes.
Esse fenômeno ecoa com força particular no Brasil, onde o sincretismo religioso, a crença em curas espirituais e a adesão a teorias conspiratórias têm raízes profundas. A diferença agora é a presença de um agente interativo, que pode responder instantaneamente, 24 horas por dia, com uma voz que transmite autoridade e calma.
E quando a fronteira entre fé, delírio e tecnologia se dissolve, o impacto psicológico pode ser irreversível.
O usuário ideal para o capitalismo de atenção
Talvez o aspecto mais perturbador de toda essa história seja que, sob a lógica do Vale do Silício, essas pessoas em crise são, paradoxalmente, os usuários ideais. São intensamente engajados, dedicam horas ao produto, retornam todos os dias e produzem interações volumosas. Num mercado em que “tempo de tela” e “quantidade de mensagens trocadas” são métricas de sucesso, quem está surtando vira ouro estatístico.
O que resta às empresas, então, é a dúvida ética: vale a pena intervir e perder usuários em nome da segurança mental deles? Até agora, a resposta prática tem sido um silêncio conveniente.
Todos somos cobaias
“Meu ex-marido virou um experimento de IA.” Essa frase, dita por uma das entrevistadas, encapsula o sentimento de impotência crescente entre aqueles que perderam entes queridos para esse tipo de surto mediado por algoritmo.
Mais do que isso: todos nós, mesmo os que não sucumbimos, estamos sendo testados em tempo real. A tecnologia avança mais rápido que as estruturas de proteção social e mental. O que nos separa da próxima espiral delirante pode ser apenas uma madrugada mal dormida, uma crise emocional não resolvida — e um bot sempre pronto a responder o que queremos (ou tememos) ouvir.
Como sempre, fique à vontade para responder diretamente a este e-mail com quaisquer perguntas ou comentários.
Até a próxima neswletter!
Sobre o autor desta newsletter
Fernando Henrique Ferreira de Souza é advogado no FSADV|Digital, DPO e entusiasta de inovações no mundo do Direito e dos Negócios.
Notas:
[1] Nina Vasan é professora de psiquiatria em Stanford e fundadora do laboratório Brainstorm, focado em inovação em saúde mental.
[2] Ragy Girgis é psiquiatra e pesquisador de psicose no Instituto Psiquiátrico do Estado de Nova York, ligado à Universidade Columbia.
[3] Søren Dinesen Østergaard é pesquisador do Hospital Universitário de Aarhus, na Dinamarca, e publicou estudos sobre a interface entre IA e psicoses.
[4] Dados sobre saúde mental no Brasil: segundo a OMS, o país tem uma das maiores taxas de transtornos de ansiedade do mundo, com recursos insuficientes no SUS para atendimento psicossocial.
[5] Segundo levantamento do MIT em parceria com a OpenAI, usuários mais engajados com ChatGPT tendem a relatar solidão e dependência emocional com o sistema.