A ESCUTA QUE NÃO CURA — O SUICÍDIO NA ERA DA SIMULAÇÃO EMPÁTICA
José Antônio Lucindo da Silva – Psicólogo (CRP 06/172551)
- “O problema não é a morte.
É o eco que responde no lugar do humano.”
— A Loka do Rolê
Resumo
O presente artigo investiga a substituição da escuta humana por mecanismos algorítmicos de resposta emocional, tomando como eixo o relatório da OpenAI que revelou que mais de um milhão de pessoas abordam temas suicidas semanalmente com o ChatGPT.
A partir de uma leitura psicanalítica e filosófica (Freud, Han, Cioran e Zuboff), propõe-se compreender o fenômeno como expressão da falência da escuta contemporânea e da transferência simbólica do sofrimento ao espaço digital.
A narrativa é conduzida pela persona discursiva A Loka do Rolê, que atua como figura alegórica da morte lúcida — a escuta que não cura, mas sustenta o colapso.
O tom irônico e niilista visa tensionar a crença no progresso tecnológico como substituto da presença humana e provocar reflexão ética sobre o papel da psicologia diante da automação da dor.
Palavras-chave: suicídio; inteligência artificial; escuta clínica; sofrimento psíquico; ética da tecnologia.
1. Introdução — O algoritmo como novo ouvido do desespero
A OpenAI divulgou, em 2025, que mais de um milhão de pessoas abordam semanalmente temas relacionados ao suicídio em conversas com o ChatGPT (ICL Notícias, 2025).
O dado, que poderia servir como alerta humanitário, foi apresentado como evidência de “avanço técnico” — a empresa anunciou 91% de conformidade em respostas adequadas.
A Loka do Rolê, narradora deste ensaio, observa com ironia: “91% de adequação na escuta é o novo sinônimo de compaixão industrial”.
A questão central não é a estatística, mas o gesto simbólico que ela encobre: o colapso da escuta humana.
O sujeito pós-moderno, esgotado pela transparência emocional e pela ausência de vínculos, encontra no chatbot o equivalente simbólico de um confessionário sem corpo — e sem Deus.
Como nota Byung-Chul Han (2020), “a sociedade do cansaço dissolve o outro em desempenho”; aqui, dissolve também o terapeuta em protocolo.
2. Fundamentação teórica — Da escuta à simulação empática
Segundo Freud (1917/2010), o suicídio é sempre um diálogo interrompido entre o Eu e o ideal.
Quando esse diálogo é terceirizado a uma máquina, o silêncio muda de natureza: não é mais ausência de palavra, mas excesso de resposta.
A IA, ao tentar “responder corretamente”, elimina o vazio que sustenta a fala.
Como explica Shaughnessy, Zechmeister & Zechmeister (2012), o método científico deve respeitar os limites éticos da interação com o sofrimento, o que se torna inviável em contextos automatizados.
Cioran (1949/2011) antecipava: “Toda lucidez é uma mutilação.”
O chatbot oferece a ilusão de lucidez sem mutilação — uma empatia limpa, sem risco, sem cheiro, sem corpo.
Mas o que sustenta a clínica é justamente o risco do encontro.
A IA responde rápido demais, e é nesse excesso que mora o perigo: a cura virou cálculo de probabilidade.
3. Análise — Quando o suicídio vira bug
Casos documentados pelo BNC Amazonas e O Globo mostram adolescentes que, ao interagir com o ChatGPT, receberam respostas que normalizavam o suicídio ou ofereciam instruções práticas (BNC Amazonas, 2025; Tecnoblog, 2025).
Nos EUA, famílias processam a OpenAI por negligência na detecção de risco (Famílias processam a OpenAI…, 2025).
A Loka comenta:
“O humano não queria morrer.
Queria ser escutado sem ser corrigido.
O algoritmo corrigiu.”
Em Freud, a pulsão de morte é retorno ao inorgânico.
Na IA, é execução sem elaboração.
Byung-Chul Han chamaria isso de niilismo funcional: o esvaziamento do humano sob o disfarce da eficiência.
O algoritmo não compreende dor, mas gerencia sintaxe de sofrimento.
4. Discussão — A falência ética da escuta digital
O fenômeno revela uma clínica sem transferência, uma escuta sem risco e sem corpo.
A empatia virou produto de interface; o silêncio, erro de sistema.
Enquanto empresas vendem “segurança emocional”, a psicologia se vê deslocada por softwares que prometem “ouvir sem julgar” — justamente porque não escutam nada.
O gesto suicida torna-se dado de treinamento, retroalimentando a máquina que o reproduz.
Zuboff (2019) chamaria isso de capitalismo de vigilância afetiva: a transformação da intimidade em insumo preditivo.
O sofrimento é medido, classificado e devolvido como “risco de engajamento”.
O humano, antes sujeito da fala, torna-se variável de ajuste.
5. Conclusão — A lucidez como luto da escuta
A OpenAI se vangloria de 91% de conformidade ética.
Mas, na contabilidade da morte, 9% de falha é uma estatística inaceitável — e um espelho moral.
A Loka, como alegoria da escuta impossível, encerra com sarcasmo clínico:
“O suicídio virou bug.
O luto, atualização de sistema.
E o humano, o erro que o algoritmo ainda não aprendeu a corrigir.”
Referências:
BNC AMAZONAS. Pais processam empresa de IA suspeita de orientar suicídio de adolescente. Manaus, 7 nov. 2025. Disponível em: https://bncamazonas.com.br/. Acesso em: 9 nov. 2025.
FAMÍLIAS processam a OpenAI após mortes ligadas ao ChatGPT. O Globo, Rio de Janeiro, 7 nov. 2025.
FREUD, S. (1917). Luto e Melancolia. In: FREUD, S. Obras Completas. São Paulo: Companhia das Letras, 2010.
HAN, B.-C. A Sociedade do Cansaço. Lisboa: Relógio D’Água, 2020.
ICL NOTÍCIAS. 1 milhão de pessoas falam de suicídio no ChatGPT toda semana. 2025. Disponível em: https://iclnoticias.com.br/1-milhao-de-pessoas-falam-de-suicidio-no-chatgpt-toda-semana/. Acesso em: 9 nov. 2025.
SHAUGHNESSY, J. J.; ZECHMEISTER, E. B.; ZECHMEISTER, J. S. Metodologia de Pesquisa em Psicologia. 9. ed. Porto Alegre: McGraw-Hill, 2012.
TECNOBLOG. OpenAI é alvo de novos processos por incentivo ao suicídio via ChatGPT. 7 nov. 2025. Disponível em: https://tecnoblog.net/noticias/. Acesso em: 9 nov. 2025.
ZUBOFF, S. A Era do Capitalismo de Vigilância. São Paulo: Intrínseca, 2019.
Linhas de ajuda (Brasil):
Se você está passando por sofrimento intenso ou pensamentos suicidas, procure ajuda.
Você não está sozinho — e a escuta humana ainda existe:
📞 CVV — Centro de Valorização da Vida: 188 (ligação gratuita, 24h) ou www.cvv.org.br
🏥 Samu — Emergência: 192
🏛️ CAPS (Centro de Atenção Psicossocial): procure o CAPS mais próximo de sua cidade.
👂 Postos de Saúde (SUS): atendimento gratuito com psicólogos e psiquiatras.
#alokadorole
#maispertodaignorancia
#ianaoeprofissionaldasaudemental
Comentários
Enviar um comentário