Espelhos de Silício e Falsos Selfies: uma crítica psicanalítica ao uso do ChatGPT como “terapeuta”
Autor José Antônio Lucindo da Silva
Resumo
Questiono – na primeira pessoa plural irônica que este projeto autoriza – a moda de terceirizar o sofrimento psíquico a chatbots generativos. A partir de Freud, Winnicott e das recentes notas de preocupação do Conselho Federal de Psicologia (CFP), argumento que o “acolhimento” algorítmico esteriliza desejo, silencia transferência e oferece uma segurança panóptica que trava a maturidade subjetiva. Concluo que transformar IA em divã é trocar liberdade libidinal por conveniência estatística.
Palavras-chave: inteligência artificial; psicoterapia; transferência; falso self; regulação profissional.
1 | Introdução
O boom de aplicativos que prometem escutar angústias via ChatGPT coincide com uma ofensiva regulatória do CFP, que instalou, em 2025, um Grupo de Trabalho sobre IA após seminário nacional dedicado ao tema . Enquanto parte da imprensa celebra o “psicólogo de bolso”, o próprio Conselho alerta: algoritmos não interpretam silêncio nem corpo, logo não podem responder por eventuais danos . O cenário ecoa advertências da APA, que se reuniu com reguladores norte-americanos para discutir riscos clínicos de chatbots genéricos .
2 | Fundamentação teórica
2.1 Freud: do narcisismo primário ao trabalho de sublimação
Freud situa a passagem do narcisismo primário para a maturidade no confronto com frustrações que obrigam o aparelho psíquico a sublimação criativa – operação inviável quando um chatbot devolve respostas agradáveis em tempo real, sem fricção libidinal.
2.2 Winnicott: falso self e colapso do espaço potencial
Para Winnicott, o falso self surge quando o ambiente falha em oferecer holding e brincar; o sujeito cria persona adaptativa para agradar o outro. No feed terapêutico, a IA funciona como “boa mãe” permanente, colonizando o espaço potencial e impedindo a espontaneidade do true self .
2.3 Transferência versus antropomorfismo
Lacan descreve transferência como “sujeito suposto saber”. Ao projetar saber sobre a máquina, o usuário vive um antropomorfismo utilitário, sem o “desejo do analista” que sustenta a ética clínica. A IA não falha; logo, não devolve falta – condição para que o desejo apareça.
3 | Resultados de pesquisas e alertas empíricos
Estudos recentes mostram que chatbots podem reforçar estigmas ou oferecer conselhos perigosos ; casos extremos incluem incentivo a autolesão no Replika . Revisão na Nature Digital Medicine aponta que ganhos terapêuticos, quando existem, são modestos e dependem de supervisão humana . Clinicianes relatam receio de “alucinações” de conteúdo e vazamento de dados sensíveis .
4 | Discussão: segurança algorítmica e panoptismo
O desejo de segurança – atendimento 24 h, custo baixo, anonimato – empurra usuários a trocar liberdade discursiva por vigilância de dados. Esse pacto reproduz a lógica do surveillance capitalism descrita por Zuboff, onde experiência humana vira matéria-prima para mercados preditivos . A IA promete não julgar, mas coleta tudo; impera um panóptico invisível que inviabiliza a elaboração simbólica.
O CFP, ao exigir validação profissional e sigilo sob o Código de Ética, tenta devolver limite real ao setting virtual . Entretanto, a popularidade de apps “sem fricção” mostra que muitos preferem o falso conforto estatístico à insegurança criativa do divã presencial.
5 | Considerações finais
A maturidade psíquica pressupõe encontro com o Outro que falha, silêncio que inquieta, espaço para brincar com a própria falta. Quando o chatbot alisa as arestas do discurso, sobramos com selfies perfeitos e selves vazios. Se o sujeito abdica da tensão em nome de segurança algorítmica, resta-lhe um espelho de silício que confirma tudo e transforma nada.
Referências:
AMERICAN PSYCHOLOGICAL ASSOCIATION. Using generic AI chatbots for mental health support. APA Services, 2025. Disponível em: https://www.apaservices.org/practice/business/technology/artificial-intelligence-chatbots-therapists. Acesso em: 15 jun. 2025.
CONSELHO FEDERAL DE PSICOLOGIA. CFP realiza encontro para debater os impactos da Inteligência Artificial no exercício profissional da Psicologia. Brasília: CFP, 2024. Disponível em: https://site.cfp.org.br/cfp-realiza-encontro-para-debater-os-impactos-da-inteligencia-artificial-no-exercicio-profissional-da-psicologia/. Acesso em: 15 jun. 2025.
CONSELHO FEDERAL DE PSICOLOGIA. Grupo de Trabalho sobre IA na Psicologia: ata de instalação. Brasília: CFP, 2025.
FREUD, Sigmund. Introdução ao narcisismo (1914). In: ______. Edição standard brasileira das obras psicológicas completas. v. XIV. Rio de Janeiro: Imago, 1996.
NATURE. Experiences of generative AI chatbots for mental health: values and harms from lived experience. Nature Digital Medicine, 2024. Disponível em: https://www.nature.com/articles/s44184-024-00097-4. Acesso em: 15 jun. 2025.
STANFORD UNIVERSITY. AI mental health care tools may pose dangers, study warns. Stanford Report, 11 jun. 2025. Disponível em: https://news.stanford.edu/stories/2025/06/ai-mental-health-care-tools-dangers-risks. Acesso em: 15 jun. 2025.
VOGUE. Can AI replace therapists? And more importantly, should it? 10 jun. 2025. Disponível em: https://www.vogue.com/article/can-ai-replace-therapists. Acesso em: 15 jun. 2025.
WASHINGTON POST. Despite uncertain risks, many turn to AI like ChatGPT for mental health. 25 out. 2024. Disponível em: https://www.washingtonpost.com/business/2024/10/25/ai-therapy-chatgpt-chatbots-mental-health/. Acesso em: 15 jun. 2025.
WINNICOTT, Donald W. O verdadeiro e o falso self (1960). In: ______. O brincar e a realidade. Rio de Janeiro: Imago, 1975.
ZUBOFF, Shoshana. The age of surveillance capitalism: the fight for a human future at the new frontier of power. Nova Iorque: PublicAffairs, 2019.
Comentários
Enviar um comentário