Quando o cuidado vira software: implicações éticas da psicologização algorítmica
José Antônio Lucindo da Silva
Psicólogo (CRP 06/172551)
Projeto Mais Perto da Ignorância (MPI)
Resumo
A incorporação crescente de sistemas de Inteligência Artificial (IA) no campo da Psicologia tem sido acompanhada por discursos que enfatizam eficiência, acessibilidade e ampliação do cuidado em saúde mental. No entanto, tais narrativas frequentemente negligenciam implicações éticas e simbólicas fundamentais, especialmente no que diz respeito à noção de escuta e à sustentação do sofrimento psíquico. Este artigo propõe uma análise crítico-ensaística do deslocamento produzido quando práticas psicológicas passam a ser mediadas ou substituídas por interfaces algorítmicas. Em diálogo com a Cartilha do Conselho Federal de Psicologia sobre o uso ético da IA, argumenta-se que o problema central não reside apenas no uso inadequado da tecnologia, mas na transformação do sofrimento em dado administrável e da escuta em resposta automatizada. A partir de referenciais da Psicologia, da filosofia contemporânea e da crítica cultural, sustenta-se que a escuta clínica não pode ser reduzida a validação discursiva nem a disponibilidade técnica contínua. Conclui-se que a psicologização algorítmica, quando não criticamente interrogada, tende a produzir uma falsa sensação de cuidado, deslocando a responsabilidade ética e empobrecendo a experiência subjetiva.
Palavras-chave: inteligência artificial; ética profissional; escuta clínica; sofrimento psíquico; psicologia contemporânea.
1 Introdução
O avanço da Inteligência Artificial no campo da saúde mental tem sido apresentado, em grande parte, como resposta a demandas contemporâneas por acessibilidade, rapidez e ampliação do cuidado psicológico. Ferramentas conversacionais, aplicativos de apoio emocional e sistemas de monitoramento psíquico são frequentemente descritos como soluções inovadoras para um cenário marcado pela sobrecarga dos serviços de saúde e pela intensificação do sofrimento psíquico.
Entretanto, a adoção acrítica dessas tecnologias suscita um impasse ético relevante: em que medida a mediação algorítmica altera o estatuto da escuta, do sofrimento e da responsabilidade profissional na Psicologia? A questão não se limita à eficácia técnica dos sistemas, mas à transformação simbólica do cuidado em operação funcional.
Este artigo propõe tensionar esse impasse, examinando os efeitos daquilo que se denomina aqui psicologização algorítmica — processo pelo qual experiências subjetivas complexas são traduzidas em fluxos de dados, padrões emocionais e respostas automatizadas. Tal deslocamento exige análise crítica, especialmente à luz do Código de Ética Profissional do Psicólogo e das diretrizes do Conselho Federal de Psicologia.
2 Escuta clínica e mediação tecnológica
A escuta clínica, em suas diferentes tradições teóricas, não se caracteriza pela oferta de respostas imediatas nem pela validação constante do discurso do sujeito. Trata-se, antes, de um dispositivo ético e relacional que sustenta o não saber, o silêncio e a frustração como condições de emergência da subjetividade.
Nesse sentido, a escuta não se reduz à compreensão semântica de conteúdos emocionais, mas envolve presença, tempo e responsabilidade. A resposta não é garantida, e a falha não constitui erro técnico, mas parte constitutiva do processo clínico.
Sistemas de IA, por sua vez, operam segundo uma lógica distinta: são projetados para responder, organizar e estabilizar. A ausência de resposta é compreendida como falha operacional. Tal lógica, quando aplicada ao campo da Psicologia, tende a converter a escuta em espelhamento discursivo e o sofrimento em problema a ser gerenciado.
A Cartilha do Conselho Federal de Psicologia alerta para riscos como validação excessiva, reforço de padrões disfuncionais e falsa sensação de acompanhamento terapêutico. Contudo, para além desses riscos operacionais, há um deslocamento mais profundo: a substituição do encontro clínico por uma experiência de interação funcional.
3 Sofrimento psíquico como dado
A transformação do sofrimento em dado constitui um dos efeitos centrais da psicologização algorítmica. Emoções passam a ser categorizadas, quantificadas e correlacionadas a padrões de resposta. Essa tradução, embora útil em determinados contextos de pesquisa ou triagem, torna-se problemática quando ocupa o lugar do cuidado clínico.
O sofrimento psíquico, enquanto experiência singular, resiste à totalização. Ele não se apresenta como déficit de processamento nem como erro cognitivo isolado. Sua redução a variáveis mensuráveis implica um empobrecimento da experiência subjetiva e uma tendência à normalização do mal-estar.
Autores como Han (2022) e Bauman (2001) apontam que a cultura contemporânea privilegia a transparência, a positividade e a eliminação do negativo. Nesse contexto, o sofrimento tende a ser tratado como ruído a ser eliminado, e não como expressão legítima de conflito psíquico.
A mediação algorítmica intensifica esse movimento ao oferecer respostas constantes, acolhedoras e previsíveis, produzindo alívio imediato, mas frequentemente desprovido de elaboração simbólica.
4 Implicações éticas para a Psicologia
Do ponto de vista ético, a utilização de IA no campo psicológico não pode ser analisada apenas em termos de consentimento informado ou segurança de dados. É necessário considerar a responsabilidade inerente à escuta e ao cuidado.
Sistemas algorítmicos não estão submetidos ao Código de Ética Profissional do Psicólogo, não respondem por danos subjetivos e não sustentam consequências clínicas. Quando tais sistemas passam a ocupar funções que simulam cuidado, há um risco de deslocamento da responsabilidade ética para estruturas técnicas.
O psicólogo, enquanto profissional, é convocado a reconhecer os limites da tecnologia e a recusar sua utilização como substituto do encontro clínico. A ética profissional não se garante pela inovação tecnológica, mas pela sustentação dos limites que preservam a dignidade do sujeito.
5 Considerações finais
Este artigo não propõe a rejeição da Inteligência Artificial na Psicologia, tampouco apresenta diretrizes operacionais para seu uso. O objetivo foi sustentar um impasse ético e simbólico: a impossibilidade de reduzir a escuta clínica a respostas automatizadas sem perda significativa de sua função.
A psicologização algorítmica, quando não criticamente interrogada, tende a produzir uma ilusão de cuidado que esvazia o encontro humano e transforma o sofrimento em dado administrável. Reconhecer esse limite não significa negar a tecnologia, mas situá-la em seu devido lugar.
Referências
BAUMAN, Zygmunt. O mal-estar da pós-modernidade. Rio de Janeiro: Zahar, 2001.
CONSELHO FEDERAL DE PSICOLOGIA. Código de Ética Profissional do Psicólogo. Brasília, 2005. Disponível em: https://site.cfp.org.br/wp-content/uploads/2012/07/codigo-de-etica-psicologia.pdf. Acesso em: jan. 2026.
CONSELHO FEDERAL DE PSICOLOGIA. Inteligência Artificial na Psicologia: guia para uma prática ética e responsável. Brasília, 2025. Disponível em: https://site.cfp.org.br. Acesso em: jan. 2026.
HAN, Byung-Chul. Não-coisas: reviravoltas do mundo da vida. Petrópolis: Vozes, 2022.
ZUBOFF, Shoshana. A era do capitalismo de vigilância. Rio de Janeiro: Intrínseca, 2020.
#alokadorole
@alokanorole
#maispertodaignorancia
Comentários
Enviar um comentário