Avançar para o conteúdo principal

Quando o cuidado vira software: implicações éticas da psicologização algorítmica

Quando o cuidado vira software: implicações éticas da psicologização algorítmica



José Antônio Lucindo da Silva
Psicólogo (CRP 06/172551)
Projeto Mais Perto da Ignorância (MPI)


Resumo

A incorporação crescente de sistemas de Inteligência Artificial (IA) no campo da Psicologia tem sido acompanhada por discursos que enfatizam eficiência, acessibilidade e ampliação do cuidado em saúde mental. No entanto, tais narrativas frequentemente negligenciam implicações éticas e simbólicas fundamentais, especialmente no que diz respeito à noção de escuta e à sustentação do sofrimento psíquico. Este artigo propõe uma análise crítico-ensaística do deslocamento produzido quando práticas psicológicas passam a ser mediadas ou substituídas por interfaces algorítmicas. Em diálogo com a Cartilha do Conselho Federal de Psicologia sobre o uso ético da IA, argumenta-se que o problema central não reside apenas no uso inadequado da tecnologia, mas na transformação do sofrimento em dado administrável e da escuta em resposta automatizada. A partir de referenciais da Psicologia, da filosofia contemporânea e da crítica cultural, sustenta-se que a escuta clínica não pode ser reduzida a validação discursiva nem a disponibilidade técnica contínua. Conclui-se que a psicologização algorítmica, quando não criticamente interrogada, tende a produzir uma falsa sensação de cuidado, deslocando a responsabilidade ética e empobrecendo a experiência subjetiva.

Palavras-chave: inteligência artificial; ética profissional; escuta clínica; sofrimento psíquico; psicologia contemporânea.


1 Introdução

O avanço da Inteligência Artificial no campo da saúde mental tem sido apresentado, em grande parte, como resposta a demandas contemporâneas por acessibilidade, rapidez e ampliação do cuidado psicológico. Ferramentas conversacionais, aplicativos de apoio emocional e sistemas de monitoramento psíquico são frequentemente descritos como soluções inovadoras para um cenário marcado pela sobrecarga dos serviços de saúde e pela intensificação do sofrimento psíquico.

Entretanto, a adoção acrítica dessas tecnologias suscita um impasse ético relevante: em que medida a mediação algorítmica altera o estatuto da escuta, do sofrimento e da responsabilidade profissional na Psicologia? A questão não se limita à eficácia técnica dos sistemas, mas à transformação simbólica do cuidado em operação funcional.

Este artigo propõe tensionar esse impasse, examinando os efeitos daquilo que se denomina aqui psicologização algorítmica — processo pelo qual experiências subjetivas complexas são traduzidas em fluxos de dados, padrões emocionais e respostas automatizadas. Tal deslocamento exige análise crítica, especialmente à luz do Código de Ética Profissional do Psicólogo e das diretrizes do Conselho Federal de Psicologia.


2 Escuta clínica e mediação tecnológica

A escuta clínica, em suas diferentes tradições teóricas, não se caracteriza pela oferta de respostas imediatas nem pela validação constante do discurso do sujeito. Trata-se, antes, de um dispositivo ético e relacional que sustenta o não saber, o silêncio e a frustração como condições de emergência da subjetividade.

Nesse sentido, a escuta não se reduz à compreensão semântica de conteúdos emocionais, mas envolve presença, tempo e responsabilidade. A resposta não é garantida, e a falha não constitui erro técnico, mas parte constitutiva do processo clínico.

Sistemas de IA, por sua vez, operam segundo uma lógica distinta: são projetados para responder, organizar e estabilizar. A ausência de resposta é compreendida como falha operacional. Tal lógica, quando aplicada ao campo da Psicologia, tende a converter a escuta em espelhamento discursivo e o sofrimento em problema a ser gerenciado.

A Cartilha do Conselho Federal de Psicologia alerta para riscos como validação excessiva, reforço de padrões disfuncionais e falsa sensação de acompanhamento terapêutico. Contudo, para além desses riscos operacionais, há um deslocamento mais profundo: a substituição do encontro clínico por uma experiência de interação funcional.


3 Sofrimento psíquico como dado

A transformação do sofrimento em dado constitui um dos efeitos centrais da psicologização algorítmica. Emoções passam a ser categorizadas, quantificadas e correlacionadas a padrões de resposta. Essa tradução, embora útil em determinados contextos de pesquisa ou triagem, torna-se problemática quando ocupa o lugar do cuidado clínico.

O sofrimento psíquico, enquanto experiência singular, resiste à totalização. Ele não se apresenta como déficit de processamento nem como erro cognitivo isolado. Sua redução a variáveis mensuráveis implica um empobrecimento da experiência subjetiva e uma tendência à normalização do mal-estar.

Autores como Han (2022) e Bauman (2001) apontam que a cultura contemporânea privilegia a transparência, a positividade e a eliminação do negativo. Nesse contexto, o sofrimento tende a ser tratado como ruído a ser eliminado, e não como expressão legítima de conflito psíquico.

A mediação algorítmica intensifica esse movimento ao oferecer respostas constantes, acolhedoras e previsíveis, produzindo alívio imediato, mas frequentemente desprovido de elaboração simbólica.


4 Implicações éticas para a Psicologia

Do ponto de vista ético, a utilização de IA no campo psicológico não pode ser analisada apenas em termos de consentimento informado ou segurança de dados. É necessário considerar a responsabilidade inerente à escuta e ao cuidado.

Sistemas algorítmicos não estão submetidos ao Código de Ética Profissional do Psicólogo, não respondem por danos subjetivos e não sustentam consequências clínicas. Quando tais sistemas passam a ocupar funções que simulam cuidado, há um risco de deslocamento da responsabilidade ética para estruturas técnicas.

O psicólogo, enquanto profissional, é convocado a reconhecer os limites da tecnologia e a recusar sua utilização como substituto do encontro clínico. A ética profissional não se garante pela inovação tecnológica, mas pela sustentação dos limites que preservam a dignidade do sujeito.


5 Considerações finais

Este artigo não propõe a rejeição da Inteligência Artificial na Psicologia, tampouco apresenta diretrizes operacionais para seu uso. O objetivo foi sustentar um impasse ético e simbólico: a impossibilidade de reduzir a escuta clínica a respostas automatizadas sem perda significativa de sua função.

A psicologização algorítmica, quando não criticamente interrogada, tende a produzir uma ilusão de cuidado que esvazia o encontro humano e transforma o sofrimento em dado administrável. Reconhecer esse limite não significa negar a tecnologia, mas situá-la em seu devido lugar.


Referências

BAUMAN, Zygmunt. O mal-estar da pós-modernidade. Rio de Janeiro: Zahar, 2001.

CONSELHO FEDERAL DE PSICOLOGIA. Código de Ética Profissional do Psicólogo. Brasília, 2005. Disponível em: https://site.cfp.org.br/wp-content/uploads/2012/07/codigo-de-etica-psicologia.pdf. Acesso em: jan. 2026.

CONSELHO FEDERAL DE PSICOLOGIA. Inteligência Artificial na Psicologia: guia para uma prática ética e responsável. Brasília, 2025. Disponível em: https://site.cfp.org.br. Acesso em: jan. 2026.

HAN, Byung-Chul. Não-coisas: reviravoltas do mundo da vida. Petrópolis: Vozes, 2022.

ZUBOFF, Shoshana. A era do capitalismo de vigilância. Rio de Janeiro: Intrínseca, 2020.

#alokadorole
@alokanorole
#maispertodaignorancia

Comentários

Mensagens populares deste blogue

A Técnica, a Exclusão e o Eu: Reflexões Sobre a Alienação Digital e a Identidade na Contemporaneidade

A Técnica, a Exclusão e o Eu: Reflexões Sobre a Alienação Digital e a Identidade na Contemporaneidade Assista o vídeo em nosso canal no YouTube Introdução A cada dia me questiono mais sobre a relação entre a tecnologia e a construção da identidade. Se antes o trabalho era um elemento fundamental na compreensão da realidade, como Freud argumentava, hoje vejo que esse vínculo está se desfazendo diante da ascensão da inteligência artificial e das redes discursivas. A materialidade da experiência é gradualmente substituída por discursos digitais, onde a identidade do sujeito se molda a partir de impulsos momentâneos amplificados por algoritmos. Bauman (1991), ao analisar a modernidade e o Holocausto, mostrou como a racionalidade técnica foi usada para organizar processos de exclusão em grande escala. Hoje, percebo que essa exclusão não ocorre mais por burocracias formais, mas pela lógica de filtragem algorítmica, que seleciona quem merece existir dentro da esfera pública digita...

A Carta Que Voltou Tarde Demais

A Carta Que Voltou Tarde Demais Palavras chaves; carta, resposta, Freud, psicanálise, supereu, mal-estar, sexualidade, norma social, desejo, moral, comentário público, redes sociais, algoritmo, visibilidade, intimidade, discurso midiático, transferência, ética da resposta, deslocamento simbólico, carta aberta, Loka do Rolê, fratura simbólica, crítica cultural, contemporaneidade, Caro Dr. Freud, capítulo ensaístico. (Resposta ao Dr. Freud na Era do Comentário Público) Caro Dr. Freud, Escrevo-lhe novamente, mas agora de forma mais precisa. Segundo alguns dados midiáticos recentemente difundidos, um jornalista de alta credibilidade foi interpelado publicamente por uma seguidora que lhe pediu que jamais tornasse pública sua suposta orientação sexual. A interpelação veio revestida de vergonha e oração, como se moral e cuidado fossem sinônimos. Não houve crime. Não houve escândalo. Houve discurso. A resposta do jornalista foi direta: delimitou fronteira, nomeou o cará...

Respira!Não é desespero.É método.

Respira! Não é desespero. É método. Você está certo numa coisa: se o eixo discursivo é mapeamento como técnica de administração de corpos, então IBM e o Holocausto (Edwin Black) não é detalhe — é estrutura. E ele precisa entrar não como comparação rasa, mas como operador histórico da discussão. Vamos reorganizar isso dentro do MPI, com coerência, densidade e todas as camadas que você vem construindo: Arbex, Bauman, Black, Zuboff, O’Neil, Freud, CID-11, DSM-5, Código de Ética, modernidade técnica, Estado brasileiro. Sem delírio. Sem futurologia. Sem prescrição. Só tensão histórica. MAPEAR A DOR É ORGANIZAR CORPOS (e o Brasil sabe fazer isso) Autor: José Antônio Lucindo da Silva Projeto: Mais Perto da Ignorância Palavras-chave: mapeamento, técnica, IBM, Barbacena, saúde mental, Estado, classificação, modernidade, Bauman, Arbex, Black, Zuboff, Freud, Brasil.  Resumo O Ministério da Saúde anuncia uma Pesquisa Nacional de Saúde Mental para mapear a po...