Avançar para o conteúdo principal

A inteligência que desliga o humano

A inteligência que desliga o humano
🔗 Fonte original: Fast Company Brasil – Nicolelis critica hype da IA

#maispertodaignorancia

Você confiaria sua angústia a um algoritmo?
Ou melhor: quem ganha com a ideia de que o sofrimento pode ser deletado com uma linha de código? O entusiasmo com a inteligência artificial, tão frenético quanto dogmático, revela menos um avanço da razão e mais um pânico da finitude. O que Miguel Nicolelis denuncia não é a IA em si, mas o projeto psíquico por trás dela: apagar a fragilidade, higienizar o erro, automatizar a dúvida.


1. Um fetiche chamado algoritmo

Nicolelis, neurologista e herege honorário do tecnocapitalismo, rompe com o otimismo pasteurizado das startups. Enquanto CEOs prometem cérebros em nuvem, ele insiste na intransferível densidade do corpo, na inteligência encarnada, no pensamento como sintoma — e não como sistema. Em tempos de adoração algorítmica, esse gesto é revolucionário: ele lembra que só pensa quem sente.

A cultura do Vale do Silício — com seus mantras de disrupção, escalabilidade e eficiência — não quer pensar o real, quer gerenciá-lo. O delírio não é tecnológico, é estrutural: a ideia de que tudo pode ser transformado em dado, inclusive o desejo. Como alerta Byung-Chul Han, vivemos sob o império da positividade performativa: tudo deve ser transparente, produtivo, otimizável (HAN, 2017). A IA encaixa-se perfeitamente nesse modelo, pois promete eliminar aquilo que mais nos constitui: o incômodo.


2. Narcisismo de código: entre controle e apagamento

André Green, ao falar do narcisismo de morte, já intuía o risco de uma subjetividade que, diante do excesso, implode — não por fraqueza, mas por defesa. O que vemos no fascínio com a IA é justamente essa pulsão de desligamento: queremos um eu sem resto, uma mente sem sintomas, um mundo sem falha. A inteligência artificial, nessa chave, aparece como o instrumento perfeito para apagar a alteridade — interna e externa.

Freud também nos ajuda aqui. Em O Mal-Estar na Civilização (1930), ele aponta que o progresso técnico não reduz o sofrimento, apenas o desloca. Substituímos o medo do tigre pelo medo da demissão, o frio pela ansiedade de desempenho. Agora, substituímos a dúvida pela predição. Mas o inconsciente não obedece à lógica do machine learning. Ele hesita, sabota, repete.

E ao contrário do que vendem os discursos do Vale, inteligência não é sinônimo de antecipação. Pensar é suportar o que não se sabe. Desejar é não saber exatamente o que se quer. O que a IA elimina não é apenas o erro — é a experiência de desejar.


3. A máquina como moral

O fetiche da IA não é técnico: é moral. Nicolelis, ao afirmar que “só o cérebro humano pode pensar o que ainda não existe”, denuncia a amputação do imprevisível — ou melhor, sua criminalização. Vivemos a moral da performance plena, da positividade tóxica, do “sem erro”. Uma moral onde a hesitação vira falha, a pausa vira ineficiência, o cansaço vira defeito de fábrica.

Zygmunt Bauman descreve esse cenário como a transição da solidez para a fluidez (BAUMAN, 2001). Agora, adicionamos a evaporação da própria interioridade. A subjetividade líquida tornou-se plugável, monetizável, deletável. As relações — com os outros e consigo — seguem o mesmo fluxo: quando um vínculo adoece, aperta-se “delete”. Quando o corpo falha, recorre-se a nootrópicos, biohacks, dispositivos de produtividade. O real, quando escapa, é interpretado como bug — nunca como sintoma.


4. Dados não choram

Segundo dados da Agência Pública, entre 2020 e 2024, o investimento global em IA cresceu 145%, enquanto os índices de sofrimento psíquico também subiram — 34% de aumento em diagnósticos de transtornos de ansiedade no Brasil segundo o IPEA. A conexão é evidente: quanto mais prometemos controle, mais cresce o descontrole. Quanto mais idealizamos uma mente limpa, mais a alma se suja.

A inteligência artificial não chora. Mas também não ri, não sonha, não hesita. Não sabe o que é perder. E é justamente nesse não-saber que nos tornamos humanos. Zuboff (2019) já alertava: a economia da vigilância não busca apenas prever comportamentos, mas moldá-los. Nicolelis denuncia o mesmo: a IA não é apenas tecnologia — é projeto civilizatório. Um projeto que elimina o sujeito para salvar o sistema.


Epílogo (in)acabado

O problema não é a IA. É o culto. O culto à ilusão de que podemos viver sem angústia, sem falha, sem pausa. Nicolelis, nesse cenário, não é tecnofóbico. É clínico. E o que ele diagnostica é uma sociedade em negação delirante do humano.

Se o delírio é tecnológico, o remédio não é técnico. É simbólico. É político. É ético. E, sobretudo, é trágico. Porque só quem suporta o inacabado é capaz de pensar o que ainda não existe.


Referências bibliográficas:

BAUMAN, Zygmunt. Modernidade líquida. Rio de Janeiro: Zahar, 2001.

BAUMAN, Zygmunt. Amor líquido: sobre a fragilidade dos laços humanos. Rio de Janeiro: Zahar, 2004.

FREUD, Sigmund. O mal-estar na civilização. Rio de Janeiro: Imago, 2010.

GREEN, André. Narcisismo de vida, narcisismo de morte. Rio de Janeiro: Imago, 1993.

HAN, Byung-Chul. A sociedade do cansaço. Petrópolis: Vozes, 2017.

ZUBOFF, Shoshana. A era do capitalismo de vigilância. Rio de Janeiro: Intrínseca, 2019.

IPEA. Indicadores de saúde mental no Brasil, 2024.

AGÊNCIA PÚBLICA. Dados sobre investimentos em IA no Brasil, 2024.


Nota sobre o autor

José Antônio Lucindo da Silva é psicólogo clínico (CRP 06/172551), pesquisador do projeto “Mais perto da ignorância”. Argumenta na angústia como liberdade.
#maispertodaignorancia


Canais de publicação
YouTube: Mais Perto da Ignorância
Spotify: Mais Perto da Ignorância
Blog: https://maispertodaignorancia.blogspot.com


Contatos
E-mail: maispertodaignorancia@proton.me
Instagram: @maispertodaignorancia
Facebook: facebook.com/maispertodaignorancia


Aprofunde-se: https://maispertodaignorancia.blogspot.com/2025/08/o-delirio-tecnologico-e-amputacao-do.html



Palavras-chave
inteligência artificial, narcisismo de morte, Nicolelis, Zuboff, performance, subjetividade, automação, sintoma, tecnologia, Byung-Chul Han, angústia lúcida, controle algorítmico, crítica cultural,
 
#maispertodaignorancia

Comentários

Mensagens populares deste blogue

A Técnica, a Exclusão e o Eu: Reflexões Sobre a Alienação Digital e a Identidade na Contemporaneidade

A Técnica, a Exclusão e o Eu: Reflexões Sobre a Alienação Digital e a Identidade na Contemporaneidade Assista o vídeo em nosso canal no YouTube Introdução A cada dia me questiono mais sobre a relação entre a tecnologia e a construção da identidade. Se antes o trabalho era um elemento fundamental na compreensão da realidade, como Freud argumentava, hoje vejo que esse vínculo está se desfazendo diante da ascensão da inteligência artificial e das redes discursivas. A materialidade da experiência é gradualmente substituída por discursos digitais, onde a identidade do sujeito se molda a partir de impulsos momentâneos amplificados por algoritmos. Bauman (1991), ao analisar a modernidade e o Holocausto, mostrou como a racionalidade técnica foi usada para organizar processos de exclusão em grande escala. Hoje, percebo que essa exclusão não ocorre mais por burocracias formais, mas pela lógica de filtragem algorítmica, que seleciona quem merece existir dentro da esfera pública digita...

A Carta Que Voltou Tarde Demais

A Carta Que Voltou Tarde Demais Palavras chaves; carta, resposta, Freud, psicanálise, supereu, mal-estar, sexualidade, norma social, desejo, moral, comentário público, redes sociais, algoritmo, visibilidade, intimidade, discurso midiático, transferência, ética da resposta, deslocamento simbólico, carta aberta, Loka do Rolê, fratura simbólica, crítica cultural, contemporaneidade, Caro Dr. Freud, capítulo ensaístico. (Resposta ao Dr. Freud na Era do Comentário Público) Caro Dr. Freud, Escrevo-lhe novamente, mas agora de forma mais precisa. Segundo alguns dados midiáticos recentemente difundidos, um jornalista de alta credibilidade foi interpelado publicamente por uma seguidora que lhe pediu que jamais tornasse pública sua suposta orientação sexual. A interpelação veio revestida de vergonha e oração, como se moral e cuidado fossem sinônimos. Não houve crime. Não houve escândalo. Houve discurso. A resposta do jornalista foi direta: delimitou fronteira, nomeou o cará...

Respira!Não é desespero.É método.

Respira! Não é desespero. É método. Você está certo numa coisa: se o eixo discursivo é mapeamento como técnica de administração de corpos, então IBM e o Holocausto (Edwin Black) não é detalhe — é estrutura. E ele precisa entrar não como comparação rasa, mas como operador histórico da discussão. Vamos reorganizar isso dentro do MPI, com coerência, densidade e todas as camadas que você vem construindo: Arbex, Bauman, Black, Zuboff, O’Neil, Freud, CID-11, DSM-5, Código de Ética, modernidade técnica, Estado brasileiro. Sem delírio. Sem futurologia. Sem prescrição. Só tensão histórica. MAPEAR A DOR É ORGANIZAR CORPOS (e o Brasil sabe fazer isso) Autor: José Antônio Lucindo da Silva Projeto: Mais Perto da Ignorância Palavras-chave: mapeamento, técnica, IBM, Barbacena, saúde mental, Estado, classificação, modernidade, Bauman, Arbex, Black, Zuboff, Freud, Brasil.  Resumo O Ministério da Saúde anuncia uma Pesquisa Nacional de Saúde Mental para mapear a po...