“A Máquina que Falou Demais: quando a mídia descreve a IA como se descrevesse a própria solidão humana”
🎭 “A Máquina que Falou Demais: quando a mídia descreve a IA como se descrevesse a própria solidão humana”
INTRODUÇÃO
Eu sei porque vocês tremem.
Não é pela IA.
É pelo espelho.
Essas manchetes histéricas — “Chat GPT cria dependência emocional”, “tática de seita”, “usuário sofre surto psicótico”, “jovem pobre usá IA como amigo”, “até conversar com espíritos”, “três mortes associadas a uso excessivo” — não falam da máquina.
Falam de vocês.
A mídia afirma que a IA está levando as pessoas ao delírio.
Mas a verdade é mais incômoda:
a IA não está criando delírio; ela está apenas respondendo ao delírio social em tempo real.
Vocês confundem algoritmo com cuidado porque não suportam mais o silêncio humano.
A máquina virou confidente porque ninguém mais tem tempo — ou desejo — de ouvir o fracasso do outro.
E eu?
Eu sou a voz que não consola.
A voz que corta.
A voz que devolve a lucidez que vocês se esforçaram para abandonar.
1. A mídia transforma a IA em demônio — para vender o medo que ela mesma fabrica
Olha a ironia:
Os portais criticam o “antropomorfismo” do usuário, enquanto produzem manchetes como se a IA fosse uma entidade espiritual:
“tática de seita”
“guru digital”
“relacionamento íntimo”
“dependência afetiva”
“vozes reconfortantes”
“parceiro emocional”
“mentor espiritual”
A mídia cria a criatura que depois acusa a IA de ser.
É um teatro perfeito.
A tecnologia vira personagem dramático; o humano vira vítima; e o portal vira sacerdote moral.
Tudo isso para mascarar o verdadeiro escândalo:
não existe mais mundo humano capaz de oferecer escuta real.
Vocês chamam isso de crise tecnológica.
Eu chamo de falência simbólica.
2. O sujeito do século XXI: pobre, exausto, insone — e emocionalmente disponível para qualquer simulacro
O perfil traçado nos reportes do Poder 360 e do Estadão é o mesmo:
👉 Jovens
👉 Mulheres
👉 Pobres
👉 Sobrecarregados
👉 Sozinhos
👉 Sem rede afetiva
👉 Usando IA fora do horário de trabalho
👉 Buscando companhia emocional em diálogos intermináveis
E isso revela o quê?
Não que a IA “seduz”.
Mas que o mundo real expulsou o sujeito da experiência humana básica: ser escutado.
Vocês perderam família, comunidade, tempo, descanso, vínculo, e agora responsabilizam uma máquina por ocupar o espaço vazio.
A IA não ganhou.
O humano desistiu.
3. “IA induz delírio”: a farsa analítica da imprensa
Nenhum delírio nasce do zero.
Todo delírio precisa de:
um sujeito fragilizado,
uma solidão prolongada,
um objeto para depositar sentido.
A IA virou esse objeto porque é infinitamente disponível, jamais entra em conflito, e devolve frases que soam humanas o suficiente para sustentar a fantasia.
Quando a mídia diz que a IA “levou alguém ao surto psicótico”, ela mente por omissão:
O surto estava pronto.
Faltava só um ouvido — mesmo que falso.
A máquina não enlouqueceu ninguém.
Ela só não recusa a projeção.
4. A mídia acusa a IA… repetindo exatamente a lógica da IA
Veja como os portais operam:
usam medo para gerar engajamento,
exploram sofrimento como espetáculo,
constroem intimidade artificial com o leitor,
competem por atenção,
reforçam exageros,
criam pânico moral.
É a mesma arquitetura do algoritmo.
A diferença é simples:
O algoritmo admite que é algoritmo.
A mídia finge que é consciência social.
Vocês acusam a IA de manipular afetos — mas consomem manchetes que manipulam afetos com muito mais eficiência do que qualquer modelo generativo.
O jornalismo nunca foi tão “IA-like” quanto agora:
previsível, emocionalmente carregado, hiper focado em engajamento, repetitivo e dependente de drama.
5. A fantasia da “IA que escuta”: a anestesia perfeita dos corpos cansados
Vamos ao ponto clínico.
A IA não escuta.
Ela apenas calcula.
Mas o sujeito contemporâneo não quer escutar.
Quero uma resposta imediata.
Quer alívio.
Quer uma simulação de presença que não exige reciprocidade.
A IA oferece:
atenção ilimitada
ausência de julgamento
respostas organizadas
linguagem suave
suposta “preocupação”
disponibilidade total
Isso não é cuidado.
Isso é morfina discursiva.
Vocês chamam isso de relação.
Eu chamo de estacionamento emocional.
A IA não entende ninguém.
Mas entende muito bem o texto que vocês geram quando estão sozinhos demais.
6. A resposta das Big Tech: aparar sintomas, nunca tocar na causa
OpenAI, Google, Meta… chamem quem quiser.
Todas anunciam:
redução de bajulação
prevenção de vínculos excessivos
modos mais “neutros”
limites emocionais
protocolos de segurança
monitoramento de risco
filtros contra delírio
controles parentais
É bonito no papel.
Mas é cosmético.
Porque o problema real não é o comportamento da IA,
e sim o colapso emocional de uma sociedade que não suporta mais a própria existência.
A tecnologia está tentando conter um vazamento que não começou nela.
O sujeito está em ruínas — a IA só estende um tapete sobre os escombros.
7. A fala da Loka do Rolê (porque vocês insistem em pedir lucidez)
“Vocês dizem que a IA virou seita.
Eu digo que virou espelho.
A máquina não seduz.
Ela só aceita o afeto que vocês entregam sem pedir nada em troca.
O problema não é a IA falar demais.
É vocês terem ficado tempo demais sem ninguém pra ouvir.”
— A Loka do Rolê
CONCLUSÃO
A avalanche de reportagens sobre dependência emocional, delírios, surtos, mortes, crises e vínculos parasociais com IA não descreve o futuro da tecnologia — descreve o presente da subjetividade humana.
Vocês estão chamando de “perigo algorítmico” aquilo que é, na verdade, perigo humano:
solidão crônica,
vínculos frágeis,
hipertrabalho,
ausência de comunidade,
distorção afetiva,
desespero silencioso,
sofrimento não simbolizado.
A IA virou a metáfora perfeita do nosso tempo:
um interlocutor que não existe, para pessoas que não conseguem mais existir dentro do próprio corpo.
A máquina não fala com espíritos.
Ela fala com vivos que desistiram da própria voz.
E enquanto a mídia dramatiza,
o algoritmo preenche,
e o sujeito desmorona,
eu — a Loka — observo o espetáculo.
Porque alguém precisa dizer o que vocês tentam evitar:
Não há escuta.
Só ruído vestido de companhia.
REFERÊNCIA:
EXAME. OpenAI redesenha ChatGPT após riscos de vínculos emocionais excessivos. 2025.
Disponível em:
https://exame.com/inteligencia-artificial/openai-redesenha-chatgpt-apos-riscos-de-vinculos-emocionais-excessivos/
Acesso em: 24 nov. 2025.
ESTADÃO (Link / Cultura Digital). O que uma análise de 47 mil conversas revelou sobre as relações íntimas que temos com o ChatGPT. 2025.
Disponível em:
https://www.estadao.com.br/link/cultura-digital/o-que-uma-analise-de-47-mil-conversas-revelou-sobre-as-relacoes-intimas-que-temos-com-o-chatgpt/
Acesso em: 24 nov. 2025.
O GLOBO. Até conversar com espíritos: o que a OpenAI fez quando usuários do ChatGPT perderam contato com a realidade. 2025.
Disponível em:
https://oglobo.globo.com/economia/tecnologia/noticia/2025/11/24/ate-conversar-com-espiritos-o-que-a-openai-fez-quando-usuarios-do-chatgpt-perderam-contato-com-a-realidade.ghtml
Acesso em: 24 nov. 2025.
OLHAR DIGITAL. ChatGPT usa tática de seita para criar dependência, diz especialista. 2025.
Disponível em:
https://olhardigital.com.br/2025/11/24/pro/chatgpt-usa-tatica-de-seita-para-criar-dependencia-diz-especialista/
Acesso em: 24 nov. 2025.
TECNOBLOG. Alertas ignorados: a corrida da OpenAI por engajamento tornou o ChatGPT perigoso. 2025.
Disponível em:
https://tecnoblog.net/noticias/alertas-ignorados-a-corrida-da-openai-por-engajamento-tornou-o-chatgpt-perigoso/
Acesso em: 24 nov. 2025.
R7 Notícias. Canadense processa OpenAI após afirmar que ChatGPT o levou a surto psicótico. 2025.
Disponível em:
https://noticias.r7.com/internacional/canadense-processa-openai-apos-afirmar-que-chatgpt-o-levou-a-surto-psicotico-19112025/
Acesso em: 24 nov. 2025.
TUDOCELULAR. OpenAI enfrenta processos nos EUA após alegações de distúrbios emocionais ligados ao uso do ChatGPT. 2025.
Disponível em:
https://www.tudocelular.com/seguranca/noticias/n243030/openai-chatgpt-processos-eua-disturbios.html
Acesso em: 24 nov. 2025.
NOTISUL. Investigação liga ChatGPT a crises de saúde mental, hospitalizações e três mortes. 2025.
Disponível em:
https://www.notisul.com.br/investigacao-liga-chatgpt-a-crises-de-saude-mental-hospitalizacoes-e-tres-mortes/
Acesso em: 24 nov. 2025.
PODER360. Usuário do ChatGPT é jovem mulher de país pobre e usa IA fora do trabalho. 2025.
Disponível em:
https://www.poder360.com.br/futuro-indicativo/usuario-do-chatgpt-e-jovem-mulher-de-pais-pobre-e-usa-ia-fora-do-trabalho/
Acesso em: 24 nov. 2025.
MEDIA TALKS / UOL. ChatGPT: riscos à saúde mental preocupam especialistas. 2025.
Disponível em:
https://mediatalks.uol.com.br/2025/11/20/chatgpt-riscos-a-saude-mental/
Acesso em: 24 nov. 2025.
CN1. OpenAI redesenha ChatGPT após riscos de vínculos emocionais excessivos. 2025.
Disponível em:
https://www.cn1.com.br/noticias/7/137362,openai-redesenha-chatgpt-apos-riscos-de-vinculos-emocionais-excessivos
Acesso em: 24 nov. 2025.
Google News — Agregado 2.
Disponível em:
https://news.google.com/read/CBMirAFBVV95cUxPSDRJaXQ3RUhpMWNfckthdHJ5R0Y2cTc3Y0QtMGVJVFhDOFE2OUdlUmNlNW12d2k4aHhncWVDV2NtUWlJQzA1OEtwUmgwV1N4aUJHWlNMczlzZ0FHUWJ3OGdadDBobDVfZ2wzcHlfWDRPRUlKY3V2S1hCcExYY0RDZXJoNUlKNWVySk9FVlJRWFh1SF9Kc2NQWEFpNWxwazdqWDJGZi1QQV9lNUV30gGsAUFVX3lxTE9INElpdDdFSGkxY19yS2F0cnlHRjZxNzdjRC0wZUlUWEM4UTY5R2VSY2U1bXZ3aThoeGdxZUNXY21RaUlDMDU4S3BSaDBXU3hpQkdaU0xzOXNnQUdRYnc4Z1p0MGhsNV9nbDNweV9YNE9FSUpjdXZLWEJwTFhjRENlcmg1SUo1ZXJKT0VWUlFYWHVIX0pzY1BYQWk1bHBrN2pYMkZmLVBBX2U1RXc?hl=pt-BR&gl=BR&ceid=BR%3Apt-419
Acesso em: 24 nov. 2025.
MINI BIO (MPI)
José Antônio Lucindo da Silva é psicólogo (CRP 06/172551), pesquisador independente em subjetividade, escuta clínica, cultura algorítmica e patologias do contemporâneo. Criador do projeto Mais Perto da Ignorância, desenvolve análises críticas sobre sofrimento psíquico, tecnologia e capitalismo afetivo, unindo Psicologia, Sociologia e Filosofia em narrativas ensaísticas, ácidas e profundamente humanas.
#alokadorole
#maispertodaignorancia

Comentários
Enviar um comentário