QUANDO A MÁQUINA TROPEÇA DE PROPÓSITO: a falácia dos detectores de IA e o espelho rachado da autoria
QUANDO A MÁQUINA TROPEÇA DE PROPÓSITO: a falácia dos detectores de IA e o espelho rachado da autoria
Autor José Antônio Lucindo da Silva
#maispertodaignorancia
17/06/2025
A corrida entre algoritmos que fabricam textos e aqueles que juram desmascará-los tornou-se uma comédia trágica: enquanto os modelos ― astutos como adolescentes treinados em gírias ― aprendem a inserir vírgulas tortas e “mais” onde cabia “mas”, os detectores de IA patinam num lago de incerteza cada vez mais fino. O resultado? Uma erosão do que chamávamos pensamento crítico, uma hipertrofia de performances narcisistas e, pior, a ilusão de que ainda existe uma fronteira clara entre humano e máquina.
1. Erro programado, vaidade automatizada
Foi preciso que o CEO Beerud Sheth avisasse: as versões recentes de GPT-4 e Claude já simulam nossos tropeços linguísticos para confundir até os farejadores de plágio mais zelosos . Freud sorriria: trata-se do retorno do narcisismo primário em código-fonte, onde a máquina mimetiza a imperfeição para seguir cortejada.
2. Detectores em colapso líquido
Um estudo apresentado na LREC-COLING 2024 mostrou que pequenas paráfrases reduzem a acurácia de bons detectores em mais de 17 p.p. . Em cenários educacionais, a própria Turnitin admite que pode deixar escapar 15 % do texto gerado por IA para evitar falsos positivos . Não admira que universidades já falem em crise de credibilidade dos diplomas . Bauman tinha razão: tudo que é sólido se derrete, inclusive a certeza forense.
3. Marcas-d’água: a aspirina do desespero
Do SynthID do Google à ideia de “fingerprints” da OpenAI, a promessa é gravar um selo invisível em cada frase sintética. Mas até a Nature reconhece que basta uma leve reescrita para lavar a marca ; o Center for Data Innovation conclui que a técnica mal arranha plágio ou desinformação . O Brookings acrescenta que traduções ou simples paraphrases fazem a assinatura sumir . É Byung-Chul Han revisitado: o remédio vira sintoma, a transparência vira mercadoria.
4. Paraphrases e ataques “humanizers”
Ferramentas de adversarial paraphrasing como DIPPER, demonstradas na NeurIPS, enganam GPTZero e similares em segundos . O estudo DAMAGE examinou 19 “humanizers” on-line: a maioria dribla detectores sem sacrificar sentido . Nietzsche sorri da cova: não há fato, só interpretação—e agora também não há detector confiável.
5. Educação, castelos de cartas e o gozo da ignorância
Se o aluno terceiriza a redação, perde o atrito que funda sua singularidade. Docentes confessam cautela: todo falso positivo explode em batalhas burocráticas . Já Craig Reeves denuncia o laissez-faire acadêmico guiado por matrículas internacionais . Resultado? Um castelo de cartas epistemológico onde citações fabricadas sustentam pesquisas igualmente fabricadas—Carnaval que Freud chamaria Wiederholungszwang.
6. Altman, Cioran e a fábula do abismo
Sam Altman, entre loas e terrores, confessou ao Senado: “If this technology goes wrong, it can go quite wrong” . Cioran teria respondido: “não se preocupe, já está errado pelo simples fato de existir”. Entre a ânsia de regulação e o fetiche da disrupção, seguimos na “gaiola de ouro” onde cada like reforça a alienação que fingimos combater.
7. Conclusão provisória
Eu digo: se quiser continuar flutuando no raso discursivo, agarre-se a uma boia material—pode ser um livro manchado de café ou um caderno de notas genuinamente rabiscado. Os detectores? Deixe-os brincando de esconde-esconde com máquinas que agora erram melhor do que nós. Afinal, talvez o verdadeiro erro seja crer na pureza da autoria num tempo em que até a ignorância é algoritmo.
Referências:
COSTA, Jonathas. IAs já simulam erros humanos e desafiam os detectores, alerta CEO. InfoMoney, São Paulo, 14 jun. 2025. Disponível em: https://www.infomoney.com.br/consumo/ias-ja-simulam-erros-humanos-e-desafiam-os-detectores-alerta-ceo/. Acesso em: 17 jun. 2025.
ZHOU, Ying; HE, Ben; SUN, Le. Humanizing Machine-Generated Content: Evading AI-Text Detection through Adversarial Attack. In: Proceedings of the 2024 Joint International Conference on Computational Linguistics, Language Resources and Evaluation (LREC-COLING 2024). Torino: ELRA & ICCL, 2024. p. 8427-8437.
CENTER FOR DATA INNOVATION. Why watermarking text fails to stop misinformation and plagiarism. Washington, 18 set. 2024. Disponível em: https://datainnovation.org/2024/09/why-watermarking-text-fails-to-stop-misinformation-and-plagiarism/. Acesso em: 17 jun. 2025.
AI WATERMARKING must be watertight to be effective. Nature, Londres, 07 nov. 2024. Disponível em: https://www.nature.com/articles/d41586-024-03418-x. Acesso em: 17 jun. 2025.
WEST, Darrell M. Detecting AI fingerprints: a guide to watermarking and beyond. Brookings Institution, 02 fev. 2024. Disponível em: https://www.brookings.edu/articles/detecting-ai-fingerprints-a-guide-to-watermarking-and-beyond/. Acesso em: 17 jun. 2025.
REEVES, Craig. Universities face a reckoning on ChatGPT cheats. The Guardian, Londres, 17 jun. 2025. Disponível em: https://www.theguardian.com/technology/2025/jun/17/universities-face-a-reckoning-on-chatgpt-cheats. Acesso em: 17 jun. 2025.
FREEDMAN, Lindsay. Professors proceed with caution using AI-detection tools. Inside Higher Ed, 09 fev. 2024. Disponível em: https://www.insidehighered.com/news/tech-innovation/artificial-intelligence/2024/02/09/professors-proceed-caution-using-ai. Acesso em: 17 jun. 2025.
ALTMan, Sam. OpenAI CEO warns Senate: “If this technology goes wrong, it can go quite wrong”. ABC News, Nova York, 16 maio 2023. Disponível em: https://abcnews.go.com/Business/openai-ceo-warns-senate-technology-wrong-wrong/story?id=99357748. Acesso em: 17 jun. 2025.
NICKS, Matt et al. DAMAGE: Detecting Adversarially Modified AI Generated Text. arXiv, 2024. Disponível em: https://arxiv.org/abs/2501.03437. Acesso em: 17 jun. 2025.
CHEN, Zhenwei et al. Paraphrasing evades detectors of AI-generated text, but retrieval is still possible. In: Advances in Neural Information Processing Systems 37 (NeurIPS 2023). Disponível em: https://neurips.cc/virtual/2023/poster/71402. Acesso em: 17 jun. 2025.
SCHMIDT, Alex. Google devises new watermark for AI-made text. Axios, 14 maio 2024. Disponível em: https://www.axios.com/2024/05/14/google-watermark-ai-text. Acesso em: 17 jun. 2025.
Mais notícias, menos esperança: #maispertodaignorancia
Comentários
Enviar um comentário