Entre cliques e cadáveres digitais: um relato em primeira pessoa
Abro o navegador, digito mais uma indignação sobre inteligência artificial e, em milissegundos, meu texto atravessa cabos submarinos, roteadores anônimos e servidores que bebem meio litro d’água a cada dúzia de prompts.¹ É impressionante: basta eu apertar Enter em São Paulo para que, quase simultaneamente, alguém em Nairóbi receba a incumbência de decidir se o meu lampejo retórico é ironia legítima, ódio velado ou mero ruído. Nessa coreografia planetária eu ocupo o papel glamoroso de criador; do outro lado da tela, moderadores anônimos encaram decapitações por menos de dois dólares por hora para que o feed pareça civilizado.
O feitiço regulatório
Quando a Comissão Europeia carimbou o Digital Services Act (DSA) e o parlamento britânico brandiu o Online Safety Act (OSA), prometeram que ninguém reinaria sobre a minha timeline. As leis, juravam, apenas “definem salvaguardas e multam quem não cumpre”. Soou reconfortante. Mas logo chegou a circular interna da Ofcom: para fiscalizar o OSA, o órgão contrataria centenas de ex-funcionários de Big Tech — gente treinada exatamente para ver o que nenhum cidadão normal aguenta ver.² Regulador tornou-se moderador, e o Estado, zelador semântico.
Passei a imaginar servidores públicos em Bruxelas folheando memes ofensivos, memes inofensivos, violência espectral, deepfakes catastróficas, tudo em nome da minha segurança. Percebi que o trauma apenas trocava de crachá. O duplo sistema é perverso: o trabalho sujo persiste no Sul Global, agora duplicado nos corredores acarpetados do Norte — e pago duas vezes, primeiro por plataformas, depois pelos meus impostos.
Quem paga a conta de cada “Enter”?
Cada pedido polido que faço ao ChatGPT carrega marcas de um treinamento inicial à base de horrores visuais.³ Moderadores quenianos, colombianos e filipinos mergulharam em pornografia infantil, racismo explícito e vídeos de tortura para calibrar o filtro que hoje me poupa desse contato. Alguns relatam tentativa de sindicalização; outros, diagnóstico de transtorno de estresse pós-traumático. Enquanto isso, eu celebro a “democratização da IA” e colho likes por reflexões supostamente profundas sobre ética algorítmica.
Até quando o horror não é humano, é hídrico: data centers nos desertos do Arizona ou nas planícies do Cerrado sorvem milhões de litros de água para manter chips refrigerados.⁴ A liberdade cognitiva que aprecio escorre pelo ralo — literalmente.
A autoexploração como modo de vida
Byung-Chul Han observa que, na era da autoexploração, somos empresários de nós mesmos. Eu diria que nos tornamos matéria-prima gratuita para algoritmos famintos: oferecemos tempo, afetos e traumas sem cobrar royalties. Marx sorriria amarelo — o fetiche da mercadoria agora se oculta em GPUs. Produzo-me como mercadoria enquanto terceirizo a dor que sustenta minha vitrine.
Do PDF universal à fratura cultural
As Big Tech juram que seus manuais de moderação, com centenas de páginas, garantem decisões “coesas e neutras”. Contudo, quem julga piadas de humor negro sobre escravidão colonial em Manila? Quem analisa discurso de ódio casteísta na Índia? O PDF é monolingue; o mundo, não. Diante da dúvida, moderadores terceirizados obedecem ao script: “If in doubt, take it down.” Melhor remover a mais do que arriscar multa milionária no tribunal europeu. Assim nasce a sobre-remoção que silencia vozes minoritárias e desalinha debates locais.
Paradoxalmente, o DSA tenta corrigir esse desequilíbrio impondo relatórios de risco, evidence lockers e janelas de remoção de conteúdo em 24 horas. Só que, para cumprir a norma, o próprio Estado precisa de exércitos de leitores de lixo digital. Resultado: ampliamos a demanda por quem tope ver o pior da humanidade em tela cheia, agora com salário digno em Londres, mas sob o mesmo bombardeio psicológico.
Ironia final: liberdade surda
Pergunto-me se é honesto chamar de “liberdade” esse espaço onde digito, sabendo que, do outro lado do Atlântico, alguém rotula vídeos de esfaqueamentos para que eu jamais os veja. Chamamos isso de governança responsável, ética computacional, moderação distribuída. Na prática, estabelecemos uma cadeia de silêncio: eu crio; o outro sangra; o feed sorri. Han diz que ninguém mais escuta ninguém; Cioran sugeriria que nem desespero resta quando a dor é terceirizada em dólares.
O que restaria fazer?
Regular ajuda, mas não basta. A duplicação de trauma comprova que empurrar a sujeira para sob o tapete jurídico só muda o tipo de tapete. Talvez devêssemos reaprender o valor do silêncio — publicar menos, pensar mais, resistir à compulsão de comentar tudo —, ou, ao menos, reconhecer que cada palavra custa trabalho invisível de alguém, em algum fuso onde o amanhecer cheira a café frio e cansaço moral.
Por ora, continuo digitando, cúmplice consciente da engrenagem que me dá voz enquanto rouba sono alheio. Entre cliques e cadáveres digitais, minha liberdade é um eco produzido por linhas de produção invisíveis. E, até segunda ordem, chamarei isso de progresso.
Notas e referências essenciais
-
News UCR. AI Water Use Could Add Stress to Drought-Prone Regions (2023).
-
Financial Times. Ofcom hires ex-Big Tech staff to enforce UK Online Safety Act (2024).
-
Time Magazine. Inside Facebook’s African Content Moderation Hubs (2023).
-
Business Insider. Massive Data Centers Are Draining Local Water Supplies (2024).
(Demais fontes mencionadas ao longo do texto: Washington Post, The Guardian, The Bureau of Investigative Journalism, Verfassungsblog, DSA Observatory, NYU Stern BHR.)
Comentários
Enviar um comentário