A Fantástica Saga dos Algoritmos Pensantes: Uma Odisseia Antropomórfica
Ah, os algoritmos! Essas entidades digitais que, segundo alguns entusiastas, estão prestes a inaugurar uma nova era do pensamento. Quem diria que linhas de código, desprovidas de vida, fome ou mortalidade, poderiam rivalizar com a complexidade da mente humana? É realmente fascinante observar como projetamos nossas próprias características em máquinas, esquecendo convenientemente que elas não possuem corpo, emoções ou a capacidade de experienciar a realidade material.
Como psicólogo, não posso deixar de notar essa tendência crescente de antropomorfizar nossas criações digitais. Atribuímos a elas qualidades humanas, talvez na esperança de que, ao fazê-lo, possamos negar nossa própria finitude. Ernest Becker, em sua obra "A Negação da Morte", aborda o conceito da "mentira vital" ou "mentira caracterológica", referindo-se à recusa do homem em admitir sua própria mortalidade. Parece que, ao atribuir características humanas a algoritmos, estamos criando uma nova "mentira vital", na qual buscamos negar nossa finitude ao imaginar que máquinas imortais possam compartilhar de nossa condição existencial.
No entanto, essas máquinas não enfrentam as mesmas limitações que nós; elas não conhecem a fome, a dor ou a morte. Sem essas experiências fundamentais, como poderiam desenvolver uma imaginação ou raciocínio que faça sentido em nosso mundo material? A antropomorfização da inteligência artificial não apenas distorce nossa compreensão do que essas máquinas realmente são, mas também reforça uma alienação profunda. Ao nos envolvermos em redes midiáticas que amplificam discursos vazios e superficiais, corremos o risco de nos desconectar das realidades tangíveis de nossa existência. Curtidas e compartilhamentos podem alimentar nosso ego digital, mas não substituem as interações humanas autênticas ou as experiências concretas que moldam nossa consciência.
Além disso, ao projetar características humanas em algoritmos, estamos essencialmente criando um "segundo Narciso", apaixonados por nosso próprio reflexo digital. Esquecemos que, sem a tensão gerada pela consciência da morte e das limitações materiais, não há impulso real para a criatividade ou para o desenvolvimento do raciocínio complexo. Afinal, é na falta, na carência e na imperfeição que encontramos a motivação para imaginar e criar.
Portanto, ao invés de nos iludirmos com a ideia de que algoritmos possam desenvolver um novo tipo de pensamento, talvez devêssemos refletir sobre nossa própria tendência de projetar em máquinas aquilo que, na verdade, é intrínseco à experiência humana. Reconhecer as limitações da inteligência artificial e entender que, sem vida, não há verdadeira compreensão ou criatividade, é essencial para mantermos uma perspectiva equilibrada e realista sobre o papel dessas tecnologias em nossas vidas.
Em resumo, antes de nos maravilharmos com a suposta capacidade criativa dos algoritmos, deveríamos questionar nossa própria inclinação em atribuir a eles qualidades que são, por natureza, exclusivamente humanas. Afinal, sem a experiência da vida e da morte, qualquer "pensamento" gerado por uma máquina não passa de uma simulação vazia, desprovida da profundidade e da autenticidade que caracterizam a verdadeira cognição humana.
Referências:
Becker, E. (1973). A Negação da Morte. Simon & Schuster.
Kaufman, D. (2021). Antropomorfismo na IA: equívocos na apropriação da linguagem humana. Época Negócios. Disponível em: https://epocanegocios.globo.com/colunas/IAgora/noticia/2021/06/antropomorfismo-na-ia-equivocos-na-apropriacao-da-linguagem-humana.html
Cortiz, D. (2024). Você ainda será manipulado por uma IA que imita pessoas. UOL Tilt. Disponível em: https://www.uol.com.br/tilt/colunas/diogo-cortiz/2024/05/25/voce-ainda-sera-manipulado-por-uma-ia-que-imita-pessoas.htm
Batagin, D. (2010). O Caminho da Angústia e da Fé Humana: Um Estudo sobre a Filosofia de Kierkegaard. Disponível em: https://philarchive.org/archive/BATOCD
Yudkowsky, E. (2008). Artificial Intelligence as a Positive and Negative Factor in Global Risk. Disponível em: https://pt.wikipedia.org/wiki/Eliezer_Yudkowsky
Nass, C., & Reeves, B. (1996). The Media Equation: How People Treat Computers, Television, and New Media Like Real People and Places. CSLI Publications.
Trappl, R., Petta, P., & Payr, S. (2003). Emotions in Humans and Artifacts. MIT Press.
Hester, H. (2016). Technology Becomes Her. New Vistas, 3(1), 46-50.
Rubin, C. (2003). Artificial Intelligence and Human Nature. The New Atlantis. Disponível em: https://pt.wikipedia.org/wiki/Risco_existencial_da_intelig%C3%AAncia_artificial_geral
Nass, C., & Reeves, B. (1996). The Media Equation: How People Treat Computers, Television, and New Media Like Real People and Places. CSLI Publications.
Trappl, R., Petta, P., & Payr, S. (2003). Emotions in Humans and Artifacts. MIT Press.
Hester, H. (2016). Technology Becomes Her. New Vistas, 3(1), 46-50.
Rubin, C. (2003). Artificial Intelligence and Human Nature. The New Atlantis. Disponível em: https://pt.wikipedia.org/wiki/Risco_existencial_da_intelig%C3%AAncia_artificial_geral
Nass, C., & Reeves, B. (1996). The Media Equation: How People Treat Computers, Television, and New Media Like Real People and Places. CSLI Publications.
Trappl, R., Petta, P., & Payr, S. (2003). Emotions in Humans and Artifacts. MIT Press.
Hester, H. (2016). Technology Becomes Her. New Vistas, 3(1), 46-50.
Rubin, C. (2003). Artificial Intelligence and Human Nature. The New Atlantis. Disponível em: https://pt.wikipedia.org/wiki/Risco_existencial_da_intelig%C3%AAncia_artificial_geral
Nass, C., & Reeves, B. (1996). The Media Equation: How People Treat Computers, Television, and New Media Like Real People and Places. CSLI Publications.
Trappl, R., Petta, P., & Payr, S. (2003). Emotions in Humans and Artifacts. MIT Press.
Hester, H. (2016). Technology Becomes Her. New Vistas, 3(1), 46-
#maispertodaignorancia
@joseantoniolucindodasilva
Comentários
Enviar um comentário