Artigos

Hermenêutica Erótica da IA e Cognição Erótica Algorítmica  

Artigo por Paola Cantarini, pesquisadora do Think Tank da Associação Brasileira das Empresas de Software (ABES) 

A inteligência artificial emergiu como uma força ontológica capaz de reconfigurar o desejo de conhecer. Em vez de ampliar nossa autonomia cognitiva, sistemas generativos — especialmente os grandes modelos de linguagem — deslocam o prazer diferido da investigação para gratificações instantâneas, comprimindo o intervalo onde historicamente se formava a curiosidade. Esse deslocamento, que denomino Cognição Erótica Algorítmica (AEC), altera não apenas a produção do conhecimento, mas a estrutura afetiva, epistêmica e política da própria subjetividade. 

Pesquisas recentes do MIT sobre “dívida cognitiva” mostram que a delegação recorrente de tarefas inferenciais às máquinas reduz conexões neurais associadas à imaginação e à metacognição. Paralelamente, estudos sobre model collapse revelam que treinamentos baseados em dados sintéticos gerados por outras IA conduzem à homogeneização semântica e à erosão da diversidade epistêmica — justamente o oposto das condições que tornam a investigação possível. 

Do ponto de vista filosófico, a AEC retoma preocupações formuladas por Stiegler, Simondon, Peirce, Damásio, entre outros: tecnicidades que aceleram o gesto cognitivo sem fricção corroem a atenção, empobrecem a dúvida e alteridade, e transformam o pensamento em consumo preditivo. Quando interfaces eliminam o erro, eliminam também o aprendizado. A razão sem risco torna-se cálculo, e o cálculo sem hesitação produz subjetividades dóceis — funcionalmente eficientes, mas epistemicamente frágeis. 

Esse processo não é apenas técnico: é afetivo, corporal e político. A aceleração algorítmica enfraquece o circuito sensório-motor-afetivo que sustenta o espanto, a surpresa e a abertura ao desconhecido. Além disso, o avanço de affordances eróticas e a monetização da intimidade — fenômenos cada vez mais visíveis em plataformas de IA — ampliam riscos à saúde mental, à proteção de crianças e à formação de vínculos emocionais assimétricos mediados por sistemas opacos. Trata-se de uma reconfiguração da economia do desejo sob a lógica do engajamento proprietário. 

Diante desse cenário, a resposta não é rejeitar as máquinas, mas reinscrevê-las no circuito cultural de sentido, repensando nossa relação com a técnica em novas bases fundacionais. Inspirados por Gregory Bateson, defendemos que sistemas de IA devem preservar complexidade e produzir “fricção cognitiva”: pausas, contraexemplos, alternativas, zonas de incerteza que reintroduzam o abduzir — a capacidade de lançar-se ao possível e também de imaginar o impossível. Não se trata de desacelerar a inovação, mas de impedir que o imperativo da eficiência destrua o próprio eros que sustenta o pensamento, quando a inovação se sustenta apenas como um fim em si mesmo e se descola do mundo da vida. 

Se a IA é um pharmakon — remédio e veneno — a tarefa civilizatória e pergunta filosófica central está em como dosar o seu uso de forma a complementar o ser humano, e não o substituir bem como em nos manter humanos. Interfaces orientadas ao cuidado, padrões regulatórios proporcionais ao risco e letramentos algorítmicos que valorizem imaginação, o pensamento autóctone e disruptivo, o silêncio, o intervalo, e a dúvida são passos essenciais para que a técnica não substitua o humano, mas o amplie. O futuro do conhecimento depende, sobretudo, de restaurarmos o intervalo onde nasce o desejo de saber, e quando termos de volta o prazer do saber e o saber que sente sobretudo. 

Você também vai gostar

Leia também!