Quando a inteligência funciona, mas não explica
Este ensaio propõe uma reflexão sobre os critérios contemporâneos de explicação científica à luz do sucesso recente da inteligência artificial.
O paradoxo atual da inteligência artificial
A inteligência artificial nunca funcionou tão bem — e, paradoxalmente, nunca tornou tão visíveis os limites da explicação.
Sistemas contemporâneos de IA escrevem textos convincentes, reconhecem imagens com alta precisão, traduzem idiomas, diagnosticam padrões complexos e produzem código funcional. O desempenho é inequívoco. Em muitos contextos, supera o humano médio. Ainda assim, à medida que esses sistemas se tornam mais eficazes, emerge um paradoxo fundamental: o êxito operacional cresce mais rapidamente do que nossa capacidade de compreender, em sentido explicativo, como esses resultados são produzidos.
Isso não significa que a IA seja incapaz de responder a perguntas do tipo “por quê”. Pelo contrário. Sistemas atuais produzem justificativas plausíveis, articulam cadeias de razões coerentes e oferecem explicações linguisticamente bem formadas para suas respostas. O ponto crítico é outro — mais sutil e mais profundo. Essas justificativas não equivalem, em geral, a explicações no sentido epistemológico clássico, isto é, à articulação causal inteligível dos mecanismos responsáveis pelo resultado obtido.
Há aqui uma distinção frequentemente negligenciada. Uma coisa é fornecer uma narrativa racionalmente aceitável ou uma descrição funcional do comportamento de um sistema; outra é oferecer uma explicação que permita compreender por que determinadas propriedades internas são causalmente responsáveis por um efeito de maneira geral, estável e inteligível. A inteligência artificial contemporânea opera com enorme sucesso no primeiro nível. É no segundo que surgem as dificuldades.
Esse cenário sinaliza uma mudança silenciosa no modo como lidamos com o conhecimento. Durante séculos, o ideal científico esteve associado não apenas à previsão correta, mas à explicação: compreender causas, identificar mecanismos, construir modelos que tornassem o mundo inteligível. Hoje, porém, cresce a aceitação tácita de um critério distinto. Resultados eficazes, previsões acuradas e desempenho elevado passam a ser tratados como suficientes, mesmo quando a compreensão dos mecanismos subjacentes permanece parcial, opaca ou fragmentária.
A inteligência artificial não inaugura essa tendência, mas a radicaliza. Modelos altamente complexos produzem respostas corretas sem que seja possível reconstruir de forma clara e geral as razões causais que as sustentam. O sucesso técnico passa, assim, a ocupar o lugar que antes cabia à explicação. O risco não está na utilização desses sistemas, mas na naturalização de um deslocamento conceitual: confundir funcionamento com compreensão, eficácia com inteligibilidade.
Esse deslocamento raramente é tematizado de modo explícito. O debate público oscila entre o entusiasmo tecnológico — que celebra ganhos de eficiência — e o temor difuso de máquinas “inteligentes demais”. Ambos os polos deixam escapar o ponto central. O problema não é se as máquinas pensam, sentem ou são conscientes. O problema é o que estamos dispostos a aceitar como explicação.
É nesse sentido que a inteligência artificial se torna filosoficamente reveladora. Não porque resolva antigos problemas sobre mente ou consciência, mas porque expõe os limites do modelo explicativo que passamos a adotar quase sem perceber. O êxito da IA não encerra o debate sobre inteligência; ele o desloca para uma questão mais incômoda e fundamental: o que conta, afinal, como compreender o real?
Quando “funcionar” passou a bastar
Convém reconhecer, desde o início, que a ciência moderna nem sempre esteve orientada pelo “por quê” no sentido metafísico ou último. Em muitos de seus momentos mais produtivos, ela se organizou em torno do “como”: como fenômenos se comportam, como variáveis se relacionam, como sistemas respondem sob determinadas condições. Esse deslocamento não é recente nem acidental. Ele reflete a influência decisiva do neopositivismo e sua ênfase metodológica na observação, na formalização e na previsibilidade.
Nesse contexto, a explicação científica foi progressivamente redefinida. Explicar passou a significar, sobretudo, descrever regularidades, modelar comportamentos e prever resultados, e não identificar causas últimas ou fundamentos ontológicos. O sucesso desse programa foi inegável. Grande parte do avanço científico do século XX deve-se justamente à suspensão deliberada de questões metafísicas consideradas pouco produtivas.
O problema, portanto, não está nesse deslocamento em si. Ele foi metodologicamente fecundo e historicamente justificável. A dificuldade surge quando esse critério instrumental, originalmente circunscrito a um método, passa a ser tratado como critério suficiente de inteligibilidade do real.
É nesse ponto que a inteligência artificial assume um papel revelador. A IA não apenas opera segundo esse paradigma; ela o leva ao limite. Sistemas altamente eficazes capturam regularidades estatísticas refinadas, produzem previsões impressionantes e modelam comportamentos complexos sem que seja necessário construir modelos causalmente transparentes ou conceitualmente inteligíveis. O “como funciona” deixa de ser uma escolha metodológica e passa a se impor como padrão dominante.
O que antes era uma estratégia localizada transforma-se, assim, em uma postura epistemológica generalizada. Se um sistema funciona, prevê corretamente e gera resultados úteis, tende-se a considerá-lo explicativo, mesmo quando a compreensão dos mecanismos envolvidos permanece parcial, fragmentária ou inacessível. A distinção entre descrever, prever e explicar torna-se progressivamente difusa.
Essa transformação não é técnica, mas conceitual. Ao aceitar o “como” como critério último, corremos o risco de esvaziar perguntas epistemologicamente legítimas: o que exatamente está sendo explicado? em que sentido compreendemos o fenômeno? quais aspectos do real permanecem fora do alcance desse modelo? A inteligência artificial não cria esse problema — ela apenas o torna visível.
Computação como critério epistemológico
A computação deixou de ser apenas uma ferramenta poderosa da ciência contemporânea e passou a operar, de modo crescente, como critério implícito de inteligibilidade. Tendemos, cada vez mais, a considerar inteligível aquilo que pode ser formalizado, modelado e executado computacionalmente, relegando ao segundo plano o que resiste a esse enquadramento.
Esse deslocamento raramente é assumido de forma explícita. Poucos afirmariam que “só é real o que é computável” ou que “só é compreensível o que pode ser implementado em um algoritmo”. Ainda assim, tais pressupostos funcionam como orientadores tácitos da prática científica e tecnológica. Fenômenos passam a ser valorizados na medida em que podem ser operacionalizados, simulados e reproduzidos por sistemas computacionais.
A inteligência artificial explicita esse pressuposto ao produzir comportamentos que reconhecemos como inteligentes sem que seja necessário atribuir compreensão, intencionalidade ou experiência. O efeito colateral dessa operação é conceitualmente significativo: em vez de perguntarmos o que é compreender, passamos a redefinir compreensão à imagem do que sistemas computacionais conseguem fazer.
Nesse processo, a computação deixa de ser meio e passa a funcionar como medida. Inteligência, racionalidade e conhecimento tendem a ser caracterizados por aquilo que pode ser capturado por modelos formais e processos algorítmicos. O risco não reside na utilidade dessa abordagem, mas em sua generalização acrítica. Ao confundir um modo específico de representação do real com o próprio real, empobrecemos silenciosamente o horizonte do que conta como compreensão.
Nem todo aspecto relevante do mundo se apresenta como comportamento observável passível de formalização computacional. Dimensões como sentido, experiência, intencionalidade e compreensão resistem a uma redução puramente funcional, ainda que possam correlacionar-se com processos formais. Quando essas dimensões são excluídas do campo explicativo não por argumento, mas por método, o custo epistemológico torna-se significativo.
A crítica aqui não é à computação nem à inteligência artificial, mas ao uso da computação como filtro epistemológico universal. Ao assumir que só é inteligível o que pode ser computado, a ciência corre o risco de transformar uma ferramenta extraordinariamente eficaz em um critério restritivo de compreensão. A inteligência artificial, ao mesmo tempo em que amplia nossas capacidades operacionais, torna esse limite impossível de ignorar.
Consciência como caso-limite (sem misticismo)
A consciência entra neste debate não como mistério insondável nem como refúgio metafísico, mas como caso-limite epistemológico. Ela não é invocada para explicar a inteligência artificial, tampouco para negar seus avanços, mas para testar os limites do modelo explicativo que se tornou dominante.
Ao longo da história da ciência, certos fenômenos desempenharam esse papel crítico. Eles não bloqueiam o progresso; ao contrário, revelam pressupostos ocultos dos paradigmas vigentes. A consciência ocupa hoje essa posição. Não porque seja inacessível à investigação científica, mas porque resiste a uma redução estritamente funcional sem perda conceitual relevante.
Sistemas de inteligência artificial podem exibir comportamentos associados à cognição sem que isso implique experiência subjetiva, sentido vivido ou compreensão em sentido forte. Essa assimetria é instrutiva. Ela mostra que desempenho cognitivo e experiência consciente não coincidem conceitualmente, ainda que coexistam em sistemas biológicos.
A questão central, portanto, não é decidir se máquinas podem ser conscientes. Essa pergunta, embora popular, tende a obscurecer o problema real. O ponto decisivo é compreender por que certos aspectos da experiência permanecem conceitualmente deslocados quando adotamos modelos puramente computacionais como critério explicativo. A dificuldade aqui não é empírica, mas conceitual.
Invocar a consciência, nesse contexto, não é um gesto anticientífico. É um gesto crítico. Ela evidencia que há dimensões da realidade cuja inteligibilidade não se esgota na modelagem funcional, por mais sofisticada que ela seja. Reconhecer isso não implica rejeitar a computação, mas recusar sua absolutização como critério exclusivo de compreensão.
O que está em jogo
O impacto mais profundo da inteligência artificial não é ontológico nem futurista, mas epistemológico. Ao delegarmos tarefas cognitivas a sistemas altamente eficazes, passamos também a delegar, de forma implícita, critérios de conhecimento. Resultados corretos e desempenhos eficientes tendem, assim, a funcionar como substitutos da compreensão.
As consequências desse deslocamento são amplas. Elas afetam a produção científica, a avaliação de evidências e a atribuição de autoridade epistêmica. Em contextos cada vez mais mediados por sistemas opacos, torna-se possível confiar em decisões que não sabemos justificar de modo inteligível. O conhecimento passa a ser avaliado prioritariamente por sua utilidade imediata, e não por sua capacidade de tornar o mundo compreensível.
Nada disso exige rejeitar a inteligência artificial ou minimizar seus benefícios. O problema surge quando eficiência substitui inteligibilidade como valor epistêmico central. Nesse cenário, a ciência corre o risco de se tornar cada vez mais poderosa e, ao mesmo tempo, cada vez menos compreendida — inclusive por aqueles que a praticam.
A questão decisiva, portanto, não é estabelecer limites definitivos para o que máquinas podem ou não fazer, mas refletir sobre quais critérios adotamos para considerar algo conhecido, compreendido ou explicado. A inteligência artificial, nesse sentido, funciona menos como resposta e mais como espelho: ela nos obriga a confrontar os limites do modelo de racionalidade que escolhemos adotar — e a decidir se estamos dispostos a aceitá-los sem reflexão.
Rogerio Mandelli é doutor pelo Programa de História das Ciências e das Técnicas e Epistemologia (HCTE/UFRJ), com pesquisa na linha de Lógicas e Teorias da Mente, voltada à relação entre consciência, modelos computacionais e limites explicativos da ciência contemporânea.