Há uma inquietação que ainda não articulamos plenamente na maneira como começamos a delegar à inteligência artificial tarefas que até recentemente dependiam diretamente do julgamento humano.

Um estudante, diante de um prazo curto, pede a um sistema que organize um argumento. Um profissional solicita um parecer preliminar. Um pesquisador pede ajuda para estruturar uma hipótese. Em poucos segundos, aquilo que antes exigia tempo, esforço e reflexão aparece pronto na tela.

Nem sempre fica claro o que, exatamente, deixamos de elaborar nesse percurso. E, com frequência, sequer percebemos o que deixamos de compreender.

Se antes a tecnologia prometia nos libertar do esforço físico, a fronteira agora é cognitiva. O que está em jogo não é apenas a utilidade de uma nova ferramenta, mas a extensão de uma mudança que atravessa trabalho, conhecimento, instituições e poder.

Segundo o AI Index 2026 da Universidade de Stanford, a AI generativa se difundiu mais rapidamente do que o computador pessoal ou a internet. Quando essas capacidades passam a operar simultaneamente em milhões de interações, comprimindo em segundos o que antes exigia horas de trabalho qualificado, seus efeitos deixam de ser apenas técnicos. Passam a atingir a forma de organização da vida coletiva.

Talvez por isso o debate público oscile tanto entre entusiasmo e apreensão. Estamos lidando com uma tecnologia que promete ampliar nossas capacidades exatamente no momento em que começamos a delegá-las de forma cada vez mais profunda.

A questão central não é apenas técnica. É social. Como uma sociedade se transforma quando ferramentas capazes de executar, em segundos, atividades que antes dependiam diretamente do julgamento humano passam a se disseminar em larga escala?

Parte relevante desse debate enfatiza a ampliação das capacidades humanas proporcionada pela inteligência artificial.

Investidores como Marc Andreessen argumentam que estamos diante de uma inovação capaz de elevar produtividade em larga escala, reduzir custos e acelerar a inovação em setores críticos. A promessa é direta. Se sistemas automatizados conseguem realizar tarefas intelectuais complexas, da análise de dados à produção de textos e código, entre muitas outras, com rapidez e baixo custo, o resultado pode ser crescimento econômico e difusão de conhecimento.

Marc andreessen

Não é só o mundo dos negócios que pensa assim. Tecnologias de uso geral costumam produzir efeitos dinâmicos difíceis de capturar em modelos estáticos, como argumenta Tyler Cowen. Inovações inicialmente vistas como substitutivas frequentemente criam novas tarefas e ampliam a fronteira tecnológica. No mercado de trabalho, ele considera improvável um cenário de desemprego em massa, enfatizando a criação de novas ocupações. No campo educacional, sobretudo no ensino superior, sugere que a inteligência artificial pode ampliar a capacidade de formular perguntas e explorar conhecimento. Funciona menos como substituta do raciocínio e mais como instrumento para expandi-lo. Inclusive ao permitir que perguntas melhores sejam formuladas por quem, de outra forma, não as faria.

Na mesma linha, ferramentas baseadas em inteligência artificial podem complementar trabalhadores, elevar o desempenho de profissionais menos experientes e difundir ganhos de produtividade de maneira mais ampla do que se imagina, como observa Erik Brynjolfsson. A implicação não é apenas mais eficiência, mas uma reorganização contínua do que conta como trabalho qualificado. A promessa, portanto, é a expansão de capacidade: mais ciência, mais eficiência, mais acesso a serviços complexos.

Em texto recente, Tyler Cowen oferece um diagnóstico mais profundo. Ele documenta algo contraintuitivo: a AI supera especialistas humanos não apesar de operar sem intuição disciplinar, mas precisamente por isso. Modelos de machine learning aplicados à precificação de ativos identificaram centenas de milhares de fatores relevantes e reduziram erros de forma significativa em relação aos melhores modelos econômicos tradicionais.

Um sistema do Google DeepMind passou a jogar xadrez em nível de grão-mestre alimentado por bilhões de posições, sem percorrer qualquer árvore de decisão. Isso sugere que o tipo de conhecimento que importa para produzir resultados pode estar migrando para um espaço que não dominamos conceitualmente. E que essa migração já está em curso, mesmo que ainda não a tenhamos nomeado.

As implicações econômicas, porém, podem vir a ser mais complexas do que essa visão sugere. O impacto da automação depende menos da exposição de uma ocupação à tecnologia e mais de quais tarefas dentro dela são automatizadas, como observa David Autor. 

Quando a AI assume atividades mais rotineiras, pode aumentar o valor das habilidades complementares associadas à função. Mas quando passa a executar justamente as tarefas mais especializadas de uma profissão, como o diagnóstico do médico, a argumentação jurídica do advogado e a análise financeira do economista, tende a reduzir o valor econômico desse diferencial.

O ponto decisivo não é a substituição em si, mas onde ela incide dentro da estrutura das tarefas. Quando tecnologias desse tipo se difundem rapidamente, esse mecanismo pode alterar simultaneamente o valor relativo de habilidades em muitas profissões intensivas em conhecimento. Alguns efeitos são previsíveis. Suas consequências sistêmicas, menos.

Uma dimensão estrutural importante é que o impacto distributivo dependerá de como empresas e instituições decidirão utilizar a tecnologia. Se a IA for empregada predominantemente para substituir trabalho e reduzir custos, pode ampliar desigualdade e concentrar renda. Se for orientada para complementar trabalhadores e criar novas atividades, pode elevar renda agregada e gerar novas ocupações. A tecnologia abre possibilidades.

São os incentivos que selecionam quais delas se materializam. Não há muitos motivos para supor que esses incentivos, deixados a si mesmos, favoreçam a segunda opção. Para Daron Acemoglu, esse viés não é inevitável: é produto de incentivos que a política pública poderia tentar corrigir, orientando a inovação para complementaridade em vez de substituição.

Os efeitos mais profundos da inteligência artificial talvez não sejam econômicos, ou pelo menos não apenas econômicos.

A transferência sistemática de atividades mentais para máquinas pode reduzir o exercício de certas competências, como formular argumentos ou organizar raciocínios complexos, como observa Marcelo Gleiser. Sabemos que habilidades não praticadas tendem a enfraquecer. É uma hipótese plausível.

Mas qualquer afirmação categórica sobre esses impactos permanece prematura e insuficientemente suportada pela evidência disponível. Vale lembrar que outras revoluções computacionais, do Projeto Manhattan à Máquina de Turing, ampliaram, e não reduziram, a capacidade humana de formular argumentos. A diferença, agora, é que a delegação não se limita ao cálculo: estende-se à formulação do problema, à interpretação dos resultados e à validação das conclusões.

Há um argumento mais radical ainda, que contorna essa ressalva empírica. A AI não está apenas substituindo nossas intuições. Ela está revelando que essas intuições sempre foram menores do que imaginávamos.

Por décadas, economistas, médicos, juízes e outros especialistas partiram da premissa de que a intuição, somada à criatividade humana de formular hipóteses e ver conexões novas, era o principal ponto de partida para compreender problemas complexos, validando suas conclusões por relações causais relativamente consistentes e por testes empíricos sucessivos. A AI mostra que isso talvez ocupe apenas uma parte limitada de um espaço epistêmico muito maior.

Se isso for verdade, o risco não é só que deixemos de exercitar capacidades que tínhamos. É que as instâncias de julgamento que construímos sobre essa intuição possam perder sua referência antes mesmo de percebermos que isso ocorreu.

Essa diferença, entre substituir o julgamento ou preservá-lo, pode parecer operacional. Mas define o tipo de sociedade que estamos construindo, ao afetar a capacidade de identificar erros e oportunidades, reagir a eles e ajustar decisões ao longo do tempo.

A preocupação de Gleiser se concentra no indivíduo: no estudante que delega a redação, no profissional que terceiriza o julgamento, no pesquisador que aceita a narrativa gerada pela máquina. Se essa tendência se consolidar, é plausível que seus efeitos não permaneçam restritos ao plano individual. Uma sociedade composta por indivíduos que exercem cada vez menos essas capacidades tenderia, ao longo do tempo, a ver enfraquecida sua base cognitiva coletiva. É dessa base que dependem seus processos de avaliação, decisão e julgamento, ainda que isso nem sempre seja imediatamente visível.

É aqui que o conceito de voice de Albert O. Hirschman se torna crítico. O conceito descreve a tentativa de membros, consumidores ou cidadãos de corrigir a deterioração de uma organização por meio de manifestações, reclamações ou ações diretas, em vez de simplesmente abandoná-la. Não como resistência ao progresso, mas como o pilar da resiliência institucional. 

Em contextos de transformação profunda, essa capacidade deixa de ser apenas desejável e passa a ser funcionalmente necessária. É ela que permite detectar erros, identificar oportunidades, questionar resultados e ajustar trajetórias em tempo hábil.

Se o exercício do julgamento vier a se enfraquecer, o próprio mecanismo de correção e exploração pode se deteriorar. Preservar o voice não é apenas preservar uma virtude. É manter operante o principal instrumento de adaptação institucional. Se essa transferência de funções se tornar estrutural, ela pode afetar o modo como o conhecimento é produzido e avaliado.

Os modelos atuais são poderosos, mas seu modo de operar merece atenção: identificam padrões estatísticos complexos em grandes volumes de dados, mas isso não significa que possuam compreensão conceitual no sentido forte do termo, como observa Melanie Mitchell. Sistemas desse tipo podem produzir respostas convincentes sem necessariamente possuir uma representação consistente do mundo que descrevem. O próprio Geoffrey Hinton, pioneiro das redes neurais modernas, reconheceu recentemente a dificuldade crescente de compreender plenamente como capacidades emergem desses sistemas.

boopo dario amodei

O que torna essa característica ainda mais surpreendente é que, em vários casos, é precisamente essa ausência de compreensão que parece estar por trás da superioridade dos sistemas: eles conseguem identificar associações entre milhares de fatores analisados simultaneamente, operando fora do alcance da intuição e da capacidade humana de processar grandes volumes de relações complexas, sem precisar estabelecer as relações causais ou funcionais subjacentes.

Nossa capacidade de fazer progresso, detectando erros, corrigindo-os e identificando oportunidades, foi construída sobre a lógica causal. Onde ela não existe, e onde as associações emergem de um volume de fatores que excede qualquer capacidade humana de acompanhar, tanto os erros quanto as oportunidades dificilmente são rastreáveis, e ainda precisamos desenvolver instrumentos adequados para identificá-los.

Nesse contexto, a dependência crescente desses sistemas pode introduzir erros difíceis de perceber no momento em que ocorrem. Quanto mais precisos e convincentes eles parecem, mais difícil pode se tornar identificar onde e quando falham.

Mesmo que esses sistemas se tornem progressivamente mais precisos, isso não elimina o problema, apenas o desloca: erros menos frequentes podem se tornar também menos visíveis e, justamente por isso, potencialmente mais graves.

A própria ideia de inteligência artificial geral pode ser enganosa, como argumentam Yann LeCun e coautores. Nem mesmo a inteligência humana é verdadeiramente geral: somos altamente capazes em alguns domínios e bastante limitados em outros.

Além disso, críticos como LeCun sustentam que modelos baseados predominantemente em correlações estatísticas, como os LLMs, carecem de representações estruturadas do mundo – o que limitaria sua capacidade de raciocínio robusto fora dos padrões observados nos dados.

Mas essa crítica pode ser lida de outra forma. O que para LeCun aparece como limitação, a ausência de modelos estruturados do mundo, é precisamente o que, em vários casos, parece permitir aos sistemas explorar padrões que excedem o que qualquer intuição consegue alcançar. Em vez de uma mente artificial universal, o avanço da AI pode ocorrer pela multiplicação de sistemas altamente competentes em tarefas específicas, o que torna sua governança simultaneamente mais urgente e mais difícil.

Não é uma visão consensual. Para Ray Kurzweil, uma das vozes mais influentes no debate sobre o futuro da tecnologia, a inteligência artificial geral é não apenas possível, mas inevitável em horizonte próximo, o ponto em que a capacidade das máquinas superará a humana e acelerará o progresso de forma que mal conseguimos antecipar, no que ele descreve como singularidade – um momento em que o avanço tecnológico se torna autoacelerado e qualitativamente distinto da experiência histórica anterior.

Esse argumento se estende à esfera pública: ferramentas capazes de gerar linguagem persuasiva em larga escala e a custo próximo de zero alteram estruturalmente o modo como informações circulam na sociedade. Quando qualquer ator pode produzir e distribuir conteúdo convincente em escala industrial, a distinção entre autoria humana e geração automatizada se dissolve. Mais do que volume, o ponto é a capacidade de produzir narrativas coerentes e persuasivas sem vínculo verificável com a realidade, o que dificulta a própria distinção entre informação e construção artificial.

O problema deixa de ser apenas informacional e passa a ser institucional, como observa Yuval Noah Harari. O ambiente em que decisões coletivas são tomadas muda de natureza.

A inteligência artificial já opera de forma abrangente em diversos domínios sociais. Nos EUA, investigações recentes documentaram algoritmos de seguradoras que cortaram automaticamente tratamentos para pacientes gravemente enfermos, com base em projeções estatísticas que médicos contestaram, afetando milhares de casos antes que o problema fosse identificado.

Quando sistemas desse tipo operam em grande escala, pequenos erros ou distorções podem produzir efeitos amplificados – e a velocidade com que se propagam frequentemente supera a capacidade institucional de corrigi-los.

Isso decorre também de um descompasso mais profundo. Sistemas de AI podem ser desenvolvidos a partir de uma mesma arquitetura algorítmica e, com adaptações relativamente pequenas, aplicados simultaneamente em setores completamente distintos, como saúde, finanças, educação, defesa e entretenimento. O problema é que as instituições regulatórias modernas foram construídas de forma setorial.

Quando uma tecnologia atravessa todos esses domínios simultaneamente, surge um desalinhamento profundo: as regras foram desenhadas para governar atividades separadas e não conseguem acompanhar sistemas que operam entre fronteiras.

Uma dinâmica adicional torna a cautela estruturalmente improvável. Na corrida geopolítica entre EUA e China, e entre as grandes empresas do setor, quem der o salto decisivo em capacidade geral tenderá a se descolar dos demais em poder econômico, militar e informacional de forma potencialmente irreversível, dinâmica destacada por Dario Amodei.

Isso cria um problema de incentivos: mesmo agentes conscientes dos riscos enfrentam custos elevados ao desacelerar unilateralmente. O resultado é um equilíbrio em que decisões racionais no nível individual podem produzir trajetórias coletivas difíceis de controlar, numa estrutura em que a prudência é penalizada e a velocidade é recompensada, uma corrida “armamentista” da inteligência artificial.

Levando essa linha de raciocínio a um horizonte mais distante, surge um problema adicional: sistemas suficientemente capazes podem produzir consequências graves mesmo quando operam de acordo com os objetivos que receberam. O problema não é a intenção, mas a forma inflexível com que sistemas perseguem objetivos, como discutem Nick Bostrom e Eliezer Yudkowsky.

Mesmo quando um sistema é projetado para cumprir uma tarefa simples, algumas condições passam a ser decisivas para que ele consiga realizá-la. Se for desligado, ele falha; se sofrer interferência, pode não entregar o resultado; se não tiver acesso a recursos, sua execução fica comprometida. Não é preciso supor consciência ou malícia.

O que parece autopreservação pode surgir simplesmente do fato de que, para cumprir o que lhe foi pedido, o sistema precisa continuar funcionando e, por isso, pode tender a resistir a qualquer coisa que impeça esse funcionamento. Essa opacidade tem consequências diretas para quem precisa decidir com base nesses sistemas.

Talvez o problema central esteja menos nas conclusões desse debate e mais na natureza da incerteza envolvida. O ponto comum nesses casos é que se trata de situações em que não sabemos sequer quais são os cenários possíveis ou relevantes. Tecnologias transformadoras não apenas alteram resultados dentro de um conjunto conhecido de possibilidades; elas podem também modificar o próprio conjunto de possibilidades.

Um dado recente ilustra bem essa dificuldade: modelos de inteligência artificial conquistam hoje medalhas de ouro na Olimpíada Internacional de Matemática e, ao mesmo tempo, leem relógios analógicos corretamente em apenas parte das tentativas. Não sabemos o que não sabemos sobre os limites desses sistemas, e essa ignorância é estrutural, não provisória.

Em contextos assim, estamos diante do que os economistas Mervyn King e John Kay chamam de incerteza radical – uma ideia que retoma, no plano institucional, a distinção clássica de Frank Knight entre risco calculável e incerteza genuína: situações em que não sabemos sequer quais são os cenários possíveis e, por isso, não há base sólida para tratá-los como se pudessem ser adequadamente descritos por uma distribuição de probabilidades.

Isso ocorre com frequência em processos sociais complexos, nos quais os próprios agentes observados interpretam, reagem e alteram o ambiente em que atuam.

Em contextos de incerteza radical, não é possível antecipar trajetórias de forma confiável. A forma de lidar com esse ambiente é preservar mecanismos institucionais capazes de detectar erros e oportunidades à medida que surgem, tal como no conceito de voice de Hirschman.

Essa leitura reforça o problema da incerteza radical: não apenas não sabemos quais são os cenários possíveis, também não sabemos em que dimensões os sistemas que usamos para navegar esses cenários são confiáveis. A própria ferramenta que usamos para reduzir a incerteza é, ela mesma, uma fonte de incerteza de tipo desconhecido. E quanto mais eficientes se tornam esses sistemas, mais os utilizamos, e mais difícil se torna perceber onde e quando falham.

Nessas condições, o desafio principal deixa de ser prever resultados e passa a ser preservar instituições capazes de detectar erros, identificar oportunidades e corrigi-los ao longo do tempo.

Essa capacidade institucional não surge espontaneamente nem pode ser improvisada quando os problemas já se manifestam. Ela resulta de escolhas cumulativas, feitas ao longo do tempo, sobre educação, integração econômica e tecnológica internacional, inovação e qualidade regulatória.

Sociedades que tratam essas dimensões como prioridades estratégicas ampliam não apenas sua capacidade de absorver novas tecnologias, mas também de governar seus efeitos. Em países como o Brasil, que enfrentam defasagens acumuladas nessas dimensões, o risco de uma inserção predominantemente reativa pode ser particularmente elevado.

Se isso for verdade, a questão passa a ser outra: como incorporar essas tecnologias preservando a capacidade de corrigir trajetórias quando efeitos inesperados surgirem?

Em alguns países começam a surgir tentativas de lidar com esse desafio por meio de sandboxes regulatórios, ambientes institucionais controlados nos quais novas tecnologias podem ser testadas sob supervisão antes de serem liberadas em escala mais ampla, e auditorias independentes que avaliam o comportamento de sistemas em operação. Essa abordagem está associada a uma ideia mais ampla de resiliência institucional.

Sistemas resilientes são aqueles capazes de absorver choques inesperados, aprender com eles e se reorganizar sem colapsar. Resiliência não é conservadorismo: é o que torna possível a ousadia.

Estamos diante de uma transformação cuja escala e cujas implicações ainda não conseguimos avaliar plenamente. Ela ampliará a fronteira científica e produtiva e alterará a forma como informação, poder e decisão se organizam.

Em um ambiente de incerteza radical, o desafio não é prever todos os efeitos da inteligência artificial, nem apenas aprender enquanto ela se difunde. É preservar a possibilidade de mudar de rumo quando o aprendizado, se for o caso, revelar que erramos.

Há aqui, porém, uma tensão que merece ser nomeada. A abordagem institucional que este texto descreve pressupõe exatamente o tipo de capacidade cognitiva coletiva que, se a hipótese sobre erosão do julgamento crítico se confirmar, estaria ela mesma sob ameaça.

Nomear essa tensão não é abandonar essa abordagem. É reconhecer que, num ambiente de incerteza radical, criar e fortalecer mecanismos institucionais de detecção e correção de erros é um passo necessário para que possamos desenvolver respostas à altura do problema.

Talvez, no fim, a tecnologia mais importante não seja o código que criamos, mas a capacidade institucional de tentar detectar erros, sinalizá-los e corrigir trajetórias. É essa capacidade, ainda em construção, que determinará como e até que ponto conseguiremos lidar com os efeitos de uma transformação que ainda mal começamos a compreender.

Daniel L. Gleizer é doutor em Economia pela Universidade da Califórnia em Berkeley, ex-diretor do Banco Central e sócio-fundador do Centro de Debate de Políticas Públicas (CDPP).