Uma pesquisa recente revelou que 37% dos brasileiros já tomaram uma decisão de compra influenciada por uma ferramenta de inteligência artificial. Mais de 60% enxergam a tecnologia de forma positiva, e 63% já usaram plataformas como ChatGPT, Gemini ou Copilot. 

À primeira vista, são números que sinalizam um País em transformação digital. Mas sob a lente da antropologia, estes números revelam algo mais profundo: a forma como transferimos às máquinas o papel de mediadores culturais.

O que me chamou a atenção não foi a pesquisa em si, mas o anúncio de uma nova solução lançada por uma empresa de comunicação. O produto promete “mapear a presença de marcas nas respostas dadas por IAs generativas” e criar “planos de ação para torná-las a resposta preferencial”.

Em outras palavras, oferece o poder de intervir naquilo que acreditamos ser neutro, técnico ou verdadeiro. Isso marca um deslocamento profundo: a influência deixa de ser visível e, portanto, questionável, para tornar-se parte invisível do próprio tecido cognitivo coletivo.

Não se trata mais de disputar espaço no Google, mas de disputar o significado das respostas, ou o lugar da “verdade”. A publicidade, que nasceu como discurso explícito de persuasão, começa a se dissolver em sistemas que moldam crenças sem que percebamos.

É a transformação da influência em infraestrutura cultural. Um poder que já não precisa se anunciar, porque está embutido naquilo que chamamos de “inteligência”.

Por trás do discurso elegante de “gestão reputacional”, o que realmente se oferece é a capacidade de interferir silenciosamente na formação das percepções humanas.

É uma nova forma de publicidade, escondida sob a aparência de verdade. A inteligência artificial responde com autoridade, sem fontes, sem contrapontos, e o usuário, desarmado, acredita. A manipulação não aparece na tela, nem na voz do assistente virtual. Ela está no código, na curadoria do vocabulário, na hierarquia das ideias, na ausência minuciosamente calculada da dúvida.

Isso representa uma mutação no ecossistema da crença. A publicidade, antes um discurso de persuasão, se transforma em rito invisível de legitimação, uma forma de poder simbólico que opera sem que percebamos. Não vendemos mais produtos; vendemos narrativas. E assim, o que antes era propaganda hoje se confunde com verdade.

Infelizmente, é ingenuidade acreditar que a ética prevalecerá. Desde que o homem aprendeu a descrever o mundo, aprendeu também a moldá-lo a seu favor. Sempre houve quem soubesse se aproveitar da linguagem – e agora, da AI – como uma oportunidade de moldar narrativas, distorcer fatos e fabricar verdades convenientes. Se hoje esse poder é usado para influenciar o consumo, amanhã poderá ser usado para algo ainda mais perigoso: influenciar consciências.

Imagine campanhas políticas em que candidatos não precisem mais convencer ninguém. Bastará treinar modelos de linguagem para que respondam de forma “favorável” sempre que alguém perguntar por que votar neles.

A manipulação deixará de ser pública e passará a ser íntima, direcionada, invisível. E talvez este seja o ponto mais inquietante: o poder simbólico deixará de ser disputado nas praças, nas telas ou nas urnas, e passará a habitar o diálogo silencioso entre o indivíduo e a máquina.

Essa é a nova fronteira do poder: não disputar espaço nas manchetes, mas disputar a confiança nos bastidores dos algoritmos. A propaganda tradicional tenta chamar atenção; a propaganda algorítmica aprende a se disfarçar de verdade.

E, pior, é personalizada. Molda-se à forma como cada um pensa, fala e acredita. Cada indivíduo passa a habitar um microssomo narrativo, feito sob medida, onde a AI parece imparcial mas fala com a voz de quem a programou, e, mais sutilmente, com a entonação que cada um deseja ouvir.

Ainda pensamos?

A humanidade terceirizou o pensamento muito antes da inteligência artificial: primeiro para a TV, para as novelas, depois para o Google, agora para o feed do Instagram. As ‘liquidações’ nunca foram liquidações, as notícias nunca foram neutras, e a maioria das opiniões é apenas uma curadoria emocional: escolhemos quem pensar por nós, desde que não nos exija o esforço de refletir”, e a opinião das pessoas é 100% baseada em alguém que elas escolheram para acreditar, e que não as faça gastar energia com pensar.”

Em outras palavras, a inteligência artificial é só a mais recente de uma longa linhagem de intermediários da consciência. Uma forma sofisticada de preservar o velho hábito de evitar o peso de escolher.

Ainda assim, pode haver exceções.

Talvez uma minoria se importe genuinamente com o pensamento crítico o bastante para questionar, comparar, duvidar. 

Sempre haverá quem use a tecnologia para manipular, explorar ou enganar. Mas se abrirmos mão do pensamento crítico, não podemos culpar a máquina. A responsabilidade e o erro continuarão sendo nossos.

 Clécia Simões é conselheira estratégica, Investidora anjo e especialista em capital humano, com atuação destacada em fintechs, IA e inovação. É fundadora da Mind Design Lab, consultoria focada em cultura organizacional e saúde mental, e atua como assessora estratégica de startups no Brasil e no Vale do Silício.

Edson Santos é fundador da Colink Business Consulting, conselheiro e investidor anjo, autor do livro “Do Escambo à Inclusão Financeira – A evolução dos meios de pagamento” e coautor de “Payments 4.0 – As forças que estão transformando o mercado brasileiro.”