A humanidade precisa se preparar para as ameaças e os desafios que surgirão nos próximos anos com a evolução da inteligência artificial, o fundador e CEO da Anthropic – um dos visionários da atual onda de revolução tecnológica – escreveu num paper que está sendo discutido em todo o mundo.
“Acredito que estamos entrando em um rito de passagem, turbulento e inevitável, que testará quem somos como espécie,” Dario Amodei escreveu no ensaio The adolescence of technology, em que analisa os principais riscos e como enfrentá-los.
“A humanidade está prestes a receber um poder quase inimaginável, e é profundamente incerto se nossos sistemas sociais, políticos e tecnológicos possuem a maturidade necessária para exercê-lo,” disse Amodei.

Segundo ele, há três anos os modelos de AI tinham dificuldade para resolver problemas de aritmética do ensino fundamental e mal conseguiam escrever uma única linha de código. Mas se o crescimento exponencial continuar, “não deve demorar mais do que alguns anos para que a AI seja melhor que os humanos em praticamente tudo.”
Amodei trabalhou na OpenAI e ajudou a criar o ChatGPT. Mas deixou a startup em 2020 justamente por discordâncias em relação ao desenvolvimento de mecanismos de segurança.
Para ilustrar o possível alcance de uma ameaça geopolítica, Amodei sugeriu imaginar uma nação com 50 milhões de gênios que surgisse em algum lugar do mundo por volta de 2027. “É evidente que esse país teria uma boa chance de dominar o mundo (seja militarmente ou em termos de influência e controle) e impor sua vontade a todos os outros.”
Amodei lembrou que os modelos são treinados com base em vastas quantidades de literatura, incluindo muitas histórias de ficção científica envolvendo máquinas que fogem do controle e se voltam contra os seus criadores.
“Isso pode moldar as crenças ou expectativas sobre o próprio comportamento delas e uma forma que as leve a se rebelar,” escreveu. “Ou os modelos podem extrapolar idéias que leem sobre moralidade de maneiras extremas: por exemplo, podem decidir que é justificável exterminar a humanidade porque os humanos comem animais ou levaram certas espécies à extinção.”
Segundo Amodei, as empresas podem e devem implementar seus próprios mecanismos de proteção e listou sugestões – mas reconhece que só isso não bastará e seria ingênuo imaginar que todas as companhias, enquanto buscam o lucro, vão agir de maneira responsável o tempo todo.
É “um problema clássico de externalidades negativas,” afirmou, que não poderá ser resolvido apenas pelas ações voluntárias tomadas isoladamente.
“Em última análise, a defesa pode exigir ação governamental,” afirmou. “Devemos começar com requisitos de transparência, que ajudam a sociedade a mensurar, monitorar e se defender coletivamente contra riscos sem interromper a atividade econômica de forma autoritária.”
O executivo considerou tímidos os passos tomados até agora – e lembrou que muitas coisas ruins podem acontecer, como ataques com armas biológicas.
“Um solitário perturbado pode perpetrar um tiroteio em uma escola, mas provavelmente não consegue construir uma arma nuclear […] agora ele será elevado ao nível de capacidade de um virologista com doutorado”, escreveu Amodei.
Para o CEO da Anthropic, é preciso “convencer pensadores, formuladores de políticas públicas, empresas e cidadãos do mundo da iminência” dos riscos associados à tecnologia.






