Em 1968, os líderes das potências nucleares sentaram-se à mesa na sede das Nações Unidas em Genebra para aprovar um Tratado de Não-Proliferação Nuclear – colocando limites à corrida armamentista que colocava em risco a própria existência da humanidade.
Chegou a hora de fazer algo parecido com a inteligência artificial, defendeu o jornalista e escritor Sebastian Mallaby em um artigo no New York Times.

O Governo Biden procurou enfraquecer o desenvolvimento da AI na China e manter a liderança americana ao impor sanções à exportação de chips de última geração. Mas a estratégia não vem funcionando, diz Mallaby – autor de livros celebrados sobre a história econômica recente, incluindo obras sobre Alan Greenspan, o venture capital e os hedge funds.
Agora, ele acaba de lançar The Infinite Machine: Demis Hassabis, DeepMind, and the Quest for Superintelligence (Compre aqui)
“Os controles de exportação de chips falharam,” Mallaby escreveu no Times. “O setor tecnológico da China é sofisticado demais para ser impedido de desenvolver inteligência artificial poderosa. Ao perseguir um objetivo impossível, os EUA estão perdendo a oportunidade de tentar algo que soa fantasioso, mas que, após uma recente viagem de reportagem à China, acredito ser mais realista: os EUA deveriam negociar com a China um pacto global sobre segurança da AI, que imporia limites universais a uma tecnologia que pode fazer muito bem – mas que, nas mãos erradas, causaria muito mal.”
Segundo Mallaby, os desenvolvedores chineses contornaram os controles treinando seus modelos de AI em data centers localizados em outros países.
Os defensores do controle de chips continuam a insistir que mesmo uma desaceleração modesta do avanço chinês vale a pena. Mas para Mallaby, os controles não estão conseguindo entregar os objetivos imaginados.
“O Governo Biden fez uma escolha estratégica ao priorizar a desaceleração da China em vez de abordar outras preocupações. A alternativa teria sido dizer à China: Vocês são uma superpotência tecnológica. Nós também somos. Vamos trabalhar juntos para garantir que a AI não caia nas mãos de estados párias e terroristas,” escreve Mallaby. Isso teria sido “o equivalente para AI ao Tratado de Não Proliferação Nuclear de 1968, um regime que exigiria que todos os países aderissem às salvaguardas.”
De acordo com Mallaby, os EUA partiram do pressuposto de que os chineses não aceitariam negociar algo do tipo. Mas ele voltou da China convencido de que as elites do país estão alarmadas com os riscos da AI.

“Por ora, o instinto chinês de correr atrás de uma inteligência artificial poderosa supera qualquer cautela. Essa é uma resposta racional a um Governo americano igualmente determinado a priorizar a velocidade em detrimento da segurança,” escreve o autor. “Mas se um líder americano fosse à China e oferecesse o fim dos controles sobre chips em troca de colaboração na não proliferação da AI, haveria pelo menos alguma chance de a proposta ser bem-sucedida.”
No artigo, Mallaby contou que visitou uma empresa que desenvolveu um importante modelo de AI de código aberto. “O CEO desta empresa fez uma admissão surpreendente: à medida que a AI se torna mais poderosa, seria uma loucura mantê-la de código aberto, afirmou ele. Ninguém disponibilizaria uma arma nuclear como código aberto.”
Em alguns momentos da Guerra Fria, os EUA buscaram seus interesses alternando entre confronto e distensão, lembrou Mallaby. “O Tratado de Não Proliferação Nuclear foi assinado apenas seis anos após a crise dos mísseis de Cuba. Agora é um bom momento para relembrar essa história.”






