A corrida nuclear culminou na capacidade de as potências se destruírem mutuamente – e no risco de todo o planeta ir pelos ares por causa de um simples descuido nos protocolos de segurança.
Na semana passada, ficou um pouco mais evidente que a corrida da inteligência artificial está empurrando a humanidade para uma ameaça semelhante.
A Anthropic criou um novo modelo que, segundo a empresa, é perigoso demais para ser divulgado – especialmente por causa de sua capacidade de realizar operações de hackeamento de alto nível e de maneira totalmente autônoma, sem qualquer orientação humana.

Se pode hackear, por que não poderia detonar um ataque cibernético ou coisa pior?
Mesmo em meio à guerra no Irã, o assunto virou prioridade na agenda das autoridades americanas. Informações divulgadas apenas posteriormente revelaram que, na terça-feira passada, o secretário do Tesouro, Scott Bessent, e o presidente do Federal Reserve, Jay Powell, convocaram uma reunião de emergência em Washington com os CEOs dos maiores bancos americanos. A pauta foi o risco de um sistema de AI driblar as ferramentas de segurança cibernética do sistema financeiro.
O novo modelo da Anthropic é o Claude Mythos Preview, que a empresa decidiu não divulgar para o grande público. Apenas um grupo de 40 empresas – incluindo Apple, Amazon, Microsoft e JP Morgan, além de algumas das principais companhias de cibersegurança, como a Crowdstrike – terão acesso ao código.
Por seu elevado poder de raciocínio e capacidades de explorar fragilidades e vulnerabilidades em softwares, o Mythos Preview representa uma ameaça até agora sem precedentes.
Por iniciativa da própria Anthropic, foi criado um consórcio chamado Projeto Glasswing, do qual farão parte empresas que concorrem diretamente na disputa comercial da AI, como o Google, além de fornecedores de hardware como Nvidia, Cisco e Broadcom, e desenvolvedores de softwares críticos de código aberto, como a Linux Foundation.

“Criamos o Projeto Glasswing devido às capacidades que observamos em um novo modelo de vanguarda treinado pela Anthropic, que acreditamos ter o potencial de remodelar a cibersegurança,” afirmaram as empresas da coalizão. “Os modelos de AI atingiram um nível de capacidade de programação que lhes permite superar quase todos os humanos, exceto os mais habilidosos, na busca e exploração de vulnerabilidades dos softwares.”
Segundo a Anthropic, o Mythos Preview já encontrou milhares de vulnerabilidades de alta gravidade – e até mesmo nos principais sistemas operacionais e navegadores da web.
Em um dos casos observados, a equipe de segurança da empresa afirmou ter sido possível comprometer um navegador para que um site criado por um hacker pudesse ler dados de outro site – por exemplo, os dados de uma conta bancária.
“Dado o ritmo acelerado do progresso da AI, não vai demorar para que tais capacidades proliferem, potencialmente além do alcance de agentes comprometidos com sua implantação segura,” disseram as empresas envolvidas na iniciativa.
“As consequências – para as economias, a segurança pública e a segurança nacional – podem ser graves. O Projeto Glasswing é uma tentativa urgente de colocar essas capacidades a serviço de fins defensivos.”
Dario Amodei, o fundador e CEO da Anthropic, tem sido um dos líderes na revolução da AI – e também um dos mais vocais divulgadores dos riscos envolvidos e defensor intransigente da segurança no desenvolvimento da tecnologia. Ex-chefe de pesquisa da OpenAI, foi um dos criadores do ChatGPT, mas deixou a empresa por divergências com o CEO Sam Altman – justamente por questões de segurança – e fundou sua própria startup em 2021.
Logan Graham, o diretor de uma equipe da Anthropic que testa novos modelos para capacidades perigosas, chamou o Mythos de “o ponto de partida para o que acreditamos ser um ponto de virada na indústria – ou um acerto de contas que precisa acontecer agora.”
SAIBA MAIS






