Jensen Huang, o CEO e cofundador da Nvidia, apresentou ao mundo uma nova geração de processadores 5 vezes mais poderosos do que os usados hoje nos sistemas mais avançados de inteligência artificial. 

A nova geração de processadores ganhou o nome de Blackwell, e os primeiros chips a chegar ao mercado, ainda este ano, serão o B200 e o GB200.

O ‘superchip’ GB200 tem 208 bilhões de transistores – 2,5x o total dos H100. Na verdade, o processador reúne dois chips interligados que trabalharão conjuntamente, porque não foi possível fabricar um único processador com essa quantidade de transistores. 

Segundo a Nvidia, o GB200 entrega até 20 petaflops de capacidade de processamento contra 4 do H100, atualmente o processador mais robusto do mercado e utilizado nos servidores do ChatGPT e das ferramentas de IA da Microsoft, Google e Meta.  

NvidiaO aguardado anúncio dos novos chips foi feito durante a apresentação de Huang na conferência anual de desenvolvedores da Nvidia, a GPU Technology Conference, um evento que a imprensa apelidou de ‘o Woodstock da Inteligência Artificial.’ 

Huang afirmou que o “futuro será generativo,” uma referência à inteligência artificial generativa, que além de criar conteúdo novo a partir de comandos de voz ou texto pode também acelerar processos, economizando tempo e energia.

“É uma indústria completamente nova,” disse Huang. “A maneira de fazer computação para a era da IA generativa é diferente.”

O CEO da Nvidia deu um indicativo da transformação em curso. Nos últimos oito anos, a capacidade computacional foi multiplicada por 1.000. (Na era dos processadores convencionais, a capacidade era multiplicada por 100x a cada década.)

“Nós criamos um processador para a era da IA generativa,” disse o CEO.

De acordo com Huang, será necessária uma nova maneira de fazer computação para escalar a capacidade e reduzir os custos. Para isso, “precisamos de GPUs ainda maiores,” disse ele.

GPU significa graphics processing unit, ou unidades de processamento gráfico. São chips cuja arquitetura foi inicialmente desenvolvida para aprimorar o processamento de imagens – em videogames – mas se revelaram os chips mais potentes e eficientes para construir a infraestrutura dos sistemas de IA.

Milhares deles são interligados nos supercomputadores. As primeiras versões do ChatGPT teriam exigido servidores com cerca de 5.000 GPUs. Tornar o sistema disponível para milhões de usuários requer servidores gigantescos com milhares e milhares de GPUs – e os processadores dominantes hoje são o H100, da geração Hopper, e o anterior A100, ambos da Nvidia.

Líder absoluta nessa tecnologia, a Nvidia acumula vendas e lucros crescentes – e suas ações não param de subir. Ela é hoje a terceira empresa mais valiosa do mundo, com um market cap de US$ 2,2 trilhões, e ameaça tomar o segundo lugar da Apple. (A Microsoft está no topo.)

Com a nova geração de processadores, um sistema de IA poderá entregar modelos com até 27 trilhões de parâmetros (variáveis) – mais de 15x o total de 1,7 trilhão de parâmetros do GPT-4, o último modelo da OpenAI. 

A Nvidia apresentou também um novo software, o NIM, com o objetivo de facilitar o desenvolvimento,  treinamento e aplicação de sistemas de IA. 

“Blackwell não é um chip, é o nome de uma plataforma,” disse Huang. 

O nome foi uma homenagem ao matemático David Blackwell, o primeiro homem negro a ser aceito pela National Academy of Sciences.

O ganho em processamento será traduzido em sistemas de IA maiores, mais complexos e, segundo Huang, mais eficientes do ponto de vista energético.

Para treinar um modelo como a última versão do ChatGPT são necessários 8.000 GPUs H100 e 15 megawatts de potência. O mesmo desenvolvimento pode ser feito por 2.000 GPUs Blackwell e apenas 4 megawatts.

Os números ainda precisam ser testados na vida real, mas segundo a Nvidia os processadores da geração Blackwell entregam 4x mais performance no treinamento de sistema de IA do que os chips Hopper. A inferência – a capacidade dos modelos de grande linguagem de oferecer respostas e tomar decisões – terá um ganho de até 30x, para um consumo de energia até 25x menor que o do H100.

Todas as big techs já fizeram encomendas da nova geração de processadores. A Amazon Web Services – AWS, a nuvem da Amazon – informou que vai construir um servidor com 20.000 chips GB200. 

Analistas estimam que cada processador desses custará em torno de US$ 50.000, praticamente o dobro do preço médio de um H100. 

Uma das aplicações desses novos chips e modelos de IA será o desenvolvimento dos robôs humanoides – atualmente “um dos mais excitantes problemas de IA para serem resolvidos,” disse Huang.

 

MAIS NVIDIA

Keynote do CEO Jensen Huang | GTC 2024