A Advanced Micro Devices (AMD) apresentou um novo e superpotente processador para inteligência artificial, uma tentativa de desafiar a liderança da Nvidia no segmento. 

O MI300 X foi concebido para enfrentar o H100 da Nvidia, usado no ChatGPT e outros sistemas de IA generativa. O chip da AMD oferece impressionantes 192 gigabytes de memória, mais do que o dobro da capacidade do rival. 

A demanda pelo processador mais avançado da Nvidia explodiu por causa da escalada nos investimentos em IA. A dificuldade da empresa em satisfazer a demanda, no entanto, abre espaço para a concorrência.

É o que a AMD quer fazer a partir de agora com a sua nova estratégia de negócios, apresentada na terça-feira pela CEO Lisa Su, a responsável pelo turnaround da empresa nos últimos anos e que ambiciona fazer dela uma das líderes na corrida da IA.

Lisa Su“Quanto maior a memória, maior o conjunto de modelos que o chip pode processar,” Lisa disse numa entrevista à Reuters. “Vimos isso no processamento de nossos clientes. Acreditamos que será um diferencial.” 

A AMD era uma empresa que parecia sem futuro quando Lisa assumiu o comando em 2014. Mas de lá para cá, o preço da ação multiplicou por 60. 

Apesar disso, o mercado não se entusiasmou muito com a apresentação de terça-feira: o papel chegou a cair 3% durante o evento. Uma das razões foi a falta de detalhes sobre se já há conversas firmes com possíveis compradores dos novos chips.

As ações reagiram apenas no after market, depois que a Amazon Web Services (AWS), o maior serviço de computação em nuvem no mundo, disse que estuda usar o chip da AMD em seus data centers.

“As oportunidades em IA ainda estão em seu início, mas os esforços da AMD (mesmo na melhor das alternativas) ainda parecem atrasados quando são confrontados com um competidor que já tem o mapa, o ecossistema e um histórico em computação, software, networking e expertise em aplicativos – e que está dobrando o mercado a seu favor,” escreverem os analistas da Bernstein.

Ainda assim, a AMD é uma das ações que vêm surfando o “AI frenzy” que tomou os mercados. O papel sobe 30% no último mês e acumula alta de 97% desde o início do ano. 

A AMD negocia agora a 45x lucro, em comparação às 57x da Nvidia. 

A Nvidia conquistou uma posição nos data centers dos sistemas de inteligência artificial que dificilmente será ameaçada no curto prazo.

A empresa se especializou no desenvolvimento de processadores do tipo GPU (graphic processing units), utilizados inicialmente para acelerar o processamento de imagens, como nos videogames. Esses chips permitem a execução de atividades paralelas, ao contrário dos tradicionais CPUs (central processing units), que fazem as operações de maneira sequencial. 

Os CPUs são largamente utilizados, por exemplo, para rodar o Windows nos computadores pessoais. Mas os GPUs, em razão de seu poder de aceleração computacional, estão no sistema nervoso dos modelos mais complexos de inteligência artificial.

No mês passado, o Google Cloud anunciou o supercomputador A3, que carrega 26.000 GPUs H100, da Nvidia. A OpenAI precisa de 30.000 GPUs para rodar o ChatGPT. 

A Nvidia vem investindo nessa área há mais de uma década e não cuida “apenas” do desenvolvimento dos GPUs. Ela desenvolve programas e possui uma plataforma de programação – o CUDA, compute unified device architecture – que permite aos desenvolvedores criar aplicativos e treinar os sistemas de inteligência artificial, tirando uma melhor performance dos processadores. 

Graças a esses recursos e à capacidade de seus chips mais avançados, ela domina praticamente sozinha o mercado de treinamento de sistemas de linguagem computacional de grande escala – large language models, ou LLMs.

É essa a linguagem da inteligência artificial generativa, que produz conteúdos novos (como informações e imagens) a partir de informações previamente disponíveis. Nos bots como o ChatGPT, os comandos são feitos em linguagem normal, sem a necessidade de linguagem computacional. 

“Nesse mercado de treinamento de modelos, a Nvidia se posicionou de uma maneira muito forte,” diz Thiago Kapulskis, o analista de tecnologia do Itaú BBA. “O market share dela é de 99%.” 

Para Kapulskis, será difícil a AMD conquistar uma presença relevante nesse mercado, embora tenha apresentado uma plataforma para atrair desenvolvedores. Mas segundo ele, a empresa tem boas chances de ganhar participação no mercado de inferência, que é o de aplicações dos grandes e complexos sistemas de IA.

“Esse segmento não é tão sofisticado, demanda muito menos capacidade computacional do que o treinamento, mas é um mercado muito maior,” afirma o analista. “Nele há mais espaço para competição.” 

Na apresentação de terça, a AMD destacou que, com seu novo processador, um dos objetivos é de fato ganhar espaço como fornecedora no mercado dos sistemas de inferência. 

“Temos uma vantagem em modelos de grande linguagem porque podemos rodar esses modelos diretamente na memória,” disse a CEO. “Isso reduz o número de GPUs necessários, acelerando a performance, especialmente em inferência, e reduzindo os custos.”

Os aplicativos de IA tendem a perder velocidade quando as informações precisam transitar entre a memória e o armazenamento.

Os chips MI300X vão chegar ao mercado no terceiro trimestre. Cada um deles tem 153 bilhões de transistores. O H100 tem 80 bilhões.