SANTA CLARA, Califórnia – O visitante que passa pela recepção da Nvidia, em seu campus aqui no coração do Vale do Silício, precisa declarar se possui cidadania de algum dos países contra os quais os EUA impuseram sanções comerciais, entre eles China, Rússia, Coreia do Norte, Cuba e Irã.
A exigência denota a sensibilidade estratégica da empresa, que hoje lidera o desenvolvimento dos processadores que estão no sistema nervoso dos modelos de inteligência artificial generativa.
A empresa californiana começou a despontar no final dos anos 90 ao inovar na geração de imagens de alto realismo para games e animações. Foi isso que eventualmente a colocou no topo entre as produtoras de processadores de alta performance.
A Nvidia não possui fábricas. Ela “apenas” desenvolve a arquitetura dos processadores, que são produzidos fisicamente pela Taiwan Semiconductor Manufacturing Company (TSMC), a maior fabricante dos chips mais avançados disponíveis no mercado.
Com o resultado do primeiro tri, anunciado agora à noite, a Nvidia passou a valer na Bolsa o dobro do que vale a TSMC.
Os seus chips de mais alta performance, o A100 e o mais recente H100, são as engrenagens físicas – o hardware – do ChatGPT e de outros aplicativos de inteligência artificial generativa.
Não se sabe o número preciso, mas estima-se que, para rodar o ChatGPT, os servidores da Microsoft precisam de ao menos 10.000 chips da Nvidia – e cada um deles custa, no varejo, algo como US$ 10.000.
Em dezembro, a Petrobras começou a operar o Pégaso, um supercomputador com mais de 2.000 chips A100 da Nvidia.
“Estamos investindo nessa área há mais de uma década. Não foi um sucesso que veio da noite para dia,” Dave Salvator, diretor de marketing para produtos de computação acelerada, disse ao Brazil Journal, durante uma entrevista no campus da empresa. “Percebemos que estava vindo uma onda em que a IA subiria a um outro nível.”
Na conversa, Dave – que é casado com uma brasileira e nas horas vagas toca numa banda que faz versões instrumentais de músicas brasileiras – falou sobre a trajetória da Nvidia e o impacto da IA.
Como a Nvidia, que era conhecida por ser uma importante fornecedora da indústria de games, assumiu a liderança no desenvolvimento de chips que estão no centro nervoso da inteligência artificial generativa?
Tudo começou com games, de fato. Mais especificamente com a aceleração de gráficos 3D, em meados dos anos 90.
Um dos problemas no mundo dos games era que os processadores eram ótimos para fazer certas operações, mas não eram muito programáveis. Entre o hardware e o jogo, havia várias camadas de software. A velocidade era meio lenta.
Foram criadas diversas arquiteturas naquele período, mas um momento-chave veio com o desenvolvimento dos GPUs (graphics processing units) programáveis para tarefas específicas. Ao mesmo tempo, a Microsoft criou uma versão do programa Direct3D, chamado Shaders, com códigos que podiam ser manipulados para criar efeitos visuais.
Um grande desafio era criar o movimento de líquidos. Trata-se de um tipo de animação muito difícil de ser feito de maneira realística.
O visual dos jogos teve uma grande evolução. Foi aberto um novo ambiente de programação. Anos depois, em 2006, a Nvidia lançou a plataforma CUDA (compute unified device architecture), nosso ambiente para programar GPUs e desenvolver aplicativos.
Além dos games, tivemos ótimos resultados no uso para pesquisas científicas, como nas simulações dinâmicas de fluidos ou de meteorologia.
Outra contribuição foi no desenvolvimento de medicamentos, com as simulações da reação de moléculas. Antes, tudo isso era feito utilizando muitos processadores CPUs (central processing units) tradicionais, com baixa performance.
Um outro caminho aberto por essa nova tecnologia, obviamente, foram os efeitos de 3D para a indústria cinematográfica. A iluminação é um grande desafio para que os efeitos de 3D em um filme sejam realísticos. Para os jogos, existe o desafio adicional de a animação acontecer em tempo real.
Por que houve esse avanço recente na capacidade e nas aplicações da inteligência artificial?
Antes de mais nada, é importante dizer que a ideia de inteligência artificial existe há décadas. Começa com Alan Turing, que inventou o computador moderno. Ele já falava em IA e formulou o que ficou sendo conhecido como “Turing test”, para identificar se o interlocutor de uma conversa era um ser humano ou uma máquina.
Um tipo de AI que já existe há algum tempo é o machine learning, que no início era feita principalmente em CPUs, rodando análise de dados. Deep learning é um outro domínio do machine learning, mas muito mais intensivo em termos de computação, no volume de dados.
Agora, vemos esse avanço com a IA generativa. Um dos motivos é que a inteligência artificial está se tornando algo que pode ser usado por qualquer pessoa, e não apenas pelos programadores. Jensen (Huang, CEO e um dos fundadores da Nvidia) gosta de falar que, neste momento, todo mundo virou programador.
As pessoas podem falar em suas línguas naturalmente, e, a partir de uma descrição, criam imagens sensacionais. Ou podem realizar as interações com o ChatGPT, também em linguagem normal. Não é necessário saber escrever código.
Os computadores vão conseguir conversar entre si em linguagem normal?
Talvez. Vai depender de qual língua eles vão usar. Para que nós possamos falar em linguagem normal com as máquinas, ocorre um processo de decodificação, transformando nossa fala ou nossa escrita em linguagem computacional. Tem vários passos para entregar essa resposta, e tudo precisa acontecer em menos de 1 segundo.
Quando a Nvidia percebeu que o seu futuro poderia estar na inteligência artificial?
Estamos investindo nessa área há mais de uma década. Não foi um sucesso que veio da noite para o dia. Percebemos que se iniciava uma onda na qual computação acelerada (accelerated computing) e a IA subiriam a um outro nível.
Um fator essencial, e que muitas vezes surpreende as pessoas, foi o papel do software. Na Nvidia, o número de engenheiros de software é o dobro do número de engenheiros de hardware.
A arquitetura do chip é superimportante, mas performance depende de toda a plataforma. O processador é a estrutura. O software é a chave para realizar o potencial dos processadores, que são ferramentas complicadas de serem usadas.
Apresentamos recentemente três conjuntos de ferramentas para desenvolver aplicações com a IA generativa.
O NeMo é voltado para os grandes modelos de linguagem (large language models), como o GPT. O BioNeMo foi criado especificamente para o desenvolvimento de medicamentos. O Picasso é para aplicações visuais, com a criação de imagens e vídeos.
Nos EUA e em diversas partes do mundo, discute-se como regular a inteligência artificial. A Nvidia tem uma posição sobre o tema?
Acreditamos que seja necessário haver regras para garantir a segurança. Somos a favor de uma regulação que proteja os usuários.
De nossa parte, estamos também desenvolvendo programas e serviços que contribuam para dar maior segurança e combater a desinformação. Lançamos há pouco o Guardrails, um software que evita que o ChatGPT e outros aplicativos de IA generativa apresentam resultados que não sejam confiáveis e verdadeiros, como a criação, pela ferramenta de IA, de fake news ou distorção de fatos históricos.
A internet tem coisas extraordinárias, é uma plataforma formidável para ensinar e aprender. Mas pode também potencializar coisas terríveis.
Com a inteligência artificial não será diferente. O governo, a indústria, os usuários, todos terão que colaborar para que prevaleça o lado bom da IA. Precisamos definir padrões e fronteiras do que será aceitável, mantendo um equilibrando entre o filtro e a censura.
O governo americano determinou que as empresas deixem de vender para a China os chips de última geração, usados em IA generativa. Como essa disputa geopolítica afeta a Nvidia?
Estamos seguindo a regulamentação. Diante da restrição, desenvolvemos um produto com menor desempenho, que foi autorizado pelo governo para ser exportado para a China. É verdade que existe uma demanda enorme para os nossos produtos no mercado chinês, mas seguimos todas as leis e regulamentações.
Temos uma longa parceria com TSMC, de Taiwan. Quando a empresa inaugurar as unidades de produção nos EUA, certamente alguns de nossos produtos serão feitos aqui.
Sobre as questões entre Taiwan e a China, não há muito que possamos fazer. As coisas são como são. Mas posso dizer que sem Taiwan talvez nossa indústria não tivesse chegado aonde se encontra atualmente.
Taiwan possui excelentes engenheiros, muito inovadores. Espero que não exista nenhum conflito aberto e que possamos manter essa nossa parceria.