Quando a Nvidia, fabricante de chips famosa por ser a queridinha de gamers de todo mundo, alcançou a marca de US$ 1 trilhão na Bolsa de Valores de Nova York, todos se perguntaram: qual é o segredo do seu sucesso? A empresa está liderando a corrida pelo “cérebro” da nova geração de inteligência artificial, a generativa, capaz de criar conteúdos como textos, imagens e códigos de programação.
Seu próximo lançamento para este mercado, o H100, é um chip capaz de garantir uma supervelocidade nas tarefas da IA generativa. A demanda pelo chip é tão grande que alguns clientes terão de esperar até seis meses para receber suas encomendas. Entenda, abaixo, em seis pontos, o segredo do sucesso do H100.
– O que é o H100? O H100 recebeu este nome em homenagem à pioneira da ciência da computação Grace Hopper. Trata-se de um processador gráfico. É um tipo de chip que normalmente é usado em PCs voltados para games e ajuda os jogadores a terem a experiência visual mais realista.
No entanto, ao contrário de seus antecessores, o chip tem 80 bilhões de transístores organizados em núcleos projetados para processar dados em alta velocidade, e não para gerar imagens, como as usadas em games.
A Nvidia, fundada em 1993, foi a pioneira no mercado, investindo neste nicho há quase duas décadas, quando vislumbrou que a capacidade de execução de tarefas simultâneas em paralelo tornaria seus chips valiosos em aplicações para além dos games.
– E por que o H100 é tão especial? Plataformas de inteligência artificial generativa aprendem a realizar tarefas como traduzir textos, resumir relatórios e escrever códigos de computador depois de serem treinadas em vastas quantidades de conteúdo pré-existente.
Quanto mais elas aprendem e analisam conteúdos prévios, melhor elas executam tarefas como reconhecer a fala humana ou escrever uma carta de apresentação para um emprego. Elas se desenvolvem através de tentativa e erro, fazendo bilhões de tentativas para alcançar proficiência e consumindo enormes quantidades de poder computacional neste processo.
A Nvidia afirma que o H100 é quatro vezes mais rápido do que seu antecessor, o A100, no treinamento desses chamados modelos de linguagem grandes (que são os usados na IA generativa, também conhecidos como LLMs da sigla em inglês).
Segundo a Nvidia, o H100 é ainda 30 vezes mais rápido ao responder os comandos do usuário. Para empresas que estão correndo para treinar seus próprios modelos de linguagem (LLMs) a fim de realizar novas tarefas, este acréscimo de desempenho pode ser crucial.
– Como a Nvidia se tornou a líder neste mercado? A Nvidia é a líder mundial em unidades de processamento gráfico, conhecidas como GPUs – as partes de um computador que geram as imagens que você vê na tela. As GPUs mais poderosas, capazes de produzir cenários com aparência realista em jogos de vídeo de movimentação rápida, possuem vários núcleos de processamento que executam várias computações simultâneas.
Os engenheiros da Nvidia perceberam no início dos anos 2000 que as GPUs poderiam ser reconfiguradas para se tornarem aceleradores para outras aplicações, dividindo as tarefas em partes menores e trabalhando nelas ao mesmo tempo. Há pouco mais de uma década, pesquisadores de IA descobriram que a tecnologia poderia ser viável para o público comum ao utilizar esse tipo de chip que realiza tarefas simultâneas.
– Como está a disputa neste mercado? A Nvidia controla cerca de 80% do mercado de aceleradores nos data centers de IA operados pelas plataformas de computação em nuvem de Amazon, Alphabet (holding da Google) e Microsoft. Essas big techs têm tentado produzir seus próprios chips, mas sem grandes resultados. As rivais da Nvidia, como a AMD (Advanced Micro Devices) e a Intel, também não conseguiram ainda entrar com força neste mercado de aceleradores.
– E por que os rivais estão ficando para trás? A Nvidia atualizou rapidamente seus produtos, lançando inclusive um software para dar suporte a seu hardware, em um ritmo que nenhum concorrente conseguiu acompanhar até agora. Chips como os processadores Xeon da Intel têm menos núcleos de processamento.
Embora sejam capazes de realizar cálculos de dados mais complexos, eles são muito mais lentos ao lidar com as enormes quantidades de informações normalmente usadas para treinar softwares de IA. A divisão de data centers da Nvidia registrou aumento de 41% na receita, somando US$ 15 bilhões em 2022.
– E o que vem por aí? A AMD, segunda maior fabricante de chips gráficos para computadores, apresentou uma nova versão da sua linha Instinct em junho, de olho em tentar alcançar a liderança da Nvidia. O chip, chamado MI300X, possui mais memória para lidar com as pesadas cargas de trabalho de IA generativa, afirmou a CEO da AMD, Lisa Su, para a plateia em um evento em São Francisco.
A Intel está lançando produtos específicos para IA, e reconheceu que a demanda por chips gráficos está crescendo mais rapidamente do que a procura pelos processadores centrais, que tradicionalmente eram a principal área de atuação da empresa. A vantagem da Nvidia não está apenas no desempenho de seu hardware. A empresa inventou algo chamado CUDA, uma linguagem para seus chips gráficos que permite programá-los para o tipo de trabalho que sustenta os programas de IA. As informações são da agência de notícias Bloomberg.