Por Max A.Cherney/Reuters
A Nvidia anunciou nesta terça-feira (8) uma nova configuração para seus chips avançados de inteligência artificial (IA), projetados para acelerar os aplicativos de IA generativa.
A nova versão do “Grace Hopper Superchip” aumenta a largura de banda de memória, o que dará ao microprocessador capacidade de executar modelos de IA maiores, de acordo com o vice-presidente de “hyperscale e HPC” da Nvidia, Ian Buck.
A configuração é otimizada para executar funções de inferência de IA que efetivamente alimentam aplicativos de IA generativa, como o ChatGPT.
O design do Grace Hopper une uma das unidades de processamento gráfico (GPU) H100 da empresa com um processador central projetado pela Nvidia.
“Ter uma memória maior permite que o modelo permaneça residente em uma única GPU e não precise de vários sistemas ou várias GPUs para ser executado”, disse Buck a jornalistas.
Os modelos que alimentam os aplicativos de IA generativa – capazes de produzir textos e imagens semelhantes aos produzidos por humanos – continuam a crescer em tamanho.
À medida que eles crescem, uma quantidade maior de memória é necessária para serem executados sem a necessidade de interconexão de chips e sistemas diferentes, o que prejudica o desempenho.
“A memória adicional simplesmente aumenta o desempenho da GPU”, disse Buck. A nova configuração, chamada GH200, estará disponível no segundo trimestre do próximo ano, disse o executivo.
A Nvidia planeja vender duas versões do chip: uma versão que inclui dois microprocessadores que os clientes podem integrar aos sistemas e um sistema de servidor completo que combina dois designs Grace Hopper.