NVIDIA Enterprise e parceiros mundiais lançam novos sistemas HGX A100 para acelerar IA e HPC industrial
Diversos sistemas de HPC e serviços em nuvem com a tecnologia avançada HGX agora acoplada com NVIDIA A100 80G PCIe, NVIDIA InfiniBand NDR 400G e NVIDIA Magnum IO
SANTA CLARA, Califórnia — ISC — 28 de junho de 2021 — A NVIDIA Enterprise anuncia o aprimoramento da plataforma de supercomputação de IA NVIDIA HGX™ com novas tecnologias que reúnem Inteligência Artificial (IA) e computação de alto desempenho, oferecendo o poder da supercomputação para um número cada vez maior de setores. Para acelerar a nova era de IA industrial e HPC (High-Performance Computing), a NVIDIA adicionou três tecnologias principais à sua plataforma HGX: a GPU NVIDIA® A100 80GB PCIe, rede NVIDIA NDR 400G InfiniBand e software de armazenamento NVIDIA Magnum IO™ GPUDirect™. Juntas, elas fornecem o desempenho extremo para permitir a inovação industrial de HPC.
As empresas Atos, Dell Technologies, Hewlett-Packard Enterprise, Lenovo, Microsoft Azure e NetApp são algumas das dezenas de parceiros que usam a plataforma NVIDIA HGX para sistemas e soluções de última geração.
“A revolução da HPC começou nas universidades e está rapidamente se estendendo por uma ampla gama de setores”, conta Jensen Huang, fundador e CEO da NVIDIA. “As principais dinâmicas estão impulsionando os avanços superexponenciais da lei de Moore que tornaram a HPC uma ferramenta útil para as indústrias. A plataforma NVIDIA HGX oferece aos pesquisadores uma aceleração de computação de alto desempenho incomparável para enfrentar os problemas mais difíceis que as indústrias enfrentam.”
Plataforma HGX possibilita inovação industrial e científica de última geração
As GPUs NVIDIA A100 Tensor Core oferecem aceleração HPC sem precedentes para resolver desafios complexos de IA, análise de dados, treinamento de modelo e simulação relevantes para HPC industrial. As GPUs A100 80GB PCIe aumentam a largura de banda da memória da GPU em 25% em comparação com o A100 40 GB, para 2 TB/s e fornece 80 GB de memória HBM2e de alta largura de banda.
A enorme capacidade de memória do A100 80GB PCIe e alta largura de banda de memória permitem que mais dados e redes neurais maiores sejam mantidos na memória, minimizando a comunicação entre nós e o consumo de energia. Combinado com largura de banda de memória mais rápida, permite que os pesquisadores alcancem maior rendimento e resultados mais rápidos, maximizando o valor de seus investimentos em TI.
A A100 80GB PCIe é alimentada pela arquitetura NVIDIA Ampere, que apresenta GPU Multi-Instance (MIG) para fornecer aceleração para cargas de trabalho menores, como inferência de IA. O MIG permite que os sistemas HPC reduzam a computação e a memória com qualidade de serviço garantida. Além do PCIe, existem configurações NVIDIA HGX A100 de quatro e oito vias.
O suporte do parceiro NVIDIA para A100 80GB PCIe inclui Atos, Cisco, Dell Technologies, Fujitsu, H3C, HPE, Inspur, Lenovo, Penguin Computing, QCT e Supermicro. A plataforma HGX com GPUs baseadas em A100 interconectadas via NVLink também está disponível por meio de serviços em nuvem da Amazon Web Services, Microsoft Azure e Oracle Cloud Infrastructure.
Sistemas switch InfiniBand NDR de 400Gb/s de última geração
Os sistemas de HPC que exigem dados exclusivos o tempo todo podem ser aprimorados pela NVIDIA InfiniBand, a única interconexão totalmente transferível de computação em rede do mundo. A NDR InfiniBand dimensiona o desempenho para enfrentar os problemas mais desafiadores do mundo em sistemas industriais e científicos de HPC. Os sistemas switch de configuração fixa NVIDIA Quantum™-2 apresentam 64 portas InfiniBand NDR de 400Gb/s por porta (ou 128 portas NDR200), isto é, o número de portas é 3 vezes maior que o da InfiniBand HDR.
Os switches modulares NVIDIA Quantum™-2 oferecem configurações dimensionáveis de porta: de 512 portas a 2.048 portas InfiniBand NDR de 400Gb/s (ou 4.096 portas NDR200). O rendimento bidirecional total é de 1,64 petabits por segundo, 5 vezes maior que o da série de switches modulares InfiniBand HDR da geração anterior. O switch de 2.048 portas fornece uma escalabilidade inédita que é 6,5 vezes maior que a da geração anterior, além da capacidade de conectar mais de um milhão de nós com apenas três hops usando a topologia de rede DragonFly+.
Os switches Quantum-2, que contam com a terceira geração da tecnologia de redução de dados de computação em rede NVIDIA SHARP, aumentam o desempenho em aplicações industriais e científicas de alto desempenho com uma capacidade de aceleração por IA 32 vezes maior que a da geração anterior.
Os recursos avançados de gerenciamento incluem capacidade de rede de autocorreção e mecanismos de aceleração NVIDIA In-Network Computing. O tempo de inatividade do data center é minimizado ainda mais com a plataforma NVIDIA UFM® Cyber-AI.
Baseados nos padrões do setor, os switches NVIDIA Quantum™-2, que estão previstos para amostra no final do ano, são compatíveis com gerações anteriores e futuras, permitindo a fácil migração fácil e expansão dos sistemas e softwares existentes.
Os principais fabricantes de infraestrutura do setor, como Atos, DDN, Dell Technologies, Excelero, Fujitsu, GIGABYTE, HPE, Lenovo, Penguin, QCT, Supermicro, VAST e WekaIO, planejam integrar os switches Quantum-2 InfiniBand NDR de 400Gb/s a suas ofertas empresariais e de HPC. Os fornecedores de serviços em nuvem, como a Microsoft Azure, também usam a tecnologia InfiniBand.
Apresentando o Magnum IO GPU Direct Storage
Com um desempenho exclusivo para cargas de trabalho complexas, o Magnum IO GPUDirect Storage oferece acesso direto à memória entre a memória da GPU e o armazenamento. Essa via direta permite que as aplicações apresentem uma latência de I/O menor e usem toda a largura de banda dos adaptadores de rede, diminuindo a carga de uso da CPU e reduzindo o impacto do aumento do consumo de dados.
Os líderes do setor que apoiam o Magnum IO GPUDirect Storage, os quais já estão disponíveis, incluem: DDN, Dell Technologies, Excelero, IBM Storage, Micron, NetApp, Pavilion, ScaleFlux, VAST e WekaIO. A lista completa de parceiros de armazenamento está disponível em https://developer.nvidia.com/gpudirect-storage.
Nenhum comentário