Home Tecnologia NVIDIA Enterprise e parceiros mundiais lançam novos sistemas HGX A100 para acelerar IA e HPC industrial
Tecnologia

NVIDIA Enterprise e parceiros mundiais lançam novos sistemas HGX A100 para acelerar IA e HPC industrial

Envie
Artemis I: Nasa se prepara para lançar missão à Lua neste sábado
Envie

Diversos sistemas de HPC e serviços em nuvem com a tecnologia avançada HGX agora acoplada com NVIDIA A100 80G PCIe, NVIDIA InfiniBand NDR 400G e NVIDIA Magnum IO

A NVIDIA Enterprise anuncia o aprimoramento da plataforma de supercomputação de IA NVIDIA HGX™ com novas tecnologias que reúnem Inteligência Artificial (IA) e computação de alto desempenho, oferecendo o poder da supercomputação para um número cada vez maior de setores.

Para acelerar a nova era de IA industrial e HPC (High-Performance Computing), a NVIDIA adicionou três tecnologias principais à sua plataforma HGX: a GPU NVIDIA® A100 80GB PCIe, rede NVIDIA NDR 400G InfiniBand e software de armazenamento NVIDIA Magnum IO™ GPUDirect™. Juntas, elas fornecem o desempenho extremo para permitir a inovação industrial de HPC.

As empresas Atos, Dell Technologies, Hewlett-Packard Enterprise, Lenovo, Microsoft Azure e NetApp são algumas das dezenas de parceiros que usam a plataforma NVIDIA HGX para sistemas e soluções de última geração.

“A revolução da HPC começou nas universidades e está rapidamente se estendendo por uma ampla gama de setores”, conta Jensen Huang, fundador e CEO da NVIDIA. “As principais dinâmicas estão impulsionando os avanços superexponenciais da lei de Moore que tornaram a HPC uma ferramenta útil para as indústrias. A plataforma NVIDIA HGX oferece aos pesquisadores uma aceleração de computação de alto desempenho incomparável para enfrentar os problemas mais difíceis que as indústrias enfrentam.”

Plataforma HGX possibilita inovação industrial e científica de última geração

As GPUs NVIDIA A100 Tensor Core oferecem aceleração HPC sem precedentes para resolver desafios complexos de IA, análise de dados, treinamento de modelo e simulação relevantes para HPC industrial. As GPUs A100 80GB PCIe aumentam a largura de banda da memória da GPU em 25% em comparação com o A100 40 GB, para 2 TB/s e fornece 80 GB de memória HBM2e de alta largura de banda.

A enorme capacidade de memória do A100 80GB PCIe e alta largura de banda de memória permitem que mais dados e redes neurais maiores sejam mantidos na memória, minimizando a comunicação entre nós e o consumo de energia. Combinado com largura de banda de memória mais rápida, permite que os pesquisadores alcancem maior rendimento e resultados mais rápidos, maximizando o valor de seus investimentos em TI.

A A100 80GB PCIe é alimentada pela arquitetura NVIDIA Ampere, que apresenta GPU Multi-Instance (MIG) para fornecer aceleração para cargas de trabalho menores, como inferência de IA. O MIG permite que os sistemas HPC reduzam a computação e a memória com qualidade de serviço garantida. Além do PCIe, existem configurações NVIDIA HGX A100 de quatro e oito vias.

O suporte do parceiro NVIDIA para A100 80GB PCIe inclui Atos, Cisco, Dell Technologies, Fujitsu, H3C, HPE, Inspur, Lenovo, Penguin Computing, QCT e Supermicro. A plataforma HGX com GPUs baseadas em A100 interconectadas via NVLink também está disponível por meio de serviços em nuvem da Amazon Web Services, Microsoft Azure e Oracle Cloud Infrastructure.

Sistemas switch InfiniBand NDR de 400Gb/s de última geração

Os sistemas de HPC que exigem dados exclusivos o tempo todo podem ser aprimorados pela NVIDIA InfiniBand, a única interconexão totalmente transferível de computação em rede do mundo. A NDR InfiniBand dimensiona o desempenho para enfrentar os problemas mais desafiadores do mundo em sistemas industriais e científicos de HPC. Os sistemas switch de configuração fixa NVIDIA Quantum™-2 apresentam 64 portas InfiniBand NDR de 400Gb/s por porta (ou 128 portas NDR200), isto é, o número de portas é 3 vezes maior que o da InfiniBand HDR.

Os switches modulares NVIDIA Quantum™-2 oferecem configurações dimensionáveis de porta: de 512 portas a 2.048 portas InfiniBand NDR de 400Gb/s (ou 4.096 portas NDR200). O rendimento bidirecional total é de 1,64 petabits por segundo, 5 vezes maior que o da série de switches modulares InfiniBand HDR da geração anterior. O switch de 2.048 portas fornece uma escalabilidade inédita que é 6,5 vezes maior que a da geração anterior, além da capacidade de conectar mais de um milhão de nós com apenas três hops usando a topologia de rede DragonFly+.

Os switches Quantum-2, que contam com a terceira geração da tecnologia de redução de dados de computação em rede NVIDIA SHARP, aumentam o desempenho em aplicações industriais e científicas de alto desempenho com uma capacidade de aceleração por IA 32 vezes maior que a da geração anterior.

Os recursos avançados de gerenciamento incluem capacidade de rede de autocorreção e mecanismos de aceleração NVIDIA In-Network Computing. O tempo de inatividade do data center é minimizado ainda mais com a plataforma NVIDIA UFM® Cyber-AI.

Baseados nos padrões do setor, os switches NVIDIA Quantum™-2, que estão previstos para amostra no final do ano, são compatíveis com gerações anteriores e futuras, permitindo a fácil migração fácil e expansão dos sistemas e softwares existentes.

Os principais fabricantes de infraestrutura do setor, como Atos, DDN, Dell Technologies, Excelero, Fujitsu, GIGABYTE, HPE, Lenovo, Penguin, QCT, Supermicro, VAST e WekaIO, planejam integrar os switches Quantum-2 InfiniBand NDR de 400Gb/s a suas ofertas empresariais e de HPC. Os fornecedores de serviços em nuvem, como a Microsoft Azure, também usam a tecnologia InfiniBand.

Apresentando o Magnum IO GPU  Direct Storage

Com um desempenho exclusivo para cargas de trabalho complexas, o Magnum IO GPUDirect Storage oferece acesso direto à memória entre a memória da GPU e o armazenamento. Essa via direta permite que as aplicações apresentem uma latência de I/O menor e usem toda a largura de banda dos adaptadores de rede, diminuindo a carga de uso da CPU e reduzindo o impacto do aumento do consumo de dados.

Os líderes do setor que apoiam o Magnum IO GPUDirect Storage, os quais já estão disponíveis, incluem: DDN, Dell Technologies, Excelero, IBM Storage, Micron, NetApp, Pavilion, ScaleFlux, VAST e WekaIO. A lista completa de parceiros de armazenamento está disponível em https://developer.nvidia.com/gpudirect-storage.

Projetos digitais seguros exigem mais que estética: veja o que realmente importa

Projetos digitais seguros exigem mais que estética: veja o que realmente importa

Leia Mais
Positivo SEG explica como a inteligência artificial tem transformado os sistemas de CFTV e ampliado a eficiência na segurança

Positivo SEG explica como a inteligência artificial tem transformado os sistemas de CFTV e ampliado a eficiência na segurança

Leia Mais
Inovação nos suprimentos originais: novas tecnologias em toner

Inovação nos suprimentos originais: novas tecnologias em toner

Leia Mais
Nova plataforma TeamViewer ONE combina IA, DEX e gestão de terminais

Nova plataforma TeamViewer ONE combina IA, DEX e gestão de terminais

Leia Mais
Confira ranking com os cursos de tecnologia mais utilizados pelas universidades brasileiras no último ano

Confira ranking com os cursos de tecnologia mais utilizados pelas universidades brasileiras no último ano

Leia Mais
Envie