Componentes

Inside Tsubame - o supercomputador Nvidia GPU

Nvidia перенесла анонс RTX 3060 Ti, тесты AMD Ryzen 5000 в популярном тесте, инфа про лучи RX 6000

Nvidia перенесла анонс RTX 3060 Ti, тесты AMD Ryzen 5000 в популярном тесте, инфа про лучи RX 6000
Anonim

Quando você entra na sala de informática no segundo andar do prédio de informática do Instituto de Tecnologia de Tóquio, não fica imediatamente impressionado com o tamanho do segundo supercomputador mais rápido do Japão. Você não pode ver o computador Tsubame para as unidades de condicionamento de ar industriais que estão em seu caminho, mas isso por si só é revelador. Com mais de 30.000 núcleos de processamento zunindo, a máquina consome um megawatt de potência e precisa ser mantida fria.

Tsubame foi classificado como o 29º supercomputador mais rápido do mundo no último ranking Top 500 com uma velocidade de 77.48T Flops (operações de ponto flutuante por segundo) no benchmark Linpack padrão do setor

Embora sua posição seja relativamente boa, não é isso que a torna tão especial. O interessante do Tsubame é que ele não depende apenas do poder bruto de processamento das CPUs (unidades centrais de processamento) para realizar seu trabalho. Tsubame inclui centenas de processadores gráficos do mesmo tipo usados ​​em PCs de consumo, trabalhando em conjunto com CPUs em um ambiente misto que alguns dizem ser um modelo para futuros supercomputadores que atendem disciplinas como química de materiais. e backup]

Processadores gráficos (GPUs) são muito bons em executar rapidamente o mesmo cálculo em grandes quantidades de dados, para que possam resolver rapidamente alguns problemas em áreas como dinâmica molecular, simulações físicas e processamento de imagens.

"Eu acho que na grande maioria dos problemas interessantes no futuro, os problemas que afetam a humanidade onde o impacto vem da natureza … requerem a habilidade de manipular e computar um grande conjunto de dados", disse Jen-Hsun Huang, CEO da Nvidia, que falou na universidade esta semana. Tsubame usa 680 das placas de vídeo Tesla da Nvidia.

Quanta diferença as GPUs fazem? Takayuki Aoki, professor de química de materiais na universidade, disse que as simulações que costumavam levar três meses agora levam 10 horas em Tsubame.

A própria Tsubame - depois de passar pelos aparelhos de ar condicionado - é dividida em várias salas em dois andares do edifício e é maioritariamente constituída por sistemas Sun x4600 montados em bastidor. Há 655 dessas ao todo, cada uma com 16 núcleos de processador AMD Opteron dentro dele, e placas aceleradoras Clearspeed CSX600.

Os chips gráficos estão contidos em 170 unidades montadas em rack Nvidia Tesla S1070 que foram encaixadas entre Sistemas solares. Cada um dos sistemas 1U Nvidia tem quatro GPUs internas, cada uma com 240 núcleos de processamento para um total de 960 núcleos por sistema.

Os sistemas Tesla foram adicionados ao Tsubame ao longo de cerca de uma semana enquanto o computador estava em operação.

"As pessoas achavam que éramos loucos", disse Satoshi Matsuoka, diretor do Centro Global de Informação Científica e Computação da universidade. "Esse é um supercomputador de 1 bilhão de dólares (US $ 11 milhões) consumindo um megawatt de energia, mas provamos tecnicamente que isso era possível."

O resultado é o que a equipe universitária chama de versão 1.2 do supercomputador Tsubame.

" Acho que deveríamos ter conseguido 85 [T Flops], mas ficamos sem tempo, então foram 77 [T Flops] ”, disse Matsuoka sobre os benchmarks realizados no sistema. No 85T Flops, teria subido alguns lugares no Top 500 e sido o mais rápido no Japão.

Há sempre a próxima: uma nova lista dos Top 500 será lançada em junho de 2009, e o Tokyo Institute of Technology também está procurando mais adiante

"Este não é o fim do Tsubame, é apenas o início da aceleração da GPU se tornando mainstream", disse Matsuoka. "Acreditamos que no mundo haverá supercomputadores registrando vários petaflops nos próximos anos, e gostaríamos de fazer o mesmo."

Tsubame 2.0, como ele apelidou de a próxima atualização, deve estar aqui nos próximos dois anos e terá um desempenho sustentado de pelo menos um petaflop (um petaflop é de 1.000 teraflops), disse ele. O projeto básico da máquina ainda não está finalizado, mas continuará a base de computação heterogênea de misturar CPUs e GPUs, disse ele.