A Universidade de Stanford, nos EUA, ultrapassou a marca de 1 milhão de
cores de processamento em um supercomputador. O IBM Blue Gene/Q Sequoia
suporta exatos 1.572.864 núcleos de processadores, que funcionam em
conjunto com 1.6 petabytes de memória. A supermáquina é usada para
simulações complexas do comportamento dos fluídos e os dados são muito
úteis para a indústria aeronáutica.
Supercomputador IBM Blue Gene/Q Sequoia quebrou recorde (Foto: Reprodução/ExtremeTech)
Uma das principais aplicações do volume de informações colhidas a cada
simulação do supercomputador é fornecer subsídios a engenheiros para que
eles criem motores de aeronaves mais silenciosos. Como as turbinas de
aviões atuais funcionam, basicamente, sugando e expulsando ar, que é um
fluído, os dados extremamente precisos permitem que novos designs e
aprimoramentos nas turbinas sejam testadas dentro do computador. Assim,
não há a necessidade de desenvolver protótipos. Além disso, vale lembrar
que não é possível entrar dentro de uma turbina para vê-la em
funcionamento.
Pesquisadores resolveram problema causado por grande volume de dados
Em termos de computação, há uma tendência a achar que mais é melhor.
Mais memória, mais núcleos, mais processadores tenderiam a aumentar a
capacidade de um sistema. Contudo, quando se fala na casa do milhão e
meio de núcleos de processamentos, problemas começam a mostrar que, nem
sempre, muito mais é melhor.
Supercomputadores funcionam quebrando porções matemáticas de problemas complexos. Cada pedaço dos cálculos pesados realizados pela máquina é endereçado a um grupo de processadores, que computa os dados e entrega os resultados no dispositivo de saída. Esse princípio faz com que soe natural que o supercomputador com 1,5 milhão de processadores seja melhor do que aquele com 500 mil.
No entanto, até o IBM Blue Gene/Q Sequoia de Stanford ser desenvolvido, havia um problema: surgia um gargalo de dados quando o computador chegava a um valor próximo de 1 milhão de processadores. Tantos núcleos funcionando a altas velocidades geravam um volume de dados tão grande que o sistema chegava a um bloqueio. Isso acontecia porque os softwares que operavam máquinas com milhões de núcleos não eram refinados o suficiente para dar vazão a tanta informação.
Em Stanford, esse problema foi resolvido com uma complexa reengenharia diretamente no código do software e no processamento dos dados. O resultado proposto foi o CharLES, um tipo de sistema operacional, digamos assim, capaz de aproveitar todo o poderio dos 1,5 milhões de cores do supercomputador.
Supercomputador IBM Blue Gene/Q Sequoia quebrou recorde (Foto: Reprodução/ExtremeTech)Pesquisadores resolveram problema causado por grande volume de dados
Supercomputadores funcionam quebrando porções matemáticas de problemas complexos. Cada pedaço dos cálculos pesados realizados pela máquina é endereçado a um grupo de processadores, que computa os dados e entrega os resultados no dispositivo de saída. Esse princípio faz com que soe natural que o supercomputador com 1,5 milhão de processadores seja melhor do que aquele com 500 mil.
No entanto, até o IBM Blue Gene/Q Sequoia de Stanford ser desenvolvido, havia um problema: surgia um gargalo de dados quando o computador chegava a um valor próximo de 1 milhão de processadores. Tantos núcleos funcionando a altas velocidades geravam um volume de dados tão grande que o sistema chegava a um bloqueio. Isso acontecia porque os softwares que operavam máquinas com milhões de núcleos não eram refinados o suficiente para dar vazão a tanta informação.
Em Stanford, esse problema foi resolvido com uma complexa reengenharia diretamente no código do software e no processamento dos dados. O resultado proposto foi o CharLES, um tipo de sistema operacional, digamos assim, capaz de aproveitar todo o poderio dos 1,5 milhões de cores do supercomputador.


0 Comentários
Deixe seu comentário sobre o artigo a cima fique á vontade, seu comentário é muito importante !