Ticker

6/recent/ticker-posts

Recent Post

Supercomputador criado com mais de um milhão de núcleos bate recorde

A Universidade de Stanford, nos EUA, ultrapassou a marca de 1 milhão de cores de processamento em um supercomputador. O IBM Blue Gene/Q Sequoia suporta exatos 1.572.864 núcleos de processadores, que funcionam em conjunto com 1.6 petabytes de memória. A supermáquina é usada para simulações complexas do comportamento dos fluídos e os dados são muito úteis para a indústria aeronáutica.
Supercomputador IBM Blue Gene/Q Sequoia quebrou recorde  (Foto: Reprodução)Supercomputador IBM Blue Gene/Q Sequoia quebrou recorde (Foto: Reprodução/ExtremeTech)
Uma das principais aplicações do volume de informações colhidas a cada simulação do supercomputador é fornecer subsídios a engenheiros para que eles criem motores de aeronaves mais silenciosos. Como as turbinas de aviões atuais funcionam, basicamente, sugando e expulsando ar, que é um fluído, os dados extremamente precisos permitem que novos designs e aprimoramentos nas turbinas sejam testadas dentro do computador. Assim, não há a necessidade de desenvolver protótipos. Além disso, vale lembrar que não é possível entrar dentro de uma turbina para vê-la em funcionamento.
Pesquisadores resolveram problema causado por grande volume de dados

Em termos de computação, há uma tendência a achar que mais é melhor. Mais memória, mais núcleos, mais processadores tenderiam a aumentar a capacidade de um sistema. Contudo, quando se fala na casa do milhão e meio de núcleos de processamentos, problemas começam a mostrar que, nem sempre, muito mais é melhor.
Supercomputadores funcionam quebrando porções matemáticas de problemas complexos. Cada pedaço dos cálculos pesados realizados pela máquina é endereçado a um grupo de processadores, que computa os dados e entrega os resultados no dispositivo de saída. Esse princípio faz com que soe natural que o supercomputador com 1,5 milhão de processadores seja melhor do que aquele com 500 mil.
No entanto, até o IBM Blue Gene/Q Sequoia de Stanford ser desenvolvido, havia um problema: surgia um gargalo de dados quando o computador chegava a um valor próximo de 1 milhão de processadores. Tantos núcleos funcionando a altas velocidades geravam um volume de dados tão grande que o sistema chegava a um bloqueio. Isso acontecia porque os softwares que operavam máquinas com milhões de núcleos não eram refinados o suficiente para dar vazão a tanta informação.
Em Stanford, esse problema foi resolvido com uma complexa reengenharia diretamente no código do software e no processamento dos dados. O resultado proposto foi o CharLES, um tipo de sistema operacional, digamos assim, capaz de aproveitar todo o poderio dos 1,5 milhões de cores do supercomputador.

Postar um comentário

0 Comentários

Fique sempre atualizado!
Receba artigos por email!
Widget by Lucrar Com Blog Instale este widget
Related Posts Plugin for WordPress, Blogger...