sábado, 31 de janeiro de 2015

ESTUDANTE RACK WARS: Ciência e HPC - Todas as crianças estão a fazê-lo nos dias de hoje


HPC blogue É bem passado o tempo para discutir e analisar o que aconteceu no sétimo emocionante competição Cluster Student anual, que teve lugar no SC14 em Nova Orleans no ano passado.


Logo após SC14 fechada, dei uma longa viagem para a África do Sul para cobrir sua competição aglomerado CHPC - a luta intra-país que gerou seus ISC'13 e ISC'14 Campeão equipes.





O evento em Nova Orleans foi a maior competição de SC à data, com 12 equipes de estudantes representando universidades de sete países diferentes.


A estrutura era a mesma nos últimos anos: os alunos trabalham com seu corpo docente e patrocinadores para a construção do cluster HPC mais rápido possível - com uma tampa de poder absoluto de 3.000 watts (120 volts, 26 ampères). Eles podem usar qualquer hardware que podem obter, desde que ele esteja disponível comercialmente no momento da competição.


Para informações mais detalhadas sobre as competições de cluster estudante em geral, olha aqui .


As competições SC são maratonas de 46 horas de benchmarks de HPC e aplicações científicas. As chapas de aplicativos para o torneio de 2014 foram uma sacola de ambas as cargas de trabalho e familiares novos. Vamos dar uma olhada ...


HPCC: A competição sempre começa com uma boa corrida de idade HPCC. Os alunos passaram correndo segunda-feira toda a suíte HPCC oito app mais um HPL (LINPACK) run separado que seria usado para o prêmio mais alto cobiçado prêmio LINPACK.


ADIRC: Isso é novo para competições de cluster. É uma abreviação de Circulação Avançado Modelo, e é usado para modelar as coisas tais como tempestades, marés, e como o vento move a água ao redor. Quer descobrir como um derramamento de óleo pode se espalhar em uma tempestade? ADIRC tem as respostas, ou pelo menos a capacidade de modelar o resultado com base em suas estimativas.


NAMD: Este programa de dinâmica molecular tem sido utilizado em várias competições passadas. É escalas como uma doninha Fisher, capaz de rodar em qualquer lugar a partir de um punhado de 500.000 núcleos de CPU.


É usado para modelar e simular a maneira um grande número de átomos e como reagir em condições diferentes.


Vamos dizer que você tem uma grande pilha de átomos em uma tigela. Você usaria NAMD para modelar o que aconteceria se você adicionou muitos átomos e eles derramado sobre a bancada. É normalmente utilizado para modelar problemas mais complexos do que isso, no entanto.


MATLAB: Se você fazer matemática grave, mais cedo ou mais tarde você vai correr em MATLAB. Ele foi desenvolvido para dar aos alunos a capacidade de executar cálculos complexos em computadores sem ter que aprender Fortran (para o qual ele ganhou a gratidão de milhões).


É realmente uma linguagem de computador matemática e meio ambiente, em vez de um aplicativo como o Excel. Como seria de esperar, MATLAB tem uma série de funções, mas não se esqueça dos favoritos, como adição, subtração, multiplicação e divisão.


Aplicação Mystery (Enzo): Enzo é uma simulação cosmetologia que modelos como vários tipos / quantidades de cosméticos ... simulação cosmológica usado para modelar uma vasta gama de efeitos cósmicos e planetários.


Se você estava tentando descobrir como as estrelas formaram, viveu, eo que acontece quando eles morrem, você iria querer arranjar algum Enzo. Os alunos não aprendem sobre a aplicação mistério até depois da competição já estava em andamento - o que significa que eles não podiam se preparar para ela, que sempre faz as coisas mais interessantes.


Cada uma das aplicações tem vários conjuntos de dados ou tarefas que precisam ser concluídas. Os organizadores do concurso se certificar de que a quantidade de computação é sempre mais do que as equipes podem terminar nas atribuídas 46 horas. Isso coloca um prêmio sobre o planejamento e gestão de carga de trabalho - equipes que podem manter seu hardware ocupado executar várias tarefas ao mesmo tempo vai ficar mais trabalho e obter maior pontuação.


Especialistas de aplicativos também entrevistar as equipes para garantir que os alunos a compreender o que o aplicativo faz, por isso que é importante, e como torcer o melhor desempenho fora dele. Entrevista pontuações são combinadas com os resultados objetivos de aplicação para chegar a uma pontuação final para cada equipe.


Próximo passo: Configurações e figurações


Tendo em conta que todas as 12 equipes estão executando as mesmas aplicações, têm as mesmas escolhas de componentes disponíveis para eles, e estão lutando com a mesma restrição de energia, você pode assumir que as suas configurações de hardware seria quase idêntica. Mas você pode estar errado!


Este ano vimos grupos que variam de quatro nós, mini-clusters de 96-core para nove e dez monstros-node, 288-core.


A maioria das equipes estavam embalando GPUs, e implantá-los de maneiras novas e diferentes do que vimos antes. Nós também tivemos um pouco de refrigeração líquida na mistura também. Detalhes em nosso próximo relatório, para assistir a este espaço ... ®







via Alimentação (Feed) http://ift.tt/16cJmVD

quarta-feira, 28 de janeiro de 2015

Kids-lutando Cluster confronto: Battle of the Big Iron no Big Easy


HPC Blog Duzentos anos após a primeira batalha de Nova Orleans *, vimos o terceiro, e talvez mais importante, desavença a cidade já viu. Estou, naturalmente, referindo-se ao SC14 competição Cluster Student (aqui está um guia rápido de como as batalhas HPC dos jovens trabalham ).


Esta é a sétima vez que estudantes universitários lutaram entre si para ver qual equipe pode campo um cluster que pode dominar todos os outros - enquanto permanecer sob a tampa de alimentação de 3.000 Watt.





O campo este ano foi o maior "Big Iron" face-off na história competição SC - e também o mais variado. Doze equipes de sete países trouxe o seu melhor para New Orleans e todos tinham grandes esperanças de snagging ou o mais alto LINPACK ou cobiçados títulos geral campeão.


Como de costume, nós vimos uma grande variedade de sistemas e configurações das equipes de estudantes. Aqui está a grande figura:








via Alimentação (Feed) http://ift.tt/1EP0CM1

terça-feira, 13 de janeiro de 2015

MAINFRAMES são SO NÃO MORTOS: IBM lançou um novo


Pelo menos 20 anos depois de os especialistas primeira pronunciou a morte do mainframe, a IBM lançou um novo.


É claro que a prova do pudim vai estar no mercado, mas a IBM será esperando que os bilhões de dólares que é derramado em desenvolver o novo mainframe z13 terá a grande final da cidade tão animado como Big Blue é em si.





A garantia de que não serão bem-vindos no Reino Unido após a próxima eleição, o z13 tem grunhido suficiente para lidar com "a criptografia em tempo real de todas as transações móveis em qualquer escala" - todo o caminho até seus alegou 2,5 bilhões de transações por dia de capacidade, presumivelmente.


A teoria é que todas as transações de e-commerce toca fora de dezenas de outras interações do sistema, e que os sistemas baseados em Intel genéricos não serão dimensionados para lidar com eles, especialmente como a mobilidade aumenta o número de transações.


Como o anúncio da IBM afirma : "transações Z13 são persistentes, protegidos e auditável de end-to-end", e analytics embutidos deixar detecção de fraude de execução contra a "100 por cento" das operações.


Novo mainframe da IBM

Nós até contratou um designer para dar ângulos interessantes - a IBM z13 de mainframe



Entusiasmo da IBM para open-source aparece em vários pontos do release: a máquina aceita o Hadoop para análise de dados não estruturados, junto com o DB2 BLU funcionando como um banco de dados in-memory em Linux, eo big iron também suporta OpenStack. Este último vai se encaixar muito bem em outros recursos de nuvem a empresa está destacando, tais como a capacidade de executar 50 servidores virtuais por núcleo, para um total de 8.000.


Esses dois últimos dados sugerem a z13 frigobar-se actualmente a correr 160 núcleos de processamento por gabinete. IBM avalia o processador empurrando os z13 ao longo corre ao dobro da velocidade dos "processadores para servidores mais comuns" (boa qualificação lá), suporta 300 por cento mais memória, e com o dobro das análises de processamento de largura de banda e de vetor.


Ainda este ano, também haverá um novo software z / OS iteração para impulsionar as Thumper de in-memory analytics e análise, mais uma vez lançado como uma grande coisa para o negócio de telefonia móvel. ®







via Alimentação (Feed) http://ift.tt/1za0yqU

segunda-feira, 12 de janeiro de 2015

Mellanox atualizar tecido HPC da Universidade de Monash


A Universidade Monash R @ de alta performance venha CloudX OpenStack computação em nuvem é obter uma atualização de back-end graças a Mellanox.


R @ CMON é uma máquina de núcleo 2300-plus, um dos oito nós que formam Tools e-Collaboration nacional da Austrália e Recursos (Nectar) nuvem pesquisa, com configurações de IaaS pré-configurados de capacidade, memória e armazenamento.





Em um acordo anunciado em 12 de janeiro, Mellanox é fornecer interruptores SwitchX-2 Ethernet, ConnectX-3 NICs e cabos LinkX como o tecido para um novo centro de dados em nuvem para R @ venha.


O acordo com a dar o DC a capacidade de executar até 56 Gbps de interconexão Ethernet, como parte de um projeto para ampliar a facilidade para atender às necessidades futuras de investigação.


Como o Mellanox anúncio notas, a infra-estrutura também dá a universidade um tecido RDMA que se integra com o ambiente de armazenamento Ceph distribuído aberto e o sistema de arquivos Lustre paralelo distribuído.


Sênior nuvem arquiteto da instalação Blair Bethwaite diz que o novo tecido vai "permitir-nos para misturar e combinar capacidades, o que é crítico para a nossa arquitetura de computação densa".


Outros desenvolvimentos recentes no R @ CMON incluem a implementação vCPU empilhados sob a liberação OpenStack Juno, que avalia entregues até 50 por cento de melhorias de desempenho em testes de setembro do ano passado. ®







via Alimentação (Feed) http://ift.tt/14tjMtE

quarta-feira, 7 de janeiro de 2015

Cray, IBM para impulsionar super poderes da NOAA


O Oceanográfica e Atmosférica Administração Nacional (NOAA) lançou a próxima fase de um processo de atualização que ele diz que vai aumentar o poder de seus sistemas de supercomputação dez vezes.


A atualização, a ser realizado pela IBM e Cray, é devido para entrega até outubro, e quando é concluída do governo dois pedaços de ferro cada um deles será saltou para dentro da classe petaflop, em 2.5 petaflops cada.







O objectivo da capacidade adicional é aumentar tanto a resolução e previsões de gama, bem como para ajudar a modelação do clima e previsão.


Na primeira etapa da atualização, as duas máquinas terá sua capacidade triplicada este mês para 0,776 petaflops cada. Isso vai levar o sistema de previsão global (GFS) a partir de 27 km a 13 km de resolução para uma previsão de dez dias, enquanto a resolução previsão 11-16 dia será melhorada a partir de 55 km a 33 km.


O Sistema de Previsão Ensemble (Global GEFs) vai ficar melhor resolução vertical, com 64 níveis, em vez de sua atual 42, oito dias resolução horizontal de 27 km (atualmente 55 km), e resolução de 16 dias de 33 km (atualmente 70 km) .


Os EUA 44,5 milhões dólares contrato com a IBM será entregue via Cray, atuando como uma empresa subcontratada para a IBM. A declaração do NOAA é aqui . ®







via Alimentação (Feed) http://ift.tt/1FqOIMy