terça-feira, 29 de julho de 2014

UTAS 13.000 Gflop NECTAR nó ao vivo


Maximizando sua infra-estrutura através da virtualização


A Universidade da Tasmânia tem ligou o interruptor em seu novo nó do NECTAR pesquisa nuvem nacional, sob uma colaboração 8750 mil dólares com a Divisão Antártica Australiana e CSIRO.


O nó, que tem sido progressivamente implementado desde maio de 2014, tem 21 máquinas C6145 baseados em AMD Opteron Dell com um total de 2.668 processadores entregando 13.000 Gflops conexão com NECTAR, e mais 20 C6145s execução CEPH para a base de usuários UTAS.







Há 1,2 PB de armazenamento eo nó NECTAR conecta à infra-estrutura nacional através de 10 Gbps ligação AARNET da universidade.


O nó UTAS vale em torno de AUD $ 1 milhão de total colaboração, os estados universitários em seu comunicado de imprensa.


Enquanto NECTAR é projetado para cloudify coletas de dados de pesquisa e capacidades de computação em uma base nacional, professor UTAS Nathan Bindoff, que também é diretor da Parceria para a Computação Avançada da Tasmânia, disse que há fortes razões para hospedar um nó no estado ilha.


Para começar, há o uso eficiente dos recursos: algumas tarefas analíticas simplesmente funcionam melhor se o conjunto de dados de pesquisa é co-localizado com o ferro que vai executar a análise sobre os dados.


Sempre que necessário, ele disse, "se você alinhar o cálculo com as coleções de pesquisa, você pode agilizar a análise".


Por exemplo, o nó UTAS sediará dados sob da Austrália $ AUD 300 milhões Integrado de Observação Marinha System, que coleta dados de instrumentos autónomos, navios, redes de sensores e instrumentos semelhantes.


"Eles coletam todos esses fluxos de dados e publicá-los através de seus portais em regime de livre acesso para a comunidade de pesquisa australiana e internacional.


"Os portais irá operar a partir de nosso hardware em nuvem", disse o professor de Bindoff.


Isso está em linha com a missão nacional de néctar para prestar serviços a organizações cujos dados precisam ser armazenados e disponibilizados no longo prazo. Assim como os dados científicos, professor Bindoff disse, ele incluirá conjuntos de dados para a pesquisa cultural, as ciências sociais e outras disciplinas.


Bindoff também está entusiasmado com a configuração CEPH 20 máquina que irá servir os utilizadores locais utas. CEPH - um objeto distribuído de código aberto e sistema de armazenamento de arquivos ( aqui ) - está sendo usado como uma nuvem privada, explicou ele, que irá fornecer armazenamento de espaço de usuário para seus clientes.


"Nós construímos isso para fazer um disco único virtualizado, em vez de [os usuários] passar pelo NAS," ele disse a Vulture Sul.


"Temos implantado esta, ao mesmo tempo que a nuvem de néctar. Fomos o primeiro nó na Austrália, para fazer isso, e ele acabou por ser uma boa decisão.


"Gostamos CEPH porque as escalas fora bem, e é completamente aditivo", disse o professor de Bindoff. "Nós temos uma maior capacidade para atender aos requisitos da nuvem de computação com os requisitos de armazenamento de desempenho, e nós podemos mexer com ela para corresponder às exigências fundamentais do armazenamento."


NECTAR , as ferramentas e recursos do projeto nacional eResearch Collaborative, tem nós da Universidade de Monash, da Universidade de Melbourne, da Austrália Ocidental Ivec, eResearch SA, QCIF de Queensland, e NCI da ANU.


A nuvem nacional permite que os pesquisadores girar VMs para rodar como laboratórios virtuais para análise e simulações em grandes conjuntos de dados. ®







via Alimentação (Feed) http://ift.tt/1qJO31w

domingo, 13 de julho de 2014

Cray super-EUA para ajudar a simular testes de armas nucleares


A escolha inteligente: oportunidade de incerteza


Cray vai ajudar os EUA a vigiá seu arsenal de armas nucleares, depois de ter ganho um contrato de US $ US174 milhões para fornecer um novo supercomputador para a Administração Nacional de Segurança Nuclear.


O super-Cray XC a ser fornecido no âmbito do contrato será ligado ao armazenamento Sonexion da empresa.







Apelidado de "Trindade", o sistema deverá ter mais de oito vezes o poder da super-atual da NNSA, uma unidade Cray XE6 chamado Cielo, que a lista TOP 500 diz tem 107.152 núcleos e um desempenho máximo teórico de pouco mais de 1.028 TFlops.


Cray diz Trindade é um projeto conjunto entre a "Aliança do Novo México para a Computação em eXtreme Scale (ACES) no Los Alamos National Laboratory e Sandia National Laboratories, como parte do Programa de Computação (ASC) NNSA Advanced Simulation e".


Para ser instalado em Los Alamos, Trindade será baseada em processadores Intel Xeon Haswell, assim como os próximos "Cavaleiros aterragem" processadores Xeon Phi. O sistema de armazenamento terá início às 82 PB de capacidade e um caudal de 1,7 TB projeto por segundo.


Trabalho principal da máquina será a realização de simulações do estoque de armas nucleares dos EUA, ajudando-o a entender como suas armas estão segurando à medida que envelhecem, evitando a necessidade de detonações subterrâneas de dispositivos. Cray diz que a máquina vai testar "do estoque de segurança, confiabilidade e desempenho." ®







via Alimentação (Feed) http://ift.tt/W1E3mx

terça-feira, 8 de julho de 2014

Airbus para enviar 1.200 TFlops de bondade HPC na pista


Automatização do ciclo de vida integrado: HP ProLiant Gen8


Airbus vai ampliar a estratégia de data center modular iniciou com a HP em 2011, com uma capacidade de 1.200 TFLOP alvo.


Os HP PODs será adicionado em Toulouse, França, e Hamburgo, na Alemanha.







Airbus começou estacionamento PODs HP - Desempenho Optimsed Datacenters - em um contrato anunciado . em setembro de 2011 No entanto, a HP diz que o último contrato vai ver tanto a capacidade ampliada e reduzido consumo de energia.


Os PODs para ser entregue ao fabricante de aviões são ditas para exigir metade do TFLOP energia per-usado por kit atual do plano-maker. O contrato de cinco anos prevê melhoramentos em curso para as máquinas, refrigeração e habitação.


Com 22 racks de 50 unidades de altura, a HP afirma que cada um dos PODs 12m são equivalentes a 500 metros quadrados de espaço de centro de dados, e cada unidade inclui a completa infraestrutura convergente da HP - lâminas, armazenamento, rede, software e gerenciamento de sistemas.


A configuração anterior, com 2.016 servidores ProLiant por POD, foi míseros 244 TFlops, e na 29 ª classificada vez na lista Top 500 (medição das instalações Toulouse e Hamburgo como uma única máquina). HP diz que as instalações de refrigeração a água tem um PUE de 1,25.


De acordo com o site alemão do Silício, os PODs foram montadas na República Checa antes de serem enviados para os locais da Airbus. Centro de Excelência em Computação de Alto Desempenho em Grenoble da França prestou serviços de otimização durante a configuração dos sistemas. ®







via Alimentação (Feed) http://ift.tt/1ozK95G

segunda-feira, 7 de julho de 2014

Crianças HPC: Dê-nos o seu poder-sorvendo, seu-nomming dados, os cachos carregados centrais


O Guia Essencial para Transformação de TI


HPC blogue Vamos olhar para o que as equipes estavam correndo no Concurso Cluster ISC'14 Student. Este ano, tivemos talvez a mais ampla variedade de sistemas em termos de tamanho, e também uma configuração completamente nova, que não tínhamos visto em qualquer competição até o momento.


A equipe de massa verde, com alunos do MIT, Universidade de Bentley, e da Universidade Northeastern, quebrou Equipe Boston tradição com seu quad-socket, laden núcleo, o cluster monstro. Para maximizar a contagem de núcleos da CPU, eles foram com com 16-core AMD Opteron.







O resultado foi uma-cobertura da competição 256 núcleos de CPU, o que é considerável. Mas, em típico estilo massa verde, eles não param por aí. Eles também acrescentaram oito NVIDIA K20x (perfil baixo) GPUs na mistura. No entanto, eles só tinham 640 GB de memória, o que pode prejudicar em alguns dos aplicativos.


Eu acho que eles poderiam estar em qualquer coisa aqui. Usando placas quad-soquete vai manter mais do processamento local para o nó, reduzindo ou eliminando os saltos necessários para processar algumas das tarefas.



No entanto, esta pode ser uma abordagem melhor em uma competição como SC, onde as equipes de executar vários aplicativos ao mesmo tempo. Na competição ISC, as equipes normalmente só funcionam em um aplicativo de cada vez, colocando menos de um prémio sobre a colocação de aplicação.


O pequeno é bonito ... ou é?


Na "é pequena e bonita" lado da razão, tanto Edimburgo e Colorado usado quatro nós com dois soquetes tradicionais. Colorado, devido à tampa de potência e um slot PCIe inquieto, só usou três de seus nós durante os ensaios reais. Isto permitiu-lhes correr com dupla Intel Phi co-processadores em cada um dos seus três nós.


Edimburgo tomou a estrada NVIDIA, ostentando oito K40x GPU cartões. Eles também têm um outro truque na manga - refrigeração líquida. Trabalhando com seu patrocinador Boston Group, equipe de Edimburgo está dirigindo um quatro nó, o cluster líquido de refrigeração, com apenas 80 núcleos de CPU e com o menor memória principal no grupo (256 GB).


Eles estavam obviamente contando com o soco acrescentou que vai ter a partir de suas GPUs. Isso realmente deve ajudá-los a unha LINPACK, mas este sistema um bom desempenho nas aplicações científicas? Além disso, teria de refrigeração líquida dar-lhes espaço térmico suficiente para empurrar o seu sistema subdimensionado para o ponto onde eles poderiam superar os sistemas de grande porte?


Que tal um pouco velha escola?


Equipe de Tsinghua, um time de veteranos e ex-ISC Champion, trouxe um conjunto de dez nó com 240 núcleos de CPU, e 1,25 TB de memória RAM para a competição. Uma coisa que falta a sua configuração? Aceleradores.


Tsinghua foi uma das primeiras equipes a usar efetivamente GPUs, mas evitou-los em sua plataforma ISC'14 apesar de andar um par de NVIDIA K40 do que um segundo lugar na competição ASC'14 da China apenas alguns meses atrás.


A equipe me disse que eles não foram capazes de colocar as mãos em GPUs em tempo para a viagem para a Alemanha, mas que eles esperavam para compensar o déficit de processamento de números de potência por ter mais CPUs em sua caixa, e fazer uma melhor trabalho ajustando seu cluster para os aplicativos HPC.


Novato equipa Hamburgo também foi a rota da velha escola. Sua nove clusters nó é amontoados em um caso robusto sobre rodas. Para mim, o caso parecia algo de uma banda polka profissional pode usar para transportar seus acordeões em uma longa turnê de vários países. No entanto, ele fez um trabalho admirável de manter todos os seus equipamentos, e é otimizado para uma fuga rápida também.


Equipe de Hamburgo é a única equipe com Qlustar (pronuncia-se "pista estrelas") como seu sistema operacional cluster. Eles tout-lo como um rápido e fácil, mas poderosa, o / s que faz criação e gestão de clusters HPC um passeio no Biergarten. Você pode verificar Qluster aqui fora (http://ift.tt/1r4c0NS)


Coffee Table of Doom 2.0


A outra equipe alemã, Chemnitz University of Technology, voltou para a prancheta de desenho após a sua primeira mesa de café de aglomerado Perdição (quatro estações de trabalho repleto de um total de 16 aceleradores) provou para sugar maneira muito poder para ser competitivo. Coffee Table of Doom 2.0 inclui seis estações de trabalho, cada um com 128 GB de RAM, mais 8 NVIDIA aceleradores K40c espalhadas ao redor. A equipe deve ser capaz de manter este sistema sob a tampa de alimentação de 3.000 watts, ao contrário de seu antecessor.


<H3The sweet spot?


O resto do campo 11-forte estão ostentando sistemas semelhantes, repleto de Xeons, aceleradores, e muita memória.


Equipe Brasil (Universidade de São Paulo) pegou SGI como um patrocinador para a sua viagem para a ISC e também elevou sua configuração consideravelmente do que vimos no ASC'14. Em Leipzig eles dirigiram um oito nó, 192 conjunto core, embalado com um terabyte de memória RAM e cinco Intel Phi co-processadores. Ao contrário de seu outing em Guangzhou, este deve ser hardware suficiente para permitir que a equipe a sair com os meninos grandes.


Equipe Coreia do Sul, representando Ulsan Instituto Nacional de Ciência e Tecnologia da Coreia do Sul, também montar um sistema maior do que eles usaram no ASC'14 primavera passada.


Vemos também que a equipe teve uma mudança de coração quando se trata de aceleradores. Em seu sistema de competição ASC'14, eles estavam usando seis nós com cinco NVIDIA Titan GPUs. No ISC'14, eles estão vindo com oito nós musculosos, mais oito NVIDIA Tesla K40c GPUs. Isso deve funcionar melhor para eles, eu suspeito.


A terceira equipe da China, da Universidade de Ciência e Tecnologia da China, tem o maior sistema chinês com 10 nós, 1.28TB de memória e oito NVIDIA K40c GPUs. A equipe é patrocinada pela Sugon, que parece ser a face pública da computação potência chinesa Nascente.


De acordo com a equipe, eles receberam não só um monte de hardware a partir de Sugon, mas também uma abundância de ajuda técnica e perícia. Vai ser interessante ver como esta equipa faz na competição geral, mas também a forma como ele faz contra os outros times chineses, que são patrocinados por outra grande empresa de computação chinês Inspur.


Ex-campeões colidem


Equipe África do Sul, o campeão ISC'13 retornar, e equipe de Xangai, o recente vencedor ASC'14, são ambos considerados favoritos para levar a coroa geral Campeão ISC'14. África do Sul tem um oito nó, 160 conjunto core, com oito aceleradores NVIDIA K40c. Xangai também tem oito nós, mas está usando um Xeon de 12 núcleos, dando-lhes total de 192 núcleos de CPU em seu sistema. Xangai também está executando oito aceleradores NVIDIA K40c.


Outra diferença fundamental entre os dois é a memória. Xangai, com um terabyte de memória RAM, está ostentando o dobro do GB de memória de 512 no cluster África do Sul. Como um longo tempo grupo observador, "Mais memória é mais melhor."


Em nossos próximos artigos vamos ter entrevistas em vídeo com cada uma das equipas. Veja e ouça como cada equipe discute as suas esperanças e sonhos, seus medos e que os mantém acordados à noite, e como eles vão ficar sob aquela maldita tampa 3.000 watts de potência. ®







via Alimentação (Feed) http://ift.tt/1qPr58k

sexta-feira, 4 de julho de 2014

ISC'14: Sempre quis construir besta-trituração de dados para vencê-los todos?


Maximizando sua infra-estrutura através da virtualização


HPC blog O Concurso Cluster ISC'14 Student fechou na semana passada em Leipzig. O que um passeio ... Foi uma competição excelente, com linhas de história em linha reta de Hollywood. Se John Hughes ainda estavam a fazer filmes, ele estaria escrevendo o roteiro e comprando-a em torno dos grandes estúdios agora.


(Para aqueles de vocês que não sabem o que é uma competição Cluster Estudante é, aqui está uma rápida introdução .)







Vamos começar pelo começo, com um par de webcasts de pré-competição que preparou o palco.


O primeiro webcast apresenta uma conversa com Gilad Shainer, Presidente do Conselho Consultivo HPC, ea principal força por trás que institui a versão ISC do evento. Nós cobrimos um lote de terreno em nossa conversa, começando com de por Gilad trabalhou tão duro para estabelecer a competição ISC e, em seguida, uma discussão mais específica do que está por vir em ISC'14. Breaking News: Uma das perguntas que eu mais ouço quando estou cobrindo estas competições de cluster é "Como podemos entrar nesta"


Normalmente, isso vem de um professor universitário que gostaria de ter os seus alunos envolvidos nas competições. Mas eu também ouvir isso de pessoas que trabalham em organizações de pesquisa, laboratórios nacionais, ou até mesmo pessoas que trabalham na indústria que gostaria de patrocinar sua universidade favorita em uma batalha cluster.


Youtube Video


Até agora, a resposta foi "ter uma equipe de estudantes em conjunto, apresentar um pedido de uma das três grandes competições, e espero que você fazer o corte."


Neste webcast, Gilad anuncia um novo caminho para a competição final aglomerado na ISC - a opção Competição Regional. Se uma região geográfica (país, estado, ou até mesmo da cidade) tem uma competição regional aglomerado estudante com um razoavelmente grande nível de participação (digamos 6 ou mais equipes), a equipe vencedora da competição que será garantido um slot na próxima ISC em Alemanha.


Já ouvi rumores sobre possíveis competições regionais em um par de diferentes países, e até mesmo uma para a conferência de esportes universitários Big 10 (que, curiosamente, na verdade, tem 14 instituições membros.)


Primeiro ISC'14 Cluster Competição Pré-Game Show


Neste webcast, eu passar algum tempo com Brian Faíscas falando sobre o domínio da concorrência ISC'14. Brian é um diretor com o Conselho Consultivo HPC, e esteve profundamente envolvido com a competição conjunto ISC. O início da chamada é usado para familiarizar os espectadores com a concorrência, o cronograma, e os aplicativos que as equipes de estudantes terão de enfrentar em Leipzig.


Youtube Video


A partir de cerca de marca 8:30, vamos discutir cada uma das onze equipes que competem no ISC'14 (equipes representando todos os continentes, exceto na Austrália e Antártida). Nós quebrar seus jogos, discutir os seus regimes de treinamento, e avaliar seus pontos fortes e fracos.


Também tentamos provocar alguma dissensão equipe ao longo do caminho, apontando, por exemplo, que a equipe da Universidade de Hamburgo era todo sorrisos em seus retratos individuais, mas sem sorrisos em sua foto de grupo. É este o sentido? Será que revelam conflitos equipe interna? Achamos que ele faz.


Finalmente, nós revelamos nossas previsões para o campeão geral, Maior LINPACK e prêmios Fan favoritos. Brian estava completamente errado em suas previsões. Minhas previsões sobre LINPACK estavam errados, mas eu escolhi corretamente África do Sul como o campeão geral, o que teria me feito um pacote no pool de apostas. ®







via Alimentação (Feed) http://ift.tt/1xt00Za

terça-feira, 1 de julho de 2014

Los Alamos National Laboratory gosta, coloca o anel de Scality nele


Automatização do ciclo de vida integrado: HP ProLiant Gen8


Scality tem atualizar seu software de armazenamento ANEL objeto para v4.3.


Software ANEL distribui armazenamento de objetos em vários nós de servidor e usa codificação de apagamento para garantir a sua integridade. Reivindicações Scality v4.3 "melhora o desempenho global através de uma ampla gama de aplicações e cargas de trabalho e melhora as operações de arquivo empresa em até 60-95 por cento."







ANEL 4.3 inclui:



  • O ganho de desempenho de 30 por cento para os mistos pequenos e grandes arquivos com cache inteligente e operações de metadados mais rápidos.

  • Mais opção geo-redundância - Rep. a CE, CE a CE (nível do objeto) e GeoSync para arquivos grandes (nível de arquivo)

  • Novo controle de dados de segurança e acesso para serviços de arquivo - de cotas, gerenciamento de bloqueio, autenticação Kerberos para NFS e SOFS (Scality filesystem Scale-out).

  • Novo portal de gestão - onde o usuário pode simplificar a administração em escala PB, fazendo muitas tarefas complexas point-and-click ações.

  • Integração OpenStack - Swift e Cinder API.

  • Kinetic disco Seagate Ethernet acessados ​​conduzir apoio oficial.

  • Gerenciamento de disco - novo procedimento para substituição do disco e provisionamento.

  • Distro Linux New e nova embalagem.


Como uma nota lateral, Scality agora está descrevendo ANEL como armazenamento definido por software, ou seja, nenhum hardware lock-in.


Scality Casos de Uso

Casos de uso da Scality



A empresa aumentou recentemente as suas fileiras exec, a nomeação de:



  • Will Hall como vice-presidente de EUA Sales,

  • Leo Leung como vice-presidente de Marketing Corporativo,

  • Tom Leyden como Diretor Sênior de Marketing de Produto.

  • Paul Speciale como Diretor Sênior de Gerenciamento de Produtos e

  • David Harvey como vice-presidente de Alianças Estratégicas e Canais.


Em os EUA, o Laboratório Nacional de Los Alamos (: ANL) está usando armazenamento ANEL Scality para armazenar dados como ele é executado simulações para vigiar o estado de os EUA estoques de armas nucleares. As simulações para testar a condição física do arsenal e prontidão operacional, e algumas das armas são de até 40 anos de idade.


As simulações de supercomputadores pode funcionar por meses e, Scality diz, este "exige o armazenamento de dezenas de petabytes de dados em centenas de milhares de discos físicos para cada simulação." Pode envolver storimg até 500PB de dados. LANL vai estar usando bloco, Objeto, HDFS e interfaces de arquivo para os dados cuja integridade será salvaguardada por codificação de apagamento.


O executivo ocupa o alargamento, clientes marquise como LANL, superior a 500 por cento de crescimento de receita 2012-2013, ea atividade de negócios em geral leva CEO Jerpme Lecat a declarar: ". 2.014 é o ano mais emocionante desde que fundada Scality É claro que nós estão cruzando o abismo .... armazenamento definidos por software está se tornando a nova norma. Enquanto essa transformação ainda vai levar vários anos, é imparável. "


Ele não disse armazenamento de objetos está se tornando a nova norma. Isso porque, poderíamos pensar, armazenamento de objetos como uma tecnologia de armazenamento especificamente diferente dirigida por seus próprios protocolos de acesso é e se transformou em uma tecnologia de armazenamento subjacente protocolos de acesso existentes.


Achamos que a visão de Scality é que o armazenamento de objetos é uma maneira de armazenar os níveis duplos e triplos petabyte e além de dados em disco com proteção melhor do que o RAID e evitar as limitações do sistema de arquivos, mas com acesso mediante a utilização do bloco, arquivo e interfaces de HDFS como bem como os protocolos de armazenamento objecto.


Essa estratégia parece estar funcionando. ANEL 4.3 navios este mês. ®







via Alimentação (Feed) http://ift.tt/1qMu6Uq