terça-feira, 30 de setembro de 2014

DataDirect Networks enfia complicado sistema de arquivos GPFS em caixa GS2K


Controle remoto seguro para desktops convencionais e virtuais


DataDirect Networks tem incluído o seu sistema de arquivos GPFS paralelo, que utiliza a tecnologia GridScaler, em seu aparelho GS2K. O aparelho pode usar o seu armazenamento objeto WOS como uma enorme abóbada back-end, que DDN espera irá remover GPFS set-up complexidade preservando acesso padronizado NAS.


Sistemas GPFS são conhecidos por serem poderosos, mas também difícil de configurar e operar. Agrupamento-lo em um front-end aparelho, que é mais simples de configurar e executar, ao mesmo tempo dando-lhe acesso transparente a um WOS (Scaler objeto Web) objeto de armazenamento dentro de um único espaço para nome lógico carrapatos muitas caixas de acordo com DDN, sendo um de alta performance (✓), scale-out (✓), sistema paralelo de arquivos (✓) aparelho de fácil utilização (✓).







DDN espera para pegar os clientes que pensam que os sistemas tradicionais de armazenamento NAS não escala suficiente ou executar rápido o suficiente para atender às necessidades de grandes análise de dados, mas que também querem, enquanto os recursos de gerenciamento de dados corporativos com a implantação de sistema de arquivo paralelo escalável.


Aparelho DataDirect Networks GS2K

Aparelho GS2K DataDirect Networks



O GS2K tem 4U gabinetes com 60 unidades com dois destes entregar 12GB / s de largura de banda. Vários GS7Ks podem ser agrupados sobre InfiniBand para chegar a centenas de largura de banda agregada GB / seg. Em um sub-sistema de SFX, os SSDs são usados ​​para a leitura de cache de dados quentes e acelerar o desempenho do sistema de arquivos. Tipicamente, o sistema poderia ser dividida: com 15-20 por cento da capacidade de flash, com o resto sendo disco, embora quantidades maiores de um flash de ser utilizado. Ambas as unidades de disco SAS e SATA pode ser usado, com diferentes velocidades de rotação, no mesmo sistema.


Ele pode armazenar centenas de PB de dados com centenas de GB / s de largura de banda e "tem características de classe empresarial para big data, conectividade cloud, escalonamento de dados e integrado de backup. Scale-out é obtida pela adição de aparelhos que vêm com o processamento e armazenamento necessário recursos pré-carregado. "O acesso pode ser tanto por um diretos protocolos NAS Connect ou via.


O DDN não acho que NFS paralelo é popular o suficiente para torná-lo uma alternativa viável para a GPF, diretor de marketing Molly Reitor dizendo: ". Nós não vemos a necessidade no ponto tis É possível que vamos no futuro."


Ela disse que o WOS back-end desde nuvem-hierarquização de dados de taxa de acesso mais baixa, e WOS tem interfaces tanto S3 e NFS. Os dados podem ser enviados a partir do GS2K a um sistema WOS para permitir a partilha de dados mais ampla, ou mesmo a fita; é um recurso de HSM (Hierarchical Storage Management).


DDN integrou o produto de backup TSM no GS2K para que ele possa gravar dados mais antigos em fita, se necessário, vendo um requisito para armazenamento de dados a longo prazo do que normalmente seria considerada com WOS. Esta disposição back-end dual, armazenamento de objetos ou paralelos de fita Quantum com sua StorNext sistema de envio de dados mais antigos para uma loja Amplidata objeto (Lattus) ou em fita. O trade-off é bem conhecida: a fita é mais barato, mas o armazenamento de objetos mais rápido, exceto para arquivos maiores.


As características incluem GS75 instantâneos e instalações de recuperação de desastres. Gestão é pela configuração e monitoramento de utilidade DirectMON. Ele vai, ao longo do tempo, lidar com dados e gerenciamento do sistema de armazenamento. Molly Reitor disse DirectMON se tornaria oferta de armazenamento definido por software do DDN.


O fundo do mercado visto por DDN é que as empresas em áreas como petróleo e gás e serviços financeiros precisam processar conjuntos de dados cada vez maiores, o uso de aplicativos HPC-like. Estas dependem mão de ter sistemas de armazenamento de fast-suficientes que podem ser ampliadas para manter os exabytes fracionárias de dados necessários, com múltiplas exabytes no futuro, e permitem o acesso rápido a subconjuntos selecionados a partir de uma única grande loja de namespace, e depois camadas de dados fora a mais lenta de armazenamento de back-end após o processamento.


Estas empresas não querem adquirir os conhecimentos necessários para integrar GPFS ou algum outro sistema de arquivos paralelo, preferindo tê-lo pré-integrados e muitas vezes usam suas interfaces Filer existentes para os dados. O GS2K deve ser, DDN espera, um bom ajuste para estas necessidades, assinalando todas as caixas. ®







via Alimentação (Feed) http://ift.tt/1nIEfUO

Cara, você está recebendo um Dell! Uni de Queensland acrescenta AU $ 275.000 aglomerado


Controle remoto seguro para desktops convencionais e virtuais


A Universidade de Queensland é o mais recente colaborador acadêmico boom de computação de alto desempenho da Austrália, com a AU 275 mil dólares ($ 238k) aglomerado de ir ao vivo no final de setembro.


Instalado no Instituto Australiano da Universidade de Bioengenharia e Nanotecnologia (AIBN), o novo cluster tem nove Dell PowerEdge R620s. Cada corre dois Intel Xeon unidades de 2,8 GHz com dez núcleos cada e 128 GB de memória.







Há também quatro PowerEdge R720s (dois Xeon 2.8 GHz unidades dez núcleos), cada um com um 61-core co-processador Xeon Phi, dando um total de 260 núcleos de CPU e 240 núcleos de Phi.


Há também um nó de início de sessão e um nó fila, fornecido pela PowerEdge R620s, e dois R620s para nós de armazenamento. A PowerVault MD3460 60-drive equipado com 3 discos de TB para o usuário I / O e armazenamento de arquivos do zero. O cluster será executado CentOS com gestão Rocks.


O kit foi financiado por uma concessão principal infra-estrutura da universidade, juntamente com o dinheiro do National Health and Medical Research Council.


Assim como o AIBN, a máquina será usada pela ciência, engenharia, arquitetura da universidade e faculdades de TI, apoiando a pesquisa em uma gama de problemas de modelagem computacional. A universidade diz que a caixa também vai sediar a pesquisa com células-tronco plataforma de colaboração do AIBN, Stemformatics.org. ®







via Alimentação (Feed) http://ift.tt/1vvt1n8

Supercomputadores: The Next Generation - Cray coloca tecnologia tampão estourar, Intel Haswell dentro


Guia do Iniciante para certificados SSL


Cray tem novos XC40 e CS400 SuperDuper computadores que utilizam processadores Haswell e DataWarp tecnologia tampão estourar para manter o Haswell núcleos repleto de dados a serem processados.


O XC40 vai duas vezes a velocidade do XC30 existente, cortesia de seu v3 Intel Xeon E5-2600 ("Haswell") do processador, escalando passado um milhão de núcleos. A arquitetura implementa dois motores de processadores por nó de computação, com quatro nós de computação por blade. Blades empilhar em oito pares (16) a um chassi, e cada gabinete pode ser preenchido com até três chassis, ou seja, 384 tomadas por gabinete.







Este oferece até 6.144 núcleos e permite 226 teraflops de desempenho por gabinete. Cray diz que "futuros upgrades de processador vai aumentar freqüência de clock e bata com o número de núcleos de embutidos, acelerando o desempenho geral do sistema."


DataWarp é uma aplicação acelerador IO usando memória flash diretamente ligado aos nós de computação XC40 - flash de caching PCIe basicamente. Ela recebe os dados de armazenamento e alimenta-lo rápido para os Haswells famintos, Cray afirma isso significa que ele atende "o pior caso de dados I / O surto precisa".


DataWarp PCIe-connect lâminas de E / S com SSDs são inseridos em bancos XC40 de lâminas de computação e todos conectados através da interconexão de Áries HPC. Cray diz: "Alta largura de banda pode ser entregue com praticamente nenhum impacto sobre outro I / O em execução no sistema, garantindo a qualidade do serviço e largura de banda sustentada para aplicações específicas."


Gary Grider, o Líder Divisão de Computação de Alto Desempenho em Los Alamos National Lab, disse: "O sistema Cray XC40 Trinity irá fornecer o primeiro multi-petabyte, multi-terabyte por segundo-tratamento intermitente capacidade de sempre."


Ambas as redes DataDirect e EMC têm vindo a trabalhar em tecnologia de buffer estourar em Los Alamos e parece que Cray tem salto-desmanchei-los.


Os sistemas XC40 e CS400 estarão disponíveis com NVIDIA Tesla aceleradores de GPU e co-processadores Intel Xeon Phi para fornecer ainda mais energia de processamento.


Cray_XC40

Cray XC40



Outras características incluem XC40:



  • Interconexão sistema baseado em ASIC Carneiro da Intel para a computação e nós I / O no lâminas de base XC40 usando uma interface host PCIe Gen3

  • Topologia da rede Dragonfly Aries ', com o qual todos os processadores estão ligados a todos os outros processadores (com não mais de cinco saltos entre quaisquer dois)

  • Um sistema de arrefecimento melhor

  • Ambiente de programação otimizados para HPC


Os CS400 agrupado supercomputadores usam construção servidor blocos padrão da indústria - lâminas ou de montagem em rack - e vêm com ar ou em sistemas -lc CS400-AC e, respectivamente, de arrefecimento líquido. Eles escalar passado 11 mil nós de computação e 40 petaflops de pico.


Cray CS400-AC

Cray CS400-AC



Cray diz que os XC400s "pode ​​ser adaptado para vários fins - de um para todos os fins cluster HPC massivamente paralelo, para um adequado para tarefas paralelas de memória compartilhada, a um conjunto otimizado para computação híbrida e cargas de trabalho intensivas de dados."


Eles são integrados com pilha de software HPC da Cray e incluem ferramentas compatíveis com a maioria de código aberto e compiladores comerciais, programadores, e bibliotecas. Avançado Cluster Engine da Cray (CACE) é um conjunto de software de gestão, fornecendo capacidades de rede, servidor, cluster e gerenciamento de armazenamento.


Cray_HPC_SW_Stack

Pilha de software Cray HPC



Cray ganhou um contrato para fornecer um supercomputador XC40 ao Centro Nacional Suíço de Supercomputação (CSCS), em Lugano.


Obter um folheto CS400-AC aqui (PDF) e brochura sistema de refrigeração líquida correspondente aqui (PDF) . Ainda com fome de informações? Obter um folheto DataWarp aqui (PDF) .


Os sistemas Cray XC40 e CS400 estão disponíveis agora, provavelmente com preços na casa das dezenas de milhões. Vamos atualizar se tivermos clareza sobre os preços. O que há alguns milhões entre amigos, certo? ®







via Alimentação (Feed) http://ift.tt/1po3Sow

segunda-feira, 29 de setembro de 2014

Ellison: Sparc M7 é o mais importante de silício da Oracle SEMPRE


Fornecer um Helpdesk segura e eficiente


OpenWorld Durante seu discurso OpenWorld, no domingo, a Oracle CEO CTO Larry Ellison teve tempo de falar-se estratégia de nuvem da sua empresa para lembrar o público que o gigante banco de dados está no negócio de hardware, também - todo o caminho para o silício.


Muitos dos "sistemas de engenharia" da Oracle são alimentados por processadores Intel - e presidente da Intel Renee James foi ato de abertura de Ellison no domingo - mas a empresa ainda está investindo na tecnologia de processador Sparc adquiriu quando comprou a Sun Microsystems em 2010.







A mais recente iteração da tecnologia, o Sparc M7 , deve lançar no próximo ano - embora as datas exatas são vagos - e ouvir Ellison diz ele, é "a coisa mais importante que fizemos em silício, talvez nunca."


A Oracle sistemas veep John Fowler primeiro brincou o novo CPU na conferência Hot Chips em agosto. Ele a descreveu como um chip de 32 núcleos com 64 MB de cache L3 on-chip que pode ser facilmente colocado em uma configuração SMP 32 vias para um total de 1.024 núcleos de que pode lidar com 8192 linhas, com até 64 terabytes de memória RAM.


Mas o que faz com que o M7 realmente especial, Ellison disse no domingo, são os "mecanismos de aceleração" assado no chip que são para acelerar aplicativos Oracle construído para o efeito.


"Nós realmente colocar mecanismos de aceleração de banco de dados em nosso microprocessador, e com isso podemos acelerar o desempenho da consulta por um fator de dez", disse Ellison.


Uma forma o M7 consegue isso, Oracle patrão presidente executivo disse, é por manipulação de compressão em silício - mais especificamente no lado de descompressão.


"Acontece que você comprimir quando você carregar os dados na memória, e você descomprimir quando você lê os dados e processar os dados", disse Ellison. "Acontece que a relação entre leitura e descompressão é muitas vezes, dez vezes mais freqüentes do que o carregamento dos dados na memória. Assim, a verdadeira magia de acelerar as coisas não é a compressão, é de descompressão."


Como resultado, Ellison disse, o M7 pode processar consultas de banco de dados em um 120GB olho-molhando por segundo, que o fundador da Oracle descrito como sendo dez vezes mais desempenho do que a solução de hardware e software convencional pode gerenciar.


Mas a inovação mais importante no M7, Ellison disse, é seus novos recursos de proteção de memória, que impedem que as aplicações de furar os dedos sujos onde eles não pertencem e torná-lo possível para evitar alguns dos erros de software mais frustrantes.


"As falhas são intermitentes, eles são extremamente difíceis de armadilha, eles são extremamente difíceis de detectar", disse Ellison. "Com a proteção de memória, você pode descobrir os erros muito cedo, por isso poupa-lhe uma descoberta fortuna realmente erros difíceis. Mas a coisa legal sobre isso é porque está no hardware, você pode deixar essa proteção memória, sem pagar qualquer preço o desempenho."


Envolvendo a volta para a nuvem - mensagem geral da Oracle OpenWorld para este ano - Ellison disse nada é mais importante para a nuvem moderna do que a proteção de dados e parar programas mal-intencionados.


Como para quando podemos esperar tudo isso bondade para chegar em servidores reais, no entanto, Ellison permaneceu vago - como foi Fowler em agosto - dizendo apenas que o Sparc M7 deve ser lançado em 2015 ®







via Alimentação (Feed) http://ift.tt/1vqEkx9

domingo, 28 de setembro de 2014

Pawsey horários powerhouse primeiros projetos


Fornecer um Helpdesk segura e eficiente


Petascale potência do Pawsey passou por seus ciclos de comissionamento, e seus operadores anunciaram que já concedeu 90 milhões de CPU-hora aos primeiros utilizadores da investigação da máquina para o período de setembro a dezembro.


Magnus, a oito gabinete, 35.000-core Cray XC30, é baseado em processadores Xeon da Intel E5-2600 v3 e tem 95 TB de memória. O Supercomputing Center Pawsey instalado a última atualização para o Magnus em setembro, embiggening o ferro para quebrar a barreira petaFLOP.







Foi um lançamento que tem animado os pesquisadores, com Rebecca Hartman-Baker (coordenador da chamada de propostas para estar entre os primeiros usuários do sistema) dizendo que havia quase três vezes o número de pedidos de tempo que estava disponível.


Hartman-Baker diz projectos seleccionados no âmbito do programa "petascale pioneiros" incluem geociências, astrofísica, química e bioinformática. Quatorze propostas foram escolhidos como projetos que não voaria sem uma máquina petascale, Pawsey disse em uma mídia de lançamento , com mais três aplicações "mais experimental", também aprovado.


Os projetos aprovados abrangem colaborações australianos, nacionais e internacionais ocidentais.


Cada um Magnus oito armários carrega 48 lâminas de quatro nós. Cada nó tem dois Haswells 12-core de 2,6 GHz, com três gabinetes de Cray Sonexion 1.600 aparelhos de armazenamento Lustre, e Áries de interconexão da empresa fornecendo 72 Gbps de desempenho de armazenamento por nó. ®







via Alimentação (Feed) http://ift.tt/1qMfi5c

quinta-feira, 25 de setembro de 2014

Chega de-braços rack, crianças. Experimente este aplicativo MISTÉRIO


Escolhendo uma nuvem de hospedagem parceiro com confiança


HPC blogue Os organizadores das competições ISC Student cluster (aqui está um guia rápido de como essas batalhas HPC trabalhar ) são um grupo astuto. Deles foi a primeira competição para lançar uma "aplicação mistério" nas equipes de estudantes, forçando-os a otimizar uma carga de trabalho desconhecido na mosca.


As equipes têm apenas algumas horas para aprender o aplicativo mistério e descobrir a melhor forma de implantá-lo em seus cachos. O objetivo dos organizadores é garantir que os alunos não só compreender as aplicações denominadas em competição, mas que eles também têm as habilidades necessárias para instalar e, em seguida, otimizar uma nova aplicação.







No ISC14, o comitê de competição aumentou a pressão ainda mais. Além do aplicativo mistério, que os alunos se esperava, houve também uma tarefa "Missão Secreta", que, como a Inquisição Espanhola , ninguém esperava.


Veja como tudo jogado fora ... ..


O "Mistério do aplicativo" temida tem, nos últimos anos, causou uma série de problemas para as equipes de estudantes. Este aplicativo é mantido em segredo até pouco antes de os alunos têm para executá-lo, o que significa que eles não têm qualquer tempo para se preparar para ele.


Este ano, o app mistério era o novo HPCG referência HPC ( High Performance Gradiente Conjugado ), a ideia de HPL perito Dr. Jack Dongarra. Dongarra e parceiro Michael Heroux (do Sandia National Labs) desenvolvido HPCG para medir melhor como os sistemas modernos executar em problemas do mundo real de hoje.


Tanto quanto eu posso dizer, não há um acelerador amplamente disponíveis (GPU ou Phi) a liberação de HPCG habilitado. Isso não quer dizer que não existe, mas eu não encontrá-lo durante a minha pesquisa.


Todas as equipes fizeram muito bem em HPCG - a pontuação média foi de 66 por cento, a mais alta de todos os aplicativos da concorrência. Mas o resultado final foi um Teutonic tour de force como os alemães entalhado um acabamento um-dois, que lembra algumas das equipes powerhouse chineses em competições passadas.


Equipe Hamburgo superou todos os concorrentes com uma pontuação surpreendente de 100 por cento, o que é uma grande realização para um time novato. Chemnitz terminou em segundo lugar por apenas um ponto percentual, com a África do Sul, tendo o Bronze com 97 por cento.


Mais uma vez, a Equipe Tsinghua recebe Menção Honrosa pelo seu quarto lugar com a velha escola, engrenagem não acelerado.


Secret Mission afunda estudantes


Além da aplicação do mistério, os organizadores jogaram outra ruga na competição deste ano, dando aos alunos uma "missão secreta".


A missão? Vire em uma corrida GADGET-3 que usa a menor quantidade de energia de pico dentro de um limite de tempo de 20 minutos.


Em uma ruptura com a tradição da concorrência cluster, as equipes podem fechar e rejigger seu hardware para encontrar a combinação de artes que tinha poder computacional suficiente para completar a corrida em 20 minutos, mas o fez com o menor pico de uso de energia elétrica.


Os alunos receberam um par de horas para considerar o problema, reconfigure o seu hardware, e teste. Depois disso, eles tinham uma hora para fornecer os juízes com sua melhor gadget prazo.


Este acabou por ser um grande desafio. Foi, de fato, a tarefa mais difícil em toda a competição, com uma pontuação média equipe de apenas 22%. Pelo que pude perceber, a maioria das equipes depowered seus sistemas um pouco demais e não tinha o suficiente engrenagem habilitado para bater o limite de tempo de 20 minutos para uma temporada de sucesso.


Mas três equipes conseguiu reunir a combinação certa de engrenagem e ajuste para concluir esta tarefa. Equipe África do Sul enlaça a sua primeira medalha de ouro nessa tarefa enquanto dominando o resto do campo com a sua pontuação perfeita.


Equipe Tsinghua enlaçados prata com 79 por cento e Xangai levou o bronze, com 62 por cento. O resto do campo não era capaz de registrar uma temporada de sucesso no tempo previsto.


Esta tarefa foi um grande sucesso em meu livro, uma vez que realmente empurrou as equipes até o limite e forçou-os a usar todas as suas habilidades para lidar com uma saída para o problema caixa. Muito pelo construtor personagem.


Estudantes brilham em entrevistas


Como de costume, todas as equipes se saiu bem no componente entrevista este ano, com uma pontuação média de 73 por cento. O fato de que todas as equipes se saiu tão bem não é surpreendente.


Participar de uma competição de cluster significa que os alunos passaram meses antes da competição aprender como montar o cluster HPC certa para as tarefas que vai ser dado. Eles têm que estar em intimidade com as aplicações, sabendo o que controles deslizantes para mover-se para fazê-los funcionar como um bando de doninhas escaldados. (Que é muito rápido, como se vê.)


Tomando a Medalha de Ouro de melhor entrevista é da equipe USTC com 90 por cento - e isso é apesar de enfrentar a barreira da língua (embora a concorrência fez providenciar intérpretes para os juízes). Equipe Edimburgo superou o campo para abocanhar a medalha de prata, mesmo sem o benefício de um escocês-inglês serviços de interpretação.


Equipe África do Sul superou a massa verde por frações de um ponto para a medalha de Bronze. Como da primeira vez concorrentes ISC, as equipes da Coréia do Sul e Hamburgo fez excepcionalmente bem na parte da entrevista do desafio.


No próximo artigo, vamos colocar para fora os resultados oficiais para os três primeiros colocados do Campeonato Geral, juntamente com o vencedor do Prêmio Favorito Fan, além de fotos e talvez até mesmo alguns vídeos da cerimônia de premiação épicas.


(Para uma parte de nossa cobertura extremamente abrangente dos resultados da competição aglomerado ISC14, clique aqui ) ®







via Alimentação (Feed) http://ift.tt/1urA2Xe

terça-feira, 23 de setembro de 2014

Southies Rookie S Coréia e África do S preparação para o jogo de cluster-wrestling


Escolhendo uma nuvem de hospedagem parceiro com confiança


Blog HPC Completando o campo para a recente ISC14 competição Cluster Estudante em Leipzig são duas equipes semi-experientes que ambos têm "Sul" em seus nomes.


Apesar da equipe da África do Sul e Team Coreia do Sul são separados por uma grande quantidade de terra e água, estas duas equipas têm algumas coisas em comum.







Ambas as equipes têm um mínimo de experiência. Para os sul-coreanos, esta é apenas a sua segunda competição internacional, chegando rapidamente na esteira de sua estréia no torneio ASC'14 da primavera passada.


Equipe África do Sul é ainda menos experiente, já que a equipe é composta por estudantes cuja única experiência estava competindo em um concurso de aglomerado intra-país em dezembro passado.


Dando uma olhada mais de perto as equipes ...


Equipe Coreia do Sul vem de Ulsan Instituto Nacional de Ciência e Tecnologia, que é um nome muito sensata, uma vez que eles estão localizados em Ulsan, Coréia do Sul. Apenas sete anos de idade, é de longe a escola mais jovem da competição.


Como mencionado acima, esta é a mesma equipe que competiu Ulsan com sucesso em Guangzhou, China na última primavera. No entanto, eles trouxeram muito mais, e diferente, engrenagem à concorrência ISC deste ano. Em Guangzhou, eles estavam dirigindo um cluster de seis nós com seis NVIDIA Titan GPUs (sim, Titãs, não Tesla cartões).


Mas, em Leipzig este ano, eles já bateu seu conjunto até oito nós, e prepararam-lo com oito NVIDIA K40c GPUs Tesla. Isso deve dar-lhes melhores resultados a toda a volta. Eles também decidiram supersize sua memória, passando da 768 GB que eles usaram na China para um muito mais robusto 1.4 TB na Alemanha.


Entrevista em vídeo com o Team Coreia do Sul


No vídeo, podemos conversar com a equipe e trocar amabilidades sobre a competição. Eles não falam muita coisa no vid, mas, como eu encontrei em Guangzhou, eles são um bando divertido estar ao redor em um ambiente de bar.


Equipe África do Sul está enfrentando uma missão quase impossível em ISC'14. Eles surgiram do nada no ano passado e levou para casa o prêmio geral Championship em ISC'13 - que chocou e eletrificada de cluster insiders concorrência e fãs ardorosos iguais.


É difícil repetir como um campeão competição aglomerado em qualquer uma das principais competições. Apenas duas equipes já conseguido este feito, Ntsu de Taiwan (SC10, SC11) e da Universidade do Texas, Austin Longhorns em SC12 e SC13.


Chances da África do Sul em uma repetição são ainda menos provável quando você leva em conta as diretrizes utilizadas para criar as suas equipas de competição internacional. O primeiro requisito é que os alunos só começar a participar do grande show uma vez. Isto significa que os alunos que estavam no time campeão do ano passado não pode estar na equipe de competição deste ano.


A razão por trás dessa exigência é que o Sul Africano CHPC (Centro de Computação de Alto Desempenho) quer obter o maior número de alunos que participam nestas competições possíveis.


Para selecionar quais os alunos irão representar o país no campeonato do ISC, o CHPC mantém sua própria competição aglomerado em sua reunião anual, em dezembro. Assisti à reunião na Cidade do Cabo em dezembro passado e irá publicar a cobertura de sua competição - eu finalmente recuperado a metragem!


Assim, a cada ano, as crianças da África do Sul envia para a briga competição aglomerado são novatos que não competiram nesse nível antes.


Entrevista com a equipe da África do Sul


No vídeo, você vai ver que essas crianças são muito envolvente e pode armazenar até seu fim de uma entrevista. Eles também sabem como se virar um supercomputador e HPC apps. Mas eles são bons o suficiente para ganhar toda a competição pela segunda vez? Essa é a grande questão ...







via Alimentação (Feed) http://ift.tt/ZI1gvW

domingo, 21 de setembro de 2014

Cherry Creek transborda de bondade HPC na Uni de Nevada


Proteger contra ameaças de aplicações web usando SSL


A Universidade de Nevada, Las Vegas, assinou um contrato dando-lhe acesso a um TOP500 anos de idade e Green500 supercomputador, a Intel construído Cherry Creek, que chegou a Chave da cidade SuperNAP.


Em parceria com a Switch, a universidade diz que estará oferecendo a máquina para a pesquisa do setor privado, bem como o seu próprio trabalho em saúde, genômica, bioinformática e pesquisas climáticas, bem como de modelagem molecular e dados do Google Analytics.







A universidade diz Cherry Creek vai dar-lhe um impulso de sete vezes em poder de processamento. No lançamento, em 2013, a máquina se sentou na posição 400 na lista Top500, mas com uma consideravelmente melhor classificação verde-tech que pousou-o na posição 41 no ranking Green500.


O cluster 48 nó é composta por 12 servidores Supermicro FatTwin com 48 x 2U nós meia largura. Cada nó executa dois processadores Intel Xeon E5-2697v2 e três co-processadores Phi 7120P, com 128 GB de memória DDR3 Micron. O equipamento indica 198,8 Tflops desempenho máximo teórico Rpeak e consome no máximo 74 kW.


Originalmente organizado no Orgeon, Cereja Peak chegou agora no Switch. Pessoal da Universidade agora estão lidando com a programação, optimsation, manutenção e atualizações. Computing Brilhante, CoolIT, Supermicro e Micron Technology trabalhou com a Intel para desenvolver a máquina. ®







via Alimentação (Feed) http://ift.tt/XV16QB

quinta-feira, 18 de setembro de 2014

Os alunos brincando com prateleiras impressionantes? Sim, é aglomerado tempo comp


Reduzir o custo ea complexidade do gerenciamento de vulnerabilidades web


HPC blogue Este artigo e os que o seguem são a análise mais abrangente e aprofundada de uma competição de cluster que o mundo já viu. Se você puder encontrar uma melhor cobertura, então eu vou comer um punhado de teias de aranha.


Mergulhe os resultados da parte do aplicativo de benchmark e HPC do Lt da Concorrência ISC14 Student Cluster ....







HPCC: Like "Hotel California" em um concerto Eagles, HPCC (HPC Desafio Benchmark) é um grampo de competições de cluster aluno.


O conjunto é uma combinação de sete benchmarks HPC bem conhecidas, incluindo: HPL (LINPACK), STREAM, PTRANS, FFTE, DGEMM, RandomAccess e b.eff (que não são capitalizados, eu me pergunto por modéstia, talvez?)



Uma das equipes ISC14 novatos, Equipe USTC, puxado para baixo uma perfeita 100 cento pontuação máxima por em HPCC, que é um maldito bom desempenho. Patrocinador Sugon (também novo para o mundo do cluster o aluno) tem que estar se sentindo bem sobre como fazer backup dos USTC crianças. A pontuação média para todas as equipes em HPCC foi de 58%.


Equipe Hamburgo foi definitivamente bater acima do seu peso com o seu segundo lugar. Dado o seu conjunto com base em CPU tradicional e sua relativa falta de experiência competição, eles fizeram incrivelmente bem neste benchmark.


África do Sul escapado à frente de massa verde para a medalha de Bronze. Massa Verde recebe Menção Honrosa para a condução de seu quad-socket, conjunto monstro fat-nó para o quarto lugar, superando outras sete equipes com grupos mais convencionais.


Quantum ESPRESSO é um conjunto de códigos-fonte abertos que são usados ​​para calcular a modelagem de materiais em escala extremamente pequena. Já vimos este aplicativo um par de vezes em outras competições, e isso causou alguns problemas para as equipes no passado.


Mas essa cultura de clusterers estudante parecia lidar com isso com calma, com quase todas as equipes de postar uma pontuação válida. A pontuação média para todas as equipes nesta app foi de cerca de 50 por cento.


Versões de GPU habilitado de QE estão disponíveis, o que foi muito útil para as equipas de condução aceleradores NVIDIA.


Mais uma vez, a Equipe USTC foi um destaque; agarrando 93% dos pontos possíveis neste app. África do Sul estava perto em seus saltos, apenas cinco pontos atrás. Equipe Tsinghua conseguiu prender a medalha de bronze, embora eles não têm quaisquer aceleradores em seu sistema - o que significa que eles tinham para otimizar o inferno fora do aplicativo, a fim de superar o resto do campo.


Equipe da casa Chemnitz recebe luz verde para a Menção Honrosa, que é uma boa pontuação em uma aplicação difícil.


OpenFOAM é um conjunto de solucionadores de que muitas vezes são usados ​​para modelar a dinâmica de fluidos. Você poderia usá-lo para descobrir o fluxo de ar através de uma turbina ou para modelar o diferencial de pressão no sistema de aspersão gramado.


Há ar e GPU versões amigáveis ​​de OpenFOAM disponível. Dependendo do problema e solucionadores de ser utilizado, GPUs pode proporcionar uma redução de 50 por cento + speed-up ao usar um terço a menos de energia - definitivamente uma vantagem competitiva em guerras de cluster aluno.


Vimos uma ampla gama de pontuações em OpenFOAM este ano, com a pontuação média em 32%, tornando OpenFOAM um dos aplicativos mais desafiadores do concurso ISC14.


Mais uma vez, essa equipe corajosa de USTC apanha uma medalha de ouro neste app, superando os dez outros concorrentes por uma ampla margin.South África leva a prata, com o Team Chemnitz terminando com uma Medalha de Bronze. Tsinghua recebe Menção Honrosa para postar uma pontuação competitiva com o campo, sem o benefício de aceleradores.


GADGET-3: Como eu já disse muitas vezes antes, se eu fosse forçado a modelar o universo e só poderia escolher um pacote de software, eu tomaria GADGET-3, as mãos para baixo.


Ele vai fazer a sua modelagem força gravitacional, e ainda vai mostrar o que acontece quando as galáxias colidem - o que leva uma quantidade razoável de poder computacional.


GADGET-3 foi outro app difícil para as equipes de alunos (a pontuação média foi de 40 por cento). No entanto, todos eles transformaram em um resultado válido, o que significa que eles foram capazes de criar e terminar pelo menos uma corrida.


Equipe USTC acrescenta à sua conta medalha de ouro com o seu campo de cobertura de 100 por cento de pontuação. Equipe Tsinghua perdeu agarrando sua primeira medalha de ouro por um devastador margem de um ponto percentual, fixando-se para a prata.


O ex-campeão ISC África do Sul levou o resto do campo e levou o bronze com a sua pontuação de 72%. Unhas time da casa Chemnitz para baixo outra Menção Honrosa pelo seu quarto lugar no que provou ser uma aplicação muito difícil.


No próximo artigo, falaremos sobre os resultados do temido "Aplicação Mistério", a tarefa de "Missão Secreta", e os componentes da entrevista da competição. E então a cobertura completa dos vencedores. Fique atento ... ®







via Alimentação (Feed) http://ift.tt/1toFfxm

Escócia vence RECORDE MUNDIAL como eleitores cabeça para votações do referendo


Reduzir o custo ea complexidade do gerenciamento de vulnerabilidades web


HPC blogue A parte LINPACK do ISC'14 competição Cluster Estudante (LINK) era suposto ser de rotina, de acordo com os espertalhões da concorrência cluster. Claro, um time de estudante pode estabelecer um novo recorde, mas ninguém estava esperando a nova marca para romper a 10 TFLOP / s barreira.


Quase todo mundo esperava que a coroa LINPACK para ir para uma das equipes powerhouse chineses, ou talvez a equipe de Chemnitz louco poder, ou mesmo o retorno ex-campeão na África do Sul.







À medida que os alunos concluíram seus funcionamentos LINPACK, rumores de um novo 10 TFLOP + resultado começou a girar em torno do assoalho da mostra. A fofoca foi que a equipe de Edimburgo tinha dirigido o que parecia ser uma configuração insignificante para um inimagináveis ​​10.1 TFLOP / s.


Neste caso, os rumores eram absolutamente correto. Equipe Edimburgo abriam cluster de quatro nós, equipado com apenas 80 núcleos de CPU e menos memória (256 GB) do que qualquer outro concorrente, através da parede LINPACK a 10 TFLOP / s. No processo, eles profundamente superou os outros concorrentes e garantiu uma fatia grande de glória competição cluster para Edimburgo, na Escócia, e no Reino Unido como um todo.


O segredo para o triunfo de Edimburgo tem muito a ver com o design do seu cluster. Embora a sua configuração do nó-CPU-memória tradicional foi definitivamente no lado pequeno, eles amontoados seu cluster para as brânquias com oito GPUs Tesla da NVIDIA K40x.



Embora esta configuração potencialmente deu-lhes potencialmente um enorme soco processamento numérico, todos os outros finalistas superiores em LINPACK também foram ostentando um colar duplo (que significa oito) NVIDIA GPUs K40.


O desafio para todas estas equipes foi descobrir a melhor maneira de aproveitar o seu potencial de processamento sem ultrapassar o limite de potência de 3.000 watts.


Cada equipe com uma grande configuração (8 ou mais nós) teve de acelerador para baixo alguma parte do seu sistema, a fim de ter potência suficiente para abastecer suas GPUs. Isso geralmente significa abrandar seus processadores. Mas não Edimburgo. Eles, na verdade, eles atolado no acelerador para o firewall em ambas as suas CPUs e GPUs, com apenas uma preocupação com a tampa.


Eles foram capazes de fazer isso porque eles tinham uma pequena configuração, mas mais importante, eles foram capazes de fazer isso porque eles estavam usando refrigeração líquida.


Hot stuff correr gelado


Boston Group, seu patrocinador hardware, deu à equipa da engrenagem refrigeração líquida altamente avançada que inclui um radiador que provavelmente poderia lidar com o calor gerado pelo cluster de Edimburgo, com espaço suficiente para mais duas ou três caixas de Edimburgo porte.


Usando refrigeração líquida permitiu que a equipe se livrar de um monte de fãs (vários por nó), que lhes deu a capacidade de executar tudo para fora plana.


Eu não estava esperando muito da competição LINPACK em ISC'14. Na competição ASC'14, realizada poucos meses antes, time da casa Sun Yat-Sen University tinha estabelecido um novo recorde de 9,272 TFLOP / s. Uma vez que não tinha sido quaisquer novos lançamentos de hardware (especialmente CPUs mais rápidas ou GPUs) desde ASC em abril, eu não vejo como alguém estava indo para cima significativamente a pontuação de Sun Yat-Sen.


Mas isso só serve para mostrar que, se há uma vontade, há um caminho. Edimburgo queria que o registro LINPACK, assim que descobriu uma maneira de obtê-lo. Parabéns para eles, seus patrocinadores, e todos na Escócia.


Não se esqueça do resto do campo


Também foi bom ver o valente Sul-Africano prego equipe para baixo a segunda maior LINPACK, e time da casa Chemnitz agarrar o terceiro lugar. Eu não fiquei surpreso ao ver equipe de Xangai na mistura para a dominação LINPACK, mas eu sabia que eles tinham suas atenções para o Campeonato No geral, o que determina uma abordagem mais equilibrada da configuração do sistema.



Veja como o resultado de Edimburgo encaixa competição Cluster Estudante história LINPACK.


Como você pode ver, eles já aumentou significativamente o bar para estudante LINPACK-iness com um aumento de 8,9 em relação ao recorde anterior.



Olhando para os mesmos resultados, mas da perspectiva de um GFLOP / s por watt, os resultados parecem idênticos.


Na verdade, quando se olha para os números, os fracassos / aumento watt é exatamente a mesma melhora de 8,9%, como visto nas próprias pontuações LINPACK.


Eu estava um pouco surpreso com isso. Eu percebi que a refrigeração líquida renderia uma melhor relação fracasso / watt em relação ao ar sistemas de refrigeração.


No entanto, minha análise pode ser falho. Eu não tenho dados para exatamente o quanto de energia cada equipe estava usando para o LINPACK prazo eles submetidos. Tudo o que sei é que eles estavam usando uma quantidade que foi menor do que o limite de potência de 3.000 watts.


Eu ainda acho que o líquido de refrigeração do sistema de Edimburgo foi mais eficiente em uma base fracasso / watt, mas eu não posso provar. Muito parecido com a minha crença de que bolo de cenoura não é uma verdadeira sobremesa - ou a minha crença de que eu possa ganhar uma luta justa com qualquer cão do mundo. ®







via Alimentação (Feed) http://ift.tt/XmK6SL

A3Cube transforma memória RAM de até 11 com kit FORTISSIMO


Reduzir o custo ea complexidade do gerenciamento de vulnerabilidades web


A3Cube tenha clarificado, uma outra parte de seus planos para a interconexão de alta performance, a adição de um sistema de acesso de E / S para a tecnologia de plano de dados RONNIE lançou em fevereiro de 2014.


Como explicou ao El Reg quando ele bateu , RONNIE fornece, conexão switchless direta entre nós usando placas de rede PCIe, alegando que cerca de 900 nanosegundos de latência entre a CPU, memória e I / O.







A próxima peça do quebra-cabeça é o seu recém-cunhadas Fundação Fortissimo, que a roupa diz alvos "grandes aplicações scale-out", tais como bancos de dados NoSQL, Hadoop, objeto de armazenamento, e NAS.


A fundação é um baseado em Linux "tecido in-memory" A3Cube-feita: há o "megafiler", que agrega memória e armazenamento através de DMA; e um mecanismo de gerenciamento.


"Local-CPU de tempos de acesso remoto dispositivo de menos de 0.8usec são alcançados por Fortissimo com RONNIE Express, melhorando significativamente os tempos de acesso em relação a configurações de armazenamento tradicionais e permitindo o desempenho de armazenamento para escalar linearmente em vários nós," reivindicações de liberação da empresa (PDF, aqui ).


Desmontar a algaravia de liberação, a coisa chave parece ser que é um scale-out in-memory. Fortissimo cria um espaço de nome global que pode agregar todos os recursos de um cluster de centro de dados para se comportar como se fosse local (que é onde a latência de 0,8 microssegundos de Ronnie é importante - para que o sistema não percebe o tempo que leva para chegar ao memória não-local).


O ambiente de armazenamento corporativo existente, A3Cube afirma, pode obter alto desempenho IOPS, DRAM escalabilidade para petabytes, e as comunicações sem envolver o kernel do sistema operacional. Ele diz trabalhar com "qualquer combinação de memória, flash, SSD, disco rígido, CPU ou centro de dados I / O tecido" e vem com a alegação notável que permite que um 16: consolidação 1 de tamanhos servidor de cluster (YMMV). ®







via Alimentação (Feed) http://ift.tt/1tkY0le

quarta-feira, 17 de setembro de 2014

Suécia ordens DOIS petaflop supercomputador


Reduzir o custo ea complexidade do gerenciamento de vulnerabilidades web


Da Suécia KTH (Royal Institute of Technology) continua seu fandom de Cray, colocando a US $ 13 milhões para que uma XC super e tendo o instituto para a era petascale.


Cray primeiro tem o seu pé na porta no KTH em 2010, com um midrange XT6m 93 teraflops-rated sistema .







A unidade XC agora em ordem e com entrega antes de Ano-final serão colocados para trabalhar em cargas de trabalho HPC familiares: dinâmica dos fluidos, modelagem climática, física de plasma, neurociência, ciência dos materiais e modelagem molecular.


A 2 petaflop Super terá 1.676 nós e 104,7 TB de memória, e será seis vezes mais rápido que o atual top performer da universidade, um Cray XE6 chamado Lindgren que avaliaram 31 no TOP500 em 2011.


Os EUA orçamento de US $ 13 milhões para a nova caixa compreende hardware, armazenamento, suporte e custos de funcionamento em quatro anos, e é esperado para estar no serviço completo em janeiro de 2015, bem como usuários no KTH, o XC se tornará parte da Infra-estrutura Nacional da Suécia de Computação, e será integrada na Parceria para a Computação Avançada na Europa projeto como um recurso Tier-1.


A série XC corre processadores Intel Xeon, até 384 por gabinete, suporta até 128 GB de memória com 117 GB / s de largura de banda por nó, com Infiniband, 10 Gbps Ethernet, FCoE e I / O. É para ser nomeado após autor das crianças suecos Elsa Beskow. ®







via Alimentação (Feed) http://ift.tt/1wr7k6A

segunda-feira, 15 de setembro de 2014

BUMPER Estado da Nação anúncio de armazenamento da Seagate


Segurança para data centers virtualizados


Análise posicionando-se como um administrador de dados, a Seagate apresentou seu armazenamento estado da nação passo, anunciando: três novas unidades de disco; LaCie Thunderbolt armazenamento externo; dois cartões de memória flash servidor e um controlador; uma matriz de HPC; um novo equipamento de backup; e uma nuvem e de negócios da empresa unidade brilhante e brilhante.


Seagate continua a estender-se de ser uma fabricante de unidade de disco para desenvolver SSD e flash card servidor produtos, matrizes de armazenamento HPC e aparelhos de backup. Há um novo grupo de negócios para se concentrar em grande escala de nuvens e as necessidades das empresas para esses produtos. As unidades de disco são o núcleo de seus negócios e há uma oitava geração de drives de ser anunciado também.







Os itens separados são:



  • Unidades de disco New Enterprise Performance e Capacidade

  • 10 milhões de unidades híbridas enviado

  • Cloud e empresa BU

  • ClusterStor 9000 matriz para computação de alto desempenho (HPC)

  • 100TB EVault Backup and Recovery Appliance

  • LaCie d2 Thunderbolt 2 de armazenamento externo

  • Dois cartões de memória flash servidor Nytro

  • OneStor XP NVMe SSD controlador


Unidades de disco Mainstream


Seagate_Enterprise_Performance_15K

Seagate Empresa Desempenho 15K



A Enterprise Desempenho 15K é um avanço geracional no Savvio 15K.3 e sua capacidade máxima de 300 GB e interface de 6Gbit / s SAS. Esta nova unidade, também girando a 15.000 rpm, tem 146GB. Pontos de capacidade de 300GB e 600GB, com 3 pratos e uma 530Gbits / in 2 Classificação densidade de área, 200GB / prato.


Não é a interface SAS de 12Gbit / s e criptografar um seguros, opções de apagar instantâneas. A figura MTBF é dois milhões horas.


Confira uma folha aqui (pdf) .


A unidade da empresa Desempenho 10K é outra unidade de 2,5 polegadas, girando a um ritmo mais lento 10.000 rpm e mantendo até 1.8TB de dados. É a oitava geração do que uma vez foi saber como os produtos Savvio 10K. Capacidade máxima aumentou de 1,1 TB a da geração anterior de 1,6 TB, ea interface dobrou sua velocidade para 12Gbit / s SAS.


Seagate diz que: "Oferece 1200GB de acesso de dados de alto desempenho para aplicações de uso intenso de gravação", usando um cache de flash NAND de 32GB. A unidade da empresa Desempenho 15K não tem cache de NAND, de acordo com a sua folha de dados.


A densidade de área é 644.6Gbit / in 2 e que tem uma altura z 15 milímetros, com três travessas; 600GB / prato.


Tem uma opção de criptografia, TurboBoost opcional e você pode conferir sua ficha aqui (pdf) .


Seagate rígido capacidade empresarial de 2,5 polegadas

Seagate de 2,5 polegadas unidade Capacidade Empresarial



Em uma primeira extensão para armazenamento em disco nearline para discos de 2,5 polegadas, há um novo 2.5 polegadas Unidade 2 TB de capacidade empresarial, girando a 7.200 rpm com um 12Gbit / s SAS ou interface 6Gbit / s SATA. A taxa de transferência sustentada é 136MB / s. Tem chamado a tecnologia Power Choice baseado no T13- e padrão de gerenciamento de energia T10-compliant. A unidade pode usar apenas 1.1 watts quando está inactivo.


Ele tem uma altura z 15 mm e a densidade de área é 585Gbit / in 2. Achamos que ele tem quatro pratos de 500 GB.


Da Seagate (PDF) diz que é uma unidade Constellation 3 ª geração. Ele também diz que tem uma "melhoria mais de 50 por cento em watts / TB, e 18 por cento de melhoria de desempenho sequencial".


Há auto-criptografia e instantânea, os modelos de seguro-se de apagar seus dados não podem ser acessados ​​pelos sistemas não validados ou pessoal.


Usando essas unidades de 2,5 polegadas você pode obter mais fusos em um gabinete especial que usando drives de 3,5 polegadas e assim obter um melhor desempenho da caixa geral, mesmo que você provavelmente vai ter menos capacidade nele.







via Alimentação (Feed) http://ift.tt/YKJRCK

segunda-feira, 8 de setembro de 2014

Xeon-friendly DDR4 da Intel laboriosos parafuso para estações de trabalho, servidores


Novas soluções de armazenamento híbrido


Processadores de última geração da Intel Xeon E5 v3 apareceu pela primeira vez em sistemas de nomes como Dell , no mês passado, mas Chipzilla fez geralmente disponíveis na segunda-feira - com todas as 32 ​​partes diferentes que dirigem para OEMs e do canal.


O novo Xeon E5-2600 v3 e E5-1600 v3 chips são todos baseados em x86-64 da Intel Haswell microarquitetura, e fabbed usando um processo de 22nm.







"Os processadores serão usados ​​em servidores, estações de trabalho, armazenamento e infraestrutura de rede para ligar um amplo conjunto de cargas de trabalho, tais como análise de dados, computação de alto desempenho, telecomunicações e serviços baseados em nuvem, bem como processamento de back-end para a Internet de coisas ", disse a Intel em uma lata declaração , não deixando pedra sobre pedra.


A série v3 Xeon E5-1600 vem em seis configurações diferentes e visa principalmente o mercado de estação de trabalho, enquanto a série E5-2600 v3 mira em uma ampla gama de aplicações e será lançado em um total de 26 versões diferentes.



Vamos e deixe morrer ... Xeon E5 2600 silício (Clique para ampliar)



Sempre que o da geração anterior série Xeon E5 v2 maxxed para fora em 12 núcleos por chip, o Xeon E5-2600 v3 ups série do limite de 18, com o máximo de 45MB de cache por soquete.


Os novos Xeon são também os primeiros a apoiar DDR4 RAM, que oferece velocidades de barramento de memória de até 2,133MHz e que a Intel diz que pode aumentar o desempenho para cargas de trabalho com limitação de largura de banda de memória de até 1,4 vezes em relação à geração anterior de processadores.


Além disso, a Advanced Vector Extensions da Intel 2 (AVX2) melhorar inteiro e desempenho de computação de ponto flutuante em até 1,9 vezes dobrando tamanhos de instrução vetor a 256 bits por ciclo de clock, enquanto os Encryption Standard Intel Avançada New Instructions (AES-NI) aumentar o desempenho de criptografia e descriptografia de dados em até 2 vezes.


Uma vasta gama de fornecedores se comprometeram a construção de sistemas em torno dos novos Xeon começando na segunda-feira, incluindo o Touro, Cray, Cisco, Dell, Fujitsu, Hitachi, HP, Huawei, IBM, Inspur, Lenovo, NEC, Oracle, Quanta, Radisys, SGI , Sugon e Supermicro, entre outros.


Exatamente o que você vai ter que pagar para caixas construídas com os novos chips, no entanto, irá variar muito. Intel diz que a série Xeon E5-1600 v3 irá variar de preço de 295 dólares para 1.723 dólares, enquanto a série Xeon E5-2600 v3 vai começar em US $ 213 e percorrer todo o caminho até 2702 $ por chip. ®







via Alimentação (Feed) http://ift.tt/1BnP2WM

Square Kilometre matriz revela seu armazenamento 1.6TB-a-dia e plataformas de rede


Novas soluções de armazenamento híbrido


Primeira passagem da Austrália no Square Kilometre Array - Array Boolardy Teste Engenharia - está prestes a ser encomendado em um sistema totalmente ao vivo.


A matriz de teste, conhecido naturalmente como BETA, é parte da ciência-antes-da-ciência: um campo de provas para algumas das novas tecnologias que estão sendo usadas para o projeto SKA, em particular, o Phased Array Feeds.







Esses alimentos representam uma nova forma de obtenção de sinais das antenas parabólicas da matriz: em vez de as guias de onda que coletam os sinais em um prato velho estilo (como The Dish, que recentemente teve de cortar o número de frequências que iria instalar guias de onda para a uma medida de redução de custos), PAFs colocar uma série de receptores no plano focal.


Como os operadores de BETA explicar neste Arxiv papel , esse arranjo permite "múltiplos feixes primários independentemente direcionáveis ​​para ser sintetizados eletronicamente", mas porque nunca foi feito antes, a implantação de teste existe há tarefas como trabalhar para fora como para formar as vigas para determinadas tarefas de imagem , medindo a estabilidade padrão das vigas, e trabalhar a melhor forma de organizar múltiplos feixes em um grande campo de visão.


Ao longo do caminho, BETA também está mostrando alguns dos outros tecnologias que vai ser fundamental para o SKA. Uma vez que os sinais dos telescópios foram digitalizados (pranchas CSIRO desenhados dublados DragonFly-2), elas são enviadas a partir dos telescópios para uma unidade central para processamento.


Com apenas seis antenas na colocados, o processamento central (tratado por um outro conselho do CSIRO chamado Redback-2) tem muito para trabalhar com: cada porta PAF em cada antena produz 304 canais individuais de 1 MHz, com cada antena precisando 16 da Redback- 2 placas e 10 GB / segundo de comunicação.


Cada observação corrida 12 horas de BETA é bom para o despejo de cerca de 154 MB / segundo em disco da instalação, para um total de 816 GB. O processador central de ASKAP, um 472-nó Cray XC30 em Pawsey Centro de Perth, está atualmente trabalhando duro para preencher a 10 PB de armazenamento em fita Spectra Logic (duplicado para o seguro) disponível para a instalação, e que está previsto para a expansão para 50 PB. ®







via Alimentação (Feed) http://ift.tt/1tksCRh

terça-feira, 2 de setembro de 2014

Americanos filhos de cluster HPC alimentar-nomming dados besta com nódulos de gordura


Próxima segurança para data centers virtualizados gen


Blog HPC Duas equipes de estudantes dos Estados Unidos viajou para a competição Cluster ISC'14 estudante em Leipzig, Alemanha, para defender o vermelho, branco e azul - e, talvez, para trazer o cluster Cálice da Vitória * ISC para os EUA pela primeira tempo.


University of Colorado: ISC'14 marca o oitavo tempo recorde Colorado já competiu em uma grande competição internacional de cluster aluno. Quando se trata de experimentar, só Purdue, com sete majors, é mesmo perto.







É uma equipe familiarizada com abundância de veteranos. Mas eles têm uma abordagem completamente diferente este ano. Colorado foi uma das últimas equipes a abraçar aceleradores, ganhando tempo para ver se a corrida para GPUs e Phis foi merecido ou apenas um fogo de palha.


No último par de competições, os búfalos têm colocado os pés nas águas de HPC híbridos, com resultados mistos. Mas este ano, eles foram all in, ostentando uma configuração de quatro nó pequeno, apoiados por oito musculosos Intel Phi aceleradores de co-processador.


No entanto, a equipe está usando apenas três nós para as corridas competitivas. Eles foram obrigados a desativar um nó a fim de ficar sob o envelope de energia.


No vídeo, podemos chutar os méritos de onde ficar em Leipzig, fazer alguma conversa sistema, e discutir como seus aplicativos corridas vão.


Youtube Video


Equipe de Boston: é conhecido por muitos nomes, incluindo equipe de Massa Verde, Equipe Chowder e Team Beantown. Embora esta seja sua primeira aparição ISC, vários elementos desta equipa ter competido em quatro competições SC anteriores.


A equipe deste ano é composto por estudantes da Universidade de Bentley, da Northeastern University e MIT. Os leitores que acompanham de perto o agrupamento aluno vai se lembrar que a Bentley e componentes do Nordeste desta equipe venceu a competição SC13 Commodity Pista novembro do ano passado em Denver.


A abordagem de Boston em ISC'14 é inovador, como você verá no vídeo abaixo (que está devidamente acompanhada por uma trilha sonora Boston-like).


Youtube Video


Ao invés de ir atrás do Kluster Kup com o típico nó rack de oito a 10 de servidores de duas vias, eles estão tentando algo que não vi em uma competição até o momento. Eles estão usando um conjunto de quatro quad-socket "nós gordos" em uma tentativa de acabar-correr ao redor do resto do bloco.


Do ponto de vista total do núcleo da CPU, esses nós não são apenas gordura, eles são obesos, com 64 núcleos AMD Opteron por nó (256 no total para o cluster). Enquanto eles têm mais núcleos de CPU do que ninguém, eles parecem estar em uma dieta de memória, com apenas total de 640GB para todo o cluster. Mas, como diz o velho ditado, não é o tamanho da sua memória RAM que importa, é como você usá-lo (eu espero).


Clusternote


Não há Chalice real de vitória. Desculpe.







via Alimentação (Feed) http://ift.tt/1raEwic

segunda-feira, 1 de setembro de 2014

China envia três equipes para HPC baile Whizzkid na Alemanha


Próxima segurança para data centers virtualizados gen


Blog HPC China estava solidamente representados na competição Cluster ISC'14 estudante em Leipzig, enviando três equipes para disputar o lendário "Cluster Cup".


Duas das equipes abriram caminho através da Asian Desafio Supercomputador Student (ASC14) , superando outras 10 equipes de universitários chineses para obter o seu bilhete perfurado para o ataque Leipzig.







O maior patrocinador do ASC'14, Inspur, tradicionalmente equipados e patrocinado as duas melhores equipas ASC acabamento no evento ISC. Este ano, eles estão apoiando equipe de Xangai e Team Tsinghua. A terceira equipe chinesa, USTC, é patrocinado pela novata Sugon (anteriormente Nascente).


Equipe de Xangai foi o grande vencedor da competição ASC14, e é realmente uma equipe formidável e confiante. E por que não? Eles habilmente bater o campo inteiro em ASC14, eo sistema que está usando nesta competição é um pouco mais potente (com oito NVIDIA K40s vs oito K20s).


, Levando para casa a coroa de cluster ASC14 (mais um pedaço do prêmio em dinheiro), o Team Shanghai provaram que podem aprender e aplicações HPC melodia bem o suficiente para derrotar equipes muito mais experientes. Eles também mostraram que sabem como montar a linha de energia, o que significa que manter seu sistema apenas sob a tampa de alimentação de 3.000 watts.


Youtube Video


No vídeo, nós conversamos sobre a equipe e como eles vêem suas chances em ISC'14.


Equipe de Tsinghua foi o segundo colocado equipe chinesa em ASC'14, que lhes valeu uma viagem para a competição ISC em Leipzig. Esta é uma das equipes mais fortes e mais experientes na competição, e ISC'14 marca a sua quarta grande competição internacional.


Eles têm um histórico invejável, tendo levado o prêmio geral campeão em dois dos três de seus concursos anteriores (ISC'12 e ASC'13). Tsinghua é incomum em outro aspecto: eles são uma das duas únicas equipes (o outro é da equipe Hamburg) que estão usando as configurações de cluster tradicionais - ou seja, sem aceleradores.


A equipe entende que isso os coloca em desvantagem na parte LINPACK da competição, mas eles acreditam que a sua aplicação e sistema de afinação proeza lhes dá a chance de marcar no alto das aplicações HPC.


Infelizmente, tive uma avaria de som na gravação da entrevista com a equipe. O áudio acabou soando como um camelo passar por um triturador de metal industrial.


Youtube Video


Assim, o link do vídeo é um olhar sobre a equipe, mais o meu mea culpa, acompanhado por alguns agradável música inspirada na Ásia.


Equipe USTC: Completando ardósia de concorrentes de fragmentação da China é Equipe USTC (Universidade de Ciência e Tecnologia da China). Esta é a primeira vez USTC enviou uma equipe para uma competição importante cluster e eles são bastante a equipe. Eu raramente vi um grupo tão feliz e alegre (como você verá no vídeo que acompanha).


Youtube Video


Equipe USTC é carregado para o urso quando se trata de hardware. Sugon desde que a equipe com um cluster de 10 nós, que inclui 240 núcleos de CPU, 1,28 TB de memória, e oito aceleradores NVIDIA K40. Esta é uma das maiores configurações na competição, colocando-os em segundo por número de nós, núcleos, memória e GPUs. É definitivamente uma configuração a ser contada com.


Embora a equipe é inexoravelmente alegre, o seu desempenho na competição prova que eles são todos os negócios quando se trata de negócio de ganhar competições de fragmentação, como veremos.


Uma nota aleatória: a equipe USTC tem a maior faixa de altura de qualquer equipe de cluster para o momento. Eu tinha pensado que este registro foi do Colorado para sempre quando respondeu várias equipes com um jockey sistema de sete metros de vantagem. No entanto, a equipe de USTC tem dois jogadores de seis metros de mais, juntamente com um membro do sexo feminino diminutivo que é um pouco abaixo da marca de cinco pés. Eu não sei se isso tem um impacto sobre a concorrência, mas é provavelmente algo que eu deveria seguir a partir de agora apenas no caso, certo?







via Alimentação (Feed) http://ift.tt/1vFsa4G

O Maravilhoso Feiticeiro de WOS pai DDN move em big data


Próxima segurança para data centers virtualizados gen


Comentário HPC e armazenamento supercomputador empresa Redes de Dados Diretos (DDN) afirma que sua mudança para a empresa grande de dados é fornecer uma ponte para os lucros, com um crescimento de 100 por cento das receitas.


As estatísticas cita são estes:



  • Aumento negócio melhor do que 100 por cento no primeiro semestre de 2014 em relação ao primeiro semestre de 2013 por suas empresas grandes de dados e produtos de armazenamento de objetos,

  • Registou um crescimento significativo em serviços financeiros, ciências da vida e de exploração de energia (petróleo e gás) mercados,

  • 20 novos clientes de classe petabyte líquidos, incluindo um dos maiores bancos do mundo, líder em exploração de petróleo e gás global, e uma grande empresa de fabricação de automóveis com sede no Japão,

  • Ao longo 250PB da capacidade vendidas no primeiro semestre deste ano,

  • Fazer bem nos mercados de nuvens e de telecomunicações.


DDN diz que é rentável também. Tem crescido o número de funcionários seus 20 por cento desde o primeiro trimestre e pretende adicionar o que chama de "nova e significativa contagem" até o final do ano.


DDN não parecia tão bom no início do ano . Portanto, este não é mau de todo. Isto é especialmente verdadeiro quando se considera a concorrência para o grande armazenamento de dados, que inclui todas as startups de armazenamento de objetos e os fornecedores tradicionais de matriz.







DDN avalia a sua vantagem inclui a capacidade de suas matrizes SFA para fornecer 5PB de capacidade por rack e seus WOS (Escalar objeto Web) array contendo até um trilhão de objetos e ter uma nuvem on / off rampa em WOS Ponte . Isso é escalar em qualquer contagem.


Matrizes de Big Data tem um trabalho relativamente simples em termos de missão: acompanhar o crescimento de dados, escrever e ler dados rápida, e não perder quaisquer dados. Fazer isso com matrizes que dimensionar passado dezenas de petabytes para níveis exabyte é difícil.


DDN pode-se dizer que a sua experiência no fornecimento de matrizes para aplicações HPC e supercomputação dá tecnologia para big data que significa que ele pode dar matrizes tradicionais um funcionamento para seu dinheiro. É fora de funcionamento. Pode controlar os seus concorrentes-lo em? ®







via Alimentação (Feed) http://ift.tt/1r3TvdM