segunda-feira, 30 de junho de 2014

Da China batendo mundo Tianhe-2 super-brawn, não tem cérebro


Automatização do ciclo de vida integrado: HP ProLiant Gen8


China colocou um monte de ferro em seus 2,5 bilhões de yuans (cerca de US $ 400 milhões) campeã mundial supercomputador home-grown, mas as preocupações estão surgindo agora que muita atenção sobre o hardware veio à custa de dar o sistema de software utilizável.


O último relatório TOP500 reafirmou a posição de 3 milhões de núcleo da China, quase 34 Tflop, 17,8 kW Tianhe-2 na cabeça de gráficos supercomputador do mundo, mas o South China Morning Post diz que alguns pesquisadores estão impressionados.







O custo de tirar o fôlego de funcionamento da máquina - o SCMP diz que sua conta de energia pode ser tão alta quanto $ US96, 000 por dia - exige muita pagar cargas de trabalho, e é aí que as limitações do software de Tianhe-2 entram em jogo.


Muitos pesquisadores, diz o relatório, tem que escrever o seu próprio software para usar a máquina, com a Academia Chinesa de Ciências 'Chi Xuebin dizer que em termos operacionais "a função do supercomputador ainda está muito atrás os de os EUA eo Japão" .


Desde a iteração atual da máquina foi encomendado em abril, a operadora do supercomputador, diz ele foi usado para "design ferroviário, simulação de terremoto, astrofísica e estudos genéticos". Mesmo assim, o SCMP diz, significa que a máquina está funcionando em apenas 34 por cento da sua capacidade. ®







via Alimentação (Feed) http://ift.tt/1jEEc4y

Belezas HPC Rare revelou: prateleiras tremendo, clusters Lustre e as camadas de um Cray


Automatização do ciclo de vida integrado: HP ProLiant Gen8


ISC Leipzig O Salão Internacional de Supercomputadores, em Leipzig, na Alemanha, estava cheia de coisas fascinantes no grunhido frente high-end da empresa de computação. Aqui está o que atraiu os olhos deste corte itinerante.



  • Touro iniciou um acordo de revenda em todo o mundo com o negócio Xyratex ClusterStor da Seagate para o armazenamento de supercomputador. As matrizes ClusterStor será integrado com supercomputadores bullx. ClusterStor usa Lustre. Touro assinou um acordo com o "Deutsches Klimarechenzentrum (DKRZ) ... para projetar e instalar um supercomputador bullx B720 3 petaflops com 45 petabytes (45PB) de ClusterStor CS9000 armazenamento paralelo capaz de desempenho de 1 TB / s." DKRZ é um centro de computação em clima Hamburgo.

  • Cray tem um esquema de armazenamento em camadas para Lustre. É chamado Adaptive camadas de armazenamento (TAS) e fornece gerenciamento de armazenamento hierárquico (HSM) abraçando estado sólido, disco e níveis de armazenamento de fita. TAS usa APIs Lustre e este Tas corridas de conexão em qualquer ambiente Linux ou Lustre. O acesso aos dados é transparente para os usuários, independentemente do nível de armazenamento. Política de migração do arquivo pode ser baseada em quotas e as ferramentas de gerenciamento deve ser familiar para os administradores de sistema e usuários SAM-QFS.

    Cray também se juntou a Fundação OpenStack. Contribuirá para OpenStack e trabalhar para integrar recursos de fonte aberta em produtos e serviços Cray futuras "para beneficiar a indústria da supercomputação".



  • Os EUA NCSA (Centro Nacional de Aplicações de Supercomputação) implantou um ambiente de computação e armazenamento como parte do Programa Campus Cluster Illinois, utilizando SFA matriz de armazenamento direto Networks. É chamado de "condomínio de armazenamento", porque ele será usado por 22 pesquisadores e faculdades diferentes em todo o campus, cada um colocando íon algum dinheiro para pagar por isso. A capacidade inicial de 1 PB ou então pode dobrar em um futuro próximo. Leia o estudo de caso aqui .

  • Rápido LTA , com LTA em pé por longos Arquivo Prazo, teve uma disposição silenciosa Biblioteca tijolo em exibição.
    Silencioso tijolo

    Tijolo Silencioso com open carrossel unidade de disco



    Esta foi uma montagem em rack prateleira com carrosséis contendo doze unidades de disco de 1TB de 2.5 "de três diferentes fabricantes para minimizar falhas que acontecem dentro do lote de um fabricante de discos. Os dados são gravados na biblioteca de forma linear, a partir de carrossel carrossel, e distribuídos entre as unidades de carrossel (ou tijolo). codificação Erasure é o mecanismo de proteção de dados e cada tijolo é auto-suficiente nesse sentido. Uma vez que um tijolo é completo então poder a ele pode ser desligado, vindo novamente ao acesso a dados é necessário um rack pode. armazenar até 60 TB de dados sem compressão com 12 tijolos.

    Se você precisa de acesso a dados mais rápido do que um arquivo em fita ainda pode fornecer minimizar o consumo de energia, então isso parece muito bom.



  • Panasas diz Genedata escolheu seu scale-out NAS ActiveStor 14 disposição para a sequência do RNA / DNA trabalho de análise de dados. Genedata, que desenvolve e comercializa software para análise estatística e interpretação científica de extremamente grandes conjuntos de dados biológicos, diz o kit resolve um problema de largura de banda IO e assim mantém seus núcleos de computação mais movimentadas.

  • Grande estande da Samsung teve um foco 3D V-NAND com uma apresentação caned ser reciclados através de um visor. Nós estalou dois slides a partir deste:
    30nm_V_NAND

    30nm-class V-NAND



    Samsung V-Nand

    Geral V-NAND roteiro



    O cara disse que estande 2D Planar NAND foi bater uma parede de escala para baixo em termos de geometria e empilhamento vertical foi o caminho a percorrer. Ele falou da tecnologia da Samsung progredindo a 96 camadas de células e uma matriz de 1TB. Nós interpretamos o gráfico para média de 48 camadas de 256GB ou 512GB morrer é devido em 2015. Uma 512GB morrer certamente deve significar a geometria V-NAND tem de mudar de sua atual geometria 30nm-typre para uma geometria classe 2Xnm embora.

  • Houve um AMD estão no show e que contou com a Graphics Processing Unit FirePro tecnologia (GPU): muito útil para acelerar a CPU, transferindo o processamento de gráficos de estilo a ele - mais barato do que usar mais processadores.
    Apple Mac Pro

    Mac Pro



    AMD disse da Apple Mac Pro usado esta tecnologia dentro de sua brilhante interior caixa de tubo preto. AMD produziu um produto de tecnologia W9100 FirePro. entrega de 2,62 teraflops de desempenho de precisão dupla e com suporte para até seis monitores 4K. Há também a W8100, com um fluxo para dentro do processador 2560, o qual pode suportar quatro tais dispositivos. Ele tem suporte OpenCL.


    AMD tiroteio GPU com NVIDIA

    AMD FirePro W8100 tiroteio contra NVIDIA Quadro K5000



    O grande alvo para a AMD é NVidia e ele diz que sua tecnologia oferece mais potência por um custo menor: de acordo com a empresa, 23 vezes mais do que o grunhido GPU NVidia Quadro K5000.


    Esta história está sendo escrita em um 27 "iMac, que eu costumava pensar que era lindo. Depois de ver o que a AMD GPUs pode fazer a uma caixa x86 rodando 4K exibe Estou inundado com desejo. Essas coisas simplesmente voar ea reprodução de cor, resolução e tela imobiliário me fazer pensar o iMac é simplesmente aborrecido agora. Certamente este tipo de tecnologia se tornará acessível - apenas - para usuários de desktop tradicionais ... por favor.









Refrigeração a água IBM

Hardware refrigerado a água visto na IBM HPC ficar em Leipzig



Uma outra coisa: water-cooling de prateleiras de computação era muito comum no show, e ver de estilo antigo encanamento usado para resfriar extremamente chips semicondutores de alta tecnologia parecia uma mistura de gerações tecnológicas estranho, como a vinda do outro lado os homens das cavernas usando iPads. ®







via Alimentação (Feed) http://ift.tt/1pEmpm4

terça-feira, 24 de junho de 2014

"Mínimo histórico" sucessos de crescimento velocidade de Supercomputação em nova lista TOP500


Gartner capacidades críticas para backup endpoint empresa


Há alegria estar no Reino Médio: o supercomputador Tianhe-2 na Universidade Nacional de Tecnologia de Defesa da China é o datacruncher mais poderosa do planeta (o que sabemos sobre) pela terceira vez consecutiva.


A lista TOP500, publicado a cada seis meses, observou que o sistema chinês atingiu 33,86 petaflops no benchmark Linpack. Tianhe-2 é mais de dez vezes mais rápido do que o número 10 participante na lista - um 3,14 petaflop XC30 Cray que está em uso em uma instalação não revelado EUA.







Esse supercomputador mais lento é a única mudança no ranking das dez maiores para os maiores sistemas de grande de ferro do planeta. Os primeiros nove rankings são os mesmos que há seis meses, e os compiladores lista Top500 disse que tinha havido uma preocupante falta de desenvolvimento no campo da tarde.


"A taxa de crescimento global de todos os sistemas está em um nível historicamente baixo", disseram em uma postagem .


"instalações recentes de sistemas muito grandes - até Junho de 2013 - ter combatido a taxa de crescimento reduzida na parte inferior da lista, mas com alguns novos sistemas no topo das poucas listas anteriores, a taxa de crescimento global está desacelerando agora que oferece. uma indicação de que o mercado para os grandes sistemas podem actualmente ter um comportamento diferente do mercado de supercomputadores médias e menores. "


Em geral, o ritmo de crescimento em velocidades de supercomputação só aumentou de 55 por cento de um ano de atraso, em relação ao aumento de 90 por cento ao ano entre 1994 e 2008, apesar de processadores e sistemas de tecnologia melhorando a cada ano. A velocidade combinada dos sistemas na nova lista é 274 petaflops, em comparação com 250 petaflops há seis meses.


Quando se trata de o próprio hardware, a Intel ainda tem a parte de leão do mercado, fornecendo 84,5 por cento dos processadores usados ​​nos 500 computadores mais rápidos do planeta. Fichas de alimentação da IBM são encontrados em 8 por cento, enquanto a participação da AMD caiu em um terço nos últimos seis meses para apenas 6 por cento.


Quanto aos integradores de sistemas, a HP tem o primeiro lugar com 36 por cento da lista, em comparação a 356 por cento para a IBM. A empresa surpercomputing venerável Cray ainda tem a pele no jogo também, com 10 por cento da TOP500 vindo de seus engenheiros. ®







via Alimentação (Feed) http://ift.tt/1pLL5Xr

segunda-feira, 23 de junho de 2014

GAME ON: NVIDIA traz GPUs para servidores ARM de 64 bits


Gartner capacidades críticas para backup endpoint empresa


Marcha da ARM em centros de dados e aplicações mais exigentes do mundo deu um grande passo em frente com a GPU NVIDIA rei jogando seu peso por trás de servidores responsáveis ​​pelas ARM, liberando uma versão de sua plataforma de programação paralela CUDA, que trabalha com a arquitetura.


Tipos de HPC têm, nos últimos anos, cada vez mais voltado para GPUs para fazer o trabalho pesado em algumas aplicações de trituração de dados. A razão para isso é que as GPUs possuem muitos núcleos, uma arquitetura tipos de HPC pode aproveitar entregando off pequenos trabalhos para seu um núcleo dedicado. Com lotes de pequenos trabalhos todos vão em paralelo, mais trabalho é feito do que seria possível se uma CPU central, foram convidados a fazer malabarismos como muitos empregos.







Tais acordos se traduzem em redução de custos e um processamento mais rápido, os resultados, é difícil argumentar contra.


Aqueles que apóiam CPUs ARM como uma alternativa para x86 no centro de dados dizem que seus esforços trazer o primeiro resultado, levando à menor aquisição ARM de chippery custos operacionais e de ser avançado como um bom motivo para derrubar o domínio do centro de dados e plataformas de HPC da Intel.


Uma barreira para o que foi, até hoje, que a ARM não jogou tão bem com processamento paralelo como CPUs x86.


Essa barreira é ido agora e NVIDIA diz que três fornecedores têm produtos prontos para rolo que trazem assisisted-GPU co-processamento para o mercado. Os três são:


Cirrascale RM1905D - de alta densidade dois-em-um servidor 1U com dois aceleradores de GPU Tesla K20; oferece alto desempenho, baixo custo total de propriedade para nuvem privada, nuvem pública, HPC e aplicações empresariais; E4 EK003 - pronto para produção, baixo consumo de energia 3U, aparelho de servidor dual-placa-mãe com dois aceleradores de GPU Tesla K20, projetado para sísmica, processamento de sinal e imagem, análise de vídeo, análise de trilha, aplicações web e processamento MapReduce; Eurotech - Ultra-alta densidade, energia eficiente e configuração do servidor Aurora HPC modular, baseado em tecnologia proprietária tijolo e com resfriamento direto líquido quente.


Separadamente, mas ao mesmo evento, AppliedMicro também anunciou que o seu baseado em ARM X-Gene "Server em um Chip" está agora em um estado de "prontidão" e que "... os kits de desenvolvimento [estão] disponível imediatamente, e produção [será ] silício disponível em breve. "


NVIDIA também oferecendo uma citação enlatados de presidente de programas da IDC para HPC Earl Joseph no sentido de que "A disponibilidade de servidores ARM acelerados de 64 bits é um dos desenvolvimentos mais significativos para bater o mercado HPC este ano."


José também diz que vê "interesse substancial na comunidade HPC na avaliação de sistemas ARM acelerados por GPU de 64 bits para projetos de computação de última geração."


Interesse em avaliações é muito aquém do compromisso de comprar ou construir, por isso não é uma ameaça enorme para x86. Jogue no fato de que a Intel tem a sua Landing 72-core produto de Cavaleiro Atom com vencimento em 2015 e aponta diretamente para HPC e dificilmente é game over para x86.


Mas os esforços da NVIDIA e amigos 'significa que é jogo. ®







via Alimentação (Feed) http://ift.tt/T4hb3H

sexta-feira, 20 de junho de 2014

D-Wave contesta estudo de benchmarking mostrando computador quântico lento


Fazendo a ponte entre TI crescentes demandas de negócios e ferramentas de envelhecimento


Fabricante do dispositivo de computação quântica D-Wave está disputando um estudo recentemente publicado que afirma sistemas da empresa canadense não são realmente mais rápido do que os sistemas de computação mais convencionais.


Na quinta-feira uma equipe internacional de cientistas da computação publicou um amplamente visualizadas artigo na Science que detalha uma série de testes de benchmark opondo um 503-qubit D-Wave Two dispositivo contra o código de computador personalizado rodando em GPUs padrão. A equipe relata que, enquanto o sistema D-Wave foi mais rápida, em alguns casos, foi consideravelmente mais lenta do que noutros.







"Usando exemplos de vidro de spin aleatórios como uma referência, não encontramos nenhuma evidência de aumento de velocidade quântica quando todo o conjunto de dados é considerada, e obter resultados inconclusivos quando se comparam os subconjuntos de casos em uma base caso-a-caso", escreveu o principal autor Matthias do papel Troyer, um físico do Instituto Federal de Tecnologia da Suíça.


A publicação causou algo de uma dor de cabeça para D-Wave - e para o Google, que comprou um dos computadores da empresa canadense no ano passado. Alguns comentaristas têm questionado a capacidade dos sistemas da D-Wave para realizar cálculos quânticos, e este último estudo é de uma equipe de cientistas respeitados.


Colin Williams, diretor de desenvolvimento de negócios da D-Wave, disse ao The Register que a empresa atravessou o papel Troyer em detalhe, e acha que sabe o que é o problema. Em essência, as tarefas definidas para os dois sistemas de computação eram muito básico para uma figura de benchmarking precisa para ser alcançado, bem como o número de conjuntos de dados era muito baixo.


"Se você está tentando medir o desempenho de uma Ferrari versículos uma bicicleta, se você colocar os dois em uma colina e deixá-los correr ladeira abaixo, em seguida, então você não vai ver tão grande uma vantagem para a Ferrari", disse Williams nós. "Isso é basicamente o que aconteceu neste teste, a referência era muito simples e você precisa usar uma seleção mais difícil de problemas."


Além disso, a equipe do código GPU Troyer estava usando havia sido fortemente otimizado para o conjunto de problemas, Williams disse que, enquanto o sistema D-Wave não foi otimizado para que o código de referência particular.


O Google também publicou a sua própria resposta para o papel Troyer, observando que em seus testes a empresa está obtendo velocidades computacionais de mais de 35.500 vezes maior que a de sistemas de computação convencionais. Tudo depende do que você usar o sistema para, ao que parece.


"Eyeballing este tesouro de dados, nós estamos agora tentando identificar uma classe de problemas para os quais o hardware quântico atual pode superar todos os solucionadores de clássicos conhecidos", o Google disse . "Mas ele vai nos levar um pouco de tempo para publicar conclusões firmes."


Williams disse que a D-Wave não tinha ouvido qualquer resmungo de clientes depois que o papel Troyer, eo trabalho continua normalmente. Ele também disse que a empresa tem um sistema de processamento quântico novas, adaptadas a sair até o final do ano que vai aumentar as velocidades mais. ®







via Alimentação (Feed) http://ift.tt/UWq5Cd

quarta-feira, 18 de junho de 2014

Armazenamento high-end despencou, mas o armazenamento 'HDPA' prestes a subir, diz IDC


Usando sistemas blade para reduzir custos e aprimorar a eficiência


Box-counter IDC recentemente decretou que o primeiro trimestre de 2014 foi um choque para as vendas de armazenamento high-end, mas também prevê as coisas estão melhorando no armazenamento usado para o que ele agora chama de "análise de dados de alta performance" (HPDA).


Veep da IDC para a análise de dados e HPC Steve Conway coloca HDPA em um pouco de perspectiva com uma citação enlatados explicando que é o tipo de kit que seria de compra de um computador de alto desempenho, mas aplicada a análise. "Principais empresas comerciais em uma variedade de segmentos de mercado estão se voltando para tecnologias HPC para desafiar grandes cargas de trabalho de análise de dados que a empresa de tecnologia de TI por si só não pode resolver de forma eficaz", escreve ele. "Os sistemas de HPC pode lidar com consultas mais complexas, mais variáveis ​​e requisitos de resposta mais rápido."







Jogue no fato de que os gostos de Hadoop emergiu das plataformas de inspiração HPC aos operadores web hiperescala e apenas o que HDPA envolve tornar-se mais clara ainda.


IDC diz que o campo é também, claro, vai ser um grande negócio. De crescimento anual composta de 23,5 por cento irá, prediz, resultar em US $ US4.3bn do HDPA kit voando para fora da porta de cada ano. US $ 2,7 bilhões de que vai ser servidores e mais US $ 1,7 bilhão será de armazenamento. Um estudo companheiro, Worldwide Alta Performance Analysis Data Storage 2014-2018 Forecast , diz que as vendas de armazenamento aumentará a um ritmo ainda mais rápido, com 2013 de vendas de armazenamento HDPA de 514 milhões dólares americanos para crescer em 26,5 por cento, para atingir 2018 do previsto total.


A empresa de análise diz que o cristal-Ballery HDPA é o seu primeiro esforço formal na área, mas que planeja vidência mais vezes no futuro. ®







via Alimentação (Feed) http://ift.tt/1lH9JSO

terça-feira, 17 de junho de 2014

Índia lança ligar novas 282,6 Tflop super-


Maximizando sua infra-estrutura através da virtualização


No início deste mês, a universidade indiana IIT Kanpur jogou a chave em um novo supercomputador HP-construído, que coloca a unidade na posição 130 na lista TOP500 de supercomputadores.


O 282,6 Tflop, 98.304 GB de memória, máquina HP 15360-core foi viver esta semana depois de ser ordenada em novembro. É gerido pelo departamento de química da universidade. É baseado em Intel Xeon E5-2760v2 núcleos com Infiniband FDR interconexão.







De acordo com o professor Chandra Amlendra do departamento de química, "O supercomputador vai ajudar o instituto na realização de pesquisas nas áreas de aerodinâmica, meteorologia e bioquímica".


A nova máquina cofres IIT Kapur um longo caminho até a lista TOP500: Posição anterior da universidade era 369 na lista de 2010, para outra máquina HP, um mero 2.944-core, 29 Tflop máquina.


A universidade gastou US $ US8 milhões - 48 milhões de rúpias - sobre o novo kit. ®







via Alimentação (Feed) http://ift.tt/1pebxXy

quinta-feira, 12 de junho de 2014

Panasas: Evitar longa RAID re-constrói - use nosso desonesto-file tart-up tecnologia


Maximizando sua infra-estrutura através da virtualização


Biz Armazenamento Panasas revelou impulsionou hardware e software - e atacou o RAID reconstruir problema reconstruindo arquivos danificados em vez de discos completos.


A empresa é um fornecedor de sistema de armazenamento de HPC que está se movendo em casos técnicos de computação / uso grande de dados em empresas. Ele tem mais de 450 clientes em 50 países + ao redor do globo.







O hardware é o ActiveStor Panasas 16, posicionado como um híbrido, scale-out NAS aparelho. Ele roda v6.0 de PanFS que tem um novo RAID 6 + esquema de proteção. Esta é a sexta geração de hardware PAS; a PAS 11 e 12 constitui a quarta geração, tanto com o PAS sendo 14 a quinta geração com base em disco. Ele introduziu o uso de SSDs para acelerar OI acesso pequeno, aleatório, pequenos acessos aleatórios em arquivos grandes, e mantenha os metadados do sistema de arquivos


O PAS 11 e 12 foram anunciados em novembro de 2010 eo PAS 14 em setembro de 2012. Um pouco menos de dois anos depois, temos a PAS 16, que tem os controladores mais rápidos (lâminas do diretor), usando 2.53GHx CPUs Xeon quad-core. Estes são 19 por cento mais rápido do que o PAS 14 processadores lâmina diretor e ter mais 4x cache - 48GB de memória.


Gabinete PAS16

PAS 16 gabinete 4U com duas lâminas diretor e nove lâminas de armazenamento



A lâmina de armazenamento PAS 16 move-se a partir de unidades de disco 4TB para uso de drives e 2 x 6 TB HGST H, e duplicou a capacidade SSD de 240GB. Existe agora até 122.4TB de capacidade em seus gabinetes 4U, com dez deles em um rack fornecendo 1.2PB.


Tal como acontece com o PAS produtos de transferência de dados anterior alcança 150GB/sec. A grande novidade, porém, é o RAID 6 + esquema tríplice proteção de paridade. Presidente e CEO Faye Pairman disse PAS 16 tinham sido submetidos a um endurecimento para torná-lo ideal para grandes aplicações corporativas de dados e PanFS 6.0 é a versão de software mais importante para Panasas nos últimos cinco a seis anos.


Tão grande de dados fica, assim, maior, e assim fazer as unidades de disco, o tempo para reconstruir uma discos fracassados ​​é estendido, tanto assim que, em matrizes de grandes dimensões, uma segunda unidade de disco pode falhar antes que o primeiro é reconstruído, causando perda de dados . RAID 6 protege contra esta situação. No entanto discos atingiram 6 TB e em breve estará em 8 e 10 TB e reconstruir vezes irá continuou a ficar mais tempo, o que é um problema em si, e expondo-nos ao risco de uma falha de disco em terceiro, enquanto dois discos estão sendo re-construída.


O que Panasas 'RAID 6 + faz é acabar com a reconstrução de todo um padrão rígido falhou e só reconstruir os componentes de dados danificados.


Ele pode fazer isso porque, no fundo, é um sistema de arquivos paralelo baseada em objetos. Além disso, o flash no PAS 16 foi ajustado para RAID 6 + operações. Arquivos individuais podem ser restaurados em um exercício de recuperação de desastre em vez de todo o sistema. Marketeer produto Geoffrey Noer disse confiabilidade aumenta à medida que você dimensionar o sistema, em vez de diminuir, e; "Códigos de Erasure proteger cada arquivo individualmente."


RAID 6 +

Com o RAID 6 + uma falha de disco triplo simultâneo significa a porcentagem de arquivos para restaurar se aproxima de zero em grande escala.



Ele diz que o RAID 6 + proporciona um aumento de 150 x em termos de confiabilidade em relação ao RAID 6 e, com a PAS 16 e PanFS v6 "RAID reconstruir desempenho escala linearmente." Como a escala do sistema cresce a chance de eventuais falhas 3-drive que afetam qualquer arquivo dado crescer menos. RAID 6 + diminui as chances de ter que fazer uma reconstrução RAID em tudo.


Arquivos pequenos têm três cópias armazenadas, tudo em flash. Metadados do sistema de arquivos é quadruple-espelhado. Arquivos maiores são distribuídos entre lâminas de armazenamento. O sistema não é dado a cinco ou seis noves classificação disponibilidade. Em vez Panasas fala sobre um modelo de always-on. Enquanto reconstruções por arquivo estão ocorrendo arquivos afetados podem não estar disponíveis, mas o restante da propriedade de arquivos, por assim dizer, é.


Ampliação da utilização do flash


Ao fazer o ponto de que o armazenamento de todos os flash, dizer usando TLC SSDs, iria aumentar consideravelmente a velocidade de acesso de dados e de certos casos de uso que necessitam de acesso rápido a quantidades de dados grandes poderiam arcar com o custo, como a negociação financeira, Pairman disse que agora podemos entender por que Samsung Ventures investiu na propriedade privada Panasas.


A imagem da história financiamento Panasas 'que temos é;



  • Fundada por Garth Gibson e William Courtright em 1999.

  • $ 11m A-redonda em janeiro de 2000 a partir de Mohr, Davidow Ventures

  • $ 28.3m B-0round em janeiro de 2001

  • $ 32.5n C-redonda em Setembro de 2002

  • Primeiro produto enviado em 2004

  • US $ 10 milhões em financiamento da dívida maio 2007

  • US $ 25 milhões E-redonda em Maio de 2008 Centennial Ventures, Foco Ventures, Northgate Capital, a Itochu Corporation, Carlyle Group, Mohr, Davidow Ventures

  • US $ 15 milhões de capital privado por Mohr, Davidow Ventures

  • $ 25.2m F-redonda maio 2013 de, entendemos, Samsung Ventures, Intel Capital e outros


Esta lista mostra o financiamento total de US $ 147m. A presença de Samsung Ventures como investidor era novidade para nós. Dong-Su Kim, vice-presidente Samsung Venture Investment Co, fica a bordo Panasas ", juntamente com Faye Pairman, co-fundador Garth Gibson, e dois parceiros de Moh, Davidow Ventures.


Um mar 2014 do podcast de slides (3) lista Intel Capital, bem como Samsung Ventures, com os investidores.


Pairman disse que está se tornando um mundo todo-flash e vêem-nos com níveis de flash no hardware PAS. Ela precisa de um sistema de arquivos inteligente para operar este e PanFS é exatamente isso, um confiável, endurecido, performance OS arquivo.


Então podemos começar a imaginar blades de armazenamento tudo-flash em sistemas PAS futuros, uma PAS 18, por exemplo, que, especula-se, poderia chegar em 2016, assumindo um intervalo de 20-24 meses entre os lançamentos de hardware Panasas.


Panasas ActiveStor 16 e PanFS 6.0 estão disponíveis para encomenda agora e deve ser lançado em setembro. PanFS 6.0 estará disponível para PAS 11, 12, 14 e 16 sistemas. O preço de lista para 122.4TB PAS 16 é de R $ 160.000 com um um 82.4TB indo para US $ 130.000. ®







via Alimentação (Feed) http://ift.tt/1v2pnQo

quarta-feira, 11 de junho de 2014

Gung-ho Guangzhou jovens universitários esmagar LINPACK registro aglomerado


Gartner capacidades críticas para backup endpoint empresa


HPC blogue Foi o time da casa corajosa da capital da província de Guangdong, que pegou a coroa e dinheiro na Conferência deste ano asiático Supercomputador (ASC) Student Challenge.


Os alunos de Sun Yat-sen University de Guangzhou gritou alegremente quando viram os resultados da parcela LINPACK do Desafio Supercomputador ASC'14 Student.







Além superando seus pares, Equipe Sun Yat-sen também estabeleceu um novo LINPACK conjunto competição recorde mundial com o seu 9272 GFLOP / s pontuação. Isto não só dá as Yat-sen'ers direito de se gabar e um belo troféu, ele também pontua a equipe de um prêmio em dinheiro de 10.000 yuan chinês (cerca de £ 955 ou US $ 1.600). Nada mal, hein?


Como você pode ver no gráfico, a maior luta foi entre HUST e NTHU (Team Taiwan) para o segundo lugar, com Nanyang Tecnologia logo atrás.


Nanyang Tecnologia pegou o quarto lugar, confortavelmente à frente de NUDT, uma equipe conhecida por suas proezas LINPACK.



A pontuação de Sun Yat-Sen encabeça a anterior 8455 GFLOP / s de alta marca d'água definida pelo HUST em ISC'13 verão passado em Leipzig, Alemanha.


Os sistemas ostentados por os cinco primeiros colocados para a coroa LINPACK (não há uma coroa real, pena) são muito semelhantes, como você pode ver na tabela abaixo.



Todos os primeiros colocados correu oito ou nove nós, com ou 216 ou 192 núcleos de CPU, e foram todos usando como quantidades de memória. Eles também encravado sua bagagem cheia de NVIDIA Tesla cartões de deslizar em seus cachos Inspur fornecidos no torneio Guangzhou.


As equipas de topo foram flagelação NVIDIA K40s, com Sun Yat-sen e HUST ostentando oito e nove, respectivamente. NTHU estava bem ali, hardware-wise, mas ficou para apenas um pouco atrás do segundo lugar HUST.


Nanyang puxado resultados sólidos fora de seu mix de ativos e passivamente resfriado K40s. Enquanto os K20s consumir menos energia, elas também fornecem um pouco menos performance. Se Nanyang tinha ido com todas as GPUs ativamente resfriado, ele teria dado a eles uma grande pontuação suficiente para colocá-las em terceiro lugar? É difícil dizer, a diferença de desempenho entre as duas partes não é tanto assim, mas, Nanyang só precisava melhorar sua pontuação por 3,51 por cento para passar NTHU.


Parece que NUDT foi simplesmente desarmados na luta por maior LINPACK. Como usar sapatos marrons com um smoking preto, NUD trouxe K20s a uma festa onde todo mundo estava usando K40s. Os K40s ter mais memória, mais núcleos CUDA, maior largura de banda de memória, que se combinam para dar a K40s pelo menos uma vantagem de desempenho de 10% sobre os K20s que substituem.


Mas não há muita diferença em tudo entre a Sun Yat-sen e HUST. Na verdade, olhando para as configurações, muitos concluem que HUST deve ganhar devido à sua borda um GPU. Então como é que Sun Yat-sen tirar a vitória? E como é que eles conseguem colocar tanta distância entre si e segundo lugar HUST?


Meu palpite seria que a Sun Yat-sen simplesmente correu mais perto da linha de energia de 3.000 watt do que as outras equipes.


Eu não sei o que os organizadores mecanismo usado para monitorar e fazer cumprir o limite de potência. Mas poderia ser possível para qualquer uma das equipes para executar acima da tampa de energia para períodos muito curtos de tempo e, em seguida, cair de volta para baixo antes que o sistema de monitoramento de captura a violação - embora, claro, não se pode dizer que isso aconteceu.


Contexto histórico


Mais uma vez, vemos que o topo de linha LINPACK estudante, tendo um salto significativo para cima. É incrível ver o quão longe os alunos têm vindo desde o SC088 - SC10 dias, quando o "grande notícia", em 2010 foi que três equipes finalmente rompeu a barreira de 1 TFLOP / s.



Quanto tempo até que vejamos 10 TFLOP / s? Estamos perto, muito perto, agora.


Melhor gerenciamento de energia ou um sistema um pouco mais otimizado poderia dar uma equipe o que eles precisam para chegar a 10 TFLOP / s? É dolorosamente perto, com apenas um aumento adicional de desempenho de 7 por cento sobre registro atual de Sun Yat-sen.


Pudemos ver esta queda recorde mais cedo ou mais tarde. A competição estudantil principal seguinte, o ISC Student Cluster Desafio, acontece em Leipzig, na Alemanha, no final deste mês. Estaremos lá cobrindo o evento desde a montagem de cluster para desmontagem final, como de costume.


Primeiro, nós vamos ter entrevistas com os organizadores e um olhar para o campo (incluindo uma piscina de apostas, é claro). Portanto, fique atento ... ®







via Alimentação (Feed) http://ift.tt/1l8bDQS

segunda-feira, 9 de junho de 2014

HP visa supercomputadores com o Projeto Apollo


Gartner capacidades críticas para backup endpoint empresa


A HP está aprisionando poderosos Intel Xeon dentro de gaiolas refrigerados a água ... para a ciência!


A empresa anunciou na segunda-feira que desenvolveu duas novas classes de servidor para cargas de trabalho de computação de alto desempenho, que se prepara para ir contra os fabricantes de supercomputadores tradicionais como Cray, Fujitsu, IBM, SGI, e outros para as lucrativas receitas de alta margem de terra supercomputador .







Bit-nadadeiras têm vindo a construir clusters de computação de alto desempenho fora da engrenagem HP ao longo de décadas, a mente, mas esta é a primeira vez HP criou alguns produtos embalados-up explicitamente para esse mercado.


Os dois novos sistemas utilizam tecnologias de refrigeração para deixar a companhia embalar mais computadores ao lado do outro, baixando o custo de gerenciar as temperaturas temíveis emitidos pelas fichas, dando às empresas uma enorme economia de energia elétrica e espaço para suas instalações HPC.


Isso se compara com os fabricantes de supercomputadores Cray ou tradicionais, como a SGI ou IBM, que se concentram mais em interconexões personalizados para deixar cientistas grupos facilmente cluster de servidores juntos.


A abordagem da HP levou à Apollo 8000, um sistema de HPC que usa refrigeração líquida para empinar até 144 servidores em um rack com uma fonte de empate 80kw.


HPApollo8000

Apollo 8000 caixa da HP 'o-bit lançando fichas: seu por meio milhão de dólares e até



Este sistema utiliza uma tecnologia chamada de refrigeração "dry-disconnect", que utiliza tubos de calor fechados para circular a água tratada passado os núcleos, drenando o calor de forma mais eficiente do que o ar. É esta pares com um sistema de distribuição de energia de climatização e uma cremalheira iCDU (arrefecimento) para dar o servidor sua alta eficiência.


A tecnologia da série 8000 é baseado em um projeto-piloto no início HP teve com o Laboratório Nacional de Energia Renovável (NREL) com o nome " peregrino ".


Este projeto ajudou o laboratório de economia em suas contas de energia elétrica e como um bônus a água aquecida-HPC foi recirculado através do resto do site, proporcionando aquecimento durante os meses de inverno.


O sistema Apollo 8000 consiste em um rack HP Apollo F8000, uma unidade de resfriamento de distribuição inteligente (iCDU) half-rack, HP ProLiant XL730f Server, e Switches InfiniBand HP. Cada rack F8000 pode suportar até oito switches Infiniband e 72 HP ProLiant XL730f bandejas Server. O Apollo 6000, entretanto, é refrigerado a ar e pode embalar em até 160 servidores menos bem equipados por rack.


O Apollo 8000 começará a ser vendido no quarto trimestre de 2014, por isso é provável que ele vai começar surgindo no Top lista 500 supercomputador do mundo em meados de 2015 - ou, pelo menos, a HP está esperando isso. ®







via Alimentação (Feed) http://ift.tt/1hCnl6U

sexta-feira, 6 de junho de 2014

Wrestlers de cluster Jovens encontrar 'escondido' sweet spot


O poder de um: Principais razões para escolher o HP BladeSystem


Blog HPC Cluster-de wrestling crianças ainda estão na briga no Desafio Ásia Student Supercomputador (ASC) e Equipe Xangai (a partir de Shanghai Jiao Tong University) está esperando para ter sorte sua segunda vez. Em sua primeira aparição, a equipe fez OK, mas não foi um grande vencedor. No entanto, essa mesma equipe viajou para Guangzhou e eles acreditam que eles têm uma chance muito melhor este ano.


Youtube Video







Apesar de terem visto alguns problemas em começar este ano, não parece que há qualquer coisa que é tomada a equipe fora de seu jogo. Uma vantagem que pode ter é o esconderijo secreto encontraram no canto atrás de seu estande. Discutimos todos esses pontos e muito mais, no vídeo.


Team Hungary, da Universidade de Miskolc, é a primeira equipe húngara de competir em qualquer competição conjunto aluno. No vídeo, você vai ver que eles caras falam excelente Inglês, mas nós temos um pouco de dificuldade de ouvir o outro, mesmo que eu estou de pé muito perto deles.


Como os caras explicar, essa coisa toda é HPC muito novo para todos eles. Esta é a primeira vez que esses alunos foram expostos a sistemas HPC, aplicações e modelos de programação. Diante dessa inexperiência, Team Hungary já alcançou um pouco por apenas classificar para as finais em Guangzhou.


Youtube Video


Eles também estão executando uma configuração difícil em alguns aspectos. Seus quatro nós estamos apoiando sete Phi co-processadores, o que significa que você vai estar confiando pesadamente no Phis a dar o seu grupo poder de processamento suficiente para desafiar as equipes que têm configurações maiores. Optimizar a esses aplicativos para qualquer acelerador não vai ser fácil para os alunos como novo para o jogo como Team Hungary.


Mas uma coisa a seu favor é um companheiro de equipe que tem o penteado mais avançado que eu vi durante a minha viagem a China. No vídeo, falamos sobre o seu cabelo, e se ele foi otimizada especialmente para a competição ASC, e se ele vai dar-lhes uma vantagem clara contra as outras equipes.


Sun Yat-Sen University é o time da casa na competição conjunto ASC'14. Eles estão hospedando o evento no centro de supercomputador em seu campus, estamos comendo em suas salas de jantar, e todos os nossos assistentes estudante são voluntários da escola.


Eles são um time muito popular na ASC'14, como você verá no vídeo. Eles também são bastante confiante nisso, seu segundo em volta para a competição. Segundo a equipe, os aplicativos são mais difíceis este ano, mas assim é a sua equipe. Eles também são, provavelmente, a única equipe que gosta do calendário e as regras - o que significa, pelo menos para mim, que figurou uma forma de maximizar suas chances de que outras equipes podem não ter descoberto ainda.


Youtube Video


No vídeo, eu tento o meu habitual panóplia de piadas, e tentar chegar a equipe de prever que eles vão dominar os outros concorrentes. No entanto, o porta-voz para a equipe mantém a compostura.


O orgulho de Sinagpore, Nanyang Tech University, levou alguns minutos para conversar com a gente. Eu bantered com o porta-voz da equipe de estudante sobre o que eles estavam esperando com isso, sua primeira competição ataque conjunto dos estudantes.


Equipe de Cingapura não chegou a Guangzhou de mãos vazias. Além do cluster de oito nós fornecido por eles, Inspur, os alunos amontoados 10 NVIDIA K40 aceleradores de GPU em sua bagagem para uso na competição. O que é interessante é que eles trouxeram uma mistura de K40c e K40m GPUs (os modelos "m" são passivamente resfriado e usar menos suco).


Youtube Video


Na época das filmagens, eles não tinham certeza se eles estavam indo para instalar oito, nove ou 10 todos os GPUs. É tudo depende de quantos eles podem usar e ainda ficar sob a tampa de alimentação de 3.000 watts. (Eles acabaram competindo com nove GPUs -. Seis refrigeração passiva, três ativamente resfriado)


Nanyang é muito bom olhar para uma equipe de primeira vez. Eles construíram um cluster competitivo, e estão se ter uma idéia interessante, com a sua mistura de passivamente resfriado e GPUs ativamente resfriado.


Em seguida é a nossa lote final de quatro guerreiros do cluster ASC'14, incluindo equipes de Taiwan, Hong Kong, Coréia do Sul e no coração dos Estados Unidos ...







via Alimentação (Feed) http://ift.tt/1pKMij5

quinta-feira, 5 de junho de 2014

Vídeo: Faça o que fizer, NÃO QUEBRAR Tianhe-2


7 Elementos de Migração Radicalmente simples OS


Blog HPC É principalmente constituição de agregados, fun-desastrado processador, mas também haverá alguns momentos mais tensas para as equipes de alunos do Desafio Supercomputador ASC Student.


Em primeiro lugar, há o aspecto competitivo ... e depois há o fato de que eles vão ser esperado para executar código no 33,862.7 TFLOP / s Tianhe-2 supercomputador: apenas o número um supercomputador do mundo .







É a Conferência de supercomputação da Ásia 2014 (de ASC14) competição Cluster Student, e as crianças são bem ...


Minha entrevista com o Team Taiyuan (Taiyuan University of Technology) destaca a minha incapacidade absoluta pronunciar muitas palavras, incluindo o nome da sua universidade. Felizmente, o meu intérprete corajosa, Claire, estava à mão para traduzir minhas perguntas esfarrapadas para o chinês e as suas respostas de volta para o Inglês.


Equipe de Taiyuan é uma nova equipe para agrupar competições, mas eles imediatamente perceberam que o maior desafio que enfrentam é ficar sob a restrição de energia. Enquanto a equipe disse que eles estavam correndo oito nós, mais tarde eu descobri que eles eram de fato funcionando 10 nós sem aceleradores.


Youtube Video


Em seguida, passamos algum tempo com o Team Tsinghua (Universidade Tsinghua), a equipe de potência a partir de Pequim. Esta é a equipe que foi lá e fez que um participante de três vezes em competições de cluster. Eles venceram a primeira competição ASC, e seguiu-se com um campeonato geral na competição inaugural ISC na Alemanha. A equipe passou a ganhar ASC'13 e foi mal superou em ISC'13 por uma equipe corajosa azarão da África do Sul.


Youtube Video


Na entrevista, falamos sobre como a equipe está ansioso para usar Tianhe-2 para a aplicação 3D-EW. Eu tentar agitar um pouco dissention equipe com o porta-voz do estudante de Tsinghua, mas ele não funciona muito bem.


A seguir, falou ao Team Ural (Ural Universidade Federal), o único time da Rússia no ASC'14. Marina, o porta-voz do estudante, fez um ótimo trabalho em explicar tudo o que eles estavam experimentando pela primeira vez. É a sua primeira vez a construção de um cluster, usando Xeon Phi, usando um supercomputador, etc É tudo novo e muitas vezes surpreendente - mas nem sempre em um bom caminho.


Youtube Video


Equipe Ural estava lutando com problemas de MPI e coloca-lo para trabalhar com seus co-processadores Phi. Este é um negócio muito grande, uma vez que está de acordo com os aceleradores Phi (seis deles) para fornecer um monte de soco processamento em seu cluster de três nó.


Temos uma boa conversa sobre seus desafios e como é difícil a competição é este ano. Temos também uma aparição do treinador da equipe Ural, que fala um pouco sobre seu papel e seu orgulho em sua equipe. Nós concordamos que enquanto ela está atualmente orgulhoso de sua equipe, ela vai ficar ainda mais orgulhoso quando chegar o cluster funcionando como deveria.


Equipe Beihang (Universidade Beihang) é outra equipe de Pequim, mas eles têm a distinção de ser geralmente reconhecida como a China melhor aeronáutica universidade. Ele também tem a distinção de ser a única universidade chinesa cujo nome pronunciado corretamente na primeira vez (com muita ajuda de Claire).


Youtube Video


No vídeo, falamos sobre como a equipe está ansioso para a execução de código em Tianhe-2. Eu também tentar fazer uma piada coxo sobre eles potencialmente quebrar Tianhe-2, mas o nível de ruído no quarto (que é profundamente forte, embora eu era capaz de filtrar a maior parte dele para fora) e meu resmungando faz a piada caem muito plana.


Essa é uma visão geral das quatro primeiras equipes no ASC'14. Em nosso próximo lote, vamos dar uma olhada em equipes de veteranos do Hust NUDT do e, mais novatos competição por equipes do Brasil e equipe de Zhejiang. ®







via Alimentação (Feed) http://ift.tt/1mdnvgY

quarta-feira, 4 de junho de 2014

Whacks brasileiros tubos rápidos em prateleiras - e muito mais no nosso especial de vídeo estudante


Gartner capacidades críticas para backup endpoint empresa


Logotipo ASC14 Blog HPC Bem-vindo ao segundo lote de perfis de vídeo das equipes universitárias dezesseis concorrentes para supercomputação glória, na constituição de agregados competição estudantil ASC14.


NUDT da China (National University of Defense Technology) é outra equipe que poderia levar para casa a coroa aglomerado ASC14 e dinheiro. (Não há coroa real, mas há uma boa pilha de dinheiro esperando as equipes vencedoras - veja aqui para mais detalhes Undergrads corrida basicamente contra o relógio para construir plataformas de HPC para enfrentar vários aplicativos e benchmarks, com prêmios para as melhores equipes.).







NUDT ganhou uma reputação sólida nestas competições ao longo dos anos. Eles terminaram em segundo em dois eventos ASC e também em SC11. Eles também levou para casa o maior prêmio LINPACK em ISC12 e SC12. Mas este ano, NUDT está ajustando suas vistas superior.


Youtube Video


Na entrevista em vídeo, acima, falamos sobre como a equipe está se concentrando muito mais sobre as aplicações deste ano. Falamos também sobre o seu cluster, usando GPUs, e como eles sintonizado os apps.


Equipe Brasil (Universidade de São Paulo) é a primeira equipe do Brasil, e na América do Sul, para competir em uma competição importante cluster. No vídeo, podemos aprender sobre o profundo impacto que teve sobre Infiniband os alunos ("nós bebemos brindes!") E sua configuração do sistema.


Quando estamos entrevistando-os, a equipe está tendo problemas para fazer o seu sistema funcionando de forma eficiente (ou em todos). É típico para as equipes de primeira vez para enfrentar esses tipos de problemas no evento.


Youtube Video


Mesmo que eles têm meses dedicados a aprender a executar esses aplicativos em seus sistemas em casa, é sempre diferente na estrada. Neste caso, a equipe está usando seu sistema de competição pela primeira vez e é definitivamente uma experiência nova para eles. Parte dela é grande, como o milagre que é Infiniband, enquanto outras surpresas, como a não obtenção de um aplicativo para compilar, não são tão grandes.


Mas eles estão trabalhando duro e definitivamente vai cruzar a linha de chegada, mesmo que não em primeiro lugar.


Universidade de Huazhong (HUST) vem da província de Wuhan, na China. De acordo com o nosso intérprete Claire, Wuhan "é uma província OK", o que é bom o suficiente para mim. Este não é o primeiro rodeio conjunto de HUST; eles ganharam o Optimization BSDE em ASC'13 e levou o prêmio LINPACK em ISC'13.


Youtube Video


Segundo a equipe, tem sido bastante bom velejar tão longe em ASC'14. Enquanto eles se deparar com alguns problemas, eles não são nada para suar mais. Na verdade, a equipe parece ser bastante confiante em suas chances como falamos com eles no vídeo. Vamos ver o que acontece.


A última equipe para este lote de perfis é University Zhejaing. Esta é a sua primeira competição de cluster e que eles estão fazendo de tudo para ter tudo funcionando no momento do vídeo. Eles têm um dos grupos maiores, com 10 nós, mas sem aceleradores - assim definitivamente uma abordagem da velha escola.


Youtube Video


À medida que os alunos me dizer, eles podem realmente tentar correr ainda mais nós, mas eles não tem certeza de como isso vai funcionar dentro do limite de potência de 3.000 watts.


Em nossa próxima edição, vamos falar com as equipes de Xangai, Cingapura, Hungria (sim, Hungria), e visita com o time da casa, Sun Yat-Sen. ®







via Alimentação (Feed) http://ift.tt/1m9EnVR

terça-feira, 3 de junho de 2014

Ivec procura testadores para petascale powerhouse


Gartner capacidades críticas para backup endpoint empresa


Como se prepara para aumentar para nível petascale, a instalação supercomputador Ivec na Austrália Ocidental está à procura de early adopters para executar seu ferro através dos seus ritmos.


atual máquina Magnus do Ivec, um XC30 Cray com 104 lâminas (quatro nós por blade, dois processadores Intel Sandy Bridge 8-core) com um total de 3.328 núcleos de entregar cerca de 69 TFLOPS. Desde o início de julho, a instalação arranca um upgrade para trazer Magnus ao nível petascale.







Ele vai crescer a partir de suas duas atuais armários para oito, cada um com 1.488 nós de dois chips Haswell 12 núcleos e 64 GB de memória, tendo Magnus para mais de 35.000 núcleos e 95 TB de memória. Áries de interconexão da Cray vai ligar toda a criatura juntos, e haverá 3 PB de armazenamento do zero que pode sustentar uma largura de banda máxima de 70 GB / s.


Durante seu teste de aceitação de agosto de Ivec quer "Petascale Pioneiros" para dar a máquina um pouco de calor, e está oferecendo cerca de 100 milhões de horas de núcleo para testadores. Ele está buscando projetos que estendem todos os aspectos de Magnus, a partir de sua manipulação de carga de trabalho para as suas comunicações. Em um convite enviado aos pesquisadores, Ivec está pedindo cargas que:




  • Chupe-se mais de 10 por cento da máquina em um determinado prazo, o que demonstra "grand-desafio" problemas científicos;

  • Operações Communications-pesados ​​que exploram a "velocidade e largura de banda de interconexão Cray Áries e topologia Dragonfly em uma parcela substancial da máquina; ou

  • Trabalhando sobre a forma como a nova máquina pode melhorar o desempenho e escalabilidade de aplicações existentes ou novos.



Suporte técnico e treinamento estará disponível durante a fase pioneira, e os acadêmicos são convidados a expressar interesse e fazer perguntas de Ivec via submissions@ivec.org. ®







via Alimentação (Feed) http://ift.tt/1hxJIul

Encontre um parceiro? Nah, esses estudantes ALL jogar com as mesmas ferramentas no gigante CLUSTER-SHUCK


O poder de um: Principais razões para escolher o HP BladeSystem


Blog HPC Uma das principais diferenças entre o recém-concluído Ásia Estudante Desafio Supercomputador e as outras grandes competições internacionais é a forma como os alunos têm seus equipamentos clustering.


Na Conferência de Supercomputação Internacional (ISC) e os SC competições, parte da tarefa para os alunos é encontrar um parceiro fornecedor e trabalhar com eles para montar o melhor conjunto para o evento. Claro, o próximo bit difícil é ter certeza que o equipamento chega ao local da competição. Depois disso, é tudo sobre a obtenção do cluster juntos e funcionando corretamente, o que pode acabar sendo uma aventura em si.







É um negócio diferente no ASC. Inspur, o fornecedor de servidores multinacional com sede na China, é o único fornecedor de hardware para cada equipe. Isso torna mais fácil para as equipes de logística, reduz os custos de viagem / transporte, e também garante que o equipamento estará no portão de partida.


Por outro lado, também apresenta problemas potenciais decorrentes de equipamento desconhecido, colocando em todo o seu ambiente a partir do zero, e não saber exatamente como o equipamento irá reagir sob estresse.


Dito isto, aqui está o que as equipes estavam ostentando em Guangzhou, no Desafio Supercomputador 3rd Annual Asia Student ...



Clique para ampliar


Assim, mesmo que todas as equipes estão usando equipamentos de um único fornecedor, ainda há um grande disparidade quando você olha para as configurações. Universidade de Tsinghua leva a coroa de maior concentração tradicional, com um sistema que ostenta 12 nós, um colossal 288 núcleos Xeon, e 1.5TB de memória. Este sistema é um pouco de uma partida para Tsinghu: a equipe tipicamente Intensifica suas caixas de concorrência com GPUs, mas evitou-los para ASC14.


Tsinghua, Taiyuan e Zhejiang são as únicas escolas que foram old-school com seus cachos; os outros 13 times estão usando algum tipo de acelerador de bolt-on.


Aceleradores abundância


A maior parte das equipes ostentou configurações de oito, nove ou 10 nós, ea maioria das pessoas proxeneta para fora seus cachos com GPUs NVIDIA para que boost-processamento de números extra. Universidade Huazhong e de Cingapura Nanyang tecnologia estão cada um rodando nove GPUs, com uma série de equipes configurados com oito.


Para a maior parte, eles estão usando uma única GPU por nó, mas há algumas exceções. Por exemplo, a equipe de Cingapura é a mistura de três NVIDIA K40c GPUs com um adicional de seis K40m GPUs, na esperança de que a parte "m" passivamente resfriado lhes dará uma vantagem sobre o consumo de energia.


Equipe Coreia do Sul também está tomando uma nova abordagem para a aceleração GPU. Ao invés de usar o K20 habitual ou K40 Tesla cartões, eles optou por conduzir seu grupo de seis nó com 144 núcleos Xeon e seis NVIDIA Titan GPUs. Sim, Titãs ... principais placas de vídeo da NVIDIA gamer. As especificações não são tão diferentes, com os Titãs correndo com um relógio mais rápido (836 vs 745 MHz) e proporcionando um pouco mais flops.


No entanto, os K40s tem muito mais memória (12GB vs 6.2GB) e sugar menos energia (235 vs 250 watts). Eu também não tenho certeza se você pode obter programas de HPC para reconhecer e usar uma GPU GeForce, sem um monte de andar. (Deixe-me saber se isso é verdade, jóqueis GPU.)


Intel Phi também está bem representada no ASC14. Team Hungary (Universidade de Misckolc) foi Phi-ADELIC, pendurando sete Phi co-processadores fora de seu grupo quad-nó. Team Russia (Ural Universidade Federal) tem a maior densidade Phi com dois co-processadores para cada um dos seus três nós.


Phi experiência vem a calhar em um dos aplicativos da concorrência. Pela primeira vez em uma competição de conjunto aluno, as equipes de executar código remotamente em um verdadeiro supercomputador. Na verdade, eles executar o aplicativo 3D-EW no maior supercomputador do mundo - o Tianhe-2, que está localizado a apenas alguns andares abaixo deles.


Cada um usa 512 Tianhe-2 nós, que incluem 1.536 Phi co-processadores, a fim de mostrar o quão bem eles podem otimizar o código em uma escala maciça. As duas equipas de topo sobre este aplicativo competiu cabeça-de-cabeça em um segundo turno em que eles vão começar a escorar as suas coisas em 1024 Tianhe-2 nós.


Mais informações sobre o caminho, finalmente


Nos próximos dias, eu vou estar lançando mais muito mais sobre esta competição. Isto incluirá "Conheça o time" vídeos, um olhar mais atento Tianhe-2 e como ele vai ser usado, entrevistas informativas, e, claro, os resultados.


Eu tenho aguentado este conteúdo, porque eu ainda não tenho os resultados completos, detalhados sobre como as equipes fizeram as aplicações. Eu preciso dessa informação, a fim de discutir por que as equipes venceram, ou fez muito bem na competição. Ele também me disse que as áreas apresentaram os maiores desafios para as equipes, o que é sempre um aspecto interessante destas competições.


Resultados Deep-mergulho são rotineiramente fornecidas para mim no final do SC e competições ISC, mas isso não parece ser o caso com ASC - mesmo após estímulo repetido e ping. Nós vamos fazer a maior parte do subconjunto de resultados que nós temos, e concluir que a forma como tudo deve ter jogado fora. Portanto, fique atento ... ®







via Alimentação (Feed) http://ift.tt/1huztXS