terça-feira, 29 de abril de 2014

Boffins construir bilhão de sinapse, três watt 'cérebro'


SANS - Pesquisa sobre programas de segurança de aplicativos


A top-notch supercomputador pode bater os seres humanos em muitas coisas, mas eles também são consumidores de energia - o que é uma razão muito trabalho entra em simulação neural como base para computadores. Agora, os cientistas de Stanford demonstraram uma simulação neural que dizem que tem um milhão de neurônios, as conexões de sinapses vários bilhões - e é executado em apenas três watts.


O não-para-o-pão-duro $ US40, 000 protótipo bordo Neurogrid criado por um grupo liderado pelo professor de bioengenharia Kwabena Boahen ainda não está pronto para assumir Watson da IBM ao longo de um tabuleiro de xadrez. Para começar, ele diz, "você tem que saber como o cérebro funciona para programar um desses".







A longo prazo, o objetivo é criar um compilador adequado, para que as pessoas acostumadas a programação em linguagens mais convencionais pode escrever para o conselho Neurogrid.


A outra grande ambição do projeto é fazer com que o preço para baixo. Na universidade lançamento , Boahen diz acreditar que a mudança dos 15 anos de idade, tecnologias de fabricação utilizadas em sua pesquisa para o silício moderno deve render uma melhoria da eficiência cem vezes - o que significa que Neurogrid poderia ser construído em um muito mais razoável US $ 400.


O conselho Neurogrid é baseado em 16 chips, apelidado Neurocore, cada um dos quais tem 65.536 neurônios. A partilha de circuitos elétricos no Neurocore é o que cria os bilhões de conexões sinápticas.


Stanford diz que a abordagem de Boahen é 100.000 vezes mais eficiente do que um computador pessoal para a simulação de um milhão de neurônios.


O tipo de aplicações Boahen imagina por suas pesquisas incluem robôs humanóides de controle, até controlar próteses. Como um controlador de prótese, diz ele, que espera que um chip neural poderia fornecer respostas rápidas sem estar vinculado a uma fonte de alimentação externa.


O trabalho foi publicado pelo IEEE, resumo aqui . ®


Youtube Video







via Alimentação (Feed) http://ift.tt/QXUihU

Gurus júnior ir entusiasta em Guangzhou: Conheça os alunos colocar uma bota em propulsores clusters '


Principais ameaças três aplicativos móveis


Blog HPC essa pergunta que todos se perguntando: quem são os graduandos concorrentes para constituição de agregados glória ao Estudante asiático Supercomputador Challenge ( ASC14 ) em Guangzhou esta semana? É uma chapa mista de ex-campeões da competição cluster, wannabes, e novatos de quase todos os continentes da Terra.


Primeiro, verifique se você está até a velocidade sobre o que exatamente acontece em um concurso de construção de cluster ( que é exatamente o que você pensa que é ). Em segundo lugar, vamos primeiro verificar as nove universidades do país de origem, a China:







Beihang University (Team Beihang ou Beihang Bangers, talvez): A recém-chegado às competições de cluster, sendo esta sua primeira luta internacional. Beihang tem 22.000 estudantes em seu campus de Pequim, que inclui 10.000 alunos de graduação e 12.000 alunos de pós-graduação. A escola foi fundada em 1952 como Beihang Universidade de Aeronáutica e Astronáutica. Definitivamente não é a mais antiga universidade na competição, mas a sua forte herança técnico torna um dos programas de engenharia mais respeitados do país.


Hong Kong Polytechnic University (HK Poly): Tem sido em torno de uma forma ou outra desde que foi fundada como uma escola de comércio do governo em 1937. Localizado em Kowloon, que tem cerca de 30.000 alunos. ASC14 marca a primeira vez que a escola já competiu em qualquer batalha cluster, que é um grande passo em frente para o seu departamento de ciência da computação.


Huazhong Universidade de Ciência e Tecnologia (HUST): O 'Husters' Huazhong são veteranos da competição de cluster, marcando um segundo lugar no ASC13 que lhes deu uma entrada nos ISC'13 final em Leipzig, na Alemanha. No ISC, HUST usaram sua GPU pesado cluster para estabelecer um novo recorde LINPACK aglomerado estudante (8455 GFLOPS) e levou para casa a coroa LINPACK. Dada a sua experiência e sucesso no passado, HUST é um dos favoritos para levar para casa um prêmio no ASC14.


Universidade Nacional de Tecnologia de Defesa (NUDT): NUDT é um dos as equipes mais experientes em ASC14. Eles têm a reputação de "jockeys LINPACK", conquistando os prêmios mais altos LINPACK em competições ISC e SC anteriores. A equipe por pouco não ganhar o campeonato geral no SC11, em Seattle. Mas NUDT está lançando uma equipa quase totalmente nova em ASC14. Seus jogadores veteranos ou graduada, ou juntaram as ligas profissionais de clustering, ou ambos. Esta é uma equipa com algo a provar. Eles querem mostrar ao mundo que eles têm o que é preciso para ganhar o prêmio Global Championship e pregar para baixo que viagem para o torneio ISC'14. Sua experiência competição, junto com sua familiaridade com Tianhe-2 super, faz com que seja difícil ser contra eles.


Shanghai Jiao Tong University (Team Shanghai): Este é o segunda vez que a equipe de Xangai tem ido para o ouro na competição de ASC. No ASC13, a equipe terminou no meio do pelotão. Mas eles estão olhando para passeio deste ano como uma oportunidade para provar-se como um verdadeiro candidato obter o seu bilhete perfurado por ISC em junho deste ano. E por que não deveriam esperar que isso? Sua faculdade foi estabelecida em um decreto imperial 1896 emitido pelo imperador Guangxu, que não é nada mau. Hoje, a escola tem 16 mil estudantes de graduação e cerca de 24 mil estudantes de pós-graduação, os quais estão esperando com ansiedade para ver como a equipe de Xangai tarifas em Guangzhou.


Universidade Sun Yat-sen (Team Sun Yat): é a universidade de acolhimento para ASC14 eo lar do Centro de Supercomputação de Guangzhou. Este não é o primeiro rodeio aglomerado estudante para a equipe Sun Yat. A equipe competiu ASC13, batendo o resto do campo sobre a aplicação gromacs, e transformando em um desempenho confiável em tudo o resto. Os riscos são maiores este ano, desde que a competição está acontecendo em sua própria casa. A equipe é claramente uma das favoritas do público, com um grupo de simpatizantes que cercam seu estande. Isso é suficiente para levá-los para o nível elite no agrupamento dos alunos? Vamos ver.


Taiyuan University of Technology (Team Taiyuan): É outro time novato para as guerras do cluster. A escola foi fundada em 1902, e, atualmente, conta com cerca de 26.000 estudantes. Focada em engenharia e ciência, é um dos cinco "de elite" Principais Universidades da China na região central da China. Eles também são famosos por dominando universidades vizinhas no basquete masculino, vencendo os últimos sete campeonatos. Há rumores de que eles têm vários jogadores que são mais de seis metros de altura, o que ajuda a explicar seu campeonato prazo. O lema da universidade "Prosseguir Praticidade, Criar Originalidade" certamente atendê-los bem na competição cluster, onde soluções práticas tendem a governar o dia.


Tsinghua University (Team Tsinghua): Team Tsinghua provou vitória conjunto mais vezes do que qualquer equipe no campo da 16. Em sua primeira aparição, eles bateram o campo em ASC12 e ganhou uma viagem para a competição inaugural ISC em Leipzig, onde ganhou o prêmio Global Championship.


No ano seguinte, eles alcançaram uma varredura próximo ao ASC13, vencendo o Campeonato geral e os mais altos prêmios LINPACK - a primeira na história da Concorrência Cluster Student. No ISC'13, Equipe Tsinghua ficou em segundo lugar, por pouco perder o campeonato geral para uma equipe sul-Africano de estreia. Se há um favorito em ASC14, ele tem que ser Equipe Tsinghua. Mas é uma nova equipe para a maior parte, por isso é uma questão em aberto saber se eles podem realizar-se às expectativas.


Zhejiang University (Team Z): é outro concorrente primeira vez na arena grupo de estudantes. Equipe Z vem da cidade de Hangzhou, cerca de 100 quilômetros ao sul de Xangai. É uma das mais antigas universidades da China, fundado em 1897. É também uma das maiores escolas da safra de concorrentes deste ano, com cerca de 50.000 estudantes. O Centro de Ciências Matemáticas, que abriga a Escola Zhe de Matemática e da Escola Chen-Su de Geometria Diferencial, está localizado na Universidade de Zhejiang. Por isso, é provavelmente seguro dizer que a equipe Z não vai ser jogado por qualquer um a matemática envolvida na competição. Vamos ver como eles fazem no lado da ciência da computação da equação.


Essa é a chapa de equipes chinesas determinados a manter o título ASC em mãos chinesas. Ela também revela ao resto do mundo o tipo de mentes jovens a montar plataformas de alto desempenho no Reino Médio no momento.


Na segunda parte deste artigo, vamos dar uma olhada nas universidades da Ásia, Europa, América e América do Sul que estão tentando arrebatar a coroa aglomerado ASC (não há uma coroa real, infelizmente). ®







via Alimentação (Feed) http://ift.tt/S4Mg7R

quinta-feira, 24 de abril de 2014

Dezesseis estudantes quentes, 3 kilowatts, $ 29k em dinheiro: É combate cluster, estilo China


Combater a fraude e satisfação do cliente aumento


Blog HPC Estamos em Guangzhou, na China, para a fase final da maior competição de conjunto aluno no mundo. E para torná-lo ainda mais tenso, há cerca de US $ 28k para ganhar ...


O terceiro desafio Supercomputador Estudante asiático anual (ASC14) apresenta dezesseis equipes lastreados em universidades de todo o mundo, competindo para ver qual equipe pode torcer o desempenho mais HPC de um subsídio de alimentação 3 kW.







A competição ASC14 é único em várias formas; a primeira é que as equipes será a construção de seus cachos para fora dos mesmos blocos de construção. Patrocinador Vendedor Inspur está fornecendo todas as artes, o que torna muito mais fácil e menos dispendioso para as equipes estrangeiras para fazer a viagem. Também nivela o campo de jogo e coloca mais de um prêmio sobre a afinação e gerenciamento de carga habilidades dos alunos.


O caminho para a ASC14 é uma rigorosa, muito mais exigente do que competir em SC ou ISC. Primeiras equipes tiveram de se inscrever para a competição, que não era tão rigoroso. Então eles tiveram que completar a "fase preliminar" da concorrência, o que lhes obrigado a apresentar a sua proposta de arquitetura (hardware, software, interconexão, etc) além de um consumo de energia e avaliação de desempenho.


Os alunos também tiveram que discutir as vantagens e desvantagens de sua configuração proposta. Além disso, eles tiveram que otimizar e executar os quatro aplicações de concorrência (discutidas abaixo) e fornecer os resultados para o comitê. Inspur fornecido acesso remoto a seus sistemas para que as equipes de estudantes que não têm acesso a hardware ainda poderia competir na fase preliminar. Nossa, isso é um monte de coisas para fazer.


O comitê passou pelas apresentações e convidou os principais dezesseis equipes para completar na final em Guangzhou.


Os apps: Fortran 90 na lateral, e Phi por deserto


Durante um período de dois dias, os alunos vão estar lutando para obter o máximo desempenho desses aplicativos:



  1. HPL (LINPACK) - um dispositivo elétrico no HPC e estudante Cluster Competições. É também o ponto de referência que determina a colocação na lista Top500.

  2. Quantum Espresso - um conjunto de códigos de código aberto usado para materiais em nanoescala e modelagem de estrutura eletrônica. Ele usa pseudopotenciais aproximar matérias específicas, o que torna mais fácil para os pesquisadores modelar combinações de materiais, eu acho. Falando por mim, no entanto, quando eu preciso de pseudopotenciais, eu sou velha escola - Eu vou fazer 'em mim mesmo.

  3. SU2 - a Universidade de Stanford desenvolveu open-source de código C + + para análise equação diferencial parcial e projetar coisas que aderem ao PDE restrições. Mais comumente usado em design aeroespacial, é uma alternativa para pacotes proprietários muito mais caros. É a primeira vez que esse pedido tenha sido usado em qualquer competição cluster, e provavelmente é novidade para quase todas as equipes de estudantes.

  4. LICOM - a abreviatura do sistema de modelagem climática LASG / IAP desenvolvido pelo Laboratório do Estado Chave da China. É a velha escola Fortran 90, o que pode ser um desafio para alguns alunos, obrigando-os a chamar seus avós para obter ajuda. É um pouco parallelized via MPI ou OpenMP, mas isso não foi testado completamente.

  5. 3D-EW (3D Elastic Wave) - código que é usado para modelar como ondas elásticas propaga através de um elástico, mas uniforme, médio. Esta aplicação apresenta uma oportunidade especial e um desafio para os alunos. Eles não vão estar executando este em seus próprios clusters. Eles estarão executando-o em 512 nós do maior supercomputador do mundo, Tiane-2, que está localizado a apenas dois andares abaixo-los no Centro de Supercomputação de Guangzhou. Isso também irá exigir que os estudantes a utilizar todo um bando de Intel Phi co-processadores (assumindo um bando = 1.536, que é de três por Phi do nó.)


Esta competição combina os aspectos de sprint de ISC (onde os concorrentes só funcionam em determinadas aplicações por dia) eo formato de maratona de SC (onde as equipes trabalham em vários aplicativos ao mesmo tempo). Os alunos irão trabalhar em LINPACK, Quantum Espresso, SU2, ea primeira rodada de 3D-EW (em Tiane-2) na quarta-feira. Quinta-feira vai ver a segunda rodada da competição em 3D-EW, LICOM, e um aplicativo de surpresa, o que é, bem, uma surpresa.


Pilha de dinheiro mega em jogo


As equipes serão marcados sobre o quanto de desempenho que espremer fora de seu hardware, em relação a outras equipes, sem no topo da tampa poder 3kW. As equipes podem obter 10 pontos, completando HPL, 15 pontos por vencer qualquer um dos outros aplicativos e até 20 pontos para transformar no melhor resultado para as duas rodadas de 3D-EW sobre Tianhe-2.


Prêmios e prêmios em dinheiro serão concedidos nas seguintes categorias:



  • Gold Winner geral: 100.000 RMB ($ 16.000)

  • Vencedor Prata geral: 50.000 RMB ($ 8,000)

  • Maior LINPACK: 10K RMB ($ 1600 USD)

  • Otimização de computação heterogêneos: 10.000 RMB (1.600 dólares)

  • Melhor desempenho das aplicações: 10.000 RMB ($ 1.600)


Há muito dinheiro em jogo aqui, cerca de 180.000 iuanes no total ($ 28.900 £ 17.100) especialmente para graduandos universitários normalmente sem um tostão. Então, nós estamos esperando para ver o melhor esforço possível de cada equipe.


Estaremos postando muito mais conteúdo que a competição esquenta aqui, incluindo as configurações do sistema da equipe, perfis de vídeo de cada equipe, e, é claro, os resultados. Fique ligado! ®







via Alimentação (Feed) http://ift.tt/1mH1EDM

terça-feira, 15 de abril de 2014

GPFS da Big Blue: A tecnologia do fantástico. Vergonha sobre o produto


Acesso de alto desempenho para armazenamento de arquivos


Storagebod IBM é uma grande empresa de tecnologia: muitas das tecnologias que nós tomamos para concedido pode ser rastreada para trás para a Big Blue. E muitas das implementações de hoje ainda são mais pobres do que as implementações originais.


E ainda assim a empresa não é a força dominante era uma vez; um gigante organizacional, dividida com a política e feudos nem sempre se presta a agilidade no mercado e muitas vezes leva a produtos que são mal cozidos e ter um pouco de um "bottom encharcado".







Estive pesquisando a oferta GSS da IBM, GPFS Storage Server . Como os leitores regulares deste blog sabem, eu sou um grande fã de GPFS e ter uma boa quantidade instalado - mas não pense que eu sou cega para algumas das complexidades em torno dele.


Há muito a desejar sobre GPFS; constrói sobre os alicerces sólidos de GSS e traz um par de excelentes novos recursos em jogo.


Uma dessas funcionalidades é GPFS RAID nativo , também conhecido como RAID declustered, uma implementação de software de micro-RAID - RAID onde é feito em um nível de bloco em oposição a um nível de disco. Isso geralmente significa que o custo de reconstruções podem ser reduzidos eo tempo para voltar a um nível de protecção pode ser encurtado. Como os discos continuam a ficar maior, implementações de RAID convencionais lutam e você pode estar olhando horas, se não dias para voltar a um estado protegido.


Também está incluído o Hospital Disk : monitorando constantemente a saúde dos discos individuais e coleta de métricas para eles, o GSS pode detectar discos falhando muito cedo.


Mas há um segredo sujo no mundo do armazenamento: a maioria das falhas de disco em uma matriz de armazenamento não são realmente falhas e poderia ser simplesmente recuperou de. Um ciclo de energia simples ou um reflash de firmware pode ser suficiente para evitar um fracasso e entrando em um cenário de recuperação.


X-IO tem vindo a defender isso por um longo tempo - isso pode reduzir as janelas de manutenção e evitar reconstruções desnecessárias. Deve reduzir custos de manutenção também.


Ambas as tecnologias são grandes e muito importante para um ambiente de armazenamento escalável.


Então, por que não está empurrando IBM GSS em geral? Está recheado de tecnologia e outras coisas úteis?


O problema é GPFS ... GPFS é atualmente muito complicado para muitos, ele nunca vai ser um sistema de arquivos de uso geral. O modelo de licenciamento por si só impede que, por isso, se você quiser utilizá-lo com um monte de clientes, você vai estar rolando a sua própria porta de entrada NFS / SMB 3.0. Estive lá, fiz isso ... ainda está fazendo isso, mas não é realmente uma opção sensata para muitos.


Se a IBM realmente quer o GSS para ser um sucesso, ele precisa de um escalável e apoiada gateway NAS na frente dele: ele precisa ser simples de gerenciar. Ele precisa de integração com as diversas plataformas de virtualização e IBM precisa para simplificar o modelo de licença GPFS ... quando eu digo simplificar, eu quero dizer livrar-se do custo de licença do cliente.


Eu quero gostar do produto e não apenas amo a tecnologia.


Até então, a IBM tem o equipamento, mas não parece saber o que fazer com ele ... ®







via Alimentação (Feed) http://ift.tt/1eJ5GUh

terça-feira, 8 de abril de 2014

Rússia, Índia pretendem desalojar a China a partir de n ° 1 em cima dos "fracassos


Acesso de alto desempenho para armazenamento de arquivos


Rússia e Índia pode estar prestes a unir forças em assumir um adversário comum: China e sua floptastic Tianhe-2 besta que atualmente fica no topo da lista Top 500 de supercomputadores.


Boris Shabanov da Academia Russa de Ciências (RAS) convidou um grupo do Instituto Indiano de Ciência e legisladores locais Karnataka para debater a criação de um centro de supercomputador em Bangalore, de acordo com os tempos econômicos .







Os planos são, aparentemente, ainda numa fase incipiente, mas já envolvem russo jogador supercomputador RSC.


"A Índia tem muitas habilidades para a construção de supercomputadores. Ele é muito forte no software", co-fundador Alexey Shmelev, disse ao jornal. "Estou pronto para compartilhar a tecnologia com a Índia. Acho que não haveria muitos jogadores que estão dispostos a fazê-lo."


O objetivo principal do projeto conjunto parece ser para pegar a China - que tem de tarde conseguiu afastar com algumas máquinas impressionantemente spec'd.


Tianhe-2, revelou para o mundo no ano passado pela Universidade Nacional de Tecnologia de Defesa, manteve a sua posição no topo da lista Top500 graças ao desempenho de 33,86 petaflop / s no benchmark Linpack.


Ao fazê-lo bater os EUA esforço Titan para o segundo lugar de novo, mas Lomonosov supercomputador da Rússia foi classificada como a 37, enquanto a Índia Param Yuva-II foi de descida em 83.


A China também é responsável por um número crescente dos maiores supercomputadores do planeta. Ele dominou a Ásia nos últimos rankings com 63 sistemas, enquanto o Japão ficou em segundo, com 28.


Há mais do que o orgulho nacional em jogo no desenvolvimento de capacidades de computação massivamente paralela. Há implicações militares óbvias, não menos importante, o trabalho mais grandes potências estão fazendo para quebrar a computação quântica .


A China também começou a trabalhar a Tinahe-1A em modelagem de dados com vista a uma melhor previsão das condições que levam à poluição mortal que cobre periodicamente grandes áreas do país. ®







via Alimentação (Feed) http://ift.tt/1ivB5f2

Nova Fujitsu SoC projeta encolher poder gole 'supers


Acesso de alto desempenho para armazenamento de arquivos


Fujitsu é lenocínio projeta system-on-chip (SoC) para dois novos supers diz obter 40 por cento soco mais processamento, enquanto chupando metade da energia.


A empresa também diz que seu GS21 2400 e 2600 GS21 necessidade de espaço de 70 por cento menos do data center.







Os dispositivos SoC no coração dos dois servidores consolidar 14 chipsets, diz Fujitsu. Eles podem ser executados até oito núcleos, um KB de cache primário 256, 24 MB de cache secundário, processador de I / O, controlador de memória e controlador do sistema.


As máquinas, devido a ser lançado em setembro de incluir melhorias de software com suporte para até dez configurações de I / O virtuais por cluster, em vez dos três configs por cluster dos sistemas de geração atual, com cerca de 20.000 virtuais dispositivos de I / O por configuração.


Há também um monte de melhorias de software: as interfaces SQL padrão no GS21sx "Utilização de Dados Pack" proporcionar o acesso a bancos de dados do servidor de rede GS21 e bancos de dados relacionais; um kit de interface Web que fornece acesso de mainframe a partir de dispositivos móveis; e um kit de gerenciamento de acesso que inclui interface da Web, suporte design de interface, a autenticação do usuário e gerenciamento de identidade.


Fujitsu também anunciou que ganhou um contrato para atualizar os supercomputadores da agência espacial japonesa JAXA. Está actualmente a desenvolver o 3.4 Petaflops planejado máquina, um sucessor para o seu PRIMEHPC FX10, que terá 24 vezes a capacidade de corrente da JAXA super. ®







via Alimentação (Feed) http://ift.tt/1iuZFwu

Novo refrigerante 3M corta o espaço, os gastos com potente Intel, SGI super-


Acesso de alto desempenho para armazenamento de arquivos


Intel e SGI ter construído um novo supercomputador usando um refrigerante avançado da 3M que flui diretamente sobre o hardware para reduzir os custos de funcionamento de tais sistemas e, possivelmente, para aumentar o desempenho.


SGI supercomputer with liquid cooling

Não tente fazer isso com água








O sistema ICE X SGI usa processadores Intel Xeon E5-2600 para grunhido, e mantém-los frescos, passando refrigerante Novec da 3M diretamente sobre os chips. Isso dá quase inédito densidade de potência; Intel estima que pode embalar até 100 quilowatts de poder de computação por metro quadrado usando o novo sistema.


"Os data centers modernos deve aumentar o desempenho bruto que oferecem, mas também fazê-lo de forma eficiente por conter consumo de energia e os custos operacionais," disse Charles Wuishpard, gerente geral da estação de trabalho e HPC da Intel.


"A Intel está continuamente inovar e melhorar as tecnologias de microprocessadores para atender às demandas de data center de hoje e está trabalhando com empresas como 3M e SGI para explorar tecnologias avançadas de resfriamento que melhoram a eficiência energética nos centros de dados ao mesmo tempo, contendo os custos operacionais", diz Wuishpard.


Tendo um sistema de arrefecimento volumoso reduz a quantidade de espaço necessário para um computador por um factor de dez, diz a empresa, e reduz o consumo de energia total necessária para manter uma temperatura de funcionamento saudável por 95 por cento em comparação com os sistemas de ar arrefecido.


Novec é um líquido fluorado que a 3M desenvolveu para ser amigo do ambiente, mas também altamente eficaz em não danificar a eletrônica ou substâncias como o papel. É usado em sistemas de controle de fogo em alguns datacenters e também no Arquivo Nacional, em casa da Constituição dos EUA e da Declaração de Independência.


É também um excelente trocador de calor, e é enrolado em um segundo sistema de refrigeração fase que usa a água para afastar o calor, o que pode ser reciclado, seja para aquecer edifícios ou para usos industriais ou geração de energia.


"Estamos muito contentes com o trabalho que nossa colaboração com a SGI e Intel produziu", disse Joe Koch, diretor de negócios da Divisão 3M comercializa produtos eletrônicos de materiais. "Esses avanços são um trampolim importante na aceleração da indústria ampla colaboração para otimizar o design de hardware de computador."


O supercomputador teste está agora instalado e funcionando, mas as três empresas também estão construindo um super semelhante para as operações combinadas do Laboratório de Pesquisa Naval, Lawrence Berkeley National Labs, e APC por sistema Schneider Electric para atuar como uma segunda cama de teste. ®







via Alimentação (Feed) http://ift.tt/1heDEEM

quinta-feira, 3 de abril de 2014

Sod Bitcoin - resolver os problemas de gráficos é o novo GPU-flogger


Acesso de alto desempenho para armazenamento de arquivos


HPC blogue


Estas conferências GTC, o GPU-fest anual patrocinado pela NVIDIA, são os meus eventos favoritos do ano. Por quê? É a forma como o evento é organizado. No GTC, os pesquisadores do mundo real, analistas e outros clientes apresentam a grande maioria das sessões, e não porta-vozes da empresa.







Eles falam sobre seus projetos, os desafios que temos tratado, lições aprendidas, além de suas descobertas de pesquisa reais. Claro, eles também falam sobre como GPUs ajudou-os ao longo do caminho, mas isso é o que você ganha em uma conferência com foco em tecnologia GPU.


O caso em questão foi a minha primeira sessão na segunda-feira. Intitulado "Acelerar GraphLab Usando CUDA", caracterizou Vishal Vaidyanathan da Royal Caliber discutir o vasto mundo de problemas de gráficos eo desafio computacional maciço estes problemas presentes.


Gráfico problemas estão por toda parte. Um dos mais conhecidos é o problema de roteamento típico: por exemplo, descobrir o caminho mais curto entre um conjunto de cidades. No gráfico problema jargão, as cidades seriam chamados vértices e a linha entre dois deles uma borda.


Quanto mais vértices que você tem, o problema mais computacionalmente complexo gráfico. Eles também são muito difíceis de colocar em paralelo. O particionamento de um problema gráfico em sistemas diferentes, por exemplo, não ajuda muito.


Usando o nosso exemplo da cidade, você iria colocar algumas cidades em um sistema e os outros no Sistema B. No entanto, esses dois grupos estão intimamente ligados e teste para uma rota ideal exigiria muitos saltos entre "A" e "B", o que significa que os processadores acabar gastando muito de seu tempo coordenando seus testes em vez de calcular as melhores rotas.


GraphLab foi um enorme passo em frente em ajudar a paralelização de problemas gráficos. Real Caliber, com a ajuda de outros, ter adicionado uma API GPU para GraphLab e estão apresentando-a como VertexAPI2. E os resultados são, assim, muito GPU'riffic.



O eixo Y é a velocidade se atingido por VertexAPI2 em Tesla K40C vs GraphLab execução em um único núcleo, em seguida, processador quad-core Xeon i3770. Não surpreendentemente, as GPUs superar o single core de 50 - 220x eo quad-core de 15-100x.


Na sessão, Vishal discute os três objectivos principais para VertexAPI2. O primeiro é o que torna fácil de código, eo segundo é para esconder todos os detalhes específicos do GPU. Em outras palavras, fazer Vertex tão fácil de usar como GraphLab execução em 86 núcleos nativos. O terceiro objetivo é tê-lo executar como uma doninha queimada (ou seja rápido).


Vishal também vai para os detalhes sobre a API, como funciona, como usá-lo, e compara sua abordagem para outros algoritmos de problema gráfico como BFS (Best First Solution) e outros. NVIDIA já tem esta sessão on-line, para que você possa vê-lo de sua mesa no momento. ®







via Alimentação (Feed) http://ift.tt/1hEFSwT

Precisa de uma atualização sobre a virtualização?


Acesso de alto desempenho para armazenamento de arquivos


Blog HPC


Este ano, a GTC, a NVIDIA estava empurrando sua tecnologia GRID GPU baseada em Kepler para virtualizar desktops, permitindo um "qualquer coisa, em qualquer lugar, a qualquer hora, em qualquer dispositivo" modelo de uso, mas como um efeito colateral entregue lotes de orientação para VDI e virtualização novatos.







GRID foi um dos grandes anúncios no GTC12 , com demonstrações de uso da tecnologia em jogos e aplicativos graficamente intensos.


Nesta sessão, Lucas Wignall e Jared Cowart, NVIDIA seniores arquitetos de soluções, leva-nos através da história de virtualização. Esses caras não são os tipos de marketing de produtos típicos; eles gastaram muito tempo trabalhando com os clientes para projetar e implementar infra-estruturas virtualizadas.


A primeira parte da discussão abrange a virtualização do ponto de vista histórico, a olhar para os fatores que impulsionam a virtualização de servidores e, agora, a virtualização de desktop.


Mais tarde, eles falam sobre as diferentes maneiras de virtualizar desktops, tornando o ponto de que não há qualquer "Uma verdadeira solução" neste espaço. Como tudo mais, existem trade-offs e toda organização precisa descobrir quem são seus usuários e que eles precisam de sua plataforma de trabalho.


No final da sessão, apresentam um estudo de caso e usá-lo para discutir o que os clientes realmente precisam ter em mente como eles vão pela estrada VDI. Há definitivamente solavancos na estrada que, além de alguns lugares onde as grades de proteção podem estar ausentes ou quebrados.


Para quem está considerando uma iniciativa VDI, ou que precisa de obter alguma munição para justificar um projeto de VDI, assistindo esta apresentação vale bem a pena o tempo. Eu também recomendo para quem é novo para o mundo inteiro de todas as coisas virtuais, ou que poderia usar um curso de reciclagem. Você pode assistir a sessão aqui . ®







via Alimentação (Feed) http://ift.tt/1mCtJcv

Sun-que procuram boffins NASA orientar frotas de satélites ... À MÃO


Acesso de alto desempenho para armazenamento de arquivos


HPC blogue


À procura de algo para testar suas habilidades de Star Wars de videogame? Que tal isso: lançar quatro satélites e levá-los em órbitas excêntricas ao redor da Terra.







Cada satélite é 1 km além do seu vizinho, que soa como um monte de espaço, até você considerar que eles estão viajando em vários quilômetros por segundo durante a parte mais rápida de suas órbitas.


Os satélites não são apenas em órbitas estáticas; você tem que variar o seu curso ea formação, pelo menos uma vez a cada duas semanas - mais frequentemente se você vê uma colisão chegando.


E a cereja em cima do bolo? Não há qualquer arte extravagante previsão colisão ou evitar a bordo dos satélites; eles são, essencialmente, apenas voando pára-raios, lá fora, para capturar um evento de reconexão magnética.


Se isso soa como diversão para você, que você precisa para assistir a sessão GTC14 dada pelas pessoas de Goddard Space Flight Center da NASA. Nela, eles falam sobre a primeira regra da missão ("não bata os satélites") e as dificuldades que enfrentam para ter certeza que eles não destruir uma missão US $ 1 bilhão.


Existem algumas coisas que podem dar errado quando se tenta manter os sats em uma formação apertada. Por exemplo, os propulsores dos satélites podem não queimar, exatamente no momento certo, ou fornecer o impulso nominal, ou pode cortar cedo - ou mais tarde. Qualquer uma destas condições pode significar a ruína para a formação e / ou satélites.


NASA lida com essa incerteza, executando um enorme Monte Carlo de simulação do tipo de cada manobra diária. Isto produz um local probabilística para cada satélite, no momento actual em tempo.


Como é que eles entender tudo isso?



No terceiro grupo a partir da esquerda, você pode ver onde os grupos de pontos azuis e marrons podem se sobrepor. Isso mostra que existem potenciais colisões nesta fatia de tempo - uma coisa muito ruim.


Calculando esses pontos acaba por ser um grande trabalho bastante enervante, como o Goddard Space Flight Center aponta:



Então, depois de 34 bilhões de cálculos, temos uma boa idéia de onde os satélites são agora. Mas também precisamos de saber onde eles vão ser mais tarde na semana, só para ter certeza de que a formação é apertado e eles não serão batendo uns contra os outros em qualquer ponto.


Para executar a previsão de localização completa 10 dias, você essencialmente calcular os 34 bilhões de possíveis pontos de colisão 172.800 vezes. Qual é, não surpreendentemente, uma carga computacional ainda maior:



Como observado no slide acima, usando sistemas tradicionais baseados em CPU, é preciso pelo menos duas semanas para executar uma previsão de colisão de 10 dias - o que transforma a sua "previsão" para, essencialmente, um relatório da história. Não é útil.


Felizmente para eles, o seu código é embaraçosamente paralelo , o que significa que pode ser picado e executados simultaneamente em vários sistemas, sem perder a fidelidade ou desempenho. Tendo em conta que eles precisavam de velocidade máxima, eles decidiram otimizar seu código para uso em GPUs.


Os resultados foram muito bons. Os mesmos cálculos que levou duas semanas em seus sistemas tradicionais agora levar 20 minutos a dupla NVIDIA K20s. Isso é uma melhoria 1.000 por cento pelos meus cálculos, o que não é mau de todo.


Goddard também observou que a solução GPU deu-lhes a capacidade de mapear mais pontos e fazer mais cálculos, o que significa que os seus resultados são muitas vezes mais preciso do que antes.


Confira o breve apresentação de 20 minutos para aprender mais sobre a missão reconexão magnética. No final da apresentação, eles também discutir suas próximas missões. Um deles é para substituir o telescópio Hubble com o novo e melhorado âmbito James Webb.


Outra intrigante futura missão da NASA é encontrar "zero caminhos de energia", que são pontos entre universos que estão sem atrito e, supostamente, não necessitam de energia para o transporte. Se for verdade, essas passagens nos daria a capacidade de viver em um universo diferente e comutar de volta a este um para o trabalho e compras. ®







via Alimentação (Feed) http://ift.tt/1fxNKj3

quarta-feira, 2 de abril de 2014

Boffins HPC: Nossos modelos quente irá ajudá-lo a lidar com o desastre


Acesso de alto desempenho para armazenamento de arquivos


Blog HPC Qual é o tipo mais comum e caro de um desastre natural? Se você respondeu "inundações e tsunamis", você estaria certo sobre o dinheiro.


Danos econômicos causados ​​por eventos de inundações grandes e pequenas - ou causadas por tempestades, tempestades ou terremotos, no caso de tsunamis - são verdadeiramente enorme, correndo para os milhares de milhões ou dezenas de milhares de milhões por evento.







Vamos dizer que você possui toda a Terra. Se fosse esse o caso, você definitivamente quer seguro contra inundações. Mas quais áreas você deve cobrir, e quanto você deve pagar por isso? Eu aposto que você não sabe as respostas a essas perguntas, então talvez você não é tão inteligente, afinal de contas, não é?


Um ótimo lugar para começar pode ser KatRisk , uma empresa fundada em 2012 por "um geek, um cientista e um engenheiro". Sua missão é construir modelos abrangentes e altamente detalhados de risco que lhe dará os governos e as empresas uma imagem muito mais clara do risco de desastres associados a determinados locais.



Em sua sessão GTC14 , empresa co-fundador Dag Lohmann discutidas as razões pelas quais modelagem de catástrofes é importante e difícil. Embora esses eventos causam enormes danos, eles são pouco freqüentes, por isso os dados históricos não é um guia muito bom para o quanto um evento pode impactar um determinado local.



Por exemplo, em os EUA, do Norte e Carolina do Sul estão localizados em uma área que poderia ser atingida por um grande furacão, mas não tiveram um impacto direto em décadas. Quanto dano poderia um furacão causa nesses estados? Onde estaria o dano ser o pior? Perguntas difíceis de responder, dada a falta de dados históricos.


Objectivo primordial da KatRisk é modelar mapas de inundações em todo o mundo em 10-90 metros de resolução. Tendo em conta que o mundo é um lugar grande, com muita chuva, este é um problema bastante computacional.


Água, água por toda parte


Para construir este modelo, em termos gerais, é necessário modelar a quantidade de chuva que cai em uma área particular, a quantidade de água que é levado pelos rios, a localização / profundidade da água restante, e quanto tempo ele permanece ao redor.


Este é um problema cúbico, o que significa que se você diminuir a resolução exigida por um fator de dois (digamos de 100 para 50 metros), que aumenta o tempo de execução para o modelo por um fator de oito. Eles escreveram o seu código para ser executado em CUDA, dando-lhes uma velocidade de até 50 de-200x vs um único núcleo de CPU de propósito geral.



Mas, mesmo correndo modelos KatRisk em um par de estações de trabalho equipadas GPU musculosos pode levar de semanas a anos, dependendo do tamanho da área e resolução.


Felizmente para KatRisk, eles foram capazes de obter o tempo em Titã supercomputador da ORNL, dando-lhes acesso a um grande número de sério K20 GPUs e 16-core AMD Opteron processadores. Isso acelerou enormemente o processo de modelagem de risco de inundação EUA / impacto, e melhorou a resolução também.



Esta sessão oferece uma visão fascinante sobre como os modelos de catástrofe são construídas e como a tecnologia de hoje permite-nos ter modelos mais precisos. Se você tem interesse em modelagem, ou o trabalho no setor de seguros, esta sessão é um must-see. Confira aqui . ®







via Alimentação (Feed) http://ift.tt/PhJpGG

GE cozinheiros RADAR definido por software: Jam, escutar, falar e alvo ... simultaneamente


Acesso de alto desempenho para armazenamento de arquivos


HPC blogue


Com um transmissor de RF e grande o suficiente poder de computação rápido, você tem a capacidade de fazer um monte de coisas diferentes, como evidenciado por uma apresentação General Electric no "radar definido por software" na conferência GPU deste ano.







No GTC 13 no ano passado, a GE deu um só quarto compreensão apresentação sobre como ele está usando RDMA (Remote Direct Memory Access) para impulsionar o desempenho do processo multi-GPU a novas alturas. A empresa estava de volta este ano para falar sobre as aplicações novas e inovadoras de tecnologia GPU tem cozidos ao longo do ano passado.


Na sua sessão , Dustin Franklin, GE aplicações GPU Engenheiro guru, dá-nos uma atualização sobre como foi prosseguir com RDMA e como ela permite que a empresa de energia elétrica para construir em grande escala, multi-nó, produtos.


O que é realmente interessante são os tipos de produtos que isto está fazendo agora possível. Por exemplo, considere radar definida por software. Com um transmissor de RF e grande o suficiente poder de computação rápido, você tem a capacidade de fazer um monte de coisas diferentes.


Por exemplo, a mesma cúpula radar pode ser usado para MTI (Moving Radar Destino), SAR (Radar de Abertura Sintética), radar-jamming, e até mesmo como um canal de comunicação. Usando GPUs para configurar a saída e interpretar as ondas que retornam, a GE descobriu que é possível fazer todas essas funções ao mesmo tempo, se necessário.



Como funciona: transmissão simultânea / recebimento para toda uma carga de funções



No passado, cada uma dessas funções exigiria DSPs dedicados (processadores de sinais digitais) ou processadores FPGA, desenvolvidos à custa de centenas ou milhares de horas-homem. Com radar definido por software, o mesmo hardware é usado de várias maneiras e pode ser rapidamente reconfigurado para melhor lidar com novas tarefas e exigências.


Franklin também falou sobre como a GE irá utilizar o novo dispositivo GPU Tegra K1 para fazer produtos compactos e robustos para o campo de batalha e além. Ele também especula sobre como ter 325 Gflop / s de desempenho em um sensor (entregue por 192 núcleos CUDA, mais 4 núcleos ARM) poderia mudar o jogo quando se trata de como usamos sensores.



Insira chips aqui: Algumas das aplicações sugeridas da GE para o campo de batalha GPU Tegra K1



Normalmente, os sensores de coleta de dados e entregar está em outro lugar para processamento e interpretação. Sensor de saída é então entregue às partes interessadas. Mas o Tegra K1 packs um monte de soco processamento em um pacote de 5-7 watts, então por que não tê-lo lidar com tarefas de processamento e interpretação, em seguida, entregar a saída para as pessoas que precisam dela? Isso pode reduzir significativamente o tempo necessário para obter dados vitais para as pessoas que precisam mais.


No final da sessão, nós aprendemos que a GE tem primeira caixa demonstração Tegra K1 do mundo em seu estande no chão show. É um dispositivo de vídeo / LIDAR combinação de streaming, que mostra e rastreia alvos (show de tráfego chão, neste caso). Eu vou ter algum vídeo sobre este assunto nos próximos dias.


Para terminar, Franklin discutido experiência GE com Kepler vs Maxwell GPUs, incluindo as diferenças de arquitetura e desempenho. Ele mostra alguns de seus resultados de benchmark internos e fala sobre as implicações.


Dê uma olhada a 20 minutos de apresentação para obter um vislumbre na vanguarda da tecnologia de defesa. Você vai querer ver se você é um ministro da Defesa que quer ver o que está vindo pela estrada, ou, talvez, se você é o chefe de uma junta que pode estar chegando contra as forças militares ocidentais no futuro próximo. ®







via Alimentação (Feed) http://ift.tt/1dQCAHr