sexta-feira, 31 de janeiro de 2014

Meu outro supercomputador é um Lenovo: O IBM System x venda significa para HPC


2014 previsões: tendências de tecnologia Top


HPC blogue Em maio de 2013, quando a IBM foi o primeiro rumores de estar a vender parte de sua divisão de System x para a Lenovo, eu escrevi uma história olhando como isso pode afetar a posição da IBM no mercado de HPC . É um bom momento para rever essa análise e ver o que a imagem se parece agora.


Como eu disse na história anterior, é duro danado para obter participação de mercado sólida e números de vendas de sistemas de HPC. Parte disso é devido à nebulosidade geral, quando se trata de medir as vendas gerais do sistema. Mas é principalmente porque é muito difícil dividir "sistemas HPC" de "sistemas não-HPC", uma vez que a verdadeira definição de HPC deve incluir não apenas as aplicações tradicionais de pesquisa, mas também computação intensiva cargas de trabalho empresariais como análise preditiva e muitos Big Data relacionado tarefas.







Então, com isso em mente, eu tenho usar a última lista Top 500 Supercomputadores como meu cavalo perseguição, pelo menos, dar uma olhada em como a transação IBM-Lenovo vai afetar a classificação na extremidade superior. Não é o proxy perfeito para o mercado de HPC mais amplo, mas é melhor do que nada, certo?


Vendedores topo das paradas



Desde o início de 2000, a IBM ea HP trocaram a liderança no número de sistemas que já colocados no Top500. Na lista mais recente, a HP desembarcaram 196 sistemas na lista vs 164 total do sistema IBM. Os concorrentes mais próximos são próximos Cray com 48 sistemas e SGI, com 17.


Ao todo, existem 35 fabricantes diferentes (incluindo algumas empresas com o nome "self-made") com sistemas na lista Top500 de 2013.


164 sistemas da IBM incluem tanto os seus sistemas com base em x86 e aqueles com base em seu próprio poder, tecnologias PowerXCell e BlueGene.



A participação da IBM no mercado de HPC é maior quando se trata de desempenho global. Como pode ser visto a partir do gráfico de pizza útil à esquerda, sistemas IBM são responsáveis ​​por quase um terço do desempenho na lista Top500 mais recente - e são mais do que o dobro do desempenho total dos dois próximos concorrentes.


Você também pode ver outras diferenças quando se olha a lista a partir de uma perspectiva de desempenho. Por exemplo, 10% de participação do sistema da Cray torna-se uma participação de 17 por cento de desempenho. Fujitsu, Dell e outros fabricantes também estão batendo sobre seu peso quando se comparam os sistemas de rankings de desempenho.


Gráfico Topping chips



Eu não estou indo para mantê-lo em suspense: Intel está fazendo muito bem quando se trata de supercomputadores.


Intel marca processadores de combustível mais de 80 por cento dos sistemas na lista Top500 mais recente. Além disso, a Intel mais chips AMD x86 dirigir 91% dos sistemas na lista.



Os sistemas que utilizam próprios chips da IBM, mais uma dispersão de sistemas que usam SPARC e outras tecnologias são responsáveis ​​por uma escassa 9 por cento das 500 maiores caixas de HPC em 2013. A história muda um pouco quando se trata de desempenho. A participação da Intel encolhe para 62 por cento ea quota total x86 cai de 91 por cento para 74 por cento.


Você também pode ver que os sistemas não-x86 da IBM são verdadeiramente caixas pontapé-burro. Estes sistemas 37 BlueGene e poder baseado representam 21 por cento do desempenho total do Top500.


IBM e Lenovo Top500 Futures



Hoje, a IBM é um grande rebatedor na lista Top500 tanto em termos de sistemas e desempenho. Olhando apenas 164 sistemas da IBM na lista, vemos que a grande maioria deles são, não surpreendentemente, caixas baseados em x86. Estes sistemas são a sua iDataPlex, BladeCenter, e aglomerados típicos de montagem em rack, com um punhado de suas novas configurações Flex jogado em boa medida.



Enquanto o material x86 compõe a maior parte dos sistemas IBM tem na lista, que é as caixas não-x86 que fornecem o maior desempenho (e provavelmente financeira) estrondo.


Os sistemas baseados em Poder BlueGene-e são, obviamente, as configurações muito maiores e mais potentes. Podemos supor que eles são, provavelmente, as instalações mais rentáveis, bem como, mas isso vai depender de instalações específicas e as provações e angústias associados com a realização do negócio.


Com a compra da divisão de x86 da IBM, a Lenovo também está comprando um lugar na lista Top500 e um lugar considerável no mercado de HPC.


Usando a lista de Novembro de 2013, a Lenovo iria agarrar o segundo lugar em termos de sistemas - 25 por cento do total (127 caixas). Isso coloca-o à frente de todos, exceto HP. IBM sem caixa x86 colocaria em quarto na lista de contagem do sistema, atrás da HP, Lenovo e Cray.


Lenovo iria deslizar para o quinto lugar quando se trata de ação de desempenho na lista Top500 de 2013. Sua chapa de caixas de 86 seriam responsáveis ​​por 11 por cento do total de desempenho no gráfico, colocando-o atrás da HP, IBM, Cray e NUDT da China. No entanto, seria antes do SGI, Dell, Fujitsu, eo resto da matilha.


Vai ser interessante ver como as duas empresas estão indo jogar suas mãos reformulado após a transação. IBM vai rodar seu mainframe e cavalos de sistemas baseados em energia - provavelmente se concentrar em seu Linux em sistemas de energia no HPC.


Lenovo precisa aproveitar o altamente experiente e valioso técnico, marketing e pessoal de vendas que vai estar recebendo como parte deste acordo. Se ele se aproveita desses ativos, pode apostar seu novo (e grande) base instalada em algo muito maior ao longo do tempo. ®







via Alimentação (Feed) http://ift.tt/1fso9au

quarta-feira, 29 de janeiro de 2014

Cacho pendente de King Kong soltar


4 razões para terceirizar seu DNS


O supercomputador usado para animar versão de King Kong de Peter Jackson 2005, foi doado à Universidade de Auckland na Nova Zelândia of Technology (AUT).


O supercomputador é composto por 200 servidores IBM HS20 Blade, um pedaço de kit Big Blue vendido em 2005 e um par de anos anteriores. Da IBM página para o HS20 sugere as máquinas embalado 3,6 GHz Xeon CPUs que corria em 2,8 GHz no modo de baixa tensão. Pode que foram este SL84W Xeon lançado em março de 2005? Página da Intel não menciona o desempenho no modo de baixa tensão, mas diz SpeedStep está disponível.







Seja qual for a configuração precisa, o atual proprietário da plataforma - outfit serviços Gen-I - diz que oferece "mais de 1,4 teraflops / s de capacidade de processamento e 0,8 Terabytes de memória RAM."


Isso é mais do que suficiente para o Instituto de AUT para a Rádio Astronomia e Espaço, que irá pressioná-lo em serviço em um "centro de correlação de dados", onde ele vai "reunir dados de vários radiotelescópios que realizam as mesmas observações em simultâneo de diferentes países" e, em seguida, ajudar com "O monitoramento placa tectônica, a determinação de parâmetros de rotação da Terra, a investigação da física de núcleos ativos de galáxias e quasares, eo estudo do maser cósmicos e regiões de formação de estrelas na galáxia da Via Láctea."


O supercomputador já foi alugada à Weta Digital, empresa de efeitos especiais co-fundada por Kong e diretor Hobbit Peter Jackson. Gen-I parece estar tendo dificuldades para encontrar usuários para ele esses dias e ele estava pendurado sobre fazendo pouco de qualquer uso, daí a doação.


No 1.4 teraflops o equipamento nem sequer obter para o fundo do novembro 2013 lista dos melhores do mundo 500 supercomputadores, mas teria chegado em algo em torno de número 350 na lista de junho 2005 .


Por que vale a pena, que contou com uma lista de 3,8 TFLOP máquina Weta Digital, que foi também baseada na HS20 . ®







via Alimentação (Feed) http://ift.tt/1dTyInX

segunda-feira, 20 de janeiro de 2014

"Nós não usamos UPS. Se o fizéssemos, teríamos enormes computadores dos UPSs e minúsculas


The Road to Empresa PaaS


A interrupção orientada a onda de calor na instalação de supercomputação VLSCI semana passada poderia ter sido pior do que era, com cortes de energia também um risco, a instalação confirmou.


Um administrador de sistemas sênior da VLSCI, Chris Samuel, discutiu a interrupção e as lições aprendidas com o The Register.







Embora a razão para o desligamento era calor, Samuel disse que havia também a preocupação de que a onda de calor pode levar a um corte de energia. Melburnians foram alertou na semana passada que, como a onda de calor se arrastou (e aparelhos de ar condicionado trabalhou para lidar) que pode haver cortes.


Havia alguns cortes, mas não afetou a VLSCI, que é uma coisa boa, porque não há um backup. Como ele nos disse, os cortes de energia são sempre uma preocupação: "nós não usamos UPS para os sistemas de computador - que iria acabar com enorme UPSs e sistemas de computadores minúsculos."


"Dito isso, nós sempre fomos muito sortudo de poder em torno desta área ... pode ser por causa da nossa proximidade com [Melbourne] hospitais."


Como escrevemos ontem, a temperatura da água de entrada acabou superando a especificação para a instalação. A refrigeração é um sistema fechado (graças também ao comentarista que também notei isso).


A configuração VLSCI, Samuel explicou tem um loop de refrigerante a partir do telhado em um tanque de buffer. A partir daí, a água é alimentada a CDUs - unidades de distribuição de fluido de arrefecimento - onde despejar o calor a partir das máquinas. Dentro das salas de máquinas, há três circuitos fechados: um para cada dois racks Blue Gene / Q, e um terceiro para a água de refrigeração portas do rack traseiro para as outras máquinas.


A água é então distribuído aos chillers no telhado ", eo ciclo começa novamente", disse ele. No calor extremo, as temperaturas telhado significava que os chillers estavam entregando água que Samuel explicou "foi chegando perto do limite para as prateleiras, e ainda estava subindo."


Avoca foi o sistema mais afetada, simplesmente porque é muito mais poderoso do que as máquinas Merri ou Barcoo: "Mesmo que seja muito mais energia eficiente do que os sistemas Intel, sua capacidade de geração combinada de calor é enorme - ele despeja muito mais calor para a água de ambos os sistemas Intel combinado ". ®







via Alimentação (Feed) http://ift.tt/1mnbea6

Batalha referência Boffin após kit quântico D-Wave rasteja em teste


The Road to Empresa PaaS


No entanto, mais uma tentativa de aferir o computador quântico D-Wave - desta vez, em sua configuração qubit 512 - surgiu com resultados decepcionantes, com a empresa a responder que era o tipo errado de teste.


O trabalho , liderado por Matthias Troyer do ETH Zurique, sem caroço um Dois D-Wave (a máquina que o Google comprou a muito alarde no ano passado), é dupla: os nove cientistas procuraram não só para executar os valores de referência, mas também para projetar benchmarks que não o fizeram "máscara ou aceleração quântica fake".







D-Wave tem disse à BBC: "os testes definidos pelos cientistas não eram os tipos de problemas que os computadores quânticos oferecidos qualquer vantagem sobre os tipos clássicos."


O grupo de trabalho com Troyer inclui autores de laboratório AI, do Google e da Universidade do Sul da Califórnia, algo que deve ajudar a afastar as queixas de que o teste não é justo, uma vez que ambos têm investido em máquinas D-Wave.


Resultado de Troyer espelha teste do ano passado em uma máquina 128-qubit, dirigido por Catherine McGeoch de Amhurst College, na medida em que a máquina D-Wave parece executar mais rápido do que um computador clássico - mas apenas em algumas circunstâncias, em um subgrupo de testes.


Do abstrato do papel:



"Nós ilustrar nossa discussão com os dados de um teste de benchmark randomizado em um dispositivo D-Wave Two com até 503 qubits. Comparando-se o desempenho do dispositivo em instâncias de vidro de spin aleatórios com pouca precisão para annealers clássica e quântica simulados, não encontramos nenhuma evidência de aumento de velocidade quântica quando todo o conjunto de dados é considerada, e obter resultados inconclusivos quando se comparam os subconjuntos de casos em uma instância-by instância de base. "



Mais para o papel, os autores observam: "Nós achamos que, enquanto o DW2 às vezes é até 10 vezes mais rápido em tempo de recozimento puro, há muitos casos em que é 100 vezes mais lento."


O laboratório do Google Quantum AI discute a referência aqui , lembrando que o único caso em que a D-Wave Two teve uma vitória clara era quando foi confrontado com um solucionador de propósito geral. Quando a equipe de Troyer (com a ajuda da Nvidia) criou um solucionador construído de propósito, não houve aumento de velocidade quântica.


(Quando isso acontece, o Google ficou tão impressionado com o código escrito por um membro da equipe de ETH Zurique, Sergei Isakov, que está agora a trabalhar com o Quantum AI Lab). Em um segundo projeto, independente, pesquisador Alex Selby foi capaz de escrever um solver que combinava com a D-Wave.


Falando à New Scientist, D-Wave diz o que importa não é a velocidade, mas se ele tem realmente construído um computador que usa efeitos quânticos. Co-fundador Alexandre Zagoskin diz "novas ferramentas" são necessários para descobrir se a máquina é um computador quântico, e que "A questão sobre o quão rápido isso funciona é secundário".


Outro ângulo da resposta da D-Wave foi para postar este papel-contador em Arxiv, no qual propõe uma técnica para demonstrar ou não emaranhamento está ocorrendo.


Esse estudo observa que as conexões atualmente limitada entre qubits no chip D-Wave pode ser um obstáculo ao desempenho, algo também apresentada pelo Google: "os qubits no chip atual ainda são apenas escassamente conectados". A esperança é que, com mais conexões inter-qubit, o chip deve correr mais rápido.


Há também a esperança de que, executando maiores conjuntos de dados através da máquina D-Wave, pode tornar-se mais fácil identificar os casos de aumento de velocidade quântica. Google diz que máquina da NASA, que foi testado com os dados do Kepler, agora tem dados suficientes para "instâncias 400.000 problema".


Até agora, a máquina NASA só foi testado para ver se ele consegue identificar planetas já conhecidos nos dados Kepler (resposta: sim, é possível).


"Nós agora estamos tentando identificar uma classe de problemas para os quais o hardware quântico atual pode superar todos os solucionadores de clássicos conhecidos", a equipe do Google Quantum AI escreve. ®







via Alimentação (Feed) http://ift.tt/LyuHJB

quinta-feira, 16 de janeiro de 2014

Nós wuz direita: Big Blue estão enchendo System x boxen com ULLtraDIMMs


5 os riscos de segurança de DNS que mantê-lo durante a noite


Confirmando a nossa história sobre a IBM recheio ULLtraDIMMs em seu um servidores da série X , a notícia de armazenamento arrivista EnterpriseTech * relata que próximos servidores X6 da Big Blue, suportando os processadores Xeon E7 v2, terá de armazenamento de canal de memória eXFlash: memória flash em um módulo DDR3 rodando no barramento de memória.


A SanDisker confirmou que estava a fornecer as peças 200GB e 400GB, o que significa produto ULLtraDIMM de adquirido o SMART armazenamento é baseada em IP do Diablo Tecnologia. Isto coloca memória flash mais perto da CPU do que um cartão de memória flash PCIe, diminuindo assim a latência de acesso de dados de 5 microssegundos, e acelerando os aplicativos de servidor de usá-lo.







Esses DIMMs de flash custam menos de DIMMs de memória tradicionais, proporcionando uma forma barata de aumentar a memória de um servidor e têm conjuntos de trabalho de aplicativos na memória estendida e não em PCIe ou de armazenamento flash em rede.


Tecnologia Flash Cache Accelerator avalia os níveis de atividade de dados e enche dados quentes nos DIMMs de flash. WriteNow coloca os dados em DIMMs flash até 50 por cento mais rápido do que antes.


IBM foi beta testar seus servidores eXFlash com empresas de Wall Street para ver se eles entregar as mercadorias e, ao que parece, eles fazem.


ULLtraDIMM

SanDisk / Smart ULLtraDIMM



Há IBM informações sobre mais velha tecnologia eXFlash aqui , que afirma: "A unidade eXFlash único acomoda até oito SSDs hot-swap, e pode ser conectado a até dois controladores com desempenho otimizado."


Que parece ser uma forma diferente de eXFlash daquele ULLtraDIMM. (Mais aqui sobre esta tecnologia caixa eXFlash separado, lançado em 2011.)


SanDisk é, aparentemente, o desenvolvimento ULLtraDIMMs que se parecem com a memória principal para o servidor host, permitindo a extensão de processamento conjunto de dados in-memory mais acessível do que com a memória DRAM puro. ®


Bootnote


A história de EnterpriseTech foi escrito por cima o homem ex-Reg Timothy Prickett Morgan, também conhecido como TPM . Gremlins bastidores do Vulture Central se lembram dos seus bolos com carinho.







via Alimentação (Feed) http://go.theregister.com/feed/www.theregister.co.uk/2014/01/16/big_blue_flash_dimms/

segunda-feira, 6 de janeiro de 2014

UNREAL, cara: Nvidia Tegra uncloaks K1 gráficos monstro para seu celular ... e CAR


Um guia para e-mail transacional


CES 2014 Nvidia acaba de lançar duas versões de um novo processador móvel Tegra visa tanto melhorar radicalmente o desempenho de gráficos de jogos para celulares e colocar "um supercomputador em seu carro", nas palavras da empresa co-fundador e CEO Jen-Hsun Huang.


O novo chip, chamado de Tegra K1 , tem "o coração da GeForce ea alma de Tesla ", Huang disse à sua audiência na CES em conferência de imprensa na noite de domingo, referindo-se a PC-gráficos da Nvidia e produtos de supercomputação.







Huang chamou de "incrivelmente avançado" Tegra K1 um processador de "192-core", dizendo que apenas se deslocam até oito núcleos do quatro-core Tegra 3 seria "muito pedestre." Para ser preciso, o K1 conterá 192 CUDA núcleos baseados na empresa Kepler arquitetura, organizados em uma grade de 12 por 16. Aparentemente quatro ARM Cortex-A15 núcleos de computação adicionais da versão 32-bit são cortadas fígado.


A segunda versão do K1 terá dois de 64 bits ARMv8 -arquitetura "Denver" núcleos de computação, uma tecnologia que a Nvidia primeiro anunciou que estava trabalhando em volta na CES em 2011, e que agora modestamente dublar o "CPU Super Core."


Nvidia Tegra K1 die

192 Kepler CUDA núcleos gráficos mais

quatro ARM Cortex-A15 núcleos de computação



A versão de 32 bits, com um TDP de 5 watts, está programado para aparecer em dispositivos no primeiro semestre deste ano, ea parte de 64 bits vai aparecer na segunda metade do ano. Ambas as versões serão pino-a-pino compatível, a versão de 32 bits será executado em até 2,3 GHz e seu 64-bit irmão mais velho vai acelerar ao longo de até 2.5GHz.


Ambas as partes irão suportar DirectX 11, OpenGL 4.4, e tessellation, e se as demos que Huang mostrou durante sua apresentação - demos, lembre-se - são qualquer indicação, os seus recursos gráficos são realmente impressionantes. Ele também revelou que a Epic Games vai trazer a próxima iteração do seu Unreal motor de jogo para o Tegra K1.


Além divulgando jogos costeletas gráficas do Tegra K1, Huang também enfatizou sua aplicabilidade no futuro automotivo, no qual "os carros vão ser capazes de fazer coisas que a maioria das pessoas não será capaz de entender."


Especificamente, ele disse que o K1 irá "trazer de supercomputação em seu carro", em que ele vai ser o que ele alegou não seria apenas a primeira plataforma programável de assistência driver avançado (ADAS), mas também fornecem os recursos gráficos necessários para personalizar dashboard é exibida. ®


Bootnote


Huang também revelou que a 310 pés (94.5m) de diâmetro " círculo de cultura "na pequena cidade de Chualar, Califórnia, que tem sido excitante interwebs desde o final de dezembro foi apenas uma jogada de marketing Nvidia. Ele também elogiou o repórter que apontou que os padrões em seu centro foram Braille para 192 - o número de núcleos de Kepler no Tegra K1.







via Alimentação (Feed) http://go.theregister.com/feed/www.theregister.co.uk/2014/01/06/nvidia_uncloaks_tegra_k1_graphics_monster_for_mobile_and_automotive/