terça-feira, 23 de dezembro de 2014

Revelado: ESTUDANTE RACK WARS O vencedor deste ano


HPC blogue Enquanto eu tinha postado os resultados detalhados da ISC'14 Verão Cluster slam ( aqui e aqui ), eu só percebi que eu tinha esquecido de colocar para fora os resultados finais e análise. Isto faz-me um idiota. (Bem, não só isso, há um monte de outras coisas que contribuem para que a avaliação também.)


Primeiro, a grande surpresa: Equipe África do Sul levou o Campeonato Medalha de Ouro geral, pela segunda vez consecutiva. No ano passado, os corajosos sul-africanos foram um concorrente pela primeira vez, o que normalmente significa um acabamento meia-of-the-pack.







Além de ser a primeira equipe da África do Sul, eles realmente não conhecem uns aos outros. A equipe foi formada a partir de três diferentes escolas que tinham enviado os alunos para competir na primeira CHPC competição anual cluster regional.


Que 2013 equipa Africano Sul saiu do nada, à estrita derrotar o resto do campo em ISC'13, que envia ondas de choque através do mundo da competição conjunto do aluno (LINK).


Mas mesmo com a 2013 troféu sob o seu cinto, muito poucos esperavam que eles repitam no ISC competição de 2014. (Bem, eu fiz ... mas isso é porque eu tive a sorte de testemunhar a edição de 2013 da sua competição regional. Mais sobre isso mais tarde ...)


Mas a equipe da África do Sul, mais uma vez cobriu o campo e leva para casa o troféu geral Championship. Eles não só marcou a primeira vitória na competição repeat ISC, eles fizeram isso com uma equipe totalmente nova de estudantes.








via Alimentação (Feed) http://ift.tt/1HwoOCC

terça-feira, 9 de dezembro de 2014

Bods armazenamento HPC no DDN peixe para capturar grandes no lago de dados


Escolhendo uma nuvem de hospedagem parceiro com confiança


Entrevista Fornecedores de armazenamento e sistemas de análise para o chamado "big data" lago mercado estão resistindo transições de tecnologia turbulenta e exigências de mudanças rápidas, como vimos aqui .


Startups com US $ 100 milhões de mais financiamento são comuns e um, Cloudera, ultrapassou US $ 1 bilhão em financiamentos, como VCs e executivos de inicialização lutar para encontrar seu caminho através do grande lago de dados para os prêmios cintilantes que vêem em perspectiva.







HPC e armazenamento supercomputador empresa Redes de Dados Diretos (DDN) diz que a sua plataforma de armazenamento WOS objeto está no extremo oposto do espectro de custo de GRIDScaler, e é projetada para oferecer um baixo TCO, enquanto ainda fornece alto desempenho com escalabilidade massiva e durabilidade de dados . Com isso em mente, pedimos Lance Broell, WOS Product Marketing Manager at DDN, um conjunto de perguntas.


Com certeza, Lance é colocar o melhor pé de DDN para a frente, como esperamos, mas há também uma série de insights sobre o que está acontecendo no mercado grande de dados. Podemos discernir detalhes da camada interna e construção sob o trabalho de pintura brilhante.


Temos editado respostas de Lance para concisão.


El Reg: Pelo enorme, dezenas de escala petabyte, pequeno $ / GB diferenças de preço pode aumentar a enormes diferenças $ / PB. Por exemplo, uma matriz de 500TB em um hipotético US $ 3 / GB concorre com outra em $ 3,01 / GB. Diferença Smallish. No 50PB torna-se uma enorme diferença no preço global. Como você e outros fornecedores de armazenamento de objetos vai lidar com isso?


Lance Broell: Para fornecer a melhor solução para o melhor valor quando se fala de implementações em grande escala requer uma compreensão muito sólida das necessidades dos clientes e arquitetura cuidadosa de tudo envolvido que tornarão a solução mais eficiente possível.


Preço de venda é importante, mas é apenas uma parte do quadro total que realmente vem para jogar em grande escala. Os vendedores precisam ter grande campo pessoal técnico para trabalhar por meio [de arquitetura, a eficácia do sistema e ferramentas de software] com os clientes; caso contrário, o TCO da solução vai crescer fora de controle.


Ao falar com os clientes objeto de armazenamento, encontramos a paisagem é realmente dividida em dois campos:



  • Aqueles que compreendem que o armazenamento de objeto pode ser uma solução rica característica arquitetado para abordar um amplo conjunto de casos de uso, tais como: a colaboração multi-site, distribuição de conteúdo global, recuperação de desastres e integração com plataformas de armazenamento HPC. O recurso aqui é resolver problemas reais de negócios em um menor $ / GB e TCO de uma maneira que não pode ser feito pelo sistema de armazenamento / players tradicionais.

  • Aqueles que têm uma visão estreita e implementar sistemas que dependem de codificação apagamento distribuído para criar uma solução de baixo custo, principalmente com poucos recursos, baixo desempenho, e que são altamente dependente da rede (impactos de latência / performance limites). Em suma, a única característica aqui é de R $ / GB. Estes são tipicamente os clientes estabelecidos tamanho de dados menores ou aqueles que estão apenas começando a "chutar os pneus" e ainda não comecei a olhar para o resto dos impactos econômicos.


Esse é o longo caminho de dizer que a inovação e dar resposta às necessidades de negócios é a resposta para os US $ / GB corrida para o fundo.







via Alimentação (Feed) http://ift.tt/12m2q12

segunda-feira, 1 de dezembro de 2014

Monstro japonês manifesta novo poder petaflop


Controle remoto para desktops virtualizados


ATERUI supercomputador do Japão teve sua capacidade duplicada, levando o Observatório Astronômico Nacional (NAO) do Japão para afirmar que é atualmente palavra é a instalação de HPC astronômico poder mais.


No Centro do Japão de Astrofísica Computacional, ATERIU já era uma máquina top-100, mas o NAO diz o de substituição de CPU tirou de 502 teraflops de 1,058 petaflops.







A Cray XC30 anteriormente operado em Intel Xeon E5-2670 CPUs, que foram trocados por E5-2690s. Isso elevou os núcleos-por-CPU de oito para 12, triplicando o desempenho de cada nó de 332 gigaflops 998 gigaflops. Memória por nó também foi duplicada a partir de 64 GB a 128 GB.


A atualização deixar a instalação de reduzir o número de gabinetes de oito para seis, enquanto ainda aumentando o número total de núcleos de 24.192 para 25.440.


ATERUI fornece uma análise astronômico e simulação. Exemplos do NAO fornece para o sistema incluem a simulação da física de alta energia que são observadas em supernovas e estrelas de nêutrons binários.


A potência extra e memória também significar o super será capaz de executar simulações em maior resolução, dando insights sobre a estrutura fina de objetos celestes. ®







via Alimentação (Feed) http://ift.tt/1yEY41q

quarta-feira, 26 de novembro de 2014

NSF vai nublado com US $ 16 milhões de super financiamento


Top 5 razões para implantar VMware com Tegile


As conexões mais gordo do que a gordura fornecidos por ESNet da América para sua comunidade de pesquisa está prestes a permitir uma abordagem supercomputação mais nebuloso para os investigadores, com a National Science Foundation de lado a criação de US $ 16 milhões na construção de novas instalações em Indiana e Texas.


De acordo com a National Science Foundation (NSF) anúncio , as instalações - "Pontes" no Pittsburgh Supercomputing Center e "Jetstream", que será dividido em Instituto de Tecnologia Pervasive da Universidade de Indiana e da Universidade do Texas em Texas Advanced Computing Center, em Austin - são concebida para "criar um ambiente mais inclusivo para a ciência e engenharia".







A compilação de supercomputação nuvem, Jetstream, permitirá que os usuários criar VMs na infra-estrutura e é projetado para atrair pesquisadores em biologia, ciência atmosférica, astronomia e ciências sociais que ainda não tenham tido acesso HPC.


Jetstream é obter US $ 6,6 milhões, e, assim como as duas universidades que sediarão a infra-estrutura, que será apoiado por Universidades de Chicago, Arizona, da Universidade do Texas, em San Antonio, Johns Hopkins University, da Pennsylvania State University, Cornell University , Universidade de Arkansas em Pine Bluff; Universidade do Havaí; Nacional de Neve e Gelo Data Center, o Instituto Odum da Universidade da Carolina do Norte e do Centro Nacional de Apoio à Análise do genoma.


A agência diz que a máquina Bridges, que é obter US $ 9,6 milhões, será construída em torno de velocidade de interconexão ao invés de desempenho de ponto flutuante. Isso, diz, vai fazer a máquina adequada para cargas de trabalho em que o volume de dados é o desafio: genética, ciências naturais e as ciências humanas.


"Os usuários com diferentes escalas de dados também será capaz de usar uma combinação de memória, largura de banda de dados e poder computacional personalizado para o seu problema", afirma o anúncio.


As duas instalações são esperados para entrar em produção em 2016. ®







via Alimentação (Feed) http://ift.tt/1yjDS5b

quarta-feira, 19 de novembro de 2014

Astro-boffins começar a abrir os dados de simulação universo


Escolhendo uma nuvem de hospedagem parceiro com confiança


O Projeto illustris, uma simulação universo escala criado em 2013 pelo MIT e revelou maio 2014, está agora a oferecer seus primeiros produtos de dados como downloads para pesquisadores.


A simulação cosmológica em larga escala de formação de galáxias, como ele descreve a si mesmo, tem a metade de um petabyte contendo 12 bilhões de pontos de resolução e em uma corrida cheia irá mapear a criação de 41 mil galáxias.







Não é preciso ser um Big Bang ponto de partida, como o projeto explica, mas abrange o período a partir de quando o Universo tinha 300 mil anos de idade até o presente momento. Entre outras coisas, o projeto tenta colocar universo bastante em um supercomputador para modelar não apenas como as estrelas e as galáxias se formam, mas também a distribuição de matéria escura para ajudar os astrofísicos em sua busca para o material que compõe a maior parte do "real" * universo.


Os dados desta semana de lançamento é parte de um lançamento em que o Projeto illustris espera liberar todos os seus produtos de dados até o final do Q1 2015, começando com imagens derivadas.


O projeto observa que mesmo os produtos derivados deve ser rico o suficiente para atender muitos objetivos científicos. Por causa do tamanho rápido dos snapshots completos - centenas de terabytes - para que a liberação "ainda estamos avaliando as opções". Entretanto, delimitada sub-regiões estão a ser explorado como uma opção.


As inscrições para o acesso a dados estão abertas aqui . ®


* Bootnote: presumindo, é claro, que não estamos vivendo em um holograma de nós mesmos. ®







via Alimentação (Feed) http://ift.tt/1uM3eYq

Magnus do IVEC trava Top 50


Top 5 razões para implantar VMware com Tegile


O Centro de Supercomputação Pawsey é todos os sorrisos após o anúncio SC14 que seu ferro Magnus atualizado aterrou no topo do mundo cinqüenta supercomputadores.


A Cray XC40 baseado em Haswell 35712-core rachado 1097 teraflops no benchmark Linpack, que colocá-lo na posição 41 na lista .







No final de setembro, os gestores da máquina alocados os primeiros 90 milhões de CPU-hora.


Magnus é um pedaço de oito armário de ferro, cada um com 48 lâminas de quatro nós que executam Áries de interconexão da Cray e conectado a Sonexion 1.600 aparelhos de armazenamento. Sua posição no top 50 faz o super o mais poderoso do hemisfério sul.


Da China Tianhe-2 ainda mantém o primeiro lugar, seguido por Titan da América em Oak Ridge, do DoE Sequioa, o computador K no Instituto Riken do Japão, e Mira do Argonne National Laboratory completando os cinco primeiros.


O número dez na lista fornece o mundo com um enigma Abutre do Sul é certeza que vai inspirar os nossos commentards: é um Cray executado pelo governo dos EUA, mas sua agência e localização não são divulgados. ®







via Alimentação (Feed) http://ift.tt/1xVg8E8

terça-feira, 18 de novembro de 2014

Seagate e SGI amigo até flog grandeza HPC para as grandes empresas


Controle remoto seguro para desktops convencionais e virtuais


Seagate assinou SGI para revender seu supercomputação ClusterStor e grandes matrizes de dados.


SGI agora vai revender o ClusterStor 1500, 6000 e 9000 produtos ea Data Appliance Seguro (SDA) com seu protocolo de autenticação de rede Kerberos para ativar a criptografia de chave simétrica.







Concorrente SGI Cray OEMs matrizes ClusterStor em sua Sonexion gama.


Seagate e SGI afirmam potenciais clientes para a engrenagem ClusterStor incluem "bioinformática, descoberta farmacêutica, modelagem de petróleo e gás, análises financeiras, simulação do clima, automotivo e aeroespacial de fabricação, bem como clientes de HPC tradicionais na pesquisa acadêmica e do governo".


ClusterStor 1500

ClusterStor 1500



Não há nenhuma menção de SGI tomando a solução projetada para ClusterStor Lustre (CSESL). ®







via Alimentação (Feed) http://ift.tt/1EWdP4a

HPC BODs dança para 68 novos Top500 bate em Nova Orleans mostra


Controle remoto seguro para desktops convencionais e virtuais


SC14 O SC14 supercomputador show em New Orleans viu Intel Xeon recebendo seus ganchos, Phi e Lustre em muitos fornecedores, a IBM empurrando suas credenciais poder e ARM de pancadas lá também.


Não havia nada de dramático, computação exascale ainda não ter sido alcançado, mas uma série de melhorias incrementais.







A lista Top500 novembro 2014 tem 68 novos sistemas listados, com um total de 23.144 mil núcleos implantados, 11,7 por cento a mais do que há um ano. Petafloppage total é de 308,9 petaflops, 23,5 por cento a mais do que há um ano, e 50 sistemas têm mais de 1 petaflop de performance (havia apenas 37 de um ano atrás).


Os novos sistemas incluem 32 da HP, 13 de Cray e três da IBM. Stifel Nicolaus MD Aaron Rakers acredita que este destaca "deslocamento competitivo da IBM no setor de supercomputação."


Ele produziu um gráfico mostrando Cray a aproximar-se com a IBM na área de Top100:


TOP500_Cray_Vs_IBM_cores

Stifel Nicolaus gráfico.



DataDirect Networks é uma das muitas empresas que trabalham com a Intel e desenvolveu seu aparelho EXAScaler Lustre com mais 4.8PB de armazenamento utilizável usando unidades de disco 6 TB, 100 MB / seg sustentado escalável desempenho por unidade, até 40 GB / seg sustentado taxa de transferência e até 1,5 milhões de IOPS.


DDN vangloria-lo desempenho metadados Lustre, acima de 100.000 habitantes arquivo cria por segundo. Ele usa um cliente v2.5 Lustre e tem suporte para dual-rail InfiniBand. O Lustre é Engineered Edição da Intel para Lustre Software -pode dizemos IEELS? EXAScaler pode usar produtos SFA12KX backend e armazenamento SFA7700X do DDN.


Xeon E7 die

Parte do Intel Xeon E7 v2 die



Cray está olhando para usar processadores ARM de 64 bits e outras tecnologias de processamento a alimentação e eficiente em termos de desempenho, tais como ASICs personalizados e de baixa potência processadores Intel, por seus supercomputadores e sistemas de análise de dados. Tem um contrato para fazer isso a partir do Office of Science ea Administração Nacional de Segurança Nuclear do Departamento de Energia dos EUA sob um programa chamado FastForward 2.


Ele também está trabalhando com Cavium para entregar conjuntos de Cray baseados em ARMv8 Data Center 48-core de trabalho otimizados para carga ThunderX de 64 bits da Cavium e processadores nuvem para analisar a utilização ARM em supercomputação.


Poder-eficiência é importante para a computação exascale, de acordo com uma citação em conserva da ARM CTO Mike Muller: "Planejamento para computação Exascale apresenta alguns desafios poder significativo para esta indústria ... ARM recebe pesquisa pioneira da Cray para explorar como a tecnologia ARM de 64 bits pode melhorar o desempenho densidade para as plataformas de supercomputação futuras. "


Cray ganhou um contrato de US $ 80 milhões para fornecer o rei Abdullah University of Science and Technology (KAUST) na Arábia Saudita, com vários sistemas de computação, armazenamento e análise Cray:



  • Supercomputador XC40 com tecnologia DataWarp, chamado "Shaheen II" e 25 vezes mais potente que seu sistema atual.

  • Sonexion sistema de armazenamento de 2000.

  • Cray camadas Adaptive armazenamento do sistema (TAS).

  • Urika-GD analytics gráfico aparelho.







via Alimentação (Feed) http://ift.tt/14EUjya

Multi-petabyte feitiçaria aberto: armazenamento Spell-obrigatório


Guia do Iniciante para certificados SSL


Misturando petabytes de dados e armazenamento de código aberto usado para ser o reino da boffins acadêmicos com pouco dinheiro que não se importavam sujando com magia software.


A necessidade de analisar milhões, bilhões, mesmo, de registros de eventos de negócios armazenados como informação não estruturada em matrizes de classe multi-petabytes de armazenamento comum faz parecer brincadeira de criança. Ele também aumenta drasticamente os custos de armazenamento, tanto que o software necessário para gerenciar e acessar os dados torna-se extremamente caro demais.







Este é um jogo totalmente novo para que você precisa ser claro sobre o que você pode usar tecnologias, de sistemas de hardware / software extremamente rápido integrados em uma extremidade do espectro para JBODs baratos (apenas um monte de discos) e software livre na outra .


O software livre pode custar nada para começar, mas tem de ser implementada, implantada e apoiada, e os custos, em seguida, começar a montar-se.


Os problemas básicos são escala e velocidade. Em teoria, você pode adicionar centenas de prateleiras para um controlador duplo para atingir a capacidade petabyte mas a cabeça de dois controlador seria um potencial ponto de estrangulamento. Milhões de OI poderia fila para passar por um par de controladores que podem lidar com apenas centenas ou milhares de baixas solicitações por segundo.


Velocidade só pode ser adquirida por ter um meio de armazenamento mais rápido, como o flash, ou multiplicando os controladores para que possam operar em paralelo.


Ter um flash de tudo, array multi-petabyte custaria tanto quanto o produto interno bruto de um país pequeno por isso não vamos olhar para isso mais. Por isso, tem que ser rígido - Fita sendo extremamente lentos em comparação com o disco para os pedidos IO aleatórios esperados - e tem de haver vários controladores de uma forma ou de outra.


À primeira vista, as opções que temos são o armazenamento de objetos, com cálculo (controlador) de recursos por nó, uma configuração em cluster matriz de armazenamento da NetApp como cluster ONTAP, ou um sistema de arquivos modificados que podem fornecer pistas múltiplas de acesso.


Seis alternativas básicas vêm à mente:



  • NFS Paralelo

  • IBM Elástico de Armazenamento

  • DDN e Scaler Web Object (WOS)

  • Seagate / Xyratex e Lustre

  • Red Hat e Gluster

  • Ceph


pNFS, GPFS e WOS


NFS Paralelo, devidamente NFS 4.1, é o clássico Network File System atualizado para fornecer acesso paralelo. Computação de alto desempenho (HPC) é um fornecedor Panasas proponente desta, e outros fornecedores, como a NetApp tem sido favorável. A norma está sendo desenvolvido, mas adoção generalizada não aconteceu. O veredicto é que pNFS é imaturo.


Da IBM Elastic armazenamento é a sua GPFS (General Parallel File System) rebatizada e desenvolvido para uso em nuvem e estilo. Ele certamente pode ser escalado para as capacidades necessárias, e como é suportes paralelos acesso simultâneo por vários hosts. É um produto IBM com tudo o que significa em termos de qualidade de produto, suporte - e lock-in.


DDN oferece sistemas de armazenamento multi-petabytes com hardware e software integrado. Estes são projetados para supercomputador e HPC trabalho e estão a ser estendido para ambientes grandes de dados empresariais high-end.


O vendedor tem uma oferta WOS, que teve recentemente uma interface S3 adicionado para que ele possa integrar-se com o armazenamento em nuvem da Amazon. Com suporte para mais de 5.000 sessões simultâneas e mais de cinco bilhões de objetos armazenados em um único namespace global, que certamente tem a escala necessária.


Como Elástico de Armazenamento da IBM que tem o apoio de implantação e produto de qualidade associado a um produto de propriedade do fornecedor, mas também representa um potencial de lock-in e despesa.


DDN WOS7000

DDN WOS 7000E



Existem outras possibilidades de armazenamento de objetos, tais como Amplidata, Caringo, Cleversafe, Scality e outros, que podem corresponder a escalabilidade do WOS, mas não necessariamente a velocidade do DDN "s hardware e software integrado.


Gluster e Lustre


Para ser livre de software lock-in você tem que olhar para os produtos livres ou de código aberto, o que nos leva a Lustre, Gluster e Ceph.


Lustre (o nome é derivado do Cluster Linux) é um sistema de arquivos distribuídos acesso paralelo usado em ambientes de supercomputação. É abertamente disponível software, não-proprietária distribuídos através de uma licença pública geral GNU.


Recentemente adquiridos da Seagate Xyratex fontes do negócio ClusterStor matrizes executam Lustre. Isso libera você de lock-in para um fornecedor único de software com o produto integrado com hardware e apoiada por um único fornecedor, como os fabricantes de equipamentos Cray o produto para suas matrizes Sonnexion. Intel também tem um envolvimento do brilho, com uma conexão de Hadoop.


ClusterStor 1500

ClusterStor 1500



Ele tem uma loja de objeto e pode usar o ZFS como um sistema de arquivos de back-end. O software suporta o armazenamento multi-petabyte com acesso a clientes chegam a dezenas de milhares de pessoas, e mais de um Tbps de rendimento geral de I / O. Os clientes acessar dados em um armazenamento de objetos distribuídos mediada através de servidores de metadados separados.


As empresas necessitam de estilo HPC acesso a dados não estruturados deve tê-lo em sua lista.


Open-source Gluster, promovido nos dias de hoje pela Red Hat, é outro candidato. Seu nome é uma palavra-valise, derivado do GNU e cluster.


Baseia-se nós de servidores, cada um com seu próprio armazenamento de conexão direta, ou mesmo uma SAN. Os nós de existir em um único namespace e operar em paralelo para fornecer a velocidade necessária; replicação de dados entre os nós fornece alta disponibilidade. Cluster pode ser implantado totalmente na Amazônia, usando seu EC2 (Elastic Compute Cloud) casos e EBS (Elastic Block Storage).


Ceph


Ceph, em homenagem cefalópodes, como o polvo com as pernas ativos simultaneamente, é também software open-source. Apresenta arquivo, bloco e armazenamento de acesso objeto de um cluster distribuído de nós de armazenamento de objetos.


Não há nenhum ponto único de falha; mesmo os servidores de metadados do componente estão agrupados, enquanto a replicação garante a disponibilidade dos dados. Ceph é auto-cura, arquivos listras através de nós para melhor desempenho, roda em hardware commodity, e pode ser escalado para o nível exabyte (1,000PB). Ele é projetado para não fazer novas exigências de gestão do sistema, ou os orçamentos dos clientes.


Vantagens do Ceph incluem sua escala exabyte fornecendo headroom capacidade e acesso de três vias via arquivos, blocos e objetos. Ele foi concebido por Sage Weil, da Universidade da Califórnia, Santa Cruz e quando Weil formou em 2007 ele montou InkTank (outra referência polvo) para entregar Ceph serviços profissionais e suporte.


Red Hat tem um interesse Ceph como ele adquiriu InkTank em abril. Em Maio, o sexto maior lançamento do Ceph, chamado Firefly, chegou, acrescentando codificação de apagamento e de outros recursos. Software Ceph também faz parte do projeto OpenStack, através do qual as organizações de TI podem criar ambientes de nuvem privada e pública


Ceph tem um algoritmo CRUSH (replicação controlada sob hashing escalável), que determina como os dados são armazenados e recuperados. Ele funciona com uma distribuição (ponderada) pseudo-aleatório e uniforme e é capaz de estabelecer uma repartição homogênea de dados entre todos os discos e nós disponíveis.


A adição de novos dispositivos (HDDs ou nós) não tem impacto negativo sobre o mapeamento de dados, e novas unidades e nós podem ser adicionados sem criar gargalos de acesso ou pontos quentes, tornando o gerenciamento do sistema muito mais fácil.


Esta é uma conta simplificada. Qualquer Ceph, Gluster ou Lustre implantação é altamente complexo e merece um estudo mais aprofundado para decidir qual é o mais adequado para suas necessidades, se você for um usuário OpenStack, nuvem, TI e fornecedor de serviços de telecomunicações, transmissão de mídia de negócios, organização financeira ou do setor público com cresce lojas de documentos digitais, ou um negócio high-end com aplicações de análise / grandes de dados.


Opções de código aberto


Com o software de código aberto tais usuários podem implementar sistemas utilizando-se comprados separadamente hardware, servidores e armazenamento, por exemplo, e engrenar de software e componentes de hardware juntamente com o apoio de um departamento de TI qualificado.


Não há lock-in em todo este caso, mas a implantação do sistema, gestão e carga apoio é claramente na extremidade superior da escala.


Em alternativa, pode integrar um fabricante de software e hardware e fornecer sistemas acabados, bem como apoiá-los. O uso básico de Ceph significa que, em qualquer ponto do cordão umbilical pode ser cortado e você pode ligar para um fornecedor substituto ou escolhe-self-service completo em vez.


ETERNUS_CD10000

Eternus CD10000



Da Fujitsu Eternus CD10000 é tal produto de um fabricante. Baseia-se em nós de armazenamento com servidores de classe empresarial x86 e suporta até 224 nós de armazenamento em racks de 19 polegadas padrão para alcançar uma capacidade de até 56 petabytes - não tanto quanto 1EB possibilidade de Ceph, mas certamente em dezenas de petabytes área.


O CD10000 tem nós que podem ser vistas quase que arrays de armazenamento, com acesso aos seus conteúdos referenciados através de servidores de metadados sob o controle de um sistema de gestão central.


Os nós têm uma rede de interconexão de alta velocidade, 40Gbps InfiniBand. É usado para uma rápida distribuição de dados entre os nós e para reconstruir um jejum de redundância de dados depois de falhas de hardware.


Existem três tipos de nó de armazenamento. O primeiro é um nó básico com 12.6TB de armazenamento bruto de unidades de disco SAS 16 900GB 2.5in 10.000 rpm, auxiliados por uma PCIe unidade de estado sólido (SSD), ambas impulsionadas por software nó executando em dois processadores Intel Xeon e 128 GB RAM.


A capacidade utilizável depende do número de réplicas de dados necessários, por exemplo, dois ou três. Há dois links de 40 Gbps InfiniBand para outros nós mais dois links de acesso front-end 10GbitE.


Os SSDs são usados ​​para acesso rápido de jornal e metadados e eles também funcionam como um cache de dados, o que evita a latência na arquitetura de armazenamento distribuído.


Os clientes podem ter nós de maior capacidade e nós de desempenho ainda mais elevados.


Um nó de capacidade de armazenamento utiliza 60 unidades de disco SATA 3.5in 7.200 rpm de velocidade média, mais 14 900GB drives SAS para fornecer 252.6TB de capacidade bruta. Nós de desempenho de armazenamento mais rápido são escolhidos, onde o acesso aos dados é uma prioridade. Eles têm um mix de mais rápido 10.000 rpm 2.5in discos SAS e dois SSDs PCIe ainda mais rápidas para fornecer 34.2TB de armazenamento bruto no total.


DIY ou uma alternativa contratada


Fujitsu fornece manutenção e suporte para o sistema todo, hardware e software, com atualizações e service packs para o desenvolvimento pós-compra. Isto oferece um meio-termo entre do-it-all-yourself, hardware originado separadamente e software open-source, por um lado, ea abordagem de hardware e software integrado de propriedade de outro.


Ceph, Lustre e Gluster tudo livrá-lo de software lock-in e deixá-lo passar de uma plataforma de hardware, uma vez que utilizam componentes de commodities, como servidores x86, mas ainda fornecer o suporte de serviço completo, uma garganta para-choke que irá atender clientes não desejando ou capazes de fazer tudo sozinhos.


Lustre e Gluster têm seus pontos fortes de acesso a arquivos, mais as vantagens objeto de back-end de ser escalável e auto-cura. Ceph tem escala essas vantagens muito mais ao nível exabyte, e fornece arquivos, bloco e de acesso a objetos.


Para obter os benefícios do código aberto que você tem que ligar-se a uma escolha única de software de armazenamento. Depois disso, você pode decidir sobre o total do-it-all-yourself aproximar ou pagar um fornecedor para segurar sua mão e fornecer o mesmo tipo de implantação e suporte que você obteria com hardware proprietário e software como o da IBM Elástico de Armazenamento ou WOS do DDN .


Você precisa de magia hábil para construir multi-petabytes repositórios de armazenamento de armazenamento de software open-source. Empregá-los diretamente ou acessá-los através de um fornecedor: a escolha é sua. ®







via Alimentação (Feed) http://ift.tt/1yP3sx5

segunda-feira, 17 de novembro de 2014

Nvidia Tesla dobra grunhido em SC14


Arrays de armazenamento Flash Inteligente


SC14 eye-catcher da Nvidia é o próximo incremento em seu acelerador de GPU HPC, a Tesla K80.


O sucessor do Tesla K40, o K80 é lançado como double-seu-tudo: o dobro do desempenho e duas vezes a largura de banda de memória. Sem surpresa, a empresa calcula que sua meta será de análise de dados e aplicações de computação científica (que além de mineração Bitcoin são os alvos de ameixa para HPC acelerada por GPU).







O K80 reivindica 8,74 teraflops de precisão simples e 2,91 teraflops de precisão dupla. Cada placa tem duas GPUs, 24 GB de memória GDDR5 (12 GB para cada GPU), e 480 gigabytes / segundo de largura de banda de memória. Há 4.992 núcleos CUDA, GPU e impulsionador da NVIDIA (overclock para boffins) e apoio paralelismo dinâmico.


Nvidia é uma das empresas para lançar suas novidades para o Departamento de 2,017 regulares Summit e Serra monstros de energia, que vai queimar ao longo de 100 petaflops e até 300 petaflops respectivamente .


Nesse contrato de US $ 325.000.000-plus, a Nvidia irá fornecer a aceleração GPU para máquinas baseadas em servidores Power da IBM.


A empresa ganhou recentemente uma doação de US 18 milhões dólares do Departamento de Energia para prosseguir a investigação exascale, no âmbito do programa do DoE FastForward 2. O DoE distribuiu um total de US $ 100 milhões na última rodada de financiamento, com o objectivo de criar um sistema de escala exa em 2020 com o orçamento energético ambicioso de apenas 20 MW. ®







via Alimentação (Feed) http://ift.tt/14C5Ga6

Intel declara guerra a InfiniBand


Controle remoto para desktops virtualizados


Não é nenhuma surpresa quando a Intel anuncia uma nova arquitetura de processador - que é o seu jogo principal, depois de tudo. No entanto, juntamente com chips Ponte do Cavaleiro divulgados no SC'14, a empresa parece ter declarado guerra ao mainstream HPC, anunciando uma arquitetura Comms ópticos projetado para competir com InfiniBand.


A Arquitetura Omni-Path é uma interconexão HPC óptica que considera isto Chipzilla pode bater atual latência InfiniBand interruptor por 56 por cento, enquanto operando a uma velocidade de linha 100 Gbps, apoiado por um chip switch de 48 portas (em relação ao atual 36 porta InfiniBand silício).







Omni-Path move on-silício tecnologia fotônica da Intel para o mainstream HPC - ou, pelo menos, é isso que a Intel espera que ele vai fazer - e mantém a compatibilidade de aplicativos com arquitetura baseada em TrueScale InfiniBand da empresa.


Para apoiar a tentativa de dominar o mundo, Omni-Path é suportado por um tecido Builders ecossistema . Até agora, os membros incluem TE, Altair, Brilhante Computing, Ansys, E4, ESI, FlowScience, Ícone, MSC Software, Red Hat e SUSE.


O novo tecido é projetado para suportar os três teraflops Knights Landing, devido na segunda metade de 2015, que avalia a Intel vai apoiar mais de 3 teraflops em um único pacote. A próxima geração da sua gama Xeon Phi, a 10nm Knights Landing já foi assinado em negócios como o de Los Alamos / Sandia Trindade e máquina Cori do DoE.


Há também uma nova versão do seu software Lustre (Enterprise Edition e Fundação Edition). O sistema de arquivos Lustre já é o transporte na Dell, Redes de Dados diretos e Dot Hill kit. ®







via Alimentação (Feed) http://ift.tt/1ETNyDH

Bod HPC SGI racks de cérebros UV, chega a 30 MEEELLION IOPS


Controle remoto seguro para desktops convencionais e virtuais


Como é que 30 milhões de IOPS de um servidor grab 32-socket você?


Aprendemos SGI tomou seu servidor 300H UV, usado em sua "UV para SAP HANA" do produto, e impulsionou o seu desempenho com 64 DC Intel P3700 SSDs , que usam a interface NVMe.







A equipe que trabalha nesta inclui adquiridos da SGI Starboard armazenamento engenheiros. Starboard estava desenvolvendo sistemas de armazenamento híbrido arquivo / bloco unificado antes que ele caiu e foi esvaziado pela empresa HPC.


Há também um novo sistema de UV 30. SGI agora tem quatro "Ultraviolet" produtos scale-up UV servidor:



  1. UV 2000 - uma até 256 socket, 2048 núcleo do sistema com, memória cache global coerente compartilhou uma imagem de sistema único em. Ele usa a interconexão NUMAlink.

  2. UV 300 - com base na 300H UV tal como utilizado no SGI UV para SAP HANA produto. É um sistema único nó baseado em Xeon E7 8890 v2 processadores 15-core, escalável até 32 soquetes (480 núcleos) e 24 TB de memória compartilhada coerente usando DIMMs de 32GB.

  3. UV 30EX - um servidor de quatro soquetes fornecendo até 3 TB de memória em poder de computação. Atualizável para o UV300.

  4. UV 20 - um servidor de quatro soquetes, 48-core usando QuickPath da Intel.


USGI UV 2000

SGI UV 2000



O 30EX UV e 300 sistemas são projetados para análise de dados complexos, visualização e streaming em tempo real. O UV 30 pode substituir o sistema existente UV 20.


O UV 300 desenvolvido executa um único SUSE ou Red Hat Linux instância e tem a capacidade de adicionar Xeon Phi co-pricessors ou NVIDIA aceleradores de GPU. Ele usa tecnologia de sétima geração NUMAlink ASIC para interligar os componentes de memória.


Estamos informados de que pode alcançar perto de 30 milhões de IOPS (4K leituras aleatórias) e 200 GB / s de largura de banda (128K leituras aleatórias). Estamos informados de que há um pouco de trapaça envolvendo otimizações NUMA. Sob o capô, isso aumenta o desempenho a partir de um nível de base de 20 milhões de IOPS / 150GB / s.


Os cartões NVMe tem uma tecnologia múltipla fila. Soquetes de processador pode enviar solicitações de I / O e, em seguida, eo processo interrompe de forma independente. Isso exigiu algum trabalho motorista.


Uma vertente de pensamento entre os engenheiros que trabalham com isso é, entendemos, para ter um armazenamento de backup, talvez usando unidades de disco com telhas em JBODs, empurrando para fora 15-20GB / seg de acesso linear em toda a JBODs, proporcionando assim um flash híbrido / disco sistema com a velocidade perto-flash habitual no próximo disco-preços vantagem. Tal sistema híbrido pode ser relativamente fácil de implementar, pois não há interruptores, matrizes ou HBAs - exceto para o armazenamento de backup (tier 2).


Aqui, novamente, vemos a tecnologia estilo de computação de alto desempenho numa posição favorável para a empresa grande de mineração de dados e de análise. A capacidade de mastigar por vastos conjuntos de dados em tempo real aumentaria a produtividade de cientistas de dados e permitir a análise em tempo real.


Nosso palpite é que se SGI oferece uma tal UV 300 produtos melhorada, que vai custar muito mais do que US $ 100.000. Você deve ser capaz de ver este conceito 300 UV no show de super computação - SC14 - em Nova Orleans nesta semana.


O UV 300 e UV 30EX estão disponíveis para encomenda e começar a ser comercializado antes do final do ano. ®







via Alimentação (Feed) http://ift.tt/1ulzTSY

Cray ergue-se ainda mais poderoso Sonexion, Lustre-ous 2000


Escolhendo uma nuvem de hospedagem parceiro com confiança


Cray atualizou sua scale-out, acesso paralelo, Lustre-usando um array Sonexion com o que ele chama o produto de "2000" - fornecendo 50 por cento mais capacidade e desempenho do que o produto anterior 1600 na mesma pegada.


O 2000 oferece mais de 45GB / s de largura de banda para um cluster Linux usando Cray Cluster Connect, e tem 2PB de capacidade utilizável em um rack. O indivíduo SSUs agora podem armazenar até 360TB cada um usando unidades de disco SAS de 7,2 K 6 TB.







Teoricamente, pode ser escalado para mire de 1.7TB desempenho / s em um único sistema de arquivos


Não é o que é chamado de um esquema de proteção de paridade agrupado-de, Grelha RAID, que reconstrói os discos até 3,5x mais rápido que RAID6.


Sonexion 2000 pode usar Lustre HSM e instalações de movimentação de dados em Lustre usando camadas Adaptive Armazenamento Connector da Cray para Linux.


Cray diz o Centro Nacional Suíço de Supercomputação, do UK Met Office Los Alamos National Laboratory e do Laboratório de Pesquisas do Exército dos Estados Unidos já se inscreveram para o Sonnexion 2000.


Cray Sonexion

Cremalheira Sonexion



Seagate, que detém Xyratex, o construtor das matrizes ClusterStor em whivh Sonexion se baseia, deve estar muito feliz.


Concurso na área de muito alta gama capacidade é feroz. Fujitsu introduziu recentemente seu CD10000 baseada em Ceph . RedHat tem seu conjunto Gluster . Há também DDN , e IBM com o seu software de armazenamento elástico .


Obtenha uma folha de dados Sonexion 2000 (pdf) aqui e um folheto (pdf) aqui . ®







via Alimentação (Feed) http://ift.tt/1BIaGIS

quinta-feira, 13 de novembro de 2014

SALVAR ME, integrador de sistemas da NASA, do meu trabalho MORTOS


Top 5 razões para implantar VMware com Tegile


Blog HPC Quando passei uma das cabines no chão GTC'14 feira, de repente eu tinha a sensação persistente de que eu tinha perdido alguma coisa. Eu não conseguia descobrir o porquê, mas esta cabine particular era familiar.


Numa análise mais aprofundada, eu ainda não vi nada para explicar o meu sentimento. Eu não sabia que um dos caras que equipam a cabine, e os produtos dispostos em suas mesas não desencadear nenhuma lembrança.







Enquanto eu caminhava até conversar com os inspetores da cabine, tudo voltou para mim em um flash. Esses caras, AVA direta, tinha me socorrido de uma situação muito ruim, há quatro anos.


Minha filosofia do sistema e da Morte de Hydra1


Eu sou uma espécie de compulsiva especial quando se trata de meu sistema principal para uso profissional e doméstico. Desde que eu usá-lo para uma parcela tão grande do meu dia, eu quero ter certeza de que ele pode lidar com qualquer combinação de tarefas que eu poderia jogar nele.


Naquela época, meu primeiro negócio / computador pessoal home-construído, um líquido resfriado sistema dual-socket, tinha começado a fechar aleatoriamente para baixo. Não desligar, nenhuma tela azul, só um completo fracasso. A nova fonte de alimentação não faz nenhum bem. Finalmente, percebi que o conector de alimentação da placa-mãe era o problema.


A fim de obter o sistema para trabalhar em tudo, eu tive que recorrer a engenhocas exóticas usando clipes de papel, elásticos e laços zip, para manter o cabo de alimentação exatamente na posição certa. Finalmente, pouco antes de sair em uma longa viagem de negócios, ele falhou completamente. Hydra1 estava morto.


Minha busca pela perfeição - a um preço razoável


Eu tive que começar um novo sistema, pronto. E eu queria outra caixa poderosa, devido ao aumento da quantidade de edição de vídeo e outras tarefas que eu estava manuseio. Navegar na web, tornava-se evidente que os fornecedores de sistemas suspeito habituais não poderia me ajudar.


Claro, eles tinham estações de trabalho nos dois sentidos, mas havia sempre alguma "pegadinha" que os desqualificados para os meus propósitos. O maior problema foi encontrar um sistema que tinha ranhuras PCI2 x16 suficientes para lidar com placas de vídeo dual, bem como outros slots para minha placa de som, placa RAID, etc.


Um casal de muito high-end casas costume PC poderia unir o que eu queria, mas eu teria que pagar através do nariz para ele - embora, do lado positivo, eu pegaria um caso especial com os dragões sobre ele. Yay! E só custaria cerca de o dobro do que eu estava esperando para pagar ... duplo yay!


Então eu achei AVA Direct. Uma olhada no seu configurador me viciado. Deu-me uma grande variedade de placa-mãe, processador, memória, GPU, fonte de alimentação, movimentação, e O / S escolhas. Eu me tranquei no meu quarto de hotel e apareceu com o que eu achava que era o sistema perfeito para mim.


Antes de puxar o gatilho em meu pedido, enviei seu apoio técnico um e-mail pedindo-lhes para dar a minha configuração uma vez mais. Eles responderam com algumas notas e um convite para dar-lhes uma chamada para falar sobre isso - o que eu fiz, do aeroporto de Boston Logan durante uma escala.


Nós bateu para fora a configuração, colocado a ordem, e pediu-lhes para apressá-lo. Eu estava mais do que agradavelmente surpreendido com o preço razoável, e chocado que a caixa (e era uma caixa enorme) estava esperando por mim quando voltei para casa na próxima semana. O sistema funcionou fora da caixa e tem trabalhado fielmente desde então.


Todas essas memórias voltaram para mim como eu estava me apresentando e apertando a mão de Misha Troshin, um dos co-proprietários da empresa. Misha ficou surpreso quando ouviu minha história, ele raramente corre para compradores e usuários de seus equipamentos individuais.


Obsessivos bem-vindos, mas não como alvo de mercado


A maior parte dos negócios da empresa vem de organizações governamentais e empresas como a Boeing, NASA, CBS, o Exército dos EUA e similares. Nerds de hardware de retenção anal obcecado por hardware como eu são apenas um nicho, ao invés de um mercado vertical separado.


Eu tive uma grande conversa com Troshin, falando sobre o negócio, como a empresa constrói sistemas, e outros temas. Confira o vídeo e veja o que você pensa.


Youtube Video


Ele também me deu uma idéia: se algum de vocês se interessar um podcast (ou webcast), onde Troshin e eu gostaria de falar sobre o PC e / ou design de estação de trabalho?


Possíveis tópicos incluem "o máximo em estações de trabalho" ou "10 coisas que você pode fazer com um mini-PC" ou "o que você precisa em um home theater PC." Deixe-me saber se você acha que esses programas são uma boa idéia, ou se você ter outras idéias para potenciais tópicos. ®







via Alimentação (Feed) http://ift.tt/1xQhaiS

quarta-feira, 12 de novembro de 2014

Cry Havoc e deixou o deslizamento os cães de guerra de patentes! Samsung contra-ataca em Nvidia


Controle remoto seguro para desktops convencionais e virtuais


Samsung Electronics tem unidades de processamento gráfico contra-processou (GPU) fabricante Nvidia por alegada violação de suas patentes relacionadas com o chip.


Nvidia entrou com um processo de patente contra Sammy e semicondutores e gigante de tecnologia sem fio Qualcomm em setembro, alegando as empresas usaram sua tecnologia GPU patenteada sem compensação adequada.







Em comunicado, a Nvidia disse que "esperava" para ser processado em resposta à ação judicial original.


O tecnólogo sul-coreano também está processando a Velocity Micro, uma pequena empresa Virginian, disse Nvidia em um comunicado.


A ação da Samsung se concentra em oito patentes. Nvidia é acusado de ter violado seis. Velocity é acusado de ter violado todos os oito, disse que a empresa GPU.


Samsung também alega Nvidia falsamente anunciado seu tablet Escudo como "o mais rápido processador móvel do mundo". Samsung alega que seu processador Exynos 5433 é mais rápido em um par de pontos de referência.


Nvidia disse: "Nós ainda não estão prontos para responder formalmente a ação da Samsung Mas não podemos segurar sua tese de que do Samsung Galaxy Note 4 supera o tablet Shield.".


Samsung Electronics disse em um comunicado enviado por email à Reuters: "Estamos buscando medidas legais necessárias para defender os nossos direitos de propriedade intelectual e assegurar nosso crescimento contínuo no setor de TI." ®







via Alimentação (Feed) http://ift.tt/1oKnGrw

terça-feira, 11 de novembro de 2014

729 teraflops, 71.000-core Super custam apenas de US $ 5.500 para construir


Controle remoto para desktops virtualizados


CycleCloud ajudou disco rígido gigante empurrão Western Digital pena de simulações de um mês em oito horas em núcleos da Amazônia.


A carga de trabalho de simulação foi não-trivial: para verificar novos designs cabeça do disco rígido, a empresa executa um milhão de simulações, cada uma das quais envolvidas uma varredura de parâmetros de projeto 22 cabeças em três tipos de mídia.







Nesse contexto, a computação de HGST em casa tornou-se um gargalo sério, com cada simulação levando até 30 dias para ser concluído.


Assim, no que ele descreve como a maior corrida empresa nuvem até agora, CloudCycle girou-se quase 71 mil núcleos da AWS para uma corrida de oito horas.


CloudCycle afirma o cluster entregues 729 teraflops para executar MRM / MatLab app HGST sob o controle do software CycleCloud cluster de criação e sistema de automação Chef.


A roupa nuvem diz que girou o aplicativo a partir de zero a 50 mil núcleos em 23 minutos, e calcula que o prazo, apelidado de "Gojira", completou cerca de 620 mil horas de computação.


CloudCycle também apontou para o avanço em silício nos últimos 12 meses. A corrida Gojira, diz, correu 50 por cento melhor FLOPS por core Ivy Bridge do que do ano passado MegaRun, que girou até 1,21 petaflops para uma carga de trabalho de 18 horas.


Enquanto Gojira não torná-lo bastante para o Top 50 supers do mundo, que custam apenas um pouco mais de US $ 5.500. ®







via Alimentação (Feed) http://ift.tt/1wiImV4

segunda-feira, 10 de novembro de 2014

Converge ESTE: Rede titan Cisco sobre como VDI em 10 dias


Controle remoto para desktops virtualizados


Blog HPC Pensando em virtualização de desktops? Quer executar todas essas sessões em seu centro de dados e simplesmente transmitir a tela e interface do usuário para qualquer dispositivo que os usuários desejam?


Há uma grande quantidade de vendedores que estão lá fora olhando para facilitar sua mudança para VDI (infraestrutura de desktop virtualizado), ajudando a descobrir o quanto de servidor, armazenamento e rede que você precisa para fazer seus sonhos se tornarem realidade de desktop.







Na conferência NVIDIA GTC'14, passei alguns minutos com Tony Paikeday, Soluções Globais da Cisco levam para virtualização de desktop. Eu peguei a conversa em vídeo, é claro, que você pode ver abaixo


Enquanto Cisco é sinônimo de rede, principalmente nos falou sobre seus sistemas UCS e como a empresa está usando-os para conduzir sua iniciativa VDI. Como Paikeday apontou, a linha de produtos UCS foi projetado a partir do zero com a virtualização em mente, e da adição de NVIDIA Grade GPUs torna uma escolha natural para a plataforma host VDI.


Youtube Video


No vídeo, falamos sobre o desafio de oferecer desempenho suficiente para lidar com um grupo de trabalhadores de tarefas (não tão difícil), mas também como manter os usuários de energia feliz (não tão fácil). Descobrir que tipo de arquitetura que você precisa para suportar vários tipos de usuários é uma tarefa complexa.


A empresa desenvolveu um conjunto de projetos Cisco Validated que mostram as soluções da Cisco recomendados para pequenas, médias e grandes organizações, com sessões de desktop persistentes ou não persistentes.


Se você está procurando mais informações, você pode fazer download ou stream sessão GTC'14 VDI da Cisco. Aqui está o resumo:



Você pode encontrar a sessão on-line aqui .


Eu tenho que dar Paikeday um monte de crédito para furar ao redor e empurrando todo o caminho até o fim do show. Como ele e eu estávamos conversando, o show estava sendo levado para baixo em torno de nós. Todos os estandes estavam descendo tão rápido que eu no meio do caminho esperado alguém para vir e carregar ele em um carrinho de mão para o transporte de volta para Cisco HQ. ®







via Alimentação (Feed) http://ift.tt/1EkvlyP

Ace HPC grades vendedor sobre sabores de desktops virtuais: E sobre os usuários de energia?


Guia do Iniciante para certificados SSL


HPC blogue A idéia de que você pode executar um monte de sessões de desktop do usuário em servidores não é nova. Os benefícios prometidos pela virtualização de desktop são muito profundas, incluindo grandes reduções nos custos da empresa de tecnologia, melhor suporte para os usuários, a melhoria da segurança e até mesmo aumentou a felicidade do usuário.


Essa última promessa, a maior felicidade do usuário, tem sido difícil manter - especialmente quando você está lidando com "power users" que usam uma ampla gama de aplicações exigentes. Os centros de dados também iria ter problemas ao tentar escalar infra-estrutura de desktop virtual de forma eficiente e economicamente.







No entanto, os tempos mudam, e as novas tecnologias tem vindo ao longo para torná-lo possível, e muito mais fácil, para oferecer qualidade sólida de serviço área de trabalho para todos os usuários - independentemente de suas demandas.


Na Conferência de Tecnologia GPU 2014 (GTC '14), em San Jose, eu passei algum tempo no chão show com Geoff Murase (VMware gerente de produto do grupo), em abordagem VDI da VMware.


Youtube Video


No vídeo, falamos de "área de trabalho em uma nuvem" da empresa de serviços DaaS e seus planos de estendê-lo para nuvens públicas. Ela agora tem um novo mecanismo que suporta GPUs NVIDIA para proporcionar gráficos em 3D para os usuários, sejam eles em ambientes de nuvem pública ou privada.


É apenas um vídeo rápido bate-papo, mas se você quiser mergulhar nas entranhas de soluções de VDI da VMware, você pode conferir uma ou ambas as sessões GTC'14.




Você pode transmitir ou baixar estas sessões gratuitamente aqui .


Há muito mais conteúdo orientada para VDI de GTC'14, basta rolar a página no link acima para vê-lo. ®







via Alimentação (Feed) http://ift.tt/1u0HTdD

sexta-feira, 7 de novembro de 2014

Pimp my cluster HPC: núcleos gostoso, molho GPU, apps otimizados ...


Guia do Iniciante para certificados SSL


HPC blogue Você proxeneta para fora seu cluster HPC nova fantasia com a última tecnologia, cada nó preso às brânquias com brilhantes novas CPUs, grande quantidade de memória, e talvez até mesmo um duplo par de GPUs ou outros aceleradores.


O trabalho de instalação, e os usuários estão recebendo o seu primeiro tiro no sistema. O aumento de desempenho sobre a nova caixa é tão profunda que você está no meio do caminho esperando uma multidão de usuários de êxtase para içar-lo sobre os seus ombros e desfile ao redor do edifício. Enquanto você está sonhando longe em seu escritório, uma multidão de usuários estão se reunindo ... mas eles estão levando armas grosseiramente formado a partir de seus desktops.







Como você está sendo espancado na cabeça por um pós-doc empunhando um cartucho de toner usado, você encontrar-se perguntando se esta situação poderia ter sido evitada.


Parallelising código de usuário e, melhor ainda, ajudando os usuários a melhor parallelise seu próprio código, é a resposta. O código que é bem-comportado e se adapta bem a clusters menores podem ter um colapso nervoso em sistemas maiores.


Este é o lugar onde Allinea entra. Ele afirma que sua suíte de ferramentas faz com que seja mais rápido e mais fácil de desenvolver, depurar e otimizar o código que irá escalar de cluster menor armário para os maiores supercomputadores do mundo.


No GTC'14, passei alguns minutos com Beau Paisley do Allinea. Com experiência no mundo real em física aplicada em larga escala, a modelagem do clima, e processamento de imagem, Paisley sabe o que está falando quando se trata de fazer grandes sistemas de executar.


Youtube Video


No vídeo, falamos sobre os desafios da parallelising código e fazer o salto de agrupamento tradicional para sistemas híbridos. É uma conversa breve, mas de carne que vale a pena uma olhada.


A empresa também recebeu um par de sessões em GTC14 - aqui está uma olhada nos resumos:




Você pode encontrar essas sessões Allinea aqui . E se você está procurando ainda mais detalhes (que você não está sempre satisfeito?), Você pode conferir Allinea aqui . ®







via Alimentação (Feed) http://ift.tt/1pvjoFf

quarta-feira, 5 de novembro de 2014

Fujitsu ondas 50PB + MONSTER em aberrações armazenamento Hyperscale


Guia do Iniciante para certificados SSL


Fujitsu tem-se uma matriz de scale-out 50PB-plus para dados muito grandes, o CD10000.


Devidamente nomeado o CD10000 System Storage Hyperscale Eternus, a caixa usa Ceph, software de código aberto que apresenta arquivo, bloco e armazenamento de objetos de um cluster distribuído de nós de armazenamento objeto através do qual os dados são distribuídos. Teoricamente, Ceph pode escalar até 1 exabyte, para que haja muita sobra de capacidade.







Hardware-wise, o CD10K suporta 224 nós que vivem em racks padrão de 19 polegadas e se comunicam através de links dupla 40Gbit / s InfiniBand. Existem três tipos de nó:



  • Nó Básico - com 2 Xeon CPUs e 12.6TB capacidade bruta com 16 unidades x 900GB de 2,5 polegadas SAS 10.000 rpm disco e um SSD PCIe para armazenamento em cache, giro e metadados.

  • Nó Capacidade - com 252.6TB de capacidade bruta de unidades de disco SATA 60 x 3,5 polegadas 7.200 rpm, mais 14 unidades x 900GB SAS.

  • Nó de desempenho - com 34.2TB de capacidade bruta usando 10K rpm SAS eixos de 2,5 polegadas e PCIe SSDs.


Acesso front-end é através de um 10GbitE LAN e seus recursos podem ser acessados ​​através de KVM, Swift e S3.


A capacidade de utilização do sistema depende do número de réplicas de dados, dois ou três, por exemplo, criada para proteger contra perda de dados.


Não Ceph não usar RAID, que é uma coisa boa, com cerca de 13.400 unidades de disco em um sistema de 224-nó configurado para capacidade, como RAID reconstrói a partir de falhas de disco seria constantemente ocorrendo. A replicação é usada em vez e sistema de auto-cura e tem o tempo de inatividade zero de acordo com a Fujitsu. O nível de protecção pode ser aumentada mediante o aumento do número de réplicas, de um a dois para três ou quatro.


Fujitsu diz que a matriz pode durar um longo, longo tempo como componentes são atualizados com a tecnologia mais recente; novos nós podem ser trocados com os nós antigos restante ou ser aposentado. O software se encarrega de mover dados em torno de usar os novos nós.


A empresa diz que os clientes obter as vantagens de código aberto de baixo custo, desenvolvimento rápido e vantagens anti-bloqueio, tendo um único garganta para estrangular para manutenção e suporte end-to-end.


A empresa diz que está trabalhando com parceiros e clientes para adicionar aplicações do sistema para o CD10K tais como serviços de nuvem, sincronização de arquivos 'n partes, arquivamento e descoberta de dados iRODS.


ETERNUS_CD10000

Fujitsu Eternus CD1000



Este é um sistema de dados grande peso para os clientes com vastos repositórios de dados, tais como DEP, universidades, e instituições financeiras públicas com nuvem e nuvem escala projetos, empresas de telecomunicações e as empresas que adotam OpenStack - Ceph sendo o armazenamento de objetos do núcleo em OpenStack.


Fujitsu diz que o CD10K pode ser um único silo para agregar dados de bloco, arquivo e objeto e que ele está fazendo Ceph utilizável pelas empresas. Se você está olhando para os sistemas que usam Ceph, GPFS , Lustre, Gluster ou WOS do DDN, então o CD10K deve estar na sua lista de inspeção.


É possivelmente um dos sistemas de scale-out mais escaláveis ​​do planeta, certamente out-dimensionamento da EMC Isilon produto.


Configuração mínima do CD10K tem quatro nós. Ele terá capacidade de armazenamento de arquivos no início de 2015. Saiba mais a partir de um ângulo Gartner aqui (PDF) e consulte a documentação Fujitsu aqui . ®







via Alimentação (Feed) http://ift.tt/10lEnxS

segunda-feira, 3 de novembro de 2014

Por Seagate gastou US $ 374m em Xyratex: É parte de um sistema em nuvem


Controle remoto seguro para desktops convencionais e virtuais


Comentário Seagate recrutou um EVP para o seu negócio em nuvem e brilhou uma luz sobre onde esse negócio está indo.


O ex-bod Cisco Sri Hosakote junta (CSS) grupo de Sistemas de nuvem e soluções de Jamie Lerner como um EVP e relatórios de Lerner, que ingressou em fevereiro deste ano. Ambos são ex-Cisco, assim Lerner recrutou uma quantidade conhecida. Hosakote junta-se uma outra recente adição a esse grupo: Mike Palmer, que é um SVP (um degrau abaixo EVP), e gerente geral de soluções em nuvem.







Lerner diz: "Seagate é o único capaz de inovar em toda a pilha de infraestrutura de informação completa, a partir da mídia e dispositivos, aos gabinetes, para a camada de gestão, para o sistema operacional e sistema de arquivos."


Mas pilha completa ou não, não há nenhuma menção de computação ou de redes aqui, nenhum indício de convergência. Seagate vai estender a "inovação do dispositivo para a infra-estrutura da informação, tanto no local e na nuvem".


Ele será "ir além do nosso negócio levando unidade de disco para entregar sistemas de nuvem e soluções para fabricantes de equipamentos originais (OEMs) e" do-it-yourself organizações ".


Organizações de DIY? Soa como empresas.


Hosakote foi anteriormente vice-presidente sênior e gerente geral de comutação e plataforma sem fio grupo da Cisco cuidando lado da engenharia. No Seagate CSS, ele passará a gerir o negócio de sistemas, cuidando "a criação e entrega de Computação (HPC), soluções de alto desempenho e personalizado, sistemas em módulos para OEMs com ênfase em infraestrutura convergente".


Isso significa que ele recebe para supervisionar a gestão do ex-business Xyratex e sua equipe de engenharia.


Em outras palavras, ele é responsável pelo negócio de matriz Lustre-usando ClusterStor, que conta Cray como um OEM com suas matrizes de armazenamento Sonnexion. Pensamos Seagate vê ClusterStor como uma matriz em rede clássico e, no momento, não tem ideias de convergência.


No entanto, podemos esperar que ClusterStor vai fazer uma melhor utilização das possibilidades de gestão inteligente inerentes à sua utilização de unidades de disco da Seagate e, sem dúvida, a linha Pulsar de SSDs no futuro.


Também podemos perguntar-nos se a Seagate tem idéias de adicionar a sua linha de unidade de disco Kinetic a sua casa-em produtos de matriz? ®







via Alimentação (Feed) http://ift.tt/1x1QMTH

WHOMP, lá está ele: demos Seagate disco Kinetic


Escolhendo uma nuvem de hospedagem parceiro com confiança


Seagate está demonstrando sua unidade de disco Kinetic na cimeira OpenStack em Paris, alegando ter amplo apoio para sua proprietária, a tecnologia de uma única fonte.


Kinetic é uma unidade de disco dirigida diretamente sobre Ethernet usando comandos de armazenamento de objetos Obter e Colocar-estilo usando uma API de código aberto. A idéia é que os aplicativos podem usar diretamente os bancos destas unidades sem ter que passar por pilhas de software de sistema de arquivos complexos ou protocolos de acesso de bloco e controladores de array de armazenamento.







Seagate comercialização veep Scott Corno afirma prestadores de serviços em nuvem pode simplificar a infra-estrutura, melhorar a escalabilidade e reduzir os custos utilizando unidades cinéticos.


Seagate diz que sua unidade fantasia está recebendo apoio de várias empresas respeitáveis ​​como AOL, Sense Digital e HP.


Arquiteto-chefe da AOL para operações de armazenagem, Dan Pollack, desde a citação enlatados para Seagate, dizendo que a unidade "vai ajudar a AOL melhorar a eficiência do centro de dados, reduzindo o número de servidores necessários para armazenar dados para escala moderna de candidaturas" e vai melhorar o custo total de propriedade "ao armazenar os conjuntos de dados enormes exigidos por aplicações, enquanto simplificando o gerenciamento e reduzindo o esforço necessário para operar sistemas de armazenamento de dados confiáveis".


Terascale Kinetic

Unidade Kinetic debaixo das cobertas



Michael Tran, diretor de tecnologia da Digital Sense, desde sua citação enlatados também: "O TCO funciona incrivelmente Estamos vendo até uma redução de custos de 75 por cento, em comparação com os nossos sistemas de armazenamento atuais!".


Se você quiser ver as pequenas belezas que giram afastado dentro de seus casos, e também dentro de um Rausch fornecido Bigfoot JBOD, então trote junto às cabines D11 e E48, no Palais des Congres toda esta semana. ®







via Alimentação (Feed) http://ift.tt/1ulZ2QH

quarta-feira, 29 de outubro de 2014

IBM, afastando-se de hardware? NUNCA!


Guia do Iniciante para certificados SSL


HPC Blog Assim, parece que a IBM mudou suas Chipworks sobre a Globalfoundries, como descrito por Reg hackear Tim Worstall aqui . Mas quais são as implicações para o negócio de sistemas da IBM?


Concordo que a economia brutais e implacáveis ​​do negócio de chips forçou a mão da IBM aqui. Fabricação de microprocessadores é um empreendimento intensivo de capital enorme, com enormes custos fixos para os edifícios e equipamentos necessários a produzir novos brilhantes CPUs. Ele também custa muita massa para adquirir e sustentar as pessoas altamente especializadas que podem projetar e construir o corte de silício borda.







IBM Microelectronics só não fez, ou não, ter o volume para justificar o tipo de investimento em curso necessário para manter a correr na esteira processo. No ano passado, a divisão reservado um faturamento de cerca de US $ 1,4 bilhão, mas rendeu um prejuízo de US $ 700 milhões - o que é uma pílula amarga quando se consideram os futuros investimentos que serão necessários para se manter competitiva na corrida microprocessador.


O US $ 1,5 bilhão IBM estará pagando Globalfoundries (US $ 500 milhões em parcelas anuais) para fornecer a Big Blue com os processadores e outras coisas é uma pechincha comparado com o custo de se mover de seu processo de 22nm para 14nm atual e além.


Globalfoundries vai reservar cerca de US $ 10 bilhões ao longo do próximo ano em despesas de capital - o que mostra o quão caro é para competir na lateral do edifício de chips da indústria. Por sua parte, a IBM será ainda estar investindo US $ 3 bilhões em pesquisa de chip avançado ao longo dos próximos cinco anos, mas isso vai provavelmente acabar por ser um esforço cooperativo com Globalfoundries.


Um dos refrões constantes que notei na comentários discussão sobre a história de Tim Worstall foi que este movimento significa IBM está saindo do negócio de sistemas. Ao longo dos próximos anos, é supostamente vai cair tanto seu negócio de sistemas de mainframe e de energia.


IBM ... Sistemas de despejo? Realmente?


Eu não vejo isso.


Vendas de hardware da IBM ter diminuído, isso é certo. E eles provavelmente vai cair um pouco mais, pelo menos no curto prazo. No médio prazo, o negócio de mainframe vai continuar em praticamente o mesmo ritmo. Eles vão vender muita MIPs, mas as margens vão cair ao longo do tempo - o que é natural, dado que as alternativas de mainframe estão constantemente a melhorar. Mas eles não serão capturar um monte de novos clientes e cargas de trabalho com o mainframe.


A venda de seus negócios x86 para Lenovo IBM deixa de estável, com apenas um cavalo que pode andar no derby de vendas do sistema. Esse cavalo é Power8. (Eu acho que a sela e arreios é o hardware do sistema.)


Mas só porque a IBM apenas um cavalo deixou de andar, ele não faz necessariamente que um bom cavalo de montaria.


Poder vs x86


IBM tentou usar o poder para deslocar sistemas x86 antes. Com caixas de energia anteriores, a IBM teve desempenho e eficiência vantagens vs sistemas baseados em x86 comparáveis. Mas que a bondade veio com um custo.


Em primeiro lugar, você tem que executar sua variante UNIX comercial (AIX) e usar portas AIX de aplicativos populares. Se sua loja já não executar uma boa quantidade de Unix comercial, você provavelmente não estaria muito interessada em adicionar um novo o / s para o seu mix existente.


Você também pagaria mais tanto em termos de custos de aquisição e de serviços em curso. IBM diria que o desempenho superior, RAS e taxa de utilização de um servidor Power derrubou o TCO (custo total de propriedade) de matemática a seu favor, no entanto, é um argumento complexo para provar - e os resultados irão variar de centro de dados para o centro de dados.


Assim, mesmo que a IBM esperava Poder deslocaria um pedaço de servidores x86, não acontece muito frequentemente. Clientes na sua maioria instalados caixas de energia para substituir os sistemas Solaris e HP-UX incumbentes.


O endian da linha e Chip Chalk Discussão


No entanto, Power8 é um animal diferente (não, não um cavalo, eu estou desistindo de que a metáfora). O maior negócio é que é little endian, significando endian compatíveis com x86. Quando você tinha uma incompatibilidade endian, como com os processadores de potência / RISC anteriores vs x86, provedores de aplicativos teria que passar por aquilo que pode ser um processo longo e complexo de portabilidade. Devido a isso, e um mercado potencial menor, ISVs não estavam ansiosos para aplicativos de portas para os grandes processadores de potência endian.


Power8 é o que a IBM chama de "bi-endian", o que significa que pode acessar dados armazenados em qualquer estilos grandes ou pequenos endian. O que isso realmente significa é que pouco software baseado endian pode ser executado em caixas Power8 com apenas uma recompilação de traduzir as diferenças de conjunto de instruções entre poder e x86. Software utilizando linguagens interpretadas como Java deve executar para a direita fora da caixa no Power8.


As novas caixas Power8 também executar sistemas operacionais (Linux agora Ubuntu - com Debian, openSUSE e talvez RHEL no caminho) sobre nu metal. Isso abre todo um novo universo de código fechado e aberto aplicações Linux para usuários potenciais Power8.


A IBM também abordou a questão do custo com as versões Linux de sua linha de produtos Power8. IBM descobre o melhor lugar para construir a sua cabeça de ponte vs. x86 em algumas áreas - nomeadamente as cargas de trabalho de infra-estrutura e de análise. Com isso em mente, eles preço das caixas (incluindo o O / S e virtualização) para vender a par com uma solução x86 Linux / VMware comparável. Serviço e suporte é também fixado o preço em níveis 86-like.


Power8 tem algumas vantagens técnicas que podem render um desempenho significativamente melhor vs x86. Por exemplo, cada um dos núcleos de processamento da Power8 pode suportar 8 threads vs 2 fios para CPUs x86. Power8 tem caches do processador maiores - 100 MB no chip, mais de 128 fora de chips vs o 37.5MB em chips mais recentes da Intel. A maior vantagem é na largura de banda de memória, com Power8 capaz de bombear 230GB / s através do chip, enquanto os processadores da Intel estão limitados a 85GB / s.


No entanto, o sistema pode suportar Intel 1.5TB de memória principal em uma caixa 2 vias hoje, enquanto as caixas Power8 da IBM suporta apenas 1TB.


Alguns podem argumentar que toda essa conversa hardware é irrelevante. Quem se preocupa com sistemas nos dias de hoje? Hardware é uma mercadoria e as margens de lucro são tão baixos que ninguém se importa mais. Essas pessoas estão erradas.


É importante para a IBM para fazer este trabalho gambito de energia.


MBA dimbulb-ery e pensamento marginal


O exemplo que eu tenho usado com os clientes é imaginar que um MBA recém-criado está olhando sobre os produtos vendidos por uma cadeia de fornecimento automático. Ao olhar para os números, ele vê que porcas (as porcas que seguram as rodas para o carro) são o maior produto de margem em sua linha de produtos relacionados com o pneu. Seu conselho para a cadeia é para parar de vender pneus mais baixos de margem, rodas e aqueles pequenos purificadores de ar de pinheiros, a fim de dedicar mais espaço nas prateleiras para com porcas. É bastante óbvio que esta é uma estratégia estúpida, certo?


Enquanto a IBM faz as maiores margens em software, a partir de um ponto de vista financeiro, que o software é geralmente parte de toda uma solução IBM. Se a IBM tivesse que abandonar hardware, que irá torná-lo mais difícil (e caro) por eles para fornecer as soluções completas.


Você pode argumentar que os clientes estão rolando os seus próprios conjuntos de soluções, o que é verdade, mas uma empresa como a IBM ainda pode vender peças peças para jogar em qualquer que seja o cliente está tentando montar.


Também há algo a ser dito para ficar mais "share carteira" com os clientes. Se você está vendendo com sucesso software e serviços, adicionando hardware dá-lhe uma parcela maior dos gastos dos clientes, e desde que a parte de hardware é vendido com uma margem positiva, então é sempre melhor ter uma venda maior do que um menor.


Em finanças, esta é a "alta taxa interna de retorno vs Valor Presente Líquido" problema. Pessoas Dinheiro apresentá-lo como um exemplo onde o Projeto A tem um custo relativamente baixo, mas um retorno muito elevado ao longo de vários anos. Por outro lado, o Project B tem um custo muito mais elevado e uma taxa muito inferior de retorno. Qual projeto você assumir? Você sempre escolhe o projeto que proporciona o máximo de dinheiro, depois de descontar o valor do dinheiro no tempo.


O ponto de tudo isso blathering não é argumentar que a IBM vai espancar a vida fora de x86 com suas caixas de Power8. O que estou dizendo é que a IBM vai ficar no negócio de hardware, pelo menos no futuro previsível. O retorno que ele recebe do hardware ea capacidade de acompanhamento para vender soluções completas é maior do que a redução de custos seria realizar por abandoná-lo.


No entanto, a IBM precisa colocar todos os seus recursos consideráveis ​​por trás de suas novas iniciativas de hardware. Tem de executar seu plano de construir sistemas baseados alimentação a uma substituição digna x86, o que significa que tem que manter a linha nos preços, continuando a melhorar a tecnologia subjacente.


Não vai ser um caminho fácil, como eu tenho certeza que os comentários sobre essa história vai apontar. ®







via Alimentação (Feed) http://ift.tt/1thsLXg

terça-feira, 28 de outubro de 2014

Cray-cray Met Office spaffs 97m £ na caixa HPC Muito MÉDIA


Controle remoto seguro para desktops convencionais e virtuais


O Reino Unido Met Office tem resolvido no Cray como o fornecedor para seu próximo supercomputador, com 16 petaflop máquina XC40 * para ser compartilhado entre o Met Office e Exeter Science Park.


A caixa de HPC 97m £ dará o Met Office 13 vezes mais músculo supercomputação do que é atualmente capaz de flexionar.







Os meteorologistas querem melhorar o detalhe de sua previsão, em particular para as inundações, ventos fortes, nevoeiro e uma forte nevasca.


A combinação de alta capacidade de processamento e 20 PB de armazenamento (quando a instalação estiver concluída) também permitirá a previsão de alta resolução. O Met diz que poderia obter uma resolução tão fina como 300 metros de previsões especializadas; por exemplo, para modelar risco névoa sobre aeroportos.


"Os cientistas também irá explorar os benefícios de ajustar a resolução para melhorar as previsões de inverno do Reino Unido para próximos meses", diz o anúncio, bem como ajudando avaliar os impactos regionais das mudanças climáticas. *


Cray observa que o lançamento de três fases começará imediatamente, mas as principais entregas do sistema terá lugar entre 2015 e 2017.


Outros detalhes técnicos da máquina incluem o sistema de interconexão de Áries; a topologia da rede e Dragonfly DataWarp aplicação aceleração I / O. Linux da Cray será complementado com os seus ambientes de programação otimizados para HPC.


Em 140 toneladas, a máquina vai pesar "o equivalente a 11 ônibus de dois andares", como o Met Office observa. Como qualquer leitor Reg sabe, isso é o equivalente a 33.333 Jubs acordo com o Vulture Normas Central Soviética . ®


Bootnote


O comunicado de imprensa Met Office afirma neste particular Cray XC40 é capaz de "16 mil trilhões de cálculos [] por segundo". Usando a lista TOP500 dos melhores supercomputadores, e extrapolando um pouco de seu gráfico do crescimento do poder de supercomputação , El Reg estima que 16 capacidade petaflop da caixa de Met Office vai sentar-se bem no meio da lista TOP500 pela sua data de power-on 2017.







via Alimentação (Feed) http://ift.tt/1tCNdEJ

quarta-feira, 22 de outubro de 2014

É grande, é azul ... é simplesmente sem fábrica! Futuro livre de chips da IBM


Internet Security Threat Report 2014


Worstall na quarta-feira a IBM cuspiu US $ 1,5 bilhão para obter Fundições globais para tomar sua fabricação chip ARM fora de suas mãos como relatado aqui no El Reg .


Há uma série de implicações econômicas para tudo isso, talvez, o mais importante dos quais é por isso que a fantasia eco-lunática que poderíamos reverter a globalização é simplesmente absurdo (claro, se é desejável fazê-lo é altamente discutível).







Os requisitos de capital em determinadas empresas são simplesmente tão grande que apenas um fornecedor global pode possivelmente encontrá-los, e que mesmo a IBM não era de fato uma empresa grande o suficiente para apoiar ser um jogador em uma dessas indústrias mostra bastante como grande "big" precisa de ser nos dias de hoje.


O que deu errado?


IBM tinha vários problemas básicos de negócios com a sua unidade de fabricação de chips. Ele estava perdendo dinheiro, o que não é bem o que você poderia desejar em uma subsidiária. A reação normal para esse tipo de situação é simplesmente fechá-lo. Aqui nós não tendem a fazer isso porque os custos redundo e assim por diante associados simplesmente disparando todo mundo pode ser enorme: é por isso que a BMW tossiu R $ 500 milhões para se livrar de Rover - era mais barato do que simplesmente pagar todos fora.


Isso não é algo que se aplica no ambiente dos EUA: e mesmo assim, não há, na verdade, uma exigência legal para que uma empresa está por trás das dívidas de uma subsidiária. Você pode, se você for corajoso o suficiente, simplesmente dar de ombros e dizer, 'Bem, é estourada'.


IBM

Power8 die tiro



Neste caso, o azul agora menor não poderia realmente fazer isso: Estado de Nova York seria apoplético se isso acontecesse. E não há um acordo no local de pesquisa da IBM há pelo qual o Estado detém os edifícios e equipamentos e IBM emprega as pessoas. Isso teria morrido se a IBM tinha acabado de entrar. É bom os políticos locais para dar-lhes o dinheiro livre, é claro, mas livre não sempre, a longo prazo, significa livre.


Além disso, a Big Blue vai estar querendo manter o controle do projeto e propriedade intelectual dos chips que ele usa, e anunciou seus planos para arar US $ 3 bilhões em P & D nos próximos cinco anos.


Há também o pequeno problema que essas plantas são os que fazem as batatas fritas, as batatas fritas com uma arquitetura diferente e design de todos os outros, que Littler Azul coloca em seus próprios computadores. Assim, "pederasta-lo, estamos a fechar a coisa" nunca foi realmente uma opção.


E, assim, a necessidade de tossir que US $ 1,5 bilhão para o povo que ele fora mãos da Big Blue, além dos 10 anos do contrato de fornecimento desses chips e assim por diante. Tudo o que é interessante como uma série de problemas de negócios, mas a sua raiz do problema também nos diz muito sobre o que há de errado com as ilusões da multidão anti-globalização. Para o problema econômico da IBM é que o seu próprio interno (e, é claro, incluindo as máquinas que eles enviados para clientes) demanda por chips simplesmente não era grande o suficiente para cobrir os custos das fábricas necessárias para torná-los.







via Alimentação (Feed) http://ift.tt/129SvMf

terça-feira, 21 de outubro de 2014

HPC Gales estende seu alcance para a Irlanda do Norte


Internet Security Threat Report 2014


Irlanda do Norte é fazer com que o que é apontado como seu primeiro serviço HPC, graças a um acordo entre Fujitsu e HPC Gales.


Estendendo uma colaboração que está em vigor desde 2012, HPC Wales diz que o vendedor irá funda £ 1.100.000 para o serviço, e buscar colaborações de negócios irlandês e parceiros acadêmicos. HPC Wales gastou £ 3.500.000 desenvolver a sua rede de supercomputadores, que tem seus principais centros de conexões em Cardiff e Swansea.







Cardiff é o lar de um 162-nó do sistema de alto rendimento baseado em processadores Intel Westmere X56540; um sistema de alta capacidade baseado em Ponte de 384 nó Sandy; dois sistemas de memória grande Xeon; e uma de 16 nós "romance arquitetura sub-sistema" com Tesla M2090 GPUs.


O hub Swansea tem quatro máquinas: 128 nó e um nó 240 aglomerados Sandy Bridge, um sistema de 16 nós e uma caixa de GPU 16 nó.


Diretor financeiro HPC Wales 'David Elcock disse: "Temos o compromisso de oferecer tecnologia de supercomputação avançada - eo treinamento e apoio para aproveitá-la para o seu pleno potencial - para pesquisadores e empresas de todos os tamanhos em todo País de Gales, Reino Unido e além. Este anúncio marca o mais recente marco significativo para a empresa ".


As aplicações alvo usuais de modelagem de dados, análise matemática de alta velocidade, simulação e visualização são citadas no da instalação de liberação , juntamente com o desenvolvimento de software e processamento de imagens. ®







via Alimentação (Feed) http://ift.tt/1x7ypeR

segunda-feira, 20 de outubro de 2014

Vote em nós: Nós estamos atirando dinheiro em supercomputadores!


Internet Security Threat Report 2014


O governo do Estado australiano de Victoria tem pendurada AU $ 6650000 no sentido das ciências da vida Computação Iniciativa vitoriana (VLCSI), considerando o investimento de um voto-vencedor nas próximas eleições.


O VLCSI, uma das maiores instalações de HPC da Austrália, é operado em colaboração com a IBM e serve campi da Universidade de Melbourne, Monash University e Universidade LaTrobe. De volta a 2011, auditor-geral do governo vitoriano disse entre outras coisas que a IBM tinha uma vantagem sobre os concorrentes, porque a Big Blue tinha tanto um conhecimento profundo dos requisitos da Universidade de Melbourne, que defendeu o projeto, bem como entrada para o supercomputador da design.







No entanto, desde a sua abertura em 2013, VLSCI levou adiante com implementações HPC. Sua mais recente, a máquina "Barcoo" 20 TFLOP, começou a empurrar os elétrons em agosto de 2013 para alimentar a sua 70-nó, 1120-core Sandy Bridge ferro.


VLSCI foi criado com $ AU50 milhões de compromissos de financiamento do governo que coincidem com o mesmo do setor privado. O financiamento do governo era acabar no final de 2014, e os novos fundos fornecer uma extensão de dois anos, durante os quais a organização estará trabalhando para transformar-se em uma operação de auto-financiado.


Cargas de trabalho centro da instalação em torno de genômica do câncer, imagens biomédicas, ciências agrárias e medicina personalizada.


O novo financiamento assegura operações da VLSCI para "buscar um novo foco na geração de oportunidades comerciais e de produção de resultados a crescer Victoria da saúde e da indústria de biotecnologia", ministro Gordon tecnologia Rich-Phillips disse em meios de comunicação do governo de liberação .


VLSCI continua a reivindicar a coroa como o "ciências da vida mais poderosos facilidade supercomputador do mundo".


Rich-Phillips também anunciou, sem designar-figura do dólar, que continuaria a financiar o Centro de Eficiência Energética de Telecomunicações da Universidade de Melbourne de Parkville campus. ®







via Alimentação (Feed) http://ift.tt/1Fu54Bx

quinta-feira, 16 de outubro de 2014

'Urika': Cray revela novos 1.500 núcleos grandes dados monstro esmagando


Fornecer um Helpdesk segura e eficiente


Grandes análise de dados as pessoas estão constantemente garimpar pepitas de ouro, e Cray tem apenas a máquina para eles - sua Urika-XA.


Diz-se que uma entidade de plataforma única, consolidando uma ampla gama de cargas de trabalho analíticas que necessitam previamente sistemas separados, o seu design foi otimizado para cargas de trabalho computadorizado e uso intensivo de memória e sensíveis à latência.







Da Cray linha Urika já existe há quatro anos e é um produto de aparelho, como para a análise de dados grandes, essencialmente mastigar através de números à procura de relações entre as coisas. Foi introduzido pela divisão YarcData da Cray e chamou um aparelho de análise de gráficos.


Agora temos Urika-XA como uma chave na mão, scale-out, aparelho de análise. Cray diz que tem hardware quente: mais de 1.500 núcleos, 6 TB de DRAM, 38TB de Flash SSD e 120 TB de armazenamento em disco. Cole os dados de trabalho em conjunto e arrebentar com ele com os dentes afiados de processamento.


O sistema Urika original é agora chamado de Urika-GD e posicionado para análise baseados em grafos. O produto XA é para "análise extremos" (daí XA) e descrito como uma "plataforma pré-integrada, aberta para alto desempenho de análise de dados grandes".


Pense nisso como uma forma grosseira Urika-GD go-rápido sem o material gráfico.


Archimedes

Um único Urika-XA características de rack:




  • 48 nós de computação Intel Xeon com um SSD 800gig por nó

  • 200TB de SDD e armazenamento em disco usando Sonexion 900 matriz

  • InfiniBand

  • Lustre sistema de arquivos paralelo, HDFS-compatibilidade e conformidade POSIX

  • De alta disponibilidade

  • Pilha SW com Cloudera Enterprise Apache Faísca, Cray Adaptive Runtime para Hadoop e sistema de gestão Urika-XA


Armazenamento Sonexion é OEM'd do Xyratex Seagate-adquirido , e com base na sua tecnologia ClusterStor.


Urika XA

Cray Urika-XA



Urika-XA tem um primeiro cliente principal no Departamento dos EUA de Oak Ridge National Lab da Energia. O povo de análise lá vai usá-lo na ciência do clima, ciência dos materiais e áreas de saúde.


Uma comparação óbvia é com GS7K do DDN aparelho, que usa GPFS em vez de Lustre para o seu trabalho sistema de arquivos paralelos e pode conectar-se a um backend de armazenamento de objetos.


Red Hat tem uma Gluster-usando scale-out Storage Server Abrir se você está encantado com o sistema de arquivos Gluster e quer construir seu próprio kit. Tem Hadoop sistema de arquivos plug-in.


Baseado em GPFS da IBM Elastic Storage Server também pode estar na lista de comparação competitiva para a empresa de fast-grande acesso de análise de dados de trabalho.


A campanha de marketing Cray diz que está vindo de supercomputação terra com a tecnologia "aguerrido". As áreas de casos de uso - (ajuste de alerta detector besteira sobre) incluem



  • Serviços financeiros para gestão de risco

  • As ciências da vida - next-gen seqüenciamento por exemplo

  • Governos olhando para "o padrão de vida" seja lá o que isso significa

  • Esportes com otimização confronto

  • Telecom com a análise de churn

  • Mídia com o jornalismo orientado a dados


Jornalismo orientado por dados significa analisar grandes conjuntos de dados e construção de uma notícia sobre os resultados. Qualquer órgão de comunicação social que iria comprar um aparelho supercomputador embalado para este tem bolsos muito profundos e um grau de fé que iria impressionar um fanático.


Cray está dizendo basicamente usar seu big data tecnologia derivada do supercomputador, porque você vai ter a Eureka! Momentos mais rápido e com mais freqüência. Se você vai depende de suas boffins dados fazendo as perguntas certas. O que quer que eles pedem, porém, eles provavelmente vai obter as respostas mais rápido com esta besta Urika-XA.


Cray será feliz vender-lhe uma configuração multi-rack e Urika-XA estará disponível em dezembro. ®







via Alimentação (Feed) http://ift.tt/1wMm67I