sexta-feira, 17 de abril de 2015

RADIOATIVO porta-aviões da Segunda Guerra Mundial ENCONTRADO NA CALIFÓRNIA


The National Oceanic and Atmospheric Administration dos Estados Unidos (NOAA) diz ter encontrado o lugar de descanso final do USS Independence, um porta-aviões da Segunda Guerra Mundial.


O Independência (CVL-22), foi encomendada como cruzador, mas adaptada para se tornar um portador de luz como as demandas da Guerra do Pacífico fez o poder aéreo móvel desejável. O navio serviu no Pacífico a partir de novembro de 1943 e agosto de 1945, mas por 1946 foi considerado apto para o serviço como um recipiente de ensaio em um teste de bomba atômica perto Atol de Bikini. Independência estava estacionado a menos de um quilômetro do zero em um teste de 1º de julho , sobreviveu a essa provação sem afundar assim foi nukado novamente no dia 25.





A Marinha dos EUA, em seguida, trouxe o navio de volta para San Francisco para avaliar os danos, e para experimentar técnicas de descontaminação nuclear. Por volta de 1951 Independência foi considerada em risco de naufrágio, portanto, com uma carcaça radioativo colossal não é o tipo de coisa que se quer perto de uma grande cidade em que foi afundado.


E assim, o Independência passou para a história, o seu destino em grande parte esquecido ... até que a NOAA decidiu embarcar em uma missão para "localizar, mapear e estudar naufrágios históricos em Golfo do Farallones National Marine Sanctuary e águas próximas. "Como parte desse esforço , Independência foi encontrado "em 2.600 pés de água ao largo das Ilhas Farallon da Califórnia", que se pode encontrar aqui , no que parece ser uma distância de cerca de 80kms de San Francisco.


O NOAA James Delgado, cientista-chefe na missão da Independência e diretor património marítimo para Office of National santuários marinhos, diz Independence "senta no fundo como se estivesse pronto para lançar seus aviões" da NOAA. Outros boffins NOAA dizem que a operadora é "reto, ligeiramente listando para estibordo, com grande parte de sua plataforma de vôo intacta, e com buracos que levam às plataformas hangar", mas é considerado "incrivelmente intacta", como, por ilustração acima, ainda é possível para ver o que se parecer com aeronaves.


As imagens foram capturadas usando um Boeing "Eco Ranger" zangão subaquático, que usou sonar e crunchers 3D-imagem astúcia para criar a imagem no topo desta história. ®







via Alimentação (Feed) http://ift.tt/1DbWpPD

quarta-feira, 15 de abril de 2015

Simulador de fusão do reator entre projetos boffinry escolhido para monstro Summit supercomputador da US


Em novembro, o governo dos EUA anunciou que está construindo Summit , um supercomputador $ 325m capaz de realizar 300 quatrilhões de cálculos por segundo, se você redline-lo.


Quando instalado no Oak Ridge National Laboratory , em 2017 e ligado até 2018, vai ser o computador mais rápido do mundo em relação aos seus rivais conhecidos publicamente hoje.





Hoje, The Register aprendeu de 13 projetos científicos aprovados pela boffins do Departamento de Energia dos Estados Unidos para ser executado sobre a Cimeira de 300 petaFLOPS. Essas atribuições de software, selecionados para o Centro de Aceleração prontidão da aplicação (por CAAR programa), vai ser portado para a máquina paralela massiva, e são a esperança de fazer pleno uso da arquitetura do supercomputador.


Eles variam de astrofísica, biofísica, química e modelagem climática para a engenharia de combustão, ciência dos materiais, física nuclear, física de plasma e sismologia.


A máquina será construído a partir de cerca de 3.500 nós equipados com processadores IBM Power9 e Nvidia Volta GPUs, colados um ao outro usando NVlink - não há mais informações sobre 200Gbps de interconexão da Nvidia em nosso site irmã, The Platform. Mellanox irá fornecer o equipamento de rede.


De acordo com um pedaço de papel que já vimos, aqui estão os projetos de 13 CAAR para Summit:



  • Clima código de simulação ACME : Liderado pelo Dr. David Bader, Lawrence Livermore National Laboratory.

  • Código química Relativistic DIRAC : Liderados por Prof. Lucas Visscher, da Universidade Livre de Amsterdã.

  • Astrophysics código de simulação FLASH : Liderados por Dr. Bronson Messer, Oak Ridge National Laboratory.

  • Plasma código física GTC : Liderado pelo Dr. Lin Zhihong, University of California-Irvine.

  • Cosmology código de simulação HACC : Liderados por Dr. Salman Habib, Argonne National Laboratory.

  • Estrutura eletrônica aplicação LS-DALTON : Liderado pelo Prof. Poul Jorgenson, Universidade de Aarhus.

  • Biofísica código de simulação NAMD : Liderado pelo Prof. Klaus Schulten, Universidade de Illinois em Urbana-Champaign.

  • Aplicação física nuclear NUCOR : Liderados por Dr. Gaute Hagen, Oak Ridge National Laboratory.

  • Código de química computacional NWChem : Liderado pelo Dr. Karol Kowalski, Pacific Northwest National Laboratory.

  • Materiais aplicação ciência QMCPACK : Liderado pelo Dr. Paul Kent, Oak Ridge National Laboratory.

  • Combustão código de engenharia RAPTOR [ lâminas PDF ]: Liderado pelo Dr. Joseph Oefelein, Sandia National Laboratories.

  • Aplicação Sismologia SPECFEM : Liderado pelo Prof Jeroen Tromp, Universidade de Princeton.

  • Plasma código física XGC : Liderado pelo Dr. CS Chang, Princeton Plasma Physics Laboratory.


Curiosamente, o supercomputador Summit será alimentado por chips Power9 da IBM, que licenciou abertamente sua tecnologia de processador para as empresas chinesas através do Consórcio OpenPower . Enquanto isso, o governo dos EUA proibiu Intel e outros de transporte chips de ponta para os construtores de supercomputadores da China.


Quem mais está usando supercomputadores nos dias de hoje, além físicos e assim por diante? A indústria de petróleo e gás: Petroleum Geo-Services no Noruega acabou de comprar um cinco-petaFLOPS Cray para o processamento de ultra-alta-resolução dos dados sísmicos, e gigante de energia francesa Total está atualizando sua Pangea super- máquina para 6,7 petaFLOPS usando kit de SGI.


Finalmente, Administração Nacional de Segurança Nuclear do governo os EUA - que simula degradação nuclear estoques, armazenamento e manutenção - será ligar um Cray-made máquina de US $ 174m Trinity no Laboratório Nacional de Los Alamos (LANL) em 2016. ®




Trinity vai modelar arsenais nucleares e para servir a uma gama mais ampla de projetos de computação científica e técnica classificados e não classificados ...

Leia mais sobre logotipo da plataforma






via Alimentação (Feed) http://ift.tt/1JKILIt

terça-feira, 14 de abril de 2015

Boffins incompreensíveis trazer computadores quânticos um passo mais perto


A chegada há muito aguardada de computadores quânticos poderiam ser um passo mais perto, como boffins de Oz tem pela primeira vez codificado informação quântica em silício.


Ao contrário dos computadores convencionais, que armazenam dados sobre transistores e discos rígidos, computadores quânticos codificar dados nos estados de objetos microscópicos chamados qubits. A chegada deste tipo de computação que permitiria a factoring de grandes números - levando a todos os tipos de avanços criptográficas.





Mas a capacidade de construir computadores quânticos se iludiu cientistas da computação por décadas.


No entanto, boffins australianos podem ter trazido esse processo um passo mais perto, depois de pesquisadores da Universidade de Nova Gales do Sul colocou os qubits dentro de uma fina camada de silício especialmente purificado, contendo apenas o silício-28 isótopo.


Em sua melhor tentativa de explicar o processo para o schmo média, o estudo principal Dr Arne Laucht disse: "Nós demonstramos que um qubit altamente coerente, como o spin de um único átomo de fósforo em silício enriquecimento isotópico, pode ser controlado usando campos elétricos, em vez da forma de impulsos de campo magnético oscilante. "


Associado Professor Morello disse que o método funciona através da distorção da forma da nuvem de electrões ligado ao átomo, utilizando um campo eléctrico localizado.


"Essa distorção no nível atômico tem por efeito alterar a freqüência com que o elétron responde.


"Portanto, podemos escolher quais qubit para operar. É um pouco como escolher qual estação de rádio que sintonizar, girando um botão simples. Aqui, o "botão" é a tensão aplicada a um pequeno eléctrodo colocado acima do átomo. "


Os investigadores defendem este tipo específico de bit quântico pode ser fabricado utilizando uma tecnologia de produção semelhante à de computadores diárias, reduzindo drasticamente o tempo e custo de desenvolvimento.


Os resultados foram publicados na revista de acesso aberto a ciência avança . ®







via Alimentação (Feed) http://ift.tt/1GFYmuL

sexta-feira, 10 de abril de 2015

Gov US PROIBIÇÕES Intel de vender chips construtores supercomputador da China


Intel confirmou que o governo dos EUA está bloqueando a venda de processadores high-end para os centros de supercomputação da China - e outras gigantes de chips estão proibidos também.


"A Intel foi informada em agosto pelo Departamento de Comércio dos Estados Unidos de que uma licença de exportação foi necessária para o embarque de Xeon e Xeon Phi peças para uso em projetos de supercomputadores anteriormente divulgadas específicos com cliente chinês Inspur. Intel cumprido com a notificação e solicitou o certificado o que foi negado. Estamos em conformidade com a lei norte-americana ", disse o biz baseada em Santa Clara em uma declaração ao The Register.





Essas fichas Xeon vai ser utilizado para alimentar a 50.000-node , 180 petaFLOPS Aurora supercomputador Intel e Cray está construindo para o Departamento de Energia dos Estados Unidos, devido a ir ao vivo em 2018. China computador Tianhe-2 , atualmente o supercomputador mais rápido do conhecimento público do mundo , utiliza 3,1 milhões de núcleos Intel Xeon E5 a pico em 54 petaFLOPS em performance.


A mudança na política de exportação surgiu apenas esta semana -, mas foi formalizada em 18 de fevereiro em regras [PDF] definidos pelo Comitê de Avaliação do Usuário Final (ERC) na Secretaria de Indústria e Segurança (BIS) do Departamento de Comércio dos EUA.


O CEI é uma operação conjunta executado pelos Departamentos de Comércio, Estado, Defesa e Energia, e, ocasionalmente, o Tesouro, para decidir quem as empresas americanas podem e não podem vender.


Como resultado da mudança, a ERC, acrescentou o Centro Nacional de Supercomputação em Changsha Changsha City, o Centro Nacional de Supercomputação em Guangzhou Sun Yat-Sen University, em Guangzhou, o Centro Nacional de Supercomputação de Tianjin em Tianjin, e da Universidade Nacional de Tecnologia de Defesa, em Changsha Cidade à sua lista de bloqueio.


A ERC não respondeu aos pedidos de informações a respeito de porque os quatro centros foram colocados na lista negra. A atualização regra diz entidades são bloquearam se eles representam "um risco significativo de ser ou tornar-se envolvido em atividades que são contrárias aos interesses dos Estados Unidos de segurança nacional ou de política externa."


Outros fabricantes de chips, incluindo a AMD, contactados pela El Reg não fez nenhum comentário sobre o assunto em vez de ir para a imprensa, mas parece que o governo dos Estados Unidos decidiu que a indústria de supercomputação da China terá que fazer sem processadores americanos para o momento.


Tempo Blowback


Se a ERC honestamente pensa que a proibição vai colocar um dente significativo nos planos de supercomputação da China, ou é muito tolo ou perigosamente mal informado.


No curto prazo, a proibição pode retardar o desenvolvimento de supercomputadores ligeiramente da China, embora os processadores Xeon high-end não são exatamente difícil para uma empresa de fachada para comprá-los no mercado aberto e enviá-las para o Império do Meio.


Ao mesmo tempo, os EUA colocou Intel em uma posição muito pegajosa. A empresa tem investido fortemente na sua presença no mercado da supercomputação - e em cortejar os chineses - ea decisão ERC acaba de fazer a vida de Chipzilla mais difícil.


Além disso, a China está a desenvolver processadores que usam a arquitetura IBM Power, que a Big Blue abriu para mais de um parceiro chinês. Não está claro como a decisão ERC pode interferir com este. (Power é definitivamente um frequentador no mundo do supercomputador: um 300-petaFLOPS Power9 potência máquina apelidado Summit . está sendo construído para o governo dos Estados Unidos pela IBM, Nvidia e Mellanox Ele deve chegar em 2017.)


O embargo irá adicionar impulso à indústria de processadores da China home-grown, que seu governo vem investindo fortemente no desenvolvimento. Corte de fornecimento agora é susceptível de conduzir o governo de abrir os seus talões de cheques e passar mais tempo e recursos a construção de uma empresa de processadores para rivalizar com as empresas norte-americanas que dominam o mercado de chips para servidores high-end.


"Os governos da China quer, máquinas rápidas e eficientes, mas eles não querem usar chips e sistemas controlados por fornecedores fora da China, pela mesma razão que o governo norte-americano fica nervoso sobre a implantação de máquinas da Huawei Technologies," Timothy Prickett Morgan, co- editor do nosso site irmã A Plataforma, observou março em relação a movimento OpenPower da IBM.


"Todo mundo está preocupado com backdoors que eles não controlam, mesmo que pode não existir. Esta é uma das razões por que startups chinesas estão tomando uma brilhante para OpenPower".


O termo CIA para este tipo de cockup é "blowback" - as consequências não intencionais, nocivos de ações. Tornou-se uma característica definidora da política norte-americana e só na semana passada o ex-chefe da NSA avisado sobre exatamente esse tipo de embargo processador.


Ex-chefe da NSA Michael Hayden, escrevendo no jornal Washington Post deste mês, disse que, no passado, os EUA haviam restringido a venda de chips de ponta capazes de milhões de operações teóricas por segundo (Mtops). Mas, quando ele assumiu a NSA, Hayden disse ele argumentou contra a política.


"Nós ainda queria uma vantagem MTOPS, é claro, mas fomos rapidamente percebendo que nossos limites preferidos foram minando a competitividade global da indústria de computadores os EUA - a própria indústria em que nos baseamos para o nosso sucesso", escreveu ele.


"Tornava-se claro que a saúde global do que a indústria era mais importante do que qualquer vantagem MTOPS contra um país-alvo específico. Nós ainda insistiu em limites no que diz respeito a locais como Cuba e Coréia do Norte, mas que se tornou muito mais indulgente em outro lugar."


Ele também destacou que tais ações podem ser usados ​​para justificar sanções económicas e políticas contra os EUA por empresas estrangeiras e governos. A ação unilateral deste tipo é contraproducente tanto economicamente como do ponto de vista de segurança, argumentou. ®







via Alimentação (Feed) http://ift.tt/1afkMEE

quinta-feira, 9 de abril de 2015

Intel, Cray saco de US $ 200 milhões para construir 180PFLOPS super para boffins armas nucleares norte-americanas


Intel e Cray ter desembarcado um negócio US $ 200 milhões para construir um supercomputador de 180 petaFLOPS apelidado de Aurora para o Departamento de Energia dos EUA.


Intel vai fornecer os chips - deverá incluir núcleos de processador next-gen 10 nM Knights Hill - e Cray vai integrá-lo todos juntos. Se você olhar para os números, isso é um pequeno montante de dinheiro para o nível de atração sexual que está sendo entregue.





A máquina, que pode ser redlined para realizar 180 quatrilhões de cálculos matemáticos de ponto flutuante por segundo, será instalado no Laboratório Nacional Argonne apenas fora Chicago. Ele vai sentar-se confortavelmente nas primeiras posições de mais poderosas conhecidas 500 computadores do mundo quando ele é finalmente ligado.


"Não é por acaso os EUA domina os 500 supercomputadores mais poderosos do mundo, é devido ao investimento sustentado e compromissos federais sustentados", Dr Lynn Orr, o sub-secretário para a ciência e energia do Departamento de Energia dos EUA, disse ao The Register por telefone hoje.


"Outros países estão fazendo o seu nível absoluto melhor para nos superar", acrescentou, sublinhando que era a América vital ficou à frente de seus rivais.


"Você já esteve em um avião, ou verificada a previsão do tempo? Então, você já beneficiaram de supercomputação, e nós vamos ser capazes de fazer as coisas ainda melhor no futuro."


O supercomputador Aurora vai morar em 2018 para resolver coisas de problemas de segurança nuclear ao fluxo de ar simulações, e irá substituir a instalação de 10 petaFLOPS Mira como computador mais poderoso do laboratório. É isso mesmo, Aurora será 18 vezes mais rápido do que Mira em seu pico.


Ao executar plena aceleração, Aurora vai consumir 13MW de potência, mais de três vezes superior ao de Mira, mas ainda 4MW menos de topo conhecida supercomputador de hoje: da China de 55 petaFLOPS Tianhe-2 .


Dr Orr disse Aurora vai processar números analisar, entre muitas coisas, novas células de combustível e baterias, energia nuclear, e simular o fluxo de ar em torno de caminhões de carga de corrida ao longo de rodovias: computadores US DoE têm sido usados ​​para reduzir o arrasto e aumentar a eficiência de algum veículo com rodas 18 cargueiros por 60 por cento, economizando 5.000 litros de gás por equipamento grande por ano, afirmou.


Intel disse-nos que o computador será usado para estudar "baterias e painéis solares mais potente, eficiente e durável; melhoradas biocombustíveis e controle de doenças mais eficaz, melhorando os sistemas de transporte e permitindo a produção de motores mais altamente eficientes e mais silenciosos, e desenho de turbinas eólicas e colocação para a melhoria da eficiência e redução de ruído. "


Sob o capô


Aurora vai usar nova arquitetura de Shasta da Cray, e consistem em, pelo menos, 50.000 nós 7PB embalagem de memória, 150PB de armazenamento do sistema de arquivos, e cavaleiros processadores Hill, nós compreendemos. A segunda máquina, Theta, um super Cray XC que pode executar até oito petaFLOPS, também será instalado no próximo ano para os cientistas do Argonne para usar enquanto espera por sua irmã maior a ser construído.




Este sistema é uma besta. E a história de desempenho real tem muito menos a ver com o poder computacional dos núcleos que ele faz como os dados se desloca ...

Leia mais sobre logotipo da plataforma

"A Intel disse que Knights Hill vai usar um processo de 10 nanômetros, que é o que ele vai ser aumentando ainda este ano para seus processadores para vários dispositivos do cliente", escreve Nicole Hemsoth, co-editor do nosso site irmã HPC A Plataforma, que deu a notícia em Aurora nesta manhã .


"A mudança dos processos de 14 nanômetros usados ​​com Knights Landing para os processos de 10 nanômetros usados ​​com Knights Colina provavelmente não irá produzir uma grande mudança na contagem de núcleos ou velocidades de clock - talvez algo na ordem de 30 por cento para 50 por cento aumentar em núcleos (chamá-lo em algum lugar entre 90 e 100 núcleos) e aproximadamente a mesma velocidade de clock (algo em torno de 1,2 GHz).


"Knights Hill pode entregar em algum lugar entre 4TFLOPS e 4.5TFLOPS de pico desempenho de ponto flutuante É seguro dizer que a memória local na embalagem e endereçável através de controladores DDR -., Bem como a largura de banda com essas lembranças -. Escalará proporcionalmente"


O DoE já tem três dos cinco maiores supercomputadores publicamente conhecidos no mundo (Titan, Sequoia e Mira) e o departamento está olhando mais para a sua liderança nos próximos anos, com três novas instalações a ser conhecido como a iniciativa CORAL.


Quando ele vai viver, Aurora irá ultrapassar o poder de computação de 55-petaFLOPS, 3,1 milhões de-core Xeon potência Tianhe-2 na China.


Não seria, no entanto, ser o mais poderoso do mundo, ou até mesmo o mais quente no arsenal do DoE. Projeto CORAL Fellow Summit vai reivindicar essas honras com um desempenho de pico de 300 petaFLOPS. Um terceiro sistema CORAL, o 100-petaFLOPS aglomerado Sierra Power9, será instalado no Lawrence Livermore National Lab. Ambos são devido a entrar em operação em 2017. ®







via Alimentação (Feed) http://ift.tt/1CZUPTT

quarta-feira, 25 de março de 2015

Chipzilla gera 60-core, de seis teraflop Xeon Phi MONSTER CHIP


Intel estabeleceu alguns rumores para descansar, dando uma media e analista entrevista descrevendo detalhes de sua vinda de 60 plus core chips Xeon Phi Knights Landing.


Abrindo o saco para deixar o gato ver um pouco de luz, a Intel disse aos jornalistas em uma coletiva em sua fábrica de Hillsborough, Oregon que o "buzinando grande die" para o Knights Landing Phi hospeda um nocaute oito bilhões de transistores.





Como Timothy Prickett-Morgan revela sobre a nossa irmã site The Platform , núcleo Silvermont Atom Cavaleiros do Landing terá todas as instruções de um núcleo Broadwell, exceto para a função de memória transacional TSX fechou-for-reparos.


Chipzilla ainda está segurando a sua meta de 3 teraflops para Knights Landing, e para precisão simples de ponto flutuante é agora divulgando 6 teraflops.


A empresa de ficar tímido sobre o número máximo de núcleos nos chips apoiará, além do 60 é propriedade até, mas há rumores de que haverá tantos como 72.


Haverá uma variante co-processador do dispositivo, As notas plataforma, e uma versão com 100 GB / segundo portos Omni-caminho, o primeiro chip Intel para ostentar a interface tecido hospedeiro. Com aplicações de HPC em mente, Omni-Path suporta a pilha OpenFabrics Alliance (OFA) para fornecer compatibilidade com o software escrito para ambientes Scale tecido verdadeiro InfiniBand e Intel.


Intel espera que, no entanto, que os clientes preferem do Omno-Path 100 GB / segundo, alegou menor latência e planejado de 48 portas chip chaveador mais de 36 portos do InfiniBand.


Seis canais de memória suporta até 64 GB per-stick de memória DDR4 - um total de 384 GB de memória distante para o processador - e Intel está trabalhando com a Micron para desenvolver a memória de alta largura de banda para o chip, até 16 GB por pacote .


A memória DDR4 será executado em cerca de 90 GB / segundo, com a memória local de alta largura de banda capaz de rodar nas proximidades de 400 GB / segundo.


Comunicações periféricos serão tratadas por 36 PCIe 3.0 pistas. ®







via Alimentação (Feed) http://ift.tt/1IxeV9N

Big Data sumo sacerdote Stonebraker ungido com Turing Award


Michael Stonebraker de Ciência da Computação e MIT Artificial Intelligence Laboratory (CSAIL) venceu a Associação para (ACM) Prêmio Turing Computing Machinery.


Como um professor de ciência da computação da Universidade da Califórnia, em Berkeley, Stonebraker ajudou a desenvolver as bases de dados relacionais Ingres e Postgres. Ele já foi concedido a ACM Award Software de Sistema, em 1992, por seu trabalho em Ingres.





Era o início de uma lista de prêmios de alto perfil que incluem o primeiro prêmio anual Inovação pelo grupo de interesse especial ACM SIGMOD em 1994, o prêmio IEEE John Von Neumann, em 2005, e agora o Prêmio Turing em 2015.


A honra anual, acompanhado por um prêmio de US $ 1 milhão, é concedido a "um indivíduo selecionado para as contribuições de natureza técnica feita para a comunidade de computação."


No seu anúncio hoje, ACM descrito Stonebreaker como "o inventor de muitos conceitos que foram cruciais para tornar os bancos de dados uma realidade e que são usados ​​em quase todos os sistemas de banco de dados modernos."


"O trabalho de Michael Stonebraker é uma parte integrante da forma como o negócio é feito hoje", o lançamento ACM cita Presidente Alexander G Lobo como dizendo. "Além disso, através da aplicação prática de tecnologias de gerenciamento de banco de dados de seus inovadores e inúmeras empresas start-ups, ele tem demonstrado continuamente o papel da universidade de pesquisa na condução do desenvolvimento econômico."


"Do nada, alguns caras de marketing começou a falar de" big data ", Stonebraker é citado como dizendo." Foi quando eu percebi que eu estava estudando essa coisa para a melhor parte da minha vida acadêmica. "


Paralelamente a trabalhar como professor adjunto no MIT CSAIL, Stonebraker era um professor de ciência da computação da Universidade da Califórnia em Berkeley por 29 anos. Muitos de seus alunos de Berkeley têm também passaram a oferecer contribuições significativas para a academia e da indústria.


Stonebraker também era conhecido por afirmando que Google e Facebook são lixo. ®







via Alimentação (Feed) http://ift.tt/1Cb4zKL

TOP500 Supers fazer boffins mais prolífico


Uma análise comparativa de propriedade supercomputador por universidades dos Estados Unidos parece sugerir que a classe TOP500 ferro dá às instituições uma vantagem quantificável em física, química, engenharia civil e biologia evolutiva.


No tipo de tomada de decisão racional que vai perturbar as equipes de vendas de HPC, a pesquisa da Universidade de Clemson é projetado para ajudar as universidades norte-americanas a tomar a decisão de compra baseada na economia, em vez de o mais usual "que é super é mais super?"





Os pesquisadores dividiram 212 instituições em que têm e os que não têm acordo sobre se eles tiveram uma entrada TOP500, e avaliada a eficiência da investigação contra o número eo desempenho acadêmico dos pesquisadores, o número de publicações, bem como o número de doutoramentos outorgados.


Supers dobrar a eficiência da pesquisa química, segundo o estudo; em engenharia civil a recompensa era de cerca de 35 por cento maior eficiência, enquanto a biologia evolutiva tem um 11 por cento impulso e física era nove por cento mais eficiente.


Talvez surpreendentemente, a produção de pesquisa em ciências da computação não melhorou com a posse HPC, nem Inglês ou economia.


Como o economista Paul Wilson explica em enlatados da universidade liberação , a pesquisa fornece um "primeiro passo na criação de um modelo de avaliação de investimentos em computação de alto desempenho".


A pesquisa foi publicada na revista Empirical Economics (resumo aqui ). ®







via Alimentação (Feed) http://ift.tt/1GhaHnI

terça-feira, 24 de março de 2015

Isso é um grande 4Ker de um cosmos: planetário 3D para abrir em Bristol


Júnior estrela-gazers em Bristol foram notificados de que eles vão ter de partilhar soon-to-be-3D planetário da cidade, com os cientistas e os marketeers de dados como a cidade grata suas credenciais hub tecnologia.


Exterior shot of At-Bristol Planetarium

Apenas alguns galões de Windolene e vamos estar em funcionamento






O Planetário do Centro de Ciência de At-Bristol da Cidade está sendo reformulado à frente de um relançamento no final deste mês. A reformulação é parte de Bristol da cidade é Abrir plano para capitalizar seu nous tecnologia e posicionar-se como o primeiro "Software Defined Programmable City" da palavra.


O renovado 100 planetário sede contará com dois projetores 4K de resolução alimentados por 17 computadores para entregar um modelo 120Hz 3D do universo, At-Bristol chefe Phil Winfield disse ao The Reg. Isto tornará primeiro planetário 3D do Reino Unido, afirmou.


Se essa potência não é suficiente, ele vai ser ligado em um supercomputador da Universidade de Bristol na rede super postas em prática como parte do esquema. Bristol comprou dutos de fibra em torno da cidade de provedores de telecomunicações de volta nos noughties, e religados-los com 144 núcleo da fibra.


Isso permitirá que os dados sejam lavados à mangueira da universidade em um sharpish 100Gbps e analisados ​​utilizando o kit planetário. Que certamente soa mais espetacular do que olhando para uma outra PowerPoint em um pouco maior do que a tela casa.


Só que, quando isso acontece, ele não será mais um planetário; vai ser uma "cúpula de visualização de dados", disse Winfield.


Então, assim como o software de atualização planetário permitirá aos telespectadores voar ao redor do universo, a cúpula de visualização de dados permitirá que pesquisadores, cientistas de dados, engenheiros e marketeers para voar em torno de seus dados. E, presumivelmente, apresentá-lo ao sonhador potenciais financiadores. As empresas privadas também poderão contratar o espaço.


Interior view of Bristol Planetarium

Basta visualizar o quão grande ele vai olhar em um par de dias ...



Será que isso significa astrofísicos estrelado-eyed do futuro vão ser uma cotovelada fora do planetário por analistas de dados cabelo pontiagudos e analistas de marketing que voam com gráficos de pizza e gramas de dispersão?


Winfield nós esta certeza não seria o caso. A estrutura ainda seria um planetário maior parte do tempo, com os analistas de dados apenas assumir para um quarto do tempo. Uma nova entrada é construída de modo que ele pode ser executado fora das horas normais de museu. ®







via Alimentação (Feed) http://ift.tt/1CUx2b9

quinta-feira, 19 de março de 2015

AI guru Ng: Temendo um aumento de robôs assassinos é como se preocupar com a superpopulação em Marte


GTC 2015 Inteligência Artificial boffin Andrew Ng disse engenheiros hoje que se preocupar com o surgimento de robôs assassinos do mal é como se preocupar com a superpopulação e poluição em Marte antes de nós mesmo pôr o pé sobre ele.


Ng - cientista-chefe da pesquisa na web gigante chinês Baidu e professor associado da Universidade de Stanford - disse se preocupar com um AI mal escravizar a raça humana era uma distração desnecessária.





O guru do software, que foi prendeu por Baidu pesquisa da Google , em 2014, após a construção de aparelhos de aprendizado de máquina enorme da goliath dos EUA, disse que não vai sequer se preocuparam em trabalhar contra o desenvolvimento de robôs assassinos por este motivo.


Celebridades no mundo da tecnologia têm se pronunciado sobre a possibilidade de aparecimento de uma inteligência dobrado artificial na erradicação seus criadores: Professor Stephen Hawking disse que a raça humana "não pode competir e serão substituídas ", e SpaceX supremo Elon Musk disse um computador super-inteligente poderia ser uma preocupação maior do que a aniquilação nuclear.


Mas Ng, que foi pioneiro poderosos sistemas deep-aprendizagem alimentados por processadores gráficos e é uma luz de liderança no campo crescente, está tendo nada disso.



Andrew Ng ... Pare de se preocupar com os Decepticons de Transformers



"Há também um monte de hype, que a AI vai criar robôs do mal com super-inteligência. Isso é uma distração desnecessária", disse Ng técnicos reunidos na Conferência de Tecnologia GPU da Nvidia em San Jose, Califórnia, na quinta-feira.


"Aqueles de nós sobre o código de envio de primeira linha, estamos excitados por AI, mas nós não vemos um caminho realista para o nosso software para tornar-se consciente.


"Há uma grande diferença entre a inteligência e sensibilidade. Não poderia ser uma raça de robôs assassinos em um futuro distante, mas eu não funcionam em não virar AI mal hoje, pela mesma razão que eu não me preocupo com o problema da superpopulação em o planeta Marte.


"Se nós colonizar Marte, poderia haver muitas pessoas lá, o que seria uma questão premente sério. Mas não há nenhum ponto a trabalhar nisso agora, e é por isso que eu não posso de forma produtiva trabalhar em não virar AI mal."


Ng também recapitulou o trabalho da Baidu no seu motor de fala obscura, que utiliza deep-learning para reconhecer e comandos de voz processo mesmo em ambientes ruidosos restaurantes, cafés e escritórios. Ele precisava de mais de 100.000 horas de amostras de fala, modificados usando efeitos especiais, para treinar a rede neural movidos a GPU.


O acesso ao sistema será aberto para desenvolvedores de aplicativos.


Teremos mais em sistemas de IA profundas-learning do Baidu e Google em escala ainda hoje. ®







via Alimentação (Feed) http://ift.tt/1CBKKzp

Boffins Oxford publicar mapa genético multa escala regional do Reino Unido


Uma equipe internacional de pesquisadores criaram um mapa genético em escala fina do Reino Unido, a primeira vez que tal mapa foi produzido para qualquer país do mundo.


A variação genética em escala fina entre populações humanas é de interesse para os pesquisadores, tanto como meio de rastrear movimentos históricos da população, e por sua capacidade de informar a análise estatística de como desenvolver doenças entre as populações.





Os adeptos do British Isles estudo foi financiado pelo Wellcome Trust , uma fundação de caridade global "dedicado a melhorar a saúde através do apoio mentes brilhantes." Foi publicado na revista Nature .


A equipe de pesquisa internacional, com base em toda a Oxford, UCL, ea Murdoch Childrens Research Institute australiano, analisou o DNA de 2.039 pessoas de áreas rurais do Reino Unido, cujos quatro avós nasceram dentro de 80 quilômetros um do outro. Como quarto do genoma de um indivíduo vem de cada um dos avós, os pesquisadores foram efetivamente amostragem DNA desses antepassados, permitindo que um instantâneo da genética do Reino Unido no final do século 19.


Para descobrir as diferenças genéticas extremamente sutis entre esses indivíduos, os pesquisadores usaram técnicas estatísticas de vanguarda para separar as amostras de DNA em indivíduos geneticamente semelhantes, sem saber para onde, no Reino Unido as amostras vieram. Ao traçar cada pessoa em um mapa das ilhas britânicas, usando o ponto central de lugares de nascimento de seus avós, eles foram capazes de ver como essa distribuição correlacionada com seus agrupamentos genéticos.


Aproximar-se de examinar os padrões genéticos no Reino Unido a maiores níveis de resolução, os pesquisadores descobriram que a população em Orkney emergiu como o mais geneticamente distintos. No próximo nível, a área geográfica de Gales formaram um grupo genético distinto, seguida de uma nova divisão entre o norte eo sul do País de Gales.


A próxima zoom mostrou no norte da Inglaterra, Escócia e Irlanda do Norte separar coletivamente a partir sul da Inglaterra, antes de Cornwall, em última análise formou seu próprio grupo separado. Outras distinções poderia novamente ser encontrado como Escócia e Irlanda do Norte separado do norte da Inglaterra. O estudo, eventualmente, focada no nível em que o Reino Unido foi dividido em 17 grupos geneticamente distintos de pessoas. O padrão de diferenciação genética revelou uma "concordância notável entre os clusters genéticos e geografia."


Em termos de migrações históricas, as conclusões boffins lhes permitiu sugerir "significativa pré-romana, mas pós-Mesolítico, movimento para sudeste da Inglaterra da Europa continental."


Seu trabalho confirma detalhes sobre os padrões de migração conhecidos e também sugere um fim a alguns debates em curso. Entre as suas principais conclusões, a relativa homogeneidade do grupo genético Inglês leste, centro e sul, com uma contribuição significativa de DNA migrações anglo-saxões (10-40% de ancestralidade total) resolve uma controvérsia histórica em mostrar que os anglo-saxões se casaram com , em vez de substituir, as populações existentes.


Os resultados também acabar com noções de um único, pré-Saxon coletiva, mostrando que "em não-saxão, existem partes do Reino Unido subgrupos geneticamente diferenciados, em vez de uma população geral" Celtic '. "


Dr Michael Dunn, chefe de Genética e Ciências Moleculares no Wellcome Trust, disse: "Estes pesquisadores foram capazes de usar técnicas genéticas modernas para proporcionar respostas para a secular questão - de onde viemos. Além dos fascinantes perspectivas sobre a nossa história, esta informação pode ser muito útil a partir de uma perspectiva de saúde, como a construção de uma imagem de genética de populações a esta escala pode, no futuro, ajudar-nos a projetar estudos genéticos melhor para investigar a doença. "


Alguns outros principais conclusões incluíram a descoberta de que os grupos genéticos separados em Cornwall e Devon divididos quase exatamente ao longo da fronteira moderna concelho. Este é um exemplo muito localizada de um algo que ocorre em nível nacional também, como muitos dos grupos genéticos do Reino Unido mostram locais semelhantes aos grupos tribais e reinos ao redor final do século 6, após a liquidação dos anglo-saxões , sugerindo essas tribos e reinos podem ter mantido uma identidade regional por muitos séculos, e, em menor grau, talvez ainda o fazem. ®







via Alimentação (Feed) http://ift.tt/1B6FhK2

terça-feira, 17 de março de 2015

Lágrimas Nvidia GeForce embrulha off Titan X (de novo) e US $ 10.000 GPU cérebro para carros DIY auto-condução


GTC 2015 Nvidia CEO Jen-Hsun Huang confirmou a chegada da GeForce Titan X a poucos minutos atrás, hoje, apelidando-o mais rápido GPU single-chip do Nvi até à data. Ele também mostrou dois kits de desenvolvimento: um sistema de alto-aprendizagem $ 15.000, e um $ 10,000 DIY auto-condução automóvel cérebro.


Chefe da fabricante de chips dos EUA está falando, este ano o GPU Technology Conference , em San Jose, Califórnia.





O Titan X, GM200 codinome, é um 28nm GPU Maxwell com 12GB de RAM GDDR5 Hynix, velocidade de clock de 1 GHz, largura de banda 336GB / s de memória, 8 bilhões de transistores, 3.072 núcleos CUDA, 7TFLOPS (precisão simples) e 0.2TFLOPs (precisão dupla) desempenho , e uma interface PCIe x16 3.0.


A 601 milímetros 2 die possui 192 unidades de mapeamento de textura e 96 unidades de varredura, um bus de memória de 384 bits, 3 MB de cache L2, e um poder de design térmico (TDP) de 250W. Ele tem o costume DVI, HDMI e três portas de exibição.


O cartão foi sugerido durante a Games Developer Conference deste ano, em San Francisco. Você vai precisar de uma Titan Z se quiser desempenho de matemática de precisão dupla.



Como o Titan X compara a outro hardware Nvidia (Fonte: wccftech.com )



Nvidia está lançando o Titan X não apenas para jogos, mas também para a transformação profunda-learning, e fixou o preço-lo em 999 dólares, como cartões Titan anteriores.


Em outros desenvolvimentos:




  • A fabricante de chips também está divulgando um Digits Devbox, um PC com o Ubuntu GNU / Linux e quatro Titan X cards, para engenheiros para produzir software deep-aprendizagem. Será disponível em maio de 2015, e custou US $ 15.000. Nvidia está a construir-los um por um, com o objectivo de especialistas que jogam com a aprendizagem de máquina, em vez de os jogadores que querem jogar Crysis.

  • Nvidia 2016-programado Pascal GPU terá 32 GB de RAM, memória 3D, três vezes a largura de banda de memória de 2014 Maxwell, a interconexão Nvlink, e misturado precisão [PDF] .

  • Nvidia também está ficando muito animado com carros inteligentes, bem como deep-learning. "O futuro de seu carro será displays digitais, tocar e gesto. Seu carro será um computador delicioso correndo pela estrada", disse Huang.

  • Huang novamente delineou a Nvidia unidade PX auto-condução automóvel, que detecta seus arredores na estrada, aheads plano usando algoritmos rede neutra profundas de tomada de decisão, e controla o veículo - direção, frenagem, aceleração, e de advertência. Ele tem dois Tegra X1 GPUs, 12 entradas de câmera, e pode processar 184 quadros por segundo usando 630 milhões de conexões de rede neutros. A placa de circuito unidade PX estará à venda em maio de 2015, e custar US $ 10.000 - é destinada a engenheiros como um kit DIY carro que dirige sozinho (como o conselho de administração da Intel desde o ano passado ).

  • SpaceX e Tesla supremo Elon Musk juntou Huang ao palco para descrever carros que dirigem como "elevadores". Aperte um botão e pronto.

  • Musk repetiu seus temores de inteligência artificial, não o tipo de aprendizagem de máquina em um aparelho de ar condicionado inteligente, mas "grande inteligência." ®







via Alimentação (Feed) http://ift.tt/19wgpWq

terça-feira, 10 de março de 2015

Infiniband Associação acrescenta controle freakery para Volume 1 especificação


A Associação Comercial de InifiniBand (IBTA) espera para afastar o risco de uma invasão Ethernet nas fileiras dos usuários de HPC com um foco renovado sobre a capacidade de gerenciamento e visibilidade.


Essas características têm apenas apareceu em versão 1.3 do padrão Volume 1. Do IBTA Bill Lee disse ao The Register que, como clusters HPC crescer ", você quer ser capaz de ver todos os níveis da chave de interconexão, para que possa identificar estrangulamento pontos e trabalhar em torno deles".





Ao mesmo tempo, Lee disse, a quantidade de sobrecarga de tráfego de controlo tem de ser minimizado.


"Hoje, os blocos de construção da matriz de comutação são mais comumente single-RU 36 chaves de portas, ou switches de chassis", explicou Lee.


Na especificação atual, interruptores chassis olhar para sistemas de gestão como uma única unidade, quando, na realidade, existem "três saltos entre a entrada e saída de cartão de linha", e é essa profundidade extra de gestão que o IBTA quer entregar.


Outra parte importante do gerenciamento é a adição de informações de interconexão para o tecido. Rupert Dança do Open Fabrics Alliance disse "ser capaz de consultar os cabos - para descobrir se eles são de cobre ou fibra passiva ativa - significa que os interruptores de sintonia pode-se baseado na interconexão."


A especificação está disponível no site do IBTA, aqui . ®







via Alimentação (Feed) http://ift.tt/1b1hMN6

Wikimedia lança sueball a NSA e DOJ sobre vigilância arrastão


Fundação Top Wikifiddler Jimmy Wales 'Wikimedia já anunciou a intenção de mover uma ação judicial contra a Agência de Segurança Nacional dos EUA (NSA) e do Departamento de Justiça (DOJ) desafiando programas espiões Dragnet como PRISM.


Em um comunicado à imprensa, a Fundação Wikimedia declarou a sua "meta na apresentação deste naipe é acabar com este programa de vigilância em massa, a fim de proteger os direitos de nossos usuários ao redor do mundo."





Eles são unidos por outras oito organizações "de todo o espectro ideológico", incluindo:



  • A Associação Nacional de Advogados de Defesa Criminal

  • Human Rights Watch

  • Anistia Internacional dos EUA

  • Pen American Center

  • Fundo Global para Mulheres

  • A Revista Nation

  • O Instituto Rutherford

  • O Escritório de Washington para a América Latina


  • Homens alegres do Jimbo são representados pela American Civil Liberties Union (ACLU).


    Wales & Co. não está sozinho em trazer um processo contra a NSA. Desde 2008, a Electronic Frontier Foundation (EFF) vem tentando parar a NSA ( Jewel v. NSA ) coleta, em arrastão-fashion, os dados de comunicações de clientes da AT & T. ®









via Alimentação (Feed) http://ift.tt/1BmtpIb

segunda-feira, 9 de março de 2015

Os computadores quânticos falharam. Então agora para a ciência


Eu sou um herege . Lá, eu já disse isso. Meu heresia? Eu não acredito que os computadores quânticos podem sempre trabalhar.


Eu tenho sido um criptógrafo para mais de 20 anos e durante todo esse tempo que nos foi dito que, mais cedo ou mais tarde alguém iria construir um computador quântico que fatorar números grandes com facilidade, tornando os nossos sistemas atuais inútil.





No entanto, apesar das enormes quantidades de dinheiro gasto pelos conselhos de pesquisa e agências governamentais, as coisas estão presos em três qubits. Factoring 15 é fácil; 35 parece muito difícil. A empresa canadense começou a vender computadores que eles afirmam serem quantum; cientistas do Google e NASA disseram que não podiam observar qualquer quantum de aumento de velocidade.


Recentemente, o governo do Reino Unido decidiu levar R $ 200 milhões do orçamento da ciência e dedicá-lo a fundar uma série de novos "hubs quântica". Isso pode ser um mau sinal; bênção ministerial é, muitas vezes os últimos ritos de uma idéia falhando.


Então vai mais um heave nos levar lá, ou é tudo uma perda de tempo?


Uma resposta é sugerida pelos saltando belas experiências de gotículas de Yves Couder, que começou há dez anos.


Yves Couder Explica dualidade onda / partícula via Silicon Gotas


Ele descobriu que se você vibrar uma bandeja de óleo verticalmente a 4g e 30Hz, então gotículas vai saltar indefinidamente sobre o óleo e ainda vai se mover e interagir uns com os outros, exibindo muitos dos phemonena da mecânica quântica. As gotículas de mostrar-fenda única e dupla fenda difração, tunneling, Anderson localização e órbitas quantizados. Talvez, com uma bandeja de óleo grande o suficiente, poderíamos até mesmo implementar um computador quântico usando gotas de óleo - mas que seria apenas um computador analógico, para que você não poderia esperar qualquer mágico de aumento de velocidade.


Poderiam os experimentos de gotículas estar tentando nos dizer alguma coisa sobre a física de forma mais geral? Físicos Mainstream costumava acreditar que a matéria e as forças que agem sobre ele foram, provavelmente, as ondas em um éter subjacente, mas os defensores de uma teoria da matéria (nomeadamente Einstein, Lorentz e de Broglie) wave foram out-argumentou em uma conferência de 1926 na Bélgica pelos jovens turcos que estavam apenas inventando mecânica quântica, como Bohr, Heisenberg, Schrödinger e Dirac, cuja visão se tornou a nova ortodoxia.







via Alimentação (Feed) http://ift.tt/1HngwhR

terça-feira, 3 de março de 2015

Aí vem Vulkan: A próxima geração da API gráfica OpenGL


GDC 2015 O Khronos Group, custodiante sem fins lucrativos do OpenGL multi-plataforma API gráfica, anunciou a sua substituição, chamado Vulkan.


Vulkan, anteriormente conhecido como glNext, está sendo apresentado em detalhes no The Game Developers Conference (GDC), actualmente em curso em San Francisco.





Khronos também anunciou OpenCL 2.1, uma versão atualizada do seu API para programação paralela de propósito geral. OpenCL é tipicamente usado para tirar vantagem dos múltiplos núcleos em uma GPU para acelerar as aplicações que exigem um processamento intensivo. Ambas as normas são projetados para aplicação multi-plataforma, ao contrário de APIs específicas da plataforma, tais como DirectX para Windows ou a API do metal em hardware Apple.


Sustentar tanto Vulkan e OpenCL 2.1 é uma nova versão do SPIR (Standard Portátil Representação Intermediária), uma linguagem intermediária desenvolvido pela Khronos para computação e gráficos paralelamente. Como com o popular projeto LLVM , usando uma linguagem intermediária permite o suporte para várias linguagens de programação e conjuntos de ferramentas. O novo SPIR-V inclui o controle de fluxo, gráficos e construções paralelas necessárias para a programação de alta performance gráfica. O suporte para o OpenGL Shader Language (GLSL), para definir efeitos de desenho, está em desenvolvimento e suporte futuro para uma linguagem C ++ shader é provável. O uso de uma linguagem intermediária permite a simplificação dos motoristas GPU, uma vez que só precisa consumir código SPIR-V. O uso de SPIR-V, tanto Vulkan e OpenCL 2.1 é um passo significativo no sentido da convergência entre as duas normas.


Por que o OpenGL precisa refazer? OpenGL é de 22 anos de idade e foi originalmente projetado para estações de trabalho gráficas, ao invés de plataformas atuais, que incluem chipsets móveis com memória compartilhada entre CPU e GPU. Em OpenGL ", o motorista faz muito trabalho: validação do estado, rastreamento de dependência, a verificação de erros, o que limita e randomizes desempenho", diz Khronos. Em Vulkan, o aplicativo tem controle direto sobre o funcionamento da GPU através de um condutor simplificado. "A GPU foi desnudada para você. Você pode estragar tudo, mas nas mãos certas isso dá-lhe o desempenho máximo do sistema, e dá os lotes de desenvolvedores de flexibilidade ", da Nvidia Neil Trevett, presidente do Grupo Khronos, disse El Reg.


Em OpenGL, o compilador de linguagem shader é parte do condutor, enquanto Vulkan consome SPIR-V. Isto também significa que os desenvolvedores não precisam mais enviar o código fonte shader. Vulkan também é melhor para a programação multi-core, com vários buffers de comando que executar em paralelo. "Na arquitetura OpenGL tradicional, criando buffers de comando e submetê-los à GPU era difícil se dividir em vários segmentos, e muitas vezes os aplicativos OpenGL são CPU limitada, a GPU não pode ser alimentado rápido o suficiente. Agora você pode criar quantos buffers como você quer em paralelo. Esta foi a única coisa que não poderia fixar em OpenGL ", diz Trevett.


Vulkan será uma única API que terá uma duração de desktop, console de games, mobile e plataformas embarcadas. É "uma reformulação de baixo para cima, não estamos para trás compatível com OpenGL", diz Trevett. A especificação real de Vulkan ainda não foi lançado, mas Khronos está esperando especificações iniciais e implementações mais tarde em 2015.


Suporte para Vulkan é generalizada, inclusive de grandes nomes como Intel, a Apple, ARM, Nvidia, AMD, e fornecedores de chipsets, como a Qualcomm, Imaginação e Mediatek. Khronos também tem participação ativa de desenvolvedores de jogos do motor, como Epic, Valve, Unity e Blizzard, que estão bem posicionados para tirar proveito do que Vulkan oferece.


As primeiras versões do SPIR usado LLVM, mas SPIR-V não faz, porém Khronos promete ter tradutores de código aberto entre LLVM e SPIR. Porque não usar LLVM? "É uma questão de governação. LLVM em sua carta pode mudar qualquer coisa a qualquer momento. O que significa para kernels tentando definir APIs de hardware estáveis ​​é que nós poderíamos encontrar-se quebrado se LLVM jinked esquerda. Na comunidade de hardware que era inaceitável ", diz Trevett.


Em OpenCL 2.1, para além do apoio SPIR-V, a grande mudança é que agora suporta C ++ como linguagem kernel, executando na GPU. "É a grande peça da comunidade de desenvolvedores", disse ao jornal The Trevett Reg. O OpenCL linguagem C ++ kernel é um subconjunto de C ++ 14 e inclui funções lambda, classes, modelos e sobrecarga de operadores, entre outros recursos. Suporte C ++ irá torná-lo mais fácil de escrever ou o código da porta para computação de alto desempenho para executar na GPU ou outras placas aceleradoras que aplicam a norma.


OpenCL 2.1 é uma especificação provisória e Vulkan ainda não foi liberado, assim você não vai estar jogando jogos Vulkan potência em um futuro próximo. Como tal, as coisas vão embora, as normas estão progredindo rapidamente. É uma grande mudança, prometendo melhor desempenho e programação mais fácil, embora uma indústria API multi-plataforma standard. ®







via Alimentação (Feed) http://ift.tt/1DNVXtL

quarta-feira, 25 de fevereiro de 2015

Exército dos EUA traça novo monstro petascale e 'nuvenzinhas táticos'


Os EUA Research Labs Army (LRA) apresentou um plano para fugir China nas estacas de supercomputadores, desenvolver a computação quântica, e criar o Terminator. *


Apesar - ou talvez por causa - de um aperto orçamental provável, o ARL diz que precisa "aproveitar o potencial das ciências computacionais e computadores de alto desempenho emergentes (HPC)".





O Exército Plano de Implementação Técnica (PDF) solicita que os sistemas petascale de estar no lugar antes de 2019.


Há também um foco em grandes dados para apoiar o seu "domínio da informação", bem como ajudando manobras e, em uma linha que poderia aparecer em um quiz "quem disse isso, um alto-falante TED ou Coréia do Norte?": "Aumentar significativamente e tailor avançado computação arquiteturas e tecnologias de computação ciências na vanguarda para permitir o domínio do poder terrestre ".


A iniciativa Tactical HPC exige um computador battlespace petaflop 100, que a ARL quer fornecer processamento em tempo real para os soldados "operando no limite tático", bem como apoiar sistemas autônomos e fornecer "análise de dados em tempo real para os soldados e os analistas de inteligência" .


Sua capacidade seria quase o dobro do atual líder mundial, a China Tianhe-2.


"Nuvenzinhas táticos" vai se casar com as capacidades de computação em kit dos soldados com "plataformas HPC personalizados móveis que operam no limite tático".


Aplicações da ARL prevê para a sua HPC unicórnios nublados incluem "ajudas de inteligência artificial para tomada de decisões, os conjuntos de dados de processamento em larga escala (texto, vídeo), e sistemas de navegação para veículos autônomos".


Tecnologias quânticas obter um aceno de cabeça, com o planejamento do Exército para enganar os investigadores seguem redes quânticas e recozimento quântica (a técnica reivindicada pela D-Wave), bem como bio-informática e arquiteturas de computação neuro-sináptico. ®


* Bootnote: OK, nós fizemos esse bocado para cima. O plano, no entanto, ligue para o poder de computação a ser aplicada, entre outras coisas, para o desenvolvimento de novos materiais para melhores uniformes do campo de batalha, para melhor "letalidade, proteção, eletrônica, energia e equipamentos de soldado desmontado". ®







via Alimentação (Feed) http://ift.tt/1Ds3SwR

segunda-feira, 9 de fevereiro de 2015

Arrastando um cluster HPC ao plano como bagagem carry-on? NÃO


Blog HPC Em nosso artigo mais recente , que levou uma olhada nas equipas universitárias SC14 competição Cluster Student baseados nos Estados Unidos, que têm a intenção de manter a coroa SC firmemente no bom e velho dos EUA de A.


Como de costume, a competição SC atraiu uma grande variedade de equipes de estudantes de todo o mundo. No SC14, entrevistamos quase todos eles para dar-lhe um olhar exclusivo sobre o que eles estão trazendo para a mesa. Vamos dar uma olhada no campo estrangeiro ...





Equipe USTC (University of Science & Technology, China): Insiders considerar USTC como uma das novas equipes de elite do circuito competição conjunto o internacional.


Em sua primeira competição, em ISC14, a equipe Sugon patrocinado bater outras nove equipes, muito mais experiente, para conseguir um segundo posto, atrás do campeão geral África do Sul.


Como você verá no vídeo, esta edição da equipa de USTC é inteiramente novo. Você também verá me cometer um faux paus embaraçoso quando eu engano supor que a fêmea nesta equipe USTC é a mesma mulher que estava na equipe ISC14.


Youtube Video


(Em minha defesa, eu incluí uma imagem estática da mulher da equipe ISC para efeitos de comparação. Os dois não são coisas completamente diferentes, isso é tudo que estou dizendo.)


Este ano, a equipe está usando um novo sistema Sugon brilhante refrigeração líquida. Segundo a equipe, o espaço térmico adicional deu-lhes a possibilidade de configurar peças de frequências mais altas e para executá-los mais difícil também.


Equipe de Cingapura (Universidade Nacional de Cingapura): Eles sorriram muito, mas não disse muita coisa. Isto é devido à barreira da língua, em vez de a equipe não querer se envolver em meus projetos de vídeo tediosas. (Eu acho que.)


A partir da leitura de pré-competição proposta arquitetônica da equipe de Cingapura, é óbvio que os caras não rabiscar-lo em guardanapos enquanto swilling Singapore Sling no Long Bar. Foi uma das propostas mais dados e cheio de pensamento que eu já vi em anos.


No vídeo, falamos sobre como a equipe está se aproximando dos apps. Eles não estavam familiarizados com elas antes da competição, mas espero ter apanhado o suficiente para torná-los um contendor. Como os rolos de vídeo, você vai ouvir o Siren of Doom pelo menos uma vez, apenas para quebrar as coisas.


Youtube Video


Você também vai ver me dar à equipe uma curta conversa estimulante sobre os sacrifícios exigidos pelos concursos de cluster aluno. A equipe foi completamente perplexo com meus dramas. Deve ser a barreira da língua, certo?


Equipe Kraut (FAU - Alemanha): Voltar para a sua segunda participação em uma competição de SC é a equipe de Erlangen, na Alemanha. Eles são tão envolvente como nunca, e está procurando fazer algumas ondas em SC14.


Eles estão trazendo o mesmo pessoal este ano, juntamente com as mesmas fotos de gatos que decoram sua mesa, mas tem um novo patrocinador (NEC), e um renovado desejo de vencer. No vídeo, falamos as diferenças entre este ano e do ano passado. (Exemplo: "No ano passado nós não sabíamos o que estávamos fazendo este ano, o que fazemos.".)


Youtube Video


Eles também discutem por que o transporte de um cluster HPC como bagagem de mão não é uma boa idéia e tocamos por isso que é importante manter alemães ocupado e ativo como grande parte do tempo possível.


Muito divertido equipe e é ótimo vê-los de volta.


Equipe Aussie (IVEC, Austrália): Team Aussie é um consórcio de várias universidades da Austrália. Este é o segundo torneio de SC, e eles trouxeram uma equipe completamente nova para a batalha de Nova Orleans.


Primeiro, eu preciso de desfazer um rumor desagradável. O treinador Aussie provavelmente não disparou todos na equipe 2014 porque não ganhar a competição. Ela é uma pessoa muito melhor do que isso, de acordo com, bem, ela.


No vídeo podemos discutir uma vasta gama de tópicos com a equipe, incluindo o quão difícil é para equilibrar a formação competição cluster com o trabalho de aula regular. Eu disse a eles que eles precisam para deixar toda a classwork ir. Ele só fica no caminho de agrupamento grandeza.


Youtube Video


Vemos também um exemplo fantástico de a arte de bode expiatório e contra-bode expiatório. É destaque no vídeo, começando em torno da marca 03:15.


Há também um estudante na equipe australiana que é tão rica em artes cluster que se os organizadores deram-lhe uma batata, ele pode compilá-lo e obter algum maldito bons resultados. Agora que é uma reivindicação impressionante, tem que amar isso.


Nós não conseguimos falar com Equipe HUST (Huazhong University of Science and Technology, China) nesta rodada de entrevistas, devido a serem muito ocupado quando estávamos fazendo nossas rodadas iniciais. Nós também ficou de fora em uma entrevista com o Team Taiwan (National Universidade de Tsinghua, Taiwan), devido a um problema técnico da nossa parte. Mas nós alcançá-los mais tarde.


Em nosso próximo conjunto de artigos, estaremos verificando-se com a equipe no meio da competição. Fique atento ... ®







via Alimentação (Feed) http://ift.tt/1A9TZ75

Pimp my cluster: GPUs, nitrogênio líquido e AAAAAH! Que cheiro novo compilador


Blog HPC Neste artigo, vamos dar uma olhada mais de perto as equipes que disputaram o histórico SC14 Student Competition Cluster. Como de costume, é uma grande mistura de campeões retornam, as equipes de veteranos empurrando para se juntar à elite, e completamente novas equipes que estão tentando descobrir o que eles inferno que estão fazendo.


(Por algum fundo, clique aqui para ver os aplicativos que eles tiveram que correr nesta edição da competição e / ou clique aqui para ver como os seus sistemas caseiros são configurados.)





Vamos dar uma olhada nas equipes de base campo casa US primeiro:


Equipe Longhorn (University of Texas, Austin): Nenhuma equipe tinha mais pressão sobre eles do que os Longhorns Texas. Eles estavam tentando completar o hat trick - uma vitória de três turfa em SC.


Como você verá no vídeo, eles são um pouco nervoso. Na verdade, é a primeira vez em quatro competições que eu já ouvi-los admitir que senti qualquer pressão ou nervosismo, que lhe diz o quanto a pressão que eles estão sentindo.


Youtube Video


Falamos sobre a sua composição da equipe (que perdeu alguns membros da equipe para as fileiras pró) e sua configuração do sistema. Eles estão muito despediu-se sobre sua caixa este ano. Mesmo que tenham menos nós, eles imaginam que é cerca de 30 por cento mais rápido devido a mais CPUs avançadas.


Eles também falam sobre sua mudança para evitar GPUs na caixa deste ano. Segundo a equipe, eles não ver muito valor em-los para a lousa de apps em SCC'14. (Em nossa próxima resultados abrangentes blog, vamos examinar essa afirmação para ver se há alguma verdade nisso.)


Esta competição é única porque o arqui-rival do Texas ", University of Oklahoma, também está competindo em New Orleans. Eu não pude resistir a tentar obter um pouco de guerra gama começou entre as duas equipes. Os caras Texas foram gentis, mas ainda arremessou alguns tiros em direção às crianças de Norman.


No fundo deste e de outros vídeos, você vai ocasionalmente ouvir o que eu tenho chamado de "Siren of Shame", que é o sinal de que algum time infeliz passou por cima da tampa de energia de 3.000 watt. Os organizadores da competição deste ano estão a tomar uma linha mais dura sobre as violações cap poder - mesmo avaliando penalidades para as equipes que vão sobre a tampa por muito tempo ou com muita freqüência.


Massa verde: é um amálgama de serveral universidades da área de Boston, que, quando combinados com álcool (ou até mesmo refrigerantes) é geralmente uma receita infalível para uma luta.


No entanto, as coisas são pacíficas no estande da massa verde, pelo menos até agora. A equipe é uma combinação de veterinários de SC13 e ISC14, além de quatro novos membros. Neste vídeo competição cedo, eles estão gostando suas chances de ganhar a coroa de cluster este ano.


Confiança precoce não é atípico para as equipes de massa verde, mesmo que eles já competiu em cinco grandes lutas e ainda têm de levar para casa o queijo. Mas é uma equipe que tem melhorado de forma constante ao longo dos anos e mudou-se até as fileiras.


Youtube Video


No vídeo eles discutem o que eles estão fazendo de diferente desta vez - incluindo gerenciamento dinâmico de energia, novas bibliotecas, compiladores que ainda têm aquele cheiro de "novo compilador", e assim por diante.


Equipe Calderero (Purdue / EAFIT): Então, o que é um 'Caldero'? É o termo em espanhol para "Boilermaker ', como em Purdue Boilermaker. Esta equipa é uma mistura de tradicionais de cluster crianças Purdue com uma infusão de estudantes da sua escola irmã, EAFIT de Columbia.


No vídeo, falamos sobre como a equipe se reuniram e como a parceria transfronteiriça funcionou. Como se vê, um dos membros da equipe EAFIT estava estudando no local em Purdue, deixando apenas dois membros que tinham de comunicar remotamente. Um dos membros EAFIT foi passar um tempo em Purdue, mas dois outros membros colombianos eram remotas.


Youtube Video


Nós também tivemos uma boa discussão em torno da sua configuração de hardware para SC14. Eles olharam para um monte de configurações diferentes, incluindo agrupamento tradicional em linha reta, a adição de alguns co-processadores Phi, ou ligar com algumas GPUs.


Eventualmente, sua escolha foi ditada pelas limitações físicas de seus chassis. Então, pela primeira vez na história, Purdue está dirigindo NVIDIA GPUs em uma competição de cluster. E, até agora, eles estão gostando.


Neste ponto no início da competição, a equipe estava investigando como eles embalar os aplicativos em seu sistema, a fim de garantir o máximo aproveitamento e rendimento.


Você vai notar que a sirene de vergonha saiu algumas vezes durante a entrevista, mas ela não foi causada pela Equipe Calderero.


Equipe Mais cedo (University of Oklahoma): refrigeração líquida Immersive faz outra aparição em uma competição de cluster aluno. Yay! Equipe Mais cedo trouxe a grande Revolução Verde cuba de óleo mineral para resfriar sua pequena coleção de nós.







via Alimentação (Feed) http://ift.tt/16JEKGc

quinta-feira, 5 de fevereiro de 2015

Big Data, barrigas vazias: Como supermercados tweak preços apenas para a causa do seu amor


Como os números comerciais de Natal surgiu das grandes nomes supermercados no mês passado, o resultado de sua guerra de preços foi desnudada.


Os consumidores beneficiaram da queda dos preços dos alimentos, enquanto discounters de gama limitada Aldi e Lidl gostei de sua crescimento mais rápido de sempre. No entanto, esta guerra não foi sem suas vítimas.





Morrisons realizada tão mal está decidido a procurar um novo CEO, enquanto outrora poderoso Tesco entrou no modo de recuperação, o dumping ativos não essenciais na ciência de dados e serviços de banda larga e fechar 43 lojas para economizar dinheiro.


O número de produtores de alimentos busto indo aumentou dramaticamente como supermercados espremer produtores na busca de maior lucro, de acordo com a empresa de contabilidade Moore Stephens.


"Os supermercados estão a atravessar a mais sangrenta guerra de preços em quase duas décadas e estão usando os produtores de alimentos como a carne para canhão", disse Duncan Swift, um dos sócios da empresa.


É fácil de ver a batalha como um dos preços, algo descrito como uma corrida para o fundo como supermercados cortar, corte inferior e cortar mais uma vez.


Investimentos em tecnologia há muito sustentada as estratégias das maiores supermercados do Reino Unido para ganhar mercado e conquistar clientes; mas o que tem papel que desempenhou na batalha de rua para a sua carteira ou bolsa?


Você pode não ser surpreendido ao saber recolha e análise de dados estão fazendo uma parte integrante das estratégias de varejo que são mais evoluídos e sutil do que uma luta cru no preço sozinho.


"A tecnologia, ou mais precisamente as vastas quantidades de dados que grandes supermercadistas podem agora coletamos em nossos hábitos de consumo e comerciais e analisar, cresceu certamente a desempenhar um papel mais crítico em sua busca por market share e supremacia preço, tudo em um cada vez mais mercado competitivo saturado ", Miya Knights, analista de pesquisa sênior da IDC Retail Insights, disse ao The Register.



"A indústria tem falado por cerca de 20 anos sobre a integração de tudo, mas é realmente só agora que a tecnologia é realmente capaz de cumprir as suas promessas ... É tudo sobre o giro de big data para o conhecimento do negócio, e nós só estamos realmente no começando de varejistas transformando esses dados em valor. "



"O preço é onde a guerra é no momento, mas eu não acho que alguém está ganhando", diz Bernard Marr, consultor de empresas e autor de Big Data: usando o Smart Big Data, Analytics e métricas para tomar melhores decisões e melhorar o desempenho. "O preço é muito intensivo de dados, mas todos eles podem fazê-lo agora. Todo mundo tem acesso aos mesmos dados. "


"Price tem um número de elementos a ele", explica Chris Field, diretor-gerente da Trabalhos de campo, uma consultoria de marketing indústrias de consumo especializadas. "Price correspondência parece bastante inteligente e tecnologia por trás dele é bastante inteligente, mas por que alguém iria pensar para dar margem por correspondência preço com outra loja?"


O campo diz que a verdadeira batalha não é sobre correspondência de preço, mas em vez disso, usando o preço como um meio para construir a confiança e, finalmente, a lealdade com os consumidores. Para esse objetivo, o desafio dos supermercados é como integrar dados de toda uma série de áreas - de informações de mercado competitivo de provedores de terceiros, tais como Nielson, dados de cartões de fidelidade e uma visão única das transações de cada cliente em toda a gama de canais - oferecer promoções personalizadas sobre os produtos certos para os clientes certos, na hora certa.


"A indústria tem falado por cerca de 20 anos sobre a integração de tudo, mas é a única verdadeira, agora que a tecnologia é realmente capaz de cumprir as suas promessas", diz Field, que acredita que muitos varejistas estão sentados em aplicações analíticas que não usei porque a integração de todos os vários silos de informação é muito difícil ou demora muito.


"É tudo sobre o giro de big data para o conhecimento do negócio, e nós estamos realmente apenas no início de varejistas transformando esses dados em valor", acrescenta.


Tome uma coisa chamada "tecnologia de otimização de preço." Esta tem sido em torno de algum tempo, mas a adoção entre os varejistas é agora realmente ramp up, em grande parte devido ao fato de que eles agora têm os dados relevantes sobre as vendas, previsões e preços competitivos para a mão. Combinado com os avanços em software de computação de alto desempenho, serviços e infra-estrutura, isso é o que lhes permite executar análise de dados em profundidade, diz Knights da IDC.


De uma perspectiva de estratégia de preços, não é necessariamente sobre ser o mais barato do mercado. O software utiliza modelagem avançada estatística, mineração de dados, reconhecimento de padrões e técnicas de otimização para acompanhar a demanda do cliente, medir o quanto um preço é percebido - seja muito alto, apenas para a direita, ou muito baixo - em relação a outros varejistas, e otimizar preços e promoções.


"Trata-se de onde você dá descontos para ainda dar a si mesmo um bom retorno, mas agora os aplicativos precisam olhar para o valor do ciclo de vida de clientes, incluindo olhando em frente para compras que vai fazer no futuro", de acordo com a cabeça de CapGemini do digital, produtos de consumo e varejo Alex Smith-Bingham.


O software e / ou serviços de otimização de preço principais fornecedores neste espaço incluem Revionics, KSS Retail, Dunnhumby (que Tesco tomou uma participação de 53 por cento em 2001 para uma £ 30m relatado, mas que Tesco está agora olhando para vender), IBM DemandTec, SAS Retail, Vendavo (que fornece Preço e Gestão Margem módulo SAP da) e Oracle Retail Preço normal Optimization.







via Alimentação (Feed) http://ift.tt/18QaXwO

sábado, 31 de janeiro de 2015

ESTUDANTE RACK WARS: Ciência e HPC - Todas as crianças estão a fazê-lo nos dias de hoje


HPC blogue É bem passado o tempo para discutir e analisar o que aconteceu no sétimo emocionante competição Cluster Student anual, que teve lugar no SC14 em Nova Orleans no ano passado.


Logo após SC14 fechada, dei uma longa viagem para a África do Sul para cobrir sua competição aglomerado CHPC - a luta intra-país que gerou seus ISC'13 e ISC'14 Campeão equipes.





O evento em Nova Orleans foi a maior competição de SC à data, com 12 equipes de estudantes representando universidades de sete países diferentes.


A estrutura era a mesma nos últimos anos: os alunos trabalham com seu corpo docente e patrocinadores para a construção do cluster HPC mais rápido possível - com uma tampa de poder absoluto de 3.000 watts (120 volts, 26 ampères). Eles podem usar qualquer hardware que podem obter, desde que ele esteja disponível comercialmente no momento da competição.


Para informações mais detalhadas sobre as competições de cluster estudante em geral, olha aqui .


As competições SC são maratonas de 46 horas de benchmarks de HPC e aplicações científicas. As chapas de aplicativos para o torneio de 2014 foram uma sacola de ambas as cargas de trabalho e familiares novos. Vamos dar uma olhada ...


HPCC: A competição sempre começa com uma boa corrida de idade HPCC. Os alunos passaram correndo segunda-feira toda a suíte HPCC oito app mais um HPL (LINPACK) run separado que seria usado para o prêmio mais alto cobiçado prêmio LINPACK.


ADIRC: Isso é novo para competições de cluster. É uma abreviação de Circulação Avançado Modelo, e é usado para modelar as coisas tais como tempestades, marés, e como o vento move a água ao redor. Quer descobrir como um derramamento de óleo pode se espalhar em uma tempestade? ADIRC tem as respostas, ou pelo menos a capacidade de modelar o resultado com base em suas estimativas.


NAMD: Este programa de dinâmica molecular tem sido utilizado em várias competições passadas. É escalas como uma doninha Fisher, capaz de rodar em qualquer lugar a partir de um punhado de 500.000 núcleos de CPU.


É usado para modelar e simular a maneira um grande número de átomos e como reagir em condições diferentes.


Vamos dizer que você tem uma grande pilha de átomos em uma tigela. Você usaria NAMD para modelar o que aconteceria se você adicionou muitos átomos e eles derramado sobre a bancada. É normalmente utilizado para modelar problemas mais complexos do que isso, no entanto.


MATLAB: Se você fazer matemática grave, mais cedo ou mais tarde você vai correr em MATLAB. Ele foi desenvolvido para dar aos alunos a capacidade de executar cálculos complexos em computadores sem ter que aprender Fortran (para o qual ele ganhou a gratidão de milhões).


É realmente uma linguagem de computador matemática e meio ambiente, em vez de um aplicativo como o Excel. Como seria de esperar, MATLAB tem uma série de funções, mas não se esqueça dos favoritos, como adição, subtração, multiplicação e divisão.


Aplicação Mystery (Enzo): Enzo é uma simulação cosmetologia que modelos como vários tipos / quantidades de cosméticos ... simulação cosmológica usado para modelar uma vasta gama de efeitos cósmicos e planetários.


Se você estava tentando descobrir como as estrelas formaram, viveu, eo que acontece quando eles morrem, você iria querer arranjar algum Enzo. Os alunos não aprendem sobre a aplicação mistério até depois da competição já estava em andamento - o que significa que eles não podiam se preparar para ela, que sempre faz as coisas mais interessantes.


Cada uma das aplicações tem vários conjuntos de dados ou tarefas que precisam ser concluídas. Os organizadores do concurso se certificar de que a quantidade de computação é sempre mais do que as equipes podem terminar nas atribuídas 46 horas. Isso coloca um prêmio sobre o planejamento e gestão de carga de trabalho - equipes que podem manter seu hardware ocupado executar várias tarefas ao mesmo tempo vai ficar mais trabalho e obter maior pontuação.


Especialistas de aplicativos também entrevistar as equipes para garantir que os alunos a compreender o que o aplicativo faz, por isso que é importante, e como torcer o melhor desempenho fora dele. Entrevista pontuações são combinadas com os resultados objetivos de aplicação para chegar a uma pontuação final para cada equipe.


Próximo passo: Configurações e figurações


Tendo em conta que todas as 12 equipes estão executando as mesmas aplicações, têm as mesmas escolhas de componentes disponíveis para eles, e estão lutando com a mesma restrição de energia, você pode assumir que as suas configurações de hardware seria quase idêntica. Mas você pode estar errado!


Este ano vimos grupos que variam de quatro nós, mini-clusters de 96-core para nove e dez monstros-node, 288-core.


A maioria das equipes estavam embalando GPUs, e implantá-los de maneiras novas e diferentes do que vimos antes. Nós também tivemos um pouco de refrigeração líquida na mistura também. Detalhes em nosso próximo relatório, para assistir a este espaço ... ®







via Alimentação (Feed) http://ift.tt/16cJmVD

quarta-feira, 28 de janeiro de 2015

Kids-lutando Cluster confronto: Battle of the Big Iron no Big Easy


HPC Blog Duzentos anos após a primeira batalha de Nova Orleans *, vimos o terceiro, e talvez mais importante, desavença a cidade já viu. Estou, naturalmente, referindo-se ao SC14 competição Cluster Student (aqui está um guia rápido de como as batalhas HPC dos jovens trabalham ).


Esta é a sétima vez que estudantes universitários lutaram entre si para ver qual equipe pode campo um cluster que pode dominar todos os outros - enquanto permanecer sob a tampa de alimentação de 3.000 Watt.





O campo este ano foi o maior "Big Iron" face-off na história competição SC - e também o mais variado. Doze equipes de sete países trouxe o seu melhor para New Orleans e todos tinham grandes esperanças de snagging ou o mais alto LINPACK ou cobiçados títulos geral campeão.


Como de costume, nós vimos uma grande variedade de sistemas e configurações das equipes de estudantes. Aqui está a grande figura:








via Alimentação (Feed) http://ift.tt/1EP0CM1

terça-feira, 13 de janeiro de 2015

MAINFRAMES são SO NÃO MORTOS: IBM lançou um novo


Pelo menos 20 anos depois de os especialistas primeira pronunciou a morte do mainframe, a IBM lançou um novo.


É claro que a prova do pudim vai estar no mercado, mas a IBM será esperando que os bilhões de dólares que é derramado em desenvolver o novo mainframe z13 terá a grande final da cidade tão animado como Big Blue é em si.





A garantia de que não serão bem-vindos no Reino Unido após a próxima eleição, o z13 tem grunhido suficiente para lidar com "a criptografia em tempo real de todas as transações móveis em qualquer escala" - todo o caminho até seus alegou 2,5 bilhões de transações por dia de capacidade, presumivelmente.


A teoria é que todas as transações de e-commerce toca fora de dezenas de outras interações do sistema, e que os sistemas baseados em Intel genéricos não serão dimensionados para lidar com eles, especialmente como a mobilidade aumenta o número de transações.


Como o anúncio da IBM afirma : "transações Z13 são persistentes, protegidos e auditável de end-to-end", e analytics embutidos deixar detecção de fraude de execução contra a "100 por cento" das operações.


Novo mainframe da IBM

Nós até contratou um designer para dar ângulos interessantes - a IBM z13 de mainframe



Entusiasmo da IBM para open-source aparece em vários pontos do release: a máquina aceita o Hadoop para análise de dados não estruturados, junto com o DB2 BLU funcionando como um banco de dados in-memory em Linux, eo big iron também suporta OpenStack. Este último vai se encaixar muito bem em outros recursos de nuvem a empresa está destacando, tais como a capacidade de executar 50 servidores virtuais por núcleo, para um total de 8.000.


Esses dois últimos dados sugerem a z13 frigobar-se actualmente a correr 160 núcleos de processamento por gabinete. IBM avalia o processador empurrando os z13 ao longo corre ao dobro da velocidade dos "processadores para servidores mais comuns" (boa qualificação lá), suporta 300 por cento mais memória, e com o dobro das análises de processamento de largura de banda e de vetor.


Ainda este ano, também haverá um novo software z / OS iteração para impulsionar as Thumper de in-memory analytics e análise, mais uma vez lançado como uma grande coisa para o negócio de telefonia móvel. ®







via Alimentação (Feed) http://ift.tt/1za0yqU

segunda-feira, 12 de janeiro de 2015

Mellanox atualizar tecido HPC da Universidade de Monash


A Universidade Monash R @ de alta performance venha CloudX OpenStack computação em nuvem é obter uma atualização de back-end graças a Mellanox.


R @ CMON é uma máquina de núcleo 2300-plus, um dos oito nós que formam Tools e-Collaboration nacional da Austrália e Recursos (Nectar) nuvem pesquisa, com configurações de IaaS pré-configurados de capacidade, memória e armazenamento.





Em um acordo anunciado em 12 de janeiro, Mellanox é fornecer interruptores SwitchX-2 Ethernet, ConnectX-3 NICs e cabos LinkX como o tecido para um novo centro de dados em nuvem para R @ venha.


O acordo com a dar o DC a capacidade de executar até 56 Gbps de interconexão Ethernet, como parte de um projeto para ampliar a facilidade para atender às necessidades futuras de investigação.


Como o Mellanox anúncio notas, a infra-estrutura também dá a universidade um tecido RDMA que se integra com o ambiente de armazenamento Ceph distribuído aberto e o sistema de arquivos Lustre paralelo distribuído.


Sênior nuvem arquiteto da instalação Blair Bethwaite diz que o novo tecido vai "permitir-nos para misturar e combinar capacidades, o que é crítico para a nossa arquitetura de computação densa".


Outros desenvolvimentos recentes no R @ CMON incluem a implementação vCPU empilhados sob a liberação OpenStack Juno, que avalia entregues até 50 por cento de melhorias de desempenho em testes de setembro do ano passado. ®







via Alimentação (Feed) http://ift.tt/14tjMtE

quarta-feira, 7 de janeiro de 2015

Cray, IBM para impulsionar super poderes da NOAA


O Oceanográfica e Atmosférica Administração Nacional (NOAA) lançou a próxima fase de um processo de atualização que ele diz que vai aumentar o poder de seus sistemas de supercomputação dez vezes.


A atualização, a ser realizado pela IBM e Cray, é devido para entrega até outubro, e quando é concluída do governo dois pedaços de ferro cada um deles será saltou para dentro da classe petaflop, em 2.5 petaflops cada.







O objectivo da capacidade adicional é aumentar tanto a resolução e previsões de gama, bem como para ajudar a modelação do clima e previsão.


Na primeira etapa da atualização, as duas máquinas terá sua capacidade triplicada este mês para 0,776 petaflops cada. Isso vai levar o sistema de previsão global (GFS) a partir de 27 km a 13 km de resolução para uma previsão de dez dias, enquanto a resolução previsão 11-16 dia será melhorada a partir de 55 km a 33 km.


O Sistema de Previsão Ensemble (Global GEFs) vai ficar melhor resolução vertical, com 64 níveis, em vez de sua atual 42, oito dias resolução horizontal de 27 km (atualmente 55 km), e resolução de 16 dias de 33 km (atualmente 70 km) .


Os EUA 44,5 milhões dólares contrato com a IBM será entregue via Cray, atuando como uma empresa subcontratada para a IBM. A declaração do NOAA é aqui . ®







via Alimentação (Feed) http://ift.tt/1FqOIMy