sexta-feira, 13 de setembro de 2013

Ambições exascale memória turva confusão da Intel


Relatório livre ESG: gerenciamento de dados sem emenda com Avere FXT


Tentativa nobre de IDF13 Intel para fazer um supercomputador capaz de uma exaflop até 2020 consumindo apenas 20 megawatts de energia está sendo executado em grandes problemas devido às leis traquinas da física.


Quando a Intel anunciou sua exaflop gol em 2011, a gigante de produção de chips falou-se de uma variedade de tecnologias que ele estava trazendo para suportar sobre o problema stupendously difícil de fazer as ordens de magnitude de computador mais poderoso do que hoje em dia bits violinistas e ao mesmo tempo tornando-se muito mais eficiente.







Algumas das tecnologias papai do Silício foi brincar com incluem ultra-chips de baixa potência processador VIA Near-Threshold Voltage (NVP), tecnologia de memória de empilhamento com sistemas como o Cubo de memória Hybrid, e sistemas de processamento heterogêneo utilizando tecnologia como Intel maciçamente multi- Phi plataforma Xeon de núcleo.


Mas, como a Intel aprofundava essas tecnologias que surgiu com inúmeros problemas que, embora não showstoppers, vai ser difícil para a empresa a superar.


"Há muitos de novas tecnologias em vôo. Estes vão ter um impacto profundo sobre a forma como nós construímos sistemas", disse o arquiteto-chefe da Intel para sistemas de exascale Al Gara em um discurso no Fórum de desenvolvedores da Intel.


O maior curinga é o tipo de memória Intel pode usar, disse ele. E o júri está muito fora.


"Quando eu olhar para direções que poderia ir com HPC e como a memória desempenha, eu vejo isso dividindo-se em duas direções: uma é o lugar onde nós estamos presos com DRAM e tem que viver com DRAM um longo tempo", disse ele, o outro é "Se uma dessas [novas] tecnologias de memória realmente evoluir, então as coisas mudam drasticamente."


Estas tecnologias mais recentes incluem coisas como memória torque de spin-transfer, nanomechanical RAM, memória de mudança de fase, e outras tecnologias emergentes de memória não volátil. Todos eles têm a promessa de um 5 a melhoria 10X no desempenho DRAM, e alguns têm novas possibilidades de computação também.


O problema é que a Intel não tem certeza se eles vão amadurecer no tempo para que ele seja capaz de escolher um novo padrão de memória, o trabalho para compreendê-lo e programa para ele e, em seguida, criar uma nova lógica para tirar o melhor proveito dele .


Pedimos Gara quanto tempo ele pensou que poderia ser até que a Intel poderia fazer uma aposta em qualquer DRAM ou um dos up-and-chegados, e ele disse que soubessem "durante o próximo ano e meio a dois anos. És vai vê-los se tornar real em que período de tempo. Eles não serão o que queremos para a substituição DRAM naquele momento, [mas] isso é quando você tem que verificar. "


"Até que essas tecnologias entrar nos mercados mais simples ou mais fácil de entrar não vamos realmente saber".


Isso significa sonho supercomputador da Intel está definido por duas possibilidades muito diferentes: um é que a DRAM continua sendo a melhor maneira de construir sistemas. Isso vai ser complicado, como "se nós estamos presos com DRAM, então o problema é por causa do aumento no desempenho de computação que vamos continuar a cair a capacidade de memória para o desempenho", diz Gara. "Nós vamos ser levados a um cenário de segmentação muito agressivo."


Isso exigirá a criação de vários novos métodos de programação que são implicitamente paralelo, e apoiada pela interconexão de alta velocidade e dados on-chip fotônico sistemas como interconexões, para tirar o máximo partido desta low-memory ambiente de alta computação vaivém.


Um mundo alternativo é o lugar onde uma dessas funções alterações da memória, e nesse ponto as coisas radicalmente diferentes. Se a memória spin-Torque viriam através de, por exemplo, então o cálculo pode ser feito de uma forma muito diferente.


"Nós podemos usar as propriedades magnéticas do material", diz Gara. Isso permite que você use as propriedades físicas da nova tecnologia de memória para substituir portas lógicas típicas e, portanto, ser capaz de circuitos de design que são cerca de 25 por cento menor, disse ele.


No entanto, se essa forma de memória vem através, em seguida, a Intel terá muito trabalho a fazer para tirar o máximo dele. "Esses sistemas de arquivamento [] são todos otimizados para quando os tempos de acesso são as dezenas de milissegundos, mas [com não-volátil] agora estão na casa das dezenas de nanosegundos," da Intel recentemente falecido chefe Lab Justin Rattner, disse-nos quando nós perguntei a ele sobre isso no IDF um ano atrás.


Apesar de memória coloca alguns problemas difíceis para a Intel, a gigante dos chips é mais esperançoso em outras áreas como fotônica, que estão chegando forte.


No momento em que a empresa está usando quatro comprimentos de onda diferentes de luz para gerar 50Gbps de capacidade de interconexão, e está olhando para mover a oito para chegar a 100Gbps. Em última análise, a Intel pensa se ele pode empurrar o número de comprimentos de onda e eficiência se poderia chegar a um terabits.


Infelizmente, "não há almoço grátis aqui", porque fotônica custar mais energia do que o cobre. "Enquanto ele tem enormes vantagens para uma série de regiões do sistema, o poder é uma das coisas mais importantes que temos que ficar de olho", disse Gara.


Mas toda essa largura de banda combinada com meios de memória mais rápidos (ou um pouco melhor DRAM, dependendo), significa que a Intel precisa criar melhor CPUs também. Nesta área, ele está se concentrando em escala fio, e é "maníaco perseguindo" depois de melhorias em áreas como compartilhamento de falso cache, start-up despesas gerais, despesas gerais de sincronização e carregamento / execução desequilíbrios para melhorar isso.


Melhorias não pode vir de levantar o clock. "Nós temos coberto com frequência", diz ele. Mesmo Intel pode aumentá-lo um pouco, isso não ajudaria: "Se de repente eu te dei um processador terahertz eo mesmo sistema de memória que você não iria ficar speedups dramáticas."


Uma alternativa seria um modelo de programação com restrições que poderiam permitir núcleos mais simples, com maior freqüência, disse ele. Isto, combinado com a escala de tensão - no ano passado, IDF a Intel demonstrou um processador de tensão junto ao limiar que tomou um gole de energia a uma taxa muito baixa - deixaria Intel fazer isso sem ver a subida de energia. "A dificuldade é que você baixa tensão você também queda de freqüência".


Para a mente deste corte, grande problema da Intel é que, como ele é executado para cumprir o seu objetivo, que é perpetuamente sendo thwacked no rosto pelas leis fundamentais da física que se levantaram se os materiais que ele está usando ou maneiras que querem informações de transporte. THWACK, vai dispersão tensão, como você descer por meio de processos de chips mais finos. BANG, vai à velocidade da luz, como você tentar usar fotônica. E assim por diante.


Mas mesmo aqui a Intel está pensando em soluções alternativas. Um modo de encher mais inteligência num circuito poderia ser a utilização dos intervalos de tempo em que a informação é esguichou em torno da lógica para realizar o cálculo, Gara disse.


"A eficiência energética é apenas uma função de quanto tempo os fios estão, e quantas você tem Na realidade nós não estamos usando tempo -. Você pode codificar informações em tempo!" ressalta. "Se eu enviou um sinal através de um único fio, mas o tempo quando estou a transição dele -. Que é como eu estou codificação de informações Agora custa-me frequência, mas esta abordagem permite-me para chegar a números de eficiência energética que não poderia ter começado . A questão é se isso funciona para a lógica? "


A Intel não sei, mas esta é uma das muitas áreas que está explorando como ele tenta se afastar de certos limites aparentemente intransponíveis em sua busca para o sistema de escala exa.


Mas se a Intel faz com que seja para um exaflop dentro do seu prazo, então o trabalho vai começar tudo de novo, Gara diz, porque de acordo com o princípio de Landauer - uma teoria que coloca o limite inferior para o custo da computação - Intel tem um longo caminho para ir.


"Acontece de um exaflop você precisa 16W, o que é interessante porque é o que o cérebro é, para 16MW você deve ser capaz de fazer uma yottaflop partir de uma perspectiva da teoria da informação", disse ele com um sorriso irônico. Só não diga a gerência superior. ®







via Alimentar (Feed) http://go.theregister.com/feed/www.theregister.co.uk/2013/09/14/intel_exascale_update_deepdive/

Nenhum comentário:

Postar um comentário