sexta-feira, 28 de março de 2014

VDI uma experiência 'delicioso' ... Será?


4 razões para terceirizar seu DNS


Conferência de Tecnologia GPU A conversa VDI era o tipo de sessão GTC que eu amo. É onde um especialista do mundo real fala sobre como uma tarefa difícil, é realmente realizado. Não na teoria, não como ele deve funcionar no papel, mas o que é preciso para realmente mover um projeto do ponto "A" ao ponto "Estamos a fazer com este".


Ken Fingerlos de Lewan Tecnologia entregues em espadas com seu "Virtual é melhor do que físico: Proporcionando uma experiência de usuário deliciosa a partir de uma área de trabalho virtual" sessão GTC14. Delicioso? Hmm ... Em minhas vidas passadas, eu tive que usar alguns PCs virtuais e minha experiência variou de "absolutamente inúteis" para "omg eu odeio isso."







É fácil ver que Fingerlos tem sido em torno do bloco quando se trata de VDI. Ele tem todas as credenciais certas, que vão desde a VMware Citrix para a Microsoft. Mas o mais importante, ele foi lá e fez isso.


Na sessão, ele expôs uma metodologia sólida para o planejamento de uma implementação de VDI. O que eu particularmente gostei foi como ele discutiu a importância de conhecer intimamente sua base de usuários. Isso não significa que você sabe o que os aplicativos que estão usando, ou o que os aplicativos que possam estar usando. É muito mais do que isso.


Você precisa saber quais são os aplicativos que eles realmente usam, quantas vezes eles usam, e que tipo de desempenho que eles estão recebendo deles. Uma vez que você tem isso como uma linha de base, você está em muito melhor forma de dar o próximo passo, que é descobrir que tipo de infra-estrutura de VDI você realmente precisa.


Uma das maneiras mais seguras de destruir um projecto VDI é fornecer aos usuários uma experiência pior do que eles tiveram com seus três anos de idade, desktop ou laptop mid-range. É por isso que é fundamental para configurar e tamanho da infra-estrutura de forma a dar-lhes uma experiência comprovadamente melhor, ou pelo menos um que não vai tê-los em pé de guerra ou queima a equipe de TI em efígie no estacionamento.


Fingerlos faz um grande trabalho de colocar para fora todos os aspectos envolvidos na escolha de uma arquitetura de virtualização. Uma das primeiras decisões é escolher entre VDI (Virtual Desktop Infrastructure), que tem cada sessão de usuário do Windows em execução em uma única VM baseada em servidor, e SBC (Servidor Baseado Computing), que tem vários usuários executando a partir de um único Windows o / s usando os Serviços de Área de Trabalho Remota.


Ele também discute os prós e contras de persistente vs imagens do sistema não-persistentes. Enquanto a maioria todo mundo quer ter o seu próprio ambiente de trabalho único, há um preço a pagar em termos de mais equipamentos e maior complexidade. Vale a pena? Ou seria um modelo híbrido ser a melhor solução para manter os usuários felizes e benefícios de redução de custo / complexidade de captura?


Pré e pós-avaliação de desempenho de virtualização também é um fator. Agora, ele sugere a utilização do Índice de Experiência do Windows como uma maneira rápida e fácil de avaliar o desempenho do usuário final. No entanto, esta ferramenta está indo embora no Windows 8, de modo que um benchmark PC alternativa terá de ser usado.


Fingerlos também abrange concepção e dimensionamento de infra-estrutura recomendações fim. Quanto armazenamento que você realmente precisa? Como é que a latência da rede afetam a experiência do usuário? Você endpoints realmente importante, ou você pode simplesmente jogar em qualquer combinação de monitor / processador barato?


Pode ser útil para aqueles que estão no meio de avaliação ou, na verdade, a implementação de uma iniciativa de VDI. Você pode ver a sessão aqui. ®







via Alimentação (Feed) http://ift.tt/1iGO5Ac

quinta-feira, 27 de março de 2014

Nvidia lança Pascal, a sua GPU next-gen com interliga-hella rápido e embalagens em 3D


Acesso de alto desempenho para armazenamento de arquivos


GTC Nvidia anunciou sua GPU de próxima geração, e com ela uma nova interconexão ele dubla NVLink que ele diz que vai aumentar a largura de banda entre GPUs - e também CPUs, um designer deve processador implementá-lo - mais do PCIe por 5-12 vezes.


Nvidia NVLink block diagram

Cordas um monte de GPUs em conjunto com NVLink, e você cria efetivamente uma única GPU-hella grande








"NVLink é uma comunicação de chip para chip", disse Nvidia CEO e co-fundador Jen-Hsun Huang durante sua palestra na Conferência de Tecnologia GPU ( GTC ), em San José, Califórnia, na terça-feira. "Sinalização diferencial com relógio incorporado."


Modelo de programação do NVLink é essencialmente o de PCIe, mas com maior acesso direto à memória (DMA) capacidades, o que deve tornar mais fácil para os desenvolvedores a adaptar o seu software para ele, disse Huang.


"Porque nós somos capazes de acumular em oito blocos - oito sinais em um bloco - escalar até quatro da primeira geração e até oito na segunda geração", disse ele, "nós somos capazes de tomar PCI Express e aumento seu desempenho, aumentar a sua largura de banda, aumentar a sua taxa de transferência, por cinco a 12 X. "


Esta comunicação de chip para chip não é limitado a GPU-a-GPU comunicações - efetivamente transformando uma série de GPUs em um único GPU massivamente paralelo - mas também entre GPUs e CPUs. E se um fornecedor CPU obter a bordo, memória unificada (e na segunda geração, coerência de cache), também será apoiado, não muito diferente da Huma heterogêneo arquitetura de memória unificada sendo empurrado pela AMD.


Nvidia já tem um grande parceiro da CPU para NCVLink: IBM. "NVLink permite a troca rápida de dados entre CPU e GPU, melhorando assim a transferência de dados através do sistema de computação e superar um gargalo fundamental para a computação acelerada hoje", disse a IBM VP e companheiro Bradley McCredie em um comunicado . "Nós pensamos que esta tecnologia representa uma contribuição significativa para o nosso ecossistema OpenPower".


Nvidia já anunciou que o suporte para memória unificada será incluído no seu próximo CUDA 6 kit de ferramentas GPU-programação, que está em fase de lançamento-candidato.


Huang também anunciou na terça-feira manhã que NVLink será apresentado em sua arquitetura de GPU da próxima geração, de codinome "Pascal", o follow-on para o recentemente anunciado Maxwell e esperado para aparecer em algum momento em 2016.


Nvidia CEO Jen-Hsun Huang announces 'Pascal' as next step on GPU-architecture roadmap

Segundo Huang, a Lei de Moore é esperado para bater um dia na parede - mas não agora



Além NVLink, Pascal também irá incorporar um outro avanço nos esforços da Nvidia para fazer mais largura de banda disponível para suas GPUs: embalagens 3D.


"O desafio, claro, é que a GPU já tem um monte de alfinetes", disse Huang. "Já é o maior chip no mundo. A interface já é extremamente amplo."


Claro, Nvidia ou poderia fazer a sua interface de memória de mais largo ou acelerar a sinalização para melhorar a largura de banda, ele disse, mas o primeiro faria um chip grande ainda maior eo último exigiria mais energia em um ambiente com restrições de energia.


A solução da Nvidia será "construir chips em cima de outros chips Vamos acumular fichas heterogêneos -. Significando diferentes tipos de chips - em um wafer", disse ele.


"Se você pode imaginar: a GPU com milhares e milhares de bits de interface de memória", com meio-silício vias (TSVs) interligando as camadas. "Ele oferece uma incrível quantidade de largura de banda", disse Huang. "Em apenas um par de anos, vamos ter a largura de banda para um nível totalmente novo."


Pascal também irá conter alguns ajustes arquitetônicos como ainda não anunciado, assim, e apesar de Huang não detalhou-los, ele prometeu revelar-los como sua data de lançamento se aproxima.


Nvidia CEO Jen-Hsun Huang provides details on next-generation GPU architecture, 'Pascal'

Pascal: "Um supercomputador do tamanho de dois cartões de crédito", diz Huang



Ele, no entanto, promete grandes coisas para o Pascal, exibindo um pequeno cartão com um chip Pascal protótipo bordo. "Este módulo pouco aqui", disse ele, "representa o processador da próxima geração de supercomputadores, estações de trabalho de última geração, computadores de jogos de próxima geração, supercomputadores nuvem de próxima geração."


A ordem de altura, com certeza, mas se a dupla promessa de NVLink e 3D embalagem vem através, Huang só pode ter um pequeno, vencedor de alta largura de banda eficiente de energia em suas mãos. ®







via Alimentação (Feed) http://ift.tt/1fg83hh

quinta-feira, 20 de março de 2014

Do Google Larry Page: "CATS descoberto em seu próprio 'Deepmind


Transformando o seu negócio com armazenamento flash


Co-fundador do Google, Larry Page, disse que ficou "desapontado" com o governo dos EUA após NSA denunciante Edward Snowden revelou o quanto a agência estava espionando todo mundo.


Charlie Rose (L) and Larry Page (R) at TED 2014 in Vancouver

Charlie Rose (L) e Larry Page (R) no TED 2014, em Vancouver. Crédito: James Duncan Davidson








"É decepcionante que o governo fez secretamente essas coisas e não nos contar sobre isso", disse Página no palco na conferência TED.


"Não é possível ter uma democracia, se temos de proteger os nossos usuários do governo. O governo fez-se um tremendo desserviço e precisamos ter um debate sobre o assunto."


Snowden tinha aparecido na mesma conferência TED em Vancouver ontem via link de vídeo e conversou com Sir Tim Berners-Lee sobre o projeto de lei de direitos de internet que se propõem, uma espécie de Carta Magna para a web.


Buddy co-fundadora da Página Sergey Brin foi fotografado "reunião" robo-Snowden - o link do vídeo em uma tela robótico controle remoto - no final do show.


Hoje, um juiz federal de San Francisco estendeu a ordem em todo o país a bloquear a NSA de destruir registros de vigilância de telefone ele recolhidos mais de cinco anos atrás. A ordem está em conexão com um processo de invasão de privacidade contra a agência.


Page disse que ele não queria que a reação sobre a NSA para levar a muitas restrições em nome da privacidade, uma vez que ele ainda defende a dados abertos, particularmente à luz dos problemas que ele teve com a sua voz.


"Estou preocupado com a deitar fora o bebé com a água do banho", disse ele. "Quando eu perdi a minha voz eu pensei, não seria surpreendente se as condições médicas de todos estavam disponíveis anonimamente para os médicos? Você pode ver o que os médicos o acessou e por que, e aprender mais sobre as condições que você tem.


"Eu estava com medo de compartilhar esse material voz, mas Sergey me convenceu, e tem sido muito positivo. Eu tenho toda essa informação, eu tenho um levantamento feito, tem condições médicas de pessoas com problemas semelhantes. Nós não estamos pensando na tremenda bem que poderia vir de compartilhar as informações certas com as pessoas certas da maneira correta ", acrescentou.


Página também falou sobre por que o Google decidiu sorver britânico AI empresa Deepmind .


"O reconhecimento de voz é importante. Agora mesmo o reconhecimento de voz state-of-the-art não é muito bom. Ele não entende", ele explicou.


"Então nós corremos aprendizagem de máquina no YouTube, e Deepmind descobriu os gatos em sua própria. Deepmind comecei a jogar jogos de vídeo e aprender automaticamente. O mesmo programa pode jogar todos estes jogos [como Battlezone, Pong, Demon Attack] com o desempenho sobre-humana. Imagine se este tipo de inteligência foram jogados em sua programação, suas necessidades de informação. Isso é o que eu estou animado. "


Página também disse que ele pensou que o motivo que o Google consegue é porque ao contrário de outras empresas, eles pensam sobre o futuro.


"Eu tento me concentrar no que: Qual é o futuro realmente vai ser E como podemos criá-lo e como é que vamos alimentar nossa organização para realmente focar nisso e realmente conduzi-lo a uma taxa elevada??" disse ele.


"Quando eu estava trabalhando no Android, me senti culpada. Ele não era o que estávamos trabalhando, que era uma start-up, e eu me senti culpado. Isso foi estúpido! Era o futuro." ®







via Alimentação (Feed) http://ift.tt/1iGy0v0

terça-feira, 18 de março de 2014

SPEC coloca referência para a frente para supers acelerados


Avaliando o custo de um ataque DDoS


SPEC - Performance Evaluation Centre Padrão - é lenocínio um novo conjunto de benchmarks ele diz que irá ajudar os usuários a HPC tirar o máximo proveito de seus sistemas de aceleração de hardware.


O "novo pacote de benchmark que mede o desempenho dos sistemas de utilização de dispositivos de aceleração de hardware e suporte de software", SPEC ACCEL 1.0, compreende 19 aplicativos em execução no OpenCL e 15 aplicações OpenACC.







OpenCL, o idioma Open Computing, é um padrão livre de royalties para a programação paralela, enquanto OpenACC é uma API que permite que o código em C, C + + e Fortran para ser descarregado a partir de uma CPU de um acelerador de hardware.


A suíte OpenACC em ACEL inclui NAS conjunto da NASA paralelo de referência, descrito aqui , ea própria OMP2012 da SPEC suíte .


De acordo com SPEC, "ACCEL exerce o desempenho do acelerador, CPU do host, transferência de memória entre o anfitrião eo acelerador, bibliotecas de apoio e motoristas, e compiladores. Os resultados de desempenho são registradas como a média geométrica dos índices normalizados de teste com base e / ou ajuste de pico. O consumo de energia é medida da mesma forma. "


Um punhado de resultados SPEC ACEL foram coletados e são publicados aqui . ®







via Alimentação (Feed) http://ift.tt/OAvcUT

domingo, 16 de março de 2014

O que você poderia fazer com 264 núcleos Sandy Bridge e 6 TB de memória RAM?


Avaliando o custo de um ataque DDoS


O que você poderia fazer com 264 núcleos Xeon E5-4610 rodando a 2,5 GHz e 6 TB de memória RAM?


Quando isso acontece, você pode agora tentar descobrir: facilidade supercomputador de Perth Ivec acaba gritou-out para quem gosta da idéia de tomar o seu sistema de computador novo, de grande memória Zythos para uma rodada.







Zythos é um SGI UV2000 . A máquina é construída a partir de 24 lâminas, 20 dos quais embalam dois hex-core Intel Sandy Bridge e 128 GB de RAM. Os outros quatro cada um contém um único processador hexa-core Intel, uma NVIDIA Kepler K20 GPU e 256 GB de RAM.


Todos se você receber 264 núcleos e 6 TB de memória RAM.


Ivec diz que "gostaria de convidar os aplicativos da comunidade de pesquisa para usar ... Zythos ... para uso geral, desde o início de abril, para projetos nas áreas de análise de dados, visualização científica e de supercomputação que efetivamente podem explorar o romance arquitetura do UV2000. "


The Zythos Supercomputer at Australia's iVEC

Zythos, em todo o seu esplendor muitos-cored



O portal Ivec em breve oferecerá detalhes sobre exatamente o que você precisa fazer para conseguir algum tempo Zythos.


Por enquanto, vamos sonho: O que você faria com 264 Intel Sandy Bridge Núcleos e 6 TB de memória RAM. Vai-te para os fóruns para compartilhar suas idéias. ®







via Alimentação (Feed) http://ift.tt/1grBJay

quarta-feira, 12 de março de 2014

Variedade quilômetro quadrado ganha £ 11.000.000 em financiamento Reino Unido


4 razões para terceirizar seu DNS


Ministro da Ciência Reino Unido David Willetts anunciou £ 11m de financiamento para ajudar o Square Kilometre Array (SKA) processar o dilúvio esperado de dados que ele irá produzir.


Para ajudar a lidar com os 915 petabytes de dados diários esperados fIREHOSE todo o projeto SKA irá recolher vai ter avanços em praticamente todas as disciplinas de computação: os dados terão que ser emagreceu consideravelmente para baixo antes que possa ser armazenada, enviada através de links de rede, ou usado para a computação.







Isso 915PB que o SKA de espera gerar no lançamento em 2020 está perto de um dia inteiro de tráfego em toda a Internet hoje. No momento em que ele é totalmente funcional em 2025, esse número poderia ser tanto quanto dez vezes maior.


De acordo com a SKA organização , a "computação e software para o projeto ... terá uma capacidade de processamento de dados 1.000 vezes maior do que atualmente disponíveis."


O governo do Reino Unido tem agora derramado £ 11.000.000 em big data para o projeto, parte de uma versão de £ 19 milhões em financiamento SKA. Esse dinheiro está sendo dividida pelas Universidades de Cambridge, Manchester e Oxford, juntamente com a University College London e da Universidade de Southampton.


A outra £ 8.000.000 oferece quatro anos de financiamento para o projeto SKA núcleo contínuo.


Jodrell Bank é o destinatário sorte a 100 milhões de libras em SKA bolsas de financiamento, como o HQ global do projeto. Essa doação faz parte de um total de £ 300.000.000 anunciado para Jodrell Bank.


O maior projeto no financiamento Jodrell Bank é £ 165.000.000 para a Fonte Europeia Spallation. Como a ciência explica , este porte passo-140-futebol instrumento "produzirá feixes de neutrões [de] um feixe de prótons em colisão com um alvo metálico, um processo conhecido como spallation. ESS será 30 vezes mais brilhante do que as fontes de topo de hoje. "


Há também £ 25.000.000 para a proposta PLATO missão exoplaneta-caça, previsto para lançamento em 2024. ®







via Alimentação (Feed) http://ift.tt/1cA8eIp

segunda-feira, 3 de março de 2014

RAID tradicional está ultrapassado e morrer em seus pés


4 razões para terceirizar seu DNS


HPC blog O vídeo abaixo é uma entrevista que fiz com o guru de armazenamento IBM Robert Murphy em SC13 em Denver. Eu ainda estou em modo de recuperação depois da minha recente episódio rootkit quase desastrosa .


Youtube Video







No vídeo, Robert e eu falamos sobre como os mecanismos de RAID típicas de hoje (1, 5, 6, 10), simplesmente não estão à altura da tarefa de proteger os dados contra falha da unidade, proporcionando acesso contínuo. Duas tendências em particular, são responsáveis ​​pelo assassinato de RAID tradicional:


O maior tamanho do eixo: discos hoje são maiores do que nunca, com as empresas que implementam unidades individuais com uma capacidade de 4 TB surpreendente. Infelizmente, a durabilidade não é manter-se. Uma unidade de 4TB moderno não é mais confiável do que uma versão de 1 TB da mesma giratório.


Quando uma unidade de 4 TB falhar, ele leva um monte de tempo para reconstruir. Quanto tempo vai depender de sua matriz, quantas unidades estão nele, e outros fatores, mas eu já vi estimativas variando de 20 horas a dias para um único 4TB reconstruir.


Enquanto a unidade está sendo reconstruído o seu array RAID ainda está em funcionamento, mas em modo degradado. A quantidade de degradação varia de acordo com o hardware, software, etc, mas você poderia estar operando com 25% a 35% mais lento.


Muitos mais eixos: Com a explosão de dados, as empresas hoje têm muito mais fusos do que no passado. Mesmo super-grandes discos (tecnicamente, qualquer unidade acima de 2TB qualifica como 'super-large') não permitiram que as organizações para reduzir o grande número de eixos que estão girando.


Quando você está flagelação milhares ou dezenas de milhares de unidades, você está indo para obter mais falhas (agora há um vislumbre ofuscante do óbvio). Drives terá que ser substituído e volumes reconstruídos - e você vai estar rodando em modo degradado, enquanto isso está acontecendo.


Adicionar mais unidades, e você vai ter mais falhas, o que significa ainda mais tempo em modo degradado durante reconstruções. Como reconstruir vezes esticar, você é ligeiramente mais propensos a ver outra falha na mesma matriz, o que poderia resultar em perda de dados.


Existe uma maneira melhor?


IBM pensa assim. É a sua GPFS caseiros (General Parallel File System). GPFS se aproxima da proteção de dados e problema de acesso a partir de um ângulo muito mais amplo. É uma versão do RAID declustered que os dados listras uniforme em toda a série, o que significa que quando as unidades inevitavelmente falhar, todas as unidades no campo de série para ajudar na reconstrução.


De acordo com a IBM, reconstruções são radicalmente mais rápido (minutos em vez de horas) e operação 'degradada modo' é 3-4 vezes menos degradante.


A IBM também introduziu um novo dispositivo de armazenamento, o GPFS Storage Server, que combina GPFS com hardware de baixo custo para produzir um servidor de armazenamento com altos níveis de proteção de dados e alto desempenho.


O que é surpreendente é o custo. Enquanto Robert não dar nenhum número, ele disse que o GPFS-SS deve custar cerca de metade do que outros fornecedores de armazenamento de carga para suas matrizes proprietários. Não é muito frequente que você vê IBM competindo em preço, certo?


Confira o vídeo no topo para obter mais detalhes, gráficos e alguns falam de armazenamento interessante.







via Alimentação (Feed) http://ift.tt/1cmWo4L