segunda-feira, 3 de março de 2014

RAID tradicional está ultrapassado e morrer em seus pés


4 razões para terceirizar seu DNS


HPC blog O vídeo abaixo é uma entrevista que fiz com o guru de armazenamento IBM Robert Murphy em SC13 em Denver. Eu ainda estou em modo de recuperação depois da minha recente episódio rootkit quase desastrosa .


Youtube Video







No vídeo, Robert e eu falamos sobre como os mecanismos de RAID típicas de hoje (1, 5, 6, 10), simplesmente não estão à altura da tarefa de proteger os dados contra falha da unidade, proporcionando acesso contínuo. Duas tendências em particular, são responsáveis ​​pelo assassinato de RAID tradicional:


O maior tamanho do eixo: discos hoje são maiores do que nunca, com as empresas que implementam unidades individuais com uma capacidade de 4 TB surpreendente. Infelizmente, a durabilidade não é manter-se. Uma unidade de 4TB moderno não é mais confiável do que uma versão de 1 TB da mesma giratório.


Quando uma unidade de 4 TB falhar, ele leva um monte de tempo para reconstruir. Quanto tempo vai depender de sua matriz, quantas unidades estão nele, e outros fatores, mas eu já vi estimativas variando de 20 horas a dias para um único 4TB reconstruir.


Enquanto a unidade está sendo reconstruído o seu array RAID ainda está em funcionamento, mas em modo degradado. A quantidade de degradação varia de acordo com o hardware, software, etc, mas você poderia estar operando com 25% a 35% mais lento.


Muitos mais eixos: Com a explosão de dados, as empresas hoje têm muito mais fusos do que no passado. Mesmo super-grandes discos (tecnicamente, qualquer unidade acima de 2TB qualifica como 'super-large') não permitiram que as organizações para reduzir o grande número de eixos que estão girando.


Quando você está flagelação milhares ou dezenas de milhares de unidades, você está indo para obter mais falhas (agora há um vislumbre ofuscante do óbvio). Drives terá que ser substituído e volumes reconstruídos - e você vai estar rodando em modo degradado, enquanto isso está acontecendo.


Adicionar mais unidades, e você vai ter mais falhas, o que significa ainda mais tempo em modo degradado durante reconstruções. Como reconstruir vezes esticar, você é ligeiramente mais propensos a ver outra falha na mesma matriz, o que poderia resultar em perda de dados.


Existe uma maneira melhor?


IBM pensa assim. É a sua GPFS caseiros (General Parallel File System). GPFS se aproxima da proteção de dados e problema de acesso a partir de um ângulo muito mais amplo. É uma versão do RAID declustered que os dados listras uniforme em toda a série, o que significa que quando as unidades inevitavelmente falhar, todas as unidades no campo de série para ajudar na reconstrução.


De acordo com a IBM, reconstruções são radicalmente mais rápido (minutos em vez de horas) e operação 'degradada modo' é 3-4 vezes menos degradante.


A IBM também introduziu um novo dispositivo de armazenamento, o GPFS Storage Server, que combina GPFS com hardware de baixo custo para produzir um servidor de armazenamento com altos níveis de proteção de dados e alto desempenho.


O que é surpreendente é o custo. Enquanto Robert não dar nenhum número, ele disse que o GPFS-SS deve custar cerca de metade do que outros fornecedores de armazenamento de carga para suas matrizes proprietários. Não é muito frequente que você vê IBM competindo em preço, certo?


Confira o vídeo no topo para obter mais detalhes, gráficos e alguns falam de armazenamento interessante.







via Alimentação (Feed) http://ift.tt/1cmWo4L

Nenhum comentário:

Postar um comentário