HPE anuncia novo computador criado para a era do Big Data

HPE anuncia novo computador criado para a era do Big Data

A Hewlett Packard Enterprise (NYSE: HPE) apresentou hoje o maior computador de memória única do mundo, o mais recente marco no projeto de pesquisa The Machine. O The Machine, que é o maior programa de Pesquisa & Desenvolvimento da história da empresa, tem como objetivo criar um novo paradigma chamado de computação centrada em memória — uma arquitetura customizada para a era do Big Data.

"Os segredos para o próximo grande avanço científico, a inovação que vai reformular a indústria ou a tecnologia que mudará nossas vidas estão escondidos bem à vista, atrás das montanhas de dados que criamos todos os dias", disse Meg Whitman, CEO da Hewlett Packard Enterprise. "Para cumprir essa promessa, não podemos contar com as tecnologias do passado, precisamos de um computador criado para a era do Big Data".

O protótipo revelado hoje contém 160 terabytes (TB) de memória, o que lhe permite trabalhar simultaneamente com os dados contidos em cinco vezes o total de livros da Biblioteca do Congresso Norte Americano — ou seja, cerca de 160 milhões de livros. Jamais havia sido possível armazenar e manipular conjuntos de dados inteiros desse tamanho em um sistema de memória única, e isso é apenas um vislumbre do imenso potencial da computação centrada em memória.[1]

 

Capacidade de expansão e implicações sociais

Com base no protótipo atual, a HPE espera que a arquitetura possa facilmente ser expandida para um sistema de memória única na escala dos exabytes e, além disso, para um pool quase ilimitado de memória — 4.096 yottabytes. De forma contextualizada, isso equivale a 1.000 vezes todo o universo digital existente hoje no mundo.

Com essa quantidade de memória, é possível trabalhar com todos os registros digitais de saúde de todas as pessoas do mundo, todos os dados do Facebook, todas as viagens dos veículos autônomos do Google e todos os conjuntos de dados de exploração espacial ao mesmo tempo — obtendo respostas e descobrindo novas oportunidades em uma velocidade sem precedentes.

"Acreditamos que a computação centrada em memória é a solução para fazer a indústria de tecnologia evoluir de uma maneira que permita avanços em todos os aspectos da sociedade", disse Mark Potter, CTO da HPE e diretor da Hewlett Packard Labs. "A arquitetura que anunciamos pode ser aplicada a todas as categorias da computação — desde dispositivos de ponta inteligentes (IoT), até os supercomputadores."

A computação centrada em memória coloca a memória, e não o processador, no centro da arquitetura de computação. Eliminando as ineficiências na forma como a memória, o armazenamento e os processadores interagem hoje nos sistemas tradicionais, a computação centrada em memória reduz o tempo necessário para processar problemas complexos de dias para horas, de horas para minutos e de minutos para segundos — para fornecer inteligência em tempo real.

 

Especificações técnicas

O novo protótipo baseia-se nas realizações do programa de pesquisa The Machine, incluindo:

  • 160 TB de memória compartilhada distribuídos por 40 nós físicos, interligados por meio de um protocolo de rede de alto desempenho;
  • Um sistema operacional otimizado baseado no Linux, executado no ThunderX2, o carro-chefe da segunda geração de SoC de soquete duplo compatível com ARMv8-A e otimizado para cargas de trabalho, cuja fabricação é da Cavium Inc;
  • Links de comunicação óticos e o uso de fotônica, incluindo o novo módulo criado pela HPE chamado X1, que já está disponível e em operação; e
  • Novas ferramentas de programação de software projetadas para tirar proveito de uma grande quantidade de memória persistente.

"A Cavium compartilha a visão da HPE para a computação centrada em memória e orgulha-se de colaborar com a HPE no programa The Machine", disse Syed Ali, presidente e CEO da Cavium Inc. "As revolucionárias inovações da HPE na área de computação centrada em memória vão viabilizar um novo paradigma de computação para uma variedade de aplicações, incluindo a próxima geração de data centers, nuvens e computação de alto desempenho."

Share This Post

Post Comment