*Por Luiz Gustavo de Andrade
Cada vez mais, as empresas migram para um modelo de negócios centrado nos dados. A capacidade de transformá-los em informações relevantes transformou-se no grande divisor de água entre as empresas vencedoras e perdedoras. Esse cenário, no entanto, cria um novo desafio para as organizações: como escalar a infraestrutura tecnológica para atender a uma avalanche exponencial de dados, que precisam ser armazenados, processados e transmitidos? A computação em hiperescala surge como uma potencial solução para essa questão.
O primeiro projeto de computação em hiperescala surgiu em 2007 e hoje, graças ao avanço da tecnologia, já existem diversas soluções, em especial de servidores, voltadas a suportar esse tipo de ambiente. E vivemos hoje a democratização desse conceito, na medida em que ele não está mais restrito apenas a grandes empresas de internet – que foram o nicho no qual a arquitetura de hiperescala nasceu -, mas começam a ser implementados em companhias em geral.
Essa democratização da hiperescala está diretamente atrelada à necessidade de empresas, dos mais diversos portes e perfis, terem uma infraestrutura de TI flexível e eficiente, com o menor custo total de propriedade, ou seja, aproveitando ao máximo a capacidade dos equipamentos e soluções instaladas.
O movimento de migração para hiperescala nas corporações segue o que aconteceu nos grandes data centers de internet. Eles sentiram a necessidade de ter ambientes híbridos, nos quais a arquitetura tradicional de TI convive com novas demandas de cargas de trabalho – como análise de dados e serviços web - que exigem estruturas mais robustas e flexíveis de servidores, storage e equipamentos de rede.
Entre os usos no qual a hiperescala faz sentido está o caso dos projetos de Big Data. Eles exigem capacidade especial de processamento, armazenamento e transmissão para realizar a análise, em tempo real, de enormes quantidades de dados estruturados e não-estruturados e para a transformação dos mesmos em insights para o negócio. No entanto, esses mesmos ambientes devem rodar dentro de infraestruturas de TI que continuam a suportar aplicações tradicionais. Ou seja, os data centers devem ter a flexibilidade necessária para atender necessidades diversas e picos diferentes de uso, deslocando a utilização de recursos, em vez de manter uma capacidade excedente – que é extremamente cara e que pode ficar inativa por uma quantidade significativa de tempo.
Assim, junto com as tecnologias voltadas a suportar volumes gigantescos de dados, esses novos data centers corporativos se beneficiam de outra tendência gerada pela hiperescala: as arquiteturas convergentes, que integram servidores, storage e equipamentos de rede.
Ao tirar vantagem do conceito de convergência, associado à hiperescala, as empresas podem gerenciar melhor as infraesturutras de TI, bem como escalá-las e adaptá-las às necessidades constantes do negócio. Cabe agora à indústria de tecnologia moldar-se a essas novas demandas das corporações e que tendem a transformar-se em realidade a partir de 2015.
Luiz Gustavo de Andrade, Gerente de Servidores da Dell Brasil