Incremente sua infra-estrutura
Computação hiperescala, ou simplesmente hyperscaling, é um conceito que começou a ser falado há relativamente pouco tempo.
Vamos começar com a definição de Webopedia: computação hiperescala refere-se à infra-estrutura e provisionamento necessário em ambientes de computação distribuída para a efetiva ampliação de vários servidores para milhares de servidores. Computação hiperescala é muitas vezes empregada em ambientes como computação em nuvem e big data.
Deja Vu novamente
Espere um momento, no entanto. Quase exatamente 10 anos atrás, eu escrevi um recurso para outra publicação sobre o novo conceito de computação em grade, em seguida.
Descrevi grade como uma extensão do processamento massivamente paralelo, no qual você usa um conjunto de computadores que estão conectados de forma arbitrária e às vezes dispersos geograficamente, potencialmente com vários proprietários diferentes.
"Em vez de ter um grande sistema paralelo, tem um número de pequenos, possivelmente, em locais diferentes, as quais podem ser utilizadas em qualquer combinação, são consideradas adequadas. Assim, os sistemas podem ser utilizados de forma independente ou agrupada em qualquer tamanho de sistema paralelo, dependendo da demanda ", escrevi.
Portanto, não é hyperscaling simplesmente o nome atual para, ou para ser mais generoso, uma nova variação, grid computing?
Muitos dos conceitos são semelhantes - especificamente a idéia de crescer e diminuir o poder de computação disponível para um dado problema em um determinado momento conforme a demanda.
Presença sombria
É verdadeiramente um novo conceito? Ou será que ele simplesmente se escondendo nas sombras por alguns anos, enquanto conceitos como rede definida por software (SDN) e software de armazenamento definido (SDS) desenvolveram na medida em que é possível realmente implementá-lo em mais de um local ou metropolitana escala?
Nick Williams, gerente de produto sênior EMEA em Brocade, acredita que a demanda por hyperscaling está aumentando ", devido à explosão de um modo geral de computação, armazenamento e consumo de networking".
"SDN é um factor-chave para o gerenciamento e orquestração hyperscaling. Concordo que os avanços nesta área são fundamentais para ser capaz de gerenciar recursos de computação vastas para funções específicas, conforme necessário ", diz ele.
A idéia de poder de computação de escala à vontade para satisfazer a demanda, então desistir quando as coisas se acalmarem, é um dos grandes pontos de venda da computação em nuvem (outro termo que surgiu muito recentemente).
Anos antes nuvem existiu eu trabalhava para uma empresa de viagens cuja demanda na primeira semana de janeiro foi mais de 30 vezes maior do que na semana que antecedeu o Natal. A empresa lidou com isso simplesmente por possuir um grande servidor Sun socking que trabalhou muito difícil para uma pequena porcentagem de sua vida e passou a maior parte de seu tempo apenas mais típico.
Passar o pacote
Estes dias, é claro, nós ouvimos o tempo todo de empresas que utilizam processamento em nuvem para escalar cima e para baixo. Um dos exemplos favoritos são as empresas de ingressos on-line que ampliam seu poder de computação de um ou dois dias, quando os ingressos Elton John estarão à venda, em seguida, enrole para baixo até que os Stones decidir fazer outra turnê.
Há um problema com esta: embora você pode cortar custos e maximizar o desempenho por dumping seu hardware em casa e usando um serviço de nuvem, o problema resourcing não vai embora.
Em vez disso, apenas se move um passo a montante, como o provedor de nuvem agora tem que encontrar a força para manter-se com os requisitos de flutuação de todos os seus clientes.
A lei das médias ajuda os prestadores de serviços, até certo ponto, porque a menos que eles se concentram seu esforço de vendas em um pequeno número de mercados verticais (assumindo um monte de empresas de viagens com os padrões de demanda semelhantes, por exemplo), então diferentes clientes são bastante provável ter grandes demandas em momentos diferentes.
Você não pode confiar em uma distribuição completamente de carga, no entanto, para o provedor de nuvem tem tanto ao excesso de oferta ou ser um pouco mais inteligente sobre como a demanda de serviços.
Deve haver quilometragem para permitir que empresas de menor porte para pedir alguém do poder de computação
Os gostos de Amazon e Microsoft são grandes o suficiente para possuir o hardware no qual milhares de clientes em expansão, enquanto milhares de outros contratos, mas certamente deve haver quilometragem para permitir que empresas de menor porte que sair e pedir emprestado o poder de computação de outra pessoa para atender a sua grande, mas pouco frequente picos de demanda.
"Isso é, definitivamente, para onde está indo, embora ainda existam muitos limites da tecnologia", diz Kurt Glazemakers, CTO da CloudFounders .
"Hardware costumava ser o maior problema. Hardware (ou seja, computação e tecnologia de armazenamento) necessários para ser o mesmo para começar a usar a capacidade e era difícil de compartilhar recursos.
"A virtualização tem resolvido isso, mas o hypervisor (e as características SDN e SDS que vêm com ele) tornou-se a nova fronteira da tecnologia. É muito fácil começar a usar o Amazon, Microsoft ou Google, mas é muito mais difícil de se afastar.
"E com VMware agora está se tornando um prestador de serviços, os mesmos contagens para o hypervisor VMware. Você não pode mover facilmente calcular a capacidade quando ambos os locais têm diferentes hypervisors ".
Nenhum comentário:
Postar um comentário