5 maneiras para reduzir a latência da rede de publicidade
Infraestrutura de TI vale exatamente nada se a rede não funciona. Os projetos de rede que têm crescido tão confortável ao longo dos últimos 15 anos ou mais são totalmente inadequadas, se você está construindo uma nuvem ou simplesmente passando por uma atualização que vai ver mais máquinas virtuais embalados em novos servidores, mais capazes.
A rede tradicional era hierárquica, caso oversubscribed. Servidores estaria ligado a top-of-rack de switch portas through1Gb. Que o interruptor ligaria para o interruptor de fim-de-linha através de uma ou mais portas de 10Gb e os interruptores de fim-de-fila iria falar com o núcleo de 40Gb. Discar os números para cima ou para baixo, dependendo do seu orçamento
Trunking lhe permitiu atacar juntos várias portas em um único link lógico; 10Gb para um único servidor foi considerado por algum tempo para ser rápido o suficiente para redes convergentes - armazenamento e tráfego userspace no mesmo link.
As coisas mudaram de forma tão drástica que não pode ser resolvido apenas ao girar o botão em velocidades de porta.
Todos os pontos da bússola
Obter tipos de rede falando sobre design de rede e você vai inevitavelmente ouvi-los discutir "o tráfego norte-sul" versus "o tráfego leste-oeste".
A nomenclatura deriva do desenho da rede hierárquica normalizada. O switch core foi representado como o ponto mais alto em um diagrama de rede, assim que foi para o norte. Servidores individuais - ou, mais precisamente as máquinas virtuais e aplicativos hospedados eles - estavam na parte inferior, ou para o sul.
No início dos anos 90, quando a revolução cliente-servidor realmente decolou e da World Wide Web foi apenas vir a ser, praticamente todo o tráfego em um centro de dados foi de servidores no sul de usuários na outra extremidade desse switch core no norte.
Um servidor no lado leste do mapa querendo obter dados a partir de um servidor do lado do oeste teriam de passar por vários hops para chegar lá. Ele teria que ir para o seu interruptor de rack, o interruptor de linha, o switch core, depois outro interruptor linha e outro switch rack para o servidor de destino e de volta.
Normalmente, cada um desses links teve demanda. Você pode ter 30 servidores em um rack de cada um falando para o switch rack em 1Gb. Esse interruptor cremalheira teria então apenas um elo de 10 Gbit para o fim da fila.
Vinte cremalheiras consecutivas partilhariam uma única ligação 40GB volta ao núcleo, e assim por diante. Enquanto não havia uma grande quantidade de tráfego de leste a oeste - e enquanto as densidades de servidores não subir muito alto - isso funcionou muito bem.
Máquinas em movimento rápido
As coisas mudaram. O tráfego de rede tornou-se predominantemente leste-oeste. Dependendo de quem você fala que você vai ter diferentes razões para essa mudança.
Da Brocade Julian Starr acredita que uma mudança para novas arquiteturas de aplicativos baseados em ônibus de mensagens, passagem tokenised (via coisas como XML) e modernas arquiteturas web semelhantes são responsáveis.
Defendo que a virtualização foi o facilitador. Antes de virtualização que tinha corrido todas essas peças em um único servidor. Depois de virtualização começamos a sair de uma aplicação-per-virtual-máquina e as máquinas virtuais eram móveis.
Eles não necessariamente manter suas conversas inter-app dentro de um único host. Independentemente do que veio primeiro - modelo ou infra-estrutura app - foi neste ponto que a mudança de norte-sul para leste-oeste começou realmente.
Duas grandes mudanças que afetam a rede ocorreram ao mesmo tempo: uma mudança para armazenamento centralizado, e um empurrão para conduzir a utilização do servidor mais próximo da linha vermelha possível. De repente servidores estavam falando leste-oeste para obter o tráfego de armazenamento ao mesmo tempo, conversando entre si para o tráfego de aplicação.
A rede hierárquica não estava morto, mas era certamente em suporte de vida
Para piorar a situação, lâminas e outras soluções de alta densidade se tornou popular, convertendo 30 servidores por rack em bem mais de 100. A rede hierárquica tradicional não estava morto - não havia nada para substituí-lo ainda - mas foi certamente em suporte de vida.
QoS e de ligação cada vez mais portas juntos em laços cada vez mais amplas comprou todos algum tempo. Armazenamento foi mantida em sua própria rede, mas isso era caro e, de forma mais crítica, inflexível.
Aplicações em uma rede hierarquizada são ainda muito silo, não pode desviar muito do seu armazenamento, e que o armazenamento de partes das mesmas limitações hierárquicos, como o resto da rede.
As cargas de trabalho foram se tornando dinâmico. Servidores virtuais diferentes teriam acesso ao mesmo pedaço de armazenamento em tempos diferentes: stuff userspace tradicional Norte-Sul durante o dia, o número grande de dados trituração à noite e backups nas primeiras horas da manhã.
Como centro de dados complexidade da carga de trabalho cresceu, tornou-se cada vez mais difícil manter todo este tráfego perto o suficiente para os dados para a rede não para representar um gargalo indevida.
Nenhum comentário:
Postar um comentário