segunda-feira, 30 de setembro de 2013

Multipath TCP: novo brinquedo da Siri não é um divisor de águas


Relatório livre ESG: gerenciamento de dados sem emenda com Avere FXT


Quando o iOS 7 encarnação do Siri foi pego usando Multipath TCP (MTCP) no início deste mês, houve muita emoção para ele anunciando uma nova era das comunicações. Que pode muito bem fazer, mesmo que Siri estava cantando muitas horas antes que o sol começa a subir.


Uma rápida cartilha MTCP: conexões TCP costumam viajar ao longo de um caminho. Isto significa que quando o smartphone estiver conectado a Wi-Fi e uma rede de dados móvel, ele vai usar apenas uma dessas conexões. Sob MTCP ele vai usar os dois, que é o iOS 7 está fazendo agora.







Será MTCP ter implicações para a LAN, WAN ou centro de dados? Para obter uma alça sobre o que MTCP significa além do iPhone, The Register falou Asia Pacific Network Information Centre (APNIC), cientista-chefe Geoff Houston.


Para a TL, DR multidão, a versão curta é que você não vai ver onipresente multipath TCP em breve, pelo menos, três bons motivos. Em primeiro lugar, as redes de hoje vai quebrá-lo de diferentes maneiras, em segundo lugar, se é descuidada implementada, os usuários vão desativá-lo ao invés de assistir a seus telefones consumir dados móveis caros quando Wi-Fi está disponível e, finalmente, se é que já representa uma ameaça aos modelos de negócio de transporte, eles vão ser capazes de colocar uma estaca em seu coração.


Capacitar o anfitrião


Mutlipath TCP, Houston contou Sul Vulture, remete para a teoria básica da Internet, que a melhor rede é aquela em que a rede é mudo e os anfitriões são inteligentes. Um host habilitados deve ser capaz de compreender e utilizar os recursos disponíveis para isso.


No caso de Multipath TCP, que significa ser capaz de limpar qualquer comunicação são os recursos disponíveis e utilizar esses recursos da maneira que melhor serve o host.


Não há muito tempo, isso não poderia fazer muito sentido. O anfitrião típico Internet era um PC conectado a uma LAN. Tinha uma interface LAN, e mais importante, apenas uma conexão com a Internet. Não há muito sentido para o usuário típico (existem casos especiais, para servidores) para instalar duas placas de rede, adquirir dois endereços IP, e dividir o tráfego, quando o roteador está apresentando apenas uma interface com o mundo exterior.


Smartphones e tablets mudou tudo isso: quase cada um deles apresenta duas interfaces para o mundo - a interface Wi-Fi e interface 3G / 4G. Do ponto de vista do hospedeiro, que cria duas possibilidades:



  • Asse em uma decisão política que o dispositivo deve conectar ao Wi-Fi sempre que possível - o padrão que a maioria dos usuários estão familiarizados.

  • Com Multipath TCP na pilha, deixar o telefone dividir o tráfego em ambos os seus endereços de IP (o WiFi ea interface de dados móveis), a qualquer hora os dois tipos de rede estão disponíveis.


Se assumirmos a "rede bobo" ideal entre os dois exércitos, a rede não vai notar nada acontecer. Afinal, a sua única função é olhar para os pacotes e encaminhá-los. Os anfitriões em cada extremidade da conversa - no caso do Siri, um servidor da Apple e um telefone nas mãos do cliente - são os únicos que precisam de uma pilha TCP Multipath.


É sempre assim tão fácil?


A primeira captura é facilmente identificado: não é o suficiente para ter uma pilha Multi-TCP em um cliente. Tem de existir no servidor também. Então, para que ele se torne onipresente, ele teria de ser implementada pelos servidores que impulsionam as aplicações da Internet.


Um cenário de galinha e do ovo é provável que entram em jogo: qualquer coisa que fica no caminho da tecnologia é uma razão para os administradores de sistemas não se incomodar. Por que correr o risco de implementação de uma nova pilha em seus servidores - com todos os riscos e os problemas de gestão da mudança que envolve - se é que não vai fazer a diferença para seus negócios, afinal?


E há barreiras - o principal deles sendo a quase onipresença do NAT (tradução de endereço de rede).


Uma enorme quantidade de middleware da Internet (por exemplo, firewalls stateful e NAT) usam troca SYN-ACK dois hosts 'para decidir o que passa eo que bloquear. A rede deixou de ser "rede bobo ideal" dos teóricos há muito tempo.


Isto não é um problema que existe entre as duas máquinas inteligentes. Claro, apenas uma das interfaces do smartphone será usado para o SYN-ACK que configura uma sessão -, mas as informações da sessão ea pilha TCP Multipath fornece tudo que é necessário para resolver as comunicações que trafegam caminhos diferentes.


Os firewalls, NAT e "um monte de outros middleware" na Internet, Houston contou Sul Vulture, não estão na mesma posição. Multipath TCP iria confundir um monte de aperto de mão sensível middleware, disse ele.


Esse middleware, suspeitos de Houston, vai ficar no caminho dos centros de dados grandes saltos a bordo em uma pressa, porque provavelmente há muitas maneiras em que ele iria quebrar as várias camadas de middleware que existem entre um servidor e do mundo exterior.


Outros exemplos de trocas que podem ser SYN sensível incluem:



  • Um usuário estabelece uma VPN à rede corporativa sobre a casa sem fio. No mundo do Multipath TCP, é possível que o tráfego também pode atravessar a rede móvel disponível - mas não será segura.

  • Olhando para o que Houston chamado "famoso causa perdida" da Internet, QoS: onde é implementado, é muitas vezes negociado entre pares de endereços. Em um mundo Multipath TCP, não um par de endereços precisa saber o que está sendo negociado entre outro par endereço?


Os catadores de qualidade


A resposta para a pergunta QoS deve ser que não importa, Houston disse, porque na verdade, Multipath TCP faz sobre vários links que protocolos de Internet sempre assumiu que seria capaz de fazer - limpar o que qualidade está disponível.


A ideia da Internet é que ela deve ser auto-otimização, Houston contou Sul Vulture: "trancar a mais alta qualidade possível, e completar a comunicação tão rapidamente como você pode." Pessoas que trabalham com os roteadores no centro da rede estão acostumados a esses conceitos; Multipath TCP apenas empurra o mesmo conceito para os hosts do usuário final.


Em um caso de implantação de trabalho, Multipath TCP agiria como um equilíbrio quase-automática de carga para o usuário final. Se o roteador Wi-Fi está ligado a um multi-megabit por segundo ligação fixa, enquanto que a ligação 3G congestionada está lutando junto a 500 Kbps, então a maior parte do tráfego do usuário fluirá através da ligação Wi-Fi.


Se, por outro lado, a ligação ADSL do roteador WiFi em casa é a única que está lutando, eo smartphone pode ver uma conexão 4G - a conexão 4G vai levar a maior parte do tráfego.


Oh, isso não é necessariamente ideal, não é? Porque out-of-the-box, uma pilha TCP Multipath não sabe nada sobre o preço da conexão. Não é um problema agora, já que Siri não está martelando na conexão - mas que se a próxima implementação Multipath TCP para escapar para a vida selvagem eram YouTube?


Seria uma implementação de mudar o mundo, e não em um bom caminho: os usuários podem experimentar um novo projeto de lei de choque que supera de longe qualquer coisa que já vimos antes.


Se a tecnologia já se tornou generalizada, seria pelo menos desejável para os designers de aplicativos para aprender a fazer previsões razoáveis ​​sobre os caminhos disponíveis para acabar com os hosts do usuário. Curiosamente, este pode, a longo prazo Android dar uma vantagem sobre a Apple, uma vez que a pilha no dispositivo é mais directamente visíveis para o utilizador final.


Um desenvolvedor de aplicativo Android pode fazer inferências custo, basta olhar para a interface física está ligada a qual endereço IP (além do mais, uma vez que as redes móveis ainda são apresentados à Internet como "enormes NAT", um endereço de 3G, que está vinculado a uma 10-range O endereço IP para o aparelho está claramente ligado à rede móvel Telstra). Um desenvolvedor Apple teria que esperar por Cupertino para fazer APIs adequado disponível - se e quando.


Segurem-se ... transportadora NAT?


Mencionamos que NAT pode ficar no caminho de Multipath TCP, não é? Claro que nós fizemos. E se você indicado, onde há uma enorme quantidade de muito grande NAT ...


Seria em redes móveis. Que, curiosamente, coloca operadoras no coração do futuro da MTCP, pelo menos no curto prazo.


A sabedoria comum sobre MTCP - a chamada rede "het-net", ou heterogênea - é que ele vai receita transportadora lixiviação. Se o seu iPhone está agarrando WiFi gratuito enquanto você anda na rua, em vez de usar o seu adorável e conexão de dados móvel relativamente caro, isso é uma ameaça a receita para resolver. Se, por outro lado, o tráfego está sendo direcionado através da rede 4G, porque é mais rápido do que o que está disponível para o seu roteador em casa, essa é uma oportunidade de receita.


Portadores não tem que tomar nenhuma decisão hoje, é claro, já que a única Multipath TCP aplicativo visto em estado selvagem é Siri (e isso só pode disparar a conexão multipath se você tem duas interfaces Wi-Fi e 3G ativos e se ambos tipos de rede estão disponíveis.


Se as operadoras decidem que não está interessado em Multipath TCP, então agora, está bem ao seu alcance para estragá-lo. ®


Bootnote: Com agradecimentos ao da APNIC Geoff Houston. Quaisquer erros ou omissões são da responsabilidade dos The Register. ®



Barmy Army para obter Wi-Fi para o banco para Ashes Cricket


Relatório livre ESG: gerenciamento de dados sem emenda com Avere FXT


Reg de leitura membros Barmy Army indo para a Austrália para as cinzas de retorno * série de críquete teste vai encontrar uma combinação maravilhosa de cricket e tecnologia os aguardam durante a série 'quarto jogo, após o Sydney Cricket Ground (SCG) anunciou que vai introduzir WiFi para o assento.


Detalhes de exatamente o que está em oferta, e quão bem as escamas do sistema, são vagos no momento, mas o SCG Trust está prometendo "conectividade de alta velocidade Wi-Fi e ... em tempo real, de alta definição IPTV e vídeo móvel" plus "encomendar comida, bebidas e mercadoria a partir do conforto da sua sede ". Cisco, que foi escolhido para fornecer a tecnologia, diz o sistema irá oferecer "acesso à informação local, bem como replays jogo-dia e ea capacidade de se conectar em ingressos e pontos de venda de mercadorias."







O sistema em lugares inicialmente alcançar os três novos está sendo construído para as cinzas, mas está prevista para chegar a todas as áreas da SCG e seu vizinho o Sydney Football Stadium em cinco anos.


A adição de WiFi será bem-vinda como o seu correspondente relatório da experiência pessoal dolorosa que as redes de telefonia móvel regularmente colapso sob o peso de usuários durante grandes Sydney Swans ou partidas de críquete.


A capacidade de pedir comida por WiFi pode ajudar a resolver outra das grandes falhas dos locais: alimentos mais caros e comum. ®


Bootnote


* A cartilha para os leitores para além do mundo do críquete. Em 1882, a Austrália, então uma colônia humilde e áspera-house, derrotado a pátria Inglaterra no cricket. Sacode em Blighty publicado um anúncio de morte falsa para Inglês cricket, declarando suas cinzas seriam levados para a Austrália para o enterro. A idéia pegou e as duas nações competiram para as cinzas desde então. Inglaterra está ascendente, o que significa que milhares de fãs que viajam são susceptíveis de participar da série de cinco jogos. Test Match de Sydney ocorre nos primeiros dias de janeiro e é vendido para fora para a maioria de sua duração de cinco dias. E antes que você reclamar sobre um jogo que dura cinco dias e pode terminar em um empate, isso é apenas um dia a mais do que um torneio de golfe e ninguém reclama deles terminando empates.



Hyperscaling lhe dá poder quando você precisar dele


Incremente sua infra-estrutura


Computação hiperescala, ou simplesmente hyperscaling, é um conceito que começou a ser falado há relativamente pouco tempo.


Vamos começar com a definição de Webopedia: computação hiperescala refere-se à infra-estrutura e provisionamento necessário em ambientes de computação distribuída para a efetiva ampliação de vários servidores para milhares de servidores. Computação hiperescala é muitas vezes empregada em ambientes como computação em nuvem e big data.


Deja Vu novamente


Espere um momento, no entanto. Quase exatamente 10 anos atrás, eu escrevi um recurso para outra publicação sobre o novo conceito de computação em grade, em seguida.


Descrevi grade como uma extensão do processamento massivamente paralelo, no qual você usa um conjunto de computadores que estão conectados de forma arbitrária e às vezes dispersos geograficamente, potencialmente com vários proprietários diferentes.







"Em vez de ter um grande sistema paralelo, tem um número de pequenos, possivelmente, em locais diferentes, as quais podem ser utilizadas em qualquer combinação, são consideradas adequadas. Assim, os sistemas podem ser utilizados de forma independente ou agrupada em qualquer tamanho de sistema paralelo, dependendo da demanda ", escrevi.


Portanto, não é hyperscaling simplesmente o nome atual para, ou para ser mais generoso, uma nova variação, grid computing?


Muitos dos conceitos são semelhantes - especificamente a idéia de crescer e diminuir o poder de computação disponível para um dado problema em um determinado momento conforme a demanda.


Presença sombria


É verdadeiramente um novo conceito? Ou será que ele simplesmente se escondendo nas sombras por alguns anos, enquanto conceitos como rede definida por software (SDN) e software de armazenamento definido (SDS) desenvolveram na medida em que é possível realmente implementá-lo em mais de um local ou metropolitana escala?


Nick Williams, gerente de produto sênior EMEA em Brocade, acredita que a demanda por hyperscaling está aumentando ", devido à explosão de um modo geral de computação, armazenamento e consumo de networking".


"SDN é um factor-chave para o gerenciamento e orquestração hyperscaling. Concordo que os avanços nesta área são fundamentais para ser capaz de gerenciar recursos de computação vastas para funções específicas, conforme necessário ", diz ele.


A idéia de poder de computação de escala à vontade para satisfazer a demanda, então desistir quando as coisas se acalmarem, é um dos grandes pontos de venda da computação em nuvem (outro termo que surgiu muito recentemente).


Anos antes nuvem existiu eu trabalhava para uma empresa de viagens cuja demanda na primeira semana de janeiro foi mais de 30 vezes maior do que na semana que antecedeu o Natal. A empresa lidou com isso simplesmente por possuir um grande servidor Sun socking que trabalhou muito difícil para uma pequena porcentagem de sua vida e passou a maior parte de seu tempo apenas mais típico.


Passar o pacote


Estes dias, é claro, nós ouvimos o tempo todo de empresas que utilizam processamento em nuvem para escalar cima e para baixo. Um dos exemplos favoritos são as empresas de ingressos on-line que ampliam seu poder de computação de um ou dois dias, quando os ingressos Elton John estarão à venda, em seguida, enrole para baixo até que os Stones decidir fazer outra turnê.


Há um problema com esta: embora você pode cortar custos e maximizar o desempenho por dumping seu hardware em casa e usando um serviço de nuvem, o problema resourcing não vai embora.


Em vez disso, apenas se move um passo a montante, como o provedor de nuvem agora tem que encontrar a força para manter-se com os requisitos de flutuação de todos os seus clientes.


A lei das médias ajuda os prestadores de serviços, até certo ponto, porque a menos que eles se concentram seu esforço de vendas em um pequeno número de mercados verticais (assumindo um monte de empresas de viagens com os padrões de demanda semelhantes, por exemplo), então diferentes clientes são bastante provável ter grandes demandas em momentos diferentes.


Você não pode confiar em uma distribuição completamente de carga, no entanto, para o provedor de nuvem tem tanto ao excesso de oferta ou ser um pouco mais inteligente sobre como a demanda de serviços.



Deve haver quilometragem para permitir que empresas de menor porte para pedir alguém do poder de computação



Os gostos de Amazon e Microsoft são grandes o suficiente para possuir o hardware no qual milhares de clientes em expansão, enquanto milhares de outros contratos, mas certamente deve haver quilometragem para permitir que empresas de menor porte que sair e pedir emprestado o poder de computação de outra pessoa para atender a sua grande, mas pouco frequente picos de demanda.


"Isso é, definitivamente, para onde está indo, embora ainda existam muitos limites da tecnologia", diz Kurt Glazemakers, CTO da CloudFounders .


"Hardware costumava ser o maior problema. Hardware (ou seja, computação e tecnologia de armazenamento) necessários para ser o mesmo para começar a usar a capacidade e era difícil de compartilhar recursos.


"A virtualização tem resolvido isso, mas o hypervisor (e as características SDN e SDS que vêm com ele) tornou-se a nova fronteira da tecnologia. É muito fácil começar a usar o Amazon, Microsoft ou Google, mas é muito mais difícil de se afastar.


"E com VMware agora está se tornando um prestador de serviços, os mesmos contagens para o hypervisor VMware. Você não pode mover facilmente calcular a capacidade quando ambos os locais têm diferentes hypervisors ".



sexta-feira, 27 de setembro de 2013

OpenDaylight: atender recém-chegado brilhante do networking


5 maneiras para reduzir a latência da rede de publicidade


Poucos de nós já se deparou com a palavra OpenDaylight em uma conversa educada ultimamente, porém muitos anos que passamos o uso e gerenciamento de redes.


É, no entanto, um de uma série de palavras relacionadas que todos nós estamos indo estar usando uma grande quantidade ao longo dos próximos 12 a 18 meses. Vejamos o que é e, mais importante, o conjunto mais amplo de conceitos de que faz parte.







OpenDaylight é sem dúvida o projeto mais importante no gênero nascente da rede definida por software (SDN).


O objetivo é simples: para abrir o mundo fechado de infra-estrutura de rede, e para fazê-lo dentro de um framework open-source para incentivar o desenvolvimento generalizado e garantir que ele não está apenas disponível a partir de qualquer fornecedor oferece aos desenvolvedores o maior pote de dinheiro.


Pilha nas camadas


A rede tradicionalmente fica em uma camada mais baixa sob os servidores e aplicações. Como plataformas de virtualização tornou-se mais complexo e mais avançados, eles começaram a introduzir a sua própria funcionalidade da rede interna.


Isso permite que você faça coisas como manter elementos de tráfego inteiramente dentro do hardware do servidor, se ele está indo de uma máquina virtual para outro dentro da mesma caixa, e, mais recentemente, até mesmo para fazer alguma esperteza funky que lhe permite implementar conceitos puros, como a camada 2 emulação sobre o topo de uma camada de rede 3.


Este último envolve a utilização de código presentemente criativa para fornecer características espertos enquanto trabalha dentro dos limites do que a camada de rede subjacente pode proporcionar. Mas e se as camadas mais altas poderia ligar para a camada de rede?


O que se poderia dizer que a camada de rede como lidar com o tráfego que está prestes a ser injetado, e deixe o poder da camada de rede ajudar ao invés de simplesmente agir como um constrangimento?


Isso é o que OpenDaylight visa dar-nos, e é um olho-wateringly coisa desejável.


Tartaruga e lebre


Existe, no entanto, um problema com Trivial SDN - e, portanto, com toda a razão para ter OpenDaylight. Simplificando, o hardware é geralmente rápida e software é lento.


Em 1996, eu me sentei em escritórios Rapid City "Comunicações no Vale do Silício e foi dito sobre o novo F1200 router wire-speed a empresa tinha desenvolvido.


Este foi um grande negócio. Até então, a camada de roteamento 3 havia sido realizada exclusivamente em software e assim foi relativamente lento, o F1200 fez isso em um ASIC (circuito integrado específico do aplicativo) e fez uma ordem de magnitude mais rápido.


Agora, porém, estamos falando de mover a função de rede de hardware e software de volta. Não apenas isso, mas para os processadores de PC padrão que estão sendo compartilhados com as máquinas virtuais na pilha de virtualização. Não é este um passo para trás, a velocidade-wise?


Aparentemente não, de acordo com Kurt Glazemakers, CTO da CloudFounders . "Software é, em geral, mais lento do que hardware purpose-built, mas o software permite uma solução mais barata para uma abordagem distribuída", diz ele.


"Na verdade, uma grande solução de hardware que cuida de todas as ACLs [listas de controle de acesso] na rede pode ser muito mais ineficiente, em seguida, uma solução de software distribuído que define ACLs para cada máquina virtual na rede.


"Além disso CPUs tendem a tornar-se de 20 a 25 por cento mais rápido do ano sobre ano, para quase dobrar a cada dois anos, enquanto os requisitos de rede por máquina virtual definitivamente não ter crescido no mesmo ritmo."


David Noguer Bau, EMEA diretor de marketing provedor de serviços da Juniper, reconhece que você não pode simplesmente jogar tudo no software.


"[A separação do controle e aviões de encaminhamento permite] a centralização de certas partes do plano de controle e certamente resulta em simplificação operacional da rede, implementação mais rápida de novos serviços e melhor orquestração entre máquinas virtuais e redes", diz ele.


"Mas o hardware de roteamento wire-speed ainda será necessária para mover os pacotes mais rápido. O equipamento de rede irá fornecer o músculo, enquanto a centralização do plano de controle ajudará a dimensionar o cérebro. "


Jesse Rothstein, diretor executivo da ExtraHop, reconhece a desvantagem de levar a funcionalidade da rede longe dos dispositivos de rede.


"Realizando a camada 2/layer 3 comutação e roteamento em software é certamente possível com o atual hardware de classe de servidor", diz ele.


"A questão importante é a que custo? Processamento de pacotes de alta velocidade é caro para os processadores de uso geral, ea CPU é um recurso compartilhado. A quantidade de tempo que a CPU gasta interrompe ou espera ocupada processamento é o tempo não passou fazendo outra coisa. "


Evite os gargalos


Rothstein destaca que os componentes mais lentos vai te atrapalhar significativamente somente se eles estão sendo muito usados.


"Para as altas taxas de nova iniciação fluxo, o controlador OpenFlow provável é um gargalo. Esse problema pode ocorrer se o tráfego de rede é composta principalmente de fluxos de curta duração e se cada fluxo requer a intervenção do controlador ", diz ele.


"No entanto, se o controlador OpenFlow só intervém em casos de exceção ocasional, então o impacto no desempenho é mínimo. Na verdade, tal projeto não é muito diferente da maneira que modernos switches Ethernet utilizam o processador host. "


Nick Williams, gerente de produto sênior EMEA em Brocade, tem uma opinião semelhante, notando que fazer alterações em fluxos existentes através abstraído software quando o tráfego está em vôo irá atrasar os fluxos de tráfego.


"Quanto à mudança programática [modificar as tabelas de encaminhamento nas camadas de rede] é que você vai fazer em tempo real? Quantas vezes ele será usado para o tráfego que está em vôo? ", Ele pergunta.


Se você estiver fazendo alterações para as tabelas de fluxo não em tempo real, embora automaticamente / programação, ele diz: "uma vez que você fez uma alteração que vai ser tão rápido como antes, como encaminhamento de tráfego continuará em hardware".


Vá com o fluxo


Em suma, então, os vendedores falei que concordar em grande parte que atinge velocidade pode muito bem ser compensada por flexibilty.


Rothstein mencionado OpenFlow especificamente (embora porque eu tinha mencionado especificamente para ele), então vamos tocar nisso por um momento.



OpenFlow é altamente provável que seja uma parte extremamente importante da SDN



OpenDaylight é um projeto para definir um quadro para a SDN, em geral, dos quais OpenFlow é apenas um dos protocolos suportados específicos. Mas OpenFlow é altamente provável que seja uma parte extremamente importante da SDN.


Estabeleceu-se no campo simplesmente por ter existido na forma de liberação desde o início de 2011, e por ter o apoio de todos os grandes fornecedores, incluindo Brocade, Juniper, Cisco, Extreme, IBM e HP.


(Eu mencionei a Williams, que eu não vi os gostos de Riverbed - empresas que produzem kit de otimização de WAN como seu produto principal - na lista, e se perguntou se vamos vê-los adicionado em algum momento "Mesmo se eles não o fazem. naturalmente ter um ataque, eles vão querer encontrar um ajuste ", disse ele.)


OpenFlow também tem a vantagem de ser bem simples de implementar se você é um fornecedor de rede.


"O protocolo OpenFlow é essencialmente uma API para acessar a tabela de encaminhamento de um switch Ethernet, dissociar o plano de controle a partir de dados do avião", disse Rothstein.


Ou seja, a camada de virtualização pode dinamicamente reconfigurar a LAN para fazê-lo se comportar da maneira desejada, sem a necessidade de ajustes manual das configurações ou trabalhando em torno das limitações de uma camada de rede fechada - justamente onde começamos ao falar sobre o aspecto mais importante da SDN.


O cerne da questão


Para ter certeza de que está claro sobre como o quadro OpenDaylight funciona, vamos fazer uma analogia com um produto bem conhecido.


Se você estiver familiarizado com as arquiteturas de software da Microsoft, você estará familiarizado com o quadro. NET. Ele tem um complexo conjunto de ganchos para o sistema operacional subjacente e fornece uma ampla gama de ganchos para os aplicativos que os desenvolvedores escrevem para sentar em cima.


Ao escrever código relativamente simples, os desenvolvedores podem produzir software imensamente poderosa. Enquanto eles entendem até certo ponto os conceitos do sistema de ganchos que eles estão chamando, eles não tem que ser capaz de escrever um código tão complexo como que por baixo.


As funções de enquadramento OpenDaylight de uma maneira semelhante. Senta-se entre as aplicações de alto nível e da rede de baixo nível. Os aplicativos no topo (um hypervisor de virtualização, por exemplo) fazem chamadas para o quadro, que pode, então, lidar com a complexa interface para os dispositivos de rede abaixo.


Ao mesmo tempo, o quadro fornece ganchos para permitir aplicativos que fornecem funções relacionadas com a infra-estrutura, tais como monitoramento, gestão, prevenção de intrusão e afins.


Salve o engenheiro de rede


Então, se temos uma nova camada que permite que as camadas altas interagir diretamente com - e até mesmo reconfigure - a camada inferior, isso significa que OpenDaylight e SDN vai efetivamente matar o engenheiro de rede, com os caras de servidores assumiu a rede também?


Glazemakers pensa que na verdade, a evolução se aplica a todos, não apenas para os engenheiros de rede.


"Como o software está substituindo cada vez mais funcionalidades principais, as fronteiras tradicionais como armazenamento, rede e computação vai começar a desaparecer", diz ele.


Noguer Bau, pelo contrário, acha que o papel vai continuar a existir, mas em um sentido muito mais colaborativa do que antes. "O pessoal de rede e servidor já trabalham em conjunto dos departamentos de nuvem", diz ele.


"No entanto, as organizações precisam evoluir papéis e responsabilidades claramente definidas em um mundo com SDN. No futuro haverá ainda especialistas de servidores e especialistas da rede. Modelo SDN da Juniper permite que a demarcação entre os dois grupos ".


Perspectivas corporativas


Será OpenDaylight crescer em um quadro madura, amplamente adotada? Ou será que vai murchar e morrer na videira ao lado de outras idéias impressionantes, como Betamax, 100VG-AnyLAN e redes ATM para o desktop? O que vai acontecer no mercado em cujas OpenDaylight porta foi preso um pé?


Glazemakers tem uma vista de onde SDN como um todo, é susceptível de crescer. "Eu acho que SDN será impulsionado principalmente por soluções privadas de nuvem e virtualização, ou novas ofertas avançadas de prestadores de serviços de rede, mas será principalmente iniciativas que vive dentro de uma rede corporativa", diz ele.


Noguer Bau vê a nuvem como um mercado significativo. "Apesar da cobertura da mídia grande, SDN ainda está em sua infância", diz ele.


"Nos próximos 12 meses, à medida que mais controladores tornam-se disponíveis devemos esperar que as primeiras implementações de acontecer. Alguns deles serão experimental, mas a maioria será a resolução de problemas, no contexto da nuvem ".


Williams concorda que o conceito ainda é jovem. "Muito trabalho precisa ser feito casos de uso compreensão e como ele pode ser implantado", diz ele.


"Dentro SDN todos os fabricantes ainda estão trabalhando o apoio que pode fornecer para cada uma das funções OpenFlow".


Rothstein vê o crescimento dos conceitos SDN como um alargamento do que foi feito até agora. "Eu acho que a definição de SDN ainda está evoluindo", diz ele.


"Há alguns anos atrás, SDN foi em grande parte sinônimo de OpenFlow. Agora, SDN é usado para descrever as redes mais dinâmicas onde a configuração está associada com entidades lógicas em vez de os físicos mais inteligente e


"A definição vai continuar a alargar à medida que mais fornecedores de abraçar a prazo, por isso é difícil de quantificar a sua absorção."


Cheio de jovem promessa


Em suma, SDN é muito útil para não crescer acentuadamente e ver o enorme aceitação. Apesar de ainda ser um conceito relativamente jovem não é apenas ser falado, mas abertamente implementado - não menos importante, graças ao OpenFlow.


Este é um padrão que tem sido em torno de um par de anos e que os vendedores parecem ter adotado universalmente como uma coisa boa para apoiar.


Este último ponto é crucial, é claro. Conceitos como este só terá sucesso se os vendedores se inscrever. Afinal, não há nenhum ponto de ter uma camada de SDN que conecta para a camada de rede, se os fabricantes de que a camada de rede não estão abrindo seus sistemas.


OpenDaylight já se estabeleceu como o ponto focal para a evolução SDN-relacionados. Seu primeiro lançamento é devido em 09 de dezembro e está sendo programado como um lançamento simultâneo, incentivando vários componentes para acontecer ao mesmo tempo. Essa é cedo o suficiente para garantir que ele não perdeu o ônibus.


Podemos esperar, então, que vamos ouvir muito mais sobre isso, e que um número considerável de nós vão começar a usá-lo muito em breve. E muito menos pessoas vão se perguntar: "Abra o quê?" ®



quarta-feira, 25 de setembro de 2013

Virtual Fabric Brocade conta a história de multi-tenant


Incremente sua infra-estrutura


Uma das irritações do mundo da virtualização é que é muito fácil de acabar com um número relativamente pequeno de dispositivos físicos de hospedagem conta de endereço que correr na frente de restrições de Ethernet em coisas como quantos endereços MAC pode existir em uma LAN (ou VLAN) .


É uma das restrições que se encontra por trás do aumento da rede definida por software, porque o SDN oferece uma maneira de vencer esses limites (aliás deixando o gerente do centro de dados de manter os fluxos de tráfego em separado, por motivos de privacidade do cliente e segurança).







Qual é o lugar onde mais recente oferta da Brocade se encaixa. Enquanto os grandes números em seu anúncio centrada em torno de 100 Gbps Ethernet tecido, a história de virtualização é entregue em sua VCS Fabric Virtual, um passo para o mundo da multi-tenanted infraestrutura de nuvem, altamente virtualizada.


VCS é lançado como um jogo de escalabilidade com um toque: a maioria dos centros de dados da empresa ANZ engenharia de sistemas gerente Phil Coates explicou, executar infra-estrutura redundante para alta disponibilidade, o que significa muita kit que está inativo a maior parte do tempo (porque o protocolo Spanning Tree doesn 't como loops). VCS usa a mais recente TRILL - interconexão transparente de lotes de links - para espalhar o tráfego em todos os links disponíveis.


O segundo jogo para VCS é que ele fica entre os hypervisors e as camadas mais baixas, por isso, onde há tráfego entre processos (por exemplo, entre duas máquinas virtuais com diferentes endereços de rede virtual), ele não precisa fluir através da LAN física. É difícil quantificar o quanto isso vai aparecer em cargas de rede, porque isso vai ser específico para a arquitetura, mas Brocade está esperando que ele vai ser importante.


Em terceiro lugar, VCS permite que a política a ser associado com máquinas virtuais individuais: para simplificar o ramo de movimentação de cargas de trabalho em torno de políticas siga o aplicativo através de movimentos, seja dentro de um centro de dados ou através de centros de dados diferentes.


VCS também reconhece e prioriza o tráfego de armazenamento, e pode terminar diretamente VMWare tráfego NSX.


Isso tudo fica no contexto do novo ferro, incluindo uma Gbps Ethernet placa de linha 100 para o top-of-the-line 8770 chassis VDX, troncos de Ethernet de 40 Gbps para 160 Gbps na família VDX 6740, e em-chip suporte para OpenFlow 1.3.


Embora o foco dos anúncios mais recentes é sobre virtualização e Ethernet (e mais Ethernet), Brocade enfatizou que, com 64 por cento de suas receitas ainda do lado de armazenamento, o negócio FibreChannel não vai estar indo embora esta semana. ®



quarta-feira, 18 de setembro de 2013

Governo japonês empurra SDN fora do centro de dados


Incremente sua infra-estrutura


O mundo ainda está recebendo uma alça sobre o que a rede definida por software (SDN) significa para o centro de dados, mas o Japão gostaria de levá-lo adiante. O governo do país está se reunindo com cinco dos grandes nomes do país em tecnologia para trabalhar o que é necessário para tirar SDN para a grande área.


Os membros do projeto incluem NEC, NTT, NTT Com, Fujitsu e Hitachi, ea pesquisa foi marcado a 3 Projeto O (que, aparentemente, significa Open Innovation sobre plataformas de rede).







A pesquisa foi promovida pelo Ministério de Assuntos Internos e Comunicações "Pesquisa e Desenvolvimento de Tecnologia de Virtualização de Rede" do grupo.


O 3 tem como objetivo identificar quais os elementos da WAN podem ser compatíveis com SDN para reduzir o tempo que leva para colocar redes juntos e criar, alterar ou fechar serviços. Em particular, de acordo com este anúncio da NEC, o projeto visa virtualizar infra-estrutura que é compartilhada entre diferentes operadoras e prestadores de serviços, para que os serviços não estão vinculados às camadas mais baixas da rede.


Os três braços da investigação irá abranger:



  • Gerenciamento de rede e controle - o projeto visa "a manipulação de informação comum" para controlar "óptico, sem fio e pacote de comunicações";

  • Software para projeto de rede, construção e gestão da operação, e

  • Desenvolvimento de "virtualização" compatíveis dispositivos de rede.


NEC está a lidar com o gerenciamento de rede e plataformas de controle, e vai trabalhar em sistemas sem fio SDN compatíveis. NTT vai trabalhar para tornar o software compatível com SDN, enquanto seu irmão NTT Com criará as diretrizes para a operação SDN. Fujitsu e Hitachi vão trabalhar em plataformas ópticas e de pacotes, respectivamente.


O anúncio diz: "quando essas tecnologias são realizadas, as empresas serão capazes de desfrutar de serviços, basta instalar o aplicativo especializado para os serviços, tais como aplicações de dados grandes, transmissão de vídeo HD 8K e global da empresa intranet, e, ao mesmo tempo, as redes ideais será fornecido para os serviços prontamente ". ®



segunda-feira, 16 de setembro de 2013

Juniper aberto fontes Contrail pilha de software SDN


Incremente sua infra-estrutura


Switch e roteador fabricante Juniper Networks abocanhou Contrail Systems, um fabricante de inicialização do software software-defined networking (SDN), em dezembro de 2012 para $ 176m antes Contrail era revelar de modo stealth. Juniper delineou sua SDN planeja um mês depois, e em maio lançou o código para testes beta. Agora, o código está pronto para o horário nobre, e Juniper anuncia que também irá liberar o código sob uma licença open source.


Contrail é uma alternativa para projetos de SDN e produtos da VMware (Nicira), grande mudança Networks, Brocade Communications (Vyatta), HP, IBM, e uma série de outros. Depois, há o consórcio OpenDaylight, que está forjando uma miscelânea de vários código como uma fonte de pilha SDN aberto.







Não importa o projeto ou fornecedor, o objetivo de SDN é praticamente o mesmo: levar a virtualização semelhante à que está disponível para servidores e armazenamento para a rede, que é muito frágil, física e dependente dos seres humanos com o gênio de linha de comando.


Ankur Singla, que era diretor de tecnologia da Aruba Networks, e Kireeti Kompella, que era CTO e arquiteto-chefe do sistema operacional de rede Junos da Juniper, fundada Sistemas Contrail no início de 2012. Eles contrataram um grupo de engenheiros de software e especialistas de rede da Cisco e Google para criar um controlador que seria compatível com os protocolos OpenFlow que saiu da Universidade de Stanford, mas foram baseados em protocolos de rede existentes e seria, portanto, compatível com switches, roteadores existentes, hypervisors e virtualização de servidores.


Bob Muglia, o ex-Microsoftie que é CEO da Juniper, El Reg diz que o plano de Contrail antes da aquisição era para obter o código para a porta deste ano.


"Temos vindo a trabalhar com um grande número de clientes, e esperamos que pelo menos vários deles vai entrar em produção durante o 4 º trimestre deste ano", disse Muglia. "Originalmente, disse que iria sair em 2014, e aqui estamos fazendo isso no terceiro trimestre de 2013, e quem pensaria? Normalmente 'segunda metade' significa 30 de dezembro. Que eu estava sendo conservador. Que eu era o cara que fez o decisão de dizer 2014, quando todos os caras da equipe Contrail estavam comprometidos com frete algo em 2013. Mas tínhamos acabado de adquirir a empresa e não havia nenhuma maneira que eu ia cometer Juniper para algo que acabara de trazer em casa. Nós sempre esperava que seria lançado no terceiro trimestre, mas é sempre melhor ser um pouco conservador. Eles se conheceram as respectivas datas, e na minha experiência, que nem sempre acontece. "


O Controlador Contrail que está chegando ao mercado é muito bonito exatamente como descrito vários meses atrás, quando ele entrou em testes beta. O excesso de controle é baseado no Border Gateway Protocol (BGP), que já está embutido no Juniper switches e roteadores, bem como os seus rivais).


Ele também emprega XMPP, um protocolo para a transmissão de mensagens de middleware orientado a mensagem, para controlar os switches virtuais dentro de hypervisors. Ele usa uma tecnologia existente de redes de telecomunicações chamado Multiprotocol Label Switching (MPLS), que encapsula os pacotes em uma rede e controla o seu encaminhamento através desses rótulos; MLPS existe entre as camadas 2 e 3 na pilha de rede.


Há um certo número de outros protocolos que o controlador Contrail utiliza para separar os dados de controlo e os aviões na pilha de comutação e tornando-os mais maleável, mas no momento em que os protocolos OpenFlow não são suportados.


"Nós não estamos incluindo suporte OpenFlow na primeira versão", disse Muglia. "A realidade é, vamos ver como o mundo evolui com OpenFlow. O cenário de uso atual que as pessoas têm usado para OpenFlow é mais reativo end-to-end, onde temos vindo a tomar uma abordagem mais pró-ativa sobreposição tecnicamente. E acontece que este é o lugar onde a indústria parece estar indo Se houver casos de usos para OpenFlow que são interessantes e importantes, é um protocolo -., finalmente, tudo é OpenFlow é um protocolo - e apoiamos centenas e centenas de protocolos através Juniper produtos, e apoiamos uma série deles em Contrail e nós podemos adicionar OpenFlow para ele. Mas a verdadeira chave é qual é o cenário de uso. "


Aqui estão os quatro camadas da pilha JunosV Contrail controlador

Aqui estão os quatro camadas da pilha JunosV Contrail controlador



Em qualquer caso, Contrail divide a rede em quatro aviões de controle - de gestão, serviços, controle e encaminhamento - e centraliza algumas funções do controlador e distribui outras funções fora para os switches e roteadores da rede.


A diferença significativa entre os controladores baseados em OpenFlow e Contrail Contrail é que mantém a cópia mestre das tabelas de encaminhamento no controlador e copia-los para os switches em vez de manter as cópias mestre nos interruptores e agregá-los no controlador depois de terem sido alterados.


O controlador é escrito em C + +, por isso é perto do ferro, e tem interfaces escritas em Python. A pilha também inclui análises em tempo real para o tráfego de rede com um banco de dados tabela hash Cassandra distribuída back-acabar com ela. Contrail dashboards ligar para a interface do controlador de cloud OpenStack Horizon gráfica com o usuário, e os dados armazenados no mecanismo de análise podem ser exportados para Hadoop ou um banco de dados de séries temporais para análise posterior.


O Controlador Contrail tem ganchos para os hypervisors KVM e Xen, bem como o OpenStack e CloudStack nuvem orchestrators, e é certificado para rodar em roteadores de borda MX da Juniper e ex interruptores top-of-rack modular e QFX.


Juniper tem um esquema de preços muito simples para o controlador Contrail: custa US $ 1.700 por soquete para uma licença perpétua para qualquer servidor que traz sob gestão, e US $ 1.700 por elemento de rede, que também é trazido sob gestão. (Você tem que pagar a manutenção anual em cima disso.) Você também pode comprá-lo com base em uma assinatura anual de US $ 1.000 por soquete ou US $ 1.000 por elemento de rede, e que inclui a taxa de manutenção para esse ano.


Curiosamente, Juniper também está fazendo o Controlador Contrail disponível como um projeto open source no www.opencontrail.org , eo código para a versão comercial ea versão de código aberto é idêntica, diz Muglia. Nenhuma dessas coisas open-núcleo. O código foi lançado sob uma licença Apache 2.0, que diz Muglia é um dos mais autorizados e, mais importante, permite que o código para ser misturado com OpenStack e CloudStack. Juniper também está anunciando uma parceria com a IBM, que será integrar Contrail com sua Orchestrator SmartCloud. Isso, é claro, é a própria distribuição de OpenStack da IBM. ®



Limpadores de metro de Londres para recusar impressão digital relógio-on


Incremente sua infra-estrutura


Limpadores de trabalho no metro de Londres vai recorrer à ação industrial, esta semana, em protesto contra a introdução de um biométrica controverso clock-in sistema.


A partir de apenas após a meia-noite de quinta-feira de manhã ", até 300 produtos de limpeza" vai participar da ação por se recusar a digitalizar suas impressões digitais cada vez que relógio para o trabalho, disse que o sindicato. Sua decisão vai definir os trabalhadores em rota de colisão com a ISS, a empresa dinamarquesa que os emprega.







Segundo o sindicato RMT, 98 por cento dos 103 funcionários que responderam às urnas votaram em favor dos planos, que chegou a chamar uma greve full-on.


Bob Crow, RMT secretário-geral, disse: "Nossos membros de limpeza de tubos foram instados a se manter firme e seguir o chamado do sindicato para agir industrial curto de uma greve, recusando-se a usar qualquer tecnologia biométrica / impressão digital para reservar on para o serviço. Acreditamos que esta tecnologia infringe as liberdades civis e funcionários da esmagadora votação a favor de ação mostra a força do sentimento sobre esta questão dos nossos membros.


"Strong organização sindical no local de trabalho é a chave para prevenir este método inaceitável de reserva em RMT e vai continuar a construir nossas" Thumbs Down para Fingerprinting "campanha".


A união é vago sobre exatamente por impressão digital biométrica é uma má idéia. Quando The Register em contato com o RMT, um porta-voz disse-nos equipe sentiu "brutalizado" pelo sistema, o que fez com que se sintam como "pedaços de carne".


O sindicato disse que representou entre 200 e 300 produtos de limpeza, e disse que tinha ISS "arrasou" o sistema biométrico em uso, contra os desejos de seu pessoal.


RMT também sugeriu o baseada em impressão digital sign-in sistema violou os "limpadores" dignidade ". O anterior cronometrando-on método envolveu uma linha de telefone automatizado e uma folha de papel.


El Reg também contactado ISS, mas eles ainda não responderam.


O trabalho de limpeza do tubo é considerado como um dos piores e mais mal pagos na capital. Em 2010 , limpadores de metro de Londres foram garantidas recebimento da vida em Londres salarial, que atualmente é £ 8,55 por hora. O sindicato descreve os contratos de trabalho dos produtos de limpeza como "inseguro".


Antes da palavra "fluffer" foi cooptado pela indústria do cinema pornográfico, que era o nome dado a hordas de mal pagos, os trabalhadores do sexo feminino muitas vezes a tarefa de limpeza de cabelo humano, graxa endurecida, pó de freio preto e outras porcarias de dentro de túneis de metrô.


Fluffers ainda funcionam as faixas de tarde da noite, quando os trens não terminar a execução, embora o seu trabalho tem sido facilitado com a introdução de trens túnel de limpeza especializada, semelhante a uma série de aspiradores de pó montado em um tubo de transporte. ®



sexta-feira, 13 de setembro de 2013

O futuro da PCIe: Obter pequeno, acelerar, pensar fora da caixa


Incremente sua infra-estrutura


IDF13 A quase onipresente interconexão PCI Express - aka PCIe - está encontrando seu caminho para dispositivos móveis, trabalhando o seu caminho para o cabeamento, e está dentro do cronograma para dobrar seu rendimento, em 2015 a um de cair o queixo configurações de 16 vias de 64 gigabytes por segundo em .


Então, disse Ramin Neshati, o presidente do grupo de trabalho de Marketing do PCI-SIG , quando o Reg sentou-se com ele durante esta semana IDF13 em San Francisco.







Em junho deste ano, Neshati nos lembrou, o PCI-SIG anunciou a M-PCIe spec, que permite que a arquitetura PCIe para operar sobre a alta largura de banda, a interface M-PHY tecnologia de camada física de série do (interface processador móvel da indústria) Aliança MIPI .


No mesmo dia em que o PCI-SIG fechou o M-PCIe especificação e anunciou que, dois vendedores IP - Sinopse e Cadence - anunciaram que tinham IP de trabalho com base na especificação. "Qual é", Neshati nos disse: "a minha lembrança o registro. Eu não vi ninguém no mesmo dia em que a especificação foi fechada anunciar que eles tinham IP sobre ele."


O M-PCIe especificação suporta três "Gears" - Gear 1 opera em 1,25-1,45 Gbps; Gear 2 é 2,5-2,9 Gbps, e Gear 3 é 5,0-5,8 Gbps, todos sintonizados para trabalhar no curto canal topologias para o qual o M-PHY é projetado para suportar.


"Basicamente, o âmbito do M-PCIe especificação é limitado", disse Neshati. "É por isso que ele foi lançado tão rapidamente." Esta simplicidade - ea capacidade do M-PCIe para trabalhar em vários cenários de uso em um sistema único, sem reconfiguração - ajuda os desenvolvedores de hardware móvel, como celular ou tablets para colher facilmente os benefícios do PCIe em dispositivos Small Form-factor. "Você pode" fazer uma vez, usar muitos '", ele nos disse, o que reduz os ciclos de desenvolvimento.


"Em um ambiente onde as coisas mudam rapidamente, como smartphones e tablets, este é ideal, pois permite-lhe manter a cadência que ir", disse ele.


Embora o MIPI Alliance sugere que M-PCIe pode ser usado para o chip-to-chip interliga em um sistema móvel, e promove a UFS (armazenamento flash universal) para interconexão - você adivinhou - armazenamento, Neshati não vê razão M-PCIe pode 't ser estendida para o armazenamento, bem como. "Não há nada impedindo você de usá-lo para o armazenamento", disse ele.


Neshati estava relutante em denegrir UFS, e observou que, desde os dois compartilham os mesmos PHY suas taxas de bits nativos são idênticos, mas ele fez notar que PCIe tem uma vantagem sobre UFS em que este último ainda não tem um ecossistema de software para apoiá-lo. "Ainda pode haver um", disse ele, "mas tem que acontecer. Há um ecossistema existente em torno PCI Express, por isso a partir de um ponto de vista já está resolvido software, que já está lá." PCIe já tem ferramentas para medição de desempenho e conformidade, disse ele, enquanto UFS ainda tem que beneficiar desse tipo de ecossistema.


Pensar fora da caixa


O PCI-SIG também está trabalhando em uma nova especificação que se estenderá PCIe via cabeamento, seja dentro de um sistema para dispositivos de armazenamento conectados, ou externamente, para qualquer tipo de dispositivo PCIe com suporte, seja de armazenamento de um gabinete com slots PCIe, ou algum outro implementação. Esta especificação, agora em fase de desenvolvimento, é chamado de "OCuLink" - ligação de cobre óptica.


"Normalmente PCI Express é uma tecnologia que está na caixa", Neshati disse: "conectividade que é a-chip chip ou em uma placa. OCuLink é a versão do cabo de PCI Express."


Apesar do seu nome, a primeira iteração de OCuLink será baseada em cobre, mas está sendo specced modo que futuras iterações pode ser baseada em cabos ópticos. Ele é baseado no PCIe geração e três tecnologia, e como Neshati colocá-lo, é ser "à prova de futuro" para as futuras gerações de PCIe também.


PCI-SIG OCuLink external PCIe cabling description

Do PCI-SIG OCuLink cabeamento vai estender PCIe fora de um gabinete do sistema para dispositivos externos



A especificação do cabo permite a uma, duas ou quatro pistas, e uma vez que não carregam sinais de clock ou poder sobre o cabo, disse ele, o sistema permitirá que os cabos de baixo custo, conectores e portas devido à falta de a necessidade de que ele identificou como "requisitos de proteção complexas."


OCuLink deve estar disponível no próximo ano, Neshati disse. "OEMs estão por trás disso, os fornecedores de conectores estão por trás dele, há alguns muito interessantes mock-ups agora que são à prova o conceito."


Em comparação com um fora-the-box de alta velocidade conector tecnologia que túneis PCIe, Thunderbolt, Neshati disse que ele prevê OCuLink será uma forma menos dispendiosa para conectar dispositivos externos, pois os implementadores não terá que fornecer um controlador para o cabeamento . "Thunderbolt tem um controlador", ele disse, "então você está pagando extra para que o chip, enquanto que aqui você está recebendo PCI Express de graça - ele está dirigindo o seu cabo."


Próximo passo: quarta geração PCIe


O PCI-SIG está preparando o lançamento imanente o PCIe 3.1 spec, que Neshati referida como uma "especificação de colecionador" que incorpora uma shedload de "pequenas alterações chiclet itty-bitty" que os desenvolvedores têm contribuído para PCIe 3.0 desde que foi lançado que melhorar gerenciamento de energia e performance, e adicionar funcionalidades. A próxima grande mudança na especificação PCIe, no entanto, é esperado para ser lançado em 2015: PCIe 4.0.


PCIe 4.0 foi anunciado no final de 2011, e Neshati diz que o trabalho nele está a decorrer a bom ritmo. "Os membros do PCI-SIG estão trazendo tecnologia para impulsionar gen-4 funcionalidade", disse ele.


A uma taxa de bits máxima teórica de 16 gigatransfers por segundo, não espere encontrar PCIe 4.0 no seu desktop ou laptop. Simplesmente, esses dispositivos mundanos não têm necessidade de tal desempenho - "Gen-2 é suficiente para a maioria das aplicações", disse ele. "Gen-4 será a manutenção do servidor alguns muito high-end, HPC tipos de aplicações."


PCIe 4.0, segundo ele, será no datacenter competindo com InfiniBand, que atualmente tem uma taxa de transferência máxima teórica de seu sabor FDR em 14Gb/sec por via de sentido único, e QDR em 10Gb/sec one-way. PCIe 4.0 terá uma taxa de transferência máxima teórica de cerca de 2GB/sec por via de sentido único.


The PCI-SIG's PCIe 4.0 specification goals

PCIe 4.0 está se preparando para ir cabeça-a-cabeça com InfiniBand



PCIe 4.0 permitirá a implementação de 16 vias, o que, portanto, têm uma largura de banda total de cerca de 64GB/sec, em ambos os sentidos. Em comparação, 12-lane InfiniBand FDR tem uma largura de banda teórica, nos dois sentidos, de 42GB/sec e QDR, 30GB/sec.


Naturalmente, esses números representam InfiniBand hoje e PCIe 4.0 em 2015; InfiniBand quase certamente será snappier até então - na verdade, o teste está em andamento de InfiniBand EDR (Enhanced Data Rate), que irá aumentar o one-way de transferência de 25 GB / s por pista. A implantação de 12 pistas EDR teria, assim, um rendimento global - em ambos os sentidos, mais uma vez - de 75GB/sec.


PCIe 4.0 ainda terá uma vantagem sobre InfiniBand, porém: é aconchegar com núcleos em calcular morre microprocessador, enquanto InfiniBand não é - há vantagens em ser uma tecnologia de legado. Além disso, Neshati disse, os objetivos do PCI-SIG para o PCIe especificações incluem "baixo custo, alto volume" de fabricação.


Como dissemos, PCIe 4.0 é esperado para ser lançado em algum momento de 2015, mas Neshati deu o PCI-SIG um pouco espaço de manobra. "Talvez um pouco mais", disse ele. ®



terça-feira, 10 de setembro de 2013

Fujitsu femto impulso promete dobrar a velocidade LTE


Relatório livre ESG: gerenciamento de dados sem emenda com Avere FXT


Computação gigante japonesa Fujitsu tomou os envoltórios fora de novos recursos destinados a combater a interferência de rádio e aumentar a velocidade de seus femtocells LTE em até duas vezes.


Femtocells são muitas vezes apresentada como uma forma de melhorar o alcance das redes móveis, por exemplo, colocando as pequenas células em casas ou empresas com fio backhaul pode levar tráfego off redes sem fio em mais lugares. Isso deixa mais capacidade de rede básica para aqueles que mais precisam. Um problema femtocells rosto é de que a interferência de ondas de rádio pode ocorrer quando eles são colocados muito próximos uns dos outros em uma área pequena, ou entre femtocells e estações de base macrocell ao ar livre, diminuindo a velocidade de comunicação de todos os dispositivos móveis conectados, Fujitsu explicou.







A resposta da empresa é avaliar automaticamente o ambiente em torno de um femto, incluindo todos os dispositivos conectados, femtocells próximas, estações de base ao ar livre e quaisquer dispositivos conectados à macrocells.


Tendo retirado a qualidade comunicadores de todos os dispositivos conectados a ele, bem como o "poder de recepção" eo tempo de macrocells próximas, o poder recepção de quaisquer femtocells na área, eo poder recepção de dispositivos conectados à macrocell, será fazer três coisas .


Em primeiro lugar, ajustar as suas transmissões de sinais de canais de modo femto macrocélula e de controlo e os dados não se sobrepõem, reduzindo a interferência.


Em segundo lugar, ele irá aumentar a potência de transmissão de seus canais de controle, se detectar um sinal fraco de todos os dispositivos conectados.


Em terceiro lugar, Fujitsu disse que "o segmento de banda dos canais de dados de frequência" para reduzir a interferência de outros femtos e estações de base ao ar livre, a velocidade aumentando.


femtocell fujitus broadone


O gigante japonês alegou que, em casos de interferência de rádio grave, ele conseguiu dobrar a velocidade das transmissões femtocell.


Nesses casos, presumivelmente, se aplicam a áreas densamente urbanizadas, dos quais o Japão tem mais de uns poucos, em vez de gostos das ilhas Shetland , onde Vodafone anunciou recentemente ensaios femtocell.


Fujitsu vai ser exibido fora da tecnologia no IEEE Internacional Symposium on Personal, Indoor e Mobile Communications Rádio (PIMRC2013), em Londres, esta semana.


Ele disse que vai se prosseguir com "aplicação concreta" no ano fiscal de 2013, presumivelmente de envolvê-lo em sua linha BroadOne de femtocells LTE. ®



CORAÇÃO da AMD bater de Internet das Coisas: ARMs cabeça 64-bit para gadgets


Incremente sua infra-estrutura


AMD anunciou o roteiro para um pedaço do seu negócio, que é fundamental para o seu esforço para " transformar "a empresa de sua dependência em PCs e servidores x86: o mercado incorporado.


Talvez um indício de agressividade da AMD pode ser deduzido a partir dos nomes de código de suas quatro partes embutidos próxima - eles estão todos em homenagem a aves de rapina: "Adelaar", "Steppe Eagle", "Águia", e "Hierofalcon".







Para os leitores Reg - tipos de TI como você é - é, talvez, que quarta exemplar ornitológico que podem ser de maior interesse: será a versão integrada do 64-bit, baseado em ARM " Seattle chip para servidores "Operton que foi lançado em junho deste ano.


"Essencialmente Hierofalcon e Seattle - Seattle é o produto de servidor e Hierofalcon é o produto embutido - compartilham um monte de linhagem", Arun Iyengar, vice-presidente e gerente geral do grupo de soluções integradas da AMD, disse em um evento AMD na segunda-feira. "Mas Hierofalcon é direcionado para os outros elementos de um centro de dados, que são as comunicações, redes, armazenamento e os lados."


AMD 64-bit ARM-based 'Hierofalcon' embedded chip details

Chips baseados em ARM da AMD não vai ser usado apenas em servidores densos (clique para ampliar)



Enquanto Seattle contará com tecido Liberdade da AMD interconexões, que veio para a empresa por meio de sua aquisição da SeaMicro em fevereiro de 2012, Iyengar não seriam atraídos para fora sobre se ou não Hierofalcon incluiria Liberdade. "Nós não vamos entrar nesse nível de detalhe hoje", ele respondeu a uma pergunta direta sobre o assunto.


O que ele iria revelar, no entanto, foi que Hierofalcon viria com quatro ou oito ARM Cortex-A57 núcleos, que incluem 10 gigabit Ethernet e PCIe de terceira geração, iria ser cozido em um processo de 28 nanômetros, e teria um design térmico ponto ( TDP ) de 15 a 30 watts.


Peças embutidas tem uma série de diferenças de suas contrapartes não-incorporadas, não menos do que é quanto tempo eles serão apoiados por seus fabricantes. A longevidade é um grande negócio para os fabricantes de sistemas embedded-e AMD irá comprometer-se a ciclos de vida de sete anos, não só Hierofalcon, mas também os seus três irmãos Birdy.


AMD embedded processors' next-generation roadmap

O próximo ano será muito ocupado para a AMD, uma vez que trabalha para expandir para novos mercados (clique para ampliar)



Entre as quatro partes anunciados na segunda-feira, Hierofalcon é a única linha totalmente nova para a AMD. Adelaar, uma GPU discreta, será um follow-on para Radeon E6460/E6760 partes da AMD, será o primeiro incorporado GPU a ser construído em torno de "Núcleo Gráfico Next" arquitetura da AMD revelado na Cúpula da fusão da empresa em junho de 2011, e será o dobro o 1GB de memória GSDDR5 no E6460/E6760 até 2GB.


O baixo consumo de energia Steppe Eagle é um follow-on da linha G-Series SoC que a AMD lançou em abril deste ano e atualizada em julho, com a parte de baixo consumo, a GX-210JA. Esta ave de rapina, como o G-Series, terá dois ou quatro núcleos AMD "Jaguar", mas eles vão ser "melhorada", disse Iyengar, eo TDP da parte de baixo consumo de energia nesta linha vai cair para 5 watts do 6 watts do GX-210JA.


A 28nm Águia APU / CPU será a parte mais alto desempenho no quarteto, e será o sucessor de 32nm chips embutidos R-Series da AMD. Baldy irá atualizar seus dois ou quatro núcleos de computação do E-Series "Piledriver" para o mais recente "Rolo Compressor", e sua GPU vai ser atualizado a partir de uma Radeon HD Série 7000 a HD 9000.


Iyengar - e, nesse caso, CEO Rory Read e toda a braintrust AMD - está colocando um monte de ações na investida agressiva da companhia para o mercado incorporado. A empresa declarou publicamente que poucos anos a partir de agora, cerca de 50 por cento de sua receita será de outros que PCs e servidores tradicionais mercados.


E o seu chefe de divisão incorporado aparece confiante de que essa meta é realista, considerando os novos e expansão dos mercados a partir do qual essas receitas virão.


"O ponto específico que fizemos em termos de 50 por cento das nossas receitas provenientes do tipo não-PC [processadores]", Iyengar disse, "é ele inclui coisas como o servidor densa - que é uma nova aplicação, que é . parte do novo de 50 por cento Inclui incorporado, e também inclui novos formatos dentro do espaço cliente - que é parte do novo de 50 por cento ".


Olhou dessa forma - e considerando que "embedded" inclui tudo, desde industrial a militar médico para sinalização digital para máquinas caça-níqueis de rede para comunicações com thin clients e muito mais - AMD pode voltar a emergir como um concorrente poderoso para Intel no baixo consumo de energia mercado.


Mas a AMD não está fora das madeiras ainda - a execução, é claro, vai ser o fator decisivo. ®


Bootnote


O quão importante é o braço para o futuro da AMD? O número de fichas - e não núcleos, mas chips - em que projetos ARM apareceu durante 2012 dá uma idéia do alcance da companhia. ARM VP de embutidos de marketing Charlene Marini, que também estava no evento de segunda-feira, disse o Reg que 8,7 bilhões de chips baseados em ARM foram enviados no ano passado. Destes, 4,1 bilhões foram para sistemas embarcados, sendo o restante para celular.



quinta-feira, 5 de setembro de 2013

Campus Party: Será que ele começar a Silicon Grã-Bretanha ou deixá-5000 nerds dormem juntos?


Ganhe um topo de gama HP Spectre laptop


Pics Campus Party deste ano não atingiu a meta de 10 mil nerds em uma tenda gigante - mas conseguiu metade e mostrou-lhes como programar um Raspberry Pi e overclock um PC, o equivalente lerdo de dança de salão, enquanto em um navio de cruzeiro .


A sessão de programação Pi estava superlotado, com espreitadelas fila para aprender como as interfaces de computador ARM diminutivo com o mundo real. Overclocking um PC também atraiu uma multidão. Ambas as atividades são coisas divertidas que atraem qualquer tecnólogo curioso, é preciso saber, porém, se bods presentes na Campus Party de quatro dias está aqui para desenvolver a economia digital ou apenas ter um bom tempo.


Lines of developers programming Pi

Havia uma multidão assistindo de fora, como não foi o suficiente para ir ao redor Pi



Isso não quer dizer que eles não podem fazer as duas coisas, mas para um evento que se apresenta como uma maratona hacker não há um monte de codificação acontecendo.


O2, que é a anfitriã da festa em sua cúpula de Londres, disse-nos que o tráfego da rede atingiu um pico de 0300 BST, mas nós hesita em igualar o fluxo de pacotes com a criação de código, programação de computadores é uma ocupação muito solitária, de qualquer maneira. Há uma razão para as pessoas com talento para programação tendem a falta de habilidades sociais, mas o que vem primeiro é aberto a debate.


Pode-se, portanto, ver Campus Party - que começou na terça-feira - como uma rede social e eventos, em vez de uma conferência de tecnologia, mas para manter isso como um exemplo para conduzir a economia nacional seria perigoso.


Que é exatamente o O2 (aka Telefonica) está fazendo, colocando para fora um novo estudo que afirma que o Reino Unido terá 745 mil novas pessoas com "habilidades digitais" em 2017, apesar de quantos desses será em marketing, não sabemos. Reino Unido CEO da Telefonica Ronan Dunne está convencido de que Campus Party aponta o caminho para um futuro high-tech.


"As pessoas aqui estão trazendo aplicações para a vida", assegurou o Reg ", encontrando os benefícios da conectividade" e dirigir-se, assim, o seu consumo, é claro. Telefonica não é apenas interessados ​​em fornecer conectividade em toda a Europa, a sua asa Digital está desenvolvendo um software que poderia competir com muitos dos sonhadores presentes Campus Party, embora (como Dunne apontou) Telefonica não está além de aquisição de tais empresas e tecnologias.


Telefonica não vai ganhar diretamente de seu patrocínio do Campus Party, mas Dunne estima um público tecnicamente alfabetizado é bom para a economia europeia e como uma empresa que serve de que a economia Telefonica só tem a ganhar, e ser associado com o hip jovens empreendedores não vai fazer qualquer prejudicar um ou outro.


Os próprios descolados parece menos certo. Alguns vieram certamente para uma viagem barata para Londres (a partir de Barcelona, ​​o ônibus 20 horas e alojamento de quatro noites ficou em € 65), e alguns alegremente admitir que eles estão aqui para mostrar as suas modificações caso de computadores (laptops não são de rigueur na Campus Party) ou habilidades robóticas (um UAV atrai muita atenção, mas apenas brevemente como a segurança cúpula O2 atacar e retiros operador do drones).


Campus Party é uma oportunidade para ver e ser visto, o que explica por que os recrutadores tiveram um tempo difícil divulgando aprendizagem, e fala sobre obtenção de financiamento têm sido pouco frequentado.


Job advert

A maior parte do recrutamento não era tão ad hoc, mas o que funciona ...



Isso não é necessariamente uma coisa ruim: todo mundo precisa de um feriado e este proporciona aos jovens europeus um local externo onde se pode misturar-se com seus pares e ouvir apresentações sobre Geek Stuff interessante. Ele também explica a presença de pessoas emparelhados vagando pelos corredores - não temos dados oficiais, mas os casais se beijando não são um grampo de conferências de tecnologia na experiência deste hack, pelo menos.


Por isso, talvez Campus Party é Glastonbury para Geeks, afinal: a melhor parte de uma semana passou inchado por conta própria importância buscando inspiração etéreo através principais etapas e mostra o lado, apenas para ser lembrado como um improdutivo, se divertir, para passar alguns dias justificada pela capacidade de dizer "eu estava lá". ®



quarta-feira, 4 de setembro de 2013

Inchaço prateleiras top of mind para a nova opção da Dell


Ganhe um topo de gama HP Spectre laptop


Marcha da Dell em todos os cantos do centro de dados continua, com a empresa revelar uma nova opção que funciona muito bem com o software-defined networking NSX software VMware revelou na semana passada.


O switch é o S6000, que o diretor da Dell de vendas de rede para Austrália e Nova Zelândia Vijay Valayatham disse que é concebido como um "top of rack de" dispositivo, um papel no qual switches possuem bastante duro para lidar com os valores, preferencialmente bolada de tráfego de um rack completo de servidores 10GbE equipadas - sejam eles virtuais ou físicos - gera, em seguida, agregar o lote e enviá-lo para o núcleo de um centro de dados, onde até mesmo mais forte do packet-wranglers residem.







Para fazer esse trabalho os S6000 pacotes quer 32 portas 40GbE e 96 portas 10GbE mais 8 portas 40GbE, com 4GB de RAM ajudando a entregar latência de comutação de um breve 600ns. Todas essas portas são embalados em um fator de forma 1U que tudo isso acontece em um fator de forma 1U que não pode ser apreciada à parte e reconfigurado, um arranjo Valayatham sente é sensata porque 40GbE ainda não é tributado na maior parte do dia de trabalho, e também porque o topo do conceito cremalheira presta-se a redes que escalar com compras incrementais em vez de big bang compra que exigem grandes quantidades de capital.


Para baixo na camada 2 do S6000 tomou conhecimento das exigências NSX da VMware impõe aos switches, o melhor para ajudar o hypervisor montar e reconfigurar redes virtuais em tempo real, sem prejudicar o restante da pilha demais. Valayatham disse Dell está empenhada em assegurar a aceleração de hardware garante "o rendimento não é afetado como atravessa tráfego de virtualizado para ambientes não-virtualizados".


Valayatham disse que também sente o interruptor sinaliza a chegada de 40GbE como uma tecnologia absolutamente necessário e mainstream, embora um que ainda não está escorreu para a organização da média.


Falando de ambos NSX eo papel do S6000 em que lhe permite, Valayatham disse que ambos vão "ser mais aplicável a curto prazo para os gostos de provedores de nuvem, hosts, empresas de web 2.0 e aqueles que lidam com orquestrando as cargas de trabalho, adicionando-os em um bastante regular base e ver a mudança regular. "


"Está intimamente relacionada com a forma como dinâmica de um centro de dados é", ele disse, "mas essas tecnologias irão beneficiar qualquer ambiente VMware ao longo do tempo". ®



terça-feira, 3 de setembro de 2013

Sonho de domínio dotless da ICANN destrói Google


Ganhe um topo de gama HP Spectre laptop


Google sonho de "domínios sem ponto", já no fim de recepção de uma empresa "não" do Internet Architecture Board (IAB), foi morto pela Corporação da Internet para Atribuição de Nomes e Números (ICANN).


Domínios dotless permitiria endereços da web, como "http://search", mas seria difícil de implementar sem DNS jiggery pokery tão grave o IAB acha que está melhor sem eles. ICANN já disse, nesta resolução , que ele se sente domínios sem ponto levantar "questões de segurança e estabilidade". Vendo como o trabalho da ICANN é agir como "... coordenador do sistema de nomes da Internet para a segurança, estabilidade e resiliência do DNS e um sistema identificador único da Internet" é difícil para ele assinar algo com o potencial de fazer DNS menos seguro , estável e resistente.







A Fantástica Fábrica de Chocolate recebeu a melhor notícia da ICANN em outras frentes, como a Corporação completou sua primeira rodada de análise para novos domínios de primeiro nível (gTLDs globais).


1745 das aplicações 1.930 recebidos fizeram através da triagem inicial, com apenas três binned e 61 considerados dignos de profundo escrutínio futuro, nenhum dos quais estão associados com o Chocolate Factory. Domínios recusaram incluir. AFRICA e. GCC.


Mais de avaliação espera antes que os restantes candidatos gTLD saber se eles podem pressionar os seus novos endereços em serviço. ®