A mudança para 400Gb está mais perto do que você imagina
Quando os gerentes de data center olham para o horizonte, os sinais de uma evolução baseada em nuvem estão em todos os lugares: mais servidores virtualizados de alto desempenho, maior largura de banda e menores requisitos de latência, além de conexões mais rápidas de switch para servidor. Quer você esteja executando 10Gb ou 100Gb hoje, a transição para 400Gb está mais perto do que você imagina.
Muitos fatores são responsáveis pelo interesse em 400G/800G e além. Os data centers passaram de várias redes diferentes para ambientes mais virtualizados e orientados por software. Ao mesmo tempo, eles estão implantando mais conexões máquina a máquina e reduzindo o número de switches entre eles. A maioria das peças para apoiar os data centers em escala de nuvem amanhã já existe. O que está faltando é uma estratégia abrangente para a criação de uma infraestrutura de camada física que possa unir tudo isso.
Então, como chegamos lá? Conheça suas opções.
Transceptores
Para pular para 400Gb será necessário dobrar a densidade dos transceptores SFP, SFP+ ou QSFP+ atuais. É aqui que as tecnologias QSFP-Double Density (QSFP-DD) e octal small-form-factor pluggable (OSFP) entram em jogo. Ambas fazem uso de oito pistas versus quatro e podem encaixar 32 portas em um painel 1RU. As únicas diferenças significativas estão na compatibilidade com versões anteriores e nos recursos de gestão de energia. Os MSAs mencionam diferentes opções de conexão óptica: Conectores LC, mini-LC, MPO 8, 12, 16, SN, MDC e CS podem ser escolhidos dependendo da aplicação suportada. Por falar em conectores—
Conectores
Uma variedade de opções de conectores fornece mais maneiras de distribuir a maior capacidade octal. O MPO de 12 fibras foi tradicionalmente usado para suportar seis pistas de duas fibras. Com muitas aplicações, como 40GBase-SR4, usando apenas quatro pistas (oito fibras), o MPO16 pode ser mais adequado para uso com módulos octais. Outros conectores que vale a pena observar são o SN e o MDC, que incorporam a tecnologia de ponteira de 1,25 mm e fornecem opções flexíveis de breakout para módulos ópticos de alta velocidade. A pergunta final será quais transceptores estão disponíveis com quais conectores no futuro.
Chips
Claro, não há limites para a demanda por largura de banda. Atualmente, o fator limitante não é quanto você pode conectar no switch, mas quanta capacidade o chipset interno pode fornecer. O radix mais alto se combina com velocidades SERDES mais altas para aumentar a capacidade líquida. A abordagem típica por volta de 2015 para suportar aplicações de 100Gb usa pistas 128 de 25Gb, o que gera uma capacidade de switch de 3,2 Tb. Para chegar a 400Gb, é necessário aumentar o ASIC para 256 pistas de 50Gb, produzindo 12,8 Tb de capacidade de switch. A próxima progressão – 256 pistas de 100Gb – nos leva a 25,6 Tbs. Há planos de aumentar as velocidades da pista para 200Gb – essa é uma tarefa difícil, que levará alguns anos para ser aperfeiçoada.
Aprofunde-se em 400G/800 (Parte 1)
Obviamente, mal analisamos o que os gerentes de data center precisam considerar enquanto contemplam suas estratégias e cronogramas para a migração de 400G/800G. Há muito mais a dizer sobre onde está a tecnologia, e para onde ela está indo. Para uma análise mais aprofundada sobre a situação atual, recomendamos que você confira o Arquivo de Fatos sobre este tópico. E certifique-se de verificar com frequência a CommScope para acompanhar como as coisas estão evoluindo.
Migração para 400G/800G: Ficha informativa - Parte I
Data centers de hiperescala e multi tenant precisam planejar agora a migração para 400G/800G. Tenha a visão que você precisa para se preparar: óptica, fibra, design de cabeamento e muito mais.