Entrevista Compute Express Link (CXL) tem o potencial de alterar radicalmente a maneira como os sistemas e os datacenters são construídos e operados.E depois de anos de desenvolvimento conjunto, com mais de 190 empresas, o padrão aberto está quase pronto para o horário nobre.
Para aqueles que não estão familiarizados, o CXL define uma interface comum e coerente de cache para conectar CPUs, memória, aceleradores e outros periféricos. And its implications for the datacenter are wide ranging, Jim Pappas, CXL chairman and Intel director of technology initiatives, tells The Register.
Assim, com os primeiros sistemas compatíveis com CXL que devem ser lançados ainda este ano, ao lado de Sapphire Rapids Scalables, da Intel, e os Epycs Gênova adiante da AMD, perguntamos a Pappas como ele espera que a CXL mude a indústria no curto prazo.
Infraestrutura de memória composta
Segundo Pappas, uma das primeiras implementações para CXL provavelmente envolverá a memória do sistema.Até agora, havia apenas duas maneiras de anexar mais memória a um acelerador, ele explica.Você adicionou mais canais de memória DDR para suportar mais módulos, ou ele teve que ser integrado diretamente ao pacote acelerador ou CPU.
"Você não pode colocar memória no barramento do PCIE", mas com CXL você pode, diz Pappas.“O CXL foi projetado para aceleradores, mas também foi projetado para ter uma interface de memória.Todos nós sabíamos desde o início que isso poderia ser usado como uma porta diferente para a memória.”
Em vez de preencher um sistema com módulos de memória mais ou maiores, a memória adicional pode ser instalada através de uma placa usando uma interface comum para PCIE e CXL.E graças aos sistemas de troca simples introduzidos com o CXL 2.0 especificações, tornou -se possível para recursos, incluindo memória, para serem agrupados e acessados por vários sistemas simultaneamente.
É importante observar que nesta configuração, apenas os próprios recursos e não o conteúdo da memória são compartilhados entre os hosts, enfatiza Pappas.“Cada região de memória pertence, no máximo, um domínio de coerência.Não estamos tentando compartilhar memória;Isso se torna muito mais complexo.”
Outro caso de uso envolve arquiteturas de memória em camadas nas quais um sistema utiliza memória de alta largura de banda no pacote, um pool considerável de memória DDR5 rápida diretamente conectada à CPU e um conjunto maior de memória mais lenta conectada através de um módulo CXL.
Segundo Pappas, o pool de memória e a memória em camadas têm implicações para os operadores de datacenter e nuvem.“Os maiores problemas que os clientes em nuvem têm é sua despesa número um é a memória.Aproximadamente 50 centavos de seus gastos com equipamentos estão na memória ”, diz ele.
Ao agrupar essa memória, Pappas argumenta que os operadores podem obter uma enorme economia de custos, reduzindo a quantidade de memória que se sentou ociosa.E como a memória combinada ou em camadas não se comporta de maneira diferente da memória do sistema anexada à CPU, os aplicativos não precisam ser modificados para aproveitar essas tecnologias, diz Pappas.Se o aplicativo “solicitar mais memória, agora existe essencialmente um suprimento infinito.”
Esta tecnologia também não é teórica.O agrupamento de memória e a memória em camadas estavam entre as várias tecnologias que a startup da CXL Tanzanite Silicon Solutions estava trabalhando antes de sua aquisição pela Marvell Technologies no início deste mês.
Marvell acredita que a tecnologia será fundamental para alcançar uma infraestrutura verdadeiramente composta, que, até agora, se limitou amplamente a calcular e armazenar.
Adeus ai/ml gargalos
Pappas também espera que a CXL beneficie as cargas de trabalho de IA/ML, permitindo uma relação muito mais íntima entre a CPU, a AI acelerador e/ou a GPU do que atualmente é possível sobre o PCIE.
Em um nível básico, a maneira como uma CPU interage com um periférico, como uma GPU, é enviando instruções de carga/loja em lotes sobre o barramento do PCIE.O CXL elimina esse gargalo, permitindo que as instruções sejam essencialmente transmitidas entre o acelerador e o host.
"É muito semelhante ao que acontece em um sistema de processador duplo, onde os caches permanecem coerentes entre os processadores.Estamos estendendo isso aos aceleradores ", diz Pappas.
Estendendo esse tipo de coerência de cache aos aceleradores que não sejam as CPUs não é de forma alguma fácil ou uma nova ideia.
Intel e outros tentaram e falharam no passado para desenvolver uma interconexão padronizada para os aceleradores, ele nos diz.Parte do problema é que a complexidade associada a essas interconexões é compartilhada entre os componentes, tornando incrivelmente difícil estendê -los a terceiros.
"Quando nós da Intel tentamos fazer isso, era tão complexo que quase ninguém, essencialmente ninguém, jamais foi capaz de realmente fazê -lo funcionar", revela Pappas.Com a CXL, essencialmente toda a complexidade está contida na CPU do host, ele argumenta.
Essa complexidade assimétrica não está sem trade-offs, mas os Pappas acham que eles valem mais do que vale a pena.Eles vêm na forma de afinidade do aplicativo, especificamente qual acelerador obtém acesso prioritário ao cache ou memória e que deve jogar o segundo violino.
Isso é mitigado um pouco, afirma Pappas, pelo fato de os clientes geralmente saberem quais regiões de memória o acelerador vai acessar versus aquelas acessadas pelo host.Os usuários poderão acomodar definindo um viés no BIOS.
Qual é o próximo?
O padrão CXL não é de forma alguma acabado.Espera -se que o consórcio CXL publique o 3.0 Especial ainda este ano.
A atualização inclui um inchaço de 32 gigatransfers por segundo a 64, em linha com a mudança planejada para o PCIE 6.0., bem como suporte para vários novos modelos de uso de memória, Pappas provoca.
A especificação também apresenta uma avenida para implementar a tecnologia de interconexão da CXL de maneira não asimétrica.Essa funcionalidade permitiria que os aparelhos, como GPUs ou NICs, interagissem diretamente com outros dispositivos CXL, eliminando a CPU como um gargalo inteiramente.
"Isso será realmente importante, pois você recebe vários aceleradores que precisam operar de forma consistente", diz ele.
Finalmente, as especificações sugerem um tecido CXL com a introdução de comutação em vários níveis.
Um tecido de rede CXL será essencial para estender a tecnologia além do nível do rack.E há motivos para acreditar que isso pode aparecer na versão 3.0 Depois de Gen-Z-não deve ser confundido com a geração de adultos nascidos após a virada do século-doou seus ativos coerentes de tecido de memória para o consórcio CXL no final do ano passado.
Tempere suas expectativas
Tão emocionante quanto CXL pode ser para o futuro do datacenter, não espere que seja um sucesso da noite para o dia.A tecnologia está muito em sua infância com a primeira geração de sistemas compatíveis que devem chegar ainda este ano.
A Pappas espera.
"Nesse próximo ano, a primeira rodada de sistemas será usada principalmente para prova de conceitos", disse ele.“Vamos ser honestos, ninguém vai pegar uma nova tecnologia que nunca foi julgada.”
Após a prova de conceitos, Pappas espera pelo menos mais um ano de implantações experimentais antes que a tecnologia comece a aparecer em ambientes de produção.®
Get our Tech Resources