• Technologie
  • Équipement électrique
  • Industrie des matériaux
  • La vie numérique
  • politique de confidentialité
  • Ô nom
Emplacement: Accueil / Technologie / Les chipsets de centre de données évolutifs mettent les techniques de refroidissement, d'énergie et de gestion des logiciels au microscope

Les chipsets de centre de données évolutifs mettent les techniques de refroidissement, d'énergie et de gestion des logiciels au microscope

Plateforme de services à guichet unique |
2021

Lorsque IBM a dévoilé le premier chipset de 2 nm au monde en mai 2021, capable de régler jusqu'à 50 milliards de transistors sur une puce de la taille de votre ongle, un nouveau monde courageux semblait à l'horizon.Cependant, il pourrait y avoir quelques années encore avant que 2NM profite à Cascade jusqu'à des densités de puissance, d'efficacité et de durabilité du centre de données.

La rumeur veut qu'une puce Intel 3 nm n'apparaîtra que le lac Lunar en 2024, avec une puce de 17e génération pour les appareils clients, Nova Lake, à suivre avec une augmentation espérée de 50% des performances du processeur et le plus grand changement de l'architecture depuis depuisCore en 2006 - à peu près contemporain avec Diamond Rapids pour le serveur en 2025 ou à peu près.

Le géant dominant de la maquarité continue de jouer ses cartes lentement et près de sa poitrine.

Intel a refusé de parler à Computer-Standly pour cette fonctionnalité, mais le directeur de la recherche de recherche de secours Daniel Bizo suggère également que les améliorations des performances seront progressives plutôt que révolutionnaires.

«Vraiment, ce qui se résume, c'est la nature même de la physique des semi-conducteurs», explique Bizo.«Ce n'est donc pas un phénomène nouveau.Il s'améliore à un rythme plus lent que la densité physique de celle-ci, sur toute la durée d'une décennie."

À partir de 2022, une enveloppe plus élevée Sapphire Rapids Multi-Tile Chiplet Design 10 nm Les puces Xeon sont attendues, incorporant une mémoire intégrée, dynamique et à largeurment à haute bande pour une capacité améliorée et un stockage de données plus près du processeur, qui sera utile pour certaines charges de travail, telles que cellesqui nécessitent des latences plus faibles, dit Bizo.

The Intel roadmap unofficially posted on Reddit in mid-2021 suggested a 10% CPU performance boost in 2022 with Raptor Lake followed by a “true chiplet or tile design" in Meteor Lake, more or less keeping pace with AMD and Apple.

Le Sapphire Rapids de Xeon a été pour offrir 56 cœurs, 112 fils et puissance de conception thermique (TDP) jusqu'à 350W.Le Rival clé AMD devrait offrir jusqu'à 96 cœurs et 192 threads à 400W TDP avec ses processeurs EPYC GenoA ainsi que des capacités de cache, d'IO, de PCIe et de DDR5 améliorées.

Il pourrait donc être un peu de temps avant que les innovations de chipset ne puissent aider les pressions de données.

Bizo ajoute: «Lorsque vous continuez à intégrer plus de cœurs, il est difficile de suivre le rythme de la mémoire.Vous pouvez ajouter des canaux de mémoire, ce que nous avons fait, mais il devient coûteux après un certain point.Vous avez besoin de planches logiques avec beaucoup plus de câblage, ou vous manquerez d'épingles."

Réviser la pile logicielle

Les processeurs d'alimentation avec des données sans ajouter encore plus de canaux et de modules de mémoire devraient s'avérer un moyen plus efficace de servir les applications de bande passante extrême.Cependant, la disponibilité considère également que pour stimuler les performances et l'efficacité via les dernières puces, examiner et réviser la pile logicielle devient crucial.

“Towards the mid-2020s, upcoming chips are not really going to offer that much excitement if people are not willing really to shake up the application stack and the way they run the infrastructure," says Bizo.

«Vous pouvez acquérir des efficacités si vous modifiez vos pratiques autour de choses comme la consolidation de la charge de travail et la virtualisation des logiciels - avec beaucoup plus de machines virtuelles sur le même serveur ou peut-être envisager des conteneurs logiciels."

Cela peut être le résultat net, dit Bizo, notant que la génération Skylake de puces de serveurs évolutives émergeant de 2017, à 14 nm, a consommé moins de ralenti de puissance que les dernières puces aujourd'hui.

Anthony MilovantSev, associé chez Tech Consultancy Altman Solon, dit que la réalité est que nous serons fermement dans le paradigme standard du substrat de silicium, des transistors CMOS et de l'architecture von Neumann dans le futur prévisible.

Il ajoute que tandis que l'informatique quantique génère une activité, les cas d'utilisation sont un petit sous-ensemble de ce qui est nécessaire - bien que les datacentres pour abriter une machine quantique finissent par être très différents, peut-être avec un refroidissement cryogénique, par exemple.

“If they do need quantum capacity at all, normal enterprises will almost surely consume it as a service, rather than own their own," says Milovantsev.

«Plus à court terme, les semi-conducteurs composés ont des propriétés intéressantes permettant des opérations de vitesse d'horloge plus élevées, mais elles ont environ un certain temps et il y a des inconvénients importants contre le dioxyde de silicium.Donc cela continuera d'être de niche."

Evolving datacentre chipsets put cooling, power and software management techniques under microscope

Améliorations incrémentielles

MiloLantSev est donc d'accord avec Bizo que l'innovation de la puce est susceptible de s'appuyer sur des améliorations progressives continues des nœuds de processus de transistor comme 3NM, ainsi que des innovations telles que les rubanbanbanbbon Gate-All-Aound, ou l'utilisation de l'emballage innovant, comme 2.5D avec des interposants en silicium ou un véritable empilement de matrice 3D.

Cependant, il indique les ARM / RISC pour les développements de puces de centre de données pour améliorer les performances des prix ou les charges de travail HPC de niche.Les exemples incluent des hyperscalers tels que Amazon Web Services (AWS) qui se déplacent dans le bras / RISC avec Graviton ou Nvidia CPU annoncé pour l'informatique haute performance (HPC).

“The net result of all this, though, is only marginal like-for-like power reduction at the chip level," says Milovantsev.«En fait, le résultat principal est une densités de puissance plutôt plus élevées car vous entassez plus de transistors dans de petits facteurs de forme pour répondre au besoin toujours croissant de puissance de calcul.La densité de puissance - et donc le refroidissement du centre de données - le problème ne deviendra plus important que dans le temps."

Une fois, sauf si vous étiez un hyperscaleur ou une infrastructure d'hébergement de données (IAA) ou une cryptomiminage, vous n'aviez probablement pas besoin des densités élevées de puissance ou du refroidissement robuste pour le soutenir.Bien sûr, les choses changent car les entreprises utilisent plus largement l'analyse, les mégadonnées et l'apprentissage automatique.

“High-end datacentre CPUs from Intel and AMD have historically had TDPs in the 100-200W range," says Milovantsev.«Le lac Epyc ou Intel Ice Ice, le lac Intel Intel est déjà supérieur à 250 W, et Intel Sapphire Rapids à la fin de 2022 sera de 350W."

Read more about evolving datacentre chipset designs

Il conseille de relier explicitement les bonnes applications au bon matériel avec les bons systèmes de refroidissement et d'alimentation dans le bon type de salle ou d'installation, bien que les unités commerciales demanderont de plus en plus et l'achat avec des puces avec des enveloppes TDP plus élevées.

Les datacentres doivent concevoir un menu d'options de refroidissement vérifiées avec lesquelles travailler, ainsi que la façon d'acheter des pouvoirs d'ampleur plus élevée en utilisant des barres de bus modernes en plus d'utiliser les bons outils de surveillance du serveur, explique MiloLantSev.

Nigel Gore, le plomb mondial de haute densité et de refroidissement liquide chez Vertiv, souligne que, historiquement, les datacentres ont été conçus pour prendre en charge une densité de puissance de rack de 3 à 5 kW, mais les systèmes de performance élevées d'aujourd'hui prennent en charge 10 à 20 fois la densité de puissance.

“The chip vendors are always talking about what is the performance per watt consumed, with every single advancement and roadmap looking for an incremental performance gain over their previous generation," says Gore.«Donc, lorsque vous regardez refroidir ces chipsets, vous avez besoin de flux d'air et de dissipateur thermique pour pouvoir dissiper cette quantité de chaleur et vous devez regarder l'humidité."

Souvent, aujourd'hui, il se rapproche de l'extrémité supérieure des paramètres de fonctionnement, c'est pourquoi.

Comme nous l'avons vu, ces gains progressifs pendant plusieurs années à venir semblent assez modestes.

Mais Gore suggère également de garder un œil sur les nouvelles du module d'accélérateur de type GPU développé par les membres du projet de calcul ouvert.

“It will have a number of combinations depending on how they package the performance system," he says."Mais il inclura les ASIC et les interconnexions à grande vitesse pour la mémoire et il est vraiment conçu autour de haute densité et de performances pour prendre en charge l'automatisation et l'apprentissage automatique.

«Vous pouvez mettre huit de ces appareils dans un seul serveur.Multipliez-les par leur mesure TDP - c'est huit fois 700W.Dans un serveur, vous en avez 5.6 kW de densité thermique."

Applications avancées

Les datacentres pourraient ne pas encore soutenir l'apprentissage automatique, l'intelligence artificielle et ces applications HPC riches et haut de gamme et exécutent des densités de puissance inférieures.Bien qu'ils n'aient pas un besoin immédiat de déployer les derniers chipsets, plus d'organisations envisageront bientôt d'apporter des applications avancées - et ensuite ils auront ce besoin de performance, dit Gore.

“In mid-2020, we were seeing high-density racks 30-35kW," he adds.«Très rapidement, après six mois, il est passé à 45 kW, et cette année, nous avons commencé à voir des consultants en conception parler de densités de soutien de 60 kW."

Fausto Vaninetti, architecte des solutions techniques pour l'infrastructure et les logiciels cloud chez Cisco EMEA et la Russie (Emear), note que même si nous attendons de nouveaux conceptions de chipseaux ventilateurs et à l'efficacité de l'alimentation électrique - peut être utile.

Après tout, la technologie du processeur évolue, mais il en va de même pour les exigences de puissance.

L'accélération et les appareils à usage spécial deviennent également de plus en plus courants et ils nécessitent une attention spécifique.Les cartes GPU ou les modules de mémoire persistante, par exemple, ont des besoins élevés de consommation d'énergie et de refroidissement, explique Vaninetti.

“Intel Xeon Platinum 8380 scalable processors have TDP of 270W, the AMD EPYC 7763 a TDP of 280W, with next-gen CPUs expected to push the envelope to 350W," he adds.«Le support des CPU plus performants est essentiel pour permettre une configuration équilibrée de six à huit GPU ou pools de mémoire persistante à attacher à un serveur."

AMD’s “very high" PCIe lane count is most useful in rack servers that can attach resources, such as many NVMe drives or PCIe cards and in evolving form factors like Cisco UCS X-Series, says Vaninetti.Intel a des processeurs capables de vitesses d'horloge élevées plus appropriées pour certaines charges de travail, ajoute-t-il.

Cisco's UCS X-Series was focused on airflow and power efficiency and can still support top-end configs without “an unusable amount of power input" being required, says Vaninetti.Cependant, au cours de la prochaine décennie, le refroidissement liquide sera une technologie qui deviendra essentielle pour prendre en charge les densités de puissance plus élevées - en fonction des contraintes de données individuelles, souligne-t-il.

“Chassis-level or perhaps rack-level options may allow the customer to maintain their existing datacentre-level air cooling," he adds.«L'autre considération majeure en ce qui concerne les fermes de serveurs et l'équipement connexe est la façon dont vous gérez et l'exploitez."