Les environnements distribués composés de ressources informatiques centrales, de périphérie et cloud deviennent l'architecture prédominante pour les entreprises aujourd'hui. Au cours de votre vie quotidienne, vous vous engagez probablement déjà dans d'innombrables environnements distribués, tels qu'Internet et les e-mails, les réseaux mobiles, les jeux vidéo multijoueurs, les services bancaires en ligne, les plateformes de commerce électronique, les systèmes de réservation. et les plates-formes de crypto-monnaie, pour n'en nommer que quelques-unes. À l'avenir, les environnements distribués auront encore plus d'impact sur nos vies ; Grâce à l'informatique distribuée, nous constatons déjà des progrès rapides dans des domaines tels que la conduite autonome, l'automatisation industrielle, les villes intelligentes, les prévisions météorologiques, l'informatique scientifique, l'agriculture et les soins de santé.
L'avenir de l'informatique est distribué
Pour chacun de ces exemples d'environnements distribués, les données sont l'élément vital qui anime tout le système. Prenons un exemple simple de transaction bancaire en ligne que vous pouvez effectuer sur votre téléphone mobile. À l'aide de votre application bancaire mobile, vous pouvez vérifier le solde de votre compte, effectuer des paiements et transférer de l'argent d'un compte à un autre. Les informations sur le solde du compte que vous voyez sur votre téléphone sont fournies par des données stockées dans le cloud et lorsque vous effectuez une transaction, les données sont collectées en périphérie, communiquées et traitées par une ou plusieurs applications logicielles. Les nouvelles informations mises à jour sont immédiatement stockées à nouveau et deviennent instantanément visibles pour vous sur votre téléphone, où que vous soyez. Le mouvement quasi instantané et le stockage fiable des données font que cela fonctionne, et la plupart d'entre nous tiennent cela pour acquis car c'est devenu le tissu de notre monde.
Traitement des données dans un monde distribué
Bien que la majorité de la population mondiale ignore comment les données sont gérées en coulisses, les entreprises et leurs équipes informatiques ne le sont certainement pas. La collecte, le stockage, l'application, le déplacement, la réplication et la protection des données font désormais partie des responsabilités les plus critiques de toutes les organisations axées sur les données. Les entreprises ont souvent besoin de déplacer des applications avec état et leurs volumes de données dans des environnements divers ou hétérogènes pour atteindre des impératifs de rentabilité, de performances, de sécurité et de reprise après sinistre. Malheureusement, cela peut être difficile, long et coûteux.
Auparavant, une organisation disposant d'un stockage critique de données dans un centre de données sur site basé sur des machines virtuelles pouvait choisir de sauvegarder ses données en les répliquant dans un deuxième centre de données situé à un emplacement différent. Pour ce faire, le moyen le plus rapide consistait à « refléter » leur centre de données, c'est-à-dire à créer une réplique exacte de la configuration d'origine de leur centre de données, c'est-à-dire la même plate-forme, les mêmes volumes de stockage. Bien que cette approche fournisse le meilleur objectif de temps de récupération (RTO) et de point de récupération (RPO) possible et soit adaptée aux applications héritées, elle nécessite des contrats matériels coûteux avec les fournisseurs, une fibre noire dédiée entre les sites et un personnel dédié à la maintenance. Cette réplication synchrone est non seulement coûteuse, mais a également une limite inhérente à la distance que les centres de données peuvent étendre. De plus, cette approche ne peut pas être étendue aux environnements cloud natifs et multicloud.
Une solution plus abordable est la réplication asynchrone, qui peut s'étendre sur des distances beaucoup plus longues que la réplication synchrone, mais qui entraîne des décalages dans les données. Le site distant peut avoir quelques minutes à quelques heures de retard sur le site de production. La réplication asynchrone offre un meilleur RPO et le meilleur RTO ; cependant, il présente les mêmes inconvénients que les solutions basées sur la réplication synchrone. Au mieux, ces solutions peuvent fonctionner entre deux sites homogènes, mais les étendre à plusieurs sites, et encore moins à plusieurs sites hétérogènes, est pratiquement impossible.
C'est là que réside l'un des plus grands défis actuels en matière de stockage et de protection des données : nous n'avons pas de solution facile à utiliser et abordable pour la réplication continue du volume de données dans des environnements d'infrastructure hétérogènes. Compte tenu de la diversité des environnements dans les systèmes distribués qui sont l'avenir de l'informatique, il s'agit d'un problème sérieux.
Heureusement, cela est sur le point de changer.
Présentation de Game-Changer : Restauration continue
Bien que la demande de solutions de reprise après sinistre (DR) continue d'augmenter, les technologies héritées ne peuvent pas suivre l'évolution technologique qui se produit dans le cloud. Contrairement aux applications héritées, les applications cloud natives sont plus dynamiques et élastiques et sont gérées par des scripts DevOps. Par conséquent, la nouvelle génération de solutions de reprise après sinistre doit être compatible avec le paradigme DevOps. Un principe fondamental du modèle DevOps est de faire les choses à plusieurs reprises pour s'assurer qu'elles fonctionnent tout le temps : intégration continue, déploiement continu, tests continus, etc. Les solutions de reprise après sinistre ne devraient pas être différentes. Pour répondre aux exigences de conformité standard, les entreprises n'ont qu'à tester leur posture DR une fois par an, ce qui n'est absolument pas acceptable dans le monde DevOps. DR doit être testé aussi souvent que possible.
Heureusement, en 2022, nous verrons l'introduction de capacités de réplication de données de restauration continue entièrement indépendantes du stockage, du cloud et de la distribution Kubernetes. En utilisant les principes de réplication asynchrone, cette capacité permettra aux utilisateurs d'environnements natifs du cloud d'organiser en continu des données sur des sites multiples et hétérogènes. Cela signifie que les applications, quel que soit leur lieu de résidence, pourront exploiter ces données et être mises en ligne instantanément. Les données seront toujours décalées (avec un RPO déterminé par le calendrier de sauvegarde sur le ou les sites distants), mais le RTO sera exceptionnel.
Considérez les implications de cette avancée. Les cas d'utilisation à forte valeur ajoutée pour la capacité de restauration continue incluent les suivants :
La capacité de restauration continue permettra également aux organisations d'unifier leur infrastructure, en particulier celles qui se sont développées rapidement et ont adopté une variété de plates-formes de calcul et de solutions de stockage pour répondre à leurs besoins uniques. La restauration continue rendra possible une mobilité extrêmement rapide des applications à travers leurs silos d'infrastructure, ce qui n'en fera plus des silos.
En bref, cette nouvelle fonctionnalité offrira une portabilité et une récupérabilité des applications natives du cloud en quelques secondes, ce qui contribuera à unifier les silos d'informations disparates. La restauration continue change la donne et rendra les entreprises modernes d'aujourd'hui encore plus compétitives et résilientes, et cela arrive bientôt. Pour en savoir plus, visitez Trilio au stand P11 lors de KubeCon + CloudNativeCon Europe 2022.
Rejoignez-nous pour KubeCon + CloudNativeCon Europe 2022 à Valence, en Espagne (et virtuellement) du 16 au 20 mai : le premier événement européen en personne depuis trois ans !