Share with friends and colleagues on social media

Depuis quelques années maintenant, les entreprises font le choix d’utiliser leur propre datacenter pour exécuter leurs applications métiers, créer des réseaux d’utilisateurs et stocker leurs précieuses données. À l’origine, ces centres de données étaient essentiellement axés sur le matériel informatique, se composant simplement d’un mainframe et de terminaux. Puis, nous sommes passés à l’ère RISC/UNIX, et plus récemment, à celle de la prolifération des infrastructures convergées.

La mutation inévitable vers le cloud computing

Aujourd’hui, le concept de datacenter en tant que propriété de l’entreprise est en train de changer radicalement. Ce processus a débuté avec l’avènement de la virtualisation qui a rompu le lien direct entre les applications et l’infrastructure matérielle sous-jacente permettant ainsi d’améliorer l’utilisation, l’efficacité et la rapidité des serveurs. La prochaine étape vers un niveau d’abstraction encore plus important sera le passage à une infrastructure software-defined, englobant le calcul, le stockage et la mise en réseau.

À l’heure actuelle la priorité des DSI s’oriente vers l’agilité, l’automatisation et la rapidité des opérations. Si le DevOps et le CI/CD sont des sujets à la mode en ce moment, cela est dû au fait que les fonctionnalités sont désormais définies par logiciel, ne dépendant plus de solutions matérielles, coûteuses et largement propriétaires.

Dans ce cadre, le cloud computing a le vent en poupe et la majorité des entreprises l’utilisent au quotidien : environ 94 % des entreprises utilisent le cloud computing, et 84 % affirment avoir déjà adopté une stratégie multi-cloud.

Le cloud sonne le glas du data center ? Pas encore.

Selon le cabinet d’analyse IDC, les dépenses d’infrastructure IT sont réparties de manière égale entre les datacenters traditionnels et le cloud computing. Il convient de noter que les revenus du cloud précisés dans ce rapport incluent le cloud privé, ce qui signifie que les dépenses liées aux centre de données appartenant à leur entreprise représentent toujours plus de 65 % du total. Mais ce rapport estime aussi que l’infrastructure informatique non cloud traditionnelle a augmenté de 12,3 % l’année dernière.

Malgré l’avènement du cloud, pourquoi les dépenses liées aux datacenters traditionnels continuent-elles d’augmenter ? A ce sujet, l’Uptime Institute indique que « le choix de la plate-forme nécessite de pondérer les coûts, la capacité, l’échéancier, la sécurité, la prise en charge et les besoins en matière de réglementation ». Il va de soi que les applications et les services qu’il vaut mieux conserver dans son propre datacenter sont les plus importants pour l’entreprise. On estime en effet que 80 % des workloads critiques et des données sensibles continuent à être exécutées sur site pour des raisons de performances et d’exigences réglementaires.

Néanmoins, cette situation va être amenée à changer avec le temps puisque davantage d’applications migreront inévitablement vers le cloud, mais il est probable que les workloads « legacy » et natifs cloud continueront de coexister pendant au moins dix ans. La plupart des entreprises doivent donc se préparer pour concilier au mieux une infrastructure et une stratégie IT multimodales afin d’optimiser les environnements des centres de données existants tout en adoptant des environnements SDI plus agiles.

Le data center, un modèle durable ? Probablement pas.

Le terme « données centralisées » n’est plus vraiment adapté à la façon de fonctionner des DSI. De nos jours, les données sont générées partout, tout le temps, et pas seulement dans un emplacement central unique.

En effet, l’Internet des objets (IoT) a contribué à renverser la donne pour la gestion des données. Ces périphériques et appareils entraînent la production d’une multitude d’informations : les villes, foyers, véhicules et appareils connectés regorgent de capteurs et de périphériques de calcul produisant ainsi un large volume de données parfois 24h/24. Ajoutons à cela la développement exponentiel de l’intelligence artificielle et du machine learning, l’ère de la data omniprésente ne semble pas prête de s’arrêter.

A ce propos, IDC estime qu’il y aura 31 milliards de terminaux IoT d’ici 2021. Les données de tous ces terminaux devront être collectées, stockées et traitées. Et cela doit se faire plus près de l’endroit où elles sont générées car tout renvoyer à un emplacement central à des fins d’analyse n’est tout simplement pas réaliste. La nouvelle frontière de l’edge computing est là et elle revêtira une importance croissante à l’avenir quant à la pérennité du datacenter.

Le cloud computing existe depuis près de vingt ans et l’edge computing est en train de devenir une notion banale pour les DSI. Le moment est peut-être donc venu d’adopter le terme « core computing » plutôt que de parler de « data center ».

Tribune de Pierre-Yves Albrieux, Country Manager, SUSE France

Share with friends and colleagues on social media

Category: Cloud Computing, Digital Transformation, Enterprise Linux, Expert Views, IT Infrastructure Management, Mission-Critical Computing, Software-defined Infrastructure
This entry was posted vendredi, 3 janvier, 2020 at 11:12
You can follow any responses to this entry via RSS.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

No comments yet