Prise en charge de DevOps par les conteneurs d'applications

Auteur : Thomas di Giacomo

En tant que CTO de SUSE, Thomas di Giacomo a pour les entreprises la vision d'un avenir optimisé par l'informatique, basé sur le cloud et Software-defined. M. Di Giacomo était CTO et Vice President of Innovation chez Swisscom Hospitality Services et CTO d'Hoist Group, un fournisseur mondial de services informatiques pour les secteurs de l'hôtellerie et de la santé. Il est spécialisé dans les plates-formes Open Source ainsi que le développement et le support des systèmes et technologies informatiques de portée mondiale.

Comme nous l'avons évoqué dans l'un des articles de la série DevOps daté de septembre 2016, pour que les entreprises continuent de jouer un rôle pertinent, au-delà de leur expansion et des innovations dont elles sont porteuses, elles ont besoin de s'adapter et de répondre à des exigences encore plus flexibles et agiles, tout en limitant leurs dépenses et leurs efforts. Les outils, les processus et la culture DevOps offrent un cadre essentiel pour répondre à ces besoins.

Les conteneurs ne sont pas une nouvelle technologie. Les conteneurs système dans Linux existent même depuis des années. Cependant, au cours de ces dernières années, de nombreux développements ont vu le jour, l'adoption des conteneurs d'applications s'est démocratisée et les outils associés se sont simplifiés. Les conteneurs dédiés aux applications facilitent la gestion des applications basées sur les méthodes DevOps, CI/CD et les microservices, ce qui permet aux entreprises d'améliorer leurs processus, la qualité de leurs applications et leurs délais de mise sur le marché.

La conteneurisation est un excellent outil permettant aux développeurs et aux opérateurs informatiques de collaborer étroitement sur l'intégration continue et la distribution, surtout dans le cas des applications cloud natives répondant à tout ou partie des 12 facteurs. En outre, la conteneurisation peut s'appliquer aux applications héritées et aux stratégies de migration des applications.

Conception et création de sandbox

Imaginez que les conteneurs d'applications sont des applications de type applications pour iPhone indépendantes qui n'interagissent pas entre elles. Elles sont complètement isolées et mises en sandbox, par conséquent, elles n'interagissent pas entre elles et n'ont pas d'impact les unes sur les autres ou sur le système d'exploitation sous-jacent.

Les conteneurs sont également étroitement associés à l'architecture d'application elle-même. Ils permettent très souvent, ou au minimum prennent en charge, la division des applications monolithiques traditionnelles en applications à la carte ou microservices.

Les conteneurs d'applications facilitent l'étape de création traditionnelle du flux DevOps. Que ce soit en matière de définition et de format des images de conteneurs ou de leur stockage et de leur importation à partir d'un registre public ou privé sécurisé, les conteneurs permettent d'effectuer un grand nombre d'étapes automatisées, plus rapidement.

Processus DevOps
Expédition et déploiement
Conteneur d'expédition

L'analogie avec les conteneurs est également valable pour la façon dont les conteneurs sont expédiés et se déplacent. Dans l'océan du numérique, ils suivent le flux DevOps : des environnements provisoires de test vers les environnements de production, et des infrastructures sur site et datacenters vers les clouds privés et publics. Une fois arrivés à destination, les conteneurs d'expédition garantissent que le conteneur et son contenu se comportent exactement de la même manière qu'à l'origine. Le processus garantit également que, à partir du moment où les packages d'images de conteneurs ont été correctement créés, les conteneurs s'exécutent de façon similaire dans les différents environnements où ils se trouvent.

Cela fait en effet partie des valeurs qu'ajoutent les conteneurs d'applications aux méthodes DevOps : ils facilitent le redéploiement d'une même application, de l'environnement de développement vers l'environnement de test, puis vers l'environnement de production.

Exécution et maintenance

L'utilisation des conteneurs dans cette phase DevOps offre de nombreux avantages. De par leur nature, les conteneurs évoluent facilement, ce qui facilite l'augmentation et la diminution du volume d'applications en fonction des besoins, le développement et la croissance des nouvelles applications d'entreprise, etc. Lors de la publication des applications, les conteneurs permettent également d'utiliser des stratégies multicloud plus dynamiques. Par exemple, les workloads peuvent être confiés au cloud pendant les périodes de pic d'activité, et revenir ensuite en interne lorsque la demande est moindre et que les ressources internes sont disponibles.

Boucles

La dernière étape du flux DevOps consiste à revenir au développement à partir de la phase d'exécution, afin de fournir des analyses et d'en savoir plus sur les performances de l'application, pour apporter de nouvelles améliorations à l'application. Cette étape comprend également d'autres entrées telles que les demandes de fonctionnalités et l'application de correctifs, qui doivent être incluses dans l'itération suivante de l'application (elles peuvent être ajoutées à d'autres étapes du flux également). Lors de cette étape, les conteneurs ajoutent un niveau supplémentaire d'analyse à l'application elle-même, tels que des scénarios d'évolutivité horizontale et verticale et le monitoring des performances des conteneurs eux-mêmes.

Conclusion et autres considérations

La plupart des outils SUSE décrits dans la partie 1 de cette série d'articles prennent déjà en charge les flux de conteneurs, et nous travaillons constamment à leur amélioration. En fait, notre nouveau produit SUSE Container-as-a-Service Platform (CaaSP) sera disponible en version bêta publique à la fin du mois de mars. Cela facilitera encore l'utilisation des conteneurs pour le DevOps, car les éléments d'orchestration aideront à déployer les conteneurs pour le développement, les tests, etc., dans leurs environnements respectifs et dans leurs infrastructures abstraites et leur ensemble de ressources respectifs.

SUSE CaaSP est une plate-forme d'infrastructure pour conteneurs qui vous permet de déployer, gérer et faire évoluer les applications de conteneurs. Elle comprend trois composants : MicroOS basé sur SLES, Kubernetes pour la gestion des conteneurs et une configuration basée sur Salt pour configurer les composants et le moteur de conteneurs (par exemple, le logiciel Open Source Docker et les conteneurs Linux (LXC)). Pour en savoir plus, regardez le webinaire SUSE Container-as-a-Service Platform — An Introduction.

Conteneur d'expédition

Le stockage et les conteneurs sont également pris en charge. Les données des conteneurs sont supprimées avec leur conteneur. L'objectif est de leur permettre, pour ainsi dire, de « mourir en douceur », afin d'encourager la conception Stateless, même si cela n'est pas possible dans 100 % des cas. Par conséquent, le stockage persistant et les données jouent un rôle important dans la cohérence des flux DevOps lors de l'utilisation des conteneurs.

La mise en réseau fait partie des domaines spécifiques à prendre en considération, surtout dans le contexte multicloud. Il existe des solutions pour faire face aux besoins de mise en réseau, grâce, par exemple, au regroupement des exigences de configuration réseau d'une application spécifique avec la description de son conteneur.

Enfin, outre le contrôle, les attributs de stabilité globale, de fiabilité et de sécurité multiniveaux des conteneurs sont des éléments absolument essentiels pour l'adoption du DevOps dans les entreprises.

Chez SUSE, nous maîtrisons parfaitement les méthodes DevOps. Nous sommes toujours ravis de discuter avec vous de vos projets DevOps et de la façon dont nous pouvons vous aider à les concrétiser !

Dans la dernière partie de cette série d'articles sur le DevOps, nous parlerons, en plus des conteneurs as-a-service, de la plate-forme as-a-service qui permet aux développeurs de créer des applications, en plus et avec les principes DevOps.

L'économie numérique : ici aujourd'hui et plus encore demain

Par : Terri Schlosser

Terri Schlosser, responsable de produit et des solutions marketing SUSE, a 20 ans d'expérience dans l'industrie des logiciels. Elle travaillait auparavant chez Rackspace en tant que responsable marketing senior pour leur offre de cloud géré privé et a passé plus de 15 ans chez IBM. Son expérience inclut le marketing, le développement de logiciels, la gestion de produits et la stratégie, dans de nombreux domaines informatiques ayant trait aux logiciels, notamment à la mise en réseau, au stockage, à la gestion, aux systèmes d'exploitation et à OpenStack. Terri bénéficie également d'une expérience internationale, puisqu'elle a travaillé avec différentes équipes dans le monde entier et a passé 2 ans en mission internationale à Cracovie, en Pologne. Elle est titulaire d'une licence et d'un master en mathématiques.

Accroissement des exigences des utilisateurs et des consommateurs

L'informatique mobile toujours connectée est en hausse depuis plusieurs années et, selon les analystes de l'industrie, continuera à dominer le paysage de l'entreprise dans les années à venir. Le nombre de 4,23 milliards de smartphones estimé en 2014 passera à 4,77 milliards d'ici la fin de cette année, et devrait atteindre 5,07 milliards en 2019. (Source : Statista) La transformation numérique que ces périphériques ont créée a modifié les attentes des consommateurs et des utilisateurs. (Voir Figure 1)

Figure 1

Figure 1 : Extraits des études de cas Lithium et Vanson Bourne (Source : « Can Companies Keep up with Soaring Customer Expectations », eMarketer, juin 2015).

Des défis évidents pour les entreprises

Les attentes toujours plus élevées des consommateurs et des utilisateurs représentent des défis évidents pour les entreprises et leurs services informatiques. Toutefois, ce ne sont pas les seuls défis auxquels ces services sont confrontés. Les services informatiques doivent avoir la flexibilité et l'agilité nécessaires pour répondre aux attentes toujours plus élevées, mais également aux différents besoins de l'entreprise, tels que le maintien de la confidentialité et de la sécurité des données pour se conformer aux réglementations. Ils doivent également pouvoir prendre en charge en toute sécurité les utilisateurs de l'entreprise qui achètent des services de cloud public par eux-mêmes, sans se soucier de la sécurité ou de la conformité aux réglementations. L'effet de l'« informatique de l'ombre » que ces utilisateurs introduisent peut présenter un risque pour les données des entreprises et des consommateurs.

Les services informatiques doivent répondre à tous ces besoins ainsi qu'à d'autres besoins métiers, tout en effectuant de nombreuses tâches manuelles qui ne font guère plus que maintenir les systèmes en fonctionnement, ce qui représente déjà un défi de taille.

La croissance des données issues des technologies mobiles, telles que les services bancaires en ligne, les applications de santé numérique, l'Internet des objets, les accessoires portables, les capteurs, etc., rend plus difficiles encore les défis auxquels sont confrontées les entreprises en matière d'applications et de stockage des données. Les entreprises informatiques de tous les secteurs doivent stocker, gérer et protéger ces données de manière efficace, sans frais supplémentaires, car, comme Gartner l'avait signalé fin 2016, les budgets informatiques des entreprises stagnent ou n'augmentent que légèrement. Ce manque de ressources oblige les services informatiques à répondre aux besoins de stockage, de traitement et de mise en réseau des activités numériques, tout en réduisant les dépenses d'investissement et d'exploitation. (Voir « Gartner Says Global IT Spending to Reach $3.5 Trillion in 2017 », communiqué de presse de Gartner, octobre 2016)

La flexibilité et l'agilité doivent s'appliquer à l'infrastructure destinée à prendre en charge des services numériques fiables de pointe et des services numériques mobiles, ainsi qu'aux services informatiques qui assurent ces services. Les infrastructures de l'ère de l'innovation permettent aux entreprises de proposer de nouveaux services et des mises à jour, toujours plus rapidement. Dans son article daté de 2014 et intitulé « Three Essential Steps to a Software-defined Data Center », Brandon Butler, auteur sur le site Network World, souligne la nécessité de la mise en réseau software-defined, en rappelant que plus de 70 % des utilisateurs s'attendent à ce que les projets informatiques prennent moins de deux semaines, tandis que 40 % des responsables informatiques utilisent toujours des processus manuels lents pour reconfigurer les infrastructures d'entreprise et prendre en compte les changements que ces utilisateurs demandent.

La solution software-defined qui relève tous les défis

Les solutions d'infrastructure software-defined offrent un bon moyen de répondre aux nombreux problèmes auxquels les entreprises informatiques sont confrontées. Moderniser les datacenters avec des infrastructures software-defined permet aux services informatiques de gérer la croissance des données, d'innover et d'accélérer le délai de mise sur le marché, grâce à plus de flexibilité, de stabilité et d'économies.

Acquérir l'agilité nécessaire pour assurer le provisioning et la distribution des ressources plus rapidement

Le provisioning des ressources dans les datacenters traditionnels est complexe et chronophage. Il peut prendre plusieurs semaines, voire plusieurs mois. En revanche, avec une infrastructure software-defined, les services informatiques peuvent déployer des ressources en quelques jours ou quelques heures, tout en réduisant les interventions manuelles grâce à l'automatisation et aux fonctionnalités en libre-service basées sur le cloud. Les améliorations en matière d'agilité permettent aux équipes informatiques de fournir les ressources rapidement, et aux business units d'accélérer la mise sur le marché des nouveaux services et des nouvelles applications, ce qui constitue un avantage concurrentiel incontestable.

Les datacenters dotés de fonctions de software-defined Storage ont des capacités de stockage illimitées, ce qui leur permet de bénéficier de l'agilité nécessaire pour s'adapter à mesure que les activités se développent. Les entreprises numériques peuvent héberger efficacement et effectuer la maintenance de grandes banques de données, qui comprennent des fichiers audio, vidéo, graphiques et autres de plusieurs téraoctets, c'est-à-dire le type même de banques de données qui prend en charge les applications modernes que les clients privilégient.

Garantir la continuité des opérations

Les infrastructures software-defined permettent aux entreprises d'adopter de nouvelles technologies sans pour autant sacrifier la stabilité et la fiabilité dont elles ont désespérément besoin. Ces infrastructures offrent également une continuité des opérations plus performante, ce qui permet aux entreprises d'éviter les problèmes d'interruptions de service inopinées.

Par exemple, les déploiements bien conçus de software-defined Storage n'ont pas de point d'échec unique et offrent des architectures très redondantes pour la résilience et la disponibilité des systèmes. En outre, les fonctionnalités d'autodépannage réduisent la nécessité d'intervention de l'administrateur de stockage au minimum et optimisent la disponibilité des applications, même après une défaillance du matériel.

Réduire les coûts

Partout dans le monde, les services informatiques subissent une forte pression pour en faire plus avec moins de moyens. Mais qu'entend-on par moins de moyens ? Selon le rapport Gartner précédemment cité, les dépenses informatiques ont baissé de 0,3 % en 2016. Bien que le rapport prévoit une hausse des dépenses de 2,9 % en 2017, ce ne sera pas suffisant pour compenser les dépenses nécessaires pour relever les défis présentés dans la première partie de cet article. Heureusement, les infrastructures software-defined permettent de faire plus avec moins. Les infrastructures software-defined permettent de rationaliser les opérations, afin de réduire les dépenses d'exploitation. Les solutions bien conçues incluent également un certain nombre d'outils qui permettent une gestion automatisée du stockage et des fonctions d'administration. Ces outils permettent aux entreprises de gérer leurs datacenters grâce au personnel existant, et aucune formation spécialisée n'est nécessaire. Il en résulte une réduction des frais généraux informatiques.

Pour réduire encore les coûts, les entreprises peuvent opter pour des solutions Open Source flexibles qui nécessitent peu ou pas de dépenses logicielles hormis celles liées à leur prise en charge, et qui fonctionnent avec les produits de différents fournisseurs, ce qui élimine le Vendor Lock-in. De plus, les infrastructures software-defined permettant également aux entreprises d'utiliser du matériel courant et d'autres infrastructures utilisées dans leurs datacenters, les infrastructures software-defined entraînent aussi une réduction des dépenses.

Combien la mise à jour vers une infrastructure software-defined permet-elle d'économiser ? Dans le cas du software-defined Storage, des études révèlent que cette mise à jour peut générer 30 % d'économie par rapport aux solutions de stockage en réseau à capacité moyenne, et au moins 50 % par rapport à la moyenne des baies de disques de milieu de gamme à capacité optimisée.

SUSE fournit des solutions Open Source d'entreprise

Sélectionner une base matérielle et logicielle pour une infrastructure software-defined d'entreprise exige une réflexion approfondie. Après tout, il s'agit d'une décision importante. Les solutions Open Source telles que SUSE Linux Enterprise Server permettent aux entreprises d'utiliser leurs investissements existants dans des systèmes physiques et virtuels. Lorsqu'elles adoptent l'Open Source, les entreprises bénéficient également d'une accélération rapide des innovations qui font la renommée des grandes communautés Open Source. Et dans le cas de SUSE Linux Enterprise Server, les entreprises bénéficient d'un avantage supplémentaire avec des tests de compétence et une prise en charge fiable.

SUSE est le choix idéal pour l'infrastructure software-defined de votre entreprise
Seul un fournisseur Open Source d'entreprise tel que SUSE est suffisamment flexible et agile pour prendre en charge des technologies comme le projet Open Source Docker et les conteneurs Linux. Ces technologies permettent aux entreprises d'innover plus rapidement, tout en assurant la stabilité, l'évolutivité et la continuité des opérations dont elles ont besoin, au sein d'une conception évolutive qui durera des années.

SUSE est pionnière dans le domaine des solutions Open Source pour les entreprises. En plus de SUSE Linux Enterprise Server, SUSE offre un ensemble complet de solutions permettant aux entreprises de transformer leurs datacenters traditionnels en infrastructures software-defined prenant en charge les méthodologies et les processus DevOps. Par exemple, SUSE OpenStack Cloud alloue de façon dynamique les ressources de calcul, de stockage et de réseau à la demande, et comprend un accès en libre-service pour fournir les services et applications dont les clients ont besoin, au moment où ils en ont besoin. Basée sur la technologie Ceph qui permet de réduire les dépenses d'investissement et d'exploitation, la solution SUSE Enterprise Storage offre une infrastructure de stockage comprenant des fonctionnalités d'autodépannage et d'autogestion. En outre, SUSE Manager fournit une solution de gestion d'infrastructure solide, qui prend en charge de multiples distributions Linux, plates-formes matérielles et environnements physiques, virtuels et cloud. Ensemble ou séparément, ces fonctionnalités sont idéales pour aider les entreprises à conduire leurs projets d'innovation.

Pour en savoir plus sur les nombreuses façons dont SUSE permet aux infrastructures software-defined de répondre aux besoins de l'économie numérique, visitez le site https://www.suse.com/solutions/digital-transformation/.

Les quatre choses que les entreprises détestent le plus à propos des solutions de stockage

Auteur : Jason Phippen

Jason Phippen est responsable du marketing produit pour SUSE Enterprise Storage, la nouvelle solution de Software-defined Storage de SUSE. Jason compte plus de 15 ans d'expérience dans la commercialisation de produits et de solutions. De fait, il a rejoint SUSE en 2014 après avoir travaillé pour le compte de VERITAS, Computer Associates et Emulex.

Lorsque vous envisagez une dépense pour votre maison, vous réfléchissez à tout ce qui pourrait vous faciliter la vie et la rendre plus agréable : l'extension de la cuisine qui permettrait à toute la famille, y compris les beaux-parents, de se réunir autour de la table à Noël ; la chambre d'amis ou la suite parentale avec salle de bain qui vous offrirait plus d'intimité. Dépenser ainsi est réjouissant parce que cela rend la vie plus facile : vous et votre conjoint vous asseyez ensemble et passez une soirée agréable à planifier les travaux. Mais d'autres types de travaux sont nécessaires dans une maison, tout aussi complexes et pourtant beaucoup moins satisfaisants.

Il faut voir la vérité en face, le toit a fait son temps et va devoir être retapé, à grands frais. La chaudière du chauffage central ne fonctionne plus, vous ne pourrez donc pas couper à son remplacement. Sans surprise, nous n'aimons pas ce genre de dépenses, cet argent « perdu » ne permet pas d'améliorer notre vie ou de maintenir notre confort actuel. Vous allez peut-être planifier également les travaux avec votre conjoint, mais vous ne le ferez pas en partageant un verre de vin, et la soirée s'apparentera plus à une corvée.

Lorsqu'il s'agit d'investir dans votre entreprise, les dépenses de stockage ressemblent plus à la réfection du toit. Même avec une ingénierie des plus raffinée, ces dépenses sont rarement une source de joie. Ce sont des coûts « irrécupérables », auxquels vous ne pouvez pas échapper si vous voulez que votre entreprise continue de fonctionner. Il n'y a donc sans doute rien d'étonnant au fait que le désagrément no 1 lorsqu'on aborde la question du stockage soit son coût. Une enquête indépendante réalisée par Loudhouse pour SUSE a révélé que 80 % de plus de 1200 décisionnaires interrogés dans le monde entier ont évoqué les coûts de stockage en tête de leurs frustrations. Nous n'aimons pas ce type de dépenses, mais nous y consacrons tout de même une fortune : le stockage représente 7 % des dépenses informatiques.

Suivi de près avec 74 % des décisionnaires interrogés, le désagrément no 2 est la performance. Il est déjà assez contrariant pour le propriétaire de l'entreprise de devoir dépenser de telles sommes dans des éléments qui n'amélioreront pas vraiment les résultats de sa société, si en plus de cela, il n'obtient pas les performances attendues, cela équivaut à faire refaire son toit et s'apercevoir ensuite qu'il y a toujours des fuites.

Le désagrément no 3 est la complexité. Vous planifiez des travaux que vous n'avez pas envie de réaliser et qui ne vous apportent aucune satisfaction, et vous vous rendez compte que la tâche sera ardue. Vraiment ardue. Vous pensiez que votre toit était construit d'un seul tenant, mais ce n'est pas le cas. Les anciens propriétaires de votre domicile avaient fait appel à différents charpentiers qui ont utilisé des matériaux différents plus ou moins compatibles. Il y a des tas de gouttières et de tuyaux pour évacuer l'eau, au lieu d'une seule structure cohérente. Les réparations vont demander de longues réflexions et prendre du temps qui ne pourra être consacré à d'autres projets plus intéressants.

Le désagrément no 4 est « l'incapacité à prendre en charge l'innovation » et « le manque d'agilité ». En effet, viendra le jour où vous voudrez de toute façon réaliser cette extension et entreprendre des travaux qui permettent d'améliorer votre qualité de vie, c'est-à-dire les résultats de votre entreprise. Toutefois, lorsque vous planifierez ces nouveaux travaux, il serait dommage de vous rendre compte que l'état du toit vous en empêche. Ce qui est trop souvent le cas.

À présent, faisons le bilan : le stockage est trop coûteux, il n'est pas aussi performant que de besoin, il est affreusement compliqué et il vous empêche de faire d'autres travaux importants. Vous avez effectivement un certain nombre de raisons de trouver dans la question du stockage une source de mécontentement, mais vous avez bien plus de raisons encore d'apprécier le stockage Open Source software-defined : il vous permet de réduire les coûts, d'améliorer les performances, de réduire la complexité et de libérer du temps pour le consacrer à ce qui peut réellement améliorer votre entreprise.

SUSE renforce son rôle dans le domaine du « As-a-Service »

Auteur : Robin Rees

Robin travaille depuis 20 ans dans la communication et est spécialisée dans la notoriété des marques et les préférences du marché pour les solutions de technologies d'entreprise. Son expérience en agence inclut la direction de l'équipe des relations avec les analystes de Microsoft chez WE Communications ainsi que de nombreuses équipes pour le compte SAP de l'agence. L'expérience de Robin inclut des postes à vocation internationale pour des piliers du secteur tels que Boeing et de plus petites entreprises de technologie qui cherchent à étendre leurs marchés et à lancer de nouveaux produits

SUSE, toujours plus au service des entreprises

Selon le rapport 2017 State of the Cloud de RightScale, la majorité des entreprises exécutent leurs workloads dans le cloud. Cette conclusion valide l'orientation stratégique de SUSE qui consiste à renforcer son rôle dans l'Open Source, l'infrastructure software-defined et le domaine des applications de cloud computing d'entreprise. Les dernières étapes suivies par SUSE pour atteindre cet objectif ont permis des progrès significatifs dans le domaine des Infrastructure-as-a-Service (IaaS) et des Platform-as-a-Service (PaaS) dédiées aux entreprises. Par exemple, SUSE a récemment acquis plusieurs technologies IaaS et PaaS renommées auprès de ses partenaires chez Hewlett Packard Enterprise. Ces acquisitions comprennent les technologies OpenStack IaaS, Cloud Foundry PaaS ainsi qu'un capital humain important formé d'experts OpenStack et Cloud Foundry talentueux.

Plans initiaux pour les technologies OpenStack

OpenStack est prête à devenir un moteur d'innovation important dans le domaine de l'infrastructure software-defined, c'est pourquoi SUSE a entamé des négociations pour acquérir des technologies OpenStack IaaS auprès de HPE. Les clients de SUSE pourront en premier lieu constater les avantages des technologies OpenStack acquises avec leur intégration à SUSE OpenStack Cloud. La création d'une solution encore plus solide avec de nouvelles fonctionnalités et des fonctionnalités améliorées permettra aux entreprises de répondre à un plus grand nombre de scénarios d'utilisation.

SUSE est membre platinum de l'OpenStack Foundation, ce qui signifie que l'entreprise contribue non seulement à la communauté OpenStack, mais également aux logiciels OpenStack. SUSE continuera dans cette voie.

Plans pour les PaaS avec Cloud Factory

Cloud Foundry est aux PaaS ce qu'OpenStack est aux IaaS. SUSE a prévu d'utiliser ses ressources Cloud Foundry PaaS récemment acquises pour développer et fournir une solution certifiée et adaptée aux entreprises, qui permettra d'accélérer son entrée sur le marché du PaaS.

Les technologies PaaS sont conçues pour permettre aux équipes de DevOps de développer et de déployer des applications plus rapidement. Les applications Web constituent une véritable monnaie refuge dans l'économie numérique en pleine croissance, et Cloud Foundry est la plate-forme Open Source standard de l'industrie pour les déploiements PaaS. La conclusion de cette acquisition a donc constitué une étape importante de la stratégie de SUSE. Le passage récent de SUSE comme membre platinum de la Cloud Foundry Foundation marque son profond engagement pour la fourniture de fonctionnalités PaaS aux clients et partenaires de son écosystème. Thomas di Giacomo, CTO de SUSE, a d'ailleurs rejoint le conseil d'administration de la Cloud Foundry Foundation.

De nouveaux talents pour tirer parti de l'acquisition

Avec les acquisitions de technologies réalisées par SUSE, l'entreprise s'enrichit également de plusieurs anciens membres du personnel technique de HPE : ingénieurs, responsables produits, ingénieurs système, etc. qui bénéficient des connaissances et de l'expérience nécessaires pour aider SUSE à atteindre ses objectifs dans le domaine des IaaS et des PaaS. Grâce à eux, SUSE pourra renforcer sa feuille de route SUSE OpenStack Cloud et accélérer son entrée sur le marché du PaaS.

SUSE a accueilli ces nouveaux employés le jour même où la clôture de l'acquisition a été annoncée, et ces derniers sont déjà pleinement intégrés au personnel SUSE existant.

Respect mutuel et relation non exclusive

HPE a désigné SUSE comme un partenaire privilégié pour Linux, OpenStack IaaS, et Cloud Foundry PaaS, et peut utiliser les technologies SUSE dans Helion OpenStack et Helion Stacato. Cette nouvelle relation plus forte signifie que les clients de HPE bénéficieront de l'investissement et des innovations de SUSE dans les produits Linux, OpenStack IaaS et Cloud Foundry PaaS. Cette relation mutuelle et respectueuse étant de plus non exclusive, les partenaires existants et futurs de SUSE, notamment les fabricants de matériel d'origine (OEM, Original Equipment Manufacturer) et les constructeurs indépendants de matériel (IHV, Independent Hardware Vendor) bénéficieront également d'avantages.

Encore plus d'avantages

Comme vous vous en souvenez peut-être, il avait été mentionné dans l'édition précédente de SUSE Insider que SUSE avait également récemment acquis openATTIC. En association avec les experts openATTIC qui ont rejoint l'équipe SUSE, cette acquisition a renforcé le rôle de SUSE dans le domaine du software-defined Storage, tout comme OpenStack et Cloud Foundry permettront de renforcer son rôle dans le domaine des IaaS et des PaaS. SUSE Insider ne peut évoquer de possibles futures acquisitions, mais nous pouvons dès à présent affirmer que toutes les acquisitions SUSE offrent ou offriront de nombreux avantages à SUSE, ses partenaires, ses clients, et la communauté Open Source dans son ensemble. SUSE, une entreprise qui évolue.

Les notes de configuration du bulletin de la CERTIFICATION YES sont-elles du « côté obscur » de la compatibilité matérielle ?

Auteur : Kay Tate

Kay Tate occupe le poste d'ISV Programs Manager chez SUSE. À ce titre, elle est chargée d'encourager les éditeurs de logiciels à prendre en charge les plates-formes SUSE sur les principaux marchés verticaux et catégories de produits. Elle a utilisé et conçu des programmes pour les éditeurs de logiciels UNIX et Linux pendant quinze ans chez IBM, avant de rejoindre SUSE en 2009. Elle est chargée de gérer le catalogue des logiciels partenaires de SUSE, d'encadrer le recrutement de candidatures émanant du service commercial, d'orienter les initiatives de partenariat et de rationaliser les processus SUSE et PartnerNet pour les ISV.

La réponse est aisée : non, en aucun cas ! Et elle vient d'une personne qui a des années d'expérience en CERTIFICATION YES, non du premier rebelle venu qui a soudainement vu la Force s'éveiller en lui ! Continuez votre lecture. En effet, « la peur est le chemin vers le côté obscur » et « difficile à voir, le côté obscur est » !

Dans de précédents articles de blog, j'ai souligné en détail toutes les informations contenues dans le bulletin de CERTIFICATION YES. Ces précédents articles présentaient le contenu du bulletin, expliquaient comment le lire, quels éléments étaient validés lors des tests de certification et, enfin, la façon dont chaque section du bulletin pouvait vous aider à mieux comprendre les spécificités de compatibilité matérielle. Dans cet article, j'approfondirai le sujet et je vous fournirai des informations plus détaillées sur la section des notes de configuration du bulletin. Je répondrai également à la question, les notes de configuration du bulletin de CERTIFICATION YES constituent-elles un problème ? La première phrase ci-dessus contient déjà ma réponse, mais comme pour toutes les vacances réussies, le trajet participe à rendre le voyage agréable.

Commençons par le commencement. Au cas où vous l'ignoreriez, le meilleur endroit pour rechercher un bulletin matériel de CERTIFICATION YES est le site https://www.suse.com/yessearch/. Si vous voulez lire mes articles de blog détaillant tous les éléments des bulletins de CERTIFICATION YES, visitez le site https://www.suse.com/communities/blog/author/Jackman1/ et recherchez les quatre séries d'articles intitulées « SUSE YES Certification bulletin exposed ».

La section sur les notes de configuration des bulletins peut être vide ou contenir un ou plus d'exemples sur une configuration certifiée. Elle peut inclure des solutions de contournement ou des fonctionnalités qui ont ou n'ont pas fonctionné, ou les ajouts nécessaires, comme les pilotes mis à jour. Les notes de configuration des bulletins comprennent les données essentielles que vous devez connaître lors de la mise en oeuvre de SUSE Linux Enterprise sur une plate-forme matérielle spécifique.

Les informations fournies dans les notes de configuration, ou Config Note, peuvent concerner l'installation ou le démarrage du vidage de la mémoire (kdump) ou les pilotes de kernel mis à jour pour les mises à jour de maintenance requises. La grande majorité des notes de configuration sont fournies à titre d'information, ce sont des éléments dont vous devez avoir connaissance lors de l'installation et de la configuration de SUSE Linux Enterprise sur une plate-forme matérielle certifiée. Elles peuvent fournir plus d'informations sur la façon dont les disques ont été configurés durant les tests de certification. L'une des principales propositions de valeur de la certification du matériel est la possibilité de capturer et de documenter une configuration qui fonctionne. La certification peut être utilisée comme guide d'achat du matériel ou comme technique de dépannage pour résoudre un problème avec un système.

Est-il possible qu'un bulletin de certification ne comprenne aucune note de configuration ? Oui. De nombreuses certifications système sont effectuées sans problèmes et le bulletin de certification contient un grand nombre d'informations de configuration. Cependant, il est vrai que lorsque l'on tombe sur un bulletin qui n'a AUCUNE note de configuration, on peut se demander ce que les organismes de certification (généralement le fournisseur du matériel) nous cachent ! Une fois de plus, il est possible que le bulletin de certification contienne déjà tout ce que vous devez savoir. Rappelons que l'un des objectifs d'un bulletin de certification est de fournir des données de configuration utiles sur le matériel et le système d'exploitation.

Comme mentionné ci-dessus, les notes de configuration peuvent indiquer comment le système d'exploitation a été installé, par exemple à partir d'un DVD interne (si un DVD interne est répertorié dans la configuration testée, cela peut être également une indication), d'un DVD virtuel ou d'un DVD sur clé USB. Les notes de configuration peuvent préciser que le système a été installé à partir d'un environnement PXE (Preboot Execution Environment) sur le réseau, avec un chargeur de démarrage UEFI (Unified Extensible Firmware Interface) ou à l'aide d'une installation héritée. Elles peuvent également indiquer qu'un kit d'installation, un kit de pilote ou un kISO ont été utilisés. Il s'agit de supports d'installation mis à jour, fournis par SUSE pour résoudre un problème connu sur le matériel. Remarque : les problèmes résolus par l'intermédiaire de ces mises à jour peuvent être à l'origine de la mise au point de nouveaux matériels de pointe qui n'étaient pas disponibles lorsque le système d'exploitation a été initialement commercialisé.

Les notes de configuration peuvent préciser la quantité de mémoire nécessaire à kdump pour fonctionner correctement, en permettant de capturer une image de kernel crash valide (lorsqu'un paramètre par défaut ne fonctionne pas). Elles peuvent vous indiquer si une mise à jour de maintenance SUSE Linux Enterprise a été effectuée durant les tests de certification. Cela signifie normalement que le matériel nécessite une mise à jour, dans le système d'exploitation, pour fonctionner au maximum de sa compatibilité. Elles peuvent également indiquer la version spécifique du pilote qui a été installée pendant les tests.

Les notes de configuration indiquent également les fonctionnalités de gestion de l'alimentation qui sont ou ne sont pas prises en charge sur le matériel. Ces fonctionnalités comprennent la mise en veille prolongée, la veille, le contrôle du ventilateur, la surveillance de la température, la prise en charge de la batterie ou l'évolutivité de la fréquence des processeurs. Elles peuvent inclure des informations sur une solution de contournement pour une fonction de gestion de l'alimentation spécifique. Elles peuvent également indiquer comment activer une fonction de gestion de l'alimentation en modifiant un fichier de configuration, ou à l'aide d'une ligne de commande spécifique pour que la fonction fonctionne. Elles peuvent décrire un changement dans les paramètres système.

Les notes de configuration peuvent inclure des informations de base, par exemple si le système a été testé en tant que configuration sans périphérique de contrôle et sans adaptateur de carte graphique. Elle peut fournir une URL permettant d'accéder à des informations d'installation plus spécifiques provenant du fabricant du matériel.

La dernière catégorie de notes de configuration que je vais aborder ici concerne les certifications spécifiques à la virtualisation. Il peut s'agir de certifications Xen ou KVM ou d'une certification d'un hyperviseur tiers. Ces notes de configuration concernent normalement la configuration de l'hôte de virtualisation ou les paramètres de démarrage. Elles peuvent préciser les pilotes spécifiques de virtualisation SUSE utilisés durant les tests, tels que le VMDP (Virtual Machine Driver Pack). Les notes de configuration peuvent également contenir des conseils d'installation ou des solutions de contournement pour les machines invitées, voire une méthode recommandée d'installation pour la machine invitée. À partir de SUSE Linux Enterprise Server 12, tous les bulletins de virtualisation Xen et KVM comprendront des notes de configuration indiquant si le matériel réseau prend en charge les réseaux SR-IOV (Single Root I/O Virtualization) ou PCI Pass-through. Si l'une de ces fonctions est prise en charge, les notes de configuration comprendront également l'adaptateur réseau utilisé lors de ce test. Remarque : le SR-IOV et le PCI Pass-through sont des méthodes d'utilisation des adaptateurs réseau hôtes directement dans une machine de virtualisation invitée.

Les notes de configuration comprennent également les éléments qui ne sont pas compatibles entre le matériel et le système d'exploitation. Les termes tels que « ne prend pas en charge » ou « non pris en charge » sont utilisés dans ces notes de configuration. Mais la grande majorité des notes de configuration sont uniquement informatives. Elles permettent à nos clients de bénéficier d'une meilleure expérience et fournissent des informations détaillées sur la compatibilité du matériel et du système d'exploitation.

Nous espérons que la CERTIFICATION YES et les bulletins YES vous aideront à prendre de meilleures décisions lors de l'achat de nouveaux systèmes pour votre infrastructure d'entreprise. Notre objectif est de vous donner la possibilité de dire « La Force est avec moi, et je fais corps avec la Force », lorsque vous achèterez de nouveaux serveurs et postes de travail. Pour obtenir plus d'informations sur la CERTIFICATION YES de SUSE, visitez le site https://www.suse.com/partners/ihv/yes/ ou recherchez le matériel certifié YES sur https://www.suse.com/yessearch/. Vous pouvez également consulter les précédents articles de blogs sur la certification YES, sur le blog YES Certification.