Principales fonctions
La mise en cluster flexible et préparamétrée ainsi que la réplication continue des données permettent d’améliorer la disponibilité et l’utilisation des ressources en prenant en charge la mise en cluster mixte des serveurs Linux physiques et virtuels. Protéger les workloads dans les datacenters du monde entier.
Corosync et OpenAIS sont les composants de cluster et d’infrastructure des systèmes distribués. OpenAIS, mise en oeuvre certifiée par Open Source Initiative de la norme AIS (Application Interface Specification) du Service Availability Forum, est utilisée pour sa couche de mise en cluster de messagerie et d’adhésion. Il s’agit du principal protocole de communication conforme aux normes pour la mise en cluster des serveurs et du stockage. Le moteur de cluster Corosync comprend l’adhésion, une messagerie ordonnée avec garanties de synchronisation virtuelle, des groupes de communication de processus fermés et une structure extensible.
PaceMaker est un gestionnaire de ressources en cluster hautement évolutif dont le moteur de stratégie flexible prend en charge les clusters à n noeuds. Pacemaker vous permet de contrôler en continu la santé de vos ressources, de gérer les dépendances ou encore d’arrêter et de démarrer automatiquement les services en fonction de règles et stratégies faciles à configurer.
Basculement basé sur des règles permettant le transfert automatique ou manuel d’un workload vers un autre cluster en dehors de la zone touchée. Vos workloads stratégiques sont transférés hors de la région affectée afin de continuer à s’exécuter et de protéger les workloads situés dans des centres de données répartis dans le monde entier.
Mise en clusters mixte de serveurs Linux physiques et virtuels pour augmenter la flexibilité tout en améliorant la disponibilité des services et l’utilisation des ressources.
HAProxy est une solution fiable et très rapide qui offre aux applications TCP et HTTP une haute disponibilité, un équilibrage de la charge et un proxy en répartissant les requêtes sur plusieurs serveurs. Elle vient compléter l’équilibrage de charge de serveur virtuel Linux.
La fonction de regroupement de clusters permet de configurer des clusters et d’étendre les clusters existants en toute simplicité. Une fois qu’un noeud ou un cluster a été créé, vous pouvez ajouter de nouveaux noeuds sans qu’il soit nécessaire de répliquer manuellement les configurations.
Fencing basé sur le stockage qui élimine les points de défaillance uniques.
Les clusters de réseaux urbains permettent le basculement entre datacenters dans un rayon de 30 kilomètres.
Des modèles et des assistants vous aident à effectuer rapidement les tâches de configuration de base.
Le programme d’amorce de clusters offre un processus de configuration basé sur des menus pour le déploiement rapide d’un cluster de base.
Les clusters de sites distants permettent le basculement sur des distances illimitées et offrent une protection contre les événements perturbateurs régionaux.
Configuration, administration, gestion et surveillance : gagnez du temps en gérant facilement les serveurs Linux en cluster à l’aide d’une puissante interface unifiée permettant d’installer, de configurer et de gérer facilement et rapidement des clusters, ainsi que d’un outil simple et convivial de surveillance de l’environnement en cluster.
Une puissante interface unifiée, HAWK (High Availability Web Konsole), permet de gagner du temps et de gérer et de surveiller facilement les serveurs Linux en cluster pour installer, configurer et gérer les clusters rapidement et facilement. Vous bénéficiez également d’un outil simple et convivial de surveillance de l’environnement en cluster. HAWK peut être utilisé pour gérer des clusters Pacemaker HA. La console Web prend intégralement en charge l’administration des clusters, notamment l’ajout de ressources, de contraintes et de dépendances. Vous pouvez également l’utiliser pour gérer des groupes de ressources, ce qui améliore l’évolutivité des clusters de grande taille. En outre, vous avez accès aux listes de contrôle, à l’essai pilote des clusters et à un explorateur d’historique graphique.
Les listes de contrôle d’accès permettent d’aligner la gestion des clusters sur les processus et stratégies de l’entreprise. Grâce à l’application de contrôles basés sur les rôles, vous pouvez vous assurer que l’accès aux outils de gestion des clusters est exclusivement accordé aux membres de votre personnel informatique. La restriction de l’accès favorise non seulement la sécurité, mais également la fiabilité des clusters, en limitant les erreurs.
Le shell pour l’ensemble des clusters améliore l’efficacité de la gestion des noeuds de clusters en permettant l’exécution de commandes pour l’ensemble des noeuds par le biais de la commande PSSH.
L’explorateur d’historique offre un accès interactif aux journaux des clusters. Il affiche et analyse les actions de SUSE Linux Enterprise High Availability Extension.
La fonction de test des clusters permet aux utilisateurs de simuler une situation de basculement avant la survenue d’un véritable sinistre, afin de s’assurer de la bonne configuration et de l’allocation des ressources précédant la mise en production.
Agents de ressources pour les applications Open Source, par exemple Apache, IPv6, DRBD, KVM, Xen et Postgres ; agents de ressources pour les applications tierces courantes, par exemple IBM WebSphere, IBM DB2, VMWare et SAP.
Le système Samba en cluster (CTDB) peut être rendu hautement disponible et évolutif en utilisant plusieurs noeuds et il peut basculer de façon transparente via un verrouillage de l’ensemble des clusters. Les ressources CTDB sont automatiquement ajoutées et synchronisées avec Active Directory.
Les périphériques quorum agissent comme arbitrage pour les clusters à deux noeuds, ce qui permet de prendre des décisions de gestion de cluster lorsqu’un processus de décision simple ne produit pas un choix clair. Résultat : les administrateurs disposent d’un meilleur contrôle sur les applications et les données du cluster.
Réplication continue des données sur les serveurs de clusters dans les datacenters partout dans le monde permettant de minimiser les pertes de données en raison de corruption ou de panne par la protection de vos ressources via votre infrastructure informatique existante.
Distributed Replicated Block Device (DRBD) est un outil Open Source leader sur le marché pour la gestion de disques en réseau, qui permet de créer des partitions uniques à partir de plusieurs disques mis en miroir et de rendre les données qu’elles hébergent hautement disponibles. Vous pouvez également restaurer rapidement vos services en cluster grâce à ses capacités de resynchronisation rapide des données. DRBD met en miroir les données du noeud actif d’un cluster haute disponibilité sur son noeud en attente. Il prend en charge la mise en miroir synchrone et asynchrone. En cas de panne de courant, DRBD resynchronise automatiquement le noeud temporairement indisponible en rétablissant la dernière version des données, sans perturber le service en cours d’exécution. De plus, DRBD inclut des algorithmes de compression des données qui réduisent les temps de réplication.
Le système de reprise des noeuds avec Relax and Recover permet de rétablir rapidement un état parfaitement opérationnel après une panne de noeud. Il permet à l’administrateur de prendre un snapshot complet du système et de restaurer ce snapshot sur un matériel de reprise après sinistre.
Gestion des systèmes de fichiers et des volumes compatible avec les clusters pour des performances optimales.
Oracle Cluster File System 2 (OCFS2) est un système de fichiers en cluster générique compatible POSIX et basé sur des disques partagés, qui améliore la disponibilité en autorisant la mise en cluster de divers types d’applications. Grâce à OCFS2 et au verrouillage POSIX compatible avec les grappes, vous pouvez désormais mettre en grappe une gamme bien plus vaste d’applications et ainsi accroître la disponibilité. Il est également possible de redimensionner les clusters et d’ajouter de nouveaux noeuds à la volée. Les applications qui prennent en charge les grappes permettront en outre d’accroître les performances grâce aux E/S en parallèle.
GFS2 (Global File System) est un système de fichiers sur disque partagé pour clusters Linux qui offre à tous les noeuds un accès simultané direct au même stockage par blocs partagé. La prise en charge en lecture/écriture de GFS2 est incluse.
Le gestionnaire de volumes logiques en cluster 2 (cLVM2) facilite la gestion des clusters grâce à une représentation unique du stockage sur l’ensemble des clusters. Grâce aux extensions de mise en grappe des outils LVM2, vous pouvez gérer simplement et en toute sécurité le stockage partagé à l’aide des commandes LVM2 existantes.
Prise en charge de la virtualisation pour la gestion des clusters virtuels et physiques.
Prise en charge de KVM et Xen : le gestionnaire de ressources en cluster peut identifier, surveiller et gérer les services qui s’exécutent sur les serveurs et physiques. Vous pouvez aussi mettre en grappe des serveurs virtuels, ou même des services fournis par un serveur virtuel spécifique. De plus, il est possible de mettre les serveurs virtuels en grappe avec les serveurs physiques, et les serveurs physiques peuvent être mis en grappe les uns avec les autres, ce qui étend la haute disponibilité des environnements système virtuels aux environnements systèmes physiques. Vous pouvez encapsuler les environnements système complets dans des invités virtuels, puis les répliquer et les gérer en toute simplicité à l’aide des outils et fonctionnalités fournis avec la solution (DRBD, OCFS2 et cLVM2, par exemple). Comme SUSE Linux Enterprise High Availability Extension prend en charge les environnements virtualisés, la solution vous offre une flexibilité inégalée et vous permet d’améliorer la disponibilité des services, ainsi que l’utilisation de vos ressources.
La prise en charge d’hyperviseurs tiers est incluse ; elle permet de rendre disponibles les services tels que VMware, vSphere ou Microsoft Hyper-V, et de les gérer comme s’ils s’exécutaient sur un serveur physique.