Wie Anwendungs­container DevOps unterstützen können

Von: Thomas Di Giacomo

In seiner Funktion als CTO bei SUSE verfolgt Thomas Di Giacomo die Vision einer softwaredefinierten und cloudbasierten Zukunft für Unternehmen, in denen die IT für den nötigen Auftrieb sorgt. Vor seinem Wechsel zu SUSE war Di Giacomo CTO und Vice President of Innovation bei Swisscom Hospitality Services und CTO der Hoist Group, einem weltweit tätigen Anbieter von IT-Services für das Hotelgewerbe und die Gesundheitsbranche. Er besitzt umfassende Kenntnisse zu Open Source-Plattformen, sowie zu Entwicklung und Support für globale Informationssysteme und Technologien.

In der DevOps-Artikelreihe haben wir im September 2016 darüber gesprochen, dass Unternehmen sich anpassen und noch flexiblere und agilere Anforderungen erfüllen müssen, wenn sie über Erweiterungen und Innovationen hinaus relevant bleiben möchten. Und all dies selbstverständlich unter Beibehaltung der Kosten- und Aufwandskontrolle. DevOps-Tools und -Prozesse und eine entsprechende DevOps-Kultur schaffen die wichtigsten Rahmenbedingungen für das Erfüllen dieser Bedürfnisse.

Container sind keine neue Technologie. Es gibt sie bereits seit Jahren in Form der Systemcontainer in Linux. In den letzten Jahren gab es jedoch einen großen Anstieg an Entwicklungs­aktivitäten und Einführungen im Bereich der Anwendungs­container und bei den einfachen Tools, die diese Entwicklung begleiten. Anwendungs­konzentrierte Container erleichtern die Entwicklung von DevOps-, CI/CD- und Micro-Services-basierten Anwendungen, und ermöglichen es den Unternehmen so, ihre Prozesse, Qualität und Marktein­führungszeit zu verbessern.

Containerisierung ist ein hervorragendes Tool, um die Entwickler und die IT-Betreiber sowohl in der kontinuierlichen Integration als auch bei der Bereitstellung als gemeinsame Ressource zusammenzubringen. Für Cloud-native Anwendungen, die alle oder einen Teil der 12 Faktoren erfüllen, trifft dies besonders gut zu. Doch auch für Legacy-Anwendungen und Strategien für die Anwendungsmigration kann die Containerisierung angewendet werden.

Building und Sandboxing

Anwendungs­container sind nicht interagierende, unabhängige, iPhone-ähnliche Anwendungen. Sie sind vollständig isoliert und befinden sich in einer „Sandbox-Umgebung“, d. h., sie vermeiden es, miteinander oder mit dem zugrunde liegenden Betriebssystem zu interagieren oder sich gegenseitig zu beeinflussen.

Darüber hinaus besteht eine enge Verknüpfung zwischen den Containern und der Anwendungs­architektur an sich. Häufig fördern oder unterstützen sie zumindest die Aufteilung traditioneller monolithischer Anwendungen in A-la-Carte-Anwendungen oder auf Micro-Services basierende Anwendungen.

Anwendungs­container erleichtern den traditionellen „Build-Schritt“ im DevOps-Fluss. Container bieten von der Definition und dem Format der Container-Images über ihre Speicherung bis hin zum Abrufen aus einem öffentlichen oder privaten gesicherten Registry eine Vielzahl an schnellen, automatisierten Schritten.

DevOps-Prozess
Auslieferung und Implementierung
Auslieferungscontainer

Die Containeranalogie passt auch auf die Art und Weise, wie Container ausgeliefert und „befördert“ werden. Im digitalen Ozean folgen sie den DevOps-Strömen: vom Staging in die Test- und Produktionsumgebungen und von der Infrastruktur und den Rechenzentren vor Ort hinein in heterogene private und öffentliche Clouds. Und gleich nach der Ankunft an ihrem Ziel sorgen die Auslieferungscontainer dafür, dass sich die Container und ihre Inhalte genauso verhalten wie an ihrem Ausgangsort. Der Prozess stellt darüber hinaus sicher, dass die Container in den verschiedenen Harbors, in denen sie sich befinden, auf die gleiche Weise ausgeführt werden. Voraussetzung hierfür ist ein korrektes Packing der Container-Images.

Diese gleiche Ausführungsweise ist ein weiterer Mehrwert, den DevOps durch die Anwendungs­containerisierung erhalten. Es wird einfacher, dieselbe Anwendung erneut zu implementieren: sei es in der Entwicklungs-, der Test- oder der Produktionsumgebung.

Ausführung und Wartung

Die Verwendung von Containern in dieser DevOps-Phase bringt viele Vorteile mit sich. Aufgrund ihres Designs sind Container leicht skalierbar, so dass Anwendungen angepasst an die Geschäftsanforderungen leichter vergrößert oder verkleinert, bestehende Geschäftsanwendungen erweitert und neue entwickelt werden können usw. Bei Ausführung im Live-Modus können mithilfe von Containern dynamischere Multi-Cloud-Strategien umgesetzt werden. So können beispielsweise Workloads während der Spitzenlastzeiten in die Cloud ausgelagert werden, um dann bei einer geringeren Nachfrage und einer besseren Verfügbarkeit der internen Ressourcen wieder lokal übernommen zu werden.

Looping

Der letzte Schritt des DevOps-Flusses ist das Zurückkehren aus der Ausführungs- in die Entwicklungsphase. Hierbei werden Analyseergebnisse und Details über die Leistung der Anwendung mitgeliefert, mit denen die Anwendung weiter verbessert werden kann. Weitere Inputs dieses Schrittes sind Funktions­anforderungen, Patches und Fixes, die in die nächste Iteration der Anwendung aufgenommen werden müssen (sie können aber auch während der anderen Schritte des Flusses hinzugefügt werden). Während dieses Schritts ergänzen die Container die Anwendung noch um eine weitere Analyseebene, zum Beispiel Scale-out-/Scale-up-Szenarios und eine Überwachung der Leistung der Container selber.

Fazit und andere Überlegungen

Die meisten SUSE Tools, die wir in Teil 1 dieser Serie besprochen haben, unterstützen bereits containerbasierte Abläufe, und wir arbeiten kontinuierlich daran, sie zu verbessern. So werden wir beispielsweise unser neues Produkt, „SUSE Container as a Service Platform (CaaSP)“, Ende März für einen öffentlichen Beta-Test freigeben. CaaSP erleichtert DevOps die Nutzung von Containern noch weiter, da das Orchestrierungselement beim Einrichten der Container für die Entwickler, beim Testen und vielem mehr in der jeweils passenden abstrahierten Infrastruktur und mit den passenden Ressourcen unterstützt.

SUSE CaaSP ist eine Infrastruktur­plattform für Container, mit der containerbasierte Anwendungen bereitgestellt, verwaltet und skaliert werden können. Sie besteht aus drei Komponenten: MicroOS (basierend auf SLES), Kubernetes für die Containerverwaltung und einer Salt-basierten Konfiguration für die Einrichtung der Komponenten und der Container-Engines, zum Beispiel die Open Source-Software Docker oder Linux-Container (LXC). Weitere Informationen bietet Ihnen das Webinar Container as a Service Platform – An Introduction.

Auslieferungscontainer

Auch das Thema „Storage und Container“ wird abgedeckt. Containerisierte Daten verschwinden innerhalb ihres Containers. Vereinfacht ausgedrückt besteht ihr einziger Lebensinhalt darin, ein statusunabhängiges Design zu fördern, auch wenn dies nicht immer zu 100 Prozent erreicht wird. Aus diesem Grund spielen bei der Verwendung von Containern ein permanenter Speicher und der Umgang mit Daten eine wichtige Rolle, wenn es um das Sicherstellen von Konsistenz im DevOps-Fluss geht.

Auch Networking ist ein Bereich, der besonders berücksichtigt werden muss, insbesondere im Multi-Cloud-Kontext. So existieren beispielsweise Lösungen, die sich um den Bedarf von Netzwerken kümmern, indem sie die Netzwerkkonfigurations­anforderungen einer bestimmten Anwendung zusammen mit ihrer Container­beschreibung bündeln.

Und, last but not least, spielen neben dem Thema Kontrolle auch die Aspekte Gesamtstabilität, Zuverlässigkeit und mehrstufige Sicherheit bei der Einführung von Unternehmens-DevOps eine extrem wichtige Rolle.

Wir bei SUSE kennen uns gut mit DevOps aus. Wir freuen uns über die Möglichkeit, mit Ihnen über Ihre DevOps-Projekte zu sprechen und zu klären, wie wir Sie bei der Umsetzung unterstützen können!

Der letzte Teil dieser DevOps-Serie befasst sich mit dem Einsatz von „Platform as a Service“ als eine Erweiterung von „Containers as a Service“, mit der die Entwickler Anwendungen noch besser ergänzend zu oder unter Einsatz von DevOps-Prinzipien erstellen können.

Die digitale Wirtschaft: Heute hier, morgen größer

Von: Terri Schlosser

Terri Schlosser, Leiterin des Produkt- und Lösungsmarketings bei SUSE, verfügt über 20 Jahre Erfahrung in der IT-Softwarebranche. Vor ihrer jetzigen Tätigkeit war sie Senior Marketing Manager bei Rackspace für das Managed Private Cloud-Angebot des Unternehmens, und davor arbeitete sie mehr als 15 Jahre bei IBM. Sie verfügt über Erfahrung in den Gebieten Marketing, Software-Entwicklung, Produktmanagement und -strategie in verschiedensten IT-Softwarebereichen, darunter Networking, Storage, Management, Betriebssysteme und OpenStack. Durch die Arbeit mit Teams auf der ganzen Welt und einen 2-jährigen Auslandseinsatz in Krakau kann Terri auch internationale Erfahrung aufweisen. Sie besitzt einen Bachelor of Science und einen Master of Science in Mathematik.

Das kontinuierliche Wachstum der Benutzer- und Verbraucherer­wartungen

Bereits seit Jahren ist die mobile, jederzeit verfügbare Unternehmens-IT auf dem Vormarsch, und laut Branchenanalysten wird sich daran im Unternehmensumfeld auch in den kommenden Jahren nichts ändern. Die geschätzten 4,23 Mrd. Smartphones im Jahr 2014 werden bis zum Ende dieses Jahres auf prognostizierte 4,77 Mrd. und bis 2019 auf 5,07 Mrd. ansteigen. (Quelle: Statista) Der digitale Wandel, den diese Geräte ausgelöst haben, hat auch die Erwartungen der Verbraucher- und Anwender verändert. (Siehe Abbildung 1)

Abbildung 1

Abbildung 1: Auszüge aus den Untersuchungen von Lithium und Vanson Bourne (Quelle: „Can Companies Keep up with Soaring Customer Expectations“, eMarketer, Juni 2015).

Die Heraus­forderungen für Unternehmen sind eindeutig

Die steigenden Erwartungen der Benutzer und Verbraucher stellen eindeutige Herausforderungen für Unternehmen und ihre IT-Abteilungen dar. Es sind jedoch nicht die einzigen Herausforderungen, vor denen die IT-Abteilungen stehen. Die IT muss agil und flexibel genug sein, um nicht nur auf die steigenden Erwartungen, sondern auch auf Geschäftsanforderungen wie die Aufrechterhaltung von Datenschutz und Sicherheits­anforderungen zur Einhaltung rechtlicher Vorschriften reagieren zu können. Darüber hinaus muss sie Geschäftsbenutzer, die eigenständig Public Cloud-Services erwerben, ohne sich Gedanken über Sicherheit oder die Einhaltung rechtlicher Vorschriften zu machen, sicher unterstützen können. Der Schatten-IT-Effekt, den die Benutzer auf diese Weise verursachen, ist ein potenzieller Risikofaktor sowohl für die Daten des Unternehmens als auch der Verbraucher selber.

Die IT-Abteilungen müssen sich um all diese und andere Geschäftsanforderungen kümmern und gleichzeitig manuelle Aufgaben ausführen, die wenig mehr tun als den Betrieb aufrechtzuerhalten – eine große Aufgabe.

Das durch mobile Technologien wie Online-Banking, digitale Gesundheitsapps, tragbare Internet-der-Dinge-Systeme und -Sensoren usw. verursachte Datenwachstum ist die Ursache für die Herausforderungen, vor denen Unternehmen an der Anwendungs- und Daten-Storage-Front stehen. IT-Organisationen in allen Branchen müssen die Daten effizient speichern, verwalten und schützen, ohne zusätzliche Kosten zu verursachen, da laut dem Ende 2016 veröffentlichten Gartner-Bericht die IT-Budgets der Unternehmen gleichbleiben oder nur leicht erhöht werden. Aufgrund dieses geringen Budgets muss die IT gleichzeitig die Storage-, Verarbeitungs- und Networking-Anforderungen des digitalen Geschäfts zufriedenstellen und die Kapital- und Betriebskosten senken können. (Siehe „Gartner Says Global IT Spending to Reach $3.5 Trillion in 2017“, eine Pressemitteilung von Gartner, Oktober 2016)

Eine Infrastruktur, die Support für zuverlässige, bahnbrechende und unterwegs verfügbare digitale Services bietet, und für die IT-Abteilungen, die diese Services bieten, müssen folgende Begriffe zutreffen: sie müssen agil und flexibel sein. Mit den Infrastrukturen der Innovationsära können Unternehmen neue und aktualisierte Services noch schneller bereitstellen. In seinem Artikel „Three Essential Steps to a Software-defined Data Center“ aus dem Jahr 2014 beschreibt Brandon Butler von Network World die Notwendigkeit des softwaredefinierten Networkings, indem er aufzeigt, dass mehr als 70 Prozent der Endbenutzer erwarten, dass ein IT-Projekt weniger als zwei Wochen dauert. Gleichzeitig wäre es jedoch so, dass 40 Prozent der IT-Manager weiterhin langsame manuelle Prozesse verwenden müssten, um ihre Organisation so zu rekonfigurieren, dass die Änderungswünsche der Benutzer umgesetzt werden könnten.

Herausforderungen, hier ist eure softwaredefinierte Lösung

Softwaredefinierte Infrastrukturlösungen stellen eine vielversprechende Möglichkeit dar, um den vielen Herausforderungen zu begegnen, vor denen IT-Unternehmen stehen. Durch die Modernisierung ihrer Rechenzentren zu softwaredefinierten Infrastrukturen können IT-Abteilungen die wachsenden Datenmengen bewältigen, Innovationen ermöglichen und Markteinführungen schneller und mit mehr Agilität, Stabilität und Kostenersparnissen umsetzen.

Die erforderliche Agilität für eine schnellere Ressourcen­bereitstellung

In traditionellen Rechenzentren ist die Bereitstellung von Ressourcen ein komplexer und zeitaufwendiger Prozess. Er kann Wochen, wenn nicht gar Monate dauern. Im krassen Gegensatz dazu können IT-Abteilungen mit einer softwaredefinierten Infrastruktur Ressourcen innerhalb von Tagen oder Stunden bereitstellen – dank Automatisierungs- und cloudbasierten Self-Service-Fähigkeiten mit weniger manuellen Eingriffen. Durch die höhere Agilität kann die IT Ressourcen schnell bereitstellen, und die Geschäftsbereiche können die Markteinführungszeiten neuer Services oder Anwendungen verbessern. Dies ist ein unbestreitbarer Wettbewerbsvorteil.

Data Center mit softwaredefiniertem Storage verfügen über unbegrenzte Storage-Fähigkeiten, die sie agil genug machen, um im Einklang mit einem größer werdenden Geschäftsbetrieb skaliert zu werden. Digitale Unternehmen können große Datenspeicher, die aus Audio-, Video-, Grafik- und anderen Terabyte-großen Dateien bestehen, effizient hosten und pflegen. Dieses sind genau die Datenspeicher, die die modernen Anwendungen unterstützen, die sich die Kunden am meisten wünschen.

Gewährleistung der Geschäfts­kontinuität

Mit softwaredefinierten Infrastrukturen können Unternehmen neue Technologien einführen, ohne auf die Stabilität und Zuverlässigkeit verzichten zu müssen, die sie so dringend benötigen. Darüber hinaus ermöglichen die Infrastrukturen eine überragende Geschäftskontinuität, die es Unternehmen ermöglicht, die mit ungeplanten Ausfallzeiten verbundenen Probleme zu vermeiden.

In gut konzipierten softwaredefinierten Storage-Implementierungen gibt es keine Schwachstellen, und sie bieten dank extrem redundanten Architekturen Zuverlässigkeit und Verfügbarkeit. Die Fähigkeit zur eigenständigen Problembehebung beschränkt die Eingriffe des Storage-Administrators auf ein Minimum und die Anwendungsverfügbarkeit wird maximiert; selbst nach Hardwareausfällen.

Kostensenkungen

IT-Abteilungen stehen unter dem großen Druck, dass sie mit weniger mehr erreichen müssen. Mit wie viel weniger? Laut des zuvor erwähnten Gartner-Berichts gingen die IT-Ausgaben 2016 sogar um 0,3 Prozent zurück. Und auch wenn der Bericht für das Jahr 2017 einen Anstieg der Ausgaben um 2,9 Prozent prognostiziert, reicht dies nicht aus, um die Kosten abzudecken, die durch die im ersten Abschnitt dieses Artikels angeführten Herausforderungen verursacht werden. Glücklicherweise sind softwaredefinierte Infrastrukturen natürliche Wegbereiter für mehr Erfolg bei weniger Aufwand. Mit softwaredefinierten Infrastrukturen kann die IT die betrieblichen Prozesse optimieren und so die Ausgaben des Unternehmens reduzieren. Gut konzipierte Lösungen bieten darüber hinaus eine Reihe von Tools für die automatisierte Verwaltung und Storage-Administration. Dank dieser Tools können Unternehmen ihre Rechenzentren durch die bereits vorhandenen Mitarbeiter verwalten lassen, ohne dass besondere Schulungen erforderlich sind. Dies wiederum führt zu niedrigeren IT-Betriebskosten.

Um die Kosten weiter zu senken, können sich die Unternehmen für flexible Open Source-Lösungen entscheiden, für die neben dem Support keine oder nur geringe Softwareausgaben erforderlich sind und die mit den Produkten zahlreicher Anbieter kompatibel sind. So wird eine kostspielige Herstellerbindung vermieden. Und da die Unternehmen dank softwaredefinierter Infrastrukturen Standardhardware und andere Infrastrukturen nutzen können, die derzeit bereits in ihren Rechenzentren eingesetzt werden, tragen die softwaredefinierten Infrastrukturen auch zu einer Senkung der Investitionsausgaben bei.

Wie hoch sind die Ersparnisse durch die Aufrüstung auf eine softwaredefinierte Infrastruktur? Nimmt man den softwaredefinierten Storage als Beispiel, dann zeigen Studien, dass er zu Einsparungen in Höhe von 30 Prozent im Vergleich mit durchschnittlichen Network Attached Storage-Lösungen und mindestens 50 Prozent im Vergleich mit durchschnittlichen, kapazitätsoptimierten Midrange-Disk-Arrays führt.

SUSE bietet unternehmens­gerechte Open Source-Lösungen

Die Auswahl der Hardware- und Softwarebasis für eine unternehmensgerechte softwaredefinierte Infrastruktur sollte gut durchdacht sein. Schließlich handelt es sich um eine wichtige Entscheidung. Dank Open Source-Lösungen wie SUSE Linux Enterprise Server haben Unternehmen die Freiheit, ihre vorhandenen Investitionen sowohl in physischen als auch virtuellen Systemen einzusetzen. Darüber hinaus erhalten Unternehmen durch die Wahl von Open Source Zugriff auf die schnelleren Innovationen, für die die großen, umfassenden Open Source-Communitys berühmt sind. Und im Fall von SUSE Linux Enterprise Server erhalten die Unternehmen den zusätzlichen Vorteil fachkundiger Tests und eines zuverlässigen Supports.

SUSE Lösungen: Ihre Wahl für die softwaredefinierte Infrastruktur Ihres Unternehmens
Nur ein Open Source-Anbieter der Unternehmensebene wie SUSE ist agil und flexibel genug, um Technologien wie das Open Source-Projekt Docker und Linux-Container zu unterstützen, mit denen Unternehmen schneller Innovationen entwickeln können. Gleichzeitig bieten ihnen derartige Technologien die Stabilität, Skalierbarkeit und Geschäftskontinuität, die sie benötigen – in einem zukunftssicheren Design, das jahrelang Bestand haben wird.

SUSE ist ein Pionier im Bereich der Open Source-Lösungen für Unternehmen. Neben SUSE Linux Enterprise Server bietet SUSE eine breite Palette an Lösungen, mit denen Unternehmen ihre traditionellen Rechenzentren in softwaredefinierte Infrastrukturen verwandeln können, die moderne DevOps-Methoden und Prozesse unterstützen. SUSE OpenStack Cloud weist beispielsweise Rechen-, Storage- und Networking-Ressourcen dynamisch und bedarfsgerecht zu und ermöglicht es mit seinen Self-Service-Zugriffs­möglichkeiten, dass Services und Anwendungen dem Kunden jederzeit dann bereitgestellt werden können, wenn er sie benötigt. SUSE Enterprise Storage basiert auf der Ceph-Technologie, mit der die Kapital- und Betriebsausgaben reduziert werden können, und bietet eine selbstverwaltende Storage-Infrastruktur mit eigenständiger Problembehebung. Und SUSE Manager stellt eine stabile Lösung für die Infrastruktur­verwaltung, die mehrere Linux-Distributionen, Hardwareplattformen und physische, virtuelle und Cloud-Umgebungen unterstützt. Diese Funktionen sind sowohl einzeln als auch gemeinsam eine hervorragende Wahl für Unternehmen, die Innovationen auf den Markt bringen möchten.

Um mehr über die vielen Möglichkeiten zu erfahren, wie mithilfe von SUSE und softwaredefinierten Infrastrukturen die Anforderungen einer digitalen Wirtschaft erfüllt werden können, besuchen Sie https://www.suse.com/solutions/digital-transformation/.

Die vier Dinge, die Unternehmen in Bezug auf Storage am meisten hassen

Von Jason Phippen

Jason Phippen ist Produktmarketing-Leiter für SUSE Enterprise Storage, die neue softwaredefinierte Storage-Lösung von SUSE. Jason verfügt über mehr als 15 Jahre Erfahrung im Produkt- und Lösungsmarketing und war vor seinem Wechsel zu SUSE im Jahr 2014 unter anderem bei VERITAS, Computer Associates und Emulex tätig.

Wenn es darum geht, Geld für das eigene Zuhause auszugeben, denkt man an Dinge, die das Leben erleichtern und schöner machen: den Ausbau der Küche, der es ermöglicht, dass sich an Weihnachten die gesamte Familie (inklusive der Schwiegereltern) an den Tisch setzen kann; das Extra-Schlafzimmer und das angrenzende Bad für mehr Privatsphäre. Diese Art, Geld auszugeben, ist aufregend, da die Ausgaben die Lebensqualität verbessern. Man setzt sich abends mit seinem Lebenspartner zusammen und hat Spaß daran, die Arbeit zu planen. Es gibt jedoch noch eine andere Art von Arbeiten am Haus, die genauso kompliziert und notwendig, aber einfach nicht so zufriedenstellend ist.

Wir reden hier von der unangenehmen Wahrheit, dass das Dach in die Jahre gekommen ist und eine komplette (und teure) Überholung benötigt. Oder es könnte der Boiler der Zentralheizung sein, der seinen Geist aufgegeben hat und Ihnen keine andere Wahl lässt, als teures Geld für einen Austausch hinzublättern. Es ist nicht wirklich überraschend, dass diese Art von Ausgaben unbeliebt ist; es ist „totes“ Geld, dass nichts dazu beiträgt, unser Leben zu verbessern und nur dafür sorgt, dass der Status-Quo beibehalten wird. Auch hier setzt man sich vielleicht mit dem Lebenspartner hier, um die Arbeit zu planen... nur hat man hier kein Glas Wein in der Hand und der erwartungsvolle Blick ist aus den Gesichtern verschwunden.

Wenn es um Verbesserungen im Unternehmen geht, übernehmen die Storage-Ausgaben die Rolle der Dacharbeiten: ganz egal, wie elegant die dahinterstehende Technik ist, lösen sie doch nur selten Glücksgefühle aus. Es handelt sich um „versunkene Kosten"; etwas, das getan werden muss, um das Unternehmen am Laufen zu halten. Daher ist es vermutlich nicht überraschend, dass der Hassfaktor Nr. 1 beim Storage seine Kosten sind. In einer unabhängigen Studie, die Loudhouse für SUSE durchgeführt hat, gaben 80 Prozent der mehr als 1.200 Storage-Entscheidungsträger weltweit die Kosten des Storage als ihre größte Frustrationsquelle an. Niemand möchte dafür Geld ausgeben, aber man muss dafür tief in die Tasche greifen: Storage macht kolossale 7 Prozent der IT-Ausgaben aus.

Gleich an zweiter Stelle folgt mit 74 Prozent die Leistung als Hassfaktor Nr. 2. Es ist schlimm genug, dass der Unternehmens-Hausbesitzer all das Geld für Dinge ausgeben muss, die das Geschäftsergebnis nicht wirklich verbessern. Wenn man dann so viel ausgibt und trotzdem nicht die gewünschte Leistung bekommt, wäre das, als würde man das Dach austauschen, nur um dann herauszufinden, dass es noch immer hineinregnet.

Hassfaktor Nr. 3 ist die Komplexität. Man plant also Arbeiten, die man nicht tun möchte, die nichts zur Zufriedenheit beitragen und findet dann auch noch heraus, dass es harte Arbeit ist. Wirklich harte Arbeit. Sie waren der Ansicht, dass das Dach aus einem Guss bestünde ... nur um dann herauszufinden, dass dies nicht der Fall ist; dass die früheren Besitzer des Hauses mit verschiedenen Dachdeckern gearbeitet haben, die unterschiedliche Materialien einsetzten, die (irgendwie) zusammenpassen. Überall sind Dachrinnen und Rohre, die das Wasser in diese und jene Richtung leiten, anstatt einer gemeinsamen Struktur zu folgen. Um in diesem Durcheinander etwas reparieren zu können, muss alles genau durchdacht werden – wodurch weniger Zeit für interessantere Projekte bleibt.

Den Platz des Hassfaktors Nr. 4 teilen sich die „Unfähigkeit, Innovationen zu unterstützen“ und die „mangelnde Flexibilität“. Irgendwann möchte man dann nämlich doch die Küche ausbauen und wirklich etwas tun, das die Lebensqualität verbessert – bzw. das Geschäftsergebnis Ihres Unternehmens. Wenn man nun aber dieses Ziel vor Augen hat, möchte man nicht, dass der Zustand des Dachs einen daran hindert. Und das kommt leider viel zu oft vor.

Fassen wir es also zusammen: Storage ist zu teuer, liefert nicht die gewünschte und benötigte Leistung, ist absurd komplex und hält uns davon ab, sinnvolle Arbeit zu leisten. Es gibt einige gute Gründe, Storage zu hassen, und noch einige mehr, softwaredefinierten Open Source-Storage zu lieben: niedrigere Kosten, bessere Leistung, geringere Komplexität und mehr Zeit, sich auf Dinge zu konzentrieren, die das Geschäft wirklich verbessern.

SUSE festigt seine Position im As-a-Service-Bereich

Von: Robin Rees

Mit ihrer 20-jährigen Erfahrung ist Robin, die sich auf den Aufbau von Markenbewusstsein und Marktvorlieben für Unternehmens­technologielösungen spezialisiert hat, ein echter Kommunikationsveteran. Ihre Erfahrungen im Agenturumfeld umfassen die Leitung des Microsoft-Analysten­beziehungsteams bei WE Communications und verschiedener Teams für den SAP-Account der Agentur. Die Unternehmens­erfahrungen von Robin sind globale Rollen für Branchengrößen wie Boeing und kleinere Unternehmens­technologie­unternehmen, die ihre Märkte erweitern und neue Produkte veröffentlichen möchten.

SUSE gewinnt Experten hinzu

Der „State of the Cloud Survey“ 2017 von RightScale zufolge führt die Mehrheit der Unternehmen ihre Workloads über die Cloud aus. Diese Erkenntnis bestätigt den strategischen Fokus von SUSE, seine Position in der aus Open Source und softwaredefinierten Infrastrukturen und Anwendungen bestehenden Welt des unternehmens­bezogenen Cloud-Computings stärken zu wollen. Die letzten Schritte von SUSE in Richtung dieses Ziels haben zu bemerkenswerten Fortschritten in den Bereichen „Infrastruktur-as-a-Service“ (IaaS) für Unternehmen und „Plattform-as-a-Service“ (PaaS) geführt. SUSE konnte beispielsweise kürzlich mehrere wichtige IaaS- und PaaS-Akteure von Hewlett Packard Enterprise von seiner Richtung überzeugen. Eine dieser Übernahmen umfasst die OpenStack IaaS-Technologie, eine weitere die Cloud Foundry PaaS-Technologie. Die dritte betrifft ein hochqualifiziertes Team aus OpenStack- und Cloud Foundry-Experten.

Erste Pläne für die OpenStack-Technologien

OpenStack ist prädestiniert dafür, ein wichtiger Innovationstreiber im Bereich der softwaredefinierten Infrastrukturen zu werden, und genau aus diesem Grund hatte SUSE die Gespräche zur Übernahme von OpenStack IaaS-Technologien von HPE begonnen. Den Unternehmenskunden von SUSE werden die Vorteile der erworbenen OpenStack-Technologien zum ersten Mal bewusst werden, wenn sie in die SUSE OpenStack Cloud integriert wurden. Gemeinsam entsteht eine noch stärkere Lösung mit neuen und verbesserten Funktionen, mit denen Unternehmen eine größere Vielfalt an Anwendungsfällen abdecken können.

SUSE ist Platin-Mitglied der OpenStack Foundation, was bedeutet, dass das Unternehmen nicht nur einen Beitrag zur OpenStack-Community, sondern auch zur OpenStack-Software leistet. SUSE wird dies auch in Zukunft tun.

Pläne für PaaS mit Cloud Factory

Cloud Foundry ist für PaaS das, was OpenStack für IaaS ist. SUSE plant, die neu übernommenen Cloud Foundry PaaS-Assets zu nutzen, um eine vollständig zertifizierte, unternehmensgerechte Lösung zu entwickeln und bereitzustellen, die den Eintritt in den PaaS-Markt beschleunigt.

Das Ziel der PaaS-Technologien ist es, DevOps-Teams eine schnellere Entwicklung und Implementierung von Apps zu ermöglichen. Da Web-Apps die bevorzugte Währung in der wachsenden digitalen Wirtschaft sind und Cloud Foundry die branchenführende Open Source-Plattform für PaaS-Implementierungen ist, war der Abschluss dieser Übernahme ein wichtiger Teil der Strategie von SUSE. Die vor kurzem erfolgte Hochstufung von SUSE zum Cloud Foundry Foundation-Platinmitglied unterstreicht den großen Einsatz bei der Bereitstellung von PaaS-Funktionen für alle Kunden und Partner im gesamten Ökosystem. Thomas Di Giacomo, CTO bei SUSE, ist nun Mitglied des Vorstands von Cloud Foundry.

Neue Talente, um alles aus der Übernahme herauszuholen

SUSE hat nicht nur neue Technologien erworben, sondern übernimmt auch mehrere ehemalige Mitarbeiter des Technikteams von HPE: Ingenieure, Produktmanager, System Engineers etc., die über das Wissen und die Erfahrung verfügen, die SUSE benötigt, um seine IaaS- und PaaS-Ziele zu erreichen. Mit ihrer Hilfe wird SUSE seine SUSE OpenStack Cloud-Roadmap stärken und schneller in den PaaS-Markt eintreten.

SUSE hat die neuen Mitarbeiter gleich an dem Tag, an dem das Unternehmen den Abschluss der Übernahme verkündet hat, ins Team aufgenommen, wo sie bereits eng mit den alten Mitarbeitern des Unternehmens zusammenarbeiten.

Eine nicht-exklusive Beziehung basierend auf gegenseitigem Respekt

HPE hat SUSE zu seinem bevorzugten Partner in den Bereichen Linux, OpenStack IaaS und Cloud Foundry PaaS ernannt und wird möglicherweise auch SUSE Technologien für seine Helion OpenStack- und Helion Stacato-Lösungen verwenden. Diese neue, stärkere Beziehung bedeutet, dass die Kunden von HPE von den Investitionen und Innovationen profitieren, die SUSE in die Linux-, OpenStack IaaS- und Cloud Foundry PaaS-Produkte einbringt. Und da diese auf gegenseitigem Respekt basierende Beziehung nicht-exklusiv ist, profitieren auch die bereits vorhandenen und zukünftigen Partner von SUSE (einschließlich der Originalgeräte­hersteller (OEM) und die unabhängigen Hardware-Hersteller (IHV)) davon.

Noch mehr Gewinn

Wie wir bereits in der letzten Ausgabe von SUSE Insider erwähnt haben, hat SUSE vor kurzem auch openATTIC übernommen. Zusammen mit den openATTIC-Experten, die durch den Abschluss zum Team von SUSE dazugestoßen sind, hat diese Übernahme die Position von SUSE im Bereich softwaredefinierter Storage-Lösungen ebenso gefestigt wie es OpenStack und Cloud Foundry in den Bereichen IaaS und PaaS tun. Natürlich kann in SUSE Insider nichts Konkretes über mögliche zukünftige Übernahmen geschrieben werden. Wir können jedoch sagen, dass alle Übernahmen von SUSE vorteilhaft für die Partner und Kunden des Unternehmens und die Open Source-Community als Ganzes sind oder sein werden. SUSE ist, wie man so schön sagt, ein Unternehmen im Wandel.

Sind die Konfigurations­hinweise des YES CERTIFICATION-Bulletins die „Dunkle Seite“ der Hardware-Kompatibilität?

Von: Kay Tate

Kay Tate ist ISV Programs Manager bei SUSE und dafür zuständig, die Unterstützung von SUSE Plattformen durch ISVs und in wichtigen Branchen und Kategorien zu fördern. Sie hat 15 Jahre lang bei IBM Programme für UNIX- und Linux-ISVs entwickelt und umgesetzt und geht dieser Arbeit seit 2009 bei SUSE nach. Zu ihren Verantwortlichkeiten gehören die Verwaltung des SUSE Partner Software Catalog, die Beschaffung vom Vertrieb angeforderter Anwendungen, die Gestaltung von Partnerinitiativen und die Optimierung von SUSE und PartnerNet-Prozessen für ISVs.

Die einfache Antwort lautet „Nein – auf gar keinen Fall!“ Diese eindeutige Aussage stammt von einer Person, die über jahrelange Erfahrung mit YES CERTIFICATION verfügt und nicht von einem Laien, der sich auf einmal wie ein Jedi-Krieger fühlt! Bitte lesen Sie weiter, denn „Furcht ist der Pfad zur Dunklen Seite“ und „schwer zu sehen die Dunkle Seite ist“!

In einem früheren mehrteiligen Blog habe ich ganz detailliert alle Informationen präsentiert, die in einem YES CERTIFICATION-Bulletin enthalten sind. In diesen früheren Einträgen habe ich erklärt, was ein Bulletin enthält; wie man das, was während der Zertifizierungstests bestätigt wird, lesen und interpretieren muss, und wie jeder Bereich des Bulletins dabei helfen kann, die Kompatibilität von bestimmter Hardware zu verstehen. In diesem Blogeintrag tauche ich tiefer ein und liefere detaillierte Informationen über den Config Notes-Bereich von Bulletins. Im Rahmen dieses Prozesses beantworten wir die Frage, ob die Config Notes eines YES CERTIFICATION-Bulletins etwas Schlechtes sind. Der erste Satz hat Ihnen bereits meine Antwort auf die Frage gegeben, aber wie bei einem guten Urlaub macht die Fahrt bereits einen großen Teil des Vergnügens aus.

Aber eins nach dem anderen. Wie Sie bereits wissen, ist der beste Ort für die Suche nach einem YES CERTIFICATION-Hardwarebulletin https://www.suse.com/yessearch/. Meine früheren Blogeinträge mit genauen Infos zu allen Inhalten von YES CERTIFICATION-Bulletins finden Sie unter https://www.suse.com/communities/blog/author/Jackman1/ in meiner vierteiligen Blogserie namens „SUSE YES Certification bulletin exposed“.

Der Config Notes-Bereich in einem Bulletin kann entweder leer sein oder ein oder mehrere Highlights einer zertifizierten Konfiguration enthalten. Er kann erforderliche Behelfslösungen oder Funktionalitäten auflisten, die funktioniert haben (oder auch nicht); und er kann sogar erforderliche Zusätze wie aktualisierte Treiber anführen. Die Config Notes in einem Bulletin enthalten wichtige Informationen, die Ihnen bewusst sein sollten, wenn Sie SUSE Linux Enterprise auf einer bestimmten Hardwareplattform implementieren möchten.

Die Informationen in einer Config Note oder einem Konfigurations­hinweis können von der Installation / dem Booten bis zum Core-Dump (kdump) oder von aktualisierten Kerneltreibern bis hin zu erforderlichen Wartungsupdates reichen. Der Großteil der Konfigurations­hinweise ist rein informativ, d. h. es handelt sich um Dinge, die Sie wissen sollten, wenn Sie SUSE Linux Enterprise auf einer zertifizierten Hardwareplattform installieren und konfigurieren. Sie bieten unter Umständen zusätzliche Informationen dazu, wie die Festplatten während der Zertifizierungstests konfiguriert waren. Eines der größten Wertversprechen der Hardwarezertifizierung ist ihre Fähigkeit, eine Konfiguration, die bewiesenermaßen funktioniert hat, zu erfassen und zu dokumentieren. Diese Aufzeichnungen können dann als Hardware-Einkaufsleitfaden oder Anleitung für die Fehlersuche dienen, wenn es zu einem Problem mit dem System kommen sollte.

Kann es auch passieren, dass ein Zertifizierungs­bulletin keine Konfigurations­hinweise enthält? Ja. Viele Systemzertifzierungen werden ohne Fehler abgeschlossen, und der Zertifizierungs­bulletin enthält eine Vielzahl an Konfigurationsdaten. Wenn Sie aber über einen Bulletin stolpern, der überhaupt KEINE Konfigurations­hinweise enthält, sollten Sie sich meiner Meinung nach fragen, was das zertifizierende Unternehmen (normalerweise der Hardwareanbieter) Ihnen nicht sagen möchte! Aber natürlich ist es auch möglich, dass der Zertifizierungsbulletin alles enthält, was Sie wissen müssen. Denken Sie daran: Eines der Ziele eines Zertifizierungsbulletins ist es, nützliche Hardware-/Betriebssystem­konfigurationsdaten zur Verfügung zu stellen.

Wie bereits oben erwähnt könnten die Konfigurations­hinweise auflisten, wie das Betriebssystem installiert wurde: vielleicht von einer internen DVD (wenn eine interne DVD im Bereich „Tested Configuration“ aufgelistet ist, kann dies ebenfalls ein Hinweis sein), einer virtuellen DVD oder sogar einer per USB angeschlossenen DVD. Der Konfigurations­hinweis kann anzeigen, dass das System von einem PXE (Preboot Execution Environment) über das Netzwerk, mit einem UEFI (Unified Extensible Firmware Interface) Bootloader oder unter Verwendung einer Legacy-Installation installiert wurde. Ein Konfigurations­hinweis kann auflisten, dass ein Installationskit, ein Treiber-Kit oder ein kISO verwendet wurde. (Bei all diesen Angeboten handelt es sich um aktualisierte Installationsmedien, die von SUSE zur Verfügung gestellt werden, um ein bekanntes Problem mit dieser Hardware zu beheben.) Hinweis: Die Probleme, die diese Updates beheben, könnten bahnbrechende neue Hardware mit sich bringen, die es zum Zeitpunkt der ursprünglichen Veröffentlichung des Betriebssystems noch nicht gab.

Ein Konfigurations­hinweis kann angeben, wie viel Speicher erforderlich ist, damit kdump korrekt funktionieren und ein gültiges Crash-Kernel-Image erstellt werden kann (wenn eine Standardeinstellung nicht funktioniert). Er kann darüber informieren, ob während der Zertifizierungstests ein SUSE Linux Enterprise-Wartungsupdate eingesetzt wurde. Dies bedeutet normalerweise, dass für die Hardware ein Betriebssystem-Update erforderlich ist, um mit bestmöglicher Kompatibilität zu funktionieren. Im Hinweis kann auch eine bestimmte Treiberversion aufgeführt sein, die während der Tests installiert wurde.

Die Konfigurations­hinweise listen darüber hinaus die Funktionalität zur Energiekontrolle auf, die von der Hardware unterstützt wird, also Funktionalitäten wie Ruhezustand, Energiesparmodus, Lüftersteuerung, thermische Überwachung, Akku-Unterstützung oder CPU-Frequenzskalierung. Sie können Informationen über eine Behelfslösung für eine bestimmte Energiekontrollfunktion enthalten. Die Versionshinweise können auch erklären, wie man eine Energiekontrollfunktion durch das Bearbeiten einer Konfigurationsdatei oder die Verwendung einer bestimmten Befehlszeile aktivieren kann. Auch können sie eine Änderung der Systemeinstellungen angeben.

Die Konfigurations­hinweise können grundlegende Informationen enthalten, zum Beispiel ob das System als headless-Konfiguration ohne Grafikadapter getestet wurde. Sie könnten eine URL enthalten, die spezifischere Installations­informationen direkt vom Hardware-Hersteller zur Verfügung stellt.

Die letzte Kategorie von Konfigurations­hinweisen, die ich hier besprechen möchte, ist für virtualisierungs­spezifische Zertifizierungen. Es könnte sich dabei um Xen- oder KVM-Zertifizierungen oder eine Hypervisor-Zertifizierung eines Drittanbieters handeln. Diese Konfigurations­hinweise beschäftigen sich normalerweise mit der Einrichtung des Virtualisierungshosts oder den Boot-Parametern. Sie können spezifische SUSE Virtualisier­ungstreiber enthalten, die während der Tests verwendet werden, zum Beispiel das VMDP (Virtual Machine Driver Pack). Des Weiteren könnte ein Konfigurations­hinweis Tipps zur Gastinstallation oder eine Behelfslösung enthalten oder möglicherweise sogar eine Empfehlung zur Installation des Gasts. Ab SUSE Linux Enterprise Server 12 enthalten alle Xen- und KVM-Virtualisierungsbulletins einen Konfigurations­hinweis, der auflistet, ob die Hardware Netzwerk-SR-IOV (Single Root I/O Virtualization) oder Netzwerk-PCI-Pass-Through unterstützt. Wenn eine dieser Funktionen unterstützt wird, wird auch der Netzwerkadapter angegeben, der während der Tests verwendet wurde. Hinweis: SR-IOV und PCI Pass-Through sind Möglichkeiten, wie ein Host-Netzwerkadapter direkt in einem Virtualisierungsgast verwendet werden kann.

In den Konfigurations­hinweisen können auch Aspekte aufgeführt werden, die zwischen der Hardware und dem Betriebssystem nicht kompatibel sind. Derartige Konfigurations­hinweise enthalten Aussagen wie „does not support“ (unterstützt nicht) oder „not supported“ (nicht unterstützt). Aber bei weitem die größte Anzahl an Konfigurations­hinweisen ist rein informativ und trägt dazu bei, die Arbeitsumgebung der Kunden zu verbessern und liefert tiefgründige Informationen zur Kompatibilität von Hardware und Betriebssystem.

Wir hoffen, dass die YES CERTIFICATION und die YES-Bulletins Sie dabei unterstützen, beim Kauf neuer Systeme für Ihre Unternehmens­infrastruktur bessere Entscheidungen zu treffen. Unser Ziel ist es, Ihnen die Fähigkeit zu verleihen, beim Kauf von Servern und Arbeitsstationen zu sagen: „Ich bin eins mit der Macht und die Macht ist mit mir“. Weitere Informationen über die SUSE YES CERTIFICATION finden Sie unter https://www.suse.com/partners/ihv/yes/, oder suchen Sie nach YES CERTIFIED-Hardware unter https://www.suse.com/yessearch/. Oder lesen Sie sich einfach ältere Blogeinträge zur YES Certification durch.