Software Defined Infrastructure – nowe oblicze cyfrowej transformacji

Share
Share

Coraz więcej organizacji włącza software defined infrastructure (SDI) w proces transformacji cyfrowej. Siłą napędową są innowacje open source. Chodzi o łatwiejsze dostosowanie swojego środowiska IT do zmieniających się wymogów biznesowych, obniżanie kosztów utrzymania i rozbudowy oraz unikanie problemów z brakiem swobody wyboru dostawców (vendor lock-in). SDI może wymagać od nas zaprojektowania nowych cloudowych aplikacji, a na pewno pozwala na przeniesienie części danych do platform chmurowych. 

To jednak nie oznacza, że centra danych przestały się już sprawdzać. „Ciągła zmiana jest w biznesie warunkiem koniecznym nie tylko do osiągnięcia sukcesu, ale także po prostu do przetrwania. W starym modelu IT firmy korzystały z serwerów, aplikacji, później przeszły proces wirtualizacji, teraz doszliśmy do czasu, kiedy to SDI zaczyna być bardzo ciekawym i głośnym tematem. SDI to w najprostszym ujęciu zwirtualizowanie wszystkich aspektów serwerowni, czyli nie tylko samych serwerów, ale także pamięci masowych, sieci. To także wirtualizacja na poziomie kontenerów – aby zmienić aplikację z jednego monolitycznego obiektu, jakim była wcześniej, na rozproszone środowisko, które jest bardzo elastyczne i może działać zarówno w serwerowni jak i w chmurze publicznej lub prywatnej. Takie środowisko jest zwinne i dzięki temu łatwo adoptowalne do zmieniających się warunków rynkowych” – wyjaśnia Marcin Madey, dyrektor generalny SUSE w Polsce.

Badanie przeprowadzone przez SUSE pokazuje, że 95% liderów IT uważa, iż SDI jest przyszłością centrów danych. Wiele organizacji już zwirtualizowało i skonsolidowało zasoby w swoich DC. Teraz są gotowe do następnego ważnego kroku w stronę chmury prywatnej – skonwertowania centrów danych w SDI. To pozwala stworzyć szybkie, responsywne, zautomatyzowane, skalowalne i wydajne środowisko IT.

Te działania świetnie wpisują się w strategię skoncentrowaną na przyszłości biznesu i transformacji cyfrowej, która uwzględnia multimodalny świat IT – obejmujący tradycyjne centra danych, SDI i środowiska cloudowe.

Przedstawiony artykuł jest częścią publikacji w ramach cyklu spotkań i programu wymiany wiedzy dla Dyrektorów IT “Platform Evolution”.  Zapraszamy do rejestracji na spotkania w Gdańsku (7 maja), Krakowie (21 maja) i Poznaniu (4 czerwca). 

 

SZYBSZE REAKCJE, NIŻSZE KOSZTY

„Eksperci mówią, że SDI to nasza przyszłość – zarówno sama koncepcja jak i open source, który jest podstawą tego typu rozwiązań. Według analiz firmy Gartner, przedsiębiorstwa, które stosują nowy model w dostarczaniu swoich usług potrafią trzy razy szybciej zakończyć projekty i siedem razy częściej postrzegają swój dział IT jako centrum przychodów, a nie generator kosztów” – podkreśla Marcin Madey. „SDI pozwala nam szybciej reagować na zmieniające się trendy i obniżać koszty, ponieważ nie musimy dedykować określonych zasobów fizycznych do obsługi zadania, tylko możemy pobierać z naszej puli software’owej te zasoby, których w danym momencie potrzebujemy. To pozwala elastycznie reagować na sytuację rynkową. W tradycyjnym modelu jest to nieosiągalne” – dodaje.

Przykładem udanej transformacji może być PLL LOT, który przez wdrożenie rozwiązań SUSE obniżył koszty rozwiązań IT o 50%. Narzędzia, technologie i aplikacje open source są w centrum wielu opowieści o cyfrowej transformacji. Gartner przewiduje, że do 2022 roku ponad 70% nowych aplikacji in-house będzie rozwijanych na bazie open source (OSDBMS) a 50% istniejących jednostek RDBMS (relational database management system) będzie zmienionych. Coraz większy wybór wiarygodnych i dojrzałych możliwości oferowanych przez open source dla dużych przedsiębiorstw, przekonuje nawet najostrożniejsze organizacje do adopcji tej technologii.

Jednym z wyzwań jest dobranie odpowiedniej, najlepiej pasującej do modelu biznesowego organizacji, technologii open source.

OTWARTY KOD TO ZA MAŁO 

„Samo oprogramowanie open source jest bezpłatne, ale koszt stanowi jego wsparcie. Często niektóre działy IT chcą utrzymywać otwarte oprogramowanie samodzielnie i zatrudniają do tego pracowników. Jednak w świecie open source są tysiące projektów, trzeba je przejrzeć, sprawdzić, czy będą działały biblioteki, moduły, dograć zgodność ze sprzętem, żeby dostarczyć klientowi rozwiązanie, które będzie na pewno działało i to stabilne – w biznesie nie ma miejsca na eksperymentowanie. Jednocześnie mamy presję na płace w działach IT, duże koszty szkoleń i rotację pracowników. To powoduje, że koszt stworzenia i utrzymania działu, który mógłby wspierać takie rozwiązanie, jest wielokrotnie wyższy, niż taka sama usługa od komercyjnego dostawcy” – tłumaczy Marcin Madey.

Istotnym elementem jest też uniknięcie problemów z vendor lock-in, który jest częstym zjawiskiem i może zdarzyć się także w przypadku korzystania z rozwiązań open source. „Często nazywamy SUSE open, open source company – pozwalamy żeby klient mógł dokładnie wybrać to, czego potrzebuje. My wspieramy nasze fragmenty rozwiązania niezależnie od tego, kto inny jeszcze będzie w tej układance. Dopiero tego typu rozwiązania umożliwiają uniknięcie sytuacji vendor lock-in” – podkreśla Marcin Madey.

OPEN SOURCE NA RATUNEK

Już teraz mamy do czynienia prawdziwą eksplozji danych. Niektóre szacunki sugerują, że do 2025 r. będziemy musieli przechowywać, zarządzać, analizować i chronić ponad 163 ZB (zettabajtów)  porządkowanych i nieustrukturyzowanych danych. Wzrost danych jest napędzany przez nowe technologie, które otwierają przed nami nowe możliwości biznesowe.

Obecnie panuje powszechna zgoda co do tego, że tradycyjne, sprzętowe systemy pamięci masowej są po prostu zbyt sztywne i kosztowne, aby dotrzymać kroku temu tempu wzrostu danych. Ratunkiem jest obranie kursu na pamięci masowe zdefiniowane oprogramowaniem (SDS) i nowe rozwiązania open source takie jak Ceph. Dzięki nim nie jest już potrzebny drogi, zastrzeżony sprzęt, a zamiast niego można używać zwykłych, niedrogich serwerów. Ceph zapewnia elastyczność i praktycznie nieograniczoną skalowalność pamięci masowej radykalnie obniżając koszty kapitałowe i operacyjne.

PRZYSZŁOŚĆ W KONTENERACH

Według Gartnera, do 2020 r. ponad połowa światowych organizacji będzie korzystała ze skonteneryzowanych aplikacji. Kontenery przenoszą wirtualizację na wyższy poziom wydajności. Są szybkie i łatwe we wprowadzeniu, dynamicznie skalowalne, stabilne i nie konsumują dużych zasobów. To świetna metoda zarówno na modernizację posiadanych już przez firmę aplikacji jak i zaprojektowanie nowych aplikacji „cloud-native” dla chmury prywatnej, publicznej czy hybrydowej.

Scenariusze transformacji infrastruktury

  1. Centra danych mogą ulec transformacji dzięki zmianie na bardzo elastyczne środowiska w chmurze prywatnej, które umożliwiają szybki dostęp do usług i zasobów IT. Przykładem
    takiego działania jest fabryka BMW 10 i ZF Friedrichshafen. Wykorzystano tu OpenStack do zbudowania SDI i Ceph do sprostania wyzwaniom związanym ze wzrostem ilości danych. Pozwoliło to na znaczące przyspieszenie części procesów – z dni do minut. Jest to sposób na przyspieszenie wprowadzania innowacji – w tym przypadku rozwoju autonomicznych pojazdów, systemów IoT i zaawansowanych rozwiązań do zarządzania. Zautomatyzowane, samoobsługowe centra danych uwalniają czas wysoko wyspecjalizowanych pracowników, zespoły mogą się skoncentrować na przynoszeniu prawdziwej wartości biznesowej, podnoszą wydajność, redukują zjawisko shadow IT, utrzymują wysoki poziom bezpieczeństwa w organizacji.
  2. Drugi przykład to zrewolucjonizowanie systemów IT przez modernizację aplikacji. Zasada “if it isn’t broken, don’t fix it” może się wydawać logiczna dla wielu organizacji. Jeśli jakaś aplikacja ma fundamentalne znaczenie dla biznesu i działa, istnieje pokusa aby zostawić ją w spokoju. Jednak zmiana może zostać wymuszona przez starzenie się sprzętu lub oprogramowania. Często jednak korzyści z wymiany aplikacji okazują się zbyt oczywiste i znaczące, żeby nie wziąć ich pod uwagę. Świetną ilustracją jest firma Smartodds, przykład nowoczesnego biznesu, który musi szybko się zmieniać, aby wyprzedzać konkurencję. Firma wdrożyła kontenery, procesy DevOps i zasadę Continuous Integration/ Continuous Deployment, jednocześnie kładąc silny akcent na bezpieczeństwo, wysoką dostępność i płynne działanie. Najważniejsze wykorzystane technologie to Linux i Kubernetes.
  3. Trzecią metodą modernizacji jest automatyzacja  i orkiestracja procesów IT, tak aby były powtarzalne, spójne i spełniały wyśrubowane standardy korporacyjnego IT i bezpieczeństwa. Jest to możliwe dzięki zbudowaniu matrycy systemu operacyjnego, który integruje wewnętrzną politykę bezpieczeństwa i automatycznie przenosi ją na wszystkie serwery. Operacje IT mogą być optymalizowane przez automatyczne zarządzanie aktualizacjami. Monitorowanie wszystkich zmian w infrastrukturze opartej na Linuksie, pozwala biznesowi na lepsze spełnianie wymogów bezpieczeństwa i łatwiejsze raportowanie. To podejście sprawdziło się w firmie Lenovo. Dzięki wyselekcjonowaniu odpowiedniej platformy Linux i wdrożeniu rozwiązań do automatyzacji, Lenovo było w stanie zmniejszyć obciążenie pracy administratorów o połowę i zarządzać tysiącem instancji Linuksa. Udało się także zwiększyć szybkość wykrywania i eliminowania przypadków naruszenia zasad bezpieczeństwa.

 

Share
(Visited 11 times, 1 visits today)

Leave a Reply

Your email address will not be published. Required fields are marked *

No comments yet

Avatar photo
2,555 views
Rafal Kruschewski Marketing Manager, SUSE Poland