Chmura publiczna czy własne zasoby IT? A może to i to, czyli hybryda?

Chmura publiczna czy własne zasoby IT? A może to i to, czyli hybryda?

Prędzej czy później każdy stanie w obliczu wyboru – wynajmować czy kupować. Ciekawe, że decyzje zwykle zapadają w oparciu o różne obliczenia. Pytanie tylko, czy całkowity koszt posiadania (TCO) powinien być jedynym kryterium wyboru? Poza tym, czy aby na pewno dobrze porównujemy koszty, a więc czy porównujemy „jabłka do jabłek”? Na koniec, czym jest właściwie hybryda w przypadku chmury?

Decyzja o tym co wybrać, zawsze zależna powinna być od kontekstu, czyli od zadań jakie stawiamy przed systemami IT. Przykładowo, jeśli priorytetem jest szybki dostęp do bazy danych lub aplikacji dla potrzeb dużego zespołu lokalnego, a architektura rozwiązania jest sprzed kilku lat (najczęściej klient-serwer), wówczas trzymanie serwerów w siedzibie firmy ma uzasadnienie. Inaczej jest w przypadku zastosowań Internetowych. Jeśli do naszych systemów mają sięgać rozproszeni terytorialnie pracownicy, klienci albo partnerzy. Jeśli metodą dostępu będzie przeglądarka internetowa lub aplikacja na smartfona, wówczas umiejscowienie serwerów czy też wirtualnych maszyn w centrum danych operatora, jest lepszym rozwiązaniem.

Porównanie TCO, to następny krok. Dlaczego chmura publiczna w arkuszu kalkulacyjnym kosztuje więcej niż własne zasoby IT? W tym miejscu zazwyczaj umyka nam, że chmura publiczna to cały szereg składowych. Nie pamiętamy o nich, bo nie przypisujemy ich do operacji IT. Porównując TCO, uwzględnijmy zatem następujące koszty:

  1. zaangażowanego kapitału (inwestycja);
  2. utrzymania, konserwacji i napraw sprzętu sieciowego i serwerowego;
  3. licencji oraz opłat utrzymaniowych;
  4. pracy własnego zespołu lub usług obcych związanych z utrzymaniem sprzętu oraz administracji warstwą wirtualizacji czy systemów operacyjnych;
  5. utrzymania serwerowni, w tym:
  • utrzymanie, konserwacje i naprawy systemu zasilania awaryjnego,
  • konserwacje i naprawy klimatyzacji,
  • zużycie energii elektrycznej przez sprzęt IT oraz urządzenia infrastruktury serwerowni,
  • ubezpieczenie majątku.

A co z gdyby połączyć jedno z drugim? Czyli, nadal utrzymywać trochę zasobów informatycznych u siebie lokalnie, szczególnie tych do których dostęp musi być bardzo szybki. Równolegle korzystać z wybranych usług chmury publicznej, np.: w zakresie ciągłości działania (DRaaS, BaaS), czy kolokacji albo najmu wirtualnych serwerów (IaaS)? Jak się okazuje, to częsta praktyka, która być może stanie się standardem. Zgodnie z definicją, to chmura hybrydowa, czyli połączenie własnego środowiska informatycznego (serwerów) z chmurą publiczną usługodawcy.

Internet dla firm vs Internet dla konsumenta?

Internet dla firm vs Internet dla konsumenta?

W domu mam Internet 100/10 Mbps od dostawcy telewizji kablowej, za 50 zł brutto miesięcznie. Dlaczego nie mógłbym powtórzyć tego w firmie? To pytanie zadaje sobie z pewnością nie jeden menadżer. Cena za Internet dla firm jest często wyższa o kilkaset złotych od Internetu dla rynku konsumenckiego, przy wydawałoby się podobnych parametrach. Otóż właśnie, które parametry są podobne – prędkość, a może typ usługi?  A co z resztą? Żeby to ustalić porównam najważniejsze parametry usługi i jej niezawodność.

Od razu do konkretów, czyli tabelka i skrótowe omówienie najważniejszych elementów.

 Internet B2C vs B2B
Zestawienie w tabeli na podstawie dwóch umów operatorów B2C oraz trzech umów B2B.
  • Nadsubskrypcja, czyli ile jest Internetu w Internecie. Otóż, Internet konsumencki (B2C) to z reguły usługa, w której operator zakłada rzeczywiste zużycie mniejsze od nominalnego. W efekcie, wielu klientów, którzy kupują 100Mbps transferu nie ma gwarancji, że subskrybowana prędkość będzie ciągle zapewniona. Wystarczy zerknąć do umowy, by się o tym przekonać. Gwarantowana przepływność to zwykle przedział 50-75% nominalnej. Oferta dla firm (B2B) to już inna liga. Nie ma tam overbookingu, czyli nie zdarza się sytuacja, że chętnych jest więcej niż zasobów.
  • Gwarantowana dostępność i czas usunięcia awarii, czyli element SLA. Czy są jeszcze firmy, które mogą obyć się bez Internetu przez 2-3 dni? A czy świadomość tego, że mamy do czynienia z usługą, którą zaprojektowano tak, że 36 dni w roku może być niedostępną, z powodu planowanych prac konserwacyjnych czy modernizacji i każdego innego ważnego powodu, podanego przez operatora?
  • Rodzaj łącza. Jeśli Internet ma różne prędkości wysyłania i pobierania to jest to usługa konsumencka. Dla biznesu, który chce udostępniać swoje zasoby firmowe pracownikom mobilnym, albo udostępniać serwer pocztowy, prędkość wysyłania jest równie ważna, co pobierania.
  • Skalowalność, czyli na ile większą przepływność łącza możemy liczyć od dostawcy, gdy nasza organizacja urośnie. Na ten moment, mój domowy Internet mogę powiększyć do 150/15Mbps. Barierą jest technologia kablowa.

Na koniec. Korzystajmy z usług monitorowania usługi dostępu do Internetu. Wiele serwisów jest za darmo, a dostarczą nam argumentów do rozmów o SLA (przykład: UptimeRobot)

Zachęcam także do lektury: Ile wytrzyma biznes bez Internetu?

Ochrona przed ransomware i ściemą dostawców

Ochrona przed ransomware i ściemą dostawców

Ataki NotPetya, WannaCry i inne, to oprócz strat finansowych dla wielu organizacji, także doskonała okazja do zarobku dla innych, i nie piszę bynajmniej o autorach ataków. Panika i strach klientów to sterydy dla handlowców i łowców leadów z branży. Szczególnie Ci drudzy prześcigają się w pomysłach, jak złapać naiwnego klienta. Każdy, kto wgryzł się w problem cyberataków wie, że skuteczna ochrona przed ransomware wymaga holistycznego podejścia do bezpieczeństwa. Pośpiech i brak doświadczenia w tym przypadku, to prosta droga do chybionych inwestycji.

Renomowane firmy z zakresu bezpieczeństwa czy tuzy od backupu i ciągłości działania, nie wypisują na swoich blogach czy w mailach do klientów, że mają oto produkt, który ochroni przed ransomware czy atakiem niszczącym, typu wiper. Dlaczego? Bo nie ma takiego produktu! Nawet spece od bezpieczeństwa z banków mają świadomość swojej bezradności wobec „czynnika ludzkiego”, i mimo, że stać ich na najlepsze technologie IT, to jednak padają ofiarą tak jak inni. Użytkownicy, przez ciekawość, głupotę czy nieuwagę, potrafią otworzyć maleńka furtkę, którą do firmowanego środowiska sieciowego dostaje się pustosząca siła. Pamiętajmy, że siłę tę napędzają pomysły oraz kod speców z trzyliterowych instytucji zza oceanu, który dostaje się w niepowołane ręce. Wówczas z narzędzia szpiegowskiego przekształcany jest w maszynkę do zarabiania bitcoin’ów.

Skoro dotkliwą lekcję odebrali także najwięksi, nie ma co wierzyć złotoustym handlowcom, co to mają już rozwiązanie na wszelkie nasze problemy. Chrońmy się sami, ale z głową, szacując ryzyka i podejmując decyzje na podstawie dokładnej analizy dostępnych rozwiązań. Warto sięgać po przykłady, dobre praktyki, np. ITIL. Pamiętajmy też, że bezpieczeństwo to proces, a nie produkt. Na koniec, testujmy. Szczególnie gdy jest taka możliwość, sprawdzajmy oferowaną technologię, bo wtedy właśnie wychodzą wszelkie, wydawałoby się, mało istotne „drobiazgi”.

Jak się zabezpieczyć przed atakiem typu ransmoware czy wiper? Mamy większe szanse gdy:

  • Aktualizujemy automatycznie systemy operacyjne serwerów i stacji roboczych;
  • Stosujemy systemy antywirusowe;
  • Posiadamy firewall następnej generacji, czyli taki, który rozumie warstwę aplikacji;
  • Robimy kopie zapasowe, które utrzymujemy poza siedzibą firmy i replikujemy obrazy serwerów, ale często (co 5-15 minut). To często nasza ostatnia deska ratunku!

Czy kopia zapasowa w chmurze ochroni przed ransomware?

Czy kopia zapasowa w chmurze ochroni przed ransomware?

Backup, czyli kopia zapasowa to nie profilaktyka czy leczenie, lecz „drugie życie” w sytuacji gdy „pacjent jednak zmarł”. Posiadanie zapasowej kopii danych, albo lepiej danych i systemu, zabezpieczy nas przed rezultatami ataku WannaCry lub innych szyfrujących wirusów, natomiast nie ochroni przed infekcją. Co oznacza, że będziemy musieli przejść chorobę i leczenie. Jednak to od nas zależy, ile będzie trwała nasza absencja.

Ostatnie dni obfitowały w negatywne emocje. Z kim bym nie rozmawiał, każdy zna jakiegoś nieszczęśnika lub sam padł ofiarą WannaCry. Epidemia nie ominęła nawet komputerów specjalistów IT. Zapytacie, jak to? Ano, bo przecież spec wie lepiej, że nie jest mu potrzebna aktualizacja, do której akurat bezczelnie namawia go system. Ze środowiskami serwerowymi jest inaczej, tam wiele dzieje się automatycznie i mniej jest brawury. Poza tym, zasoby centralne są zwykle lepiej bronione, a w wielu przypadkach utwardzone, poprzez wyłączenie „usług”, których system nie używa. Oprócz stacji roboczych, na atak podatne były także urządzenia z Windows XP. Swoją drogą, okazało się jak wiele ważnych funkcji pełnią sprzęty, które wykorzystują system pozbawiony wsparcia Microsoftu.

WannaCry i wiele wcześniejszych ataków/wirusów, to dowód na to, jak ważne jest „bycie aktualnym”. Przecież wszyscy jesteśmy w sieci! Nie lubię Windows10, bo decyduje za mnie kiedy ściągać, a co gorsza uruchamiać poprawki. Każda aktualizacja niesie ze sobą zwykle kilka niespodzianek i ryzyko, że coś przestanie działać. Jednak rozumiem ideę i choć wykonanie cały czas pozostawia wiele do życzenia, akceptuję. Jesteśmy leniwi, wybaczcie proszę uogólnienie. Często zapominamy, mamy problemy z dyscypliną i zwykle jesteśmy mądrzy po szkodzie. Dlatego dostawcy prześcigają się w rozwiązaniach zdejmujących nam ten problem z głowy.

Wracając do informatycznego drugiego życia. Czy korzystacie z narzędzi do robienia backup’u dostarczanych przez producentów komputerów czy systemów operacyjnych? Warto, bo mamy je w cenie licencji. Jednak aby o kopiach nie trzeba było myśleć, podobnie jak o działaniu programu antywirusowego, proponuję sięgnięcie po dedykowane aplikacje chmurowe. Wygodne, łatwe w użytkowaniu i dostarczane jako usług (BaaS). Ciągłość działania w organizacji to nie tylko pracujące nieustannie serwery centralne, ale także stacje robocze pracowników.

„Chmura” prywatna po Polsku

„Chmura” prywatna po Polsku

40 lat w komunizmie wpływa na nasze decyzje biznesowe. Panuje powszechne przekonanie, że gdy zasoby obsługujące aplikacje biznesowe mamy „pod ręką”, jesteśmy bezpieczni. Taka postawa klientów wpływa rzecz jasna na oferty operatorów centrów danych. W efekcie, chmura prywatna to najczęściej środowisko serwerowe, dedykowane dla konkretnego klienta. Jest prywatnie? No jasne, ale czy to jest chmura?

Na pytanie, czym jest chmura, każdy odpowie inaczej (artykuł Mirka Brunejko). Myślę, że zasadniej będzie napisać o jej najważniejszych cechach, a są to: skalowalność, wysoka dostępność, efektywność kosztowa i jednolity interfejs do wszystkich usług oraz architektura nastawiona na usługi, uff. Na koniec, nie można mówić o chmurze, gdy brakuje automatyki w zakresie rozliczeń. Wszystko musi się zliczać „samo”, a klient, musi mieć możliwość uruchomienia usług zdalnie za pomocą karty kredytowej. No dobrze, a teraz chmura prywatna, cóż to jest? Przyjmuje się, że to chmura, która została zbudowana przez firmę na jej wewnętrzne potrzeby.

Wracam do naszego polskiego parcia na posiadanie, na które odpowiedzią są tzw. „dedyki”. Infrastruktura dedykowana, to wynajem sprzętu i kolokacja w wykonaniu centrum danych. Co zyskujemy jako klient? Nie angażujemy własnego kapitału i upraszczamy księgowanie. Podobne jak w leasingu, z tym, że nie musimy mieć zdolności kredytowej ani zabezpieczeń, miło :). Podpisujemy umowę na czas określony z usługodawcą i mamy do dyspozycji sprzęt, w dodatku umieszczony w profesjonalnym centrum danych.

Pamiętajmy jednak, że taka usługa ma swoje ograniczenia. Rezerwowane dla nas środowisko IT skalować się będzie tylko do maksymalnych możliwości wynajmowanych urządzeń. Co prawda, istnieje możliwość dodania nowych serwerów, dysków, itd., ale nie ma szans na zwiększenie o 100% mocy obliczeniowej z dnia na dzień. Nie ma też rozliczania za zużycie. No właśnie, a co gdy nasz apetyt osłabnie? Niestety, będzie trudno wynegocjować obniżenie ceny, bo przecież usługodawca musi zamortyzować inwestycję.

Czy infrastruktura dedykowana ma cechy chmury? Nie. Przed wszystkim architektura rozwiązania nie jest nastawiona na świadczenie usług. Dostajemy przecież serwery, „kawałek” macierzy i wirtualizator, który dzieli nam logicznie cały zasób. Usługodawcy zwykle udostępniają nam też interfejs www, ale nie ma tu nawet procenta funkcjonalności AWS czy Azure.

Ile wytrzyma biznes bez Internetu?

Ile wytrzyma biznes bez Internetu?

Zapewniam, że bardzo krótko. Firmy badawcze podają, że już godzinne odcięcie to dla 50% firm w Europie straty zauważalne. Czy u nas jest inaczej? Raczej nie, to dlaczego tak mało przedsiębiorstw w Polsce posiada łącze zapasowe? Polaku, tnij koszty, ale we właściwych miejscach! Dostęp do Internetu ma obecnie wyższy priorytet niż telefon. Nie ma się co dziwić, aplikacje mnożą się jak bakterie, a każda z nich do życia potrzebuje sieci.

Przypowieść z życia wzięta, niestety typowa. Firma usługowa, dla której komunikacja z otoczeniem to podstawa. Koparka rozkopuje kanalizację wtórną (to ta rura w ziemi, w którą wkłada się kable) i przecina światłowody oraz przyłącza miedziane. W efekcie kilka firm traci telefony i zostaje bez Internetu. Czy da się zapobiec takiemu zdarzeniu? Wątpię. Za to, da się zabezpieczyć organizację przed całkowitą utratą łączności. Ruch telefoniczny i tak migruje na komórki, ale czy z komórek mamy wchodzić do sieci, gdy biznes zostaje bez Internetu? Oczywiście, to byłaby solidna dziura w bezpieczeństwie.

Jeśli dublujesz łącze, rób to z głową. Jaki sens mają dwa łącza od tego samego operatora? Albo, po co dwóch operatorów, z których każdy wchodzi do budynku tym samym światłowodem. Redundancja łącza, aby była rzeczywistą, winna zostać zrealizowana przez dwóch niezależnych dostawców w oparciu o różne media transmisji, czyli na przykład radio i światłowód. Jednocześnie, usługi nie mogą być obsługiwane przez pojedyncze urządzenie. Z tego powstaje wzór łatwy do zapamiętania: 2-2-2, czyli dwóch dostawców, dwa media i dwa urządzenia. Trzymajcie się tego a Internetu Wam nie zabraknie 😉

Oferty w zakresie łącza zapasowego są od zawsze, a teraz w dodatku operatorzy radiowi, zdywersyfikowali usługi. Bez problemu możemy nabyć łącze radiowe, przy którym płacimy za tzw. port i za ruch. Gdy łącze jest bezczynne mamy niewielką stałą opłatę abonamentową. Prawda, że pięknie!? Niektórzy operatorzy tworzą też oferty od razu uwzględniające zapas, np. w oparciu o LTE/3G. Uważajcie jednak aby na końcu były dwa a nie jedno urządzenie (reguła 2-2-2), dostawca zwykle chce zaoszczędzić. Poza tym jeśli macie zespół większy niż 10 osób, to współdzielenie dostępu komórkowego będzie bardzo mało komfortowe.

Cena dostępności, czyli ile kosztuje DRaaS?

Cena dostępności, czyli ile kosztuje DRaaS?

Pytanie o cenę DRaaS pada najczęściej od razu, „bez gry wstępnej”. Niestety, aby odpowiedzieć, potrzebujemy zmiennych. W tym krótkim artykule zastosuję zatem fortel i sam wymyślę parametry usługi. Innymi słowy, na podstawie serii założeń stworzę przykładową ofertę. W efekcie pokażę, ile kosztuje DRaaS w Polsce.

Najpierw trochę teorii. DRaaS ma trzy stany: gotowości, tryb awaryjny (failover), powrót po awarii (failback). Piszę o tym, bo dwa pierwsze stany kształtują cenę usługi. W trybie gotowości zachodzi stałe replikowanie serwerów, danych i ustawień do centrum danych usługodawcy. To bardzo ważna część zadania i mamy jej konsekwencje w wycenie. Wartość usługi musi uwzględnić: transmisję, składowanie danych oraz tzw. stos technologiczny obsługujący te procesy. W trybie awaryjnym, nasze środowisko IT uruchamiane zostaje u dostawcy DRaaS. Wówczas pojawiają się dodatkowe zmienne, gdyż to, co dotąd było tylko „uśpioną” repliką, staje się pełnowartościowym serwerem. Uruchomienie tych maszyn powoduje, że dostawca zechce rozliczyć się z nami z zaangażowanej mocy obliczeniowej oraz będzie musiał uiścić stosowne opłaty licencyjne, np. do Microsoft.

Pozostaje jeszcze ważny parametr czasu. Przed uruchomieniem DRaaS trzeba zdecydować jakiej długości przestój w następstwie poważnej awarii jesteśmy w stanie zaakceptować – to tzw. RTO (Recovery Time Objective). Niestety, musimy też od razu przyjąć z jaką utratą danych możemy się pogodzić, czyli niejako, o ile cofniemy się w czasie, gdy nasze serwery i dane ulegną zniszczeniu – mowa o RPO (Recovery Point Objective). Uwaga, jeśli Twoja organizacja nie może zaakceptować jakiejkolwiek utraty danych, potrzebna jest wyższa półka rozwiązań i na mój nos, nie ma innej drogi niż zdublowanie zasobów informatycznych.

Dobra, a teraz mięsko 😊. Firma XYZ posiada następujące zasoby informatyczne:

Zestawienie zasobów krytycznych do wyceny DRaaS w Polsce

Przy takim środowisku, miesięczna wartość abonamentu za DRaaS dla RPO/RTO 15 min, wynosi 1430 zł netto. Jeśli wymagane będzie przełączenie w tryb awaryjny, wówczas poniesiemy dodatkowy koszt 4737 zł (za 30 dni). Ciekawostka, jeśli tryb failover zdarzy się nie częściej niż raz na kwartał, a czas przełączenia nie przekroczy 10 dni, koszt spadnie do 1 100 zł netto (u rzetelnych dostawców). Czy to drogo, czy tanio? To zależy od kosztu przestoju.

Nie ma świętości Panie i Panowie. Awaria nie zaczeka!

Nie ma świętości Panie i Panowie. Awaria nie zaczeka!

Prędzej czy później każdy sprzęt zawiedzie. Dlaczego? Bo steruje nim napisane przez ludzi oprogramowanie. Może to trochę obrazoburcze, ale w tej kwestii trudno będzie mnie przekonać. Tempo zmian jest już tak duże, że wyprodukowanie aplikacji bez błędów graniczy z cudem. Pośpiech jest, jak wiadomo, zabójcą dokładności. Jeśli dodać do tego, stale rosnącą liczbę funkcji, i że teraz „każdy może programować”, to przyszłość w kontekście niezawodności jawi się w czarnych barwach. Spoko, jest i na to rada, ale pamiętajcie, awaria nie zaczeka na człowieka!

Zawsze trafiam na najtrudniejsze przypadki. Zawieszony iPhone tak, że trzeba cierpliwie czekać aż bateria się wyczerpie, router sieci domowej, który nie wiedzieć czemu „przyjmuje” tylko połączenia wifi ze smartfonów, a na koniec zawieszający się Polar V800 właśnie wtedy gdy zaczynam trening, grrr! W rezultacie myślę, że gdy ja dzwonię na help-desk techniczny producenta lub dostawcy usług, to wszyscy w tym momencie biegną schronić się do toalety 😉 Tradycyjnie mój przypadek jest nikomu nieznany, a przez to pomoc nigdy nie nadchodzi. Zwykle muszę sam, metodą prób i błędów, zdiagnozować problem i zapanować nad trudną materią. Kosztuje mnie to sporo czasu i nerwów, ale przez to już dawno pogodziłem się z faktem, że nie ma rzeczy/systemów bezawaryjnych. I jeszcze jedno, tak samo jak zakup drogiego auta leczy z przeświadczenia, że drogie i markowe się nie psuje, tak samo powinno myśleć się o swojej własnej serwerowni. Czyż nie?

W dodatku, wszystko zaczyna komunikować się ze sobą nawzajem, a to, plus wszechobecne bezpieczeństwo, jeszcze powiększa złożoność serwowanych nam ekosystemów informatycznych.

Zawsze hołduję nadmiarowości i namawiam Was do tego by, planując zasoby IT, zarówno własne jak i chmurowe, pamiętać o redundancji. Poza tym biznesowo, dla procesów krytycznych musi być wcześniej opracowana „ścieżka awaryjna”. Chcesz działać mimo awarii, przygotuj się na to zawczasu. Nie licz na inteligencję swojej organizacji i że jakoś to będzie. Gdy coś się wydarzy nie będzie czasu na wymyślanie, wtedy trzeba szybo działać by minimalizować przestój.

Zachęcam do zapoznania się z tekstem: „Czy mojej firmie potrzebne jest zapasowe centrum danych (w domyśle – DraaS)?