Nie ma wątpliwości, że jedną z najważniejszych decyzji towarzyszących budowie centrum danych jest wybór lokalizacji. Dostęp do sieci i koszty energii elektrycznej, łączność, bezpieczeństwo, warunki pogodowe i topografi czne – to wszystko składa się na decyzję o zlokalizowaniu serwerowni. Dlaczego w takim razie ktokolwiek chciałby budować centrum danych w opuszczonej kopalni węgla, głęboko we wnętrzu góry lub na środku pustyni?
Wstęp
Gigantyczny wzrost ruchu cyfrowego (informacyjnego) w Internecie jest niezaprzeczalnym faktem. Raport opracowany w 1994 r. przez Komisję Bangemanna pt. "Europa a globalne społeczeństwo informacyjne. Zalecenia dla Komisji Europejskiej" prognozował, że: "…kraje, które pierwsze wejdą w erę społeczeństwa informacyjnego będą rozwijać się najszybciej. To one wyznaczą drogę dla innych. Natomiast te kraje, które będą zwlekać, lub podejmą działania połowiczne, mogą w czasie krótszym od dziesięciolecia stanąć w obliczu załamania się inwestycji i kryzysu na rynku pracy". Prognozowane w raporcie zmiany właśnie dzieją się wokół nas a skala oraz proces zmian z roku na rok przyspieszają.
Kiedy społeczeństwo można nazwać „społeczeństwem cyfrowym”? Odpowiedź nie jest prosta, lecz można założyć, że linią graniczną jest osiągnięcie stopnia rozwoju procesów społecznych i gospodarczych wymuszających powszechne zastosowanie technik gromadzenia, przetwarzania, przekazywania i użytkowania olbrzymiej masy informacji generowanej przez owe procesy, a znaczna część dochodu narodowego brutto jest generowana dzięki zastosowaniu procesów informatycznych. W dzisiejszym świecie szybkość i ilość przetwarzania informacji są kluczowe dla osiągania wydajności i konkurencyjności, a także warunkują rozwój społeczny i przyrost zatrudnienia wpływając na zmianę formy organizacji pracy i wzory życia społecznego. Można zaryzykować twierdzenie, że wiele społeczeństw na świecie stały się już w znacznym stopniu „cyfrowe”.
Zauważalnie z roku na rok rośnie liczba użytkowników Internetu korzystających z coraz większej ilości usług biznesowych lub usług on-line, w tym cyfrowej administracji publicznej a produkcja i dystrybucja wszelkich produktów ściśle zależy od automatyzacji i informatyzacji. W roku 2014 ilość danych w ruchu cyfrowym rejestrowane przez dwa dowolne kolejne dni można było przyrównać z całym dorobkiem informacyjnym naszej cywilizacji wygenerowanym od jej początków do roku 2003 włącznie. Do roku 2020 ilość danych zgromadzonych przez ludzkość wzrośnie 10 krotnie i osiągnie niewyobrażalną wielkość około 44 ZB (1 ZB = 1021 bitów = 1 trylion gigabitów). Co ważniejsze, nastąpi wzrost użytecznych danych (takich, które są oznaczone i analizowane) z obecnych 22% do 35% w roku 2020. Nie tylko my się zmieniamy jako społeczeństwo. Dla wielu firm, to my staliśmy się obiektami generującymi dane do analizy zachowań jako jednostki społeczności oraz jako konsumenci. Wkroczyliśmy zatem w erę „BIG DATA”.
Stale rośnie wielkość ruchu informatycznego w warstwie fizycznej i aplikacyjnej Internetu oraz masowo rośnie ilość rejestrowanych danych, przepustowości oraz moc obliczeniowa serwerów zarówno „własnych” dowolnego przedsiębiorstwa czy też kolokowanych w serwerowniach kolokacyjnych jak i w tzw. „chmurze”. Obecnie zarejestrowanych jest już ponad 2 miliardy użytkowników Internetu, ponad 21 miliardów urządzeń sieciowych, które dla zobrazowania samej skali obciążenia sieci, rejestrują ponad 1.3 milionów strumieni video na minutę. Należy również zauważyć ciągły wyścig technologiczny, jako że aplikacje wymagają coraz większej przepustowości, co jest związane z nowymi rodzajami usług (HDV-3D, gry on-line, Video-Calls, analiza obrazu, analiza głosu, itp.) oraz stale zwiększa się ilość urządzeń „smart” korzystających z zasobów Internetu on-line do rozrywki, zakupów, lokalizacji, rezerwacji, poczty…... Obserwuje się także stały wzrost ruchu cyfrowego związanego z tzw. Internetem rzeczy (IoT). Dla przykładu, średnio, godzina lotu samolotu pasażerskiego generuje 40TB danych / lot / godzinę.
Ten ruch w warstwie fizycznej jest obsługiwany w wielu węzłach, lecz na końcu każdego z nich znajduje się „serwerownia”.
Data Center - serwerownia
Pojęcie "serwerownia" powstało w końcu lat 50-tych, podczas wspólnej realizacji projektu American Airlines i IBM nawiązały stworzenia systemu rezerwacji miejsc w oparciu o rozwiązanie informatyczne firmy Sabre. Od tego czasu, zmiany strukturalne wykorzystania informatyzacji oraz możliwości technologiczne w dziedzinie przetwarzania i przechowywania danych doprowadziły do rozwiązań, które z jednej strony nadążają za zwiększającymi się wymaganiami użytkowników z drugiej generują coraz to większe możliwości związane tymi usługami. Czy wyobrażacie sobie obecnie dziś życie bez Internetu, „smartfona”/”tabletu” czy komputera?
Należy zauważyć, że w tym roku mija właśnie 70 lat od budowy pierwszego komputera - Electronic Numerical Integrator and Computer (ENIAC), który w 1946 roku służył „US Army” do przechowywania kodów altyreryjskich. Dzisiejsze serwerownie ze swą mnogością urządzeń IT są w większości projekcją wymagań modelu usług w którym obserwujemy przesunięcia z modelu „własności infrastruktury”, na którą składają się: sprzęt i oprogramowanie, instalacje techniczne (zasilanie i chłodzenie) w stronę subskrypcji pojemności i mocy obliczeniowej dla dostępu do oczekiwanych przez biznes i konsumenta usług. Korzystający z zasobów Internetu przeważnie nie interesują się skąd pobierają dane, podobnie jak niewiele osób zwraca uwagę, że za gniazdkiem elektrycznym jest schowana elektrownia, a czasami także i kopalnia węgla.
W przypadku Klientów biznesowych, użytkujących do tej pory własną infrastrukturę IT, najczęstszym powodem tych zmian są koszty, które można podzielić na koszty inwestycyjne (CAPEX – Capital Expences) – związany z budową infrastruktury lub wymianami wymuszonymi przez postęp technologiczny, i koszty utrzymania (OPEX – Operating Expences), przy czym większość wydatków jest jednak związana z bieżącym utrzymaniem infrastruktury i dostępu do jej usług.
Na wielkość OPEX największy wpływ ma koszt i ilość zużywanej energii. W roku 2010 serwerownie zużywały 1,1-1,5% światowej produkcji energii, a w ostatnich latach roczny trend wzrostowy notował średnio 7% (a regionalnie nawet 30%) wzrostu zużycia energii przez IT. Obecnie, szacuje się, że serwerownie odpowiadają za zużycie około 3%, a cała branża IT i Telecom za zużycie około 11% światowej produkcji energii elektrycznej wynoszącej obecnie około 25 000 TWh. Prognozy zakładają także, że w następnej dekadzie zużycie energii przez branże IT zostanie potrojone. Czy ktoś na co dzień zwraca uwagę, że intensywnie eksploatowany „smart fon” zużywa rocznie więcej energii niż średniej wielkości domowa lodówka? A za usługami związanymi z „smart” telefonu komórkowego kryją się inne węzły infrastruktury technicznej zużywające gigantyczne ilości energii.
W obliczu rosnących cen energii oraz pogłębiających się zmian w klimacie ziemi coraz większą uwagę zaczynamy przykładać do minimalizacji zużycia energii oraz efektywność energetyczną urządzeń i systemów. Nie inaczej dzieje się także w przypadku serwerowni. Należy pamiętać, że energia zużyta przez sprzęt IT do pełnienia funkcji do której zostały stworzone w większości zamieniają się na które w serwerowni musi zostać odebrana oraz przetransportowana na zewnątrz jego struktury budowlanej do atmosfery. Najczęściej na każdy 1kW energii zużytej przez urządzenia IT, zużywa się dodatkowo około 1,1 do nawet ponad 2 kW energii na chłodzenie i bezpieczne podtrzymanie zasilania. Efektywność tego procesu określa średnioroczny współczynnik PUE – (ang. Power Usage Effectiveness) określający proporcje całej energii elektrycznej zużywanej na zasilanie serwerowni do energii elektrycznej zużywanej przez urządzenia IT. Im wartość bliższa wartości 1,0 tym mniej energii jest tracone na potrzeby utrzymania ruchu serwerowni i zapewnienia dostępu do usług informatycznych. Stąd rodzą się czasami zupełnie fantastyczne pomysły lokalizowania serwerowni np. pod kołem podbiegunowym, w fiordach lub na statkach zakotwiczonych na morzu. Po prostu wykorzystanie naturalnego chłodu (frecoolingu) w procesie chłodzenia serwerowni pozwala w większym stopniu zbliżyć się do pożądanego PUE=1.
Jak zbudowana jest tradycyjna serwerownia? Jest ona budynkiem lub jego częścią, na którą składa się komora serwerów, w której instalowany jest sprzęt IT oraz pomieszczenia i obszary wspierające jej funkcjonalność, w tym pomieszczenia np.: UPS, dystrybucji energii, techniczne, telekomunikacyjne, operacyjne, pomieszczenia dystrybucji chłodu oraz obszary posadowienia agregatów prądotwórczych, agregaty chłodu, zbiorniki paliwa, itp. Wszystkie te urządzenia / systemy techniczne zwane infrastrukturą dzieli się na infrastrukturę informatyczną oraz infrastrukturę techniczną.
Na Infrastrukturę Informatyczną składają się wszystkie urządzenia systemów komputerowych, w tym urządzenia aktywne i pasywne sieciowe, serwery i pamięci masowe, wraz z okablowaniem logicznym miedzianym i światłowodowym, przyłączami telekomunikacyjnymi, której działanie jest niezbędne do osiągnięcia celu biznesowego jakiemu towarzyszy działanie serwerowni
Infrastruktura Techniczna – to maszyny, urządzenia, systemy i instalacje techniczne, w szczególności systemy i instalacje elektroenergetyczne i teletechniczne oraz systemy i instalacje mechaniczne związane głównie z utrzymaniem właściwych parametrów środowiska (wilgotność i temperatura), właściwych dla bezpiecznego użytkowania systemów IT, np. zgodnie z zaleceniami producentów lub niezależnych instytucji standaryzacyjnych np. ASHRAE (Amerykańskie Stowarzyszenie Inżynierów Ogrzewnictwa Chłodzenia i Klimatyzacji). . Schneider Electric jest producentem wysoko efektywnych, sprawnych i niezawodnych urządzeń do realizacji dowolnej konfiguracji systemów zasilania i chłodzenia w serwerowniach.
Infrastruktura techniczna może być oparta o różne technologie, bardziej lub mniej przyjazne środowisku a także zarządzania w sposób sprzyjający minimalizujące zużycia energii, szczególnie jeśli serwerownia nie osiąga nominalnego (tzn. obliczeniowego) obciążenia (tzn. wykorzystania), czyli powierzchnia serwerowni jest niedociążona. W takim przypadku wskaźnik PUE może osiągać bardzo niezadowalające wyniki a koszty eksploatacji jednostkowo rosną. W przypadku eksploatacji serwerowni może istnieć wiele strategii regulacji powodujących minimalizowanie zużycie energii opartych o centralne systemy zarządzania i oprogramowanie klasy DCIM (Data Center Infrastructure Management).W zależności od obciążenia serwerowni oraz występujących warunków atmosferycznych strategie będą realizować algorytmy maksymalizacji wykorzystania freecolingu. Przykładem takiego oprogramowania jest InfraStruxture firmy Schneider Electric.
Ciągły dostęp do usług serwerowni i bezpieczeństwo danych
W związku z powszechnym zastosowaniem informatyki i przetwarzania danych we wszystkich aspektach życia społecznego, aktywności gospodarczej oraz administracji publicznej, zapewnienie ciągłego dostępu do usług biznesowych serwerowni a także bezpieczeństwo danych stało się krytyczne. Dostosowanie infrastruktury do wymagań wysokiej niezawodności i dostępności danych stało się nową dziedziną techniki podlegającą procesowi kwalifikacji i certyfikacji. Zostały zawiązane komercyjne ciała doradcze, np. Uptme Institute, Building Industry Consulting Service International (BICSI) oraz normalizacyjne, Telecommunications Industry Association (TIA), European Committee for Electrotechnical Standardization (CENELEC), lub inne nie wymienione tutaj. Obecnie budowane serwerownie opierają się o lokalne wymagania odnośnych urzędów związanych z obowiązującym w każdym kraju lokalnym Prawem Budowlanym oraz jednocześnie spełniają określone wymagania niezawodności (np. TIER wg. Uptime Institute lub RATED według TIA) i ochrony danych w zakresie ochrony własności intelektualnej, poufność i bezpieczeństwa danych (w Polsce PN-ISO/IEC-17799), oraz bezpieczeństwa fizycznego dostępu (w Polsce PN-ISO-I-13335-1).
Dzisiejsze serwerownie w zakresie zapewnienia niezawodnej pracy urządzeń IT cechuje przede wszystkim bezpieczeństwo (określenie jako dostępność lub niezawodność) oparte o rozwiązania techniczne (głównie wielowymiarową redundancje urządzeń i systemów infrastruktury oraz bezpieczeństwo i ciągłość zasilania i chłodzenia) oraz restrykcyjne procedury związane z kompetencjami personelu, procedurami eksploatacyjnymi oraz remontowymi a także procedury wprowadzania zmian. Lokalizacja serwerowni jest starannie rozpatrywana, nie tylko pod względem dostępności do mediów, dostępności do pasma, odległości wpływającej na notowane w aplikacjach opóźnienia, ale także ze względu na fizyczne bezpieczeństwo danych. W kwestii niezawodności funkcjonalnej szczegóły można znaleźć na portalu http://serwerownie.org
Trendy w budowie serwerowni
W serwerowni najważniejsze są realizowane usługi oraz stały do nich dostęp. Stawia to na plan dalszy koszty operacyjne (OPEX), w tym koszty energii, pod warunkiem, że na oferowaną usługę w określonej cenie znajdzie się Klient. Dlatego też budowa serwerowni wiąże się ze starannym przygotowaniem, analizą oraz biznes planem. Nie można także postawić twierdzenia, że każda wybudowana lub planowana serwerownia będzie pełniła uniwersalną funkcję dla każdego rodzaju aplikacji i typu usług.
Różne usługi oraz aplikacje wpływają w bezpośredni sposób na wymagania, przede wszystkim w zakresie parametrów samej infrastruktury informatycznej. Portale internetowe lub społecznościowe serwujące dostęp do wiadomości lub sieć korporacyjna z dostępem do baz danych i serwisów pocztowych czy gry on-line lub usługi mobilne albo analityka obrazu realizowana w czasie rzeczywistym stawiają zupełnie inne wymagania techniczne w zakresie większej przepustowości i mniejszych opóźnień w komunikacji, które wiążą się głównie odległością od źródła danych do użytkownika.
Mniej wymagające usługi związane z przechowywaniem, serwowaniem i gromadzeniem danych, usługami pocztowymi, witrynami komercyjnymi maja mniejsze w tym zakresie wymagania. Usługi związane z Video-analityką, robotyzacja, procesy generujące duże ilości danych udostępnianie zdalnie do analizy w czasie rzeczywistym (analityka laboratoryjna, analiza obrazowa, produkcja) lub zarządzania danymi on-line np. z dronów, kamer polowych (mobilne centra kryzysowe) lub „Big Data” wymagające potężnego przetwarzania (analityka statystyczna, analiza korelacji) wiążą się z mniejszymi opóźnieniami i większymi wymaganiami w zakresie przepustowości pasma. Wszystkie te wymagania wpływają na większe rozproszenie infrastruktury dzieląc ją na mniejsze lub mikro serwerownie zbliżające się do użytkownika. Większe rozproszenie w przypadku usługodawców oferujących usługi w „chmurze” sprzyja także bezpieczeństwu danych oraz Disaster Recovery (odzyskaniu danych i przywróceniu dostępu do usług) w przypadku wystąpienia awarii.
Podsumowując. Wielkość i lokalizacja serwerowni jest uzależniona od rodzaju usług i aplikacji, które są realizowane przez jej infrastrukturę informatyczną, z kolei potrzeba obniżania zużycia energii oraz planowana niezawodność funkcjonalna wpływają na zastosowane rozwiązania w infrastrukturze technicznej, w tym większe wykorzystanie obniżenia zużycia energii przez wykorzystanie freecoolingu) oraz w końcu na samą organizację służb odpowiedzialnych za eksploatację serwerowni.