Rešerše: datová centra (2Q 2020)

Přinášíme vám pravidelné shrnutí zajímavých článků z odborného tisku a specializovaných webů. Pro členy Asociace máme k dispozici podrobnější rozbor obsahu. Přihlášení zde.


Cloud je cesta, digitální transformace cíl

CIO Business World 02/2020, Lukáš Kříž, str. 14-16

Digitální transformace je integrovaný model, v němž se spojují osvědčené technologické postupy s každodenním provozem a inovativními strategiemi. Mnoho firem se v současné době zaměřilo na přechod na cloudové služby. Právě využití cloudových služeb otevírá dveře k mnoha dalším technologiím a jejich rychlé implementaci. Cloud computing je ale podpůrná technologie digitální transformace, tedy pouze její součást. Některé společnosti se k přechodu do cloudu upnuly a do jisté míry tak přestaly sledovat cíle a záměry byznysu vedoucí k digitální transformaci. V průzkumu společnosti Capita z roku 2020 se ukázalo, že cloudová migrace je prioritní pro většinu oslovených firem. Lze to také interpretovat jako snahu o dohnání jakéhosi technologického dluhu. Motivem cloudové migrace jsou známé důvody jako redukce nákladů, zrychlení poskytovaných služeb a aplikací nebo zvýšení bezpečnosti. Většina důvodů pro přechod do cloudu se zaměřuje jen na interní procesy a ne na uživatelskou nebo zákaznickou zkušenost (CX). Cloudová migrace se také neobejde bez problémů. Jedná se třeba o bezpečnostní otázky, nedostatek specialistů nebo o nutnost zasahovat do architektury aplikací. I přes uvedené problémy hodnotí většina organizací přesun více méně pozitivně. Aby migrace do cloudu nebyla samoúčelná modernizační aktivita, je klíčové vytvořit digitální vizi. Ta by se měla zaměřit na CX, stakeholdery, inovace a poskytování nových produktů. Spolu s digitalizačním úsilím by měla fungovat edukace v oblasti digitalizace.


Firemní datová centra v ohrožení

CIO Business World 02/2020, Lukáš Kříž, str. 17-19

Spolu s automatizací operací kvůli umělé inteligenci a strojovému učení přichází i nový způsob jak jsou ukládána data a jak se konfigurují sítě. Právě díky novým technologiím čeká i datová centra intenzivní vlna automatizace. Dnes je generováno více dat než v minulosti. To může vést k zatížení nebo přetížení sítí a to je také důvodem proč se společnosti přesouvají z on-premise do externích datových center nebo cloudových prostředí. Odklon od on-premise datových center není jediný důsledek cloud computingu. Napomáhá také k trendu serverless computingu. Tento model umožňuje provozovat aplikace bez nutnosti ruční alokace výpočetních zdrojů nebo správy serverů. Očekává se, že do pěti let většina firem (nejenom velkých), začne v nějaké míře využívat multicloudová prostředí a strategie. Co se týče sítí, jsou dnes žádané rychlá odezva a rychlé připojení. K tomu přispějí nejen 5G sítě, ale také edge networking, což je snaha o maximální snížení latence přenosů. Data lze sbírat i zpracovávat lokálně, ve větších objemech a v reálném čase. V konečném výsledku se výstupy dostanou ke koncovému uživateli rychleji a sníží se zatížení přenosových sítí. Nové způsoby přenosů a ukládání dat nezůstanou bez dopadu na kybernetickou bezpečnost, v budoucnosti bude hrát ve firmách důležitou roli. Všechny tyto změny budou mít vliv na fungování IT oddělení, na propojení IT specialistů a týmů věnujících se vývoji nových produktů.


Datová centra pod tlakem

CIO Business World 03/2020, CIO Business World, příloha Cloud a virtualizace, Lukáš Kříž, str. II-III

Od datových center se i v dnešní době očekává odolnost proti výpadkům a jejich počtu. Tomu lze předejít výměnou zastaralé infrastruktury nebo její změnou. Cloudové a distribuované aplikace lze částečně nebo plně přemísťovat nebo replikovat v různých zónách dostupnosti. Podobně mohou organizace pozměnit i nastavení síťových služeb a řízení zátěže. Rizikem může být ztráta kontroly a snížení efektivity správy. Důležitým tématem spojeným s datovými centry je jejich energetická náročnost. K jejímu zvýšení přispívají například síťové přenosy filmů v HD, rozvoj 5G sítí, streamování her nebo těžba kryptoměn. Zvyšuje se i tlak na eliminaci generátorů z datových center a mění se regulace v oblasti energetické efektivity. Trendovou technologií, která se v data centrech prosazuje a která je hlavním způsobem, jak se vypořádat s novými potřebami, je edge computing. Edge computing odklání tvorbu a zpracování dat mimo hlavní datová centra a jejich klíčové systémy. Stále větší část výpočtů tak probíhá v samotných zařízeních na okraji sítí nebo v lokálních a regionálních centrech. Dalšími trendy jsou mikrodatová centra, hyperškálovatelná datová centra a cloudové služby. Novým obchodním modelem v oblasti datových center je přístup pay-as-you-go. I v oblasti datových center chybí kvalifikovaní zaměstnanci a odborníci. Dodavatelé se tento problém snaží řešit poskytnutím asistenčních systémů na bázi umělé inteligence.


Optimální správa dat v multicloudu

CIO Business World 03/2020, CIO Business World, příloha Cloud a virtualizace, Avon S. Puri, str. VI-VII

Multicloudová prostředí se rychle stávají novým standardem při budování hyper-scale infrastruktury. Tuto infrastrukturu lze jednoduše přizpůsobovat podle obchodních požadavků a vývoje na globálních trzích. Při budování multicloudové infrastruktury je nutné brát v úvahu architektonické aspekty jako jsou spolehlivost dat, dostupnost dat a kontinuita provozu. V multicloudu je nutná komplexní a provázaná strategie správy dat a to včetně poskytování, řízení a odpojování prostředků. Jak zařídit přenositelnost dat? Je nutné zajistit plynulý přesun mezi různými cloudy, bez ohledu na to, kde jsou data uložená. Jak koncipovat komplexní zabezpečení této infrastruktury? Kromě základních architekturních služeb pro ochranu a zálohování dat je zapotřebí vytvořit schopnost klonovat data, maskovat určité prvky a bezpečně uchovávat replikovaná data. Jak zajistit 100% dostupnost dat? Pomocí architektury, která by měla být koncipována tak, aby zajišťovala dostupnost bez ohledu na to, kde se data nacházejí, nebo jak složité je data získat. Jak se zotavit z havárie? Obnova musí být v souladu s předpisy. Ideální multicloudová infrastruktura poskytuje možnost řídit přístup k datům, chránit a vyhledávat data, zajišťovat compliance a podle potřeby přenáší data mezi cloudy.


Jde to se servery i bez nich

CIO Business World 03/2020, CIO Business World, příloha Cloud a virtualizace, Vít Petrjanoš, str. X-XIV

Jak vidí odborníci propojení cloudová řešení s virtualizací v České republice? A jaká je budoucnost virtualizace serverů a virtualizačních řešení? V příštích letech se očekává virtualizace desktopů, aplikací, sítí a úložišť. Bude to možné díky přesunu organizací směrem k virtualizaci v cloudu. Faktory, které ovlivňují vývoj virtualizace serverů jsou optimalizace, topologie, sourcing a byznys potřeby. Na administrátora takových virtualizačních řešení tím pádem budou platit nejen nároky na technické dovednosti, ale má být také schopný používat monitorovací a přehledové nástroje. Do virtualizačních řešení spadají i řešení pro digitální workspace, která se doplňují s prostředky pro klasickou virtualizaci. S trendem tvorby byznys aplikací a řešení přímo v cloudu také poroste význam bezserverového (serverless) prostředí a technologií, jako jsou mikroslužby a kontejnery. Pro zabezpečení těchto řešení bude nutné zapojit automatizaci, robotizaci, řízení přístupu, implementaci síťové virtualizace a bezpečnosti s moderním antivirovým řešením. Kdy se vyplatí přejít na cloudové řešení? Je to tehdy pokud je společnost schopna zajistit dostatečné a kvalitní síťové spojení, pokud společnost nepotřebuje mít data a aplikace co nejblíže koncovým uživatelům a pokud je společnost schopná uskutečnit (i finančně) konverzi a migraci dat do cloudu. Článek obsahuje přehled dodavatelů virtualizačních řešení v ČR.


Datová centra: Správa na více způsobů

COMPUTERWORLD 05/2020, Vít Petrjanoš, str. 12-16

Jak spravovat infrastrukturu datových center on-premise? Nástroje vytvořené pro tento účel se skrývají pod značkou DCIM (Data Center Infrastructure Management). Umožňují shromažďovat, ukládat a analyzovat data týkající se rozmístění serverů, jejich napájení a chlazení v reálném čase. Tyto nástroje také umožňují tisknout schémata, užitečná pro nutnou údržbu nebo pro instalaci nového zařízení. DCIM mohou správcům pomoci najít a identifikovat vztahy mezi budovou a jejími IT systémy. Senzory pro monitorování energie a podpůrný hardware lze instalovat do všech prvků energetické infrastruktury, takže software DCIM dokáže přesně agregovat a analyzovat data o účinnosti využití PUE (Power Usage Effectiveness) a energetickou účinnost chladicího systému. Jak vybrat software DCIM? Je potřeba zvážit čtyři kroky. Prvním krokem je rozhodnutí, který z aspektů správy infrastruktury datového centra bude nejvíce profitovat z nových lepších informací. Druhým krokem je soustředění se na produkty s funkcemi, které vybrané aspekty řeší a získat zkušební verze několika těchto produktů. Třetím krokem je koupě modulárně rozšiřitelného DCIM, v začátku zavádění není nutné začít používat moduly všechny. Čtvrtým krokem je ujištění se, že pro implementaci a údržbu vybraného softwaru má firma dostatek fundovaného materiálu. Problémy zavádění DCIM softwaru většinou nastanou při přeskočení některých kroků nutných pro správnou instalaci produktů a nedostatečného školení. Co všechno DCIM produkty dokážou? Umí například monitorovat spotřebu energie, provozu a vlivu na životní prostředí. Také jsou schopné spravovat aktiva a pracovní postupy. Dá se v nich vytvořit vizualizace půdorysů a obsahů racků z databáze správy aktiv. Umožňují plánování kapacit a budoucích scénářů. Některé vizualizační DCIM mohou načítat plány kabeláže sestavené ve spreadsheetu a integrují je se softwarem DCIM. Dalšími funkcemi jsou možnost správy a optimalizace sítě a centralizované dálkové monitorování a reporting. Další variantou jak spravovat datová centra je formou outsorcingu. Tento typ služby může poskytovat renomovaná firma, která je schopná ukládat velké množství dat. Obvyklou praxí v outsorcingu datových center je společné umístění (co-location). Tedy část serverové sítě je udržovaná v sídle zákaznické organizace a další část v samostatné fyzické lokalitě mimo sídlo organizace. To je výhodné, když zákaznická společnost prochází přechodným obdobím. Toto řešení upřednostňují i velké mezinárodní firmy. Jaké jsou hlavní důvody pro pořízení outsorcingu datových center? Jsou to náklady, možnost cloudového připojení, soulad s legislativou, snižování rizik úniku dat, kapacita a flexibilita, nedostatek odborných znalostí pro provoz datového centra a záruka dostupnosti. Jaké jsou nevýhody outsorcingu datových center? Patří sem možnost nepříjemných překvapení, pokud jde o náklady, vlastnictví softwaru nebo podmínky ukončení smlouvy, dále pak nedostatečná bezpečnost dat, ztráta kontroly nad správou datového centra a vázanost na jednoho dodavatele. Lze také volit variantu správy datových center DMaaS (správa datového centra jako služba). Toto cloudové řešení agreguje a analyzuje velké sady anonymizovaných zákaznických dat s cílem pomoci zákazníkům lépe předvídat poruchy zařízení nebo nedostatečnou výpočetní kapacitu. DMaaS zatím nenabízí takovou šíři možností a funkcí, kterými disponuj klasické on-premise nástroje pro DCIM.


Připravte své datacentrum na AI

COMPUTERWORLD 05/2020, příloha Umělá inteligence ve firemním prostředí, Andy Patrizio, str. VI-VII

Pokud firma plánuje nasazení AI, co by si měla předem promyslet? První bod je zvážení možnosti chlazení kapalinou. Voda má tří tisíckrát vyšší tepelnou kapacitu než vzduch, proto je toto řešení velmi dobré pro zátěže s vysokou hustotou. Druhým bodem je využití nižšího rozlišení pro zátěže AI. Velkou část zátěží lze provozovat s poloviční nebo čtvrtinovou přesností, než je 64bitová dvojnásobná přesnost. Třetím bodem je vybudování segmentu jen pro AI. Nemá smysl budovat celé provozovny pro vyšší hustotu, protože ostatní aplikace mají obvykle nižší spotřebu. Čtvrtým bodem je rozprostření systémů AI. Je dobré rozprostřít AI systémy mezi různé racky. V optimalizovaném heterogenním prostředí může poskytovatel pronájmu využívat pár pozic v racku pro prostředí HPC nebo AI a zbytek pro hosting méně energeticky náročných aplikací, jako jsou databáze a aplikace nosné firemní struktury. Pátým bodem je řízení toku horkého vzduchu v datovém centru. Toto řešení uzavírá konce horkých uliček dveřmi a mezi strop a horní části skříní i dveří umisťuje plastové desky, aby se teplo směřovalo do nasávacích otvorů potrubí ve stropě. Bariéry tak brání míchání horkého a chladného vzduchu. Šestým bodem je zvážení skříní s komínem, které pomáhají zvládat teplotu datových center. Sedmým bodem je uvážení zpracování dat v jejich místě. Jakákoli podoba přesunu dat vyžaduje elektrickou energii a ta roste s objemem dat. Je tedy dobré hledat řešení, díky kterému budou data co nejblíže místu svého zpracování. Osmým bodem je možnost pronájmu prostoru datového centra. Někteří provideři již dnes začali nabízet část prostředí s vysokou hustotou pro AI. Takový provider může nabídnout i více možností růstu. Devátým bodem je to, že si organizace počká na novou generaci serverů, které budou obsahovat více akcelerátorů a více výkonných propojení pro přesuny dat.


Správa hybridních cloudů: Nové nástroje i dovednosti

COMPUTERWORLD 05/2020, John Edwards, str. 20-22

Zavedení hybridního cloudu do organizace stále ještě není úplně jednoduchá záležitost. Na začátku je nutné udělat rozhodnutí, která určí jaká data a aplikace by měly zůstat ve vlastní infrastruktuře v důsledku citlivosti dat, a která data lze přesunout do cloudu. Také je potřeba určit případy s vysokou důležitostí dat a aplikací. Rozptýlenost aplikací a dat má také vliv na zabezpečení. Nesmí se samozřejmě opomenout ani provozní aspekty a náklady. Neustálý dohled v hybridním cloudu vyžaduje jak jeho složitost, tak i intuitivní a efektivní správa řady provozních parametrů, jako jsou výkon sítě, správa zátěže, zabezpečení a řízení nákladů. Pro správu těchto úkolů existuje celá řada nástrojů, které mohou způsobit zmatky v provozu, protože nemusí být vhodně definované dodavatelem. Pro správu hybridního cloudu je asi největší výzvou přidávání nových složitých a často neslučitelných vrstev do řízení provozu. K problému zavádění nových řešení také přispívá to, že neexistuje standardizované rozhraní API. Takový problém potom prohloubí ještě to, že se nastalá situace řeší přidáním další vrstvy softwaru, což opět zvyšuje jeho složitost. Efektivním způsobem ochrany před problémy s kompatibilitou může být používání standardizovaných nástrojů pro opensource CNCF (Cloud Computing Native Foundation). Takovými nástroji jsou například Kubernetes a Prometheus. Při výběru platformy správy hybridního cloudu je také důležité nejen zohlednit dokumentovaná omezení, ale také pamatovat na to, že nic není jisté, dokud si to uživatel sám neověří testem ve vlastním cloudovém prostředí. I přes tyto zkušenosti se správou, se velkému počtu firem podařilo najít způsob jak zajistit svému hybridnímu prostředí efektivní, spolehlivé a bezpečné fungování. S přechodem do hybridního cloudu je ještě spojená také nutnost zajištění vhodných odborníků pro jejich správu.


Multicloud: Kdo si přihřeje polívčičku a kdo se spálí?

IT Systems 4/2020, příloha Cloud Computing 2020, Leoš Vondrák, str. 8

Společnost Dell Technologies vydala studii, která se zabývá multicloudem. Studie se zúčastnilo 1257 IT manažerů z 11 zemí. Je v ní porovnávaná konzistentnost řízení provozu ve veřejném cloudu a moderní lokální privátní infrastruktuře. Poukazuje na propast mezi potencionálními přínosy a dnešní realitou cloudových implementací. Jen 5% respondentů se podařilo dosáhnout cíle vybudovat konzistentní hybridní cloud. Konzistentní přístup přináší výhody a jistoty, na kterých je možné stavět a uvolňuje zdroje, které lze využít k dalšímu rozvoji. K výhodám patří snížení nákladů, respondenti očekávají, že IT nástroje pro konzistentní správu privátního a veřejného cloudu sníží náklady v průměru o 19%. Další výhodou je úspora času, který lze potom věnovat inovačním projektům. Také data jsou ve větším bezpečí, pokud je ochrana konzistentní. Respondenti očekávají méně případů narušení bezpečnosti, výpadky aplikací a jiné události s dopadem na data uložená ve veřejném cloudu. Konzistentní přístup může znamenat i výhodu pro vývojáře, kteří očekávají uvolnění kódu do produkčního nasazení. Konzistentní správa privátního a veřejného cloudu také urychlí tempo inovací. Z toho všeho vyplývá, že centralizace cloudové strategie a zavedení nástrojů pokrývajících všechny cloudová prostředí je přínosem pro IT, ale největší užitek mohou mít koncoví uživatelé a podnik jako takový.


Správa hybridních cloudů: Nové nástroje i dovednosti

www.cb-nn.com, 28.05.2020, Nick Offin

Výhody práce s cloudem ve firemním prostředí jsou dobře známy. Bez této formy by dnes neexistovala řada služeb, na které se společnosti všech velikostí spoléhají. Není tedy překvapením, že 85 % společností má za to, že rozvíjení cloudových řešení je v jejich infrastruktuře nezbytnou součástí pokroku. V době krize umožňují technologie cloud computingu milionům společností po celém světě díky maximálnímu využití potenciálu práce v režimu home office pokračovat v činnosti. Kromě cloudových řešení je v poslední době často diskutován nový koncept „edge computing“. V ekosystému informačních technologií hrají obě technologie důležité role a oba tyto technologické trendy se ve firemní infrastruktuře nevylučují, ale doplňují. Názor některých, že edge computing s využitím principu výpočtů na okraji sítě nakonec tradiční cloudové služby nahradí, není proto opodstatněný. Pokud porovnáme tradiční cloud a edge computing, hlavní rozdíl spočívá v tom, jak a kde probíhá zpracování dat. U cloudu jsou data posílaná do centrálního úložiště (obvykle datového centra) a zde dochází k jejich zpracovávání. Při využití edge computingu je množství výpočtů prováděno ihned po pořízení dat před jejich odesláním. Cloud sám o sobě nabízí velké výpočetní a úložné možnosti, ale extrémně velká zátěž sítě vyžaduje mnohdy upravenou infrastrukturu – to je chvíle, kdy přichází na řadu technologie výpočtů na okraji sítě. Kompletní revize infrastruktury je pro podniky nákladná i časově náročná. Edge computing umožňuje společnostem problematiku zatížení cloudu a výpočetních systémů vyřešit a nevyžaduje přitom náhradu původního systému. Po zapojení této technologie zpracovávají zařízení na okraji sítě množství výpočtů lokálně, a tím se uvolňuje kapacita cloudu pro zajištění rychlého zpracování potřeb společnosti a rychlý chod podnikových aplikací. Základní vlastnost cloudových řešení spočívá v posílání dat do výpočtového centra, jejich zpracování a často přenosu zpět do původního zařízení, které pracuje na okraji sítě. To vše vyžaduje čas a přenos dat způsobuje zpoždění procesů. Přestože cloud nabízí vysoký výpočetní výkon, velké úložiště i možnosti náročné analýzy dat, v mnoha případech není tento postup efektivní. Latence související s přenosem dat v síti může mít negativní vliv i v jiných, závažnějších případech vzdálené práce. Edge computing řeší problém tím, že data zpracovává ihned u zdroje, na okraji sítě. Tím se eliminuje latence a snižuje se množství chyb. Se zvyšujícím se množstvím zaměstnanců pracujících mimo kancelář roste potřeba vzdáleného přístupu k datům. To poskytuje kybernetickým zločincům větší možnosti při získávání firemních dat a jejich potencionálním zneužití. Edge computing filtruje a zpracovává data ihned, namísto toho, aby byla všechna posílána do centrálního datového centra. Díky tomu se snižuje množství přenesených citlivých dat mezi zařízeními a cloudem, a tím se zlepšuje zabezpečení. Edge computing a cloud computing jsou technologie, které hrají ve firemní infrastruktuře důležité role. Se zvyšující se potřebou vzdálené práce se stávají novou normou a lze předpokládat, že se budou stále více vzájemně doplňovat.


Cloudová evoluce pokračuje, mění se priority i problémy

ictrevue.ihned.cz, 10.06.2020, Lukáš Kříž

Technologie cloud computingu se postupně mění v nový standard podnikové informatiky. Mezi hlavní priority adopce cloud computingu v současnosti patří ochrana dat, modernizace datových platforem nebo nákladová optimalizace. Na scéně se také objevují nové trendy, které významně transformují dosavadní modely nasazení. Zvyšující se závislost podniků na cloud computingu s sebou nese i jistá rizika. Informatici by pro jeho implementaci měli nasadit jednu formální strategii, v níž zohlední poměrně širokou paletu přístupů. Jednotlivá rozhodnutí o využití cloudových služeb musí vždy sledovat a splňovat strategické cíle dané organizace. Současně by nemělo docházet k omezování výhod, jež tento provozní model nabízí. V probíhající éře zcela samozřejmého využívání cloudových služeb hrají velkou roli náklady. Starší aplikace, které jejich provozovatelé přesunuli do cloudových infrastruktur budou v horizontu příštích čtyř let vyžadovat optimalizaci. Oproti aplikacím, jež pro cloudová prostředí přímo vznikly, se totiž potýkají s nižší efektivitou. O problému vědí také poskytovatelé. Průběžně posilují optimalizační schopnosti svých řešení a snaží se klientům nabízet nákladově efektivní architektury, jež zajistí požadovaný výkon. Rozvíjí se ovšem i trh s optimalizačními nástroji třetích stran. Ty nacházejí uplatnění především v multicloudových prostředích. Nedílnou a hlavní funkcionalitu podobných řešení tvoří pokročilé analytické nástroje. Na základě jejich výstupů probíhá hledání maximálních úspor bez dopadu na požadovaný výkon. Jde o řešení, která jsou nezávislá na poskytovatelích jednotlivých služeb, nad nimiž vytvářejí konzistentní vrstvu pro správu instalací a úloh. Volba různých prostředí a poskytovatelů datových center, v ideálním případě dynamická, se projevuje zejména v oblastech procurementu, funkcionalit a snižování rizik. Firmy si chtějí zachovat možnost volby a nechtějí se vázat jen na jednoho poskytovatele. Firmy také chtějí možnost vyvinout aplikaci a pak ji spouštět na různých platformách podle toho, jak to zrovna transformační stadium firmy vyžaduje. Oproti očekáváním se multicloudové strategie v nižší míře zaměřují na přenositelnost aplikací. Kvůli pomalejšímu nástupu cloudu v ČR není trend multicloudu tak zřetelný jako v zahraničí. Vzhledem ke komplexnosti tohoto přístupu, potřebě jednotného monitoringu či řízení výkonu jsou tato řešení využívána specializovanými společnostmi. Stále aktuální problém cloud computingu i v mnoha oborech je téma nedostatku kvalifikovaného personálu. Týká se to také odborníků se znalostmi a zkušenostmi řešení kategorie IaaS (Infrastructure as a Service neboli infrastruktura jako služba). Za významný evoluční krok cloud computingu, který jde myšlenkově zdánlivě proti dosavadní koncepci centralizace, je distribuovaný cloud computing. Jak jeho název napovídá, platformy, aplikace, nástroje pro správu, bezpečnostní prvky a další služby jsou fyzicky přemístěny mimo hlavní datová centra. Decentralizovaná kapacita míří do míst s vysokou poptávkou, odběrem nebo požadavkem na nízkou latenci. Analytici předpokládají, že do roku 2023 nabídnou distribuovaný model všichni velcí poskytovatelé veřejných cloudových služeb. Chtějí se přiblížit svým zákazníkům a také podpořit svůj i jejich byznys v situacích, jež vyžadují posílení kapacit.


Zájem o hybridní model datových center roste

ictrevue.ihned.cz, 10.06.2020, Radek Kubeš

Provoz nezbytných podnikových aplikací a ukládání dat lze řešit v zásadě třemi různými způsoby. Firma si může pořídit veškeré potřebné hardwarové a softwarové vybavení a provozovat jej vlastními silami, pronajmout si prostor či potřebné kapacity v datovém centru, nebo provozovat svoje aplikace a ukládat data v cloudu u některého z globálních poskytovatelů, jako jsou Amazon se službou AWS nebo Microsoft a jeho Azure. Každá z možností má svoje přednosti i nevýhody, a také proto firmy často vy­užívají jejich kombinaci. Hybridní datové centrum je moderní alternativou k vlastnímu datovému centru. Klasickým modelem hybridního prostředí bývá provoz podnikových aplikací a systémů ve vlastním datovém centru a zálohování do komerčního datacentra, což umožňuje obnovení provozu v komerčním datacentru v případě havárie. Datové centrum je dlouhodobá investice a většina firem svůj kapitál raději investuje do rozvoje podnikání než do budování a údržby datového centra a IT expertů, kteří se o něj starají. Firmy také v současné době využívají více komerčních datových center, protože jim nabízí možnosti, které v rámci vlastní serverovny nemají. Jde například o zajištění dostupnosti napájení, georedundanci přes více datových center, prostředí pro provoz technologií nebo zálohovanou konektivitu přes páteřní sítě. Hlavní požadavky zákazníků na datová centra se dlouhodobě nemění. Jde především o fyzické zabezpečení, kvalitní konektivitu a zajištění energie i v případě výpadku elektrické sítě. Dále je to flexibilita při splnění speciál­ních přání zákazníků a také úroveň personálu, který se o provoz datových center stará. Důležité jsou i ISO certifikace provozovatele a úrovně certifikací technologií datových center. Certifikace datových center ve stupních Tier I až IV zjednodušeně řečeno označují maximální dobu možného výpadku služeb. Například datová centra s certifikací Tier III, která najdeme i v ČR, musí dosahovat dostupnosti 99,98 %, což představuje nejvýše 1,6 hodiny přerušení provozu za rok. Stále intenzivnější využívání výpočetního výkonu se projevuje i požadavkem na vyšší příkon elektrické energie, výkonnější chlazení nebo silnější konektivitu datového centra. Jedním ze současných trendů je i takzvané zahušťování příkonu. To znamená, že firma bude potřebovat menší plochu, ale vyšší příkon elektřiny a zároveň účinnější chlazení, protože servery jsou stále výkonnější. Stále více firem se také zajímá o platformní služby pro kontejnerizaci, tedy provoz izolovaných kontejnerů s aplikacemi, které mohou čerpat sdílené zdroje. Mezi hlavní výhody kontejnerizace, která je svým způsobem dalším evolučním stupněm vir­tualizace, patří například vyšší stupeň bezpečnosti díky izolaci kontejnerů a také vysoká efektivita nasazování a aktualizace aplikací. Kromě kontejnerizace jsou datová centra svou bezpečností, konektivitou a vysokou spolehlivostí vhodná také pro účely nasazení moderních technologií z oblasti internetu věcí, analýzy velkých dat, umělé inteligence a strojového učení, stejně jako vir­tuální reality. Na lokální provozovatele datových center mají stále větší vliv globální poskytovatelé cloudových služeb. Nicméně vždy je potřeba vybírat služby na základě skutečných potřeb konkrétní firmy. Globální poskytovatelé mají svá lokální datacentra, která jsou mezi sebou sofistikovaně propojena, čímž zvyšují dostupnost svých služeb a snižují jejich latenci. V konkurenčním boji ale mají i lokální, nezávislí poskytovatelé služeb datových center své výhody.

Novinky, Sekce Datacentra
Košík