Rešerše: datová centra (2Q 2021)

Přinášíme vám pravidelné shrnutí zajímavých článků z odborného tisku a specializovaných webů. Pro členy Asociace máme k dispozici podrobnější rozbor obsahu. Přihlášení zde.


Sedm proměn cloudu

CIO Business World 03/2021, Peter Wayner, příloha Ovládněte svá data, str. II

Jaká je historie cloudu? Nejdříve mainframové společnosti nabízely využití systémů v rámci sdílení počítačového času. První kolokační firmy nabízely pronájem účtů na unixových serverech. Vývoj pokračoval i po označení těchto služeb výrazem „cloud“. Nabízely se desítky tenkých virtuálních strojů, běžících na výkonných serverech. Následně se FTP servery začaly označovat jako buckety a dropboxy. Následovala exploze služeb na trhu s koncovkou aaS. A jak vypadá vývoj cloudu nyní? Ukazuje se sedm výrazných trendů. Prvním trendem je účtování po menších časových jednotkách. Konkurence na trhu nutí poskytovatele měrnou jednotku zkracovat. Např. AWS přestal zaokrouhlovat na 100 ms a začal účtovat po 1 ms. Druhým trendem je Unikernel. Jedná se o cestu kdy kompilátor po překladu kódu vybere pouze knihovny skutečně nutné pro běh aplikace a vytvoří minimální obraz stroje, který běží na standardním hypervizoru. Dosáhne se tak jak úspornosti, tak i omezení bezpečnostních rizik. Třetím trendem je funkce jako open source, tedy programátor napíše jednoduchou funkci a nechá zbytek práce na samotném cloudu. K zajímavým opensource projektům patří Open Whisk, OpenFaas, Kubeless nebo Fission. Čtvrtým trendem je architektura Arm. Tato architektura má vést ke snížení nákladů. Podporuje ale pouze vyšší jazyky jako je Java, JavaScript nebo PHP. Úspory záleží na povaze využití výpočetních prostředků a konkrétní zátěži. Pátým trendem je použití databáze pro všechno. Databáze nyní dokáží verzovat, nabízí možnosti ukládání dat nebo kompilovat vlastní dotazy. Šestým trendem je nové role kancelářských aplikací. Tvorba nástrojů bez kódu je na vzestupu. Někteří tvůrci přichází s nástroji, které mění tabulky přímo na aplikace. Někteří vývojáři namísto tvorby a zavádění aplikací jako samostatných instancí programují aplikace, které se integrují do textových editorů, prezentačních programů a dalších generických nástrojů. Sedmým trendem je výpočetní kapacita na okraji sítě. Vývojáři přibližují kód uživatelům. Rozmáhají se také koncová zařízení, jejichž funkcionalita závisí na cloudu.V budoucnu lze očekávat že internet věcí, chytré spotřebiče a další zařízení se stanou nedílnou součástí cloudu.


Cloudy, virtualizace, datová centra: Přínosy i problémy

CIO Business World 03/2021, Vít Petrjanoš, příloha Ovládněte svá data, str. VI

Jedním z problémů, který může při provozování cloudu nastat je jeho výpadek. Jak se mu bránit? Lze vytvořit strategii DR (Disaster Recovery). Tento plán by se měl zavést ještě před možným výpadkem. K dispozici je nepřeberné množství vhodných služeb a prostředků a je na uživateli aby je nasadil, nakonfiguroval a monitoroval. Je také dobré si zjistit co se děje v cloudu během výpadku. Dříve poskytovatelé nebyli ochotní informace poskytovat, nyní se situace změnila. Co se týče plánů DR, některé z nich jsou automatizované. Důležité pracovní zátěže jsou často chráněné pomocí nějakého typu klastrování. Klastr, který využívá různé zóny dostupnosti může i nadále fungovat i během výpadku. Strategie DR pro méně důležité workloady mohou vyžadovat ruční zásah. Strategie DR je také důležité monitorovat, zda všechny úlohy v cloudu fungují normálně. Po vyřešení výpadku cloudu je dobré vyhodnotit firemní reakce celého procesu od selhání pro zotavení. Dalším problémem, který může vyvstat je problém s virtualizací serverů. Jaké jsou nevýhody virtualizace? Pořízení a implementace nemusí být tak levná jak se zdá. Ačkoli jedním z klíčových cílů virtualizace serverů je omezit počet fyzických serverů, často se stane, že firma má více virtualizačních serverů, než dříve těch fyzických. Také zálohování aktivních dat je ve virtualizovaném prostředí obtížnější, protože je třeba zálohovat více serverů, aplikací a datových skladů. Spouštění virtuálních serverů je snadné, ale ne vhodné pro všechny. Uživatel bez potřebných znalostí, který je spouští pak přináší problémy. Bezpečnost těchto serverů je složitý proces. Obtíž souvisí převážně s počtem virtuálních serverů v prostředí a nestálostí jejich délky života, protože je lze snadno spustit a zastavit. Také se může objevit problém s výkonem, spory o zdroje, nová vrstva ve stacku a nedostatečně vyškolení zaměstnanci pro práci s těmito servery. A co když vypadává kolokační datové centrum? Existují čtyři příčiny výpadků. První je Napájení. Proto poskytovatelé kolokace mají záložní napájecí systémy. Druhá jsou lidé a tedy lidská chyba. Třetí je selhání systémů. To může nastat díky vnějším vlivům jako jsou přírodní katastrofy. Čtvrtá příčina je konektivita. Telekomunikační infrastruktura není dokonalá a ke ztrátě připojení dojít může. Jak podpořit provoz kolokačního centra? Dá se podpořit fyzickým firemním personálem, pomocí zaměstnanců poskytovatele, vzdálenou správou a kolokačními službami. Článek obsahuje seznam dodavatelů cloudových služeb a kolokačních řešení.


Pět způsobů jak se letos starat o data

CIO Business World 03/2021, Anna Frazzetto, příloha Ovládněte svá data, str. XI-XV

Jak se v roce 2021 starat o data? Kvůli většímu a častějšímu přenosu dat je nutné se zamyslet nad úniky dat a ochranou soukromí. V této oblasti může pomoci umělá inteligence, která aktivně eliminuje úniky dat na základě sledování, omezování, nebo blokování přístupu a sdílení. Navíc se AI umí učit z dřívějších útoků a případů ztráty dat. Jeden ze způsobů jak zefektivnit zabezpečení přístupu je zavedení SSO nebo-li jednotného přihlašování. Je také důležité testovat a hodnotit existující procesy vícefaktorového ověřování a jeho zranitelností. SSO může fungovat jen v případě, že vícefaktorové ověřování je plně funkční. Je také dobré přehodnotit shromažďování dat z digitálních interakcí. Na základě diskuze s interními partnery může IT posoudit, která data je potřeba shromažďovat a sestavit přehledy pro sledování, vyhodnocování a sdílení údajů o úspěšnosti interakce. Je také možno zvážit edge computing. Klíčové pro jeho zavedení je zjistit v jakém rozsahu je zapotřebí zpracování dat v reálném čase a bezprostřední rozhodování pro udržení zákazníka a zachování konkurenceschopnosti podniku. Nakonec se vyplatí si položit otázky pro sestavení kontingenčního plánu jako jak rozsáhlou ztrátu dat dokáže podnik unést nebo kde práce na dálku způsobila nadměrnou zátěž systémů a odhalila slabiny.


Analytika ve světě cloudů

COMPUTERWORLD 05/2021, Bob Violino, str. 18-20

Analýzy dat se přesouvají směrem do cloudového prostředí. Nejvýznamnějším trendem v roce 2021 je použití otevřených, kontejnerizovaných analytických architektur, které umožňují lépe sestavovat analytické funkce. Díky tomu lze v podniku rychle vytvářet flexibilní, inteligentní aplikace, které pomáhají datovým analytikům propojovat poznatky s aktivitami. Cloud nabízí škálovatelnost a možnost pracovat s daty s exponenciálně rostoucím objemem. Analýzy v cloudu vyžadují použití nových přístupů, dovedností, architektury a ekonomiky. Jakým výzvám je nutné čelit při převodu analýzy dat do cloudu? První výzvou je strach ze ztráty kontroly a z neznámého. Tradiční role IT a ředitele IT byla v minulých letech chránit a opatrovat firemní aktiva. Nyní je důležité aby IT ředitelé spolupracovali, schvalovali a zaváděli cloudové platformy. Pro motivaci ke změně systému může sloužit cloudové zkušební prostředí. Druhou výzvou je realizace změny. Skutečný přesun do cloudu nemusí být jednoduchý. Je nutné, aby nedošlo k přerušení firemních služeb. Jak to zajistit? Buď přepracovat firemní aplikace pro cloud nebo je možnost i přesunu bez nutnosti změn. Třetí výzvou je získání potřebných dovedností. Spíše než specialisty pro podporu každé části souboru technologií v tradiční analytice, vyžaduje prostředí cloudové analytiky komplexnější přístup. Je potřeba rozumět nabídkám cloudové platformy, přijmout standardní vzory a vše přizpůsobovat novým metodám. Nejlépe lze využít cloudové prostředí se znalostí dovedností k vytváření, udržování a odvozování analýz z datových jezer a znalosti jak využít cloudově nativní a jinou AI. S tím mohou pomoci i konzultanti. Čtvrtou výzvou je zabezpečení dat. Poznatky získané z datové analýzy mohou představovat konkurenční výhodu. Také informace o zákaznících je potřeba chránit. proto je nutné nastavit přístup ke cloudovým aplikacím a datům. Pátou výzvou je omezení exploze nákladů na cloud. Je důležité najít dodavatele, který si nevynucuje připoutání ke cloudu. Dva nejefektivnější způsoby jak kontrolovat cloudové náklady jsou kontrola nad způsobem vytváření cloudových účtů a transparentnost informací o tom, kdo cloudové prostředky využívá.


Převod aplikací do cloudu

COMPUTERWORLD 05/2021, David Strom, str. 26-27

Jaké jsou nejčastější chyby při převodu aplikací do cloudu? První chybou je použití VPN pro vzdálený přístup. VPN může fungovat jako vstupní bod pro hackery. Je lepší VPN nahradit konceptem Zero Trust, kde je řídící rovina tvořená identitou poskytující přístupový kontext. Druhou chybou je volba nesprávného cloudového portfolia. Je nutný privátní cloud? Jsou k dispozici správné subverze OS pro spouštění konkrétních aplikací? Má firma správné druhy konektorů a autentizační ochrany pro zajištění provozu daných aplikací a vybavení běžícího ve firemní infrastruktuře, kde se nepočítá s migrací?Třetí chybou je, že firemní bezpečnostní situace není vhodná pro cloud. Sem patří nezabezpečené úložné kontejnery, nesprávné nastavení přístupových práv nebo zbytečně otevřené porty. Čtvrtou chybou je netestování plánů pro obnovu po havárii (DR). I aplikace, které jsou v cloudu jsou závislé na konkrétních webových nebo databázových serverech a dalších prvcích infrastruktury. DR plán by měl obsahovat dokumentaci těchto závislostí a scénář, který popisuje nejdůležitější pracovní toky. Existují nástroje, jako je Chaos Monkey, které mohou otestovat firemní infrastrukturu v cloudu. Díky nim otestovat odolnost vůči náhodným selháním. Klíčovým prvkem je zajistit automatizaci a nepřetržitost procesu, aby došlo k odhalení úzkých míst a nedostatků infrastruktury. Pátou chybou je nedostatečně optimalizovaná autentizace pro převážně cloudové portfolio. Využití nástrojů pro správu identit a přístupu nemusí odpovídat současnému způsobu využití autentizačních potřeb firmy. Šestou chybou je zastaralost obsahu Active Directory (AD). Adresář AD nemusí odpovídat realitě z hlediska seznamu existujících i autorizovaných uživatelů, aplikací a serverů. Je potřeba ho pročistit. Sedmou chybou je nevyužití potřebné pomoci. Mnoho poskytovatelů MSSP se zaměřuje na migrace aplikací, je dobré je požádat o pomoc.


Cloudový serverless: Jak na to

COMPUTERWORLD 06/2021, Martin Heller, str. 19-22

Serveless computing je cloudový model spouštění, ve kterém poskytovatel cloudu dynamicky přiděluje a poté účtuje uživateli jen výpočetní prostředky a úložiště potřebné ke spuštění určité části kódu. Serveless computing je tedy computing na vyžádání s platbami podle skutečného využití back-endu. Tento model stále využívá servery, ale uživatel se nezabývá jejich správou. Když přijde požadavek do koncového bodu serveless, back-end buď znovu použije existující spuštěný (hot) koncový bod, který již obsahuje správný kód, nebo alokuje a upraví prostředky z poolu anebo vytvoří instanci a přizpůsobí nový koncový bod. Infrastruktura spustí tolik instancí, které jsou potřeba ke zpracování příchozího požadavku a všechny nečinné instance uvolní po uplynutí doby stanovené pro pohotovost. FaaS (funkce jako služba), zahrnuje mnoho serverless architektur. V případě FaaS píše uživatel pouze kód funkce a infrastruktura se stará o poskytování runtime prostředí, načítání a spouštění příslušného kódu a o řízení životního cyklu doby běhu. Jaké jsou nástrahy cloudového serverless? Nejběžnější problém je studený start. Pokud nejsou k dispozici žádné spuštěné koncové body, když přijde příslušný požadavek, musí infrastruktura vytvořit instanci nového kontejneru a inicializovat ji firemním kódem. Vytvoření instance ale může trvat několik vteřin, což vede ke zpomalení služeb. Vyhnout se tomu lze díky pingu pro udržení aktivního stavu, ale to zvyšuje náklady. Dále lze použít architekturu s lehčí strukturou než kontejnery. Třetí možností je spuštění procesu runtime v návaznosti na bezpečnostní handshake s koncovým bodem, nikoli až po plném vytvoření připojení. Další možností je udržovat kontejner vždy spuštěný. Druhým problémem je tzv. přiškrcení (throttling), nebo-li redukce počtu instancí serveless, které lze používat. Přiškrcení lze řešit opatrným doladěním limitů pro pokrytí legitimního využití ve špičkách. Třetí problém je spojený se situací, kdy vrstva úložiště nemusí být schopná zvládnout provoz ve špičkách. Řešit to lze například použitím cache umístěných v paměti nebo front, které mohou pojmout data ze špiček a rychle je zapsat do databáze. Jaké platformy pro cloud serverless jsou k dispozici na trhu? První je AWS Lambda. Jedná se o nabídku typu FaaS. Podporuje stateless kód psaný v jazycích Python, Node.js, Ruby, Java, C#, Powershell a Go. Funkce Lambda běží jako reakce na události. Microsoft Azure Functions je výpočetní serverless platforma řízená událostmi, která také dokáže řešit složité orchestrační problémy. Azure Functions lze vytvářet a ladit bez dalšího nastavování, nasazovat a provozovat se škálováním v cloudu a integrovat služby pomocí spouštěčů a vazeb. Běh funkcí vyvolává pomocí spouštěčů. Google Cloud Functions je škálovatelná platforma FaaS s platbami podle skutečného užívání. Má integrované funkce monitorování, protokolování a ladění a vestavěné zabezpečení na úrovni rolí. Také podporuje požadavky HTTP. IBM Cloud Functions je vícejazyčná programovací platforma FaaS, založená na technologii Apache OpenWhisk. Oracle Cloud Functions a Fn Project je platforma, která umožňuje vývojářům vytvářet, spouštět a škálovat aplikace bez správy infrastruktury. Functions mají integraci s platformou služeb Oracle Cloud Infrastructure. Cloudflare Workers je hraniční síť dobře známá svou ochranou webů před útoky DDoS. Serveless Framework je jedním ze způsobů, jak částečně zabránit připoutání k dodavateli FaaS. Nahradí firemní kód do platformy FaaS. Apache OpenWhisk je open source platforma serveless funkcí. Má bohatý programovací model pro vytváření serveless prostředí. Fission je open source serverless framework pro Kubernetes. Fission pracuje pouze s kódem. Knative je platforma vytvořená společností Google. Řeší těžké úlohy jako nasazení kontejnerů nebo automatické škálování. Kubeless je open source Kubernetes nativní serveless framework navržený pro nasazení do klastru Kubernetes. OpenFaaS je open source serverless framework pro Kubernetes, zaměřený na snadnou tvorbu funkcí serverless. Co si vybrat? Jako u jiných řešení, vždy záleží na okolnostech dané firmy.


Jak naplánovat přechod do cloudu a efektivně rozvíjet hybridní cloudové prostředí

IT Systems 04/2021, Miroslav Klásek, příloha Cloud Computing 2021, str. 2

Základem přechodu do cloudového prostředí by mělo být jasné a srozumitelné definování očekávání i předpokládaného splnění vybraných cílů. Podstatou přijetí cloudových technologií je získání či udržení schopnosti reagovat na rychle se měnící požadavky zákazníků. K počátečním diskusím a úvahám patří i technické otázky včetně těch, které souvisí se stávajícími aplikacemi a používanými technologiemi. Důležité je zohlednit také způsoby vývoje či nasazování nových aplikací, rozvoj provozního prostředí včetně síťových prvků apod. Mezi předpoklady úspěchu patří i porovnání skutečnosti s nejlepšími osvědčenými cloudovými prostředími a srovnatelnými společnostmi a vyhodnocení, jak moc jsou neměnné stávající procesy či zda již existuje nějaká strategie. Stranou nemůže zůstat ani splnění legislativních požadavků a nařízení. Je také vhodné se zamyslet i nad tím, jaké jsou největší překážky pro přijetí této technologie. Zdaleka přitom nejde jen o jednu či dvě oblasti, překážek může být podle konkrétní organizace řada. Od problémů se zabezpečením dat přes nedostatek kvalifikovaných pracovníků. Celý přechod do cloudu lze rozdělit do několika samostatných etap. Na samém počátku je nutné sestavit pracovní tým, který bude mít mimo jiné na starosti vysvětlení důležitosti a smyslu samotné transformace i prověření ochoty k tomuto kroku. V dalších etapách pak dochází k definování strategie migrace aplikací včetně stanovení finanční náročnosti a následuje samotný přechod. Mezi aktivity poslední etapy pak patří validace provedených kroků. Pro implementaci je dobré vybrat silného partner a, který zamezí finančním i časovým ztrátám způsobeným objevováním slepých cest a umožní získat kontrolu nad zaváděním nejen cloudových služeb, ale obecně všech nových technologií.


Hybridní cloud Je to přeceňovaný hype nebo nevyhnutelná evoluce?

IT Systems 04/2021, David Lintimer, příloha Cloud Computing 2021, str. 6

Hybridní cloud můžeme chápat jako řešení kombinující privátní cloud s veřejným v rámci jediné infrastruktury. Používá se také název multi-cloud, ale ten obvykle označuje infrastrukturu využívající několik public cloudů zároveň. Výhodou hybridního cloudu je to, že na privátním řešení lze provozovat databáze, úložiště a vše spojené s běžným provozem a ve veřejném cloudu škálovat jen v momentě, kdy je potřeba extra výkon. Nakombinování privátní části od lokálního providera s některým z globálních veřejných cloudů také znamená významnou úsporu nákladů. Každý provozovatel on-line projektu by se měl nejdříve zamyslet jestli vůbec potřebuje cloudové řešení. Cloud znamená téměř okamžitou škálovatelnost, ale fyzická řešení zase disponují výrazně vyšším garantovaným výkonem a nižší síťovou režií. Také jednotka výkonu u fyzických řešení vyjde levněji. Dalším zásadním bodem jsou technologie a architektura softwaru, který firma používá. Je ve firmě zřízen systém microservices a nejmodernější technologie? Pak nebude problém přejít na hybridní cloudové řešení. Mnoho firem ale provozuje mnoho let starý software, u kterého je migrace na takovou infrastrukturu prakticky nemožná. V takovém případě by přesun do hybridního cloudu znamenal nutnost aplikace zcela přepsat. Co se týče zabezpečení hybridního cloudu, obecně se za nejzranitelnější místo považuje propojení mezi privátní a public částí cloudu, ale ta je u většiny poskytovatelů velmi dobře vyřešena a šifrována. Hybridní infrastruktura zranitelnější, protože kombinuje různé typy řešení od různých providerů. Nutnou podmínkou pro přechod na hybridní cloud je kompatibilita firemního softwaru a používaných technologií. Pokud zároveň firma potřebuje mít možnost okamžitě škálovat výkon, a to v řádu stovek procent či víc, hybridní cloud je vhodnou variantou. Na druhou stranu pokud má firma poměrně předvídatelný nebo se nečekané výkyvy nároků na výkon infrastruktury pohybují v desítkách procent, hybridní cloudové řešení by bylo neekonomické.


Bez softwarově definovaných center se firmy neobejdou

IT Systems 04/2021, Martin Kryc, Roman Panenka, příloha Cloud Computing 2021, str. 12

Jak funguje softwarově definovaný přístup (SDx)? Pokud je zapotřebí něco v tradičních datových centrech konfigurovat, je nutné každý komunikační prvek nastavovat samostatně, zařízení po zařízení tak, aby bylo dosaženo požadované funkcionality celku. U SDx se vše provádí z jednoho centrálního bodu nebo-li orchestrátoru. Do něj se zadají pravidla, která má daná síť splnit. A centrálně řízený orchestrátor jednotlivé prvky nakonfiguruje. Takto je možné přistupovat například k routingu a přes SD-WAN orchestrátor konfigurovat, spravovat a optimalizovat přenosové trasy i mezi kontinenty. Anebo je možné SDA orchestrátor využít k optimalizaci a nastavování uživatelských přístupů, v LAN sítích, klidně i ve více geografických lokalitách. V případě datových center orchestrátor umožňuje automatizovat konfiguraci jednotlivých komunikačních prvků v prostředí, které obsahuje jednu, ale I více lokalit (distribuční DC). Případně část datového centra může být v cloud computingu různých poskytovatelů. U SDx je také podstatné, že v něm je oddělena trasa pro konfiguraci a pro data, konfigurační vrstvy jsou oddělené od přenosných vrstev. Pokud se buduje datové centrum, je první vrstva aplikace frontendová, ke které se připojují uživatelé z internetu. Samotné zpracovávání zařizuje ve většině případů druhá vrstva, tedy backend. Ta zpracovává požadavky z frontendu a využívá vstupy z databázové vrstvy. Aby byl v tradičním datacentru obsah ochráněn, je nutné data zabezpečit, aby komunikace, která na frontend přichází, byla za síťovým firewallem, za aplikačním firewallem a za nějakým balancerem. Ve standardním světě se nastavují příslušné síťové prvky, a IP adresy tak, aby pakety mohly přes tyto tři prvky procházet. Tím lze zakázat, aby uživatel přes internet tyto tři prvky obešel a rovnou se dostal na frontendový server. V SDx světě není zapotřebí konfigurovat jednotlivé prvky. Ve světě SDx se daná cesta buduje softwarově. Orchestrátoru se zadají příkazy, že mají být cesty nějak pozměněny a orchestrátor plošně provede rekonfiguraci po jednotlivých prvcích. Administrátor přitom vůbec nemusí fyzicky do datacentra chodit, zvládne to pomocí aplikace. Co se týče komunikace mezi datovými centry, u klasických datových center se mezi databázemi budují samostatné datové trasy. Databáze fungují obrazně v jedné síti a mohou se synchronně replikovat. V SDx světě není vyžadováno přímé propojení mezi dvojicí datových center, využít lze jakýkoliv transport, který je k dispozici. Může to být třeba internet, MPLS. Jaká je budoucnost data center? Nástup virtualizace serverů někdy na přelomu tisíciletí byl přelomový a datová centra si mohly dovolit i menší subjekty. V následujících desítkách let nebude výjimkou, aby jeden IT specialista obstarával klidně velké množství serverů najednou.


Jak Covid ovlivnil trendy v oblasti ukládání a zálohování dat

Reseller Magazine 6/2021, str. 32-33

Zástupci různých technologických společnosti v ČR (Dell Technologies, Fujitsu, Hewlett Packard Enterprise, QNAP, Rakutech, Veeam, Zebra systems) dostali prostor k vyjádření se k tomu jak se za posledních dvanáct měsíců změnil přístup jejich zákazníků k práci s firemními daty a které trendy a technologie nebo přístupy budou hrát roli v následujících měsících roku 2021 v oblasti ukládání a zálohování dat. Přístup zákazníků se změnil rapidně. Lidé začali pracovat z domova v obrovské míře. Díky tomu se ale také navýšil počet kyberútoků a byl nedostatek hardwaru na trhu. Pro většinu firem bylo prioritou zajistit bezpečný přístup zaměstnanců dovnitř sítě, nebo mít nástroje pro bezpečnou spolupráci. Správa vzdáleného hardwaru se dala zvládnout díky krátkodobému pronájmu SaaS. Možnost spravovat firemní data odkudkoli se stala nutností. Firmy nyní vybírají nové technologie takové, které jsou flexibilní a lze je škálovat. Ve velké oblibě je model služeb PAYG (Pay As You Go). Co se týče zabezpečení, jsou úspěšná ta zálohovací řešení, která nabízí principy pokročilé aktivní ochrany. Trendem je také možnost nasazovat jednotlivé datové služby během celého životního cyklu dat a to ve formě mikro-services. Bude zvyšovat i poptávka po ochraně dat, která pokryje jak pracovní stanice, tak cloudové aplikace. Hardwarová zálohovací zařízení pravděpodobně získají hybridnější funkce. Zákazníci se ptají i po funkcích, díky kterým jsou schopní identifikovat útoky v jejich sítích. Chtějí jednoduchou správu a proto preferují integrované zálohovací systémy zahrnující software, úložiště i deduplikaci v jednom zařízení. Trh s cloudovým prostředím v oblasti ukládání a zálohování dat neustále roste. Už se nejedná pouze o obyčejný cloud, systémy nabízí například plnohodnotný virtualizovaný NAS. Cloud se využívá hojně ve formě IaaS nebo SaaS. Firmy také používají hybridní nebo multicloudová prostředí. O slovo se hlásí i kontejnerizace. Enormní závislost firem na technologiích způsobuje, že se dramaticky snižuje požadovaná doba obnovy dat. To vyžaduje mít nejen ověřené kopie dat, ale také mít nepřetržitou ochranu dat, přičemž potencionální ztráta dat je omezena na minuty a obnovena během několika sekund u kritických úloh. Nelze ani opomenou obrovský nárůst využívání nástrojů pro vzdálenou komunikaci. Co bude trendem v následujících měsících? Je to například poptávka po větším využití AI v podnikových procesech nebo dokonalejší analytika firemních dat. Také firmy chtějí vyjít zákazníkům vstříc a lépe a rychleji reagovat na jejich nové požadavky.

Novinky, Sekce Datacentra
Košík