Přinášíme vám pravidelné shrnutí zajímavých článků z odborného tisku a specializovaných webů. Pro členy Asociace máme k dispozici podrobnější rozbor obsahu. Přihlášení zde.
Datová jezera: Kdy ano a kdy ne?
COMPUTERWORLD 01/2021, Andy Patrizio, str. 16-18
Desítky let byly datové sklady (datawarehouse) jasnou technologií pro ukládání dat. V roce 2010 se objevila datová jezera (data lakes). Tyto dvě technologie mají společný jeden prvek a to ukládání a analyzování obrovských množství dat. To je ale vše. Zásadní rozdíl mezi datovým skladem a jezerem spočívá v tom, že datové jezero používá schéma pro čtení, zatímco datový sklad používá schéma pro zápis. Ve schématu pro zápis se nejdříve vytvoří datové tabulky a následně tato schémata se konfigurují pro formát dat vytvořených tabulek. Data se tedy intenzivně zpracovávají před svým uložením. To znamená velké množství práce na přípravě dat předem, poté co jsou ale data uložena, lze je rychle načítat, zpracovávat nebo analyzovat. Ve schématu pro čtení z datového jezera je postup obrácený. Všechna data natečou do datového jezera a teprve potom se vytvářejí tabulky a schémata pro čtení dat za účelem analýzy. To ale znamená pomalejší čtení, protože data se zpracovávají až při svém čtení. Také to ale poskytuje flexibilitu a škálovatelnost, protože za provozu lze měnit schéma. Problémem podniků s datovými jezery je to, že je podniky nevyužívají správně, do datového jezera tečou všechna data a zkoumají se až později. Bez řádné inventarizace dat pak nastává neúspěch, protože není jasné, jaké mají data účel a kontext. Nekvalitní data potom mohou zmařit třeba snahu o začlenění umělé inteligence nebo strojového učení do firemních procesů. Technologie datových jezer za deset let učinila velký pokrok a proto odborníci doporučují pokud dříve měla organizace špatné zkušenosti se zavedením datových jezer, zkusit technologii znovu. Pokroku v oblasti datových jezer zásadně pomohly vylepšené nástroje i přechod do cloudového prostředí. Poskytovatelé jako AWS, Google nebo Microsoft nabízejí komplexní řešení, která práci s datovým jezerem usnadňují.
Jak na analýzu rizik pro migraci do veřejného cloudu
IT Systems 1-2/2021, Mike Brussel, příloha IT Security, str. 12-13
Ve firemním prostředí neustále přetrvává obava bezpečnosti u veřejného cloudu. Úniky dat a narušení soukromí jsou obzvláště důležité pro organizace pracující s vysoce citlivými daty vztahujícími se k finanční, osobní nebo mzdové problematice. Ačkoliv citlivá data mohou být ve veřejném cloudu uložena, závažnost škody, která může být způsobena chybou nebo únikem, znamená, že je třeba k rizikům přistupovat a eliminovat je systematicky a to jak před tak i po migraci do cloudu. Je třeba předem zvážit tři rizika. Prvním rizikem je uzavřená smlouva s dodavatelem řešení (CSP Cloud Service Provider). Nejprve je nutné se podívat na to, jaké bezpečnostní ISO standardy vybraný CSP slibuje dodržovat. Také je nutno zkontrolovat jaké jsou právní povinnosti a rizika, které má dodržovat firma. Jak vybraný CSP dodržuje standardy, které si firma nastavila pro účely dodržování předpisů? Je dobré zjistit jaké aktivity, které CSP plánuje udělat v případě úniku dat. Mělo by se zkontrolovat, koho považuje za odpovědného za úniky, jaký je plán reakce v případě úniku a jak má nastaven proces kontroly. Druhým rizikem je architektura cloudového softwaru. Kontroly architektury jsou obzvláště důležité pro prostředí hybridního cloudu, kde aplikace běží jak na strojích ve veřejném cloudu, tak na strojích v privátním datacentru, protože umožňují maximálně udržet citlivá data a aplikace v privátním prostředí. Z tohoto důvodu je extrémně důležité pracovat přímo s vývojovým a administračním týmem, aby firemní pracovníci dobře rozuměli architektuře svých systémů. Třetím rizikem je hardwarová konfigurace. Výběr správného hardwaru může poskytnout fyzickou bezpečnost pro firemní kritické aplikace a zároveň pomoci chránit důvěrná data před úmyslnými útoky. Jednou z možností jsou hardwarové bezpečnostní moduly (HSM), což jsou zařízení, která mohou omezovat přístup k datům organizace. Další rychle se rozvíjející technologií jsou důvěryhodná prostředí pro spuštění (TEE). TEE jsou části počítačových procesorů, které nabízí zařízením prostor pro běh kódu izolovaně od zbytku zařízení. Tím kód ochrání před potenciálními hrozbami. Takováto analýza rizik ukáže mnoho bodů, na které si při přechodu do veřejného cloudu musí firma dát pozor, ať už jde o smlouvy, software nebo hardware.
Víte, na co se soustředit při výběru datového centra?
IT Systems 1-2/2021, Martin Souček, příloha IT Security, str. 24-25
O tom jak vybrat datové centrum a jaké služby zvolit, není vůbec jednoduché rozhodovat. Existuje několik způsobů pro posuzování provozní spolehlivosti a možného rizika. Mezi měřitelné patří například srovnání s požadavky definovanými organizací Uptime Institute, která stanoví čtyři základní úrovně spolehlivosti a výkonnosti datových center, označované Tier I až IV. Metodiky vycházejí z reálných provozních zkušeností a z požadavků na spolehlivost datových center. Klasifikace Tier se zaměřuje primárně na technologie, ale například fyzickou nebo požární bezpečnost řeší spíše okrajově. Hodnocení pak obvykle obsahuje údaj o maximální době výpadků. Mnohem komplexněji hodnotí kvalitu datových center standard ANSI/TIA-942. Zahrnuje čtyři základní oblasti: lokalitu a stavební část, elektroinstalaci a chlazení, konektivitu a provozní a fyzickou bezpečnost. Obecně se dá říct, že znamená-li pro fungování firmy výpadek v řádu hodin závažné problémy, měl by design datového centra být na úrovni Tier III. Žádný stoprocentně spolehlivý systém neexistuje, ani u nejvyšší úrovně Tier IV. V případě výpadku je dobré mít vytvořené záložní řešení v jiné lokalitě, které poběží buď souběžně, nebo naskočí v případě výpadku základního. Co se týče bezpečnosti převládá názor, že IT je v datových centrech ve větším bezpečí než ve vlastních prostorách firmy nebo organizace a že dosažení stejné úrovně bezpečnosti jako v datovém centru vyjde firmu ve vlastní režii podstatně dráž. Obsah a rozsah IT bezpečnosti však bývá vnímán různě. Bezpečnost IT zahrnuje tři základní oblasti: fyzickou bezpečnost, provozní bezpečnost a bezpečnost dat. Všechny tři jsou stejně důležité. Fyzická bezpečnost vytváří preventivní ochranu dat a technologií před poškozením nebo zcizením. Spadá do ní technologické a personální zabezpečení objektu, způsob ověřování totožnosti a sledování pohybu osob od vstupu do budovy až po přístup k IT nebo kritickým provozním technologiím. U personálního zabezpečení objektu je nezbytnou součástí prevence nepřetržitá kontrola prostor z dohledového pracoviště. Úlohou provozní bezpečnosti je zajistit bezpečný a spolehlivý provoz všech technologií. Její vlastnosti jsou do značné míry určeny technologickým řešením datového centra a jeho personálním zajištěním. Základ provozní bezpečnosti tvoří monitorovací a řídicí systémy, pravidelné kontroly a testování technologií, včetně jejich včasné opravy nebo obnovy, a v neposlední řadě i pravidelná školení pracovníků. Předcházet problémům umožňují např. systémy řízení infrastruktury datových center (DCIM). Do datové bezpečnosti spadá jak obrana před neoprávněným přístupem nebo útokem z vnějšího prostředí, tak ochrana před narušením nebo zneužitím dat zevnitř datového centra. K obraně před napadením zvenčí slouží množství bezpečnostních technologií a softwarových řešení. Každé zabezpečení má svoje technologické i cenové limity, které je třeba posuzovat z pohledu nákladů a přínosu. Co se týče nákladů na datové centrum náklady musí zahrnovat nejenom výlohy za provoz, jako jsou energie, výdaje za prostory nebo nájmy, na pravidelné testy, kontroly, profylaxe a v neposlední řadě i na mzdy IT personálu, ale také výdaje a ztráty způsobené výpadky. Služby datových center se nejenom názvem, ale ani obsahem často příliš neliší. Většina poskytovatelů nabízí pronájem pozice v racku, části racku, celého racku nebo skupiny racků včetně různě zálohovaného napájení a konektivity. Co ale může jednotlivé poskytovatele výrazně odlišovat, je kvalita individuálního přístupu k zákazníkům a úroveň spolupráce na specifikaci technického řešení.
Veřejná správa vloni o třetinu navýšila odběr cloudových služeb
IT Systems 3/2021, str. 50
Podle IDC měnící se struktura technologických výdajů naznačuje, že česká veřejná správa postupně přechází na modernější a flexibilnější modely zajištění a provozu IT zdrojů. On-premise řešení, která historicky tvoří naprostou většinu informačních a komunikačních systémů veřejné správy, ale samozřejmě i nadále bude udržovat a spravovat. Výdaje na ně ovšem v následujících letech o jednotky procent poklesnou. Velký potenciál české veřejné správě skýtají všechny formy cloud computingu. Řešení kategorie software jako služba (SaaS) ve větším měřítku pořizovala již v roce 2020. Česká veřejná správa v následujících dvou letech zvyšovat výdaje na služby SaaS dvouciferným tempem. Cloud computing si postupně našel cestu i do konzervativnějších hospodářských odvětví, veřejnou správu nevyjímaje. Ve veřejné správě došlo na praktickou aplikaci modelu vzdálené práce, který si vyžádal pořízení specifické[1]ho aplikačního vybavení. Jeho ikonou se staly nástroje pro spolupráci a komunikaci, označované také jako kolaborativní aplikace. Česká veřejná správa na ně vloni vynaložila o 36,2 procenta více prostředků než v roce 2019. I letos analytici v této kategorii předvídají bezmála třetinový meziroční nárůst. Česká veřejná správa kvůli kybernetickým útokům navýšila vloni meziroční výdaje na bezpečnostní software o téměř 13 procent. Letos i příští rok bude mít dle predikce analytiků růst téměř desetinovou hodnotu. Ve srovnání s Evropou česká veřejná správa v tomto ohledu mírně zaostává. Česká samospráva také nestojí stranou všeobecného technologického rozvoje. Pro ni se stalo prioritou téma chytrých měst. Vloni na příslušné technologie a služby vynaložila tuzemská samospráva meziročně o 14 procent více prostředků než předloni. Letos analytici IDC očekávají zhruba čtvrtinový nárůst výdajů.
Česká datová centra přecházejí na SSD
Reseller Magazine 3/2021, František Doupal, str. 30
Provozovatelé datových center v České republice průběžně navyšují kapacitu a modernizují svoji infrastrukturu. Podle průzkumu společnosti Kingston, kterého se účastnilo padesát subjektů poskytujících IaaS, PaaS a SaaS, se kapacita navyšuje v souladu s rostoucí poptávkou po službách datových center. Hlavním cílem modernizace je ve většině firem zvýšení efektivity datového centra a udržení konkurenceschopnosti poskytovaných služeb. Nová úložiště jsou nejčastěji instalována v případě rozšiřování datového centra nebo při optimalizaci jeho energetické efektivity. V České republice je běžný souběh HDD a SSD v jednom datovém centru. Při přechodu na SSD jde o okamžité výrazné navýšení výkonu a úsporu místa. V roce 2020 polovina datových center navyšovala svou kapacitu s ohledem na zvýšenou poptávku a objem dat. Druhá polovina datových center rozšiřuje svou kapacitu průběžně. Nově datacentra instalují úložiště třídy enterprise SSD různých typů jako SAS, NVMe a SATA. Klasické harddisky stále v českých datacentrech zůstávají, pouze jedno datacentrum v ČR využívá pouze SSD. Harddisky slouží pouze k zálohování pro cold data. Čtyřicet procent provozovatelů odhaduje, že k úplnému přechodu na SSD dojde za tři až čtyři roky. Podnikové SSD jsou připravené na vyšší zátěž, protože u nich není výjimkou stoprocentní cyklus v průběhu 24/7 a to po celý rok. Liší se od klientských disků výkonem, rentabilitou a výdrží. Na tyto podnikové SSD bude dobré se zaměřit v budoucnosti. Generování většího objemu dat u koncových uživatelů a firem, postupující digitalizace a rozvoj datově náročných oblastí povede k dalšímu rozvoji datových center. Posun v datových centrech bude také motivovaný snahou o prostorové a energetické úspory a také nutností lepšího zabezpečení úložišť.
Blíží se konec firemních datacenter?
businessworld.cz, 13.01.2021, Lukáš Kříž
Tomu, jaké jsou perspektivy datových center a síťové infrastruktury se v loňském průzkumu věnovala společnost INAP. Pět stovek IT manažerů a správců infrastruktury mimo jiné vyjádřilo svůj názor na vliv umělé inteligence, strojového učení nebo na měnící se požadavky na spolupráci IT útvarů s okolním světem. Díky novým technologiím čeká datová centra intenzivní vlna automatizace. Čtyři pětiny respondentů předpokládají, že do roku 2025 bude většina relevantních operací kvůli umělé inteligenci a strojovému učení kompletně automatizována. Právě tyto technologie zásadně mění způsob, jakým jsou data ukládaná a sítě konfigurované. Zhruba pětina manažerů se domnívá, že trh řešení AIOPs (Artificial Intelligence for IT Operations) je i přes rostoucí zájem podniků stále v plenkách. Za pravděpodobnější pokládají další rozvoj a zdokonalení existující softwarově definované automatizace. Díky umělé inteligenci a strojovému učení generují organizace podstatně více dat než v minulosti. Ukládání velkých objemů dat jim ale nezřídka přináší komplikace. Zatížení, či dokonce přetížení sítí představuje podle dřívějšího průzkumu společnosti INAP hlavní důvod pro přesun on-premise úloh do externích datových center nebo cloudových prostředí. Mezi hlavní motivy patří snaha o vyšší škálovatelnost a výkon aplikací, snížení zátěže datových sítí a posílení odolnosti datových center. Právě nynější cloudová migrační vlna nejspíše dovedla 66 procent respondentů letošního průzkumu k názoru, že do pěti let nebudou tradiční on-premise datová centra v podstatě existovat. Odklon od on-premise datových center nepředstavuje jediný dopad cloud computingu. Otevřel rovněž cestu k dalšímu rozmáhajícímu se trendu, jímž je serverless computing. Téměř tři čtvrtiny oslovených manažerů plánují právě tento model do roku 2025 využívat. Jeho popularita začala růst před šesti lety, kdy společnost Amazon uvedla na trh svou službu Lambda. Model umožňuje provozovat aplikace bez nutnosti ruční alokace výpočetních zdrojů nebo správy serverů. Jeho odpůrci poukazují především na bezpečnostní aspekty a na omezenou vhodnost jeho aplikace pro různé druhy úloh. Podle jejich názoru se hodí především pro služby s malými požadavky na zdroje. Téměř čtyři pětiny respondentů průzkumu společnosti INAP se domnívají, že skoro všechny podniky do pěti let začnou využívat multicloudová prostředí a strategie. Právě jejich kvalita, komplexnost a efektivita budou představovat hlavní výzvu nadcházejícího období. Lze ovšem předpokládat, že se tento problém stane v podstatě masovým, a podniky i konzultanti postupně získají bohaté zkušenosti pro jeho řešení. Rychlé odezvy a rychlé připojení žádají v podstatě všichni uživatelé síťových služeb. Část jejich poptávky dokážou v blízké budoucnosti uspokojit mobilní sítě páté generace, část si vyžádá změnu přístupu. 75 procent dotazovaných manažerů má za to, že většina podniků začne do pěti let přecházet na strategii edge networkingu. Bez ohledu na jeho definici jde o snahu maximálně snížit latenci přenosů. Nové způsoby přenosů a ukládání dat pravděpodobně nezůstanou bez dopadů na kybernetickou bezpečnost, resp. na její postavení a realizaci v organizacích.
Datová centra pod tlakem růstu cloudových služeb
businessworld.cz, 09.03.2021, Lukáš Kříž
Obor datových center čelí výzvám v oblasti zvyšování odolnosti, dopadů klimatických změn a environmentálních politik, nedostatku kvalifikovaných zaměstnanců nebo zostřujícímu se dohledu regulátorů. Pozornost odborné i laické veřejnosti přitahují také rostoucí energetické nároky datových center. Ta sama o sobě samozřejmě využívají technologie, jež zefektivňují jejich provoz. Problém spočívá v jejich neustále se zvyšujícím počtu a a velikosti. Velké či rozsáhlé výpadky stále patří kvůli svým důsledkům mezi důležitá témata podnikové informatiky. Firmy, oborové autority i vládní instituce na jejich výskyt reagují tvorbou a aplikací nových pravidel, voláním po vyšší transparentnosti a ustanovením formálního přístupu k tématu celkové odolnosti technologické infrastruktury. Ačkoli jde o holistické téma, provozovatelů datových center se týká velmi významně. Zvyšování odolnosti proti výpadkům umožňují změny architektury. Cloudové a distribuované aplikace lze částečně nebo plně přemísťovat či replikovat v různých zónách dostupnosti. Podobně k větší decentralizaci, mohou organizace pozměnit i nastavení síťových služeb a řízení zátěže. Pro mnoho podniků ale jde o citlivé a současně náročné téma. Obávají se ztráty kontroly a snížené efektivity správy. Situaci navíc často komplikují požadavky regulátorů. Energetická náročnost datových center neustále roste. Problém nevyřeší ani zvýšená efektivita provozu. Odběr bude růst stále rychleji. Největší spotřebu energie mají na internetu streamovaná média. Zvyšuje se rovněž tlak na eliminaci generátorů z datových center. Trendem v oblasti datových center je edge computing. Rozvoj edge computingu odklání tvorbu a zpracování dat mimo hlavní datová centra a jejich klíčové systémy. Stále větší část výpočtů probíhá v samotných zařízeních na okraji sítí nebo v lokálních a regionálních centrech. Jejich budování vyžaduje specifický přístup k architektuře i technickému provedení. Stejně jako v celé podnikové informatice i v oboru datových center roste zájem o automatizační řešení. Část manažerů se obává a varuje před předáním klíčových rozhodnutí strojům nebo externím programátorům. Obezřetnost je jistě namístě, ale automatizační vlna se již rozjela a zatím sbírá pozitivní ohlasy. V datových centrech běžně fungují pokročilé systémy pro správu infrastruktury, cloudové služby, jejich alokaci a distribuci, řídí umělá inteligence. Rozmach cloudových služeb a vznik hyperškálovatelných datových center přilákal do oboru mnoho nových investorů. Řada z nich disponuje bohatými zdroji prostředků a nepočítá nebo nevyvíjí tlak na rychlou návratnost. Z jejich majetkových vstupů může celé odvětví, stejně jako klientela, těžit. Také do byznysu datových center vstupují nové obchodní modely. Cloudové služby nabídly přístup pay-as-you-go, jenž podnikovou klientelu zaujal a v masové míře jej využívá. Odklon od kapitálových výdajů k provozním ovlivňuje i modely pronájmů datových center. Jako službu lze nově pořizovat řadu klíčových infrastrukturních služeb a komponent. Jde například o záložní energetické nebo datové systémy.
Jak na optimální správu dat v multicloudu
businessworld.cz, 11.03.2021, Avon S. Puri
Multicloudová prostředí se rychle stávají novým standardem při budování rozsáhlé, tzv. hyper-scale infrastruktury, kterou bude možné jednoduše přizpůsobovat podle obchodních požadavků a turbulentního vývoje na globálních trzích. V blízké budoucnosti většina podniků zavede architektury využívající více cloudů různého typu, aby mohly rozšiřovat a zmenšovat svoji infrastrukturu a dynamicky řídit prostředky nákladově efektivním způsobem. Budou také investovat značné úsilí a finanční prostředky do zapojení hyperautomatizačních technik do podnikových procesů týkajících se zaměstnanců i zákazníků a využívat umělou inteligenci a strojové učení ke zpracování dat. Správa multicloudové a neohraničené infrastruktury však bude vyžadovat, aby IT nejen koordinovalo množství různých prostředků, ale také umožnilo využití dosavadních tradičních aplikací, zajistilo bezpečnost a compliance a udrželo pod kontrolou náklady na infrastrukturu. IT manažeři dnes rozhodně musejí přemýšlet v mnohem širších souvislostech, než je budování solidní infrastruktury. Pokud chce IT vybudovat a provozovat efektivní a hladce fungující multicloudovou infrastrukturu, která bude vyhovovat rychlému tempu vývoje nových funkcí, musí zvážit několik otázek. První otázkou je jak zařídit přenositelnost dat? Vzhledem k tomu, že jsou aplikace rozprostřené po různých cloudech, musí nová architektura zajistit, že se mezi těmito cloudy budou moci plynule přesouvat i příslušná data bez ohledu na to, kde jsou uložená. Druhou otázkou je, jak koncipovat komplexní zabezpečení? Kromě základních architekturních služeb pro ochranu, vyhledávání, zálohování, obnovu a replikaci dat v různých cloudových prostředích je zapotřebí vytvořit také schopnost klonovat data, maskovat určité prvky a bezpečně uchovávat replikovaná data. To může výrazně pomoci při budování skutečně agilní organizace, která bude spolehlivě a bezpečně poskytovat více aplikací a funkcí. Třetí otázkou je, jak zajistit 100% dostupnost dat? Postupná fragmentace dat s sebou nese riziko vzniku ostrovů datové infrastruktury, které je složitější spravovat a udržovat. Architektura musí být koncipovaná tak, aby zjišťovala dostupnost dat bez ohledu na to, kde se nacházejí, nebo jak složité je data získat. Čtvrtou otázkou je, jak se zotavit po havárii? Obnova po havárii, ochrana proti vyděračskému softwaru a soulad s předpisy jsou klíčové z hlediska zajištění kontinuity provozu. Obnova po havárii a complian¬ce budou zásadně ovlivňovat vývoj nových architektur a mezi prioritami plánů digitální transformace zaujmou nejvyšší pozice. Zavedení multicloudové architektury vede ke zjednodušení infrastruktury, a snižuje tedy náročnost údržby, což částečně uvolňuje ruce podnikovému IT k inovacím. Během několika příštích let dojde k dalšímu vývoji a standardizaci, která umožní vývojářům, aby se soustředili na budování obchodních řešení, nikoli na infrastrukturní otázky. Pro zákazníky a dodavatele bude významným přínosem vyšší provozní efektivita a produktivita, která urychlí přístup k datům.
Práce s daty je pro firmy nutností. V Evropě se ale až 85 procent z nich nevyužije, vyjdou tak do ztracena
byznys.ihned.cz, 02.02.2021, Ondřej Charvát
Big data jsou obrovskou příležitostí pro všechny organizace, které se mohou o svém podnikání a fungování dozvědět celou řadu klíčových informací. Na jejich základě pak mohou dělat lepší a kvalifikovanější rozhodnutí, následně růst a inovovat. I přesto ale spousta dat uniká a vychází do ztracena, ačkoli hodnota trhu s takzvanými big daty roste každoročně o miliardy dolarů, v Evropě se podle odhadů až 85 procent dat vůbec nevyužije. Dříve byla oblast velkých dat výsadou velkých firem jako telko operátorů či finančních firem. Nyní jsou však velká data dostupnější i menším podnikům. A to i díky dostupným cloudovým nástrojům na jejich zpracování nebo rozvoji nových technologií v oblasti internetu věcí a softwaru. Každý den vygenerují veškeří uživatelé internetu v průměru 2,5 kvintilionu bytů dat, na hlavu pak podle statistické agentury SaaS Scout připadá 1,7 megabytu. Díky aplikování pokročilých analytických nástrojů, algoritmů strojového učení, prvků umělé inteligence a nástrojů na přehlednou vizualizaci dat je možné z tohoto množství údajů identifikovat klíčové oblasti. Nezastupitelnou roli hrají data v oblasti vědy a výzkumu, podobně důležité mohou být i v tradičních odvětvích, jako jsou výrobní podniky, kde informace ze senzorů mohou hlásit blížící se poruchu zařízení. Článek obsahuje infografiku celosvětového využívání velkých dat.
Podniky v cloudu stále častěji provozují i úložiště
ITBiz.cz, 02.03.2021, Tomáš Jirásko
V důsledku událostí v roce 2020 považuje stále více firem cloudové technologie jako vhodné řešení pro své napjaté rozpočty. Současně vzrostly požadavky na přenosy dat a zajištění dostatečných síťových kapacit. Co z toho bude vyplývat pro další vývoj cloudových technologií a jejich využívání v podnikovém prostředí? Prognóza IDC FutureScape z roku 2021 uvádí, že 80 % podniků zrychlí svou migraci do cloudu až dvojnásobně, ať už jde o provoz aplikací nebo přesun samotné IT infrastruktury. Firma Pure Storage vidí v tomto ohledu jako klíčový trend přesun úložišť, respektive přípravu na tento proces spočívající v úpravě aplikací. Doporučuje nicméně, aby změny byly prováděny s rozmyslem, rychlá adopce moderní nativně cloudových technologií totiž vyžaduje změny na úrovni celé architektury IT. Podle studie společnosti Flexera realizuje dnes kolem 90 % podniků strategii založenou na multicloudovém přístupu, respektive na hybridních modelech zahrnujících využití veřejného i soukromého cloudu. Komplexní přístup ke cloudu se tak stává důležitou součástí širší strategie digitální transformace. Cloudové technologie mohou pomoci zajistit celou řadu cílů, podporují například kontinuitu podnikání, klíčové ale je, aby se staly součástí obchodní strategie jako celku. Podle IDC je pro rychlé a automatizované nasazování aplikací ve velkém měřítku vhodné maximálně využívat kontejnery a s nimi související mikroslužby. Infrastruktura s podporou kontejnerů se stává nutností; některé velké firmy dokonce nespoléhají na externí dodavatele, ale nástroje pro orchestraci kontejnerů vyvíjejí ve vlastní režii. Kontejnery a cloud se ideálně doplňují, vedle nejrozšířenější technologie Kubernetes zde má své místo i řada další nástrojů, například Portworx od Pure Storage podporuje škálovatelná a flexibilní úložiště dat napříč různými cloudy i prostředím on-premise. V roce 2020 firmy často nasazovaly cloudové služby překotně a nyní mají problém celé portfolio těchto řešení řídit a ekonomicky zvládat. Některé služby se proto zřejmě vrátí do místních datových center. Co je ale ještě důležitějším trendem, u využívaných cloudových služeb dojde nutně ke konsolidaci. Cloud přitom nabízí nejen flexibilitu samotného provozu, ale umožňuje i pružné změny samotných služeb a to bez předcházejících velkých vstupních investic. Naddimenzované služby lze snadno a rychle omezovat nebo i úplně rušit. V roce 2020 podniky ve velkém a mimo plán investovaly mimo jiné do notebooků pro zaměstnance, cloudových řešení a posílení síťových kapacit. Letos namísto toho dojde ke snaze budovat a zefektivňovat infrastrukturu jako celek, a to včetně datových center. Pro zaměstnance je dále důležité, aby v prostředí cloudu a vzdáleného přístupu byly k dispozici stejné možnosti a uživatelská prostředí, jako tomu bylo v aplikacích na vlastní podnikové infrastruktuře. A nakonec cloud s placením v režimu služby XaaS obecně ovlivňuje způsob, jak podniky chtějí nakupovat prostředky IT.