Rešerše: datová centra (4Q 2020)

Přinášíme vám pravidelné shrnutí zajímavých článků z odborného tisku a specializovaných webů. Pro členy Asociace máme k dispozici podrobnější rozbor obsahu. Přihlášení zde.


Jak vybrat datově-analytickou platformu

CIO Business World 05/2020, Isaac Sacolick, str. 36-38

Jak vypadá životní cyklus datové analýzy? Než mohou analytici a datoví vědci začít analýzy, je nutné zpřístupnit požadované datové zdroje v příslušných vizualizačních a analytických platformách. To může znamenat sloučení dat z různých podnikových systémů, extrahování dat ze SaaS aplikací nebo streamování dat ze senzorů IoT nebo jiných zdrojů. Tím lze získat požadovaná data pro účely analýzy a strojového učení. Podle toho jak jsou data kvalitní a komplexní, lze využít metodiku DataOps, katalogizaci dat, správu hlavních dat nebo další metody. Kvalita dat je důležitá, a také je nutno myslet na včasnost a rychlost přípravy nových dat k dalšímu zpracování. Poté následuje výběr optimálních datbází. K dispozici bývají datová jezera, datové sklady, platformy pro velká data. Také lze čerpat z grafových, dokumentových, sloupcových a jiných databází. Ke skladování a analýze dat slouží platformy jako Snowflake, Redshift, Big-Query, Vertica nebo Greenplum. Velké podniky mohou mít cloudové datové platformy jako Cloudera Data Platform nebo MapR Data Platform. I hlavní poskytovatelé veřejných cloudových služeb jako Azure a AWS nabízejí platformy a služby pro správu dat. Datová jezera umí spravovat Azure Data Lake, Amazon S3 nebo Google Cloud Storage. Pokud jsou data nahraná, vyčištěná a uložená datoví vědci a analytici mohou začít pracovat na analýzách a strojovém učení. Analýzy lze dělat v samoobslužných vizualizačních nástrojích jako jsou Tableau nebo Microsoft Power BI. Oba tyto nástroje jsou zaměřené na analyticky vzdělané uživatele z jiných oborů, nikoli přímo na datové vědce. Nabízejí vizualizace, kalkulace a základní analýzy. Umožňují základní integraci a restrukturalizaci dat. Pokud chce datový analytik automatizovat nejen slučování a přípravu dat, může využít platformu Alteryx Analytics Process Automation. Existuje také několik nástrojů a platforem pro datové vědce. Jejich smyslem je zvyšovat produktivitu pomocí technologií jako Python a R nebo zjednodušovat řadu provozních úkonů a manipulací s infrastrukturou. Takový nástroj je třeba Databricks, který umožňuje zavádět algoritmy do Apache Spark neboTensorFlow. Platforma SAS Viya spojuje přípravu dat, analýzu, prognózování, strojové učení, textovou analýzu a správu modelů strojového učení do jediné platformy typu ModelOps. ModelOps spočívá ve vytvoření opakovatelného, auditovatelného postupu operací směřujících k nasazení analytiky. K dalším platformám patří Dataiku, Oracle analytics Cloud nebo SAP Analytics Cloud. Podniky se liší v požadavcích na analýzu dat. Proto by měli hledat platformy z pohledu toho o již v podniku existuje.


V centru pozornosti je hybrid

CIO Business World 06/2020, Matt Asay, str. 18-19

Trendem dnešní doby je přesun databází do cloudu. Je tomu tak z důvodu snadného použití, úspory času nebo úspory nákladů. Mnoho firem pracuje alespoň ve dvou cloudech a tedy pracuje s multicloudem. Proč to tak ale dělají, firmy vlastně neví. Společnosti nebudují multicloud cíleně a strukturovaně, ale prostě u něj skončí. Cloudová infrastruktura a platformy pokrývají takovou šíři funkcí IT, že je nepraktické a nerealistické předpokládat, že se firmy budou dlouhodobě držet jediného dodavatele cloudu. Jen málokterá firma, která má různorodé potřeby, je tak disciplinovaná, aby využívala jediného poskytovatele. Společnosti se ale brání úplnému přechodu na cloudové databáze ať už z důvodu bezpečnosti, ceny nebo kompability. Jakkoli se firmy snaží přejít na cloud co nejdříve, některé pracovní zátěže ale stále zůstávají lokální. Možná tak některé zátěže zůstanou už napořád. Proto se firmy mnohem více zaobírají hybridní cloudovou strategií než multicloudovou strategií. Hybridní cloudová strategie je tedy pro firmy velmi důležitá. V centru pozornosti firem je tedy hybridní cloud a ne multicloud.


Návrat z cloudu může ušetřit

CIO Business World 06/2020, Clint Boulton, str. 20-21

Veřejný cloud dokáže výrazně zvýšit akceschopnost, ale pro přenos kriticky důležitých prostředků má i své stinné stránky. To potom vede k přehodnocení cloudových strategií a ke tzv. cloudové repatriaci. Hlavními třemi důvody pro cloudovou repatriaci jsou konsolidace prostředků, celkové náklady a otázka zabezpečení dat. To neznamená že cloud je drahý, ale to že pro danou pracovní zátěž firma nezvolila nejvhodnější způsob migrace. Příkladem takové firmy je Seagate. Tato firma zvolila AWS pro globální plán konsolidace čtyř datových center do jednoho. Po zavedení se ukázalo, že problém tkví v celkových nákladech na vlastnictví. Tato firma denně generuje 30 terabajtů parametrických dat. I když přesouvala pouze část z těchto dat, účet za přenosy dat mezi sedmi výrobními závody na třech kontinentech by se pohyboval v řádu miliónů ročně. Přenést takový objem dat navíc trvá více dní. Mít výpočetní prostředky k dispozici na vyžádání je ideální stav, ale o ukládání dat to neplatí, protože každou sekundou narůstají náklady. Proto se firma rozhodla repatriaci a přebudovat svá analytická řešení s využitím nativně cloudových nástrojů a architektur. Datové jezero bylo přeneseno do privátního cloudu. To umožňuje přesouvat velké soubory dat po světě za zlomek nákladů a navíc se zkrátila doba přesunu do datového jezera na 72 hodin. Seagate dnes provozuje hybridní prostředí zahrnující cloudy AWS, Azure a její vlastní datová centra. Není tedy dobré se vázat jen na jediného poskytovatele cloudu, protože čím víc prostředků a dat firma nasadí na jedné platformě, tím hůře se jí bude tato platforma opouštět. Firmy ale přitom chtějí mít flexibilitu a možnost volby, kde a jak budou své pracovní zátěže provozovat. V budoucnu se možná dočkáme multicloudových prostředí, ve kterých budou moci firmy oddělit výpočetní prostředky od úložišť a přesouvat pracovní zátěže vcelku nebo po částech mezi cloudy a lokálními systémy od různých dodavatelů.


Když ukládat, tak inteligentně

CIO Business World 06/2020, Radek Kubeš, str. 46-47

S ohledem na stále se zvyšující množství dat, využívaných pořád větším počtem často vzájemně nekompatibilních aplikací, přestává stačit klasický model primárního úložiště pro využívání dat a sekundárního umístění pro zálohy a archivovaná data. Proto je současným trendem softwarově definovaná infrastruktura. Ta navazuje na využití virtualizace, cloudu a hybridních řešení pro extrémní škálovatelnost a flexibilitu v rychlosti reakcí na neustále se měnící prostředí. Hraje také obrovskou roli v oblasti ukládání dat. Softwarově definované úložiště optimálním způsobem zajišťuje rozložení dat mezi různá privátní i veřejná cloudová úložiště, stejně jako on-premise úložnou infrastrukturu, s ohledem na celkové náklady a zajištění všech úloh, pro které jsou data využívána. Moderní úložné platformy zvládnou pod jedinou softwarově definovanou úložnou infrastrukturu zastřešit všechny typy úložišť. Zastřeší tedy jak cloud, tak disková poleve vlastním datovém centru nebo SAN a běžné NAS servery na pobočkách nebo v kancelářích. V současné době se stírá rozdíl mezi primárními a sekundárními úložišti ve prospěch moderních softwarově definovaných úložných řešení. S těmito řešeními nastupují také technologie využívající strojové učení a umělou inteligenci, které data třídí a směřují do různých typů úložišť. Tato automatizace je nezbytná pro zvládání přívalů da t a také pro zajištění toho, že budou mít všechny typy dat svoje jasné umístění, kde budou podle potřeby dostupná a bezpečně zazálohovaná. Ukládání dat v mnoha různých, vzájemně neintegrovaných a nekompatibilních úložných řešeních komplikuje možnost nahlížení na data jako na celek a dělat s nimi komplexní analýzy a vytěžit z nich hodnotu pro plánování. Dodavatelé platforem softwarově definovaných úložišť se proto zaměřují na možnost pracovat se strukturovanými i nestrukturovanými daty prostřednictvím jednotného rozhraní. Při výběru vhodného řešení je potřeba se zamyslet nad tím, zda podporuje různé typy veřejných a soukromých cloudů a zda se dá zapojit do současných úložných řešení.


Cloudy: Výpadků se nebojme, na množství dat nehleďme

COMPUTERWORLD 11/2020, Vít Petrjanoš, str. 16-20

Migraci dat na cloudovou platformu lze rozdělit do čtyř fází. První fází je naplánování migrace, které zahrnuje zjišťování stavu portfolia, pohled na architekturu aplikace a analýzu finanční návratnosti investic. Druhou fází je hromadná migrace dat. Organizace může zkopírovat lokálně uložené datové sady do fyzického zařízení, které se poté odešle poskytovateli cloudu. Následně se data do cloudu nahrají. Třetí fází je migrace dat po síti. Toto řešení je alternativou hromadného přenosu dat pomocí fyzického zařízení. Zde se data kopírují přes vysokorychlostní síťové připojení a migrační služba je použita pro ověření integrity dat. Čtvrtou fází je migrace serverů. Ta zahrnuje sestavení a přenos virtualizovaných lokálních úloh do cloudu, kde jsou rekonstituovány jako výpočetní instance. Tento postup se také nazývá lift-and-shift (rehostingový proces). Zajistit tyto fáze jsou schopní poskytovatelé AWS, Microsoft, Google a jiní. Jaké jsou výhody a nevýhody migračních služeb? Síťové přenosy jsou pohodlné, ale u velkých úložišť mohou být pomalé. Síťový přenos funguje nejlépe tam, kde se přenášejí menší objemy dat a kde jsou vyhrazené fyzické spojení s cloudem. Díky cloudovým migračním službám a zařízením vypadají služby vzdáleného úložiště jako sdílené síťové soubory, což zjednodušuje proces migrace. Zařízení pro hromadný přenos je lepší volbou pro kopírování desítek a více terabajtů, síťová služba kopírování dat by byla ve stejném objemu dat dražší. Převod kompozitních aplikací pracujících s databázemi lze částečně automatizovat pomocí služeb migrace databáze. Uživatelé ale musí ručně opravit všechny nastalé problémy. V současné době neexistují nástroje, které by usnadňovaly rozhodování o úpravách existujících aplikací, tak aby mohly používat nativní cloudové služby. Místo toho jsou pro scénáře replatformace k dispozici propracované architektonické plány nebo směrnice poskytovatelů cloudu. Jak je to s náklady na cloudové úložiště? Ty se liší podle konkrétního případu použití. Jedním z klíčových nákladových prvků je úložná kapacita. Velké podniky mohou migrovat a hostovat až petabajty dat. Pokud navíc působí ve více zemích, každá kopie dat znamená dodatečné náklady. Dalším nákladovým prvkem je provoz. Zpracování dat v cloudovém úložišti se liší. Ceny se obvykle počítají podle provedených tisíců nebo desetisíců operací. Poskytovatelé neklasifikují provozní náklady stejně, a proto je dobré mít optimalizované úlohy. Třetím nákladovým prvkem jsou náklady na síť a převod dat mimo region. V mnoha službách existují dvojí náklady, a to za gigabajt dat přenesených mezi servery v různých doménách a druhé jsou za gigabajt dat přenesených přes internet. Výdaje za přenos dat mimo region se obvykle připočítávají v případě, pokud se uživatel nachází mimo region, v kterém je cloudové úložiště umístěné. Snížit náklady na úložiště lze zjištěním kolik dat je třeba v cloudu uložit, jak často se k nim bude přistupovat a jak důležitá jsou pro činnost organizace. Podniky by také měly používat monitorovací nástroje nabízené poskytovateli cloudu, aby měly přehled o svém využití. Nepotřebná kapacita úložiště také může zvednout náklady, vhodná je i minimalizace přenosů dat. A jak přežít výpadek cloudu? Podnik by měl vytvořit strategii DR (disaster recovery), ty liší podle potřeb jednotlivých úloh a jejich důležitosti pro podnik. Druhým krokem je komunikace a zajištění transparentnosti cloudu. Třetím krokem je určení významu plánu DR pro podnik, tedy určit co je potřeba udělat pro implementaci plánu DR. Čtvrtým krokem je aktivace DR plánu. Pátým krokem je monitorování jednotlivých kroků během DR a nakonec je potřeba vyhodnotit průběh výpadku a zotavení. Podle čeho tedy vybrat cloudové služby? Je to jejich rozsah, nákladový model, souhlas s legislativou, výkonnost a možnosti správy.


5 pravidel pro přehodnocení digitální transformace

IT Systems 10/2020, Příloha ERP SYSTÉMY 2/2020, str. 1, Julie Sweet

V době krize kvůli pandemii Covid-19 musí firmy zrychlit na novou úroveň digitálního výkonu, aby splnily nová očekávání zákazníků a využily nové příležitosti k růstu. Nejdříve je nutné posouzení aktuální úrovně digitální vyspělosti ve firmě. Dále je dobré se řídit určitými pravidly. Prvním pravidlem je přesun do cloudu. Digitální jádro je možné vytvořit pouze se silným základem v cloudu, který poskytuje inovační, výkonnostní a talentové výhody pro to, aby se věci dělaly jinak a rychle. Je dobré si stanovit cíl, kdy alespoň 50% podnikání se přesune do cloudu v příštím roce až dvou. Dalším pravidlem je sestavení digitálního týmu. Vytvoření digitálního základu nelze provést samostatně a vyžaduje nové druhy vztahů s digitálními, technologickými a cloudovými společnostmi. Lze si najmout tým, který pomůže vybudovat dobré digitální jádro a přispěje tak k firemnímu úspěchu. Třetím pravidlem je učení se. Organizace musí při řešení složitých problémů přemýšlet nad rámec tradičních způsobů podnikání. Lze se učit od zákazníků, zaměstnanců, nebo lídrů v daném odvětví. Čtvrtým pravidlem je zeštíhlování. Mnoho společností se posunulo směrem k digitalizaci a začalo pracovat vzdáleně. Pokud má být zachována úroveň agility je dobré zvážit jaké vnitřní bariéry během krize padly. Poté je na řadě vytvořit štíhlé procesy rozhodování a správy. Posledním pravidlem je jednání s úmyslem. Pokud má společnost zrychlit, potřebuje pro to získat své lidi. Jasně formulovaný cíl je nezbytný pro techniky řízení změn, které využívají energii zaměstnanců řídit změny a pružně jednat.


Cloudové informační systémy versus informační systémy v cloudu

IT Systems 10/2020, Příloha ERP SYSTÉMY 2/2020, str. 20-21, Martin Knotek

Se vzdáleným přístupem uživatelů a prací na dálku je nutno zavádět nové postupy. Firemní systémy se nyní stěhují do privátních nebo veřejných cloudů. Co je informační systém v cloudu? Za informační systém v cloudu lze považovat jakékoli informační systémy, které jsou převedeny do cloudového prostředí a jsou uživatelům zpřístupněny na dálku. Většinou se jedná o standardní aplikace instalované na serverech poskytovatelů sdílené infrastruktury (IaaS) nebo platformy (PaaS) nebo na vyhrazených privátních virtuálních serverech (VPS). Někdy se lze setkat také s provozování softwaru jako služby (SaaS). Umístěním informačního systému do cloudu se organizace zbaví mnoha starostí s provozem infrastruktury nezbytné pro fungování informačního systému. Také si ulehčí fyzické a kybernetické zabezpečení a provádění a kontrolu zálohování. Výhodou je také převod geograficky odlišné lokality, připojení na internet s vysokou dostupností a nízkou latencí. Také je samozřejmá pravidelná aktualizace celého řešení. A co je cloudový informační systém? Cloudový informační systém je navržen a postaven pro online provoz od samotného začátku a umožňuje vzdálený přístup z jakéhokoliv zařízení s přístupem na internet. Tyto informační systémy bývají instalovány na serverech poskytovatelů sdílené infrastruktury (IaaS), na vyhrazených virtuálních serverech (VPS) nebo jsou provozovány jako software jako služba (SaaS) nebo přímo jako služba. Cloudové informační systémy mají stejné výhody jako informační systémy v cloudu. Výhodou je také to, že dohoda o úrovni služeb (SLA) je většinou formulována tak, že garantuje dostupnost celého systému až na úroveň rozhraní pro přihlášení uživatelů. Jak jsou definovány online služby? Tyto služby jsou navrženy stejně jako cloudové informační systémy pro online provoz ve webovém prostředí. Tyto služby většinou řeší pouze určitou malou specializovanou funkčnost. Většinou je není možné přizpůsobit potřebám uživatelů. Jejich výhodou je vysoká specializace a optimalizace výkonu a uživatelského prostředí pro výkon jedné jediné konkrétní funkce. Mají propracované uživatelské rozhraní, komfortní ovládání, možnosti napojení na další systémy a podporují další sdílení informací. Tyto služby jsou využívány hlavně v malých a středních podnicích. Připojení k online službám probíhá výhradně pomocí webových prohlížečů a mobilních aplikací. Jaké jsou výhody a nevýhody cloudových řešení? Výhodou všech cloudových řešení je převod správy k externímu subjektu a sdílení odpovědnosti za provozování, údržbu a zálohování informačního systému. Nevýhodou je pak závislost na poskytovateli cloudových služeb, která stoupá s mírou využívání cloudu a jeho pokročilosti a také hrozí riziko úniku a zneužití ukládaných dat. Bezpečnostním rizikem jsou také vzdálené přístupy správců a administrátorů, kdy administrativní rozhraní cloudu nebo jeho infrastruktury je stejně jako cloud samotný přístupné z celého internetu bez jakýchkoliv omezení. Při výběru informačního systému je potřeba posoudit zda funkčnosti systému odpovídají požadavkům a procesům firmy. Také je dobré zváživ bezpečnostní rizika a to zda zvolit systém kde se platí zvlášť za každého uživatele nebo jen platit za skutečně využívané komponenty. Také se nesmí zapomenout na SLA – kvalitní dohodu o úrovni služeb a NDA – dohodu o mlčenlivosti a vhodnou koncepci celkového řešení informačního systému a jeho propojení s okolím.


Datové centrum pod hladinou oceánu

Reseller Magazine 11/2020, František Doupal, str. 43-44

Projekt Natick od společnosti Microsoft je studií zkoumající možnost provozování podvodních datacenter, v jehož průběhu Microsoft sbíral obrovské množství dat a dalších postřehů a vyhodnocoval benefity, které by mohlo prosazení standardizovaných, průmyslově vyráběných datových center provozovaných pod hladinou moří přinést. V projektu se odrážejí snaha o hledání cest a způsobů, jak snížit spotřebu, zefektivnit provoz, zredukovat náklady a zvýšit efektivitu a agilitu serverů a datových (cloudových) center obecně. Samotný projekt byl teoreticky rozpracován v roce 2014. První praktická fáze projektu (Natick Phase 1) probíhala od srpna do listopadu 2015 asi kilometr od pacifického pobřeží Spojených států. Cílem této části projektu bylo zjistit, zdali je myšlenka v praxi vůbec reálně uskutečnitelná, což se nakonec prokázalo. Druhá fáze (Natick Phase 2) probíhala, co se týče praktického nasazení, od léta 2018 do léta 2020. Na vývoji a výrobě kontejneru Microsoft spolupracoval s francouzskou společností Naval Group, firmou se 400letou historií a zkušenostmi s vývojem, výrobou a údržbou vojenských lodí a ponorek a energetických technologií. Ukázalo se, že mezi konstrukcí kontejneru pro podmořské datové centrum a konstrukcí ponorek je nečekaně mnoho podobností. Mezi společné vlastnosti totiž nepatří jen podobný tvar konstrukce a nutnost odolat působení vysokého tlaku, ale i podobný způsob výroby nebo nutnost osazení celou řadou složitých systémů pro napájení, chlazení a teplotní regulaci, komunikaci apod. Kontejner, ve kterém bylo datové centrum uschováno, byl asi 12 metrů dlouhý a v průměru měřil asi tři metry. Vedle chladicího systému a dalších nezbytných technologií v sobě obsahoval 12 racků s celkem 864 servery (ty obsahovaly např. FPGA akcelerátory a úložiště s kapacitou 27,6 PB). Vnitřní prostory kontejneru byly vyplněny suchým dusíkem a tlak zde dosahoval jedné atmosféry. Napájení kontejneru s datovým centrem spoléhalo výhradně na energii z obnovitelných přírodních zdrojů pořizovanou v blízkém okolí. Dominantní byly tři hlavní zdroje energie – (přílivové) mořské vlny, vítr a solární energie. Velkou výhodou podmořského prostředí je konzistentní chlad, který představuje velmi jednoduchý a zcela bezplatný způsob chlazení. Pokud by se datová centra v budoucnu obešla bez nutnosti využívání sladké vody. Životnost takového datacentra by mohla být bez problémů pět až deset let s tím, že provoz je kompletně bezúdržbový a bezobslužný. Vše je navíc vyrobeno z materiálů, které lze po vyřazení kontejneru z provozu plně recyklovat. Projekt ukázal, že myšlenka podvodního datového centra je skutečně proveditelná a že zapečetění provozního prostředí datacentra může mít výrazný vliv na celkovou spolehlivost systému. V normálních datacentrech je totiž běžný podstatně větší vliv koroze způsobené přítomností kyslíku, vlhkosti, pohybu teplot i pohybu lidí, což jsou v celkovém souhrnu nezanedbatelné faktory. Toto zjištění hodlá Microsoft využívat i u pozemských datacenter. Velký přínos by to mohlo mít zejména u systémů, na kterých běží taktické, nebo dokonce kritické operace či služby.


Technologické predikce, aneb sedm statečných roku 2021

itbiz.cz, 9.12.2020, Danny Allan

V roce 2021 lze čekat sedm hlavních technologických trendů. Prvním z nich je strategické zapojení vývojářů. Vývojáři budou mít větší slovo při volbě technologického zaměření a určování datových strategií firem. Uvidíme agresivní „posun doleva“ v rámci všech odvětví, kdy budou šéfové IT při vedení technického směřování společnosti více závislí na svých vývojových týmech. Historicky vývojové týmy zaujímaly při přesunu svých dat do cloudu přístup shora dolů, ale to se změnilo s pandemií a posílením cloudových prostředí. Druhým trendem je větší zaměření se na ochranu a správu dat platforem pro spolupráci v cloudu. Distribuované pracovní síly již byly na vzestupné trajektorii, ale pandemie COVID-19 tento převrat raketově zrychlila. S mnoha společnostmi, které do poloviny příštího roku rozšíří možnosti práce z domu, dále poroste nutnost spoléhat se na cloudové platformy pro spolupráci, jako jsou Microsoft Teams a Slack. To znamená, že se ještě více týmů bude snažit využít sílu cloudu k ukládání přílivu dat z platforem pro spolupráci. V roce 2021 to vyvolá větší zájem, povědomí i potřebu ochrany a správy dat v rámci softwaru pro spolupráci. Za třetí s poklesem zájmu o hardware budou více preferovány softwarově definované modely. Ve skutečnosti tedy zaznamenáváme odklon od hardwarových zařízení a posun k zálohování formou služby (Backup-as-a-Service). Práce na dálku během pandemie měla skutečný dopad na to, jak jsme v roce 2020 zacházeli s hardwarem, který bude pokračovat i v roce 2021, kdy se do centra pozornosti dostanou softwarově definované modely. Za čtvrté strojové učení bude ve spojení s daty v cloudu demokratizováno. Vidíme, že organizace rozpoznávají neomezené příležitosti, které mají k dispozici díky datům, která shromáždily. Opakované použití dat bude dalším velkým trendem, který u organizací v roce 2021 zaznamenáme, přičemž mnoho z nich si přizve na pomoc sílu strojového učení. Za páté pokuty za porušování předpisů nebudou růst, ale naopak bude pokračovat jejich sestupný trend. Za šesté kontejnery se v roce 2021 nestanou běžnou technologií. Velké podniky budou i nadále používat Kubernetes, protože jim tato kontejnerová technologie umožňuje přenositelnost pro přesun mimo cloud a neomezené škálování. Nicméně složitost spojená s jejím nasazením limituje její adopci mimo velké společnosti. V rámci této pokračující adopce v podnicích bude také potřeba vyvinout nativní zálohování Kubernetes, protože tato prostředí jsou zásadně odlišná od prostředí založených na dřívějších technologiích. A za sedmé výdaje na IT se po roce 2020 zvýší, bezpečnost a hardware budou na prvních místech seznamu. Zaznamenáme v novém roce 5- až 10% nárůst celkových výdajů na IT. Jejich alokace se pravděpodobně nejvíce zaměří na zabezpečení, obecnou modernizaci systémů (zálohování, aplikace, migrace do cloudu ad.) a obměnu hardwaru.

Novinky, Sekce Datacentra
Košík