Rešerše: datová centra (4Q 2021)

Přinášíme vám pravidelné shrnutí zajímavých článků z odborného tisku a specializovaných webů. Pro členy Asociace máme k dispozici podrobnější rozbor obsahu. Přihlášení zde.


Analyzujte údaje z datových skladů

CIO Business World 06/2021, Ľuboslav Lacko, str. 22-24

Záměrem každého provozovatele IT systému je získat komplexní informace o tom, co se momentálně děje. K tomu napomáhá datová analytika. Díky ní lze získat odpověď na otázky jako co se stalo a proč v aktuálním stavu procesů. Pomáhá taky určit co by mělo přijít v budoucnosti v podobě prediktivní analýzy. Pro takové analýzy je nutné mít velký objem dat za delší časové období. Preskriptivní analýzy ukazují, jak se optimálně rozhodnout v situaci, kdy prediktivní analýza neukazuje na dobrý vývoj. prediktivní i preskriptivní analýzy se dějí ve dvou fázích. První fáze je učící, jejím cílem je vytvoření modelu, který na základě atributů hodnotí pravděpodobnost zkoumané události. Druhou fází je aplikace na nová data. Údaje pro analýzy musí být skladované správným způsobem. Co je vlastně datový sklad? Jedná se o databázi, která je kategorizována podle subjektu. Údaje musí být konzistentní. Klíčovým atributem zaručujícím integritu je neměnnost, údaje nesmí být dodatečně modifikovány. Údaje v datovém skladu umožňují vytváření multidimenzionálních struktur OLAP (Online Analytical Processing) databáze. Ty obsahují dva typy dat, fakta a dimenze. Multidimenzionální datový model vytvořený na základě údajů z datového skladu poskytuje rychlý přístup k velkému objemu dat potřebných pro komplexní analýzy, pro modelování a prognózy. Rozhraní mezi relačními a analytickými systémy není ostré a jednoznačné. Jelikož datový sklad je většinou investičně a i organizačně náročný, mnoho firem se snaží vystačit si s analýzou v operačních databázích archivovaných za delší časový úsek. Výhodou datového skladu jsou vyčištěné homogenní údaje, což usnadňuje práci analytickým nástrojům. Poznatky z dat lze zpracovat pomocí BI nástrojů.


Noví cloudoví konzultanti rozšiřují záběr

CIO Business World 06/2021, Vít Petrjanoš, str. 39-41

Noví cloudoví lídři třetí generace se rozrostli do globálních rozměrů a mají také hlubší znalosti a dovednosti v nasazení cloudových systémů. Jsou připraveni pomoci podnikům zápasícím s nedostatkem odborných znalostí zaplnit okamžitou mezeru v dovednostech. Rozvoj specialistů zaměřených na poradenství v oblasti cloudu začal krátce po nástupu poskytovatelů cloudových platforem, a to od roku 2000. Společnosti první vlny měli startupovou atmosféru. Mezi jejich charakteristické znaky patřila technická zdatnost v metodikách vývoje SaaS, horizontální odbornost a orientace na projekty. Ve druhé vlně tyto konzultační společnosti rozvíjely technické dovednosti v oblasti cloudových platforem typu AWS a Google Cloud a přijaly agilní metodiky. Zavedly také širší, programatický přístup k poskytování služeb. Ze startupů se staly národní a globální poskytovatelé. Třetí vlna, která probíhá nyní klade důraz na geografický dosah. Nabízí ještě širší rozsah služeb a odborných znalostí, který odpovídá rostoucí složitosti nasazení cloudů u zákazníků. Tito konzultanti se také přesouvají do oblasti implementace a provozu. Zatímco minulá éra byla o přechodu na cloud, jeho přijetí a zajištění agility, nyní je cílem získat z cloudu maximum. Sílí také znalosti v oblasti AI a ML. Je poskytována služba datového jezera, ve kterém jsou uložena data, ke kterým mohou zákazníci přistupovat a zpracovávat je pro účely AI/ML. Další charakteristikou nové generace cloudových konzultantů je rapid delivery neboli rychlé poskytování služeb a zaměření na bezpečnost. Tito poradci se zaměřují i na opakovatelné nabídky postavené na vlastním duševním vlastnictví a na ucelených produktech. Článek obsahuje přehled poskytovatelů služeb IT poradenství a konzultací.


SDx je univerzální odpovědí

COMPUTERWORLD  11/2021, Martin Čaprnka, str. 26

V současné době musí být všechna zařízení síťově obslužná a přitom musí být zachována bezpečnost přenosu. Proto byly odděleny řídící a uživatelská data do samostatných toků, což otevírá k využití různých druhů automatizačních nástrojů, orchestrátorů na všech úrovních síťové architektury. Dříve měly WAN sítě tradičně centralizovaný design. Pobočky komunikovaly s centrálou, kde byly v datovém centru instalovány aplikační servery. Přístup k internetu byl taky centrální. Dnes uživatelé stále častěji přistupují na servery provozované v cloudu. Síť proto potřebuje vidět, jakou aplikaci uživatel využívá, znát její nároky na kvalitu přenosu, zabezpečení a kapacitu a zároveň umět posoudit aktuální kvalitu komunikačních tras. Na základě předdefinovaných pravidel pak rozhodne, kterou z dostupných tras použije pro komunikaci. SDx na úrovni přístupu uživatele, tedy SD access nebo SD LAN zase představuje softwarově budovanou a řízenou lokální síť včetně wi-fi, která umožňuje automatizovanou konfiguraci, sběr telemetrických dat a zero touch deployment zařízení. Segmentace řeší bezpečnost hlavně pomocí identity v celé síti bez vymezení. SDA (softwarově definovaný přístup) se buduje na základě uživatelovy identity a bezpečnostních pravidel, která jsou základem politik pro komunikaci v síti. V datových centrech se pak setkávají historické firemní aplikace s kontejnery, vývoje, testování a deploymentem nejnovějších verzí. Aby byla chráněna data je potřeba spolehlivě oddělit jednotlivé aplikační vrstvy. To si vyžaduje konfiguraci zařízení s různou funkcionalitou. Orchestrátor je potom tím nástrojem, který umožní přehledné uplatňování a správu definovaných politik v celém prostředí. Co se týče SDN (softwarově definovaných sítí), jejich přínos je viditelný u troubleshootingu. V SDN se celá síť řeší z jednoho místa v rámci nastavení, zaznamenávání událostí nebo prohlížení stavu v reálném čase. K dispozici jsou data z celé infrastruktury, lze zjistit rušení, zahlcení kanálů, odpojení klientů a spektrum přístupových bodů. Případný problém tak lze řešit do dvou minut. Všichni významní výrobci na trhu poskytují vlastní verzi, SDN, reprezentované vlastním orchestrátorem a navázaným na vlastní hardware. Vyplývá to tak z požadavků zákazníka.


Sedm hlavních způsobů, jakými se mění cloud

COMPUTERLWORLD  12/2021, Peter Wayner, str. 13-15

Dnešní doba ukazuje sedm důležitých metod, jak se cloud inovuje a vyvíjí. První metodou je peníze šetřící rozčlenitelnost. První generace serveless computingu přišla s relativně velkými výpočetními jednotkami. Programátoři pak zjistili, že platí stejné množství peněz za rychlé jednoduché výpočty, jako za ty, které jsou i stokrát vyšší. Tato situace už je pryč. Konkurence vedla ke zmenšování nejmenší účtovatelné části výpočetního výkonu. Druhou metodou je dieta pro operační systém. Touto dietou je Unikernel, což je způsob, který při běžícím kódu vytvoří kompilátorem mnohem menší balíček, který dokáže běžet přímo nad standardním hypervizorem. Díky tomu je vidět efektivní eliminace všech nadbytečných knihoven, ale také se výrazně zmenší útočný prostor, takže je snadnější zajistit zabezpečení. Minimální operační systém nabízí i AWS a Google. Třetí metodou je funkce open source. Způsobem jak zjednodušit úlohu nasazení do cloudu, je nechat vývojáře napsat jednoduchou funkci a ponechat veškerou ostatní práci na samotném cloudu. Nyní existují projekty jako Open-Whisk, Open Faas, Kubeless, Knative nebo Fission, které přinášejí funkce jako službu (FaaS) na jakýkoli vybraný počítač. Čtvrtou metodou jsou čipy ARM. Tyto čipy slibují o čtyřicet procent levnější provoz. Stojí za to přejít? Lze to zjistit pouze otestováním vlastní pracovní zátěže v prostředí blízkém produkčnímu nasazení. Pátou metodou je univerzální databáze. Databáze PostgreSQL 11 má vlastní JIT (Just in Time) pro kompilaci dotazů a jeho funkce mají schopnost vykonávat nebo vracet transakce. Další databáze kombinují technologie SQL, Mongo DB, Cassandra a grafická rozhraní API. Google Firebase zase umožňuje ukládání dat i jejich doručování ke klientům prostřednictvím replikace. Šestou metodou jsou nové role kancelářských aplikací. No code eliminuje potřebu programátorů a poskytuje manipulátorům s makry nástroje, které mění tabulky v aplikace. Namísto vytváření a nasazování aplikací v podobě samostatných instancí někteří programátoři vytvářejí aplikace integrované s textovými procesory, nástroji pro tvorbu prezentací a dalšími obecnými nástroji. Sedmou metodou je edge computing. Cloud přesouvá stále více výkonu na okraje sítě. například Cloudflare Workers umožňují spustit kód v jazycích JavaScript, Rust, C a C++ v jednom z jejich 200 datových center umístěných co nejblíže uživatelům. Amazon zase zdůrazňuje spojení s 5G sítěmi.


HPC míří do světa cloudů

COMPUTERWORLD  12/2021, Matt Asay, str. 16

Nová technologická renesance je v plném proudu, jedná se o zvládání algoritmicky složitých, rozsáhlých pracovních zátěží, které konzumují masivní množství výpočetních zdrojů. Nejčastější název těchto zátěží je HPC (High-Performance Computing). Do této činnosti patří například vývoj vakcíny, konstruování nových nadzvukových letadel nebo řízení autonomních aut. Tyto aplikace, kterým se říká i rozsáhlé výpočty, se nyní rozšiřují do cloudu. Ale tento nový stack se netýká jen cloudu. Závisí na třech technologických trendech, na rychle rostoucí šířce a hloubce simulačního softwaru, specializovaném hardwaru a cloudu. Jsou to technologické stavební bloky, které každý rychle pracující výzkumný a vědecký tým využívá. Současnost rozsáhlých výpočtů se týká zvyšování produktivity inženýrů, například v leteckém průmyslu. Je díky tomu možné snadněji vytvářet a spouštět model, iterovat a vylepšovat a znovu je spouštět než nastane fáze výroby fyzických prototypů. Tyto algoritmicky komplikované simulace se uskutečňují s využitím specializovaného softwaru. Jak se rozsáhlé výpočty využívají k rozlousknutí nejsložitějších problémů, téměř jistě se objeví nějaká nová příslovečná vlna, která smete dosavadní držitele trůnu pomocí kombinace cloudu, simulačního softwaru a specializovaného hardwaru, tak jako tomu bylo v případě LAMP.


České firmy stále více kombinují datová centra a cloudové služby

IT Systems  11/2021, Dave Russell, str. 9

Z průzkum firmy Soitron mezi tuzemskými firmami vyplývá, že vlastní datové centrum provozuje 63 % dotázaných společností, přičemž 37 % společností své datové centrum nemá a využívá služeb jiných firem. Je z toho vidět, že většina společností stále provozuje lokální infrastrukturu, což odpovídá současným trendům, které směřují k využívání hybridních datových center. Znamená to, že u většiny společností zůstává alespoň část infrastruktury přímo ve firmě a část je umístěna v cloudu. Vše je zároveň vzájemně provázáno do jednoho virtuálního datového centra nejen z pohledu výpočetního výkonu, sdílení dat, ale i správy zdrojů. Díky kombinaci cloudu s on-premise prostředím lze získat velkou flexibilitu a škálovatelnost výkonu, ale i přístup k datům v prostředí vlastního datového centra. Drtivá většina z dotazovaných využívá virtualizační platformu VMware (91 %). Hyper-V (8 %) využívají spíše střední a menší společnosti a zbytek (1 %) používá jiné platformy. Využívají firmy v ČR službu IaaS (Infrastructure as a Servise – infrastrukturu jako službu) od nějakého cloudového operátora? 26 % respondentů uvedlo, že ano. Zbytek, 74 % však nikoliv. Jak mají firmy zaplněná úložiště? Nejvíce, 53 % firem uvedlo, že jejich disková pole jsou zaplněna někde mezi 50 až 79 % dostupné kapacity. Méně než 50 % zaplněnosti uvedlo 31 % respondentů a 16 % má datové úložiště zaplněno z 80 % a více. Začít řešit navýšení kapacity úložiště se přitom doporučuje již při jejich 70% zaplnění. Průzkum také ukazuje, že 49 % firem zatím nepoužívá žádnou automatizaci. Na trend zavádění automatizace do svých procesů naskočilo 47 % firem a je zde vidět vzestupná tendence. Podniky si uvědomují, jak fatální dopad na jejich výrobu a provoz by mohl mít výpadek IT. Proto 77 % z nich má pro své datové centrum zpracovány disaster recovery plány a business continuity plány. Alespoň recovery plán má připraveno 13 % firem a pouze business continuity plány potom 3 %. Hned 6 % nemá nic z toho a 1 % neví. O hybridním řešení 65 % společností slyšela a má alespoň základní informace o principu, jak tato infrastruktura funguje. Průzkum ukázal, že pouze malá část (15 %) společností tyto výhody využívá, 23 % společností hyperkonvergované řešení zvažuje implementovat a tři ji právě implementují.


Proč investovat do hybridních podnikových systémů?

Reseller Magazine 10/2021, Jan Hanáček, str. 38

V současné době většina podnikových řešení obsahuje prvky a nástroje, které podporují prostředí hybridního podnikového systému. Adoptovat hybridní systém znamená připravit se na eventuality a výzvy zítřka. Organizace s takovým řešení nemusí dělat kompromisy v dělbě ani způsobu vykonávání práce, protože se jedná o pružné řešení. Strategii k zavedení hybridního podnikového systému většinou volí podniky, které mají zavedený systém on-premise. K němu dodávají modernější cloudová řešení, bez narušení stávajícího on-premise systému. Mnoho firem používá hybridní řešení jako prozatímní pro následný přechod zcela na cloudové řešení. Díky tomu mohou otestovat možnosti cloudového řízení předtím, než ho budou používat v celém podniku. Pružnost hybridního řešení nespočívá jenom v jeho možnosti přizpůsobit se aktuálním podmínkám, ale také lze díky němu mnohem lépe reagovat na místní požadavky a lokality v kterých podnik působí. Hybridní infrastruktura klade kombinované nároky a obsahuje jak on-premise prvky jako je třeba server, datacentrum, tak také obsahuje prvky spjaté s provozem cloudu. Počáteční náklady pro zavedení hybridního řešení jsou tedy vyšší než u jiných řešení. V dlouhodobém horizontu ale přináší úspory. Například firma, která adoptuje a optimálně nastaví své hybridní systémy, mnohem snadněji najde balanc mezi chováním zákazníků a svým vlastním fungováním. Hybridní systém reaguje na výpadky dodávek, pokles poptávky nebo na její zvýšení. Úspory se projeví i v nacházení rezerv a nedostatků a i v prognostice lokálních ekonomických rizik. Snižují se zavedením hybridního podnikového systému možnosti správy a kontroly? Moderní řešení obsahují předpřipravené možnosti integrace se systémy, které mají firmy už dříve zavedené. Ta pak umožňuje synchronizovat data, konsolidovat finanční data a koordinovat procesy napříč různými skupinami a částmi infrastruktury.


Confidential computing: Nutnost nebo další buzzword?

Reseller Magazine 12/2021, Michala Benešovská, str. 8

Confidential computing je nový bezpečnostní model, jedná se o technologie, které během zpracování izolují citlivá data v chráněné jednotce procesoru. Hlavním cílem confidential computingu je poskytnout vedoucím pracovníkům větší jistotu, že jsou jejich data v cloudu chráněná a důvěrná. Technologie confidential computingu odstraňují zbývající zranitelnosti v oblasti zabezpečení dat tím, že chrání data při jejich používání, tedy během zpracování nebo používání. Jak confidential computing funguje? Než mohou být data zpracována aplikací, musí být v paměti nezašifrovaná. Právě proto jsou zranitelná. Confidential computing řeší tento problém využitím hardwarového důvěryhodného prostředí pro provádění (trusted execution enviroment – TEE), což je zabezpečená jednotka uvnitř procesoru. TEE je zabezpečeno pomocí vestavěných šifrovacích klíčů a vestavěné atestační mechanismy zajišťují, že jsou klíče přístupné pouze autorizovanému aplikačnímu kódu. Pokud se malware nebo jiný Citlivá data zůstanou chráněna v paměti, dokud aplikace neřekne TEE, aby je dešifrovala za účelem zpracování. Po dobu dešifrování jsou data neviditelná pro operační systém, pro ostatní prostředky výpočetního zásobníku a pro poskytovatele cloudu a jeho zaměstnance. Pokud chce mít firma chráněná data i při jejich používání je confidential computing ideální řešení. Toto řešení neslouží nejen k ochraně dat, ale také k ochraně duševního vlastnictví. Také umožňuje bezpečnou spolupráci s partnery v nových cloudových řešeních. také díky confidential computingu lze do jisté míry eliminovat obavy při výběru poskytovatelů cloudových služeb. Tyto technologie také mohou chránit data v edge computingu. V roce 2019 vzniklo CCC – Confidential Computing Consorcium. To má za cíl definovat standardy pro confidential computing.

Novinky, Sekce Datacentra
Košík