Rešerše: datová centra (1Q 2022)

Přinášíme vám pravidelné shrnutí zajímavých článků z odborného tisku a specializovaných webů. Pro členy Asociace máme k dispozici podrobnější rozbor obsahu. Přihlášení zde.


Hledání vzorců a trendův datech

CIO Business World 01/2022, Thor Olavsrud, str. 27-29

Dolování dat je podmnožina datové vědy, která využívá statistické a matematické techniky spolu se strojovým učením a databázovými systémy. Zvláštní skupina pro dolování dat mezinárodní učené společnosti ACM ji definuje jako vědu zabývající se získáváním užitečných poznatků z rozsáhlých úložišť digitálních dat vytvořených výpočetními technologiemi. Datová analýza je pod oblast dolování dat, je pouze jednou z aktivit v rámci dolování dat, zaměřenou na získávání poznatků. Jejím cílem je aplikovat statistickou analýzu a technologie na data a takto odhalovat trendy a řešit problémy. Dolování dat využívá nejčastěji funkce čištění a přípravy dat, asociační analýzu, analýzu dat, datové sklady a strojové učení. Mezioborový standardní proces pro dolování dat má šest fází. První fází je pochopení obchodních potřeb, které napomáhá porozumět cílům a požadavkům a rozsahu projektu. Druhou fází je porozumění datům. Třetí fází je příprava dat. Tato fáze je nejrozsáhlejší. Čtvrtou fází je modelování, neboli sestavování modelů z dat. Pátou fází je vyhodnocení, kdy se hodnotí technické hledisko a to, který model nejlépe vyhovuje obchodním potřebám. Šestou fází je implementace, kdy se model uvádí do praxe. Mezi nejoblíbenější software pro dolování dat patří H20, IBM SPSS Modeler, Knime nebo Oracle data Mining. Dolování dat nejčastěji dělají datoví vědci nebo datoví analytici.


Do cloudu a (někdy) zase zpátky

COMPUTERWORLD  2/2022, Vít Petrjanoš, str. 14-20

Přechod do cloudu volí společnosti z důvodů jako je škálovatelnost, rychlé nasazování aplikací, distribuovaná infrastruktura, zjednodušení správy nákladů, velký výběr cloudových nabídek, nutné úpravy aplikací a zavedení nových procesů, nástrojů a dovedností. Kdy bude mít přechod do cloudu maximální účinek a přínos? Je to tehdy, pokud s ním bude souhlasit celá organizace. Bude to také možné, pokud se předem určí, které cloudové služby se plánují nasadit. Je také nutné rozhodnout o tom, co by nemělo být v cloudu provozováno. Je také dobré identifikovat nová bezpečnostní rizika a pochopit jak fungují náklady na cloud. Nelze opomenout ani definici rolí a vlastnictví a také je dobré stanovit dlouhodobý plán využití cloudových služeb. Je lepší multicloud nebo hybridní cloud? Multicloudová technologická strategie využívá pro řešení různých podnikových úloh dvě nebo více cloudových výpočetních platforem nebo několik poskytovatelů. Přístup založený na více cloudech může být rozsáhlý a složitý v závislosti na počtu zapojených cloudů a způsobech jakými podnik jednotlivé cloudové stroje nebo služby využívá. Co promyslet u multicloudu? V multicloudu lze využít specifické služby, řídit náklady, zlepšit odolnost a shody s předpisy a zjednodušit bezpečnostních řešení. Je potřeba se zamyslet nad omezením infrastruktury provozované lokálně, regulačními normami, bezpečností sítě a nad narušením činnosti poskytovatele. Hybridní cloud spojuje privátní cloud nebo lokální infrastrukturu s prostředím veřejného cloudu. Hlavní výhodou hybridního cloudu je konzistentní přístup, při němž dochází k hladké integraci veřejných a privátních cloudů. Co promyslet u hybridního cloudu? Jedná se o řízení nákladů, bezpečnost a dodržování předpisů, škálovatelnost, vyšší agilitu podniku, nedostatečné provozní možnosti, náklady, problémy s integrací a narušení sítě. Hybridní cloud a multicloud mohou existovat i současně. Podnik může vybudovat privátní cloud pro interní použití, spojit tento privátní cloud s veřejným cloudem, vytvořit hybridní cloud a poté přidat nebo integrovat několik dalších cloudů, aby podniku poskytovaly konkrétní výpočetní zdroje nebo služby. Podobně může podnik vytvořit hybridních cloud s jedním poskytovatelem veřejného cloudu, ale také využívat zdroje a služby jiných veřejných cloudů mimo prostředí hybridního cloudu. V některých případech organizace zjišťují, že je třeba pracovní úlohy a data z cloudu přesunout zpět, udělat tzv. repatriaci cloudu. Návrat zpět do lokálního prostředí může být podmíněn finančními, praktickými, nebo dokonce regulačními důvody.


Inovace AI ve veřejných cloudech

COMPUTERWORLD  2/2022, Isaac Sacolick, str. 28-29

Poskytovatelé cloudových služeb AWS, Microsoft Azure a GCP chtějí, aby vývojáři a datoví vědci vyvíjeli, testovali a nasazovali modely strojového učení v jejich cloudech. Každý veřejný cloud poskytuje více možností ukládání dat včetně databází serverless, datových skladů datových jezer a datových úložišť typu NoSQL, aby se tak zvýšila pravděpodobnost, že lze vyvíjet modely v blízkosti svých dat. Poskytovatelé také dávají k dispozici populární frameworky pro strojové učení. Všichni tři klíčoví poskytovatelé nabízejí ModelOps, MLOps nebo stále rostoucí počet schopností pro podporu celého životního cyklu strojového učení. Tito poskytovatelé budou muset pokračovat v inovacích a v nabídkách nových a odlišujících se schopností. Tyto inovace se promítnou i v oblasti výroby nových čipů. Microsoft Cognitive Services zahrnují služby pro zpracování řeči, jazykové služby pro analýzu nálady a také služby pro otázky a odpovědi často používané v chatbotech. Microsoft nedávno oznámil řešení OpenAI. Google Cloud má několik služeb AI pro zpracování dokumentů AI včetně DocAI pro obecné zpracování dokumentů a vertikální řešení pro oblast půjček, nákupů, pro kontaktní centra nebo pro řízení kontraktů. AWS nabízí i specifická řešení pro některé obory, Amazon HealthLake umožňující predikci na základě zdravotních údajů, Amazon Lookout pro identifikaci neobvyklého chování vybavení nebo Amazon Fraud Detector pro finanční služby a další obory. Další metou pro veřejný cloud je nabídnout schopnosti strojového učení a umělé inteligence organizacím, které týmy pro datovou vědu a pokročilý vývoj softwaru nemají. Snaží se o to prostřednictvím technologií typu low-code, které buď mají vestavěné schopnosti strojového učení nebo pomáhají vývojářům komunikovat s dalšími službami AI.


S čím se dnes potýkají datová centra

COMPUTERWORLD  2/2022, Ann Bednarz, str. 32-33

Společnost Uptime provedla globální průzkum, který sleduje trendy v datových centrech. Z hlediska celkového počtu výpadků zažilo 69% majitelů a provozovatelů dotazovaných v roce 2021 nějaký výpadek v posledních třech letech, což je pokles oproti roku 2020. Z hlediska závažnosti výpadků způsobuje přibližně polovina všech výpadku datových center významné ztráty příjmu, času a poškození pověsti firem. Majitelé a provozovatelé datových center stále častěji přesouvají kriticky důležité zátěže do veřejného cloudu. Výzkum také ukázal, že zátěže přesunuté do cloudů už tam obvykle zůstávají. Většina respondentů také očekává, že poroste poptávka po edge computingu. Kromě zlepšení flexibility podnikání a nízkých investičních výdajů patří mezi výhody sdílení infrastruktur edge computingu také snížení složitosti ve srovnání se správou většího počtu geograficky roztroušených provozů. Zajištění a udržení personálu je pro mnoho vlastníků a provozovatelů datových center stále velmi náročné. V sektoru datových center roste význam pojmu udržitelnosti, ale většina organizací nevěnuje dostatečnou pozornost svému vlivu na životní prostředí.


Cloudové platformy pro IoT

COMPUTERWORLD  3/2022, Martin Heller, str. 29-31

IoT představuje fyzické věci připojené k internetu. Tyto věci mohou mít senzory měřící různé parametry a zasílat svá data přes internet, obvykle zpět do vzdáleného serveru nebo zařízení typu edge umístěného ve stejné lokalitě. Internet věcí také může přijímat přes internet pokyny a reagovat podle nich. Nejužitečnější může být, když fyzické věci tvořící IoT dokážou jak zasílat naměřené hodnoty, tak přijímat pokyny. V případě IoT se vzdálené koncové body často nacházejí spíše na cloudovém serveru než na jednom serveru v nějakém privátním datovém centru. Provoz v cloudu může být navíc výhodný i finančně. Pokud zprávy od senzorů přicházejí každou hodinu, nemusí být server během zbývajícího času aktivní. V cloudové konfiguraci serverless způsobí příchozí data spuštění funkce pro ukládání dat a následně funkce uvolní své prostředky. Další funkce se zaktivuje se zpožděním a sloučí a zpracuje nová data a jedná podle nich. Následně zase své prostředky uvolní. Cloudová platforma pro IoT musí monitorovat koncové body IoT a datové proudy událostí, analyzovat data v prostředí a v cloudu a umožňovat vývoj a nasazení aplikací. Pro analýzu cloudových dat a vývoj aplikací musejí mít platformy IoT přístup ke cloudovému úložišti. Pro přenos dat ze zařízení na okraji do cloudové platformy se často používá kabelový Ethernet nebo wi-fi. Hlavní dodavatelé IoT platforem jsou AWS IoT, Ayla Agile IoT Platform, Google Cloud IoT, IBM Cloud IoT, Microsoft Azure IoT, Oracle IoT Cloud Service a OSIsoft PI System. Výběr IoT platformy záleží na konkrétních požadavcích podniku.


Datová architektura ve zkratce

COMPUTERWORLD  3/2022, Lee Atchison, str. 32-33

Návrh architektury moderních aplikací je náročný. Chyba při vytváření vhodné datové architektury může způsobit selhávání aplikací. Taková aplikace může mít potíže s integritou dat, nezávislostí dat a bezpečností dat nebo se škálovatelností. Kterých pět pravidel může pomoci při návrhu nebo přepracování datové architektury? První pravidlo je použití vhodného typu databáze potřebné k ukládání a přístupu k datům. Typ vybrané databáze určí rozsah schopností, které může databáze mít, a jak dobře bude podporovat fungování vyvíjené aplikace. Druhým pravidlem je ukládání dat na vhodném místě. Většina dat je uložena v back-endu, některá data se však musejí uchovávat v prostředí edge nebo u klienta. Uložení dat v místě uživatelského rozhraní je často potřebné k optimalizaci výkonu, dostupnosti, spolehlivosti a škálovatelnosti. Třetí pravidlo je škálování už od počátku. Nejtěžší je škálování úložiště dat ať už je to ve smyslu množství ukládaných dat pro rostoucí zákaznickou základnu, nebo umožňující současné využití aplikace větším počtem lidí bez snížení výkonu. Odkládání může zvýšit náročnost škálování nebo je dokonce zcela znemožnit, pokud nedojde k významnému refaktoringu dat. Čtvrtým pravidlem je distribuce napříč službami. Pokud se aplikace skládá z desítek nebo stovek distribuovaných služeb, ukládá taková aplikace údaje v desítkách nebo stovkách distribuovaných míst. To umožňuje snadnější škálování a podporuje úplný model vlastnictví služby, který dovoluje vývojovým týmům pracovat více nezávislé a podporuje i robustnější SLA mezi službami. Distribuovaná architektura podporuje služby s vyšší kvalitou, zvyšuje i bezpečnost změn a efektivitu prostřednictvím rozmístění. Pátým pravidlem je distribuce dat geograficky. Musí se stanovit kdo bude data využívat a kde budou geograficky rozmístěná. Narůstá důležitost určení místa dat a uživatelů, protože globální podnikání vytváří zvýšenou příležitost, zatímco restrikce pro správu regionálních dat ztěžují správu globálních dat. Je nutná znalost toho, zda se budou poskytovat globální nebo regionální data, kdy se mohou data použít a kdy ne a kdy a jak synchronizovat data mezi regiony.


Tradiční bezpečnostní přístupy vám v cloudu příliš nepomůžou

IT Systems 1-2/2022, Stanislav Klubal, Příloha SECURITY 2022, str. 4-5

Úniky dat se řadí mezi nejčastější hrozby v cloudovém prostředí. Většině rizik spojených s únikem dat v cloudu však lze předcházet. Každá firma by měla mít definovány obchodní hodnoty svých dat a dopady v případě jejich ztráty. Měla by mít propracovaný incident-response plán, zohledňující podmínky dané poskytovatelem cloudu a zákony na ochranu osobních údajů. Jedním z nejúčinnějších a zároveň nejméně nákladní způsobů ochrany citlivých údajů je vhodná eliminace přístupu k nim a zároveň jejich důsledné zálohování. Bezpečnostní incident může vzniknout v důsledku celé řady pochybení. K běžným stále patří nedostatečná ochrana hesel a slabá politika nevynucující silná hesla. Opakují se chyby ve správě identit a přístupu nebo absence automatické a pravidelné rotace kryptografických klíčů a hesel. Nevynucuje se multifaktorová autentizace a podceňuje se nebezpečí sledování přenášených dat. Řešením je striktní politika přístupu pro cloudové uživatele a identity. Zaměstnanec by měl disponovat jen těmi přístupy, které potřebuje ke své práci. Zranitelná API mohou představovat přímé bezpečnostní riziko naprosto zřejmými dopady na důvěryhodnost firmy, její integritu a dostupnost. Novou formou kybernetických útoků je cryptojacking. Útočníci chtějí data zneužít k těžbě kryptoměn, což vede k vyšším nákladům na provoz, vyššímu vytížení zdrojů, a tím i ke zpomalení. Bezpečnost systému mohou narušit i externí aplikace. Bezpečný návrh proudové infrastruktury a strategie je absolutním základem pro úspěšný a bezpečný přesun do cloudového prostředí včetně samotného nasazení softwaru a následného provozu v něm.

 

Novinky, Sekce Datacentra
Košík