Právě jste na stránce osvětlení Philips. K dispozici máte její lokalizovanou verzi.

Další značky od

Návrhy

    Klíčová datová analytika

    Oblasti, které musí vaše společnost dokonale ovládat, aby byla konkurenceschopná

     

    Stojíme na vrcholu záplavy dat.

    Podle zprávy společnosti Cisco bude Internet věcí (IoT) do roku 2020 ročně generovat asi 600 zettabajtů dat, z nichž 6 zettabajtů skončí v úložištích. (Pro představu: Zettabajt je při porovnání s gigabajtem něco jako Velká čínská zeď při srovnání s šálkem kávy na vašem stole.)

    Tyto informace mohou mít pro společnosti nevyčíslitelnou hodnotu a otevírají nové hranice v analýze – pokud tedy společnosti vědí, jak tuto hodnotu získat. Následuje přehled oborů, které musí vaše společnost ovládat, pokud má přeměnit tuto záplavu z dat na informace, znalosti a moudrost.


    Architektura správy dat

     

    Máte správnou architekturu správy dat?

    Jen ta správná se postará o to, že data vaší společnosti budou snadno nalezitelná, snadno použitelná a sdílená v maximální možné míře. Poskytne vaší organizaci ucelený pohled v reálném čase na všechna její datová aktiva, včetně tradičních podnikových dat a dat z IoT; umožní spravovat životní cyklus dat; zajistit jejich zpracování, transformaci a obohacení dat; a obecně zajistit kvalitu a hodnotu dat.

    Hodnota a klíčové poznatky se generují, když se sila rozbijí a zdroje dat se zkombinují. Ale aby k těmto věcem došlo, bude nutné, abyste vytvořili centrální subjekt pro správu dat napříč různými funkcemi, napříč obchodními skupinami tak, abyste zajistili jasné role, povinnosti a zásady týkající se správy dat.

    Mezi úkoly tohoto subjektu bude patřit používání rozhraní API ke správě datových toků s platformami třetích stran, vývoj metodologií a metrik pro oceňování a sledování datových aktiv a vytváření KPI. Bude také muset zajistit, aby každá z vašich obchodních skupin zmapovala své datové systémy a aktiva a měla integrální datový plán a strategii – to vše v rámci architektury správy dat organizace jako celku.

    A konečně bude muset zůstat aktuální ve vývoji umělé inteligence, nemluvě o nástrojích pro správu dat a analytických nástrojích. Pokud budete chtít ve světě IoT zůstat konkurenceschopní, bude nutné, aby se vaše datové kompetence neustále zlepšovaly.


    Datové struktury

     

    Data přicházejí v různých podobách a je jich tolik, že neexistuje žádný univerzální přístup, pomocí něhož by bylo možné z nich odvodit hodnotu. Vaše možnosti analýzy dat musí být schopny zpracovat data přicházející v různých podobách, v různé rychlosti a také objemu.

     

    Tradiční podnikové informační systémy se zabývají strukturovanými (nebo nanejvýš polostrukturovanými) daty, malými a pomalými daty, daty v klidu a interními daty. Tento typ materiálu, nacházející se v dobře organizovaných databázích, se snadno zpracovává. IoT na druhou stranu generuje nestrukturovaná objemná data, kdy snímače, satelity, kamery a další připojená zařízení chrlí nijak netříděné informace v různých formátech. Taková data ve své chaotičnosti a množství představují výzvu.

     

    První krok při řešení této výzvy spočívá v zavedení určité disciplíny ve vašich datových tocích. Pokud nějaký snímač ukrytý kdesi hluboko v lodním motoru každou sekundu generuje několik údajů o teplotě, pak možná uděláte dobře, když své analytické možnosti nastavíte tak, aby 95 procent z nich ignorovaly: takové množství informací vás může jen zpomalit, ale nepřinese vám žádné znatelné výhody. Rozpoznávání vzorců v datech v IoT bude rovněž důležité – to proto, abyste mohli následně identifikovat odchylky od těchto vzorců, odchylky, které naznačují, že některá složka v dodavatelském řetězci nebo elektrické síti (to abychom uvedli dva příklady), nefunguje, jak má.

     

    Existují i další výzvy. Chcete-li získat užitečné informace, musíte všechny tyto různé typy dat ze snímačů vzájemně integrovat. Bude užitečné získat datový bod, který vám řekne, že se určitý díl v motoru přehřívá. Ale bude užitečnější, když to bude v reálném čase doprovázeno obrazem, díky němuž bude vidět, co se s tímto dílem děje, že je tak rozpálený.

     

    Mezitím možná budete chtít integrovat všechna tato nestrukturovaná data se strukturovanými interními daty vaší organizace. To je proces, jenž by mohl přinést skvělé poznatky, ale bude vyžadovat, abyste definovali své cíle spojené s daty a za účelem jejich dosažení zvolili ty správné nástroje a poskytovatele.


    Strojové učení

     

    V posledních letech došlo k významnému pokroku ve strojovém učení – v podstatě jde o algoritmy, které se mohou učit z dat a vytvářet v souvislosti s nimi predikce. Jak budou zdroje pro výpočty přibývat, budeme svědky exponenciálního zlepšení takzvaných algoritmů „hlubokého učení" – algoritmů, které se pomocí více vrstev zpracování se složitými strukturami pokoušejí modelovat vysoce abstrahovaná data.

    Výsledkem budou kognitivní výpočty, které ve snaze reprodukovat chování lidského mozku kombinují umělou inteligenci a algoritmy strojového učení. To zásadním způsobem podpoří naši schopnost zpracovávat data ve světě, kde je bez přestání streamuje bezpočet zařízení, a ve kterém dávkové zpracování nutně povede k streamovému zpracování. Dílčí obory, jako je těžení dat, zpracování přirozeného jazyka (NLP) a textová analytika, najdou v nestrukturovaných datech vzorce a nabídnou jejich obecnou interpretaci.

    Učení pod dohledem – použití označených dat k trénování modelu pro vytváření předpovědí o neoznačených položkách – představuje v současnosti většinu aktivit strojového učení. ("Označení" v tomto kontextu znamená značku, která smysluplně identifikuje datový bod.) Ale osoby s rozhodovací pravomocí by si také měly být vědomy rychle se rozvíjejících oblastí strojového učení.

    Učení bez dozoru například využívá algoritmickou sílu za účelem vyvození závěrů o neoznačených datech. A součástí posilovacího učení je i odměňování využívané k vycvičení agenta k tomu, aby v reálném čase vykonával komplikované úkoly. Představte si AlphaGo od společnosti Alphabet, ale s využitím v reálném světě, jako je průmyslová robotika nebo finanční obchodování.


    Sítě pro sdílení znalostí

     

    Sítě pro sdílení znalostí – v jedné definici „soubory jednotlivců a týmů, kteří se setkávají přes hranice organizací, prostoru a disciplín, aby vynalezli a sdíleli soubor znalostí" – byly vždy pro pokrok zcela stěžejní.

    Ve věku velkých dat budou důležité stejně nebo možná ještě více. Jakmile organizace začnou objevovat, jak mocná jsou data při získávání konkurenční výhody, rozšíří se využití dat od hlavních uživatelů na téměř všechny zaměstnance. Nikdo nezůstane stranou. Výsledkem bude samozřejmě rozsáhlejší sdílení dat mezi různými funkcemi organizací – konec siloingu a úsvit nového věku vzájemně výhodného mezioborového využívání informací.

    Vaše organizace si musí být jistá, že je schopna toto podporovat. Do značné míry to bude otázka provozování těch správných platforem. Zároveň to však bude mít co do činění také se vštěpováním správného postoje a smýšlení členům týmu a nového uvědomění si, jak má v éře velkých dat firma fungovat.

    Rozšíření interního využití dat je jeden problém. Nejspíš však zjistíte, že se sami stále více spoléháte na externí data, tedy data od externích poskytovatelů analytických služeb, ze sociálních médií a tak dále. Jsou zavedena taková rozhraní API, aby byla tato výměna informací bezproblémová? Budete mít zavedené správné mechanismy k zajištění bezpečnosti?

    Tyto a další otázky související s érou velkých dat, která právě začíná, se mohou zdát znepokojivé. Ty, kdo ve firmách rozhodují, by však měla uklidnit jedna věc: jsme stále ještě na samotném začátku. I když se strojové učení může právě teď zdát úžasné, stále dělá pouze své první nemotorné krůčky. Výhoda prvního na tahu tu stále existuje a pro organizace ještě není příliš pozdě, aby využily výhod nové datové ekonomiky se všemi výzvami a sliby, které to přinese.

    Sdílejte tento článek

    • Přehled zákazníků

      Přehled zákazníků

      Přehled našich případových studií Interact.

    Sledujte nás na: