Domov Novice Današnji izziv za velike podatke izvira iz raznolikosti, ne pa obsega ali hitrosti

Današnji izziv za velike podatke izvira iz raznolikosti, ne pa obsega ali hitrosti

Kazalo:

Anonim

Kot izjavlja Doug Laney, podpredsednik raziskave pri Gartnerju, izziv pri upravljanju in izkoriščanju velikih podatkov izhaja iz treh elementov. Laney je pred več kot desetletjem prvič opozoril, da veliki podatki predstavljajo takšno težavo za podjetje, saj vnaša težko obvladljiv obseg, hitrost in raznolikost. Težava je v tem, da preveč IT oddelkov vrže vse, kar imajo pri vprašanju obsega in hitrosti podatkov, pri čemer pozabi rešiti temeljno vprašanje raznolikosti podatkov.

Laney je že leta 2001 zapisal, da bodo "vodilna podjetja vse pogosteje uporabljala centralizirano skladišče podatkov za opredelitev skupnega poslovnega besedišča, ki izboljšuje notranje in zunanje sodelovanje." Vprašanje tega besedišča - in spremenljivost, ki preprečuje, da bi ga podjetja ustvarila - ostaja najmanj obravnavan vidik velikega podatkovnega zagona. (Poglejte, kaj imajo še drugi strokovnjaki. Oglejte si strokovnjake za velike podatke, ki jih morate spremljati na Twitterju.)

Tri VS velikih podatkov

Številna podjetja so našla metode za povečanje obsega in hitrosti podatkov. Facebook, na primer, lahko analizira ogromno količino podatkov. Seveda se ti podatki pogosto znova in znova prikazujejo v istih parametrih. To je spodbudilo tehnološke inovacije, kot so zbirke podatkov o stolpcih, ki jih zdaj široko uporabljajo druga podjetja, ki se srečujejo z enako velikimi skladišči podobnih podatkovnih postavk.

Današnji izziv za velike podatke izvira iz raznolikosti, ne pa obsega ali hitrosti