V:
Kako lahko obstoječe okolje podatkovnih skladišč najbolje prilagodi potrebam velike analitike podatkov?
A:Posamezne projekte skladišč podatkov je treba ocenjevati za vsak primer posebej. Na splošno je pri poskusu raztezanja obstoječe zasnove skladišča podatkov, da bi bolje obravnavali analitiko velikih podatkov, bistven postopek za ugotovitev, kaj je treba storiti. IT strokovnjaki lahko temu rečejo "povečanje obsega" ali "povečanje obsega".
Webinar: Big Iron, Spoznajte velike podatke: Osvobajanje podatkov o mainframeu s Hadoop & Spark Registrirajte se tukaj |
Povečanje obsega običajno vključuje pridobivanje zadostne procesne moči, pridobivanje zadostne količine pomnilnika in sprejemanje zmogljivejših dejavnosti strežnika za obdelavo vseh večjih naborov podatkov, ki jih bo podjetje obdelovalo. Nasprotno pa povečanje velikosti lahko pomeni zbiranje grozdov strežniške strojne opreme in njihovo povezovanje v mrežo z velikimi podatki.
Nekateri strokovnjaki za IT predlagajo, da je pogostejša metoda z Apache Hadoop in drugimi priljubljenimi velikimi orodji in platformami za povečanje obsega in združevanje strojne opreme za dosego želenih učinkov. Drugi pa poudarjajo, da lahko z današnjo tehnologijo podatkovno skladišče povečate s pomočjo strategije nabave, ki strežniku doda vire, na primer tako, da dobite večje število procesorskih jeder skupaj z večjo količino RAM-a.
Ne glede na to, ali jih povečate ali pomanjšate, skladišča podatkov potrebujejo dodatna fizična sredstva strojne opreme, da lahko prenesejo večje obremenitve podatkov. Potrebujejo tudi dodatno človeško upravo, kar pomeni več usposabljanja za notranje ekipe. V projekt je treba vložiti veliko načrtov, da bi ugotovili, kakšen stres in pritisk bodo imeli večji obremenitve podatkov na obstoječi zapuščeni sistem, da bi ga lahko izkoristili za nov velik podatkovni ekosistem. Velika težava so ozka grla za shranjevanje, ki zahtevajo nadgradnjo centrov za shranjevanje, in druge vrste ozkih grl zmogljivosti, ki lahko zakrijejo nastajajoči sistem, če jih ne rešijo.