V: Ali je Hadoop za vse?
O: Odprtokodni vir Hadoop za obdelavo podatkov Apache in z njim povezana orodja postajajo pomembnejši v svetu velikih podatkov. Toda v tekmi za sprejetje novejših in sodobnejših IT rešitev se podjetja sprašujejo, ali je Hadoop univerzalno orodje, ki ga je treba široko uporabiti pri velikih procesih podatkov in analitike.
V resnici obstaja več pomislekov o tem, ali bo neki sistem od implementacije Hadoopa imel veliko koristi. Eno je, ali so veliki podatki pomembni za industrijo. Z drugimi besedami, ali bo podjetje delovalo na pridobivanju in analiziranju izjemno velikih podatkovnih nizov, so nabori podatkov večji od tistega, ki ga je mogoče analizirati s tradicionalno relacijsko bazo podatkov.
Poleg tega lahko podjetja izbirajo med Hadoop-om in drugimi lastniškimi orodji, ki morda zahtevajo manj tehničnih sposobnosti. Nekatera druga tehnološka podjetja gradijo podobna velika podatkovna orodja, ki imajo morda bolj intuitivne vmesnike ali bližnjice, ki omogočajo manj izkušenim uporabnikom, da naredijo več z velikimi podatki.
Obenem obstaja soglasje, da lahko večina projektov z velikimi podatki koristi Hadoop z zadostno upravo. Orodja, kot sta zasnova skladišča Apache Hive in programska sintaksa Apache Pig za velike podatke, razširjajo tisto, kar lahko Hadoop naredi. Drugi napredki, kot sta Hadapt in MapR, naredijo sintakso in uporabo Hadoopa bolj preglednim za širšo paleto uporabnikov ali z drugimi besedami, začenjajo odpravljati težavo s "tehnologijo".
Na splošno mora podjetje preučiti, koliko velikih podatkov uporablja in od kod prihajajo ti podatki. Izvršni delavci in vodje morajo upoštevati, kdo bo delal na zadevnih projektih IT, ter njihove sposobnosti in znanje. Razumeti morajo razliko med izvajanjem različnih orodij za velike podatke. To bo vodstvenim skupinam pomagalo razumeti, ali je Hadoop pravi za svoje projekte.