Združevanje podatkovnih virov v Hadoopu je kompleksen posel. Nekateri razlogi za to so:
- Problemi po meri so specifični za posamezne vire, ki združujejo vire podatkov.
- Uporaba integracije podatkov ali podatkovnih orodij vnaša preveč negotovosti.
- Dodajanje podatkov iz zunanjih virov je skoraj nemogoče.
Danes bom razpravljal o tem, kako se Hadoop analitika izboljšuje z izvorno-agnosticnimi tehnologijami, ki olajšajo kombiniranje notranjih in zunanjih virov podatkov. Poleg tega, da bom opisal, kako delujejo izvorno-agnostične metode, bom opisal tudi, zakaj Hadoop analitika potrebuje vgrajene zmožnosti prenosa inteligence in znanja, razumevanje odnosov in podatkovnih lastnosti ter razširljivo in visokozmogljivo arhitekturo.
Webinar: Pomembne matrike: Povezovanje pik v Hadoopu - tukaj se prijavite |
