Domov Baze podatkov Kaj je hadoop porazdeljeni datotečni sistem (hdfs)? - definicija iz tehopedije

Kaj je hadoop porazdeljeni datotečni sistem (hdfs)? - definicija iz tehopedije

Kazalo:

Anonim

Opredelitev - Kaj pomeni sistem Hadoop Distributed File System (HDFS)?

Hadoop Distributed File System (HDFS) je porazdeljeni datotečni sistem, ki deluje na standardni ali nizki strojni opremi. HDFS, ki ga je razvil Apache Hadoop, deluje kot standardni sistem porazdeljenih datotek, vendar omogoča boljši pretok podatkov in dostop prek algoritma MapReduce, visoko odstopanje napak in domačo podporo velikih naborov podatkov.

Techopedia razlaga Hadoop distribucijski datotečni sistem (HDFS)

HDFS shranjuje veliko količino podatkov, nameščenih na več strojih, običajno na stotine in tisoče hkrati povezanih vozlišč, in zagotavlja zanesljivost podatkov s kopiranjem vsakega primerka podatkov kot tri različne kopije - dve v eni skupini in ena v drugi. Te izvode je mogoče zamenjati v primeru okvare.

Arhitektura HDFS je sestavljena iz grozdov, do katerih je mogoče dostopati z enim programskim orodjem NameNode, nameščenim na ločenem stroju za spremljanje in upravljanje datotečnega sistema in mehanizma za dostop do uporabnika. Drugi stroji namestijo en primerek DataNode za upravljanje shranjevanja v grozdih.

Ker je HDFS napisan v Javi, ima domačo podporo za programske vmesnike Java (API) za integracijo aplikacij in dostopnost. Do njega lahko dostopate tudi prek standardnih spletnih brskalnikov.

Kaj je hadoop porazdeljeni datotečni sistem (hdfs)? - definicija iz tehopedije