Zawartość
- Definicja - Co oznacza Hadoop Distributed File System (HDFS)?
- Wprowadzenie do Microsoft Azure i Microsoft Cloud | W tym przewodniku dowiesz się, na czym polega przetwarzanie w chmurze i jak Microsoft Azure może pomóc w migracji i prowadzeniu firmy z chmury.
- Techopedia wyjaśnia Hadoop Distributed File System (HDFS)
Definicja - Co oznacza Hadoop Distributed File System (HDFS)?
Hadoop Distributed File System (HDFS) to rozproszony system plików, który działa na standardowym lub niskiej jakości sprzęcie. Opracowany przez Apache Hadoop, HDFS działa jak standardowy rozproszony system plików, ale zapewnia lepszą przepustowość danych i dostęp dzięki algorytmowi MapReduce, wysoką odporność na uszkodzenia i natywną obsługę dużych zestawów danych.
Wprowadzenie do Microsoft Azure i Microsoft Cloud | W tym przewodniku dowiesz się, na czym polega przetwarzanie w chmurze i jak Microsoft Azure może pomóc w migracji i prowadzeniu firmy z chmury.
Techopedia wyjaśnia Hadoop Distributed File System (HDFS)
HDFS przechowuje dużą ilość danych umieszczonych na wielu komputerach, zwykle w setkach i tysiącach jednocześnie połączonych węzłów, i zapewnia niezawodność danych poprzez replikację każdej instancji danych jako trzech różnych kopii - dwóch w jednej grupie i jednej w drugiej. Kopie te mogą zostać wymienione w razie awarii.
Architektura HDFS składa się z klastrów, do których dostęp jest możliwy za pomocą jednego narzędzia programowego NameNode zainstalowanego na osobnym komputerze w celu monitorowania i zarządzania systemem plików tego klastrów oraz mechanizmem dostępu użytkownika. Inne komputery instalują jedno wystąpienie DataNode do zarządzania pamięcią klastra.
Ponieważ HDFS jest napisany w Javie, ma natywną obsługę interfejsów programowania aplikacji Java (API) w celu integracji aplikacji i dostępności. Można również uzyskać do niego dostęp za pośrednictwem standardowych przeglądarek internetowych.