Wirtualizacja Big Data

Autor: Judy Howell
Data Utworzenia: 6 Lipiec 2021
Data Aktualizacji: 1 Lipiec 2024
Anonim
Big Data Virtualization & Open Source Software | vSphere
Wideo: Big Data Virtualization & Open Source Software | vSphere

Zawartość

Definicja - Co oznacza wirtualizacja Big Data?

Wirtualizacja dużych zbiorów danych to proces koncentrujący się na tworzeniu struktur wirtualnych dla systemów dużych zbiorów danych. Przedsiębiorstwa i inne podmioty mogą czerpać korzyści z wirtualizacji dużych zbiorów danych, ponieważ umożliwiają im wykorzystanie wszystkich zgromadzonych zasobów danych do osiągnięcia różnych celów. W branży IT istnieje zapotrzebowanie na narzędzia do wirtualizacji dużych zbiorów danych, które pomogą w analizie dużych zbiorów danych. W branży IT istnieje zapotrzebowanie na narzędzia do wirtualizacji dużych zbiorów danych, które pomogą w analizie dużych zbiorów danych.

Wprowadzenie do Microsoft Azure i Microsoft Cloud | W tym przewodniku dowiesz się, na czym polega przetwarzanie w chmurze i jak Microsoft Azure może pomóc w migracji i prowadzeniu firmy z chmury.

Techopedia wyjaśnia wirtualizację Big Data

Wyjaśnienie wirtualizacji dużych zbiorów danych wymaga zrozumienia ogólnych zasad wirtualizacji jako całości. Zasadniczą ideą wirtualizacji jest to, że systemy heterogeniczne lub rozproszone są reprezentowane jako systemy złożone za pośrednictwem określonych interfejsów, które zastępują fizyczne oznaczenia sprzętu lub przechowywania danych komponentami wirtualnymi. Na przykład w wirtualizacji sprzętu oprogramowanie przekształca system komputerów fizycznych w system komputerów „logicznych” lub wirtualnych. Ten system wirtualizacji może prezentować części dwóch lub więcej różnych dysków pamięci masowej na dwóch lub więcej komputerach jako pojedynczy „Dysk A”, do którego użytkownicy mają dostęp jako zunifikowana całość. W wirtualizacji sieci systemy mogą reprezentować zestaw fizycznych węzłów i zasobów jako inny zestaw komponentów wirtualnych.

Jednym ze sposobów myślenia o zasobie wirtualizacji dużych zbiorów danych jest interfejs, który został stworzony w celu uczynienia analiz dużych zbiorów danych bardziej przyjaznymi dla użytkowników końcowych. Niektórzy specjaliści tłumaczą to również jako tworzenie „warstwy abstrakcji” między fizycznymi systemami dużych zbiorów danych, tj. Gdzie każdy bit danych jest indywidualnie przechowywany na komputerach lub serwerach, oraz tworzenie wirtualnego środowiska, które jest znacznie łatwiejsze do zrozumienia i nawigacji. Wirtualizacja dużych zbiorów danych ma na celu połączenie wszystkich tych rozproszonych lokalizacji w jeden łatwy element wirtualny.

Świat biznesu opracował wyrafinowany zestaw narzędzi do analizy dużych zbiorów danych, ale nie wszystkie obsługują zasadę wirtualizacji dużych zbiorów danych, a praca tego rodzaju ma swoje własne wyzwania. Niektórzy twierdzą, że firmy nie radzą sobie z wirtualizacją dużych zbiorów danych, ponieważ ich wdrożenie uważa się za żmudne i trudne. Może się to jednak zmienić, ponieważ usługodawcy nadal wytwarzają produkty i usługi, których potrzebują firmy, a wykwalifikowani specjaliści IT szukają najlepszych sposobów wprowadzania zmian pomiędzy fizycznym konfiguracją systemu a sposobem jego wykorzystania w ogólnej architekturze oprogramowania.