Big Data w chmurze - jak bezpieczne są nasze dane?

Autor: Roger Morrison
Data Utworzenia: 19 Wrzesień 2021
Data Aktualizacji: 21 Czerwiec 2024
Anonim
Top 3 data risks in Cloud Security
Wideo: Top 3 data risks in Cloud Security

Zawartość


Źródło: Cuteimage / Dreamstime.com

Na wynos:

Poznaj największe zagrożenia dla dużych zbiorów danych w chmurze i dowiedz się, jak się przed nimi chronić.

Ilość dużych zbiorów danych gwałtownie rośnie z dnia na dzień. Z 2500 eksabajtów w 2012 r. Oczekuje się, że duże zbiory danych wzrosną do 40 000 eksabajtów w 2020 r. W związku z tym przechowywanie danych stanowi poważne wyzwanie, z którym może sobie poradzić tylko infrastruktura chmurowa. Chmura stała się popularną opcją głównie ze względu na ogromną pojemność pamięci i warunki użytkowania, które nie nakładają żadnych zobowiązań na subskrybenta. Przechowywanie w chmurze może być oferowane w formie subskrypcji, a usługi trwają przez z góry określony okres. Po tym czasie klient nie ma obowiązku odnowienia go.

Jednak przechowywanie dużych danych w chmurze stwarza nowe wyzwania bezpieczeństwa, z którymi nie można się zmierzyć przy zastosowaniu środków bezpieczeństwa przyjętych dla zwykłych, statycznych danych. Chociaż duże zbiory danych nie są nowatorską koncepcją, ich gromadzenie i wykorzystanie zaczęło nabierać tempa dopiero w ostatnich latach. W przeszłości przechowywanie i analiza dużych danych były ograniczone tylko do dużych korporacji i rządu, które mogły sobie pozwolić na infrastrukturę niezbędną do przechowywania i eksploracji danych. Taka infrastruktura była zastrzeżona i nie była narażona na sieci ogólne. Jednak duże zbiory danych są teraz tanio dostępne dla wszystkich typów przedsiębiorstw za pośrednictwem infrastruktury chmury publicznej. W rezultacie pojawiły się nowe, wyrafinowane zagrożenia bezpieczeństwa, które stale się mnożą i ewoluują.


Problemy bezpieczeństwa w rozproszonych ramach programowania

Struktury programowania rozproszonego przetwarzają duże zbiory danych za pomocą równoległych technik obliczeniowych i przechowywania. W takich ramach nieuwierzytelnione lub zmodyfikowane programy odwzorowujące - które dzielą duże zadania na mniejsze pod-zadania, aby zadania można było agregować w celu uzyskania ostatecznego wyniku - mogą narazić dane na szwank. Wadliwe lub zmodyfikowane węzły procesu roboczego - które pobierają dane z programu odwzorowującego w celu wykonania zadań - mogą narazić dane na działanie, dotykając komunikacji danych między odwzorowaniem a innymi węzłami procesu roboczego. Nieuczciwe węzły robocze mogą również tworzyć kopie legalnych węzłów roboczych. Fakt, że niezwykle trudno jest zidentyfikować nieuczciwych twórców map lub węzłów w tak ogromnych ramach, sprawia, że ​​zapewnienie bezpieczeństwa danych jest jeszcze trudniejsze.


Większość opartych na chmurze ram danych korzysta z bazy danych NoSQL. Baza danych NoSQL jest korzystna do obsługi ogromnych, nieustrukturyzowanych zestawów danych, ale z punktu widzenia bezpieczeństwa jest źle zaprojektowana. NoSQL został pierwotnie zaprojektowany z myślą o prawie żadnych względach bezpieczeństwa. Jedną z największych słabości NoSQL jest integralność transakcyjna. Ma słabe mechanizmy uwierzytelniania, co czyni go podatnym na ataki typu man-in-the-middle lub replay. Co gorsza, NoSQL nie obsługuje integracji modułów innych firm w celu wzmocnienia mechanizmów uwierzytelniania. Ponieważ mechanizmy uwierzytelniania są dość luźne, dane są również narażone na ataki z wykorzystaniem informacji poufnych. Ataki mogą pozostać niezauważone i niewyśledzone z powodu złych mechanizmów rejestrowania i analizy dzienników.

Problemy z danymi i dziennikiem transakcji

Dane są zwykle przechowywane na wielowarstwowych nośnikach danych. Śledzenie danych jest stosunkowo łatwe, gdy wolumin jest stosunkowo mały i statyczny. Ale gdy głośność rośnie wykładniczo, stosowane są rozwiązania automatycznego warstwowania. Rozwiązania do automatycznego warstwowania przechowują dane na różnych poziomach, ale nie śledzą lokalizacji. To jest problem bezpieczeństwa. Na przykład organizacja może mieć poufne dane, które są rzadko wykorzystywane. Jednak rozwiązania automatycznego warstwowania nie rozróżniają między danymi wrażliwymi i niewrażliwymi, a jedynie przechowują rzadko dostępne dane w najniższej warstwie. Najniższe poziomy mają najniższe dostępne bezpieczeństwo.

Problemy z weryfikacją danych

W organizacji duże dane mogą być gromadzone z różnych źródeł, w tym urządzeń końcowych, takich jak aplikacje i urządzenia. Dużym wyzwaniem jest zapewnienie, aby gromadzone dane nie były złośliwe. Każdy, kto ma złośliwe zamiary, może manipulować przy urządzeniu, które dostarcza dane lub z aplikacją zbierającą dane. Na przykład haker może przeprowadzić atak Sybil na system, a następnie użyć fałszywych tożsamości w celu dostarczenia złośliwych danych do centralnego serwera lub systemu gromadzenia danych. Zagrożenie to dotyczy zwłaszcza scenariusza wprowadzenia własnego urządzenia (BYOD), ponieważ użytkownicy mogą korzystać z urządzeń osobistych w sieci korporacyjnej.

Monitorowanie bezpieczeństwa Big Data w czasie rzeczywistym

Monitorowanie danych w czasie rzeczywistym jest dużym wyzwaniem, ponieważ należy monitorować zarówno infrastrukturę dużych danych, jak i przetwarzane dane. Jak wspomniano wcześniej, infrastruktura Big Data w chmurze jest stale narażona na zagrożenia. Złośliwe podmioty mogą modyfikować system, aby uzyskiwał dostęp do danych, a następnie bezustannie generował fałszywe alarmy. Niezwykle ryzykowne jest ignorowanie fałszywych trafień. Ponadto podmioty te mogą próbować uniknąć wykrycia przez budowanie ataków unikowych, a nawet użyć zatrucia danych w celu zmniejszenia wiarygodności przetwarzanych danych.

Bez błędów, bez stresu - Twój przewodnik krok po kroku do tworzenia oprogramowania zmieniającego życie bez niszczenia życia

Nie możesz poprawić swoich umiejętności programistycznych, gdy nikt nie dba o jakość oprogramowania.

Strategie przeciwdziałania zagrożeniom bezpieczeństwa

Strategie bezpieczeństwa dużych zbiorów danych są wciąż w fazie początkowej, ale muszą ewoluować szybko. Odpowiedzi na zagrożenia bezpieczeństwa leżą w samej sieci. Elementy sieci wymagają absolutnej wiarygodności, co można osiągnąć dzięki silnym strategiom ochrony danych. Powinna istnieć zerowa tolerancja dla luźnych środków ochrony danych. Powinien również istnieć silny, zautomatyzowany mechanizm gromadzenia i analizowania dzienników zdarzeń.

Poprawa wiarygodności w rozproszonych ramach programowania

Jak wspomniano wcześniej, niezaufani twórcy map i węzły robocze mogą zagrozić bezpieczeństwu danych. Tak więc wymagana jest wiarygodność twórców map i węzłów. Aby to zrobić, twórcy map muszą regularnie uwierzytelniać węzły robocze. Gdy węzeł roboczy jest żądaniem połączenia z urządzeniem głównym, żądanie zostanie zatwierdzone pod warunkiem, że pracownik będzie miał predefiniowany zestaw właściwości zaufania. Następnie pracownik będzie regularnie sprawdzany pod kątem zgodności z politykami zaufania i bezpieczeństwa.

Silne zasady ochrony danych

Należy zająć się zagrożeniami bezpieczeństwa danych spowodowanymi z natury słabą ochroną danych w rozproszonych ramach i bazie danych NoSQL. Hasła powinny być szyfrowane lub szyfrowane za pomocą bezpiecznych algorytmów mieszających. Dane w spoczynku powinny zawsze być szyfrowane i nie powinny być pomijane, nawet po uwzględnieniu wpływu na wydajność. Szyfrowanie plików sprzętowych i zbiorczych jest szybsze i może w pewnym stopniu rozwiązać problemy z wydajnością, ale osoby atakujące mogą również złamać szyfrowanie urządzenia sprzętowego. Biorąc pod uwagę sytuację, dobrą praktyką jest używanie protokołu SSL / TLS do nawiązywania połączeń między klientem a serwerem oraz do komunikacji między węzłami klastra. Ponadto architektura NoSQL musi umożliwiać podłączanie modułów uwierzytelniania innych firm.

Analiza

Analizy dużych zbiorów danych mogą być wykorzystywane do monitorowania i identyfikacji podejrzanych połączeń z węzłami klastra oraz ciągłego wyszukiwania dzienników w celu wykrycia potencjalnych zagrożeń. Chociaż ekosystem Hadoop nie ma żadnych wbudowanych mechanizmów bezpieczeństwa, do monitorowania i identyfikowania podejrzanych działań można stosować inne narzędzia, pod warunkiem że narzędzia te spełniają określone standardy. Na przykład takie narzędzia muszą być zgodne z wytycznymi Open Web Application Security Project (OWASP). Oczekuje się, że monitorowanie zdarzeń w czasie rzeczywistym ulegnie poprawie, a niektóre zmiany już mają miejsce. Na przykład protokół bezpieczeństwa treści (SCAP) jest stopniowo stosowany do dużych zbiorów danych. Apache Kafka i Storm obiecują być dobrymi narzędziami do monitorowania w czasie rzeczywistym.

Wykrywanie wartości odstających podczas zbierania danych

Nadal nie ma dostępnego systemu przeciwwłamaniowego, który całkowicie zapobiegałby nieautoryzowanym włamaniom w momencie gromadzenia danych. Jednak włamania można znacznie zmniejszyć. Po pierwsze, aplikacje do gromadzenia danych muszą być opracowane w taki sposób, aby były jak najbardziej bezpieczne, pamiętając o scenariuszu BYOD, w którym aplikacja może działać na kilku niezaufanych urządzeniach. Po drugie, zdeterminowani napastnicy najprawdopodobniej złamią nawet najsilniejszą obronę i złośliwe dane w centralnym systemie gromadzenia danych. Dlatego powinny istnieć algorytmy do wykrywania i filtrowania takich złośliwych danych wejściowych.

Wniosek

Luki w zabezpieczeniach dużych zbiorów danych w chmurze są wyjątkowe i nie można ich usunąć tradycyjnymi środkami bezpieczeństwa. Ochrona dużych zbiorów danych w chmurze jest wciąż rodzącym się obszarem, ponieważ niektóre najlepsze praktyki, takie jak monitorowanie w czasie rzeczywistym, wciąż się rozwijają, a dostępne najlepsze praktyki lub środki nie są ściśle stosowane. Biorąc jednak pod uwagę lukratywne duże zbiory danych, środki bezpieczeństwa z pewnością nadrobią zaległości w najbliższej przyszłości.