Streaming Big Data

Autor: Laura McKinney
Data Utworzenia: 1 Kwiecień 2021
Data Aktualizacji: 1 Lipiec 2024
Anonim
Batch Processing vs Stream Processing | System Design Primer | Tech Primers
Wideo: Batch Processing vs Stream Processing | System Design Primer | Tech Primers

Zawartość

Definicja - Co oznacza Streaming Big Data?

Przesyłanie strumieniowe dużych danych jest procesem, w którym duże dane są szybko przetwarzane w celu uzyskania z nich wglądu w czasie rzeczywistym. Dane, na których odbywa się przetwarzanie, to dane w ruchu. Strumieniowe przesyłanie dużych danych jest idealnie ukierunkowane na prędkość, w której przetwarzany jest ciągły strumień danych.


Wprowadzenie do Microsoft Azure i Microsoft Cloud | W tym przewodniku dowiesz się, na czym polega przetwarzanie w chmurze i jak Microsoft Azure może pomóc w migracji i prowadzeniu firmy z chmury.

Techopedia wyjaśnia Streaming Big Data

Przesyłanie strumieniowe dużych zbiorów danych to proces, w którym przetwarzane są duże strumienie danych w czasie rzeczywistym, a jedynym celem jest wydobycie z nich spostrzeżeń i przydatnych trendów. Ciągły strumień nieustrukturyzowanych danych jest przesyłany do analizy do pamięci przed zapisaniem na dysku. Dzieje się tak w klastrze serwerów. Prędkość ma największe znaczenie w strumieniowaniu dużych zbiorów danych. Wartość danych, jeśli nie zostanie szybko przetworzona, zmniejsza się z czasem.

Analiza danych strumieniowych w czasie rzeczywistym to analiza jednoprzebiegowa. Analitycy nie mogą zdecydować o ponownej analizie danych po ich przesłaniu.