Eksperci dzielą się najważniejszymi trendami Big Data w 2017 roku

Autor: Roger Morrison
Data Utworzenia: 21 Wrzesień 2021
Data Aktualizacji: 19 Czerwiec 2024
Anonim
4.11.2019: INTERNET RZECZY ORAZ BIG DATA W KOLEJNICTWIE
Wideo: 4.11.2019: INTERNET RZECZY ORAZ BIG DATA W KOLEJNICTWIE

Zawartość


Na wynos:

Wielu ekspertów uważa, że ​​rok 2017 będzie jeszcze większy, ponieważ technologia dużych zbiorów danych staje się coraz bardziej wyrafinowana, a organizacje nadal doskonalą swoje możliwości wykorzystania dużych zbiorów danych.

2016 był przełomowym rokiem dla dużych zbiorów danych. Według danych zebranych przez Tableau, więcej organizacji niż kiedykolwiek wcześniej magazynowało, przetwarzało i analizowało duże zbiory danych w ramach swoich procesów biznesowych. Wielu ekspertów uważa, że ​​rok 2017 będzie jeszcze większy, ponieważ technologia dużych zbiorów danych staje się coraz bardziej wyrafinowana, a organizacje nadal doskonalą swoje możliwości wykorzystania dużych zbiorów danych. Poprosiliśmy ekspertów w tej dziedzinie, aby przedstawili swoje prognozy dotyczące roku w zakresie technologii dużych zbiorów danych. Oto, co nam powiedzieli.

Zwiększona automatyzacja w ramach narzędzi Big Data

Firmy inwestujące w duże zbiory danych muszą znać więcej wymiarów swoich klientów, produktów i operacji. Nowe narzędzia do obsługi pulpitów danych i automatyzacji raportowania są w stanie przekształcić długi i krótki ogon w przychody i doprowadzić do zysków. Automatyzacja i koszt specjalistycznej wiedzy z zakresu morskiej analizy danych obniżą koszty przyjęcia zorientowanych na biznes narzędzi do analizy i pomogą przygotowanym klientom spersonalizować i sprzedać większe produkty / usługi nowym i lojalnym klientom.

-Michael Reddy, założyciel i dyrektor ds. Analityki w firmie Digital Acumen


Większy nacisk na czystość danych

Pomimo coraz bardziej wydajnego uczenia maszynowego i zaawansowanych algorytmów, wielu marketerów po prostu właściwie nie zebrało swoich danych, znormalizowało je, oczyściło, uporządkowało i umieściło w miejscu, w którym można je analizować. Rok 2017 będzie rokiem, w którym większy nacisk zostanie położony na te zadania „zarządzania danymi”.

-Mike Driscoll, dyrektor generalny Metamarkets

Wcześni użytkownicy zaczną korzystać z platformy do obsługi pojedynczego klienta

Wcześniejsi użytkownicy zaczną korzystać z platformy do obsługi pojedynczego klienta do wyszukiwania danych zgromadzonych we wszystkich punktach zaangażowania. Ten typ systemu obejmie analizę samoobsługową, analizę mobilną i analizę dużych zbiorów danych. Analytics zapewnia informacje, których szukają marki, ale ważne jest, aby przeglądać analizy contact center z perspektywy klienta, agenta i organizacji. Inne rozwiązania próbujące zarządzać doświadczeniami klientów nie mogą działać poza pojedynczą interakcją. Są uwięzione w funkcji (sprzedaż, marketing, usługa) lub w kanale (głos, telefon komórkowy, cyfrowy, społecznościowy) lub, co gorsza, w obu: w kanale w funkcji. W tych silosach umiera odpowiedzialność. W czasach, gdy konsumenci oczekują płynnego korzystania z technologii cyfrowej, utrata lojalności klientów wymaga tylko jednej przerwy.

-Merijn te Booij, CMO w Genesys


SaaS i Big Data staną się głównym nurtem analizy operacji IT

W 2017 r. Spodziewaj się, że połączenie SaaS i dużych zbiorów danych wejdzie do głównego nurtu rozwiązań analizy operacji IT w czasie rzeczywistym.

Bez błędów, bez stresu - Twój przewodnik krok po kroku do tworzenia oprogramowania zmieniającego życie bez niszczenia życia

Nie możesz poprawić swoich umiejętności programistycznych, gdy nikt nie dba o jakość oprogramowania.

Big data narodziło się jako oprogramowanie typu open source. Choć niezwykle potężny, w większości przypadków nie był łatwo trawiony przez większość sklepów IT. Komercjalizacja dużych zbiorów danych nastąpiła poprzez firmy konsultingowe, które oferowały integrację i wsparcie w zakresie tych narzędzi open source. To było skuteczne, ale drogie. Jednocześnie dostawcy usług w chmurze zaczęli oferować narzędzia do dużych zbiorów danych w pakiecie z zasobami infrastruktury chmury. Te fazy ewolucyjne stanowią podstawę naturalnej ewolucji od narzędzi i platform ogólnych do ofert Big Data SaaS zbudowanych wokół rzeczywistych przypadków użycia.

-Jim Frey, wiceprezes ds. Sojuszy strategicznych w Kentik

Demokratyzacja dużych zbiorów danych przyspieszy i wyrówna szanse dla mniejszych firm

Nacisk zostanie położony na technologie i usługi, które przekazują moc danych w ręce tych, którzy jej najbardziej potrzebują. Na przykład sprzedaż i marketing będą miały więcej opcji monitorowania, odkażania i analizowania dużych zbiorów danych „na krawędzi”, zanim zostaną zrzucone do dużych scentralizowanych baz danych, gdzie mogą szybko stracić na wartości. Firmy będą coraz częściej zwracać się do dostawców, którzy zmniejszą obciążenie związane z zarządzaniem danymi, jednocześnie zwiększając efektywność sprzedaży i marketingu poprzez dostarczanie dobrych danych do rąk przedstawicieli handlowych i marketingowych, aby mogli podejmować bardziej świadome i natychmiastowe działania. Będzie to szczególnie przydatne dla mniejszych firm, które wykorzystają zdemokratyzowane dane, aby konkurować z większymi rywalami.

-Henry Schuck, współzałożyciel i CEO DiscoverOrg

Firmy i technologie, które tworzą duże zbiory danych i zarządzają nimi, staną w obliczu większych oczekiwań

Firmy zdają sobie sprawę, że zweryfikowane dane są najważniejszym czynnikiem wpływającym na pomyślną sprzedaż i marketing. W miarę, jak coraz więcej technologii stosuje się do funkcji sprzedaży i marketingu, dobre dane stają się coraz ważniejsze, ponieważ to paliwo napędza te narzędzia. Ogromna wartość, jaką Microsoft przykłada do LinkedIn ze względu na bogate dane, a inwestycja, którą Salesforce dokonał w narzędzia do wykorzystania danych w celu informowania o „podróży klienta”, to główne sygnały, które zapowiadają przyszłe sojusze rynkowe, konsolidację i innowacje, które będą opierać się głównie wartość dobrych danych.

-Henry Schuck, współzałożyciel i CEO DiscoverOrg

Suwerenność i bezpieczeństwo danych będą prowadzić dyskusje na forach światowych

Jednym z największych pytań dotyczących dużych zbiorów danych w 2017 r. Będzie: „Kto tak naprawdę jest właścicielem?” Suwerenność i bezpieczeństwo danych - zarówno na poziomie korporacyjnym, jak i indywidualnym - będą prowadzić dyskusje na ten temat na wielu wiodących forach na całym świecie (takich jak Światowe Forum Ekonomiczne w Davos i G8).

Gdy wkraczamy w erę uczenia maszynowego, sztucznej inteligencji (AI) i rzeczywistości wirtualnej, dane wytwarzane przez dowolny element technologii należą do „właściciela / twórcy technologii”. Jednak w krajach takich jak Europa wdrażających ramy takie jak Ogólne Rozporządzenie o ochronie danych (RODO) w 2018 r., Które obejmie znacznie wyższe kary za naruszenia przepisów o ochronie danych (w niektórych przypadkach do 4% globalnych przychodów firmy), podobnie jak odpowiedzialność finansowa za nieprzestrzeganie przepisów.

Teraz, gdy zaniedbanie w zakresie suwerenności danych bezpośrednio uderzy w głębokie kieszenie korporacji, przewiduję, że w 2017 r. Zyska o wiele więcej uwagi.

-Garry Connolly, założyciel i prezes firmy Host w Irlandii

Działania w zakresie fuzji i przejęć dostawców AI i Analytics przyspieszą

Nie ma wątpliwości, że istnieje ogromna grabież ziemi w przypadku sztucznej inteligencji, uczenia maszynowego lub głębokiego uczenia się. Główni gracze tak różnorodni, jak Google, Apple, Salesforce i Microsoft do AOL, i Amazon poprowadzili w tym roku trend akwizycji. Ze względu na krótką historię operacyjną większości przejmowanych startupów, te posunięcia dotyczą zarówno pozyskania ograniczonej liczby ekspertów AI na planecie, jak i wartości tego, co dotychczas wyprodukowała każda firma. Bitwa o udostępnianie wiedzy w przedsiębiorstwie AI została wyraźnie rozstrzygnięta między IBM Watson, Salesforce Einstein i adaptacyjnymi inteligentnymi aplikacjami Oracle. Dobrze wiadomo, że sztuczna inteligencja potrzebuje spójnego fundamentu wiarygodnych danych, na których mógłby działać. Z ograniczoną liczbą startupów oferujących te zintegrowane funkcje, poszukiwanie odpowiednich informacji i ostatecznie zalecanych działań, które mogą pomóc w prognozowaniu i bardziej wydajnym prognozowaniu i podejmowaniu decyzji, doprowadzi do jeszcze bardziej agresywnej działalności w zakresie fuzji i przejęć w 2017 r.

-Ramon Chen, dyrektor ds. Marketingu w Reltio

Jeziora danych w końcu staną się przydatne

Wiele firm, które we wczesnych dniach zaczęły pogrążać się w jeziorze danych, wydało znaczną sumę pieniędzy, nie tylko kupując obietnicę taniego przechowywania i przetwarzania, ale także mnóstwo usług w celu agregacji i udostępnienia znacznej puli dużych zbiorów danych być skorelowane i odkryte dla lepszego wglądu. Wyzwanie polegało na znalezieniu wykwalifikowanych badaczy danych, którzy potrafią zrozumieć informacje, jednocześnie gwarantując wiarygodność danych, na podstawie których dane są dopasowywane i skorelowane (chociaż zauważony ekspert Tom Davenport stwierdził niedawno, że mitem jest, że badacze danych są twardi znaleźć). Jeziora danych również nie są w stanie zapewnić danych wejściowych i otrzymywać aktualizacji w czasie rzeczywistym z aplikacji operacyjnych. Na szczęście rozbieżność zmniejsza się między tradycyjną dyscypliną i zestawem technologii zwanych głównym zarządzaniem danymi (MDM), a światem aplikacji operacyjnych, hurtowni danych analitycznych i jezior danych. Ponieważ istniejące projekty dużych zbiorów danych uznają potrzebę niezawodnego fundamentu danych, a nowe projekty zostały połączone w całościową strategię zarządzania danymi, jeziora danych mogą wreszcie spełnić swoją obietnicę w 2017 r.

-Ramon Chen, dyrektor ds. Marketingu w Reltio

Prawo Moore'a obowiązuje w przypadku baz danych

Zgodnie z prawem Moore'a procesory są coraz szybsze i tańsze. Ostatnio bazy danych stosują ten sam schemat.

W 2013 roku Amazon zmienił grę, kiedy wprowadził Redshift, masowo równoległą bazę danych przetwarzania, która pozwoliła firmom przechowywać i analizować wszystkie dane za rozsądną cenę. Od tego czasu jednak firmy, które postrzegały takie produkty jak Redshift jako magazyny danych o efektywnie nieograniczonej pojemności, uderzyły w ścianę. Mają setki terabajtów, a nawet petabajtów danych i utknęli między płaceniem więcej za szybkość, do której się przyzwyczaili, a czekaniem pięciu minut na odpowiedź.

Wprowadź (lub ponownie wpisz) prawo Moore'a. Redshift stał się standardem branżowym dla baz danych MPP w chmurze i wkrótce nie zmieniamy tego. Biorąc to pod uwagę, naszą prognozą na 2017 r. Jest to, że bazy danych MPP na żądanie, takie jak Google BigQuery i Snowflake, zobaczą ogromny wzrost popularności. Bazy danych na żądanie pobierają grosze za przechowywanie, umożliwiając firmom przechowywanie danych bez martwienia się o koszty. Gdy użytkownicy chcą uruchamiać zapytania lub pobierać dane, uruchamiają potrzebny sprzęt i wykonują zadanie w kilka sekund. Są szybkie, skalowalne i spodziewamy się, że wiele firm będzie ich używać w 2017 r.

-Lloyd Tabb, założyciel, prezes i dyrektor ds. Technologii w firmie Looker

SQL będzie miał kolejny niezwykły rok

SQL istnieje od dziesięcioleci, ale od końca lat 90. do połowy 2000 r. Wyszedł z mody, gdy ludzie zaczęli odkrywać alternatywy NoSQL i Hadoop. SQL jednak powrócił z zemstą. Renesans SQL był piękny, a ja nawet nie sądzę, że jest już blisko szczytu.

-Lloyd Tabb, założyciel, prezes i dyrektor ds. Technologii w firmie Looker

Zespoły IT skierują większy nacisk na wykorzystanie dużych zbiorów danych

W 2017 r. Zespoły IT będą szukać rozwiązań nie tylko dla dużych zbiorów danych, a z kolei większą uwagę skupią na wykorzystaniu dużych zbiorów danych jako kolejnego kroku. Uczenie maszynowe będzie wykorzystywane jako źródło szerokiej inteligencji i spostrzeżeń, które wcześniej nie były po ludzku możliwe. W połączeniu z opiniami klientów zespoły IT wykorzystają spostrzeżenia zebrane podczas uczenia maszynowego, aby przewidzieć i spersonalizować doświadczenia klientów.

-Rajagopal Chandramohan, główny architekt, Enterprise Business Services w Intuit

Więcej firm będzie korzystać z analizy dużych zbiorów danych w celu wykrywania (a nie tylko zapobiegania) oszustw

Wielu menedżerów IT nie wie, że systemy planowania zasobów przedsiębiorstwa (ERP), w których mieszczą się i zarządzają zbiorami dużych zbiorów danych firmy, mają nieodłączną złożoność, która może faktycznie stworzyć możliwości oszustwa. Biorąc pod uwagę koszt remontu takich systemów, firmy zaczynają bardziej koncentrować się na wykrywaniu oszustw, instalując narzędzia analizy danych, aby dokładnie sprawdzić możliwości ERP, z zamiarem wychwycenia anomalii, które mogą wskazywać na oszustwo.

Dodanie kontroli ERP może zapobiegać dodatkowym oszustwom, ale jest kosztowne i często dławi wydajność procesu, jednocześnie otwierając drzwi do obejścia przez zdeterminowanych oszustów. Skupiając się na tym, firmy mogą zyskać możliwość analizowania trendów w danych ERP i wykrywania, gdzie ktoś popełnił błąd lub próbował ominąć kontrolę, zamiast ustawiać niekończące się blokady.

-Dan Zitting, dyrektor ds. Produktu w ACL

2017 będzie rokiem optymalizacji dla organizacji z magazynami danych w chmurze

W przypadku organizacji z magazynami danych w chmurze rok 2017 będzie rokiem optymalizacji. Dla tych, którzy chcą przenieść dane do chmury, rok 2017 będzie rokiem, w którym zostaną uwzględnione strategie optymalizacji danych. Wszystkie drogi prowadzą do eliminacji niepotrzebnych kosztów operacyjnych przy jednoczesnym wspieraniu wydajności biznesowej dzięki dostępowi do informacji i faktów. Historie bumerangów danych - dane przeniesione do chmury, a następnie cofnięte z powodu nieoczekiwanych kosztów - można wyeliminować, stosując strategię strefową danych. Wymaga to wspierania architektur danych przy założeniu, że wszystkie dane nie są równe organizacji. Architekci danych muszą wziąć pod uwagę wartość danych w zależności od potrzeb organizacyjnych. Wyrównanie można osiągnąć za pomocą stref danych. Typowe przykłady to: światło na wsparcie, przewaga konkurencyjna oraz innowacje i wyrafinowanie. Dawno minęły czasy, kiedy jeziora danych można postrzegać jako proste i niezróżnicowane schronienie dla wszystkich danych. Wejdź do strefy, strefy danych.

-William Hurley, starszy dyrektor ds. Usług cyklu życia oprogramowania w Astadia