W przyszłość: Rampa do obliczeń w pamięci

Autor: Roger Morrison
Data Utworzenia: 22 Wrzesień 2021
Data Aktualizacji: 21 Czerwiec 2024
Anonim
Przykład obliczania długości łuku
Wideo: Przykład obliczania długości łuku

Na wynos: Prowadzący Eric Kavanagh omawia obliczenia w pamięci i SAP HANA z gośćmi dr Robin Bloor, Dez Blanchfield i IDERA Billem Ellisem.



Obecnie nie jesteś zalogowany. Zaloguj się lub zarejestruj, aby zobaczyć wideo.

Eric Kavanagh: Okej, panie i panowie. Witam i witam ponownie. W środę jest godzina czwarta czasu wschodniego, a ostatnie kilka lat oznacza, że ​​znów czas na Hot Technologies. Tak, naprawdę nazywam się Eric Kavanagh, będę gospodarzem dzisiejszej rozmowy.

I ludzie, dzisiaj porozmawiamy o fajnych rzeczach. Zagłębimy się w świat pamięci, dokładny tytuł brzmi „Into the Future: An Ramp for In-Memory Computing”. Obecnie jest to wściekłość i nie bez powodu, głównie dlatego, że pamięć jest o wiele szybsza niż poleganie na wirujących dyskach. Wyzwanie polega jednak na tym, że trzeba przepisać dużo oprogramowania. Ponieważ dzisiejsze oprogramowanie zostało w większości napisane z myślą o dysku i to naprawdę zmienia architekturę aplikacji. Jeśli projektujesz aplikację tak, aby czekała na wirujący dysk, po prostu robisz rzeczy inaczej niż wtedy, gdy masz całą moc technologii pamięci.


Jest twoje miejsce naprawdę, uderz mnie, @eric_kavanagh. Zawsze staram się śledzić, a także przesyłać dalej za każdym razem, gdy ktoś mnie wspomina.

Tak jak powiedziałem, dzisiaj mówimy o pamięci „in-memory”, a konkretnie SAP HANA. W zeszłym roku naprawdę dobrze poznałeś społeczność SAP i muszę przyznać, że to fascynujące środowisko. Czapki z głów przed ludźmi, którzy prowadzą tę operację i są na pierwszej linii, ponieważ SAP jest niezwykle dobrą operacją. To, w czym są naprawdę bardzo dobrzy, to robienie interesów. Oczywiście są także świetni w technologii i naprawdę zainwestowali dużo w HANA. W rzeczywistości pamiętam - to było prawdopodobnie około sześć lub siedem lat temu - że w rzeczywistości pracowaliśmy dla sił powietrznych Stanów Zjednoczonych, a my przyjechaliśmy z SAP, żeby przyszedł i dał nam wczesne spojrzenie na świat HANA i co było zaplanowane. I co najmniej, pracownicy SAP Labs poświęcili wiele czasu i wysiłku na zrozumienie, w jaki sposób zbudować tę architekturę, która jest zupełnie inna od tradycyjnych środowisk, ponieważ masz wszystko w pamięci. Mówią więc o robieniu transakcji i analiz na tych samych danych w pamięci, w przeciwieństwie do tradycyjnego sposobu, który polega na wyciągnięciu go, umieszczeniu go w kostce, na przykład analizie tam, w porównaniu z transakcją, która dzieje się w zupełnie inny sposób.


To interesująca przestrzeń i dowiemy się od innego dostawcy, IDERA, trochę o tym, jak te wszystkie rzeczy będą działać i o co chodzi na rampie, szczerze mówiąc. Tak więc, będziemy rozmawiać z dr Robin Bloor, naszym własnym głównym analitykiem w The Bloor Group; Dez Blanchfield, nasz naukowiec danych, a następnie dobry przyjaciel Bill Ellis z IDERA. W związku z tym przekażę klucze dr Robinowi Bloorowi, który je zabierze.

Dr Robin Bloor: Tak, jak mówił Eric, czas, w którym po raz pierwszy otrzymaliśmy informacje od SAP HANA, wrócił wiele lat temu. Ale to było bardzo interesujące, ten szczególny czas był bardzo interesujący. Wpadlibyśmy na jedną lub dwie firmy, które w ten czy inny sposób oferowały technologię in-memory. Było całkiem jasne, że nadejdzie pamięć. I tak naprawdę dopiero SAP wstał i nagle uruchomił HANA. To był szok, kiedy zobaczyłem, jak SAP to robi. To był jakby szok, ponieważ spodziewałem się, że będzie pochodził z innych źródeł. Spodziewałem się, że będzie to Microsoft, Oracle lub IBM lub ktoś taki. Pomysł, że SAP to robi, był dla mnie bardzo zaskakujący. Przypuszczam, że nie powinno tak być, ponieważ SAP jest jednym ze strategicznych dostawców i właściwie wszystko, co dzieje się w branży, pochodzi od jednego z nich.

W każdym razie, cała sprawa związana z pamięcią, to znaczy, zdaliśmy sobie sprawę, że rozmawialiśmy o tym, że gdy tylko wejdziesz do pamięci - nie chodzi o zapisywanie danych w pamięci, chodzi o zaangażowanie się w pomysł, że warstwa pamięci jest rekordem systemowym - jak tylko migrujesz rekord systemu do pamięci, dysk staje się nośnikiem przekazu jednego rodzaju i staje się czymś innym. Pomyślałem, że to było bardzo ekscytujące, kiedy to się zaczęło. Tak naprawdę to już koniec wirującego dysku. Wirujący dysk wkrótce będzie istniał tylko w muzeach. Nie jestem pewien, jak szybko to nastąpi, ale w zasadzie dysk półprzewodnikowy jest teraz na krzywej prawa Moore'a, jest już dziesięć razy szybszy niż wirująca rdza, jak to teraz nazywają, a wkrótce będzie jeszcze szybszy i oznacza to, że przypadki użycia dysku stają się coraz mniejsze.

Co ciekawe, tradycyjny DBMS, w rzeczywistości wiele tradycyjnych programów zostało zbudowanych dla wirującego dysku, zakładając wirujący dysk. Miał wszelkiego rodzaju funkcje na poziomie fizycznym, które zostały starannie zaprogramowane, aby wykorzystać wirujący dysk, dzięki czemu pobieranie danych jest tak szybkie, jak to możliwe. I wszystko to jest zmywane. Po prostu znikam, wiesz? A potem było oczywiście bardzo - nie wiem, intratne, jak sądzę, będzie na końcu - otwarcie na bazę danych w pamięci, która próbowała zająć pozycję, którą duże bazy danych, Oracle i Microsoft, SQL Serwer i IBM IBM zajmowały miejsce w pamięci i bardzo interesujące było obserwowanie, jak nadchodzi i robi to.

Porozmawiajmy o kaskadzie pamięci; warto tylko wspomnieć. Jest to również powód, dla którego o tym wspomniałem, dlatego, że naprawdę wrzuciłem to, aby wszyscy wiedzieli, że kiedy mówię o pamięci, wszystkie te warstwy, o których mówię, są w rzeczywistości pamięcią. Ale nagle zdajesz sobie sprawę, że kiedy spojrzysz na to, jest to sklep hierarchiczny, to nie tylko pamięć. Dlatego obowiązuje również prawie wszystko, czego dowiedzieliśmy się dawno, dawno temu o sklepie hierarchicznym. Oznacza to również, że każda baza danych w pamięci musi się przez to poruszać, niektóre po prostu przechodzą przez samą pamięć RAM. I właśnie robi się coraz większy i większy, a teraz jest mierzony w megabajtach. Ale masz pamięć podręczną L1, która jest sto razy szybsza niż pamięć, pamięć podręczna L2 30 razy szybsza niż pamięć i pamięć podręczna L3 około 10 razy szybsza niż pamięć. Wiesz, istnieje wiele technologii - cóż, spora ilość technologii - przyjęła strategię wykorzystania tych pamięci podręcznych jako swego rodzaju przestrzeni dyskowej na drodze do wykonania zadań, szczególnie technologii baz danych. Wiesz, to jeden wpływ.

Potem pojawiły się 3D XPoint i PCM IBM. I to prawie prędkości RAM, to w zasadzie to, co chwalą obaj ci dostawcy. Przypadki użycia są prawdopodobnie różne. Wczesne eksperymenty z tym jeszcze się nie zakończyły. Nie wiemy, jak wpłynie to na użycie pamięci RAM i technologię bazy danych w pamięci. Masz wtedy pamięć RAM kontra SSD. Obecnie pamięć RAM jest około 300 razy szybsza, ale oczywiście ta liczba maleje. I SSD kontra dysk, który jest około 10 razy szybszy, jeśli go rozumiem. Tak więc masz taką sytuację. To sklep hierarchiczny. Patrząc na to z innej perspektywy, w pamięci oczywiście jest zupełnie inna. Tak więc górny schemat pokazuje dwie aplikacje, obie mogą uzyskiwać dostęp do bazy danych, ale z pewnością uzyskują dostęp do danych na temat wirującej rdzy. Sposób, w jaki sprawisz, że rzeczy przepływają przez sieć, w zależności od istniejących zależności, to posiadanie ETL. Oznacza to, że, jak wiadomo, dane przechodzą na wirującą rdzę, a następnie schodzą z wirującej rdzy, aby przejść gdziekolwiek, i aby dostać się gdziekolwiek, wracają do wirującej rdzy, czyli trzech ruchów. I pamiętaj, że pamięć może być sto tysięcy razy szybsza niż wirujący dysk, a na pewno zdajesz sobie sprawę, że pobieranie danych i zapisywanie ich w pamięci sprawia, że ​​cała ta sprawa jest zupełnie inna.

Więc mógłbyś pomyśleć, co się stanie, na tym, co jest na ekranie tutaj, mógłbyś pomyśleć, że w taki czy inny sposób ETL faktycznie po prostu przejdzie od danych do danych w pamięci. Ale w rzeczywistości może tego nie zrobić; w rzeczywistości możesz mieć sytuację po prawej stronie, w której dwie aplikacje mogą faktycznie odpalić tę samą pamięć. Z pewnością baza danych w pamięci może dać taką możliwość, o ile masz blokadę i wszystko inne wokół niej. To nie tylko zmienia prędkość rzeczy, ale zmienia sposób, w jaki faktycznie konfigurujesz aplikacje i całe przepływy danych.

To ogromny wpływ. Pamięć jest więc destrukcyjna, prawda? I powinniśmy to wyciągnąć z tego, co powiedziałem. Przetwarzanie w pamięci jest obecnie akceleratorem, ale stanie się normą. Zostanie on wykorzystany, zastosowany zgodnie z wartością aplikacji, a zatem jest to bardzo, bardzo interesujące, że SAP faktycznie wyjdzie z wersją swojego oprogramowania ERP, które jest w pamięci. A ulepszenia opóźnień do trzech rzędów wielkości są całkowicie możliwe, a nawet więcej niż to możliwe, w zależności od tego, jak to robisz. W ten sposób uzyskujesz ogromną poprawę prędkości, wchodząc do pamięci. Podsumowując, SAP HANA S / 4 - które wydali, myślę, że ludzie mówią, że wciąż jest wypuszczany, ale z pewnością został wydany w zeszłym roku - to zmieniacz gier, biorąc pod uwagę bazę klientów SAP. Mam na myśli, że istnieje 10 000 firm korzystających z SAP ERP i prawie wszystkie z nich to duże firmy. Pomysł polegający na tym, że wszyscy mają motywację, by wejść w pamięć i korzystać ze swoich podstawowych funkcji, ponieważ ERP prawie zawsze są podstawowymi aplikacjami obsługiwanymi przez firmy, jest to po prostu olbrzymi zmieniacz gier i będzie bardzo interesujący. Ale oczywiście to wszystko brzmi bardzo dobrze, ale musi być inteligentnie skonfigurowane i musi być dobrze monitorowane. To nie jest tak proste, jak się wydaje.

Powiedziawszy to, myślę, że przekażę piłkę, kim jest ten facet? Och, Australijczyk, Dez Blanchfield.

Dez Blanchfield: Bardzo śmieszne. Robin Bloor, zawsze trudny do naśladowania. Dzięki, że mnie dziś masz. Wielki temat, ale ekscytujący. Wybrałem obraz, który często przywołuję na myśl, gdy myślę o nowoczesnym magazynie danych i hurtowniach danych oraz o moich małych klejnotach danych. Więc tutaj mam to piękne jezioro otoczone górami i falami, a fale rozbijają się o te skały. W ten sposób wyobrażam sobie, jak to wygląda w dużym jeziorze danych. Fale są zadaniami wsadowymi, a analityka w czasie rzeczywistym rzucana jest na dane, będące kamieniami. A kiedy myślę o tym jak o fizycznym jeziorze, przypomina mi to budzenie, które, wiesz, o skali hurtowni danych, które budujemy teraz, o przyczynie, dla której wymyśliliśmy tę monetę i termin Jezioro danych to to, że są bardzo duże i są bardzo głębokie, a od czasu do czasu możesz mieć w nich burze. A kiedy to robimy, zawsze musisz rozstrzygnąć, co powoduje burzę.

Tak więc w temacie tej rzeczy wydaje mi się, że to wezwanie do przetwarzania w pamięci jest rzeczywiście bardzo silne i nie bez powodu. Przynosi tak wiele znaczących korzyści handlowych i technicznych. To dyskusja trwająca kilka godzin w innym dniu.Ale ogólne przejście na obliczenia w pamięci, po pierwsze, chcę po prostu opisać, jak się tu dostaliśmy i co to umożliwia, ponieważ, niejako, stanowi podstawę, gdzie niektóre z wyzwań mogą leżeć na pierwszym miejscu i co musimy być świadomi i myśląc o tym, w naszym świecie odejścia od tradycyjnego starego wirującego dysku przechowującego dane i umieszczanego na dyskach i dyskach w pamięci i poza pamięcią i procesorami, teraz usuwamy prawie jedną z tych całych warstw, będąc wirującym dyskiem. Ponieważ pamiętajcie, w bardzo wczesnych czasach komputerów, pod względem architektonicznym, długo nie przenosiliśmy się z komputera mainframe lub świata średniego tego, co pierwotnie uważaliśmy za pamięć rdzeni i pamięć bębnów.

Jak powiedział dr Robin Bloor, nasze podejście do przenoszenia danych w architekturze komputerowej nie zmieniło się tak naprawdę radykalnie przez jakiś czas, w rzeczywistości przez kilka dziesięcioleci. Jeśli myślisz o tym, że, wiesz, współczesne informatyka, technicznie, istnieje, jeśli wybaczysz kalambur, przez jakieś 60-letnie lata, wiesz, sześć dekad i więcej i to w tym sensie, że możesz kup pudełko z półki, jakby to było. Przejście na nową architekturę naprawdę przyszło mi do głowy, kiedy przestawiliśmy się z myślenia o komputerach mainframe i średnim oraz architekturze pamięci rdzeniowej i pamięci bębnowej na odważne lub superkomputerowe, szczególnie takie jak Seymour Cray, gdzie takie rzeczy jak poprzeczne płyty boczne stało się rzeczą. Zamiast mieć tylko jedną trasę do przenoszenia danych przez płytę montażową lub płytę główną, jak to się dziś nazywa. Pamięć wbudowana, wiesz, w dzisiejszych czasach ludzie tak naprawdę nie myślą o tym, co to właściwie znaczy, kiedy mówią DIMM i SIMM. Ale SIMM to pojedyncza pamięć wbudowana, a DIMM to podwójna pamięć wbudowana, od tego czasu jesteśmy bardziej skomplikowani i istnieją dziesiątki różnych rodzajów pamięci na różne rzeczy: niektóre na wideo, inne na zwykłe aplikacje, niektóre wbudowane w procesory.

Nastąpiła więc duża zmiana w nowym sposobie przechowywania i dostępu do danych. Niedługo przejdziemy przez tę samą zmianę w całym całym pokoleniu, ale nie tyle w samym sprzęcie, ile w przyjęciu sprzętu w logice biznesowej i warstwie logiki danych, a to kolejna wielka zmiana paradygmatu w mojej głowie .

Ale krótko o tym, jak się tu dostaliśmy. Mam na myśli, że technologia sprzętowa uległa poprawie i uległa znacznej poprawie. Przeszliśmy od posiadania procesorów, a idea rdzenia była dość nowoczesną koncepcją. Uważamy za rzecz oczywistą teraz, że nasze telefony mają dwa lub cztery rdzenie, a nasze komputery mają dwa lub cztery, a nawet osiem rdzeni na pulpicie oraz osiem i 12 i więcej, no wiesz, 16 i 32, nawet na platformie serwerowej . Ale tak naprawdę to dość nowoczesna rzecz, że rdzenie stały się zdolne do pracy w procesorach i że przeszliśmy z 32-bitowej na 64-bitową. Stało się tam kilka dużych rzeczy: uzyskaliśmy wyższe częstotliwości taktowania na wielu rdzeniach, abyśmy mogli robić rzeczy równolegle i każdy z tych rdzeni mógł wykonywać wiele wątków. Nagle mogliśmy uruchomić wiele rzeczy na tych samych danych w tym samym czasie. 64-bitowe odstępy między adresami dały nam do dwóch terabajtów pamięci RAM, co jest fenomenalną koncepcją, ale teraz jest już rzeczą. Te wielościeżkowe architektury płyt głównych, no wiecie, dawno temu, można było robić rzeczy tylko w jednym kierunku: do tyłu i do przodu. I tak jak w czasach z obliczeniami Cray i niektórymi projektami superkomputerów tamtych czasów, a teraz w komputerach stacjonarnych i powszechnych gotowych, rodzajach komputerów stacjonarnych klasy stacjonarnej, ponieważ tak naprawdę większość współczesnych Komputery PC przeszły teraz erę komputerów mainframe, średnich i mikro, a my zmieniliśmy je z powrotem w serwery.

I wiele z tych możliwości superkomputera, ta konstrukcja klasy superkomputerowej, została wprowadzona do powszechnych gotowych komponentów. Wiesz, pomysł wzięcia bardzo tanich komputerów do montażu w szafach i umieszczenia ich w szafach przez setki, jeśli nie tysiące, i uruchomienia na nich oprogramowania typu open source, takiego jak Linux, i wdrożenia na nim SAP HANA, wiemy, często bierzemy to za pewnik. Ale to jest bardzo nowa ekscytująca rzecz i ma swoje złożoności.

Oprogramowanie również się poprawiło, szczególnie zarządzanie pamięcią i partycjonowanie danych. Nie będę wchodził w wiele szczegółów na ten temat, ale jeśli spojrzysz na dużą zmianę w ciągu ostatnich 15 lat lub mniej, w jaki sposób zarządzana jest pamięć, szczególnie dane w pamięci RAM i jak dane są dzielone na partycje w pamięci RAM, tak jak dr Robin Bloor wskazał wcześniej lub nawiązywał do tego, wiesz, że rzeczy mogą czytać i pisać jednocześnie bez wpływu na siebie, zamiast mieć czas oczekiwania. Wiele bardzo zaawansowanych funkcji, takich jak kompresja i szyfrowanie na chipie. Szyfrowanie staje się coraz ważniejsze i nie musimy koniecznie robić tego w oprogramowaniu, w pamięci RAM, w przestrzeni procesora, teraz, co dzieje się natywnie na chipie. To znacznie przyspiesza. Rozproszone przechowywanie i przetwarzanie danych, znowu, rzeczy, które kiedyś zakładaliśmy, były superkomputerami i przetwarzaniem równoległym, teraz uważamy to za coś oczywistego w przestrzeni takich jak SAP HANA, Hadoop i Spark i tak dalej.

Chodzi o to, że wysokowydajne obliczenia, możliwości HPC pojawiły się w przedsiębiorstwie, a teraz firma korzysta z korzyści, jakie wynikają z tego w postaci wzrostu wydajności i przestrzeni technologicznej oraz korzyści technicznych i komercyjnych, ponieważ, wiesz, Skrócony czas do uzyskania wartości jest dramatycznie skrócony.

Ale używam tego obrazu historii, którą czytałem jakiś czas temu, dżentelmena, który zbudował obudowę komputera z Lego, ponieważ zawsze przychodzi mi na myśl, gdy myślę o niektórych z tych rzeczy. I to jest to, że wydaje się to świetnym pomysłem w momencie, gdy zaczynasz go budować, a potem przechodzisz do połowy i zdajesz sobie sprawę, że naprawdę bardzo trudno jest połączyć wszystkie kawałki Lego razem i stworzyć solidną, wystarczająco solidną rzecz umieścić płytę główną i tak dalej, to zbuduje obudowę komputera osobistego. I w końcu zdajesz sobie sprawę, że wszystkie małe kawałki nie są dobrze sklejone i musisz być ostrożny, które małe kawałki sklejasz, aby były solidne. I jest to bardzo ładny pomysł, ale jest to budzenie, gdy dojdziesz do połowy i zdasz sobie sprawę, „Hmm, może powinienem był kupić obudowę na komputer za 300 USD, ale skończę teraz i nauczę się czegoś z tego”.

Dla mnie to świetna analogia do tego, jak to jest budować te bardzo złożone platformy, ponieważ wszystko dobrze i dobrze jest zbudować je i stworzyć środowisko, w którym masz routery, przełączniki, serwery i szafy. I masz skupione procesory, pamięć RAM i system operacyjny. I nałożyłeś na to coś w rodzaju HANA do rozproszonego przetwarzania w pamięci, przechowywania danych i zarządzania danymi. Oprócz tego budujesz stos SAP, uzyskujesz możliwości bazy danych, a następnie ładujesz dane i logikę biznesową, i zaczynasz stosować do tego pewne odczyty, zapisy, zapytania itp. Musisz być na bieżąco z I / O i musisz planować różne rzeczy, zarządzać obciążeniami, multitenancy i tak dalej. Ten stos bardzo szybko się komplikuje. To sam w sobie złożony stos, jeśli jest tylko na jednej maszynie. Pomnóż to przez 16 lub 32 maszyny, staje się to bardzo, bardzo trywialne. Gdy pomnożysz do setek, a ostatecznie tysięcy maszyn, przejście ze 100 terabajtów do skali petabajtowej, jest to przerażająca koncepcja, z którą obecnie mamy do czynienia.

W efekcie powstaje kilka rzeczy, które również pomogły zmienić ten świat, a to oznacza, że ​​miejsce na dysku stało się absurdalnie tanie. Wiesz, dawno temu wydawałeś od 380 do 400 tysięcy dolarów na gigabajt dysku twardego, gdy był to ogromny bęben wielkości czegoś, co wymagało wózka widłowego, aby go podnieść. Obecnie zależy to od jednego lub dwóch centów za gigabajt dostępnego miejsca na dysku. I RAM zrobił to samo. Nawiasem mówiąc, te dwie krzywe J na obu tych wykresach mają dekadę, więc innymi słowy, patrzymy na dwa bloki o 10 lat, 20 lat obniżki ceny. Ale podzieliłem je na dwie krzywe J, ponieważ ostatecznie ta po prawej stała się linią przerywaną i nie było widać szczegółów, więc przeskalowałem ją. Gigabajt pamięci RAM 20 lat temu był rzędu sześciu i pół miliona dolarów. W dzisiejszych czasach, jeśli zapłacisz więcej niż trzy lub cztery dolary za gigabajt pamięci RAM na sprzęt, który cię obrabowuje.

Te znaczące spadki cen w ciągu ostatnich dwóch dekad sprawiły, że teraz możemy wyjść poza przestrzeń dyskową i bezpośrednio do pamięci RAM, nie tylko na poziomie megabajtów, ale teraz na poziomie terabajtów i traktować pamięć RAM jak na dysku. Wyzwanie polegało jednak na tym, że pamięć RAM była natywnie efemeryczna - co oznacza, że ​​trwa to przez krótki czas - musieliśmy więc wymyślić sposoby zapewnienia odporności w tej przestrzeni.

Chodzi mi o to, że przetwarzanie w pamięci nie jest dla osób o słabych nerwach. Żonglowanie tymi bardzo dużymi danymi w pamięci i ich przetwarzanie jest interesującym wyzwaniem; jak wskazałem wcześniej, nie jest to dla osób o słabym sercu. Jedną rzeczą, której nauczyliśmy się z tego doświadczenia z obliczeniami na dużą skalę i o dużej gęstości w pamięci, jest to, że złożoność, którą budujemy, wiąże się z ryzykiem w wielu obszarach.

Ale spójrzmy na to z punktu widzenia monitorowania i reakcji. Kiedy myślimy o danych, zaczyna się w przestrzeni dyskowej, znajduje się w bazach danych na dyskach, wpychamy ją do pamięci. Gdy jest już w pamięci i jest rozpowszechniany, a są jego kopie, możemy użyć wielu jego kopii, a jeśli zostaną wprowadzone jakieś zmiany, można je odzwierciedlić na poziomie pamięci, zamiast konieczności włączania i wyłączania oraz na płycie montażowej w dwa różne poziomy, wchodzi i wychodzi z pamięci. Skończyliśmy z tą platformą sprzętową w hiperskali, która pozwala nam to zrobić teraz. Kiedy mówimy o hiperskalowaniu, jest to trudniejsze na absurdalnie gęstych poziomach i pamięci o bardzo wysokiej gęstości, bardzo dużej gęstości procesorów, rdzeni i wątków. Mamy teraz bardzo złożone patologie sieci, które to obsługują, ponieważ dane muszą w pewnym momencie przemieszczać się w sieci, jeśli ma ona przechodzić między węzłami i klastrami.

W rezultacie nadmiarowość uszkodzeń urządzeń staje się problemem i musimy monitorować urządzenia i ich części. Musimy mieć elastyczną redundancję błędów danych wbudowaną w tę platformę i monitorować ją. Musimy mieć wbudowaną odporność na rozproszoną bazę danych, więc musimy monitorować platformę bazy danych i umieszczać w niej stos. Musimy monitorować harmonogram przetwarzania rozproszonego, to, co dzieje się w niektórych procesach, aż do odpytywania i zapytań, oraz ścieżkę, którą podąża zapytanie oraz sposób jego strukturyzacji i wykonania. Jak to wygląda, czy ktoś wykonał WYBÓR * na „bla” lub czy rzeczywiście wykonał bardzo inteligentne i dobrze ustrukturyzowane zapytanie, które zapewni im nominalną minimalną ilość danych przechodzących przez architekturę na płycie montażowej? Mamy obciążenia związane z wieloma usługami, wielu użytkowników i wiele grup obsługujących to samo lub wiele obciążeń i zadania wsadowe oraz planowanie w czasie rzeczywistym. Mamy połączenie przetwarzania wsadowego i przetwarzania w czasie rzeczywistym. Niektóre rzeczy działają po prostu regularnie - co godzinę, codziennie, co tydzień lub co miesiąc - inne są dostępne na żądanie. Ktoś może tam siedzieć z tabletem i robić raport w czasie rzeczywistym.

I znów dochodzimy do tego, że złożoność, która się z nimi wiąże, nie jest teraz tylko wyzwaniem, jest dość przerażająca. A my sprawdzamy rzeczywistość, czy pojedynczy problem z wydajnością, sam w sobie tylko jeden problem z wydajnością, może wpłynąć na cały ekosystem. I tak stajemy przed tym bardzo zabawnym wyzwaniem, jakim jest dowiedzieć się, gdzie są skutki? Mamy do czynienia z tym wyzwaniem: czy jesteśmy reaktywni czy proaktywni? Czy oglądamy rzecz w czasie rzeczywistym i widzimy, jak coś „hukuje” i reagujemy na to? A może widzieliśmy jakąś formę trendu i zdaliśmy sobie sprawę, że musimy proaktywnie się z tym pogodzić? Ponieważ kluczem jest to, że każdy chce czegoś szybkiego, taniego i łatwego. Ale kończymy na tych scenariuszach, do których lubię się odwoływać i mojej ulubionej linii zagadki Donalda Rumsfelda - która moim zdaniem dotyczy wszystkich tych scenariuszy o dużej złożoności - i to jest to, że znamy znane, ponieważ to coś zaprojektowaliśmy i zbudowaliśmy i działa zgodnie z planem. Znamy nieznane, ponieważ nie wiemy, kto co, kiedy i gdzie działa, jeśli jest to na żądanie. Mamy nieznane niewiadome i to są rzeczy, które musimy monitorować i sprawdzać. Ponieważ w rzeczywistości wszyscy wiemy, że nie możesz zarządzać czymś, czego nie możesz zmierzyć.

Tak więc, aby mieć odpowiednie narzędzia i zdolność do monitorowania naszego planowania procesora, poszukaj czasów oczekiwania i dowiedz się, dlaczego rzeczy muszą czekać w kolejkach harmonogramu w potokach. Co dzieje się w pamięci, jaki rodzaj wykorzystania jest wykonywany, jaki rodzaj wydajności tracimy z pamięci? Czy rzeczy są partycjonowane poprawnie, czy są dystrybuowane, czy mamy wystarczającą liczbę węzłów przechowujących ich kopie, aby poradzić sobie z obciążeniami, które są na nie rzucane? Co dzieje się z wykonywaniem procesu poza procesami systemu operacyjnego? Czy same zadania są uruchomione, poszczególne aplikacje i demony je obsługujące? Co dzieje się w tych procesach, w szczególności struktura zapytań i jak są one wykonywane i kompilowane? A kondycja tych procesów na stosie? Wiesz, znowu, czas powrotu do oczekiwania, czy planuje poprawnie, czy musi czekać, gdzie czeka, czy czeka na odczyt pamięci, operacje we / wy, procesor, operacje we / wy w sieci dla użytkownika końcowego ?

A potem wracając do tego punktu, o którym wspomniałem tuż przed podsumowaniem i to jest, w jaki sposób podchodzimy do rozwiązywania problemów i czasów reakcji na nie? Czy oglądamy w czasie rzeczywistym i reagujemy na rzeczy, co jest najmniej idealnym scenariuszem, ale nawet wtedy lepiej to zrobić, niż nie wiedzieć i poprosić o pomoc telefoniczną i powiedzieć, że coś poszło nie tak i musimy to wyśledzić ? A może robimy to proaktywnie i zastanawiamy się, co będzie dalej? Innymi słowy, czy widzimy, że brakuje nam pamięci i musimy dodać więcej węzłów? Czy przeprowadzamy analizę trendów, czy planujemy przepustowość? W związku z tym, czy monitorujemy historyczne czasy realizacji i myślimy o planowaniu zdolności produkcyjnych, czy też obserwujemy to w czasie rzeczywistym i proaktywnie zmieniamy harmonogram i równoważymy obciążenie? Czy zdajemy sobie sprawę z obciążeń, które są uruchamiane w pierwszej kolejności? Czy wiemy, kto co robi w naszym klastrze i dlaczego?

Obliczenia w pamięci są bardzo potężne, ale z tą mocą jest to prawie jedna z tych rzeczy, jak naładowana broń i grasz amunicją na żywo. Możesz w końcu strzelić sobie w stopę, jeśli nie będziesz ostrożny. Ta moc obliczeń w pamięci oznacza po prostu, że możemy uruchomić znacznie więcej i szybciej w bardzo rozproszonych i dyskretnych zestawach danych. Ale wtedy ma to większy popyt ze strony użytkowników końcowych. Przyzwyczajają się do tej mocy i chcą jej. Nie spodziewają się już, że zadania potrwają tygodnie, a raporty pojawią się w zwykłym starym papierze. A pod tym wszystkim mamy codzienną konserwację związaną z łataniem, aktualizacjami i aktualizacjami. A jeśli myślisz o przetwarzaniu 24/7 za pomocą obliczeń w pamięci, zarządzaniu tymi danymi, zarządzaniu obciążeniami, to wszystko jest w pamięci, technicznie na efemerycznej platformie, jeśli zamierzamy zacząć stosować łatki, aktualizacje i aktualizacje w tam pojawia się cała gama innych wyzwań związanych z zarządzaniem i monitorowaniem. Musimy wiedzieć, co możemy zrobić offline, kiedy możemy go uaktualnić i kiedy przywrócimy go do trybu online. I to prowadzi mnie do mojego ostatniego punktu, a mianowicie, że gdy stajemy się coraz bardziej skomplikowani w tych systemach, nie jest to coś, co człowiek może zrobić, po prostu ssąc kciuk i ciągnąc za ucho. Nie ma już czegoś w rodzaju przeczucia jelita. Naprawdę potrzebujemy odpowiednich narzędzi do zarządzania i zapewniania tak wysokiego poziomu wydajności w dziedzinie obliczeń i zarządzania danymi.

Mając to na uwadze, przekażę naszemu przyjacielowi z IDERA i usłyszę, jak podeszli do tego wyzwania.

Bill Ellis: Dziękuję Ci bardzo. Udostępniam ekran i proszę bardzo. Naprawdę pokorne jest rozważenie całej technologii i wszystkich ludzi, którzy przyszli przed nami, aby udostępnić te rzeczy, które będą dostępne w 2017 roku. Będziemy rozmawiać o analizie obciążenia dla SAP HANA - w zasadzie rozwiązanie do monitorowania baz danych: kompleksowe, bezagentowe, zapewnia w czasie rzeczywistym i buduje historię, dzięki czemu można zobaczyć, co wydarzyło się w przeszłości. SAP S / 4 HANA oferuje potencjał lepszego, szybszego i tańszego. Nie mówię, że jest niedrogi, mówię tylko, że jest tańszy. Tradycyjnie stało się tak, że miałbyś główną instancję produkcyjną - prawdopodobnie działającą na Oracle w większym sklepie, potencjalnie SQL Server - a potem używałbyś tego procesu ETL i miałbyś wiele, trochę, wersji prawdy . Jest to bardzo kosztowne, ponieważ płaciłeś za sprzęt, system operacyjny i licencję Oracle dla każdego z tych indywidualnych środowisk. A poza tym musielibyście mieć ludzi do pogodzenia jednej wersji prawdy z następną wersją prawdy. Tak więc przetwarzanie wielu wersji ETL było powolne i bardzo, bardzo uciążliwe.

I tak HANA, w zasadzie jedna instancja HANA, może potencjalnie zastąpić wszystkie inne instancje. Jest więc tańszy, ponieważ jest to jedna platforma sprzętowa, jeden system operacyjny, a nie wielokrotność. I tak, S / 4 HANA, to naprawdę wszystko zmienia, a ty w zasadzie patrzysz na ewolucję SAP z R / 2 na R / 3, różne pakiety rozszerzeń. Teraz starszy system jest dostępny do 2025 r., Więc masz osiem lat, aż naprawdę będziesz zmuszony do migracji. Chociaż widzimy ludzi, wiesz, wsuwając w to palce, ponieważ wiedzą, że to nadchodzi, i ostatecznie, wiesz, ECC będzie działać na HANA, więc naprawdę musisz być na to przygotowany i rozumiesz technologię.

Tak więc jedna baza danych, brak procesów ETL, żadnych kopii, które należy uzgodnić. Więc jeszcze raz, szybciej, lepiej i taniej. HANA jest w pamięci. SAP dostarcza oprogramowanie, Ty dostarczasz sprzęt. Brak tabel zbiorczych. Jedną z rzeczy, które sugerują, kiedy myślisz o tym, jest to, że nie chcesz się w to angażować, po prostu kupimy największy dostępny serwer. Sugerują, że odpowiednio wcześnie dostosujesz swój krajobraz SAP i zasadniczo mówią, że nie migrujesz danych z 20 lat.Myślę, że archiwizacja jest czymś, co nie jest w pełni wykorzystywane w IT, w pewnym sensie, nie tylko w sklepach SAP. Kolejną rzeczą jest to, że SAP spędził dużo czasu przepisując swój natywny kod, aby nie używać SELECT *. Opcja WYBIERZ * zwraca wszystkie kolumny z tabeli i jest szczególnie droga w kolumnowej bazie danych. Dlatego SAP HANA nie jest dobrym pomysłem. Tak więc, w przypadku sklepów, które mają wiele opcji dostosowywania, wiele raportów, będzie to coś, czego będziesz chciał szukać i będziesz chciał określić nazwy kolumn w miarę migracji wszystkiego do HANA.

Lubimy mówić, że HANA nie jest panaceum. Podobnie jak wszystkie bazy danych, wszystkie technologie, musi być monitorowany, a jak wspomniano wcześniej, potrzebujesz liczb, aby zarządzać nadmiarem, pomiar po pomiarze. Jedną z rzeczy, o których mówię w obszarze IDERA, jest to, że każda transakcja biznesowa wchodzi w interakcję z systemem rejestrowania, w tym przypadku będzie to HANA. I tak, HANA staje się podstawą do przeprowadzania transakcji SAP, doznania dla użytkownika końcowego. Dlatego tak ważne jest, aby działał z maksymalną prędkością. Staje się pojedynczym punktem awarii, a w rozmowach z ludźmi jest to coś, co może pojawić się tam, gdzie masz użytkownika końcowego i być może używa tych danych w czasie rzeczywistym, a oni mają zapytanie ad hoc, które potencjalnie nie jest całkiem dobrze. Może nie łączą się ze stołami i stworzyli zewnętrzne połączenie, produkt partyzancki i w zasadzie zużywają dużo zasobów. Teraz HANA w końcu to rozpozna i zabije tę sesję. Tak więc kluczowa część naszej architektury pozwoli ci uchwycić to w historii, abyś mógł zobaczyć, co się stało w przeszłości i rozpoznać te sytuacje.

Rzućmy więc okiem na analizę obciążenia dla SAP HANA. To jest wersja 1, więc bardzo zapraszamy do dołączenia do nas w podróży, a jest to produkt firmy IDERA. Jest kompleksowy, ale prosty. W czasie rzeczywistym z trendami. Zdrowie hosta, zdrowie instancji. Śledzimy stany oczekiwania, zapytania SQL, odbiorców pamięci i usług. Tak wygląda GUI i od razu widać, że jest włączony w Internecie. Właśnie otworzyłem to rozwiązanie działające na żywo w moim systemie. Jest kilka kluczowych rzeczy, na które chcesz spojrzeć. W pewnym sensie podzieliliśmy się na różne obszary robocze. Najważniejszym z nich jest to, co dzieje się na poziomie hosta z wykorzystania procesora i pamięci. Zdecydowanie nie chcesz przejść do punktu wymiany lub thrashingu. A potem w zasadzie pracujesz w dół do tego, co dzieje się w trendach, od czasu reakcji, użytkowników, instrukcji SQL, czyli tego, co napędza aktywność w systemie.

Jedną z rzeczy związanych z IDERA jest to, że nic nie dzieje się w bazie danych, dopóki nie nastąpi aktywność. I ta aktywność to instrukcje SQL pochodzące z aplikacji. Zatem pomiar instrukcji SQL jest absolutnie niezbędny, aby móc wykryć pierwotną przyczynę. Przejdźmy więc do ćwiczeń. Na poziomie hosta możemy rzucić okiem na pamięć, śledzić w czasie, wykorzystanie procesora przez hosta. Cofnij się, możesz spojrzeć na instrukcje COBSQL. Teraz, jedną z rzeczy, które zobaczycie w naszej architekturze, jest to, że informacje te są przechowywane poza HANA, więc jeśli coś się stanie HANA, zasadniczo zbieramy informacje, do cholery, broń, sytuacja niedostępności . Możemy również rejestrować wszystko, co dzieje się w systemie, dzięki czemu masz wyraźną widoczność. Jedną z rzeczy, które zamierzamy zrobić, jest przedstawienie instrukcji SQL w kolejności ważonej. Będzie to uwzględniać liczbę wykonań, a więc jest to zagregowane zużycie zasobów.

W ten sposób możesz przejść do poszczególnych wskaźników tutaj - kiedy wykonano tę instrukcję SQL? A następnie zużycie zasobów zależy w dużej mierze od planu wykonania, więc jesteśmy w stanie to na bieżąco uchwycić. HANA jest w pamięci. Jest bardzo równoległy. Ma podstawowe indeksy na każdym stole, które niektóre sklepy decydują się zbudować indeks wtórny, aby rozwiązać niektóre problemy z wydajnością. Tak więc wiedza o tym, co się stało z planem wykonania niektórych instrukcji SQL, może być bardzo cenna. Przyjrzymy się również usługom, zużyciu pamięci po raz kolejny, zestawionym w czasie. Architektura: więc jest to samodzielne rozwiązanie, które można pobrać z naszej strony internetowej, a architektura polega na tym, że obsługuje on sieć.

Możesz mieć wielu użytkowników łączących się z konkretną instancją. Możesz monitorować lokalne wystąpienia SAP HANA. W naszym repozytorium przechowujemy ciągłą czterotygodniową historię, która jest zarządzana samodzielnie. Wdrożenie tego jest dość proste. Potrzebujesz systemu Windows Server. Musisz go pobrać. Większość serwerów Windows będzie miała wbudowaną platformę .NET i jest dostarczana w pakiecie z licencją. I tak przejdziesz do kreatora instalacji obsługiwanego przez Setup.exe i otworzy on ekran, umowę licencyjną, a po prostu opracujesz ten zarys, klikając „Dalej”. A więc, gdzie chciałbyś HANA być zainstalowany? Dalej są właściwości bazy danych, a to będzie twoje połączenie z SAP HANA, więc jest to bezagentowe monitorowanie instancji HANA. A potem w zasadzie podamy podgląd, to jest port, na którym domyślnie się komunikujemy. Kliknij „Zainstaluj”, co spowoduje uruchomienie HANA i rozpoczęcie tworzenia historii. Tak więc, tylko trochę informacji o tabeli rozmiarów. Możemy monitorować do 45 instancji HANA, a będziesz chciał użyć tego rodzaju, na przesuwanej skali, do określenia liczby rdzeni, pamięci i potrzebnego miejsca na dysku. Zakłada się, że masz pełną czterotygodniową historię.

Podsumowując, przyglądamy się kondycji serwera, kondycji instancji, wykorzystaniu procesora / pamięci. Kim są konsumenci pamięci, jakie są sterowniki aktywności, jakie są usługi? Instrukcje SQL są niezbędne - jakie są stany wykonania? Pokaż mi plany wykonania, kiedy rzeczy się sprawdziły, zapewniają trendy? To da ci w czasie rzeczywistym i historię tego, co się wydarzyło. Jak już wspomniałem, ponieważ nasza historia nie jest związana z HANA, uchwycimy rzeczy, które wygasły i zostały usunięte z historii HANA. Abyś mógł zobaczyć prawdziwe zużycie zasobów w systemie dzięki osobnej historii.

Jak już wspomniałem, strona internetowa IDERA, w dziale Produkty, możesz łatwo to znaleźć. Jeśli chcesz to wypróbować, na pewno możesz. Sprawdź, w jaki sposób dostarcza informacji, a na tej stronie znajdziesz dodatkowe informacje. Tak więc, wszystkie zainteresowane strony chętnie się w to angażują. Teraz, w produktach portfelowych oferowanych przez IDERA, jest także monitor transakcji SAP ECC, który nazywa się Precise for SAP. I robi to - niezależnie od tego, czy korzystasz z portalu, czy po prostu ECC - przechwyci transakcję użytkownika końcowego od kliknięcia na dysk, aż do instrukcji SQL i pokaże ci, co się dzieje.

Teraz pokazuję tylko jeden ekran podsumowania. Jest kilka rzeczy na wynos, które chcę, abyś miał z tego ekranu podsumowania. Jest to czas odpowiedzi osi Y, czas osi X plus dzień, aw tym widoku transakcji pokażemy czas klienta, czas oczekiwania, czas kodu ABAP, czas bazy danych. Możemy przechwytywać identyfikatory użytkowników końcowych, kody T, a Ty możesz filtrować i wyświetlać serwery za pośrednictwem określonej transakcji, przez którą przechodzisz. I tak, wiele sklepów obsługuje VMware, więc możesz zmierzyć, co dzieje się na każdym z serwerów, i przejść do bardzo szczegółowej analizy. Tak więc widok transakcji dotyczy transakcji użytkownika końcowego w całym systemie SAP. I możesz to znaleźć na naszej stronie internetowej w dziale Produkty APM Narzędzia, a to byłoby nasze rozwiązanie SAP. Instalacja tego jest nieco bardziej skomplikowana, więc nie wystarczy pobrać i wypróbować, jak w przypadku HANA. To jest coś, w czym wspólnie pracujemy, aby zaprojektować i wdrożyć ogólną transakcję dla Ciebie.

Tak więc, tylko trzecie szybkie podsumowanie, analiza obciążenia dla SAP HANA, jest kompleksowa, bez agenta, w czasie rzeczywistym, oferuje historię. Oferujemy możliwość pobrania i wypróbowania go dla Twojej witryny.

W związku z tym przekażę czas Ericowi, Dezowi i Dr. Bloorowi.

Eric Kavanagh: Tak, może Robin, jakieś pytania od ciebie, a potem Dez po Robin?

Dr Robin Bloor: W porządku. Pierwszą rzeczą, którą chciałbym powiedzieć, jest to, że naprawdę podoba mi się widok transakcji, ponieważ właśnie tego chciałbym w tej sytuacji. Zrobiłem dużo pracy - cóż, to już dawno temu - robiąc monitorowanie wydajności i takie było; w tamtych czasach nie mieliśmy grafiki, ale tego chciałem szczególnie. Abyś mógł w ten czy inny sposób wstrzyknąć się wszędzie tam, gdzie występuje problem.

Pierwsze pytanie, jakie mam, to, wiesz, większość ludzi wdraża S / 4 w taki czy inny sposób od razu po wyjęciu z pudełka. Kiedy angażujesz się w jakąkolwiek implementację S / 4, czy odkryłeś, że została ona dobrze wdrożona, czy może kończysz, wiesz, odkrywając rzeczy, które mogą sprawić, że klient będzie chciał zmienić konfigurację? To znaczy, jak to wszystko idzie?

Bill Ellis: Cóż, każdy sklep jest trochę inny. I są różne wzorce użytkowania, są różne raporty. W przypadku witryn, które mają raportowanie ad hoc, mam na myśli, że jest to jakby symbol wieloznaczny w systemie. I tak, jedną z kluczowych rzeczy jest rozpoczęcie pomiaru i ustalenie, jaki jest poziom podstawowy, co jest normalne dla konkretnej witryny, gdzie jest ta konkretna witryna, w oparciu o wzorce użytkowania, obciążając system. A następnie wprowadź zmiany. Zazwyczaj optymalizacja monitorowania nie jest jednorazowa, jest to naprawdę ciągła praktyka, w której monitorujesz, dostrajasz, szlifujesz, czyniąc system lepszym dla społeczności użytkowników końcowych, aby móc bardziej efektywnie obsługiwać firmę.

Dr Robin Bloor: Okej, więc kiedy wdrażasz - mam na myśli, że to trudne pytanie, ponieważ będzie się różnić w zależności od rozmiaru implementacji - ale ile zasobów ma zdolność monitorowania IDERA, ile to zużywa? Czy ma to jakikolwiek wpływ na coś, czy to po prostu nie przeszkadza? Jak to działa?

Bill Ellis: Tak, powiedziałbym, że koszty ogólne wynoszą około 1–3 procent. Wiele sklepów bardzo chce to poświęcić, ponieważ potencjalnie będziesz w stanie je odkupić pod względem optymalizacji. Zależy to od wzorców użytkowania. Jeśli robisz pełny krajobraz, zależy to od poszczególnych monitorowanych technologii. Tak więc rodzaj przebiegu jest różny, ale tak jak mówiliśmy, zdecydowanie lepiej jest poświęcić trochę czasu, aby wiedzieć, co się dzieje, niż po prostu stracić wzrok. W szczególności byłoby to, wiesz, tutaj jesteśmy w styczniu, a ty zaczynasz przetwarzać dane i gromadzisz dane z 12 miesięcy. Wiesz, że osiąganie wyników, przekazywanie raportów do organów regulacyjnych, banków i akcjonariuszy, jest absolutnie niezbędne w krytycznych wynikach biznesowych.

Dr Robin Bloor: Dobrze. I po prostu szybki, z twojej perspektywy - ponieważ myślę, że jesteś zaangażowany w całą serię witryn SAP - jak duży jest ruch wśród klientów SAP w kierunku S / 4? Chodzi mi o to, czy jest to coś, co oznacza, że ​​jest jakaś lawina entuzjastycznych klientów, czy to tylko ciągła struga? Jak to widzisz?

Bill Ellis: Myślę, że kilka lat temu powiedziałbym, że to był palec u nogi. Powiedziałbym, że ludzie podnoszą się na kolana. Myślę, że wiesz, biorąc pod uwagę oś czasu, ludzie będą naprawdę zanurzeni w HANA w ciągu najbliższych kilku lat. A więc monitorowanie, transformacja, wiesz, myślę, że większość klientów jest w pewnym sensie razem na krzywej uczenia się. Myślę więc, że nie jesteśmy w stanie lawinowym, jak powiedziałeś, ale myślę, że jesteśmy u progu dużej transformacji do HANA.

Dr Robin Bloor: Ok, więc jeśli chodzi o witryny, które odwiedziłeś, które już tam były, czy dostosowują również HANA do innych aplikacji, czy też, w taki czy inny sposób, są całkowicie pochłonięte robieniem tego? Jakie jest tam zdjęcie?

Bill Ellis: Tak, często ludzie będą integrować SAP z innymi systemami, w zależności od modułów i tak dalej, więc jest trochę. Naprawdę nie widzę jeszcze osób wdrażających inne aplikacje na HANA. Z pewnością jest to możliwe. I tak jest bardziej wokół krajobrazu wokół infrastruktury SAP.

Dr Robin Bloor: Przypuszczam, że lepiej oddam cię Dezowi. Pośpieszyłem twój czas. Dez?

Dez Blanchfield: Dziękuję Ci. Nie, to wszystko dobrze. Dwa bardzo szybkie, po prostu próbując ustawić motyw. SAP HANA jest dostępny od kilku lat i ludzie mieli okazję to rozważyć. Jeśli miałbyś podać przybliżony procent ludzi, którzy go prowadzą - ponieważ jest wiele osób zarządzających tymi rzeczami - jak myślisz, jaki procent rynku, o którym jesteś świadomy, obecnie zniknął od tradycyjnych wdrożeń SAP do SAP na HANA? Czy patrzymy na 50/50, 30/70? Jaki procent rynku widzisz wśród ludzi, którzy przeprowadzili się i zrobili to teraz, w porównaniu do ludzi, którzy po prostu powstrzymują się i czekają na poprawę, poprawę, zmianę lub cokolwiek innego?

Bill Ellis: Tak, rzeczywiście, z mojej perspektywy, podałbym procent około 20 procent. SAP jest zwykle tradycyjnym biznesem. Ludzie wydają się być bardzo konserwatywni, więc ich ludzie będą się zaciągać. Myślę, że zależy to również od tego, czy od dawna korzystasz z SAP, czy jesteś rodzajem SMB, który może niedawno wdrożył SAP? Tak więc istnieje szereg czynników, ale ogólnie nie sądzę, że odsetek wynosi 50/50. Powiedziałbym, że 50 procent przynajmniej dabla i HANA działa gdzieś w swoim centrum danych.

Dez Blanchfield: Interesującym wynosem, który nam dałeś wcześniej, było to, że jest to w pewnym sensie fakt dokonany i że zegar fizycznie i dosłownie wskazuje czas na przejście. Czy podczas tego procesu myślisz, że ludzie to rozważali? Jakie jest ogólne poczucie ludowego zrozumienia, że ​​jest to przejściowa zmiana platformy, nie jest to tylko opcja, staje się domyślna?

I z punktu widzenia SAP jestem pewien, że robią to w ten sposób, ponieważ istnieje znacząca przewaga konkurencyjna w wydajności, ale, jak sądzę, to także zapaśnicza kontrola nad platformą zamiast do trzeciej - baza danych partii, teraz przywożą ją z powrotem na własną platformę. Czy uważasz, że firmy rzeczywiście to dostały? Czy myślisz, że ludzie to rozumieją i teraz się do tego przygotowują? Czy jest to nadal niejasne, jak myślisz, na rynku?

Bill Ellis: Nie sądzę, żeby SAP wstydził się komunikować, a ludzie, którzy odwiedzili SAPPHIRE, widzieli HANA wszędzie. Sądzę więc, że ludzie są tego świadomi, ale ludzka natura jest tym, czym jest, niektórzy ludzie jakby trochę wloką nogi.

Dez Blanchfield: Ponieważ uważam, że powód, dla którego zadałem to pytanie, musisz mi wybaczyć, ale zgadzam się. Myślę, że nie wstydzili się tego komunikować. Myślę, że sygnał zniknął na wiele sposobów. I zgadzam się z tobą - nie wiem, czy wszyscy jeszcze skoczyli. Wiesz, tradycyjne przedsiębiorstwo, bardzo duże przedsiębiorstwa, które to prowadzą, wciąż pod wieloma względami, nie do końca nogą, ale po prostu próbują zmagać się ze złożonością zmiany. Ponieważ uważam, że jedyną rzeczą, którą podkreśliło wasze narzędzie, a na pewno dzisiejsza demonstracja, a dla mnie jedną kluczową rzeczą na wynos, którą chciałbym, aby wszyscy słuchający i nastawieni dzisiaj siedzieli i zwracali uwagę na refleksję, jest to, narzędzie, które teraz uprościło mi ten proces. Myślę, że jest pod nimi bardzo nerwowy CIO i ich zespoły, które myślą: „Jak mogę przejść od tradycyjnych RDBMS, systemów zarządzania relacyjnymi bazami danych, które znamy od dziesięcioleci, do zupełnie nowego paradygmatu obliczeń i zarządzanie pamięcią w przestrzeni, która wciąż jest dość odważna? ”. Ale jest to nieznane na wiele sposobów, a jest bardzo mało osób, które dokonały tej zmiany w innych obszarach, że to nie tak, że mają inną sekcję biznesu, która już przeszła na obliczenia w pamięci. W ich umyśle jest to ruch „wszystko albo nic”.

Jedną z rzeczy, które oderwałem od tego bardziej niż cokolwiek innego - za chwilę trafię do ciebie pytaniem - jest to, że myślę, że teraz strach uśmierza się na wiele sposobów, a do dziś, gdybym słuchał CIO, pomyślałbym: „No cóż, jak mam dokonać tego przejścia? Jak mam zagwarantować te same możliwości, które mamy na platformie zarządzania relacyjnymi bazami danych i wieloletnie doświadczenie DBA, na nowej platformie, w której obecnie nie mamy umiejętności? ”. Moje pytanie brzmi: , czy myślisz, że ludzie zrozumieli, że narzędzia są teraz dostępne z tym, co oferujesz, i że mogą wziąć głęboki oddech i odetchnąć z ulgą, że przejście nie jest tak przerażające, jak mogło być wcześniej czy to narzędzie jest dostępne? Czy myślisz, że ludzie to zrozumieli, czy jest to nadal coś w rodzaju zmowy, którą zmagają się z przejściem do obliczeń w pamięci i przechowywania w pamięci w porównaniu do oldschoolowych kombinacji NVMe, flash i dysku?

Bill Ellis: Tak, więc niewątpliwie istnieje wiele technologii i narzędzi, które mogą graficznie to pokazać, co się dzieje i bardzo łatwo wskazać najlepszych konsumentów zasobów. To znaczy pomaga uprościć sprawy i pomaga pracownikom technologicznym naprawdę dobrze sobie z tym poradzić. Hej, będą mogli wiedzieć, co się dzieje i zrozumieć całą złożoność. Tak więc absolutnie narzędzia na rynku są zdecydowanie pomocne, dlatego oferujemy analizę obciążenia dla SAP HANA.

Dez Blanchfield: Tak, myślę, że wspaniałą rzeczą w tym, co pokazałeś nam dzisiaj, jest to, że monitorując element sprzętowy, element systemu operacyjnego, a nawet monitorując część obciążeń roboczych, jak powiedziałeś, mam na myśli, narzędzia były tam przez pewien czas. Trochę dla mnie, szczególnie w HANA, jest to, że niekoniecznie byliśmy w stanie uzyskać szkło powiększające, zajrzeć do niego i zobaczyć, co Twoje narzędzie robi z tym, co dzieje się z zapytaniami i jak one w strukturze i gdzie to obciążenie.

Dzięki wdrożeniom, które widziałeś do tej pory, biorąc pod uwagę, że jesteś dosłownie najbardziej autorytatywny w tej przestrzeni na swojej platformie na świecie, niektóre z szybkich zwycięstw, które widziałeś - czy masz jakąś anegdotyczną wiedzę, z którą możesz się podzielić wokół niektórych momentów eureka, aha, kiedy ludzie wdrożyli zestaw narzędzi IDERA, znaleźli rzeczy, których nie byli świadomi, na ich platformach i występach, które mieli. Czy masz jakieś wspaniałe anegdotyczne przykłady tego, gdzie ludzie to właśnie wdrożyli, nie bardzo wiedząc, co mieli i nagle zniknęło: „Wow, naprawdę nie wiedzieliśmy, że to tam jest?”

Bill Ellis: Tak, więc dużym ograniczeniem rodzimych narzędzi jest to, że jeśli niekontrolowane zapytanie zostanie anulowane, to wyczyści informacje i w zasadzie nie będziesz mieć historii. Przechowując historię offline, jak uciekające zapytanie, będziesz mieć historię, będziesz wiedział, co się stało, będziesz mógł zobaczyć plan wykonania i tak dalej. Dzięki temu społeczność użytkowników końcowych może w zasadzie lepiej działać, lepiej pisać raporty itp. Historia jest więc naprawdę miła. Jedną z rzeczy, które chciałem pokazać, jest to, że możesz patrzeć w czasie rzeczywistym do czterech tygodni, a następnie możesz łatwo powiększyć dowolne ramy czasowe, a następnie możesz odkryć leżące u ich podstaw prowadzenie pojazdu. Już sama widoczność jest bardzo pomocna, aby wiedzieć, co się pojawiło.

Dez Blanchfield: Wspomniałeś, że jest on przeznaczony dla wielu użytkowników, po jego wdrożeniu, i byłem pod dużym wrażeniem faktu, że jest bezagentowy i skutecznie zeruje dotyk na wiele sposobów. Czy to normalne, że jedno wdrożenie Twojego narzędzia jest wtedy dostępne dla wszystkich, od centrum operacyjnego sieci w NOC, obserwując podstawową infrastrukturę stanowiącą podstawę klastra aż do zespołu aplikacji i programistów? Czy to norma, którą wdrażasz raz, a oni się tym dzielą, czy też spodziewasz się, że ludzie mogą mieć instancje modelu oglądające różne części stosu? Jak to wygląda?

Bill Ellis: Tak więc zespół podstawowy będzie zazwyczaj bardzo mocno zainteresowany technologicznymi podstawami tego, co dzieje się w SAP. Oczywiście jest wiele zespołów, które będą wspierać całe krajobrazy. Kawałek HANA jest właśnie na tym skupiony. Po prostu przejdę do domyślnego zespołu bazowego SAP jako głównych odbiorców informacji.

Dez Blanchfield: Dobrze. Uderza mnie jednak to, że jeśli mam zespół programistów lub nawet nie tylko na poziomie kodu, ale jeśli mam zespół naukowców lub analityków danych, którzy wykonują prace analityczne nad zestawami danych, szczególnie biorąc pod uwagę, że istnieje znaczny nacisk na to, aby nauka danych była teraz stosowana do wszystkiego wewnątrz organizacji - i popraw mnie, jeśli się mylę - wydaje mi się, że będzie to również dla nich bardzo interesujące, ponieważ pod wieloma względami poważnymi rzeczami, które możesz zrobić w środowisku hurtowni danych, jest uwolnienie naukowca zajmującego się danymi i umożliwienie mu rozpoczęcia zapytań ad hoc. Czy zdarzyło Ci się, że przytrafiły Ci się takie przykłady, w których zadzwoniły do ​​ciebie sklepy i powiedział: „Rzuciliśmy na to zespół danych, to naprawdę boli, co możemy dla nich zrobić w porównaniu z tym, co robimy po prostu tradycyjne monitorowanie operacyjne i zarządzanie? ”Czy to w ogóle coś?

Bill Ellis: Cóż, tak, zmieniłbym to trochę i odciąłbym moją odpowiedź, że patrząc na wydajność, mając świadomość wydajności w rozwoju produkcji QA, wiesz, im szybciej będziesz przechowywać, tym mniej problemów, mniej niespodzianek . Więc absolutnie.

Dez Blanchfield: Następnie wiele narzędzi, z którymi miałem doświadczenie - i jestem pewien, że Robin się zgodzi - wiele narzędzi tutaj, jeśli masz duży RDBMS, potrzebujesz naprawdę wysoko wykwalifikowanych, głęboko dobrze poinformowane, doświadczone DBA. Niektóre wymagania dotyczące infrastruktury i platformy, które pojawiają się w SAP HANA, ponieważ jest on obecnie obsługiwany w poszczególnych dystrybucjach zgodnych z określonym sprzętem i tak dalej, zgodnie z moją najlepszą wiedzą. Wiesz, są ludzie z wieloletnim doświadczeniem, którzy nie są tacy sami. Widzę jednak, że w przypadku tego narzędzia niekoniecznie jest to wymóg. Wydaje mi się, że możesz wdrożyć swoje narzędzie i przyznać je całkiem nowym twarzom i dać im moc natychmiastowego znalezienia rzeczy, które nie działają dobrze. Czy to prawda, że ​​jest dość krótka krzywa uczenia się, aby przyśpieszyć to i uzyskać pewną wartość z wdrożenia? Wiesz, ogólnie rozumiem, że nie musisz mieć 20 lat doświadczenia w prowadzeniu narzędzia, aby natychmiast zobaczyć wartość. Czy zgodziłbyś się, że tak jest?

Bill Ellis: Ach, absolutnie, i do tego, co myślę, myślę, że duży sukces wdrożenia zależy naprawdę od planowania i architektury środowiska SAP HANA. A potem jest niewątpliwie dużo złożoności, dużo technologii, na której się opiera, ale sprowadza się to do monitorowania wzorców użytkowania tego, co się dzieje. Chociaż jest bardziej skomplikowany, w pewnym sensie jest spakowany i nieco uproszczony. To bardzo źle.

Dez Blanchfield: Tak, więc zanim wrócę do Erica, ponieważ wiem, że ma kilka pytań, szczególnie tych, które pochodzą z pytań i odpowiedzi, które wyglądały interesująco, i chętnie usłyszę odpowiedź. Tradycyjna podróż dla kogoś, kto wcześniej wspomniał, że można ją zdobyć, można ją pobrać i wypróbować. Czy możesz po prostu szybko to podsumować, by posłuchać ludu dzisiaj, czy też ludu, który odtworzy go później? Jakie są szybkie dwa lub trzy kroki, aby zdobyć kopię i wdrożyć ją i wypróbować w swoich środowiskach przed zakupem? Jak to wygląda? Jakie są na to kroki?

Bill Ellis: Tak. Więc IDERA.com i przejdź do Produkty, a zobaczysz Analiza obciążenia dla SAP HANA. Jest strona pobierania. Myślę, że poprosą Cię o podanie danych kontaktowych, a produkt jest po prostu zapakowany wraz z kluczem licencyjnym, abyś mógł go zainstalować za pomocą Setup.exe i, jak sądzę, bardzo szybko się rozwija.

Dez Blanchfield: Mogą więc wejść na twoją stronę, mogą ją pobrać. Pamiętam, jak patrzyłem na to jakiś czas temu, a także wczoraj dwukrotnie sprawdziłem, czy możesz poprosić o demo, z pamięci, gdzie ktoś z twojego zespołu przeprowadzi cię przez to? Ale możesz go pobrać za darmo i wdrożyć lokalnie we własnym środowisku, w swoim czasie, prawda?

Bill Ellis: Tak.

Dez Blanchfield: Doskonały. Cóż, myślę, że bardziej niż cokolwiek innego, jest to prawdopodobnie rzecz, którą osobiście doradziłbym folk, aby pobrać kopię ze strony internetowej, pobrać trochę dokumentacji tam, ponieważ wiem, że jest tam wiele dobrych treści, aby to zrobić, i po prostu spróbuj. Umieść go w swoim środowisku i zobacz, co znajdziesz. Podejrzewam, że kiedy spojrzysz pod maską ze swoimi środowiskami SAP HANA za pomocą narzędzia IDERA, znajdziesz rzeczy, o których istnieniu nie wiedziałeś.

Słuchaj, dziękuję bardzo za to i dziękuję za czas tylko na pytania i odpowiedzi z Robin i I. Ericem, oddzwonię do ciebie, ponieważ wiem, że niektóre pytania i odpowiedzi pochodzą również od naszych uczestników.

Eric Kavanagh: Tak, tutaj naprawdę szybki. Jeden z uczestników komentuje tutaj naprawdę dobry komentarz, mówiąc tylko o tym, jak się zmieniają. Mówiąc w przeszłości pamięć dławiła się, spowalniała częste stronicowanie, obecnie procesor dławi się zbyt dużą ilością danych w pamięci. Wiesz, są problemy z siecią. To zawsze będzie ruchomy cel, prawda? Co postrzegasz jako trajektorię w dzisiejszych czasach, jeśli chodzi o to, gdzie będą wąskie gardła i gdzie będziesz musiał skupić swoją uwagę?

Bill Ellis: Tak. Dopóki nie zmierzysz, trudno to wiedzieć. Jedną z rzeczy w instrukcjach SQL jest to, że będą one motorem zużycia zasobów. I tak w sytuacji, gdy miałbyś mieć duże zużycie pamięci lub procesora, będziesz w stanie dowiedzieć się, jakie działanie spowodowało to zużycie zasobów. Teraz niekoniecznie chcesz go zabić, ale chcesz też być tego świadomy i, co się dzieje, jak często to się dzieje, itp. Jesteśmy jakby nowi, jeśli chodzi o adresowanie całego zestawu lub książkę kucharską odpowiedzi na różne okoliczności. To świetne pytanie i czas pokaże. Z czasem będziemy mieli więcej informacji.

Eric Kavanagh: Otóż ​​to. Cóż, jesteście w bardzo interesującej przestrzeni. Myślę, że w najbliższych miesiącach i następnych latach zobaczysz dużo aktywności, ponieważ wiem, że SAP, jak zasugerowałeś w naszej rozmowie o treści, zapewnił ludziom długi czas na wjazd na rampę do HANA. Niemniej jednak ta rampa ma zakończenie i w pewnym momencie ludzie będą musieli podjąć poważne decyzje, więc im szybciej, tym lepiej, prawda?

Bill Ellis: Absolutnie.

Eric Kavanagh: Dobra ludzie, spędziliśmy tutaj kolejną godzinę w Hot Technologies. Możesz znaleźć informacje online, insideanalysis.com, także techopedia.com. Skoncentruj się na tej stronie, aby uzyskać wiele interesujących informacji, w tym listę wszystkich naszych archiwów poprzednich audycji internetowych. Ale ludzie, wielkie podziękowania dla was wszystkich, dla naszych przyjaciół z IDERA, Robin i oczywiście Dez. I do zobaczenia w przyszłym tygodniu, ludzie. Jeszcze raz dziękuję za poświęcony czas i uwagę. Dbać. PA pa.