Proces decyzyjny Markowa (MDP)

Autor: Laura McKinney
Data Utworzenia: 5 Kwiecień 2021
Data Aktualizacji: 22 Czerwiec 2024
Anonim
Markov Decision Processes (MDPs) - Structuring a Reinforcement Learning Problem
Wideo: Markov Decision Processes (MDPs) - Structuring a Reinforcement Learning Problem

Zawartość

Definicja - Co oznacza proces decyzyjny Markowa (MDP)?

Proces decyzyjny Markowa (MDP) jest czymś, co profesjonaliści nazywają „procesem stochastycznej kontroli w czasie dyskretnym”. Opiera się na matematyce zapoczątkowanej przez rosyjskiego naukowca Andrieja Markowa pod koniec XIX i na początku XX wieku.


Wprowadzenie do Microsoft Azure i Microsoft Cloud | W tym przewodniku dowiesz się, na czym polega przetwarzanie w chmurze i jak Microsoft Azure może pomóc w migracji i prowadzeniu firmy z chmury.

Techopedia wyjaśnia proces decyzyjny Markowa (MDP)

Jednym ze sposobów wyjaśnienia procesu decyzyjnego Markowa i powiązanych łańcuchów Markowa jest to, że są to elementy współczesnej teorii gier oparte na prostszych badaniach matematycznych rosyjskiego naukowca sprzed stu lat. Opis procesu decyzyjnego Markowa polega na tym, że bada on scenariusz, w którym system znajduje się w danym zestawie stanów, i przechodzi do innego stanu na podstawie decyzji osoby podejmującej decyzję.

Łańcuch Markowa jako model pokazuje sekwencję zdarzeń, w których prawdopodobieństwo danego zdarzenia zależy od wcześniej osiągniętego stanu. Specjaliści mogą mówić o „policzalnej przestrzeni stanów” w opisie procesu decyzyjnego Markowa - niektórzy kojarzą ideę modelu decyzyjnego Markowa z modelem „losowego spaceru” lub innym modelem stochastycznym opartym na prawdopodobieństwach (model losowego spaceru, często cytowany na Wall Street, modeluje ruchy kapitału w górę lub w dół w ramach prawdopodobieństwa rynkowego).


Ogólnie rzecz biorąc, procesy decyzyjne Markowa są często stosowane w przypadku niektórych z najbardziej wyrafinowanych technologii, nad którymi obecnie pracują specjaliści, na przykład w robotyce, automatyce i modelach badawczych.