Lar Áudio O que é uma cadeia de markov? - o que é techopedia

O que é uma cadeia de markov? - o que é techopedia

Índice:

Anonim

Definição - O que significa Markov Chain?

Uma cadeia de Markov é um processo matemático que transita de um estado para outro dentro de um número finito de estados possíveis. É uma coleção de diferentes estados e probabilidades de uma variável, em que sua condição ou estado futuro depende substancialmente de seu estado anterior imediato.

Uma cadeia de Markov também é conhecida como cadeia de Markov de tempo discreto (DTMC) ou processo de Markov.

Techopedia explica Markov Chain

As cadeias de Markov são usadas principalmente para prever o estado futuro de uma variável ou qualquer objeto com base em seu estado passado. Aplica abordagens probabilísticas na previsão do próximo estado. As cadeias de Markov são exibidas usando gráficos direcionados, que definem o estado atual e passado e a probabilidade de transição de um estado para outro.

As cadeias de Markov têm várias implementações em tecnologias de computação e Internet. Por exemplo, a fórmula PageRank (r) empregada pela pesquisa do Google usa uma cadeia de Markov para calcular o PageRank de uma página da Web específica. Também é usado para prever o comportamento do usuário em um site com base nas preferências ou interações anteriores dos usuários.

O que é uma cadeia de markov? - o que é techopedia