Cadenas de Markov - PowerPoint PPT Presentation

About This Presentation
Title:

Cadenas de Markov

Description:

Cadenas de Markov Cadena de Markov: proceso estoc stico de tiempo discreto que para t=0,1,2,... y todos los estados verifica P(Xt+1=it+1 | Xt=it, Xt-1=it-1, ..., X1 ... – PowerPoint PPT presentation

Number of Views:39
Avg rating:3.0/5.0
Slides: 9
Provided by: Alfredode
Category:

less

Transcript and Presenter's Notes

Title: Cadenas de Markov


1
Cadenas de Markov
  • Cadena de Markov proceso estocástico de tiempo
    discreto que para t0,1,2,... y todos los
    estados verifica
  • P(Xt1it1 Xtit, Xt-1it-1, ...,
    X1i1, X0i0)P(Xt1it1Xtit)
  • Hipótesis de estabilidad P(Xt1jXti)pij (no
    depende de t)
  • Probabilidades de transición Pij
  • Matriz de probabilidades de transición
  • Se debe verificar

2
Cadenas de Markov
  • Las cadenas de Markov que cumplen la hipótesis de
    estabilidad se llaman cadenas estacionarias de
    Markov.
  • Distribución inicial de probabilidad de una
    cadena de Markov qq1,...,qs donde
    qiP(X0i)

3
Definición
  • Una cadena de Markov se vuelve estacionaria
    cuando el resultado de las ecuaciones deja de ser
    una probabilidad, es decir, que a partir de este
    momento se conoce con certeza su resultado.

4
Cadenas de Markov
  • Ejemplo la ruina del jugador es una cadena de
    Markov estacionaria
  • Estados 0, 1, 2, 3, 4
  • Matriz de transición
  • La matriz de transición se puede representar con
    un grafico en el que cada nodo representa un
    estado y cada arco la probabilidad de transición
    entre estados.

5
Probabilidades después de n pasos
  • Si una cadena de Markov estacionaria está en el
    estado i en el tiempo m, cuál es la probabilidad
    de que n períodos después la cadena esté en el
    estado j?
  • P(XmnjXmi)P(XnjX
    0i)Pij(n)
  • Pij(n) es la probabilidad en la etapa n de una
    transición del estado i al
  • estado j
  • Pij(1)pij,
    P ij(n) elemento ij-ésimo de Pn
  • Probabilidad de estar en el estado j en el tiempo
    n

6
Clasificación de estados en una cadena de Markov
  • Dados dos estados i y j, la trayectoria de i a j
    es la sucesión de
  • transiciones que comienza en i y termina en
    j, de forma que cada
  • transición de la secuencia tenga
    probabilidad positiva.
  • Un estado j es alcanzable desde un estado i si
    hay una trayectoria de i a j.
  • Dos estados i y j se comunican si i es alcanzable
    desde j y j es
  • alcanzable desde i.
  • Un conjunto de estados S en una cadena de Markov
    es cerrado
  • (constituyen una clase de la cadena) sin
    ningún estado fuera de S es alcanzable desde un
    estado en S.
  • Un estado i es absorbente si Pii1

7
Clasificación de estados en una cadena de Markov
  • Un estado i es transitorio si hay un estado j
    alcanzable desde i, pero el estado i no es
    alcanzable desde j.
  • Un estado es recurrente si no es transitorio.
  • Un estado i es periódico con periodo kgt1 si k es
    el menor número tal que todas las trayectorias
    que parten del estado i y regresan al estado i
    tienen una longitud múltiplo de k.
  • Si un estado recurrente no es periódico es
    aperiódico.
  • Si todos los estado de una cadena son
    recurrentes, aperiódicos y se comunican entre sí,
    la cadena es ergódica.

8
Referencias
  • Procesos Estócasticos y Cadenas de Markov.-
  • Carmen Ma. Garcia López
  • Francisco R. Villatoro
Write a Comment
User Comments (0)
About PowerShow.com