martes, 5 de febrero de 2013

Procesos Estocasticos

Universidad Bicentenaria de Aragua
Cátedra: Investigación de Operaciones II
Escuela de Ingeniería en Sistemas

Cadenas de Markov
               Una cadena de Markov es una sucesión de ensayos similares u observaciones en la cual cada ensayo tiene el mismo número finito de resultados posibles y en donde la probabilidad de cada resultado para un ensayo dado depende sólo del resultado del ensayo inmediatamente precedente y no de cualquier resultado previo
Propiedad de Markov
         Dada una secuencia de variables aleatorias X1, X2 ,X3, tales que el valor   de  xn es el estado del proceso en el tiempo n. Si la  distribución de probabilidad condicional de Xn+1 en estados pasados es una función de Xn por sí sola, entonces:
P ( X+1= xn+1 /Xn= xn , Xn-1= xn-1 ,....X2= x2 , X1= x1)=
P (Xn+= xn+1 /Xn= xn )
Donde xi es el estado del proceso en el instante i.
Esta identidad es la denominada propiedad de Markov:  El estado en t + 1 sólo depende del estado en t  y no de la evolución anterior del sistema.

Matriz de transición
             Al trabajar con cadenas de Markov, a menudo es útil pensar la sucesión de ensayos como experimentos efectuados en cierto sistema físico, cada resultado dejando a este sistema en cierto estado.
             Por ejemplo, consideremos una sucesión de elecciones políticas en cierto país: el sistema podría tomarse como el país mismo y cada elección lo dejaría en cierto estado, es decir en el control del partido ganador. Si sólo hay dos partidos políticos fuertes, llamados A y B, los que por lo regular controlan el gobierno, entonces podemos decir que el país se encuentra en el estado A o B si el partido A o B ganara la elección. Cada ensayo (o sea cada elección), coloca al país en uno de los dos estados A o B. Una  sucesión de 10 elecciones podría producir resultados tales como los siguientes:
A, B, A, A, B, B, B, A, B, B
               La primera elección en la sucesión deja en el poder al partido A, la segunda fue ganada por el partido B, y así sucesivamente, hasta que la décima elección la gane el partido B. Supongamos que las probabilidades de que el partido A o B ganen la próxima elección son determinadas por completo por el partido que está en el poder ahora. Por ejemplo podríamos tener las probabilidades siguientes:
     
• Si el partido A está en el poder, existe una probabilidad de ¼ que el partido A ganará la próxima elección y una probabilidad de ¾ de que el partido B gane la elección siguiente.
• Si el partido B está en el poder, hay una probabilidad de 1/3 de que el partido A gane la elección siguiente y una probabilidad de 2/3 que el partido B permanezca en el poder.
 
 Definición: Consideremos un proceso de Markov en que el sistema posee n estados posibles, dados por los números 1, 2, 3, …., n. Denotemos pij  a la probabilidad de que el sistema pase al estado j después de cualquier ensayo en donde su estado era i antes del ensayo. Los números pij se denominan probabilidades de transición y la matriz nxn P = (pij ) se conoce como matriz de transición del sistema.
Observaciones: 
1) La suma pi1+pi2+......+pin=1 Esta suma representa la probabilidad de que el sistema pase a uno de los estados 1, 2, …., n dado que empieza en el estado i. Ya que el sistema ha de estar en uno de estos n estados, la suma de probabilidades debe ser igual a 1. Esto significa que los elementos en cualquier renglón de la matriz de transición deben sumar 1.
2) Cada elemento pij> o igual a 0.
 
Procesos Estocásticos
       Se define entonces una familia de variables aleatorias que dependen de una variable determinista, (en este caso el tiempo). Se define el proceso estocástico X(t) como el número de llamadas que se producen en la centralita en el tiempo (0,t). Así, para cada valor de t que se elija, tendremos una variable aleatoria distinta, con forma similar pero distinto valor. En los temas anteriores definimos X(x), en este caso X(λ). Ahora debemos x t) este caso λ t)  representar X(x,t), en este caso, X(λ,t). En general, diremos X(t) igual que antes llamábamos X y no X(λ).

Proceso Estocástico
Es una función de dos variables, t y x, una determinista y otra aleatoria
a) X(x,t) es una familia de funciones temporales.
b) Si se fija x, tenemos una función temporal X(t) llamada realización del proceso.
c) Si se fija t, tenemos una Variable Aleatoria.
d) Si se fijan t y x, tenemos un número real o complejo (muy normal en teoría de la señal).
Los procesos estocásticos pueden ser clasificados en:
- Tiempo discreto: Cuando el valor de la variable sólo puede cambiar en  una serie de momentos determinados del tiempo (por ejemplo, los sorteos de la lotería tienen lugar en determinadas fechas).
- Tiempo continuo: Cuando el valor de la variable puede cambiar en cualquier momento del tiempo (la temperatura, por ejemplo).
 Otra forma de clasificar a los procesos estocásticos es:
- Variable continua: La variable puede tomar cualquier valor comprendido en un rango (la temperatura, por ejemplo) 
 
- Variable discreta: La variable sólo puede tomar determinados valores o estados discretos.

Características de un proceso estocástico

       Del mismo modo que en una variable unidimensional X, podemos calcular su media, su varianza y otras características, y en variables n-dimensionales obtenemos un vector de medias, matriz de covarianzas, etc., en un proceso estocástico podemos obtener algunas características que describen su comportamiento: medias, varianzas y covarianzas. Puesto que las características del proceso pueden variar a lo largo de t estas características no serán parámetros sino que serán funciones de t.
Media : Llamaremos función de medias del proceso a una función de t que proporciona las medias de las distribuciones marginales para cada instante t.
E [ x(t) ] = µt
Varianza : Llamaremos función de varianzas del proceso a una función de t que proporciona las varianzas de las distribuciones marginales para cada instante t.
Var [ x(t) ] = σ2(t) = E [ (x(t) - µt)2 ]
Autovarianzas : Llamaremos función de autocovarianzas del proceso a la función que proporciona la covarianza existente entre dos instante de tiempo cuales quiera.
Cov(t1, t2)=E[(x(t1)-µt1)(x(t2)-µt2)]
Autorrelacion : Llamaremos función de autocorrelación a la estandarización de la función de
Covarianzas.
ρ(t1, t2) = Cov (t1, t2) / σ(t1) σ(t2)


Matriz ergodica

       Una cadena de markov es ergodica (se conoce cm una cadena markov a un tipo especial de proceso estocástico discreto en el que la probabilidad de que ocurra un evento depende del evento inmediatamente anterior. En efecto, las cadenas de este tipo tienen memoria). Si todos sus estados son no nulos, no periódicos y recurrentes.

Estado de absorción
      Un estado absorbente en un sistema de markov es un estado a partir de la cual existe cero probabilidades de salir. Un sistema absorbente de markov es un sistema de markov que contiene al menos un estado absorbente, tal que es posible llegar a un estado absorbente  después de algún numero de etapas comenzando en cualquier estado no absorbente.
En el análisis de los sistemas absorbentes, enumeramos los estados en tal manera que los estados absorbentes  son los últimos.

      Aquí I esta la matriz unidad m×m(m=numero de estados absorbentes), S es una matriz cuadrada (n-m)×(n-m) (n=número total de estados, de modo n-m=el numero de estados absorbentes), 0 es una matriz ceros y T es una matriz (n-m)×m.
La matriz S es la matriz de transacción para la circulación entre los estados de absorción. 




 Bachilleres:
Martinez Elys 
Mata Crisbel
Ruiz Solmaira
Escuela de Ingeniería en Sistemas




No hay comentarios:

Publicar un comentario