UNIVERSIDAD DE GRANADA DEPARTAMENTO DE ESTADÍSTICA E INVESTIGACIÓN OPERATIVA MÁSTER EN ESTADÍSTICA APLICADA TRABAJO FIN DE MÁSTER PROCESOS DE LLEGADAS DE MARKOV EN MODELOS MULTI-ESTADOS: MAP Antonio Hernández Moreno 2013-2014 TRABAJO FIN DE MÁSTER PROCESOS DE LLEGADAS DE MARKOV EN MODELOS MULTI-ESTADOS: MAP Trabajo realizado por Antonio Hernández Moreno Vº Bº Dr. D. Juan Eloy Ruiz Castro Departamento de Estadística e Investigación Operativa Universidad de Granada A Susana y Laura, por vuestra comprensión y paciencia, por prestarme el tiempo necesario para realizar este trabajo. V VI ÍNDICE GENERAL Introducción ................................................................................................................................ IX Capítulo 1. Preliminares ............................................................................................................. 1 1.1. Cadenas de Markov en tiempo continuo ............................................................................ 1 1.2. Producto y suma de Kronecker y tranformadas de Laplace-Stieltjes ............................. 7 1.3. Distribuciones tipo fase ........................................................................................................ 8 Capítulo 2. El proceso de Poisson ............................................................................................ 13 2.1. Introducción ........................................................................................................................ 13 2.2. Definiciones ......................................................................................................................... 13 2.3. Propiedades ......................................................................................................................... 15 2.3.1. Superposición del proceso de Poisson ........................................................................... 16 2.3.2. Descomposición del proceso de poisson ........................................................................ 18 2.4. Medidas de funcionamiento .............................................................................................. 18 Capítulo 3. Proceso de llegadas de Markov (MAP) ............................................................... 19 3.1. Introducción ........................................................................................................................ 19 3.2. Definiciones ......................................................................................................................... 20 3.3. Propiedades de los procesos MAP .................................................................................... 33 3.3.1. Superposición de procesos MAP ................................................................................... 36 3.3.2. Descomposición de procesos MAP ................................................................................ 37 3.4. Medidas de funcionamiento ............................................................................................... 39 3.5. Comparación del proceso de Poisson y MAP .................................................................. 41 Capítulo 4. Proceso de llegadas de Markov en grupo (BMAP) ............................................. 43 4.1. Introducción ........................................................................................................................ 43 4.2. Definiciones ......................................................................................................................... 44 4.3. Propiedades de los procesos BMAP y medidas de funcionamiento ............................... 48 4.3.1. Superposición de procesos BMAP ................................................................................. 51 4.3.2. Descomposición de procesos BMAP .............................................................................. 52 Capítulo 5. Proceso de llegadas de Markov marcadas (MMAP) .......................................... 53 5.1. Introducción ........................................................................................................................ 53 5.2. Definiciones ......................................................................................................................... 54 5.3. Propiedades ......................................................................................................................... 57 5.3.1. Propiedades de superposición y descomposicicón de MMAP ..................................... 59 5.4. Medidas de funcionamiento ............................................................................................... 60 Capítulo 6. Aplicación en fiabilidad ........................................................................................ 65 6.1. Introducción ........................................................................................................................ 65 6.2. Descripción del sistema ...................................................................................................... 67 6.3. Análisis MAP ...................................................................................................................... 71 6.4. Análisis MMAP .................................................................................................................. 75 Apéndice. Sintaxis informática ................................................................................................ 81 Bibliografía ................................................................................................................................ 85 VII VIII INTRODUCCIÓN Los procesos estocásticos surgen por la necesidad de modelizar fenómenos aleatorios que evolucionan a lo largo del tiempo. En función de las características de los mismos, se han determinado distintas clasificaciones bien analizadas, estructuradas y desarrolladas en los textos. Son muchas las referencias, Ross (1983), Taylor y Karlin (1994), Kovalenko y otros (1996), donde se presenta el análisis y estudio de procesos estocásticos como los procesos puntuales, de recuento, de renovación, de Markov, etcétera. Los procesos estocásticos han sido aplicados en un amplio número de campos científicos como son economía, teoría de colas, biomedicina con análisis de supervivencia y fiabilidad en ingeniería. Cuando se realiza un estudio de un fenómeno mediante procesos estocásticos, las expresiones que se obtienen en la modelización no son siempre lo suficientemente manejables para una posterior implementación computacional y aplicación a un conjunto de datos. En teoría de renovación, por ejemplo, son conocidos los resultados más o menos complejos, donde la puesta en práctica es muy complicada cuando las distribuciones implícitas tienen estructura poco manejable. Este hecho hace que el modelo y las medidas asociadas adquieran expresiones difícilmente interpretables. Lo deseable es poder obtener modelos cuya estructura generalice otros ya conocidos, de forma que sean algoritmizables para su posterior implementación computacional y aplicación. Un primer caso, muy utilizado en modelización estocástica, es el del proceso de Poisson (PP). El proceso de Poisson es uno de los más simples procesos de recuento. Las buenas propiedades de la distribución exponencial, la markovianidad del proceso, heredada por la no memoria de esta distribución, y su fácil estructura algebraica ha hecho que este modelo sea centro de muchos estudios en diversos campos. IX Pero, en la práctica se presentan sistemas a estudiar donde su evolución atraviesa distintos niveles de comportamiento y deben ser modelizados mediante procesos más complejos que el de Poisson. Por ejemplo, en el campo de la fiabilidad, un sistema puede estar operativo atravesando distintos niveles de funcionamiento. Un sistema que tiene un número finito de razones de funcionamiento se denomina un sistema multiestados.El caso más simple de modelo multi-estados es el de un sistema binario. Son muchas las situaciones donde un sistema multi-estados es considerado en la vida real. Así, en medicina se puede considerar un modelo multi-estados para analizar el comportamiento de una enfermedad que atraviesa múltiples estados, y en fiabilidad es habitual modelizar sistemas cuyo funcionamiento y reparación atraviesan distintos niveles. Son muchos los trabajos donde se estudian sistemas complejos multi-estados como son los dados en Ruiz-Castro (2013, 2014). En muchas ocasiones es de interés analizar un sistema multi-estados que durante su evolución sufre distintos eventos que se desean contabilizar obteniendo propiedades del mismo. Así, por ejemplo, en el campo de la fiabilidad, los sistemas pueden funcionar atravesando distintos niveles de operatividad hasta que ocurren fallos de distinta tipología. Este estudio es primordial que se realice de forma que la modelización y sus medidas asociadas adquieran una estructura algebraico matricial, sean interpretables y algoritmizables, pudiendo ser tratados de forma asequible para su aplicación. Los procesos de llegadas markovianas o de Markov (Markovian Arrival Process, MAP), introducidos por Neuts (1979, 1989), fueron estudiados como una generalización del proceso de Poisson para analizar de forma algorítmica el comportamiento de llegadas en sistemas multi-estados. Son muchos los textos donde los procesos de llegadas de Markov han sido considerados. Neuts (1992) y He (2014) desarrollan un análisis de los procesos de llegadas de Markov en profundidad presentando sus propiedades y ejemplos de aplicación. Los MAPs verifican muchas de las buenas propiedades del proceso de Poisson como se ve a lo largo de esta memoria. Así, la propiedad de no memoria del proceso de Poisson se mantiene parcialmente para el caso MAP condicionando a la fase de la cadena de Markov subyacente. Una propiedad importante de los procesos de llegadas de Markov es que son densos en el conjunto de los procesos de recuento, es decir cualquier proceso de recuento puede ser aproximado X mediante un MAP tanto como se desee. Esta propiedad permite analizar sistemas considerando un proceso de recuento general, de forma bien estructurada, con medidas obtenidas mediante expresiones algebraico-matriciales, lo que permite la algoritmización y aplicación. Los procesos de llegadas de Markov (MAP) son generalizados mediante los procesos de llegadas de Markov por lotes o grupos (BMAP). El BMAP es una generalización de muchos procesos bien conocidos como el de Poisson y el de Poisson modulado. En este caso se introduce una estructura algebraico-matricial para el análisis de sistemas multi-estados con llegadas en lotes. Un análisis de los mismos puede verse en Cordeiro y Kharoufeh (2011). Un estudio de las probabilidades de transición de los procesos BMAP es desarrollado de forma algorítmica en Neuts y Li (1997). Una generalización de los procesos BMAP, también estudiados en esta memoria, son los Procesos de llegadas de Markov con llegadas marcadas (MMAP). En este caso los eventos que ocurren a lo largo del tiempo son diferentes situaciones que acontecen sobre el sistema, con distinta interpretación, y que se desean contabilizar. Por ejemplo, es de interés en fiabilidad analizar el número de fallos y reparaciones a lo largo del tiempo atendiendo a distinta tipología de los mismos. Un estudio de las propiedades y ejemplos de aplicación de los MMAP es dado en He y Neuts (1998). En esta memoria, tras una breve introducción a los procesos estocásticos, se presentan de forma evolutiva los procesos anteriormente citados (PP, MAP, BMAP, MMAP), desde el proceso de Poisson hasta el proceso de llegadas de Markov con llegadas marcadas. Cada uno de ellos generaliza al anterior y es definido desde cuatro puntos de vista distintos para su interpretación, desde una definición axiomática hasta una constructivista. Este hecho permitirá comprender en profundidad el comportamiento interno de los correspondientes procesos. Tras las definiciones se analizan las principales propiedades y se obtienen las medidas de funcionamiento asociadas a los distintos modelos, todo ello de una forma algebraico-matricial para su algoritmización. Un aspecto de interés es la aplicabilidad de los distintos modelos. En la memoria se presentan distintas aplicaciones en el campo de fiabilidad mostrando la versatilidad de los procesos llevados a cabo para modelos multi-estados. Se han desarrollado e XI implementado métodos computacionales para los distintos modelos y sus medidas asociadas. XII CAPÍTULO 1 PRELIMINARES A lo largo del trabajo se van a considerar conceptos referidos a estadística en general, probabilidad y procesos estocásticos. Obviando los resultados más básicos, en este capítulo se ofrece una introducción a tres conceptos bien conocidos, como son las cadenas de Markov en tiempo continuo, la suma y producto de Kronecker y las distribuciones tipo fase. 1.1. CADENAS DE MARKOV EN TIEMPO CONTINUO El objetivo que aborda este trabajo se centrará en el estudio de los procesos de llegadas de Markov (MAPs), sus ampliaciones y sus posibles aplicaciones, en este caso, referidas al mundo de la fiabilidad. Dada la relación de estos procesos con el proceso de Poisson comenzamos el trabajo recordando unas nociones previas de Procesos Estocásticos, y de algunos casos particulares, como el mencionado Proceso de Poisson. En este capítulo también se introducirán de forma general las Cadenas de Markov y las distribuciones Tipo Fase, que serán de utilidad a lo largo del trabajo, así como la suma y el producto de Kronecker. Los procesos estocásticos se centran en el estudio y en la modelización de sistemas que evolucionan a lo largo del tiempo generalmente, o del espacio, de acuerdo a unas leyes no determinísticas, esto es, de carácter aleatorio, y que se verán regidas por leyes probabilísticas. Muchas aplicaciones de los procesos estocásticos aparecen en materias tan dispares como física, ingeniería, biología, medicina y en otras disciplinas como la que nos interesa en este trabajo, la fiabilidad. La evolución de un fenómeno aleatorio a lo largo del tiempo o espacio puede ser analizado mediante procesos estocásticos. Por ejemplo, el número de personas que espera ante una ventanilla de un banco en un instante t de tiempo; el precio de las 1 Preliminares distintas acciones de una empresa a lo largo de un tiempo; el número de parados en el sector de la Construcción a lo largo de un año… Un proceso estocástico es una familia de v.a. { X t , t} , definidas en un mismo espacio probabilístico. Definición 1.1.1. Dado el espacio de probabilidad (Ω, , P ) de modo que para todo t T fijo se tiene X t : Ω, , P ( , ) X t ( ) R es decir, X t es una variable aleatoria y Ω fijo, X • (w) es una función dependiente del tiempo. Definición 1.1.2. Al conjunto T de subíndices se le denomina espacio paramétrico y puede ser continuo o numerable. De este modo aparece una primera clasificación en procesos estocásticos de parámetro continuo o de parámetro discreto. Definición 1.1.3. Se denomina conjunto de estados E, al conjunto de los posibles valores que pueden tomar las variables aleatorias { X t , t } .En general, se piensa en el subíndice t como el indicativo del tiempo y en X t como el estado o posición del proceso estocástico en el instante t. Definición 1.1.4. Un proceso estocástico en tiempo continuo {N (t )}t 0 , se dice de recuento o puntual si N (t ) representa el número de veces que ocurre un suceso hasta el instante de tiempo t. Un caso especialmente relevante de los procesos de recuento son los procesos de renovación que son de gran utilidad en el análisis de modelos probabilísticos aplicados en distintos campos: modelos de inventarios y aplicaciones en fiabilidad y colas, entre otros. Los procesos estocásticos se pueden clasificar según dos tipos de estructura, la estructura del conjunto paramétrico T y del conjunto de estados E y según las características probabilísticas de las variables aleatorias. Según la primera clasificación, es decir, a través del conjunto paramétrico y del conjunto de estados, los procesos estocásticos se pueden clasificar en cuatro tipos, dependiendo de si T es un conjunto numerable o continuo, y de si E es otro conjunto numerable o continuo. 2 Antonio Hernández Moreno E/T Discreto Continuo Cadena Proceso Puntual Discreto Continuo Sucesión de variables aleatorias Proceso Continuo Si nos fijamos ahora en el segundo criterio de clasificación, podemos observar como en la vida real se producen distintas relaciones entre las variables aleatorias que constituyen un proceso estocástico. Las propiedades probabilísticas de las variables aleatorias son importantes a la hora de identificar y clasificar un proceso estocástico. Atendiendo a distintos factores como puede ser el nivel de dependencia se pueden realizar distintas clasificaciones de los procesos estocásticos. Así se tienen entre otros — Procesos estacionarios. — Procesos Markovianos. — Procesos de incrementos independientes. Analizamos con más detenimiento estos casos. a) Procesos estacionarios: Para su tratamiento primero es necesaria una definición. Definición 1.1.5. Función de autocovarianzas de un proceso estocástico. Dado { X t , t T } , se llama función de autocovarianzas a la función, (r , s) Cov( X r , X s ) E[( X r E ( X r ))·( X s E ( X s ))] donde r , s T . La estacionariedad de un proceso se puede clasificar como débil o estricta (fuerte). Definición 1.1.6. Un proceso { X t , t T } tal que E ( X t2 ) t T , es un proceso estacionario en sentido débil si: 1) E ( X t ) m, t T 2) (r , s) (r t , s t ) r , s, t T Esto implica que Var[ X t ] es constante t T . Además, debe existir el momento de orden dos de las variables aleatorias, teniendo todas las mismas medias. La segunda condición implica que la función 3 Preliminares de autocovarianza tomará el mismo valor para dos variables aleatorias que estén separadas por un retardo t en el proceso, independientemente de dónde se encuentren situadas estas variables en el tiempo. Es decir, es invariante la función de autocovarianzas frente a traslaciones. Definición 1.1.7. Un proceso { X t , t T } tal que E ( X t2 ) t T , es un proceso estacionario en sentido estricto si n , h T y t1 , t2 , , tn T , las variables aleatorias { X t , X t , , X t } tienen la misma distribución conjunta que 1 2 n { X t1 h , X t2 h , , X tn h } . Evidentemente, es fácil comprobar que un proceso estacionario en sentido estricto también lo será en sentido débil, mientras que la implicación contraria no siempre tiene porqué ser cierta. En el caso de que las variables aleatorias sean distribuciones normales probabilísticas sí se dan ambas implicaciones. b) Procesos Markovianos: la característica de los procesos estocásticos markovianos es que la distribución de X n 1 es independiente de ( X n1 , X n2 , ...) conocido X n . Se puede resumir diciendo que el futuro del proceso, es independiente del pasado, conocido el presente. c) Procesos con incrementos independientes: Se dice que un proceso { X t , t T } tiene incrementos independientes si n , t1 , t2 ,, tn T , las variables aleatorias y2 X t2 X t1 yn X tn X tn1 son independientes. Como puede observarse y demostrarse, todo proceso con incrementos independientes es a su vez un proceso markoviano. Existe una gran variedad dentro de los procesos estocásticos, con distribuciones típicas que se repiten en situaciones reales y las modelizan, tanto en su vertiente discreta como en su vertiente continua. Entre esa tipología destacamos el proceso de Poisson, y las cadenas de Markov (en tiempo discreto y en tiempo continuo) ya que son procesos que nombraremos a lo largo de la exposición teórica que vamos a realizar, y es por ello 4 Antonio Hernández Moreno que procedemos a realizar una breve descripción. Comenzamos por las Cadenas de Markov en tiempo continuo. Las Cadenas de Markov son utilizadas en el análisis del comportamiento de determinados procesos que evolucionan de forma no determinística a lo largo del tiempo en torno a un conjunto de estados verificando la propiedad de Markov. Una Cadena de Markov puede representar un sistema que varía su estado a lo largo del tiempo, siendo cada cambio una transición del mismo. Estos cambios no están, sin embargo, predeterminados, aunque sí estarán regidos probabilísticamente. Para definir una Cadena de Markov se deben tener en cuenta tres elementos: un conjunto de estados del sistema, la definición de transición y una ley de probabilidad condicional que defina la probabilidad del nuevo estado en función de los anteriores. Los estados son una caracterización de la situación en la que se halla en un instante de tiempo dado, y dicha caracterización puede ser tanto cualitativa como cuantitativa. Respondería a la pregunta de “¿Cómo están las cosas?”. El concepto de transición proviene del cambio del sistema a lo largo del tiempo, tiempo que se puede analizar desde un punto de vista discreto o continuo dando lugar a las Cadenas de Markov en Tiempo Continuo o en Tiempo Discreto, donde las primeras saltan de un estado a otro en tiempos aleatorios de la recta real y las segundas saltan de un estado a otro en tiempos aislados en un conjunto numerable. A lo largo del trabajo surgen dentro de los componentes del Proceso de Llegadas de Markov (MAP) una Cadena de Markov en tiempo continuo, que pasamos a describir brevemente. Definición 1.1.8. Sea { X t }t 0 un proceso estocástico en tiempo continuo, es decir, t [0, T ] con T fijo, y que toma valores en un conjunto numerable E. Se dice que el proceso { X t }t 0 es una Cadena de Markov en Tiempo Continuo (CMTC) si s, t 0 y i, j, xu E con 0 u s se cumple que P[ X t s j | X s i, X u xu 0 u s] P[ X t s j | X s i] . En otras palabras, una CMTC es un proceso estocástico que verifica la propiedad Markoviana, es decir, que la probabilidad condicional de un futuro estado en el tiempo t+s, dado el estado presente en el tiempo s y todos los estados pasados, solo depende del estado presente siendo independiente del pasado. Continuamos con una serie de definiciones necesarias para completar las CMTC. Las probabilidades pij (t ) P[ X t s j | X s i] , probabilidad de que estando en el estado i en el instante s, después de un intervalo de tiempo t la cadena esté en el estado 5 Preliminares j, describen el comportamiento de las transiciones de la CMTC. Estas probabilidades así definidas, se denominan probabilidades de transición. Si las probabilidades de transición son independientes del tiempo s, como es el caso descrito, se dice que la cadena es homogénea. Definición1.1.9. Si { X t }t 0 es una CMTC y además verifica que P[ X t s j | X s i] es independiente de s entonces se dice que la CMTC es homogénea. Definición 1.1.10. Diremos que un estado es transitorio si la probabilidad de que la cadena no vuelva a visitarlo en el futuro es positiva, en caso contrario se dice recurrente. Si un estado es recurrente es visitado infinitas veces con probabilidad 1, siendo recurrente positivo si el tiempo esperado de retorno al estado es finito (en caso contrario se habla de recurrente nulo). Definición 1.1.11. Decimos que el proceso { X t }t 0 es irreducible si para todo x, y E la probabilidad de alcanzar el estado y saliendo del estado x en un tiempo finito es positiva. Todos los estados comunican entre sí. Definición 1.1.12. La distribución de X 0 , ( x) P( X 0 x) es llamada distribución inicial de la cadena. Una cadena de Markov { X t }t 0 , queda determinada por las probabilidades de transición y la distribución inicial. Para hallar las probabilidades de transición es fundamental introducir el concepto de generador del proceso o Q-matriz. Una forma de introducir el generador del proceso es mediante las probabilidades de transición. Es fácil demostrar que las probabilidades de transición verifican las llamadas ecuaciones de Chapman-Kolmogorov. Estas son pij (t s) pik (t )·pkj ( s) kE que en forma matricial se tiene P(t s) P(t ) P( s) . Definición 1.1.13. La matriz Q {qij }i , j E , donde p ( h) 1 pii ( h) , qij lim ij h0 h 0 h h qii qi lim se denomina matriz de intensidad o generador infinitesimal. En notación matricial Q lim h 0 6 P (h) P (0) . h Antonio Hernández Moreno Un proceso de Markov en tiempo continuo también queda definido completamente mediante el generador o Q-matriz y la distribución inicial. Se demuestra que dado el generador Q las probabilidades de transición de la cadena de Markov homogénea asociada viene dada por la solución de las llamadas ecuaciones diferenciales de Kolmogorov, P '(t ) P(t )Q QP(t ) . Estas ecuaciones tienen una única solución que viene dada por Qn n t . n 0 n ! P(t ) exp[Qt ] Un concepto importante en el estudio de las CMTC es el de distribución estacionaria que vemos a continuación. Los valores de la distribución estacionaria se pueden interpretar como la proporción final de tiempo que la cadena ha permanecido en cada estado a lo largo del tiempo. Se puede decir que es también la proporción, a largo plazo, de etapas en las que la cadena se encuentra en el estado i a lo largo de su evolución, si ha partido de i o de otro estado recurrente que intercomunica con i. Para una cadena de Markov finita, aperiódica e irreducible, existe una única distribución estacionaria. El cálculo de la distribución estacionaria viene de la resolución del siguiente sistema de ecuaciones, Q 0 e 1 La estacionariedad resulta muy útil en una distribución debido a sus propiedades. 1.2. PRODUCTO, SUMA DE KRONECKER Y TRANFORMADAS DE LAPLACE-STIELTJES Al seguir con el tratamiento de distintos conceptos que nos aparecerán durante el documento, se hará necesario el conocimiento de las expresiones de la suma y producto de Kronecker. Se introducen por tanto estas operaciones para su correcta comprensión. 7 Preliminares Definición 1.2.1. Sea A una matriz de dimensión m x n y sea B una matriz de orden p x q. Se define el producto de Kronecker A B , como la matriz bloque mp x nq dada por la expresión a11 B a1n B . A B am1 B amn B Definición 1.2.2. La suma de Kronecker de dos matrices cuadradas de órdenes p y q respectivamente queda definida por la expresión basada en el producto de Kronecker con la correspondiente matriz identidad. C D C Iq I p D , siendo Ir la matriz identidad de orden r. Definición 1.2.3. Sea X una variable aleatoria no negativa con función de distribución H. La transformada de Laplace-Stieltjes de X o de H es la función definida en (0, ) por hˆ( s ) e sx dH ( x), s . 0 Para valores de s no negativos, hˆ( s ) siempre es finita, y dependiendo del comportamiento de Hˆ ( x) para x grande, hˆ( s ) podría ser finita para algunos valores de s negativos. 1.3. DISTRIBUCIONES TIPO FASE A continuación se hace una breve descripción de las distribuciones tipo fase, que están ligadas a los procesos MAPs y que son utilizadas en distintos campos como en teoría de colas y fiabilidad de sistemas. Este tipo de distribución está ligado a los procesos de Markov que se introdujeron en el apartado anterior. Definición 1.3.1. Una distribución tipo fase (PH) se define como la distribución del tiempo hasta la absorción en un proceso de Markov (finito) con estados transitorios y una clase absorbente. Formalmente, una distribución es tipo fase con representación ( ,T ) , si es el tiempo hasta la absorción en un proceso de Markov sobre los estados {1,, m, m 1} , donde los m primeros estados son transitorios y el estado m+1 es absorbente. El generador del proceso, que se expresa matricialmente por bloques tiene la siguiente estructura, 8 Antonio Hernández Moreno T T 0 . 0 0 Donde T es una matriz mxm, llamada matriz de intensidades, con diagonal negativa, y elementos fuera de ella no negativos, donde vienen recogidas las transiciones entre los estados transitorios. La distribución inicial para los estados transitorios se define a través del parámetro , también de orden m. Se considerará que inicialmente se partirá de un estado transitorio con probabilidad 1. Se satisface la condición –Te T 0 0 , donde e es un vector columna con elementos 1 de dimensión adecuada. La función de la distribución tipo fase se denota por H (·) , y viene dada por H ( x) 1 ·exp(Tx)·e; x 0. En otras palabras, una distribución tipo fase es la distribución del tiempo de absorción en una cadena de Markov con espacio de estados finito, donde uno de ellos es absorbente y los demás transitorios. Algunos casos especiales de distribuciones tipo fase son la distribución exponencial, la distribución Earlang, la hiperexponencial…La importancia y el uso extendido de las distribuciones tipo fase viene dado por las propiedades analíticas que posee. Algunas de ellas se muestran a continuación, pudiendo verse en detalle en Neuts (1981). Enunciamos primero el teorema que demuestra la conexión entre el método matricial analítico y las distribuciones tipo fase. Teorema 1.3.1. Sea B una distribución tipo fase con distribución inicial , matriz de intensidades T y con m estados transitorios. Entonces: a) La función de distribución es B( x) 1 eTx e . b) La función de densidad es b( x) eTxT 0 . c) La función característica es Bˆ ( z ) e zx B ( dx ) ( zI T ) 1T 0 . 0 Otra característica notable de estas distribuciones radica en que gracias a su distribución probabilística, no es complejo demostrar que las distribuciones tipo fase son cerradas para una gran cantidad de operaciones, es decir, operaciones entre 9 Preliminares variables con distribución tipo fase da como resultado otra variable con también distribución tipo fase. Teorema 1.3.2. Sean dos variables tipo fase X e Y con representaciones ( ,T ) y ( , S ) respectivamente. La variable Z=X+Y sigue entontes una distribución tipo fase con representación ( , L) dada por T T 0 L S 0 ( , m1 ); m k 1 m1 k 1 Demostración. Neuts (1975) Teorema 1.3.3. Dada la variable aleatoria { X i } con distribución tipo fase ( i , Ti ) y sea k Z Ii X i con Ii 1 y P( Ii 1) pi , entonces la variable aleatoria Z tiene distribución i 1 tipo fase con representación ( , L) dada por T1 0 L 0 T k ( p11 , p2 2 ,, pk k ) Demostración. Neuts (1975) Una vez vistas las propiedades donde se puede ver que bajo distintas operaciones sobre distribuciones tipo fase obtenernos otra distribución tipo fase, vamos a ver resultados que caracterizan a las distribuciones tipo fase: Teorema 1.3.4. Una distribución tipo fase es tipo fase si y sólo si: i) ii) iii) Tiene una función densidad de probabilidad continua en la recta real positiva, con una posible masa en 0. Su transformada de Laplace-Stiejes es racional. Su transformada de Laplace-Stiejes tiene un polo único de parte real maximal. Demostración. Maier y O'Cinneide (1992) 10 Antonio Hernández Moreno La expresión de la transformada de Laplace-Stiejes f ( s) para un distribución tipo fase viene especificada en Mishkoy, Krieger y Bejenari D, (2012). En concreto, f ( s) ( sI T )1T 0 . 11 Preliminares 12 CAPÍTULO 2 EL PROCESO DE POISSON 2.1. INTRODUCCIÓN El proceso de Poisson es de gran importancia en la modelización en distintos campos de aplicación. En esta memoria presentamos el proceso de Poisson y veremos que los Procesos de Llegada Markovianos y sus ampliaciones lo generalizan expresando los resultados de forma matricial bien estructurada. En cierta forma, surgen de él basándose en sus singulares propiedades. 2.2. DEFINICIONES Supongamos que un mismo evento ocurre repetidas veces de manera aleatoria a lo largo del tiempo. Tal evento puede ser, por ejemplo, la llegada de una reclamación a una compañía aseguradora o la recepción de una llamada a un conmutador, la llegada de un cliente a una ventanilla para solicitar algún servicio o los momentos en que una cierta maquinaria requiere reparación, etcétera. Supongamos que las variables aleatorias T1 , T2 ,... representan los tiempos que transcurren entre una ocurrencia del evento y la siguiente ocurrencia. Supongamos que estos tiempos son independientes uno del otro y que cada uno tiene distribución exponencial de igual parámetro. Se define el proceso de Poisson al tiempo t como el número de ocurrencias del evento que se han observado hasta ese instante t. Esta es una definición constructiva de este proceso y la formalizaremos a continuación. Más adelante enunciaremos otras definiciones axiomáticas equivalentes. 13 El Proceso de Poisson Definición 2.2.1. Sea T1 , T2 , una sucesión de variables aleatorias independientes con distribución exponencial de parámetro . El proceso de Poisson de parámetro es el proceso de tiempo continuo {Nt , t T } , definido de la siguiente manera, Nt máx {n 1: T1 Tn t} Caracterización 2.2.1. Se dice que un proceso estocástico {Nt , t T } es un proceso de Poisson, donde Nt es el número de sucesos que ocurren en un intervalo (0, t ] si los sucesos cumplen las siguientes condiciones: i) El número de sucesos que aparecen en un intervalo de tiempo es independiente del número de sucesos que ocurren en intervalos de tiempo anteriores. ii) Homogeneidad en el tiempo: la probabilidad de que en un intervalo de tiempo ocurran k sucesos sólo depende de la longitud del intervalo y no de dónde se encuentre éste, P{(Ns t N t ) k} P{Ns k} iii) Estabilidad: El número medio de sucesos (a largo plazo) que ocurren por unidad de tiempo es constante e igual a una tasa dada λ, N (t ) E t iv) El número de sucesos que ocurren en un intervalo infinitesimal (0, t) puede ser, 1. Dos o más sucesos, con P[ N t 1] o(t ) donde o(t ) es tal que 2. o(t ) 0. t Un solo suceso con P[ N t 1] t o(t ) . 3. Ningún suceso con P[ N t 0] 1 t o(t ) . lim t 0 Esto implica que se puede elegir un intervalo suficientemente pequeño de tiempo, para que sólo ocurra un suceso (o ninguno) cuando las ocurrencias son de una en una. Proposición 2.2.1. Bajo estas condiciones, el número de ocurrencias en el intervalo (0, t] sigue una distribución de Poisson. Así si N t cuenta el número de ocurrencias en el intervalo (0, t] , entonces N t P(λt) . Demostración. Kingman (2002). 14 Antonio Hernández Moreno Proposición 2.2.2. En un proceso de Poisson, el tiempo que transcurre entre dos llegadas es una variable aleatoria con distribución exponencial de parámetro λ. El modelo estándar del proceso de Poisson presenta condiciones demasiado severas y rara vez aparecen en la modelización real de procesos complejos: todos los sucesos tienen la misma probabilidad de aparecer, y la tasa de llegada de los sucesos es siempre la misma. Se puede generalizar, así, el caso donde varíen las tasas. Definición2.2.2. Proceso de Poisson no homogéneo. Se dice que {Nt , t T } es un proceso de Poisson con tasa (r ) si i) N (0) 0 . ii) N (t ) tiene incrementos independientes. iii) N(t s) N(s) se distribuye como una Poisson de media t . Como se ha comentado, la importancia del proceso de Poisson dentro de los procesos de llegada Markovianos es clara, ya que estos últimos surgen del proceso de Poisson a través de sus propiedades. Veamos a continuación las propiedades más importantes de un proceso de Poisson. 2.3. PROPIEDADES En esta sección se presentan algunas propiedades del proceso de Poisson. Teorema 2.3.1.Sea un proceso estocástico {Nt , t T } . Entonces N (t s) N ( s), t 0 es un proceso de Poisson de parámetro y es independiente de N (r ), 0 r s . Demostración: Supongamos que N ( s) n y que el n-ésimo evento ocurrió en el instante n . Sabemos que el intervalo de tiempo para el siguiente evento debe satisfacer que Tn 1 s n , pero por la propiedad falta de memoria de la distribución exponencial P[Tn1 s n t | Tn1 s n ] P[Tn1 t ] et . Así, demostramos que la distribución del tiempo de espera hasta el primer evento después de s es exponencial de parámetro y es independiente de Ti ,1 i n . Además, 15 El Proceso de Poisson Tn1 , Tn 2 , son independientes de Ti ,1 i n . Esto muestra que los intervalos entre eventos que ocurren después de s son variables aleatorias idénticamente distribuidas con distribución exponencial con parámetro , y por lo tanto N (t s) N ( s), t 0 es un proceso de Poisson. Otra propiedad de los procesos de Poisson nos remite a la definición 2.2.2. dando lugar por tanto a una caracterización de proceso de Poisson que viene dada por el siguiente teorema. Teorema 2.3.2. Si {N ( s), s 0} es un proceso de Poisson, i) N (0) 0 . ii) N (t s) N ( s) , t 0 es un proceso de Poisson de parámetro t . N (t ) tiene incrementos independientes. iii) Recíprocamente, como hemos visto en la definición 2.2.2. si se cumplen estas condiciones, entonces {N ( s), s 0} es un proceso de Poisson. Demostración: A través de las propiedades anteriores podemos ver directamente parte la demostración buscada. Resto en Kingman (2002). 2.3.1. SUPERPOSICIÓN DEL PROCESO DE POISSON Una de las propiedades más importantes que poseen los procesos de Poisson hace referencia a la superposición de procesos, propiedad que además heredarán los Procesos de Llegada Markovianos (MAP). Teorema 2.3.1.1. Sean N1 (t ),, Nk (t ) procesos de Poisson independientes con parámetros 1 ,, k respectivamente, entonces el proceso N1 (t ) N k (t ) es también un proceso de Poisson con parámetro 1 k . Demostración: Se hará la demostración para el caso k=2, obteniéndose el caso general por inducción. Es claro que la suma tiene incrementos independientes, y que N1 (0) N 2 (0) 0 . Para verificar que los incrementos tienen distribución de Poisson con parámetro igual a 1 2 vemos que si 16 Antonio Hernández Moreno Y N1 (t s) N1 (s) (1t ) y Z N 2 (t s) N 2 ( s) (2t ) entonces, N (t s) N ( s) N1 (t s) N1 (s) N 2 (t s) N 2 ( s) Y Z que siguiendo la propiedad de la distribución de Poisson se distribuirá por una distribución de Poisson de parámetro (1 2 )t . Un resultado más potente que el anterior también llamado teorema de PalmKhintchine (Han et al. 2006 y Cox and Miller 1977) afirma que si se superponen varios procesos puntuales independientes, el proceso total que da como resultado será localmente un proceso de Poisson. El término “local” hace referencia a considerar intervalos muy cortos y que cada proceso contribuya como máximo con un evento durante esos intervalos. Gráficamente lo podemos ver de la siguiente forma: Gráfico 2.2.2.1. Superposición de Procesos Puntuales Vemos pues que la condición de independencia es la condición necesaria para la superposición de procesos de Poisson en otro proceso de Poisson. 17 El Proceso de Poisson 2.3.2. DESCOMPOSICIÓN DEL PROCESO DE POISSON Paralelamente, nos debe interesar de igual modo el estudio del comportamiento de los procesos de Poisson en el caso de descomposición del mismo. Teorema 2.3.2.1.Sean los eventos de un proceso de Poisson {N ( s), s 0} de dos tipos, A y B. Sea 0 p 1 la probabilidad de que un evento sea del tipo A y q 1 p la probabilidad de que el evento sea del tipo B. Supongamos que p es constante y que la ocurrencia de un tipo no influye sobre la ocurrencia del otro tipo de evento. En estas condiciones del proceso {N ( s), s 0} con parámetro 0 , los procesos {N A (s), s 0} y {N B (s), s 0} son procesos independientes de Poisson con parámetros p y (1 p) respectivamente. Demostración. Neuts (1975) Claramente, este resultado es fácilmente ampliable a más de dos tipos de eventos. Resulta razonable pensar que si la superposición de procesos de Poisson es otro proceso de Poisson, la descomposición de procesos de Poisson también lo es. Ejemplo 2.3.2.1. Sea un proceso de Poisson que mide la llegada a una estación de servicio, con parámetro 5 . Si dicha estación de servicio tiene tres surtidores, y los clientes acuden al azar a cada uno de ellos de forma independiente, las llegadas a cada surtidor pueden medirse a través de un proceso de Poisson con parámetro / 3 . 2.4. MEDIDAS DE FUNCIONAMIENTO El cálculo de las medidas más representativas del proceso de Poisson se resuelve de forma casi inmediata a través del resultado de la propiedad 2.3.1. y del teorema 2.3.1. De ellos, se deducía que el proceso es de incrementos estacionarios, que siguen una distribución de Poisson de parámetro conocido s . Lo vemos analíticamente. El número medio de sucesos hasta el instante s viene dado por, E[ N ( s)] E[ N ( s 0) N (0)] s . Por lo tanto su varianza es, Var[ N ( s)] s. Y para cualquier intervalo de longitud s: E[ N ( s t ) N (t )] E[ N ( s)] s . 18 CAPÍTULO 3 PROCESO DE LLEGADAS DE MARKOV (MAP) 3.1. INTRODUCCIÓN Una vez terminados los dos primeros apartados de introducción básica, a través de las nociones de procesos estocásticos, con la descripción de las Cadenas de Markov y los procesos de Poisson y el conocimiento de las distribuciones tipo fase, comenzamos con el verdadero objetivo de esta memoria, que no es más que el estudio y análisis del Proceso de Llegadas de Markov (Markovian Arrival Process, MAP). Se va a realizar una breve descripción de este proceso respondiendo a preguntas como de dónde surgen, dónde podemos encuadrarlos, qué utilidad poseen, qué propiedades cumplen…. El proceso de Poisson, analizado en el capítulo anterior, es un proceso de llegadas markoviano. Su propiedad de no memoria nos conduce a su aplicabilidad mediante modelos Markovianos en la modelización estocástica. Una generalización del proceso de Poisson, que mantiene muchas de las propiedades, es el Proceso de Llegadas de Markov (MAP). El objetivo de este capítulo es introducir estos procesos, mostrando sus interesantes propiedades. Si se tiene un sistema multiestados donde pueden ocurrir llegadas desde cualquiera de ellos con distinta razón de ocurrencia entonces podemos modelizar mediante un MAP. Un MAP mantiene la propiedad de no memoria del proceso de Poisson condicionando a la fase de la cadena inmersa. Se verá que el conjunto de procesos de llegadas de Markov es muy versátil. De hecho, cualquier proceso de recuento puede ser aproximado tanto como se desee mediante una sucesión de procesos de llegadas de Markov. La gran ventaja, como veremos durante la descripción teórica, de los procesos MAPs está en su tratamiento analítico, puesto que, por ejemplo, la superposición de 19 Proceso de llegadas de Markov (MAP) procesos MAPs es un proceso MAP, propiedad que heredan de los procesos de Poisson, donde se halla el germen del los procesos MAPs. Como ampliación de los procesos MAPs veremos cómo se puede asociar al momento de la llegada el número de elementos de ésta. Los procesos con llegadas en grupo, con determinación del tiempo entre llegadas a través de un proceso MAP, son los procesos BMAP (Batch Markovian Arrival Process) o MAP en grupo, donde la distribución del número de elementos de la llegada es independiente del proceso MAP y está regulada por una Cadena de Markov con un número finito de estados. Los procesos MAPs son una clase de procesos que incorpora, entre otros, a los procesos de Poisson modulados de Markov (Markov-Modulated Poisson Process, MMPP), procesos de renovación con distribución de tipo fase para los intervalos entrellegadas, procesos puntuales semi-Markovianos con tiempos entre-llegadas de tipo fase, y superposiciones de estos procesos. 3.2. DEFINICIONES Como se ha indicado en la introducción, el verdadero objetivo del presente trabajo es la introducción de los procesos de llegada Markovianos, que a partir de ahora denotaremos como MAP (Markovian Arrival Process) y sus generalizaciones BMAP (Batch Markovian Arrival Process) y MMAP (Marked Markovian Arrival Process) (también podría verse de forma contraria, comenzando por el proceso más general, los procesos MMAPs y yendo posteriormente a cada uno de sus casos particulares de procesos BMAP y procesos MAPs). Comenzamos con el primero y más sencillo de los casos. Como veremos, iremos pasando de uno a otro de una forma constructiva, comenzando por el ya definido proceso de Poisson, origen de todos, que generará el MAP, éste el BMAP, y éste el MMAP. La descripción de todos estos procesos será nuestro objetivo, ya que en la práctica nos servirán para modelizar multitud de situaciones de la vida real, tal y como veremos. En los tres tipos de procesos procederemos de la misma forma, introduciéndolos a través de la formulación de su definición de cuatro formas distintas, siguiendo distintos criterios y puntos de vista. Posteriormente se mostrarán algunas medidas clave en dichos procesos así como resultados y propiedades a tener en cuenta. Se introducirán ejemplos que afianzan las definiciones, los resultados mostrados y que muestran la versatilidad de estos procesos. 20 Antonio Hernández Moreno Supongamos un sistema de fiabilidad que atraviesa distintos estados mediante su funcionamiento (sistema multi-estados) y que puede fallar en cualquier instante de tiempo desde cualquier estado. El funcionamiento de este sistema puede modelizarse mediante una cadena de Markov, con generador D. Los fallos del sistema pueden ocurrir cuando tiene lugar un cambio de estados o mientras está funcionando en uno cualquiera. El número de fallos de este sistema multiestados puede ser modelizado mediante un proceso de llegadas de Markov (MAP). Definición 3.2.1. Sean ( D0 , D1 ) matrices de orden m, con m entero positivo, con todos los elementos de las dos matrices no negativos excepto la diagonal principal de D0 , que son negativos, y D D0 D1 un generador infinitesimal de una cadena de Markov. Sean sus elementos D0 ( d 0,( i , j ) ) y D1 ( d1,( i , j ) ) . Entonces, ( D0 , D1 ) definen un MAP {( N (t ), I (t )), t 0} como sigue: N (0) 0 2) La matriz D define una cadena de Markov en tiempo continuo (CMTC) {I (t ), t 0} por D. 3) Para una fase (estado) i con d 1( i ,i ) 0 , se tiene un proceso de Poisson (PP), con 1) razón de llegada d1( i ,i ) para i 1,, m . Si I (t ) i , el proceso Poisson estará operativo y en otro caso no operativo. 4) Si I (t ) i y una llegada del proceso de Poisson ocurre, N (t ) se incrementa en una unidad, para i 1,, m . 5) Al final de cada permanencia en el estado i, con probabilidad d0, (i , j ) ( d ( i ,i ) ) , (con d(i ,i ) d0,(i ,i ) d1,(i ,i ) ), I(t) transitará de la fase i a la j, y N (t ) se mantendrá igual, es decir, sin llegadas; y con probabilidad d1, (i , j ) ( d ( i ,i ) ) , transitará I (t ) igualmente de i a j, pero N (t ) se incrementará en una unidad, es decir, con una llegada, para i j y i, j 1,, m . Llamamos ( D0 , D1 ) a la representación matricial del MAP y a {I (t ), t 0} la cadena de Markov subyacente o inmersa. Si el estado inicial de {I (t ), t 0}, I (0) , está bien determinado, el MAP estará bien definido. Esta definición de MAP puede ser reexpresada en términos de razones de llegadas y transiciones de la siguiente forma: ‐ d 0, ( i , j ) = razón de transición del estado i al j sin llegadas, con i j . 21 Proceso de llegadas de Markov (MAP) ‐ d1, ( i , j ) = razón de transición del estado i al j con llegadas, para todo i,j. ‐ d 0, ( i ,i ) = razón total de eventos del estado i. Ejemplo 3.2.1. Los MAPs son de amplia aplicación en la vida real y de forma teórica en probabilidad. Los siguientes ejemplos nos lo muestran. 1) Proceso de Poisson con parámetro λ. En este caso, D0 ( ), D1 ( ), D (0) y m 1 .Notar que d (1,1) 0 ya que hay un único estado y por tanto no hay transiciones entre fases. 2) Proceso de renovación de Erlang con m fases (estados): es definido como un proceso de renovación estándar para el cual los tiempos entre llegadas son v.a.i.i.d. según una distribución Erlang con parámetros m y λ. Usando una representación tipo fase de la distribución Erlang, una representación matricial de este proceso de llegada puede darse como ( D0 λ·J(m)), ( D1 λ·K (m)) ,siendo, 1 1 0 0 0 0 1 . J ( m) , K ( m) 1 1 1 0 mxm 0 0 1 mxm 3) Proceso de renovación tipo fase. Se trata de un proceso de renovación estándar cuyos tiempos entre llegadas son independientes y tiene una distribución probabilística común tipo fase con representación PH( ,T) , con ·e 1 . Así, D0 T ; D1 T 0 · . El generador infinitesimal de la cadena de Markov subyacente es D T T 0 · .Las transiciones asociadas a T no tienen llegadas, mientras que las transiciones asociadas a T 0 · tienen una llegada. 4) Proceso de llegadas a ráfagas. 10 0 8 2 D0 , D1 . 2 2 0 0 Cuando la cadena de Markov está en el estado 1, un número de llegadas puede ocurrir en corto período de tiempo. 5) MSSP: Markov switched Poisson Process. 22 Antonio Hernández Moreno 1 0 0 0 2 , D1 (di , j ) . D0 m 0 Como por definición, D D0 D1 debe ser un generador infinitesimal, en este MAP las llegadas cambian entre m procesos de Poisson con tasas de llegada {λ1 ,, λ m } . Tras cada llegada el MAP puede cambiar a otro proceso de Poisson o permanecer en el mismo. Por ejemplo, 0 0 10 0 0 10 0 8 0 0 0 6 D0 ; D1 0 0 0 0 10 0 0 0 8 0 8 0 0 0 2 0 . 8 2 0 0 6) MMPP: Markov Modulated Poisson Process. En este caso D0 D Λ, D1 Λ , donde Λ es una matriz diagonal de enteros positivos. Las llegadas ocurren en los estados individuales y no en las transiciones entre estados (por ello, D es diagonal). De esta forma, las tasas de llegada son moduladas (Modulated) por una Cadena de Markov en Tiempo Continuo (CMTC) con generador D. Por ejemplo, 9 9 5 0 D ; D1 Λ . 3 3 0 6 Es decir, que tenemos unas tasas de llegada 5 y 6 para las fases 1 y 2 respectivamente. Los procesos MMPP son procesos MAPs con sólo un tipo de llegadas, que vienen impuestas por el proceso de Poisson. La flexibilidad para generar procesos de llegadas con características distintas es una de las principales razones por la que los procesos MAPs son usados extensamente en la práctica. Otras razones para este uso generalizado, son, tal y como se verá a lo largo de este documento, la tratabilidad analítica y numérica, y la flexibilidad en la modelización estocástica. Observación 3.2.1. Por la definición dada de MAP se pueden proporcionar las siguientes observaciones sobre el proceso estocástico {( N (t ), I (t )), t 0} . 23 Proceso de llegadas de Markov (MAP) 1) En el estado (n, i ) , la siguiente transición ocurre tras un tiempo distribuido exponencialmente, al igual que ocurre con la siguiente llegada desde el proceso de Poisson impuesto en el estado i. Además, el tiempo de permanencia en el estado (n, i ) , o lo que es lo mismo, el tiempo hasta un nuevo evento, ya sea una llegada o ya sea una transición, se distribuye exponencialmente con parámetro d 0, ( i ,i ) para n 0, i 1,, m . 2) Al final de su estancia en el estado (n, i ) , el proceso {( N (t ), I (t )), t 0} hará una transición al estado (n, j) con probabilidad d 0, (i , j ) i j, i, j 1,, m; o al estado n 1, j con probabilidad (d 0, (i ,i ) ) d1, (i , j ) (d0, (i ,i ) ) con para i, j 1,, m . Estas probabilidades muestran las importancia y la fácil descripción del MAP a través de su representación matricial, ya que en esa representación está toda la información necesaria del MAP. Por la definición dada de CMTC y estas observaciones indicadas, es fácil ver que {( N (t ), I (t )), t 0} es a su vez una CMTC, que nos lleva a poder formular la definición de MAP a partir de CMTC. Definición 3.2.2. Se define {( N (t ), I (t )), t 0} como una CMTC con espacio de estados 0,1, 2, x 1, 2, m con m siendo un entero positivo y definiendo su generador infinitesimal como D0 0 Q D1 0 D0 D1 0 . 0 D0 D1 Considerando que N(0) 0,{( N (t ), I (t )), t 0} se denomina MAP con representación matricial ( D0 , D1 ) . Acorde con la definición de CMTC, ( D0 , D1 ) debe satisfacer las condiciones dadas en la definición 3.2.1.deprocesos MAPs. Se observa que N (t ) es no decreciente formando un proceso de recuento. Esta definición permite llamar a {( N (t ), I (t )), t 0} MMCP (Markov Modulated Counting Process). 24 Antonio Hernández Moreno Se puede demostrar que para esta Cadena de Markov recién definida, el tiempo de permanencia en la fase i se distribuye exponencialmente con parámetro d ( i ,i ) , para i 1,, m , siendo D (d(i ,i ) ) D0 D1 . Esta no ha sido la última definición posible de MAP. Todavía se puede construir un MAP siguiendo otros puntos de vista. Para la siguiente definición se necesita introducir el ambiente probabilístico en el que se fundamenta. Sea n el tiempo entre la llegada (n 1) y la llegada n de un MAP con representación matricial ( D0 , D1 ) . Sea I n la fase inmediatamente después de la n-ésima llegada, es decir, I n I ( 1 2 n 0) . Ya que puede haber eventos sin llegadas entre llegadas consecutivas, en general, n puede no ser distribuido exponencialmente. Si N (t ) 0 las transiciones de la Cadena de Markov Q estará gobernada por D0 en (0, t ) . Así, P[ I (t ) j , N (t ) 0 | I (0) i] (exp( D0 ·t ))i , j , P[ I (t ) j,1 t | I (0) i] (exp( D0 ·t ))i , j . Para el proceso de Poisson, en un intervalo infinitesimal, la probabilidad de que haya un evento es proporcional a la longitud del intervalo, ·t y la probabilidad de haber dos o más eventos es o( ·t ) . El suceso {I1 j , 1 ·t / I (0) i} implica que al menos una llegada tiene lugar en (0, ·t ) , que sería la transición de i a j. Tenemos por tanto, P[( I1 j ),1 ·t / I (0)] d1(i , j ) ·t o( ·t ) Por la propiedad de Markov, dicho evento en el instante primero es equivalente a cualquier otro tipo de tiempo n. Por definición, {( I n , n ), n 0,1, 2,} es un proceso de renovación de Markov, hecho que da pie a la tercera definición de MAP que vemos a continuación. Definición 3.2.3. Suponiendo que las matrices ( D0 , D1 ) satisfacen las condiciones dadas en la definición 3.2.1 de procesos MAPs. Se define el proceso de renovación de Markov {( I n , n ), n 0,1, 2,} mediante t P {I n j , n t I n 1 i} ( exp D0 x dxD1 )ij , 0 25 Proceso de llegadas de Markov (MAP) y su correspondiente cadena de Markov en tiempo continuo {I (t ), t 0} con generador infinitesimal D D0 D1 . Se define N (0) 0 N (t ) {N (t ) n} { 1 2 n 1 t} ; t 0. El proceso {( N (t ), I (t )), t 0} se denomina MAP. Finalmente He (2010) introduce la siguiente definición. Definición 3.2.4.: Sea { i ,1 i m} números no negativos cuya suma es la unidad. Sean {d0(i , j ) , i j, i, j 1,, m)} y {d1(i , j ) , i, j 1,, m)} números no negativos con m entero finito positivo. Asumiendo que d0(i ,i ) d0(i ,1) d0(i ,i 1) d0(i ,i 1) d0(i ,m) d1(i ,1) d1(i ,i ) d1(i ,m) 0 para todo i = 1,…,m, definimos el proceso estocástico {( N (t ), I (t )), t 0} de la siguiente forma, 1) Definimos m·(2m 1) procesos de Poisson independientes con parámetros {d0(i , j ) , i j, i, j 1,, m)} y{d1(i , j ) , i, j 1,, m)} . Si alguno de esos parámetros vale 0, el Proceso de Poisson no tiene ocurrencias. 2) Sea I (0) dado por la distribución de probabilidad {i ,1 i m} , con N (0) 0 . 3) Si I (t ) i,1 i m, I (t ) y N (t ) permanecen igual hasta que el primer evento ocurra en los 2m 1 procesos de Poisson correspondiendo a {d0(i , j ) , i j, i, j 1,, m)} y {d1(i , j ) , i, j 1,, m)} . Si el siguiente evento ocurre desde el proceso de Poisson correspondiente a d0(i , j ) , la fase de la variable I (t ) cambia de i hacia j y N (t ) no cambia, j 1, , m; j i. Sin embargo, si la siguiente ocurrencia viene del proceso de Poisson correspondiente a d1(i , j ) la fase de la variable I (t ) cambia de i hacia j y N (t ) se incrementa en una unidad, es decir, ha ocurrido una llegada, j 1,, m. Se puede demostrar que: i) El tiempo de permanencia en {(n, i)} del proceso {( N (t ), I (t )), t 0} , se distribuye exponencialmente con parámetro {d0(i ,i ) , i 1,, m} ii) Que la probabilidad de que la nueva fase sea j y que no haya llegada es d 0( i , j ) . d 0( i ,i ) 26 Antonio Hernández Moreno iii) Que la probabilidad de que la nueva fase sea j y que sí haya una llegada d1( i , j ) es , dado que el estado activo es (n, i ) para d 0( i ,i ) i, j 1,, m; n 0,1, 2 iv) El tiempo de permanencia de {I (t ), t 0} en la fase i se distribuye por una distribución exponencial (d0(i ,i ) (d1(i ,i ) )) i 1,, m. de parámetro v) Sea D0 (d0(i , j ) ), D1 (d1(i , j ) ) . Se puede demostrar que {I (t ), t 0} es una CMTC con generador infinitesimal D D0 D1 . vi) {( N (t ), I (t )), t 0} es otra CMTC con generador infinitesimal dado por D0 0 Q D1 0 D0 D1 0 . 0 D0 D1 Por lo tanto, {( N (t ), I (t )), t 0} es un MAP con representación matricial ( D0 , D1 ) . Ésta es una interpretación intuitiva de los parámetros de los MAP y es muy usada en la modelización estocástica, dando una forma sencilla de simular MAP. No es objeto demostrar que las cuatro definiciones distintas vistas de MAP son equivalentes pero aportan distintas perspectivas. De hecho, resumiendo, podemos decir que la primera definición dada (Definición 3.2.1.) es una definición constructiva basada en las cadenas de Markov y en el proceso de Poisson. La segunda, (Definición 3.2.2.) es una macrodefinición basada en cadenas de Markov. La tercera (Definición 3.2.3.), en cambio, es una microdefinición basada en el proceso de renovación de Markov y por último la cuarta definición, recién vista, (Definición 3.2.4.) aporta una definición constructiva basada en los procesos de Poisson. A continuación vamos a mostrar algunos ejemplos de procesos MAPs. Ejemplo 3.2.2. Sea la CMTC {I (t ), t 0} con generador infinitesimal 3.5 3.5 D . 9 9 Es decir, se tiene una CMTC con dos estados, 1 y 2, donde el tiempo de permanencia en el estado 1 es una exponencial con parámetro 3,5 y el tiempo de permanencia en el estado 2 es una exponencial con parámetro 9. La probabilidad de que 27 Proceso de llegadas de Markov (MAP) estando la cadena en el estado 1 pase al 2, o que estando en el 2 pase al 1 una vez que se produce el salto es igual a 1. Analizamos el MAP que contabiliza una llegada cada vez que se produce un cambio de estado. A esta CMTC se le puede calcular su distribución estacionaria, resolviendo como es conocido el sistema de equilibrio junto a la condición de normalidad, ·D 0 ·e e, 8.5 3.5 , obteniendo como solución . 12.5 12.5 Como el proceso siempre salta de un estado al otro, siempre habrá una llegada en cada transición, y podemos definir por tanto N1 (t ) como en “nº de llegadas en (0,t]”. Con las definiciones vistas, es fácil determinar que {( N1 (t ), I (t )), t 0} es un MAP, donde N1 (t ) contabiliza el número de llegadas e I (t ) realiza el seguimiento de los estados de la cadena de Markov subyacente o inmersa. Si el estado inicial de {I (t ), t 0} está determinado, el MAP está bien definido. Como se vio en las definiciones, para representar un proceso necesitamos las razones de llegada. Para un MAP {( N1 (t ), I (t )), t 0} , las razones de llegada son exactamente las intensidades de transición entre los estados individuales. Así, en el ejemplo, si el proceso se encuentra en el estado 1, la razón de llegada al estado 2, que es la de salida de este estado es 3.5. Por el contrario, si el proceso se encuentra en el estado 2, la tasa de salida que es la de llegada al estado 1 vale 9. Con estos datos podemos definir la representación matricial del MAP de la siguiente forma: 3.5 0 0 3,5 D0 ; D1 . 9 0 9 0 Como se observa, en la diagonal de D0 se muestran las razones de salida de los estados individuales. Los ceros de D0 y D1 indican que no existe correspondencia entre llegadas y/o cambios de estado. Resumiendo, en D0 nos encontramos con las intensidades de transición sin llegadas (menos en su diagonal principal) mientras que en D1 no encontramos con las razones de transición con llegadas. 28 Antonio Hernández Moreno Esta representación matricial ( D0, D1 ) representará al MAP, y D D0 D1 describe los cambios de estado en la cadena de Markov subyacente, sin considerar las llegadas. Siguiendo con el análisis de {( N1 (t ), I (t )), t 0} , que acabamos de ver que es MAP, también es una CMTC con espacio de estados {0,1, 2, }x{1, 2} , y podremos calcularle su generador infinitesimal. En este caso valdrá, (0,1) (0, 2) 0 (0,1) 3,5 (0, 2) 9 0 Q 0 0 (1,1) (1, 2) 0 0 D0 D1 0 0 D0 D1 0 0 D0 D1 (1,1) (1, 2) (2,1) (2, 2) 0 9 3.5 0 0 0 0 0 3.5 0 0 3,5 0 9 9 0 . Cada una de las fases anteriores puede ser interpretada como sigue. La fase (n, i ) indica que han ocurrido n llegadas y la cadena se encuentra en el estado i. Así, se puede considerar un MAP en la modelización de un sistema de fiabilidad donde se analiza el número de fallos que tienen lugar cuando se cambia de estado. Mediante el producto de Kronecker el generador Q puede ser expresado como I ( D0 | D1 ) , siendo I la matriz identidad de orden infinito. Ejemplo 3.2.3. Siguiendo con el ejemplo anterior, ahora se añade la posibilidad de poder haber cambios de estado sin contabilizar como llegada. Sea {I (t ), t 0} una CMTC con dos estados, tal que, cuando cambia desde el estado 1 al 2, ocurre una llegada con probabilidad 0.2, y por tanto, la probabilidad de que no haya llegada en esa transición es 0.8. Paralelamente, cuando la CMTC cambia del estado 2 al 1, la probabilidad de que haya una llegada es 0.7, y de que no la haya 0.3. Sea N 2 (t ) =”nº de llegadas en (0,t]”. Entonces, {( N2 (t ), I (t )), t 0} es un MAP que analizamos a continuación. Si la cadena de Markov {I (t ), t 0} está en el estado 1, la tasa de transición total será 2.5, que puede descomponerse en dos partes según haya o no una llegada en el cambio (suponemos que no hay llegadas si no hay cambio de estado). Si hay llegada, la tasa de transición es 0.2 x3.5 0.7 mientras que si no hay llegada será 0.8x3.5 2.8 . 29 Proceso de llegadas de Markov (MAP) Análogamente para el caso del estado 2, obteniendo las matrices de la representación matricial del MAP 3.5 2.8 0 0.7 D0 ; D1 . 2.7 9 6.3 0 Los valores (2.8, 2.7, 0.7, 6.3) corresponden a los cambios de estado de la CM inmersa dependiendo de si hay o no llegadas. Como se puede ver, D D0 D1 no sufre modificaciones con respecto a la presentada en el Ejemplo 3.2.2.y de nuevo D0 0 Q D0 D1 0 . 0 D0 D1 D1 0 Ejemplo 3.2.4. Sea {I (t ), t 0} la CMTC introducida en los ejemplos anteriores. Si la cadena está en el estado 1, se define un proceso de Poisson con razón de ocurrencia igual a 4. Estas llegadas no van a acompañadas de un cambio de estado en la CM inmersa. Cuando la cadena de Markov transiciona al estado 2, el proceso de Poisson definido en el estado 1 queda no operativo. Si vuelve al estado 1 el proceso de Poisson vuelve a estar operativo. No existen llegadas cuando ocurre una transición al estado 2 ni desde el estado 2 al 1. Definimos el MAP {( N3 (t ), I (t )), t 0} con N 3 (t ) =”número de llegadas en (0,t]” Analizamos el comportamiento de los estados. ‐ Estado 1: el tiempo hasta la siguiente transición de la CM inmersa, denotada X 1 sin producir llegada se distribuye según una distribución exponencial de parámetro 2.5, y el tiempo hasta la siguiente llegada del proceso de Poisson, que denotamos Z1 será también exponencial de parámetro 4. Por lo tanto, aunando estos dos procesos, el tiempo hasta el siguiente suceso, sea llegada o sea transición será la variable aleatoria Min( X 1 , Z1 ) , que por propiedades de la distribución exponencial se distribuirá como otra distribución exponencial de parámetro 6.5, que es la razón total de cambio. Cuando se produzca el cambio de estado desde el estado 1, será una llegada con probabilidad 4 6.5 y será una transición sin llegada con probabilidad 2.5 6.5 . 30 Antonio Hernández Moreno ‐ Estado 2: en el estado 2 no se imponen llegadas de Poisson, siendo la razón total de cambios igual a 10, que es la intensidad de transición del estado 2 al 1, siempre sin llegadas. Visto el comportamiento de ambos estados se pueden deducir las componentes de la representación matricial del MAP como sigue, 2.5 4 2.5 4 0 D0 ; D1 10 10 0 0 Observamos como se ha ido complicando ligeramente la composición del MAP así como de su representación matricial. Aquí como novedad tenemos el valor d1(1,1) 4 , que como hemos visto es la tasa de llegadas del proceso de Poisson sin cambio de estado. Siguiendo con el análisis del MAP {( N3 (t ), I (t )), t 0} podemos calcular el generador infinitesimal del mismo, donde veremos que sigue con la misma estructura que los casos anteriores, 0,1 0,1 6,5 0, 2 10 Q 0 1,1 1, 2 0 D0 0 0, 2 1,1 1, 2 2,1 2, 2 2.5 10 0 4 0 6.5 0 0 2.5 0 0 4 0 0 0 0 10 10 0 0 D1 0 D0 D1 0 . 0 D0 D1 Ejemplo 3.2.5. Seguimos viendo ejemplos de MAP desde un punto de vista constructivista. Ahora, analicemos que ocurre en el caso de conjugar los dos últimos casos vistos. Sean los MAPs {( N 2 (t ), I (t )), t 0} y {( N3 (t ), I (t )), t 0} definidos en los ejemplos anteriores. Calculamos {( N 4 (t ), I (t )), t 0} donde N 4 (t ) N 2 (t ) N3 (t ) . Este ejemplo se analizará en capítulo 3.3.1.considerando el resultado para la superposición de MAPs. Tal y como se han definido los MAPs anteriores, N2 y N 3 , la suma de llegadas de ambos 31 Proceso de llegadas de Markov (MAP) procesos ocurren de la siguiente forma. Cuando la Cadena de Markov está en el estado 1 la razón total de eventos es 6.5. Si el estado 2 no es considerado, obtenemos un proceso de Poisson con razón de llegada 6.5 de donde: 4 . 6.5 b) Una transición desde el estado 1 al 2 con llegada con probabilidad 2.5 0.2 x 0.5 . 6.5 c) Una transición del estado 1 al 2 sin llegadas con probabilidad 2.5 0.8 x 2. 6.5 a) Se tiene una llegada con probabilidad Cuando la Cadena de Markov está el estado 2, la tasa total es igual a 10. Si el estado 1 no es considerado, se tiene un proceso de Poisson con razón de llegada igual a 2. O dicho de otra forma, cuando llega un evento se tiene que, a) Llegada y estado de permanencia en 2 con razón 0. b) Llegada y que el estado cambie a 1 es 7 /10 . c) No llegada y estado cambie a 1 es 3/10 . Aunque no se ha comentado, es obvio decir que {( N 4 (t ), I (t )), t 0} es un MAP pero también una CMTC con D0 0 Q 0 , 0 D0 D1 D1 D0 0 D1 siendo 2.5 4 2 4 0.5 D0 ; D1 . 10 3 7 0 Ejemplo 3.2.6.: Terminamos mostrando el comportamiento y las funcionalidades de los procesos MAPs a través del siguiente ejemplo donde se ponen en juego 3 estados y no 2 como en los ejemplos anteriores. Sea una CMTC {I (t ), t 0} donde 6 8 2 D 10 10 0 . 2 3 5 32 Antonio Hernández Moreno Es decir, se tiene una transición del estado 1 al 2, con probabilidad 2/8, y del 1 al 3 con probabilidad 6/8. Las transiciones del estado 2 al 1 ocurren con probabilidad 1, y no pueden haber transiciones del estado 2 al 3. Respecto al estado 3, cambiará con probabilidad 2/5 al estado 1, y al 2 con probabilidad 3/5. Definimos el MAP {( N5 (t ), I (t )), t 0} , donde: a) Estando en el estado 1: si la CM va al estado 2, no existen llegadas. Si la CM va a 3, hay una llegada con probabilidad 0.4. b) Estando en el estado 2: hay un proceso de Poisson con tasa 4 de llegadas. Si la CM va a 1, habrá una llegada con probabilidad 0.7. c) Estando en el estado 3: hay un proceso de Poisson con tasa 1 de llegadas. Si la CM va a 1, habrá una llegada con probabilidad 0.8. Y si va a 2, habrá una llegada con probabilidad 0.5. Sumando, la tasa total de los estados 1,2 y 3 son respectivamente 8+0, 10+4 y 5+1. Descomponiendo D en D0 , que como sabemos incluye las tasas en el caso de que no hubiera llegadas, y D1 que las incluye en el caso de que sí las haya, se tiene que 2 3.6 0 2.4 8 0 D 0 3 10 4 0 ; D1 7 4 0 . 0.4 1.6 1.5 1 1.5 5 1 Todos estos ejemplos, demuestran que los eventos con llegadas pueden ocurrir en los estados individuales según su proceso de Poisson y cuando la Cadena de Markov subyacente cambia de estado. De hecho, son las únicas formas de generar llegadas en los procesos MAPs. Resumiendo, en un MAP los eventos que pueden ocurrir son: i) transición entre los estados; ii) llegada sin cambio de estado; iii) transición con llegada. 3.3. PROPIEDADES DE LOS PROCESOS MAPS Una vez definidos los procesos MAPs a través de cuatro vertientes distintas, analizar las propiedades básicas de los mismos y ver ejemplos ilustrativos, debemos hacer hincapié en dos propiedades que justifican aún más el uso de los procesos MAPs en la modelización de sucesos reales. Tal y como hicimos en relación a los procesos de Poisson, analizamos la superposición de procesos MAPs y la descomposición de procesos MAPs, pero antes se deben introducir resultados acerca de la función generatriz de momentos que son necesarios. 33 Proceso de llegadas de Markov (MAP) Una de las conclusiones que a primera vista se ve sobre los procesos MAPs es que son CMTC, y por tanto, podemos estudiarlo como tales según la teoría de las Cadenas de Markov. Aprovechando la estructura de los MAPs y de las Cadenas de Markov se puede hacer un análisis más eficiente. Basado en probabilidades condicionadas y métodos de transformación que se presentan en este capítulo, se obtendrán en el capítulo 3.4. expresiones de medidas de funcionamiento a partir de la expresión de su función generatriz de momentos. Centrando el foco en el número de llegadas N (t ) , que es una variable aleatoria para un t fijo, se puede obtener la función media y varianza de N (t ) , donde se mostrará que la fase en la que se encuentra el proceso subyacente I (t ) juega un papel importante. Para un MAP {( N (t ), I (t )), t 0} con representación matricial ( D0 , D1 ) , podemos definir las probabilidades de transición, pi , j ( n, t ) P[ N (t ) n, I (t ) j / I (t ) i ] P ( n, t ) ( pi , j ( n, t )) mxm i, j 1, , m Estas probabilidades se pueden expresar matricialmente obteniendo la matriz P (n, t ) . Notar que P(0, 0) I ; P(n, 0) 0; n 1, 2 , donde pi , j (n, t ) es la probabilidad de que haya n llegadas en (0, t ] y que la Cadena de Markov subyacente esté en j en t, dado que la Cadena de Markov inicialmente en el estado i. Debemos recordar en este punto que el tiempo de permanencia en (n, i ) se distribuye exponencialmente dada la markovianiedad. Condicionando por el número de llegadas en un intervalo infinitesimal (t , t t ) , se obtiene que pi , j (n, t t ) pi , j (n, t )(1 d 0,( j , j ) ) t m pi ,k (n, t )·d 0,( k , j ) t k 1; k j m pi ,k (n 1, t )·d1,( k , j ) t o( ) A B C D . k 1 Es decir, se puede descomponer en cuatro términos la expresión de la probabilidad de que haya n llegadas en un intervalo infinitesimal en torno a t, donde A corresponde a que no haya llegadas, ni cambios de estado en el intervalo de tiempo (t , t t ) , B corresponde a que no haya llegadas y que la fase cambia del estado k al j en (t , t t ) , C a que haya una llegada y que la fase cambie del estado k al j en (t , t t ) (aunque podría darse). Por último, o( ) contiene todas las probabilidades de todos los eventos restantes. 34 Antonio Hernández Moreno Operando y tomando límites t 0, dpi , j ( n, t ) dt m pi , j ( n, t ) d 0,( j , j ) pi , k ( n, t )·d 0,( k , j ) k 1; k j m pi ,k (n 1, t )·d1,( k , j ) , k 1 que matricialmente puede expresarse como sigue, dP (0, t ) P (0, t )·D0 dt dP (n, t ) P (n, t )·D P (n 1, t )·D ; 0 1 dt n 1, 2, . Desde este resultado se puede ver la estructura matricial de la función generatriz de momentos de un MAP. Por definición, la función generatriz de momentos de N (t ) viene dada por P ( z, t ) P(n, t ) z n , z 0 * n 0 Desde las ecuaciones diferenciales anteriores, multiplicando por zn y sumando se tiene que dP(n, t ) n z P(n, t ) D0 z n P(n 1, t ) D1 z n 1 dt n 0 n 0 n 1 dP* ( z , t ) P* ( z , t ) D0 zP* ( z , t ) D1 P* ( z , t ) D0 zD1 . dt Por lo tanto, dado que P* ( z,0) I y que P(n, 0) 0 para n 1, 2, … se tiene que la función generatriz de probabilidades de un MAP viene dada por P* ( z, t ) exp[( D0 zD1 )t ] . NOTA. En el caso de un proceso de Poisson se tiene el mismo resultado de manera inmediata. El número de llegadas en (0, t ] depende del estado inicial. Por definición, el i-ésimo elemento de P* ( z, t )·e exp[( D0 zD1 )·t ]·e es la función generatriz de momentos del número de llegadas en (0, t ] dado que I (0) i . A través de siguiente expresión podemos 35 Proceso de llegadas de Markov (MAP) calcular los momentos de N (t ) dada la distribución inicial . La función generatriz viene dada por ·P* ( z, t )·e . 3.3.1. SUPERPOSICIÓN DE PROCESOS MAPS De igual forma que ocurría con los procesos de Poisson, los procesos MAPs pueden ser superpuestos y descompuestos, además con similar comportamiento al caso poissoniano. Teorema 3.3.1.1. Sean {( N1 (t ), I (t )), t 0} y {( N 2 (t ), I (t )), t 0} dos procesos MAPs con representaciones matriciales ( D0 , D1 ) y (C0 , C1 ) , independientes. Sea I (t ) ( I1 (t ), I 2 (t )) .Entonces {( N1 (t ) N 2 (t ), I (t )), t 0} es un MAP con representación matricial ( D0 I I C0 , D1 I I C1 ) . Es decir, la superposición de dos Procesos MAPs independientes es otro MAP cuya representación matricial se puede construir usando el producto de Kronecker. Demostración. He (2014) NOTA: La representación matricial del MAP puede expresarse mediante la suma de Kronecker quedando D0 C0 , D1 C1 . La comparación con los procesos de Poisson surge sola obteniendo un resultado similar, la superposición de este tipo de procesos mantiene la propiedad de clausura. Ejemplo 3.3.1.1. A continuación indicamos un ejemplo de superposición de procesos MAPs, con representaciones matriciales 9 0 8 1 D0 ; D1 , 1 1 0 0 4 1 0 3 C0 ; C1 . 2 7 2 3 Entonces, la representación matricial del proceso MAP resultante sería formada por las matrices: 36 Antonio Hernández Moreno 0 0 9 0 0 0 4 1 0 9 0 0 2 7 0 0 D0 C0 D0 I I C0 1 0 1 0 0 0 4 1 0 1 0 1 0 0 2 7 0 0 13 1 2 16 0 0 1 0 5 1 1 2 8 0 8 0 D1 C1 D1 I I C1 0 0 0 8 0 0 1 0 0 0 0 0 1 2 0 0 0 0 3 3 0 0 0 0 0 2 0 0 3 3 8 3 1 0 2 11 0 1 . 0 0 0 3 0 0 2 3 3.3.2. DESCOMPOSICIÓN DE PROCESOS MAPS Se presenta a continuación el teorema de descomposición de procesos MAPs. Proposición 3.3.2.1. Sea un MAP {( N (t ), I (t )), t 0} con representación matricial ( D0 , D1 ) . Este proceso se puede descomponer en n tipos de llegadas usando marcados independientes con probabilidad { p1 , p2 ,, pn } de tal forma que los procesos MAPs resultantes {( N j (t ), I (t )), t 0} tienen representación matricial ( D0 (1 p j )·D1 , p j ·D1 ), j 1, , n. Demostración. He(2014) Comparado con la descomposición de procesos de Poisson, visto en el capítulo 2.2.2., observamos un claro paralelismo, necesitando únicamente añadir en el proceso MAP los marcados independientes para poder descomponer los procesos y sus representaciones matriciales. 37 Proceso de llegadas de Markov (MAP) En el caso particular de dos tipos de llegadas se tiene el siguiente resultado. Teorema 3.3.2.1. Sea {( N (t ), I (t )), t 0} un MAP con representación matricial ( D0 , D1 ) . Supongamos que las llegadas pueden ser de dos tipos 1 y 2, ocurriendo las primeras con probabilidad p y las segundas con probabilidad 1 p . Entonces, se puede obtener un nuevo MAP con las llegadas marcadas de la siguiente forma, {( N1 (t ), N 2 (t ), I (t )), t 0} con representación matricial ( D0 , p·D1 , (1 p)·D1 ) . A partir de él, podemos descomponer el proceso inicial en los procesos MAPs {( N1 (t ), I (t )), t 0} y {( N 2 (t ), I (t )), t 0} con representaciones matriciales ( D0 (1 p)·D1 , p·D1 ) , ( D0 p·D1 , (1 p)·D1 ) respectivamente. Ambos procesos cuantifican las llegadas tipo 1 y tipo 2. Esto es así ya que, si hay una llegada asociada con tasa ( D1 ) i , j con probabilidad p esta llegada será marcada como de tipo 1 y su correspondiente tasa es p ·( D1 ) i , j , y complementariamente, con probabilidad 1 p será marcada como de tipo 2 y por tanto su tasa es (1 p )·( D1 ) i , j . En la primera de las situaciones, (1 p )·( D1 ) i , j es sumado a D0 hasta que no haya una llegada tipo 1. Demostración. He (2014) Hay que notar que puede que los procesos resultantes {( N1 (t ), I (t )), t 0} y {( N 2 (t ), I (t )), t 0} no sean independientes, ya que para ambos procesos marcados las futuras razones de llegada dependen de la fase de la Cadena de Markov inmersa. Ejemplo 3.3.2.1. Sea el proceso MAP {( N (t ), I (t )), t 0} con representación matricial 2 0 2 0 D0 ; D1 . Podemos descomponer el proceso en dos procesos con 2 5 2 1 marcados independientes con p1 1 / 3 y p2 2 / 3 obteniendo como resultado los siguientes procesos MAPs, {( N1 (t ), I (t )), t 0} con representación matricial, 2 3 2 C0 D0 D1 3 10 3 38 2 0 3 1 ; C1 D1 13 3 2 3 3 0 , 1 3 Antonio Hernández Moreno y {( N 2 (t ), I (t )), t 0} con representación matricial, 4 3 1 E0 D0 D1 3 8 3 4 0 3 2 ; E1 D1 14 3 4 3 3 0 . 2 3 3.4. MEDIDAS DE FUNCIONAMIENTO A continuación se van a calcular diversas medidas e introducir diversos resultados que nos ayuden a analizar el proceso MAP. A través de la función generatriz de momentos presentada en el capítulo 3.3. podemos obtener los siguientes resultados. Cálculo del número esperado de llegadas hasta un tiempo t Definimos la razón de llegadas estacionaria como D1e , donde es la distribución estacionaria de D, es decir, D 0; ·e 1. Nota: Si D es irreducible, es única y puede calcularse fácilmente. En el proceso de Poisson del que surgen los procesos MAPs, el cálculo de E[ N (t )] es inmediato aprovechando la propiedad que poseen de distribuirse probabilísticamente a través de una distribución de Poisson de parámetro t , tal y como vimos al tratar los procesos de Poisson. Ahora el cálculo no es tan directo pero se puede obtener igualmente el número esperado de llegadas a partir de la función generatriz de momentos generalizando el caso exponencial. Teorema 3.4.1.Sea la Cadena de Markov inmersa {I (t ), t 0} irreducible o lo que es lo mismo, D es irreducible. Entonces, el número esperado de llegadas hasta un tiempo t viene dado por E[ N (t )] t (exp( Dt ) I )( D e )1 D1e ; t 0 , siendo la distribución inicial asociada al proceso Q. Demostración. La demostración se basa en el cálculo a partir de la función generatriz de momentos. Puede verse en He (2014). Nota. Claramente el caso exponencial es un caso particular de los MAPs. 39 Proceso de llegadas de Markov (MAP) De igual forma podemos hacer con su varianza, donde en este caso no se obtiene una expresión tan fácilmente comparable con los procesos de Poisson. Teorema 3.4.2.: Asumiendo que la Cadena de Markov subyacente {I (t ), t 0} es irreducible o lo que es lo mismo, D es irreducible. Entonces, la función de varianza del número de llegadas hasta un tiempo t viene dada por Var[ N (t )] ( 2 2 2 D1 ( D e )1 D1e)t 2 D1 ( D e ) 1 ( exp ( Dt ) I )( D e ) 1 D1e . Demostración. De nuevo la demostración se obtiene desde la función generatriz de probabilidades y el resultado anterior. He (2014) Nota. En el caso exponencial se tiene que D 0, D0 , D1 quedando Var ( N (t )) ( 2 2 2 2 (e )1 e)t t . Calculamos ahora el índice de dispersión que pasamos a definir. Definición 3.4.1. Se define el índice de dispersión de N (t ) como Var[ N (t )] / E[ N (t )] . Para el proceso de Poisson, el número de llegadas en intervalos no solapados son independientes. En MAP sin embargo son correlados. Pero son condicionalmente independientes, es decir, si I (t ) es conocida el proceso de llegada en (t , t s ) es independiente en (0, t ] . Basado en esta independencia condicional, la correlación puede ser obtenida explícitamente para el caso estacionario. Sea N (t , t s) N (t s) N (t ), dado pij (n1 , t , n2 , s) P[ N (t ) n1 , N (t , s t ) n2 , I (t s) j | I (0) i] para i,j = 1,…,m y n1 , n2 0,1, 2 Para poder obtener otras expresiones de los momentos de un proceso MAP, necesitamos el cálculo de su función característica, con ella el cálculo de momentos es inmediato. Los dos siguientes resultados lo ilustran. Se define pi*, j ( z1 , t , z2 , s ) como la función generatriz de probabilidad conjunta de * * { pi , j ( n1 , t , n2 , s ); n1 , n2 0,1, 2 , i , j 1, , m} y P ( z1 , t , z2 , s ) ( pi , j ( z1 , t , z2 , s )) m*m . Teorema 3.4.3. P* ( z1 , t , z2 , s) exp(( D0 z1D1 )t )·exp(( D0 z2 D1 )s) 40 Antonio Hernández Moreno Demostración. A través de la propiedad de Markov de I (t ) . He (2014). Corolario 3.4.1. Suponiendo que la cadena de Markov inmersa {I (t ), t 0} es irreducible o lo que es lo mismo, D es irreducible. Entonces, dado I (0) tiene distribución ,se tiene que i) ii) E[ N (t , t s)] s E[ N (t ) N (t , t s )] 2ts D1 ( D e ) 1 (exp ( Dt ) I )· (exp ( Ds ) I )( D e ) 1 D1e Demostración. He (2014) 3.5. COMPARACIÓN DEL PROCESO DE POISSON Y MAP A lo largo de la descripción de las propiedades de los procesos MAPs ha quedado en evidencia un paralelismo claro con los procesos de Poisson de los que proviene. En el siguiente cuadro se comparan de forma resumida las características de ambos procesos, que han sido descritas con anterioridad. 41 Proceso de llegadas de Markov (MAP) PP MAP ( D0 , D1 ) Parámetro Tiempo entre llegadas Tasa de llegada exp( ) General distribution t t D1·e E[N(t)] Var[N(t)] Propiedades Falta de memoria Propiedad Cerrada Composición Superposiciones independientes ·t exp Dt I ( D e ) 1 D1 ·e ( 2 2 2 D1 ( D e ) 1 D1 e ) t 2 D1 ( D e ) 1 ( exp ( D e ) I )( D e ) 1 D1 e Falta de memoria parcial Aproximación a cualquier proceso de recuento Superposiciones independientes N1 (t ),, Nk (t ) Procesos Poisson {( N1 (t ), I (t )), t 0} y independientes con parámetros {( N (t ), I (t )), t 0} procesos MAPs, 2 1 ,, k respectivamente, entonces representaciones matriciales ( D0 , D1 ) y N1 (t ) N k (t ) es también un (C0 , C1 ) , independientes. Sea PP con parámetro 1 k . I (t ) ( I1 (t ), I 2 (t )) .Entonces {( N1 (t ) N 2 (t ), I (t )), t 0} es un MAP con Descomposición 42 matricial ( D0 I I C0 , D1 I I C1 ) Eventos de un proceso de Marcados independientes Poisson {N ( s), s 0} de dos { p1 , p2 ,, pn } ; Procesos MAPs tipos, A y B. Sea 0 1 la resultantes {( N j (t ), I (t )), t 0} probabilidad de que un evento representación matricial sea del tipo A y q 1 p la D (1 p j )·D1 , p j ·D1 , j 1, , n. probabilidad de que el evento 0 sea del tipo B. Los procesos {N A (s), s 0} ,y {N B (s), s 0} son procesos independientes de Poisson con parámetros p y (1 p) respectivamente. Cuadro 3.5.1. Comparación PP MAP representación CAPÍTULO 4 PROCESO DE LLEGADAS DE MARKOV EN GRUPO (BMAP) 4.1. INTRODUCCIÓN En este capítulo se van a introducir los procesos de llegadas de Markov por grupos (Batch Markovian Arrivals Process, BMAP). Los BMAP generalizan a los procesos MAPs considerando llegadas en grupos. Centrándonos en los BMAP, prestaremos atención a la interpretación de las razones de llegada. En un MAP con representación matricial ( D0, D1 ) , tal y como acabamos de definir y analizar en el capítulo 3, los elementos de D0 son interpretados como las razones de ocurrencia de un evento sin haber llegadas, y D1 lo mismo pero con llegadas. Una manera de generalizar los procesos MAPs es dividir las tasas de llegada en D1 y asignar diferentes significados a los mismos. Intuitivamente, un proceso de llegadas de Markov en grupo, BMAP, es un proceso estocástico que generaliza el proceso de Poisson estándar (así como otros procesos estocásticos) permitiendo grupos en las llegadas, tiempos entre llegadas dependientes, distribuciones de tiempos entre llegadas no exponenciales y tamaños de grupo correlacionados. Los procesos MAPs es un BMAP donde el tamaño del lote queda restringido a la unidad. Estos resultados pueden consultarse en el trabajo de Lucantoni (1991). Una de las aplicaciones de los procesos MAPs y más concretamente de los procesos BMAP está en que su estructura proporciona un análisis de sistemas usando métodos analíticos matriciales, pudiendo obtener sistemas en el campo de teoría de colas como MAP/G/1 en un versión básica y BMAP/G/1 en una versión ampliada. Para ampliar este resultado puede consultarse Lucantoni (1993). 43 Proceso de llegadas de Markov en grupo (BMAP) Introducimos los BMAP mediante el siguiente ejemplo. Ejemplo 4.1.1. Para el MAP ( D0, D1 ) definido en el capítulo 3, si una llegada ocurre, un cliente llega. En lugar de interpretar D1 como la razón del evento llegada de un cliente podríamos interpretarlo de la siguiente manera: i) D1 es la matriz de razones de un lote de 5 clientes; ii) Si una llegada ocurre según D1 con probabilidad 0.1, un cliente llega; con probabilidad 0.2, dos clientes llegan; con probabilidad 0.3, 3 clientes llegan; y con probabilidad 0.4, 4 clientes llegan. En este caso, podemos escribir las razones de llegada en cuatro matrices que reflejen el número de clientes en distintos grupos de llegadas: 0.1·D1 , 0.2·D2 , 0.3·D3 , 0.4·D4 . 4.2. DEFINICIONES De igual forma que se hizo en los procesos MAPs, vamos a introducir los procesos BMAPs a través de las 4 definiciones introducidas en el capítulo 3 viendo una equivalencia clara entre ambos tipos de procesos Definición 4.2.1. Sean {D1 , D2 , D3 ,, DN } matrices de orden m no negativas, D0 con valores no negativos fuera de su diagonal principal y con valores negativos en su diagonal, m un entero positivo y N entero positivo (pudiendo ser ). Sea D D0 D1 DN , un generador infinitesimal. Sea D0 (d0(i , j ) ); Dn (d n(i , j ) ) para n 1,, N . Entonces {D0 , D1 , D2 , D3 ,, DN } define un BMAP {( N (t ), I (t )), t 0} como sigue: i) Sea N (0) 0 . ii) La matriz generador D define una CMTC {I (t ), t 0} a través de D. iii) Para el estado i, con d n (i ,i ) 0 , define un proceso de Poisson con razones de llegada d n (i ,i ) con n 1, , N ; i 1, , m . El proceso de Poisson estará operativo si I t i y no operativo en otro caso. iv) Para i 1,, m , si I (t ) i y una llegada del proceso de Poisson con razón d n (i ,i ) entonces N (t ) se incrementa en n unidades, con 1 n N . v) Al final de cada permanencia en el estado i, con probabilidad d 0(i , j ) d ( i ,i ) , donde d(i ,i ) d0(i ,i ) d1(i ,i ) d N (i ,i ), I (t ) pasa del estado i al j y N (t ) no varía. Al 44 Antonio Hernández Moreno final de la permanencia en el estado i pasa al estado j incrementándose n d unidades N (t ) con probabilidad n (i , j ) para 1 n N ; i j . d ( i ,i ) Llamamos {D0 , D1 , D2 , D3 ,, DN } a la representación matricial del BMAP {( N (t ), I (t )), t 0} , donde {I (t ), t 0} es la Cadena de Markov subyacente del BMAP. Remarcamos que d1(i , j ) d N (i , j ), es la razón de un evento llegada de clientes si el proceso pasa de la fase i a la j. Si tal evento ocurre, con probabilidad d n (i , j ) d1( i , j ) d N (i , j ) el tamaño del lote es n, para 1 n N . A continuación se introducen distintos ejemplos poniendo de manifiesto la versatilidad del modelo. Ejemplo 4.2.1. 1. Proceso de Poisson Compuesto: D0 ( ), D1 (1 ),, DN (N ) con N i . Para un evento llegada el tamaño serán clientes con probabilidad i 1 2. Proceso de Poisson en grupo: si en el caso anterior la probabilidad de que las llegadas sean de tamaño n con probabilidad pn el proceso resultante es BMAP, con matriz generadora dada por p1 p2 0 p1 Q 3. 4. n . p1 pk pk 1 pk pk 1 . pk 2 4 1.6 4 0, 4 En un MAP tal que D0 , D1 se puede plantear una 10 3 6 0 división de para obtener un BMAP de la siguiente forma, 2 0.2 ˆ 2 0, 2 D̂1 , D2 . 3 0 3 0 Proceso de renovación Tipo Fase en grupo: Supongamos que las llegadas llegan acorde a un proceso de renovación { n : n 0} . El proceso de renovación tipo-fase es un proceso de renovación con tiempos entre renovaciones dados por Sn n 1 n , n 0 , tipo fase con representación ( ,T ) con T de orden m. 45 Proceso de llegadas de Markov en grupo (BMAP) El proceso de renovación tipo fase en grupo será BMAP con D0 T ; Dk pkT ; k 1; siendo T Te . 0 0 Se ha comentado en varias ocasiones la relación entre MAP y BMAP. En el siguiente resultado queda mostrada. Propiedad 4.2.1. Podemos ver claramente la relación existente entre MAP y BMAP a través de las siguientes propiedades aditivas. Si {D0 , D1 , D2 , D3 ,, DN } es un BMAP entonces, 1. {D0 , D1 D2 DN } es un MAP 2. {D Dk , Dk } es un MAP para cualquier k. Demostración. Al lector. Sea {( N (t ), I (t )), t 0} un proceso estocástico BMAP con espacio de estados {0,1, 2,}x{1, 2,, m}. Como sabemos la variable N (t ) es creciente en t, pudiendo en un solo salto crecer a lo sumo N unidades. De forma similar al caso general MAP, {( N (t ), I (t )), t 0} es una Cadena de Markov en Tiempo Continuo (CMTC) y por tanto tenemos abierta la vía análoga al MAP para la definición a través de la CMTC. Definición 4.2.2. Sea {D0 , D1 , D2 , D3 ,, DN } tal que satisface las condiciones dadas en la definición 4.2.1.. Entonces, un BMAP (MAP en grupo) puede definirse como una CMTC {D0 , D1 , D2 , D3 ,, DN } con N (0) 0 y generador infinitesimal D0 0 Q D1 D0 D2 DN D1 DN 1 D0 D1 DN DN 1 . DN Para un BMAP, se define el proceso de renovación de Markov {( I n , J n , n ), n 0,1, 2,} donde I n es la fase justo después de la n-ésima llegada (grupo), J n es el tamaño del n-ésimo lote y n es el tiempo entre llegadas, concretamente entre las llegadas n y n1. {( I n , J n , n ), n 0,1, 2,} satisface que para x 0, k 1,, N 46 Antonio Hernández Moreno x P( I n j; J n k , n x | I n1 i) exp( D0t )dtDk 0 i , j Definición 4.2.3. De forma paralela a las definiciones de un MAP, podemos seguir construyendo el caso BMAP. Asumiendo que {D0 , D1 , D2 , D3 ,, DN } satisface las condiciones de la primera definición BMAP y sea I (t ) la fase de la CMTC con generador infinitesimal D D0 D1 DN en un tiempo t. Definimos el proceso de renovación de Markov {( I n , J n , n ), n 0,1, 2,} usando la definición anterior siendo {N (t ) k} n 0 { 1 n t , J1 J n 1 k J1 J n } . En estas condiciones {( N (t ), I (t )), t 0} es un BMAP. Los MAP, BMAP y distribuciones tipo fase están relacionados dada su estructura inmersa markoviana. El siguiente ejemplo muestra un primer resultado. Ejemplo 4.2.2. En un BMAP, si I (t ) tiene distribución entonces la distribución del tiempo hasta la primera llegada después de un tiempo t es tipo fase con representación PH ( , D0 ) . De igual forma, la distribución del tiempo hasta la primera llegada de un lote de tamaño k, después de un tiempo t es PH ( , D Dk ). Definición 4.2.4. Como en el caso MAP, hay una cuarta definición de BMAP, que es una generalización de la vista en MAP. Sea { i ,1 i m} números no negativos cuya suma es la unidad. Sean {d0(i , j ) , i j, i, j 1,, m)} y {dn(i , j ) , i, j 1,, m)} números no negativos con m entero finito positivo y n 1, , N . Asumiendo que d 0( i ,i ) d 0( i ,1) d 0( i ,i 1) d 0( i ,i 1) d 0( i ,m ) d1( i ,1) d1( i ,i ) d1( i ,m ) d n ( i ,1) d n ( i ,i ) d n ( i ,m ) 0 , para cualquier i= 1,…, m. Se define el proceso estocástico {( N (t ), I (t )), t 0} como sigue. 1) Sean m·(( N 1)m 1) procesos de Poisson independientes con parámetros {d0(i , j ) , i j, i, j 1,, m} y {d n(i , j ) , i, j 1,, m; n 1,, N} . Si alguno de esos parámetros vale 0, el proceso de Poisson no tiene eventos. 2) I (0) viene dado por la distribución inicial de probabilidad { i ,1 i m} , con N (0) 0. 47 Proceso de llegadas de Markov en grupo (BMAP) 3) Si I (t ) i,1 i m, I (t ) y N (t ) permanece igual hasta que ocurre el primer evento en los ( N 1)m 1 procesos de Poisson correspondientes a {d0(i , j ) , i j, i, j 1,, m} y {dn (i , j ) , i, j 1,, m; n 1,, N} . Si el siguiente evento viene del proceso de Poisson correspondiente a d0(i , j ) la fase de la variable I (t ) cambia de i a j y N (t ) no sufre cambio, j 1, , m; j i. Sin embargo, si el siguiente evento viene del proceso de Poisson correspondiente a dn(i , j ) la fase de la variable I (t ) cambia de i hacia j y N t se incrementa en n unidades, es decir, han ocurrido n llegadas, j 1,, m y 1 n N . Se demuestra que i) El tiempo de permanencia en {(n, i)} del proceso {( N (t ), I (t )), t 0} , se distribuye exponencialmente con parámetro d 0,( i ,i ) , para i 1, , m . ii) La probabilidad de que la próxima fase sea j y que no haya llegada es d 0( i , j ) , dado que el estado actuales (n, i); i j, i, j 1,, m y n 0,1, 2 d 0( i ,i ) iii) La probabilidad de que la nueva fase sea j y que haya k llegadas es d k (i , j ) , dado que el estado actuales (n, i ) para d 0( i ,i ) i, j 1,, m; n 0,1, 2.. y k 1,, N . iv) El tiempo de permanencia de {I (t ), t 0} en la fase i se distribuye según una distribución exponencial de parámetro d0(i ,i ) (d1(i ,i ) ) (d2(i ,i ) ) (dn(i ,i ) )) i 1,, m . v) Sea {I (t ), t 0} D0 (d0(i , j ) ), Dk (dk (i , j ) ) . Se demuestra que {I (t ), t 0} es una CMTC con generador infinitesimal D D0 D1 Dk . vi) {( N (t ), I (t )), t 0} es una CMTC con generador infinitesimal dado por D0 0 Q D1 D0 D2 DN D1 DN 1 D0 D1 DN DN 1 . DN 4.3. PROPIEDADES DE LOS PROCESOS BMAPS Y MEDIDAS DE FUNCIONAMIENTO En la siguiente sección se van a calcular distintas medidas de funcionamiento de los procesos BMAPs así como ver ciertas propiedades de los mismos. Para ello, 48 Antonio Hernández Moreno comenzamos calculando las expresiones de la función generatriz de momentos y de su esperanza, pues estos resultados aparecen en diversas propiedades. Para analizar el proceso de recuento {N (t ), t 0} de un BMAP y obtener las primeras medidas de funcionamiento se definen las siguientes probabilidades de transición { pij ( n , t ), i , j 1, , m} , P(n, t ) ( pij (n, t ))mxm P[ N (t ) n; I (t ) j / I (t ) i] . Las ecuaciones diferenciales para su cálculo se pueden obtener de forma análoga a como se obtuvieron para el caso MAP en el capítulo 3. m pij (n, t t ) pij (nt )·(1 ( d 0( jj )) · t pik (n, t )d 0( kj ) · t k 1 k j Min ( N , n ) m p ik l 1 (n 1, t )·dl ,( kj ) · t o( t )) k 1 dP(n, t ) P(n, t )·D0 P(n 1, t )·D1 P[n Min( N , n), t ]·DMin ( N ,n ) dt La interpretación de estas expresiones es clara, ya que P(n i, t ) Di es la matriz de transiciones que hay entre n i clientes en el sistema en un tiempo t, y los i que llegan en t. En consecuencia, habrá n i i n clientes tras un tiempo t. Siguiendo pasos similares a los realizados para el caso MAP, se obtiene la función generatriz de probabilidades. El siguiente teorema muestra el resultado. Teorema 4.3.1. La función generatriz de probabilidades de un BMAP con P (n, t ) definido anteriormente viene dado por P* ( z, t ) P(n, t ) z n exp[( D0 zD1 z 2 D2 z N DN )t ] , n 0 si notamos D0 zD1 z 2 D2 z N DN D* ( z ) entonces P* ( z, t ) exp[ D* ( z )t ] . Demostración: He (2014) La interpretación del resultado anterior es intuitiva. En la expresión, z k está relacionado con Dk , donde Dk es la matriz de razones de llegadas de grupos de tamaño k. 49 Proceso de llegadas de Markov en grupo (BMAP) D* ( z) puede considerarse como la función generatriz de las razones del número de clientes que llegan por unidad de tiempo, y por tanto su exponencial es la función generatriz de probabilidad del número de clientes llegados en [0, t ]. Conocida la función generatriz dada en el resultado anterior, se pueden calcular distintas medidas del proceso BMAP. La expresión de E[ N (t )] en los procesos BMAPs es dada por el siguiente resultado. Teorema 4.3.2. Sea {I (t ), t 0} una CMTC irreducible, es decir, D es irreducible. Dada α la distribución inicial, se tiene que N E[ N (t )] t (exp( Dt I )( D e ) 1 jD j e ); t 0; j 1 donde y es la distribución estacionaria e inicial de D respectivamente y N j 1 jD j e . Demostración. He (2014) NOTA. Este resultado generaliza el caso MAP donde se considera N 1. La interpretación de la razón de llegada estacionaria viene dada por la expresión P * ( z , t ) z e t . z 1 La razón de llegada de grupos (que no el número total de llegadas) es dado por N ˆ (D j )e, y concretando aún más, la tasa de llegada de grupos de tamaño j es j 1 j D je . Los procesos BMAP mantienen unas similitudes en cuanto a sus propiedades con los procesos MAPs. Analizamos a continuación los principales resultados. El siguiente teorema muestra la potencia de los procesos BMAPs. Esta clase de procesos es densa en el conjunto de los procesos de llegadas, de forma que cualquier proceso de llegadas puede ser aproximado tanto como se quiera mediante un BMAP. Teorema 4.3.3. Cualquier proceso de llegada estocástico puede ser aproximado por un BMAP. 50 Antonio Hernández Moreno Demostración. Asmussen y Koole(1993) Comentario. Casi todos los resultados aportados anteriormente para los MAP pueden generalizarse para los BMAP. Este resultado, junto con el teorema de Asmussen y Koole (1993) advierten de la importancia y gran aplicabilidad en la modelización estocástica que obtenemos al usar procesos BMAPs, ya que numerosas situaciones reales pueden ser aproximadas a través de ellos. Teorema 4.3.4. Para cualquier distribución inicial se tiene que E[ N (t )] lim . t t La relación entre MAP y BMAP queda de nuevo expuesta a través del siguiente resultado. Teorema 4.3.5. Sea X PH ( , T ) . Para un BMAP el número de llegadas en [0, X ] tiene función generatriz de probabilidad 1 N ( ) I (( D0 I I T )) 1 z k ( Dk I ) (( D0 I I T )) 1 (e T 0 ) . k 1 Llegado a este punto, durante la definición en el capítulo 3.3. dedicado a los procesos MAPs, analizamos las propiedades de superposición y descomposición de procesos MAPs bajo ciertas condiciones. Analizamos estas propiedades para los procesos BMAPs. 4.3.1. SUPERPOSICIÓN DE PROCESOS BMAPS Como ocurrió en el caso de los procesos MAPs, una de las propiedades más interesantes y de más utilidad de los procesos BMAPs, tal y como ocurría en los procesos MAPs, es que la superposición de procesos BMAPs es igualmente BMAP. Este resultado queda demostrado en el siguiente teorema. Teorema 4.3.1. Sean los procesos BMAPs independientes ( D1 , D2 ,, DN ) de orden m1 y (C1 , C2 ,, CM ) de orden m2 . El proceso de superposición es también un BMAP con representación matricial D0 I I C0 , Dn I I Cn ; n 1, 2, , es decir, D0 C0 , Dn Cn , n 1, 2, 51 Proceso de llegadas de Markov en grupo (BMAP) Demostración. Cordeiro and Kharoufch (2012) Como se observa el resultado es muy similar al caso de los procesos MAPs, pero ampliada al trabajar con una representación matricial de mayor orden, manteniendo la clausura como propiedad. 4.3.2. DESCOMPOSICIÓN DE PROCESOS BMAPS De igual forma interesa estudiar qué ocurre en el caso de descomposición de procesos BMAPs. Al igual que en el caso de la descomposición del proceso de Poisson y de los procesos MAPs, existen varias formas de proceder al marcado, por ejemplo, marcado grupal, marcado individual,…, de los sucesos de llegada. A partir del método elegido se obtienen las expresiones de los procesos de llegada de Markov resultantes, siguiendo el camino abierto en el caso de procesos MAPs. Proposición 4.3.2.1. Sea {( N (t ), I (t )), t 0} un BMAP con representación matricial {D0 , D1 , D2 , D3 ,, DN } .Se puede descomponer el proceso BMAP en n tipos de llegadas usando marcadores independientes con probabilidades { p1i ,, pni } i 1, , N . Así, los procesos {( N j (t ), I (t )), t 0} son procesos BMAPs con representación matricial n D 0 (1 p ji ) Di , p ji Di para j 1,, n ; i 1,, N . i 1 Demostración. Cordeiro and Kharoufch (2012) Nota. El paralelismo que se observa en la descomposición de los procesos BMAPs comparado con los procesos MAPs es total, con la única y lógica diferencia de la representación matricial distinta que poseen los BMAPs al tener que trabajar con grupos. 52 CAPÍTULO 5 PROCESO DE LLEGADAS DE MARKOV MARCADAS (MMAP) 5.1. INTRODUCCIÓN Los procesos de llegada de Markov con llegadas marcadas (MMAP) son un paso más en el ambiente de generalización de los procesos MAPs que hemos llevado a cabo al obtener los BMAP. Ahora se trata de generalizaciones de los procesos BMAPs con diferentes tipos de llegadas, clientes, ítems… La idea es asignar diferentes interpretaciones de eventos según sean las razones de llegada. Para introducir los MMAP definimos un conjunto de índices C 0 que distinguen los distintos tipos de llegada. Comenzamos con distintos ejemplos que motivan el capítulo que se va a desarrollar. Ejemplo 5.1.1.En un problema MMAP los elementos de C0 pueden ser cualquier cosa de interés en modelización estocástica. 1) C 0 {hombre, mujer ,{hombre, mujer , niño}} donde hay tres elementos. C 0 { A, B, AA, AB, BA, BB, ABB, BAB} donde hay dos tipos de clientes, A y B, que pueden llegar individualmente (dos primeros casos), por parejas (siguientes 4 casos), o por tríos, considerando además el orden de llegada. 3) C 0 { A, AA, AAA,, AAA AAA} donde sólo habría un tipo de cliente pero en grupo. En este caso el conjunto de índices nos llevaría a la definición de BMAP. 2) 53 Proceso de llegadas de Markov marcadas (MMAP) 5.2. DEFINICIONES Hemos comentado que un proceso MMAP es una generalización de los procesos BMAPs y MAP. Veamos que las 4 definiciones vistas para esos casos, con ligeras modificaciones tienen vigencia en los procesos MMAP. Definición 5.2.1. Sea C 0 un conjunto de índices. Sean { Dh : h C 0 } matrices no negativas, con D0 una matriz con elementos no negativos fuera de la diagonal principal y negativos en dicha diagonal. Sea D D0 D un generador infinitesimal de orden h hC 0 m, siendo m un entero positivo. Sea D0 (d0(i , j ) ), Dh (dh (i , j ) ) para h C 0 . Entonces {D0 , Dh : h C 0 } define un MMAP de la siguiente forma {N h (t ), h C 0 , I (t ), t 0} 1) Nh (0) 0, h C 0 2) La matriz D define una CMTC {I (t ), t 0} 3) Para una fase i con d h ( i ,i ) 0 , se define un proceso de Poisson con tasa de llegada d h ( i ,i ) , para h C 0 ,1 i m . El proceso de Poisson estará operativo si I (t ) i . En otro caso está no operativo. 4) Para 1 i m , h C 0 , si I (t ) i y hay una llegada del proceso de Poisson d h ( i ,i ) , entonces N h (t ) se incrementa en 1 unidad. 5) Al final de cada permanencia en el estado i, con probabilidad d 0( i , j ) d ( i ,i ) , I (t ) pasa del estado i al j y N h (t ) se mantiene igual, es decir, sin llegadas. probabilidad d h (i, j ) d ( i ,i ) Con , I (t ) pasa del estado i al j y N h (t ) se incrementa en una unidad, y otra N u (t ) , con 1 i m , u C 0 , u h , permanece igual sin llegadas. A { D0 , D h : h C 0 } se le llama representación matricial del MMAP {N h (t ), h C 0 , I (t ), t 0} y {I (t ), t 0} es la Cadena de Markov subyacente. Ejemplo 5.2.1. Procesos de entrada y salida en colas de Markov. Las colas de Markov se describen por cadenas de Markov de parámetro continuo. Para colas de capacidad finita, podemos etiquetar las transiciones correspondientes a una llegada como a, aquellas correspondientes a una salida por d. El conjunto de índices asociado al proceso 54 Antonio Hernández Moreno MMAP C 0 ahora estará formado por los elementos a y d y la matriz de tasas de transición D estará formada lógicamente por la suma de las matrices D0 , Da y Dd . Los procesos MMAP son usados frecuentemente modelizando procesos de entrada de sistemas estocásticos con muchos tipos de asuntos (por ejemplo, clientes o pedidos). En telecomunicaciones, por ejemplo, una red multiservicio provista de servicios de voz, datos y videos. La naturaleza de la información transmitida desde esas fuentes es radicalmente distinta. Una formulación uniforme para describir la entrada de procesos mientras cada fuente es todavía distinguible será útil para el análisis de la influencia de la información de cada fuente en el sistema. En fabricación, los pedidos de varios artículos son comunes en la práctica. Los MMAP pueden usarse para modelizar los procesos de demanda de los niveles de los artículos de modo que un análisis del inventario puede llevarse a cabo en términos de artículos individuales mientras las correlaciones de los distintos artículos se consideran. Definición 5.2.2. Sean { D0 , Dh : h C 0 } satisfaciendo las condiciones de la definición anterior de MMAP. Definimos la CMTC {N h (t ), h C 0 , I (t ), t 0} con las razones de transición dadas por { D0 , Dh : h C 0 } tal que cada Dh corresponde al incremento en una unidad de N h (t ) para el h C 0 correspondiente. En este caso, la CMTC {N h (t ), h C 0 , I (t ), t 0} es un MMAP. Para un MMAP se define un proceso de renovación de Markov {( I n , J n , n ), n 0,1, 2,} donde I n es la fase justo después de la n-ésima llegada, J n es el tipo del n-ésimo llegada y n es el tiempo entre llegadas, concretamente entre las llegadas n y n1. Así, x P[ I n j, J n h, n x | I n1 i] exp( D0t )dtDh , 0 i , j que prácticamente es la misma expresión vista en BMAP cambiando el significado y grafía de Dk por el Dh actual. Definición 5.2.3. Sea { D0 , Dh : h C 0 } satisfaciendo las condiciones de la definición inicial de MMAP. Sea I (t ) la fase de la CMTC definida por D en t. Sea 55 Proceso de llegadas de Markov marcadas (MMAP) { N h (t ) n} { 1 k t , L{ J1 h} L{ J 2 h} L{ J k h} n L{ J1 h} L{ J 2 h} L{ J k 1 h}} k 0 donde L{} es la función indicadora. En tales condiciones {N h (t ), h C 0 , I (t ), t 0} es un MMAP. La familia de MMAPs es versátil. Así, añadiendo fases y asignando razones de transición de forma adecuada, una amplia gama de procesos de llegadas con especiales características pueden ser construidos como MMAPs. Veamos algunos ejemplos. Ejemplos 5.2.2. 1) Llegadas cíclicas. Si 1 y 2 llegan cíclicamente. 0 0 4 0 0 4 D0 ; D1 ; D2 . 0 7 0 0 7 0 2) Individual frente a grupo. Cada llegada de tipo 2 es acompañada de una llegada de tipo 1. 0 1 10 0 9 0 D0 ; D1 ; D2,1 . 0 5 0 4 1 0 4) Tras Tipo 2 sigue llegada tipo 1. 0 0 5 0 3 2 D0 ; D1 ; D2,1 . 0 10 0 0 8 0 5) Pedidos en grupos individuales. 5 0 4 0 0 1 D0 ; D1 ; D1,2,1 y 0 10 0 9 1 0 5 0 4 0 0 1 D0 ; D311211 ; D1213312 si los pedidos sin grupo ocurren. 0 10 0 9 1 0 Definición 5.2.4. Como en el caso MAP y BMAP, hay una cuarta definición de MMAP, que es una generalización de la vista en los anteriores tipos de procesos. Sea {i ,1 i m} números no negativos cuya suma es la unidad. Sean {d0(i , j ) , i j, i, j 1,, m)} y {d h (i , j ) , i, j 1, , m, h C 0 } números no negativos con m 56 Antonio Hernández Moreno entero finito positivo. Asumiendo que d 0( i ,i ) m m d 0(i , j ) d h (i , j ) 0 i 1, , m j 1; j i h C 0 j 1 .Se define el proceso estocástico {N h (t ), h C 0 , I (t ), t 0} como sigue 1) Se definen procesos de Poisson independientes con parámetros {d0(i , j ) , i j, i, j 1,, m)} y {d h (i , j ) , i, j 1, , m, h C 0 } . Si alguno de esos parámetros vale 0, el proceso de Poisson no tiene eventos. 2) I (0) viene dado por la distribución de probabilidad inicial {i ,1 i m} , con N h (0) 0; h C 0 . 3) Si I (t ) i,1 i m, I (t ) y {Nh (t ); h C 0 } permanecen igual hasta que el primer evento ocurra en los procesos de Poisson correspondiendo a {d0(i , j ) , i j, i, j 1,, m)} y {d h (i , j ) , i, j 1, , m, h C 0 } . Si el siguiente evento viene del proceso de Poisson correspondiente a d0(i , j ) la fase de la variable I (t ) transiciona de i hacia j y {Nh (t ); h C 0 } no cambia, j 1, , m; j i. Sin embargo, si el siguiente evento viene del proceso de Poisson correspondiente a dh(i , j ) la fase de la variable I (t ) cambia de i hacia j y {Nh (t ); h C 0 } se incrementa en una unidad o en un número preespecificado (tamaño del grupo) en su grupo h y {Nl (t )} se mantiene igual con l h, l C 0 , h C0 . Además se demuestra que, i) {I (t ), t 0} es una CMTC con generador infinitesimal dado por D D0 D . h hC 0 ii) {N h (t ), h C 0 , I (t ), t 0} es un MMAP con tasas de transición {D0 , Dh , h C 0 } . 5.3. PROPIEDADES Las llegadas de un proceso MMAP, siendo de diferentes tipos, son útiles para conocer cómo distinguirlas o para examinar cuando la llegada de un cierto tipo ocurre. También es útil para ver cómo los procesos de llegada de un tipo especial afectan al comportamiento de los procesos N all (t ) (Procesos descritos en He (2014) y Neuts 57 Proceso de llegadas de Markov marcadas (MMAP) K (1998)) , N all (t ) N k (t ) . k 1 1. Tipos de llegada: Consideramos la etiqueta de una llegada, la etiqueta de la última llegada antes del tiempo t, o la etiqueta de la primera llegada después de un tiempo t. Hay tres modos de observar las llegadas. Sea C 0 {h1 , , hn0 } donde n0 es un entero finito positivo. Sea L(t ) dada por la etiqueta de la última llegada antes de un tiempo t y sea J (t ) componente de un proceso de renovación de Markov {( J n , Ln , n ), n 0} (descrito en He (2004); Neuts(1998)). En este caso ( L(t ), J (t )) es un proceso de Markov con generador infinitesimal Dh0 D0 Dh1 Q . D D0 Dh0 h1 Más resultados sobre los procesos MMAP vienen al considerar la distribución estacionaria. Teorema 5.3.5. Se tienen los siguientes resultados: i. Backwardlooking: La probabilidad de que la última llegada antes de un tiempo arbitrario t es marcada por h es dada por Dh D01e, h C 0 . ii. Fordwardlooking: La probabilidad de que la primera llegada después de un tiempo arbitrario t es marcada por h es dada por D01Dhe, h C 0 . iii. Para la llegada: la probabilidad de que una llegada arbitraria sea de tipo h λ *h viene dada por * , donde λ *h Dh e, h C 0 y θ la distribución estacionaria λ asociada a la CMTC con generador D. Demostración. He (2004); Neuts (1998) 2. Procesos de finalización: Consideremos un tiempo de parada de {J (t ), L(t ), N (t ), t 0} de un MMAP. Un proceso de finalización está definido como un proceso estocástico el cual es idéntico al MMAP antes de y termina se en J ( ) tras .Para el proceso de finalización sea J ( t ) la fase en t, y el vector N (t ) el número de llegadas de los diferentes tipos en t. Así: 58 Antonio Hernández Moreno J (t ) si t J ( t) J ( ) si t N (t ) si t N ( t) N ( ) si t Específicamente, si tiene distribución tipo fase con representación ( , T ) , podemos definir MMAP* como superposición de MMAP y del proceso de renovación tipo fase con tiempos entre llegadas . El MMAP* tiene K+1 tipos de ítems y matrices con coeficientes D0 T , Dh I , h C 0 , I Te . 5.3.1. PROPIEDADES DE SUPERPOSICIÓN Y DESCOMPOSICIÓN DE MMAP Como es sabido, las propiedades sobre la superposición y descomposición de procesos son de gran interés. Vemos estas propiedades a través de los siguientes resultados. Teorema 5.3.1.1. (Composición de MMAP) Un proceso estocástico T (t ) es una K Nk (t ) composición de MMAP si T (t ) vk ,n donde {N1 (t ),, N K (t )} son procesos de k 1 n 1 recuento de un MMAP con C {1, 2,, K } y {vk , n 1 k K , n 1} . Si derivamos la 0 transformada de Laplace-Stietjes de T (t ) para los siguientes casos: 1. {vk , n , n 1} son secuencias de variables aleatorias independiente e idénticamente distribuidas, para1 k K , las cuales son independientes de cada una de las otras e independiente del MMAP. 2. La secuencia {vk , n ,1 n } tienen tiempos entre llegadas sucesivos de un MAP con representación (C0 k , C1k ) de orden mk , para 1 k K . Al igual que se analizó para el capítulo anterior, los MMAPs también pueden descomponerse y superponerse como en los modelos anteriores. Teorema 5.3.1.2. (Superposición de procesos MMAPs) Sean los procesos MMAPs independientes ( D0 , Dh : h C 0 ) de orden m1 y (C 0 , C h : h C 0 ) de orden m2 . El proceso de superposición es también un MMAP con representación matricial D0 I I C0 , Dh I I Ch , h C 0 , es decir, D0 C0 , Dh Ch , h C 0 . 59 Proceso de llegadas de Markov marcadas (MMAP) Teorema 5.3.1.3. Adelgazamiento de MAP. Sea un MAP con representación ( D0 , D1 ) . Después de un tiempo exponencial con parámetro λ, la siguiente llegada es marcada como de tipo 2. Las llegadas durante el tiempo exponencial son de tipo 1. Justo después de la llegada tipo 2 se reinicia el tiempo exponencial. El proceso de llegada resultante es MMAP con representación matricial D I C0 0 0 I 0 0 0 ; C2 D 0 0 1 D1 ; C1 D0 0 Demostración: He (2014) Teorema 5.3.1.4. Sea {N h (t ), h C 0 , I (t ), t 0} un MMAP con representación matricial { D0 , Dh : h C 0 } . Se puede descomponer el proceso MMAP en n tipos de llegadas usando marcadores independientes con probabilidades { p1i ,, pni } i C 0 . Así, los procesos {N j (t ), I (t ), t 0} para j=1,…,n son procesos MMAPs con representación matricial n 0 D 0 (1 p ji ) Di , p ji Di para j 1,, n ; i C . i 1 5.4. MEDIDAS DE FUNCIONAMIENTO Como se ha realizado en capítulos anteriores, se van a analizar algunas medidas asociadas a los procesos MMAPs. Estudiamos en primer lugar algunas funciones de interés como el número de llegadas en (0,t]. Consideramos pij ((nh , h C 0 ), t ) P[ I (t ) i, Nh (t ) nh , h C 0 / I (0) i] , P (( nh , h C 0 ), t ) / I (0) i ) ( pij (( nh , h C 0 ), t )) , P* (( zh , h C 0 ), t ) nh 0, hC 0 D* ( zh , h C 0 ) D0 P (( nh , h C 0 ), t ) zh nh , z D , z h hC 0 60 hC 0 h h 1 ,h C0 . Antonio Hernández Moreno Para obtener medidas de funcionamiento es necesario determinar la función generatriz de probabilidades conjunta, la cual viene dada en el siguiente resultado. Teorema 5.4.1. Para un MMAP, la función general de probabilidad conjunta para el número de llegadas en [0,t]viene dada por P* ( zh , h C 0 , t ) exp( D* ( zh , h C 0 )t ) . Demostración. He (2014) Ejemplo 5.4.1. Sea el conjunto de índices C 0 {hombre, mujer ,{hombre, mujer , niño}} , entonces una representación matricial del MMAP puede ser 2 4 1.6 2 0.2 1 0.2 1 0 D0 ; DH ; DM ; DHMN . 10 3 2 0 3 0 2 0 Se obtiene P ( zh , h C 0 , t ) exp( D* ( zh , h C 0 )t ) exp(( D0 zH DH zM DM zHMN DHMN )t ) * La expresión P* (( zh , h C 0 ), t ) exp( D* ( zh , h C 0 )t ) puede usarse para obtener varias razones de llegada. Por ejemplo, tomando derivadas parciales con respecto a zh P* ( zh , h C 0 ), t zh { zC 1, CC 0 } t n n 1 ·e ·D Dh e n 0 n ! Dada una distribución inicial , podemos obtener tanto al esperanza como la varianza de Nh (t ) . E[ Nh (t )] ht (exp( Dt ) I )( D e )1 Dhe; t 0 , 61 Proceso de llegadas de Markov marcadas (MMAP) donde h Dh e , que es la razón de llegada del grupo tipo h, y es la distribución estacionaria de la CMTC con generador D. De igual forma, la varianza: Var[N h (t )] (h 2h 2 2 Dh ( D e ) 1 Dh e)t 2 Dh ( D e ) 1 (exp( Dt ) I )( D e ) 1 Dh e Ejemplo 5.2.4.: Para el ejemplo anterior en concreto, si definimos N( H ) (t ) =”Número total de hombres llegados” N( M ) (t ) =”Número total de mujeres llegadas” N( N ) (t ) =”Número total de niños llegados” Obviamente tenemos que N( H ) (t ) N H (t ) N HMN (t ) N( M ) (t ) N M (t ) N HMN (t ) N( N ) (t ) N N (t ) N HMN (t ) Y con ello: pij ( nH , nM , nN , t ) P[ N ( H ) (t ) nH ; N ( M ) (t ) nH ; N ( N ) (t ) nN ; I (t ) j / I (0) i ];1 i, j m; P(nH , nM , nN , t ) ( pij (nH , nM , nN , t )) P* ( z( H ) , z( M ) , z( N ) , t ) z( H ) nH z( M ) nM z( N ) nN ·P(nH , nM , nN , t ) nH , nM , nN 0 Se puede demostrar que: P* ( z( H ) , z( M ) , z( N ) , t ) exp(( D0 z( H ) DH z( M ) DM z( H ) z( M ) z( N ) DHMN )t ) . Las expresiones de las covarianzas y correlaciones de {N h (t ), h C 0 , I (t ), t 0} pueden calcularse explícitamente. Sin pérdida de generalidad, se asume que C 0 {1, 2} Teorema 5.4.2. Para la versión estacionaria del MMAP con representación ( D0 , D1 , D2 ) , 62 Antonio Hernández Moreno la covarianza entre N1 (t ) y N 2 (t ) está dada por Cov( N1 (t ), N 2 (t )) 2 212 Dk ( D e ) 1 D3 k e t k 1 2 (Dk ( D e ) 1 (exp( Dt ) I )( D e ) 1 D3 k )e. k 1 Demostración. He (2014). 63 Proceso de llegadas de Markov marcadas (MMAP) 64 CAPÍTULO 6 APLICACIÓN EN FIABILIDAD En este capítulo se quiere aplicar los conocimientos y técnicas descritos en los capítulos anteriores a un caso específico de sistema de fiabilidad. Para ello, se definirán de forma breve conceptos básicos de fiabilidad, para pasar a introducir el sistema concreto al que se van a aplicar las técnicas de procesos de llegada markovianos vistas hasta el momento. 6.1. INTRODUCCIÓN Como se ha comentado, el objetivo final de este trabajo está en el estudio de los procesos de llegada Markovianos (MAP), sus ampliaciones y sus aplicaciones, en concreto en su aplicación al campo de la fiabilidad. Es por ello que debemos referirnos brevemente a este mundo de la fiabilidad para entender algunos de los conceptos con los que posteriormente trabajaremos en la práctica. Un sistema se define como un conjunto de elementos independientes que interaccionan entre sí para realizar una tarea común. La fiabilidad de un sistema se estudia para poder determinar probabilísticamente el comportamiento del fallo o cualquier otro evento asociado a un sistema. La evaluación de la fiabilidad de los sistemas lógicos se realiza mediante distribuciones de probabilidad, lo que se explica intuitivamente al considerar cómo fallan elementos de un mismo tipo, que han sido fabricados, y que trabajan en las mismas condiciones. El tiempo de funcionamiento correcto es específico para cada uno, es decir, que todos los elementos no fallan después del mismo tiempo de operación. Si se registran los tiempos hasta el fallo de cada uno de los elementos observados tendremos la distribución de probabilidad de fallo de este tipo de elementos cuando se fabrican y operan en las condiciones definidas. La distribución de probabilidad de fallo 65 Aplicación en Fiabilidad de otro grupo de elementos del mismo tipo pero fabricado según otro proceso, o que trabaja en otras condiciones posiblemente será distinta a la anterior. Según se describe en el párrafo anterior, la ocurrencia de fallos en un grupo de elementos de un mismo tipo e iguales características de fabricación y operación es aleatoria en el tiempo. En consecuencia, el tiempo hasta el fallo, T, es una variable aleatoria. La función de distribución del tiempo de vida (o fallo), F (t ) , se define como la función de distribución de la variable aleatoria T – no negativa y continua -, definida como la probabilidad de fallo de un producto en condiciones preestablecidas, en un intervalo de tiempo hasta t, dado que se encontraba en condición operativa en el instante inicial. La probabilidad de que el elemento funcione correctamente hasta el tiempo t es R(t ) 1 F (t ) siendo R(t ) la función que representa la fiabilidad del elemento. Por tanto la función de fiabilidad de un elemento no reparable se define como la probabilidad de que realice su función sin fallo en un tiempo dado y en unas condiciones especificadas. Es decir, la fiabilidad es la probabilidad de supervivencia del elemento. Sus expresiones indican que la función de distribución de probabilidad de fallo y la fiabilidad son complementarias. Por tanto, y dado que la función de densidad de probabilidad de fallo es la derivada de la función de distribución de probabilidad de fallo, se tienen las siguientes relaciones. t F (t ) P[T t ] f ( x ) dx, 0 R(t ) 1 F (t ), siendo la función f la densidad de la variable. Se observa cómo esta función de fiabilidad es monótona no creciente y cumple que R(0) 1 y R() 0. La función tasa de fallo o función de riesgo (hazard function), indica la razón de fallo inmediato dado que el componente está funcionando en ese momento. Matemáticamente, P[t T t t | T t ] f (t ) t t R(t ) h(t ) lim Es bastante común que el comportamiento de fallos de dispositivos sea descrito en términos de sus funciones de riesgo. 66 Antonio Hernández Moreno La función tasa de fallo o función de riesgo acumulada también será de utilidad ya que será recta si la tasa de fallos es constante, crece por encima de la recta si es creciente y por debajo si es decreciente. Se define como, t H (t ) h ( x ) dx 0 El sentido de la fiabilidad es realizar estimaciones del tiempo de funcionamiento sin fallos de los distintos sistemas o componentes. Como hemos visto, esto es posible a partir de las funciones recién definidas como son la función de distribución F (t ), de supervivencia R (t ) , de densidad f (t ) y/o detasa de fallos, h(t ). 6.2. DESCRIPCIÓN DEL SISTEMA En este apartado se introduce el sistema de fiabilidad al que se le van a aplicar las técnicas de los capítulos anteriores. En concreto, se va a considerar un sistema de fiabilidad con dos unidades y un reparador (una unidad online y la otra en reserva pasiva). Si ambas unidades están listas para el funcionamiento, una estará trabajando y la otra en espera. Si una unidad falla, se envía al reparador para su reparación y la unidad en espera entra en funcionamiento. Si la reparación concluye antes de un nuevo fallo, la unidad reparada queda en espera. Si el fallo, sin embargo, acaece antes de terminar la reparación, la nueva unidad que ha fallado queda en espera de reparación, entrando en funcionamiento la unidad que está en reparación en cuento sea reparada. Para el análisis del sistema se van a considerar tres modelos distintos. Uno donde todos los tiempos implícitos son exponenciales con razones de fallo y reparación distintos; un segundo donde los tiempos de vida de ambas unidades son exponenciales de igual parámetro y el tiempo de reparación exponencial con igual parámetro y un tercer modelo donde los tiempos implícitos son tipo fase. Modelo 1. Tiempos exponenciales distintos Los tiempos de fallo y reparación se distribuyen según una distribución exponencial de parámetros respectivos para las dos unidades 1 , 2 , 1 y 2 respectivamente. Los estados de cada componente los vamos a notar como sigue, - 0, cuando está siendo reparada. 67 Aplicación en Fiabilidad - 1, cuando está en espera de reparación (cola de reparación). - 2, cuando está en espera de funcionamiento (standby, reserva). - 3, cuando se encuentre en funcionamiento (unidad online). Sean I1 (t ) y I 2 (t ) el estado de la unidad 1 y de la unidad 2 en el tiempo t. El proceso {I (t ) ( I1 (t ), I 2 (t )), t 0} tiene espacio de estados {(3, 2), (3,0),(2,3), (1,0),(0,1), (0,3)} . Se está interesado en el número de reparaciones en [0, t ] - el número de fallos lo estudiamos al considerar el proceso MMAP-. Se definen los eventos del proceso de Poisson asociado con tasas de reparación como llegadas (correspondiendo a la matriz D1). El resto del proceso de Poisson corresponde a la matriz D0 . Sea N (t ) el número de llegadas asociadas a la cadena de Markov en tiempo continuo {I (t ), t 0} . Así definido, es fácil ver que {( N (t ), I (t )), t 0} es un MAP con representación matricial (3, 2) 1 (2,3) 0 (3, 0) 0 D0 (0,3) 0 (1, 0) 0 (0,1) 0 0 2 0 1 2 0 0 0 1 2 0 0 2 1 1 0 0 0 0 0 0 2 0 (3, 2) 0 (2,3) 0 (3, 0) 2 D1 (0,3) 0 (1, 0) 0 (0,1) 0 0 0 0 1 0 0 0 0 0 0 0 2 1 0 0 0 0 0 0 0 0 0 0 0 , 2 0 1 0 0 0 0 0 0 . 0 0 0 0 0 0 Modelo 2. Tiempos exponenciales iguales para funcionamiento y reparación respectivamente Una variedad para este modelo introducido sería la suposición, por simplicidad, de que las dos unidades son idénticas, es decir, tienen la misma distribución para el tiempo de reparación y para los tiempos de fallo, respectivamente (exponencial con razón y ). Ambos modelos serán estudiados. Siguiendo nuestro interés en el número de reparaciones entre [0, t ] . Así definimos los eventos del proceso de Poisson asociado con tasas de reparación como llegadas (correspondientes como sabemos a la matriz D1 ). El 68 Antonio Hernández Moreno resto de eventos del proceso de Poisson corresponden a D0 . Sea N (t ) el número de dichas llegadas asociadas a la cadena de Markov en tiempo continuo {I (t ), t 0} . En esta ocasión, se definen los estados I(t) como el número de unidades en reparación en el tiempo t. Se esta forma, {( N (t ), I (t )), t 0} es un MAP y su representación matricial viene dada por 0 D0 1 0 2 0 0 0 D1 1 2 0 0 0 0 0 , 0 0 . 0 En el caso de haber estado igualmente interesados en el número de fallos podríamos considerar el MAP {( N (t ), I (t )), t 0} con representación matricial 0 D0 1 2 0 0 0 0 , 00 0 D1 1 0 0 . 2 0 0 0 Este último MAP lo consideraremos dentro del análisis MMAP – capítulo 6.4.haciendo uso del conjunto de índices. Modelo 3. Tiempos de funcionamiento y reparación tipo fase Finalmente, se considerará que ambas unidades son multi-estados, atraviesan estados de funcionamiento y de reparación distintos, considerando que el tiempo de funcionamiento de cada unidad es tipo fase con representación (1 , T1 ) y ( 2 , T2 ) respectivamente. La reparación también es multi-estados considerando tipo fase con representaciones para cada unidad (1 , S1 ) y ( 2 , S 2 ) su comportamiento. El MAP que estudia el número de reparaciones en este caso viene dado por 69 Aplicación en Fiabilidad (3, 2) T1 0 0 0 2 T10 1 0 (2,3) 0 T2 1 T2 2 0 0 0 (3, 0) 0 0 0 T1 S 2 T1 I D0 (0,3) 0 0 0 0 S1 T2 (1, 0) 0 0 0 0 S2 (0,1) 0 0 0 0 0 0 0 , I T20 0 S1 (3, 2) 0 (2,3) 0 (3, 0) I S 20 D1 (0,3) 0 (1, 0) 0 (0,1) 0 0 0 0 0 0 0 0 0 S1 I 0 0 0 0 0 0 0 0 0 0 2 S 20 1 0 1 S10 2 0 0 0 0 0 . 0 0 0 0 0 Si se consideran distribuciones tipo fase con iguales representaciones para funcionamiento y reparación, ( , T ) y ( , S ) , se tiene que el MAP que estudia el número de reparaciones viene dado por 0 T T 0 T S D0 1 0 2 0 0 T 0 I , S 0 0 0 0 0 D1 1 I S 0 2 0 S 0 0 0 . 0 En este caso también se puede estudiar el MAP que analiza el número de fallos hasta un determinado tiempo. Este MAP viene dado por 0 T 0 D0 1 I S 0 T S 2 0 S 0 0 0 T 0 D1 1 0 0 2 0 0 70 0 0 , S 0 T 0 I . 0 Antonio Hernández Moreno En la sección 6.4 se hará un análisis detallado. 6.3. ANÁLISIS MAP En esta sección se van a presentar distintas simulaciones numéricas para los modelos presentados. Para el desarrollo se comenzará desde el modelo más simple (Modelo 2) al más complejo. Modelo 2 Para el modelo 2 propuesto, podemos calcular medidas de funcionamiento del mismo, basándonos en su modelización MAP con la representación matricial recién expuesta. Uno de nuestros objetivos es el estudio N (t ) y para ello podemos calcular su esperanza y su varianza y a partir de ellos el índice de dispersión, medidas definidas en el capítulo 3.4. Recordamos las expresiones, E[ N (t )] t (exp( Dt ) I )( D e )1 D1e ; t 0 Var[ N (t )] ( 2 2 2 D1 ( D e )1 D1e)t 2 D1 ( D e ) 1 ( exp ( Dt ) I )( D e ) 1 D1e . Comenzamos calculando la distribución estacionaria de la cadena de Markov. Sabemos que D D0 D1 . La expresión de la distribución estacionaria es también D 0 . conocida e 1 Resolviendo el sistema de ecuaciones para los dos modelos presentados, primero para el caso de considerar idénticas ambas unidades. D 0 0 Se obtienen como resultados genéricos para los parámetros de la distribución estacionaria los siguientes valores, 71 Aplicación en Fiabilidad 1 2 2 2 2 3 2 En la siguiente tabla se muestran según los valores de y , y con dicho valor obtenemos la tasa de llegada estacionaria D1e correspondiente, que indicaría el número de reparaciones completas por unidad de tiempo. 1 0.01 0.015 0.02 0.025 0.03 0.01 0.015 0.02 0.025 0.03 0.5 0.5 0.5 0.5 0.5 0.4 0.4 0.4 0.4 0.4 0.9800078401 0.0196001568 0.0003920031 0.00999608 0.9700261907 0.0291007857 0.0008730236 0.0149869 0.960061444 0.038402458 0.001536098 0.01996928 0.950118765 0.047505938 0.00237529 0.02494062 0.940203084 0.056412185 0.003384731 0.02989846 0.9750152346 0.0243753809 0.0006093845 0.00999390 0.962550760 0.036095653 0.001353587 0.0149797 0.950118765 0.047505938 0.002375297 0.01995249 0.937728938 0.058608059 0.003663004 0.02490842 0.925390399 0.069404280 0.005205321 0.02984384 2 3 D1e Tabla 6.3.1. Simulación distribución estacionaria .Modelo 2 Dada pues una distribución inicial (1,0,0) , donde ambas unidades inicialmente están operativas, para cada t se obtiene de manera directa el valor esperado de N (t ) , su varianza, y a partir de estas dos medidas su coeficiente de variación y su índice de dispersión. De nuevo, para los distintos valores de y y ahora para distintos valores de t (probamos con t = 1, 10, 100) se obtienen, t E N (t ) Var N (t ) 0.02 0.02 0.02 0.03 0.03 0.03 0.02 0.02 0.02 0.03 0.03 0.03 0.5 0.5 0.5 0.5 0.5 0.5 0.4 0.4 0.4 0.4 0.4 0.4 1 10 100 1 10 100 1 10 100 1 10 100 0.004238295 0.1587923 1.955576 0.006340343 0.2370007 2.927069 0.003496267 0.1489426 1.94323 0.005229691 0.2218645 2.905346 0.01995479 0.1988646 1.985505 0.02985158 0.2963114 2.952945 0.01993465 0.1983749 1.977922 0.02978674 0.2947698 2.929073 Tabla 6.3.2. Simulación Medidas de Funcionamiento Modelo 2 72 Antonio Hernández Moreno Gráficamente, si llamamos a las series formadas por los distintos valores de y , respectivamente, como A(=0.02, =0.5), B(=0.03, =0.5) , C(=0.02, =0.4) y D(=0.03, =0.4), podemos representar la esperanza y la varianza como sigue observando un paralelismo claro en estas dos medidas. 3,5 3 Esperanza Matemática 2,5 2 A 1,5 B 1 C D 0,5 1 6 11 16 21 26 31 36 41 46 51 56 61 66 71 76 81 86 91 96 0 Gráfico 6.3.1. Esperanza Matemática según los distintos valores de y Varianza 3,5 3 2,5 A 2 B 1,5 C 1 D 0,5 1 6 11 16 21 26 31 36 41 46 51 56 61 66 71 76 81 86 91 96 0 Gráfico 6.3.2. Varianza según los distintos valores de y . 73 Aplicación en Fiabilidad Modelo 1 En la resolución de la distribución estacionaria, en el caso de considerar el modelo anterior planteado con las dos unidades no obligatoriamente iguales, queda 2 ( 12 2 2 22 ) 1 ( 1 2 1 112 ) 0 2 2 (1 1 1 ) (1 2 2 ) 1 1 2 2 22 1 12 1 1 3 2 . 4 2 2 1 12 5 2 1 2 2 6 22 2 1 Tal y como se presentó en el modelo anterior, se presenta una tabla con los valores de la distribución estacionaria para este modelo, para distintos valores de 1 , 2,1 , 2 y de t. 1 2 1 2 1 2 3 4 5 6 0.01 0.02 0.03 0.01 0.02 0.03 0.01 0.01 0.01 0.03 0.03 0.03 0.5 0.5 0.5 0.4 0.4 0.4 0.4 0.5 0.6 0.4 0.5 0.6 0.487 0.320 0.238 0.730 0.575 0.474 0.490 0.653 0.735 0.232 0.371 0.463 0.012 0.013 0.012 0.018 0.023 0.024 0.010 0.013 0.015 0.017 0.028 0.035 0.000 0.001 0.001 0.000 0.001 0.001 0.000 0.000 0.000 0.001 0.002 0.003 D1e 0.009 0.0133 0.0149 0.0149 0.024 0.030 Tabla 6.3.3. Simulación distribución estacionaria Modelo 1 1 2 1 2 t E N (t ) Var N (t ) 0.01 0.02 0.03 0.03 0.01 0.03 0.01 0.03 0.5 0.4 0.5 0.4 0.4 0.5 0.6 0.6 100 100 100 100 1.953175 3.315536 2.686251 3.852308 0.9976252 2.445802 1.773229 2.94801 Tabla 6.3.4. Simulación Medidas de Funcionamiento Modelo 1 74 Antonio Hernández Moreno 6.4. ANÁLISIS MMAP Siguiendo con el estudio del sistema planteado, se puede estudiar el problema de analizar el número de reparaciones y el número de fallos en el intervalo (0, t ] de una forma conjunta y no a través de los dos procesos MAP, uno para las reparaciones y otro para los fallos, aplicando procesos MMAP. Modelo 1 El modelo 1, con tiempos exponenciales distintos, es analizado mediante MMAP para estudiar el número de fallos y reparaciones hasta un cierto tiempo. Si definimos C 0 { fallo, reparación} , entonces el MMAP {( Nr (t ), N f (t ), I (t )), t 0} viene dado como sigue, (3, 2) 1 (2,3) 0 (3, 0) 0 D0 (0,3) 0 (1, 0) 0 (0,1) 0 0 2 0 0 0 0 0 0 0 0 1 2 0 2 1 0 0 0 (3, 2) 0 (2,3) 0 (3, 0) 2 Dr (0,3) 0 (1, 0) 0 (0,1) 0 (3, 2) 0 (2,3) 0 (3, 0) 0 Df (0,3) 0 (1, 0) 0 (0,1) 0 0 0 0 0 0 0 0 0 0 0 0 0 2 1 0 1 0 0 2 0 0 0 0 0 0 0 0 2 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 , 0 0 1 0 0 0 0 0 0 , 0 0 0 0 0 0 0 0 1 0 0 0 . 2 0 0 0 0 0 75 Aplicación en Fiabilidad Modelo 2 Debido a la complejidad de cálculo del modelo 1, vamos a calcular la representación del MMAP asociada al modelo 2, donde las unidades las considerábamos iguales. Se definen los eventos del proceso de Poisson asociado con razones de reparación de r llegadas (correspondientes a Dr ) y los eventos un proceso de Poisson con razones de fallo de f llegadas (correspondientes a D f ). El resto del proceso de Poisson corresponde a D0 . Es claro cómo se puede definir el conjunto de índices asociado al proceso MMAP C 0 { fallo, reparación} . Sea Nr (t ) el número de reparaciones completadas en el periodo (0, t ] y N f (t ) el número de fallos acaecidos en el periodo (0, t ] . El MMAP queda planteado de la siguiente manera, {( Nr (t ), N f (t ), I (t )), t 0} con representación matricial, 0 D0 1 0 2 0 0 0 0 Dr 1 2 0 0 0 0 0 0 0 0 0 00 0 Df 1 0 0 2 0 0 0 donde si, por ejemplo, consideramos 0.02 y 0.4 , la distribución estacionaria de {I (t ), t 0} será – tal y como se muestra en la tabla 6.3.1. 1 0.95011876 2 0.04750594 0.002375 3 y con ella se pueden calcular la razón de reparaciones, Dr e 0.01995238 y la razón de fallos D f e 0.01995249 . 76 Antonio Hernández Moreno Modelo 3 Tiempos distintos Si consideramos que cada tiempo de funcionamiento y reparación siguen distribuciones tipo fase distintas, de forma que atraviesan múltiples estados de funcionamiento y reparación, se tiene que el MMAP tiene la siguiente representación matricial, 0 (3, 2) T1 0 0 (2,3) 0 T2 (3, 0) 0 0 T1 S 2 D0 0 (0,3) 0 0 0 (1, 0) 0 0 0 (0,1) 0 0 (3, 2) 0 (2,3) 0 (3, 0) I S 20 Dr (0,3) 0 (1, 0) 0 (0,1) 0 (3, 2) 0 (2,3) 0 (3, 0) 0 Df (0,3) 0 (1, 0) 0 (0,1) 0 0 0 0 0 0 S1 T2 0 0 0 0 S2 0 0 0 0 0 0 0 0 S I 0 0 0 0 0 1 0 0 0 , 0 0 S1 2 S 20 1 0 1 S10 2 0 0 0 2 T10 1 0 0 1 T 2 0 0 0 0 0 T I 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 2 0 1 0 0 0 0 0 0 , 0 0 0 0 0 0 0 0 . I T20 0 0 0 Tiempos iguales Continuando con el análisis de sistema concretos, es sabido que las distribuciones tipo fase son muy comunes al trabajar con los sistemas de fiabilidad. Se puede por tanto, asumir que los tiempos de fallo tienen una distribución tipo fase con representación ( , T ) y que los tiempos de reparación, igualmente, tienen por distribución una tipo fase de representación ( , S ) . En este caso, el MMAP {( Nr (t ), N f (t ), I (t )), t 0} puede construirse, tal y como muestra He (2014), a través de la siguiente representación matricial. 77 Aplicación en Fiabilidad 0 T 0 D0 1 0 T I I S 2 0 0 0 0 S 0 0 0 0 0 Dr 1 I S 2 0 S 0 0 0 0 0 0 T 0 Df 1 0 0 2 0 0 0 T I 0 0 donde S 0 Se y T 0 Te . Considerando un ejemplo numérico, con las distribuciones tipo fase del menor orden posible para simplificar los cálculos – orden 2 -, donde (0,1) , 1.17 0.5 0.5 0.45 T , la representación matricial del y (1, 0) , S 0.5 1.17 0.3 0.4 MMAP será, 0 0 0 0 0 0.5 0.45 0 0 0 0 0 0 0.3 0.4 0 0 0 1.67 0.5 0.45 0 0 0 1.67 0 0 0.5 0 0 0 0 D0 0 0 0.3 1.57 0 0.5 0 0 1.57 0 0 0.3 0.5 0 0 0 0 0 0 0 0 0 1.17 0.5 0 0 0 0.5 1.17 0 0 0 78 Antonio Hernández Moreno 0 0 0 0 Df 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0.05 0 0.1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0.05 0 0 0.05 , 0.1 0 0 0.1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0.67 0 0 0 0 0.67 0 0 0 0 Dr 0 0.67 0 0 0 0.67 0 0 0 0 0 0 0 0 0.67 0 0 0 0.67 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 donde se cumple que D D0 D f Dr . La distribución estacionaria viene dada por 0.3482, 0.5323, 0.0135, 0.0080, 0.0619, 0.0220, 0.0083, 0.0058 . Finalmente, las razones de reparación y fallo, iguales en régimen estacionarios, son 0.0801. 79 Aplicación en Fiabilidad 80 APÉNDICE: SINTAXIS INFORMÁTICA Se adjunta a continuación la sintaxis utilizada en los modelos analizados en el capítulo 6. El programa elegido para realizar la mayoría de los cálculos necesarios ha sido R Project. R es un paquete estadístico, software libre, que permite un análisis matemático y estadístico de una forma profesional de un conjunto de datos. R Project utiliza un paquete base donde incluye una gran variedad de opciones de análisis, ampliable a través de paquetes específicos según el interés del programador. En nuestro caso, se ha tenido que instalar uno de estos paquetes específicos, denominado expm para poder realizar el cálculo de la exponencial de una matriz. En un primer caso, se presenta la sintaxis creada para el modelo 2 presentado en el capítulo 6, donde las dos unidades se podían considerar iguales. Así, para el cálculo de la distribución estacionaria y para el cálculo de las medidas de funcionamiento del sistema para los distintos valores de los parámetros se uso la siguiente sintaxis. tita=c(beta^2/(gamma*beta+beta^2+gamma^2), beta*gamma/(gamma*beta+beta^2+gamma^2), gamma^2/(gamma*beta+beta^2+gamma^2) ) d0=matrix(c(‐gamma,gamma,0,0,‐gamma‐beta,gamma,0,0,‐beta), nrow=3, ncol=3, byrow = TRUE) d1= matrix(c(0,0,0,beta,0,0,0,beta,0),nrow=3,ncol=3, byrow = TRUE) ee=matrix(c(1,1,1),nc=1) l=tita%*%d1%*%ee d=d0+d1 alpha=c(1,0,0) I=matrix(c(1,0,0,0,1,0,0,0,1),nrow=3,ncol=3) esperanza=l*t‐ alpha%*%(expm(d*t)‐I)%*%(solve(d‐ee%*%tita))%*%d1%*%ee varianza= (l‐2*l^2‐2*tita%*%d1%*%(solve(d‐ee%*%tita))%*%d1%*%ee)*t + 2*tita%*%d1%*%(solve(d‐ee%*%tita))%*%(expm(d*t)‐I) %*%(solve(d‐ ee%*%tita))%*%d1%*%ee El código para obtener las gráficas de la esperanza matemática y de la varianza, para t=1, …, 100 es, 81 Apéndice: Sintaxis Informática y=100 simula_esperanza= array(1:y,dim=c(y,1)) simula_varianza=array(1:y,dim=c(y,1)) for (t in 1:y) { tita=c(beta^2/(gamma*beta+beta^2+gamma^2), beta*gamma/(gamma*beta+beta^2+gamma^2), gamma^2/(gamma*beta+beta^2+gamma^2) ) d0=matrix(c(‐gamma,gamma,0,0,‐gamma‐beta,gamma,0,0,‐beta), nrow=3, ncol=3, byrow = TRUE) d1= matrix(c(0,0,0,beta,0,0,0,beta,0),nrow=3,ncol=3, byrow = TRUE) ee=matrix(c(1,1,1),nc=1) la=tita%*%d1%*%ee d=d0+d1 alpha=c(1,0,0) Id=matrix(c(1,0,0,0,1,0,0,0,1),nrow=3,ncol=3) esperanza=la*t+alpha%*%(expm(d*t)‐Id)%*%(solve(d‐ee%*%tita))%*%d1%*%ee varianza= (la‐2*la^2‐2*tita%*%d1%*%(solve(d‐ee%*%tita))%*%d1%*%ee)*t + 2*tita%*%d1%*%(solve(d‐ee%*%tita))%*%(expm(d*t)‐Id) %*%(solve(d‐ ee%*%tita))%*%d1%*%ee simula_esperanza[t]=esperanza simula_varianza[t]=varianza } simula_esperanza simula_varianza Para el modelo 1, donde las unidades ya no se consideraban iguales, la sintaxis utilizada, muy similar, fue, A= matrix(c(nu1*nu2*lambda1+nu1*lambda1^2,‐nu2*lambda2^2‐ nu1*nu2*lambda2,1+lambda1/nu2+lambda1^2/nu2^2, 1+lambda2/nu1+lambda2^2/nu1^2), nrow=2, ncol=2, byrow = TRUE) b=matrix(c(0,1),ncol=1) tita=solve(A,b) tita_m= matrix(c(tita[1],tita[2],lambda1/nu2*tita[1] ,lambda2/nu1*tita[2],lambda1^2/nu2^2*tita[1],lambda2^2/nu1^2*tita[2]),ncol=6) tita_m dd0= matrix(c(‐lambda1,0,0,lambda1,0,0,0,‐lambda2, lambda2,0,0,0,0,0,‐ lambda1‐nu2,0, lambda1,0,0,0,0,‐ lambda2‐nu1,0, lambda2,0,0,0,0,‐nu2,0,0,0,0,0,0,‐nu1), nrow=6, ncol=6, byrow = TRUE) dd1= matrix(c(0,0,0,0,0,0,0,0,0,0,0,0,nu2,0,0,0,0,0,0,nu1,0,0,0,0,0,0,0,nu2,0,0,0,0,nu1,0,0,0), nrow=6, ncol=6, byrow = TRUE) dd=dd0+dd1 ee=matrix(c(1,1,1,1,1,1),nc=1) l=tita_m%*%dd1%*%ee dd=dd0+dd1 82 Antonio Hernández Moreno alpha=c(1,0,0,1,0,0) I=matrix(c(1,0,0,0,0,0,0,1,0,0,0,0,0,0,1,0,0,0,0,0,0,1,0,0,0,0,0,0,1,0,0,0,0,0,0,1),nrow=6,ncol=6) esperanza=l*t‐ alpha%*%(expm(dd*t)‐I)%*%(solve(dd‐ee%*%tita_m))%*%dd1%*%ee varianza= (l‐l^2‐2*tita_m%*%dd1%*%(solve(dd‐ee%*%tita_m))%*%dd1%*%ee)*t + 2*tita_m%*%dd1%*%(solve(dd‐ee%*%tita_m))%*%(expm(dd*t)‐I) %*%(solve(dd‐ ee%*%tita_m))%*%dd1%*%ee Para el caso MMAP con distribuciones tipo fase (análisis MMAP del modelo 3), la sintaxis para el cálculo de las matrices D0, Df y Dr se realizó en el software Matlab, quedando su sintaxis para el caso particular propuesto alpha=[0,1]; T=[‐0.5,0.45;0.3,‐0.4]; beta=[1,0]; S=[‐1.17,0.5;0.5,‐1.17]; m=length(T); T0=‐T*ones(m,1); n=length(S); S0=‐S*ones(n,1); D0=[T,zeros(m,m*n+n);zeros(m*n,m),kron(T,eye(n))+kron(eye(m),S),zeros(m*n,n);zeros(n,m+m *n),S]; Dr=[zeros(m,m+m*n+n);kron(eye(m),S0),zeros(m*n,m*n+n);zeros(n,m),kron(alpha,S0*beta),ze ros(n,n)] Df=[zeros(m,m),kron(T0*alpha,beta),zeros(m,n);zeros(m*n,m+m*n),kron(T0,eye(n));zeros(n,m +m*n+n)]; D=D0+Dr+Df 83 Apéndice: Sintaxis Informática 84 BIBLIOGRAFÍA Alfa, AS. (2004) Markov chain representations of discrete distributions applied to queue in models. Computers & Operations Researh, 31, 2365-2385. Asmussen, S. and Koole, G.M. (1993) Marked point processes as limits of Markovian arrival streams. Journal of Applied Probability, 30, 365–372. Cordeiro, J.D. and Kharoufeh, J.P. (2011) Batch Markovian arrival processes (BMAP). Wiley Encyclopedia of Operations Research and Management Science. Cordeiro J.D. and Kharoufeh J.P. (2012) The unreliable M/M/1 retrial queue in a random environment. Stochastic Models, 28 (1), 29-48. Cox, D.R. and Miller H.D. (1977) The theory of stochastic Processes. CRC Press. Han, Y; La, R.J.; Makowski, A. and Lee, S (2006) Distributions of path duration in mobile ad hoc networks- Palm’s theorem to the rescue. Computer networks, 50 (12) 1887-1900. He, Q.M. (2010) Construction of continuous time Markov arrival processes. Journal of Systems Science and System Engineering, 19, 351-366. He, Q.M. (2014) Fundamentals of Matrix-Analytic Methods. Springer. New York. He, Q.M. and Neuts, M.F. (1998) Markov chains with marked transitions. Stochastics processes and their applications, 74, 37-52. Kingman, J.F.K. (2002) Poisson Processes. Oxford University Press. New York. Kovalenko, I.N.; Kuznetsov, N.Y. and Shurenkov, V.M. (1996) Models of Random Processes. A handbook for mathematicians and engineers. CRC Press. Lucantoni, D.M. (1991) New results on the single server queue with a Batch Markovian arrival process. Commun. Statist.-Stochastic Model, 7(1),1-46. 85 Lucantoni, D.M. (1993) The BMAP/G/1 Queue: A tutorial. In Donatiello, L. and Nelson, R., eds Models and techniques for Performance Evaluation of Computer and Communications Systems, 330-358. Springer.Verlad, London. U.K. Mishkoy, G.; Krieger, U.R. and Bejenari, D. (2012) Matrix algorithm for Polling modelswith PH distribution.BuletinulAcademiei de Stiinte. A Republicii Moldova.Matematica, 1(68), 70–80. Neuts, M.F. (1979) A versatile Markovian point process. Journal of Applied Probability, 16, 764-779. Neuts, M.F. (1975) Probability distributions of phase type. Liber. Amicorum Prof. Emeritus H. Florin. Dept. Math. University of Louvain, Belgium, 173-206. Neuts, M.F. (1984) Matrix-analytic methods in queueing theory. European Journal of Operational Research, 15, 2-12. Neuts, M.F. (1981) Matrix-Geometric Solutions in Stochastic Models: An Algorithmic Approach. Dover Publications, Inc., New York, NY. Neuts, M.F. (1992) Models based on the Markovian Arrival Processes. IEEE Transactions on Communications, E75-B, 12, 1255-1265. Neuts, M.F. (1989) Structured stochastic matrices of M/G/1 type and their applications. New York, Marcel Dekker Inc. Neuts, M.F. and Li, J-M. (1997) An algorithm for the P(n, t) matrices of a continuous BMAP.In Matrix-analytics methods in stochastic models. Edited by Srinivas R. Chakravarthy and Attahiru S. Alfa. Marcel and Dekker, INC. Pérez Ocón, R. and Ruiz Castro, J.E. (2003) Markovian Models in Survival Studies. In 54th International Statistical Institute Session 2003. Ross, S.M. (1983) Stochastic Processes. John Wiley & Sons. Ruiz-Castro, J.E. (2013) A preventive maintenance policy for a standby system subject to internal failures and external shocks with loss of units. International Journal of Systems Science. DOI: 10.1080/00207721.2013.827258. Ruiz-Castro, J.E. (2014) Preventive maintenance of a multi-state device subject to internal failure and damage due to external shocks. IEEE Transactions on Reliability, 63, 2, 646-660. Taylor, H. M. and Karlin, S. (1994) An Introduction to Stochastic Modeling. Academic Press. 86