ESTADISTICA ESPAÑOLA Vol. 31, Núm. 120, 1989, págs. 63 a 74 Algunas generalizaciones de ^as distribuciones de Poisson y gamma por ^ ALBERTO LUCENO VAZQUEZ Departamento de Matemática Aplicada y Ciencias de la Computación Universidad de Cantabria Avda. de los Castros s/n. - 39005 SANTANDER RESUMEN EI punto de partida de este artículo lo constituye uno de los métodos de generación de las distribuciones de Poisson y gamma. En este método se hacen cuatro hipótesis sobre la forma de presentarse los sucesos de interés a lo largo del tiempo y se definen dos variables aleatorias, a saber: el número de sucesos que ocurren en un intervalo de tiempo dado y el tiempo necesario para observar un número dado de sucesos, cuyas distribuciones respectivas resultan ser de Poisson y gamma. A lo largo del artículo se analizan los modelos que se obtienen al suprimir una o más de las cuatro hipótesis mencionadas y se deducen las distribuciones de las variables aleatorias de interés bajo los nuevos supuestos, las cuales constituyen generalizaciones de las distribuciones de Poisson y gamma. Conviene resaltar que todo el estudio se realiza dentro de un esquema metodológico único, lo que pone al descubierto los matices más transcendentales de cada una de las hipótesis realizadas. También se proporcionan algunos campos de aplicación de los modelos considerados. Palabras clave: Proceso puntual, proceso de Poisson, proceso de renovación, distribuciones, tasa de ocurrencia de sucesos, tiempo entre sucesos. Clasificación A MS.^ 6 0 E 0 5, 6 0 G 5 5, 6 2 N 9 9. E 5 T-^^ [)I^ T li ^[.^F'-^1C)[ > 1. INTRODUCCIoN La distribucián de Poisson se presenta en muchas situaciones prácticas af definir una variable aleatoria com© el resultado de contar el número de sucesos de un determinado tipo, x, que ocurren en un intervalo de tiempo de longitud dada, t. Para ello, se hacen las siguientes hipótesis: a. - En un intervalo pequeño de tiempo, dt, la probabilidad de que ocurra un suceso es: P(At;i)=a•dt +o(ót) donde a as la tas2^ de ocurrencia de sucesos y©(^ t) es un infinitésimo de orden superior a dt cuando et tiende a 0. b.- ^a tasa de ocurr^encia es constante en el tiempo (o,^). c.- La probabilidad . de que en un intervalo pequeño de tiemp©, con longitud et, ocurra m^s de un suceso es prácticamente nula; o más COnCretament8 o(St). d.- EI número de sucesvs que ocurren en dos intervalos de tiempo disjuntos, son variables aleatorias independientes. Bajo estas hipátesis se obtiene la funcián de probabilidad de Poísson de parámetro ^., como distribución del número de sucesos que ocurren en un intervalo de tiempo dado, que tiene p©r expresión: x P(t;x)=e-^ ^^ x. , x=0,1,2,... . (1) donde ^= ac t y P(t ; x} es la probabilidad de ^que ocurran x sucesos en un intervafo de tiempo de longitud t. Si en este contexto se considera la variable aleatoria que mide el tiempo necesario, c, para que ocurra un número dado de sucesos, x, aparece la distribución Gamma de parámetros (x,ac} cuya funcián de densidad es: f ( x-t , ) = ^(^t}^rl^_^ (X_l^i t>0 Aunque este modeio es útil en numerasas aplicaciones, ©curre a veces que tas hipótesis realizadas son excesivamente restríctívas para describír de forma adecuada la situación práctica qu^: se desea estudiar. Sin embargo, alguna generalización del modelo podría ser adecuada. Ello ha atraido e! interés de muchos investigadores y ha motivado la aparición de una abundante bibliografía sobre el tema, entre la que, rehuyendo la pretensión de ser exhaustivo, podría citarse la siguiente: respecto a los procesos puntuales, procesos de Poisson homogéneos y no homogénec^s y procesos de renovación, los trabajos de CO^ ^ 1 962), COX e ISHAM (1980), COX y LEWIS (1 966), KARR { 1 986), LEWIS ed. (1 ^ 7^), PARZEN (1972) y SNYDER (1975); respecto a las aplicaciones m^^ s conocidas, I©s de ASCHER y FEINGOLD {1984), BARl..OW y Pf^OSCHAN (197'S), RARTOS,^YNS^ KI, BROWN, Mc BFiIDE y THOMPSON (1981), CROW (1974), GAIL, SANTNER y ^L_(;(.^ti ^S (^^^ti^^R.^^LI1r^^C^l(^tiES ^E [_^^S DlS^^f?!h^ C^lt^^^.f ^ DF FC)ISSOV^ y ( ,a^^1!^1^ BR4WN (1980), HECKMAN y SINGER ( 1985) y TUMA y HANNAN ( 1984) y, en cuanto a publicaciones de caracter general con incidencia en el tema, los de BILLINGSLEY ( 1968), BREMAUD (198^4), CASTILLO (1978), FELLER ( 1968), I-^AIGHT (1967), JOHNSON y KOTZ ( 1969) y(1970) y MOOD , GRAYBILL and BOES (1976}. EI objetivo de este trabajo es analizar las principales lineas en las que puede Ilevarse a cabo la generalización del modelo, para lo cual, será necesario utilizar algunos desarrollos conocidos por la bibliografía con el propósito de mantener la unidad y continuidad del esquema metodológico usado, En los apartados 2, 3 y 4 se analiza lo que ocurre cuando se suprime la hipótesis b, es decir, cuando la tasa de acurrencia de sucesos no es constante, sino que está dada por una función del tiempo que se designará por a(t); en el apartado 3 sólamente se suprime la hipótesis b, mientras que en el 4 se suprime además la hipótesis d. En el apartado 5 se generaliza la distribución de Poisson mediante composición con otras distribuciones que pueden ser continuas o discretas; el segundo de estos casos permite estudiar un modelo que resulta de eliminar. la hipótesis c. En el apartado 6 se discute un modelo que resulta al eliminar exclusivarnente la hipótesis d y en el 7 se analiza la posibilidad de combinar los diferentes casos estudiados. 2. TASA DE OCURRENCIA VARIABLE: CONDICIONES DEL EXPERIMENTO En el caso de que la tasa de ocurrencia sea variable es necesario especificar lo que ocurre en el instante en que se produce cada suceso. En lo que sigue se supondrá que se verifica una de las dos condiciones siguientes: 1^. La variación de la tasa de ocurrencia a lo largo del tiernpo se produce de acuerdo con la función a(t), sin verse alterada por la ocurrencia de sucesos. 2^. La ocurrencia de un suceso en el instante t= t' tiene como consecuencia que la tasa de ocurrencia para tiempos posteriores a ' varíe según a(t-t'). Es decir, a(t) comienza de nuevo a partir de a(0) cada vez que se produce un suceso. Ejemplos de la primera condición se dan en fiabilidad, cuando los sucesos son fallos de un item dado que se repara inmediatamente. También ocurre esta condición cuando se observan fenómenos naturales, como la ocurrencia de temporales o de inundaciones a lo largo de un período largo de tiempo. Ejemplos de la segunda condición aparecen en fiabilidad, cuando los sucesos son fallos de un item dado que se sustituye por otro nuevo e idéntico cada vez que se produce un fallo del item que se est^ usando. ^[)ItiII ^ ^ t^^ f'-1ti(^1 -1 E1 análisis condición válid2t. es diferente dependiendo de cual sea la estadistico 3. CONDICION PRIMERA: LA OCURRENCIA DE LOS SUCESOS NO ALTERA EL DESARROLLO DE a(t} A LO LARGO DE1. TIEMPO 3.1. Distribución de/ número de sucesos que ocurren en un intervalo de tiempo dada Este caso es el más parecido al de tasa de fallo constante. EI razonamiento se basa en considerar el intervalo {O,t+et] como la unión de los intervalos disjuntos (O,t] y(c,t+dt], y aplicar el teorema de la probabilidad total para determinar la prababilidad de que ocurran x sucesos en dicho intervalo de tiempo. EI teorerna de la probabilidad total junto con la hipótesis d de !a introducción permite poner: x P(t+ et;x) _^ P(t;x-- k) P(et;k> k^ Despreciando infinitésimos de orden superior a et y hipótesis c, la expresián anterior se reduce a: P(t+ ^1t;x)=P(t;x)P(at;0)+P(t;x- i)P(dt;l) usando la y debido a la hipótesis a se tiene: . P(dt;0)=1-a(t}dt P(dt; 1)=a (t) et de donde: P(t+dt;x)-P(t;x) = ^(t)[P(t;x-i)-P(c;x)] et Tomando el límite cuando ec^0 resulta: dP(t; dt x) _a ( t} [P ( t;x -- i)- P(t; x)] que para x=0,i,2,... constituye un sistema de ecuaciones diferenciales cuyas condiciones iniciales son: P(0 ; 0)=1 y P(0 ; x)=0 para x=1,2,... y, por supuesto, P(t ; - i)^. La sotución de este sistema de ecuaciones es: x P(t;x)=ci^t^ ^(r) , con 1^(t)= jt oc(t)dt , x=0,1,2,_. x. 0 Es decir, fijado un intervalo de tiempo ( O,t^, la variable aleatoria que resulta al contar el número de sucesos que ocurren en dicho intervalo tiene distribución de Poisson a pesar de ser variable la tasa de ocurrencia de sucesos. Sin embargo, el valor promedio de ^.(t) en el intervalo (O,t]: x{t)=^(`}=1 j`«(t}dt t t p ->I (,[ ti•>ti (^[ ti[ [t•^I I/^( I()^^[ ti [)E [ ^^, [)ItiTRlt31 ( [c^ti[ ti [)[ ['(^l^ti()^ 1 (,•1ti1ti1•^ pasa a ser función de la variable t, a diferencia del caso de tasa constante en el que se verifica T= a. Este hecho debe ser tenido en cuenta cuando se utilizan datos correspondientes a intervalos de tiempo (o,c] de distinta longitud. La función característica correspondiente a la función de probabilidad P(t ; x) eS: • cpi(u)=exp(7^(t ) [exp(iu)- 1]} , con ^.(t)= j^ a(t) dt 0 3.2. Distribución de/ tiempo necesario para observar un número dado de sucesos Designaremos por T; a la variable aleatoria que mide el tiempo que transcurre desde que ocurre el suceso ( i-1)-ésimo hasta que ocurre el suceso i-ésimo y por T(z) el tiempo necesario para observar x sucesos. Es claro que: x T( )-- ^ Ti i=1 x La distribución de T(x) puede hallarse usando el siguiente razonamiento: EI suceso T(x) <_ t( donde t es dado) ocurre, si y solo si, ocurre , el suceso x^ >_ x siendo x^ la variable aleatoria que cuenta el número de sucesos que ocurren en el intervalo de tiempo (o,t]. Por tanto, Prob(T^x) S t)_ Prob(X^ _> x), es decir, la función de distribución de T(x) se obtiene a partir de la de x^ mediante la relación: FT(^)(t )= 1- FXt(x - 1) (2) donde: FX (x _ 1)= ^~1 ^ P(t ,k)= e ^^^^ ^-t ^ ^(t)^ ^ L 1c=0 r=0 k siendo: 7^(t)= j^ oc(t)dt^--L.n[1-FT (t)] o ^ y suponiendo que la función a(t) es tal que la integral díverge cuando c-^^. La distribución de T(x) definida por FT^^)(t) es una generalización de la distribución Gamma(x,a) y, teniendo en cuenta la relación existente entre las funciones de distribución de Poisson y Chi-cuadrado: Prob [ Poisson ( ^, ) < x -- l ] = 1- Prob [ Chi - cuadrado ( 2 x ) <_ 2 ^, ] puede obtenerse la siguiente expresión alternativa de FT(^)(t): FT (t)=F 2 2 j^a(t)dt x c2X) ( x) o donde Fx2(2,^)(t) es la función de distribución Chi-cuadrado con 2x grados de libertad en el punto t. f^x k ^ ^ ^[}Iti^1 I^ ^ k ^f' ^ ^t ^l ^ tnteresa resaitar que las variables aleatorias T^) y T^+^=Tb+1)-T^) no son independientes en este caso, ya que el valor que tome la primera determina ei trozo de la función a(c) sobre el que tendrá lugar la realización de Tj ♦ 1. La distribución condicionada de T^ ♦ x^ dado que Tu)=s está dada por ia ecuación (2), con tai de trasladar el origen de tiempos al instante s y cambiar el número de sucesos j+x por x. Es decir: _ ^T <^+^) /(T (^) =s}(t) i _ -^(c,s> ^-1[^ ( t, s )]^ c ^ k^ k=o donde: ^(t, S)'^s+c a(t) dt=^{t+ s)-^(s) 4. CONDICIUN SEGUNDA: AL OCURRIR UN SUCES^J, LA FUNCION oc(t) VUEEVE AL 4RIGEN , En este caso conviene realizar el cálcuio en el sentido inverso, es decir, determinar la distribuc^ón de T(x) en primer lugar y a continuacíón usar ia reiación Prob(T(x) s t)= prob(Xt > x) para determinar la distribución x^. La diferencia con el caso de la primera condición radica en que ahora ias variables aleatorias T1 , T^ ,..., Tx son independientes e igualmente distribuidas, con función de distribución común dada por ia expresión ( 2) para x=1, es decir: z F-j- t( t)-. 1- exp -- j 0 oc ( t) dt Por tanto, la distribución de T^x) está dada por la convolución de T^ , Tz ,..., Tx. Esta distribución es la generalización de la distribución Gamma(x,a) para ei caso de tasa de ocurrencia variable y segunda condic^ón de experimentación. La correspondiente generalización de la distribución de Poisson está dada por F X( x-- i)= i- F T ( t) para x= i,2,... . (x) t Por otra parte, ei número de sucesos que ocurren en dos intervaios de t ^ empo disjunios, (t$ , cb^ y(t^ , td^ con t^ _>tb, no son dos variables aleatorias independientes en este modelo. Ello es debido a+que el número de sucesos que ocurren en el intervalo de tiempo (c^ , td] depende de la función a{c) en dicho intervalo, la cual a su vez depende del instante en que se produjo el último suceso anterior a t^ y por tanto de! numero de sucesos que han ocurrido en el intervalo (ta , tb) al menos para valores de ta y tb próximos a t^. Por tanto, este modelo no satis#ace las hipótesis b ni d. ^l c:,l ^ ^^ c^t `E K ^l I/ \( I^)^E ^ (>t L \ti UI^ ( klfil ^. It ^ ^f ti (>k f'^>Ititi^ ^ ^ 1 ^ ^ ^^1^1 \ h ^^ Este es un método general de eliminar la hipótesis d: hacer depender a a(c) del número de sucesos previamente ocurridos, o de los instantes en que ocurrieron estos sucesos previos. 5. DISTRIBUCION DE POISSON COMPUESTA 5.1. Composición con una variab/e aleatoria cua/quiera Sea x^ el número de sucesos de un determinado tipo que se observan en un intervalo de tiempo (O,c) y sea P(c;k) la probabilidad de ocurra que xt=k. Considérese una variable aleatoria Yt cuya distribución condicionada por el suceso Xt=k es conocida. En tal caso, la distribución marginal de Y^ puede calcularse usando el teorema de la probabilidad total con lo que se obtiene: FYc(Y )_ ^^ P (t;k ) FY /{x -^ }( y /k ) -0 c c donde aparece la función de distribución marginal de Y^ y la función de distribución de Y^ condicionada por el suceso { x^=k ). Esta misma ecuación es satisfecha también por las funciones de densidad o de probabilidad y por las funciones características de Yc y de Yc /{ Xc=k }. Si xt tiene distribución de Poisson de parámetro ^., se tiene que P(t;k) está dado por la expresión ( ^) por lo que resulta: ^, r ^ ^ti FY(Y)= E c k1 FY /(x =k^CY/k) c c k=^ c que se conoce con el nombre de distribución de Poisson compuesta o generalizada. 5.2. Composición con una variab/e aleatoria que es suma de variables aleatorias independientes e ^dénticamente distribuidas (iid) con distribución independiente de xr Frecuentemente la variable aleatoria Y^ está definida por: x, Yc= ^ Z; i=1 donde (Z1,Z2,...,Zx^) son variables aleatorias iid, con distribución independiente de la variable aleatoria x^. En tal caso, la distribución de Y^ condicionada a x^=k está dada por la convolución de z l,Z2,...,zk y, por tanto, Ilamando cpZ(u) a la función característica de Z;, la función característica de Yc será: °° ^Yc(u)r ^ p(c'k)^^z(u)^ k- d k E tiT ^E>ItiT I( ^ E tiE'^ti(>l \ Además, teniendo en cuenta las propiedades de la esperanza condicionada y Ilamando µZ y a Z a la media y a la varianza de z;, respectivamente, se tiene que E(Y^) = E(X^) µZ y v^(Y^) = E(Xi) aZ+ Var(X^) µZ, habida cuenta de que Y^ condicianada a x^ es la suma de x^ variables aleatorias iid. Si x^ tiene distribución de Poisson de parámetro ^. las fórmulas pasan a ser cpY(u)=cxP{^,[^PZ(u)- 1)). c EtY^)=^µZ Y Var(Y^)=7^[aZ+ µ2^, tanto en el caso de que la tasa da ocurrencia de sucesos sea constante como en el de que sea variable. 5.3. Eliminación de /a hipótesis c Cuando la variable aleatoria Yi está dada por: x^ Yt= ^ Z; i-1 donde (Z1,z^,...,ZX^) son variables aleatorias iid, pueden darse dos casos: 1.- Las variables aleatorias Z^,^2,...,ZXt son cantinuas. 2.- Las variables aleatorias Z1,Z2,...,zXt son discretas. Aunque el primer caso tiene gran interés en la practica, no es útil en el contexto de este trabajo. lJn ejemplo típico de su uso se encuentra en las compañias de seguros que durante un cierto período de tiempo (O,t^, reciben x^ reclamacivnes de dañvs, cada uno de los cuales tiene un costo Z;, que bajo ciertas condiciones pueden supvnerse iid e independientes de x^. Sin embargo, el segundo caso permite eliminar la hipótesis c de la introducción, admitiéndase, por tanto, que la probabilidad de que coincidan dos o más sucesos en el mismo instante sea mayor que cero. Bajo este punto de vista, la variable aleatoria Z; cuenta el número de sucesos que coinciden en el i-ésimo instante en el que se produce una ocurrencia de xt. 6. ELIMINACION DE LA HIPO^TESIS d. No es dificil construir algún mvdefo en el que se elimine exclusivamente la hipótesis d. Para ello, es necesario tener presente que las hipótesis a, b y c se refieren a la distribución marginal del número de sucesos que ocurren en un intervalo de tiempo dado, rnientras que la hipótesis d se refiere a la distribución conjunta del número de sucesos que ocurren en dos intervalos de tiempo dados y disjuntos. -^l (^l \ ^^ ( ^ E \1 E2 1l ll 1( It)tií ^ [)t 1 •1ti I)Itil Rllil ( I(1`.E ^ ()E I'^ ^ ltitita\ 1 ^ ^ ^,ti1^t ^ EI siguiente modelo satisface las hipótesis a, b y c pero na ta d. Sea: Frob(X^.^= 1/(W=0})=ao(t ) Prob(X^.^= 1/(W- i })=at(t ) con: , si [ t] cs par , a ( t)` 0 a( t)= 2 a At , si [ t] cs par 2 a At , si [ t] ^s impar 1 0 0 , si [ t] ^s irnpar ' donde X t,et es la variable aleatoria que cuenta el número de sucesos que ocurren en el intervalo (c,t+ec] que puede tomar valor o ó 1 cuando et e s pequeño, W es una variable aleatoria tal que Prob(W=0)=Prob(w=1)=1/2 cuyo valor se sortea en el instante t= 0 y se rnantiene constante para t> 0 y[t^ e s el valor entero de t. Además se supone que la hipótesis d se satisface condícinada a w=0 y también condicionada a w= i.(Es decir, condicionado a W=0 ó a w=1 se cumplen las hipótesis a, c y d pero no la b) . En tal caso, el teorema 4e la probabilídad total conduce a: 1 Prob(Xt,^= 1)= i Prob^ (X^,^= 1/(W=i }) Prob(W=i)= ,=0 --2a Ot 1 +0= a0t 2 tanto si [t] es par como si es impar, por lo que las hipótesis a, b y c se satisfacen rr^argina/mente a w, es decir cuando es desconocido el valor de W. Sin embargo, no se satisface la hipótesis d marginalmente a W, ya que: Prob(X^+1,ec^ i/(X^.d[= 1 })= 0 debido a que los sucesos {X t+i ,ot= i} y{X tset= i} son incornpatibles por verificarse la hipótesis d condicionada a w, es decir cuando es conocido el valor de W, ya que: Prob(X^+l,et= 1,Xt.^= 1} )_ 1 -- ^ Prob(X^+t,et^ 1,Xt.^=1/(W=i})Prob(W=i)= ^=0 _(2a Ot )(0 At ) 1+( OAc )( 2a Ot ) 1- = 4 2 2 tanto si [c] es par como si es impar. Además, la probabilidad de que e^ e! i^tervalo de tiempo (O,c] ocurran x sucesos se c.alcula usando los resultados de! apartado 3.1, obteniéndose: 1 P(t;x)= ^ P(t;x/{W = i}) Prab(W- i)= i^ i -^t(^) [^1(t)J ){^ 1 -^p(^) -[^p(t - X' ._._ _ + 2 ^ -- 2 c x=0,1,2,__ s^endo : c ^. ; ( t ) = j^ oc ; ( t ) dt , con i = 0 , 1 Este modelo admite una generalización inrnediata si se permite sortear el valor de la variable aleatoria w cada cierto número, previamente >I^ 1 !( ^ E ^F' > `^C)i ^l dado, de unidades de tiempo. Asimisma, pueden encontrarse otras generalizacianes abandonando ia dieotomia de w. 7. COMBINACION DE LOS MODELOS ANA^IZADOS. En los apartados anteriores se han mastrado modelos que tienen un origen similar al del modelo que conduce a las distribuciones de Poisson y Gamma, per0 en los cuales se han eliminado una o más de ias hipátesis de éste últim©. COncretamente, en el apartado 3 se analiza un modelo que no satisface ia hipótesis b, en el 4 uno que no satisface b ni d, en el 5 se elimina la hipótesis c y en el 6 la d. Llamamos a estos casos (b), (b,d}, (c) y (+^ ) De una manera similar, es posible combinar las técnicas de todos estos apartados para encontrar modelos que no satisfagan el conjunto de hipótesis (b,c}, (c,d) ó{b,c,d). Sín embargo, la hípátesis a no puede ser ignorada en ningún caso. BIB LIt7G 1"iAFIA ASC H E R, H. y F E I NGOLD, H. (1984} . Repairab/e Systems Reliabílity: Modsl/ing, Inference, Misconceptíons and Their Causes. Dekker. BARLOW, R.E. y PROSCHAN, F. {1975). Statistical Theory of Reliabílity and Life Testing^. Hoit, Reinhart and Winston. BARTOSZYNSKI, R., BROWN, B.W., Mc BRIDE, C.M. y THOMPSON, J.R. (1981). Some Nonparametric Techniques for Estimating the Intensity Function of a Cancer Related Nonstationary Poisson Process. The Annais of Statistics, 9, 1050-^ 060. BILLINGSLEY, P. (1968). Convergence of Probability Measures. Wiley. BREMAUD, P. (1984}. Introduction aux Probabilifés. Springer Verlag. CASTILLO,E. (1978). lntroduccidn a/a Estadística Aplicada. E. Castillo. COX, D.R. (^i 962). Renewal Theory. Wiley. COX, D.R. e ISHAM, V. (1980}. Point Processes. Chapman & Ha11. COX, D.R. y LEWIS, P.A.W. {1966). Events. Methuen. The Statistical Ana/ysis of Series of CROW, L.I-I. (1974). Relíability Analysis for Complex, Repairable Systems. Reliability and Biometry, eds. Proschan, F. y Serfling, R.J. SIAM, pags 379-41 (J . FELLER, W. (1968}. An introduction to Probability Theory and Its Applicati©ns. Wiley. GAIL, M.H. , SANTNER, T.J. y BROWN, C.C. (1980). An analysis of Comparative Carcinogenesis Experiments Based vn Multiple Times to Tumor. Biometrics, 36, 255-266. ^l.t,l ti•^ti (;E^E R^^t II•1^( I(^tiE:^ [:)E l.->ti [)I^f R1f31 ( Ic^tiE^ C)f P()I^^(tti 1 t, ^tit*^-^ HAIGHT, F.A. (1967). Handbook of the Poisson Distribution. Wiley. HECKMAN, J.J. y SINGER, B. (1985). Social Science Duration Analysis. Longitudina! Analysis of Labour Market Data, eds. Heckman, J.J. y Singer, B. Cambridge University Press. pags. 39-110. JOHNSON, N. L. y KOTZ, S. (1969) . Distributions in Scatistics: Discrete Distributions. Wiley. JOHNSON, N.L. y KOTZ, S. (1970). Distributions in Statistics: Continuous Univariate Distributions-l,-2. Wiley. KARR, A.F. (1986). Point Processes and Their Statistical Inferenc^e. Dekker. LEWIS, P.A.W. ed. (1972). Stochastic Point Processes. Wiley. MOOD, A.M. , GRAYBILL, F.A. and BOES, D.C. (1976). Introduction to the Theory of Statistics. McGraw-Hill. PARZEN, E. (1972). Procesos estocásticos. Paraninfo. SNYDER, D.L. (1975). Random Point Processes. Wiley. TUMA, N.B. y HANNAN, M.T. (1984). Sociat Dynamics: Modals and Methods. Academic Press. f tiF^ ^^ [)l^TI^ ^ t tiF' ^`l ^ l ^ SOME GENERALIZATIONS OF THE POISSON AND GAMMA DISTRI BUTIC)NS SUMMARY The starting pornt of the paper is one of the metf^ods used to generate Poisson and yamma distributions. This meth©d assumes four hypotheses governing the way in which the events of interest happen in time. Tvvo random variables are defined: the number of events counted in a given time intervai and the t^me needed to observe a given number of events. The probability dístributions of these randUm variables are known as Poisson and garr^ma respectively. The paper ^s devoted to analyzing the models found when one or more of the four hypotheses are suppressed and to obtaining the corresponding probability distributions for the two random variables under consideration. These distributions can be considered as generalizations of the Po^sson and gamma distributions. The work proceeds by using a unifying methodological scheme, wh^ch emphasizes the most important aspects o# the hypotheses. In addition, some potential applications are mentio ned. Key worcls.^ Point processes, Poisson pr-ocesses, renewal processes, distrik^utions, hazard rate, time between failures. A MS Clasifiea tior^.^ 6 0 E 0 5, 6 0 G 5 5, 6 2 N 9 9.