SALUD PÚBLICA 5º TEMA I Epidemiología Como ciencia que estudia las epidemias, trabaja con bases de datos tabuladas, de las que se puedan extraer informaciones para analizar. Las cinco preguntas clásicas del estudio epidemiológico son: qué, quién, cómo, dónde, y cuándo. Estas preguntas buscan ubicar tres parámetros: persona, lugar y tiempo. Establecido esto se puede aventurar una hipótesis, que será comprobada por medios lógicos o experimentales (ensayos clínicos). El siguiente paso del método epidemiológico es la transformación de la hipótesis en ley. • Evolución histórica HIPÓCRATES (hace 2.400 años) estableció una perspectiva comunitaria en la comprensión de las enfermedades, en su obra Aires, aguas y lugares pone de manifiesto cómo los fenómenos biológicos y sociales afectaban colectivamente a la población: podemos pues establecer en este momento el origen de la epidemiología. En España, ANGELERIO (finales del siglo XVI) en un estudio sobre la peste titulado Epidemiología introduce por primera vez en nuestro país el término epidemiología. En 1802 VILLALBA, sanitario español, publicó un libro titulado Epidemiología española, que relata todas las epidemias ocurridas en España hasta 1801. Superado el origen divino de la enfermedad, la teoría miasmática establece la causalidad en factores medioambientales, entre los que se encuentran la pobreza y las bajas condiciones sociales. Entre los autores que propugnan estas teorías destacan WIRCHOW (Alemania), VILLERMÉ (Francia), ALISON (Escocia), y FARR y SNOW (Inglaterra). JOHN SNOW, médico de una amplia formación técnica y humanista, es considerado como el padre de la moderna epidemiología, al sentar las bases del método epidemiológico en sus trabajos sobre la propagación y prevención del cólera en la ciudad de Londres, en 1849, 1853 y 1854. La epidemia de Broad Street (agosto de 1854) sigue todo un método clásico de investigación cuyos pasos se sintetizan a continuación: • Diagnóstico de la epidemia por aumento de la concentración de casos en un área localizada. • Distribución cronológica de los casos: la epidemia comenzó entre el 30 y 31 de agosto. • Distribución espacial o mapa epidemiológico: la mayoría de los casos se distribuían en un área alrededor de un pozo equipado con bomba manual ubicado en Broad St. • Encuesta y análisis de otros atributos. • Establecimiento de la causa: contaminación de la noria por el alcantarillado y descargas de pozos negros, hizo destapar la noria y demostró la proximidad de un pozo negro y de una alcantarilla (demostró la presencia de materia orgánica por análisis químico del agua). 1 • Recomendaciones: hizo retirar la manilla de la bomba con lo que empieza a declinar la epidemia el 8 de septiembre. • Presenta un informe final con las conclusiones obtenidas. Snow describe toda la epidemiología del cólera, 30 años antes de que se descubriera el bacilo productor de la enfermedad. A partir de 1874 comienza la era bacteriana con los avances microbiológicos y serológicos: aparece la ciencia de las enfermedades infecciosas con la Teoría de los gérmenes (Pasteur, Koch, Kitasato, Versin). • Epidemiología moderna La moderna epidemiología comienza con unas bases perfectamente establecidas en el estudio de las enfermedades infecciosas para pasar después, en una aplicación más amplia, a estudiar todos los problemas de salud−enfermedad. El inicio de la epidemiología moderna se puede situar en 1943 cuando John Ryle, ocupa la plaza de profesor de Medicina Social en la Universidad de Oxford, (resalta que los aspectos sociales de las enfermedades son más relevantes que el agente específico que las ocasiona). En estos años se creó en Inglaterra la primera escuela de higiene del mundo. También influyó en el cambio del sentido de los estudios epidemiológicos el progresivo envejecimiento de las poblaciones, que llevaba a la necesidad del conocimiento de las enfermedades crónicas. Se ve que entre la epidemiología de las enfermedades infecciosas y la de las no infecciosas no existe una diferencia tan grande, y disponemos del método que permite estudiar ambos tipos de enfermedades. El despliegue de la epidemiología sigue siendo lento, el desarrollo más importante que se ha producido se debe a la influencia de la estadística, y en los últimos años a la informática que han prestado sus herramientas a la epidemiología. • Definición de epidemiología Existen numerosas definiciones de epidemiología en parte porque ninguna satisface todos los requisitos que se les debiera exigir y en parte por el dinamismo de la disciplina (se ha ido modificando en función de cómo cambiaba el concepto de enfermedad), surgiendo nuevas definiciones en un intento de precisar sus límites y aplicaciones. Inicialmente era la ciencia o doctrina de las epidemias; más tarde amplio su definición para ser la ciencia de los fenómenos de masa, más cercano al sentido etimológico del término epidemiología (epi = sobre; demos = pueblo; logos = tratado). Veamos algunas de las definiciones que marcan cambios en la interpretación de la enfermedad: • FROST (1927): ciencia de las enfermedades infecciosas, en tanto que son un fenómeno de masas o de grupo, consagrada al estudio de su historia natural y su propagación en el marco de una cierta filosofía. • MAXCY (1951): rama de la medicina que estudia la relación entre los diversos factores que determinan la extensión y propagación en la colectividad humana de una enfermedad infecciosa o de un estado fisiológico definido. 2 • MACMAHON & PUGH (1970): estudio de la distribución de la enfermedad en el hombre y de los factores que determinan su frecuencia. • ASOCIACIÓN EPIDEMIOLÓGICA INTERNACIONAL (1974): trato de unificar las distintas definiciones existentes y propuso la epidemiología es el estudio de los factores que determinan la frecuencia y distribución de enfermedades en poblaciones humanas. Incluye ya todo proceso o enfermedad, agudo o crónico, físico o mental, transmisible o no, que afecte a grupos de población. • Numerosos autores (Mouis, 1975; Enterline, 1979; Neutra, 1979; Guerrero, 1981; Jenicek, 1982) la consideran un método, es decir, como una herramienta para obtener conocimientos sobre la enfermedad. • PAYNE: la epidemiología es el estudio de la salud del hombre en relación con su medio introduciendo el concepto de ecología en la relación salud−enfermedad (la salud del hombre como la adaptación de éste a su medio ambiente). Actualmente se podría definir como la metodología orientada hacia la investigación de todos los problemas de salud y enfermedad que afectan a las poblaciones. • Concepto Es la ciencia y método de razonamiento inductivo para investigar y solucionar un problema de salud, con independencia de su etiología, que afecta a la comunidad. • Fines y objetivos de la epidemiología La epidemiología tiene como fines y objetivos fundamentales todos los fenómenos biológicos y sociales que afectan la salud de la comunidad. ♦ Fines La Epidemiología se basa en fundamentos teóricos que sintetizó Jenicek en: • EXACTITUD: Los estudios epidemiológicos deben ser lo más exactos posibles tratando de eliminar o reducir al máximo los errores accidentales o sistemáticos. • CLASIFICACIÓN: Los datos recogidos deben ser tabulados y adaptados a una buena clasificación de los fenómenos que sea acorde con los sistemas de taxonomía internacional de los mismos (CIE 9 MC). • RAZONAMIENTO: El razonamiento basado en el juicio clínico y en el enfoque de salud comunitaria es fundamental en epidemiología. • NORMALIDAD y REPRESENTATIVIDAD: Los hechos estudiados en los fenómenos epidemiológicos deben ser representativos en sus observaciones de lo que ocurre en la población. ♦ Objetivos • Diagnóstico de salud en la población Utilizando métodos epidemiológicos se puede describir y tratar de diagnosticar el estado de salud de la población mediante INDICADORES SANITARIOS (variables numéricas relacionadas con factores específicos que miden determinados aspectos del estado de salud y la evolución que en él se pudiera ocasionar). 3 Los indicadores clásicos de salud han sido los de morbilidad y mortalidad; actualmente se pretende medir la salud como un proceso de adaptabilidad. Hay que establecer: 1. Estructura demográfica de la población. 2. Definición de las variables biológicas, sociales y ambientales: raciales, congénitas, medio ambiente, condiciones sociales 3. Indicadores de morbilidad y mortalidad. Índices de salud global. La Clínica trata problemas individuales de salud − enfermedad: diagnóstico y tratamiento, pronóstico y evolución, alta y recuperación. La Epidemiología trata problemas de salud−enfermedad como fenómeno de grupo: • Diagnóstico de salud y tratamiento (programas de salud). El diagnóstico de salud debe de realizarse de forma dinámica teniendo en cuenta el mundo cambiante en que nos desenvolvemos observando las repercusiones del modo de vida en la población (telefonía móvil). • Análisis: vigilancia epidemiológica de la enfermedad y del medio ambiente en que se desarrolla. • Problemas de salud condicionados: hábitos de vida, estado de nutrición, educación sanitaria, etc. • Evaluación de métodos de diagnóstico y tratamientos La valoración de los tests diagnósticos se debe realizar mediante el método epidemiológico buscando: • Simplicidad (economía de gasto) • Objetividad (reproductividad) • Validez (sensibilidad y especificidad) • Aceptabilidad por parte de la población SENSIBILIDAD: capacidad de reacción positiva en presencia de la enfermedad, capacidad de detectar enfermos entre los verdaderamente enfermos. Un test muy sensible nos servirá para buscar nuevos casos. ESPECIFICIDAD: falta de reacción en ausencia de la enfermedad ó capacidad para detectar enfermos entre los sanos. Un test muy específico nos servirá para resolver un problema de diagnóstico. En cuanto a la evaluación del tratamiento se tendrá en cuenta las características del enfermo, de la enfermedad y de la propia terapia empleada, valorando: • Eficacia • Costo • Administración, aceptación y control por parte del paciente • Ausencia de efectos indeseables ó adversos • Establecer probabilidades y riesgos La probabilidad y el riesgo de que una persona pueda desarrollar una enfermedad pueden predecirse a partir del análisis de la experiencia colectiva de una muestra representativa de individuos: 4 • INCIDENCIA: número de casos nuevos de una enfermedad que aparece en un grupo susceptible a lo largo de un período de tiempo. • RIESGO INDIVIDUAL: probabilidad de enfermar o morir de una determinada patología o accidente, condicionada a la probabilidad de que el sujeto no muera por otra causa. Los factores de riesgo son el conjunto de fenómenos de los cuales depende esta probabilidad: se determinan con medidas de frecuencia o de asociación. • RIESGO COMUNITARIO: cálculo de la frecuencia con que se presentan estos determinados sucesos (periódica o instantánea). Relación de individuos que contraen una enfermedad en un periodo dado o que tienen la enfermedad en determinado momento, en relación con los habitantes del área. Podemos ver la evolución de la enfermedad a lo largo del tiempo y considerar su tendencia al alza, a la estabilidad o al descenso, y sus fluctuaciones según épocas, y establecer proyecciones para el año siguiente (o para un periodo máximo de 5 años). • Mejor comprensión de los fenómenos biológicos La descripción de un suceso biológico y el estudio de su distribución de acuerdo a las diferentes variables de persona, lugar y tiempo, dan bases para entender mejor la situación de dicho suceso y ver en qué circunstancias disminuye o aumenta su frecuencia. • Identificar nuevos síndromes: perfeccionar cuadro clínico La definición de síndrome, bien mediante la agrupación de síntomas y signos, de las reglas de la historia natural de la enfermedad y de sus consecuencias, morfológicas y bioquímicas, o bien mediante el descubrimiento de fenómenos aparentemente inconexos que tenían las mismas causas. El análisis epidemiológico puede mostrar: • que lo que tradicionalmente se ha agrupado exige separación debido a que sus componentes se distribuyen en forma diferente en la población • que diversos fenómenos que aparentemente no guardaban ninguna relación entre si deben asociarse por estar distribuidos de forma similar. • Investigación de causas de salud y de enfermedad La epidemiología se aplica principalmente para descubrir las causas de la salud, profundizar en su comprensión, y mejorar el estado de salud de la población. CAUSA − EFECTO (no inmediato) RED CAUSAL En la investigación causal debemos considerar que un efecto puede estar establecido por varias causas (multicausalidad), y éstas pueden determinar un solo efecto, o una causa producir más de un efecto (multiefectividad), dando lugar a lo que se denomina red causal. Además, un efecto como respuesta a una causa puede no ser inmediato, sino que puede producirse después de un largo tiempo de latencia. Acción concomitante de factores causales no antagonistas: • ADICIÓN: el efecto combinado resultante de los diversos factores es igual a la suma de sus efectos 5 individuales. • POTENCIALIZACIÓN: el efecto total es superior a la suma de efectos individuales. Para establecer una relación causal hace falta, además de ir a una asociación estadística, un razonamiento lógico y científico o, lo que es lo mismo, hay que tratar de encontrar una explicación causal para un fenómeno racional. • Funcionamiento de los servicios de salud Ayudar a los servicios de salud en la planificación sanitaria mediante: • Estudio sistemático por medio de la observación y experimentación del funcionamiento de los servicios con vistas a su mejoramiento: gestión y eficacia (GRDs, costes, etc.). Otros campos nutren al funcionamiento de los servicios de salud: economía, ética, análisis de sistemas, modelos matemáticos, empresariales, etc. TEMA II El método epidemiológico El núcleo de la epidemiología es el método epidemiológico, que se nutre de las ciencias biológicas, matemáticas y sociales, etc. Se basa en una serie de etapas: • Observación del fenómeno epidemiológico Mediante un buen sistema de información sobre la distribución de la enfermedad en la población, en un área dada y en un lapso de tiempo definido (fuentes de información): • Conocimiento directo (observación de los hechos naturales) • Revisión bibliográfica • Comparación de los hechos con otros similares (observados o por estudios). Hay que responder a las cuestiones de cuándo, dónde, quién, cómo es decir, epidemiología descriptiva. • Tabulación de los datos observados. Con los datos recogidos y ordenados, procedemos al análisis y comparación de datos. • Formulación de la hipótesis Es la opinión fundada de cuáles han sido los motivos por los que se ha producido el suceso en estudio. La elección de la hipótesis condiciona el éxito o fracaso de una buena investigación epidemiológica causal. La hipótesis epidemiológica presenta generalmente una relación de causa − efecto entre dos categorías de suceso, el factor de riesgo y la enfermedad (de forma probable). Estas hipótesis no pueden ser: • Arbitrarias • Contrarias a las leyes 6 • Incompatibles con los conocimientos científicos • Ni referirse a estudios no disponibles. La hipótesis epidemiológica debe analizar: • La población: características de las personas a las que se les aplica la hipótesis. • El efecto esperado: con la secuencia cronológica, primero la causa y después el efecto. • La causa o factor de riesgo responsable de la enfermedad. • La relación dosis−respuesta: a mayor exposición al factor de riesgo (intensidad y duración), aumento progresivo del efecto. • La relación tiempo−respuesta. Idea original (observando el fenómeno) ! pensamiento inductivo ! conclusiones: hasta este momento estamos realizando epidemiología analítica. • Verificación, comprobación o resolución de la hipótesis mediante experimentación La hipótesis ha de ser lógica o experimentalmente verificada antes de poder transformarla en ley, para poder adoptar luego medidas de prevención. La hipótesis en general debe mostrar una capacidad de ser sometida a la experimentación con los límites de ética y la logística (naturaleza probabilística). Esto es epidemiología experimental. Debemos tener en cuenta: • La validez de la información (evitar errores sistemáticos y sesgos) • La reproducibilidad (evitar errores de muestreo) y precisión del estudio • La exactitud del estudio (combinación de validez y precisión). • Emisión del informe o formulación de la ley causa−efecto de una enfermedad Verificada la hipótesis se emite un informe sobre la causa de la enfermedad. TEMA III Clasificación de los estudios epidemiológicos Los estudios epidemiológicos pueden ser clasificados en función de: • La manipulación • EXPERIMENTALES: el investigador manipula las condiciones del estudio. Estudia un grupo de estudio (factor de riesgo, medida preventiva) y un grupo control o testigo Limitaciones: ética, tiempo factor de riesgo − respuesta en el efecto y costes. Cuando el estudio experimental se realiza sobre personas: ENSAYO CLINICO. • OBSERVACIONALES: no se manipulan las condiciones del estudio. Pueden ser: ♦ DESCRIPTIVOS: caracterizan fenómenos epidemiológicos, factores de riesgo, efectos según las variables de persona, lugar y tiempo. ♦ ANALÍTICOS: un paso más adelante, compara entre grupo de estudio y grupo control, escogiéndose los grupos de acuerdo a la presencia o ausencia del factor de riesgo o del efecto. No describen fenómenos, sino que buscan probar una relación de causalidad. 7 • El seguimiento • TRANSVERSALES o DE CORTE: en un momento dado, en un periodo de tiempo concreto y limitado: PREVALENCIA • LONGITUDINALES: en un período de tiempo suficientemente largo: INCIDENCIA • El sentido del análisis • de la causa al efecto: se estudian un grupo con factor de riesgo (cohorte expuesta) y otro sin factor de riesgo (cohorte no expuesta): ESTUDIO DE COHORTE • del efecto hacia la causa: ESTUDIO DE CASO − CONTROL. • El momento de comienzo • RETROSPECTIVO: efecto se produce antes de estudio • PROSPECTIVO: efecto se produce después del inicio del estudio, independientemente de que el factor de riesgo anteceda o no al comienzo. Del diseño depende la calidad del estudio. Se diferencian dos tipos de estudio: descriptivos y analíticos. • DESCRIPTIVOS Responden al qué, cómo, quién, cuándo y dónde, es decir, a la recogida de datos. Son la descripción de la distribución de un suceso o fenómeno en una población, con fines de: • Planificación sanitaria • Elaboración de mapas de riesgo • Formulación de hipótesis • POBLACIONALES Emplean la tendencia lineal simple, siendo la variable que establece la relación el coeficiente de correlación (r). Representan a poblaciones enteras, y se usan para describir las enfermedades desde un punto de vista que pueda ser útil (edad, sexo). Pero no son estudios fiables. En los estudios descriptivos estudiamos un único individuo o grupo de individuos, sin grupo de control. Por tanto, las conclusiones obtenidas no se podrían generalizar al resto de la colectividad, porque no son representativos. Al no existir grupos de comparación, ni siquiera con otros estudios semejantes, las conclusiones que se sacan son muy limitadas. Tampoco servirían para proyecciones de futuro. ESTUDIOS CORRELACIONADOS (ECOLÓGICOS) La unidad de observación puede ser un grupo de individuos o una población entera, en la que se comprueban las frecuencias de enfermedad entre diferentes grupos durante el mismo período de tiempo, o en la misma población a diferentes tiempos. Se intentan detectar cambios en las frecuencias de una enfermedad en la misma población a lo largo del tiempo. Plantea el problema de que las conclusiones no pueden ser extrapoladas: no queda clara la relación entre el grado de exposición y la enfermedad. 8 • INDIVIDUALES PREVALENCIA (CROSS−SECTIONAL / SECCIÓN TRANSVERSA / ESTUDIO DE CORTE) En estos estudios se incluyen todos los individuos que están en la población en el momento en el que se hace el estudio, investigando todas las variables deseadas aunque no hayan estado expuestos al factor de estudio. REPORT DE CASOS Es, generalmente, la primera evidencia de un fenómeno inesperado o inusual: el primer caso de SIDA, el primer caso de SARS SERIES DE CASOS Describen las características de un grupo de individuos con la misma enfermedad o que han estado expuestos a un mismo factor. Por ejemplo, todos los casos de tuberculosis de un hospital entre 1940 y 1980. • ANALÍTICOS Entre los objetivos de los estudios analíticos están: • La comprobación de hipótesis • La búsqueda de la etiología de la enfermedad como fenómeno de masas • La aplicación de medidas de prevención Los estudios analíticos comprueban qué es lo que les ocurre a individuos sometidos al factor de riesgo investigado. Es decir, los estudios analíticos investigan dos grupos: individuos expuestos e individuos no expuestos. • OBSERVACIONALES El investigador no expone a los individuos: ellos están ya expuestos, y el investigador los observa, sin manipular la enfermedad ni el factor de riesgo. CASO−CONTROL Se selecciona a un grupo de personas con referencia a su status de enfermedad. Existe un caso de estudio, con factor de riesgo y un control, sin factor de riesgo (grupo lo más parecido posible al grupo del caso de estudio, pero sano). Ambos se someten a un cuestionario, y de la diferencia entre las respuestas puedo inferir riesgos de salud. Este tipo de estudios son fáciles de ejecutar, cortos, repetibles, económicos, de alta eficacia, permitiendo, por ejemplo, un primer estudio de enfermedades raras. Pero también tiene inconvenientes: la medición es difícil (mayor posibilidad de sesgos); la recogida de datos es incompleta (controles suelen mentir), y la necesidad de diagnóstico de caso y de control ha de ser muy firme. Además, es muy complicado conseguir un grupo control y determinar la correcta exposición de todos los sujetos. COHORTES Se selecciona un grupo de individuos libres de enfermedad, en base a su estatus de exposición, y se les hace un seguimiento a lo largo del tiempo: 9 • PROSPECTIVOS: a partir de la exposición. • RETROSPECTIVOS: cuando la exposición ya se ha producido. • Cohorte HISTÓRICA • Cohorte ESPECIAL Se emplean en el seguimiento de enfermedades de alta incidencia, no en las raras. Entre sus ventajas están que facilitan una exacta medición del riesgo, con una menor posibilidad de errores y conclusiones falsas, desde el momento en que la definición de exposición queda bien establecida al principio del estudio. Pueden valorar una gama de posibles efectos a partir de una exposición única. Pero entre los inconvenientes tenemos que son difíciles de repetir y costosos: duran muchos años, y eso puede implicar variaciones en la uniformidad del trabajo, pérdidas de información sobe individuos y cualesquiera otros problemas añadidos a las dificultades del seguimiento. • EXPERIMENTALES o DE INTERVENCIÓN Son los estudios por excelencia, los que mayor calidad aportan, aunque no siempre pueden hacerse (restricciones éticas e individuales): el investigador modifica los factores o condiciones de exposición, y trata de reducir la variabilidad debida a factores extraños, frente a los factores en estudio. Siempre se comparan dos grupos, y del estudio de las diferencias se obtiene o no una comprobación de la hipótesis. Ensayos CLÍNICOS Los sujetos del estudio son pacientes (enfermos), sobre los que se evalúan uno o más tratamientos para el mismo proceso. No se trata de prevención primaria, y se asignan aleatoriamente individuos a los que se les da placebo o fármaco. Ensayos DE CAMPO Los sujetos, que han de ser un alto número, son individuos sanos (aún no han adquirido la enfermedad), procedentes de prevención primaria. Este tipo de estudios se limita a factores preventivos de enfermedades muy comunes o muy graves (Poliomielitis − vacuna; gripe − vitamina C). También hay asignación aleatoria de placebo o fármaco. Ensayos COMUNITARIOS DE INTERVENCIÓN Es un ensayo de campo, pero extendido a toda la comunidad (por ejemplo, efectos de la fluoración del agua). Son estudios de gran tamaño y duración. Casos − control Observacionales Experimentales Con factor de riesgo CASOS Sin factor de riesgo CONTROLES Cohortes EXPUESTOS Ensayos clínicos Ensayos de TRATADOS campo Ensayos comunitarios NO EXPUESTOS PLACEBO TEMA IV 10 Epidemiología descriptiva El método epidemiológico se subdivide en tres etapas: • Descriptiva: caracterización del proceso en estudio en la población elegida como de referencia. • Analítica: elaboración y/o confirmación de hipótesis epidemiológicas que expliquen la ocurrencia de la enfermedad en la colectividad. • Experimental: tras la fase experimental, se rechaza la hipótesis o, por el contrario, se eleva a la categoría de tesis. La epidemiología descriptiva y analítica se engloban bajo la denominación común de Epidemiología observacional (los estudios epidemiológicos suelen incorporar ambos aspectos, descriptivo y analítico). • Etapas de un estudio descriptivo La Epidemiología descriptiva es el primer eslabón que se coloca cuando se intenta establecer una relación causal entre un factor y una enfermedad. La descripción de un fenómeno es una etapa previa al estudio de sus posibles factores determinantes (conocimiento de los grupos de riesgo), así que el diseño en epidemiología no sólo constituye el planteamiento teórico de un estudio epidemiológico para abordar la enfermedad: es la parte más importante ya que condiciona la ejecución y el análisis de datos. La descripción puede ser en sí misma la finalidad del estudio (planificación en salud) o, en otras ocasiones, puede ir seguida de otros estudios que sirven para confirmar la hipótesis etiológica. • Selección de la población de referencia: posibilita la extrapolación de datos (población española). • Selección de la población elegible o población diana: características que deben reunir los sujetos que puedan ser incluidos en la investigación. • Selección de la población de estudio: si la elegible es inabordable, una muestra representativa. • Selección de la medida de la frecuencia: según se haga seguimiento o no a las poblaciones, incidencia (dinámica de la enfermedad) o prevalencia (estática). • Definición exacta del caso de estudio: con dos fines ♦ No poner en el numerador otros procesos patológicos. ♦ Ofrecer criterios uniformes para los investigadores: el seguimiento de normas internacionales permite la comparabilidad. La regla de oro de cualquier estudio pasa por definir estos criterios perfectamente en el Protocolo del estudio. • Selección y definición de las variables que caracterizan el proceso: según se recojan las variables, así serán los resultados ♦ Persona, lugar, tiempo. ♦ Patología, terapéutica, etc. • Selección de las fuentes de información • Planteamiento y solución de problemas de gerencia y administración ♦ Coste ♦ Personal ♦ Cronograma ♦ Diseño del Protocolo final 11 • Ejecución del estudio • Elaboración de resultados y conclusiones • Evaluación global y por objetivos del estudio • Fuentes de datos Necesitamos los datos que conciernen a la población (datos demográficos, que son los denominadores de las tasas a calcular) y los datos relativos a los problemas de salud existentes (que serán los numeradores de las tasas). • Datos poblacionales • ESTADÍSTICAS DEMOGRÁFICAS Recogen las principales características de las personas (edad, sexo, categoría socio−profesional, etc.) en tasas especificas o tasas estandarizadas según estos factores, ordenadas por un criterio geoadministrativo (país, comunidad autónoma, región, municipio, etc.), lo que hace que sean datos fácilmente accesibles. Dan datos sobre la estructura, componentes, distribución por edades y sexos, y tendencias de una población, y esto es el fundamento de la mayor parte de los indicadores de salud y de las medidas de comparación. • Anuario Estadístico (desde 1858) del Instituto Nacional de Estadística (INE) • Publicaciones de Centros o Institutos de Estadística de las CCAA • Instituto de Demografía del Consejo Superior de Investigaciones Científicas (CSIC). • Servicio de personal de empresas, organismos públicos (Ministerios, Agencias). • Para otras zonas sin datos demográficos habrá que diseñar encuestas diseñadas al efecto. • ESTADÍSTICAS VITALES Recogen los hechos vitales más frecuentes (nacimientos, matrimonios, defunciones). • Datos de MORTALIDAD En todos los países desarrollados hay una recogida exhaustiva y permanente de datos sobre mortalidad. Cualquier muerte ha de ser comprobada por un médico, quien extiende un certificado de defunción indicando la causa médica. En España, las fuentes de datos de mortalidad son: • Registro Civil • Boletines Estadísticos de Defunción • Movimiento Natural de Población (anual), publicado por el INE Habitualmente recogen: • Datos agregados sobre defunciones y su distribución por lugar de inscripción/de residencia. • Edad al fallecimiento • Causas (CIE−9MC Clasificación Internacional de Enfermedades 9' rev. Modificación Clínica) • Agregaciones: nacional, por Comunidades Autónomas, provincias y poblaciones. • Datos de MORBILIDAD La morbilidad no se recoge tan exhaustivamente como la mortalidad, salvo en los registros de Hospitales Públicos y Clínicas privadas que anotan enfermedades que intentan conocer (incidencia de una enfermedad 12 en ese territorio). Su mantenimiento es costoso y se utiliza para estudios analíticos de enfermedades graves e importantes. En España: pueden presentar sesgos en su declaración y/o registro, y posiblemente no recogen la totalidad de los datos: • Registro de Enfermedades de Declaración Obligatoria (EDO),. • Enfermedades profesionales • Accidentes laborales • Enfermedades de larga duración o costosas • Accidentes de circulación con daños corporales • Red de médicos centinelas: recogida de información por médicos voluntarios interesados en una determinada patología. • Historias Clínicas: otra importante fuente de información de morbilidad, siempre que esté correctamente recogida la información. En la actualidad, en España, es obligatorio que la historia clínica recoja en el informe del alta el denominado CMBD (Conjunto Mínimo Básico de Datos), con lo que si se convierte en una interesante herramienta de investigación en epidemiología. • Estadísticas de recursos o de uso de servicios Datos económicos, materiales (Hospitales, consultas) y de personal disponible. Recogen aspectos medico−administrativos derivados de la actividad hospitalaria o la asistencia primaria, según indicadores determinados: • Consultas practicadas • Ingresos producidos • Intervenciones quirúrgicas La aplicación más interesante que se está dando a esta información es para temas de gestión para conocer el producto hospitalario mediante los GRDs (Grupos Relacionados con el Diagnóstico). • Estadísticas de salubridad Población con agua potable, por ejemplo. • Obtención de datos: población y muestra Si quisiéramos hacer un estudio sobre todos los individuos de la Facultad (población de origen) tendríamos problemas de tiempo y de dinero: lo que se hace es determinar un tamaño muestral (n) asequible y trabajar por muestreo, es decir, trabajar con una muestra representativa de esa población. Procedimientos para la recogida de información • SONDEO: Encuesta dirigida a un número limitado de individuos. Da una información rápida de la situación epidemiológica (prevalencia). Puede ser único o repetido para ver tendencias. • ENCUESTA GENERAL: Se dirige a toda la población. Está justificada cuando las informaciones disponibles sobre la enfermedad son suficientes, para evaluar la toma de medidas preventivas o terapéuticas a gran escala. • ENCUESTA PERMANENTE: A largo plazo, con forma de sondeo o de detección, como en el registro periódico de casos. • ENCUESTA NACIONAL: Sobre una muestra representativa de la población. No va enfocada a una 13 sola enfermedad sino a todos los problemas de salud (morbilidad, mortalidad, crecimiento y envejecimiento, variaciones en los factores ambientales). Por ejemplo, la US Nacional Health Survey. • VIGILANCIA EPIDEMIOLÓGICA: Recoge los problemas de salud más importantes (registro de cáncer), o del conjunto de elementos que constituyen la historia natural de la enfermedad (caso, población de riesgo, agentes etiológicos, medio natural y social). Por ejemplo, el registro de veteranos, el de gemelos • Preguntas previas al diseño del estudio • Población teórica: ¿a quién deseo generalizar los resultados del los estudios? • Población estudiada: ¿a quién puedo acceder en el estudio? • Tamaño muestral: ¿cuántos individuos necesito para poder generalizar resultados? • Técnicas de muestreo: ¿de qué manera selecciono a los individuos? • Muestra: ¿quién forma parte del estudio? Cualquier estudio debe determinar el tamaño de muestra necesario para la ejecución del mismo y guardar las proporciones de los parámetros que definen la población de origen (HOMOGENEIDAD y REPRESENTATIVIDAD). Cada elemento de la población es un individuo, y todos los elementos tienen al menos una característica común. Una MUESTRA es el conjunto de los individuos realmente estudiados. En la mayoría de las ocasiones, el número de sujetos necesarios para la realización del estudio es mucho menor que el de candidatos que forman la población de estudio, aparte de que una frecuente inaccesibilidad de las poblaciones impide que éstas puedan ser estudiadas directamente. Todo ello conlleva a que, por razones de eficiencia y disponibilidad de recursos, se trabaje con una muestra de la población objeto de estudio. La muestra debe ser lo más semejante posible a la población y, por tanto, representativa de la misma. Los resultados obtenidos en la muestra, válidos en si mismos tan sólo para la muestra, permitirán estimar conclusiones para la población, en el caso de la muestra sea en verdad representativa de la población. Cuanto más fielmente represente la muestra a la población, más fiables serán las conclusiones e inferencias del estudio. En líneas generales, para que el estudio de una muestra sea válido para la población, se requiere: • HOMOGENEIDAD: La muestra tendrá las mismas proporciones que la población en todos aquellos caracteres que pueden influir sobre a variable en estudio y, consecuentemente, en los resultados. No es necesario que exista homogeneidad en aquellas características que no actúan sobre la variable. Así, si se estudia la fuerza física de una población, la muestra deberá guardar una proporción de varones/mujeres y de adultos/niños similar a la de la población. La dificultad estriba en que no siempre se conocen a priori los caracteres que pueden influir en los resultados. En general se ha de seleccionar una muestra homogénea con la población que se estudia en todo aquello que se sabe que tiene influencia sobre el experimento que se realiza y en aquello cuya influencia se sospecha. • REPRESENTATIVIDAD: La muestra ha de ser un modelo representativo de la población. • Tipos y métodos de muestreo Una vez definida la población de estudio, el siguiente paso es determinar cuántos sujetos compondrán la muestra (cálculo del tamaño muestral) y qué criterios determinarán la elección de los sujetos de la muestra. Así el conocimiento del número de sujetos necesarios permitirá evaluar si el estudio puede ser 14 factible o si, en el caso de no disponer del número suficiente de pacientes, se requerirá una modificación de los criterios de selección, la colaboración con otros centros investigadores, o la prolongación del periodo de reclutamiento. La inclusión de un número excesivo de sujetos encarece el estudio y puede ser considerado poco ético, ya que un mayor número de sujetos recibirá la intervención menos eficaz o será sometido a determinadas exploraciones. De tal modo que la principal razón para estudiar una muestra y no toda la población es el ahorro de tiempo y dinero, es decir, eficiencia. Asimismo, hay razones de validez, en cuanto que las mediciones de las variables tenderán a ser más exactas, ya que se pueden dedicar más esfuerzos a asegurar la calidad si se efectúan en un número reducido de sujetos. • MUESTREOS PROBABILÍSTICOS Es el proceso en el que todos los individuos candidatos tienen una probabilidad conocida, distinta de 0, de ser incluidos en la muestra (EQUIPROBABILIDAD). Utilizan alguna forma de selección aleatoria para seleccionar las unidades que serán estudiadas. La diversas técnicas del muestreo probabilístico se realizan al azar, evitando la posible parcialidad, consciente o inconsciente, de los investigadores (INDEPENDENCIA). Por esta razón, es más probable que las muestras tiendan a ser representativas de la población de referencia. Pese a ello las muestras pueden contener error, de manera que los valores de una variable obtenidos en la muestra difieran de los verdaderos de la población, simplemente por el azar (error aleatorio o por muestreo) Hay que tener en cuenta que cuando se elige una muestra, ésta no es más que una de las infinitas muestras posibles que pueden obtenerse de la población de referencia. De todos modos la aplicación del muestreo probabilístico permite la utilización de técnicas estadísticas capaces de cuantificar este error aleatorio. • ERROR ALEATORIO. Obtención de un resultado no válido debido al azar: se puede corregir aumentando el tamaño muestral. • ERROR SISTEMÁTICO. Los resultados no son válidos desde el principio, debido a un sesgo: una mala recogida de datos, factores de confusión. No hay arreglo: lo mejor es repetir el estudio, diseñando bien el estudio y eligiendo un buen muestreo. • MUESTREO ALEATORIO SIMPLE • Cada unidad de muestreo de la población (elemento sobre el que se aplica la técnica de selección) tiene la misma probabilidad de ser escogida. Se requiere un listado de las unidades de muestreo y, tras calcular el tamaño preciso, se procede a seleccionar las unidades necesarias mediante un sistema de rifa, sorteo o el empleo de la tabla de números aleatorios o mediante algún proceso de randomización informática. • El procedimiento es simple y sólo requiere un mínimo de paciencia. Tiene la ventaja de ser sencillo y de fácil comprensión, permitiendo un cálculo rápido de medias y varianzas. Pero requiere que se conozca de antemano la lista completa de todas las unidades de muestreo, y si la lista tiene fallos u omite segmentos de esta población se perderán las ventajas, ya que todas las unidades no tendrán las mismas probabilidades de ser elegidas. Si las muestras son pequeñas pueden originarse muestras altamente sesgadas respecto a la población. • MUESTREO ALEATORIO SISTEMÁTICO 15 • Se basa en alguna regla sistemática simple, como elegir uno de cada n individuos. Tras calcular la constante de muestreo (k), dividiendo el total de la población por el tamaño de la muestra deseado, se procede a extraer la primera unidad al azar de entre los primeros k individuos y se le suma la constante, sucesivamente, hasta completar el tamaño de la muestra. • Es fácil de aplicar, siendo en muchas ocasiones más cómodo y práctico que el muestreo simple (es más sencillo elegir las historias terminadas en cero que realizar una extracción por tabla de números aleatorios). • Otra ventaja es que no se necesita tener completa la lista de elementos de la población: el listado se puede construir a medida que el estudio avanza, siempre y cuando las unidades tengan algún orden preestablecido. Asimismo, sí la población se encuentra ordenada siguiendo una tendencia conocida (de más viejo a más joven), el muestreo sistemático asegura una cobertura de unidades de todos los tipos. • La limitación más importante aparece cuando la constante que se aplica está relacionada con el fenómeno que desea medirse. En este caso pueden darse estimaciones muy sesgadas de los parámetros poblacionales (intentar estudiar la actividad de un centro de urgencias a partir de los pacientes que acuden un determinado día de la semana, por ejemplo, los lunes). • MUESTREO ALEATORIO ESTRATIFICADO • La población se divide en dos o más estratos o subgrupos, en razón de alguna característica común, siendo mutuamente excluyentes. • A continuación se escoge una muestra al azar en cada estrato, manteniendo las proporciones observadas en la población de referencia. Así, por ejemplo, la estratificación según sexo, con una posterior elección de una muestra de varones y otra muestra de mujeres. • Se consigue que cada subgrupo tenga una representación similar a la de la población de referencia, evitando que los resultados estén influidos por alguna de las variables de estratificación. Para su correcta aplicación se requiere conocer la distribución en la población de la variable o variables utilizadas para estratificar. • Con el muestreo estratificado se obtienen estimaciones más precisas de los parámetros poblacionales que con el muestreo aleatorio simple. • PROPORCIONAL: al número de individuos que hay en los grupos de los estratos elegidos le corresponde una proporción exacta en la muestra. • SIMPLE: a cada estrato le corresponde un número igual de individuos. • ÓPTIMO: tiene poca aplicación. • MUESTREO ALEATORIO POLIETÁPICO o POR ETAPAS MÚLTIPLES • En muchas ocasiones es necesario hacer una estratificación con respecto a dos o más caracteres. Así, por ejemplo, el estudio de la talla en referencia a! sexo y a la edad. • En este caso se tendría que estratificar paulatinamente: en una primera etapa se seleccionan unidades de muestreo de una población, procediéndose a obtener, en una segunda etapa, una muestra de cada una de las unidades primarias. Se puede usar el número de etapas que sea necesario y, en cada una de ellas, el sistema de muestreo apropiado. 16 • Gráficamente se va obteniendo un racimo (cluster) que puede crecer indefinidamente, con el resultado de que en cada submuestra, el número de unidades será menor cada vez, a medida que se amplia el racimo, lo que puede llevar aparejado la dificultad de poder demostrar diferencias estadísticamente significativas entre las diversas casillas de la muestra, a medida que va aumentando el número de unidades. • Ello puede llevar a obligar a limitar el grado de estratificación, por lo que se debe analizar con cuidado el diseño de la muestra. • La unidad de muestreo primario es la más grande y comprende un mayor número de elementos, y se desciende en las sucesivas etapas hasta llegar a la unidad básica o elemento de la población. Así, si se quiere estudiar la prevalencia de escoliosis en niños en edad escolar, una manera de seleccionar la muestra seria elegir al azar escuelas (unidades primarias) y, dentro de cada centro una muestra de niños (unidades secundarias). • El muestreo en etapas se utiliza cuando la población de referencia es muy grande y dispersa. Su desventaja es que si las unidades primarias contienen personas similares con relación al fenómeno en estudio, es difícil estimar la precisión con que puede calcularse los parámetros poblacionales. • MUESTREO ALEATORIO POR CONGLOMERADOS • Si en el estudio polietápico se incluyen todas las unidades secundarias, el muestreo se denomina en conglomerados. • Los métodos presentados están pensados para seleccionar directamente los elementos de la población, es decir, que las unidades muestrales son los elementos de la población seleccionada: se determina el número de conglomerados necesarios para obtener el tamaño muestral y se cogen n individuos. • MUESTREOS NO PROBABILÍSTICOS Sus resultados no se pueden generalizar a la población de la que parten. Las unidades se escogen utilizando métodos en los que no interviene el azar. Se desconoce la probabilidad que posee cada unidad de ser incluida en la muestra. Existen diversas técnicas: • MUESTREO POR CUOTAS • Poco utilizado en investigaciones epidemiológicas y más en estudios de mercado. A partir de la composición general de la población por características, tales como edad o sexo, se determina el número de personas necesarias para cada característica y, a partir de ahí, el único requerimiento es conseguir el número adecuado de personas para llenar cada cuota. Es muy probable que la muestra difiera sistemáticamente de la población. • MUESTREO OPINÁTICO O INTENCIONAL • Para conocer la opinión o intención. Se busca una muestra representativa de la opinión que buscamos recabar. • MUESTREO CAUSAL O INCIDENTAL • Muestreo consecutivo • Se selecciona a los pacientes que cumplen los criterios de selección a medida que acuden a la consulta durante un periodo de tiempo determinado. Si se cumple la condición de que la muestra esté libre de 17 sesgos y de que sea representativa de la población, el método es válido. • Muestreo oor inclusión de voluntarios • En general es preferible rechazar la colaboración de voluntarios ya que los motivos que llevan a una persona a prestarse a un estudio sin haber sido seleccionada suelen estar relacionadas con otras características que afectan a la representatividad de la muestra. Estudios para determinados parámetros • NIVEL DE CONFIANZA: Seguridad de obtener resultados válidos y extrapolables a la población. Dependiendo del nivel de seguridad que predeterminemos tendremos un determinado valor de Z. Por ejemplo, cuando Z = 1,96 = seguridad del 95 %. • PRECISIÓN: amplitud del intervalo. • VALOR APROXIMADO DE LO QUE QUEREMOS MEDIR: Si lo desconocemos, nos ponemos en el peor de los casos, un 50 %. Varía según conozcamos o no la población: • No conocemos la población: • Sí conocemos la población: • CONTRASTE DE HIPÓTESIS: se trabaja con dos tipos de población: los expuestos y los no expuestos. • TAMAÑO MUESTRAL: para determinarlo necesitamos conocer: • La magnitud de la diferencia a detectar • Tener una idea de los parámetros • Seguridad del estudio • Poder estadístico (1 − , o riesgo de cometer el error ) • Definir si la hipótesis va a ser uni o bilateral • Medidas de frecuencia en los estudios epidemiológicos Para Rothman la tarea fundamental de la investigación en epidemiología es cuantificar la ocurrencia de la enfermedad: todo estudio epidemiológico debe ser entendido como un ejercicio de medición. Esta medición debe hacerse correctamente; las frecuencias absolutas como tales pueden incitar a la confusión (los 6.700 muertos anuales por cáncer en la Comunidad Autónoma de Madrid y los 90 de Ceuta no significan que los madrileños tengan un mayor riesgo de morir por esa enfermedad). Las medidas en valores absolutos no nos permiten comparar, no nos dicen nada: las medidas relativas tratan de relacionar el número de individuos enfermos (casos de enfermedad) que surgen en una población con un número de individuos total. El uso de medidas relativas, o fracciones, es más apropiado al referir la enfermedad al colectivo donde se han producido. Existen 4 tipos esenciales de fracciones que se utilizan en epidemiología: • RAZÓN 18 Una razón es el cociente de dos frecuencias absolutas, en el que el numerador no está incluido en el denominador (concepto estático). Los valores pueden estar entre 0 e ". Al ser la relación entre dos magnitudes que poseen características distintas, nos permite comparar un fenómeno entre dos grupos diferentes (enfermos y sanos, por ejemplo). Ejemplo: Tasa de mortalidad fetal, nº de muertes fetales dividido por el número de nacidos vivos = • PROPORCIÓN Una proporción es el cociente de dos frecuencias absolutas, en el que el numerador si está incluido en el denominador (concepto estático, tampoco tiene dimensión temporal). Puede ser el cociente entre una frecuencia absoluta de casos y el conjunto de la población, es decir, la frecuencia relativa de un acontecimiento. Se suele expresar en forma de porcentaje. Al ser la estimación de una probabilidad, sus valores están entre 0 y 1. Ejemplo: Proporción de mujeres en la población española = • TASA Cociente entre dos magnitudes cuya característica esencial es que el denominador lleva incluido el factor tiempo(concepto dinámico). Mide el potencial instantáneo de cambio de una variable (generalmente la enfermedad) por la unidad de potencial de cambio de otra variable, (usualmente el tiempo), y relativo al tamaño de la población con riesgo de padecer el proceso en estudio Si se midiera tan sólo en un instante, sería difícil de manejar en la práctica y, por ello, se suele trabajar tasas medias. Sería la velocidad a la que aparece una enfermedad, o el número de casos nuevos de una enfermedad a lo largo de un tiempo. Sus valores oscilan entre 0 e ". Ejemplo: Se observan 500 sujetos libres de afecciones cardiovasculares durante 5 años, al cabo de los cuales se han diagnosticado 20 infartos agudos de miocardio (IAM) en el grupo de estudio. • RIESGO Noción probabilística individual de desarrollar una enfermedad (concepto dinámico). Su diferencia más importante con la tasa es que, mientras que la tasa implica una idea de grupo, el riesgo es un parámetro que se refiere aI sujeto. Se define como la probabilidad de desarrollar la enfermedad, condicionada a la probabilidad de que el sujeto no muera por otro proceso diferente durante la duración del estudio. El numerador estaría formado por la frecuencia absoluta de número de casos del suceso en estudio y el denominador lo constituirla el número total, al inicio del periodo de estudio, de sujetos susceptibles al proceso que se investiga. Es una probabilidad, así que es adimensional. Su valor será siempre inferior a la 19 unidad, o al 100 % si se expresa como porcentaje. • Medidas de frecuencia como indicadores de salud • RAZÓN DE POSIBILIDAD o VENTAJA de ODDS La razón o ventaja de Odds es la probabilidad de que aparezca una enfermedad, dividido entre la probabilidad de que no haya enfermedad: expresa el número de individuos en los que ocurre, por cada uno en los que no ocurre. No tiene dimensión temporal, y los valores pueden estar entre 0 e ". Ejemplo: De 100 niños con otitis tratados con amoxicilina, curan 75: % curaciones = , % no curaciones = , Ventaja de Odds = La probabilidad de curarse una otitis con amoxicilina es de 3 a 1, por tanto. • PREVALENCIA La proporción de prevalencia es un indicador estático (aunque si utilizamos varias mediciones seriadas nos da una idea dinámica), que puede ser: • DE PUNTO (PP ó sólo P):, interpretado como la proporción o nº de casos existentes de una enfermedad en una población en un momento dado. Es un parámetro adimensional, con valores entre 0 y 1. También puede expresarse como porcentaje: • DE PERÍODO (PPP): es el nº de casos de la enfermedad que han existido en algún momento del período (es decir, la prevalencia de punto al comienzo del período + la incidencia), referida al nº de individuos de la población a mitad del período: La población a mitad de intervalo se calcula como: La prevalencia indica la carga del evento que soporta la población. Su mayor utilidad está en: • Estudios de planificación de los servicios sanitarios • Malformaciones congénitas • Estudios descriptivos de enfermedades de curso largo En la prevalencia influyen la incidencia (velocidad de aparición de la enfermedad: a incidencia constante, cuanto más dure una enfermedad, mayor será su prevalencia) y el tiempo que el sujeto permanece como caso (duración media de la enfermedad), y la tasa de resolución de la enfermedad (curación, muerte): por eso es poco útil en la investigación causal y de medios terapéuticos. La prevalencia también puede estudiarse, considerando una población estable, como Tasa de incidencia x duración de la enfermedad (T): • INCIDENCIA Mide la aparición de la enfermedad en función del tiempo, o número de nuevos casos en una población en un período de tiempo. Por tanto, se trata de un índice dinámico, una tasa, que requiere del seguimiento en el tiempo de la población de interés. Cuando la enfermedad es recurrente, se suele referir a la primera 20 aparición. Se emplea en: • Evaluación de medidas preventivas • Estudios analíticos de investigación causal • Estudios descriptivos de enfermedades de curso corto • INCIDENCIA ACUMULADA (IA) Es la proporción de sanos que enferman al inicio del período de seguimiento. Adimensional, con valores entre 0 y 1, aunque se suele expresar como porcentaje. Hay que especificar el período de estudio, ya que depende del tiempo de seguimiento, y se calcula sobre una cohorte fija, es decir, no se permite la entrada de nuevos individuos durante el seguimiento. • TASA de INCIDENCIA o DENSIDAD de INCIDENCIA (DI) Es el cociente entre el número de casos nuevos ocurridos durante el período de seguimiento y la suma de todos los períodos de riesgo individuales. Calcula la velocidad de curación o de aparición de la enfermedad. Para ello, en el denominador hay que conocer todos los individuos y saber cuánto han estado sin enfermar (o tamaño medio de la población y período de observación). Se mide en tiempo−1, con valores entre 0 e ". TEMA V Epidemiología analítica • Secuencia de pasos de la Epidemiología analítica • Diseñar el estudio • Recoger los datos observados • Revisar de los mismos: completos y exactos • Reducir los datos a tablas, para expresar la información de una forma concisa: habitualmente son tablas tetracóricas (tablas de contingencia o de 2 x 2) * • Generar medidas epidemiológicas de frecuencia, asociación−efecto e impacto (las de impacto, cuando quede demostrada la asociación exposición a factor de riesgo − enfermedad) • Extrapolar o inferimos los resultados a la población * Un EFECTO es la diferencia en la ocurrencia de una enfermedad entre dos grupos de personas que difieren con respecto a una característica causal, que llamamos exposición. Enfermos No enfermos Total de expuestos Expuestos No expuestos a c b d Total de sanos M0 Total de no expuestos M1 Total de enfermos N0 N1 Lo primero que se suele sacar de estas tablas es la incidencia acumulada: • Incidencia acumulada de los expuestos: 21 • Incidencia acumulada de los no expuestos: • Medidas de asociación − efecto Al hacer un estudio analítico intentamos establecer relaciones causales, y uno de los requisitos para ello es que exista una fuerte asociación entre factor de riesgo y enfermedad. El cálculo de esa fuerza de la asociación se realiza a través de las medidas de efecto. Estas medidas de efecto se establecen mediante la comparación entre frecuencias de expuestos y no expuestos, y pueden ser: • ABSOLUTAS: DR, DAR Se basan en la diferencia de frecuencias entre expuestos y no expuestos: • DIFERENCIA DE RIESGOS, RIESGO ATRIBUIBLE o DIFERENCIA DE TASAS (DR) Mide el exceso de riesgo entre los expuestos comparado con los no expuestos a un factor de exposición: por tanto, está midiendo la incidencia de la enfermedad entre los expuestos, atribuible al factor de exposición. • Diferencia Absoluta de Riesgo (de tasas): IAe = incidencia acumulada de los expuestos IAo = incidencia acumulada de los no expuestos • Diferencia de Riesgo: Ejemplo: estudio de cáncer de pulmón en áreas urbanas y rurales. Tasa de incidencia (I) Incidencia acumulada (IA) Prevalencia Urbana 60 315 275 Rural 15 80 70 Iurb−Irur = 60 − 15 = 45 x 10−5/año IAurb−IArur = 315 − 80 = 235 x 10−5 en 5 años Purb−Prur = 275 − 70 = 205 x 10−5 • RELATIVAS: RR, OR Se basan en la razón de las medidas de frecuencia, o cociente de frecuencias de expuestos y no expuestos: • RIESGO RELATIVO (RR) Mide cuántas veces es más frecuente la enfermedad entre los expuestos que entre los no expuestos (por ejemplo, riesgo de contraer cáncer entre los que no fuman y entre los fumadores). Depende del tiempo y de la incidencia en los no expuestos. 22 Incidencia en expuestos = Incidencia en no expuestos = RIESGO RELATIVO = RR = 1 Efecto nulo: aparece la misma frecuencia en expuestos y no expuestos RR > 1 Hay factor de riesgo RR < 1 Hay un factor de protección • ODDS RATIO ó RAZÓN de VENTAJAS (OR) Expresa el cociente entre la probabilidad de un suceso y la probabilidad complementaria de no ocurrencia. Es lo mismo que el RR, pero sólo se emplea en estudios de caso−control, ya que estos permiten calcular la incidencia entre expuestos y no expuestos. Mide cuántas veces es más frecuente una enfermedad entre los expuestos que entre los no expuestos: ODDS RATIO = Como en el RR: OR = 1 Efecto nulo: aparece la misma frecuencia en expuestos y no expuestos OR > 1 Hay factor de riesgo OR < 1 Hay un factor de protección • Medidas de impacto Hablamos de medidas de impacto sólo cuando queda demostrado que el factor es realmente de riesgo. Informan sobre los cambios en la distribución de la enfermedad que podemos esperar al variar el factor de exposición. • PROPORCIÓN ATRIBUIBLE, FRACCIÓN ETIOLÓGICA ó PROPORCIÓN ATRIBUIBLE PROPORCIONAL(PA) Sólo afecta a los expuestos: mide cuántos casos entre los expuestos tienen la enfermedad debido al factor de exposición. Dicho de otro modo, la proporción de casos que entre los expuestos sería eliminada si suprimiéramos el factor de exposición: PROPORCIÓN ATRIBUIBLE = PROPORCIÓN PREVENIBLE = En un estudio de casos−control no se puede hacer el RR, ya que no conocemos si los enfermos son nuevos o antiguos. • PROPORCIÓN ATRIBUIBLE POBLACIONAL (PAP) Afecta a toda la población: proporción de enfermos que sería eliminada si suprimiéramos el factor de exposición. 23 Factor específico de exposición de la población = PROPORCIÓN ATRIBUIBLE POBLACIONAL = Frecuencia total = ó La forma adecuada de presentar los resultados de un ensayo clínico aleatorizado, y de otros tipos de ensayo, debe incluir RRR, RAR, NNT, DAR y DRR, medidas que no son realmente de impacto: • DAR = Diferencia absoluta de riesgo • DRR = Diferencia relativa de riesgo (DRR = RR − 1) • RRR = Reducción relativa de riesgo (RRR = 1 − RR) • RAR = Reducción absoluta de riesgo (RAR = Io − IE) • NNT = Número necesario a tratar (NNT = 1/RAR) • Medidas de sinergia En el supuesto de que coincidan dos tratamientos ¿cómo se sabe si hay interacción o antagonismo entre ambos? Se calcula mediante la estimación de la sinergia y el antagonismo de los factores implicados, A y B. En definitiva, es el riesgo atribuible de los factores ensamblados, entre la suma de los mismos: IS = 1 Los factores actúan independientemente IS = 0 Los factores se neutralizan IS > 1 Los factores son sinérgicos IS < 1 Los factores son antagónicos Se aplican criterios de: • Simplificación: y p > 0,05 • Amplitud de la magnitud en la población: IC 95 % ! ICS = IC 99 % ! ICI = Para conocer si el efecto medido es justificable por el mero azar, se aplican otros dos tipos de pruebas: de significancia e intervalos de confianza. • Pruebas de significación En la comprobación de hipótesis estadísticas, lo que intentamos es falsificar la H0 y aceptar por exclusión la H1 H0 = hipótesis nula: no efecto, no asociación H1 = hipótesis alternativa: si efecto, si asociación 24 La estadística utilizada es el valor de la p: p = probabilidad de que el resultado se deba al azar. • No es la probabilidad de que la H0 sea correcta, sino que la calculamos asumiendo que sea correcta. • Sus valores forman una estadística continua entre 0 y 1. • No es una medida de la magnitud del efecto • Depende de la magnitud del efecto y del tamaño de la muestra. ¿Cómo testamos la H0 cuando estamos estudiando factores de riesgo? • PRUEBA DE CHI CUADRADO () Enf. Sanos Exp. a c Total exp. N1 No exp. b d Total no exp. Total enf. M1 Total sanos M0 N0 M1 = a + b M0 = c + d N1 = a + c N0 = b + d Esperados = T = total de todos los ensayos Observados = a Varianza = Grados de libertad = (filas − 1)·(columnas − 1) Obtenemos un valor: calculamos los grados de libertad y miramos en la tabla la fila correspondiente: si obtenida > tabulada para p = 0,05, rechazamos H0 y aceptamos la hipótesis alternativa. ¿Qué significa decir que hay un efecto con p > 0,05? Si la H0 fuera cierta (en la población no hay diferencia de riesgo entre expuestos y no expuestos), y realizamos 100 estudios similares, sólo en 5 de ellos obtendríamos resultados desiguales o más alejados de la H0 que los observados, y esto sería debido al azar. Pero además hay que presentar esta información referida a unos intervalos de confianza, para poder hacernos una idea de la distribución de ese riesgo en la población general: • INTERVALOS DE CONFIANZA (IC) Rango de valores (alrededor de los encontrados en nuestro estudio), entre los que se encuentra el verdadero valor de la población, con una probabilidad determinada (por ejemplo, IC al 95 %, es decir, p = 0.05: es lo más habitual, aunque también puede calcularse para p = 0.01 − IC al 99 % o para p = 0.001 − IC al 99,99 %). Donde Z es una constante, de valor 1,96. 25 Ejemplo: Enf No enf Exp 13 7 20 No exp 8 12 20 21 19 40 Los expuestos tienen un 63 % más de riesgo que los no expuestos Hacemos chi−cuadrado: En principio deberíamos rechazar la H1, pero éste no es un resultado definitivo: hay que calcular el intervalo de confianza para sacar más datos importantes: 2,49 " 2.5, unas dos veces y media veces más RR, y 1,35 " 1. En los intervalos de confianza siempre tiene que estar incluida la unidad, 1, es decir, uno de los dos valores tiene que estar cercano a la unidad, para que podamos hablar de un IC del 95 %. Los mismos datos, multiplicados x 10 (por aumento del tamaño muestral), no alterarían los datos de RR, pero sí afectarían a chi−cuadrado, demostrándose que el resultado anterior era resultado de un error aleatorio que se corrigió aumentando el tamaño muestral. Por lo tanto, no hay que detenerse exclusivamente en la significación de la p. Estamos informando del valor puntual obtenido, de la magnitud del efecto y de la variabilidad del efecto (la amplitud del intervalo). Esta amplitud del intervalo depende de: • La variabilidad de los datos • La cantidad de datos (al aumentar el número de observaciones aumentan la precisión y la estrechez del intervalo). • El nivel de confianza elegido, complementario del error . Nivel de confianza = (1 − ) • Medidas de prevención • PRIMARIAS: Medidas que evitan que la enfermedad se desarrolle, antes de que aparezca la enfermedad. Tratan de reducir la incidencia de la enfermedad. • SECUNDARIAS: Medidas que se toman cuando la enfermedad ya está instalada: son medidas para el diagnóstico y el tratamiento precoz. Pretenden quitar o evitar la enfermedad y la aparición de secuelas. • TERCIARIAS: Medidas tendentes a reinsertar a las personas que han sufrido la enfermedad. • DETECCIÓN PRECOZ: TESTS DE DIAGNÓSTICO En el marco de las medidas de prevención secundarias, la detección precoz puede hacerse mediante pruebas de screening (para identificar enfermedades en poblaciones aparentemente sanas con tecnologías simples: P.A., r−X), o mediante pruebas diagnósticas (detectan la presencia de un factor o factores de riesgo 26 en la población sintomática: son pruebas de confirmación). Los criterios para la aplicación de estos métodos de detección precoz son: • Enfermedad grave: tranquilizar a la población • Alta prevalencia del estadio preclínico • Período largo entre enfermedad y manifestaciones clínicas • Que se conozca la historia natural de la enfermedad • Que exista la posibilidad de tomar medidas de manera precoz, destinadas a mejorar el curso de la enfermedad. Los métodos de detección deben: • Ofrecer una información correcta • Ser rápidos, sencillos y baratos • Ser aceptados por la población • Ser válidos, capaces de medir lo que realmente queremos medir. • Ser fiables, estables cuando se repiten sistemáticamente (por tanto, cuando se aumentan las posibilidades de error). La fiabilidad debe tener en cuenta las variaciones interindividuales (biológicas), aleatorias o sistemáticas, y las variaciones observacionales (determinaciones distintas), debidas al observador o al instrumento. En un test de sreening obtendríamos una tabla como esta: Estado individual Enfermos Sanos Resultados del test " VP FP VP + FP = valor predictivo VP" " FN VN VP + FN = sensibilidad FP + VN = especificidad FN + VN = valor predictivo VP" Parámetros de salud / enfermedad SENSIBILIDAD = Validez del + ó − VP" = Otros datos Capacidad del test para detectar a los que están enfermos (VP en el total de enfermos). ESPECIFICIDAD = Enfermos reales que den + VP" = Capacidad del test para detectar a los que están sanos (VN en el total de sanos). No enfermos reales que Todos los enfermos en el total de den − individuos de la muestra. VALOR GLOBAL = Eficiencia o eficacia PREVALENCIA = Para que aceptemos un test, sensibilidad y eficacia han de estar por encima del 90 %. Relación entre los parámetros que evalúan las pruebas diagnósticas: VP" y VP" dependen de: ♦ La prevalencia de la enfermedad ♦ La sensibilidad de la prueba (parámetro fijo) ♦ La especificidad de la prueba (parámetro fijo) 27 Por tanto, VP" y VP" dependerán exclusivamente de la prevalencia: VP" aumentará si aumenta la prevalencia, mientras que VP" disminuye cuando aumenta la prevalencia. A mayor prevalencia, mayor VP" y menor VP". • CURVA ROC Es una manera de representar gráficamente los resultados inevitables debidos a la variación de la especificidad o sensibilidad de una prueba. ♦ En el eje de ordenadas (Y) situamos la sensibilidad (tasa de VP) ♦ En el eje de abscisas (X) situamos 1 − especificidad (tasa de FP) Las curvas ROC permiten seleccionar el punto de corte óptimo para una prueba diagnóstica, y también sirven para comparar entre distintas pruebas: será mejor la prueba en la que la curva ROC tenga un mayor área bajo la curva. Ojo: en la curva se pone (1 − especificidad) en X. Por tanto, si en la gráfica vale 0,80, la especificidad real será 1 − 0,80 = 0,20. • RAZÓN DE VEROSIMILITUD (LIKEHOOD RATIO) Indica la probabilidad de que aparezca un determinado resultado en los enfermos, en comparación con los individuos sanos. En otras palabras, cuántas veces es más probable que se de un resultado en la población de enfermos en comparación con la de sanos. Siendo S = sensibilidad y E = especificidad: L" = L" = • CRITERIOS PARA SELECCIONAR UN TEST De la enfermedad: ♦ Común y grave ♦ Conocimiento de su historia natural ♦ Alta prevalencia ♦ Tratamiento eficaz ♦ Buena infraestructura ♦ Costes Del test: ♦ Reproducibilidad: condicionada por la variabilidad del hecho, del observador y del test. ♦ Sencillo y aceptado ♦ Poco coste ♦ Mínimos efectos secundarios ♦ Sensibilidad, especificidad ♦ VP" y VP" ♦ Eficiencia o valor global TEMA IV El proceso de medir y cuantificar La investigación científica, en general, y epidemiológica en especial, se define como un proceso sistemático organizado y objetivo, destinado a responder a una pregunta. • Sistemático: formulación de una hipótesis que es el objetivo de trabajo; se recogen los datos según un plan establecido, datos que, una vez analizados e interpretados, modificarán o añadirán nuevos conocimientos a los ya existentes. 28 • Organizado: se entiende que todos los miembros del equipo conocen a la perfección lo que ha que hacer durante todo el estudio, aplicando las mismas definiciones y criterios y actuando de forma idéntica = protocolizado. • Objetivo: las conclusiones no se basan en impresiones subjetivas: se evitan prejuicios. • Medir Las actividades que se realizan en investigación se resumen en tres: medir fenómenos, comparar los resultados obtenidos en diversos grupos, e interpretarlos en función de los conocimientos y teniendo en cuenta las variables que puedan haber influido. Medir es estudiar el efecto de una intervención y/o exposición sobre un problema de salud. Identificar y seleccionar un criterio para medir este efecto es de crucial importancia, debiendo tenerse en cuenta que el criterio ha de ser objetivo y debe poder ser medido con un método y ser reproductible En una primera etapa los conceptos se definen de forma clara y explicita, y en la segunda se deciden los instrumentos y técnicas para medirlos, haciendo operativas las definiciones, especificando las variables que se van a utilizar y cómo se van a medir. Es estudiar el efecto de una exposición sobre un problema, con cierta validez y cierta precisión. • VALIDEZ El término validez denota el grado en que una variable mide realmente aquello para lo que está destinada (verdadero valor de lo que se investiga = exactitud). Podemos diferenciar entre validez: • INTERNA: resultado para los pacientes que participan en el estudio. • EXTERNA: resultado para los pacientes de toda esa población. • PRECISIÓN ó FIABILIDAD El término es sinónimo de reproductividad, precisión, estabilidad o consistencia, y se refiere al grado en que pueden reproducirse los resultados obtenidos por un procedimiento de medición. Ojo: muy fiable no significa válida (báscula mal calibrada). Válido no es lo mismo que preciso. A = Alta validez y fiabilidad B = Baja validez y alta fiabilidad C = Alta validez y baja fiabilidad D = Baja validez y fiabilidad v v = verdadero valor La medición de un fenómeno clínico está sujeta a la variación biológica individual, del observador o del instrumento utilizado. Tres situaciones de variabilidad que hacen que la precisión varíe: • INVIDIDUAL: los fenómenos biológicos varían de un momento a otro: una medición realizada en un momento muestra de todas las posibles mediciones de este fenómeno durante un periodo de tiempo, no tiene por qué representar el verdadero valor de estas medidas. Por ejemplo, los niveles de glucosa a 29 primera hora de la mañana y dos horas después de haber comido. Para minimizar el impacto de la variación biológica individual (repetir la medición y media). Además, los pacientes que padecen la enfermedad recuerdan con mucha mayor exactitud su historia pasada de exposición. En otras ocasiones pueden falsear deliberadamente las respuestas, para complacer al entrevistador o no estar bien vista socialmente una respuesta. • DEBIDA AL INSTRUMENTO: la medida empleada no es la adecuada o el instrumento utilizado no está bien calibrado. Los errores en la medición ocurren en mayor o menor grado (cuestionario, exploración física o prueba complementaria) e influyen en la clasificación de los participantes. ♦ Diferencial si afecta de forma diferente a los participantes de un estudio ♦ No diferencial si se presenta por igual en todos los participantes. Para minimizar sus efectos, estandarizar los procedimientos y seleccionar el instrumento que presente menor variabilidad • DEBIDA AL OBSERVADOR: si el observador mide una variable de forma sistemáticamente distinta según el grupo de estudio, por ejemplo, en estudio sobre tratamiento y efecto secundario. Para minimizar, evaluar la variabilidad intra e inter de los observadores. Depende de las condiciones en que se realiza la medición y la propia experiencia. Tres variabilidades directamente relacionadas con los errores que puedan cometerse a la hora de realizar una medición. Otras características de la medición: Las mediciones han de ser: • Sensibles, para detectar diferencias que puedan resultar importantes. • Específicas, representa sólo la característica de interés. • Apropiadas, para los objetivos del estudio, no siendo vaga o ambigua. • Distributivas, dar una distribución de respuestas adecuadas (intervalo). • Objetivas, reducir el grado en que el observador está vinculado a la medición y mejorar la estructura del instrumento, para que éste valore los detalles específicos, en lugar de realizar una generalización vaga. • Eficientes: poco onerosas en tiempo y en dinero. • Comparar Comparar los resultados entre grupos, entre el grupo que recibe la intervención o está expuesto al posible factor de riesgo y un grupo control (referencia sobre la frecuencia enfermedad en ausencia de exposición o intervención). Los principales efectos que se han de tener en cuenta en el diseño de un estudio son: • EFECTO HAWTHORNE Cambio de comportamiento de los individuos que participan en un estudio (grupo de estudio y control). Respuesta inducida por comportamiento de los participantes de que se les está estudiando (se produce igual en ambos grupos). Descrito por primera vez cuando la Western Electric Company llevó a cabo, en los años veinte, una serie de experiencias en su fábrica Hawthorne de Chicago, con el fin de determinar el efecto de la iluminación sobre la 30 producción. Los grupos control trabajaron bajo una iluminación constante, mientras que en los grupos experimentales era variable, aumentada o disminuida. El resultado fue que la producción se incrementó no sólo en los grupos de estudio, independientemente de la intensidad de la iluminación, sino también en los grupos de control. El simple hecho de que los trabajadores sabían que estaban siendo vigilados supuso un aumento en la producción. • EFECTO PLACEBO Se produce principalmente en estudios que utilizan tratamientos. Es la respuesta que dan las personas enfermas por recibir el tratamiento, aunque este sea un placebo sin efectos (respuesta en una persona enferma como consecuencia de la administración de un tratamiento, pero sin ser un específico del mismo: se produce igual en ambos grupos). El efecto contrario es el efecto nocevo. • EFECTO REGRESIÓN A LA MEDIA Es la tendencia de los individuos que tienen un valor muy elevado de una variable a presentar valores más cercanos a la media de la distribución cuando la misma variable es medida por segunda vez (el grupo control permite minimizar su efecto). Cuando existen valores que se salen mucho de la media, se repite tomando como valor la semisuma entre el valor más alto y el normal. • EFECTO EVOLUCIÓN NATURAL Hay que tener en cuenta que la evolución o curso natural de una enfermedad tienda a su resolución: los esfuerzos terapéuticos pueden coincidir con la mejoría observada, pero no ser su causa (en este caso es muy importante el grupo control). • Interpretar En la interpretación de un estudio se debe tener en cuenta el papel que ha jugado el azar (error aleatorio) y los diversos errores sistemáticos introducidos en la selección, recogida de información y control de los factores de confusión. Errores en la medición: variabilidad y sesgos • ERROR ALEATORIO Las observaciones se hacen de ordinario en una muestra de pacientes más que en todos aquellos que padecen la enfermedad en cuestión. Un sólo grupo de observaciones, aun si han sido bien seleccionadas, pueden representar erróneamente la verdad debido a un error que surge de variación por el azar, por la divergencia existente entre la observación de una muestra y el verdadero valor de la población. El azar puede afectar todos los pasos de una observación clínica. Así ocurre en el muestreo de pacientes para el estudio, en la selección de los grupos de tratamiento y en las mediciones efectuadas en los grupos. La variación aleatoria tiene tanta probabilidad de ocurrir en observaciones por encima del valor real como por debajo. Como consecuencia, la media de observaciones provenientes de muchas muestras, tiende a corresponder con el verdadero valor en la población, aun cuando los resultados de pequeñas muestras individuales no lo hagan. Se arregla aumentando el número de individuos. La Estadística ayuda a cuantificar y minimizar la probabilidad de que el azar o variación aleatoria sea responsable de los resultados clínicos, aunque no pueda ser totalmente eliminada. • SESGO 31 Son situaciones o resultados anómalos, llamados sesgos, que se producen inconscientemente: se dan cuando se introduce un error en el diseño del trabajo, ya sea en la selección de los individuos, en la información, recogida o análisis, de forma que se produzca entre los grupos una diferencia sistemática no atribuible al factor al factor que se está estudiando. Existen tres tipos: • SESGO DE SELECCION Es el error sistemático en proceso de selección de los individuos que limita la comparabilidad de los grupos. Puede aparecer durante la asignación de los participantes a cada uno de los grupos, o deberse a las pérdidas de individuos durante el seguimiento. También pueden producirse durante el seguimiento de los participantes. Si la proporción de individuos que se pierden durante el seguimiento es diferente en ambos grupos, alertará al investigador de que puede existir un sesgo. No obstante, estas diferencias no implican necesariamente un error: éste se produciría cuando la probabilidad de desarrollar la enfermedad es diferente en cada uno de los grupos, entre los que abandonan y los que finalizan el estudio. • SESGO DE INFORMACION Se produce cuando la medición de la o las variables en estudio y/o el criterio de evaluación es sistemáticamente desigual entre los grupos de pacientes. Las principales fuentes de estos errores son la aplicación de pruebas poco sensibles y/o especificas para el diagnóstico de una enfermedad o la identificación de una exposición, la aplicación de criterios diagnósticos incorrectos, o distintos en cada grupo, e imprecisiones u omisiones en la recogida de los datos. Por ello cualquier variable debe medirse de la misma forma en todos los participantes. • FACTORES DE CONFUSION La primera regla para cualquier comparación es que los grupos han de ser similares en relación a las características que influyen sobre los resultados. A menudo, estas variables se distribuyen de modo desigual y es necesario corregir tales diferencias. El fenómeno de confusión aparece cuando la asociación observada entre el factor de estudio y el criterio de evaluación puede ser total o parcialmente explicada por otra variable (el factor de confusión) o, por el contrario, cuando una asociación real queda enmascarada por este factor. Para que una variable se considere de confusión debe cumplir condiciones: • Ser un factor de riesgo de la enfermedad • Estar asociada a la variable de estudio. • No ser un paso intermedio en la asociación entre el factor de estudio y la enfermedad. Para prevenir el efecto de los factores de confusión en el diseño de un estudio pueden utilizarse tres métodos: • ASIGNACIÓN ALEATORIA: sólo puede utilizarse en estudios en los que se evalúa una intervención preventiva o curativa. • RESTRICCIÓN: consiste en definir unos criterios de selección muy estrictos, con la finalidad de disminuir la variabilidad del factor de confusión (ello puede crear, si los criterios son muy restrictivos, serios problemas para encontrar un número suficiente de sujetos). • APAREAMIENTO: seleccionar para cada uno de los casos uno o varios controles que sean similares en una serie de características que influyen en la enfermedad. 32 • una combinación entre ellos. Los factores de confusión, a diferencia de los sesgos de selección o de información, se pueden controlar en la etapa de análisis a través de la estratificación, o un análisis multivariante. TEMA V Asociaciones causales Una asociación causal es una asociación causa − efecto, siendo una causa todo factor responsable de un efecto y, en Estadística, todo suceso, condición o característica que precede a una enfermedad, y sin la cual la enfermedad no hubiera ocurrido o hubiera aparecido más tarde. Existen dos sistemas para aplicar el razonamiento a la ciencia: ♦ Método deductivo: de lo general a lo particular. Avanza poco. ♦ Método inductivo: de lo particular a lo general. Este método observa fenómenos, plantea y resuelve hipótesis, y elabora leyes. El método inductivo se basa en el descubrimiento de relaciones causales entre un factor y la enfermedad o un factor y la salud. Aquí causa es un concepto relativo: existen cánceres de pulmón entre individuos fumadores y entre no fumadores. • FACTOR DE RIESGO: factor, endógeno o exógeno, que puede ser controlado, que precede al comienzo de la enfermedad, que está asociado a un incremento de la probabilidad de ocurrencia de una enfermedad, y que tiene responsabilidad en su producción (tabaco − bronquitis crónica). • MARCADOR DE RIESGO: concepto reservado a las variable no controlables y que definen a los individuos particularmente vulnerables. Señalan el aumento del riesgo de padecer la enfermedad, aunque no tienen influencia directa en su producción (edad, sexo). Es endógeno. • INDICADOR DE RIESGO: signo precursor de una enfermedad, que pone de manifiesto la presencia temprana de ella. Es una característica significativamente unida a la enfermedad en su estado preclínico, sin influencias en su producción (mancha de Koplik − sarampión). • Teorías de la causalidad Básicamente tres: determinismo puro, determinismo modificado, y el modelo basado en la probabilidad. • DETERMINISMO PURO Existe una causa específica, constante y única, que genera un efecto (bacilo de Koch − tuberculosis). Esto implica una variable ha de ser causa suficiente y necesaria de un efecto, cumpliendo: ♦ Especificidad de causa: a cada efecto, una sola causa ♦ Especificidad de efecto: a cada causa, un solo efecto En pocas áreas de la investigación biomédica se aplica todavía este método determinista: la mayoría de las enfermedades tienen diversos factores causales y ciertos factores de riesgo producen más de un efecto patógeno. Además, tampoco toma en consideración el papel de los marcadores e indicadores de riesgo, ni tiene en cuenta los períodos de inducción ni de latencia, ni el sinergismo y el antagonismo. 33 • DETERMINISMO MODIFICADO Una causa es capaz de producir varios efectos y una enfermedad puede estar producida por más de una causa. Incorpora conceptos del modelo determinista y del modelo multicausal: ♦ Teoría de la multicausalidad ♦ Teoría de la multiefectividad Podemos diferenciar entre: ♦ CAUSA NECESARIA: tiene que estar presente para que se produzca el efecto. ♦ CAUSA SUFICIENTE: por sí sola es capaz de producir el efecto, así que si hay efecto, la causa estará. Establece varias premisas: las causas no pueden ocurrir después de los efectos; los efectos unicausales no existen, y se niegan los tiempos de inducción constantes para las enfermedades. • MODELO PROBABILÍSTICO o MULTICAUSAL Parte de la premisa de que la enfermedad no es cuestión del azar, así que busca establecer CRITERIOS DE CAUSALIDAD (Hill): • ASOCIACIÓN: relación o covariación significativa entre las variables causa y efecto, se demuestra mediante pruebas estadísticas p significativas. • AUSENCIA DE ESPURIEDAD: no deben existir terceras variables o factores que afecten a la relación entre las variables causa y efecto. Implica haber realizado un sólido estudio teórico que permita incluir en el plan de investigación todas las variables relevantes con los factores de riesgo (variables independientes): por ejemplo, peso y rendimiento intelectual en niños y adolescentes, ambas variables relacionadas con la edad. • CONSISTENCIA DE LA ASOCIACIÓN: que diferentes estudios encuentren la misma asociación, en diferentes diseños, poblaciones y países. La replicación de la asociación es fundamental en la inferencia causal: es altamente improbable que todos los sesgos se produzcan en la misma dirección. • FUERZA DE ASOCIACIÓN: medida de la magnitud del riesgo relativo encontrado. Cuanto mayor sea el riesgo relativo, mayor es el convencimiento de que la asociación es causal. Así, con una razón de riesgo de: ♦ 0,9 − 1,1 : no refleja ningún efecto ♦ 1,2 − 1,6 : riesgo débil ♦ 1,7 − 2,5 : riesgo moderado ♦ > 2,6 : riesgo fuerte • ESPECIFICIDAD: es el grado en que una determinada exposición produce una determinada enfermedad específica. Refuerza la causalidad, no la contradice. Esta relación biunívoca exclusiva niega la multicausalidad. • PRECEDENCIA TEMPORAL DE LA CAUSA: la exposición al factor debe preceder al desarrollo de la enfermedad. En las enfermedades de período de inducción largo, la secuencia temporal es de difícil apreciación. • COHERENCIA O NO CONFLICTIVIDAD: con los hechos asumidos de la Historia natural y de la biología de la enfermedad en el momento presente (pruebas o ensayos clínicos). Es la plausibilidad biológica de la relación. • GRADIENTE BIOLÓGICO o GRADIENTE DOSIS − RESPUESTA: para que una causa produzca una 34 enfermedad, variaciones en la cantidad de la causa deben producir variaciones en la cantidad de efecto en la misma dirección. • REVERSIBILIDAD: evidencia experimental de la disminución o desaparición del efecto cuando se suprime la causa. • ANALOGÍA: o juicio de una relación por similitud con otros, siendo ésta una regla deductiva. • PROBABILIDAD: hace referencia a la significación estadística. • CUMPLIMIENTO DE LAS PREDICCIONES: hay que demostrar que los hechos son derivados de una asociación causal. • COMPROBABILIDAD Problemas • Suponga que la evolución del SIDA en EEUU entre 1959 y 1982 ha sido la que sigue: al inicio de 1981 habría 17 enfermos, y al inicio de 1982, 112. suponga también que ningún enfermo se ha curado, y que toda la población de los EE.UU. está expuesta al SIDA: Año del diagnóstico Grupos de riesgo 1959 − 1980 1981 1982 Varones homosexuales y bisexuales 43 167 558 Toxicómanos vía i.v. 6 26 137 Haitianos 4 12 35 Hemofílicos 0 1 7 Otros 2 12 45 Fecha 1−1−59 1−1−81 1−1−82 Población 193.410.522 203.149.780 203.758.148 • ¿Cuál sería el numerador del Índice Bruto de Incidencia Acumulada del SIDA en EEUU durante el año 1981? IA (1981) = casos nuevos / población sana expuesta Sería el sumatorio de los casos nuevos de 1981: 167 + 26 + 12 + 1 + 12 = 218 • ¿Cuál sería el denominador del mismo Índice? La población sana expuesta serían los 203.149.780 millones de habitantes a 1−1−81, menos los 17 enfermos que había al inicio del año: 203.149.780 − 17 = 203.149.763 • ¿Cuál sería la IA de SIDA en 1981, expresada en casos por millón de habitantes? IA (1981) = (casos nuevos / población sana expuesta) x 106 = • ¿Cuál será el numerador del Índice de Prevalencia para ese mismo año? El nº de casos = 17 + 218 = 235 35 • ¿Cuál será el denominador del Índice de Prevalencia para ese mismo año? No sería la población de 1981, sino la media de la población del 81 + la del 82 = (203.149.780 + 203.758.148)/2 = 203.453.964 • Cuánto vale el Índice de Prevalencia del SIDA a 1−1−82, expresado en casos por millón de habitantes? • Para calcular los Índices Brutos específicos de Prevalencia del SIDA en 1982 por grupos de riesgo, necesitaríamos, además El número de individuos en cada grupo de riesgo. • Si se elige el mes como unidad de tiempo ¿cuánto vale el denominador de la Tasa Media de Incidencia en 1981? enero 4 x 0,51 meses + febrero 6 x 1,5 + marzo 5 x 2,5 + abril 10 x 3,5 + + diciembre (203.149.700 − 218) x 12 • En un estudio sobre dieta, alcohol y tabaco, se selecciona un grupo de enfermos con cáncer laríngeo, y otro grupo de varones, obteniéndose los siguientes resultados: TABACO No fuman ½ paquete/día de ½ a 1 paq./día > 1 paq./día Totales ALCOHOL No beben < 3 copas/mes 3 − 30 copas/mes > 30 copas/mes Totales DIETA < 50.000 Con cáncer de laringe 43 25 171 135 374 Con cáncer de laringe 38 41 111 179 369 Con cáncer de laringe Sanos 163 41 126 51 381 Sanos 87 51 104 116 358 Sanos Totales 206 66 297 186 755 Totales 125 92 215 295 727 Totales 98 78 176 201 216 417 39 65 104 359 697 UI de vit./mes 50.000 − 150.000 UI vit./mes > 150.000 UI de vit./mes Totales 338 • ¿Qué tipo de estudio es? Es un caso − control. 36 • Calcular el RR de cáncer de laringe para cada uno de los niveles de consumo de tabaco, alcohol y dieta e interprete los resultados. Calcule su significación y amplitud. El RR no se puede calcular porque desconocemos el tiempo que llevan los pacientes expuestos a los agentes. Pero sí podemos calcular la Odds ratio (OR), que es exclusiva de los caso−control Si nos aclaramos con las tablas anteriores, podemos hacer las tablas tetraméricas ya conocidas de 2 x 2: TABACO Expuestos Enfermos ½ No expuestos Totales 43 374 ALCOHOL Enfermos <3 Expuestos No expuestos Totales DIETA Expuestos ½−1 >1 25 171 3 − 30 > 3 41 111 38 369 Enfermos < 50.000 Sanos ½ ½−1 >1 135 41 126 163 381 51 Sanos <3 3 − 30 > 3 179 51 104 87 358 116 Sanos 50.000 a 150.000 98 < 50.000 201 50.000 a 150.000 78 216 No expuestos (>150.000) Totales 39 65 369 358 Hay una relación directa entre la incidencia del cáncer y el número de cigarrillos o copas al día, relación que está menos clara en el tema de la ingesta de vitaminas. • Calcular el y el IC de los que fuman más de un paquete al día. Amplitud = • En un test de screening para ver las tasas de colesterol sérico y la presión arterial sistólica en 1329 varones de 40 a 59 años de edad, en el momento del examen, ninguno presentaba cardiopatía. Se efectuó un seguimiento a lo largo de 6 años para detectar la presencia de enfermedad, y se obtuvieron los siguientes datos: • Colesterol < 220 mg/mL ♦ con T.A. < 147 mmHg = 431 y 10 casos de cardiopatía ♦ con T.A. 147 − 166 mmHg = 93 y 3 cardiopatías ♦ con T.A. >167 mmHg = 44 y 7 cardiopatías. • Colesterol 220 − 259 mg/mL 37 ♦ con T.A. < 147 mmHg = 347 y 19 casos de cardiopatía ♦ con T.A. 147 − 166 mmHg = 74 y 6 cardiopatías ♦ con T.A. >167 mmHg = 49 y 6 cardiopatías. • Colesterol > 260 mg/mL ♦ con T.A. < 147 mmHg = 185 y 19 casos de cardiopatía ♦ con T.A. 147 − 166 mmHg = 57 y 11 cardiopatías ♦ con T.A. >167 mmHg = 44 y 11 cardiopatías. • ¿Qué tipo de estudio es? Es un estudio analítico de cohortes (varones entre 40 y 59 años) y prospectivo, para valorar la incidencia de cardiopatías (calcula casos nuevos). • ¿Qué medidas puedo obtener? Calcularlas. IA en expuestos y no expuestos, RR, e IC. Antes de empezar a trabajar hay que ordenar los datos en tablas: CHOL. TENSIÓN ARTERIAL < 147 subtotal Cardiopat 147 − 160 subtotal Cardiopat > 160 subtotal 38