APÈNDIX (*).- AMPLIACIÓ D´ALGUNS CONCEPTES FONAMENTALS QUE S´HAN MENCIONAT A LES CLASSES.- D´aquest document acostumo a posar algunes preguntes a examen referides sobre tot a les definicions i manera de calcular-los. INDEX.- EN RELACIÓ A LA UTILITZACIÓ DE MESURES TERAPÈUTIQUES: 1.-DOSI DIÀRIA DEFINIDA 2.-EFECTIVITAT 3.-NOMBRE DE PACIENTS A TRACTAR EN RELACIÓ A LA RELLEVÀNCIA D´UN TEST DIAGNÒSTIC 4.- VALIDES 5.-BIAIX (“SESGO”) 6.-FIABILITAT (*) A partir de: Graf von Schulenburg JM, kielhorn A., Antoñanzas F. Manual de Economia de la Salud. Glxo Smith Kline. Madrid 2002. EN RELACIÓ A LA UTILITZACIÓ DE MESURES TERAPÈUTIQUES: 1.-DOSI DIÀRIA DEFINIDA El método de la Dosis Diaria Definida (DDD) y el sistema de clasificación Anatómica Terapéutica y Química (“ATC’) fueron establecidos en Noruega a comienzo de los años setenta como útiles de trabajo para la investigación de la utilización de fármacos y para comparar su consumo. Con la DDD se puede calcular aproximadamente el número de personas que están sometidas a la acción de un determinado fármaco o de un tipo de fármaco. En el sistema de clasificación ‘ATC” se clasifican los fármacos en cinco grupos, en función del órgano o del sistema corporal en el que actúan y de acuerdo con sus propiedades terapéuticas, farmacológicas y químicas. La OMS ha adoptado los sistemas DDD y “ATC” como idóneos para el estudio global del consumo de fármacos. La utilización de un fármaco se suele expresar en función de la DDD por 1000 habitantes y día; así se pueden establecer comparaciones entre diversos paises o regiones. En el ámbito hospitalario, la utilización de fármacos se expresa como DDD por 100 camas y día, y en función del índice de ocupación. En el ejemplo anterior, se ha empleado la DDD para comparar el consumo de antibióticos, analgésicos y antihipertensivos en cuatro países europeos. En los resultados se pone de manifiesto que Francia es el país donde el consumo de todos ellos es mayor y, además, que el de antihipertensivos es mayor que el de antibióticos y el de analgésicos. La DDD resulta útil para describir y comparar las pautas de consumo de fármacos, para obtener datos básicos para el cálculo de los índices de reacciones farmacológicas adversas, para llevar a cabo desde una perspectiva epidemiológica la detección sistemática de problemas relativos a la utilización de los fármacos y para comprobar los efectos que se logran mediante actividades informativas y legislativas. Esta metodología resulta útil en los casos en que, en diversos niveles de la cadena sanitaria, se realizan trabajos en los que se emplean datos estadísticos de fácil obtención sobre fármacos. Como unidad de medida normalizada, gracias a la DDD se pueden realizar comparaciones entre fármacos de la misma clase terapéutica y entre diferentes ámbitos de la atención sanitaria o zonas geográficas y determinar las tendencias a lo largo del tiempo. Además, resulta relativamente sencilla de calcular y barata en términos de consumo de recursos administrativos. No obstante, el método de la DDD tiene importantes inconvenientes. La DDD no es la dosis recomendada, sino una unidad técnica comparativa. Y dado que se basa en el empleo que tienen los medicamentos en los paises nórdicos, la DDD puede ser mayor o menor, en comparación con la de otros países. Además, a muchos fármacos que no se utilizan en los países nórdicos no se les ha asignado la correspondiente DDD, si bien la OMS, a través de su Centro de Metodología Estadística de Oslo, ha dado normas para determinarla en estos casos. Igualmente, surgen problemas cuando las dosis son muy distintas (como sucede con las de los antibióticos) o cuando se emplea un fármaco para más de una indicación principal (así, por ejemplo, se utilizan pequeñas dosis de ácido acetilsalic(lico para evitar acontecimientos cardíacos, dosis moderadas para el tratamiento del dolor y dosis elevadas para el de enfermedades inflamatorias). En esta metodología tampoco se tienen en cuenta las dosis que se emplean en niños, lo cual puede inducir a que se infravalore la utilización de fármacos en estapoblación. Además, en las DDD tampoco se tiene en cuenta el grado de cumplimiento del tratamiento por parte del paciente. El sistema “AIC” y el método de la DDD se deben emplear únicamente para estudiar la utilización de fármacos , y no a efectos de precios y de financiación pública ni para valorar la eficacia de los fármacos . Mediante la DDD no es posible inferir el grado de equivalencia terapéutica entre los fármacos de un mismo grupo “ATC”, ni la duración y la eficacia de un tratamiento o los resultados sanitarios que con él se logran. No obstante, en algunos países (como Dinamarca, Holanda, Portugal, España y Suiza) se han utilizado inadecuadamente estos sistemas - tanto por parte de las autoridades sanitarias y de los comités de selección de fármacos, así como en los formularios de los hospitales - a la hora de tomar decisiones para la fijación de precios o la financiación pública y para llevar a cabo la sustitución de un fármaco por otro de la misma clase. Bibliografía ATC index with 000s. Oslo: World Health Organization Collaborating Centre for Druq Statistics Methodology, 1999 Guidelines for ATC classification and 000 assignment. Oslo: World Health Organization Collaborating Centre for Druq Statistics Methodology, 1998 Speight TM, Holtord NHG. Avery’s drug treatment. 4th edn. Auckland: Adis International Ltd. 1997 Strom B (ed.j. Pharmacoepidemiology. 2nd edn. Chichester: John Wiley a Sons, 1994: 386-7 2.- EFECTIVITAT.- Efectividad: trata de responder a la pregunta: “¿esta medida diagnóstica o terapeutica es útil en la práctica clínica? ¿ Contnbuye a un empleo más eficiente de recursos? Para que se demuestre la efectividad es necesario que existan pruebas de que la intervención resulta más beneficiosa que nociva cuando se lleva a cabo en la circunstancia clínica específica de un determinado paciente. En general, en los ensayos clinicos con distribución aleatoria que se realizan con anterioridad al registro de un producto, se estudia la eficacia de un fármaco para el tratamiento de una enfermedad, en vez de su efectividad. Estos ensayos clínicos suelen ltevarse a cabo en situaciones clínicas atípicas, en comparación con aquéllas en que, en definitiva, se va a emplear el fármaco. El cumplimiento del tratamiento es más estricto en los ensayos clínicos, en los cuales sólo participan pacientes que cumplen unos requisitos concretos (ya sean relativos a la edad, a la enfermedad, etc.), con lo cual la probabilidad de que en ellos se pueda demostrar el beneficio que reporta el fármaco que se está estudiando es mayor, si bien no son reflejo del uso que de él se vaya a hacer en la vida real. La efectividad de una intervención médica en la práctica clínica suele diferir de su eficacia en ensayos clínicos, ya que puede suceder que sólo se cumpla parcialmente el tratamiento, o que no se cumpla; además, el método de selección de pacientes es menos estricto, éstos pueden padecer enfermedades concurrentes y, finalmente, hay que tener en cuenta los efectos que ejerce la medicación concomitante. La efectividad de un tratamiento se puede determinar en estudios de farmacovigilancia, se puede inferir de los resultados obtenidos en los estudios previos a la comercialización del producto (tratando de corregir cualquier sesgo que se haya podido introducir en el diseño del estudio) o bien puede valorarla un grupo de médicos que cuente con gran experiencia acerca del tratamiento. Bibiliografía Gold MR, Siegel JE, Russell IB, et al. Cost-effectiveness in health and medicine. New York: Oxford University Press, 1996 Sloan FA (cdi. Valuing health care -costs, benefits, and effectiveness of pharmaceuticals and other medical technoloçjies. Cambridge: Cambridge University Presa, 1995 Strom B (ed.). PharmacoepidemiOlOgy. 2nd edn. Chichester: John Wiley Et Sons, 1994: 386-7 3.- NOMBRE NECESSARI DE PACIENTS A TRACTAR.- Número necesario de pacientes que han de recibir tratamiento: Cantidad de pacientes a quienes es necesario administrar tratamiento médico con el fin de evitar un resultado final adverso. Matemáticamente se expresa como el inverso de la disminución del riesgo absoluto (es decir, como 1/disminución del riesgo absoluto). Fórmula Disminución del riesgo absoluto (acontecimientos adversos en el grupo de control) — (acontecimientos adversos en el grupo de tratamiento) Disminución del riesgo relativo ((acontecimientos adversos en el grupo de control) — (acontecimientos adversos en el grupo de tratamiento)]/(acontecimientos adversos en el grupo de control) Número necesario de acientes 1/disminución del riesgo absoluto Explicación El número de pacientes a quienes un especialista necesita tratar para evitar que se produzca otro resultado adverso es una medida de la magnitud de los posibles beneficios que reporta un determinado tratamiento. Por ejemplo, en un estudio sobre pacientes diabéticos cuyo seguimiento se ha realizado durante 6,5 años, el 9.6% de los que recibieron el tratamiento habitual sufrieron algún tipo de neuropatía, mientras que, por el contrario, esto sucedió sólo al 2,8% de los que recibieron tratamiento intensivo. La diferencia tuvo significación estadística, pero, en cuanto a la significación clínica se refiere, la diferencia puede expresarse como la disminución del riesgo relativo o del riesgo absoluto. La del riesgo relativo se calcula de la forma siguiente: (9’6 2’8)/9’60%, es decir, 71%. Por tanto, con el tratamiento intensivo se redujo un 71% el riesgo de que experimentaran una neuropatía. Sin embargo, mediante la expresión de la disminución del riesgo relativo no se pueden diferenciar los efectos absolutos del tratamiento (por ejemplo, se conseguiría el mismo resultado si el 96% de los pacientes diabéticos que reciben el tratamiento habitual y el 28% de los que reciben el tratamiento intensivo sufrieran una neuropatía). Por el contrario, mediante la disminución del riesgo absoluto se pueden diferenciar los efectos significativos del tratamiento de los efectos triviales. En el ejemplo anterior, la disminución del riesgo absoluto sería 9’6% - 2,8% = 6,8%. Siguiendo con este ejemplo, el número de pacientes a quienes sería necesario administrar tratamiento es de 15, puesto que el resultado de dividir 1 entre 6’8% es 14,7%. Por tanto, de cada 15 pacientes diabéticos que reciban tratamiento intensivo durante 6’5 años, uno de ellos no experimentará ninguna neuropatía. Habitualmente se lleva a cabo la comparación entre el número de pacientes a quienes es necesario administrar diferentes tratamientos durante diferentes períodos y para diferentes enfermedades, ya que de esta forma es posible determinar qué esfuerzo clínico hay que realizar para evitar un resultado adverso. No obstante, dado que el parámetro del que estamos hablando expresa la magnitud del efecto del tratamiento, en vez de la probabilidad, es preciso especificar cuáles son los intervalos de confianza. Un concepto similar al del número necesario de pacientes que han de recibir tratamiento es el número necesario de pacientes que han de recibir tratamiento para que se produzca un episodio nocivo, es decir, un acontecimiento adverso. Bibliografía Sackett DL, Richardson WS, Rosenberg W, et al. Evidence-bascd medicine -how to practice and teach EBM. New York: Churchill Livirigstone, 1997 Spilker 8. Guide to clinical trials. Philadelphia: Lippincott-Raven, 1996 EN RELACIÓ A LA RELLEVÀNCIA D´UN TEST DIAGNÒSTIC 4.- VALIDESA Validez: En el contexto de los estudios clínicos, epidemiológicos y de Economía de la Salud, se hace distinción entre validez interna y validez externa. La interna está determinada por las circunstancias del propio ensayo, como pueden ser el sesgo de selección o el instrumental empleado. Se dice que existe validez externa cuando se pueden generalizar los resultados del estudio y aplicarlos a la realidad (por ejemplo, en cuanto a la población y el tiempo de tratamiento se refiere). Para expresar la validez de las pruebas diagnósticas para determinar la condición de una enfermedad se emplean los términos sensibilidad” y “especificidad”. Mediante el primero de ellos se específica el porcentaje de pacientes estudiados que, según se ha determinado en una de esas pruebas, están enfermos. Consecuentemente, el hecho de que una prueba tenga una sensibilidad del 80% indica que, por término medio, sólo se ha determinado con exactitud que, de 100 pacientes, 80 están enfermos, mientras que otros 20 serían clasificados, erróneamente, como “sanos”. La especificidad de una prueba indica la proporción de personas sanas que mediante ella se ha determinado correctamente que, en efecto, lo están. A la hora de valorar los instrumentos de medición (que suelen ser cuestionarios), su validez tiene especial importancia. Es decir, que deben reflejar con exactitud aquello que se quiere que quede reflejado en ellos. Por ejemplo, una pregunta relativa al dolor físico debe redactarse de tal forma que los pacientes que lo sufran la respondan afirmativamente, mientras que los que no sufran ese dolor contesten con una negación. Además, hay otros dos tipos de validez: la “validez lógica”, que indica si en el documento se tienen en cuenta todos los puntos de vista que, en opinión de los expertos, sean importantes a efectos de la medición. La “validez del contenido” indica la capacidad de un documento para reflejar todos los tipos de resultados posibles (como, por ejemplo, todos los estados de salud). La “validez del criterio” se determina estableciendo una correlación entre un documento y otro medio de valoración de los mismos aspectos. De esta forma se observa si con dos documentos con los que se supone que se debe evaluar o cuantificar la misma cosa se obtienen realmente resultados similares cuando se emplean al mismo tiempo. La ‘validez discriminante” indica si una prueba tiene capacidad para detectar la más mínima variación que pueda tener significación clínica en los pacientes y entre ellos. Finalmente, la “validez del concepto’, o “validez convergente o divergente”, indica en qué medida una prueba se ajusta a unos conceptos teóricos relativos al fenómeno que se está estudiando; es decir, si en teoría una medida varía con la edad, en cualquier prueba que posea validez conceptual deberá quedar reflejada dicha variacion. Bibliografía Hennekens CH, Buring lE. Epdemiology o medicine. Boston: Litt~e, Brown and Company, 1987: 57-66 Hyland ME. selection of items and avoidance of bias in quality of life scales. Pharmacoeconomics 1993; 1 (3): 182-90 Last JM (cd.). A dictionary of epidemiology. 2nd edn. New York: Oxford University Press, 1988 Selby P. Measuring the quaiity of ife of patients with cancer. In: Walker SR, Rosser RM (eds). Ouality of Iife - assessment and app8cat~on. London: MTP Press Limited, 1988: 181-204 Spifker B. Guide to cIin~caI trials. Philadelphia: Lippincott—Raven, 1996: Ch. 43 5.- BIAIX SESGO: Se entiende por sesgo el error sistemático que se comete al diseñar o realiizar estudios de investigación y que tiene como consecuencia la distorsión de los resultados que se obtienen. Es distinto al error aleatorio, que se produce por casualidad. En cualquier fase de un estudio clínico se puede obtener un resultado sesgado, ya sea como consecuencia de las características del propio estudio o bien de las pruebas realizadas, de las personas que en él participan, del tipo de análisis realizados o la perspectiva desde la que se interpretan los resultados. En el momento de tomar decisiones se puede producir un sesgo en función de la opinión de los expertos, de la experiencia clínica de la persona que ha de tomarlas o de la información que se haya obtenido en la bibliografía consultada. La investigación clínica tiene como objetivo, en este sentido, reducir al máximo o eliminar la posibilidad de que se produzca cualquier sesgo. Para ello se recurre a la aleatorización o reclutamiento sistemático de los pacientes, a ocultar a los pacientes y a los investigadores en qué consiste el tratamiento (véase ensayo clínico), a la normalización de los procesos de medición y a evitar que haya pacientes de los que no se pueda realizar su seguimiento. Cuando no se puede evitar un sesgo, es importante determinar cuál ha sido su origen, ya que, así, se podrá tener en cuenta a la hora de extraer las conclusiones del estudio llevado a cabo. Aunque muchos son los tipos de sesgos que se pueden producir, los principales son los siguientes: Los derivados de los procedimientos de selección y seguimiento de pacientes. Por ejemplo, a desigual retirada de pacientes en los diferentes grupos de tratamiento de un estudio clínico. Si aquellos cuya enfermedad es grave no mejoran y abandonan el estudio, y silos que no están graves mejoran y siguen participando en el estudio, los resultados que se obtengan en éste indicarán, erróneamente, que el tratamiento ha resultado muy eficaz. Los implícitos en la información recibida. Es posible que la información que se recibe de los pacientes esté condicionada en gran medida por las creencias y los valores de éstos. Los inducidos por los observadores. Falta de objetividad de quienes determinan la magnitud de las reacciones o las respuestas de los pacientes. Los inducidos por los entrevistadores, ya que es habitual que sus expectativas condicionen la forma en que se refleja la información que se obtiene. Los que son debidos a factores de confusión, esto es, cuando en la evolución de una enfermedad influyen varias circunstancias que se dan al mismo tiempo. Por ejemplo, cuando se estudia si el virus de la hepatitis B provoca cáncer de hígado, el consumo de alcohol y de tabaco pueden inducir a confusión. Los resultantes de la publicación de trabajos. Es más probable que se publique un trabajo de investigación cuyos resultados tengan significado estadístico que uno cuyos resultados no sean significativos. Tanto los responsables de la atención sanitaria como los directores de revistas consideran que este tipo de sesgo es habitual en los estudios patrocinados por la industria. Bibliografía Drummond MF. A reappraisal of economic evaluation of pharmaceuticals: science or marketing? Pharmacoeconomics 1988; 14 (1): 1-9 Easterbrook Pi. Berlin JA. Gopaian R. et al. Publication blas in clinical research. Lancet 1991; 337: 867-72 Spiiker B. Guide to clinical trials. Philadeiphia: Lippincott-Raven. 1996 Stroni B (ed.). Pharmacoepidemiology. Chichester: John Wiley Ft Sons. 1994: 609-27 2nd edn. 6.- FIABILITAT Se entiende por fiabilidad la capacidad de un documento (por ejemplo, para medir la calidad de vida en relación con la salud) para proporcionar, en condiciones idénticas, resultados reproducibles. Si en evaluaciones reiteradas de pacientes o de personas cuyo estado de salud permanece estable se obtienen, aproximadamente, los mismos resultados en diferentes momentos (análisis de pruebas repetidas), se puede considerar que el instrumento empleado a este efecto resulta fiable. Si, por ejemplo, se obtiene la misma respuesta poco después de que se haya formulado una pregunta sobre las molestias físicas que se sufren al subir unas escaleras, sin que se haya modificado el estado de salud, se considera que dicha afirmación resulta fiable. Otra definición de fiabilidad se refiere a la denominada “coherencia interna” del documento, es decir, al hecho de que ante diferentes preguntas relacionadas con el mismo asunto se reciban respuestas similares. Las preguntas que figuran en el documento se dividen en dos apartados iguales, y, después, se determina estadísticamente qué correlación hay entre las respuestas dadas a las de cada apartado (“fiabilidad de las mitades partidas”). Si hay gran correlación, se asume que el grado de fiabilidad es elevado.