Statistics">
Nothing Special   »   [go: up one dir, main page]

Medidas de Fuerza de Asociacion

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 25

Medidas de asociación

En esta sección revisaremos los principios y métodos estadísticos básicos que ayudan a los
equipos locales de salud a establecer la presencia de una asociación entre la exposición a
un factor que se considera de riesgo y la ocurrencia de enfermedad en la población. En
términos estadísticos, se dice que dos variables están asociadas cuando existe una
relación de dependencia (usualmente de tipo matemático) entre ambas; es decir, el
cambio en una de ellas necesariamente se acompaña del cambio en la otra (covariación).
Asociación: relación de dependencia estadística entre dos o más eventos, características u
otras variables . Una asociación está presente si la probabilidad de ocurrencia de un
evento depende de la ocurrencia de otro u otros .
En epidemiología, la aplicación del término ‘asociación’ siempre implica la intención de
establecer una relación de causa a efecto entre una exposición y una enfermedad o
evento en salud. Sin embargo, debe tenerse presente que una asociación puede ser
fortuita o ‘espuria’ o puede ser producida por varias circunstancias y, por tanto, la
presencia de una asociación estadística no necesariamente implica una relación causal.
Por otra parte, un factor de riesgo es un aspecto del comportamiento o estilo de vida
personal, constitución genética o hereditaria o exposición ambiental que, con base en la
evidencia epidemiológica disponible, se sabe que está asociado a condiciones relacionadas
con la salud consideradas importantes de prevenir. Desde el punto de vista
epidemiológico, lo más importante de un factor de riesgo es que sea identificable,
cuantificable y, en lo posible, modificable antes de la ocurrencia del hecho que predice.
Los factores de riesgo son indicadores o marcadores del riesgo de enfermar en la
población aunque, debe tenerse presente que el hallazgo de un factor de riesgo no
necesariamente implica que sea un factor causal.
Factor de riesgo: característica o circunstancia detectable en individuos o grupos, asociada
con una probabilidad incrementada de experimentar un daño o efecto adverso a la salud .
En general, un factor de riesgo es un atributo o exposición que incrementa la probabilidad
de ocurrencia de una enfermedad u otro daño a la salud .
Los aspectos que hemos revisado en la primera mitad de esta Unidad corresponden al
campo de la llamada estadística descriptiva: la descripción cuantitativa de la frecuencia y
distribución de los fenómenos de salud y enfermedad observados en la población. La
utilidad de presentar los datos resumidos en buenos cuadros y gráficos radica en permitir
hacer inferencias sobre los determinantes de la situación de salud observada en la
población y proceder con cierto nivel de confianza a intervenir sobre ellos.
La estadística es la ciencia matemática que proporciona a la epidemiología los elementos
básicos para el tratamiento científico de la información numérica en salud. El análisis
epidemiológico usa procedimientos estadísticos diseñados para estimar la probabilidad de
que una conclusión acerca de la población de referencia, basada en el análisis de datos de
una porción de ella (muestra) o en la comparación con otra población, sea correcta o
verosímil; ésto corresponde a la llamada estadística inferencial.
En la práctica, para explorar una posible asociación entre exposición y enfermedad se
requiere de tres elementos: dos grupos comparables de la población, una medida de la
variable exposición para cada grupo y una medida de la variable enfermedad en cada
grupo. En general, las variables epidemiológicas de exposición y de enfermedad son
continuas o discretas y sus medidas se resumirán en promedios o en proporciones. La
situación más común en los servicios de salud es la comparación de dos proporciones. Por
ejemplo, para evaluar la asociación entre ingreso económico y tuberculosis, podríamos
comparar dos proporciones: incidencia de tuberculosis entre los pobres y los ricos.
Las medidas de asociación estadística se basan en las llamadas pruebas de significancia
(los aspectos teóricos relacionados con sus bases conceptuales escapan a los propósitos
de este material. Para una breve introducción a ellos vea el Apéndice al final de este
módulo). El propósito de estas pruebas es determinar si la presencia de un factor de
riesgo evaluado está efectivamente relacionada con la frecuencia de la enfermedad. En
dichas condiciones se espera que la prevalencia de exposición a dicho factor sea
razonablemente más alta entre los que han enfermado o sufrido un daño a la salud que en
aquellos aparentemente sanos.
La bioestadística posee una gran variedad de pruebas de significancia y otros recursos
analíticos de potencial utilidad para la práctica epidemiológica. Por otra parte, el
desarrollo de la informática y las posibilidades tecnológicas están facilitando el acceso a
un número cada vez mayor de programas estadísticos de computadora. Dos paquetes
populares en epidemiología de campo son el Epi-Info del CDC y la OMS y el Epidat de la
OPS y la Xunta de Galicia, como se mencionó al inicio de este módulo. Es un hecho que el
nivel de exposición a esta tecnología está aumentando y, por ello, un conocimiento básico
del enfoque estadístico y epidemiológico en los equipos locales de salud es cada vez más
necesario para asegurar el uso racional y eficiente de tales recursos tecnológicos. Se
presenta a continuación una de las pruebas de significancia estadística de mayor utilidad
para la práctica epidemiológica de campo.
Comparación de dos Proporciones: La Prueba Chi Cuadrado
Para ejemplificar el uso de esta prueba estadística, nos referiremos a continuación a una
situación en la que se evalúa si existe una asociación estadísticamente significativa entre
ciertos tipos de ocupación y el riesgo de contraer malaria en una población.
En una localidad rural de 760 habitantes, situada en una zona malárica, se observó que, en
el último año, la incidencia acumulada de malaria en campesinos fue 88,2 por mil,
mientras que en la población no campesina fue 55,8 por mil. De acuerdo al censo local
más reciente, en la comunidad hay 204 campesinos. Interesa saber si la ocupación
campesino se asocia a la malaria. Los datos que resumen la situación descrita son:

Desde el punto de vista estadístico, interesa conocer si hay diferencia significativa entre
las dos medidas de incidencia acumulada. En este caso se puede aplicar una prueba de
significación estadística llamada Chi Cuadrado (x2), cuya formula es:

En la fórmula, “O” se refiere al valor observado en una celda y “E” a su valor esperado. La
fórmula trabaja exclusivamente con las celdas centrales de un cuadro, en este caso una
tabla 2x2, y hace referencia a las frecuencias observadas en dichas celdas y las que se
esperaría ocurrieran (valores esperados) si efectivamente no hubiera diferencia entre las
proporciones que se comparan. Los valores esperados para cada celda central se obtienen
multiplicando sus totales marginales correspondientes y dividiendo este producto por el
gran total. Por ejemplo, en la primera celda central (campesino con malaria), el valor
observado es 18 y el valor esperado sería: (204 x 49) ÷ 760 = 13,2. El cuadro de resultados
para cada celda quedaría así:

Reemplazando la formula,
El valor de chi cuadrado calculado de esta manera (observado) se compara con un valor
tabulado (esperado) tomado de la distribución de probabilidades teóricas. Este valor
teórico corresponde al que se esperaría encontrar si los resultados observados ocurrieran
puramente por azar. A este valor teórico se le llama valor crítico: si el valor observado es
mayor que el valor crítico se concluye que la diferencia observada no es debida al azar y se
dice que es estadísticamente significativa. El valor crítico indica el nivel de significancia de
la prueba, que expresa la probabilidad de que la diferencia observada haya ocurrido por
azar (dado que, en realidad, no existan diferencias). Usualmente esta probabilidad se fija
en 5% y se denota como p<0,05. El complemento de esta probabilidad se llama nivel de
confianza, en general, 95%.
Para un nivel de confianza de 95%, el valor crítico del Chi Cuadrado (de acuerdo a una
tabla de distribución teórica) es 3.84, que corresponde al llamado chi cuadrado con un
grado de libertad, específico para tablas 2x2. Los grados de libertad de una tabla se
refieren al número mínimo de frecuencias en las celdas centrales que se necesita conocer
para poder completar los valores de las demás celdas, dados los valores de los totales
marginales. En la situación analizada, el valor observado (2,56) no rebasa el valor crítico
(3,84), por tanto se concluye entonces que concluye entonces que no se puede rechazar la
hipótesis de no-diferencia (de nulidad). En consecuencia, se puede afirmar con 95% de
confianza estadística que la ocupación campesino no está significativamente asociada a la
presencia de malaria (p>0.05).
La prueba de Chi cuadrado es ampliamente usada en epidemiología, especialmente en el
análisis de tablas 2x2. Por ello, se ha desarrollado la siguiente fórmula alternativa
simplificada:

que, aplicada a los datos de nuestro ejemplo, proporciona resultados similares:


La decisión sobre el nivel de confianza seleccionado depende de la situación que se
analice; por las implicaciones que una decisión tenga, se querrá tener un nivel de
confianza mayor o menor. Para servir a los distintos propósitos, existen varias alternativas.
El Cuadro 3.14 presenta otros valores críticos de x2 (chi cuadrado) para diferentes niveles
de significancia.
Cuadro 3 .14 Valores críticos de los estadígrafos x2 y Z a distintos niveles de significancia y
confianza estadísticas

Medidas de la fuerza de asociación


A diferencia de las llamadas pruebas de significancia estadística, útiles porque determinan la
presencia de una asociación entre dos variables, la epidemiología propone el uso de dos medidas
básicas que cuantifican la fuerza de esa asociación: el riesgo relativo y la OR (la OR proviene del
ingles odds ratio que ha sido traducido como: razón de productos cruzados, razón de posibilidades
u oportunidad relativa). En esta Unidad revisaremos los conceptos básicos sobre estas medidas de
análisis epidemiológico y en la Unidad 5 las veremos en el contexto de la investigación
epidemiológica de factores de riesgo de enfermedad, que es donde adquieren especial relevancia

Riesgo Relativo

Como vimos anteriormente, la incidencia de una enfermedad en una población y período


determinados (incidencia acumulada y la tasa de incidencia) nos proporciona una medida del
riesgo absoluto de padecer la enfermedad en esa población.

Riesgo absoluto: incidencia de enfermedad u otro evento de interés en la población o grupo


poblacional; cuantifica la probabilidad de experimentar dicha enfermedad o evento .

La comparación de dos medidas de incidencia de una enfermedad, es decir, dos riesgos absolutos,
permite detectar un posible exceso de riesgo en un grupo con relación a otro. En epidemiología es
de particular interés comparar la ocurrencia de enfermedad entre un grupo expuesto a un factor
considerado de riesgo respecto a otro no expuesto. Las pruebas estadísticas ayudan a detectar el
exceso de riesgo entre ambos grupos, el riesgo relativo permite cuantificar la magnitud de tal
exceso y mide la fuerza de la asociación entre exposición y enfermedad. Para calcular el riesgo
relativo de una enfermedad con relación a una exposición, se requiere una medida del riesgo
absoluto entre los expuestos a un factor de riesgo y una medida del riesgo absoluto entre los no
expuestos a tal factor, es decir, la incidencia en expuestos y la incidencia en no expuestos.
Conviene tener presente que nos referimos a la incidencia de una enfermedad específica y a la
exposición a un factor de riesgo específico.

La epidemiología dispone de una serie de diseños de estudios para observar cuándo existe una
asociación entre la exposición a un factor y el desarrollo subsecuente de una enfermedad. Entre
estos diseños, los estudios de cohortes y caso-control no sólo demuestran si esa asociación existe
sino cuán fuerte es. Los datos obtenidos a partir de estos estudios observacionales se disponen
usualmente en una tabla 2x2, llamada así por la naturaleza dicotómica de las variables de
exposición y de enfermedad, como la que se muestra a continuación:

Cuadro 3 .15 Tabla 2x2 (Diseño de Cohortes)

Convencionalmente, las columnas de la tabla 2x2 representan la presencia o ausencia de


enfermedad y las filas la presencia o ausencia de exposición. En los estudios de cohortes se parte
de dos grupos de sujetos sin la enfermedad, uno expuesto a un hipotético factor que se sospecha
de riesgo y otro no expuesto al factor, y se observa el desarrollo posterior de la enfermedad en
ambos grupos, durante un tiempo de seguimiento. De esta manera, en los estudios de cohortes la
tabla 2x2 (Cuadro 3.15) tiene los siguientes componentes:

• a = expuestos al factor de riesgo que durante el seguimiento desarrollaron la enfermedad


• b = expuestos al factor de riesgo que durante el seguimiento no desarrollaron la
enfermedad

• c = no expuestos al factor de riesgo que durante el seguimiento desarrollaron la


enfermedad

• d = no expuestos al factor de riesgo que durante el seguimiento no desarrollaron la


enfermedad

• a + c = total de sujetos que durante el seguimiento desarrollaron la enfermedad

• b + d = total de sujetos que durante el seguimiento no desarrollaron la enfermedad • a +


b = total de sujetos expuestos al factor de riesgo

• c + d = total de sujetos no expuestos al factor de riesgo

El riesgo relativo (RR), como medida de fuerza de asociación, se obtiene a partir de los estudios de
cohortes, ya que su diseño nos permite calcular la incidencia de la enfermedad en ambos grupos.
El riesgo relativo es una razón de incidencias, o sea el cociente entre la incidencia de enfermedad
en los expuestos y la incidencia en los no expuestos al supuesto factor de riesgo.
y, en la tabla 2x2, esto es:

Riesgo Relativo: razón entre el riesgo absoluto de enfermar o morir de aquellos con la exposición
de interés y el riesgo absoluto de enfermar o morir de aquellos sin la exposición de interés .

Un RR igual a la unidad (RR=1) se interpreta como la ausencia de asociación entre exposición y


enfermedad (el riesgo de enfermar es similar en ambos grupos); un RR mayor de 1 (RR>1) indica
mayor riesgo en los expuestos (la exposición está asociada a la enfermedad y es un factor de
riesgo); un RR menor de 1 (RR<1) indica menor riesgo en los expuestos (la exposición está asociada
a la enfermedad y es un factor protector). La magnitud del RR cuantifica la fuerza de asociación
entre la exposición y la enfermedad; así un RR igual a 3,5 expresa una asociación más fuerte entre
exposición y enfermedad que, por ejemplo, un RR igual a 1,4; o un RR igual a 0,2 indica una
asociación más fuerte que un RR igual a 0,7.

Consideremos un ejemplo clásico. Entre 1950 y 1952, los doctores Dawber, Meadors y Moore del
Servicio de Salud Pública de los EE.UU. seleccionaron 5.127 varones y mujeres sanos, de 30 a 59
años, residentes de Framingham, Massachusetts, a quienes desde entonces se ha venido
estudiando prospectivamente con el fin de observar la relación entre una serie de factores de
riesgo y el desarrollo de enfermedad cardiaca coronaria. Como parte del Estudio del Corazón de
Framingham, el Cuadro 3.16 presenta la situación observada al decimosexto año de seguimiento
de un grupo de 1.112 varones, sanos y de 35 a 44 años de edad al inicio del estudio, con relación al
desarrollo de enfermedad cardiaca coronaria según su exposición a tres factores de riesgo
seleccionados.

Cuadro 3 .16 Exposición a factores de riesgo y enfermedad cardiaca coronaria (ECC) . Seguimiento
de 16 años a varones de 35-44 años de edad . Framingham, EE .UU .

Veamos el primer factor de riesgo estudiado: hipertensión (definida aquí como presión arterial
sistólica igual o mayor a 180 mmHg). De acuerdo a los datos, de los 1.112 varones al inicio del
estudio, 22 tenían hipertensión (estaban expuestos) y 1.090 no la tenían (no estaban expuestos).
Dieciséis años después, 12 de los expuestos y 206 de los no expuestos (i.e., 218 casos) habían
desarrollado enfermedad cardiaca coronaria (ECC). Esto quiere decir que el riesgo absoluto de
enfermar con ECC entre quienes tienen hipertensión es:
y el riesgo absoluto de enfermar con ECC entre quienes no tienen hipertensión es:

Ahora podremos comparar ambos riesgos absolutos y determinar el exceso de riesgo como una
razón de tasas. Así, el riesgo relativo será:

esto es, los individuos hipertensos tienen 2,89 veces el riesgo de enfermar con ECC que el de los
individuos no hipertensos. Dicho de otro modo, la exposición al factor de riesgo incrementa 1,89
veces el riesgo de desarrollar la enfermedad. Así, el riesgo relativo indica cuánto más riesgo tienen
los expuestos en relación con los no expuestos.

Examinemos el siguiente ejemplo. En la última quincena de mayo de 1991 se presentó un intenso


brote de cólera en tres caseríos aledaños de la selva amazónica (población 1.761 habitantes), que
afectó a 125 personas y provocó la muerte de 7 de ellas. Durante la primera semana de junio se
hizo una encuesta rápida en toda la población sobre su exposición a un conjunto de supuestos
factores de riesgo. El Cuadro 3.17 presenta los resultados con relación al consumo de ciertos
productos que, se sospechaba, podrían estar implicados en el brote.

Cuadro 3 .17 Brote de cólera en tres caseríos rurales, selva amazónica; Junio 1991 .

De lo que se trata es de determinar si existe alguna asociación entre la exposición a los supuestos
factores de riesgo y la presencia de cólera en la población. Para ello procedemos a construir una
tabla 2x2 para cada uno de los supuestos factores de riesgo, a saber:
Ahora podremos calcular más fácilmente las medidas de asociación. Asumiendo que este es un
estudio de cohorte, por tanto, los riesgos relativos en cada exposición serían los siguientes:
Parece claro que la exposición que se asocia con más fuerza al hecho de enfermar es el consumo
de pescado crudo, así como el consumo de agua no tratada. El riesgo relativo de 4,92 nos indica
que la probabilidad de desarrollar cólera fue 3.92 veces mayor en los sujetos que consumieron
pescado crudo que en los que no lo consumieron. El riesgo de presentar cólera fue también casi
tres veces mayor en aquellos que consumieron agua no tratada que en aquellos que no la
consumieron. A la vista de los restantes riesgos relativos, esta evidencia apunta hacia una
implicación causal de estos productos en el brote de cólera en estas comunidades amazónicas.

Razón de Posibilidades ( Odds Ratio )

Como acabamos de ver, para calcular el riesgo relativo necesitamos la incidencia de la enfermedad
en expuestos y no expuestos y éstas se obtienen de un estudio de cohortes. Más frecuentemente,
cuando necesitamos identificar asociación entre exposición y enfermedad sucede que nos
encontramos ante una serie de sujetos que ya presentaron la enfermedad. En tal situación
podemos recurrir a un estudio caso-control, en el cual se compara la historia de exposición de los
enfermos con la de un grupo de sujetos similares, pero sanos, al que se llama ‘grupo control o
testigo’. El diseño caso-control es muy versátil y popular en el campo y es uno de los estudios que
nos permite obtener una medida denominada razón de posibilidades (razón de productos
cruzados, razón de ventajas, razón de suertes, razón de momios, odds ratio), análoga al riesgo
relativo, que estima el exceso de riesgo.

En los estudios caso-control se parte de dos grupos de sujetos, uno con la enfermedad y otro sin
ella, y se investiga si habían estado previamente expuestos al factor de riesgo. Así, en los estudios
caso-control la tabla 2x2 (Cuadro 3.20) tiene los siguientes componentes

Cuadro 3 .19 Tabla 2x2 (Diseño Caso-Control)


a = enfermos (casos) que estuvieron expuestos al factor de riesgo

b = no enfermos (controles) que estuvieron expuestos al factor de riesgo

c = enfermos (casos) que no estuvieron expuestos al factor de riesgo

d = no enfermos (controles) que no estuvieron expuestos al factor de riesgo

a + c = total de sujetos enfermos (casos)

b + d = total de sujetos no enfermos (controles)

a + b = total de sujetos que estuvieron expuestos al factor de riesgo

c + d = total de sujetos que no estuvieron expuestos al factor de riesgo

En su original acepción inglesa (odds ratio), la razón de posibilidades literalmente significa “razón
de ‘odds’”. Para comprender mejor su significado, debemos revisar, una vez más, el término
probabilidad. La definición frecuentista nos dice que la probabilidad de la ocurrencia de un evento,
indica la frecuencia relativa límite con que dicho evento tendrá lugar a largo plazo, en pruebas
repetidas en condiciones similares (Colton, 1975). El término ‘frecuencia relativa’ implica que el
valor numérico de cualquier probabilidad se sitúa entre 0 y 1.

Como hemos visto a lo largo de esta Unidad, la probabilidad se utiliza a menudo para cuantificar la
frecuencia esperada de ciertas características de interés, bajo condiciones de incertidumbre como,
por ejemplo, el porcentaje de individuos en quienes se espera esté presente un riesgo o una
enfermedad concretos. Esta misma información está contenida en otra medida, relacionada con la
probabilidad, pero que se expresa de forma diferente. Se trata del odds. El odds (o ‘ventaja’) se
define como la probabilidad de que ocurra un evento dividida entre la probabilidad de que no
ocurra, es decir, el odds viene a ser una razón de probabilidades complementarias. Esto es,

Por ejemplo, es lo mismo decir que nuestro equipo de fútbol tiene una probabilidad de 80% de
ganar su partido del domingo que decir que su odds es 4 a 1 para esa ocasión (Fletcher, 1998). O,
como señala Last en su Diccionario, si 60 fumadores desarrollan tos crónica y 40 no, el odds entre
estos 100 fumadores en favor de desarrollar tos es 60:40, o 1,5; en contraste, la probabilidad de
que estos fumadores desarrollen tos es 60/100 o 0,6.
En un estudio caso-control se definen los odds en favor de la exposición al factor de riesgo. Así, en
los casos, el odds de haber estado expuesto será:

y, en los controles, será

De esta manera, la razón de posibilidades (OR) no es sino la razón o cociente entre los odds, en
favor de la exposición de los casos y de los controles; es decir:

Razón de posibilidades: es el cociente entre dos odds . Se define de forma diferente según la
situación de que se trate . En un estudio caso-control, la razón de posibilidades (OR) es el cociente
entre las ventajas (odds) a favor de la exposición en los casos (a/c) y los controles (b/d) (OR de
exposición) . En un estudio de cohortes o un estudio transversal, el OR es el cociente entre las
ventajas (odds) a favor de la enfermedad en los expuestos (a/b) y los no expuestos (c/d) (OR de
enfermedad) . En ambos casos el cálculo queda reducido a ad/bc .

La razón de posibilidades de los estudios caso-control proporciona una medida que es conceptual
y matemáticamente análoga al riesgo relativo de los estudios de cohortes. Desde un punto de vista
más práctico, el OR, corresponde a la razón de productos cruzados en una tabla 2x2, como la
presentada en esta Unidad y se calcula mediante la siguiente fórmula:

Esta medida de fuerza de asociación tiene la misma interpretación que el riesgo relativo y en
determinadas circunstancias (de baja frecuencia de la enfermedad) constituye una buena
aproximación de éste. Así, un OR igual a 1 (OR=1) indica ausencia de asociación exposición-
enfermedad; un OR mayor de 1 (OR>1) indica exposición de riesgo y un OR menor de 1 (OR<1)
efecto protector.

Retomando nuestro ejemplo sobre el cólera en la Amazonía, asumamos que la situación


corresponde a un diseño caso-control, como podría ser si se tratara de consultas en nuestro
centro de salud. En tal situación, los casos serían todos los enfermos con cólera atendidos en el
centro de salud y los controles, por ejemplo, todos los otros pacientes atendidos por otra causa.
Aunque así ya no podemos calcular la incidencia, sí podemos medir la fuerza de asociación entre
exposición y enfermedad por medio de la razón de posibilidades (OR), a saber:
Si comparamos la fuerza de asociación medida con el RR y con el OR apreciaremos que las
diferencias observadas no cambian la conclusión acerca de las exposiciones que parecen estar
causalmente implicadas en la propagación del cólera en la comunidad.

Conviene reiterar que tanto el riesgo relativo como la razón de posibilidades, miden el exceso de
riesgo en los expuestos con respecto a los no expuestos a un determinado factor y ambos tienen
como punto de referencia la unidad (RR=1 ó OR=1). Así, un RR u OR igual a 2, por ejemplo, no
significa que los expuestos tengan dos veces más riesgo que los no expuestos, sino una vez más, es
decir, los expuestos tienen el doble de riesgo de los no expuestos (100% más riesgo); un RR u OR
igual a 1,5 significa que los expuestos tienen 0,5 veces más riesgo que los no expuestos (o sea, 50%
de exceso de riesgo).

A continuación se ofrecen elementos adicionales para el análisis epidemiológico, los cuales


pueden consultarse posteriormente. Estos incluyen pruebas de significancia estadística,
estimación de intervalos de confianza, métodos para el análisis de impacto de factores de riesgo
en la población y métodos para el control de factores que pueden distorsionar la comparación
entre poblaciones.

Comparación de dos Promedios: La Prueba Z

Después de un brote de malaria, un centro de salud realiza un programa de tamizaje en el cual 150
frotis sanguíneos de niños de 1 a 4 años de edad son examinados para detectar la presencia de
parásitos Plasmodium falciparum. Se encontraron 70 láminas positivas y el nivel promedio de
hemoglobina en esos niños fue 10,6 g/dL, con una desviación estándar de 1,4 g/dL. El nivel
promedio de hemoglobina en los 80 niños con láminas negativas fue 11,5 g/dL, con una desviación
estándar de 1,3 g/dL. El centro de salud estaba interesado en saber si la infección por P. falciparum
disminuye los niveles de hemoglobina en los niños de la comunidad. Los datos que resumen la
situación descrita son:
Desde el punto de vista estadístico, el interés del centro de salud consiste en saber si existe o no
diferencia entre los promedios de hemoglobina observados en los dos grupos de niños. En este
caso podemos usar una prueba de significación estadística llamada Prueba Z, cuyo estadígrafo es:

Según esta prueba, el valor crítico del estadígrafo Z para un nivel de significancia de 0.05 (5%) es
1,96. Si el valor de Z calculado es mayor que el Z crítico (1,96), se rechaza la hipótesis nula y se
concluye que la diferencia observada es estadísticamente significativa con 95% de confianza
(p<0,05). Reemplazando,

El resultado es significativo al nivel 0,05 (5%), puesto que 4,06 es mayor que 1,96 (en esta prueba
se considera el valor absoluto). En consecuencia, se puede afirmar con 95% de confianza que la
infección por P. falciparum disminuye los niveles de hemoglobina en los niños afectados. Esta
confianza es estadística, porque expresa la seguridad relativa con la que se toma una decisión
estadística: decir que hay o no hay diferencia entre dos grupos observados, en función de la
influencia del azar. Esta decisión, en estadística, corresponde a rechazar o aceptar la hipótesis nula
o de no-diferencia. El Cuadro 3.14 presenta otros valores críticos de Z para diferentes niveles de
significancia. Esta prueba se emplea sólo cuando ambas muestras son grandes (>30 en cada grupo)
(de otro modo se suele aplicar la prueba t de Student, no tratada en este Módulo).

Intervalos de Confianza para promedios y proporciones

Un procedimiento alternativo o complementario de la inferencia estadística para estimar el grado


de incertidumbre que rodea a los estimadores de los parámetros poblacionales es el cómputo de
sus intervalos de confianza. Su comparación directa, incluso, puede ser tanto o más informativa
que los valores p del nivel de significancia para decidir si una diferencia entre los estimadores
(promedios o proporciones) es o no estadísticamente significativa.

En su forma general, un intervalo de confianza es simétrico respecto del estimador que contiene;
es decir que se construye sumando y restando una misma cantidad al promedio o la proporción
observada en la población estudiada. Esa cantidad se llama error de muestreo y corresponde al
producto del error estándar del estimador y un valor crítico del estadígrafo correspondiente, que
suele ser el valor de Z para un nivel de confianza de 95% (1,96). Así,

El error estándar es el mismo que se emplea en las pruebas de significancia estadística y, como
hemos visto, es una expresión de la variación o variabilidad entre los individuos en las muestras de
la población. Mas concretamente, el error estándar representa la desviación estándar de una
distribución de muestras repetidas de la misma población. Imaginemos que en una misma
población se repite 100 veces el mismo estudio para determinar el período de incubación
promedio, en días, de la difteria. Cada estudio resumirá sus resultados en dos medidas: el
promedio y la desviación estándar del período de incubación de la difteria. Así, tendremos 100
promedios y 100 desviaciones estándar de lo mismo. Si hacemos un gráfico de los 100 promedios
obtenidos, veremos que éstos siguen una distribución normal y, por lo tanto, esta distribución de
muestras tendrá también un promedio y una desviación estándar. Este promedio es un promedio
de promedios y esa desviación estándar es, precisamente, el error estándar; ambos representan
los verdaderos parámetros poblacionales del período de incubación de la difteria. El error estándar
es una medida de gran importancia en la teoría muestral; en la práctica se expresa como una
relación entre la dispersión de los datos observados y el tamaño de la muestra estudiada.

El intervalo de confianza así construído indica el rango en el que, con una probabilidad conocida, el
verdadero parámetro poblacional estudiado está contenido. Por ejemplo, si un estudio sobre el
período de incubación de la difteria reportara que el promedio es 3,5 días y el Intervalo de
Confianza al 95% (IC95%) es 2,4–6,1 días, lo que están diciendo los autores es: “si bien nuestro
resultado puntual es 3,5 días en promedio, reconocemos que éste es un estimado y por lo tanto
está sujeto a error aleatorio; no obstante, tenemos 95% de confianza que el verdadero tiempo de
incubación de la difteria está entre 2,4 días y 6,1 días”. En otras palabras, se está diciendo que si se
repitiera 100 veces el mismo estudio, en 95 de las veces el promedio obtenido estará entre 2,4 y
6,1 días, o sea el intervalo de confianza, pero en 5 de las veces podrá estar fuera de dicho
intervalo. De esta manera, el intervalo de confianza cuantifica de manera explícita la inherente
imprecisión de los datos.

IC95% de un promedio:

El IC95% del promedio de hemoglobina en el grupo de niños con malaria (pag. 76) será:
Límite inferior (Li) = 10,3g/dL; Límite superior (Ls) = 10,9g/dL.

El IC95% del promedio de hemoglobina en el grupo de niños sin malaria (pag. 76) será:

Li = 11,2g/dL; Ls = 11,8g/dL.

El Gráfico 3.10 compara visualmente ambos grupos de población en función de sus respectivos
intervalos de confianza. El hecho de observar que sus rangos no se superponen entre sí (el límite
superior de uno y el límite inferior de otro “no se tocan”) sugiere que hay diferencia
estadísticamente significativa entre ambos, en correspondencia con los resultados de la prueba de
significancia empleada (Prueba Z).

Gráfico 3 .10 Comparación de intervalos de confianza de dos promedios

IC95% de una proporción:

El IC95% de confianza para la incidencia de malaria en campesinos (pag. 61) será:


Li = 0,0493 (49,3 por mil); Ls =0,1272 (127,2 por mil).

Obsérvese que la proporción p en la fórmula se expresa en tanto por uno (o sea, va de 0 a 1); los
resultados se multiplican por 1.000 para expresarlos como tasas por mil.

El IC95% de confianza para la incidencia de malaria en no campesinos (pag. 64) será:

Li = 0,0367 (36,7 por mil); Ls =0,0749 (74,9 por mil).

El Gráfico 3.11 compara visualmente ambos grupos de población en función de sus respectivos
intervalos de confianza. El hecho de observar que sus rangos se superponen entre sí (el límite
superior de uno y el límite inferior de otro “se tocan”) sugiere que no hay diferencia
estadísticamente significativa entre ambos, en correspondencia con los resultados de la prueba de
significancia empleada (Chi cuadrado). Además, obsérvese la longitud del recorrido del intervalo
de confianza para la incidencia en campesinos: la amplitud de un intervalo de confianza también
informa sobre la precisión del estudio; los intervalos amplios indican pobre precisión muestral.

Gráfico 3 .11 Comparación de intervalos de confianza de dos proporciones


La estimación de intervalos de confianza es un procedimiento básico para documentar el grado de
precisión de nuestros resultados. Los métodos que hemos revisado son los más comunes y útiles
en la práctica cotidiana de la epidemiología. Sin embargo, debe señalarse que existe una amplia
variedad de técnicas para la estimación de intervalos de confianza de distintos parámetros
poblacionales, como los intervalos de confianza de una diferencia de promedios, de una diferencia
de proporciones; riesgos relativos, razones de posibilidades y otras importantes mediciones en
salud.

Medidas de impacto potencial

Riesgos atribuibles

La comparación de dos medidas de incidencia acumulada, como se ha señalado, permite


cuantificar el exceso de riesgo entre dos grupos con diferente nivel de exposición al factor de
interés. Este exceso de riesgo se puede medir en dos direcciones: la razón de tasas, dividiéndolas
para obtener el riesgo relativo, o la diferencia de tasas, restándolas, en cuyo caso obtendremos el
llamado riesgo atribuible en expuestos, es decir:

riesgo atribuible en expuestos = incidencia en expuestos – incidencia en no expuestos

En el ejemplo de Framingham, el riesgo atribuible en expuestos (hipertensos) será:

riesgo atribuible en expuestos: 545,5 – 189,0 = 356,5 por 1.000 expuestos

que es la tasa de enfermedad ECC en los expuestos que se considera debida o atribuible a la
exposición, es decir, al hecho de ser hipertensos. En otras palabras, si los individuos expuestos
dejaran de ser hipertensos (esto es, si se eliminase su exposición al factor de riesgo), su riesgo
absoluto original (545,5 por 1.000) quedaría reducido solamente al riesgo absoluto de los no
expuestos (189,0 por 1.000); este exceso de riesgo (356,5 por 1.000) de enfermar con ECC se
atribuye a la hipertensión.

En forma análoga, el riesgo atribuible en la población (RAP), es la magnitud absoluta de incidencia


de enfermedad que se atribuye a la exposición, ya no sólo en los expuestos sino en el conjunto de
la población. El RAP es la diferencia entre la incidencia en la población (IP) y la incidencia en los no
expuestos; es decir:

riesgo atribuible en la población,

En el ejemplo de Framingham, podemos determinar que la incidencia de ECC en la


población fue 196,0 por mil personas (218 casos en 1.112 personas). El RAP será:

riesgo atribuible en la población, RAP: 196,0 – 189,0 = 7,0 por 1.000 habitantes

que es la tasa de enfermedad ECC en la población que se considera debida o atribuible a la


hipertensión (la exposición). Es decir que, si no hubiera hipertensión en la población, el riesgo
absoluto de enfermar con ECC sería 189,0 por mil personas en vez de 196,0 por mil: el exceso de
riesgo, atribuible a la exposición, es sólo 7,0 por mil habitantes.

Fracciones atribuibles

A partir de los riesgos atribuibles podemos calcular otras dos medidas importantes, llamadas
medidas de impacto potencial: la fracción atribuible en expuestos y la fracción atribuible en la
población. La fracción atribuible en expuestos es simplemente el riesgo atribuible en expuestos
expresado porcentualmente, es decir, la proporción de la incidencia en expuestos que se
considera debida a la exposición al factor de riesgo. Esto es,

fracción atribuible en expuestos:

En el ejemplo de Framingham sobre hipertensión y ECC, la fracción atribuible en expuestos –


llamada también riesgo atribuible porcentual, RA%, será:

fracción atribuible en expuestos (RA%):

que quiere decir que el 65% del riesgo absoluto en expuestos es debido a la exposición al factor de
riesgo, es decir, al hecho de ser hipertensos (el riesgo atribuible en expuestos, 356,5 por 1.000,
equivale al 65,4% del riesgo absoluto en expuestos, 545,5 por 1.000).

Finalmente, la fracción atribuible en la población o fracción etiológica es una medida que


cuantifica el exceso de riesgo de enfermar, que se atribuye a la exposición ya no sólo en los
expuestos, sino en el conjunto de la población. Esta medida es simplemente el riesgo atribuible en
la población expresado porcentualmente (RAP%). De esta manera, la fracción atribuible en la
población queda expresada como:

fracción atribuible en la población, RAP%:

La fracción atribuible en la población permite identificar la importancia relativa de la exposición a


un determinado factor de riesgo en la población, pues expresa la magnitud en que se reduciría el
riesgo absoluto de enfermar en el conjunto de la población (es decir, la incidencia de la
enfermedad en la población) si se eliminara dicha exposición. Por ello, se considera que el RAP%
es una medida de gran trascendencia en salud pública.

En el ejemplo de Framingham sobre hipertensión y ECC, la fracción etiológica o riesgo atribuible


poblacional porcentual, RAP%, será:
fracción atribuible en la población, RAP%:

lo que quiere decir que la hipertensión da cuenta únicamente del 3.6% del riesgo absoluto de
enfermar con ECC, i.e., la incidencia, en la población estudiada. En otras palabras, si se tuviera
éxito en eliminar la hipertensión en toda la población, se habría conseguido reducir únicamente en
3.6% el riesgo de desarrollar enfermedad cardiaca coronaria en esa población. Esto, como
veremos luego, tiene obvias implicaciones en la priorización e implementación de medidas de
control de alcance poblacional en salud.

Hagamos ahora un resumen de nuestras observaciones sobre la situación descrita en el ejemplo


de Framingham. Hemos estado interesados en ver cuál es el riesgo de desarrollar enfermedad
cardiaca coronaria en una población en función de la exposición a tres factores de riesgo:
hipertensión, cardiomegalia y tabaquismo. Hemos visto que el factor con mayor riesgo relativo es
la hipertensión (RR=2,9) y el de menor el tabaquismo (RR=1,9)

pero, por otro lado, la fracción etiológica más alta es la del tabaquismo (RAP%=39,5%) y la más
baja la de hipertensión (RAP%=3,6%). En otras palabras, aunque claramente tiene más riesgo de
desarrollar ECC un individuo hipertenso que uno fumador, a nivel poblacional resultaría más
recomendable aplicar una estrategia de reducción del tabaquismo, que una de reducción de la
hipertensión. ¿Por qué?.

Esta situación, relativamente común, ilustra el contraste entre riesgo individual y riesgo
poblacional. Esta situación se explica por las diferencias en la prevalencia de exposición en la
población a los distintos factores de riesgo. Con los datos del Cuadro 3.21 podemos inferir que la
prevalencia de hipertensión en la población fue 2%, mientras que la de tabaquismo fue 72%. Así,
el RAP% es sensible no sólo a la magnitud del exceso de riesgo entre expuestos y no expuestos,
sino también a la magnitud de la exposición al riesgo en la población. En el ejemplo de
Framingham, que sintetizamos en el Cuadro 3.21 y Gráfico 3.12 siguientes, si tuviéramos que
decidir por una intervención de salud pública para disminuir el riesgo de ECC –una situación
habitual cuando hay limitación de recursos– la intervención dirigida a disminuir la prevalencia de
consumo de cigarrillos tendrá definitivamente mayor impacto en dicha población.

Cuadro 3 .21 Exposición a factores de riesgo y enfermedad cardiaca coronaria (ECC) . Seguimiento
de 16 años a varones de 35-44 años de edad . Framingham, EE .UU .
Gráfico 3 .12 Exposición a factores de riesgo y enfermedad cardiaca coronaria (ECC) . Seguimiento
de 16 años a varones de 35-44 años de edad . Framingham, EE .UU .

Otro ilustrativo ejemplo de la importancia de considerar el impacto potencial de las medidas de


control en la comunidad a la hora de tomar decisiones se encuentra en el caso del cólera en la
Amazonía, presentado en el Cuadro 3.17 (página 68). De acuerdo con la información disponible,
podemos determinar la fracción atribuible en la población (fracción etiológica, RAP%) de la
exposición a pescado crudo y a agua no tratada:

Esto nos permite saber que, aunque el consumo de pescado crudo está más fuertemente asociado
a la presencia de cólera (RR=4,9), su impacto potencial en la población es muy bajo, por que la
prevalencia de exposición (consumo de pescado crudo) en la población es muy baja (1,2%). Si
elimináramos el consumo de pescado crudo en esa población, solamente conseguiríamos reducir
cerca de 5% su incidencia de cólera. En cambio, el consumo de agua no tratada –una práctica
altamente prevalente en dicha comunidad (68,4% consume agua no tratada)– tiene gran impacto
potencial: eliminar este factor de riesgo reduciría 65% la incidencia de cólera en la población.
Aunque, es obvio que las campañas de prevención del cólera en esa comunidad habrán de advertir
del riesgo de consumir pescado crudo o fruta sin lavar, la inversión tendrá que dirigirse
prioritariamente a evitar que su población consuma agua no tratada.

Estandarización de tasas

Con el fin de sintetizar la información disponible, frecuentemente las tasas se presentan para la
población completa o para grandes categorías de la misma. A estas tasas se les llaman tasas
crudas. Con estas tasas-resumen se suele comparar la mortalidad o la incidencia de una
enfermedad entre dos áreas geográficas, dos grupos de población o dos momentos en el tiempo y
ver si existen diferencias relevantes. Consideremos la siguiente situación:

Los datos de mortalidad y población corresponden al mismo año calendario. El País A es un país
escasamente industrializado; el País B es un país altamente industrializado. ¿Qué información
comparativa se obtiene a partir de estos datos?. Básicamente, podríamos

sacar dos conclusiones: 1) que la tasa de mortalidad en el País B es más alta que en el País A; y, 2)
que el riesgo de morir en el País B es 50% más alto que en el País A. Es decir que, en términos de
mortalidad, el País B está en una situación más desfavorable que el País A. El Pais B, como se
mencionó, un país altamente industrializado.

Las tasas pueden también ser presentadas en forma desagregada para varias categorías de
población, definidas sobre la base de características relevantes a la comparación, tales como edad,
sexo, etnia, ocupación o nivel de exposición a determinado factor de riesgo. A estas tasas se les
denomina tasas específicas. Puesto que el riesgo de morir o de contraer la gran mayoría de
enfermedades está relacionado, en general, con la edad y a menudo difiere entre los sexos, el
análisis de la mortalidad o la incidencia de enfermedad en una población debe necesariamente
hacer uso de las correspondientes tasas específicas. Regresemos ahora a la situación entre los
países A y B:
A partir de esta información es posible identificar al menos tres hechos relevantes: 1) el País A
tiene tasas de mortalidad específicas por edad más altas que el País B en todos los grupos de edad
considerados; 2) la estructura por edades difiere marcadamente entre las dos poblaciones: el país
A concentra su población hacia edades tempranas, el país B hacia edades tardías; y, 3) hay una
aparente contradicción entre lo que esta información refleja y lo que se concluye observando las
tasas crudas de mortalidad de los dos países.

¿Cómo se explica esta aparente confusión?. Dado que, como ha sido mencionado, el riesgo de
morir o enfermar está habitualmente asociado con la edad, las tasas crudas de mortalidad e
incidencia dependen críticamente de la composición etárea de una población. Esto cobra mayor
relevancia cuando el objetivo es comparar dos poblaciones. Puede ser, por tanto, inapropiado
emplear tasas crudas para comparar dos poblaciones distintas a menos que tengan la misma
estructura por edades. La diferencia de composición etárea (o sea, la variable edad) ejerce un
efecto confusor en la comparación de tasas crudas de mortalidad por país. De hecho, una tasa
cruda es básicamente un promedio ponderado de las tasas específicas por categoría, siendo los
pesos las proporciones de población en cada categoría.

Para poder realizar una comparación libre de las distorsiones que pueden provocar las diferencias
en la composición de la población se deben emplear tasas estandarizadas. Las tasas
estandarizadas o ajustadas son tasas-resumen construídas estadísticamente para tomar en cuenta
y remover el potencial efecto confusor de la variable edad u otra tercera variable, al comparar las
tasas de mortalidad o incidencia de dos poblaciones diferentes.

El procedimiento básico para el ajuste de tasas (el llamado método directo) requiere contar con
las tasas específicas por categoría de la variable a ajustar (por ejemplo, la edad) en ambas
poblaciones a comparar. Es decir, se requiere dos conjuntos de tasas específicas por edad (uno por
cada país) y una población estándar. La idea general es ver cuál sería el número total de
defunciones que habría en cada uno de los dos países, si éstos tuvieran exactamente la misma
estructura de edad (la población estándar) y ocurrieran las tasas específicas por edad realmente
observadas en cada uno. En otras palabras, se trata de ajustar la estructura de mortalidad
observada de cada país, a una estructura de edad única y estándar para los dos. El procedimiento
incluye los siguientes cuatro pasos:

1. fijar la población estándar: se puede seleccionar una ya conocida o se puede construir una
a partir de los datos; por ejemplo, sumando las poblaciones específicas por categoría de
edad en cada grupo;
2. calcular el número esperado de defunciones en cada categoría de edad de la población
estándar, aplicando las tasas específicas por edad observadas en cada una de las dos
poblaciones a comparar;

por ejemplo, el número de defunciones esperadas en el grupo de menores de 15 años para el País
A, se calcula por medio de una regla de tres simple: si ocurren 16 defunciones por cada mil
personas, ¿cuántas defunciones ocurrirán en 44.612.990 personas?.

Esto es, número de defunciones esperadas en <15 años, País A:

3. obtener el número total de defunciones esperadas en cada país, sumando los resultados
correspondientes del paso anterior; y,
4. calcular las respectivas tasas ajustadas por edad para cada población, dividiendo el número total
de casos esperados obtenido en el paso previo, entre el total de la población estándar.

tasa ajustada de mortalidad, País A:

tasa ajustada de mortalidad, País B:

Comparemos una vez más los resultados crudos y ajustados:

Luego de haber removido la distorsión producida por la diferencia en la estructura de edades, se


cuenta con una medida-resumen válida para comparar la mortalidad entre los dos países: la tasa
de mortalidad es cerca de 40% más alta en el País A que en el País B. Cabe recalcar que el uso de
tasas estandarizadas sólo está indicado con fines comparativos; su construcción estadística está
basada en la elección arbitraria de un estándar y, por ello, la magnitud de la cifra carece de valor
intrínseco. Por último, la estandarización de tasas no suple las deficiencias en la calidad, cobertura
ni registro de los datos.

OPS

También podría gustarte