Statistics">
Estadistica y Epidemiología
Estadistica y Epidemiología
Estadistica y Epidemiología
- Varianza: a descripción general de la cantidad que varían los valores entre sí,
es una medida de variación igual al cuadrado de la desviación estándar.
- Rango: Es la diferencia entre el valor máximo que toma la variable y su valor
mínimo.
- Rango intercuartílico: Es la diferencia entre el valor que ocupa el cuartil 3 (C3)
de la distribución y el valor que ocupa el cuartil 1 (C1). Esto es, es el “rango”
existente entre los individuos que se sitúan en el 50% central de la distribución.
- Coeficiente de variación: permite comparar la dispersión entre dos poblaciones
distintas e incluso, comparar la variación producto de dos variables diferentes (es
adimensional).
Posición Se basan en la ordenación de las observaciones de menor a mayor, y la posterior
división de la distribución obtenida en grupos que contienen el mismo número de
observaciones. A estos grupos se les denominan centiles.
Probabilidad
Regla de la multiplicación: se aplica cuando se pregunta por la probabilidad de que ocurra un evento y el otro
(probabilidad de que un sujeto tenga cáncer de pulmón y de laringe).
- Es la probabilidad de que sucedan A y B: P (A ᴖ B) = P(A/B) x P(B)
- Si dos sucesos son independientes, entonces: P (A ᴖ B) = P(A) x P(B)
Regla de la suma: se debe aplicar cuando se pregunta cuál es la probabilidad de que ocurra un evento u otro
(por ejemplo, probabilidad de que un sujeto tenga cáncer de pulmón o de laringe).
- Esta regla nos indica la probabilidad de que suceda A o de que suceda B: P (A ᴗ B) = P(A) + P(8) - P(A
ᴖ 8)
- Si dos sucesos son mutuamente excluyentes (o bien se da A o bien ocurre B), entonces: P (A ᴗ B) =
P(A) + P(B)
Distribuciones de probabilidad
Binomial - La probabilidad de aparición de un fenómeno biológico (p).
- El resultado es dicotómico y puede ser evaluado como "éxito o con fracaso".
- La variable de interés es el número de éxitos alcanzados en n pruebas.
- Se aplica a variables cuantitativas discretas o cualitativas.
De Poisson - Se empleará como aproximación de experimentos binomiales donde el número
de pruebas es muy alto, pero la probabilidad de éxito muy baja.
- Es, por consiguiente, la ley adecuada para los "sucesos raros", cuando p < 0,1
(10%) o hay <5 individuos.
Normal o de Gauss - Se define por una función de probabilidad continua, cuyo rango va desde –∞ hasta
+∞, en la cual los valores se agrupan en torno a un valor central con forma de
campana.
- Las características son:
• Corresponde a variables cuantitativas continuas.
• Se caracteriza por dos medidas: media y desviación típica.
• Es unimodal.
• Es simétrica alrededor de la media. Por tanto, media, mediana y moda
coinciden.
• Tiene forma acampanada, sin un pico excesivo.
• El área bajo la curva tiene un valor igual a 1.
- Permite definir una serie de intervalos que encierran un área bajo la curva
conocida. En estadística descriptiva, esto implica que si nuestros resultados se
distribuyen de un modo “normal”, podremos establecer unos intervalos que
indiquen entre qué valores se encuentra un determinado porcentaje de las
observaciones de nuestra muestra
Estadística inferencial
- Al igual que al expresar los resultados de la muestra se utilizan intervalos que indican entre qué valores
se encuentra un determinado porcentaje de las observaciones, al estimar los resultados de la muestra
se utilizarán intervalos de confianza (IC) que indicarán entre qué valores se encuentra, con una
determinada probabilidad, la verdadera media poblacional.
Contraste de hipótesis
- El contraste de hipótesis compara los resultados de varias poblaciones entre sí, para lo cual debe realizar
inferencia poblacional a partir de muestras obtenidas de cada población.
- Pretenden determinar si existen diferencias (comparación) o asociaciones (correlación) entre varias variables.
- El objetivo del contraste de hipótesis es determinar si esas diferencias o asociaciones observadas se deben
al azar, o bien se deben a un efecto real.
• Hipótesis nula (H0): no existe asociación entre las variables analizadas.
• Hipótesis alternativa (H1): existe asociación entre las variables analizadas.
• Recuerda… La hipótesis nula nunca se puede aceptar, y la hipótesis alternativa nunca se puede
rechazar
Sólo se podrá cumplir una de dichas hipótesis (o existe asociación, o no existe), pero al realizar nuestro estudio
podemos acertar o bien equivocarnos:
• viendo asociación cuando no la hay (error alfa)
• no viendo asociación cuando las hay en la realidad (error beta).
Existiendo solo dos decisiones posibles:
• Rechazar H0 → aceptar H1.
• No rechazar H0 → no poder aceptar H 1.
Previamente al ensayo de una hipótesis, se fija la probabilidad máxima de que los resultados diferentes
observados entre los dos grupos puedan ser debidos simplemente al azar (H0 cierta), que suele ser por
convenio del 5% = 0.05.
A continuación, se calcula cuál es la probabilidad de que las diferencias que se han observado puedan ser
explicadas por azar.
Esta probabilidad es el valor de la p o "grado de significación estadística''.
Así, cuanto menor sea p, es decir, cuanto más baja sea la probabilidad de que el azar sea el responsable
de las diferencias, mayor será la evidencia contra H0 y a favor de H1.
p > 0,05 = no existe suficiente evidencia como para decir que ambos tratamientos son distintos.
- Las diferencias pueden deberse al azar, con una probabilidad mayor al nivel de exigencia.
- No se rechaza H0, aunque no indica que debamos aceptarla, si no que no se rechaza.
Error tipo I (alfa) - Se rechaza H0 siendo cierta (se acepta que hay diferencias y, de hecho, no las hay).
- Es como un falso positivo: dar como significativo algo que no lo es.
- La probabilidad de cometer este error es α, que define el nivel de significación
estadística de los estudios epidemiológicos.
- α= 0.05
Error tipo II (beta) - No se rechaza H0 y esta es falsa (no se aceptan las diferencias y sí las hay).
- Sería como un falso negativo: se da como no significativo algo que lo es.
- Se suele requerir una probabilidad de haber cometido un error beta <0,20 (<20%)
Poder o potencia - Lo complementario del error B; es la probabilidad de rechazar la hipótesis nula siendo
del test (1-B) falsa. Por lo tanto, es un resultado “verdadero positivo”
- Se suele requerir que la potencia estadística sea al menos de un 80%.
Los errores alfa y beta son errores aleatorios, esto es, debidos al azar (es el azar el que hace que el estudio
falle y detecte diferencias cuando no las hay, o no las detecte cuando las hay). Los errores aleatorios se
solucionan aumentando el tamaño muestral.
- p-valor: es la probabilidad de equivocarse al aceptar la hipótesis del investigador como verdadera
(aceptar H1 o rechazar H0 cuando es cierta); es decir, la probabilidad de cometer error tipo I (error alfa)
- Nivel de significancia: máxima cantidad de error que estamos dispuestos aceptar para dar como valida
la hipótesis del investigador.
- El valor de p, o nivel de significación, se refiere a la probabilidad de que el azar explique un resultado
obtenido. Si la p < 0,05 = se admite poca probabilidad de azar y entonces se habla de que hay diferencias
estadísticamente significativas.
- Si la p > 0,05 = la probabilidad de azar es demasiado grande como para que se afirme que hay
diferencias significativas en los resultados obtenidos.
1. Qué tipo de variable (cualitativa o cuantitativa) es la variable resultado que tenemos que comparar.
Los tests para variables cuantitativas aportan una mayor potencia estadística (permiten alcanzar la significación
estadística con menor tamaño muestral y sus resultados son más precisos) que los utilizados para variables
cualitativas.
Cuando la variable es cuantitativa, además, tendremos que elegir entre los siguientes grupos de tests
estadísticos:
- Tests paramétricos: se utilizan cuando la variable sigue una distribución normal o bien si n >30 (pese a
que la distribución no sea normal). Aportan una mayor potencia estadística que los no paramétricos.
- Tests no paramétricos: se utilizan cuando la variable no sigue una distribución normal y además n <30.
2. Si estamos comparando entre sí los resultados obtenidos en esa variable en varios grupos de individuos
(datos independientes), o bien en un único grupo de individuos pero en varios momentos del tiempo
(datos apareados).
Los test estadísticos que se van a emplear dependerán del tipo de variable que se haya utilizado:
- Cuali + cuali: Chi cuadrado.
- Cuanti + cuali dicotómica: t de Student (equivalente no paramétrico: Wilcoxon, U de Mann-Whitney).
- Cuanti + cuali no dicotómica: ANOVA (equivalente no paramétrico: Kruskall-Wallis, Friedman).
- Cuanti + cuanti: correlación de Pearson (equivalente no paramétrico: Spearman).
Pruebas paramétricas
Asociación entre variables
- Pretende demostrar si los cambios que se produzcan en una o varias variables (variables
independientes) van a influir sobre el valor que tome otra variable (variable dependiente).
- El análisis de correlación se encuentra estrechamente vinculado con el análisis de regresión y ambos
pueden ser considerados de hecho como dos aspectos de un mismo problema.
Regresión Ayuda a entender cómo el valor de la variable dependiente varía al cambiar el valor
de una de las variables independientes, manteniendo el valor de las otras variables
independientes fijas. Más comúnmente, el análisis de regresión estima la esperanza
condicional
Las variables introducidas pueden ser tanto cuantitativas como cualitativas
El tipo de variable de la variable dependiente (y) define el tipo de regresión:
- Regresión logística: si la variable “y” es cualitativa
- Regresión lineal: cuando la variable “y” es cuantitativa
Correlación Es el grado de asociación entre dos variables. Este es expresado por un único valor
llamado coeficiente de correlación (r), el cual puede tener valores que oscilan entre -
1 y +1.
- Cuando “r” es negativo, ello significa que una variable (ya sea “x” o “y”) tiende
a decrecer cuando la otra aumenta (se trata entonces de una “correlación
negativa”)
- Cuando “r” es positivo, en cambio, esto significa que una variable se
incrementa al hacerse mayor la otra (lo cual corresponde a un valor positivo).
Los test de correlación son:
Coeficiente “r” de Pearson: es un test paramétrico que mide el grado de correlación
lineal entre las variables (se emplea cuando las dos variables siguen una
distribución normal o bien si n >30).
Coeficiente “ρ” de Spearman: es un test no paramétrico (se emplea cuando alguna de
las variables sigue una distribución no normal y además n <30).
Valor absoluto >0,7: correlación fuerte.
Valor absoluto <0,7: correlación débil.
Valor absoluto = 0: ausencia de correlación.
ANOVA
(Análisis de varianza). Constituye la herramienta básica para el estudio del efecto de uno o más factores (cada
uno con dos o más niveles) sobre la media de una variable continua.
Es por lo tanto el test estadístico a emplear cuando se desea comparar las medias de dos o más grupos. Esta
técnica puede generalizarse también para estudiar los posibles efectos de los factores sobre la varianza de una
variable.
- Comparación entre dos grupos equivaldría ocupar T de Student.
La hipótesis nula de la que parten los diferentes tipos de ANOVA es que la media de la variable estudiada es
la misma en los diferentes grupos, en contraposición a la hipótesis alternativa de que al menos dos medias
difieren de forma significativa.
- Cumplimientos: normalidad, homogeneidad de la varianza e independencia.
Alternativa: prueba de Kruskal-Wallis, es un método no paramétrico, de 3 o más grupos, con datos no
normales, para probar si un grupo de datos proviene de la misma población (bajo la hipótesis nula, igual que
ANOVA).
Consultar: https://www.youtube.com/watch?v=442V0-ftJIg
• Nota: Se tienen diferentes grupos y se miden características (variable cuantitativa). Comparar la variable
cuantitativa “en función” de cada grupo (el factor que influye en la variable).
• Comparar 2 o más grupos de datos con la variable característica.
• ANOVA nos dice si existen diferencias significativas entre las medias poblacionales de los grupos
ANOVA Medidas repetidas: prueba que sirve para comparar las medias que se obtienen de diferentes
valoraciones de un único grupo → a las mismas personas de les realiza la misma valoración en diferentes
ocasiones.
Sirve para estudiar el efecto de uno o más factores cuando al menos uno de ellos es un factor intra-sujetos, y
se caracteriza porque todos los niveles del factor se aplican a los mismos sujetos.
Requieren menos participantes.
Tipos de estudio:
- Tiempo: cuando se requiere evaluar la efectividad de un tratamiento (antes, durante, después de la
intervención).
- Condición: cuando se requiere medir una misma prueba con diferentes estímulos o contextos (varías
condiciones)
Consultar: https://www.youtube.com/watch?v=leHF2OKwT80
- Ejemplo:
Queremos comprobar el efecto de un tratamiento utilizando punciones e inyectando una corriente eléctrica
en pacientes que han sufrido una rotura del tendón de Aquiles. Para ello, se registrará el área de fibrosis
presente en la cicatriz a las 24 horas de comenzar el tratamiento, después de 7 días y tras un mes del
comienzo del mismo.
1. Identifica el tipo de variables del que se dispone en el caso clínico
- Variable Dependiente: Área de fibrosis presente en la cicatriz. Cuantitativa continua, escala de razón.
- Variable Independiente: Tiempo en que efectuamos la medición. Cualitativa, escala nominal (tres
modalidades: 24 horas, semana y mes).
Elección del test: Se trata de un análisis de medidas repetidas puesto que son los mismos sujetos a los que
se efectúan las tres mediciones del área de fibrosis en tres instantes temporales, no nos encontramos con
grupos independientes.
- Por ejemplo:
Un ejemplo típico de prueba t para mediciones repetitivas sería: que los sujetos sean evaluados
antes y después de un tratamiento.
- Ejemplo:
Ji-cuadrada o Chi-cuadrada
Esta prueba contrasta frecuencias observadas (datos que arroja el estudio) con las frecuencias esperadas
(datos obtenidos por medio de fórmula) de acuerdo con la hipótesis nula (que indica que son variables
independientes).
- Pero no indica el grado o el tipo de relación; es decir, no indica el porcentaje de influencia de una variable
sobre la otra o la variable que causa la influencia.
Esta prueba estadística se emplea en el análisis de dos o más grupos, y de dos o más variables.
Permite determinar si existe relación entre dos variables categóricas (cualitativas).
- Se rechaza H0 cuando la Ji cuadrada experimental (resultado del estudio) sea mayor a la Ji cuadrada crítica
(valor obtenido de la tabla de Ji cuadrado)
>>“Las frecuencias o número de casos observados en cada categoría de la variable, a partir de una muestra,
difieren de manera significativa respecto a una población esperada de respuestas o frecuencias”<<
- Consultar: https://www.youtube.com/watch?v=XvPEeQAjTW8
Pruebas no paramétricas
Prueba U de Mann-Whitney
- Resulta útil si tenemos dos muestras
independientes y queremos saber si hay una
diferencia en la magnitud de la variable que
estamos estudiando.
- Cuando los datos no son normales o con un
tamaño de muestra muy pequeña (≤30)
- Compara medianas, trabajan sobre datos en
orden y son menos potentes (Potencia:
probabilidad de rechazar H0 cuando realmente es
falsa).
Consultar: https://www.youtube.com/watch?v=dCG3VAfa11Y&t=635s
Prueba de Wilcoxon
- Datos no normales, muestras muy pequeñas (≤30)
- Para comparar el rango medio de dos muestras relacionadas (dependientes) y determinar si existen
diferencias entre ellas.
- Compara medianas, trabajan sobre datos en orden y son menos potentes (Potencia: probabilidad de rechazar
H0 cuando realmente es falsa). Consultar: https://www.youtube.com/watch?v=B_7Wt49dTos&t=830s
Análisis de supervivencia
- Se utiliza cuando en un estudio epidemiológico la variable respuesta es el tiempo que transcurre hasta
que sucede un evento de interés (la muerte, la aparición de enfermedad, la curación, el alta
hospitalaria…).
- Así pues, las variables tienen una parte cuantitativa (tiempo que transcurre) y una parte cualitativa
(aparición o no de un evento).
- Los métodos estadísticos no paramétricos son los más frecuentemente utilizados en análisis de
supervivencia. Entre ellos los más destacados son:
Kaplan-Meier Utilizado para “calcular” las curvas de supervivencia. La proporción acumulada que
sobrevive se calcula para el tiempo de supervivencia individual de cada paciente
Test de log-rank Utilizado como test de comparación, es similar al chi2 (comparar los resultados
obtenidos entre varias intervenciones). Para saber si hay diferencias en el tiempo en
el que se produce el evento para los dos grupos de tratamiento.
Epidemiología
Estudios de validación
La eficacia de una prueba diagnóstica depende de su capacidad para detectar correctamente la presencia o la
ausencia de la enfermedad que se estudia, lo que se expresa matemáticamente mediante los cuatro índices
siguientes: sensibilidad, especificidad, valor predictivo positivo y valor predictivo negativo.
• Los dos primeros marcan lo que se denomina validez interna del test
• Los dos segundos, la validez externa.
Para calcular la sensibilidad y especificidad de una prueba diagnóstica, ésta se compara con la prueba de oro,
es decir la óptima para detectar sanos y enfermos.
Sensibilidad (S) Mide la proporción de los individuos con la enfermedad que son identificados
correctamente por la prueba.
Falso positivo . Mide la probabilidad de que a un individuo sano se le clasifique como enfermo
Falso negativo Es la probabilidad de que un individuo, estando enfermo, sea clasificado como sano.
Valor global (eficiencia o exactitud): Es la proporción, de todos los resultados de la prueba tanto positivos como
negativos, que son correctos.
Punto de corte: determinará la sensibilidad y la especificidad de la prueba. Para determinar el punto de corte
se pueden utilizar las curvas de Características Operativas para el Receptor (COR); para hacer la elección del
mejor punto de corte se suele emplear lo que se denomina el área bajo la cuerva COR → a mayor área debajo
de la curva mejor capacidad de discriminación.
- Ejemplo:
La probabilidad de padecer estenosis coronaria en hombres de más de 65 años, con angina de pecho de
esfuerzo típica, es mayor del 90%. A un paciente de estas características se le practica un ECG de esfuerzo
que resulta negativo. La sensibilidad es del 80% y su especificidad del 90%. ¿Cuál de las siguientes
afirmaciones es correcta?
1) Se puede descartar por completo estenosis coronaria porque la prueba es negativa.
2) No se puede excluir la estenosis coronaria porque el valor predictivo positivo de la prueba es alto.
3) No se puede excluir la estonosis coronaria porque el valor predictivo negativo de la prueba es
bajo.
4) Se podría descartar el diagnóstico de estenosis coronaria si la especificidad de la prueba fuera del 100%.
Comentario: la estenosis coronaria tiene un 90% de prevalencia en esta población estudio, por lo cual el
VPP es alto y el VPN es bajo, indica que hay mayor probabilidad de tener pacientes enfermos con un
resultado en la prueba positiva (anormal) y menos probabilidad de tener pacientes sanos y con prueba
negativa (normal).
En este caso, a pesar de tener una S 80% y E 90%, la prueba salió negativa en un paciente con todas las
características y una enfermedad con prevalencia del 90%, por lo cual, no se puede descartar la estenosis
coronaria ya que la capacidad del test de predecir si un sujeto que ha sacado negativo en el test va a estar
realmente sano es baja.
Si lo que interesa es detectar el mayor número posible de enfermos, se debe usar un test con alta
sensibilidad. Así se escaparán pocos enfermos, aunque con un coste de obtención de bastantes "falsos
positivos''. Se elegirá cuando:
- La enfermedad sea grave y no pueda pasar desapercibida
- La enfermedad sea tratable
- Los resultados falsamente positivos no supongan un trauma a los px.
Si lo que se quiere es "asegurar" el diagnóstico, se ha de emplear un test cuya especificidad sea máxima. Se
elegirá cuando:
- La enfermedad sea importante, pero difícil de curar o incurable
- Los resultados falsos positivos puedan suponer un trauma al px
- El tto de los falsos positivos pudiera tener graves consecuencias.
Screening
Es una estrategia de detección precoz de la enfermedad. Lo ideal es aplicar primero un test muy sensible
(que detecta todos los casos posibles de enfermedad; por tanto se obtienen muchos FP y pocos FN) y en una
segunda fase, aplicar un test muy específico (con el que se confirma el diagnóstico de esos posibles
enfermos; se obtienen muy pocos FP).
Concordancia
Es la capacidad del test de obtener el mismo resultado cuando la medición se repite mediante distintas
condiciones de medida.
Coeficiente Kappa: Variable cualitativa dicotómica, oscila entre −1 (excesiva discordancia) y +1 (concordancia
completa). Cuando es igual a 0, la concordancia obtenida se debe al azar.
- Ejemplo: evaluar la concordancia entre dos radiólogos a los que se les muestran las mismas radiografías
de tórax y tienen que indicar si hay SÍ/NO un infiltrado neumónico..
Coeficiente de correlación intraclase: sirve para cuantificar la concordancia entre diferentes mediciones de una
variable numérica.
- Ejemplo: evaluar la concordancia entre dos anatomopatólogos que cuantifican el número de mitosis en
una misma serie de muestras de biopsias de un tumor neuroendocrino.
Conceptos
Epidemiología como la ciencia que estudia la distribución y los determinantes del fenómeno salud-enfermedad
en las poblaciones humanas.
• Estudiar la distribución de las enfermedades en relación con las variables lugar, tiempo y persona. Es lo
que se denomina epidemiología descriptiva.
• Buscar los factores que determinan la distribución encontrada e identificar las asociaciones causales.
Es lo que hace la llamada epidemiología analítica.
Las principales posibilidades de aplicación de la epidemiología son las que se enumeran a continuación:
• Establecer el diagnóstico de salud de una comunidad.
• Conocer los factores causales de una enfermedad y las probabilidades de enfermar.
• Evaluar la eficacia/efectividad/eficiencia de los procedimientos preventivos y terapéuticos de los
servicios de salud.
Riesgo: es la probabilidad de desarrollar una enfermedad por estar expuesto a ciertos factores.
Causa: es la condición que, sola o acompañada de otras condiciones, inicia o permite iniciar una secuencia de
acontecimientos que producen un determinado efecto.
Factor de riesgo: variable endógena o exógena al individuo, controlable, que precede al comienzo de la
enfermedad y que está asociada a un incremento de la probabilidad de aparición de la misma, y a la que se
puede atribuir "responsabilidad" en la enfermedad (por ejemplo: tabaco como factor de riesgo de cáncer de
pulmón).
Marcador de riesgo: variable no controlable, endógena al individuo (constitucional), y cuya presencia anuncia
a los individuos particularmente vulnerables (por ej.: sexo femenino como marcador de riesgo de cáncer de
mama).
Indicador de riesgo: variable sin relación causal con el problema, pero cuya presencia alerta precozmente
sobre el padecimiento. (por ejemplo: manchas de Koplik como signo precursor de la aparición del sarampión).
Recuerda… En las preguntas en las que a partir de datos se pide calcular incidencias, en el denominador
habrá que restar los enfermos al inicio del periodo, mientras que no habrá que restarlos si lo
que se pregunta es la prevalencia
Frecuencia
Prevalencia: es el número total de casos entre el total de la población, describe la situación en un momento
determinado del tiempo. Sólo se evalúa un momento concreto y no un periodo de tiempo
Prevalencia lápsica: medida que expresa el número de casos de una enfermedad que se sabe ha existido en
algún tiempo específico, se utiliza cuando durante un proceso de determinación de los casos en la población
se originan nuevos casos de la enfermedad. (p. ejemplo: entre el periodo de enero y febrero del año 2003 el
2.33% de la población presentó dengue)
Prevalencia puntual: indica el número de personas de un grupo definido que están enfermas en un determinado
momento (p. ejemplo: en el mes de enero del año 2003 el 1.35% de la población padecía dengue)
Pp: No de casos presentes en un momento del tiempo / No de individuos de la población en ese momento
Incidencia acumulada: proporción de casos nuevos de una enfermedad que aparecen en una población en un
determinado periodo de tiempo, con respecto al total de la población que es susceptible de enfermar
Densidad de incidencia: se define como el número de casos nuevos de la enfermedad que se producen en un
periodo de tiempo, teniendo en cuenta la información que aporta el sumatorio de riesgo de cada uno de los
individuos. Indica la velocidad con la que se propaga una enfermedad en una población.
Medidas de asociación
Las medidas de asociación sirven para cuantificar cuánto y cómo se asocia un factor de riesgo a una
enfermedad, a partir de la frecuencia con la que aparece el evento resultado en un grupo expuesto a un factor
de riesgo, frente al grupo que no está expuesto a dicho factor.
Así, miden cuántas veces es más frecuente la enfermedad en el grupo expuesto respecto al no expuesto.
Riesgo relativo: es la medida de asociación en los estudios de cohortes, con seguimiento prospectivo. Mide
la "fuerza de la asociación" entre el factor de riesgo y la enfermedad. Puede variar entre 0 e infinito. se utiliza
cuando disponemos de incidencias acumuladas.
El riesgo relativo responde a la pregunta: ¿cuánto más frecuente es la enfermedad entre los expuestos a un
factor de riesgo respecto a los no expuestos?
Es la medida de efecto que mejor estima el riesgo real.
RR > 1: factor de riesgo (FR).
RR = 1: indiferente: la incidencia es igual en expuestos y en no expuestos.
RR < 1 factor de protección.
Odds Ratio (razón de desventaja): medida que se utiliza en los estudios con un seguimiento retrospectivo
(estudio de casos y controles), en los cuales no podemos calcular incidencias, sino las prevalencias del
factor de riesgo en el grupo enfermo y en el grupo sano. Es el peor estimador del riesgo real.
Series de casos clínicos: describen las características de un grupo de enfermos. Son estudios longitudinales
ya que contienen información adquirida a lo largo del tiempo. Su principal ventaja es que permiten generar
nuevas hipótesis, mientras que el mayor inconveniente es que no presentan grupo control.
Estudios ecológicos: los conglomerados pueden estar constituidos por grupos poblacionales, comunidades,
regiones, o países. La característica principal de este tipo de estudios es que se cuenta con información sobre
la exposición o el evento para el conglomerado en su totalidad, desconociéndose la información a nivel individual
para cada uno de los miembros del grupo.
Son estudios en los que la unidad de análisis son grupos de individuos. permiten estudiar grandes grupos
poblacionales en poco tiempo y con un coste relativamente muy bajo
Estudios transversales o de prevalencia: son descriptivos y transversales, ya que analizan la relación entre una
enfermedad y algunas variables en un momento concreto del tiempo. Buscan hallar una posible relación
entre un FR y una enfermedad.
Son útiles para el estudio de enfermedades crónicas en la población.
Estudios analíticos
Intentan establecer una relación de causalidad entre el factor de riesgo y la enfermedad; se pueden clasificar
en experimentales y observacionales.
Experimentales
Es experimental cuando cumple las dos condiciones siguientes:
• Asignación por parte del investigador del factor de estudio.
• Aleatorización de la muestra de modo que los participantes son adscritos al azar a uno u otro grupo de
estudio
- Los problemas éticos son el principal inconveniente de este tipo de estudios. No es admisible exponer a unos
sujetos a un factor de riesgo.
- Son los estudios que mejor valoran la utilidad de una intervención y aportan mayor evidencia causal.
Ensayo clínico aleatorio: es el estudio experimental más frecuente. La asignación aleatorizada del factor de
estudio (un fármaco o una intervención sanitaria) se hace sobre los individuos. Es el mejor para demostrar
causalidad y la eficacia de una actuación.
- Por ejemplo, la asignación aleatorizada de un antirretroviral o un placebo a un grupo de pacientes con
VIH.
Ensayo de campo: es un estudio que valora la eficacia de una medida preventiva. En general, estos estudios
son más caros que los ensayos clínicos y requieren mayor número de individuos. Las principales diferencias
respecto a los ensayos clínicos son:
- Se hacen sobre individuos sanos.
- Valoran la eficacia de las medidas preventivas
- Por ejemplo: Por ejemplo, la evaluación de la eficacia de una campaña de vacunación en 10.000 niños, de
forma que 5.000 reciben aleatoriamente una vacuna y los otros 5.000, un placebo.
Cuasiexperimentales
Se diferencian de los estudios experimentales puros en que no hay asignación al azar (aleatorización).
Ensayo comunitario de intervención: es una variedad de los ensayos de campo: Se trabaja con individuos sanos.
Valora la eficacia de medidas preventivas.
- Por ejemplo, una campaña sanitaria de agua fluorada en una comunidad y de agua clorada en la otra,
comparando la frecuencia de caries en los dos grupos.
Ensayos antes-después: en este tipo de estudios, el fármaco (o medida en general) se administra a los
individuos y se compara el resultado con la situación basal. Los estudios antes-después tienen la ventaja de
que son más fáciles de hacer.
- Por ejemplo, a un grupo de pacientes cardiópatas se les administra un IECA, comparando la TA media
en el conjunto antes y después de administrar el tratamiento
Estudios controlados no aleatorios: se realizan cuando la asignación aleatoria no ofrece ventajas o no se puede
hacer.
- Por ejemplo, se quiere hacer un ensayo en pacientes cardiópatas. A un grupo se le administra IECA (se
trata de pacientes no dislipémicos) y al otro (que además son dislipémicos), IECA más estatinas.
- Aquí no hay asignación aleatorizada, sino que la inclusión en uno u otro grupo de estudio se ha hecho
tomando como base los factores de riesgo.
Observacionales
Estudios de cohorte: Partiendo de un grupo de individuos expuestos al factor de riesgo (cohorte expuesta),
y de otro conjunto comparable en todo pero cuyos individuos no están expuestos al FR (cohorte no expuesta),
se estudia la incidencia de la enfermedad en ambas cohortes. ES prospectivo.
Es el mejor estudio para comprobar hipótesis previas de causalidad cuando, por razones éticas, no es posible
realizar un estudio experimental
- Por ejemplo, se sigue a un grupo de fumadores y a otro de no fumadores a lo largo del tiempo,
observando el número de casos nuevos de cáncer de pulmón que aparecen en cada grupo de pacientes.
Estudios de cohortes históricas: El investigador identifica, mediante registros, una cohorte expuesta en el
pasado a un factor de riesgo, y otra cohorte no expuesta. Mediante dichos registros (por ej.: historias clínicas)
sigue la evolución de ambas cohortes, comparando los resultados. Retrospectivo.
- Por ejemplo, se selecciona una muestra de 100 historias clínicas de un hospital que se divide en dos
grupos en función del antecedente de tabaquismo o no. Se observa en cada grupo la frecuencia de
cáncer de laringe.
Errores sistemáticos o sesgos: son los errores producidos cuando hay un fallo en el diseño o en la ejecución
del estudio que hace que los resultados de la muestra sean diferentes de la población de la que proceden.
Acontecen habitualmente en los estudios de casos-controles (retrospectivos).
Errores sistemáticos
Sesgo de selección: Se produce cuando se asignan sujetos al grupo control que difieren significativamente, en
alguna característica clave, del grupo problema.
- De autoselección o del voluntario: del individuo que compromete su validez.
- De diagnóstico o sesgo de Berkson: es el que se produce cuando, para saber qué ocurre en la población,
se elige una muestra hospitalaria de esa población y el factor de riesgo que se está estudiando se asocia
a una mayor probabilidad de hospitalización
- De obrero sano: salida del trabajador enfermo del mercado laboral compromete la validez del estudio.
- Falacia de Neyman: se produce en los estudios de casos-controles al seleccionar casos prevalentes (ya
existentes) en vez de casos incidentes (casos nuevos).
Sesgo de información: Tiene lugar cuando hay un error sistemático en la medición de alguna variable clave del
estudio.
Niveles de evidencia
Ensayo clínico
Ensayo en fase I: es la primera vez que un fármaco se administra a humanos. Generalmente, se realiza con
voluntarios sanos (n = 20- 80) y sin grupo control. El principal objetivo es evaluar la toxicidad y conocer la dosis
única aceptable no tóxica. Se limitan al terreno experimental y/o a sus efectos farmacocinéticos y
farmacodinámicos.
Ensayo en fase II: el principal objetivo es aportar información sobre la relación dosis/respuesta, proporcionando
una información preliminar acerca de la eficacia. Se lleva a cabo en pacientes (n = 100-200). Generalmente,
este tipo de EC es controlado y con asignación aleatoria del tratamiento.
• fase lla (estudios piloto realizados en pocos pacientes con criterios de inclusión/ exclusión más estrictos)
• fase llb (que evalúa la eficacia y la seguridad en un mayor número de pacientes y representa una
demostración más rigurosa de la eficacia del nuevo compuesto).
Ensayo en fase III: es el prototipo del ensayo clínico. Suele ser comparativo con la terapéutica de referencia o
con un placebo. Es la investigación clínica más extensa y rigurosa sobre un tratamiento médico. Sirve para
establecer la eficacia de un nuevo fármaco y la existencia de efectos adversos frecuentes. Lo ideal es comparar
frente al mejor tratamiento, a la mejor alternativa existente.
Estructura metodológica:
Abstract: determina a los usuarios si vale la pena leer lo que se ha hecho.
Introducción: contiene los argumentos fundamentales que sustentan la investigación a realizar.
Planteamiento del problema: formulación del problema que se pretende resolver con la investigación
(pregunta de investigación).
Justificación: contiene los argumentos fundamentales que sustentan la investigación a realizar
Objetivo de estudio: delimita la parte de la realidad que interesa estudiar.
- General
- Específicos
Hipótesis: declaración que realizan los investigadores cuando especulan sobre el resultado de una
investigación o experimento.
- H0
- H1
Material y métodos: señala la forma como se estudió el problema.
- Clasificación del estudio: retrospectivo, prospectivo, transversal, observacional, etc.
- Población: Grupo de individuos a los que se desea extrapolar o aplicar los resultados de una
investigación efectuada en una muestra
- Criterios: inclusión, exclusión y eliminación
- Grupo de control, estudio, de referencia.
- Ubicación temporal espacial
- Tamaño de muestra
- Tipo de muestra
- Variables
- Instrumento
- Desarrollo del proyecto
- Consideraciones éticas
Análisis estadísticos
Resultados
Discusión
Conclusiones
Recomendaciones
Bibliografía
Conceptos importantes:
- Brote: a la ocurrencia de dos o más casos asociados epidemiológicamente entre sí.
- Caso: al individuo de una población en particular que, en un tiempo definido, es sujeto de una
enfermedad o evento bajo estudio o investigación.
- Caso compatible: al caso en el cual, por defecto en los procedimientos de vigilancia, no es posible
precisar el diagnóstico en estudio.
- Caso confirmado, al caso cuyo diagnóstico se corrobora por medio de estudios auxiliares, o aquel que
no requiere estudios auxiliares pero presenta signos o síntomas propios del padecimiento o evento bajo
vigilancia, así como la evidencia epidemiológica.
- Caso de infección nosocomial, a la condición localizada o generalizada, resultante de la reacción
adversa a la presencia de un agente infeccioso o su toxina y que no estaba presente o en periodo de
incubación, en el momento del ingreso del paciente al hospital. Estas infecciones ocurren generalmente
desde las 48 horas del ingreso del paciente al hospital y hasta las 72 horas del egreso hospitalario.
- Caso descartado, al caso sospechoso o probable en quien por estudios auxiliares, determina que no
es causado por la enfermedad que inició su estudio o aquel que no requiere estudios auxiliares, pero
presenta signos o síntomas propios de cualquier otro padecimiento o evento bajo vigilancia diferente al
que motivó el inicio del estudio, así como la evidencia epidemiológica, en ellos puede o no haber
confirmación etiológica de otro diagnóstico. Aquel que no cumple con los criterios de caso probable (si
es sospechoso) o confirmado (si es probable).
- Caso probable, a la persona que presenta signos o síntomas sugerentes de la enfermedad o evento
bajo vigilancia.
- Caso sospechoso, a la persona en riesgo que, por razones epidemiológicas, es susceptible y presenta
sintomatología inespecífica del padecimiento o evento bajo vigilancia.
NOM-168-SSA1-1998: Del expediente clínico
Expediente de consulta externa:
- Historia clínica: interrogatorio, EF, Resultados previos y actuales de estudios de laboratorio, gabinete y
otros; Terapéutica empleada y resultados obtenidos, Diagnósticos o problemas clínicos.
- Nota de evolución: evolución y actualización, SV, resultados de estudios auxiliares, diagnóstico,
tratamiento.
- Nota de interconsulta: criterios dx, plan de estudios, sugerencias dx y tratamiento,
- Nota de referencia: Resumen clínico, que incluirá como mínimo: Motivo de envío; Impresión diagnóstica
(incluido tabaquismo, alcoholismo y otras adicciones); Terapéutica empleada, si la hubo.
- Nota de evolución: Deberá elaborarla el médico cada vez que proporciona atención al paciente y las
notas se llevarán a efecto conforme a lo previsto en el numeral 6.2. de la presente Norma.
- De referencia/traslado