Psychology">
Nothing Special   »   [go: up one dir, main page]

Ultimo Trabajo de Eduardo Milano Psicometria I (Realizado)

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 24

UNIVERSIDAD BICENTENARIA DE ARAGUA

VICERECTORADO ACADÉMICO
FACULTAD DE CIENCIAS ADMINISTRATIVAS Y SOCIALES
MARACAY – VENEZUELA
CÁTEDRA: PSICOMETRÍA I
CÓDIGO: FEB–74S

Análisis de los Ítems del Cuestionario

AUTOR: EDUARDO MILANO


C.I: 9.945.402

Puerto Ordaz, noviembre 2018


INTRODUCCIÓN

La recolección de datos en la realización de los trabajos de investigación se centra


en la construcción de los instrumentos a emplear con esta finalidad, de manera
que permitan recabar información válida y confiable. En este sentido, un
instrumento según Alvarado, Canales y Pineda (1994) “…es el mecanismo que
utiliza el investigador para recolectar y registrar la información”. Existen muchas
consideraciones específicas a tomar en cuenta en la evaluación de un
cuestionario; las cuales las englobaremos bajo tres encabezados principales:
validez, confiabilidad y utilidad práctica.
En el presente trabajo e realizara un informe sobre los instrumentos aplicados a
los ítems de un cuestionario, específicamente el índice de homogeneidad y el
mismo dentro del cálculo de la confiabilidad por tanto su consistencia interna, por
otro lado se analizara los coeficientes de Kuder y Richardson 20 y finalmente el
coeficiente alfa de Cronbach.
Según Ebel (1977, citado por Fuentes, 1989) establece que validez “…designa la
coherencia con que un conjunto de puntajes de una prueba miden aquello que
deben medir”.
La validez se refiere al grado en que una prueba proporciona información que es
apropiada a la decisión que se toma. La confiabilidad tiene que ver con la
exactitud y precisión del procedimiento de medición. Los coeficientes de
confiabilidad proporcionan una indicación de la extensión, en que una medida es
consistente y reproducible. Hay dos factores que afectan al grado de fiabilidad de
un test: la variabilidad y la longitud.
Finalmente se realizara una conclusión sobre los instrumentos analizados donde
se centrara en su importancia y transcendencia en su uso adecuado y oportuno
según la información que se desee recabar.
INDICE DE HOMOGENEIDAD

A continuación se presenta un cuadro resumen de los métodos, técnica y


propósito para medir confiabilidad, la confiabilidad responde a la pregunta ¿con
cuánta exactitud los ítems, reactivos o tareas representan al universo de donde
fueron seleccionados?. El término confiabilidad “…designa la exactitud con que un
conjunto de puntajes de pruebas miden lo que tendrían que medir” Ebel, (1977).

MÉTODO TÉCNICA PROPÓSITO


Coeficiente r corrección de Consistencia en el tiempo de los
Test/retest
Pearson puntajes

Estabilidad Temporal, consistencia


de las respuestas. Es in coeficiente
Coeficiente r corrección de de equivalencia, e indica la
Formas equivalentes
Pearson variación en el tiempo de los
puntajes

Pearson/Spearman-Brown. Homogeneidad de los ítems al


División por dos mitades
Rulón y Guttman-Flanagan medir el constructo
Coeficientes de fiabilidad como
Kuder – Richardson 20 (KR20) consistencia interna para ítems
Análisis de homogeneidad de los
dicotómicos (KR20).
Ítems
Homogeneidad de los ítems con
Alfa (α) de Cronbach escala tipo Lickert (dicotómicas y
politómicas).

Por dar un ejemplo el método de Kuder-Richarson 20, permite obtener la


confiabilidad a partir de los datos obtenidos en una sola aplicación del test.
Coeficiente de consistencia interna. Puede ser usada en cuestionarios de ítems
dicotómicos y cuando existen alternativas dicotómicas con respuestas correctas e
incorrectas.

Cálculo de la validez
La validez de constructo se determina mediante el procedimiento denominado
"análisis de factores". Su aplicación requiere de herramientas estadísticas o en
todo caso de programas de computadora que evalúen las variables según las
pruebas. En el proceso de estandarización se determinan las normas para su
aplicación e interpretación de resultados, es así que para la aplicación de una
prueba debe hacerse bajo ciertas condiciones, las cuales deben cumplir, tanto
quienes la aplican, como a quienes se les aplica.
Un ejemplo de test estandarizado es el WAIS (Escala Wechsler de Inteligencia
para Adultos), el cual fue desarrollado por primera vez en 1939 por David
Wechsler y fue llamada entonces el Wechsler-Bellevue Intelligence Test.
Las escalas de Wechsler introdujeron muchos conceptos novedosos e
innovaciones al movimiento de los tests de inteligencia. Primero, Wechsler se
deshizo de las puntuaciones de cociente de tests más viejos, (la C en "CI"). En
lugar de eso, asignó un valor arbitrario de cien a la inteligencia media y agregó o
sustrajo otros 15 puntos por cada desviación estándar arriba o abajo de a media
en la que se encontraba el sujeto. Rechazando un concepto de inteligencia global
(como el propuesto por Spearman), dividió el concepto de inteligencia en dos
áreas principales: área verbal y área de ejecución (no-verbal), cada una
subdividida y evaluada con diferentes subtests. Estas conceptualizaciones aún se
reflejan en las versiones más recientes de las escalas de Wechsler.
Índice de homogeneidad (H o IH). Consiste en calcular la correlación entre cada
ítem y la puntuación total en el cuestionario o test por tanto se suma de todos los
ítems.
Si el ítem analizado mide lo mismo que el resto de ítems, el índice de
homogeneidad será elevado, de manera que los sujetos que puntúan alto en el
ítem, también tenderán a puntuar alto en el cuestionario, y los sujetos que puntúan
bajo en el ítem, tenderán a puntuar bajo en el cuestionario.
Ahora bien, el índice de homogeneidad, llamado a veces índice de discriminación,
de un ítem/reactivo/pregunta (Hj), se define como la correlación de Pearson entre
las puntuaciones X en el total del test y las puntuaciones de los N sujetos en el
ítem j. Puede considerare a la sumatoria de las X como el constructo de referencia
contra el cual deben contrastarse las puntuaciones de cada ítem.
Si el ítem analizado mide lo mismo que el resto de ítems, el índice de
homogeneidad será elevado, de manera que los sujetos que puntúan alto en el
ítem, también tenderán a puntuar alto en el cuestionario, y los sujetos que puntúan
bajo en el ítem, tenderán a puntuar bajo en el cuestionario. Si el índice de
homogeneidad es bajo o cercano a cero, entonces el ítem analizado no mide lo
que mide el resto de ítems. Likert denominó a los ítems con un índice de
homogeneidad bajo como ítems indiferenciadores (Likert, 1932).
Los ítems indiferenciadores aportan escasa o ninguna información útil sobre la
actitud que se está midiendo, por ello no tiene sentido combinarlos con el resto de
ítems para obtener una puntuación total, según McIver y Carmines (1981).
Además, como demuestra la Teoría Clásica de los Tests, su uso puede perjudicar
a la fiabilidad y a la validez del test. Por todo ello, los ítems indiferenciadores
deben eliminarse.
Cuando un Hj es negativo y alto, debemos cuestionar el sistema de cuantificación
de las respuestas que se ha seguido en ese ítem. Si un ítem obtiene una
correlación negativa y alta con el total de la prueba, seguramente es debido a que
se ha cuantificado erróneamente el ítem (se ha tomado como directo siendo
inverso, o viceversa).
Algunas características de los índices de homogeneidad, pueden ser:
 Refleja que un ítem está midiendo la variable o constructo que la prueba en
general quiere medir o evaluar
 Es el grado en que dicho ítem está midiendo lo mismo (el constructo) que la
prueba globalmente
 el grado de semejanza, de relación entre las respuestas de un ítem y el
resto de los ítems del test, que representan el constructo
 permite identificar el grado en que el ítem mide la misma variable que los
demás ítems
 grado o nivel en que un ítem contribuye a la homogeneidad o consistencia
interna del test
 informa del grado en que dicho ítem está midiendo lo mismo que la
globalidad del test; es decir, del grado en que es consistente, homogéneo
con el total de la prueba
 la correlación existente entre las puntuaciones obtenidas por los sujetos en
un determinado ítem y la puntuación total de esos mismos sujetos en el test
completo
Índice de homogeneidad corregido (Hc o IHc)
El cálculo del índice de homogeneidad como la correlación entre la puntuación en
el ítem y la puntuación en el test (en adelante, correlación ítem-test) tiene el
siguiente inconveniente: la puntuación total en el test incluye al ítem como
componente, es decir, el ítem analizado aparece en las dos variables que se
correlacionan, y esto aumentará artificialmente el coeficiente de correlación que se
obtenga.
Para evitar este efecto, lo que se hace es calcular la correlación entre el ítem y el
test una vez que se ha eliminado de este último la contribución del ítem. Esta
correlación recibe el nombre de índice de homogeneidad corregido (Hc o IHc), y
se indica mediante la expresión (rj,x-j) o ri(T-i).
Por lo general, al hacer la corrección, el valor de la correlación corregida o el
índice de homogeneidad corregido disminuye o es menor que el valor de la
correlación no corregida, ya que en el índice de homogeneidad sin corregir lo que
se correlaciona es la puntuación del ítem con la puntuación total, entonces dentro
de la puntuación total ya se encuentra incluida la propia puntuación del ítem, por lo
que, al correlacionar la puntuación del ítem con la puntuación total, ya de por sí
existirá una correlación, entonces esa correlación tiene un sesgo o error de
sobreestimación, incremento o repetición de datos que debe ser corregido. Una
vez hecha la corrección, lo que se obtiene es la correlación sin incluir la propia
puntuación del ítem en estudio.
Esta operación se realiza específicamente cuando un test tiene un número
pequeño de ítems.
Existen 2 métodos para realizar este cálculo. El primero consiste en correlacionar
las puntuaciones en un ítem con las puntuaciones en el total del test después de
restar de este total las puntuaciones del ítem cuyo índice queremos obtener.
Método 1 o de las diferencias test – ítem.
Ejemplo para visualizar en empleo del primer método de corrección del índice de
homogeneidad.

ƩX-Y

Sujeto ƩX Y Xd Y Xd*Y Xd2 Y2

1 10 2 8 2 16 64 4

2 4 3 1 3 3 1 9

3 14 5 9 5 45 81 25

4 1 0 1 0 0 1 0

5 7 4 3 4 12 9 16

Ʃ 22 14 76 156 54

n= 5

Empleando la formula de correlación de Pearson, obtenemos lo siguiente:

N ( Ʃxy )−( ƩxdƩy )


xry =
√¿¿¿

5 ( 76 ) −(22∗14) 72
xry =
√¿ ¿ ¿
, xry =
√ 296∗74
= 0,4865

Como se puede observar, el índice de homogeneidad corregido para el ítem 1


será 0.49, resultado de restar las puntuaciones generales de los test (10, 4, 14, 1,
7) con las puntuaciones del ítem 1 (2, 3, 5, 0, 4) obteniéndose una la columna con
los siguientes resultados (10-2 = 8, 4-3 = 1, 14-5 = 9, 1-0 = 1, 7-4 = 3).
Posteriormente, esta nueva columna, denominada Xd, se correlaciona con las
calificaciones del ítem 1. Análogamente, los índices de homogeneidad corregidos
para los ítems 2 y 3 son, respectivamente, 0.89 y 0.54.
Para el segundo método sería aplicar la fórmula para calcular el índice de
homogeneidad corregido (Peters y Van Vorhis, 1940), que nos queda de la
siguiente forma:
r it S t −S i
r i (t −i)=
2 2 ;
√ ( S + S )−2 r
T i iT ST Si

Dónde,
riT, es la correlación ítem-test.
Si es la desviación típica que muestran las puntuaciones en el ítem,
ST es la desviación típica que presentan las puntuaciones en test.

Para interpretar el índice de homogeneidad corregido suele tomarse como valor de


referencia 0.20. De manera que todos los ítems que presentan r i(T-i) con valores
inferiores a 0.20 son eliminados del banco de ítems por ser indiferenciadores.

Como ejemplo de cálculo anteriormente descrito se realizara el siguiente ejercicio:


Supongamos que 16 sujetos han contestado a los cuatro ítems del
cuestionario de un test psicométrico de rendimiento típico que mide
actitudes hacia una universidad. Después de transformar los ítems
invertidos, se han calculado las puntuaciones en el test. Las puntuaciones
en los ítems después de realizar las transformaciones y en el test aparecen
en la tabla que se muestra a continuación.

ITEM
SUJETOS ITEM 1 ITEM 2 ITEM 4 ƩX test
3

1 4 5 5 4 18

2 2 2 1 2 7

3 5 6 4 5 20

4 3 2 3 3 11

5 5 6 4 5 20

6 2 1 1 1 5

7 5 3 2 5 15

8 4 5 5 5 19

9 2 1 1 2 6

10 3 2 1 1 7

11 2 3 1 2 8

12 4 5 6 4 19

13 2 3 1 1 7
14 4 5 4 6 19

15 1 2 1 2 6

16 4 5 6 5 20

Estadísticos obtenidos de los ítems y test presentados en la tabla anterior

ESTADISTICA ITEM 1 ITEM 2 ITEM 3 ITEM 4 ƩX test


ƩX 52 56 46 53 207
n= 16 16 16 16 16
 3,25 3,50 2,88 3,31 12,94
ƩX2 194 242 190 221 3261

x2
Ʃ 12,125 15,125 11,875 13,8125 203,813
N
2 10,56 12,25 8,27 10,97 167,38

¿)- 2 1,563 2,875 3,609 2,840 36,434

V[¿)- 2] 1,250 1,696 1,900 1,685 6,036


σi 1,250 1,696 1,900 1,685 6,036

Vamos a ilustrar cómo calcularíamos el índice de homogeneidad corregido (IHc)


del ítem 1.
Para el ítem 1:
SUJETO X(ƩX1)* Y(j)** X*Y X2 Y2
1 18 4 72 324 16

2 7 2 14 49 4

3 20 5 100 400 25

4 11 3 33 121 9

5 20 5 100 400 25

6 5 2 10 25 4

7 15 5 75 225 25
8 19 4 76 361 16

9 6 2 12 36 4

10 7 3 21 49 9

11 8 2 16 64 4

12 19 4 76 361 16

13 7 2 14 49 4

14 19 4 76 361 16

15 6 1 6 36 1

16 20 4 80 400 16

Totales ƩX=207 ƩY=52 ƩXY=781 ƩX2=3261 ƩY2= 194


*Sumatoria de datos totals
**Datos por reactive
Formula de correlación de Pearson:

N ( Ʃxy )−( ƩxdƩy )


xry =
√¿¿¿

16 ( 781 )−(207∗52) 1732


xry =
√¿¿¿
: xry =
1931 ,5278
=0,89669

Aplicando la fórmula para calcular el índice de homogeneidad corregido según


Peters y Van Vorhis, (1940):

r it S t −S i
r i (t −i)=
2 2
√ ( S + S )−2 r
T i iT ST Si

0,89669∗6,036−1,25
r i (t −i)= 2
√ ( 6,036 ❑ +1,252❑ )−2∗0,89669∗6,036∗1,25

4,1625
r i (t −i)= =0,8416
4,9462

Dónde,
riT es la correlación ítem-test
Si es la desviación típica que muestran las puntuaciones en el ítem
ST es la desviación típica que presentan las puntuaciones en test.

El resultado obtenido indica que el ítem está muy relacionado con el resto de
ítems que componen el test, debido a que miden la misma actitud. Como cabía
esperar, el Hjc o IHjc de un ítem suele ser inferior a su Hj o HI sin corregir y la
diferencia es apreciable debido a la pequeña longitud del test o el escaso número
de ítems: tan sólo 4 ítems. En este caso un 25% del test (es decir, 1 ítem de 4) es
parte de las dos variables que correlacionamos cuando calculamos el IH. Este
porcentaje se reduce a medida que aumenta la longitud del test (cuando la
longitud del test es 5, el porcentaje es del 20%; cuando 6, el 17%; cuando 7, el
14%, ...). Por ello, cuanto mayor sea la longitud del test menor será la diferencia
entre el IH y el IHc. Cuando trabajamos con tests muy largos la diferencia es muy
pequeña.

Análisis de la homogeneidad de los ítems (consistencia interna), mediante


coeficientes de Kuder y Richardson 20
Para el cálculo de la confiabilidad, tradicionalmente, la confiabilidad de un test
puede entenderse y calcularse de tres maneras diferentes:
a) Aludiendo a la estabilidad temporal de las medidas que proporciona.
b) Enfatizando el grado de equivalencia entre dos formas paralelas.
c) Haciendo referencia al grado en que diferentes partes del test miden un
rasgo, constructo, variable psicológica de manera consistente.
Existen diversos procedimientos para calcular la confiabilidad de un instrumento
de medición, todos utilizan fórmulas que producen coeficientes de confiabilidad.
Estos coeficientes pueden oscilar entre 0 y 1. Donde un coeficiente de 0 significa
nula confiabilidad y 1 representa un máximo de confiabilidad. Entre más se
acerque el coeficiente a cero (0), hay mayor error en la medición.
Técnicas para medir o calcular la confiabilidad mediante el uso de coeficientes.
a) Medida de la estabilidad, empleando el coeficiente de Pearson.
b) Formas paralelas o equivalentes, empleando el coeficiente de Pearson.
c) Dos mitades: mediante los coeficientes de: Spearman-Brown, Rulón y
Guttman - Flanagan.
d) Equivalencia racional: empleando el coeficiente de Kuder y
Richardson 20 (KR20), además del alfa de Cronbach.

Confiabilidad empleando el Coeficiente de Kuder – Richardson 20 (KR-20)


Se desarrolló un coeficiente para estimar la confiabilidad de una sola medición, su
interpretación es la misma que la del coeficiente alfa. En Psicometría, la fórmula
Kuder – Richardson 20 (KR-20) fue publicada por primera vez en 1937 y
representa una medida de confiabilidad de consistencia interna. Este coeficiente
se aplica en instrumentos cuyas respuestas son dicotómicas; por ejemplo: sí – no
o también 0 - 1. Un ejemplo de este tipo de prueba sería el Inventario de
Personalidad de Eysenck forma B para adultos, o el test de Autoestima de
Coopersmith (ambos de respuestas dicotómicas tipo si – no), o un test de
inteligencia, cuyas respuestas tienen el formato 0 – 1, 0 para respuestas
incorrectas y 1 para respuestas correctas. Debe aclararse que en el inventario o
en el test de autoestima de Coopersmith, las respuestas afirmativas de los ítems
directos se consideran acertadas y las respuestas negativas de estos mismos
reactivos se consideran erradas o incorrectas. Por ende y consecuencia, en este
mismo test, las respuestas afirmativas de los ítems inversos o indirectos se
consideran erróneas y las respuestas negativas de estos mismos reactivos se
consideran correctas o acertadas.
Este coeficiente hace referencia al grado en que diferentes partes del test miden
un rasgo, constructo, variable psicológica de manera consistente. Es análogo al
indicador α de Cronbach, excepto que α de Cronbach también se utiliza para
medidas no dicotómicas o politómicas (continuas) basadas en escalas como
Likert. A menudo se afirma que un valor alto del coeficiente KR-20 (por ejemplo
0,90) se asocia con una prueba homogénea. Esto realmente es una suposición, no
una conclusión, basado en estos coeficientes de confiabilidad. Este coeficiente
mide la fiabilidad como consistencia interna para ítems dicotómicos.
Para emplear este coeficiente, es deseable que los ítems/reactivos tengan un
índice de dificultad homogéneo y no un índice de dificultad creciente.
La fórmula para KR-20 para una test o prueba con K ítems/reactivos numerados
de 1 a K es:
K
r= ( K−1 )∗¿
Dónde,
K= es el número de ítems/reactivos
S2X = es la varianza total de test
q= es la proporción o fracción de errores (# errores entre total de
sujetos)
p= es la proporción o fracción de aciertos (# aciertos entre total de
sujetos)

Este tipo de datos (dicotómicos, tipo 0 error y 1 acierto) se obtiene de tablas donde
la columna izquierda son los sujetos/personas/participantes y la fila superior son
los ítems/preguntas, en cada casilla se colocan las respuestas sujeto/ítem y en la
columna de la derecha se coloca la sumatoria total de estas respuestas por
participante. A partir de los datos de esta columna se obtiene la varianza total ( S2X ).
De la columna correspondiente para cada ítem se obtiene: a) p que es la
proporción o fracción de las respuestas correctas o aciertos de cada ítem/reactivo
del test (# aciertos entre el # total de sujetos), b) q que es la proporción o fracción
de las respuestas incorrectas, fallidas, errores o no aciertos de cada ítem/reactivo
del test (# errores entre el # total de sujetos), de tal forma que p + q=1.
Posteriormente se multiplica p*q y se obtiene la sumatoria Σpiqi. El término
representa a la varianza total del test y se obtiene de la sumatoria total de las
respuestas de los sujetos entrevistados. Las fórmulas que puede emplear serían:

Ʃ ni=1 (x 1− x́)2 ∑ X2
2
σ =
x
n
σ 2x = ( N )
− X́ 2
Donde n es el tamaño total de la muestra o el número de sujetos que responden la
prueba o test.
Los valores de KR20 pueden variar desde 0 a 1 (a veces expresada como
porcentaje), con altos valores indicando que el examen es probable que se
correlacionen con formas alternas (una característica deseable). El KR-20 puede
verse afectada por la dificultad de la prueba, la propagación en las puntuaciones y
la longitud del examen.
Para emplear este coeficiente, es deseable que los ítems/reactivos tengan un
índice de dificultad homogéneo y no un índice de dificultad creciente.
Desde α de Cronbach fuera publicado en 1951, no ha habido ninguna ventaja
conocida a KR-20 sobre Cronbach. KR-20 es visto como un derivado de la fórmula
de Cronbach, con la ventaja de Cronbach que puede manejar tanto variables
dicotómicas como politómicas. No puede utilizarse la fórmula de KR-20 cuando
hay preguntas de opción múltiple, debe usarse solo para variables de respuesta
dicotómica.
Ejemplo: se está desarrollando un test psicométrico/rendimiento óptimo de 4 ítems
para selección de personal y se desea estudiar la confiabilidad de este test de
respuestas dicotómicas. Para ello se administra a un grupo de 6 sujetos. Los datos
se muestran a continuación:

Ítem o reactivo
Sujeto Ʃxi Ʃxi2
1 2 3 4

1 1 1 1 0 3 9

2 1 1 1 0 3 9

3 0 0 0 0 0 0

4 1 1 0 0 2 4

5 0 0 0 0 0 0

N=6 1 0 1 0 2 4

Ʃ 10 26

N 6

 1,667
a
P( ¿ 0,6667 0,5 0,5 0
n
e
Q( ¿ 0,3333 0,5 0,5 1
n
P*q 0,2222 0,2500 0,2500 0 ƩP*q= 0,7222

1 respuesta correcta al item 1 respuesta incorrecta al item

Cálculo de la varianza total del test:

∑ X2
σ 2x = ( N ) − X́ 2 = ( 266 )−( 1,667 ) = 1,554
2

Calculando KR20 nos da:

K 4
r= ( K−1 )∗¿ = ( 4−1 )∗¿ = 0,714
Este es el valor de la confiabilidad o consistencia interna de los datos obtenidos
empíricamente. También pudiera decirse que el 71,4% de la varianza de las
puntuaciones empíricas se debe al grado de la covariación entre los
ítems/reactivos del test con respuestas dicotómicas. El restante se deba a los
errores de la medida ocurridos durante la realización del test.

Calculo de la Confiabilidad empleando el Coeficiente alfa (α) de Cronbach.


En los casos de la medición de constructos a través de escalas, en los que no
existen respuestas correctas ni incorrectas, sino que cada sujeto marca el valor de
la escala que mejor representa su respuesta, Cronbach (1951) derivó, a partir del
modelo de Kuder- Richardson (1937), una variante que permite estimar la
confiabilidad de consistencia interna de un test o prueba psicométrica de
rendimiento típico.
Este coeficiente desarrollado por J. L. Cronbach requiere una sola administración
del instrumento de medición y produce valores que oscilan entre 0 y 1. Su ventaja
reside en que no es necesario dividir en dos mitades a los ítems del instrumento
de medición, simplemente se aplica la medición y se calcula el coeficiente. Mide la
homogeneidad de los ítems con escala tipo Likert. La fórmula más empleada para
este tipo de coeficiente es:

α= ( KK−1 )∗¿
Dónde:
k es el número de preguntas o ítems
S2i es la varianza del ítem i
S2T es la varianza de los valores totales observados

Observe que las dos fórmulas de Kuder y Richardson y la de Cronbach son


básicamente iguales. Lo único que varía es la forma de representar la varianza
individual de los ítems en cada caso.
Este tipo de datos (dicotómicos, tipo 0 error y 1 acierto o no dicotómicos, números
enteros como respuesta de opciones Likert) se obtiene de tablas donde la
columna izquierda son los sujetos/personas/participantes y la fila superior son los
ítems/preguntas, en cada casilla se colocan las respuestas sujeto/ítem y en la
columna derecha se coloca la sumatoria total de estas respuestas. De cada
columna se obtiene la varianza S2i (ítem) y de la total la S2T .
Este coeficiente es un índice de la consistencia interna o fiabilidad de un test. Este
coeficiente hace referencia al grado en que diferentes partes del test miden un
mimo rasgo, constructo, variable psicológica de manera consistente. Desarrollado
por J. L. Cronbach, requiere de una sola administración del instrumento de
medición y produce valores que oscilan entre 0 y 1, los valores más bajos de este
índice nos indican mayor consistencia. S i su valor supera el 0,8, podemos hablar
de fiabilidad.
Su ventaja reside en que no es necesario dividir en dos mitades a los ítems del
instrumento de medición, simplemente se aplica la medición y se calcula el
coeficiente. Existen dos métodos para calcular este índice, el primero es el cálculo
de la varianza de los ítems/reactivos y el segundo se denomina matriz de
correlación.
El primer método o la fórmula más empleada para calcular este tipo de coeficiente
es el cálculo de la varianza de los ítems:
K
α= ( K −1)∗¿

Dónde:
k es el número de preguntas o ítems
S2i es la varianza del ítem i
S2T es la varianza de los valores totales observados
[ ] es el valor absoluto de la expresión matemática

Las fórmulas equivalentes de la varianza son:

Ʃ ni=1 (x 1− x́)2 ∑ X2
2
σ =
x
n
2
σ =
x ( N )
−( X́ )
2

El segundo método para calcular este coeficiente es la matriz de correlación de los


ítems:

np
α=
1+ p (n−1)

Dónde,
p es el promedio de las correlaciones lineales entre cada uno de los
ítems
n es el número de preguntas o ítems

Permite establecer el grado en que los diferentes ítems están midiendo una única
dimensión o rasgo, constructo, variable de tipo psicológico. Podemos observar en
la última expresión que α tendrá un valor alto (cercano a 1) cuando los ítems
covarían fuertemente entre sí; asumirá valores cercanos a cero si los ítems son
linealmente independientes (si covarían de forma escasa). Se puede interpretar
como una medida de unidimensionalidad.
Ejemplo: a una muestra de 6 sujetos de experimentación se les aplica, mediante
una prueba piloto, un instrumento de recolección de datos (test psicométrico de
rendimiento óptimo/máximo) compuesto por 4 ítems para medir un rasgo,
constructo o variable psicológica. En la siguiente tabla se presentan los datos
obtenidos:

Sujeto Ítems / Reactivo ƩX

1 2 3 4

1 0 0 0 1 1

2 1 0 0 0 1

3 1 0 0 0 1

4 1 1 1 1 4

5 1 1 0 1 3

6 1 1 0 0 2

A estos datos se les aplican los conceptos del cálculo de la varianza en cada uno
de los ítems y del cálculo de la varianza total del test, como se muestra a
continuación:

Ítems / Reactivo

Sujeto 1 2 3 4 ƩX  ƩX - (ƩX -
 )2

1 0 0 0 1 1 2,00 -1,00 1,00

2 1 0 0 0 1 2,00 -1,00 1,00

3 1 0 0 0 1 2,00 -1,00 1,00


n
2 1
4 1 1 1 1 4 2,00 2,00 4,00 S = ∑ ¿¿
n
n i=1
5 1 1 0 1 3 2,00 1,00 1,00

6 1 1 0 0 2 2 0 0

ƩX 5 3 1 3 12 Ʃ 8,00

n= 6 6 6 6 6 n= 6,00

 0,83 0,50 0,17 0,50 2,00 S2x 1,333

ƩX2 5 3 1 3 32
2
ƩX /N 0,8333 0,5 0,1667 0,5 5,3333
2 0,69 0,25 0,03 0,25 4,00
2 2 2
(ƩX /N) - 0,139 0,250 0,139 0,250 1,333

S2i

Varianza 0,1388 0,25 0,13889 0,25 1,3333


9

Según el método del cálculo de la varianza de los ítems: para calcular la varianza
del ítem 1:

α 2x =
∑ X 2− X2
N

Para calcular el valor del alfa de Cronbach, se aplica la siguiente ecuación:

α= ( KK−1 )∗¿ ¿( 4−1


4
)¿ = 0,55

El coeficiente Cronbach se utiliza para evaluar la confiabilidad a partir de la


consistencia interna de los ítemes, y sus valores oscilan entre 0 y 1 (0 es ausencia
total de consistencia y 1 es consistencia perfecta), esto es debido a que este
coeficiente mide la confiabilidad a partir de la consistencia interna de los ítemes,
entendiendo por tal el grado en que los ítemes de una escala se correlacionan
entre sí. Por esto, el segundo método para cuantificar la confiabilidad según
Cronbach se basa en la matriz de correlación entre los reactivos.
Según el método del cálculo de la matriz de correlación de los ítems:
Matriz de correlaciones (hemimatriz superior: coeficientes de correlación lineal de
Pearson (casillas en azul), hemimatriz inferior (casillas en mostaza): niveles de
significancia o valores P).

Ítem 1 Ítem 2| Ítem 3 Ítem 4 Sumas filas

Ítem 1 0,4472 0,2000 -0,4472 0,2000


Ítem 2 0,44721 0,4472 0,3333 0,7805

Ítem 3 0,2000 0,44721 0,4472 0,4472

Ítem 4 -0,44721 0,33333 0,42721

Suma (Ʃ) 1,4277

# correlaciones 6

Promedio () 0,2379

Esta tabla muestra en la hemimatriz superior, las correlaciones lineales producto


momento de Pearson, entre cada par de ítems. El rango de estos coeficientes de
correlación va de -1 a +1, y miden la fuerza de la relación lineal entre las variables.
En la hemimatriz inferior se muestran los valores-P que prueba la significancia
estadística de las correlaciones estimadas para cada par de ítems. Valores-P
numéricamente menores (0,04/0,03/0,02/0,01/0,005, etc.) que el valor 0,05 indican
correlaciones relevantes o significativamente diferentes de cero, con un nivel de
confianza del 95,0%. Valores-P numéricamente superiores (0,06/0,07/0,08/0,1/0,9,
etc.) que el valor 0,05 indican correlaciones no relevantes o no significativamente
diferentes de cero, con un nivel de confianza del 95,0%. Como puede observarse,
las correlaciones arrojan valores medianos a bajos y los niveles de significancia
indican la no existencia de relaciones relevantes entre los ítems.

np 4∗0,2379 0 , 95184
α= = = = 0,55
1+ p (n−1) 1+ 0,2379(4−1) 1,71388

Escala con los criterios de decisión para la confiabilidad de un instrumento

Muy baja Baja Media o regular Aceptable o alta Muy alta o elevada

Entre 0 y 0,20 Entre 0,21 y 0,40 Entre 0,41 y 0,60 Entre 0,61 y 0,80 Entre 0,81 y 1,00

Medición con Medición con pocos Medición sin errores Medición sin errores Medición sin errores
error errores
Test fiable
Se sugiere repetir la validación del instrumento puesto que es recomendable que
el resultado sea mayor o igual a 0,61.
Distintos factores afectan el resultado de este método, entre otros: el signo de las
correlaciones entre los ítems siempre debieran deben ser positivas, por lo que
debe analizar si el test incluye ítems invertidos o negativos, de ser así, se debe
invertir su escala (por ejemplo, si es Likert, transformar el 1 en 5, el 2 en 4, el 4 en
2 y el 5 en 1, el 3 permanece como 3) y volver a realizar el cálculo.
En este caso, el coeficiente α obtenido en ambos métodos representa un valor
medio, que nos indica que no existe un elevado grado de covariación entre los
ítems. No podemos afirmar con rotundidad que este test mide un rasgo,
constructo, variable psicológica en forma unitaria.
Es importante mencionar que puede ocurrir que un instrumento tenga distintos alfa
de Cronbach. Por lo regular, esto significa que él está midiendo una variable
compleja, multidimensional y entonces se ha establecido un alfa para cada
dimensión. Por ende, el coeficiente α puede obtenerse también entre diferentes
grupos de ítems (subtests). En ese caso, k será el número de subtests y ΣS2j la
suma de las varianzas de los subtests. Un coeficiente α bajo indicará que los
diferentes subtests miden rasgo, constructo, variable psicológica o constructo
diferentes. No obstante, aún en estos casos, puede obtenerse un alfa único para
toda la variable. Para una información más detallada sobre el cálculo del
Cronbach, se puede consultar Hernández, Fernández y Baptista (2000).
CONCLUSIÓN

Para que los resultados de un instrumento puedan ser interpretables con lo cual se
pueda dar una respuesta y determinar un significado, o en todo caso algún valor
heurístico lo cual nos aportara determinado descubrimiento que ayudara en la
resolución de problemas, situaciones un hechos pasados, presentes o futuros, por
tanto es imprescindible y necesario que los mismos sean científicamente
confiables. No es posible determinar la relación entre dos o más variables si los
instrumentos utilizados para medirlas son poco confiables.
Los instrumentos tales como el coeficiente Kuder y Richardson 20 (KR20) y el
coeficiente de alfa de Cronbach, vienen a aportar una alta confiabilidad a los test y
cuestionarios aplicados.
Los coeficientes de confiabilidad proporcionan una indicación de la extensión, en
que una medida es consistente y reproducible. El KR20 es un indicador de la
fidelidad (consistencia interna). Los métodos basados (Rulon, Alfa de Cronbach,
Spearman, Brown) en la división en dos porciones (presumiblemente iguales) da
desventaja de ser relacionado con las opciones de la partición.
En psicometría, el Alfa de Cronbach es un coeficiente que sirve para medir
la fiabilidad de una escala de medida, y cuya denominación Alfa fue realizada
por Cronbach en 1951; aunque sus orígenes se encuentran en los trabajos de
Hoyt (1941) y de Guttman (1945).
El alfa de Cronbach no deja de ser una media ponderada de las correlaciones
entre las variables (o ítems) que forman parte de la escala. Puede calcularse de
dos formas: a partir de las varianzas (alpha de Cronbach) o de las correlaciones
de los ítems (Alpha de Cronbach estandarizado). Hay que advertir que ambas
fórmulas son versiones de la misma y que pueden deducirse la una de la otra. El
alpha de Cronbach y el alpha de Cronbach estandarizados, coinciden cuando se
estandarizan las variables originales (items).

BIBLIOGRAFÍA

Castro, R. (s.f.). Unidad IV. Test Psicológicos. Análisis de los


Ítems/Reactivos/Preguntas. Recuperado el 8 de 11 de 2018, de 6 -Test
Psicológicos Análisis de item 4 ultimo con 2 anexos 4 laptop.pdf:
http://pregrado.campusvirtualuba.net.ve/trimestre/mod/assign/view.php?
id=10584

Marroquín, R. (s.f.). Confiabilidad y Validez de Instrumentos de investigación.


Recuperado el 9 de 11 de 2018, de http://www.une.edu.pe/:
http://www.une.edu.pe/Titulacion/2013/exposicion/SESION-4-Confiabilidad
%20y%20Validez%20de%20Instrumentos%20de%20investigacion.pdf

Morales, P. (5 de 5 de 2009). Análisis de ítems en las pruebas objetivas.


Recuperado el 8 de 11 de 2018, de https://educrea.cl/:
https://educrea.cl/wp-content/uploads/2014/11/19-nov-analisis-de-items-en-
las-pruebas-objetivas.pdf

Temática III, UBA - Psicometría I. (2018). Contenido: Validez. Consideraciones


Generales. Recuperado el 8 de 11 de 2018, de
http://pregrado.campusvirtualuba.net.ve/:
http://pregrado.campusvirtualuba.net.ve/trimestre/mod/imscp/view.php?
id=2979
Temática III. UBA - Psicometría I. (2018). La evaluación de la confiabilidad.
Recuperado el 8 de 11 de 2018, de
http://pregrado.campusvirtualuba.net.ve/:
http://pregrado.campusvirtualuba.net.ve/trimestre/mod/imscp/view.php?
id=2979

Tesis de Investigacion.blog. (14 de 7 de 1013). Kuder-Richardson. Ejemplo.


Recuperado el 8 de 11 de 2018, de http://tesisdeinvestig.blogspot.com/:
http://tesisdeinvestig.blogspot.com/2013/07/kuder-richardson-ejemplo.html

También podría gustarte