COMO REALIZAR PRUEBAS DE INDEPENDENCIA (Estadísticas No Paramétricas)


COMO REALIZAR PRUEBAS DE INDEPENDENCIA

[Obsequio: Estadística No Paramétrica: Aplicada a las Ciencias de la Conducta. Sidney Siegel y N. John Castellan]


Existe una variedad de procedimiento para el procesamiento y análisis estadístico de datos. Una vez recogidos los datos, procesados y convertidos en información valiosa, pueden utilizarse varias técnicas que permitan sacar el máximo provecho de la información disponible, sin embargo, la utilización de Técnicas de Estadística No Paramétricas son poco utilizada, a pesar de la potencia y certeza de sus resultados, y que por lo general no se dispone de información suficiente sobre la población de la cual se extrajeron los datos, su distribución y otras caracerísticas que den soporte a la realización de inferencia con base en la muestra observada.
A diferencia de la estadística paramétrica, en la que el investigador aspira encontrar en las características de la muestra que ha seleccionado, aquellas que distinguen a la población de donde ésta procede; hay dos formas de actuar: 1) estimar el valor de un parámetro a partir de la muestra, y 2) contrastar si su hipótesis es confirmada en la muestra, poniendo a prueba la hipótesis de las diferencias nulas (Ho), la que de no confirmarse se explica por la hipótesis alterna (H1), que acepta que esas diferencias existen dentro de cierto margen de probabilidad: cuando son significativas (a nivel de una p < 0.05 o < 0.001) se rechaza la hipótesis nula y se acepta la hipótesis alterna. En estadística se definen como variables a los atributos, rasgos o propiedades de un grupo de elemen
En esta investigación se desarrollan algunas Técnicas de Análisis Estadístico No Paramétrico tales como la Prueba de Independencia, la Corrección de Yates en Tablas de Contingencia de 2x2, las Pruebas de Homogeneidad y se hace un estudio sobre el Análisis de Varianza por medio de la Tabla ANOVA, analizando la rutina general de este tipo de análisis, para terminar con comentarios sobre la importancia del software en este tipo de análisis.

Palabras Claves: Estadística No Paramétrica, Prueba de Independencia, Corrección de Yates, Análisis de Varianza, ANOVA, Prueba de Homogeneidad, Prueba de Chi Cuadrado


PRUEBA DE INDEPENDENCIA

Cuando cada individuo de la población a estudio se puede clasificar según dos criterios A y B, admitiendo el primero a posibilidades diferentes y b posibilidades el segundo, la representación de las frecuencias observadas en forma de una matriz a x b recibe el nombre de Tabla de Contingencia. Los datos se disponen de la forma:

[(n11, n12, …, n1b),
(n21, n22, …, n2b),
… … … … … …
(na1, na2, …, nab)]
Siendo nij el número de individuos que presentan simultáneamente la i-ésima modalidad del carácter A y la j-ésima del B.
La hipótesis nula a contrastar admite que ambos caracteres, A y B, se presentan de forma independiente en los individuos de la población de la cual se extrae la muestra; siendo la alternativa la dependencia estocástica entre ambos caracteres. La realización de esta prueba requiere el cálculo del estadístico
Donde:
el tamaño muestral total.
El estadístico L se distribuye como una  χ2 con (a - 1)(b - 1) grados de libertad. El contraste se realiza con un nivel de significación del 5%.



Ejemplo de Aplicación de Prueba de Independencia

Para estudiar la dependencia entre la práctica de algún deporte y la depresión, se seleccionó una muestra aleatoria simple de 100 jóvenes, con los siguientes resultados:

Sin depresión
Con depresión

Deportista
38
9
47
No deportista
31
22
53

69
31
100
L = [(38 – 32,43)2/32,43] + [(31 – 36,57)2/36,57] + [(9 – 14,57)2/14,57] + [(22 – 16,43)2/16,43]
L = 0,9567 + 0,8484 + 2,1293 + 1,8883
L = 5,8227

El valor que alcanza el estadístico L es 5,8227.
Buscando en la tabla teórica de Chi Cuadrado para 1 grado de libertad se obtiene el valor 
Lt = 3,84146
Comparando Lt = 3,84146 teórico con el calculado L = 5,8227 como se aprecia en la gráfica
Lo que permite rechazar la hipótesis de independencia de caracteres con un nivel de significación del 5%, admitiendo por tanto que la práctica deportiva disminuye el riesgo de depresión.

CORRECCIÓN DE YATES PARA TABLAS DE CONTINGENCIA DE 2X2

Un caso especial de pruebas de independencia es aquel que emplea una tabla de contingencia de 2x2. Si se utiliza una tabla cuádruple puede aplicarse una fórmula simplificada para calcular el Valor L, por χ2.
Supóngase que las frecuencias observadas en una tabla de contingencia de 2x2 sean a, b, c y d de la siguiente forma:

A
B
Total
X
a
b
a + b
Y
c
d
c + d
Total
a + c
b + d
n
El valor χ2 puede calcularse entonces con la fórmula siguiente:
Que tiene (2 – 1)(2 – 1) = 1 grado de libertad
Con frecuencia se aplica la Corrección de Continuidad de Yates, similar a la corrección de continuidad de la aproximación normal a la binomial, para mejorar la aproximación a la probabilidad  acta. El valor χ2 corregido se calcula a partir de la siguiente fórmula:

Ejemplo de Aplicación Corrección de Yates para Tablas de Contingencia de 2x2

En un estudio para determinar si existe relación entre el sexo y el propósito de elegir una carrera técnica se entrevistaron a 120 aspirantes a la universidad. Los resultados se observan en la siguiente tabla de contingencia:
Sexo
Si
No
Masculino
40
30
70
Femenino
10
40
50
Total
50
50
120
Se aplicará la fórmula para encontrar χ2
χ2 = (120(40x40 – 10x30)2)/(70x50x50x70)
χ2 = 16,56
De la tabla teórica de Chi Cuadrado se tiene que para un grado de libertad el valor de χ2 que separa 0,1% superior es 10,828. Por lo tanto, la hipótesis según la cual existe independencia entre el sexo y el propósito de elegir una carrera técnica debe ser rechazada.
Si se tiene en cuenta la Corrección por Continuidad de Yates se obtiene:
χ2 = (120(|40x40 – 10x30| - 0,5(120))2)/(70x50x50x70)
χ2 = 10,828 < 15,06
Que es ligeramente inferior al valor antes obtenido, como se observa en la gráica, pero aun así, la hipótesis de independencia debe ser rechazada.

PRUEBA DE HOMOGENEIDAD

Se plantea el problema de la existencia de homogeneidad entre r poblaciones, para lo cual se realizan muestras independientes en cada una de ellas. Los datos muestrales vienen clasificados en s clases y sus frecuencias absolutas se presentan en forma de una matriz r x s:
[(n11, n12, …, n1s),
(n21, n22, …, n2s),
… … … … … …
(nr1, nr2, …, nrs)]

Siendo nij el número de observaciones en la i-ésima población pertenecientes a la j-ésima clase.
Se quiere contrastar la hipótesis nula de que las probabilidades asociadas a las s clases son iguales en las r poblaciones. El estadístico para este contraste es
Donde
Es el tamaño muestral total.
El estadístico L se distribuye como una χ2 con (r - 1)(s - 1) grados de libertad. El contraste se realiza con un nivel de significación del 5%.

Ejemplo de Aplicación Prueba de Homogeneidad

Un estudio sobre caries dental en niños de seis ciudades con diferentes cantidades de flúor en el suministro de agua, ha proporcionado los resultados siguientes:
Comunidad
Nº Niños Sin Caries
Nº Niños Con Caries

A
38
87
125
B
8
117
125
C
30
95
125
D
44
81
125
E
64
61
125
F
32
93
125

216
534
750
L = [(38 – 36)2/36] + [(8 – 36)2/36] + [(30 – 36)2/36] + [(44 – 36)2/36] + [(64 – 36)2/36] + [(32 – 36)2/36] + [(87 – 89)2/89] + [(117 – 89)2/89] + [(95 – 89)2/89] + [(81 – 89)2/89] + [(61 – 89)2/89] + [(93 – 89)2/89]
L = 0,1111 + 21,7778 + 1,0000 + 1,7778 + 21,7778 + 0,4444 + 0,0449 + 8,8089 + 0,4045 + 0,7191 + 8,8089 + 0,1797
L = 65,85
Se quiere saber si la incidencia de caries infantil es igual en las seis poblaciones.
La propia tabla hace pensar que la incidencia de la enfermedad no es igual en todas las poblaciones; basta observar los datos correspondientes a las comunidades B y E.
El contraste arroja un valor del estadístico L de 65,85,
El Lt esperado con 5 grados de libertad  nivel de significación de 5% según la tabla de la distribución Chi Cuadrado es 11,0705 que es menor 65,85.
Como se observa en la gráfica
Lo que lleva a rechazar la hipótesis de homogeneidad y aceptar que el diferente contenido de flúor en el suministro del agua puede ser la causa de la disparidad en el número de niños con caries.

ANÁLISIS DE LA VARIANZA

Del mismo modo que el contraste χ2 generalizaba el contraste de dos proporciones, es necesario definir un nuevo contraste de hipótesis que sea aplicable en aquellas situaciones en las que el número de medias se quieren comparar sea superior a dos. Es por ello por lo que el Análisis de la Varianza, ANOVA surge como una generalización del contraste para dos medias de la t de Student, cuando el número de muestras a contrastar es mayor que dos.
Por ejemplo, supóngase que se tienen 3 muestras de diferentes tamaños que se suponen que provienen de tres poblaciones normales con la misma varianza:

De modo que se aceptaría H1 y se rechazaría H0 sólo si alguna de las hipótesis alternativas H1', H1'' ó H1''' es aceptada y rechazada su correspondiente hipótesis nula. El error de tipo I  para este contraste es:

Por ello el nivel de significación obtenido para este contraste sobre la igualdad de medias de tres muestras no es como hubiésemos esperado obtener inicialmente, sino. (1 – (1 – α)3)
Por ejemplo, si se toma un nivel de significación α = 0,1 para cada uno de los contrastes de igualdad de dos medias, se obtendría que el nivel de significación (error de tipo I) para el contraste de las tres medias es de 1 - 0,93 = 0,27, lo que es una cantidad muy alta para lo que se acostumbra usar.
En consecuencia, no es adecuado realizar el contraste de igualdad de medias de varias muestras mediante una multitud de contrastes de igualdad de medias de dos muestras.
Una técnica que permite realizar el contraste de modo conveniente es la que expone en este trabajo y que se denomina Análisis de la Varianza.

ANOVA con un factor

Se denomina modelo factorial con un factor o ANOVA con un factor al modelo (lineal) en el que la variable analizada va a depender de un sólo factor de tal manera que las causas de su variabilidad son englobadas en una componente aleatoria que se denomina error experimental:
X = Factor ± error
Considérese una variable sobre la que actúa un factor que puede presentarse bajo un determinado número de niveles, t.

Ejemplo de ANOVA con un factor

Por ejemplo se puede considerar un fármaco que se administra a t = 3 grupos de personas y se les realiza cierta medición del efecto causado:

Resultado de la medición
Gripe (nivel 1)
5
3
2
5
4
3



n1 = 6
Apendicitis (nivel 2)
8
9
6
7
8
9
10
8
10
n2 = 8
Sanos (nivel 3)
2
3
2
1
2
3
2


n3 = 6
En este caso los factores que influyen en las observaciones son tres: el que la persona padezca la gripe, apendicitis, o que esté sana.
De modo general se pueden representar las t muestras (o niveles) del siguiente modo:
Donde por supuesto, los tamaños de cada muestra ni, no tienen por qué ser iguales. En este caso se dice que se trata del modelo no equilibrado.

Observación
De ahora en adelante se asume que las siguientes condiciones son verificadas por las t muestras:
-        Las observaciones proceden de poblaciones normales;
-        Las t muestras son aleatorias e independientes. Además, dentro de cada nivel las observaciones son independientes entre sí.
-        En el modelo de un factor se supone que las observaciones del nivel i, xij, provienen de una variable Xij de forma que todas tienen la misma varianza; Hipótesis de Homocedasticidad:

De este modo μi es el valor esperado para las observaciones del nivel i, y los errores eij son variables aleatorias independientes, con valor esperado nulo, y con el mismo grado de dispersión para todas las observaciones.
Otro modo de escribir lo mismo consiste en introducir una cantidad μ que sea el valor esperado para una persona cualquiera de la población (sin tener en cuenta los diferentes niveles), y considerar los efectos αi introducidos por los niveles, de modo que

Especificación del modelo ANOVA con un factor

Con todo lo anterior, el modelo ANOVA de un factor puede escribirse como
y con la siguiente interpretación:
μ es una constante común a todos los niveles;
αi es el efecto producido por el i-ésimo nivel. Al sumarlos todos deben compensarse los efectos negativos con los positivos para que la media común a todos los niveles sea realmente μ. Esto implica en particular que los efectos, αi, de los niveles no son independientes;
eij es la parte de la variable Xij no explicada por μ ni αi, y que se distribuye del mismo modo (aunque independientemente) para cada observación, según la ley Gaussiana:
Ésta es la condición de homocedasticidad, y es fundamental en el análisis de la varianza.
Obsérvese que ahora se puede escribir el contraste de que los diferentes niveles no tienen influencia sobre la observación de la variable como

Observación
Se utiliza el nombre de Análisis de la Varianza ya que el elemento básico del análisis estadístico será precisamente el estudio de la variabilidad. Teóricamente es posible dividir la variabilidad de la variable que se estudia en dos partes:
La originada por el factor en cuestión;
La producida por los restantes factores que entran en juego, conocidos o no, controlables o no, que se conocen con el nombre de error experimental.
Si mediante los contrastes estadísticos adecuados la variación producida por cierto factor es significativamente mayor que la producida por el error experimental se puede aceptar la hipótesis de que los distintos niveles del factor actúan de forma distinta.

Ejemplo del modelo ANOVA con un factor

Considérese dos muestras tomadas en diferentes niveles de una variable, de forma que ambas tengan la misma varianza muestral (lo que indica que no se puede rechazar la igualdad de varianzas poblacionales) y medias muestrales bastante diferentes. Por ejemplo:
La dispersión calculada al medir la de los dos niveles conjuntamente es mucho mayor que la de cada uno de ellos por separado. Por tanto puede deducirse que ambos niveles no tienen el mismo valor esperado.

Algo de notación relativa al modelo ANOVA con un factor

A continuación se va a introducir alguna notación para escribir los términos que serán más importantes a la hora de realizar un contraste por el método ANOVA. En primer lugar se tiene:
Usando estos términos se va a desglosar la variación total de la muestra en variación total dentro de cada nivel (intravariación) más la variación entre los distintos niveles (intervariación).

Observación
En el cálculo del estadístico SCT intervienen N cantidades, ligadas por una relación:
De este modo el número de grados de libertad de este estadístico es (N – 1). Por razones análogas se tiene que el número de grados de libertad de SCD es (N – t) y el de SCE es (t –1)
Así se introducen los siguientes estadísticos:
Estos son los estadísticos que realmente interesan a la hora de realizar el contraste de igualdad de medias. Cuando la diferencia entre los efectos de los diferentes niveles sea muy baja, es de esperar que la cuasivarianza total sea próxima a la intravarianza, o lo que es lo mismo, que la intervarianza sea pequeña en relación con la intravarianza.
Figura: En la figura de superior no existe una evidencia significativa en contra de que las medias de los tres grupos de observaciones coinciden. En la figura inferior sí.

RUTINA GENERAL DE UN ANÁLISIS DE VARIANZA


Considérese el contraste
Y suponiendo que se está en las condiciones del modelo factorial de un factor. Si H0 es cierta se puede demostrar que el siguiente estadístico se distribuye como una F de Snedecor:
Luego si al calcular Fexp se obtiene que Fexp > F(t-1),(N-t),(1- a) donde a es un nivel de significación dado, debiéndose rechazar la hipótesis nula (ya que si H0 fuese cierta, era de esperar que S2E fuese pequeño en relación con S2D).

Método reducido para el análisis de un factor

En este apartado se va a resumir lo más importante de lo visto hasta ahora, indicando la forma más sencilla de realizar el contraste. En primer lugar se calculan los siguientes estadísticos a partir de la tabla de las observaciones en cada nivel:
Entonces las siguientes cantidades admiten una expresión muy sencilla:
Y dado el nivel de significación α buscamos en una tabla de la distribución F de Snedecor el valor

Fteo = F(t-1),(N-t),(1- a)
Se calcula
Y dado el nivel de significación α buscamos en una tabla de la distribución F de Snedecor el valor
Para ver las fórmulas seleccione la opción "Descargar" del menú superior
Se rechaza H0 si Fexp > Fteo, como se aprecia en la Figura

Figura: Región crítica en un contraste ANOVA

Ejemplo del Método Reducido para el Análisis de un Factor

Se aplican 4 tratamientos distintos a 4 grupos de 5 pacientes, obteniéndose los resultados de la tabla que se adjunta. Queremos saber si se puede concluir que todos los tratamientos tienen el mismo efecto. Para ello vamos a suponer que estamos en condiciones de aplicar el modelo de un factor
Figura: Se rechaza la hipótesis de que los tratamientos tienen el mismo efecto en los tres grupos.  
Figura: Se rechaza la hipótesis de que los tratamientos tienen el mismo efecto en los tres grupos.
En conclusión, Fexp > Fteo, como se observa en la Figura por tanto se ha de rechazar la igualdad de efectos de los tratamientos.
En la Figura se representan las observaciones de cada nivel de tratamiento mediante una curva normal cuyos parámetros se han estimado puntualmente a partir de las observaciones. Obsérvese que las diferencias más importantes se encuentran entre los tratamientos 2 y 4. Esto motiva los contrastes de comparaciones múltiples (dos a dos), para que, en el caso en que la igualdad de medias sea rechazada, se pueda establecer qué niveles tuvieron mayor influencia en esta decisión.
Figura: Las diferencias más importantes se encuentran entre los niveles 2 y 4.

Análisis de los resultados del ANOVA: Comparaciones múltiples

Una vez contrastado el que existen diferencias significativas mediante el análisis de la varianza, interesa conocer que niveles del factor son los que han influido más para que se de este resultado. Como ilustración, en el último ejemplo se ve claramente que los tratamientos segundo y cuarto dan resultados muy diferentes, y probablemente de hay venga el que se haya rechazado la igualdad de todos los efectos.
El método más utilizado consiste en realizar todas las comparaciones por parejas:
Lo que corresponde a los ya conocidos contrastes de la t de Student, que tienen en este caso como estadístico experimental a (de nuevo suponiendo la homocedasticidad en todas las muestras):

ANOVA de Varios Factores

Se ha estudiado el modelo ANOVA de un factor, también denominado modelo de efecto fijo. Existen otros modelos denominados ANOVA de varios factores que no se van a estudiar aquí, pero que van a ser enunciados brevemente.
Como ilustración se puede escribir el modelo ANOVA de dos factores con interacción en el cual se tiene
Si se supone que no hay interacción entre ambos factores, es decir, cada factor actúa independientemente del otro, se tiene el modelo de efectos aditivos:

En ambos casos se supone que las cantidades ei1,i2j son independientes para todos los niveles i1 e i2 y todos los individuos j dentro de esos niveles, estando equidistribuidos y con la misma varianza según una Ley Gaussiana:
 

Consideraciones sobre las hipótesis subyacentes en el modelo factorial

Para aplicar el modelo de un factor se ha hecho, entre otras, las siguientes suposiciones:
-        Las observaciones de cada muestra han de ser independientes y también la de las muestras entre sí. Para ello se puede aplicar cualquiera de los Contrastes No Paramétricos de aleatoriedad. En principio esta aleatoriedad es algo que es bastante razonable admitir si la metodología para elegir los datos (muestreo) ha sido realizada siguiendo técnicas adecuadas.
-        Los datos han de ser normales en cada una de las muestras. Esto es algo que debería ser contrastado previamente antes de utilizar el ANOVA de un factor mediante, por ejemplo, el test de ajuste a la distribución normal mediante el estadístico χ2 que ya se conoce, o bien el test de d'Agostino.
-        Las varianzas de cada muestra son todas iguales, es decir:

CARACTERÍSTICAS DE LAS PRUEBAS NO PARAMÉTRICAS.



Características comunes de las Pruebas No Paramétricas

1. Independencia de las observaciones aleatorias a excepción de datos pareados.

2. Pocas asunciones con respecto a la distribución de la población.

3. La variable dependiente es medida en escala categórica.

4. El punto primario es el ordenamiento por rangos o por frecuencias.

5. Las hipótesis se hacen sobre rangos, mediana o frecuencias de los datos.

6. El tamaño de muestra requerido es menor (20 o <).



Ventajas de las Pruebas No Paramétricas

- Determinación sencilla. Mediante fórmulas simples de combinación.

- Fáciles de aplicar. Las operaciones matemáticas son la jerarquización, conteo, suma y resta.

- Rápidas de aplicar. Cuando las muestras son pequeñas.

- Campos de aplicación. A grupos mayores de poblaciones.

- Menos susceptibles a la contravención de los supuestos. Ya que los supuestos son escasos y menos complicados.

- Tipo de medición requerida. Se pueden utilizar con datos ordinales o nominales.

- Tamaño de la muestra. Cuando la muestra es < 10 son sencillas, rápidas y sólo un poco menos eficaces. Conforme aumenta el tamaño de la muestra se hacen más laboriosas y tardadas, y menos efectivas.

- Efectividad estadística. Cuando se satisfacen los supuestos de la prueba no paramétrica son igual de efectivas. Si se satisfacen los supuestos de una prueba paramétrica con muestras pequeñas son un poco menos efectivas y se vuelven menos eficaces a medida que aumenta el tamaño de muestra.


Desventajas de las Pruebas No Paramétricas

- Si se puede utilizar una prueba paramétrica y se usa una no paramétrica hay una pérdida de información.

- En muestras grandes las pruebas no paramétricas son muy laboriosas
 


[OBSEQUIO: ESTADÍSTICA NO PARAMÉTRICA: APLICADA A LAS CIENCIAS DE LA CONDUCTA. SIDNEY SIEGEL Y N. JOHN CASTELLAN]

PALABRAS CLAVES: #QuédateEnCasa, #CoronaVirus, #Covid-19, Universidad Central de Venezuela - UJAP - Universidad de Carabobo - UBA- Universidad Simón Bolívar - Universidad de Oriente - Universidad Santa María - Universidad Bicentenaria   

FUENTES BIBLIOGRÁFICAS Y DOCUMENTALES

BioMates (2003) Procesamiento de Estadístico de Datos Médicos. [Documento en Línea] disponible en: http://es.geocities.com/riotorto/nopa/nopa.htm [Consulta: 2004, abril 22]
Chao, Lincoln (1999) Estadística para las Ciencias Administrativas. México. Mc Graw-Hill, Tercera Edición
Ezequiel Uriel Jimenez y Joaquin Aldas Manzano (2005) Análisis Multivariante Aplicado. Thomsom Paraninfo, S.A.
García, A. Navarro, H. y R. Vélez (1995) Estadística II. Madrid UNED
Hernández Mendo, Antonio y Raúl Ramos Pollán (2001) ¿Qué es la informática aplicada a las ciencias del deporte? [Documento en línea] disponible en: http://www.efdeportes.com/efd33a/informa2.htm Revista Digital - Buenos Aires - Año 6 - N° 33 - Marzo de 2001, [Consulta: 2004, abril 23]
Mardia,   K.V.,   Kent,   J.T.   and   Bibby,   J.M.   (2003) Análisis multivariante aplicado. (Libro de bolsillo). Londres: Prensa académica.
Morrison,  D.F.  (2005) Métodos estadísticos multivariados.  4th   ed.  Belmont,  CA:  Brooks/Cole Thomsom Learning.
Pérez Leal, José (2004) Pruebas de Independencia. [Artículo en línea] disponible en: https://www.monografias.com/trabajos15/prueba-de-independencia/prueba-de-independencia.shtml [Consulta: 2018 agosto 15]
Pérez-Tejada, H. E. (2009) Estadística para las Ciencias Sociales, del Comportamiento y de la Salud. 3era Edición México. Editorial CENGAGE Learning
Richard   A.   Johnson   y   Dean   W.   Wichern   (2007).  Análisis estadístico multivariante aplicado. 6ta edición. Pearson, Prentice Hall.
Siegel Sidnay y John Castellan N. Estadística No Paramétrica; Aplicada a las ciencias de la conducta. México. Editorial Trillas
Srivastava,  M.S.  (2002) Methods  of  Multivariate  Statistics.  New  York:  John Wiley.
Universidad de Málaga (s/f) Bioestadística; Métodos y Aplicaciones. Malaga – España. Facultad de Medicina. Universidad de Málaga. [Documento en línea] Disponible en: http://ftp.medprev.uma.es/libro/html.htm, [Consulta: 2004, abril 22]

Comentarios