Revista Informática

Prueba de independencia de Chi-cuadrado

Publicado el 06 mayo 2020 por Daniel Rodríguez @analyticslane

En unas entradas anteriores hemos visto los efectos de la multicolinealidad en las variables cuantitativas y como identificar la relación mediante el uso de VIF. Para las variables categóricas también existen pruebas para comprobar si existe relación entre dos, es decir, si los valores de una variable cualitativa dependen de otra. Uno de la prueba más populares es la prueba de independencia de Chi-cuadrado (\chi^2). Si la prueba no muestra relación entre las dos variables, esto indica que conocer el valor de una variable no proporciona información de la otra. Esto es, no se puede obtener información de una a partir de otra. Por el contrario, cuando la prueba muestra relación entre las variables, esto indica que el valor de una se puede deducir a partir de la otra.

Fundamentos de la prueba de independencia de Chi-cuadrado

En la prueba de independencia de Chi-cuadrado se establecen una hipótesis nula (H_0) y otra alternativa (H_1), siendo estas:

  • H_0: las variables son independientes, por lo que no existe una relación entre las dos variables categóricas. Así, conocer el valor de una variable no ayuda a predecir el valor de la otra variable.
  • H_1: las variables son dependientes, existiendo una relación entre las dos variables categóricas. De este modo, conocer el valor de una variable ayuda a predecir el valor de la otra variable.

Estas hipótesis las evalúa comparando las frecuencias observadas en la muestra de datos con las esperadas si no existiese relación, esto es, la frecuencia esperada si la hipótesis nula es cierta. Cuando la diferencia entre la frecuencia observada y la esperada es pequeña, la hipótesis nula no se puede rechazar. No pudiéndose rechazar así el hecho de que las dos variables no estén relacionadas. Por otro lado, si existe una diferencia grande entre la frecuencia observada y la esperada, es posible rechazar la hipótesis nula. Concluyendo de este modo que las dos variables están relacionadas.

Determinación del valor crítico

El valor umbral, al que se llama valor crítico, para saber si la diferencia entre las frecuencias observadas en el conjunto de datos y las esperadas son grandes o pequeñas se calcula a partir de la distribución de Chi-cuadrado. Lo que da el nombre a la prueba. El valor crítico que dependerá del nivel de significancia deseo para la prueba y los grados de libertad.

Ejemplo de cálculo

En el caso de que tengamos un conjunto de datos con dos variables categóricas, para aplicar la prueba de independencia de Chi-cuadrado en primer lugar es necesario resumir los datos en una tabla de contingencia. Así para el siguiente ejemplo:

Frecuencias esperada

Ahora es necesario calcular las frecuencias esperadas en la tabla de contingencia si se asume que las dos variables fuesen independientes. Valores que se necesitan para comparar con los observados. Lo que se puede obtener multiplicando el número de ocurrencias para un nivel de la primera variable por el número de ocurrencias para un nivel de la segunda variable, dividendo por el total de ocurrencias. Es decir, se puede usar la siguiente expresión:

E_{ij} = \frac{n_1(i) * n_2(k)}{n}

donde n_1(i) es el número de ocurrencias de la categoría i en la variable 1, n_2(j) es el número de ocurrencias de la categoría j en la variable 2 y n es el número de ocurrencias totales. Así se puede obtener la tabla con los valores esperados

Es necesario tener en cuenta que la prueba de independencia de Chi-cuadrado solamente se debe aplicar si las frecuencias esperadas en todos los niveles sean iguales o mayores a 5. Lo que se cumple en nuestro ejemplo donde la frecuencia mínima esperada es 6. Cuando no se cumpla esta condición es preferible usar la prueba exacta de Fisher.

Cálculo del valor crítico

Para comparar las frecuencias esperadas con las observadas usaremos el siguiente estadístico

\chi^2 = \sum_{i,j} \frac{\left(O_{ij} - E_{ij}\right)^2}{E_{ij}}

donde O son los valores observados y E los esperados. En nuestro ejemplo este valor es de 9,3. Para saber si este valor es grande o no deberemos compáralo con el que da la distribución de Chi-cuadrado en función a los grados de libertad y el grado de significancia (generalmente de 0.05). Los grados de libertad se pueden calcular utilizando como el producto de los niveles menos uno de la primera variable por los niveles menos uno de la segunda, es decir, utilizando la siguiente expresión

df = (niveles_1 - 1)(niveles_2 - 1)

En nuestro caso, se puede ver fácilmente que el número de grados de libertad para el ejemplo es uno. Así, con la distribución inversa de Chi-cuadrado con grado de libertad 1 se puede obtener el valor crítico para nuestro ejemplo que es 3.8. Como el valor obtenido anteriormente 9,3 es mayor que el valor crítico se puede rechazar la hipótesis nula y concluir que las variables son dependientes

Conclusiones

En esta entrada hemos visto una prueba para determinar si dos variables cualitativas son independientes o no. Pudiendo identificar así las variables que son independientes en un conjunto de datos. El único problema de la prueba de independencia de Chi-cuadrado es que requiere que la frecuencia esperada se los datos sean mayor de 5, ya que en caso contrario el resultado no sería significativo. Siendo preferible en estos casos usar la prueba exacta de Fisher.

Imagen de Pepper Mint en Pixabay


Publicidad


Volver a la Portada de Logo Paperblog