Archivos Mensuales: marzo 2015

Solución Situación 80

1d: Si ordenamos la muestra de menor a mayor tenemos la muetra: (-100, 1, 1, 3, 3, 10, 20, 20) observamos que el primer cuartil es 1 por ser el promedio entre 1 y 1.

2c: El error estándar es 0.5 porque 10/raíz(400). Como es un intervalo de confianza de la media del 95% deberemos restar y sumar a la media dos veces ese valor, dando el intervalo (19, 21)

3c: Aunque se trata de una relación significativa, estamos ante una capacidad productiva muy baja. El coeficiente de determinación es sólo del 4%, porque 0.2 al cuadrado es 0.04 y pasado a porcentaje es el 4%, muy lejos del 50% necesario para hablar de suficiente capacidad predictiva.

4d: Sólo la OR de 1.7 y la de 0.5 son significativas. Por lo tanto, debemos comparar esas dos. Si pasamos 0.5 al otro lado tenemos 1/0.5 que es igual a 2. Como 2>1.7, el 0.5 indica mayor cantidad de relación.

5d: Si la tabla de contingencias observada y esperada son iguales la ji-cuadrado vale cero y, por lo tanto, el numerador de la V de Crámer es 0 y, por lo tanto, la V de Crámer vale 0.

6c: Como la Odds ratio no es significativa debe contener su intervalo de confianza del 95% al 1 y, por lo tanto, no puede ser cierto que ese intervalo no contenga al 1.

7a: Si el p-valor de una ji-cuadrado es mayor que 0.05 esto indica, evidentemente, que no podemos decir que existe una relación significativa entre esas variables cualitativas.

8d: Si se da la información de esta forma es porque existe suficiente ajuste a la distribución normal, por lo tanto, entre 15 y 25 tenemos aproximadamente el 68.5% de los valores. Por debajo de 15 y por encima de 25 tenemos el 31.5%. Por debajo de 15 tenemos la mitad de ese porcentaje: 15.75%, que es aproximadamente el 16% que afirma la respuesta “d”.

9d: El signo de la pendiente de una recta de regresión es exactamente el mismo que el signo de la correlación.

10b: El que la mediana y la media coincidan es una buena señal para pensar en que habrá simetría y no habrá asimetría, pero la asimetría es una mirada más global que es más exigente que la mirada sobre la igualdad o no de media y mediana. Por ejemplo, la muestra (0, 100, 100, 100, 100, 133.3, 133.3, 133.3) tiene media y mediana iguales (100) y se ve que hay una asimetría remarcable en su interior. El valor de 0 rompe la simetría. La Asimetría estandarizada de esta muestra es -2.38, que no está dentro del intervalo (-2, 2).

Anuncios

Situación 80: Examen (Temas 1-9)

1. En la muestra (10, 3, 3, 1, 1, 20, 20, -100):

a. La mediana es 1.

b. El rango es 80.

c. El rango intercuartílico es 15.

d. El primer cuartil es 1.

  1. Un intervalo de confianza del 95% de la media en una muestra con media muestral 20, desviación estándar 10 y tamaño muestral de 400 es:

a. (0, 40).

b. (19.5, 20.5).

c. (19, 21).

d. (18, 22).

  1. De una correlación r=0.20 (p=0.0001), podemos decir:

a. El tamaño muestral es pequeño porque la correlación es pequeña.

b. Hay una relación significativa entre las variables comparadas porque el coeficiente de determinación es mayor del 5%.

c. No podremos predecir con una precisión aceptable el valor de una variable a partir de la otra, mediante una Regresión, porque el coeficiente de determinación no es mayor del 50%.

d. El coeficiente de determinación es del 40%.

  1. ¿Cuál de las siguientes relaciones indica una relación más fuerte entre las dos variables cualitativas?

a. OR=1.7 (IC 95%: (1.2, 2.8)).

b. OR=0.2 (IC 95%: (0.001, 2.5)).

c. OR=15 (IC 95%: (0.3, 55)).

d. OR=0.5 (IC 95%: (0.3, 0.62)).

  1. ¿Cuál de las siguientes afirmaciones es cierta?

a. La Odds ratio mide la cantidad de relación que hay entre dos variables cuantitativas.

b. Una correlación de Pearson es significativa si el coeficiente de determinación es superior al 95%.

c. La V de Crámer si es negativa indica una relación de tipo inverso entre las variables.

d. Si la tabla de contingencias observada y la tabla de contingencias esperada son iguales entonces la V de Crámer es 0.

  1. Estamos tratando de asociar el consumo de una determinada dieta alimentaria y un determinado trastorno psiquiátrico. Nos dicen que la Odds ratio que mide la asociación entre esa dieta y ese trastorno es de 0.5 pero que no es significativa. No es cierto:

a. Que un intervalo de confianza del 95% de la Odds ratio contiene al 1.

b. Que la Odds ratio que asocia el no consumo de esa dieta con esa enfermedad es de 2.

c. Que un intervalo de confianza del 95% de la Odds ratio únicamente tiene valores inferiores a 1.

d. Que la ji-cuadrado previa ha dado un p-valor superior a 0.05.

  1. ¿Cuál de las siguientes afirmaciones es cierta?

a. Si una ji-cuadrado nos proporciona un p-valor mayor que 0.05 indica que no podemos decir, con el nivel de información que tenemos, que hay relación significativa entre las dos variables cualitativas estudiadas.

b. Si la tabla de contingencias observada y la esperada son idénticas el p-valor es 0.

c. Entre dos variables cuantitativas una ji-cuadrado positiva indica una relación directa entre las variables.

d. Una correlación negativa y significativa entre dos variables cuantitativas va seguida de una regresión lineal simple con pendiente también significativa, pero el signo de esa pendiente puede ser negativo o positivo según la disposición de los valores.

  1. Nos dicen que la concentración de dopamina en pacientes diagnosticados de Parkinson se puede resumir de la siguiente forma 20±5, podemos afirmar:

a. Que en la población hay aproximadamente el 2.5% de valores por debajo de 15.

b. Entre 15 y 25 tenemos aproximadamente el 95% de pacientes con Parkinson.

c. Por encima de 25 tenemos aproximadamente el 25% de la población de los pacientes de Parkinson.

d. Por debajo de 15 tenemos aproximadamente el 16% de pacientes con Parkinson.

  1. En una Regresión lineal simple es cierto:

a. Si la R2 es inferior al 95% tenemos una relación estadísticamente significativa entre las variables de la regresión.

b. Un coeficiente de determinación del 50% es compatible con una correlación r=-0.5

c. Si la pendiente de una recta de regresión es distinta de 0 entonces la correlación entre esas variables es significativa.

d. Si la ecuación de la recta es y=-2x+3, la correlación será negativa.

  1. ¿Cuál de las siguientes afirmaciones no es cierta?

a. Un intervalo de confianza de la media del 95% es más amplio que uno del 68.5%.

b. Una muestra con media y mediana iguales tendrá una Asimetría estandarizada dentro del intervalo (-2, 2).

c. Una tabla de contingencias observada igual a la esperada nos impide rechazar la hipótesis nula de independencia de las variables cualitativas que estamos relacionando.

d. Entre la mediana y el primer cuartil hay la misma proporción de individuos que entre el tercer cuartil y la mediana.

Solución Situación 79

1c: Si se ordena de menor a mayor la muestra vemos que el primer cuartil es -20 y el tercer cuartil es 3, por lo tanto el rango intercuartílico es 23 porque es la diferencia que hay entre 3 y -20; o sea: 3-(-20)=23.

2d: El error estándar es 2, porque 10/raíz(25) es igual a 2. Como es un intervalo de confianza de la media ese intervalo debemos construirlo mediante el error estándar, por lo tanto, como es un intervalo del 95%, debemos coger dos veces el error estándar y restarlo y sumarlo a la media muestral. Por lo tanto, tenemos un intervalo (16, 24).

3a: Una correlación de este nivel, pequeña en magnitud, únicamente resulta significativa si el tamaño de muestra es grande. Debe captarse mucha regularidad dentro de la dispersión y eso únicamente se logra con muestras de tamaño considerable.

Además, podemos descartar las otras opciones fácilmente:

El coeficiente de determinación no nos dice cosas de la significación sino de la capacidad pronóstica.

La significación en sí no nos apunta la capacidad pronóstica. Podemos tener una relación perfectamente significativa con una baja capacidad pronóstica, como es el caso de la información dada en este problema.

El coeficiente de determinación no es, obviamente, el 31%. Sería el cuadrado de 0.31 pasado a porcentaje.

4d: Únicamente son significativas las Odds ratios de 8 y de 0.1. Si pasamos la de 0.1 al otro lado para compararla obtenemos el valor de 10, porque (1/0.1)=10. Como 10>8, la “d” es la respuesta correcta.

5c: Si una tabla de contingencia tiene valores muy pequeños, porque el tamaño de muestra es muy pequeño podemos encontrarnos perfectamente con el caso de tener una tabla de contingencias no significativa y una V de Crámer muy grande.

6c: Si una Odds ratio de 0.2 es significativa su intervalo de confianza no puede contener al 1; por lo tanto: todos sus valores serán inferiores a 1, evidentemente.

7c: La ji-cuadrado no es una técnica para trabajar con variables cuantitativas.

8b: Dentro de cada cuartil tenemos un 25% de valores, por lo tanto, en toda muestra entre el primer cuartil y mediana y entre la mediana y el tercer cuartil tenemos el mismo porcentaje de valores y en la población aproximadamente también. Por lo tanto, en esta población estudiada entre 5 y 20 habrá aproximadamente el mismo porcentaje de personas que entre 20 y 25 porque estamos hablando de que 5 es el primer cuartil, 20 es la mediana y 25 es el tercer cuartil.

9b: El cuadrado de -0.5 es 0.25, pasado a porcentaje es 25%.

10c: Si la tabla de contingencias observada es igual a la esperada es obvio que no tenemos ningún argumento para rechazar la hipótesis nula puesto que la tabla esperada es construida bajo el supuesto de la no relación entre esas variables. Por lo tanto, en absoluto, podemos rechazarla esa hipótesis.

Situación 79: Examen (Temas 1-9)

  1. En la muestra (10, 3, 3, 1, 1, -20, -20, -100):

a. La mediana es 2.

b. El rango es 90.

c. El rango intercuartílico es 23.

d. El primer cuartil es 3.

  1. Un intervalo de confianza del 95% de la media en una muestra con media muestral 20, desviación estándar 10 y tamaño muestral de 25 es:

a. (0, 40).

b. (19, 21).

c. (18, 22).

d. (16, 24).

  1. De una correlación r=-0.31 (p=0.0001), podemos decir:

a. El tamaño muestral debe ser grande porque, de lo contrario, con este nivel de correlación no tendríamos esta significación.

b. Hay una relación significativa entre las variables estudiadas porque el coeficiente de determinación es menor del 50%.

c. Podremos predecir con una precisión aceptable el valor de una variable a partir de la otra, porque la relación entre ellas es significativa.

d. El coeficiente de determinación es del 31%.

  1. ¿Cuál de las siguientes relaciones indica una relación más fuerte entre las dos variables cualitativas?

a. OR=50 (IC 95%: (0.6, 250)).

b. OR=8 (IC 95%: (6.5, 13.5)).

c. OR=15 (IC 95%: (0.3, 55)).

d. OR=0.1 (IC 95%: (0.001, 0.22)).

  1. ¿Cuál de las siguientes afirmaciones es cierta?

a. La Odds ratio mide la significación que hay en la relación entre dos variables cualitativas.

b. Una correlación negativa es significativa si el coeficiente de determinación es superior al 50%.

c. Una V de Crámer de 0.9 y no significativa es posible si el tamaño de muestra es muy pequeño.

d. Si la tabla de contingencias observada y la tabla de contingencias esperada son iguales entonces la V de Crámer valdrá 1.

  1. Estamos tratando de asociar el consumo de una determinada dieta alimentaria y un determinado trastorno psiquiátrico. Nos dicen que la Odds ratio que mide la asociación entre esa dieta y ese trastorno es de 0.2, y que es significativa. Podemos afirmar:

a. Que un intervalo de confianza del 95% de la Odds ratio contiene al 1.

b. Que la Odds ratio que asocia el no consumo de esa dieta con esa enfermedad es de 2.

c. Que un intervalo de confianza del 95% de la Odds ratio únicamente tiene valores inferiores a 1.

d. Que la ji-cuadrado previa ha dado un p-valor superior a 0.05.

  1. ¿Cuál de las siguientes afirmaciones no es cierta?

a. Si una ji-cuadrado nos proporciona un p-valor mayor que 0.05 indica que no podemos decir, con el nivel de información que tenemos, que hay relación significativa entre las dos variables cualitativas.

b. Si la tabla de contingencias observada y la esperada son idénticas el p-valor es 1.

c. Entre dos variables cuantitativas una ji-cuadrado positiva indica una relación directa entre las variables.

d. Una correlación negativa y significativa entre dos variables cuantitativas va seguida de una regresión lineal simple con pendiente negativa y significativa.

  1. Nos dicen que la concentración de dopamina en pacientes diagnosticados de Parkinson se puede resumir de la siguiente forma 20 (5- 25), podemos afirmar:

a. Que podemos representar a esa población de la siguiente forma: 20±5.

b. Entre 5 y 20 tenemos aproximadamente los mismos pacientes con Parkinson que entre 20 y 25.

c. Por encima de 25 tenemos aproximadamente el 50% de la población de los pacientes de Parkinson.

d. Entre 20 y 50 tenemos aproximadamente el 75% de la población de los pacientes de Parkinson.

  1. En una Regresión lineal simple es cierto:

a. Si la R2 es superior al 50% tenemos una relación estadísticamente significativa entre las variables de la regresión.

b. Un coeficiente de determinación del 25% es compatible con una correlación r=-0.5

c. Si la pendiente es mayor que 1 la correlación es significativa.

d. Si la ecuación de la recta es y=2x+3, la correlación puede ser positiva o negativa, según sea la relación entre las variables directa o inversa.

  1. ¿Cuál de las siguientes afirmaciones es cierta?

a. Un intervalo de confianza de la media del 95% es más estrecho que uno del 68.5%.

b. Una muestra con media y mediana iguales tendrá una Asimetría estandarizada y una Curtosis estandarizada entre -2 y 2.

c. Una tabla de contingencias observada igual a la esperada nos impide rechazar la hipótesis nula de independencia de las variables cualitativas que estamos relacionando.

d. En una muestra entre la mediana y el primer cuartil hay la misma distancia numérica que entre el tercer cuartil y la mediana.

Un estudio para aplicar ANOVA, ANCOVA, ANOVA de medidas repetidas, Regresión simple y Regresión múltiple

Vamos a plantear un estudio para poder visualizar, a partir de él, el uso de técnicas tan importantes como el ANOVA, el ANCOVA, el ANOVA de medidas repetidas, la Regresión simple y la Regresión múltiple .

Para seguir mejor la teoría de estas técnicas se pueden consultar los siguientes ficheros: Tema 15: ANOVA,  Tema 30: Ampliación de ANOVATema 6: Introducción a la REGRESIÓNTema 12: Regresión múltiple y otros links de artículos que se van encontrando en el interior de estos temas.

Es interesante ver, a través de ejemplos de este tipo, las peculiaridades de diferentes técnicas. Es la forma de ir delimitando qué podemos hacer con cada una de las diferentes técnicas estadísticas que tenemos a nuestro alcance.

Veamos los datos del estudio que vamos a trabajar:

IMG_0783

Tenemos 30 alumnos que al final de sus estudios de primaria y antes de comenzar la ESO se les hace una prueba homologada de nivel de inglés escrito y de nivel de inglés oral. A continuación se distribuyen en tres grupos en un centro de bachillerato donde se va a realizar un experimento didáctico durante toda la ESO. Los primeros 10 (el grupo 1) van a un grupo Control donde realizarán la formación de inglés clásica en una asignatura anual de inglés cada uno de los cuatro cursos. El grupo 2 se integra en un grupo donde se realizan dos horas más semanales de inglés, pero mediante el método clásico. El grupo 3 se integra en un grupo donde cada año van a tener una asignatura (Biología, Física, Matemáticas, etc.) en inglés. Aunque en el centro son muchos los alumnos distribuidos de esta forma se ha hecho un seguimiento focalizado de estos 30 alumnos. (En realidad, esto se podría hacer con todos los alumnos pero lo supongo así para que el número de datos a manejar sea más pequeño y se pueda apreciar, mirando los datos, lo que las técnicas van mostrando).

Estos alumnos integrados en sus grupos respectivos van a ser sometidos a un examen de inglés oral al final de cada curso: IO1, IO2, IO3 e IO4.

De los 10 alumnos de cada grupo se han tomado 5 con un nivel de aprobado únicamente de primaria y otros 5 con un nivel de notable o sobresaliente de primaria. Son los dos grupos de la columna encabezada como Nivel.

En primer lugar se realiza un ANOVA de la variable InglésOral al final de primaria, en los tres grupos, con la finalidad de comprobar que realmente empezamos el experimento con tres grupos con el mismo nivel basal de inglés.

El resultado de este ANOVA con un único factor es el siguiente:

IMG_0785

En este primer caso mostramos la comprobación de la normalidad y la igualdad de varianzas, cosa que no haremos en el resto de casos, para ahorrar espacio, pero cosa que debe hacerse siempre, evidentemente.

La normalidad se comprueba con el Test de Shapiro-Wilk. Observemos que se hacen tres test: uno para cada uno de los grupos que tenemos. Los tres dan un p-valor por encima de 0.05, lo que permite mantener la hipótesis nula de ajuste a la normalidad. Para comprobar la igualdad de varianzas aplicamos el Test de Levene en este caso. Hay otros tests para ello, como también los hay para comprobar el ajuste a la normalidad. Mediante el Test de Levene comprobamos que, como el p-valor es también mayor que 0.05, podemos aceptar la igualdad de varianzas. Estamos pues en las condiciones del modelo ANOVA puesto que la independencia también se cumple. Son 30 alumnos elegidos en un instituto, ninguno de ellos es familiar de otro, no hay, por lo tanto, posibilidad de dependencia.

A continuación se aplica un ANOVA de un factor. Se observa que el p-valor es 0.7464. Esto nos indica que no hay diferencia de medias significativa en los niveles basales de estos tres grupos. Lo podemos visualizar en el gráfico de las medias con sus respectivos intervalos de confianza de la media del 95%. Hemos mostrado también, aunque en este caso no haría falta hacerlo, una prueba de comparaciones múltiples. En concreto el Test LSD. Evidentemente, en este caso, no hay ninguna diferencia significativa entre los tres grupos, como había mostrado previamente el ANOVA. En realidad, esta prueba únicamente se realiza si previamente el ANOVA ha detectado diferencias de medias significativas.

A continuación podemos hacer un ANOVA pero ahora ya con el nivel de inglés al final del primer año; o sea, con la variable IO1. Observemos que los resultados los tenemos en la primera de las dos tablas ANOVA que se muestran el el gráfico siguiente. Tenemos un p-valor de 0.2052. Con intervalos de confianza del 95% dela media todavía solapados. Es verdad que captamos un ligero aumento de la media del grupo 3 pero todavía lo capta como no significativa. Observemos que los intervalos todavía se solapan todos.

Pero debajo mostramos la aplicación de un ANCOVA. Muy importante en este caso. Porque las diferencias de media que hay entre los tres grupos no los capta como significativos el ANOVA hecho anteriormente porque ve que hay mucha dispersión de valores dentro de cada grupo. Esto la Estadística, cualquier técnica estadística, lo capta como un elemento que introduce dudas en las decisiones. Pero con el ANCOVA, al introducir como covariable el nivel de partida de los alumnos, de hecho estamos explicando esa dispersión y podemos disminuir los intervalos de confianza que ahora ya no se solapan. El grupo 3 se ha desprendido ya de los otros dos. Y el p-valor del factor grupo ya es significativo. Observemos con detenimiento la comparación del ANOVA (el primer análisis) y el ANCOVA (el segundo análisis):

IMG_0787

Si aplicamos a esa misma variable un ANOVA de dos factores: Grupo y Nivel, observemos que obtenemos algo en cierta forma similar a lo que obteníamos con el ANCOVA: ver diferencias entre los tres grupos, porque ahora, al introducir el factor Nivel, estamos comparando no los tres grupos entre sí, sino que comparamos los tres grupos pero nivel a nivel. Esto es más fino, porque comparamos grupos más homogéneos. De hecho, el ANCOVA, al introducir la covariable hace esto pero con una variable más fina, porque es cuantitativa y no cualitativa. Aunque en este caso hemos de tener en cuenta que una variable no es la discretización del nivel de inglés oral, es la discretización del nivel global que ha tenido el alumno a lo largo de los estudios primarios. Observemos los resultados:

IMG_0788

Observemos varias cosas en estos resultados:

En los tres grupos observamos unas comparaciones múltiples curiosas: el grupo 1 y el 3 muestra diferencias significativas, pero el 1 y 2 así como el 2 y 3 no son diferentes significativamente. Observemos que los intervalos de confianza de 1 y 2 se tocan y los de 2 y 3, aunque muy poco, se tocan un poquito también.

Y otra cosa importante: La interacción no es significativa. Observemos que en el gráfico de interacciones se observa un progresivo aumento en los grupos, del nivel de inglés oral, pero aunque se aprecia una cierta pérdida del paralelismo al llegar al grupo 3 (las medias están más separadas que en los otros grupos) no se trata de una interacción significativa puesto que el p-valor es 0.2216.

Si aplicamos ese mismo ANOVA pero con la variable IO4 observamos que las diferencias son claramente entre 3 y los otros dos grupos y observamos, también, cosa muy importante, que hay interacción ahora sí significativa (p=0.0363):

IMG_0789

Esta interacción es muy interesante porque está indicando que son los buenos alumnos los que aprovechan mejor un sistema como el ensayado en el grupo 3. Obsérvese que la IO4, en conjunto, aumenta, en el grupo 3, respecto a los otros dos grupos, pero, además, obsérvese que la diferencia entre el nivel bajo y el alto de alumnos es mucho mayor en el grupo 3 que no en los otros dos grupos: esto es lo que nos indica que hay interacción estadísticamente significativa.

Si quisiéramos analizar no un punto, como hemos hecho estudiando al final de la ESO, en cuarto, sino si quisiésemos analizar la evolución de los cuatro tiempos, ver si hay cambios y relacionarlo con los factores estudiados, deberíamos aplicar el ANOVA de medidas repetidas. Las notas al final de cada curso de la ESO se puede ver como un nivel de un factor intrasujetos; o sea, de un factor que tiene cuatro niveles temporales que se van midiendo a cada uno de los alumnos, a cada uno de los sujetos. Esto se podría analizar solo, con una ANOVA de medidas repetidas con ese único factor intrasujetos, pero también se podría analizar con un ANOVA de medidas repetidas que incorporara factores intersujetos; o sea, factores como los que hemos visto antes: los factores típicos del ANOVA, los factores donde en cada nivel hay diferentes individuos, diferentes sujetos a estudiar.

Si incorporarmos los dos factores intersujetos: Grupo y Nivel podemos hacer un ANOVA de medidas repetidas de un factor intrasujeto (los cuatro finales de los cuatro cursos de ESO) y los dos factores intersujetos que ya hemos estudiado. Ahora se analizarán no valores sino, digamos: perfiles de valores a lo largo de esos cuatro años. Se verá si hay cambios significativos en los cuatro años y si eso cambios son distintos según el Grupo, según el Nivel y según la interacción Grupo con Nivel.

Los resultados son los siguientes. Lo primero es la comprobación de la esfericidad de los datos. Esto es equivalente a la prueba de comparación de varianzas del ANOVA. El resultado es el siguiente:

IMG_0804

No hay esfericidad. La hipótesis nula es que hay esfericidad, como el p-valor es menor que 0.05 debemos rechazar tal hipótesis. Esto nos lleva a evaluar el ANOVA de medidas repetidas mediante métodos multivariantes; o sea, con los estadístico que se dan en la siguiente tabla:

IMG_0803

O con las modificaciones de los grados de libertad de la distribución F de referencia que introduce en el típico análisis de una tabla ANOVA  unas correcciones que se han propuesto históricamente para estos casos (Greenhouse-Geise, Huynh-Feldt o la llamada del “límite inferior”):

IMG_0805

En todo caso se llega a lo mismo prácticamente. Hay un cambio a lo largo del tiempo, cosa evidente si se ven los datos. Se podría decir: “sólo faltaría que no hubiera cambio a lo largo de los cuatro años en el nivel de inglés”. Lo interesante es aquí ver si hay interacciones entre el tiempo y los factores intersujetos: Grupo y Nivel. Tiempo con Grupo es claramente significativo, lo que nos indica que los perfiles de cambio a lo largo del tiempo son distintos según el grupo. No es significativo, sin embargo, Tiempo con Nivel, lo que nos indica que los dos niveles en conjunto no presentan una diferencia significativa en el perfil. Respecto a Tiempo con la interacción Grupo y Nivel estamos en la frontera: observemos que con métodos multivariantes estamos un poco por encima de 0.05 y, sin embargo, con el método ANOVA modificado estamos un poco por debajo o en la frontera (debemos tener en cuenta que estamos trabajando con pocos datos, con un tamaño de muestra expresamente pequeño para poder visualizar las cosas) del nivel de significación 0.05.

Observemos que es lógico ver lo que estamos viendo. Miremos, en primer lugar, los tres gráficos siguientes que son los dibujos de los perfiles, alumno a alumno, en función del grupo al que pertenecen. Recordemos que grupo 1 es el grupo control, que grupo 2 reciben alguna clase más de inglés tradicional y que el grupo 3 es que al que se le da una asignatura en inglés:

IMG_0809

IMG_0810

IMG_0811

Observemos que se trata de tres grupos de perfiles donde el tercero presenta una diferencia relevante con los otros dos. Es cierto que hay variación dentro de cada grupo pero hay una cierta homogeneidad en la forma de aumentar entre dentro de cada grupo y, además, la forma de aumentar en el grupo 3 es con mayor pendiente. Esto es lo que capta como significativo el análisis.

Veamos ahora lo mismo pero organizado por los dos niveles:

IMG_0812

IMG_0813

Ahora podemos observar perfectamente que hay bastante heterogeneidad de perfiles en cada uno de los dos grupos: en algunos alumnos hay bastante pendiente, en otros no. Esto impide poder decir que sea significativa la tendencia a tener mayor pendiente que tiene el nivel 2. No lo detecta como significativo. Cuando hay mucha dispersión interna en los grupos comparados es difícil que la estadística marque como significativas diferencias globales que haya entre esos grupos. Es lo que sucede aquí.

Respecto a los factores intersujetos individualmente los resultados son los siguientes:

IMG_0806

Grupo y Nivel son significativos y la interacción no. Aquí se miran los datos del tiempo agregados, sin tener en cuenta el perfil.

Regresiones es posible hacer muchas en este contexto. Una posible sería relacionar el Nivel oral de inglés con el escrito que tenemos de los alumnos al final de la primaria para pronosticar el nivel escrito de un alumno, y que aquí no tenemos, de los alumnos en cualquier momento. Es cierto que es posible que esta relación cambie con el tiempo. Es verdad, pero si no se tuviera más información sería factible hacerlo, teniendo en cuenta, como siempre que se hacen predicciones, que estamos en un territorio complejo.

Si hacemos una Regresión lineal simple entre el Nivel de Inglés escrito y el oral, como lo que querremos pronosticar será el escrito, esa variable será la que deberemos poner en la posición de la variable dependiente. Veamos el resultado:

IMG_0784

Tenemos un buen ajuste, con una buena R al cuadrado (94.6%). El modelo es:

InglésEscrito=1.04903*InglésOral+4.13641

Se traba de una buena modelización. En realidad, como hemos dicho, para pronosticar el nivel de inglés escrito a partir del conocimiento el nivel de inglés oral a finales de primaria. No tiene porque ser esa la relación que haya siempre, a cualquier nivel de la enseñanza. Sin embargo, esto nos enseña que uno tiene que usar, de la forma más coherente, la información que tiene, sabiendo las limitaciones en cada situación.

Otras regresiones podrían hacerse. Por ejemplo, grupo por grupo, podría hacerse el pronóstico, al acabar la primaria, del nivel de inglés oral que tendrá el niño o niña al final de la ESO. A continuación se muestran esas tres regresiones lineales simples. Con variable dependiente el nivel de inglés oral a los 4 años de ESO (IO4) y la variable independiente nivel de inglés al final de primaria (InglésOral):

IMG_0796

IMG_0797

IMG_0798

Como puede observarse la R al cuadrado, el denominado coeficiente de determinación es más grande en este tercer grupo, lo que indica que la capacidad predictiva es superior, en este caso.

Si ahora intentamos pronosticar una variable dependiente con dos o más variables independientes entramos en el ámbito de la Regresión múltiple.

Vamos a intentar, en primer lugar, pronosticar IO4 mediante InglésOral e InglésEscrito; o sea, mediante los dos datos que tenemos a finales de primaria. Por lo tanto, se trata de la construcción de un modelo que intenta pronosticar con esa información lo que sucederá cuatro años después. La regresión da lo siguiente:

IMG_0799

Si aplicamos el Stepwise regression, en su versión forward (hacia delante), el procedimiento acaba eliminado una variable, la InglésEscrito, puesto que el muy pequeño aumento de precisión que introduce teniendo ya la variable InglésOral no justifica su entrada puesto que existe colinealidad entre esas dos variables independientes y esto es muy perjudicial en las estimaciones de los coeficientes del modelo final. El resultado es, pues, el siguiente:

IMG_0800

Supongamos que estamos a comienzos de tercero de ESO y por lo tanto tenemos cuatro de las variables que hemos registrado. Y queremos hacer un pronóstico de la variable IO4; o sea, del nivel de inglés oral de un alumno al final de la ESO. La Regresión múltiple nos daría:

IMG_0801

Si aplicamos Stepwise regression:

IMG_0802

Como puede verse, puesto que se muestra el procedimiento paso a paso que sigue el procedimiento, al final acaba seleccionando únicamente dos de las cuatro variables independientes, en el modelo: InglésOral e IO2.

Aquí no estamos distinguiendo por grupos, hemos trabajado con los tres grupos por separado. Parece evidente que sería recomendable trabajar grupo por grupo para conseguir mejores predicciones.

Finalmente, facilito los datos por si alguien los quiere descargar y trabajar con ellos:

Alumno InglésEscrito InglésOral Grupo Nivel IO1 IO2 IO3 IO4
1 12 11 1 1 14 17 20 23
2 18 14 1 1 17 20 23 26
3 25 18 1 1 23 28 33 38
4 14 7 1 1 12 17 22 27
5 19 10 1 1 14 18 22 26
6 36 30 1 2 37 44 51 55
7 34 26 1 2 32 38 44 48
8 35 27 1 2 27 27 27 27
9 22 22 1 2 30 38 46 54
10 25 19 1 2 21 23 25 27
11 10 7 2 1 12 17 22 27
12 20 16 2 1 24 32 40 48
13 27 22 2 1 25 28 31 34
14 16 12 2 1 17 22 27 32
15 21 15 2 1 16 17 18 19
16 28 21 2 2 21 21 21 21
17 36 27 2 2 29 31 33 35
18 34 30 2 2 32 34 36 38
19 50 44 2 2 46 48 50 52
20 28 24 2 2 34 44 54 64
21 14 7 3 1 18 29 40 47
22 20 11 3 1 18 25 32 39
23 9 7 3 1 11 20 25 30
24 10 9 3 1 20 23 30 37
25 21 19 3 1 34 49 55 58
26 28 25 3 2 44 60 65 73
27 36 32 3 2 39 55 66 78
28 47 39 3 2 44 49 54 80
29 34 30 3 2 46 52 55 84
30 35 29 3 2 40 50 66 75

Un problema de Teorema de las probabilidades totales y Teorema de Bayes

Supongamos que en cierta población se estima que la probabilidad de que un niño padezca un tipo de sordera congénita es de 0.001.  Se estima también que 1 de cada 50 sordos es también invidente. Se estima, además, que la probabilidad de que un sordo no invidente adquiera el lenguaje oral es de 0.1, mientras que esta probabilidad baja a 0.01 en caso de sordos invidentes. Se pide:

1. Una estimación del porcentaje de sordos congénitos que adquieren el lenguaje oral.

2. Sabiendo que un sordo congénito que sabemos que ha adquirido el lenguaje oral calcular la probabilidad de que sea invidente.

Utilizaremos la nomenclatura:

S=Sordo congénito

SNI=Sordo no invidente

SI=Sordo invidente

LO=Lenguaje oral

Como hemos visto la clave de este tipo de problemas es dibujarlo. El dibujo recogiendo los datos del problema es el siguiente:

IMG_0769

La primera pregunta pide P(LO) y hace falta aplicar el Teorema de las probabilidades totales.

La segunda pregunta pide P(SI/LO) y hace falta aplicar el Teorema de Bayes.

Las respuestas son las siguientes:

IMG_0770

Como puede observarse en las solución de este problema no interviene la probabilidad que tenemos de que un niño nazca con la sordera congénita estudiada porque nos limitamos a movernos dentro del universo delimitado por la propia sordera.

 

 

Tema 30: Ampliación de ANOVA: ANOVA de medidas repetidas, ANCOVA, MANOVA y MANCOVA

1. En el Tema dedicado a la introducción al ANOVA (el Tema 15) vimos que hay una serie de conceptos que caracterizan el lenguaje de esta técnica de técnicas que es el ANOVA. Es tan técnica de técnicas el mundo ANOVA que las que vamos a presentar aquí (ANOVA de medidas repetidas, ANCOVA, MANOVA y MANCOVA) se pueden considerar, perfectamente, de hecho, parte de ese complejo y amplísimo mundo que es el ANOVA. Por eso, uso en este Tema la noción de ampliación de ANOVA, porque son variantes de esa técnica madre, porque podríamos decir que son técnicas derivadas del ANOVA.

2. Al hablar de conceptos que caracterizan el lenguaje ANOVA me estoy refiriendo a los conceptos de factor, nivel, factor fijo/factor aleatorio, factor cruzado/factor anidado, interacción o comparaciones múltiples. Estos conceptos también forman parte del ANOVA de medidas repetidas, del ANCOVA, del MANOVA o del MANCOVA, lo que sucede es que estas técnicas precisan de unas variantes conceptuales que vamos a ver a continuación y que no vimos en el tema introductoria del ANOVA.

3. Una ampliación de este lenguaje nos lleva a tener que introducir los siguientes conceptos siguientes conceptos no vistos en la introducción al mundo ANOVA:

a. Medidas repetidas.

b. Covariables.

c. Vector de variables respuesta.

4. Cada uno de estas tres conceptos nos llevan a una técnica distinta y que supone un paso hacia una mayor complejidad. Pero complejidad en muchas ocasiones necesaria porque la realidad estudiada no obliga a ello.

5. Las medidas repetidas nos llevan al ANOVA de medidas repetidas.

6. Las covariables nos llevan al ANCOVA (donde se añade la C de covariable).

7. El vector de variables respuesta nos lleva al MANOVA (de ANOVA multivariante, por eso la M).

8. Además, si a esta última técnica le añadimos la noción de covariable, llegamos entonces al MANCOVA (añadiendo la C de covariable).

9. Importante tener en cuenta (lo repito) que en estas variantes de ANOVA o técnicas derivadas del ANOVA, se usa todo lo que hemos visto en la introducción: factor, nivel, factor fijo/factor aleatorio, factor cruzado/factor anidado, interacción, comparaciones múltiples.

10. Veamos una a una las peculiaridades de esas técnicas que en realidad son derivadas del ANOVA porque, de hecho, amplian lo realizado allí a situaciones progresivamente más complejas.

11. En primer lugar veamos el ANOVA de medidas repetidas. En el punto 63 del Tema 15 introducía unos datos que podían analizarse con un modelo denominado de Bloques aleatorizados. En realidad, en ese ejemplo está el germen de lo que es el ANOVA de medidas repetidas. Recordémoslo.

12. El aquel punto del tema 15 hablaba de unos pacientes que son sometidos a cuatro condiciones que se quieren comparar. Todos los pacientes pasan por todas las condiciones. Lo que se quiere es estudiar si hay diferencias entre esas cuatro condiciones. No entre los pacientes. Los datos son los siguientes:

IMG_4866

13. El factor condición, con cuatro niveles, en realidad, son medidas repetidas realizadas a cinco pacientes. Cada paciente es sometido a las cuatro condiciones a comparar. Si este estudio se hubiera hecho con 20 personas distintas, y a 5 de ellas se los sometiera a la primera condición, a otros 5 a la segunda condición, etc., estaríamos hablando de un ANOVA de un factor a efectos fijos, pero como no es así lo debemos enfocar de otra forma.

14. En el Tema 15 vimos que esta situación planteada puede analizarse como Bloques aleatorizados pero esta opción queda limitada. No da más de sí. No se puede ampliar introduciendo más factores. Sin embargo, enfocarlo desde el mundo ANOVA de medidas repetidas nos abre un mundo de muchas posibilidades porque nos permite introducir mucha más complejidad, como veremos a continuación.

15. Supongamos que queramos no sólo comparar un grupo de pacientes, como es lo que hemos vistos antes, sino diferentes grupos de pacientes tratados de forma distinta, o recogidos en condiciones distintas.

16. Veamos los siguientes datos:

IMG_0748

17. Si se observa bien los grupos del nivel 1 del Factor añadido en la primera columna son los datos del ejemplo anterior. Sin embargo, ahora se ha añadido un segundo nivel que quiere también compararse con el primero. O sea, no sólo queremos ver si hay diferencias entre las distintas condiciones (que son medidas repetidas, medidas hechas a los mismos pacientes) sino también entre los distintos tratamientos (1 y 2, del Factor) o distintos tipos de pacientes que queremos también comparar para detectar diferencias entre ellos.

18. En estas situtaciones suele distinguirse entre INTERSUJETOS e INTRASUJETOS. Observemos que cuando comparamos las cuatro condiciones estamos analizando un factor INTRASUJETOS, estamos analizando cambios que ocurren dentro de un sujeto, estudiamos el perfil de los valores que tiene cada sujeto. Sin embargo, cuando analizamos los dos niveles del Factor de la primera columna estamos analizando un factor INTERSUJETOS, estamos comparando si hay diferencias entre los pacientes del grupo 1 y 2 en cuanto al conjunto de perfiles que tienen de las diferentes condiciones repetidas analizadas.

19. Si hacemos una mirada intrasujetos podemos ver que hay valores grandes, medianos y pequeños en cada sujeto pero hay una regularidad muy clara: En la Condición 3 (C3) cada individuo obtiene los valores más altos y la Condición 4 (C4) tenemos los valores más bajos. Hay una regularidad clara a ese nivel. Esto la técnica estadística lo captará como algo significativo porque es muy regular.

20. Esto que acabo de decir se ve tanto en los datos del punto 12 anterior donde sólo había un grupo de sujetos, como en los dos casos del punto 16 donde ahora hay dos grupos de sujetos a comparar. El intrasujetos es, por lo tanto, significativo en los tres casos. Si no se viera esa regulariadad la estadística nos diría que no hay diferencias significativas en el factor intrasujetos. Es lo que sucedería en los datos que se muestran a continuación:

IMG_0750

21. Observemos que son los mismos números de la tabla del punto 12 pero con otra disposición. Ahora no hay la regularidad que se veía allí. No hay significación en el factor intrasujetos. No hay diferencias entre las cuatro condiciones.

22. En los datos del punto 12 ó en estos últimos vistos, no hay nada más que hacer. Únicamente es posible analizar la influencia de ese factor intrasujetos. Pero en los datos del punto 16 sí es posible hacer más, puesto que tenemos, además, un factor intersujetos.

23. Si se observan los datos del punto 16 en los primeros parece que hay un ligero aumento del nivel 2 del factor columna, del factor intersujetos, pero que dada la enorme variación que tenemos la estadística no lo captará como significativo. Sin embargo, en los segundos datos el nivel 2 presenta valores mucho más elevados. Esa diferencias sí las captará, la técnica estadística, como significativa.

24. Este es, pues, el nivel introducido en el ANOVA de medidas repetidas: la posibilidad de hacer un ANOVA con uno o más factores, cruzados, anidados, fijos o aleatorios, pero con un factor cuyos niveles se evalúan a todos los individuos del estudio: es la variable que introduce las medidas repetidas y es la que tiene la particularidad de ser intrasujetos, porque se mide a todos sujetos. En el ANOVA no existía este tipo de situación, todo era, digamos, intersujetos. Cada sujeto se media la variable una única vez.

25. Los diferentes softwares estadísticos que tienen incorporada la técnica ANOVA de medidas repetidas pide cuál es el factor intrasujetos y cuál o cuáles los factores intersujetos. Si sólo hay factor intrasujetos (el caso del punto 12) no se introducen factores intersujetos y, por lo tanto, únicamente nos aportará la significación o no de ese factor intrasujetos. Si hay uno o más factores intersujetos se deberán especificar y tendremos también significación de esos factores.

26. Veamos ahora el ANCOVA. Ahora tenemos un ANOVA con uno, dos, etc, factores. Como siempre tenemos una variable respuesta a estudiar pero, la peculiaridad es que, ahora, además, tenemos medida otra variable cuantitativa a cada sujeto del estudio que puede ser responsable de la variación vista en la variable respuesta. O sea, además de la influencia de los factores estudiados tenemos una variable cuantitativa que puede estar explicando también las variaciones que vemos. A esta variable la denominamos Covariable.

27. Veamos un ejemplo: Supongamos los siguientes datos:

IMG_0751

28. Tenemos un caso de ANOVA de un factor con tres niveles y una variable respuesta. El ANOVA nos va a permitir detectar si hay diferencias entre esos tres niveles. Si hacemos un ANOVA tenemos los siguientes resultados:

IMG_0752

29. Como puede verse el p-valor es superior a 0.05. Es verdad que la media muestral del grupo 3 es superior a la del grupo 2 y ésta superior a la del grupo 1. Pero, hay mucha dispersión. Además, el tamaño muestral es pequeño, claro. Pero la dispersión es enorme.

30. Supongamos que tenemos una variable que medida individuo a individuo, al mismo tiempo que medimos la variable respuesta del estudio, vemos que presenta correlación con la variable respuesta que es la variable que queremos realmente analizar. Esa variable puede ser que explique la dispersión de resultados. Entonces, si la introducimos como covariable, esta variable va a explicar dispersión y va a poder comparar las diferencias entre los tres grupos descontando el efecto que cada individuo sufre como consecuencia de la acción de esa variable.

31. Veamos los resultados que obtenemos si introducimos esta covariable:

IMG_0753

32. Ahora sí que es un factor significativo. Observemos que el p-valor es 0.0069. Y eso es gracias a que la dispersión que antes nos impedía ver diferencias entre los grupos ahora la vemos explicada por esa covariable y, por lo tanto, la comparación entre los tres niveles se hace mirando de descontar el efecto perturbador y confusor que introduce esa covariable.

33. Detectar covariables, como detectar otros factores que influyan introduciendo variación es fundamental a la hora de diseñar un ANOVA más eficaz, un ANOVA que acabe comparando de la forma lo más pura posible los tratamientos o las condiciones que realmente queremos comparar.

34. Veamos ahora el MANOVA. Se trata de un ANOVA pero con la peculiaridad de que en lugar de una variable respuesta tenemos un vector respuesta. O sea, dos o más variables respuesta, al mismo tiempo. Y queremos ver el efecto, o los efectos, del factor, o de los factores, que estamos estudiando no para una variable sino para un grupo de variables al unísono, al mismo tiempo. Queremos detectar igualdad o diferencia no de valores de una variable sino de valores de punto definidos por muchas variables.

35. Hay algo que puede ayudar a ver cómo actúa el MANOVA y por qué es necesario muchas veces. Veamos el siguiente dibujo:

IMG_0754

36. Tenemos aquí dos muestras de dos grupos que han podido ser tratados de forma diferente y que queremos comparar. Tenemos medidas de dos variables respuesta: la variable x y la variable y. Si hacemos un ANOVA con esos dos grupos para la variable x y otro ANOVA para la variable y, veremos que los dos grupos se ven desde esas variables muy solapados, lo que nos llevará a no ver diferencias significativas en ninguna de las dos variables:

IMG_0755

37. Observemos que en los ejes están dibujadas las proyecciones, que es lo que en realidad veríamos si analizáramos x e y por separado. Puede verse perfectamente que ambos grupos se ven muy solapados. Sin embargo, los dos grupos, vistos conjuntamente mediante las dos variables x e y, al mismo tiempo, se ve claro que están separados, que ocupan posiciones significativamente distintas en el plano.

38. Si se entiende esto se ve perfectamente que no es lo mismo hacer tantos análisis ANOVA como variables respuesta tengamos que hacer un MANOVA de todas las variables respuesta al unísono, viéndolas conjuntamente.

39. Todo lo demás, es igual, factores, niveles, etc. Lo importante es ver que el MANOVA trabaja con dos o más variables respuesta al mismo tiempo, pero todo lo demás es exactamente igual.

40. Y evidentemente el MANOVA puede incorporar también una o más covariables, siendo entonces un MANCOVA lo que estamos aplicando.

41. En el fichero Un estudio para aplicar ANOVA, ANCOVA, ANOVA de medidas repetidas, Regresión simple y Regresión múltiple, puede verse un ejemplo de aplicación de estas técnicas.