Tema 15: ANOVA

1. La técnica de técnicas denominada Análisis de la varianza (ANOVA), del acrónimo Analysis of variance: ANalysis Of VAriance, tiene como objetivo básico la comparación de las medias de más de dos poblaciones.

2. El nombre de Análisis de la varianza, sin embargo, no es muy afortunado. En el ANOVA se comparan siempre las medias de varias poblaciones y se hace a través de un contraste de hipótesis donde se analiza la varianza, es cierto; pero no sólo eso, porque también se analizan las diferencias de medias que hay entre las muestras, y también, por supuesto, como siempre en Estadística, se analiza el tamaño de muestra.

3. Las técnicas de comparación siempre analizan estos tres elementos: dispersión, diferencias de medias y tamaño muestral. Por lo tanto, ANOVA es, en realidad, una metonimia: se habla del todo a partir de una parte. Porque, en realidad, la técnica que vamos a ver en este tema, se debería denominar: Análisis de la varianza, de la diferencia de medias y del tamaño muestral.

4. En el Tema 13: Introducción a las técnicas de comparación he explicado cómo influyen estos tres elementos (diferencia de medias, dispersión y tamaño de muestra) en las comparaciones de dos poblaciones. Lo visto allí es fácilmente generalizable a la comparación de más de dos poblaciones, porque el mecanismo de fondo usado para comparar más de dos poblaciones es, en realidad, equivalente al usado para comparar dos poblaciones.

5. Para entender bien la complejidad del ANOVA hemos de ver una serie de conceptos básicos que nos permitirán conocer el vocabulario que maneja el lenguaje de esta técnica.

6. El primero de esos conceptos es el de factor. Un factor en ANOVA es una variable cualitativa que genera o que contempla una serie de poblaciones a comparar. A estos grupos o poblaciones que un factor delimita se les denomina “niveles del factor”. Pe: Imaginemos que estamos comparando el peso de un tipo de insecto en tres localidades distintas: diríamos que trabajamos con el factor localidad y que ese factor tiene tres niveles: las tres localidades concretas. Veamos unos datos posibles y cómo estarían estructurados:

2

7. Otro ejemplo: Supongamos que estamos comparando, en un estudio clínico, cuatro fármacos diferentes aplicados a una serie de pacientes diagnosticados de una determinada patología. Ahora tenemos el factor fármaco con cuatro niveles. La estructura que tendríamos ahora sería muy similar a la anterior pero con cuatro columnas en lugar de tres.

8. Otro concepto importante en ANOVA: Un factor puede ser fijo o aleatorio. Fijo es cuando los niveles que se estudian son los únicos niveles que interesan. Aleatorio es cuando los niveles que se estudian es una muestra de niveles. Lo que interesa, realmente, es decir cosas de una población de niveles, no de la muestra de niveles que hemos seleccionado para el estudio.

9. Supongamos el siguiente ejemplo: Estamos estudiando la calidad del producto fabricado por operarios en una empresa. Tenemos 50 operarios trabajando en la manufactura del producto que comercializa nuestra empresa.

10. Supongamos que queremos comparar al operario A, que es de nuestra confianza, es una referencia para nosotros, con los operarios B y C, que son operarios que queremos evaluar expresamente porque creemos que no elaboran el producto con la calidad deseada. Para ello se toma una muestra de cuatro productos fabricados por cada uno de estos tres operarios. Estamos en un caso de un factor fijo (el factor operario), con tres niveles. El ANOVA a utilizar sería, en este caso, un ANOVA de un factor a efectos fijos.

11. Supongamos que ahora lo que queremos es ver si entre los 50 operarios hay diferencias en cuanto a la calidad del producto elaborado y no podemos estudiar producto de los 50 operarios. Entonces seleccionamos tres operarios al azar y tomamos una muestra de cuatro productos fabricados por cada uno de esos tres operarios. Estamos ahora ante un caso de un factor aleatorio (el factor operario), de donde hemos tomado una muestra de tres operarios al azar. El ANOVA a utilizar sería, en este caso, un ANOVA de un factor a efectos aleatorios. Pero aunque detrás tengamos una finalidad diferente, la estructura de los datos será la misma, algo así como lo siguiente:

6

12. El ANOVA puede tener uno, dos, tres, cuatro, etc., factores. Sin embargo, lo más habitual es tratar con un número reducido de factores. Y cada uno de esos factores puede ser fijo o aleatorio.

13. Otro concepto importante en ANOVA: Cuando tenemos dos o más factores éstos pueden estar, entre sí, dos a dos, cruzados o anidados.

14. Dos factores están cruzados cuando todos los niveles de un factor se cruzan, se combinan, con todos los niveles del otro factor.

15. Supongamos que en un estudio clínico ensayamos dos tipos de antihipertensivos: un IECA y un ARA II. Cada uno es un factor y sus dos niveles son ausencia y presencia. Y se cruzan: o sea, unos pacientes son tratados con placebo (sin nada), otros sólo con IECA, otros sólo con ARA II y, finalmente, un grupo de pacientes es tratado con los dos antihipertensivos al mismo tiempo. Para simplificar supongamos que se trata a una única dosis, por eso los niveles por factor son únicamente dos: ausencia y presencia. Para ver cómo sería la estructura y la disposición de unos datos posibles observemos el siguiente ejemplo:

3

16. Son dos factores cruzados porque se combinan todos los niveles de un factor con todos los niveles del otro factor, como hemos visto. Observemos que la combinación No con No es el Placebo. Esta combinación unida a las otras tres posibles, según se combinen No con Sí, o Sí con Sí, configuran los cuatro cruces posibles entre dos factores cada uno con dos niveles.

17. Dos factores están anidados (uno dentro de otro) cuando los niveles de uno se combinan, jerárquicamente, entre los niveles del otro.

18. Supongamos, por ejemplo, que queremos ver la influencia que tienen, en los resultados de calidad de un producto, la máquina y el operario. Y tenemos cuatro tipos de máquinas y dos operarios. El primer operario trabaja en las máquinas 1 y 2, el segundo en la 3 y la 4.

19. Tenemos, pues, dos factores: máquina (con cuatro niveles) y operario (con dos niveles). Y están anidados. No están cruzados. Dos máquinas las usa un operario y las otras dos máquinas las usa el otro operario. Observemos cómo sería la estructura de unos datos posibles:

4

20. Obsérvese que el Operario A trabaja sólo con las Máquinas 1 y 2. Y el Operario B lo hace únicamente con las Máquinas 3 y 4. Esta es la disposición de los datos anidados o jerarquizados.

21. Si este mismo estudio lo hiciéramos con factores cruzados cada operario debería usar las cuatro máquinas y, entonces, los datos tendrían la siguiente estructura:

5

22. En ANOVA, como técnica de comparación que es, el objetivo es contrastar la Hipótesis nula de igualdad de niveles de un factor versus la Hipótesis alternativa de no igualdad de esos niveles. Esto se hace para cada factor contemplado en el ANOVA.

23. Además, en el ANOVA de dos o más factores cruzados, podemos valorar algo muy importante: la interacción entre factores.

24. Interacción entre factores significa que la variable estudiada, la variable dependiente, se comporta, ante niveles de un factor, dependiendo de cuáles sean los niveles del otro factor. O sea, que la variable estudiada tiene un valor que es función de la combinación que se dé de niveles. Después, con los ejemplos, se entenderá mejor esta importantísima noción.

25. En la sección HERBARIO DE TÉCNICAS de este Blog podremos ver cómo es cada una de las técnicas de ANOVA más importantes (hay que tener en cuenta que si se tienen dos factores, y no se dice lo contrario, esos factores están cruzados):

ANOVA de un factor a efectos fijos.

ANOVA de un factor a efectos aleatorios.

ANOVA de dos factores a efectos fijos.

ANOVA de dos factores a efectos aleatorios.

ANOVA de dos factores a efectos mixtos (uno fijo y uno aleatorio).

ANOVA de dos factores anidados a efectos fijos.

ANOVA de dos factores anidados a efectos aleatorios.

ANOVA de dos factores anidados a efectos mixtos.

ANOVA de un factor fijo con bloques aleatorizados.

ANOVA de cuadrados latinos.

26. En todas estas técnicas el objetivo básico será contrastar la hipótesis de igualdad o diferencia entre los distintos niveles en cada factor. Y si hay más de un factor y están cruzados contrastar la existencia de interacción entre esos factores. La importancia de diferenciar entre modelos diferentes es porque, como puede verse en cada uno de ellos, el cálculo de los p-valores para evaluar la significación es diferente según sean factores fijos o aleatorios, cruzado y anidados. Para ampliar todo esto ver el fichero Algoritmo de Bennet-Franklin.

27. Vamos a ver ahora algo muy importante en las técnicas ANOVA. Recordemos que la hipótesis alternativa en el análisis de cada uno de los factores es “la no igualdad de niveles”.

28. Pero esta “no igualdad” puede ser por motivos muy diferentes. La igualdad de la H0 es sólo una, pero la desigualdad de la H1 puede tener paisajes muy diferentes. Supongamos, por ejemplo, un factor con cuatro niveles. La aceptación de H1 puede ser porque los cuatro niveles son diferentes o porque dos son iguales, los otros dos también y las diferencias se dan entre esos dos grupos de niveles, etc.

29. Hay, por lo tanto, muchas formas de cumplirse la H1. Si hay dos niveles sólo hay una posible H1, que un nivel sea mayor que el otro; pero si hay más de dos niveles en un factor la H1 contempla muchas alternativas posibles.

30. Pues bien, las técnicas llamadas “Comparaciones múltiples”, también llamadas, en ciertos ámbitos, pruebas “Post hoc”, tratan de elegir una de esas muchas posibles afirmaciones que, de hecho, están comprimidas dentro de la Hipótesis alternativa, dentro de H1.

31. Con estas técnicas dibujamos, perfilamos, concretamos, la forma de la H1, lo que específicamente podemos afirmar en ella.

32. Existen diversas técnicas de Comparaciones múltiples: LSD de Fisher, Bonferroni, HSD de Tuckey, Duncan, Newman-Keuls, Scheffé (Ver Herbario de técnicas para ver en qué consisten cada una de ellas). Estas son las más usadas y las más prestigiosas. Todas hacen lo mismo pero con distinto nivel de conservadurismo. Unas ven antes que otras diferencias entre niveles. Sin embargo, cuando las cosas son claras todas esas técnicas trazan el mismo dibujo de la hipótesis alternativa. Sólo cuando hay dudas, cuando las diferencias no son muy claras, pueden aparecer diferencias. Para ver una visión comparativa de todas ellas ver el artículo Comparación entre técnicas de comparaciones múltiples.

33. Lo peculiar de estas técnicas es que, mediante un único contraste de hipótesis, se realizan múltiples comparaciones dos a dos. La idea nuclear de todas ellas es la creación de un umbral. Una diferencia de dos de las medias de los niveles del factor que esté por encima de ese umbral se considerará diferencia significativa y si, por el contrario, esa diferencia está por debajo de ese umbral se considerará una diferencia no significativa. Cada una de esas comparaciones múltiples crea un umbral distinto según un criterio diferente.

34. Es de esta forma cómo cada una de esas técnicas de comparaciones múltiples llega a establecer la posición relativa de un nivel respecto a todos los demás y se puede dibujar, así, con el nivel de información que tenemos, cuál es el mejor perfil concreto a asignar a la Hipótesis alternativa, a H1.

35. El ANOVA necesita que se cumplan unas suposiciones. Básicamente tres: 1) Normalidad de los datos. 2) Igualdad de varianzas. 3) Independencia de los datos. En la sección Herbario de técnicas podrán verse las técnicas más usuales para comprobar estas suposiciones. El Test de la ji-cuadrado de ajuste a una distribución, el Test de Kolmogorov de ajuste a la distribución normal o el Test de Shapiro-Wilk, para la normalidad; el Test de Bartlett para la igualdad de varianzas o el Test de Durbin-Watson para la independencia.

36. De no cumplirse las condiciones hay que utilizar una técnica no paramétrica, como el Test de Kruskal-Wallis cuando tenemos un único factor.

37. Vamos a ver ejemplos de aplicaciones de la técnica ANOVA. Empezaremos con el caso de los primeros datos que hemos mostrado. Se trata de una estudio donde se compara el peso de un tipo de insecto en tres localidades distintas. El factor localidad y tiene tres niveles y se trata de tres localidades concretas, por lo tanto estamos ante un caso de ANOVA de un factor a efectos fijos. Recordemos los datos:

2

38. Antes de mostrar los resultados obtenidos podemos ver que la media de localidad 3 es la mayor. Es una media de 3.87. La media de la localidad 1 es 3.47. La de la localidad 2 está entre ellas: 3.67. El problema es: ¿Son estas diferencias estadísticamente significativas? El tamaño de muestra juega en contra de la significación. Hay sólo dos datos. Pero la dispersión es pequeña, esto iría a favor de la significación.

39. Si hacemos el análisis nos encontramos que el p-valor del contraste de hipótesis de igualdad de medias es 0.0331. Como es menor que 0.05 rechazamos la Hipótesis nula. Observemos la tabla ANOVA que es el procedimiento técnico para realizar este contraste de hipótesis:

IMG_4569

40. Si comprobamos la normalidad de los datos, mediante el Test de Kolmogorov, tenemos un p-valor de 0.96, por lo tanto, como es mayor que 0.05 aceptamos la Hipótesis nula de normalidad (en los tests de bondad de ajuste a la normal la Hipótesis nula es normalidad). Si comprobamos la igualdad de varianzas, aplicando el Test de Bartlett, tenemos un p-valor de 0.66, lo que indica que podemos aceptar la Hipótesis nula de igualdad de varianzas. Con el Test de Durbin-Watson comprobamos que no haya autocorrelación entre los datos y tampoco la hay. Esto nos indica que se cumplen las principales suposiciones: la normalidad, la igualdad de varianzas y la independencia de los datos y que, por lo tanto, el p-valor que hemos calculado en la tabla ANOVA es fiable, está basado en unas suposiciones correctas.

41. Pero ahora debemos aplicar un Test de comparaciones múltiples para tratar de ver el porqué no hay igualdad entre las medias. Si aplicamos el Test LSD vemos que la localidad 1 no es distinta significativamente a la 2, la 2 no lo es tampoco de la 3 pero la 1 y la 3 sí que lo son. O sea, que el motivo del rechazo de la igualdad de medias es porque las localidades 1 y la 3 tienen insectos con peso significativamente distinto. Veamos a continuación un gráfico que ilustra extraordinariamente lo que estoy diciendo:

IMG_4570

42. Se trata de un gráfico de los intervalos de confianza del 95% de la media de cada una de las localidades. Puede verse, perfectamente, que, en una mirada horizontal, la localidad 1 y la 2 tienen intervalos que se solapan. Pensemos que son intervalos de la media poblacional, por lo tanto, estamos hablando de que podría ser que la media poblacional de la localidad 2 estuviera por debajo de la media poblacional de la localidad 1, aunque la media muestral de la localidad 2 esté por encima de la media muestral de la localidad 1. Pensemos que estamos infiriendo, que la muestra es un medio, no un fin. Están (como diríamos en política con las horquillas) en empate técnico, cualquiera puede estar, poblacionalmente, por encima. Entre la localidad 2 y 3 sucede lo mismo: se solapan. Pero entre localidad 1 y 3 la separación entre intervalos de la media es clara. Por esto se rechaza la Hipótesis nula de igualdad de media en el ANOVA, por esta diferencia entre la localidad 1 y la localidad 3.

43. Y con esto habríamos concluido el análisis. Observemos todos los pasos. Observemos bien todo lo que hemos hecho y las conclusiones que al final sacamos.

44. Vamos a ver ahora otra aplicación. Supongamos el siguiente estudio:

IMG_4571

45. Este es un caso interesante para visualizar un estudio donde es aplicable un ANOVA de dos factor a efectos fijos. Observemos que la media más baja es la de los tres valores de resistencia de la mucosa de los profesores que tomaron el placebo (No Vitamina A y No Vitamina E). Cuando toman sólo Vitamina A o sólo Vitamina E la resistencia aumenta en torno a una 20 unidades de mayor resistencia. Sin embargo, cuando se combinan ambas vitaminas la resistencia aumenta más que la suma de lo obtenido por una y otra vitaminas. No aumenta 40 sino que aumenta en torno a 60 unidades más. Esto es lo que nos detectará la interacción.

46. Se comprueban las suposiciones y todas se cumplen: normalidad, igualdad de varianzas e independencia. Aquí la tabla ANOVA nos proporcionará tres p-valores: uno para el factor vitamina A, otro para el factor vitamina E y otro para la interacción. Los tres son p-valores inferiores a 0.05, lo que indica que la presencia de cada una de las dos vitaminas aumenta la resistencia de la mucosa y que, además, al darse interacción significativa estamos ante la presencia de una correlación entre ambas vitaminas, que en este caso indica que la presencia de las dos conjuntamente producen una sinergia positiva.

47. Observemos a continuación el gráfico de interacción entre ambos factores:

IMG_4572

48. Pueden observarse en este gráfico cuatro asteriscos: son las medias de las cuatro condiciones experimentales del estudio, que podríamos simplificar mediante las categorías: no-no, no-sí, sí-no, sí-sí. Observemos en el eje de las abscisas la no presencia y la presencia de Vitamina A y observemos, también, que los dos colores unen puntos con el mismo nivel de Vitamina E. El no-no es el placebo, es el valor más bajo. El sí-sí es el valor de media superior y observemos que su valor está muy por encima del que esperaríamos si no hubiera interacción. De no haber interacción esperaríamos que las dos rectas del gráfico fueran paralelas.

49. De la misma forma que en este caso vemos sinergia positiva podemos ver, en otros casos, sinergia negativa. Supongamos que en el gráfico anterior la recta roja en lugar de subir hubiera bajado cruzándose con la azul dibujando una X: estaríamos hablando también de interacción, pero la interpretación sería otra: diríamos que ambas vitaminas están en sinergia negativa; o sea, que cada una de ellas hace su efecto pero al combinarlas se pierde todo lo que individualmente hacen.

50. Vamos a ver un ejemplo de dos factores pero anidados:

IMG_4577

51. Se trata de dos factores fijos, porque se han tomado cuatro hospitales concretos que quieren estudiarse, y dos fármacos también concretos. Son, además, dos factores que no están cruzados, están anidados. Observemos que el fármaco 1 se ensaya únicamente en los Hospitales 1 y 2 y que el fármaco 2 se ensayo sólo en los Hospitales 3 y 4. Estamos, pues, ante un ANOVA de dos factores anidados a efectos fijos.

52. Supongamos también que hemos ya comprobado la normalidad de los datos, la igualdad de las varianzas y la independencia de los datos. Ahora el ANOVA nos proporcionará dos p-valores sobre dos contrastes de hipótesis. Una hipótesis nula es la igualdad entre hospitales, la otra la igualdad entre fármacos.

53. Observemos los datos. ¿Qué podemos decir si los comparamos con detenimiento? Una cosa importante: se sabe Estadística cuando uno es capaz de saber lo que dará una técnica antes de aplicarla, mirando los datos. Mirémoslos, pues. ¿Qué se observa? Realmente si aprendemos a mirar estos datos aprenderemos las peculiaridades de un ANOVA de factores anidados.

54. Para ayudarnos a sacar conclusiones de nuestros datos, veamos los tres siguientes grupos de datos posibles:

IMG_4575

55. Tenemos tres situaciones distintas. En el caso de arriba observemos que la diferencia está centrada entre fármacos. Al pasar del fármaco 1 al 2 es cuando vemos diferencias. Sin embargo, cuando estamos en un fármaco u otro entre hospitales no hay diferencias remarcables. Por lo tanto, hemos de pensar que en este caso habrá diferencia significativa entre fármacos pero no entre hospitales. Como así sucede si aplicamos la técnica ANOVA a estos primeros datos.

56. En el caso del medio observemos que la diferencia está centrada, ahora, entre hospitales. Al pasar del fármaco 1 al 2 no vemos diferencias, el patrón se repite. Sin embargo, cuando estamos en un fármaco u otro entre hospitales sí hay diferencias destacable. Por lo tanto, hemos de pensar que, ahora, en este caso, habrá diferencia significativa entre hospitales pero no entre fármacos. Como así sucede si aplicamos la técnica ANOVA a estos segundos datos.

57. En el caso de abajo observemos que la diferencia ahora es tanto entre fármacos como entre hospitales. Al pasar del fármaco 1 al 2 vemos diferencias, pero cuando estamos en un fármaco o en otro entre hospitales también se aprecian diferencias remarcables. Por lo tanto, hemos de pensar que en este caso habrá diferencias significativas entre fármacos y también entre hospitales. Como así sucede si aplicamos la técnica ANOVA a este tercer grupo de datos.

58. Si ahora volvemos a los datos reales del estudio planteado, observaremos que más bien estamos en un caso como el tercero de los datos ficticios. Parece que la variabilidad total que observamos tanto está canalizada hacia diferencias entre los dos fármacos como hacia diferencias entre los hospitales. Si aplicamos el ANOVA de dos factores anidados fijos a los datos del estudio vemos que tanto el factor Fármaco como el Factor Hospital presentan diferencias significativas, con un p-valor inferior a 0.05.

59. En todos estos ejemplos hemos visto alguna diferencia, sea de un factor, del otro, o de ambos, pero no nos olvidemos que podríamos encontrarnos también con datos como los siguientes:

IMG_4576

60. Como puede apreciarse ahora, perfectamente, la variabilidad está centrada en la dispersión que hay dentro de cada uno de los cuatro grupos, no hay diferencias remarcables al cambiar de fármaco o al cambiar de hospital. Ahora todas las diferencias las vemos dentro de cada una de las cuatro situaciones experimentales. Lo que nos llevaría claramente a decir que ni el fármaco ni el hospital introducen ningún tipo de diferencias en la variable estudiada.

61. Hay una noción importante y útil en ANOVA que es necesario explicar: me refiero a la noción de bloque. Esto da lugar a una serie de modelos ANOVA que son muy utilizados.

62. En ocasiones un factor, que es el objeto básico de un estudio, a la hora de experimentar con él, de ensayar sus diferentes niveles, los ámbitos donde se aplica se sabe ciertamente, o se sospecha, que son ámbitos con importantes diferencias. Por ejemplo, supongamos que queremos ensayar tres tipos de abono y lo tenemos que hacer en cuatro terrenos que sabemos que son muy distintos desde el punto de vista químico y geológico. Esos cuatro terrenos actúan de bloques y lo que haremos es ensayar cada uno de los tres niveles del factor abono en cada uno de los cuatro terrenos, distribuyéndolos al azar dentro de ellos. El experimento quedaría así:

IMG_4865

63. Este planteamiento da lugar a un modelo que se denomina ANOVA de un factor con bloques aleatorizados. Se trata de un modelo muy usado en diferentes ámbitos. Veamos un caso muy distinto del anterior: Supongamos que a unas personas es posible aplicarles todos los niveles del factor que se pretende estudiar, como podría ser, por ejemplo, que quisiéramos ensayar cuatro condiciones diferentes para ver cómo influye cada una de ellas en el valor de cierta variable (Por ejemplo, andar durante 5 minutos en ambientes con distinto grado de contaminación, el dolor después de la extracción de una pieza dental donde se han usado cuatro procedimientos distintos, valorar cuatro fórmulas distintas de un producto alimentario, etc). Y para ello tomamos a cinco personas a las que les aplicaremos esas cuatro condiciones en momentos diferentes y con un orden aleatorizado. Los resultados podrían ser los reflejados en la tabla siguiente:

IMG_4866

64. Este caso, como el de los terrenos, es un caso de ANOVA de un factor con bloques aleatorizados. Ahora es la persona la que hace de bloque. Observemos que realmente cada individuo tiene un perfil característico y que en todos ellos se produce un mismo patrón: valor bajo en C1, sube en C2, sube más en C3 y baja hasta el mínimo en C4. Si no tuviéramos en cuenta a los bloques “personas” no habría diferencia significativa entre las medias de las condiciones por culpa de la enorme variabilidad que tenemos en el estudio. Sin embargo, el ANOVA de un factor con bloques aleatorizados compara las cuatro columnas de valores pero lo hace individuo por individuo. De esta forma capta la regularidad de estos cambios comentados y acabará diciendo que las diferencias muestrales entre las diferentes condiciones son diferencias estadísticamente significativas.

65. El ANOVA de un factor con bloques aleatorizados es un importante ejemplo de control de la dispersión con la finalidad de ver diferencias. Pensemos que la dispersión introduce un ruido que impide ver diferencias. Al introducir los bloques controlamos la dispersión, la explicamos. En el Tema 30: Ampliación de ANOVA veremos cómo a partir de este modelo podemos llegar a modelos un poco más sofisticados de control de la variación como es el ANCOVA o el ANOVA de medidas repetidas.

66. Ver estos ejemplos que hemos visto en este tema nos ayuda a situar lo que hacen las diferentes técnicas ANOVA que tenemos a nuestra disposición para comparar grupos diferentes. Son técnicas que comparan esos grupos en base a cómo está repartida la variación. Por eso se llaman Análisis de la varianza, porque realmente esto es lo llamativo, lo que más se ve, aunque, como ya hemos dicho, las diferencias de las medias entre los grupos y el propio tamaño de muestra los analiza también la técnica para decantarse por la igualdad o la diferencia entre las medias poblacionales de los grupos que compara.

67. En el ámbito del ANOVA se han introducido, también, aspectos de Significación material. Hemos dicho en el tema dedicado a la Significación formal y material que en Estadística el esfuerzo está principalmente dirigido a la Significación formal; o sea, a detectar diferencias entre poblaciones o relaciones entre variables, significativas, sin entrar en la valoración de aspectos de Significación material; o sea, de aspectos de Tamaño del efecto (en inglés “Effect size”), que suelen dejarse habitualmente en manos de los expertos en el campo concreto de aplicación: la medicina, la economía, la sociología, la biología, etc.

68. En la comparación de dos poblaciones suele usarse la d de Cohen para evaluar el tamaño del efecto. En el ANOVA se usa la eta cuadrada y la eta cuadrada parcial, cuyos cálculos son los siguientes:

 IMG_5983

69. Veamos la interpretación de estos dos cálculos: En la eta cuadrada se relativiza la suma de cuadrados; o sea, la variabilidad explicada por el factor o por el efecto estudiado, respecto a la suma de cuadrados total. En la eta cuadrada parcial se relativiza respecto a la suma de esa suma de cuadrados más la del error, la residual.

70. Como en todos los cálculos del Tamaño del efecto el tamaño muestral no tiene ninguna influencia, por eso únicamente juega en su cuantificación y valoración las diferencias de medias y las dispersiones y, en cambio, el tamaño de muestra no juega ningún papel.

71. Veamos unos ejemplos de ANOVA de un factor y de ANOVA de dos factores para ver cómo son esos cálculos e interpretar su papel:

72. Veamos, a continuación, dos casos de ANOVA de un factor:

IMG_5986

73. Si hacemos una mirada a esos datos, antes de hacer el análisis estadístico, podemos ver que, en los dos estudios, las medias de los tres grupos, de los tres niveles del factor estudiado, son: 4, 5 y 6. Pero que en el caso de arriba los tres grupos están más separados, están más segregados. En el caso de abajo hay mucha dispersión intragrupo para el nivel de diferencia de medias que tenemos. Esto es lo que evalúa la eta cuadrada. Básicamente es eso.

74. Los resultados del ANOVA, en ambos casos, y del cálculo de la eta cuadrada y de la eta cuadrada parcial, seguiendo las fórmula mostradas anteriormente, son los siguientes:

IMG_5998

75. Suele considerarse que una eta cuadrada en torno a 0,01 indica poco efecto, que una eta cuadrada en torno a 0,06 indica un efecto medio y que una eta cuadrada superior a 0,14 es ya un efecto grande. Observemos que en los datos de arriba tendríamos un tamaño del efecto grande y abajo un tamaño del efecto pequeño. Observemos que en el caso de un único factor la eta cuadrada y la eta cuadrada parcial coinciden en cantidad.

76. Los datos del caso de arriba muestran grupos más separados, muestran más efecto. Muestran, de hecho, un efecto grande. Sin embargo, no es estadísticamente significativo. Y en Ciencias primero es la Significación formal y luego la Significación material. Como en un juicio: primero hay que decir si el acusado es o no culpable, luego ya valoraremos si lo que ha robado es mucho o poco.

77. Observemos otro caso ahora con dos factores cruzados con interacción:

IMG_5994

78. Si hacemos los análisis ANOVA de cada tabla y los cálculos de la eta cuadrada y de la eta cuadrada parcial tenemos el siguiente cuadro:

IMG_5997

79. Podemos ver los cálculos de la eta cuadrada y la eta cuadrada parcial, que ahora, con dos factores, no coinciden, y podremos apreciar cosas como las siguientes: El factor 2 siempre presenta un tamaño del efecto grande y mayor que el producido por el factor 1 y por la interacción. Observemos en el cuadro de los valores de los estudios que realmente se produce un mayor salto de valores entre las dos filas que entre las dos columnas. Esto es lo que mide la eta cuadrado: donde se produce más salto y si éste es grande o es pequeño respecto a otras variabilidades que muestran los datos.

80. Estas medidas son muy interesantes, pero, siempre y cuando, previamente, se haya evaluado la Significación formal, que es, sin lugar a dudas, prioritaria. Por muchos millones que, presuntamente, haya robado una persona hasta que el tribuna no dicte culpabilidad, no formalice la culpabilidad, no podemos decir que materialmente se trata de un robo muy voluminoso. Si al final se comprueba la inocencia de aquella persona nos habremos equivocado mucho haciendo valoraciones materiales previas. Es importante, por lo tanto, situar bien estos cálculos que evalúan el tamaño del efecto.

81. El tamaño del efecto es, pues, en ANOVA, una forma de evaluar el peso relativo de la variabilidad, cómo está distribuido el reparto de cambios entre los distintos niveles de los factores estudiados. Y evalúa si estos cambios entre las medias de los diferentes grupos son grandes o pequeños relativizando estas diferencias respecto a la dispersión que hay en general y, más en concreto, dentro de los grupos (el error, o también llamado residuo).

Anuncios

15 pensamientos en “Tema 15: ANOVA

  1. Pingback: Herramientas estadísticas en Medicina (Una hoja de ruta) | LA ESTADÍSTICA: UNA ORQUESTA HECHA INSTRUMENTO

  2. Jose VV

    Hola me parece muy buena la explicación, podrias decirme comop es que en unas tablas usan 0.5 y en otras 0.00, y como es que puedo sacar inferencias solo viendo las tablas de anova, es decir como puedo concluir el valor F que dice? estoy un poco confundido

    Responder
    1. estadisticallopis Autor de la entrada

      Se trata de mirar los datos de cada uno de los grupos comparados y ver dónde está concentrada la diferencia. En el caso de anova anidado que aparece se trata de ver entre fármacos y hospitales dónde están las diferencias básicas. Verás que en los distintos casos que aparecen las diferencias están localizadas en factores diferentes. Está explicado en el artículo.

      Responder
    1. estadisticallopis Autor de la entrada

      Porque los grados de libertad tiene que ver con el número de opciones diferentes que tenemos para fijar un valor. Y en el residuo tenemos muchas opciones posibles diferentes. Por ejemplo, supongamos un ANOVA de un factor a tres niveles y con cinco réplicas por nivel. El residuo tendrá 12 grados porque una vez tenemos las tres medias por grupo podremos variar cuatro valores por grupo para tener unos mismos valores de las tres medias: en total 12 opciones posibles, 12 posiciones de libertad.

      Responder
  3. Erika Rpo

    Buenas tardes. Necesito hacer un análisis ANOVA anidado, pero mis datos no tienen distribución normal. Puedo hacer este análisis sin aplicar transformaciones o existe un análisis homólogo al ANOVA anidado para datos no paramétricos. Saludos.

    Responder
  4. Elba Lazo

    Hola, necesitaría que si pudiera ser me aclarara una duda sobre el Anova. Hace unos días realicé un examen sobre Diseños de investigación y análisis de datos. Una pregunta ha creado polémica y mucha gente ha protestado para que la anulen. La pregunta es la siguiente: “En los Anovas el contraste es unilateral derecho porque:
    A) la distribución F no tiene valores inferiores a 0
    B) Establecemos hipótesis sobre las varianzas poblacionales y estas siempre son positivas
    C) Dada la lógica del Anova, la posibilidad de encontrar valores de F inferiores a la unidad es poco probable

    La respuesta que yo di fue la C y es la que el profesorado dio por buena, pero el resto de estudiantes intentan reclamar para que sea la A. ¿Qué opinión tendría usted? Gracias

    Responder
    1. estadisticallopis Autor de la entrada

      La A no es correcta. No es unilateral porque la F no tenga valores negativos. Hay contrastes bilaterales con distribución F (por ejemplo el de la igualdad de varianzas). La C es cierta. Efectivamente es muy poco probable que la F ratio dé valores inferiores a 1.

      Responder
      1. Hollis Copeland

        Sin embargo precisamente en el ejemplo de igualdad de varianzas, si se coloca el valor mayor en el numerador no hay ninguna probabilidad de obtener un valor de F inferior a 1, de modo que tampoco sería cierta la C) en el sentido de que sea esa la razón de usar un contaste unilateral, ¿no?

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s