La prueba estadística de X2 para una muestra se emplea frecuentemente como prueba de bondad de ajuste, sin embargo, en un plan experimental, en el que se cuenta con un grupo muestral, con diversas subclases y las mediciones están en escala nominal, resulta muy útil este procedimiento.
La eficacia de la prueba está de acuerdo con el tamaño de la muestra, pues con un grado de libertad, si hay dos subclases, algunos autores consideran que la prueba es insensible, no obstante la información que aporta más de dos categorías es satisfactoria en función de la fórmula:
Donde: X2 = valor estadístico de ji cuadrada. fo = frecuencia observada. fe = frecuencia esperada. |
La ji cuadrada se utiliza cuando:
- Cuando los datos puntualizan a las escalas nominal u ordinal.
- Se utiliza solo la frecuencia.
- Poblaciones pequeñas.
- Cuando se desconocen los parámetros media, moda, etc.
- Cuando los datos son independientes.
- Cuando se quiere contrastar o comparar hipótesis.
- Investigaciones de tipo social - muestras pequeñas no representativas >5.
- Cuando se requiere de establecer el nivel de confianza o significatividad en las diferencias.
- Cuando la muestra es seleccionada no probabilísticamente.
- X2 permite establecer diferencias entre f y se utiliza solo en escala nominal.
- Población > a 5 y < a 20.
Pasos.
- Arreglar las categorías y las frecuencias observadas.
- Calcular los valores teóricos esperados para el modelo experimental o tipo de distribución muestral: normal, binomial y de Poisson.
- Calcular las diferencias de las frecuencias observadas en el experimento con respecto a las frecuencias esperadas.
- Elevar al cuadrado las diferencias y dividirlas entre los valores esperados de cada categoría.
- Efectuar la sumatoria de los valores calculados.
- Calcular los grados de libertad (gl) en función de número de categorías [K]: gl = K - 1.
- Comparar el estadístico X2 con los valores de la distribución de ji cuadrada en la tabla.
- Decidir si se acepta o rechaza la hipótesis X2c ³ X2t se rechaza Ho.
Una prueba estadística utilizada para determinar si la media de dos poblaciones es diferente cuando las varianzas son conocidas y el tamaño de la muestra es lo suficientemente grande. Se asume que la prueba tiene una distribución normal y que los parámetros como la desviación estándar deben ser conocidos para que se pueda llevar a cabo una Prueba Z exacta.
Se conoce en inglés como: Z-Test
PRUEBA T DE STUDENT
En estadística, una prueba t de Student, prueba t-Student, o Test-T es cualquier prueba en la que el estadístico utilizado tiene una distribución t de Student si la hipótesis nula es cierta. Se aplica cuando la población estudiada sigue una distribución normal pero el tamaño muestral es demasiado pequeño como para que el estadístico en el que está basada la inferencia esté normalmente distribuido, utilizándose una estimación de la desviación típica en lugar del valor real. Es utilizado en analisis discriminante.
- El test de locación de muestra única por el cual se comprueba si la media de una población distribuida normalmente tiene un valor especificado en un hipótesis nula.
- El test de locación para dos muestras, por el cual se comprueba si la media de dos poblaciones distribuidas en forma normal son iguales. Todos estos test son usualmente llamados test t de Student, a pesar de que estrictamente hablando, tal nombre sólo debería ser utilizado si la varianza de las dos poblaciones pueden ser asumidas como iguales; la forma de los test que se utiliza cuando esta asunción se deja de lado suele ser llamada a veces como Prueba t de Welch. Estas pruebas suelen ser comunmente nombradas como pruebas t desapareadas o de muestras independientes, debido a que se tienen su aplicación mas típica cuando las unidades estadísticas que definen a ambas muestras que están siendo comparadas no se superponen.
- El test de hipótesis nula por el cual se demuestra que la diferencia entre dos respuestas medidas en las mismas unidades estadísticas es cero. Por ejemplo, supóngase que se mide el tamaño del tumor de un paciente con cáncer. Si el tratamiento resulta efectivo, lo esperable seria que el tumor de muchos pacientes disminuyera de tamaño luego de seguir el tratamiento. Esto con frecuencia es referido como prueba t de mediciones apareadas o repetidas.
- El test para comprobar si la pendiente de una regresión lineal difiere estadísticamente de cero.
En esta prueba se evalúa la hipótesis nula de que la media de la población estudiada es igual a un valor especificado μ0, se hace uso del estadístico:
ANOVA
Análisis de la varianza ANOVA
Del mismo modo que la t de Student, la prueba ANOVA es una prueba paramétrica y como tal requiere una serie de supuestos para poder ser aplicada correctamente. Denominada ANOVA o análisis de la varianza, en realidad nos va a servir no solo para estudiar las dispersiones o varianzas de los grupos, sino para estudiar sus medias y la posibilidad de crear subconjuntos de grupos con medias iguales. Se puede decir que la prueba ANOVA es la generalización de la t de Student, ya que si realizamos una prueba ANOVA en la comparación de solo dos grupos, obtenemos los mismos resultados.
Al igual que la t de Student, se requiere que cada uno de los grupos a comparar tenga distribuciones normales, o lo que es más exacto, que lo sean sus residuales. Los residuales son las diferencias entre cada valor y la media de su grupo. Además debemos estudiar la dispersión o varianzas de los grupos, es decir estudiar su homogeneidad. Cuando mayor sean los tamaños de los grupos, menos importante es asegurar estos dos supuestos, ya que el ANOVA suele ser una técnica bastante “robusta” comportándose bien respecto a transgresiones de la normalidad. No obstante, si tenemos grupos de tamaño inferior a 30, es importante estudiar la normalidad de los residuos para ver la conveniencia o no de utilizar el análisis de la varianza. Si no fuera posible utilizar directamente el ANOVA, podemos recurrir al uso de pruebas no paramétricas, como la de Kruskal-Wallis.
Como ya hemos dicho, el ANOVA es la generalización de la t de Student, y sus hipótesis nula y alternativa se pueden formular del siguiente modo:
· Hipótesis nula (Ho): µ1= µ2=…= µk
Las medias de los k grupos son iguales y por tanto las diferencias encontradas pueden explicarse por el azar. Dicho de otro modo, los grupos proceden de poblaciones con medias iguales.
· Hipótesis alternativa (H1): al menos uno de los grupos tiene una media distinta del resto de grupos.
En la prueba ANOVA las comparaciones son siempre bilaterales (a dos colas) ya que estudiamos globalmente si los grupos tienen medias distintas, y no si un grupo tiene una media menor o mayor que otro por separado. Si se rechaza la hipótesis nula, no sabremos entre qué grupos están las diferencias.
Para saber si los grupos tienen medias iguales o no en su IMC, se ha de construir la tabla ANOVA. En muchos libros de estadística podemos encontrar como crear esta tabla a partir de de los datos de la muestra por lo que no creemos necesario explicar detalladamente los pasos a seguir para su construcción. Si nos interesa conocer en qué consiste y en qué nos basamos cuando decimos que los grupos tienen o no medias iguales.
La variabilidad o varianza total que podemos tener en nuestros datos se puede descomponer a su vez en:
-Varianza entre grupos. Mide la variabilidad entre las medias de cada grupo respecto a la media total de todas las observaciones. Denominada también como variabilidad o varianza inter-grupos.
-Varianza dentro de los grupos. Mide la variabilidad de cada observación respecto a la media de su grupo. Podemos encontrarla bajo el nombre de residual, error o varianza intra-grupos.
Resumiendo: Varianza Total = Varianza entre grupos + varianza dentro de los grupos
Del mismo modo que se hace en la t de Student y con otras pruebas estadísticas, se divide un efecto observado respecto a un error aleatorio. En nuestro caso se divide el efecto debido a la pertenencia de los grupos (varianza entre grupos) respecto a la dispersión debida al azar o error aleatorio (varianza dentro de los grupos). A este cociente se le denomina F, o F de Fisher-Snedecor. Si sobrepasa cierto valor crítico, entonces podremos afirmar que el efecto observado es demasiado grande para poder ser explicado por el azar (error aleatorio) y que por tanto no todos los grupos estudiados tienen la misma media.
No hay comentarios:
Publicar un comentario