Propiedades de la estimación:
- Carencia de sesgo: nos garantiza que la estimación se encuentra alrededor del parámetro en cuestión.
- Eficiencia: más eficiente cuanto menor es la desviación típica.
- Consistencia: a medida que aumenta el tamaño de la muestra, la probabilidad de que el valor del estadístico se acerca al valor del parámetro.
- Suficiencia: es capaz de obtener de la muestra toda la información que contiene acerca del parámetro.
Nivel de confianza: porcentaje de confianza al hacer la estimación.
Nivel de significación: probabilidad de error que estamos dispuestos a asumir en la estimación.
Intervalo confidencial: valores entre los cuales es más probable que se encuentre el verdadero valor del parámetro.
Error muestral: diferencia más probable entre el estadístico y el parámetro.
Pruebas para el contraste de hipótesis: son las pruebas que permiten decidir cual de las dos hipótesis es acertada.
Paramétricas: La variable que estamos tratando tiene una función de distribución determinada, conociendo todos los parámetros o bien alguno de ellos.
No paramétricas: Suele desconocerse la función de distribución de la variable.
Error tipo I: Rechazar la Ho siendo cierta.
Error tipo II: Aceptar la Ho siendo falsa.
Hipótesis simple: existe una Ho y una H alternativa. Unilaterales, una sola cola.
Hipótesis compuesta: existen varias hipótesis frente a una Ho. Bilaterales, o dos colas.
Condiciones que exigen las pruebas paramétricas:
- Independencia de los datos: aleatoriedad del muestreo. La puntuación de un sujeto no influye en la obtenida por otro.
- Normalidad: el parámetro a estimar se distribuye normalmente entre la población.
- Homocedasticidad: la varianza es igual en todos los grupos.
- Medida de intervalo: las variables deben medirse en escala de intervalo o ordinal multicategórica.
- Formular la Ho y la H1
- Fijar el nivel de significación
- Comprobar las características de las variables y plantear las suposiciones necesarias.
- Elegir un estadístico para contrastar.
- Estudiar las características de la distribución muestral del estadístico.
- Determinar la región crítica o de rechazo de Ho y la de aceptación.
- Decidir sobre la aceptación o rechazo de la Ho.
- Para muestras grandes: la media, la proporción, la diferencia de medias, la diferencia de proporciones.
- Para muestras pequeñas: media, diferencia de medias, varianza poblacional, coeficiente de correlación.
de una sola muestra:
- Bondad de ajuste:
- Kolmogorov-Smirnov: comprueba frecuencias acumuladas entre la muestra y la distribución teórica de la población. Para mediciones ordinales o de intervalo.
- Contraste de ji2:
- Aleatoriedad:
- Prueba de rachas: los datos se presentan dicotomizados.
- Mc Nemar: los mismos sujetos son grupo experimental y de control.
- Pares igualados de Wilcoxon: datos cuantitativos continuos o discretos.
- Contraste de ji2: datos en categorias discretas
- U de Mann-Whitney: variables ordinales
- Q de Cochran: variables nominales dicotómicas
- Friedman: variables ordinales.
- Kruskal-Wallis: variable ordinal.
No hay comentarios:
Publicar un comentario