miércoles, 10 de junio de 2020

4.4 Características estadísticas del estimador lider

Hay una serie de características deseables en los estimadores para que éstos constituyan una buena aproximación a los respectivos parámetros. Se trata de rasgos que podrían entenderse como criterios de calidad de los estimadores.

1. Carencia de sesgo. Se dice que un estimador es insesgado si el valor esperado de su distribución de probabilidad es igual al parámetro. Es decir, si es igual a Ө la media de los valores Ê calculados en cada una de las muestras aleatorias posibles del mismo tamaño. Si el estadístico Ê es utilizado como estimador del parámetro Ө, ese estimador carece de sesgo cuando

                                        E(Ê) = Ө

Por ejemplo, la media ẋ.[D] es un estimador insesgado de µ, puesto que se cumple, tal y como vimos en el capítulo anterior al estudiar la distribución muestral del estadístico media, que

                          E(ẋ.[D]) = µ


En el caso de la varianza, suelen manejarse habitualmente dos estimadores:


  [D] o bien, [D]. Para cada uno de ellos, el valor esperado resulta ser: [D]






El segundo de los estimadores posee la característica de ser un estimador insesgado de σ2 , razón por la que suele emplearse con más frecuencia que el primero a la hora de estimar el parámetro varianza poblacional. Cuando E(Ê) ≠ Ө, decimos que el estimador sesgado tiene un sesgo positivo si E(Ê) > Ө, o que tiene un sesgo negativo si E(Ê) < Ө. Un estimador sesgado tenderá a ofrecer sistemáticamente valores que se alejan en un sentido u otro del parámetro, aunque la muestra sea elegida aleatoriamente. Consistencia. Un estimador Ê es consistente si, además de carecer de sesgo, se aproxima cada vez más al valor del parámetro a medida que aumenta el tamaño de la muestra. Si el tamaño n se hace indefinidamente grande, los valores de Ê se concentran cada vez más en torno al valor del parámetro, hasta que con un tamaño 2. muestral infinito obtenemos una varianza del estimador nula. Por tanto, un estimador es consistente si cuando n tiende a infinito se cumple E(Ê) = Ө; var(Ê) = 0 La media es un estimador consistente del parámetro µ, puesto que se verifican las condiciones anteriores. Es decir. [D] También se comprueba que los dos estimadores de la varianza, presentados en el apartado anterior, resultan ser estimadores consistentes de σ2 . 3. Eficiencia. La eficiencia de un estimador está vinculada a su varianza muestral. Así, para un mismo parámetro Ө, se dice que el estimador Ê1 es más eficiente que el estimador Ê2 si se cumple var(Ê1) < var(Ê2) Por tanto, si un estadístico es más eficiente que otro, significa que varía menos de unas muestras a otras. Se demuestra que la media es un estimador del parámetro µ más eficiente que la mediana. Del mismo modo, la varianza Sn-12 es un estimador de σ2 más eficiente que Sn 2 . 4. Suficiencia. Un estimador es suficiente cuando en su cálculo se emplea toda la información de la muestra. Por ejemplo, al calcular el estimador [D] del correspondiente parámetro poblacional, utilizamos la fórmula: [D] para cuyo cálculo se tienen en cuenta todas las puntuaciones Xi. Otro tanto ocurre con los estimadores Sn-12 y Sn 2 de la varianza. Todos ellos pueden ser considerados estimadores suficientes de los respectivos parámetros.

No hay comentarios.:

Publicar un comentario

3.3 Definiciones: Replica, corrida, estado transitorio, estado estable, condiciones iniciales, reloj de la simulación

REPLICA: Las réplicas son múltiples corridas experimentales con la misma configuración de factores (niveles). Las réplicas están sujetas a l...