Ley del estadístico inconsciente

De Wikipedia, la enciclopedia libre

En teoría de la probabilidad y estadística, la ley del estadístico inconsciente, o LEI, es un teorema utilizado para calcular el valor esperado de una función g(X) de una variable aleatoria X cuando se conoce la distribución de probabilidad de X pero no se conoce la distribución de g(X). La forma de la ley puede depender de la forma en que se establece la distribución de probabilidad de la variable aleatoria  X. Si es una distribución discreta y se conoce su función de masa de probabilidad ƒX (pero no ƒ g(X)), entonces el valor esperado de g(X) es

donde la suma es sobre todos los valores posibles  x de X. Si es una distribución continua y se conoce su función de densidad de probabilidad ƒX (pero no ƒg(X)), entonces el valor esperado de g(X) es

Si uno conoce la función de distribución acumulativa FX (pero no Fg(X)), entonces el valor esperado de g(X) viene dado por una integral de Riemann-Stieltjes

(de nuevo asumiendo que X toma valores en los reales).[1][2][3][4]

Etimología[editar]

Esta proposición se conoce como la ley del estadístico inconsciente debido a una supuesta tendencia a usar la identidad sin darse cuenta de que debe tratarse como el resultado de un teorema rigurosamente probado, no simplemente una definición.[4]

Distribuciones conjuntas[editar]

Una propiedad similar se mantiene para distribuciones conjuntas. Para las variables aleatorias discretas X e Y, una función de dos variables g, y la función de masa de probabilidad conjunta f(x y):[5]

En el caso absolutamente continuo, con f(x y) siendo la función de densidad de probabilidad conjunta,

Demostración[editar]

Esta ley no es un resultado trivial de las definiciones como podría parecer a primera vista, sino que debe ser probada.<nombreref = "Ross2010" />[6][7]

Caso continuo[editar]

Para una variable aleatoria continua X, sea Y = g(X), y supongamos que g es diferenciable y que su inversa g−1 es monótona. Por la fórmula para funciones inversas y diferenciación,

Porque x = g−1(y),

De modo que por un cambio de variables,

Ahora, obsérvese que debido a que la función de distribución acumulativa , sustituyendo el valor de g(X), tomando el inverso de ambos lados, y reorganizando los rendimientos . Luego, por la regla de la cadena,

Combinando estas expresiones, encontramos

Por la definición de valor esperado,

Caso discreto[editar]

Sea . Luego considérese la definición del valor esperado.

De la teoría de la medida[editar]

Puede obtenere una derivación técnicamente completa del resultado utilizando argumentos en teoría de la medida, en los que el espacio de probabilidad de una variable aleatoria transformada g(X) esté relacionado con el de la variable aleatoria original X. Los pasos aquí implican definir una medida progrediente para el espacio transformado, y el resultado es entonces un ejemplo de una fórmula de cambio de variables.[5]

Se dice que tiene una densidad si la medida progrediente (pushforward) es absolutamente continua con respecto a la medida de Lebesgue . En ese caso,

donde es la densidad (véase derivada de Radon-Nikodym). Así que lo anterior se puede reescribir como el más familiar

Referencias[editar]

  1. Eric Key (1998) Lecture 6: Random variables Archivado el 15 de febrero de 2009 en Wayback Machine., Lecture notes, University of Leeds
  2. Bengt Ringner (2009) "Ley del inconsciente inconsciente" statistician", nota no publicada, Centro de Ciencias Matemáticas, Universidad de Lund Archivado el 16 de julio de 2011 en Wayback Machine.
  3. Blitzstein, Joseph K.; Hwang, Jessica (2014). Introduction to Probability (1st edición). Chapman and Hall. p. 156. 
  4. a b DeGroot, Morris; Schervish, Mark (2014). Probability and Statistics (4th edición). Pearson Education Limited. p. 213. 
  5. a b Ross, Sheldon M. (2010). Introducción a los modelos de probabilidad (10th edición). Elsevier, Inc. 
  6. Virtual Laboratories in Probability and Statistics, Sect. 3.1 "Expected Value: Definition and Properties", item "Basic Results: Change of Variables Theorem".
  7. Rumbos, Adolfo J. (2008). «Notas de la conferencia de probabilidad». Consultado el 6 de noviembre de 2018.