Varianza

De wikiRiesgos
Ir a la navegación Ir a la búsqueda

En teoría de probabilidad, la varianza (que suele representarse como <math>\sigma^2</math>) de una variable aleatoria es una medida de dispersión definida como la esperanza del cuadrado de la desviación de dicha variable respecto a su media.

Está medida en unidades distintas de las de la variable. Por ejemplo, si la variable mide una distancia en metros, la varianza se expresa en metros al cuadrado. La desviación estándar es la raíz cuadrada de la varianza, es una medida de dispersión alternativa expresada en las mismas unidades de los datos de la variable objeto de estudio. La varianza tiene como valor mínimo 0.

Hay que tener en cuenta que la varianza puede verse muy influida por los valores atípicos y no se aconseja su uso cuando las distribuciones de las variables aleatorias tienen colas pesadas. En tales casos se recomienda el uso de otras medidas de dispersión más robustas.

El término varianza fue acuñado por Ronald Fisher en un artículo publicado en enero de 1919 con el título The Correlation Between Relatives on the Supposition of Mendelian Inheritance.<ref>Fisher, R. A. (1919). «The Correlation Between Relatives on the Supposition of Mendelian Inheritance» Transactions of the Royal Society of Edinburgh Vol. 52, 02, pp 399-433.</ref>

Definición

Si tenemos un conjunto de datos de una misma variable, la varianza se calcula de la siguiente forma:

<math>s_n^2 = \frac 1n \sum_{i=1}^n \left(X_i - \overline{X} \right)^ 2 = \left(\frac{1}{n} \sum_{i=1}^{n}X_i^2\right) - \overline{X}^2</math>

Siendo:

  • <math>X_i</math>: cada dato
  • <math>n</math>: El número de datos
  • <math>\overline{X}</math>: la media aritmética de los datos

Aplicando este concepto a una variable aleatoria con media μ = E[X], se define su varianza, Var(X) (también representada como <math>\scriptstyle\sigma_X^2</math> o, simplemente σ2), como

<math>\operatorname{Var}(X) = \operatorname{E}[ ( X - \mu ) ^ 2].\,</math>

Desarrollando la definición anterior, se obtiene la siguiente definición alternativa (y equivalente):

<math>

\begin{align} \operatorname{Var}(X) & = \operatorname{E}[ ( X - \mu ) ^ 2 ] \\ & = \operatorname{E}[ ( X ^ 2 - 2X\mu + \mu ^ 2) ] \\ & = \operatorname{E}[ X ^ 2] - 2\mu\operatorname{E}[X] + \mu ^ 2 \\ & =\operatorname{E}[ X ^ 2] - 2\mu ^ 2 + \mu ^ 2 \\ & = \operatorname{E} [ X ^ 2] - \mu ^ 2. \end{align} </math>

Si una distribución no tiene esperanza, como ocurre con la de Cauchy, tampoco tiene varianza. Existen otras distribuciones que, aun teniendo esperanza, carecen de varianza. Un ejemplo de ellas es la de Pareto cuando su índice k satisface Plantilla:Nowrap.

Caso continuo

Si la variable aleatoria X es continua con función de densidad f(x), entonces

<math>\operatorname{Var}(X) =\int (x-\mu)^2 \, f(x) \, dx\,,</math>

donde

<math>\mu = \int x \, f(x) \, dx\,,</math>

y las integrales están definidas sobre el rango de X.

Caso discreto

Si la variable aleatoria X es discreta con pesos x1 ↦ p1, ..., xn ↦ pn y n es la cantidad total de datos, entonces tenemos:

<math>\operatorname{Var}(X) = ( \sum_{i=1}^n p_i\cdot(x_i - \mu)^2)</math>

donde

<math>\mu = ( \sum_{i=1}^n p_i\cdot x_i ) </math> .

Ejemplos

Distribución exponencial

La distribución exponencial de parámetro λ es una distribución continua con soporte en el intervalo [0,∞) y función de densidad

<math>f(x) = \lambda e^{-\lambda x}1_{[0,\infty)}(x),\,</math>

Tiene media μ = λ−1. Por lo tanto, su varianza es:

<math>\int_0^\infty f(x) (x - \mu)^2\,dx = \int_0^\infty \lambda e^{-\lambda x} (x - \lambda^{-1})^2\,dx = \lambda^{-2}.\,</math>

Es decir, σ2 = μ2.

Dado perfecto

Un dado de seis caras puede representarse como una variable aleatoria discreta que toma, valores del 1 al 6 con probabilidad igual a 1/6. El valor esperado es (1+2+3+4+5+6)/6 = 3,5. Por lo tanto, su varianza es:

<math>\sum_{i=1}^6 \tfrac{1}{6} (i - 3,5)^2 = \tfrac{1}{6}\left((-2,5)^2{+}(-1,5)^2{+}(-0,5)^2{+}0,5^2{+}1,5^2{+}2,5^2\right) = \tfrac{1}{6} \cdot 17,50 = \tfrac{35}{12} \approx 2,92\,.</math>

Propiedades de la varianza

Algunas propiedades de la varianza son:

  • <math>V(X) \geq 0 \,\!</math>
  • <math>V(aX + b) = a^2 V(X) \,\!</math> siendo a y b números reales cualesquiera. De esta propiedad se deduce que la varianza de una constante es cero, es decir, <math>V(b) = 0 \,\!</math>
  • <math>V(X+Y) = V(X)+V(Y)+2Cov(X,Y) \,\!</math>, donde Cov(X,Y) es la covarianza de X e Y.
  • <math>V(X-Y) = V(X)+V(Y)-2Cov(X,Y) \,\!</math>, donde Cov(X,Y) es la covarianza de X e Y.

Varianza muestral

En muchas situaciones es preciso estimar la varianza de una población a partir de una muestra. Si se toma una muestra con reemplazamiento <math>(y_1,\dots,y_n)</math> de n valores de ella, de entre todos los estimadores posibles de la varianza de la población de partida, existen dos de uso corriente:

<math>s_n^2 = \frac 1n \sum_{i=1}^n \left(y_i - \overline{y} \right)^ 2 = \left(\frac{1}{n} \sum_{i=1}^{n}y_i^2\right) - \overline{y}^2</math>

y

Cuando los datos están agrupados:

A los dos (cuando está dividido por n y cuando lo está por n-1) se los denomina varianza muestral. Difieren ligeramente y, para valores grandes de n, la diferencia es irrelevante. El primero traslada directamente la varianza de la muestra al de la población y el segundo es un estimador insesgado de la varianza de la población. De hecho,

<math>

\begin{align} \operatorname{E}[s^2] & = \operatorname{E}\left[\frac{1}{n-1} \sum_{i=1}^n Y_i^2 ~ - ~ \frac{n}{n-1} \overline{Y}^2 \right] \\ & = \frac{1}{n-1}\left( \sum \operatorname{E}[Y_i^2] ~ - ~ n \operatorname{E}[\overline{Y}^2] \right) \\ & = \frac{1}{n-1}\left( n \operatorname{E}[Y_1^2] ~ - ~ n \operatorname{E}[\overline{Y}^2] \right) \\ & = \frac{n}{n-1}\left( \operatorname{Var}(Y_1) + \operatorname{E}[Y_1]^2 ~ - ~ \operatorname{Var}(\overline{Y}) - \operatorname{E}[\overline{Y}]^2 \right) \\ & = \frac{n}{n-1}\left( \operatorname{Var}(Y_1) + \mu^2 ~ - ~ \frac{1}{n}\operatorname{Var}(Y_1) - \mu^2 \right) \\ & = \frac{n}{n-1}\left( \frac{n-1}{n} ~ \operatorname{Var}(Y_1) \right) \\ & = \operatorname{Var}(Y_1) \\ & = \sigma^2 \end{align} </math>

mientras que

<math>E[s_n^2] = \frac{n-1}{n} \sigma^2</math>

Propiedades de la varianza muestral

Como consecuencia de la igualdad <math> \operatorname{E}(s^2)=\sigma^2</math>, s2 es un estadístico insesgado de <math>\sigma^2</math>. Además, si se cumplen las condiciones necesarias para la ley de los grandes números, s2 es un estimador consistente de <math>\sigma^2</math>.

Más aún, cuando las muestras siguen una distribución normal, por el teorema de Cochran, <math>s^2</math> tiene la distribución chi-cuadrado:

<math>

(n-1)\frac{s^2}{\sigma^2}\sim\chi^2_{n-1}. </math>

Véase también

Referencias

<references group=""></references>

Enlaces externos