Diferencia entre revisiones de «Distribución normal multivariante»
Línea 35: | Línea 35: | ||
</math> | </math> | ||
||left}} | ||left}} | ||
− | Si <math>\ \Sigma</math> es una | + | Si <math>\ \Sigma</math> es una matriz no singular, entonces la distribución puede describirse por la siguiente función de densidad: |
{{ecuación| | {{ecuación| | ||
<math> | <math> |
Revisión actual del 16:13 1 mar 2017
|nombre = Normal multivariante
|parámetros = <math>\mu = [\mu_1, \dots, \mu_n]^T</math> (vector real)
<math>\Sigma</math> matriz de covarianza (matriz real definida positiva de dimensión <math>n\times n</math> )
|dominio = <math>x \in\mathbb{R}^n\!</math>
|pdf = <math>f_X(x_1, \dots, x_n)=\frac {1} {(2\pi)^{n/2} \left|\Sigma\right|^{1/2}}</math>
<math>
\exp\left( -\frac{1}{2}( x - \mu)^\top \Sigma^{-1} (x - \mu)\right)</math>
|cdf = Sin expresión analítica |media = <math>\mu \,\!</math> |mediana = <math>\mu \,\!</math> |moda = <math>\mu \,\!</math> |varianza = <math>\sigma^2 \,\!</math> |simetría = 0 |curtosis = 0 |entropía = <math>\ln\left(\sqrt{(2\,\pi\,e)^n \left| \Sigma \right|}\right)\!</math> |mgf = <math>M_X(t)= \exp\left( \mu^\top t + \frac{1}{2} t^\top \Sigma t\right)</math> |car = <math>\phi_X(t;\mu,\Sigma)=\exp\left( i \mu^\top t - \frac{1}{2} t^\top \Sigma t\right)</math>
En probabilidad y estadística, una distribución normal multivariante, también llamada distribución gaussiana multivariante, es una generalización de la distribución normal unidimensional a dimensiones superiores.
Sumario
- 1 Caso general
- 2 Caso bivariante
- 3 Transformación afín
- 4 Interpretación geométrica
- 5 Correlaciones e independencia
- 6 Momentos más altos
- 7 Distribuciones condicionales
- 8 Matriz de información de Fisher
- 9 Divergencia de Kullback-Leibler
- 10 Estimación de parámetros
- 11 Entropía
- 12 Tests de normalidad multivariante
- 13 Simulando valores de la distribución
- 14 Referencias
Caso general
Un vector aleatorio <math>\ X = [X_1, \dots, X_n]^T</math> sigue una distribución normal multivariante si satisface las siguientes condiciones equivalentes:
- Toda combinación lineal <math>\ Y = a_1 X_1 + \cdots + a_n X_n</math> está normalmente distribuida.
- Hay un vector aleatorio <math>\ Z = [Z_1, \dots, Z_m]^T</math>, cuyas componentes son independientes son variables aleatorias distribuidas según la normal estándar, un vector <math>\ \mu = [\mu_1, \dots, \mu_n]^T</math> y una matriz <math>n \times m</math> <math>\ A</math> tal que <math>\ X = A Z + \mu</math>.
- Hay un vector <math>\mu</math> y una matriz semidefinida positiva simétrica <math>\ \Sigma</math> tal que la función característica de X es
{{#if:left|(left)}}{{ safesubst:#if:1|}}
Si <math>\ \Sigma</math> es una matriz no singular, entonces la distribución puede describirse por la siguiente función de densidad:
{{#if:^{1/2|([[#Eqnref_^{1/2|^{1/2]])}}{{ safesubst:#if:1|\Sigma}}
\exp \left(
-\frac{1}{2} ( x - \mu)^\top \Sigma^{-1} (x - \mu)
\right) </math> ||left}} donde <math>\ \left| \Sigma \right|</math> es el determinante de <math>\ \Sigma</math>. Nótese como la ecuación de arriba se reduce a la distribución normal si <math>\ \Sigma</math> es un escalar (es decir, una matriz 1x1).
El vector μ en estas circunstancias es la esperanza de X y la matriz <math>\ \Sigma = A A^T</math> es la matriz de covarianza de las componentes Xi.
Es importante comprender que la matriz de covarianza puede ser singular (aunque no esté así descrita por la fórmula de arriba, para la cual <math>\ \Sigma^{-1}</math> está definida).
Este caso aparece con frecuencia en estadística; por ejemplo, en la distribución del vector de residuos en problemas ordinarios de regresión lineal. Nótese también que los Xi son en general no independientes; pueden verse como el resultado de aplicar la transformación lineal A a una colección de variables normales Z.
Esta distribución de un vector aleatorio X que sigue una distribución normal multivariante puede ser descrita con la siguiente notación:
{{#if:|([[#Eqnref_|]])}}{{ safesubst:#if:1| <math>X\ \sim \mathcal{N}(\mu, \Sigma),</math> }}
o hacer explícito que X es n-dimensional,
{{#if:|([[#Eqnref_|]])}}{{ safesubst:#if:1| <math>X\ \sim \mathcal{N}_N(\mu, \Sigma).</math> }}
Función de distribución
La función de distribución <math>F(x)</math> se define como la probabilidad de que todos los valores de un vector aleatorio <math>X</math> sean menores o iguales que los valores correspondientes de un vector <math>x</math>. Aunque F no tenga una fórmula, hay una serie de algoritmos que permiten estimarla numéricamente.<ref>Véase MVNDST en [1] (incluye código FORTRAN) o [2] (incluye código MATLAB).</ref>
Un contraejemplo
El hecho de que dos variables aleatorias X e Y sigan una distribución normal, cada una, no implica que el par (X, Y) siga una distribución normal conjunta. Un ejemplo simple se da cuando Y = X si |X| > 1 e Y = −X si |X| < 1. Esto también es cierto para más de dos variables aleatorias.<ref>Véase también normalmente distribuidas e incorreladas no implica independencia</ref>
Normalmente distribuidas e independencia
Si X e Y están normalmente distribuidas y son independientes, su distribución conjunta también está normalmente distribuida, es decir, el par (X, Y) debe tener una distribución normal bivariante. En cualquier caso, un par de variables aleatorias normalmente distribuidas no tienen por qué ser independientes al ser consideradas de forma conjunta.
Caso bivariante
En el caso particular de dos dimensiones, la función de densidad (con media (0, 0) es
- <math>
f(x,y) = \frac{1}{2 \pi \sigma_x \sigma_y \sqrt{1-\rho^2}} \exp \left(
-\frac{1}{2 (1-\rho^2)} \left( \frac{x^2}{\sigma_x^2} + \frac{y^2}{\sigma_y^2} - \frac{2 \rho x y}{ (\sigma_x \sigma_y)} \right)
\right) </math>
donde <math>\rho</math> es el coeficiente de correlacion entre <math>X</math> e <math>Y</math>. En este caso,
- <math>
\Sigma = \begin{bmatrix} \sigma_x^2 & \rho \sigma_x \sigma_y \\ \rho \sigma_x \sigma_y & \sigma_y^2 \end{bmatrix}. </math>
Transformación afín
Si <math>Y = c + B X \,</math> es una transformación afín de <math>X\ \sim \mathcal{N}(\mu, \Sigma),</math> donde <math>c\,</math> es un <math>M \times 1</math> vector de constantes y <math>B\,</math> una <math>M \times N</math> matriz, entonces <math>Y\,</math> tiene una distribución normal multivariante con esperanza <math>c + B \mu \,</math> y varianza <math>B \Sigma B^T \,</math> esto es, <math>Y \sim \mathcal{N} \left(c + B \mu, B \Sigma B^T\right)</math>. En particular, cualquier subconjunto de las <math>X_i\,</math> tiene una distribución marginal que es también una normal multivariante.
Para ver esto, considérese el siguiente ejemplo: para extraer el subconjunto <math>(X_1, X_2, X_4)^T \,</math>, úsese
- <math>
B = \begin{bmatrix}
1 & 0 & 0 & 0 & 0 & \ldots & 0 \\ 0 & 1 & 0 & 0 & 0 & \ldots & 0 \\ 0 & 0 & 0 & 1 & 0 & \ldots & 0
\end{bmatrix} </math>
lo que extrae directamente los elementos deseados.
Otro corolario sería que la distribución de <math>Z=b\cdot X</math>, donde <math>b</math> es un vector de la misma longitud que <math>X</math> y el punto indica un producto vectorial, sería una distribución gaussiana unidimensional con <math>Z\sim\mathcal{N}\left(b\cdot\mu, b^T\Sigma b\right)</math>. Este resultado se obtiene usando
- <math>
B=\begin{bmatrix} b_1 & b_2 & \ldots & b_n \\ 0 & 0 & \ldots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \ldots & 0 \end{bmatrix} </math>
y considerando sólo la primera componente del producto (la primera fila de <math>B</math> es el vector <math>b</math>). Obsérvese cómo la definición positiva de <math>\Sigma</math> implica que la varianza del producto vectorial debería ser positiva.
Interpretación geométrica
Las curvas de equidensidad de una distribución normal multivariante son elipsoides (es decir, transformaciones lineales de hiperesferas) centrados en la media.<ref>{{
- if: {{#if: http://www.lri.fr/~hansen/cmatutorial.pdf%7C{{#if:The CMA Evolution Strategy: A Tutorial|The CMA Evolution Strategy: A Tutorial|Error: no se ha especificado |título= al usar {{[[{{#switch:
| = Plantilla:cita web|cita web
| Plantilla = cita web|Cita web
| #default = cita web
}}]]{{#if:||{{{2}}}}}{{#if:||{{{3}}}}}{{#if:||{{{4}}}}}{{#if:||{{{5}}}}}{{#if:||{{{6}}}}}{{#if:||{{{7}}}}}{{#if:||{{{8}}}}}{{#if:||{{{9}}}}}}}}}|Error: no se ha especificado |url= al usar {{[[{{#switch:
| = Plantilla:cita web|cita web
| Plantilla = cita web|Cita web
| #default = cita web
}}]]{{#if:||{{{2}}}}}{{#if:||{{{3}}}}}{{#if:||{{{4}}}}}{{#if:||{{{5}}}}}{{#if:||{{{6}}}}}{{#if:||{{{7}}}}}{{#if:||{{{8}}}}}{{#if:||{{{9}}}}}}}}}
}}{{
- if:
| {{#if: {{#if: | {{#if: |1}}}} ||Debes especificar urlarchivo = y fechaarchivo = al usar {{[[{{#switch: | = Plantilla:cita web|cita web | Plantilla = cita web|Cita web | #default = cita web }}]]{{#if:||{{{2}}}}}{{#if:||{{{3}}}}}{{#if:||{{{4}}}}}{{#if:||{{{5}}}}}{{#if:||{{{6}}}}}{{#if:||{{{7}}}}}{{#if:||{{{8}}}}}{{#if:||{{{9}}}}}}}.
}} }}{{#if: Nikolaus Hansen
| {{#if: | [[|{{#if: | {{#if: | , }} | Nikolaus Hansen }}]] | {{#if: | {{#if: | , }} | Nikolaus Hansen }} }}
}}{{#if: Nikolaus Hansen
| {{#if: | ; }}
}}{{#if: Nikolaus Hansen|
{{#if: | () | {{#if: | {{#if: | ( de ) | () }} }} |}}
}}{{#if: Nikolaus Hansen
| . }}{{ #if: | {{{editor}}} (ed.):
}}{{#if:
| {{#if: | {{#if: The CMA Evolution Strategy: A Tutorial | «[ The CMA Evolution Strategy: A Tutorial]»{{#if: | (en )}}}}}} | {{#if: http://www.lri.fr/~hansen/cmatutorial.pdf | {{#if: The CMA Evolution Strategy: A Tutorial | {{#if: | {{#if:The CMA Evolution Strategy: A Tutorial|«The CMA Evolution Strategy: A Tutorial»|http://www.lri.fr/~hansen/cmatutorial.pdf}} (enlace roto disponible en Internet Archive; véase el historial y la última versión).{{#switch: | |WikiRiesgos| =}} | «The CMA Evolution Strategy: A Tutorial» }}{{#if: | (en )
}}{{#if: |, [{{{urltrad}}} traducción al español]}} }}}} }}{{#if: PDF | (PDF) }}{{#if:
| . '
}}{{#if:
| pág. {{{página}}}
}}{{#if:
| págs.
}}{{#if:
| . {{#if: | : }} {{#if: Nikolaus Hansen | | {{#if: || }} }}
}}{{#if: Nikolaus Hansen
||{{#if: | () | {{#if: | {{#if: | ( de ) | () }} }} }}
}}.{{#if:
| Archivado desde el original el .
}}{{#if:
| doi:{{{doi}}}.
}}{{#if:
| Consultado el {{#if: | de }}{{#ifeq: |sí| (requiere suscripción)}}.
}}{{#if:
| «».
}}</ref> Las direcciones de los ejes principales de los elipsoides vienen dados por los vectores propios de la matriz de covarianza <math>\Sigma</math>. Las longitudes relativas de los cuadrados de los ejes principales vienen dados por los correspondientes vectores propios.
Si <math>\Sigma=U\Lambda U^T=U\Lambda^{1/2}(U\Lambda^{1/2})^T</math> es una descomposición espectral donde las columnas de U son vectores propios unitarios y <math>\Lambda</math> es una matriz diagonal de valores propios, entonces tenemos
- <math>X\ \sim N(\mu, \Sigma) \iff X\ \sim \mu+U\Lambda^{1/2}N(0, I) \iff X\ \sim \mu+UN(0, \Lambda).</math>
Además, U puede elegirse de tal modo que sea una matriz de rotación, tal que invirtiendo un eje no tenga ningún efecto en <math>N(0, \Lambda)</math>, pero invirtiendo una columna, cambie el signo del determinante de U'. La distribución <math>N(\mu, \Sigma)</math> es en efecto <math>N(0, I)</math> escalada por <math>\Lambda^{1/2}</math>, rotada por U y trasladada por <math>\mu</math>.
Recíprocamente, cualquier elección de <math>\mu</math>, matriz de rango completo U, y valores diagonales positivos <math>\Lambda_i</math> cede el paso a una distribución normal no singular multivariante. Si cualquier <math>\Lambda_i</math> es cero y U es cuadrada, la matriz de covarianza <math>U\Lambda U^T</math> es una singular. Geométricamente esto significa que cada curva elipsoide es infinitamente delgada y tiene volumen cero en un espacio n-dimensional, así como, al menos, uno de los principales ejes tiene longitud cero.
Correlaciones e independencia
En general, las variables aleatorias pueden ser incorreladas, pero altamente dependientes. Pero si un vector aleatorio tiene una distribución normal multivariante, entonces cualesquiera dos o más de sus componentes que sean incorreladas, son independientes.
Pero no es cierto que dos variables aleatorias que están (separadamente, marginalmente) normalmente distribuidas e incorreladas sean independientes. Dos variables aleatorias que están normalmente distribuidas pueden que no lo estén conjuntamente. Para un ejemplo de dos variables normalmente distribuidas que sean incorreladas pero no independientes, véase normalmente distribuidas e incorreladas no implica independencia.
Momentos más altos
El momento estándar de k-ésimo orden de X se define como
- <math>
\mu _{1,\dots,N}(X)\ \stackrel{\mathrm{def}}{=}\ \mu _{r_{1},\dots,r_{N}}(X)\ \stackrel{\mathrm{def}}{=}\ E\left[ \prod\limits_{j=1}^{N}X_j^{r_{j}}\right] </math>
donde <math>r_1 +r_2 + \cdots + r_N =k.</math>
Los momentos centrales de orden k viene dados como sigue:
(a) Si k es impar, <math>\mu _{1,\dots,N}(X-\mu )=0</math>.
(b) Si k es par, con <math>k=2\lambda</math>, entonces
- <math>
\mu _{1,\dots,2\lambda }(X-\mu )=\sum \left( \sigma _{ij}\sigma _{k\ell}\cdots\sigma _{XZ}\right) </math>
donde la suma se toma sobre todas las disposiciones de conjuntos <math>\left\{ 1,\dots,2\lambda \right\}</math> en <math>\lambda</math> parejas (no ordenadas). Esto es, si se tiene un k-ésimo (<math>{}=2\lambda=6</math>) momento central, se estarán sumando los productos de <math>\lambda=3</math> covarianzas (la notación -<math>\mu</math> se ha despreciado para facilitar la lectura):
- <math>\begin{align}
& {} E[X_1 X_2 X_3 X_4 X_5 X_6] \\ &{} = E[X_1 X_2 ]E[X_3 X_4 ]E[X_5 X_6 ] + E[X_1 X_2 ]E[X_3 X_5 ]E[X_4 X_6] + E[X_1 X_2 ]E[X_3 X_6 ]E[X_4 X_5] \\ &{} + E[X_1 X_3 ]E[X_2 X_4 ]E[X_5 X_6 ] + E[X_1 X_3 ]E[X_2 X_5 ]E[X_4 X_6 ] + E[X_1 X_3]E[X_2 X_6]E[X_4 X_5] \\ &+ E[X_1 X_4]E[X_2 X_3]E[X_5 X_6]+E[X_1 X_4]E[X_2 X_5]E[X_3 X_6]+E[X_1 X_4]E[X_2 X_6]E[X_3 X_5] \\ & + E[X_1 X_5]E[X_2 X_3]E[X_4 X_6]+E[X_1 X_5]E[X_2 X_4]E[X_3 X_6]+E[X_1 X_5]E[X_2 X_6]E[X_3 X_4] \\ & + E[X_1 X_6]E[X_2 X_3]E[X_4 X_5 ] + E[X_1 X_6]E[X_2 X_4 ]E[X_3 X_5] + E[X_1 X_6]E[X_2 X_5]E[X_3 X_4]. \end{align}</math>
Esto da lugar a <math>(2\lambda -1)!/(2^{\lambda -1}(\lambda -1)!)</math> términos en la suma (15 en el caso de arriba), cada uno siendo el producto de <math>\lambda</math> (3 en este caso) covarianzas. Para momentos de cuarto orden (cuatro variables) hay tres términos. Para momentos de sexto orden hay 3 × 5 = 15 términos, y para momentos de octavo orden hay 3 × 5 × 7 = 105 términos.
Las covarianzas son entonces determinadas mediante el reemplazo de los términos de la lista <math>\left[ 1,\dots,2\lambda \right]</math> por los términos correspondientes de la lista que consiste en <math>r_1</math> unos, entonces <math>r_2</math> doses, etc... Para ilustrar esto, examínese el siguiente caso de momento central de cuarto orden:
- <math>E\left[ X_i^4\right] = 3\sigma _{ii}^2</math>
- <math>E\left[ X_i^3 X_j\right] = 3\sigma _{ii} \sigma _{ij}</math>
- <math>E\left[ X_i^2 X_j^2\right] = \sigma _{ii}\sigma_{jj}+2\left( \sigma _{ij}\right) ^2</math>
- <math>E\left[ X_i^2X_jX_k\right] = \sigma _{ii}\sigma _{jk}+2\sigma _{ij}\sigma _{ik}</math>
- <math>E\left[ X_i X_j X_k X_n\right] = \sigma _{ij}\sigma _{kn}+\sigma _{ik}\sigma _{jn}+\sigma _{in}\sigma _{jk}.
</math>
donde <math> \sigma_{ij} </math> es la covarianza de <math> X_i </math> y <math> X_j</math>. La idea del método de arriba es que primero se encuentra el caso general para el momento <math>k</math>-ésimo, donde se tiene <math>k</math> diferentes variables <math>X</math> - <math>E\left[ X_i X_j X_k X_n\right]</math> y entonces se pueden simplificar apropiadamente. Si se tiene <math>E\left[ X_i^2 X_k X_n\right]</math> entonces, simplemente sea <math>X_i = X_j</math> y se sigue que <math>\sigma_{ii}=\sigma_i^2</math>.
Distribuciones condicionales
Si <math>\mu</math> y <math>\Sigma</math> son divididas como sigue:
- <math>
\mu = \begin{bmatrix}
\mu_1 \\ \mu_2
\end{bmatrix} \quad</math> con tamaños <math>\begin{bmatrix} q \times 1 \\ (N-q) \times 1 \end{bmatrix}</math>
- <math>
\Sigma = \begin{bmatrix}
\Sigma_{11} & \Sigma_{12} \\ \Sigma_{21} & \Sigma_{22}
\end{bmatrix} \quad</math> con tamaños <math>\begin{bmatrix} q \times q & q \times (N-q) \\ (N-q) \times q & (N-q) \times (N-q) \end{bmatrix}</math>
entonces la distribución de <math>x_1</math> condicionada a <math>x_2=a</math> es una normal multivariante <math>(X_1|X_2=a) \sim N(\bar{\mu}, \overline{\Sigma})</math> donde
- <math>
\bar{\mu} = \mu_1 + \Sigma_{12} \Sigma_{22}^{-1} \left(
a - \mu_2
\right) </math>
y matriz de covarianza
- <math>
\overline{\Sigma} = \Sigma_{11} - \Sigma_{12} \Sigma_{22}^{-1} \Sigma_{21}. </math>
Esta matriz es el complemento de Schur de <math>{\mathbf\Sigma_{22}}</math> en <math>{\mathbf\Sigma}</math>. Esto significa que para calcular la matriz condicional de covarianza, se invierte la matriz global de covarianza, se desprecian las filas y columnas correspondientes a las variables bajo las cuales está condicionada y entonces se invierte de nuevo para conseguir la matriz condicional de covarianza.
Nótese que se sabe que <math>x_2=a</math> altera la varianza, aunque la nueva varianza no dependa del valor específico de <math>a</math>; quizás más sorprendentemente, la media se cambia por <math>\Sigma_{12} \Sigma_{22}^{-1} \left(a - \mu_2 \right)</math>; compárese esto con la situación en la que no se conoce el valor de <math>a</math>, en cuyo caso <math>x_1</math> tendría como distribución
<math>N_q \left(\mu_1, \Sigma_{11} \right)</math>.
La matriz <math>\Sigma_{12} \Sigma_{22}^{-1}</math> se conoce como la matriz de coeficientes de regresión.
Esperanza condicional bivariante
En el caso
<math> \begin{pmatrix}
X_1 \\ X_2
\end{pmatrix} \sim \mathcal{N} \left( \begin{pmatrix}
0 \\ 0
\end{pmatrix} , \begin{pmatrix}
1 & \rho \\ \rho & 1
\end{pmatrix} \right) </math>
entonces
<math> E(X_1 | X_2 > z) = \rho { \phi(z) \over \Phi(-z) } </math>
donde esta última razón se llama a menudo razón inversa de Mills.
Matriz de información de Fisher
La matriz de información de Fisher (MIF) para una distribución normal toma una formulación especial. El elemento <math>(m,n)</math> de la MIF para <math>X \sim N(\mu(\theta), \Sigma(\theta))</math> es
- <math>
\mathcal{I}_{m,n} = \frac{\partial \mu}{\partial \theta_m} \Sigma^{-1} \frac{\partial \mu^\top}{\partial \theta_n} + \frac{1}{2} \mathrm{tr} \left(
\Sigma^{-1} \frac{\partial \Sigma}{\partial \theta_m} \Sigma^{-1} \frac{\partial \Sigma}{\partial \theta_n}
\right) </math>
donde
- <math>
\frac{\partial \mu}{\partial \theta_m} = \begin{bmatrix}
\frac{\partial \mu_1}{\partial \theta_m} & \frac{\partial \mu_2}{\partial \theta_m} & \cdots & \frac{\partial \mu_N}{\partial \theta_m} &
\end{bmatrix} </math>
- <math>
\frac{\partial \mu^\top}{\partial \theta_m} = \left(
\frac{\partial \mu}{\partial \theta_m}
\right)^\top = \begin{bmatrix}
\frac{\partial \mu_1}{\partial \theta_m} \\ \\ \frac{\partial \mu_2}{\partial \theta_m} \\ \\ \vdots \\ \\ \frac{\partial \mu_N}{\partial \theta_m} \\ \\
\end{bmatrix} </math>
- <math>
\frac{\partial \Sigma}{\partial \theta_m} = \begin{bmatrix}
\frac{\partial \Sigma_{1,1}}{\partial \theta_m} & \frac{\partial \Sigma_{1,2}}{\partial \theta_m} & \cdots & \frac{\partial \Sigma_{1,N}}{\partial \theta_m} \\ \\ \frac{\partial \Sigma_{2,1}}{\partial \theta_m} & \frac{\partial \Sigma_{2,2}}{\partial \theta_m} & \cdots & \frac{\partial \Sigma_{2,N}}{\partial \theta_m} \\ \\ \vdots & \vdots & \ddots & \vdots \\ \\ \frac{\partial \Sigma_{N,1}}{\partial \theta_m} & \frac{\partial \Sigma_{N,2}}{\partial \theta_m} & \cdots & \frac{\partial \Sigma_{N,N}}{\partial \theta_m}
\end{bmatrix} </math>
- <math>\mathrm{tr}</math> es la función traza de una matriz.
Divergencia de Kullback-Leibler
La divergencia de Kullback-Leibler de <math>N0_N(\mu_0, \Sigma_0)</math> a <math>N1_N(\mu_1, \Sigma_1)</math> es:
- <math>
D_\text{KL}(N0 \| N1) = { 1 \over 2 } \left( \log_e \left( { \det \Sigma_1 \over \det \Sigma_0 } \right) + \mathrm{tr} \left( \Sigma_1^{-1} \Sigma_0 \right) + \left( \mu_1 - \mu_0\right)^\top \Sigma_1^{-1} ( \mu_1 - \mu_0 ) - N \right). </math>
El logaritmo debe tomarse con base e en los dos términos (logaritmos neperianos), siguiendo el logaritmo están los logaritmos neperianos de las expresiones que son ambos factores de la función de densidad o si no, surgen naturalmente. La divergencia de arriba se mide en nats. Dividiendo la expresión de arriba por loge 2 se da paso a la divergencia en bits.
Estimación de parámetros
La derivación del estimador de máxima verosimilitud de la matriz de covarianza de una distribución normal multivariante es, quizás sorprendentemente, sutil y elegante. Véase estimación de matrices de covarianza.
En pocas palabras, la función de densidad de probabilidad de una normal multivariante N-dimensional es
- <math>f(x)=(2 \pi)^{-N/2} \det(\Sigma)^{-1/2} \exp\left(-{1 \over 2} (x-\mu)^T \Sigma^{-1} (x-\mu)\right)</math>
y el estimador MV de la matriz de covarianza para una muestra de n observaciones es
- <math>\widehat\Sigma = {1 \over n}\sum_{i=1}^n (X_i-\overline{X})(X_i-\overline{X})^T</math>
lo cual es, simplemente, la matriz muestral de covarianza. Este es un estimador sesgado cuya esperanza es
- <math>E[\widehat\Sigma] = {n-1 \over n}\Sigma.</math>
Una covarianza muestral insesgada es
- <math>\widehat\Sigma = {1 \over n-1}\sum_{i=1}^n (X_i-\overline{X})(X_i-\overline{X})^T.</math>
Entropía
La entropía diferencial de la distribución normal multivariante es<ref>{{
#if:Gokhale |{{ #if: |{{ #iferror: {{ #expr: 1* }} | |{{#ifexpr:>000|—}}{{#ifexpr:>001|—}}{{#ifexpr:>002|—}}{{#ifexpr:>003|—}}{{#ifexpr:>004|—}}{{#ifexpr:>005|—}}{{#ifexpr:>006|—}}{{#ifexpr:>007|—}}{{#ifexpr:>008|—}}{{#ifexpr:>009|—}}{{#ifexpr:>010|—}}{{#ifexpr:>011|—}}{{#ifexpr:>012|—}}{{#ifexpr:>013|—}}{{#ifexpr:>014|—}}{{#ifexpr:>015|—}}{{#ifexpr:>016|—}}{{#ifexpr:>017|—}}{{#ifexpr:>018|—}}{{#ifexpr:>019|—}}{{#ifexpr:>020|—}}{{#ifexpr:>021|—}}{{#ifexpr:>022|—}}{{#ifexpr:>023|—}}{{#ifexpr:>024|—}}{{#ifexpr:>025|—}}{{#ifexpr:>026|—}}{{#ifexpr:>027|—}}{{#ifexpr:>028|—}}{{#ifexpr:>029|—}}{{#ifexpr:>030|—}}{{#ifexpr:>031|—}}{{#ifexpr:>032|—}}{{#ifexpr:>033|—}}{{#ifexpr:>034|—}}{{#ifexpr:>035|—}}{{#ifexpr:>036|—}}{{#ifexpr:>037|—}}{{#ifexpr:>038|—}}{{#ifexpr:>039|—}}{{#ifexpr:>040|—}}{{#ifexpr:>041|—}}{{#ifexpr:>042|—}}{{#ifexpr:>043|—}}{{#ifexpr:>044|—}}{{#ifexpr:>045|—}}{{#ifexpr:>046|—}}{{#ifexpr:>047|—}}{{#ifexpr:>048|—}}{{#ifexpr:>049|—}}{{#ifexpr:>050|—}}{{#ifexpr:>051|—}}{{#ifexpr:>052|—}}{{#ifexpr:>053|—}}{{#ifexpr:>054|—}}{{#ifexpr:>055|—}}{{#ifexpr:>056|—}}{{#ifexpr:>057|—}}{{#ifexpr:>058|—}}{{#ifexpr:>059|—}}{{#ifexpr:>060|—}}{{#ifexpr:>061|—}}{{#ifexpr:>062|—}}{{#ifexpr:>063|—}}{{#ifexpr:>064|—}}{{#ifexpr:>065|—}}{{#ifexpr:>066|—}}{{#ifexpr:>067|—}}{{#ifexpr:>068|—}}{{#ifexpr:>069|—}}{{#ifexpr:>070|—}}{{#ifexpr:>071|—}}{{#ifexpr:>072|—}}{{#ifexpr:>073|—}}{{#ifexpr:>074|—}}{{#ifexpr:>075|—}}{{#ifexpr:>076|—}}{{#ifexpr:>077|—}}{{#ifexpr:>078|—}}{{#ifexpr:>079|—}}{{#ifexpr:>080|—}}{{#ifexpr:>081|—}}{{#ifexpr:>082|—}}{{#ifexpr:>083|—}}{{#ifexpr:>084|—}}{{#ifexpr:>085|—}}{{#ifexpr:>086|—}}{{#ifexpr:>087|—}}{{#ifexpr:>088|—}}{{#ifexpr:>089|—}}{{#ifexpr:>090|—}}{{#ifexpr:>091|—}}{{#ifexpr:>092|—}}{{#ifexpr:>093|—}}{{#ifexpr:>094|—}}{{#ifexpr:>095|—}}{{#ifexpr:>096|—}}{{#ifexpr:>097|—}}{{#ifexpr:>098|—}}{{#ifexpr:>099|—}}{{#ifexpr:>100|—}}{{#ifexpr:>101|—}}{{#ifexpr:>102|—}}{{#ifexpr:>103|—}}{{#ifexpr:>104|—}}{{#ifexpr:>105|—}}{{#ifexpr:>106|—}}{{#ifexpr:>107|—}}{{#ifexpr:>108|—}}{{#ifexpr:>109|—}}{{#ifexpr:>110|—}}{{#ifexpr:>111|—}}{{#ifexpr:>112|—}}{{#ifexpr:>113|—}}{{#ifexpr:>114|—}}{{#ifexpr:>115|—}}{{#ifexpr:>116|—}}{{#ifexpr:>117|—}}{{#ifexpr:>118|—}}{{#ifexpr:>119|—}}{{#ifexpr:>120|—}}{{#ifexpr:>121|—}}{{#ifexpr:>122|—}}{{#ifexpr:>123|—}}{{#ifexpr:>124|—}}{{#ifexpr:>125|—}}{{#ifexpr:>126|—}}{{#ifexpr:>127|—}}{{#ifexpr:>128|—}}{{#ifexpr:>129|—}}{{#ifexpr:>130|—}}{{#ifexpr:>131|—}}{{#ifexpr:>132|—}}{{#ifexpr:>133|—}}{{#ifexpr:>134|—}}{{#ifexpr:>135|—}}{{#ifexpr:>136|—}}{{#ifexpr:>137|—}}{{#ifexpr:>138|—}}{{#ifexpr:>139|—}}{{#ifexpr:>140|—}}{{#ifexpr:>141|—}}{{#ifexpr:>142|—}}{{#ifexpr:>143|—}}{{#ifexpr:>144|—}}{{#ifexpr:>145|—}}{{#ifexpr:>146|—}}{{#ifexpr:>147|—}}{{#ifexpr:>148|—}}{{#ifexpr:>149|—}} }} |{{ #if: |[[ |Gokhale{{ #if: DV |, DV }}]] |Gokhale{{ #if: DV |, DV }} }} }}{{ #if: NA Ahmed, BC Res, NJ Piscataway |{{#ifexpr:8<2 | et ál. |{{ #iferror: {{ #expr: 1*0.0 }} | |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }} }}{{ #if: |[[ |NA Ahmed, BC Res, NJ Piscataway{{ #if: |, }}]] |NA Ahmed, BC Res, NJ Piscataway{{ #if: |, }} }}{{ #if: |{{#ifexpr:8<3 | et ál. |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: |{{#ifexpr:8<4 | et ál. |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: |{{#ifexpr:8<5 | et ál. |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: |{{#ifexpr:8<6 | et ál. |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: |{{#ifexpr:8<7 | et ál. |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: |{{#ifexpr:8<8 | et ál. |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: | et ál. }} }} }} }} }} }} }} }} }} }} }} }} }} }}
}}{{ #if: {{#if:|{{{date}}}| May 1989}} | ({{#if:|{{{date}}}| May 1989}}){{ #if: | [{{{YearNote}}}] }} }} |{{ #if: |{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: | et ál. }} }} }}, ed{{#if:|s}}{{#ifeq:{{#ifeq:{{{seperator}}} |;|;|. }}|.||.}}{{ #if: {{#if:|{{{date}}}| May 1989}} | ({{#if:|{{{date}}}| May 1989}}){{ #if: | [{{{YearNote}}}] }} }} }}
}}{{
#if: {{ #if:Information Theory, IEEE Transactions on||{{#if:||}} }} |{{ #if:Gokhale |{{#ifeq:{{{seperator}}} |;|;|. }} }}{{#if:Information Theory, IEEE Transactions on||«}}{{#if:{{ #if: | |{{ #if: | |{{#ifexpr:{{#time: U}} > {{#time: U | 1010-10-10 }} |{{ #if: |http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }} }} }} }} |[{{ #if: | |{{ #if: | |{{#ifexpr:{{#time: U}} > {{#time: U | 1010-10-10 }} |{{ #if: |http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }} }} }} }} {{ #if: Information Theory, IEEE Transactions on | |{{ #if: |{{#if: | }}[]}} }}] |{{ #if: Information Theory, IEEE Transactions on | |{{ #if: |{{#if: | }}[]}} }}
}}{{#if:Information Theory, IEEE Transactions on||»}} }}{{
#if: |{{ #ifeq: | | |{{ #if: Gokhale |{{#ifeq:{{{seperator}}} |;|;|. }} escrito en }} }}
}}{{
#if: |{{ #if: Gokhale |{{#ifeq:{{{seperator}}} |;|;|. }} {{ #if: |{{#ifeq: {{#ifeq:{{{seperator}}} |;|;|. }}|.|E|e}}n }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }}}}{{ #if: |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[|{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: |{{ #if: |; |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[|{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: | et ál. }} }} }}{{ #if: | |{{#ifeq:{{{seperator}}} |;|;|. }} ed{{#if:|s}}{{#ifeq:{{#ifeq:{{{seperator}}} |;|;|. }}|.||.}} }} }}
}}{{
#if: Information Theory, IEEE Transactions on |{{ #if: |{{#ifeq:{{{seperator}}} |;|;|. }} }}{{ #if: Gokhale |{{#ifeq:{{{seperator}}} |;|;|. }} }}{{ #if: Entropy Expressions and Their Estimators for Multivariate Distributions |«{{#if:{{ #if: |{{ #if: |{{ #if: | |{{ #ifexpr: {{#time: U}} > {{#time: U | 1010-10-10 }} | {{ #if: | http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }} }} }} }} |{{ #if: | |{{#ifexpr:{{#time: U}} > {{#time: U | 1010-10-10 }} |{{ #if: | http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }} }} }} }} |[{{ #if: |{{ #if: |{{ #if: | |{{ #ifexpr: {{#time: U}} > {{#time: U | 1010-10-10 }} | {{ #if: | http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }} }} }} }} |{{ #if: | |{{#ifexpr:{{#time: U}} > {{#time: U | 1010-10-10 }} |{{ #if: | http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }} }} }} }} Entropy Expressions and Their Estimators for Multivariate Distributions{{ #if: |{{#if: Entropy Expressions and Their Estimators for Multivariate Distributions| }}[]}}] |Entropy Expressions and Their Estimators for Multivariate Distributions{{ #if: |{{#if: Entropy Expressions and Their Estimators for Multivariate Distributions| }}[]}}
}}»{{
#if: |{{#ifeq:{{{seperator}}} |;|;|. }} {{{TitleNote}}} }} }}
}}{{ #if:
| (en {{ #if: |, ) |) }} |{{ #if: | () }}
}}{{
#if: Information Theory, IEEE Transactions on|{{ #if:Entropy Expressions and Their Estimators for Multivariate Distributions|{{#ifeq:{{{seperator}}} |;|;|. }} }}Information Theory, IEEE Transactions on{{ #if: |{{#ifeq:{{{seperator}}} |;|;|. }} }}{{ #if: |{{ #if: | (: ) | () }} |{{ #if: | () }} }}{{ #if: 35 | 35{{ #if: 3 | (3) }} |{{ #if: 3 | (3) }} }}{{ #if: {{ #if: | {{#if:||p. }} }}{{ #if: 688–692 | {{#if:||pp. }}688–692 }} |: {{ #if: | {{#if:||p. }} }}{{ #if: 688–692 | {{#if:||pp. }}688–692 }} }} |{{ #if: Entropy Expressions and Their Estimators for Multivariate Distributions |{{ #if: GokhaleInformation Theory, IEEE Transactions on |{{#ifeq:{{{seperator}}} |;|;|. }} | }}{{#if:{{ #if: |{{ #if: |{{ #if: | |{{#ifexpr:{{#time: U}} > {{#time: U | 1010-10-10 }}|{{ #if: | http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }}}} }} }} |{{ #if: | |{{#ifexpr:{{#time: U}} > {{#time: U | 1010-10-10 }}|{{ #if: | http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }}}} }} }} |[{{ #if: |{{ #if: |{{ #if: | |{{#ifexpr:{{#time: U}} > {{#time: U | 1010-10-10 }}|{{ #if: | http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }}}} }} }} |{{ #if: | |{{#ifexpr:{{#time: U}} > {{#time: U | 1010-10-10 }}|{{ #if: | http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }}}} }} }} Entropy Expressions and Their Estimators for Multivariate Distributions{{ #if:| [{{{TransItalic}}}] }}] |Entropy Expressions and Their Estimators for Multivariate Distributions{{ #if:| [{{{TransItalic}}}] }}
}}}}{{#if: | ({{{TipoTítulo}}})}}{{
#if: |{{#ifeq:{{{seperator}}} |;|;|. }} }}{{ #if: 35 |{{#ifeq:{{{seperator}}} |;|;|. }} 35 }}{{ #if: |{{#ifeq:{{{seperator}}} |;|;|. }} }}{{ #if: | ({{#if:|| edición}}) }}{{ #if: |{{#ifeq:{{{seperator}}} |;|;|. }} }}{{ #if: |{{ #if: |: |{{#ifeq:{{{seperator}}} |;|;|. }} }} }} }}{{ #if: Gokhale | |{{ #if: {{#if:|{{{date}}}| May 1989}} |{{#ifeq:{{{seperator}}} |;|;|. }} {{#if:|{{{date}}}| May 1989}}{{ #if: | [{{{YearNote}}}] }} }}
}}{{
#if: |{{ #ifeq: | {{#if:|{{{date}}}| May 1989}} | |{{ #if: |{{ #if: Gokhale |{{#ifeq:{{{seperator}}} |;|;|. }} | (publicado el ) }} |{{ #if: Information Theory, IEEE Transactions on |{{#ifeq:{{{seperator}}} |;|;|. }} | (publicado el ) }} }} }}
}}{{
#if: Information Theory, IEEE Transactions on | |{{ #if: {{ #if: | {{#if:||p. }} }}{{ #if: 688–692 | {{#if:||pp. }}688–692 }} |{{#ifeq:{{{seperator}}} |;|;|. }} {{ #if: | {{#if:||p. }} }}{{ #if: 688–692 | {{#if:||pp. }}688–692 }} }}
}}{{
- if:10.1109/18.30996
|{{#ifeq:{{{seperator}}} |;|;|. }} doi:{{#if: | 10.1109/18.30996 (inactivo desde ) | }}
}}{{
#if: |{{ #if: GokhaleInformation Theory, IEEE Transactions onEntropy Expressions and Their Estimators for Multivariate Distributions |{{#ifeq:{{{seperator}}} |;|;|. }} | }}
}}{{
#if: |{{#ifeq:{{{seperator}}} |;|;|. }} ISBN [[Especial:FuentesDeLibros/|]]
}}{{
#if: |{{#ifeq:{{{seperator}}} |;|;|. }} ISSN [3]
}}{{
#if: |{{#ifeq:{{{seperator}}} |;|;|. }} OCLC [4]
}}{{
#if: |{{#ifeq:{{{seperator}}} |;|;|. }} PMID [5]
}}{{
#if: |{{#if: |{{#ifeq:{{{seperator}}} |;|;|. }} PMC [6] }}
}}{{
#if: |{{#ifeq:{{{seperator}}} |;|;|. }} Bibcode: [7]
}}{{
- if:
|{{#ifeq:{{{seperator}}} |;|;|. }} {{{Archive}}} |{{
#if: |{{#ifeq:{{{seperator}}} |;|;|. }} {{#ifeq:{{#ifeq:{{{seperator}}} |;|;|. }}|.|A|a}}rchivado{{ #if: |{{#if:| del {{#if: |[ original] |original
}}}}
}}{{ #if: | el }}{{ #if:{{#if:||A}}{{#if:||B}}{{#if:||C}} |. Plantilla:Citation error }} }}
}}{{
#if: |{{ #if: Entropy Expressions and Their Estimators for Multivariate Distributions{{{TítuloTradTransTitle}}} |{{#ifeq:{{{seperator}}} |;|;|. }} {{ #if: | | }} |{{#ifeq:{{{seperator}}} |;|;|. }} {{ #if: | | }} }}{{ #if: {{#ifeq: |sí| (requiere suscripción)}} | {{#ifeq:{{#ifeq:{{{seperator}}} |;|;|. }}|,|, c|. C}}onsultado {{#if:{{#ifeq: |sí| (requiere suscripción)}}|el {{#ifeq: |sí| (requiere suscripción)}}|en {{#if: | de |}}}} }}
}}{{#if:
|{{#ifeq:{{{seperator}}} |;|;|. }} [ Resumen divulgativo]{{#if: | – }}
}}{{#if:
| ()
}}{{#if:
|{{#ifeq:{{{seperator}}} |;|;|. }} «»
}}{{
#if:| |}}.</ref>
- <math>
\begin{align} h\left(f\right) & = -\int_{-\infty}^\infty \int_{-\infty}^\infty \cdots\int_{-\infty}^\infty f(x) \ln f(x)\,dx \\ & = \frac12 \left(N+N\ln\left(2\pi\right) + \ln\left| \Sigma \right|\right) \\ & =\frac{1}{2}\ln\{(2\pi e)^N \left| \Sigma \right|\} \end{align} </math>
donde <math>\left| \Sigma \right|</math> es el determinante de la matriz de covarianza <math>\Sigma</math>.
Tests de normalidad multivariante
Los tests de normalidad multivariante comprueban la similitud de un conjunto dado de datos con la distribución normal multivariante. La hipótesis nula es que el conjunto de datos es similar a la distribución normal, por consiguiente un p-valor suficientemente pequeño indica datos no normales. Los tests de normalidad multivariante incluyen el test de Cox-Small<ref>{{
#if:Cox |{{ #if: |{{ #iferror: {{ #expr: 1* }} | |{{#ifexpr:>000|—}}{{#ifexpr:>001|—}}{{#ifexpr:>002|—}}{{#ifexpr:>003|—}}{{#ifexpr:>004|—}}{{#ifexpr:>005|—}}{{#ifexpr:>006|—}}{{#ifexpr:>007|—}}{{#ifexpr:>008|—}}{{#ifexpr:>009|—}}{{#ifexpr:>010|—}}{{#ifexpr:>011|—}}{{#ifexpr:>012|—}}{{#ifexpr:>013|—}}{{#ifexpr:>014|—}}{{#ifexpr:>015|—}}{{#ifexpr:>016|—}}{{#ifexpr:>017|—}}{{#ifexpr:>018|—}}{{#ifexpr:>019|—}}{{#ifexpr:>020|—}}{{#ifexpr:>021|—}}{{#ifexpr:>022|—}}{{#ifexpr:>023|—}}{{#ifexpr:>024|—}}{{#ifexpr:>025|—}}{{#ifexpr:>026|—}}{{#ifexpr:>027|—}}{{#ifexpr:>028|—}}{{#ifexpr:>029|—}}{{#ifexpr:>030|—}}{{#ifexpr:>031|—}}{{#ifexpr:>032|—}}{{#ifexpr:>033|—}}{{#ifexpr:>034|—}}{{#ifexpr:>035|—}}{{#ifexpr:>036|—}}{{#ifexpr:>037|—}}{{#ifexpr:>038|—}}{{#ifexpr:>039|—}}{{#ifexpr:>040|—}}{{#ifexpr:>041|—}}{{#ifexpr:>042|—}}{{#ifexpr:>043|—}}{{#ifexpr:>044|—}}{{#ifexpr:>045|—}}{{#ifexpr:>046|—}}{{#ifexpr:>047|—}}{{#ifexpr:>048|—}}{{#ifexpr:>049|—}}{{#ifexpr:>050|—}}{{#ifexpr:>051|—}}{{#ifexpr:>052|—}}{{#ifexpr:>053|—}}{{#ifexpr:>054|—}}{{#ifexpr:>055|—}}{{#ifexpr:>056|—}}{{#ifexpr:>057|—}}{{#ifexpr:>058|—}}{{#ifexpr:>059|—}}{{#ifexpr:>060|—}}{{#ifexpr:>061|—}}{{#ifexpr:>062|—}}{{#ifexpr:>063|—}}{{#ifexpr:>064|—}}{{#ifexpr:>065|—}}{{#ifexpr:>066|—}}{{#ifexpr:>067|—}}{{#ifexpr:>068|—}}{{#ifexpr:>069|—}}{{#ifexpr:>070|—}}{{#ifexpr:>071|—}}{{#ifexpr:>072|—}}{{#ifexpr:>073|—}}{{#ifexpr:>074|—}}{{#ifexpr:>075|—}}{{#ifexpr:>076|—}}{{#ifexpr:>077|—}}{{#ifexpr:>078|—}}{{#ifexpr:>079|—}}{{#ifexpr:>080|—}}{{#ifexpr:>081|—}}{{#ifexpr:>082|—}}{{#ifexpr:>083|—}}{{#ifexpr:>084|—}}{{#ifexpr:>085|—}}{{#ifexpr:>086|—}}{{#ifexpr:>087|—}}{{#ifexpr:>088|—}}{{#ifexpr:>089|—}}{{#ifexpr:>090|—}}{{#ifexpr:>091|—}}{{#ifexpr:>092|—}}{{#ifexpr:>093|—}}{{#ifexpr:>094|—}}{{#ifexpr:>095|—}}{{#ifexpr:>096|—}}{{#ifexpr:>097|—}}{{#ifexpr:>098|—}}{{#ifexpr:>099|—}}{{#ifexpr:>100|—}}{{#ifexpr:>101|—}}{{#ifexpr:>102|—}}{{#ifexpr:>103|—}}{{#ifexpr:>104|—}}{{#ifexpr:>105|—}}{{#ifexpr:>106|—}}{{#ifexpr:>107|—}}{{#ifexpr:>108|—}}{{#ifexpr:>109|—}}{{#ifexpr:>110|—}}{{#ifexpr:>111|—}}{{#ifexpr:>112|—}}{{#ifexpr:>113|—}}{{#ifexpr:>114|—}}{{#ifexpr:>115|—}}{{#ifexpr:>116|—}}{{#ifexpr:>117|—}}{{#ifexpr:>118|—}}{{#ifexpr:>119|—}}{{#ifexpr:>120|—}}{{#ifexpr:>121|—}}{{#ifexpr:>122|—}}{{#ifexpr:>123|—}}{{#ifexpr:>124|—}}{{#ifexpr:>125|—}}{{#ifexpr:>126|—}}{{#ifexpr:>127|—}}{{#ifexpr:>128|—}}{{#ifexpr:>129|—}}{{#ifexpr:>130|—}}{{#ifexpr:>131|—}}{{#ifexpr:>132|—}}{{#ifexpr:>133|—}}{{#ifexpr:>134|—}}{{#ifexpr:>135|—}}{{#ifexpr:>136|—}}{{#ifexpr:>137|—}}{{#ifexpr:>138|—}}{{#ifexpr:>139|—}}{{#ifexpr:>140|—}}{{#ifexpr:>141|—}}{{#ifexpr:>142|—}}{{#ifexpr:>143|—}}{{#ifexpr:>144|—}}{{#ifexpr:>145|—}}{{#ifexpr:>146|—}}{{#ifexpr:>147|—}}{{#ifexpr:>148|—}}{{#ifexpr:>149|—}} }} |{{ #if: |[[ |Cox{{ #if: D. R. |, D. R. }}]] |Cox{{ #if: D. R. |, D. R. }} }} }}{{ #if: N. J. H. Small |{{#ifexpr:8<2 | et ál. |{{ #iferror: {{ #expr: 1*0.0 }} | |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }} }}{{ #if: |[[ |N. J. H. Small{{ #if: |, }}]] |N. J. H. Small{{ #if: |, }} }}{{ #if: |{{#ifexpr:8<3 | et ál. |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: |{{#ifexpr:8<4 | et ál. |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: |{{#ifexpr:8<5 | et ál. |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: |{{#ifexpr:8<6 | et ál. |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: |{{#ifexpr:8<7 | et ál. |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: |{{#ifexpr:8<8 | et ál. |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: | et ál. }} }} }} }} }} }} }} }} }} }} }} }} }} }}
}}{{ #if: {{#if:|{{{date}}}| August 1978}} | ({{#if:|{{{date}}}| August 1978}}){{ #if: | [{{{YearNote}}}] }} }} |{{ #if: |{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: | et ál. }} }} }}, ed{{#if:|s}}{{#ifeq:{{#ifeq:{{{seperator}}} |;|;|. }}|.||.}}{{ #if: {{#if:|{{{date}}}| August 1978}} | ({{#if:|{{{date}}}| August 1978}}){{ #if: | [{{{YearNote}}}] }} }} }}
}}{{
#if: {{ #if:Biometrika||{{#if:||}} }} |{{ #if:Cox |{{#ifeq:{{{seperator}}} |;|;|. }} }}{{#if:Biometrika||«}}{{#if:{{ #if: | |{{ #if: | |{{#ifexpr:{{#time: U}} > {{#time: U | 1010-10-10 }} |{{ #if: |http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }} }} }} }} |[{{ #if: | |{{ #if: | |{{#ifexpr:{{#time: U}} > {{#time: U | 1010-10-10 }} |{{ #if: |http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }} }} }} }} {{ #if: Biometrika | |{{ #if: |{{#if: | }}[]}} }}] |{{ #if: Biometrika | |{{ #if: |{{#if: | }}[]}} }}
}}{{#if:Biometrika||»}} }}{{
#if: |{{ #ifeq: | | |{{ #if: Cox |{{#ifeq:{{{seperator}}} |;|;|. }} escrito en }} }}
}}{{
#if: |{{ #if: Cox |{{#ifeq:{{{seperator}}} |;|;|. }} {{ #if: |{{#ifeq: {{#ifeq:{{{seperator}}} |;|;|. }}|.|E|e}}n }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }}}}{{ #if: |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[|{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: |{{ #if: |; |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[|{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: | et ál. }} }} }}{{ #if: | |{{#ifeq:{{{seperator}}} |;|;|. }} ed{{#if:|s}}{{#ifeq:{{#ifeq:{{{seperator}}} |;|;|. }}|.||.}} }} }}
}}{{
#if: Biometrika |{{ #if: |{{#ifeq:{{{seperator}}} |;|;|. }} }}{{ #if: Cox |{{#ifeq:{{{seperator}}} |;|;|. }} }}{{ #if: Testing multivariate normality |«{{#if:{{ #if: |{{ #if: |{{ #if: | |{{ #ifexpr: {{#time: U}} > {{#time: U | 1010-10-10 }} | {{ #if: | http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }} }} }} }} |{{ #if: | |{{#ifexpr:{{#time: U}} > {{#time: U | 1010-10-10 }} |{{ #if: | http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }} }} }} }} |[{{ #if: |{{ #if: |{{ #if: | |{{ #ifexpr: {{#time: U}} > {{#time: U | 1010-10-10 }} | {{ #if: | http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }} }} }} }} |{{ #if: | |{{#ifexpr:{{#time: U}} > {{#time: U | 1010-10-10 }} |{{ #if: | http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }} }} }} }} Testing multivariate normality{{ #if: |{{#if: Testing multivariate normality| }}[]}}] |Testing multivariate normality{{ #if: |{{#if: Testing multivariate normality| }}[]}}
}}»{{
#if: |{{#ifeq:{{{seperator}}} |;|;|. }} {{{TitleNote}}} }} }}
}}{{ #if:
| (en {{ #if: |, ) |) }} |{{ #if: | () }}
}}{{
#if: Biometrika|{{ #if:Testing multivariate normality|{{#ifeq:{{{seperator}}} |;|;|. }} }}Biometrika{{ #if: |{{#ifeq:{{{seperator}}} |;|;|. }} }}{{ #if: |{{ #if: | (: ) | () }} |{{ #if: | () }} }}{{ #if: 65 | 65{{ #if: 2 | (2) }} |{{ #if: 2 | (2) }} }}{{ #if: {{ #if: | {{#if:||p. }} }}{{ #if: 263–272 | {{#if:||pp. }}263–272 }} |: {{ #if: | {{#if:||p. }} }}{{ #if: 263–272 | {{#if:||pp. }}263–272 }} }} |{{ #if: Testing multivariate normality |{{ #if: CoxBiometrika |{{#ifeq:{{{seperator}}} |;|;|. }} | }}{{#if:{{ #if: |{{ #if: |{{ #if: | |{{#ifexpr:{{#time: U}} > {{#time: U | 1010-10-10 }}|{{ #if: | http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }}}} }} }} |{{ #if: | |{{#ifexpr:{{#time: U}} > {{#time: U | 1010-10-10 }}|{{ #if: | http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }}}} }} }} |[{{ #if: |{{ #if: |{{ #if: | |{{#ifexpr:{{#time: U}} > {{#time: U | 1010-10-10 }}|{{ #if: | http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }}}} }} }} |{{ #if: | |{{#ifexpr:{{#time: U}} > {{#time: U | 1010-10-10 }}|{{ #if: | http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }}}} }} }} Testing multivariate normality{{ #if:| [{{{TransItalic}}}] }}] |Testing multivariate normality{{ #if:| [{{{TransItalic}}}] }}
}}}}{{#if: | ({{{TipoTítulo}}})}}{{
#if: |{{#ifeq:{{{seperator}}} |;|;|. }} }}{{ #if: 65 |{{#ifeq:{{{seperator}}} |;|;|. }} 65 }}{{ #if: |{{#ifeq:{{{seperator}}} |;|;|. }} }}{{ #if: | ({{#if:|| edición}}) }}{{ #if: |{{#ifeq:{{{seperator}}} |;|;|. }} }}{{ #if: |{{ #if: |: |{{#ifeq:{{{seperator}}} |;|;|. }} }} }} }}{{ #if: Cox | |{{ #if: {{#if:|{{{date}}}| August 1978}} |{{#ifeq:{{{seperator}}} |;|;|. }} {{#if:|{{{date}}}| August 1978}}{{ #if: | [{{{YearNote}}}] }} }}
}}{{
#if: |{{ #ifeq: | {{#if:|{{{date}}}| August 1978}} | |{{ #if: |{{ #if: Cox |{{#ifeq:{{{seperator}}} |;|;|. }} | (publicado el ) }} |{{ #if: Biometrika |{{#ifeq:{{{seperator}}} |;|;|. }} | (publicado el ) }} }} }}
}}{{
#if: Biometrika | |{{ #if: {{ #if: | {{#if:||p. }} }}{{ #if: 263–272 | {{#if:||pp. }}263–272 }} |{{#ifeq:{{{seperator}}} |;|;|. }} {{ #if: | {{#if:||p. }} }}{{ #if: 263–272 | {{#if:||pp. }}263–272 }} }}
}}{{
- if:10.1093/biomet/65.2.263
|{{#ifeq:{{{seperator}}} |;|;|. }} doi:{{#if: | 10.1093/biomet/65.2.263 (inactivo desde ) | }}
}}{{
#if: |{{ #if: CoxBiometrikaTesting multivariate normality |{{#ifeq:{{{seperator}}} |;|;|. }} | }}
}}{{
#if: |{{#ifeq:{{{seperator}}} |;|;|. }} ISBN [[Especial:FuentesDeLibros/|]]
}}{{
#if: |{{#ifeq:{{{seperator}}} |;|;|. }} ISSN [8]
}}{{
#if: |{{#ifeq:{{{seperator}}} |;|;|. }} OCLC [9]
}}{{
#if: |{{#ifeq:{{{seperator}}} |;|;|. }} PMID [10]
}}{{
#if: |{{#if: |{{#ifeq:{{{seperator}}} |;|;|. }} PMC [11] }}
}}{{
#if: |{{#ifeq:{{{seperator}}} |;|;|. }} Bibcode: [12]
}}{{
- if:
|{{#ifeq:{{{seperator}}} |;|;|. }} {{{Archive}}} |{{
#if: |{{#ifeq:{{{seperator}}} |;|;|. }} {{#ifeq:{{#ifeq:{{{seperator}}} |;|;|. }}|.|A|a}}rchivado{{ #if: |{{#if:| del {{#if: |[ original] |original
}}}}
}}{{ #if: | el }}{{ #if:{{#if:||A}}{{#if:||B}}{{#if:||C}} |. Plantilla:Citation error }} }}
}}{{
#if: |{{ #if: Testing multivariate normality{{{TítuloTradTransTitle}}} |{{#ifeq:{{{seperator}}} |;|;|. }} {{ #if: | | }} |{{#ifeq:{{{seperator}}} |;|;|. }} {{ #if: | | }} }}{{ #if: {{#ifeq: |sí| (requiere suscripción)}} | {{#ifeq:{{#ifeq:{{{seperator}}} |;|;|. }}|,|, c|. C}}onsultado {{#if:{{#ifeq: |sí| (requiere suscripción)}}|el {{#ifeq: |sí| (requiere suscripción)}}|en {{#if: | de |}}}} }}
}}{{#if:
|{{#ifeq:{{{seperator}}} |;|;|. }} [ Resumen divulgativo]{{#if: | – }}
}}{{#if:
| ()
}}{{#if:
|{{#ifeq:{{{seperator}}} |;|;|. }} «»
}}{{
#if:| |}}.</ref> y la adaptación de Smith y Jain
<ref>{{
#if:Smith |{{ #if: |{{ #iferror: {{ #expr: 1* }} | |{{#ifexpr:>000|—}}{{#ifexpr:>001|—}}{{#ifexpr:>002|—}}{{#ifexpr:>003|—}}{{#ifexpr:>004|—}}{{#ifexpr:>005|—}}{{#ifexpr:>006|—}}{{#ifexpr:>007|—}}{{#ifexpr:>008|—}}{{#ifexpr:>009|—}}{{#ifexpr:>010|—}}{{#ifexpr:>011|—}}{{#ifexpr:>012|—}}{{#ifexpr:>013|—}}{{#ifexpr:>014|—}}{{#ifexpr:>015|—}}{{#ifexpr:>016|—}}{{#ifexpr:>017|—}}{{#ifexpr:>018|—}}{{#ifexpr:>019|—}}{{#ifexpr:>020|—}}{{#ifexpr:>021|—}}{{#ifexpr:>022|—}}{{#ifexpr:>023|—}}{{#ifexpr:>024|—}}{{#ifexpr:>025|—}}{{#ifexpr:>026|—}}{{#ifexpr:>027|—}}{{#ifexpr:>028|—}}{{#ifexpr:>029|—}}{{#ifexpr:>030|—}}{{#ifexpr:>031|—}}{{#ifexpr:>032|—}}{{#ifexpr:>033|—}}{{#ifexpr:>034|—}}{{#ifexpr:>035|—}}{{#ifexpr:>036|—}}{{#ifexpr:>037|—}}{{#ifexpr:>038|—}}{{#ifexpr:>039|—}}{{#ifexpr:>040|—}}{{#ifexpr:>041|—}}{{#ifexpr:>042|—}}{{#ifexpr:>043|—}}{{#ifexpr:>044|—}}{{#ifexpr:>045|—}}{{#ifexpr:>046|—}}{{#ifexpr:>047|—}}{{#ifexpr:>048|—}}{{#ifexpr:>049|—}}{{#ifexpr:>050|—}}{{#ifexpr:>051|—}}{{#ifexpr:>052|—}}{{#ifexpr:>053|—}}{{#ifexpr:>054|—}}{{#ifexpr:>055|—}}{{#ifexpr:>056|—}}{{#ifexpr:>057|—}}{{#ifexpr:>058|—}}{{#ifexpr:>059|—}}{{#ifexpr:>060|—}}{{#ifexpr:>061|—}}{{#ifexpr:>062|—}}{{#ifexpr:>063|—}}{{#ifexpr:>064|—}}{{#ifexpr:>065|—}}{{#ifexpr:>066|—}}{{#ifexpr:>067|—}}{{#ifexpr:>068|—}}{{#ifexpr:>069|—}}{{#ifexpr:>070|—}}{{#ifexpr:>071|—}}{{#ifexpr:>072|—}}{{#ifexpr:>073|—}}{{#ifexpr:>074|—}}{{#ifexpr:>075|—}}{{#ifexpr:>076|—}}{{#ifexpr:>077|—}}{{#ifexpr:>078|—}}{{#ifexpr:>079|—}}{{#ifexpr:>080|—}}{{#ifexpr:>081|—}}{{#ifexpr:>082|—}}{{#ifexpr:>083|—}}{{#ifexpr:>084|—}}{{#ifexpr:>085|—}}{{#ifexpr:>086|—}}{{#ifexpr:>087|—}}{{#ifexpr:>088|—}}{{#ifexpr:>089|—}}{{#ifexpr:>090|—}}{{#ifexpr:>091|—}}{{#ifexpr:>092|—}}{{#ifexpr:>093|—}}{{#ifexpr:>094|—}}{{#ifexpr:>095|—}}{{#ifexpr:>096|—}}{{#ifexpr:>097|—}}{{#ifexpr:>098|—}}{{#ifexpr:>099|—}}{{#ifexpr:>100|—}}{{#ifexpr:>101|—}}{{#ifexpr:>102|—}}{{#ifexpr:>103|—}}{{#ifexpr:>104|—}}{{#ifexpr:>105|—}}{{#ifexpr:>106|—}}{{#ifexpr:>107|—}}{{#ifexpr:>108|—}}{{#ifexpr:>109|—}}{{#ifexpr:>110|—}}{{#ifexpr:>111|—}}{{#ifexpr:>112|—}}{{#ifexpr:>113|—}}{{#ifexpr:>114|—}}{{#ifexpr:>115|—}}{{#ifexpr:>116|—}}{{#ifexpr:>117|—}}{{#ifexpr:>118|—}}{{#ifexpr:>119|—}}{{#ifexpr:>120|—}}{{#ifexpr:>121|—}}{{#ifexpr:>122|—}}{{#ifexpr:>123|—}}{{#ifexpr:>124|—}}{{#ifexpr:>125|—}}{{#ifexpr:>126|—}}{{#ifexpr:>127|—}}{{#ifexpr:>128|—}}{{#ifexpr:>129|—}}{{#ifexpr:>130|—}}{{#ifexpr:>131|—}}{{#ifexpr:>132|—}}{{#ifexpr:>133|—}}{{#ifexpr:>134|—}}{{#ifexpr:>135|—}}{{#ifexpr:>136|—}}{{#ifexpr:>137|—}}{{#ifexpr:>138|—}}{{#ifexpr:>139|—}}{{#ifexpr:>140|—}}{{#ifexpr:>141|—}}{{#ifexpr:>142|—}}{{#ifexpr:>143|—}}{{#ifexpr:>144|—}}{{#ifexpr:>145|—}}{{#ifexpr:>146|—}}{{#ifexpr:>147|—}}{{#ifexpr:>148|—}}{{#ifexpr:>149|—}} }} |{{ #if: |[[ |Smith{{ #if: Stephen P. |, Stephen P. }}]] |Smith{{ #if: Stephen P. |, Stephen P. }} }} }}{{ #if: Anil K. Jain |{{#ifexpr:8<2 | et ál. |{{ #iferror: {{ #expr: 1*0.0 }} | |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }} }}{{ #if: |[[ |Anil K. Jain{{ #if: |, }}]] |Anil K. Jain{{ #if: |, }} }}{{ #if: |{{#ifexpr:8<3 | et ál. |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: |{{#ifexpr:8<4 | et ál. |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: |{{#ifexpr:8<5 | et ál. |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: |{{#ifexpr:8<6 | et ál. |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: |{{#ifexpr:8<7 | et ál. |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: |{{#ifexpr:8<8 | et ál. |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: | et ál. }} }} }} }} }} }} }} }} }} }} }} }} }} }}
}}{{ #if: {{#if:|{{{date}}}| September 1988}} | ({{#if:|{{{date}}}| September 1988}}){{ #if: | [{{{YearNote}}}] }} }} |{{ #if: |{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: | et ál. }} }} }}, ed{{#if:|s}}{{#ifeq:{{#ifeq:{{{seperator}}} |;|;|. }}|.||.}}{{ #if: {{#if:|{{{date}}}| September 1988}} | ({{#if:|{{{date}}}| September 1988}}){{ #if: | [{{{YearNote}}}] }} }} }}
}}{{
#if: {{ #if:IEEE Transactions on Pattern Analysis and Machine Intelligence||{{#if:||}} }} |{{ #if:Smith |{{#ifeq:{{{seperator}}} |;|;|. }} }}{{#if:IEEE Transactions on Pattern Analysis and Machine Intelligence||«}}{{#if:{{ #if: | |{{ #if: | |{{#ifexpr:{{#time: U}} > {{#time: U | 1010-10-10 }} |{{ #if: |http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }} }} }} }} |[{{ #if: | |{{ #if: | |{{#ifexpr:{{#time: U}} > {{#time: U | 1010-10-10 }} |{{ #if: |http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }} }} }} }} {{ #if: IEEE Transactions on Pattern Analysis and Machine Intelligence | |{{ #if: |{{#if: | }}[]}} }}] |{{ #if: IEEE Transactions on Pattern Analysis and Machine Intelligence | |{{ #if: |{{#if: | }}[]}} }}
}}{{#if:IEEE Transactions on Pattern Analysis and Machine Intelligence||»}} }}{{
#if: |{{ #ifeq: | | |{{ #if: Smith |{{#ifeq:{{{seperator}}} |;|;|. }} escrito en }} }}
}}{{
#if: |{{ #if: Smith |{{#ifeq:{{{seperator}}} |;|;|. }} {{ #if: |{{#ifeq: {{#ifeq:{{{seperator}}} |;|;|. }}|.|E|e}}n }}{{ #if: |[[ |{{ #if: |, }}]] |{{ #if: |, }}}}{{ #if: |{{ #if: |{{#ifeq:|;|;|;}} |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[|{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: |{{ #if: |; |{{#if:| & |{{#ifeq:|;|;|;}} }} }}{{ #if: |[[|{{ #if: |, }}]] |{{ #if: |, }} }}{{ #if: | et ál. }} }} }}{{ #if: | |{{#ifeq:{{{seperator}}} |;|;|. }} ed{{#if:|s}}{{#ifeq:{{#ifeq:{{{seperator}}} |;|;|. }}|.||.}} }} }}
}}{{
#if: IEEE Transactions on Pattern Analysis and Machine Intelligence |{{ #if: |{{#ifeq:{{{seperator}}} |;|;|. }} }}{{ #if: Smith |{{#ifeq:{{{seperator}}} |;|;|. }} }}{{ #if: A test to determine the multivariate normality of a dataset |«{{#if:{{ #if: |{{ #if: |{{ #if: | |{{ #ifexpr: {{#time: U}} > {{#time: U | 1010-10-10 }} | {{ #if: | http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }} }} }} }} |{{ #if: | |{{#ifexpr:{{#time: U}} > {{#time: U | 1010-10-10 }} |{{ #if: | http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }} }} }} }} |[{{ #if: |{{ #if: |{{ #if: | |{{ #ifexpr: {{#time: U}} > {{#time: U | 1010-10-10 }} | {{ #if: | http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }} }} }} }} |{{ #if: | |{{#ifexpr:{{#time: U}} > {{#time: U | 1010-10-10 }} |{{ #if: | http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }} }} }} }} A test to determine the multivariate normality of a dataset{{ #if: |{{#if: A test to determine the multivariate normality of a dataset| }}[]}}] |A test to determine the multivariate normality of a dataset{{ #if: |{{#if: A test to determine the multivariate normality of a dataset| }}[]}}
}}»{{
#if: |{{#ifeq:{{{seperator}}} |;|;|. }} {{{TitleNote}}} }} }}
}}{{ #if:
| (en {{ #if: |, ) |) }} |{{ #if: | () }}
}}{{
#if: IEEE Transactions on Pattern Analysis and Machine Intelligence|{{ #if:A test to determine the multivariate normality of a dataset|{{#ifeq:{{{seperator}}} |;|;|. }} }}IEEE Transactions on Pattern Analysis and Machine Intelligence{{ #if: |{{#ifeq:{{{seperator}}} |;|;|. }} }}{{ #if: |{{ #if: | (: ) | () }} |{{ #if: | () }} }}{{ #if: 10 | 10{{ #if: 5 | (5) }} |{{ #if: 5 | (5) }} }}{{ #if: {{ #if: | {{#if:||p. }} }}{{ #if: 757–761 | {{#if:||pp. }}757–761 }} |: {{ #if: | {{#if:||p. }} }}{{ #if: 757–761 | {{#if:||pp. }}757–761 }} }} |{{ #if: A test to determine the multivariate normality of a dataset |{{ #if: SmithIEEE Transactions on Pattern Analysis and Machine Intelligence |{{#ifeq:{{{seperator}}} |;|;|. }} | }}{{#if:{{ #if: |{{ #if: |{{ #if: | |{{#ifexpr:{{#time: U}} > {{#time: U | 1010-10-10 }}|{{ #if: | http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }}}} }} }} |{{ #if: | |{{#ifexpr:{{#time: U}} > {{#time: U | 1010-10-10 }}|{{ #if: | http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }}}} }} }} |[{{ #if: |{{ #if: |{{ #if: | |{{#ifexpr:{{#time: U}} > {{#time: U | 1010-10-10 }}|{{ #if: | http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }}}} }} }} |{{ #if: | |{{#ifexpr:{{#time: U}} > {{#time: U | 1010-10-10 }}|{{ #if: | http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid= }}}} }} }} A test to determine the multivariate normality of a dataset{{ #if:| [{{{TransItalic}}}] }}] |A test to determine the multivariate normality of a dataset{{ #if:| [{{{TransItalic}}}] }}
}}}}{{#if: | ({{{TipoTítulo}}})}}{{
#if: |{{#ifeq:{{{seperator}}} |;|;|. }} }}{{ #if: 10 |{{#ifeq:{{{seperator}}} |;|;|. }} 10 }}{{ #if: |{{#ifeq:{{{seperator}}} |;|;|. }} }}{{ #if: | ({{#if:|| edición}}) }}{{ #if: |{{#ifeq:{{{seperator}}} |;|;|. }} }}{{ #if: |{{ #if: |: |{{#ifeq:{{{seperator}}} |;|;|. }} }} }} }}{{ #if: Smith | |{{ #if: {{#if:|{{{date}}}| September 1988}} |{{#ifeq:{{{seperator}}} |;|;|. }} {{#if:|{{{date}}}| September 1988}}{{ #if: | [{{{YearNote}}}] }} }}
}}{{
#if: |{{ #ifeq: | {{#if:|{{{date}}}| September 1988}} | |{{ #if: |{{ #if: Smith |{{#ifeq:{{{seperator}}} |;|;|. }} | (publicado el ) }} |{{ #if: IEEE Transactions on Pattern Analysis and Machine Intelligence |{{#ifeq:{{{seperator}}} |;|;|. }} | (publicado el ) }} }} }}
}}{{
#if: IEEE Transactions on Pattern Analysis and Machine Intelligence | |{{ #if: {{ #if: | {{#if:||p. }} }}{{ #if: 757–761 | {{#if:||pp. }}757–761 }} |{{#ifeq:{{{seperator}}} |;|;|. }} {{ #if: | {{#if:||p. }} }}{{ #if: 757–761 | {{#if:||pp. }}757–761 }} }}
}}{{
- if:10.1109/34.6789
|{{#ifeq:{{{seperator}}} |;|;|. }} doi:{{#if: | 10.1109/34.6789 (inactivo desde ) | }}
}}{{
#if: |{{ #if: SmithIEEE Transactions on Pattern Analysis and Machine IntelligenceA test to determine the multivariate normality of a dataset |{{#ifeq:{{{seperator}}} |;|;|. }} | }}
}}{{
#if: |{{#ifeq:{{{seperator}}} |;|;|. }} ISBN [[Especial:FuentesDeLibros/|]]
}}{{
#if: |{{#ifeq:{{{seperator}}} |;|;|. }} ISSN [13]
}}{{
#if: |{{#ifeq:{{{seperator}}} |;|;|. }} OCLC [14]
}}{{
#if: |{{#ifeq:{{{seperator}}} |;|;|. }} PMID [15]
}}{{
#if: |{{#if: |{{#ifeq:{{{seperator}}} |;|;|. }} PMC [16] }}
}}{{
#if: |{{#ifeq:{{{seperator}}} |;|;|. }} Bibcode: [17]
}}{{
- if:
|{{#ifeq:{{{seperator}}} |;|;|. }} {{{Archive}}} |{{
#if: |{{#ifeq:{{{seperator}}} |;|;|. }} {{#ifeq:{{#ifeq:{{{seperator}}} |;|;|. }}|.|A|a}}rchivado{{ #if: |{{#if:| del {{#if: |[ original] |original
}}}}
}}{{ #if: | el }}{{ #if:{{#if:||A}}{{#if:||B}}{{#if:||C}} |. Plantilla:Citation error }} }}
}}{{
#if: |{{ #if: A test to determine the multivariate normality of a dataset{{{TítuloTradTransTitle}}} |{{#ifeq:{{{seperator}}} |;|;|. }} {{ #if: | | }} |{{#ifeq:{{{seperator}}} |;|;|. }} {{ #if: | | }} }}{{ #if: {{#ifeq: |sí| (requiere suscripción)}} | {{#ifeq:{{#ifeq:{{{seperator}}} |;|;|. }}|,|, c|. C}}onsultado {{#if:{{#ifeq: |sí| (requiere suscripción)}}|el {{#ifeq: |sí| (requiere suscripción)}}|en {{#if: | de |}}}} }}
}}{{#if:
|{{#ifeq:{{{seperator}}} |;|;|. }} [ Resumen divulgativo]{{#if: | – }}
}}{{#if:
| ()
}}{{#if:
|{{#ifeq:{{{seperator}}} |;|;|. }} «»
}}{{
#if:| |}}.</ref> del test de Friedman-Rafsky.
Simulando valores de la distribución
Un método ampliamente usado para simular un vector aleatorio <math>X</math> de la distribución normal multivariada <math>N</math>-dimensional con vector de medias <math>\mu</math> y matriz de covarianza <math>\Sigma</math> (requerida para ser simétrica y definida positiva) funciona como sigue:
- Se calcula la descomposición de Cholesky de <math>\Sigma</math>, esto es, se encuentra la única matriz triangular inferior <math>A</math> tal que <math>A\,A^T = \Sigma</math>. Nótese que cualquier otra matriz <math>A</math> que satisfaga esta condición, o sea, que es uno la raíz cuadrada de <math>\Sigma</math>, podría usarse, pero a menudo encontrar tal matriz, distinta de la de la descomposición de Cholesky, sería bastante más costoso en términos de computación.
- Sea <math>Z=(z_1,\dots,z_N)^T</math> un vector cuyas componentes <math>N</math> normales e independientes varían (lo cual puede generarse, por ejemplo, usando el método de Box-Muller.
- Sea <math>X = \,</math> <math>\mu + AZ \,.</math>