A propos des zéros de la matrice de précision

X

Privacité et cookies

Ce site utilise des cookies. En continuant, vous acceptez leur utilisation. En savoir plus ; par exemple, sur la façon de contrôler les cookies.

Compris

Publicités

Cette entrée explique comment interpréter l’occurrence de zéros dans certaines positions de la matrice de précision d’un vecteur aléatoire, qui est l’inverse de sa matrice de covariance.

Un exemple

Supposons que \epsilon_1

, \epsilon_2

et \epsilon_3

sont v.a.i.i.d.. avec une distribution normale standard et définissons les variables

X_1=\epsilon_1,

X_2=0.8X_1 + \epsilon_2,

X_3 = 0,8X_1 + \epsilon_3.

Il est très facile de calculer la matrice de covariance Sigma du vecteur X :=(X_1,X_2,X_3):

\Sigma = \left(\begin{array}{ccc} 1 & 0.8 & 0.8 \\ 0.8 & 1.64 & 0.64 \\ 0.8 & 0.64 & 1.64 \end{array}\right).:

Sigma = \left(\begin{array}{ccc} 1 0.8 0,8 0,8 0,8 1,64 0,64 0,8 0,64 1,64 1,64 \begin{array}).

Aucune des covariances n’est égale à zéro, ce qui indique qu’il existe des relations linéaires entre chaque paire de variables. Cela est évident si l’on considère la relation entre X_1 et X_2 ou entre X_1 et X_3 à partir des définitions correspondantes. Cependant, bien qu’il existe également une relation linéaire entre X_2 et X_3, il s’agit d’une relation linéaire induite par l’influence que X_1 exerce sur les deux. Une fois l’effet de X_1 supprimé, il n’y aurait plus de relation entre X_2 et X_3. En effet, puisque le vecteur X est normal, les variables X_2 et X_3 sont indépendantes si on conditionne la valeur de X_1, ce qui implique qu’une fois la valeur de X_1 connue, la connaissance de X_2 ne fournit aucune information pour prédire X_3, et réciproquement.

Dans la matrice Sigma sont mélangées des relations linéaires directes et indirectes entre les variables de sorte qu’à partir de Sigma on ne peut pas les distinguer. Cependant, il existe un moyen facile de détecter quand la seule relation linéaire entre deux variables est celle induite par l’influence du reste. La méthode a à voir avec l’inverse de Sigma, que l’on appelle parfois la matrice de précision Omega = \Sigma^{-1}. Dans notre exemple, nous avons:

Omega = \Sigma^{-1} = \left(\2,28 -0,8 -0,8 -0,8 -0,8 1 0 0 0 1 \end{array}right).

On observe que dans les positions correspondant aux variables X_2 et X_3 apparaissent des zéros. Ce n’est pas un hasard car lorsqu’un zéro apparaît dans une position de la matrice de précision, la seule relation linéaire entre les variables correspondant à la ligne et à la colonne de cette position est celle induite par le reste des variables. Par conséquent, la détection de variables conditionnellement non corrélées ne nécessite que l’identification des zéros de la matrice de précision.

Démonstration

Une démonstration des affirmations ci-dessus dans le cas de vecteurs normalement distribués est donnée ci-dessous. On montre que si la matrice de précision a zéro à une position donnée, le coefficient de corrélation partielle entre les deux variables correspondantes s’annule. On suppose qu’il existe toutes les matrices inverses qui apparaissent :

Démonstration

Les problèmes d’estimation lorsqu’on impose que certaines variables sont conditionnellement non corrélées (ce qui est équivalent comme nous l’avons vu à imposer que certaines entrées de la matrice de précision valent zéro) ont été initialement étudiés par Dempster (1972) dans un article classique (plus de mille citations).

L’estimation des matrices de précision, en particulier dans le cas de vecteurs de haute dimension pour lesquels la matrice de précision a de nombreux zéros (est clairsemée), a reçu une certaine attention dans la littérature statistique récente et est à la base de ce qu’on appelle les modèles graphiques gaussiens (GGM).

.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *