A proposito di zeri nella matrice di precisione

X

Privacy e cookie

Questo sito utilizza i cookie. Continuando, accettate il loro utilizzo. Per saperne di più; per esempio, su come controllare i cookie.

Capito

Avvisi

Questa voce spiega come interpretare la presenza di zeri in alcune posizioni della matrice di precisione di un vettore casuale, che è l’inverso della sua matrice di covarianza.

Un esempio

Supponiamo che \epsilon_1

, \epsilon_2

e \epsilon_3

siano v.a.i.i.d. con distribuzione normale standard e definiamo le variabili

X_1=\epsilon_1,

X_2=0.8X_1 + \epsilon_2,

X_3 = 0,8X_1 + \epsilon_3.

È molto facile calcolare la matrice di covarianza Sigma del vettore X:=(X_1,X_2,X_3):

\Sigma = \left(\begin{array}{ccc} 1 & 0.8 & 0.8 \\ 0.8 & 1.64 & 0.64 \\ 0.8 & 0.64 & 1.64 \end{array}\right).:

Sigma = \left(\begin{array}{ccc} 1 0.8 0,8 0,8 0,8 1,64 0,64 0,8 0,64 1,64 1,64 \begin{array}).

Nessuna delle covarianze è uguale a zero, indicando che ci sono relazioni lineari tra ogni coppia di variabili. Questo è ovvio se consideriamo la relazione tra X_1 e X_2 o tra X_1 e X_3 dalle definizioni corrispondenti. Tuttavia, sebbene ci sia anche una relazione lineare tra X_2 e X_3, è una relazione lineare indotta dall’influenza che X_1 esercita su entrambi. Una volta rimosso l’effetto di X_1, non ci sarebbe alcuna relazione tra X_2 e X_3. Infatti, poiché il vettore X è normale, le variabili X_2 e X_3 sono indipendenti se si condiziona il valore di X_1, il che implica che una volta che il valore di X_1 è noto, la conoscenza di X_2 non fornisce alcuna informazione per prevedere X_3, e viceversa.

Nella matrice Sigma sono mescolate relazioni lineari dirette e indirette tra le variabili in modo che da Sigma non possiamo distinguerle. Tuttavia, c’è un modo semplice per rilevare quando l’unica relazione lineare tra due variabili è quella indotta dall’influenza del resto. Il metodo ha a che fare con l’inverso di Sigma, che è talvolta chiamato matrice di precisione Omega = \Sigma^{-1}. Nel nostro esempio abbiamo:

Omega = \Sigma^{-1} = \left(\2.28 -0.8 -0.8 -0.8 -0.8 -0.8 1 0 0 0 1 \end{array}right).

osserviamo che nelle posizioni corrispondenti alle variabili X_2 e X_3 appaiono degli zeri. Questo non è casuale perché ogni volta che uno zero appare in una posizione della matrice di precisione, l’unica relazione lineare tra le variabili corrispondenti alla riga e alla colonna di quella posizione è quella indotta dal resto delle variabili. Pertanto, l’individuazione di variabili condizionatamente non correlate richiede solo l’identificazione degli zeri della matrice di precisione.

Dimostrazione

Di seguito viene data una dimostrazione delle affermazioni di cui sopra nel caso di vettori normalmente distribuiti. Si dimostra che se la matrice di precisione ha zero in una data posizione, il coefficiente di correlazione parziale tra le due variabili corrispondenti si annulla. Si suppone che esistano tutte le matrici inverse che appaiono:

Dimostrazione

I problemi di stima quando si impone che alcune variabili siano condizionatamente non correlate (che è equivalente, come abbiamo visto, a imporre che alcune voci della matrice di precisione valgano zero) sono stati originariamente studiati da Dempster (1972) in un articolo classico (più di mille citazioni).

La stima delle matrici di precisione, specialmente nel caso di vettori ad alta dimensione per i quali la matrice di precisione ha molti zeri (è sparsa), ha ricevuto una certa attenzione nella recente letteratura statistica ed è la base dei cosiddetti modelli grafici gaussiani (GGMs).

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *