Sobre zeros na matriz de precisão

X

Privacidade e cookies

Este site utiliza cookies. Ao continuar, está a concordar com a sua utilização. Aprenda mais; por exemplo, sobre como controlar cookies.

Understood

div>>div>>div>Advertisements

Esta entrada explica como interpretar a ocorrência de zeros em algumas posições da matriz de precisão de um vector aleatório, que é o inverso da sua matriz de covariância.

Um exemplo

P>Ponhamos que \epsilon_1

, \epsilon_2

e \epsilon_3

são v.a.i.i.i.d. com distribuição normal e vamos definir as variáveis

X_1=\epsilon_1,

X_2=0.8X_1 + \epsilon_2,

X_3 = 0,8X_1 + \epsilon_3.

É muito fácil calcular a matriz de covariância Sigma do vector X:=(X_1,X_2,X_3):

\Sigma = \left(\begin{array}{ccc} 1 & 0.8 & 0.8 \\ 0.8 & 1.64 & 0.64 \\ 0.8 & 0.64 & 1.64 \end{array}\right).:

p>Sigma = \begin{array}{ccc} 1 0.8 0,8 0,8 0,8 0,8 1,64 0,64 0,8 0,64 1,64 1,64 \begin{array}).

Nada das covariâncias é igual a zero, indicando que existem relações lineares entre cada par de variáveis. Isto é óbvio se considerarmos a relação entre X_1 e X_2 ou entre X_1 e X_3 a partir das definições correspondentes. Contudo, embora exista também uma relação linear entre X_2 e X_3, é uma relação linear induzida pela influência que X_1 exerce sobre ambos. Uma vez removido o efeito de X_1, não haveria relação entre X_2 e X_3. De facto, visto que o vector X é normal, as variáveis X_2 e X_3 são independentes se condicionarmos o valor de X_1, o que implica que uma vez conhecido o valor de X_1, o conhecimento de X_2 não fornece nenhuma informação para prever X_3, e reciprocamente.

Na matriz Sigma são relações lineares directas e indirectas mistas entre variáveis, de modo que de Sigma não podemos distinguir entre elas. Contudo, há uma forma fácil de detectar quando a única relação linear entre duas variáveis é a induzida pela influência do resto. O método tem a ver com o inverso de Sigma, que por vezes é chamado matriz de precisão Omega = \Sigma^{-1}. No nosso exemplo temos:

Omega = \Sigma^{-1} = \i}esquerda(\2.28 -0.8 -0.8 -0.8 -0.8 1 0 0 0 1 \i}end{arranjo}direita).

Observamos que nas posições correspondentes às variáveis X_2 e X_3 aparecem zeros. Isto não é por acaso porque sempre que um zero aparece numa posição da matriz de precisão, a única relação linear entre as variáveis correspondentes à linha e coluna dessa posição é a induzida pelo resto das variáveis. Por conseguinte, a detecção de variáveis condicionalmente não correlacionadas requer apenas a identificação dos zeros da matriz de precisão.

Demonstração

A seguir é dada uma demonstração das afirmações acima no caso de vectores normalmente distribuídos. Mostra-se que se a matriz de precisão tiver zero numa dada posição, o coeficiente de correlação parcial entre as duas variáveis correspondentes cancela. Assume-se que existem todas as matrizes inversas que aparecem:

Demonstração

Os problemas de estimativa ao impor que algumas variáveis não estão condicionalmente relacionadas (o que é equivalente a impor que algumas entradas da matriz de precisão valem zero) foram originalmente estudadas por Dempster (1972) num artigo clássico (mais de mil citações).

A estimativa de matrizes de precisão, especialmente no caso de vectores de alta dimensão para os quais a matriz de precisão tem muitos zeros (é escassa), recebeu alguma atenção na literatura estatística recente e é a base dos chamados modelos gráficos Gaussianos (GGMs).

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *