nc - cap06

nc - cap06

(Parte 1 de 15)

Capıtulo 6

Topicos de Algebra Linear. I

6.1 Propriedades Basicas de Determinantes e Inversas de Matrizes237
6.2 Nocoes Basicas sobre o Espectro de uma Matriz246
6.2.1 Autovalores e Polinomios Caracterısticos de Matrizes246
6.2.2 Autovetores249
6.2.3 O Traco de uma Matriz251
6.2.3.1 Algumas Relacoes entre Determinantes e Tracos de Matrizes253
6.3 Polinomios de Matrizes254
6.3.1 O Teorema de Hamilton-Cayley256
6.4 Matrizes Diagonalizaveis e o Teorema Espectral259
6.4.1 Diagonalizacao Simultanea de Matrizes271
6.5 Matrizes Auto-adjuntas, Normais e Unitarias274
6.5.1 Matrizes Positivas279
6.5.2 O Teorema de Inercia de Sylvester. Superfıcies Quadraticas281
6.6 Matrizes Triangulares287
6.7 O Teorema de Decomposicao de Jordan e a Forma Canonica de Matrizes288
6.7.1 Resultados Preparatorios289
6.7.2 O Teorema da Decomposicao de Jordan293
6.7.3 Matrizes Nilpotentes e sua Representacao Canonica295
6.7.4 A Forma Canonica de Matrizes298
6.8 Algumas Representacoes Especiais de Matrizes300
6.8.1 A Decomposicao Polar de Matrizes301
6.8.2 A Decomposicao em Valores Singulares302
6.8.3 O Teorema da Triangularizacao de Schur303
6.8.4 A Decomposicao QR e a Decomposicao de Iwasawa (“KAN”)305
6.9 A Pseudo-Inversa de Moore-Penrose. Optimizacao Linear307
6.9.1 Outras Propriedades da Pseudo-Inversa de Moore-Penrose310
6.9.1.1 A Regularizacao de Tikhonov. Existencia312
6.9.1.2 A Pseudo-Inversa de Moore-Penrose e o Teorema Espectral315
6.9.2 A Pseudo-Inversa de Moore-Penrose e Problemas de Optimizacao Linear316
6.9.3 Existencia e Decomposicao em Valores Singulares317
6.10 Propriedades Especiais de Determinantes318
6.10.1 Expansao do Polinomio Caracterıstico318
6.10.2 A Desigualdade de Hadamard319
6.1 Exercıcios Adicionais322

Conteudo principal objetivo deste capıtulo e apresentar a demonstracao do Teorema Espectral para matrizes diagonalizaveis, em particular, para matrizes auto-adjuntas (resultado de grande relevancia para a Mecanica Quantica) e a demonstracao do Teorema de Decomposicao de Jordan. Sempre trabalharemos no contexto de espacos vetoriais de dimensao finita Cn sobre o corpo dos complexos. A leitura deste capıtulo pressupoe que alguns conceitos basicos de Algebra Linear, tais como o conceito de matriz, de produto de matrizes, de determinante de uma matriz, suas propriedades e metodos de calculo, sejam familiares ao leitor, mas uma breve revisao e apresentada na Secao 6.1. Na Secao 6.2, pagina 246, apresentamos a nocao de espectro e a de polinomio caracterıstico de uma matriz. Na Secao 6.5, pagina 274, introduzimos as nocoes de matrizes auto-adjuntas, normais e unitarias, de importancia, por exemplo, na Mecanica Quantica. Na Secao 6.8, pagina 300, apresentamos algumas representacoes de matrizes de interesse em diversos contextos (por exemplo, na teoria de grupos). Na Secao 6.9, pagina 307, estudamos a chamada pseudo-inversa de Moore-Penrose, de interesse, por exemplo, em problemas de optimizacao linear.

Este capıtulo sera continuado no Capıtulo 7, pagina 324, onde outros aspectos de algebras de matrizes serao explorados.

JCABarata. Curso de Fısica-Matematica Capıtulo 6 237/1730

6.1 Propriedades Basicas de Determinantes e Inversas de Matrizes

A presente secao desenvolve a teoria basica de inversas e determinantes de matrizes. Sua leitura pode, provavelmente, ser dispensada por aqueles que julgam dispor desses conhecimentos basicos, mas a notacao que aqui introduzimos sera empregada alhures. Propriedades mais avancadas de determinantes serao estudadas na Secao 6.10, pagina 318.

• Fatos elementares sobre matrizes e alguma notacao

O conjunto de todas as matrizes m×n (m linhas e n colunas) com entradas complexas sera denotado por Mat(C, m, n).

O conjunto de todas as matrizes quadradas n × n com entradas complexas sera denotado simplesmente por Mat(C, n). Uma matriz A ∈ Mat(C, m, n) e frequentemente representada na forma de um arranjo como

A11A1n
Am1Amn

Mat(C, m, n) e um espaco vetorial complexo, com a operacao de soma definida por

A1, A2 ∈ Mat(C, m, n), i ∈ {1,, m}, j ∈ {1, ..., n}, e a operacao de multiplicacao por escalares (complexos)
α ∈ C, A ∈ Mat(C, m, n) e i ∈ {1,, m}, j ∈ {1, ..., n}.

Sejam m, n, p ∈ N e sejam A ∈ Mat(C, m, n) e B ∈ Mat(C, n, p). Denotamos por AB a matriz de Mat(C, m, p)

cujos elementos sao dados por ( AB )

para todos i ∈ {1,, m}, j ∈ {1, ..., p}. A expressao (6.1) e denominada regra de produto de matrizes. E facil

constatar (faca-o!) que valem as propriedades distributivas

E tambem facil constatar (faca-o!) que se m, n, p, q ∈ N valem para todas A ∈ Mat(C, m, n), B ∈ Mat(C, n, p) e C ∈ Mat(C, p, q) a relacao (AB)C = A(BC) .

Para cada n ∈ N, e com a operacao de produto definida acima, Mat(C, n) e uma algebra associativa, nao-comutativa (exceto se n = 1) e unital, com a unidade sendo dada pela matriz identidade, que denotaremos por neste texto:

Note-se que ij = δij, i, j ∈ {1,, n}.
(AT)ij = Aji para todos i ∈ {1,, n}, j ∈ {1, ..., m}. A matriz AT e dita ser a matriz transposta de A. E evidente

Dada uma matriz A ∈ Mat(C, m, n) denotamos por AT a matriz de Mat(C, n, m) cujos elementos sao dados por que (AT)T = A. Para todos m, n, p ∈ N vale, pela regra de produto de matrizes, a relacao (AB)T = BTAT para

Dado um conjunto de n numeros complexos α1,, αn, denotaremos por diag(α1, ..., αn) a matriz A ∈ Mat(C, n)

JCABarata. Curso de Fısica-Matematica Capıtulo 6 238/1730 cujos elementos Aij sao definidos da seguinte forma:

Aij =

Uma tal matriz e dita ser diagonal pois apenas os elementos de sua diagonal principal sao eventualmente nao-nulos. Na representacao usual

A mais popular dentre as matrizes diagonais e a matriz identidade (6.2): = diag (1,, 1).

Denotaremos por a, b ∈ Mat(C, m, n) a matriz a × b cujos elementos de matriz sao todos nulos. Denotaremos por l ∈ Mat(C, l) a matriz identidade l × l. Por vezes, quando nao houver perigo de confusao, poderemos omitir os sub-ındices e escrever a, b simplesmente como e l simplesmente como .

Vamos tambem empregar as seguintes definicoes. Para m, n ∈ N, sejam Im, m+n ∈ Mat(C, m, m + n) e Jm+n, n ∈ Mat(C, m + n, n) dadas por

cujas transpostas sao dadas por

As seguintes identidades uteis serao usadas mais adiante e sua demonstracao (facil) e deixada como exercıcio ao leitor: Im, m+n (Im, m+n)T = m , (6.5)

(Jm+n, n)TJm+n, n = n , (6.6) Para cada A ∈ Mat(C, m, n) podemos associar uma matriz quadrada A′ ∈ Mat(C, m + n) dada por

A m, mn, n n, m

Sejam x1,, xn vetores, representados na base canonica por vetores-coluna

xa n

x1,, xn

Denotaremos por [[ ]] a matriz n × n construıda de forma que sua a-esima coluna seja o vetor-coluna xa, ou

x1,, xn

Considerando os vetores da base canonica

,, en =

JCABarata. Curso de Fısica-Matematica Capıtulo 6 239/1730 e tambem evidente que = [[

e1,, en
x1,, xn

A notacao acima e util por permitir a seguinte observacao. Seja B uma matriz qualquer. Entao,B [[ ]] =

Bx1,, Bxn
x1,, xn

Essa relacao e provada observando-se a regra de multiplicacao de matrizes: a a-esima coluna de B [[ ]] e que vem a ser as componentes de Bxa, representado como vetor-coluna na base canonica. Ainda sobre essa notacao, vale a seguinte identidade util, cuja demonstracao (elementar) deixamos como exercıcio:

se D = diag(d1,, dn) e uma matriz diagonal, entao[[
x1,, xn
d1x1,, dnxn

Seja V um espaco vetorial dotado de um produto escalar 〈·, ·〉. Dizemos que dois vetores u e v sao perpendiculares (em relacao ao produto escalar 〈·, ·〉) se 〈u, v〉 = 0.

Se v1,, vk sao vetores em um espaco vetorial V , denotamos por [v1, ..., vk] o subespaco gerado pelos vetores
v1,, vk, ou seja, a colecao de todos os vetores que sao combinacoes lineares dos vetores v1, ..., vk:
[v1,, vk] = {
α1v1 + · + αkvk, α1,, αk ∈ C}
Denotamos por [v1,, vk]⊥ o subespaco de todos os vetores perpendiculares a todos os vetores de [v1, ..., vk]:
[v1,, vk]⊥ = {
= 0 para todos α1,, αk ∈ C}

• Matrizes bijetoras e a nocao de inversa de uma matriz

Uma matriz A ∈ Mat(C, n) define uma aplicacao linear de Cn sobre si mesmo. Se essa aplicacao for bijetora, entao existe uma aplicacao inversa, denotada por A−1 : Cn → Cn, tal que A−1(

Ax) = x para todo x ∈ Cn. A proposicao seguinte reune fatos elementares sobre a aplicacao inversa A−1:

Proposicao 6.1 Se A ∈ Mat(C, n) e bijetora, entao A−1 e igualmente uma aplicacao linear de Cn sobre si mesmo, ou seja, A−1 ∈ Mat(C, n). Fora isso, A−1 e unica e ( AT)−1 = ( A−1)T . Por fim, vale afirmar que A e inversıvel se e somente se AT o for. 2

Prova. E facil constatar que A−1 e tambem uma aplicacao linear e, portanto, e tambem um elemento de Mat(C, n).

De fato, sejam v1, v2 elementos arbitrarios de Cn e α1, α2 ∈ C, igualmente arbitrarios. Como A e bijetora, existem

o que prova que A−1 e tambem linear e, portanto A−1 ∈ Mat(C, n). Com isso, podemos afirmar que A−1Ax = x para todo x ∈ Cn e, portanto, A−1Ax = Ax. Como A e sobrejetora, isso diz-nos que A−1y = y para todo y ∈ Cn. Assim, estabelecemos que A−1A = A−1 = . A unicidade e facilmente estabelecida, pois se B ∈ Mat(C, n) e tal que BA = AB = , entao multiplicando-se AB = a esquerda por A−1 obtem-se B = A−1. Por fim, observemos que do fato que (MN)T = NTMT para quaisquer matrizes M, N ∈ Mat(C, n), segue de A−1A = A−1 = que

JCABarata. Curso de Fısica-Matematica Capıtulo 6 240/1730

A−1)TAT = , o que implica ( AT)−1 = ( A−1)T . A ultima relacao implica que se A e inversıvel, entao

AT tambem o e. Como (AT)T = A, vale tambem a recıproca.

Mais adiante indicaremos como a matriz A−1 pode ser calculada a partir de A. Vide para tal a expressao (6.17) (“regra de Laplace”) do Teorema 6.1, pagina 241, e tambem as expressoes (6.40), pagina 258, e (6.149), pagina 319.

Em parte do que segue estaremos implicitamente usando a seguinte proposicao:

Proposicao 6.2 Uma matriz A ∈ Mat(C, n) e bijetora (ou seja, e inversıvel) se e somente se Av = 0 valer apenas para v = 0. 2

Prova. Se A e bijetora, entao existe A−1. Logo, aplicando-se A−1 a esquerda na igualdade Av = 0, obtem-se v = 0. Vamos agora provar a recıproca: vamos supor que Av = 0 vale apenas para v = 0 e provar que A e injetora e sobrejetora e, portanto, bijetora.

Prova-se que A e injetora por absurdo. Se A nao e injetora, entao, existem vetores x e y com x 6= y mas com Ax = Ay.

Como A e linear, isso implica A(x − y) = 0. Pela hipotese que Av = 0 vale apenas para v = 0, segue que x = y, uma contradicao.

Para provarmos que A e sobrejetora procedemos da seguinte forma. Seja {b1,, bn} uma base em Cn. Vamos
primeiramente mostrar que {Ab1,, Abn} e um conjunto linearmente independente de vetores em Cn (e, portanto,
uma base em Cn). Suponhamos que assim nao o seja e que existam numeros complexos α1,, αn, nao todos nulos, tais
que Av = 0 vale apenas para v = 0, segue que α1b1 + ·+ αnbn = 0. Isso, porem, diz que os vetores {b1,, bn} sao

que α1Ab1 + · + αnAbn = 0. Pela linearidade de A, segue que A(α1b1 + · + αnbn) = 0. Novamente, pela hipotese linearmente dependentes, o que e absurdo.

(Parte 1 de 15)

Comentários