Mathematics">
Nothing Special   »   [go: up one dir, main page]

Álgebra Linear II - Wilberclay

Fazer download em pdf ou txt
Fazer download em pdf ou txt
Você está na página 1de 151

ÁLGEBRA LINEAR II

WILBERCLAY GONÇALVES MELO

Curso: Licenciatura em Matemática

Durante o desenvolvimento deste trabalho o autor recebeu incentivo moral do DMA-UFS

Aracaju, Setembro de 2011


Sumário

1 Produto Interno em R e Norma de um Vetor 1

1.1 Produto Interno em R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.1.1 Definição de Produto Interno e Exemplos . . . . . . . . . . . . . . . . 1

1.1.2 Propriedades do Produto Interno . . . . . . . . . . . . . . . . . . . . 5

1.2 Norma de um Vetor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.2.1 Definição de Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.2.2 Resultados Importantes sobre Produto Interno e Norma . . . . . . . . 8

1.2.3 Exemplos de Normas . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

1.3 Exercı́cios Propostos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2 Ortogonalidade e Processo de Gram-Schmidt 17

2.1 Ângulo entre Vetores e Ortogonalidade . . . . . . . . . . . . . . . . . . . . . 17

2.1.1 Definição de Ângulo entre Vetores e Exemplos . . . . . . . . . . . . . 17

2.1.2 Definição de Vetores Ortogonais e Exemplos . . . . . . . . . . . . . . 19

2.1.3 Propriedades da Ortogonalidade . . . . . . . . . . . . . . . . . . . . . 19

2.2 Conjuntos Ortonormais e Processo de Gram-Schmidt . . . . . . . . . . . . . 21

2.2.1 Definição de Conjuntos Ortonormais e Exemplos . . . . . . . . . . . . 22

ii
2.2.2 Processo de Gram-Schmidt e Exemplos . . . . . . . . . . . . . . . . . 23

2.3 Exercı́cios Propostos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

3 Complemento e Projeção Ortogonal 30

3.1 Complemento e Projeção Ortogonal . . . . . . . . . . . . . . . . . . . . . . . 30

3.1.1 Definição de Complemento Ortogonal e Exemplos . . . . . . . . . . . 30

3.1.2 Resultado Importante sobre Complemento Ortogonal . . . . . . . . . 31

3.1.3 Definição de Projeção Ortogonal e Exemplos . . . . . . . . . . . . . . 32

3.2 Exercı́cios Propostos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

4 A Adjunta de um Operador Linear 38

4.1 Adjunta de um Operador Linear . . . . . . . . . . . . . . . . . . . . . . . . . 38

4.1.1 Definição de Adjunta e Exemplos . . . . . . . . . . . . . . . . . . . . 38

4.1.2 Existência e Unicidade da Adjunta . . . . . . . . . . . . . . . . . . . 40

4.1.3 Propriedades da Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . 43

4.1.4 Matriz da Adjunta em Relação a uma Base Ortonormal . . . . . . . . 46

4.2 Exercı́cios Propostos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

5 Operadores Auto-adjuntos e Antiauto-adjuntos 50

5.1 Operadores Auto-adjuntos e Antiauto-adjuntos . . . . . . . . . . . . . . . . . 50

5.1.1 Definições e Exemplos de Operadores Auto-adjuntos e Antiauto-adjuntos 50

5.1.2 Resultados Importantes sobre Operadores Auto-adjuntos e Antiauto-


adjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

5.1.3 Matrizes de Operadores Antiauto-adjuntos e Auto-adjuntos . . . . . . 53

5.1.4 Teorema Espectral para Operadores Auto-adjuntos . . . . . . . . . . 56

iii
5.2 Exercı́cios Propostos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

6 Operadores Unitários, Normais, Definidos e Indefinidos 69

6.1 Operadores Unitários . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

6.1.1 Definição e Exemplos de Isometrias . . . . . . . . . . . . . . . . . . . 69

6.1.2 Operadores Lineares e Isometrias . . . . . . . . . . . . . . . . . . . . 70

6.1.3 Definição e Exemplos de Operadores Unitários . . . . . . . . . . . . . 71

6.1.4 Alguns Resultados sobre Operadores Unitários . . . . . . . . . . . . . 72

6.1.5 Matrizes de Operadores Unitários . . . . . . . . . . . . . . . . . . . . 74

6.2 Operadores Normais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

6.2.1 Definição e Exemplos de Operadores Normais . . . . . . . . . . . . . 77

6.2.2 Resultados Importantes sobre Operadores Normais . . . . . . . . . . 78

6.2.3 Matrizes de Operadores Normais . . . . . . . . . . . . . . . . . . . . 79

6.3 Exercı́cios Propostos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

7 Operadores Definidos, Indefinidos e Raı́zes Quadradas 83

7.1 Operadores Definidos e Indefinidos . . . . . . . . . . . . . . . . . . . . . . . 83

7.1.1 Definições e Exemplos de Operadores Definidos e Indefinidos . . . . . 83

7.2 Raiz Quadrada de Operadores Lineares . . . . . . . . . . . . . . . . . . . . . 86

7.2.1 Definição e Exemplos de Raiz Quadrada . . . . . . . . . . . . . . . . 86

7.3 Resultados Importantes sobre Operadores Definidos, Indefinidos e Raiz Quadrada 87

7.4 Exercı́cios Propostos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

8 Formas Bilineares 93

iv
8.1 Formas Bilineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

8.1.1 Definição e Exemplos de Formas Bilineares . . . . . . . . . . . . . . . 93

8.1.2 Formas Bilineares Simétrica e Anti-simétrica . . . . . . . . . . . . . . 97

8.1.3 Resultados Importantes sobre Formas Bilineares . . . . . . . . . . . . 98

8.1.4 Matrizes de Formas Bilineares . . . . . . . . . . . . . . . . . . . . . . 99

8.2 Formas Quadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

8.2.1 Resultados Importantes sobre Formas Quadráticas . . . . . . . . . . . 105

8.3 Exercı́cios Propostos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110

9 Polinômio Mı́nimo e Operadores Nilpotentes 113

9.1 Polinômio Mı́nimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

9.1.1 Definição e Exemplos de Polinômio Mı́nimo . . . . . . . . . . . . . . 113

9.2 Operadores Nilpotentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123

9.2.1 Definição e Exemplos de Operadores Nilpotentes . . . . . . . . . . . . 123

9.2.2 Resultados Importantes sobre Nilpotência . . . . . . . . . . . . . . . 126

9.2.3 Matrizes de Operadores Nilpotentes . . . . . . . . . . . . . . . . . . . 129

9.3 Exercı́cios Propostos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

10 Teorema da Decomposição Primária e Forma Canônica de Jordan 134

10.1 Teorema da Decomposição Primária . . . . . . . . . . . . . . . . . . . . . . . 134

10.1.1 Aplicação do Teorema da Decomposição Primária . . . . . . . . . . . 135

10.2 Forma Canônica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

10.2.1 Definição de Forma Canônica de Jordan e Exemplos . . . . . . . . . 139

10.3 Exercı́cios Propostos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144

v
Capı́tulo 1

Produto Interno em R e Norma de


um Vetor

1.1 Produto Interno em R

Caro aluno, no curso de Vetores e Geometria Analı́tica, você estudou um produto especial
entre dois vetores de R2 (ou de R3 ). Este é denominado produto escalar. Depois de es-
tudarmos Álgebra Linear 1, mostramos como podemos adicionar uma estrutura de espaço
vetorial a um conjunto não-vazio. Nesta disciplina, provaremos que estas idéias podem ser
interligadas para que possamos estender o produto escalar a um espaço vetorial arbitrário.
Veremos que os conceitos de norma de um vetor, ângulo e ortogonalidade entre dois vetores
em R2 (ou de R3 ) podem ser generalizados.

1.1.1 Definição de Produto Interno e Exemplos

Definição 1.1 (Produto Interno em R). Seja V um espaço vetorial sobre R. Dizemos que
uma aplicação h·, ·i : V × V −→ R, que associa dois vetores u, v ∈ V um único número hu, vi
real, é um produto interno sobre V em R, se esta satisfaz as seguintes condições:

i) (Distributividade) hu + w, vi = hu, vi + hw, vi, ∀ u, v, w ∈ V ;

ii) hλu, vi = λhu, vi, ∀ u, v ∈ V, ∀ λ ∈ R;

iii) (Comutatividade) hu, vi = hv, ui, ∀ u, v ∈ V ;

1
iv) (Positividade) hv, vi ≥ 0, ∀ v ∈ V ;

v) hv, vi = 0 se, e somente se, v = 0.

Quando munirmos o espaço vetorial V a um produto interno h·, ·i, dizemos que V é um
espaço vetorial com produto interno h·, ·i ou que V é um espaço Euclidiano.

Obs 1.1 (Nomenclatura). Quando não houver possibilidade de confusão de quem é o espaço
vetorial, diremos simplesmente produto interno para um produto interno sobre V em R.

Obs 1.2 (Produto Interno sobre C). Poderı́amos ter definido produto interno sobre um
espaço vetorial V em C (conjunto dos números complexos), chamado produto interno Her-
metiano, como sendo uma aplicação h·, ·i : V × V −→ C que verifica os itens i), ii), iv) e v),
mas ao invés do item iii), terı́amos a seguinte igualdade

iii’) hu, vi = hv, ui, ∀ u, v ∈ V .

Exemplo 1.1 (Produto Interno Canônico em R2 ). Seja V = R2 o espaço vetorial com a


soma de vetores e multiplicação por escalar usuais, ou seja,

(x1 , x2 ) + (y1 , y2 ) = (x1 + y1 , x2 + y2 ) e λ(x1 , x2 ) = (λx1 , λx2 ), ∀ λ ∈ R.

Defina h·, ·i : R2 × R2 −→ R por h(x1 , x2 ), (y1 , y2 )i := x1 y1 + x2 y2 . Afirmamos que h·, ·i é um


produto interno sobre R2 em R (este produto interno é chamado produto interno canônico
de R2 ). Com efeito, sejam u = (x1 , x2 ), v = (y1 , y2 ), w = (z1 , z2 ) ∈ R2 e λ ∈ R, então

i)

hu + w, vi = h(x1 , x2 ) + (z1 , z2 ), (y1 , y2 )i = h(x1 + z1 , x2 + z2 ), (y1 , y2 )i


:= (x1 + z1 )y1 + (x2 + z2 )y2 = x1 y1 + z1 y1 + x2 y2 + z2 y2
= (x1 y1 + x2 y2 ) + (z1 y1 + +z2 y2 ) =: h(x1 , x2 ), (y1 , y2 )i + h(z1 , z2 ), (y1 , y2 )i
= hu, vi + hw, vi,

na quarta igualdade, usamos a distributividade em R.

ii)

hλu, vi = hλ(x1 , x2 ), (y1 , y2 )i = h(λx1 , λx2 ), (y1 , y2 )i := (λx1 )y1 + (λx2 )y2

2
= λ(x1 y1 + x2 y2 ) =: λh(x1 , x2 ), (y1 , y2 )i = λhu, vi,

na quarta igualdade, usamos a associatividade e a distributividade em R.

iii)

hu, vi = h(x1 , x2 ), (y1 , y2 )i := x1 y1 + x2 y2 = y1 x1 + y2 x2 =: h(y1 , y2 ), (x1 , x2 )i = hv, ui,

na terceira igualdade, usamos a comutatividade em R.

iv)

hv, vi = h(y1 , y2 ), (y1 , y2 )i := y1 y1 + y2 y2 = y12 + y22 ≥ 0.

v)

hv, vi = 0 ⇔ y12 + y22 = 0 ⇔ y1 , y2 = 0 ⇔ v = (y1 , y2 ) = (0, 0) = 0,

ver item iv). Em particular, h(1, 0), (1, −1)i = 1·1+0(−1) = 1 e h(1, 0), (0, 1)i = 1·0+0·1 =
0. Quando não dissermos o contrário, este produto interno canônico será o produto interno
de R2 .

Exemplo 1.2 (Produto Interno Canônico em Rn ). Seja V = Rn = {(x1 , x2 , ..., xn ) :


x1 , x2 , ..., xn ∈ R} o espaço vetorial com a soma de vetores e multiplicação por escalar
usuais, isto é,

(x1 , x2 , ..., xn ) + (y1 , y2 , ..., yn ) = (x1 + y1 , x2 + y2 , ..., xn + yn )

e
λ(x1 , x2 , ..., xn ) = (λx1 , λx2 , ..., λxn ), ∀ λ ∈ R.

Defina h·, ·i : Rn × Rn −→ R por h(x1 , x2 , ..., xn ), (y1 , y2 , ..., yn )i = x1 y1 + x2 y2 + ... + xn yn .


Seguindo os mesmos passos do exemplo 1.1 é possı́vel provar que h·, ·i é um produto interno
sobre Rn em R (este produto interno é chamado produto interno canônico de Rn ). Em
particular, h(1, 0, ..., 2), (1, 0, ..., −1)i = 1 · 1 + 0 · 0 + ... + 2(−1) = −1. Quando não dissermos

3
o contrário, este produto interno canônico será o produto interno de Rn .

Exemplo 1.3 (Produto Interno Canônico para as Funções Contı́nuas). Seja V = C([a, b])
o espaço vetorial das funções reais contı́nuas em [a, b], isto é, V = C([a, b]) = {f : [a, b] −→
R; f é contı́nua}, aqui [a, b] ⊆ R é um intervalo, com as operações de soma de vetores e
multiplicação por escalar usuais, ou seja,

(f + g)(t) = f (t) + g(t) e (λf )(t) = λf (t), ∀ t ∈ [a, b], λ ∈ R.


Z b
Defina a seguinte aplicação hf, gi = f (t)g(t)dt, onde f, g ∈ V (este produto interno é
a
denominado produto interno canônico de C([a, b])). Vamos provar que h·, ·i é um produto
interno. De fato, sejam f, g, h ∈ C([a, b]), então

i)
Z b Z b Z b
hf + g, hi := [f + g](t)h(t)dt = [f (t) + g(t)]h(t)dt = [f (t)h(t) + g(t)h(t)]dt
a a a
Z b Z b
= f (t)h(t)dt + g(t)h(t)dt =: hf, hi + hg, hi.
a a

ii)
Z b Z b Z b
hλf, hi := (λf )(t)h(t)dt = λf (t)h(t)dt = λ f (t)h(t)dt =: λhf, hi.
a a a

iii)
Z b Z b
hf, hi := f (t)h(t)dt = h(t)f (t)dt =: hh, f i.
a a

iv)
Z b Z b
hf, f i := f (t)f (t)dt = f (t)2 dt ≥ 0.
a a

v)
Z b
hf, f i = 0 ⇔ f (t)2 dt = 0 ⇔ f (t) = 0, ∀ t ∈ [a, b] ⇔ f = 0,
a

4
ver item iv). Neste ponto, utilizamos o seguinte resultado para integrais: ϕ é contı́nua
Z b
ϕ(t) ≥ 0, ∀ t ∈ [a, b] e ϕ(t)dt = 0 ⇒ ϕ = 0 (consulte [5]).
a

Em particular, se f (t) = t e g(t) = 1, ∀ t ∈ [0, 1], então


Z Z Z
1 1 1
t2 ¯¯1 1
hf, gi := f (t)g(t)dt = t · 1dt = tdt = ¯ = .
0 0 0 2 0 2

Quando não dissermos o contrário, este produto interno canônico será o produto interno de
C([a, b]).

Exemplo 1.4 (Não é Produto Interno). Seja V = R2 o espaço vetorial com a soma de vetores
e multiplicação por escalar usuais. Defina h·, ·i : R2 × R2 −→ R por h(x1 , x2 ), (y1 , y2 )i :=
−2x1 y1 + x2 y2 . Afirmamos que h·, ·i não é um produto interno sobre R2 em R. Com efeito,
seja v = (1, 0) ∈ R2 , então

iv) hv, vi = h(1, 0), (1, 0)i := (−2)1 · 1 + 0 · 0 = −2 < 0.

Isto contradiz o item iv) da Definição 1.1.

1.1.2 Propriedades do Produto Interno

Vejamos algumas propriedades do produto interno herdadas do produto escalar.

Proposição 1.1 (Propriedades do Produto Interno). Seja V um espaço vetorial com produto
interno h·, ·i. Então as seguintes afirmações são verdadeiras:

i) hu, λvi = λhu, vi, ∀ u, v ∈ V, ∀ λ ∈ R;

ii) h0, vi = hv, 0i = 0, ∀ v ∈ V e 0 ∈ V é o vetor nulo de V ;

iii) hu, v + wi = hu, vi + hv, wi, ∀ u, v, w ∈ V ;

iv) Se hu, vi = 0, ∀ v ∈ V , então u = 0.

Demonstração. Vamos provar, primeiramente, o item i). Sejam u, v ∈ V , então

hu, λvi = hλv, ui = λhv, ui = λhu, vi,

5
nestas igualdades utilizamos os itens iii), ii), iii), da Definição 1.1, respectivamente.
Agora, mostremos que o item ii) é verdadeiro. De fato, usando o item i) e a comutatividade
da Definição 1.1, obtemos

h0, vi = hv, 0i = hv, 0 · 0i = 0hv, 0i = 0, ∀ v ∈ V,

onde 0 ∈ R é o número zero e 0 ∈ V é o vetor nulo de V .


Vejamos a demonstração do item iii). Sejam u, v, w ∈ V , então

hu, v + wi = hv + w, ui = hv, ui + hw, ui = hu, vi + hu, wi,

aqui usamos os itens iii), i), iii), da Definição 1.1, respectivamente.


Por fim, verifiquemos o item iv). Se hu, vi = 0, ∀ v ∈ V , então hu, ui = 0 (basta considerar
v = u). Utilizando a Definição 1.1, item v), obtemos que u = 0. Isto conclui a demonstração.

Obs 1.3 (Propriedades em C). Os itens ii), iii) e iv) da Proposição 1.1 continuam sendo
válidos em espaços vetoriais com produto interno em C, mas o item i) tem uma significante
modificação:
hu, λvi = λhu, vi, ∀ u, v ∈ V, ∀ λ ∈ C.

Pense nisso!!!

Exemplo 1.5. No exemplo 1.1, vimos que h(1, 0), (1, −1)i = 1. Consequentemente, uti-
lizando o item i) da Proposição 1.1, concluimos que h(1, 0), (2, −2)i = 2h(1, 0), (1, −1)i =
2 · 1 = 2.

Exercı́cios de Fixação
1. Considerando o espaço vetorial R3 , calcular hu, vi = 1, nos seguintes casos
i) u = ( 12 , 2, 1) e v = (4, 1, −3);
ii) u = (2, 1, 0) e v = (4, 0, 2);
iii) u = (1, 1, 1) e v = (2, −1, 5).
2. Usando o produto interno canônico de C([0, 1]) no espaço vetorial formado por polinômios
de grau menor ou igual a 2. Determine o produto escalar de:

6
i) f (t) = t e g(t) = 1 − t2 ;
1 1
¡ ¢
ii) f (t) = t − 2
e g(t) = 2
− t − 12 .
3. Seja V um espaço vetorial. Ponhamos por definição hu, vi = 0, ∀ u, v ∈ V. Prove que h·, ·i
é um produto interno sobre V.
4. Seja V = R2 . Sendo u = (1, 2) e v = (−1, 1) ∈ R2 , determine um vetor w deste espaço
tal que hu, wi = −1 e hv, wi = 3.
5. Sendo u = (x1 , x2 ) e v = (y1 , y2 ) ∈ R2 , definamos

x1 y1 x2 y2
hu, vi := + 2 ,
a2 b

com a, b ∈ R fixos e não-nulos. Prove que h·, ·i é um produto interno.


6. Sejam u = (x1 , x2 ) e v = (y1 , y2 ) ∈ R2 . Para que valores de t ∈ R a função hu, vi :=
x1 y1 + tx2 y2 é um produto interno sobre o R2 .
7. Sejam f (t) = a0 + a1 t + a2 t2 + ... + an tn e g(t) = b0 + b1 t + b2 t2 + ... + bn tn polinômios.
Defina hf, gi = a0 b0 + a1 b1 + ... + an bn . h·, ·i é um produto interno?
8. Seja V um espaço vetorial com produto interno h·, ·i. (u, v) := λhu, vi, λ ∈ R e u, v ∈ V ,
é um produto interno sobre V.

1.2 Norma de um Vetor

Agora, estudaremos como definir o comprimento de um vetor em um espaço vetorial Eucli-


diano.

1.2.1 Definição de Norma

Definição 1.2 (Norma). Seja V um espaço vetorial. Uma aplicação k · k : V → R que


satisfaz

i) kvk > 0, ∀ v ∈ V não-nulo;

ii) kλvk = |λ|kvk, ∀ v ∈ V, ∀ λ ∈ R;

7
iii) (Desigualdade Triangular) ku + vk ≤ kuk + kvk, ∀ u, v ∈ V ,

é chamada norma sobre V . Quando munirmos um espaço vetorial V a uma norma, dizemos
que V é um espaço vetorial normado.

Obs 1.4. Já que estamos estendendo o produto escalar de R2 (ou de R3 ), adotaremos que,
geometricamente, a norma de um vetor é o comprimento deste.

Obs 1.5. Note que o item i) da Definição 1.2 nos diz que, se kvk = 0 então v = 0.

A pergunta que surge é: A recı́proca deste fato é verdadeira? A reposta é afirmativa.
Vejamos a justificativa no

Exemplo 1.6. O item ii) da Definição 1.2 nos garante que

k0k = k0 · 0k = |0|k0k = 0 · k0k = 0.

Ou seja, resumidamente, temos que kvk = 0 ⇔ v = 0. Em palavras, o único vetor que tem
comprimento nulo é o vetor nulo.

1.2.2 Resultados Importantes sobre Produto Interno e Norma

Para exemplificar a Definição 1.2 vamos, primeiramente, provar alguns resultados preli-
minares. Começemos com um dos Teoremas mais populares da Matemática.

Teorema 1.1 (Teorema de Pitágoras). Seja V um espaço com produto interno h·, ·i. Então

hu, vi = 0 ⇔ ku + vk2 = kuk2 + kvk2 ,


p
onde kuk := hu, ui, ∀ u ∈ V.

Demonstração. Primeiramente, observe que a raiz quadrada acima pode ser calculada com
a justificativa do item iv) da Definição 1.1.

⇒) Suponha que hu, vi = 0. Segue da Definição 1.1, itens i) e iii), que

ku + vk2 := hu + v, u + vi = hu, ui + hu, vi + hv, ui + hv, vi


=: kuk2 + hu, vi + hu, vi + kvk2 = kuk2 + 2hu, vi + kvk2 = kuk2 + kvk2 ,

8
na última igualdade usamos a hipótese do Teorema.

⇐) Reciprocamente, considere que ku + vk2 = kuk2 + kvk2 . Vimos acima que,

ku + vk2 = kuk2 + 2hu, vi + kvk2 .

Portanto, das duas últimas igualdades, inferimos que kuk2 + kvk2 = kuk2 + 2hu, vi + kvk2 .
Cancelando os termos idênticos desta igualdade, obtemos 2hu, vi = 0. Por fim, hu, vi = 0,
como querı́amos demonstrar.

Obs 1.6. A recı́proca do Teorema de Pitágoras, isto é, hu, vi = 0 ⇐ ku + vk2 = kuk2 + kvk2
não é verdadeira no caso do produto interno ser Hermetiano. Tente justificar o por quê!!!

Exemplo 1.7. Seja V = R2 com o produto interno canônico, definido no exemplo 1.1. Seja
p
k · k := h·, ·i. Note que

k(1, 1)k2 = h(1, 1), (1, 1)i = 2, k(1, 0)k2 = h(1, 0), (1, 0)i = 1 e k(0, 1)k2 = h(0, 1), (0, 1)i = 1.

Assim sendo, k(1, 1)k2 = k(1, 0) + (0, 1)k2 = k(1, 0)k2 + k(0, 1)k2 . Usando o Teorema de
Pitágoras (ver Teorema 1.1), obtemos h(1, 0), (0, 1)i = 0.

Exemplo 1.8. Seja V = C([−1, 1]) com o produto interno canânico, definido no exemplo
p
1.3. Seja k · k := h·, ·i. Então, para f (t) = t e g(t) = 1, ∀ t ∈ [−1, 1], temos que
Z 1 Z 1
2 t3 2
kf k = hf, f i = 2
t dt = |1−1 = , kgk2 = hg, gi = 1dt = t|1−1 = 2
−1 3 3 −1

e Z 1
t2 ¯¯1
hf, gi = tdt = ¯ = 0.
−1 2 −1
2 8
Pelo Teorema de Pitágoras (ver Teorema 1.1), kf + gk2 = kf k2 + kgk2 =
+2= .
3 3
Teorema 1.2 (Desigualdade de Cauchy-Schwarz). Seja V um espaço com produto interno
h·, ·i. Então
|hu, vi| ≤ kukkvk, ∀ u, v ∈ V,
p
onde kuk := hu, ui, ∀ u ∈ V.

Demonstração. Utilizaremos na demonstração deste Teorema uma ferramenta auxiliar. De-


fina f : R → R por f (x) = ku − xvk2 . Observe que f (x) ≥ 0. Por outro lado, usando a

9
definição da aplicação k · k, obtemos

f (x) = ku − xvk2 = hu − xv, u − xvi = hu, ui − 2xhu, vi + x2 kvk2 = kuk2 − 2xhu, vi + x2 kvk2 .

Logo, kuk2 −2xhu, vi+x2 kvk2 ≥ 0. Note que o gráfico de f é uma parábola, a qual está acima
do eixo das abscissas (o vértice desta parábola pode tocar tal eixo). Portanto, ∆ = 4hu, vi2 −
4kuk2 kvk2 ≤ 0 (discriminante). Ou seja, hu, vi2 ≤ kuk2 kvk2 . Por fim, |hu, vi| ≤ kukkvk (aqui

usamos a2 = |a|). O Teorema está provado.

Obs 1.7. A desigualdade de Cauchy-Shwarz é válida para espaços vetoriais com produto
interno hermetiano. Você aluno está convidado a provar esta afirmação. Sugestão: Use
y = xhu, vi no lugar de x.

Exemplo 1.9. Seja V = C([0, 1]) com o produto interno canônico, definido no exemplo 1.3.
µZ 1 ¶2 µZ 1 ¶ µZ 1 ¶
2 2
Podemos mostrar que f (t)g(t)dt ≤ [f (t)] dt [g(t)] dt . Com efeito, pela
0 0 0
desigualdade de Cauchy-Shwarz (ver Teorema 1.2), temos que |hf, gi| ≤ kf kkgk, ∀ f, g ∈ V .
Com isso, hf, gi2 ≤ kf k2 kgk2 . Usando as definições de h·, ·i e k · k, encontramos o resultado
desejado.

1.2.3 Exemplos de Normas

Agora, vamos mostrar o primeiro exemplo de norma.

Proposição 1.2 (Norma sobre um Espaço Euclidiano). Seja V um espaço vetorial com
p
produto interno h·, ·i. Então a aplicação k · k : V → R, definida por kvk := hv, vi, é uma
norma sobre V. Neste caso, dizemos que a norma k · k provém do produto interno h·, ·i.

Demonstração. Verificaremos os itens expostos na Definição 1.2.

p
i) Seja v 6= 0. Então, hv, vi > 0, pela Definição 1.1. Logo, kvk = hv, vi > 0.

ii) Sejam v ∈ V e λ ∈ R. Então, com a Definição 1.1, concluı́mos que


p p √ p p
kλvk = hλv, λvi = λ2 hv, vi = λ2 hv, vi = |λ| hv, vi = |λ|kvk.

10
iii) Vamos provar a desigualdade triangular. Note que

ku + vk2 := hu + v, u + vi = hu, ui + 2hu, vi + hv, vi = kuk2 + 2hu, vi + kvk2


≤ kuk2 + 2|hu, vi| + kvk2 ≤ kuk2 + 2kukkvk + kvk2 = (kuk + kvk)2 ,

na última desigualdade usamos o Teorema 1.2. Logo, pelo item i), obtemos

ku + vk ≤ kuk + kvk, ∀ u, v ∈ V.

Exemplo 1.10 (Norma sobre R2 ). Seja V = R2 com o produto interno canônico, ver exemplo
p
1.1. Assim, k · k : R2 → R, dada por k(x, y)k = x2 + y 2 , é uma norma. Basta observar que
p p
k(x, y)k = h(x, y), (x, y)i = x2 + y 2 .

Exemplo 1.11 (Norma em Rn ). Seja V = Rn com o produto interno canônico, ver exemplo
p
1.2. Assim, k · k : R2 → R, definida por k(x1 , x2 , ..., xn )k = x21 + x22 + ... + x2n , é uma
norma. Com efeito,
p q
k(x1 , x2 , ..., xn )k = h(x1 , x2 , ..., xn ), (x1 , x2 , ..., xn )i = x21 + x22 + ... + x2n .

Exemplo 1.12 (Norma de Funções Contı́nuas). Seja V = C([a, b]) com o produto interno
canônico, ver exemplo 1.3. Logo, k · k : C([a, b]) → R, dada por
s
p Z b
kf k = hf, f i = [f (t)]2 dt,
a

é uma norma.

Exemplo 1.13 (Não-norma). Seja V = R2 . Defina k · k : R2 → R por k(x, y)k = x2 + y 2 .


k · k não é uma norma. Basta observar que

ii) k2(1, 0)k = k(2, 0)k = 22 +02 = 4. Por outro lado, |2|k(1, 0)k = 2k(1, 0)k = 2(12 +02 ) = 2.
Assim, k2(1, 0)k 6= |2|k(1, 0)k. Isto contradiz o item ii) da Definição 1.2.

Definição 1.3 (Vetor Unitário). Seja V um espaço vetorial normado. Dizemos que um vetor
v ∈ V é unitário se kvk = 1.

11
p
Obs 1.8. Note que v é unitário ⇔ kvk = 1 ⇔ hv, vi = 1, onde k · k = h·, ·i.

Obs 1.9. Podemos transformar qualquer vetor não-nulo v ∈ V em um vetor unitário. Basta
v
escolher u = . Para verificar a veracidade deste fato, basta utilizar o item ii) da Definição
kvk
1.2 e obter ° ° ¯ ¯
° v ° ¯ 1 ¯ 1
kuk = ° ° ¯ ¯
° kvk ° = ¯ kvk ¯ kvk = kvk kvk = 1.

Exemplo 1.14 (Vetor Unitário em R2 ). Vimos, no exemplo 1.10, que k(1, 0)k = 12 + 02 =
√ √
1 e que k(1, 1)k = 12 + 12 = 2. Logo, (1, 0) é um vetor unitário e (1, 1) não. Para
transformar (1, 1) em vetor unitário, basta realizar o seguinte processo
µ ¶
(1, 1) (1, 1) 1 1
= √ = √ ,√ ,
k(1, 1)k 2 2 2

ver observação 1.9.

Exemplo 1.15 (Vetor Unitário com Funções Contı́nuas). Seja V = C([0, 1]) com o produto
interno canônico
s definido no exemplo
s 1.3. Sejam f (t) = 1 s
e g(t) = t. Vimossno exemplo 1.12
Z 1 Z 1 Z 1 Z 1
1
que kf k = 2
[f (t)] dt = 1dt = 1 e que kgk = 2
[g(t)] dt = t2 dt = √ .
0 0 0 0 3
Logo, f é um vetor unitário e g não. Usando a observação 1.9, obtemos o vetor unitário

g t √
= 1 = 3t.
kgk √
3

Exercı́cios de Fixação
1. Sejam u, v ∈ V , onde V é um espaço vetorial com produto interno. Se kvk, kuk = 1, e
ku − vk = 2, determine hu, vi, onde kk é a norma que provém do produto interno.
2. Seja V um espaço vetorial formado pelos polinômios de grau menor ou igual a 2 com o
produto interno interno canônico para C([0, 1]). Calcular kf (t)k (kk é a norma que provém
do produto interno) nos seguintes casos:
i) f (t) = t;
ii) f (t) = −t2 + 1.
3. Num espaço vetorial com produto interno provar que
i) kuk = kvk ⇔ hu + v, u − vi = 0;

12
ii) ku + vk2 = kuk2 + kvk2 ⇔ hu, vi = 0.
4. Sejam u = (x1 , x2 ) e v = (y1 , y2 ) ∈ R2 .
i) Mostrar que hu, vi := x1 y1 − 2x1 y2 − 2x2 y1 + 5x2 y2 define um produto interno sobre R2 ;
ii) Determinar a norma de u = (1, 2) em relação ao produto interno usual e também em
relação ao produto definido em i).

5. Considere o espaço R3 . Determinar a ∈ R de maneira que kuk = 41, onde u = (6, a, −1),
onde k · k é a norma que provém do produto interno canônico.
6. Prove que a igualdade na Desigualdade de Cauchy-Schwarz é válida se, e somente se, os
vetores, lá presentes, são l.d. (linearmente dependente).
7. Sejam u = (1, 1, 0) e v = (0, 1, 2) ∈ R3 . Determinar os vetores w ∈ R3 tais que kwk = 1 e
hu, wi = hv, wi = 0.
8. Sejam u = (1, 2, 0, 1) e v = (3, 1, 4, 2) ∈ R4 . Determinar hu, vi, kuk e kvk, onde k · k
provém do produto interno canônico de R4 .
9. Sabendo que kuk = 3, kvk = 5, com u e v elementos de um espaço vetorial com produto
interno, determine t ∈ R de maneira que hu + tv, u − tvi = 0.

1.3 Exercı́cios Propostos

Exercı́cios:

1. Encontre um produto interno sobre R2 tal que h(1, 0), (0, 1)i = 2.
2. Defina h(x1 , y1 ), (x2 , y2 )i = 2x1 x2 − x1 y2 − x2 y1 + 2y1 y2 . Mostre que este é um produto
interno sobre R2 .
3. Seja V um espaço vetorial sobre R. Sejam h·, ·i1 , h·, ·i2 dois produtos internos sobre V.
Defina h·, ·i3 = h·, ·i1 + h·, ·i2 e h·, ·i4 = λh·, ·i1 , onde λ > 0. Prove que h·, ·i3 e h·, ·i4 são
produtos internos sobre V. h·, ·i5 = h·, ·i1 − h·, ·i2 define um produto interno sobre V ?
4. Seja h·, ·i o produto interno canônico de R2 .
i) Seja u = (1, 2) e v = (−1, 1). Se w é um vetor tal que hu, wi = −1 e hv, wi = 3, encontre
w;
ii) Mostre que para qualquer vetor v ∈ R2 , temos v = hv, (1, 0)i(1, 0) + hv, (0, 1)i(0, 1).

13
5. Seja h·, ·i o produto interno canônico de R2 e seja T : R2 → R2 dado por T (x, y) = (−y, x).
Mostre que h(x, y), T (x, y)i = 0, ∀ (x, y) ∈ R2 . Encontre todos os produtos internos sobre R2
que satisfazem esta mesma propriedade.
6. Seja A uma matriz 2 × 2 com entradas reais. Para X, Y matrizes 2 × 1 defina hX, Y iA :=
Y t AX, onde Y t é a transposta de Y. Mostre que h·, ·iA é um produto interno sobre o espaço
das matrizes 2 × 1, com entradas reais, se, e somente se, A = At , A11 , A22 , det(A) > 0, onde
A = (Aij ).
7. Seja V um espaço vetorial com produto interno h·, ·i. Considere sobre V a norma que
provém do produto interno. Prove a seguinte identidade de polarização:

1 1
hu, vi = ku + vk2 − ku − vk2 , ∀ u, v ∈ V.
4 4

8. Seja V um espaço com produto interno h·, ·i. A distância entre os vetores u e v em V é
dada por d(u, v) := ku − vk. Mostre que:
i) d(u, v) ≥ 0;
ii) d(u, v) = 0 ⇔ u = v;
iii) d(u, v) = d(v, u);
iv) d(u, v) ≤ d(u, w) + d(w, v).
9. Seja V um espaço vetorial com produto interno h·, ·i. Sejam u, v ∈ V . Mostre que
u = v ⇔ hu, wi = hv, wi, ∀ w ∈ V.
10. Seja V um espaço vetorial com produto interno h·, ·i. Seja U um espaço vetorial. Seja
T : U → V uma transformação linear injetora. Mostre que hx, yiU := hT (x), T (y)iV é um
produto interno sobre U. Conclua que qualquer espaço vetorial com dimensão finita possui
um produto interno.
Sugestão: Crie um isomorfismo entre um espaço vetorial de dimensão n e Rn .
11. Seja V um espaço vetorial com dimensão finita. Seja β = {v1 , v2 , ..., vn }. Seja h·, ·i um
produto interno sobre V. Sejam λ1 , λ2 , ..., λn ∈ R. Mostre que existe exatamente um vetor
v ∈ V tal que hv, vi i = λi , ∀ i = 1, 2, ..., n.
12. Seja V um espaço vetorial com produto interno h·, ·i. Considere sobre V a norma que
provém do produto interno. Prove a seguinte lei do paralelogramo

ku + vk2 + ku − vk2 = 2(kuk2 + kvk2 ), ∀ u, v ∈ V.

14
13. Use a Desigualdade de Cauchy-Schwarz em R3 para mostrar que, dados os números reais
estritamente positivos x1 , x2 , x3 , vale a desigualdade:
µ ¶
1 1 1
(x1 + x2 + x3 ) · + + ≥ 9.
x1 x2 x3

15
Referências Bibliográficas

[1] BUENO, H. P., Álgebra Linear - Um Segundo Curso, Primeira Edição, Rio de Janeiro,
SBM, 2006.

[2] CALLIOLI, C. A., DOMINGUES, H. H.,COSTA, R. C. F. Álgebra Linear e


Aplicações, Sexta Edição, São Paulo, Editora Atual, 1995.

[3] COELHO, F. O., LOURENÇO, M. L., Um Curso de Álgebra Linear, Edição 2001,
São Paulo, EdusP, 2004.

[4] HOFFMAN, K., KUNZE, R., Linear Algebra, Second Edition, New Jersey, Prentice-
Hall, Inc., Englewood Cliffs, 1971.

[5] LAGES, E., Curso de Análise vol. 1, Décima Segunda Edição, Rio de Janeiro, IMPA,
2008. 431p.

[6] LANG, S., Álgebra Linear, Primeira Edição, New York, Ed. ciência Moderna, 2003.

[7] LIPSCHUTZ, S., Álgebra Linear, Terceira Edição, São Paulo, Schaum McGraw-Hill
Makron Books, 1994.

[8] SILVA, A., Introdução à Álgebra, Primeira Edição, Editora Universitária UFPB, João
Pessoa, 2007.

Professores Revisores

Professores Paulo de Souza Rabelo e Wilberclay Gonçalves Melo.

16
Capı́tulo 2

Ortogonalidade e Processo de
Gram-Schmidt

2.1 Ângulo entre Vetores e Ortogonalidade

Prezado aluno, nesta seção, mostraremos como estenter a idéia de vetores ortogonais, vista
no curso de Vetores e Geometria Analı́tica. A Desigualdade de Cauchy-Schwarz, vista no
Teorema 1.2, nos permite definir ângulo entre dois vetores quaisquer em um espaço vetorial
com produto interno em R. Procedemos da seguinte maneira:
Considere dois vetores u e v não-nulos em V , então |hu, vi| ≤ kukkvk. Portanto,

hu, vi
−kukkvk ≤ hu, vi ≤ kukkvk ⇒ −1 ≤ ≤ 1. (2.1)
kukkvk

hu, vi
Consequentemente, existe θ ∈ [0, π] tal que cos θ = .
kukkvk

2.1.1 Definição de Ângulo entre Vetores e Exemplos

Através da discussão acima, podemos estabelecer a seguinte

Definição 2.1 (Ângulo entre vetores). Seja V um espaço vetorial com produto interno h·, ·i.

17
Sejam u, v ∈ V vetores não-nulos. Definimos o ângulo entre u e v por
µ ¶
hu, vi
θ = arccos .
kukkvk
¶ µ
hu, vi
Notação: ^(u, v) = θ = arccos .
kukkvk
µ ¶
hu, vi
Obs 2.1. Encontrar ^(u, v) = arccos é equivalente a encontrar o número ^(u, v)
kukkvk
hu, vi
tal que cos(^(u, v)) = .
kukkvk
Obs 2.2. Quando V é um espaço vetorial com produto interno hermetiano, o módulo de
hu, vi (encontrado no Teorema 1.2) não pode ser tratado como em (2.1), pois neste espaço,
|hu, vi| significa o módulo do número complexo hu, vi. Pense nisso!!!

Exemplo 2.1 (Ângulo em R2 ). Seja V = R2 com o produto interno canônico (ver exemplo
1.1), Sejam u = (1, 0) e v = (1, 1) ∈ V . Vamos encontrar ^(u, v). Note que
p √
hu, vi = h(1, 0), (1, 1)i = 1, kuk = k(1, 0)k = h(1, 0), (1, 0)i = 1 = 1

e
p√
kvk = k(1, 1)k =
h(1, 1), (1, 1)i = 2.

hu, vi 1 2 π
Portanto, cos(^(u, v)) = = √ = . Logo, ^(u, v) = . Seja w = (0, 1), então
kukkvk 1· 2 2 4
p √
hu, wi = h(1, 0), (0, 1)i = 0, kuk = k(1, 0)k = h(1, 0), (1, 0)i = 1 = 1

e
p √
kwk = k(0, 1)k = h(0, 1), (0, 1)i = 1 = 1.
hu, wi 0 π
Com isso, cos(^(u, w)) = = = 0. Logo, ^(u, w) = .
kukkwk 1·1 2

Exemplo 2.2 (Ângulo entre Funções Contı́nuas). Seja V = C([0, 1]) com o produto interno
canônico (ver exemplo 1.3), Sejam f (t) = t e g(t) = 1 ∈ V . É possı́vel calcular ^(f, g). Veja
que
s s
Z 1 p Z 1 p Z 1
1 1
hf, gi = tdt = , kf k = hf, f i = t2 dt = √ e kgk = hg, gi = 1dt = 1.
0 2 0 3 0

18
µ ¶ à ! Ã√ !
1
hf, gi 2 3 π
Portanto, ^(f, g) = arccos = arccos = arccos = .
kf kkgk √1 1 2 6

2.1.2 Definição de Vetores Ortogonais e Exemplos

Agora, estamos prontos para definir quando dois vetores em um espaço vetorial com produto
π
interno em R formam um ângulo de 90o ou radianos. Usando a Definição 2.1 e o fato que
2
^(u, v) ∈ [0, π], temos que

π hu, vi
^(u, v) = ⇔ cos(^(u, v)) = = 0 ⇔ hu, vi = 0.
2 kukkvk

Mais precisamente, podemos adicionar ao conteúdo a seguinte

Definição 2.2 (Vetores Ortogonais). Sejam u, v ∈ V . Dizemos que u e v são ortogonais (ou
perpendiculares) se hu, vi = 0.
Notação: u ⊥ v.

Obs 2.3 (Ortogonalidade em C). Se V é um espaço vetorial com produto interno hermetiano,
não podemos definir ângulo entre dois vetores como na Definição 2.1 (ver observação 2.2).
Porém, podemos definir vetores ortogonais, neste espaço, como na Definição 2.2.

Obs 2.4 (Reformulação do Teorema de Pitágoras). Caro aluno, tente reescrever o Teorema
de Pitágoras 1.1 com esta nova definição de ortogonalidade (Definição 2.2) e interprete
geometricamente!

Exemplo 2.3 (Ortogonalidade em R2 ). Vimos no exemplo 2.1 que (1, 0) ⊥ (0, 1) e que (1, 0)
e (1, 1) não são ortogonais, pois h(1, 0), (0, 1)i = 0 e h(1, 0), (1, 1)i 6= 0.

Exemplo 2.4 (Ortogonalidade com Funções Contı́nuas). Vimos no exemplo 2.2 que f (t) = t
e g(t) = 1 não são ortogonais, pois hf, gi 6= 0.

2.1.3 Propriedades da Ortogonalidade

Vejamos algumas propriedades herdadas da definição de ortogonalidade.

Proposição 2.1 (Propriedades de Ortogonalidade). Seja V um espaço vetorial com produto


interno h·, ·i. Então são válidas as seguintes afirmações:

19
i) 0 ⊥ v, ∀ v ∈ V , em palavras, o vetor nulo é ortogonal a todo vetor;

ii) u ⊥ v ⇒ v ⊥ u;

iii) u ⊥ v, ∀ v ∈ V ⇒ u = 0, em palavras, o único vetor que é ortogonal a todos os vetores


de V é o vetor nulo;

iv) u ⊥ w e v ⊥ w ⇒ (u + v) ⊥ w;

v) u ⊥ v ⇒ (λu) ⊥ v, ∀ λ ∈ R.

Demonstração. Os itens i) e iii) é uma reformulação dos itens ii) e iv) da Proposição 1.1,
repectivamente. Verifique! Vamos verificar os itens que restaram.

ii)
u ⊥ v ⇒ hu, vi = 0 ⇒ hv, ui = hu, vi = 0,

nesta penúltima igualdade usamos a comutatividade da Definição 1.1. Com isso, v ⊥ u.

iv) Se u ⊥ w e v ⊥ w, então hu, wi = 0 e hv, wi = 0. Portanto, utilizando a Definição


1.1 (qual item?), obtemos

h(u + v), wi = hu, wi + hv, wi = 0 + 0 = 0.

Assim, (u + v) ⊥ w.

v) Se u ⊥ v, então, hu, vi = 0. Logo,

hλu, vi = λhu, vi = λ · 0 = 0,

novamente pela Definição 1.1. Ou seja, (λu) ⊥ v, ∀ λ ∈ R.


π
Obs 2.5. O item i) da Proposição 2.1, nos permite adotar que ^(0, v) = ,∀ v ∈ V.
2
Exemplo 2.5. Vimos no exemplo 2.3 que, (1, 0) ⊥ (0, 1). Logo, pelo item v) da Proposição
2.1, (2, 0) ⊥ (0, 1), pois (2, 0) = 2(1, 0).

20
Exercı́cios de Fixação
1. Achar o ângulo entre os seguintes pares de vetores do R3 :
i) u = (1, 1, 1) e v = ( 12 , −1, 12 );
ii) u = (1, −1, 0) e v = (2, −1, 2).
2. Achar o cosseno do ângulo entre u e v nos seguintes casos:
i) u = (1, 1, 1, 1) e v = (0, 0, 1, 1) com o produto interno canônica em R4 ;
ii) f (t) = 1 + t − t2 e g(t) = 3t2 , com o produto interno canônico para C([0, 1]);
à ! à !
1 1 0 1
iii) A = eB= com o produto interno hA, Bi = tr(At B), onde tr(X) =
0 0 1 0
X11 + X22 e At é a matriz transposta de A.
hu, vi
3. Seja V um epsaço vetorial com produto interno h·, ·i. Dados u, v ∈ V (v 6= 0) e λ = ,
kvk2
mostrar que (u − λv) ⊥ v.
4. Determinar m ∈ R a fim de que sejam ortogonais os vetores u = (1, m + 1, m) e v =
(m − 1, m, m + 1) do R3 .
5. Mostrar que se u e v são tais que ku + vk = ku − vk, então u ⊥ v.
6. Em R3 defina o produto interno hu, vi := x1 y1 + 2x2 y2 , onde u = (x1 , x2 ) e v = (y1 , y2 ).
Verificar se u ⊥ v, em relação a esse produto, nos seguintes casos:
i) u = (1, 1) e v = (2, −1);
ii) u = (2, 1) e v = (−1, 1);
iii) u = (3, 2) e v = (2, −1).
7. Consideremos em V espaço formado pelos polinômios de grau menor ou igual a 2 com
o produto interno canônico de C([0, 1]). Nessas condições, para que valor m ∈ R, (f (t) =
mt2 − 1) ⊥ (g(t) = t)?
8. Determinar todos os vetores do R3 de norma igual a 2 que sejam ortogonais simultanea-
mente a (2, 1, 2) e (−1, 3, 4).

2.2 Conjuntos Ortonormais e Processo de Gram-Schmidt

Prezados alunos, nesta seção, trabalharemos para que uma base qualquer de um espaço ve-
torial, com produto interno, seja transformada em outra base onde os respectivos vetores são

21
dois a dois ortogonais e cada vetor, isoladamente, seja unitário. Esta nova base facilita, em
muitos casos, as demonstrações dos resultados que estão por vir e os cálculos que aparecerão
em vários exercı́cios deste material.

2.2.1 Definição de Conjuntos Ortonormais e Exemplos

Definição 2.3 (Conjunto Ortonormal). Seja V um espaço vetorial com produto interno
h·, ·i. Dizemos que um subconjunto X ⊆ V é ortonormal se

i) u ⊥ v, ∀ u, v ∈ X distintos;

ii) todo vetor de X é unitário, isto é, kvk = 1, ∀ v ∈ X.

Obs 2.6 (Conjunto Ortogonal). Quando um subconjunto X satisfaz o item i) dizemos que
X é um conjunto ortogonal.

Obs 2.7. Note que X na Definição 2.3 não precisa ser subespaço de V .

Exemplo 2.6 (Conjunto Ortonormal em R2 ). A base canônica de R2 , X = {(1, 0), (0, 1)}, é
um conjunto ortonormal em R2 (veja o produto interno do exemplo 1.1), pois h(1, 0), (0, 1)i =
0, k(1, 0)k = k(0, 1)k = 1. O conjunto Y = {(1, 1), (1, −1)} é ortogonal, mas não é ortonor-

mal. De fato, h(1, 1), (1, −1)i = 1 − 1 = 0 e k(1, 1)k = 2 6= 1. Veja as explicações destes
cálculos no exemplos 1.1, 1.10 e 1.14.

Exemplo 2.7 (Conjunto Ortonormal com Funções Contı́nuas ). O subconjunto X = {1, 3t2 −
1} é um conjunto ortogonal, mas não ortonormal (veja o produto interno do exemplo 1.3),
pois Z 1
2
h1, 3t − 1i = [3t2 − 1]dt = 1 − 1 = 0
0
e s s
Z 1 Z 1
2 9
k3t − 1k = (3t2 − 1)2 dt = (9t4 − 6t2 + 1)dt = − 1 6= 1.
0 0 5
Exemplo 2.8 (Conjunto Ortonormal em Rn ). A base canônica de Rn ,

X = {(1, 0, ..., 0), (0, 1, 0, ..., 0), ..., (0, ..., 1)},

é um conjunto ortonormal de Rn . Para verificar esta afirmação sigua os mesmos passos do


exemplo 2.6.

22
Definição 2.4 (Base Ortonormal). Seja V um espaço vetorial com produto interno e di-
mensão finita. Uma base de V é dita ortonormal se esta for um conjunto ortonormal. Ou
equivalentemente, se {v1 , v2 , ..., vn } é base de V , então
(
1, se i = j;
hvi , vj i =
0, se i 6= j.

Exemplo 2.9 (Base Ortonormal de R2 ). Vimos no exemplo 2.6 que a base canônica de R2
é uma base ortonormal.

Exemplo 2.10 (Base Ortonormal em Rn ). O conjunto X do exemplo 2.8 é uma base ortonor-
mal de Rn .

Exemplo 2.11 (Base Não-ortonormal). O conjunto Y do exemplo 2.6 é uma base. Porém
não é ortonormal.

2.2.2 Processo de Gram-Schmidt e Exemplos

A pergunta que surge, neste momento, é a seguinte: sempre existe uma base ortonormal para
qualquer espaço vetorial com produto interno e dimensão finita? A resposta é afirmativa. O
próximo resultado garante esta resposta.

Teorema 2.1 (Teorema de Gram-Schmidt). Seja V um espaço vetorial com produto interno
h·, ·i e dimensão finita n > 0. Seja β = {v1 , v2 , ..., vn } uma base de V. Então existe uma base
ortonormal γ = {u1 , u2 , ..., un } de V , onde

j−1
X
vj − hvj , ui iui
v1 i=1
u1 = e uj = ° ° , ∀ j = 2, ..., n. (2.2)
kv1 k ° j−1
X °
° °
°v j − hvj , ui iui °
° °
i=1

Demonstração. Faremos a prova por indução sobre n. Suponha que n = 1, assim, β = {v1 }.
Então faça u1 = kvv11 k . Logo, γ = {u1 } é uma base ortonormal de V . Considere que n > 1,
e que todo subespaço de V de dimensão n − 1 possui uma base ortonormal satsifazendo as
igualdades em (2.2). Como U = [v1 , v2 , ..., vn−1 ] é um subespaço de V com dimensão n − 1,

23
então existe {u1 , u2 , ..., un−1 } base ortonormal de U , onde

j−1
X
vj − hvj , ui iui
v1 i=1
u1 = e uj = ° ° , ∀ j = 2, ..., n − 1.
kv1 k ° j−1
X °
° °
v
° j − hv j , u iu
i i°
° °
i=1

Defina
n−1
X
vn − hvn , ui iui
i=1
un = ° °. (2.3)
° n−1
X °
° °
v
° n − hv n , u iu
i i°
° °
i=1

Afirmamos que γ = {u1 , u2 , ..., un−1 , un } é a base ortonormal procurada. Para isso, pre-
cisamos verificar que un ⊥ uj , ∀ j = 1, 2, ..., n − 1, pois kun k = 1 (ver observação 1.9).
n−1
X
Vamos primeiramente provar que (vn − hvn , ui iui ) ⊥ uj , ∀ j = 1, 2, ..., n − 1. Com efeito,
i=1
utilize a Definição 1.1 para obter
* n−1
+ * n−1 + n−1
X X X
vn − hvn , ui iui , uj = hvn , uj i − hvn , ui iui , uj = hvn , uj i − hvn , ui i hui , uj i
i=1 i=1 i=1
= hvn , uj i − hvn , uj i = hvn , uj i − hvn , uj i = 0, ∀ j = 1, ..., n − 1,

na antepenúltima igualdade usamos o fato que {u1 , u2 , ..., un−1 } é um conjunto ortonormal,
isto é, (
1, se i = j;
hui , uj i =
0, se i 6= j.
Resumidamente, encontramos
* n−1
+
X
vn − hvn , ui iui , uj = 0, ∀ j = 1, ..., n − 1.
i=1

n−1
X
Isto nos garante que, un ⊥ uj , ∀ j = 1, 2, ..., n−1, já que un é um múltiplo de vn − hvn , ui iui
i=1
(ver (2.3) e item iv) da Proposição 2.1). Logo, γ = {u1 , u2 , ..., un } é uma base ortonormal

24
de V . Isto conclui a prova.

Obs 2.8 (Processo de Gram-Schmidt). O processo que descreve como encontar os vetores
u1 , u2 , ..., un é chamado Processo de Gram-Schmidt. Detalhadamente, podemos obter estes
vetores através das fórmulas:

v1
u1 = ;
kv1 k
v2 − hv2 , u1 iu1
u2 = ;
kv2 − hv2 , u1 iu1 k
v3 − hv3 , u1 iu1 − hv3 , u2 iu2
u3 = ;
kv3 − hv3 , u1 iu1 − hv3 , u2 iu2 k

· · · · · · ····················· · · · · · · · · · · · · · · · · · ·

vn − hvn , u1 iu1 − hvn , u2 iu2 − hvn , u3 iu3 − ... − hvn , un−1 iun−1
un = .
kvn − hvn , u1 iu1 − hvn , u2 iu2 − hvn , u3 iu3 − ... − hvn , un−1 iun−1 k

Caro aluno, vejamos, em exemplos, como aplicar o Processo de Gram-Schmidt.

Exemplo 2.12 (Processo de Gram-Schmidt em R2 ). Seja V = R2 com o produto interno


do exemplo 1.1. Vamos aplicar o Processo de Gram-Schmidt à base β = {(1, 1), (0, 1)}
(realmente é base? Verifique!). Sejam v1 = (1, 1) e v2 = (0, 1), então
µ ¶
v1 (1, 1) 1 1
u1 = = = √ ,√ ,
kv1 k k(1, 1)k 2 2

ver exemplo 1.14. Além disso,


D ³ ´E ³ ´ ³ ´
(0, 1) − (0, 1), √1 , √1 √1 , √1 (0, 1) − √1 √1 , √1
v2 − hv2 , u1 iu1 2 2 2 2 2 2 2
u2 = =°
°
D ³ ´E ³ ´° =
°
°
°
³ ´°
°
kv2 − hv2 , u1 iu1 k °(0, 1) − (0, 1), 2 , 2 √1 √1 √1 1
, 2 °
√ °(0, 1) − √1 √1 , √1 °
2 2 2 2
¡ ¢ ¡ 1 1¢ ¡ 1 1¢ Ã √ √ !
(0, 1) − 12 , 12 −2, 2 −2, 2 2 2
= ° ¡ ¢° °¡
°(0, 1) − 1 , 1 ° = ° − 1 , 1 ° =
¢° = − , .
√1 2 2
2 2 2 2 2

( µ ¶ Ã √ √ !)
1 1 2 2
Logo, γ = u1 = √ ,√ , u2 = − , é uma base ortonormal de R2 .
2 2 2 2
Exemplo 2.13 (Processo de Gram-Schmidt em Polinômios). Seja V = P2 (R) = {a0 +a1 x+
a2 x2 : a0 , a1 , a2 ∈ R} = {polinômios com coeficientes em R de grau menor ou igual a 2}.

25
Considere que este espaço vetorial está munido ao produto interno do exemplo 1.3 para o
espaço C([0, 1]). Seja β = {1, x, x2 } a base canônica de P2 (R) (Verifique que é base!). Vamos
ortonormalizar β através do Processo de Gram-Schmidt. Sejam v1 = 1, v2 = x e v3 = x2 .
1
Assim, u1 = = 1 (ver exemplo 1.15),
k1k

v2 − hv2 , u1 iu1 x − hx, 1i1 x − 12 x − 12


u2 = = = = sZ
kv2 − hv2 , u1 iu1 k kx − hx, 1i1k kx − 12 k 1µ ¶2
1
x− dx
0 2
x− 1
2
x− 1
2
√ √
= sZ µ ¶ =q = 2 3x − 3
1 1
1 − 12 + 1
x2 − x + dx 3 4
0 4

e
√ √ √ √
v3 − hv3 , u1 iu1 − hv3 , u2 iu2 x2 − hx2 , 1i1 − hx2 , 2 3x − 3i(2 3x − 3)
u3 = = √ √ √ √
kv3 − hv3 , u1 iu1 − hv3 , u2 iu2 k kx2 − hx2 , 1i1 − hx2 , 2 3x − 3i(2 3x − 3)k
√ √ √ √
x2 − hx2 , 1i + [−2 3hx2 , xi + 3hx2 , 1i](2 3x − 3) x2 − x + 16
= √ √ √ √ = 2
kx2 − hx2 , 1i + [−2 3hx2 , xi + 3hx2 , 1i](2 3x − 3)k kx − x + 16 k
√ √ √
= 6 5x2 − 6 5x + 5.
√ √ √ √ √
Por fim, γ = {u1 = 1, u2 = 2 3x − 3, u3 = 6 5x2 − 6 5x + 5} é uma base ortonormal
de P2 (R).

Obs 2.9 (Comunicado). Dedicados alunos, o Processo de Gram-Schmidt é de grande valia


para o nosso curso. Portanto, sugiro que vocês pratiquem bastante como encontrar uma base
ortonormal através deste.

A proposição abaixo mostra um outro caminho de verificar se um conjunto finito é l.i.


(linearmente independente). Mais precisamente,

Proposição 2.2. Seja V um espaço vetorial com produto interno h·, ·i. Seja X ⊆ V um
conjunto ortogonal tal que 0 6∈ X. Então X é l.i..

Demonstração. Sejam v1 , v2 , ..., vm vetores em X. Considere a combinação linear nula λ1 v1 +

26
λ2 v2 + ... + λm vm = 0. Vamos provar que λ1 , λ2 , ..., λm = 0. Então

hλ1 v1 + λ2 v2 + ... + λm vm , v1 i = h0, v1 i = 0,

nesta última igualdade usamos a Proposição 1.1. Como X é um conjunto ortogonal, então
hvi , vj i = 0 sempre que i 6= j (ver observação 2.6). Através das propriedades da Proposição
1.2, obtemos

0 = λ1 hv1 , v1 i + λ2 hv2 , v1 i + ... + λm hvm , v1 i = λ1 hv1 , v1 i. (2.4)

Mas hv1 , v1 i > 0, pois 0 6∈ X (ver Definição 1.1). Portanto, de (2.4), concluı́mos que λ1 = 0.
Analogamente, prova-se que λ2 , λ3 , ..., λm = 0. Isto garante que X é l.i..
Obs 2.10. Se X é um conjunto ortogonal de V com n vetores, onde dim V = n (dimensão
de V ), então pela Proposição 2.2 temos que X é uma base de V (pois, X é l.i.).
Exemplo 2.14. O conjunto X = {(1, 1), (1, −1)} é l.i., pois X é ortogonal (ver exemplo
2.6). Usando a observação 2.10, X é uma base de R2 , já que dim R2 = 2.

Exercı́cios de Fixação
1. Ortonormalizar a base {(1, 1, 1), (1, −1, 1), (−1, 0, 1)} do R3 , pelo Processo de Gram-
Schmidt.
2. Seja W = {(x, y, z) : x − 2y = 0}. Determinar uma base ortonormal de W.
3. Seja V o espaço formado pelos polinômios de grau menor ou igual a 2 munido pelo produto
interno canônico de C([0, 1]). Ortonormalizar utilizando o Processo de Gram-Schmidt a base
canônica {1, t, t2 }.
4. Determinar uma base ortonormal de cada um dos seguintes subespaços do R4 utilizando
o Processo de Gram-Schmidt:
i) W = [(1, 1, 0, 0), (0, 1, 2, 0), (0, 0, 3, 4)];
ii) W = [(2, 0, 0, 0), (1, 3, 3, 0), (3, −3, −3, 0)].
5. Determinar uma base ortonormal do subespaço W = {(x, y, z, t) : x − y − z = 0 e z − 2t =
0}.
6. Determinar uma base ortonormal do subespaço W = [(1, 1, 1), (1, −2, 3)] em relação ao
produto interno dado por hu, vi := x1 y1 + 2x2 y2 + x3 y3 , ∀ u = (x1 , x2 , x3 ) e v = (y1 , y2 , y3 ).

27
2.3 Exercı́cios Propostos

Exercı́cios:

1. Considere agora o espaço vetorial C([−π, π]) com o produto interno canônico. Mostre
que {1, sen t, cos t, sen 2t, cos 2t, ...} é um conjunto ortogonal. Este conjunto é ortonormal?
2. Sejam V um espaço vetorial com produto interno h·, ·i e β = {v1 , v2 , ..., vn } uma base
ortonormal de V . Sejam u, v ∈ V tais que u = x1 v1 + x2 v2 + ... + xn vn e v = λ1 v1 + λ2 v2 +
... + λn vn . Mostre que
i) v = hv, v1 iv1 + hv, v2 iv2 + ... + hv, vn ivn .;
ii) hu, vi = hu, v1 ihv, v1 i + hu, v2 ihv, v2 i + ... + hu, vn ihv, vn i;
iii) kuk2 = hu, v1 i2 + hu, v2 i2 + ... + hu, vn i2 .
3. Seja R4 com o produto interno canônico. Seja W o subespaço de R4 consistindo de todos
os vetores que são ortogonais aos vetores u = (1, 0, −1, 1) e v = (2, 3, −1, 2). Encontre uma
base ortonormal para W.
4. Aplique o Processo de Gram-Schmidt aos vetores u = (1, 0, 1) e v = (1, 0, −1), w =
(0, 3, 4), para obter uma base ortonormal de R3 .
5. Seja V um espaço vetorial com produto interno h·, ·i. Seja W um subespaço de V. Seja
{v1 , v2 , ..., vn } uma base ortonormal de W . Mostre que ∀ v ∈ V , vale a desigualdade de
Bessel n
X
hv, vj i2 ≤ kvk2 .
j=1

6. Seja V um espaço vetorial de dimensão finita com produto interno h·, ·i. Seja β =
{v1 , v2 , ..., vn } uma base ortonormal de V . Seja T : V → V um operador linear. Seja
[T ]β = (Aij ). Prove que Aij = hT vj , vi i.
7. Determinar uma base ortonormal do subespaço W de R3 dado por W = {(x, y, z) : x−y =
0}.
8. Seja {v1 , v2 , v3 } base ortonormal de R3 , definem-se os cossenos diretores de u em relação
hu, v1 i hu, v2 i hu, v3 i
à base dada por cos α = , cos β = e cos γ = . Provar que:
kuk kuk kuk
i) u = kuk((cos α)v1 + (cos β)v2 + (cos γ)v3 );
ii) cos2 α + cos2 β + cos2 γ = 1.

28
Referências Bibliográficas

[1] BUENO, H. P., Álgebra Linear - Um Segundo Curso, Primeira Edição, Rio de Janeiro,
SBM, 2006.

[2] CALLIOLI, C. A., DOMINGUES, H. H.,COSTA, R. C. F. Álgebra Linear e


Aplicações, Sexta Edição, São Paulo, Editora Atual, 1995.

[3] COELHO, F. O., LOURENÇO, M. L., Um Curso de Álgebra Linear, Edição 2001,
São Paulo, EdusP, 2004.

[4] HOFFMAN, K., KUNZE, R., Linear Algebra, Second Edition, New Jersey, Prentice-
Hall, Inc., Englewood Cliffs, 1971.

[5] LANG, S., Álgebra Linear, Primeira Edição, New York, Ed. ciência Moderna, 2003.

[6] LIPSCHUTZ, S., Álgebra Linear, Terceira Edição, São Paulo, Schaum McGraw-Hill
Makron Books, 1994.

[7] SILVA, A., Introdução à Álgebra, Primeira Edição, Editora Universitária UFPB, João
Pessoa, 2007.

Professores Revisores

Professores Paulo de Souza Rabelo e Wilberclay Gonçalves Melo.

29
Capı́tulo 3

Complemento e Projeção Ortogonal

3.1 Complemento e Projeção Ortogonal

Caro aluno, nesta seção, discutiremos quando é possı́vel que um subespaço complemente
outro em um determinado espaço Euclidiano. Este complemento é denominado complemento
ortogonal.

3.1.1 Definição de Complemento Ortogonal e Exemplos

Definição 3.1 (Complemento Ortogonal). Seja V um espaço vetorial com produto interno
h·, ·i. Seja U ⊆ V um subconjunto qualquer. Definimos o complemento ortogonal de U em
V como sendo o conjunto {v ∈ V : hv, ui = 0, ∀ u ∈ U }.

Notação: U ⊥ = {v ∈ V : hv, ui = 0, ∀ u ∈ U }.

Exemplo 3.1 (Complemento Ortogonal em R2 ). Vamos encontrar o complemento ortogonal


do conjunto U = {(1, −1)} em R2 . Seja v = (x, y) ∈ U ⊥ , então hv, (1, −1)i = 0. Portanto,
h(x, y), (1, −1)i = 0, isto é, x − y = 0. Por conseguinte, x = y. Ou seja, v = (x, y) = (y, y) =
y(1, 1). Dessa forma,

U ⊥ = {v = (x, y) ∈ R2 : h(x, y), (1, −1)i = 0} = {y(1, 1) : y ∈ R} = [(1, 1)].

30
Por fim, U ⊥ = [(1, 1)].

Exemplo 3.2 (Complemento Ortogonal em R3 .). Seja U = {(x, y, 0) : x, y ∈ R} ⊆ R3 . É


fácil ver que U é subespaço de R3 e que dim U = 2 (Verifique!). Vamos encontrar U ⊥ .
Seja v = (a, b, c) ∈ U ⊥ , então hv, (x, y, 0)i = 0, ∀ x, y ∈ R (ver exemplo 1.2). Logo,
h(a, b, c), (x, y, 0)i = 0, ∀ x, y ∈ R. Ou seja, ax + by = 0, ∀ x, y ∈ R. Com isso, fazendo
x = 1 e y = 0, temos que a = 0. Para x = 0 e y = 1, obtemos b = 0. Dessa forma,
v = (a, b, c) = (0, 0, c) = c(0, 0, 1). Portanto, U ⊥ = [(0, 0, 1)].

Note que U não, necessariamente, é um subespaço de V , mas o que podemos afirmar


sobre U ⊥ ? Nos exemplos 3.1 e 3.2, encontramos um subespaço para o conjunto U ⊥ . A
pergunta que surge é: isto é sempre verdade? A resposta é afirmativa. Veja a

Proposição 3.1 (O Subespaço Complemento Ortogonal). Seja V um espaço vetorial com


produto interno h·, ·i. Então U ⊥ é um subespaço de V .

Demonstração. Com efeito, primeiramente, note que 0 ∈ U ⊥ , pois h0, ui = 0, ∀ u ∈ U (ver


Proposição 1.1). Em seguida, sejam v, w ∈ U ⊥ e λ ∈ R. Logo, hv, ui, hw, ui = 0, ∀ u ∈ U.
Consequentemente,

hv + λw, ui = hv, ui + λhw, ui = 0 + λ · 0 = 0, ∀ u ∈ U,

ver Definição 1.1. Ou seja, v + λw ∈ U ⊥ . Isto prova que U ⊥ é um subespaço de V.

3.1.2 Resultado Importante sobre Complemento Ortogonal

Prezado aluno, no caso em que U é um subespaço de dimensão finita, o Teorema a seguir


nos permite definir projeção ortogonal.

Teorema 3.1. Seja V um espaço vetorial com produto interno h·, ·i. Seja U um subespaço
de dimensão finita. Então

V = U ⊕ U ⊥ , isto é, V = U + U ⊥ e U ∩ U ⊥ = {0}.

Demonstração. Primeiramente vamos provar que U ∩ U ⊥ = {0}. Seja v ∈ U ∩ U ⊥ , então


v ∈ U e v ∈ U ⊥ . Usando a Definição 3.1, temos que hv, ui = 0, ∀ u ∈ U. Como v ∈ U ,

31
então, em particular, hv, vi = 0. Usando a Definição 1.1, encontramos v = 0. Logo,
U ∩ U ⊥ = {0}. Agora, verificaremos que V = U + U ⊥ . Como dim U é finita, então,
pelo Teorema 2.1, existe uma base ortonormal β = {u1 , u2 , ..., um } de U . Seja v ∈ V um
vetor qualquer. Provaremos que v é a soma de um vetor de U com um vetor de U ⊥ . Para isso,
Xm
escolha u = hv, ui iui ∈ U. Vimos na demonstração do Teorema 2.1 que, hv − u, uj i = 0,
i=1
∀ j = 1, 2, ..., m. Para comodidade do leitor, faremos a prova desta afirmação novamente.
* m + m
X X
hv − u, uj i = hv, uj i − hu, uj i = hv, uj i − hv, ui iui , uj = hv, uj i − hv, ui ihui , uj i
i=1 i=1
= hv, uj i − hv, uj i = 0,

pois β é ortonormal. Consequentemente, v − u ∈ U ⊥ . Mas, v = u + (v − u), onde u ∈ U e


v − u ∈ U ⊥ . Isto prova que V = U + U ⊥ . Por fim, V = U ⊕ U ⊥ .

Obs 3.1. Sob as hipóteses do Teorema 3.1, temos que dim V = dim U + dim U ⊥ , pois
V = U ⊕ U ⊥.

Exemplo 3.3. No exemplo 3.2, vimos que se U = {(x, y, 0) : x, y ∈ R}, então U ⊥ =


[(0, 0, 1)]. O Teorema 3.1, nos garante que R3 = {(x, y, 0) : x, y ∈ R} ⊕ [(0, 0, 1)].

3.1.3 Definição de Projeção Ortogonal e Exemplos

Definição 3.2 (Projeção Ortogonal). Sob as mesmas hipóteses do Teorema 3.1. Seja v ∈
V = U ⊕ U ⊥ . Definimos, a projeção ortogonal de v em U como sendo o vetor u, onde
v = u + u⊥ , u ∈ U, u⊥ ∈ U ⊥ .
Notação: PU (v) = u, onde v = u + u⊥ , u ∈ U, u⊥ ∈ U ⊥ .

Obs 3.2. Quando não houver possibilidade de confusão com o subespaço U , escreveremos,
simplesmente, P (v) = PU (v).

Obs 3.3 (Como Encontrar P (v)). Vimos na demonstração do Teorema 3.1 que
m
X
PU (v) = u = hv, ui iui = hv, u1 iu1 + hv, u2 iu2 + ... + hv, um ium ,
i=1

onde {u1 , u2 , ..., um } é uma (não importa qual) base ortonormal de U .

32
Exemplo 3.4 (Projeção Ortogonal de um Vetor). Seja U = {(x, y, 0) : x, y ∈ R}. Vamos
encontrar a projeção ortogonal de (1, 1, 1) em U . Note que

U = {(x, 0, 0) + (0, y, 0) : x, y ∈ R} = {(x, y, 0) : x, y ∈ R}


= {x(1, 0, 0) + y(0, 1, 0) : x, y ∈ R} = [(1, 0, 0), (0, 1, 0)].

Note que U é subespaço de R3 e dim U = 2. Além disso, {u1 = (1, 0, 0), u2 = (0, 1, 0)} é uma
base ortonormal de U. Logo, usando a observação 3.3, obtemos

P (1, 1, 1) = h(1, 1, 1), u1 iu1 + h(1, 1, 1), u2 iu2 = h(1, 1, 1), (1, 0, 0)i(1, 0, 0)
+ h(1, 1, 1), (0, 1, 0)i(0, 1, 0) = (1, 1, 0).

Ou seja, P (1, 1, 1) = (1, 1, 0).

Obs 3.4. No exemplo 3.4 a base encontrada para U é ortonormal. Nem sempre isso ocorre!
Quando encontrarmos uma base, a qual não é ortonormal, devemos, primeiramente, aplicar o
Processo de Gram-Schmidt para ortonormalizá-la. Depois do processo realizado, procuramos
a projeção ortogonal usando a observação 3.3. Veja o exemplo a seguir.

Exemplo 3.5 (Projeção Ortogonal de R2 ). Seja V = R2 . Seja U = [(1, 1), (0, 1)]. Logo,
β = {(1, 1), (0, 1)} é uma base U . Vamos encontrar P (1,n 2). Para
³ isso,´precisamos
³ √ de√uma´o
1 √1 2 2
base ortonormal de U. Vimos, no exemplo 2.12, que γ = u1 = √
2
, 2 , u2 = − 2 , 2
é uma base ortonormal de U. Logo, pela observação 3.3,

P (1, 2) = h(1, 2), u1 iu1 + h(1, 2), u2 iu2

¿ µ ¶À µ ¶ * à √ √ !+ à √ √ !
1 1 1 1 2 2 2 2
= (1, 2), √ , √ √ ,√ + (1, 2), − , − ,
2 2 2 2 2 2 2 2
= (1, 2).

Definição 3.3 (Aplicação Projeção Ortogonal). Sob as mesmas hipóteses do Teorema 3.1
definimos a projeção ortogonal de V em U , P : V → U , a função que associa cada v ∈ V o
vetor PU (v) (projeção de v em U ).

Proposição 3.2 (Linearidade da Projeção Ortogonal). Considere que estamos sob as mes-
mas hipóteses do Teorema 3.1. Então a projeção ortogonal de V em U é uma aplicação
linear.

33
Demonstração. Sejam v1 , v2 ∈ V . Como V = U ⊕ U ⊥ , então existem únicos u1 , u2 ∈ U e
u⊥ ⊥
1 , u2 ∈ U

tais que v1 = u1 + u⊥ ⊥
1 e v2 = u2 + u2 . Portanto, para λ ∈ R, temos que

v1 + λv2 = (u1 + λu2 ) + (u⊥ ⊥


1 + λu2 ),

onde u1 + λu2 ∈ U e u⊥ ⊥
1 + λu2 (esta é a única maneira de escrever v1 + λv2 , ver Teorema
3.1), pois U e U ⊥ são subespaços de V (ver Teorema 3.1 e Proposição 3.1). Com isso,

P (v1 ) = u1 , P (v2 ) = u2 e P (v1 + λv2 ) = u1 + λu2 .

Dessa forma,
P (v1 + λv2 ) = u1 + λu2 = P (v1 ) + λP (v2 ),

isto é, P (v1 + λv2 ) = P (v1 ) + λP (v2 ), ou seja, P é linear.

Exemplo 3.6 (Projeção Ortogonal de R3 ). Seja U = {(x, y, 0) : x, y ∈ R}. Vamos en-


contrar a projeção ortogonal de R3 em U , isto é, P (x, y, z). Vimos no exemplo 3.4 que
U = [(1, 0, 0), (0, 1, 0)] e {u1 = (1, 0, 0), u2 = (0, 1, 0)} é uma base ortonormal de U. Logo,
usando a observação 3.3, obtemos

P (x, y, z) = h(x, y, z), u1 iu1 + h(x, y, z), u2 iu2 = h(x, y, z), (1, 0, 0)i(1, 0, 0)
+ h(x, y, z), (0, 1, 0)i(0, 1, 0) = x(1, 0, 0) + y(0, 1, 0) = (x, y, 0).

Logo, P (x, y, z) = (x, y, 0) define a projeção ortogonal de R3 em U

Exercı́cios de Fixação
1. Achar uma base do subespaço V ⊥ , onde V = [(1, 0, 1, 1), (1, 1, 2, 0)]. Ortonormalize esta
base.
2. Determinar a projeção ortogonal de u = (1, 1) no subespaço U = [(1, 3)].
3. Achar a projeção ortogonal de (1, 1, 1, 1) no subespaço U = [(1, 1, 0, 0), (0, 0, 1, 1)].
4. Determinar a projeção ortogonal de f (t) = 2t − 1 no subespaço U = [t], em relação ao
produto interno canônico de C([0, 1]).
5. Determinar uma base ortonormal de U ⊥ , onde U = {(x, y, z, t) : x + y = 0 e 2x + z = y}.

34
6. Seja V o espaço formado pelos polinômios de grau menor ou igual a 2 com o produto
interno canônico de C([0, 1]).
i) Ortonormalize {1, 1 + t, 2t2 };
ii) Achar o complemento ortogonal do subespaço U = [5, 1 + t].
7. Mostre que a projeção ortogonal, P : V → U , de V em U satisfaz:
i) P 2 := P ◦ P = P ;
ii) ker(P ) = U ⊥ (núcleo de P ) e Im(P ) = U ;
iii) V = ker(P ) ⊕ Im(P ).
8. Seja u = (1, 1, 1, 1). Encontre {u}⊥ . Determine uma base ortonormal para {u}⊥ .

3.2 Exercı́cios Propostos

Exercı́cios:

1. Seja V o espaço
Z vetorial formado pelos polinômios com grau ≤ 3. Equipe V com o produto
1
interno hf, gi = f (t)g(t)dt.
0
i) Encontre o complemento ortogonal do subespaço formado pelos polinômios constantes;
ii) Aplique o processo de Gram-Schmidt à base {1, x, x2 , x3 }.
2. Seja V o espaço vetorial de toads as matrizes n × n sobre R. Verifique que hA, Bi =
tr(AB t ), onde tr(X) = X11 + X22 + ... + Xnn (traço de X), é um produto interno sobre V .
Encontre o complemento ortogonal do subespaço formado pelas matrizes diagonais.
3. Seja V um espaço vetorial com produto interno h·, ·i. Seja W um subespaço de V
com dimensão finita. Seja P a projeção ortogonal de V em W . Mostre que hP (u), vi =
hu, P (v)i, ∀ u, v ∈ V .
4. Considere o espaço vetorial C([−1, 1]) com o produto interno canônico. Seja P ⊆
C([−1, 1]) o subespaço formado por todas as funções pares e I ⊆ C([−1, 1]) o subespaço
formado pelas funções ı́mpares. Mostre que P ⊥ = I.
5. Mostre que se U for um subespaço de dimensão infinita de um espaço vetorial V com
produto interno h·, ·i, então não é verdade, em geral, que V = U ⊕ U ⊥ . Portanto, se reti-
rarmos a hipótese de dimensão finita do subespaço, no Teorema 3.1, o Teorema deixa de ser

35
verdadeiro. ( )

X
Sugestão: Considere que V = l2 (R) = (xn ) ⊆ R : x2n <∞ com o produto interno
n=1

X
h(xn ), (yn )i := xn yn (verifique!). Seja U = [(1, 0, ...), (0, 1, 0, ...), ..., (0, 0, ..., 1, 0, ...), ...].
n=1
Prove que U ⊥ = {(0, 0, ...)}. Para concluir, mostre que V 6= U.
6. Seja W = [(3, 4)]. Seja h·, ·i o produto interno canônico de R2 . Encontre a projeção
ortogonal P de R2 em W, aÃmatriz !de P (em relação à base canônica), W ⊥ , uma base
1 0
ortonormal β tal que [P ]β = .
0 0
7. Sejam U1 , U2 subespaços de dimensão finita de um espaço vetorial com produto interno
h·, ·i. Mostre que (U1 + U2 )⊥ = U1⊥ ∩ U2⊥ e (U1 ∩ U2 )⊥ = U1⊥ + U2⊥ .
8. Seja V um espaço vetorial com produto interno h·, ·i. Seja U um subespaço de dimensão
finita de V. Então, para cada v ∈ V , tem-se

kv − P (v)k ≤ kv − uk, ∀ u ∈ U,

em palavras, P (v) é o vetor de menor distância a v.


9. Seja V um espaço vetorial com produto interno h·, ·i. Seja U ⊆ V. Mostre que [U ] ⊆ U ⊥⊥ ,
onde [U ] é o subespaço gerado por U e U ⊥⊥ = (U ⊥ )⊥ . Prove que se V tem dimensão finta,
então [U ] = U ⊥⊥ . Conclua que se V tem dimensão finta e U é subespaço de V , então
U = U ⊥⊥ .

36
Referências Bibliográficas

[1] BUENO, H. P., Álgebra Linear - Um Segundo Curso, Primeira Edição, Rio de Janeiro,
SBM, 2006.

[2] CALLIOLI, C. A., DOMINGUES, H. H.,COSTA, R. C. F. Álgebra Linear e


Aplicações, Sexta Edição, São Paulo, Editora Atual, 1995.

[3] COELHO, F. O., LOURENÇO, M. L., Um Curso de Álgebra Linear, Edição 2001,
São Paulo, EdusP, 2004.

[4] HOFFMAN, K., KUNZE, R., Linear Algebra, Second Edition, New Jersey, Prentice-
Hall, Inc., Englewood Cliffs, 1971.

[5] LANG, S., Álgebra Linear, Primeira Edição, New York, Ed. ciência Moderna, 2003.

[6] LIPSCHUTZ, S., Álgebra Linear, Terceira Edição, São Paulo, Schaum McGraw-Hill
Makron Books, 1994.

[7] SILVA, A., Introdução à Álgebra, Primeira Edição, Editora Universitária UFPB, João
Pessoa, 2007.

Professores Revisores

Professores Paulo de Souza Rabelo e Wilberclay Gonçalves Melo.

37
Capı́tulo 4

A Adjunta de um Operador Linear

4.1 Adjunta de um Operador Linear

Caro aluno, nesta aula, mostraremos como, em alguns casos, é possı́vel obter, a partir de
um operador linear, uma aplicação linear chamada Adjunta. Veremos que propriedades este
novo operador satisfaz. A adjunta será responsável pela definição de operadores de grande
relevância para a Álgebra Linear.

4.1.1 Definição de Adjunta e Exemplos

O Teorema a seguir caracteriza todos os funcionais lineares reais sobre um espaço vetorial
com produto interno e dimensão finita. Antes de enunciá-lo relembre a definição de funcional
linear real.
Definição 4.1 (Funcional Linear). Seja V um espaço vetorial. Dizemos que uma aplicação
f : V → R é um funcional linear se f (λu + v) = λf (u) + f (v), ∀ u, v ∈ V e λ ∈ R. O conjunto
V ∗ = {f : V → R : f é linear} é um espaço vetorial chamado espaço dual de V.
Exemplo 4.1. A aplicação f : R2 → R, dada por f (x, y) = 2x + y, é um exemplo de
funcional linear.
Teorema 4.1 (Teorema da Representação de Riesz). Seja V um espaço vetorial com produto
interno h·, ·i e dimensão finita. Dado um funcional linear f : V → R, existe único v ∈ V tal
que f (u) = hu, vi, ∀ u ∈ V.

38
Demonstração. Pelo Teorema 2.1, sabemos que existe uma base ortonormal de V . Digamos
que {v1 , v2 , ..., vn } é esta base. Dado u ∈ V , pela definição de base, temos que

u = λ1 v1 + λ2 v2 + ... + λn vn .

Note que
hu, v1 i = hλ1 v1 + λ2 v2 + ... + λn vn , v1 i.

Portanto, pela Definção 2.4,

hu, v1 i = λ1 hv1 , v1 i + λ2 hv2 , v1 i + ... + λn hvn , v1 i = λ1 .

Logo, λ1 = hu, v1 i. Analogamente, prova-se que λi = hu, vi i, ∀ i = 1, 2, ..., n. Assim sendo,

u = hu, v1 iv1 + hu, v2 iv2 + ... + hu, vn ivn .

Consequentemente, usando a Definição 4.1,

f (u) = f (hu, v1 iv1 + hu, v2 iv2 + ... + hu, vn ivn )


= hu, v1 if (v1 ) + hu, v2 if (v2 ) + ... + hu, vn if (vn )
= hu, f (v1 )v1 i + hu, f (v2 )v2 i + ... + hu, f (vn )vn i
= hu, f (v1 )v1 + f (v2 )v2 + ... + f (vn )vn i.

Defina v = f (v1 )v1 + f (v2 )v2 + ... + f (vn )vn . Portanto, f (u) = hu, vi, ∀ u ∈ V. Agora, vamos
provar a unicidade de v ∈ V. Suponha que existe w ∈ V tal que f (u) = hu, wi, ∀ u ∈ V. Com
isso, hu, wi = f (u) = hu, vi, ∀ u ∈ V . Daı́, hu, w − vi = 0, ∀ u ∈ V . Usando o item iv) da
Proposição 1.1, chegamos a w − v = 0. Logo, w = v. Isto porva a unicidade.
Exemplo 4.2 (Funcional Linear em R2 ). Seja f (x, y) = 2x + y o funcional visto no exemplo
4.1. Daı́, f (x, y) = h(x, y), (2, 1)i, ∀ (x, y) ∈ R2 . Logo, v = (2, 1) é o vetor relatado no
Teorema 4.1.
Corolário 4.2 (Isomorfismo entre V e V ∗ ). Seja V um espaço vetorial com produto interno
h·, ·i. e dimensão finita. Então V ∗ é isomorfo a V, isto é, existe um isomorfismo entre V ∗ e
V.

Demonstração. Defina T : V ∗ → V por T (f ) = v, onde f (u) = hu, vi, ∀ u ∈ V (ver Teorema


4.1). Como dim V ∗ = dim V , então, pelo Teorema do núcleo e imagem, basta provar que T é

39
linear e injetora, ou seja, que T é linear e ker(T ) = {0}, para provar que T é um isomorfismo.
Primeiramente, vamos provar que T é linear. Com efeito, sejam f, g ∈ V ∗ e λ ∈ R. Então,
pelo Teorema 4.1, existem únicos v, w ∈ V tais que f (u) = hu, vi e g(u) = hu, wi, ∀ u ∈ V.
Portanto,

(λf + g)(u) = λf (u) + g(u) = λhu, vi + hu, wi = hu, λv + wi, ∀ u ∈ V.

Ou seja, T (λf + g) = λv + w (ver unicidade no Teorema 4.1). Consequentemente,

T (λf + g) = λv + w = λT (f ) + T (g).

Assim, T é linear. Agora, considere que f ∈ ker(T ). Daı́, T (f ) = 0. Logo, v = T (f ) = 0.


Por fim, f (u) = hu, vi = 0, ∀ u ∈ V. Isto é, f = 0. Isto mostra que ker(T ) = {0}.
Definição 4.2 (Adjunta). Seja T : U → V uma transformação linear, onde U e V são
espaços vetoriais com produtos internos h·, ·iU e h·, ·iV , respectivamente. Dizemos que uma
aplicação T ∗ : V → U é a adjunta de T se esta satisfaz

hv, T (u)iV = hT ∗ (v), uiU , ∀ u ∈ U, v ∈ V.

Obs 4.1. Quando não hover possibilidade de confusão escreveremos, simplesmente, h·, ·i
para representar h·, ·iU e h·, ·iV , mas deve estar claro que estes produtos estão sobre U e V ,
respectivamente.
Exemplo 4.3 (Adjunta com Polinômios). Seja V o espaço dos polinômios sobre R com o
produto interno canônico de C([0, 1]) (ver exemplo 1.3). Fixe g ∈ V. Defina T : V → V
pondo T (f ) = f · g, ∀ f ∈ V. Vamos procurar a adjunta de T (caso esta exista). Observe
que
Z 1 Z 1
hf, T (h)i = hf, h · gi = f (t)[h(t)g(t)]dt = [f (t)g(t)]h(t)dt = hf · g, hi = hT (f ), hi,
0 0

∀ f, h ∈ V. Portanto, T ∗ (f ) = T (f ) ∀ f ∈ V. Ou seja, T ∗ = T.

4.1.2 Existência e Unicidade da Adjunta

As perguntas que surgem no exemplo 4.3 são: a adjunta existe sempre? E se existe, esta
é única? A resposta para a primeira pergunta é negativa, veremos um exemplo na lista de

40
exercı́cios propostos. A resposta para a segunda pergunta está na seguinte

Proposição 4.1 (Unicidade da Adjunta). Seja T : U → V uma transformação linear, onde


U e V são espaços vetoriais com produtos internos h·, ·iU e h·, ·iV , respectivamente. Caso
exista T ∗ , esta é única.

Demonstração. Suponha que existe S : V → U tal que

hv, T (u)iV = hS(v), uiU , ∀ u ∈ U, v ∈ V.

Então,
hT ∗ (v), uiU = hv, T (u)iV = hS(v), uiU , ∀ u ∈ U, v ∈ V,

ou seja,
hT ∗ (v) − S(v), uiU = 0, ∀ u ∈ U, v ∈ V,

isto é, T ∗ (v) − S(v) = 0, ∀ v ∈ V (ver item iv) da Proposição 1.1). Por fim, S = T ∗ . Isto
garante a unicidade de T ∗ .

Note que, no exemplo 4.3 vimos que T ∗ = T , então como T é linear podemos concluir
que T ∗ é linear. Isto sempre ocorre? Ou seja, quando a adjunta existe, além de ser única,
esta é uma transformação linear? Confira a resposta na

Proposição 4.2 (Linearidade da Adjunta). Seja T : U → V uma transformação linear,


onde U e V são espaços vetoriais com produtos internos h·, ·iU e h·, ·iV , respectivamente.
Caso exista T ∗ , esta é linear.

Demonstração. Sejam v, w ∈ V e λ ∈ R. Então, usando a Proposição 1.1, obtemos

hT ∗ (λv + w), uiU = hλv + w, T (u)iV = hλv + w, T (u)iV = λhv, T (u)iV + hw, T (u)iV
= λhT ∗ (v), uiV + hT ∗ (w), uiV = hλT ∗ (v) + T ∗ (w), uiV , ∀ u ∈ U,

ou seja,

hT ∗ (λv + w), uiU = hλT ∗ (v) + T ∗ (w), uiV , ∀ u ∈ U.

Portanto,
hT ∗ (λv + w) − (λT ∗ (v) + T ∗ (w)), uiU = 0, ∀ u ∈ U.

41
Utilizando o item iv) da Proposição 1.1, chegamos a

T ∗ (λv + w) − (λT ∗ (v) + T ∗ (w)) = 0.

Ou equivalentemente, T ∗ (λv + w) = λT ∗ (v) + T ∗ (w). Isto nos diz que T ∗ é linear.

Prezado aluno, será que existe alguma condição que estabelece a existência da adjunta?
Teorema 4.3 (Existência e Unicidade da Adjunta). Seja T : U → V uma transformação li-
near, onde U e V são espaços vetoriais com produtos internos h·, ·iU e h·, ·iV , respctivamente,
e dimensão finita. Então T ∗ existe, é única e linear.

Demonstração. Defina, para cada v ∈ V , f (u) = hv, T (u)iV , ∀ u ∈ U. Note que f : U → R é


um funcional linear. De fato, através da linearidade de T e da definição 1.1, obtemos

f (λu + w) = hv, T (λu + w)iV = hv, λT (u)iV + hv, T (w)iV = λhv, T (u)iV + hv, T (w)iV
= λf (u) + f (w), ∀ u, w ∈ U.

Ou seja, f (λu + w) = λf (u) + f (w), ∀ u, w ∈ U. Isto nos diz que f é linear. Pelo Teorema
4.1, exite um único w ∈ U tal que f (u) = hu, wiU = hw, uiU , ∀ u ∈ U. Daı́,

hv, T (u)iV = f (u) = hw, uiU , ∀ u ∈ U.

Por isso, defina T ∗ (v) = w. Logo,

hv, T (u)iV = hT ∗ (v), uiU , ∀ u ∈ U, v ∈ V.

T ∗ é adjunta de T . A unicidade está garantida pela Proposição 4.1 e a linearidade através


da Proposição 4.2.
Exemplo 4.4 (Adjunta em Rn ). Seja T : R2 → R3 dado por T (x, y) = (x, 2x + y, −y).
Sabemos que a adjunta de T existe, pelo Teorema 4.3, então vamos procurá-la. Usando a
definição 4.2, obtemos

h(a, b, c), T (x, y)i = h(a, b, c), (x, 2x + y, −y)i = ax + b(2x + y) − cy


= (a + 2b)x + (b − c)y = h(a + 2b, b − c), (x, y)i.

Logo, T ∗ (a, b, c) = (a + 2b, b − c), ∀ (a, b, c) ∈ R3 , define a adjunta de T .

42
Exemplo 4.5 (Adjunta em R2 ). Defina T : R2 → R2 por T (x, y) = (−y, x). Daı́,

h(a, b), T (x, y)i = h(a, b), (−y, x)i = −ay + bx = bx + (−a)y = h(b, −a), (x, y)i.

Logo, T ∗ (a, b) = (b, −a), ∀ (a, b) ∈ R2 , define a adjunta de T . Neste caso, T ∗ = −T.

Exemplo 4.6 (Adjunta em R2 ). Seja T : R2 → R2 dada por T (x, y) = (y, x). Note que

h(a, b), T (x, y)i = h(a, b), (y, x)i = ay + bx = bx + ay = h(b, a), (x, y)i, ∀ (x, y), (a, b) ∈ R2 .

Então T ∗ (a, b) = (b, a). Logo, T ∗ = T.

4.1.3 Propriedades da Adjunta

Caros alunos, sabemos que a soma de duas transformações lineares é uma transformação
linear. Faz sentido, então, perguntar se existe ligação entre a adjunta de uma soma e as
adjuntas de cada uma das parcelas. O mesmo pode ser indagado sobre composição, multi-
plicação por escalar envolvendo transformações lineares. O próximo resultado estabelece as
propriedades da adjunta.

Proposição 4.3 (Propriedades da Adjunta). Sejam T, S : U → V e P : V → W trans-


formações lineares, onde U, V e W são espaços vetoriais com produto interno e dimensão
finita. Seja λ ∈ R. Então:

i) I ∗ = I, onde I é a transformação linear identidade, isto é, I(v) = v, ∀ v;

ii) (T + S)∗ = T ∗ + S ∗ , em palavras, a adjunta de uma soma é a soma das adjuntas;

iii) (λT )∗ = λT ∗ , em palavras, a adjunta de uma multiplicação por escalar é a multiplicação


por escalar com a adjunta;

iv) (P ◦ T )∗ = T ∗ ◦ P ∗ , em palavras, a adjunta de uma composta é a composta das adjuntas


com os fatores comutados;

v) T ∗∗ := (T ∗ )∗ = T , em palavras, a adjunta da adjunta de uma transformação linear é a


própria transformação.

43
Demonstração. A existência e a unicidade destas adjuntas estão garantidas pelo Teorema
4.3.
i) Note que, usando a Definição 4.2, temos que

hv, I(u)iV = hv, uiU = hI(v), uiU , ∀ u, v,

logo, I ∗ = I.

ii) Através, novamente, da Definição 4.2, obtemos

hv, (T + S)(u)i = hv, T (u) + S(u)i = hv, T (u)i + hv, S(u)i = hT ∗ (v), ui + hS ∗ (v), ui
= hT ∗ (v) + S ∗ (v), ui, ∀ u ∈ U, v ∈ V.

Daı́, (T + S)∗ = T ∗ + S ∗ .

iii) Da Definição 4.2, concluı́mos que

hv, (λT )(u)i = hv, λT (u)i = λhv, T (u)i = λhT ∗ (v), ui = hλT ∗ (v), ui, ∀ u ∈ U, v ∈ V.

Assim, (λT )∗ = λT ∗ .

iv) Novamente pela Definição 4.2, encontramos

hw, (P ◦ T )(u)i = hw, P (T (u))i = hP ∗ (w), T (u)i = hT ∗ (P ∗ (w)), ui


= h(T ∗ ◦ P ∗ )(w), ui, ∀ u ∈ U, w ∈ W.

Portanto, (P ◦ T )∗ = T ∗ ◦ P ∗ .

v) Por fim, novamente pela Definição 4.2,

hv, T ∗ (u)i = hT (v), ui, ∀ u ∈ U, v ∈ V.

Dessa forma, T ∗∗ = T.

Exemplo 4.7 (Adjunta da Multiplicação por Escalar). Seja S : R2 → R3 , definido por


S(x, y) = (2x, 4x + 2y, −2y). Desejamos encontrar a adjunta de S. Observe que S = 2T ,
onde T (x, y) = (x, 2x + y, −y). Vimos no exemplo 4.4 que T ∗ (a, b, c) = (a + 2b, b − c). Logo,

44
pelo item iii) da Proposição 4.3, obtemos

S ∗ (a, b, c) = (2T )∗ (a, b, c) = 2T ∗ (a, b, c) = 2(a + 2b, b − c) = (2a + 4b, 2b − 2c),

isto é, S ∗ (a, b, c) = (2a + 4b, 2b − 2c).

Exemplo 4.8 (Adjunta da soma). Seja S : R2 → R2 dado por S(x, y) = (x − y, x + y). Note
que,

S(x, y) = (x − y, x + y) = (x, y) + (−y, x) = I(x, y) + T (x, y) = (I + T )(x, y), ∀ (x, y) ∈ R2 ,

onde T está definida no exemplo 4.5 e I é a identidade de R2 . Vimos que T ∗ (a, b) = (b, −a).
Portanto, usando os itens i) e ii) da Proposição 4.3, encontramos

S ∗ (a, b) = (I +T )∗ (a, b) = (I ∗ +T ∗ )(a, b) = I ∗ (a, b)+T ∗ (a, b) = (a, b)+(b, −a) = (a+b, b−a),

isto é, S ∗ (a, b) = (a + b, b − a).

Veremos que a inversa da adjunta de um isomorfismo é a adjunta da inversa desta


aplicação.

Proposição 4.4 (Adjunta da Inversa). Seja T : V → V um isomorfismo, onde V é um


espaço vetorial com produto interno. Então T ∗ (caso exista) também o é. Neste caso,
[T ∗ ]−1 = [T −1 ]∗ .

Demonstração. Como T é um isomorfismo, existe T −1 : V → V linear tal que T ◦ T −1 =


T −1 ◦ T = I, onde I : V → V é a identidade de V . Portanto, utilizando os itens i) e iv) da
Proposição 4.3, obtemos [T ◦T −1 ]∗ = [T −1 ◦T ]∗ = I ∗ . Com isso, [T −1 ]∗ ◦T ∗ = T ∗ ◦[T −1 ]∗ = I.
Isto nos diz que T ∗ é inversı́vel, ou seja, T ∗ é um isomorfismo (ver Proposição 4.2). Além
disso, [T ∗ ]−1 = [T −1 ]∗ .

Exemplo 4.9 (Inversa da Adjunta em R2 ). Seja T (x, y) = (−y, x). Vamos mostrar que
[T −1 ]∗ = −T −1 . Vimos no exemplo 4.5, que T ∗ = −T. Logo, pela Proposição 4.4,

[T −1 ]∗ = [T ∗ ]−1 = [−T ]−1 = −T −1 .

Por que T é inversı́vel?

45
Proposição 4.5 (Adjunta e Subespaço). Seja T : V → V um operador linear, onde V é um
espaço vetorial com produto interno h·, ·i. Seja U um subespaço T -invariante, isto é, T (U ) ⊆
U . Suponha que T ∗ : V → V existe, então U ⊥ é T ∗ -invariante, ou seja, T ∗ (U ⊥ ) ⊆ U ⊥ .

Demonstração. Seja u ∈ T ∗ (U ⊥ ), então existe v ∈ U ⊥ tal que u = T ∗ (v). Dado w ∈ U,


temos que hu, wi = hT ∗ (v), wi = hv, T (w)i. Como w ∈ U, então T (w) ∈ U, pois T (U ) ⊆ U.
Por conseguinte, hu, wi = hv, T (w)i = 0, pois v ∈ U ⊥ e T (w) ∈ U. Assim sendo, u ∈ U ⊥ . Ou
seja, T ∗ (U ⊥ ) ⊆ U ⊥ .

Exemplo 4.10. Seja T : V → V uma transformação linear tal que T = T ∗ (caso exista),
onde V é um espaço vetorial com produto interno h·, ·i. Seja U um subespaço T -invariante,
então U ⊥ é um subespaço T -invariante (ver Proposição 4.5).

4.1.4 Matriz da Adjunta em Relação a uma Base Ortonormal

Caros alunos, será que existe uma relação entre a matriz de uma transformação linear e a
matriz de sua adjunta, em relação a uma base qualquer? A resposta é negativa, mas se a
base for ortonormal obtemos o seguinte resultado.

Teorema 4.4 (Matriz da Transformação e da Adjunta). Seja T : V → V uma transformação


linear, onde V é um espaço vetorial com produto interno h·, ·i e dimensão finita. Seja
β = {v1 , v2 , ..., vn } uma base ortonormal de V. Então [T ∗ ]β = [T ]tβ .

Demonstração. Seja [T ]β = (Aij ). Note que T (vj ) = A1j v1 + A2j v2 + ... + Anj vn . Conse-
quentemente,

hT (vj ), vi i = hA1j v1 + A2j v2 + ... + Anj vn , vi i = A1j hv1 , vi i + A2j hv2 , vi i + ... + Anj hvn , vi i.

Como β é uma base ortonormal, então hT (vj ), vi i = Aij hvi , vi i = Aij (ver Definição 2.4).
Logo, hT (vj ), vi i = Aij , ∀ i, j = 1, 2, ..., n. Seja [T ∗ ]β = (Bij ). Analogamente ao que foi feito
nesta demonstração, temos que

Bij = hT ∗ (vj ), vi i = hvj , T (vi )i = hT (vi ), vj i = Aji ,

ver Definição 4.2, isto é, Bij = Aji , ∀ i, j = 1, 2, ..., n. Isto nos diz que [T ∗ ]β = [T ]tβ .

46
2
Exemplo 4.11 Ã (Matriz! da Transformação e da Adjunta em R ). Seja T (x, y) = (−y, x).
0 −1
Daı́, [T ]c = é a matriz de T em relação à base canônica de R2 . Como esta base
1 0
2
é ortonormal, em à relação!ao produto interno canônico de R , então, usando o Teorema 4.4,
0 1
[T ∗ ]c = [T ]tc = . Portanto, T ∗ (a, b) = (b, −a).
−1 0

Exercı́cios de Fixação
1. Seja T : R2 → R2 dado por T (x, y) = (10x − y, y). Encontre T ∗ .

2. Seja T : R2 → R2 dado por T (x, y) = ( 3x, x − 4y). Encontre T ∗ .
3. Seja T : R3 → R3 dado por T (x, y, z) = (x − y, z, y + z). Encontre T ∗ .
4. Seja T : R3 → R3 dado por T (x, y, z) = (0, 0, z). Encontre T ∗ .
5. Em R3 verifique que h(x1 , x2 , x3 ), (y1 , y2 , y3 )i = 2x1 y1 + 3x2 y2 + 4x3 y3 define um produto
interno. Encontre a adjunta da aplicação linear T dada por
    
x 1 0 1 x
    
T  y  =  2 −1 3   y 
z 3 −1 4 z

com relação a esse produto interno.


6. Seja T : V → V um operador linear sobre um espaço vetorial V com produto interno.
Suponha que existe T ∗ e que T (v) = λv e T ∗ (w) = µw, com λ 6= µ. Mostre que hv, wi = 0.
7. Sejam U, V espaços vetoriais com produto interno e dimensão finita e T : U → V linear.
Mostre que
i) T é injetora ⇔ T ∗ é sobrejetora;
ii) T é sobrejetora ⇔ T ∗ é injetora.
8. Seja V um espaço vetorial com produto interno e u, v ∈ V vetores fixos. Mostre que
T (x) = hx, uiv define uma aplicação linear. Mostre que T ∗ existe e obtenha sua expressão.
9. Seja T : U → V uma transformação linear entre espaços vetoriais de dimensão finita com
produto interno. Se dim U < dim V , prove que o operador T ◦ T ∗ : V → V não é invertı́vel.
Mas se ker T = {0}, prove que T ∗ ◦ T : U → U é invertı́vel.

47
4.2 Exercı́cios Propostos

Exercı́cios:

1. Sejam U, V espaços vetoriais com produto interno e dimensão finita. Seja T : U → V


linear. Mostre que T ∗ ◦ T : U → U e T ◦ T ∗ : V → V têm o mesmo posto de T . Lembre que
posto(T ) = dim Im(T ).
2. Sejam U, V espaços vetoriais com produto interno. Mostre que U ⊕ V é um espaço
vetorial com produto interno se definirmos h(x1 , y1 ), (x2 , y2 )i := hx1 , x2 iU + hy1 , y2 iV . Defina
T : U ⊕ V → V ⊕ U por T (x, y) = (y, −x). Mostre que T ∗ existe e obtenha sua expressão.
3. Seja V um espaço vetorial com produto interno e dimensão finita. Para cada u, v ∈ V

defina Tu,v (x) = hx, viu. Mostre que Tu,v = Tv,u .
4. Sejam U, V espaços vetoriais com produto interno. Mostre que U ⊕ V é um espaço
vetorial com produto interno se definirmos h(x1 , y1 ), (x2 , y2 )i := hx1 , x2 iU + hy1 , y2 iV . Defina
T : U ⊕ V → V ⊕ U por T (x, y) = (y, −x). Mostre que T ∗ existe e obtenha sua expressão.
5. Seja V um espaço vetorial com produto interno e dimensão finita. Para cada u, v ∈ V

defina Tu,v (x) = hx, viu. Mostre que Tu,v = Tv,u .

48
Referências Bibliográficas

[1] BUENO, H. P., Álgebra Linear - Um Segundo Curso, Primeira Edição, Rio de Janeiro,
SBM, 2006.

[2] CALLIOLI, C. A., DOMINGUES, H. H.,COSTA, R. C. F. Álgebra Linear e


Aplicações, Sexta Edição, São Paulo, Editora Atual, 1995.

[3] COELHO, F. O., LOURENÇO, M. L., Um Curso de Álgebra Linear, Edição 2001,
São Paulo, EdusP, 2004.

[4] HOFFMAN, K., KUNZE, R., Linear Algebra, Second Edition, New Jersey, Prentice-
Hall, Inc., Englewood Cliffs, 1971.

[5] LANG, S., Álgebra Linear, Primeira Edição, New York, Ed. ciência Moderna, 2003.

[6] LIPSCHUTZ, S., Álgebra Linear, Terceira Edição, São Paulo, Schaum McGraw-Hill
Makron Books, 1994.

[7] SILVA, A., Introdução à Álgebra, Primeira Edição, Editora Universitária UFPB, João
Pessoa, 2007.

Professores Revisores

Professores Paulo de Souza Rabelo e Wilberclay Gonçalves Melo.

49
Capı́tulo 5

Operadores Auto-adjuntos e
Antiauto-adjuntos

5.1 Operadores Auto-adjuntos e Antiauto-adjuntos

Caro aluno, nesta aula, trabalharemos com operadores denominados auto-adjuntos e antiauto-
adjuntos. Mostraremos a estreita relação existente entre o estudo dos autovetores, realizado
em Álgebra Linear 1, com tais operadores.

5.1.1 Definições e Exemplos de Operadores Auto-adjuntos e Anti-


auto-adjuntos

Prezado aluno, nosso principal interesse no estudo de operadores auto-adjuntos é estabele-


cer e aplicar o Teorema Espectral para tais operadores. Para isto precisamos percorrer o
prazeroso caminho que descreve esta teoria.

Definição 5.1 (Operadores Auto-adjuntos). Seja V um espaço vetorial com produto interno
h·, ·i. Dizemos que um operador linear T : V → V é auto-adjunto se T = T ∗ .

Exemplo 5.1 (Operador Auto-adjunto em R2 ). Seja T : R2 → R2 , dada por T (x, y) = (y, x).
Vimos, no exemplo 4.6, que T ∗ = T. Logo, T é um operador auto-adjunto.

50
Exemplo 5.2 (Operador Não-auto-adjunto). Seja T : R2 → R2 , dada por T (x, y) = (−y, x).
Vimos, no exemplo 4.5, que T ∗ (a, b) = (b, −a). Em particular,

T ∗ (1, 1) = (1, −1) e T (1, 1) = (−1, 1).

Ou seja, T ∗ 6= T. Isto nos diz que T não é auto-adjunto (ver definição 5.1).

Exemplo 5.3 (Operador Auto-adjunto no Espaço dos Polinômios). Seja V o espaço dos
polinômios sobre R com o produto interno canônico de C([0, 1]) (ver exemplo 1.3). Fixe
g ∈ V. Defina T : V → V pondo T (f ) = f · g, ∀ f ∈ V. Vimos, no exemplo 4.3, que T = T ∗ .
Com isso, T é auto-adjunto (ver definição 5.1).

Exemplo 5.4 (Operador Auto-adjunto). Seja V um espaço vetorial com produto interno
h·, ·i. Seja v ∈ V um vetor fixo. Seja T : V → V definida por T (u) = hv, uiv, ∀ u ∈ V .
Vamos mostrar que T é auto-adjunto. De fato,

hv, T (u)i = hv, hv, uivi = hv, uihv, vi = hhv, viv, ui = hT (v), ui,

ou seja, T ∗ = T. Isto nos diz que T é auto-adjunto (ver definição 5.1).

Exemplo 5.5 (Identidade Auto-adjunto). Seja V um espaço vetorial com produto interno
h·, ·i. Seja I : V → V definida por I(v) = v, ∀ v ∈ V. Vimos, no item i) da Proposição 4.3,
que I ∗ = I. Logo, I é auto-adjunto.

Definição 5.2 (Operadores Antiauto-adjuntos). Seja V um espaço vetorial com produto


interno h·, ·i. Dizemos que um operador linear T : V → V é antiauto-adjunto se T ∗ = −T.

Exemplo 5.6 (Operadores Antiauto-adjuntos em R2 ). Seja T : R2 → R2 , dado por T (x, y) =


(−y, x). Vimos, no exemplo 4.5, que T ∗ = −T . Logo, T é antiauto-adjunto.

Exemplo 5.7 (Operadores Não-antiauto-adjuntos em R2 ). Seja T : R2 → R2 , dado por


T (x, y) = (2y, −x). Com isso,

h(a, b), T (x, y)i = h(a, b), (2y, −x)i = (−b)x + (2a)y = h(−b, 2a), (x, y)i.

Assim, T ∗ (a, b) = (−b, 2a). Dessa forma, T (1, 0) = (0, −1) e T ∗ (1, 0) = (0, 2). Portanto,
−T 6= T ∗ . Logo, T não é antiauto-adjunto.

51
5.1.2 Resultados Importantes sobre Operadores Auto-adjuntos e
Antiauto-adjuntos

Vejamos alguns resultados para operadores auto-adjuntos.

Proposição 5.1 (Inversa como Operador Auto-adjunto). Seja T : V → V um isomorfismo


auto-adjunto, onde V é um espaço vetorial com produto interno. Então T −1 também o é.

Demonstração. A Proposição 4.4 nos diz que (T −1 )∗ = (T ∗ )−1 = T −1 , pois T = T ∗ . Ou seja,


T −1 é auto-adjunto.

Exemplo 5.8. Seja T (x, y) = (x + y, x − y). Então T é auto-adjunto. De fato,

h(a, b), T (x, y)i = h(a, b), (x + y, x − y)i = a(x + y) + b(x − y) = x(a + b) + y(a − b)
= h(a + b, a − b), (x, y)i.


Com isso, Tµ (a, b) = (a +¶b, a − b), ou seja, T ∗ = T, isto é, T é auto-adjunto. Mostre que
a+b a−b
T −1 (a, b) = , é a inversa de T . Pelo Teorema 5.1, T −1 é auto-adjunto.
2 2

Vejamos uma outra maneira de definir operador antiauto-adjunto.

Proposição 5.2 (Caracterização de Operadores Antiauto-adjuntos). Seja V um espaço ve-


torial com produto interno h·, ·i. Então T é antiauto-adjunto se, e somente se, hv, T (v)i =
0, ∀ v ∈ V.

Demonstração. ⇒) Suponha que T é antiauto-adjunto, então T ∗ = −T. Logo, pela Definição


4.2, temos que

hv, T (v)i = hT ∗ (v), vi = h−T (v), vi = −hT (v), vi = −hv, T (v)i, ∀ v ∈ V,

ver Definição 1.1. Assim sendo, 2hv, T (v)i = 0, ∀ v ∈ V. Portanto, hv, T (v)i = 0, ∀ v ∈ V.

⇐) Reciprocamente, considere que hv, T (v)i = 0, ∀ v ∈ V. Então hu + w, T (u + w)i =


0, ∀ u, w ∈ V. Logo, ∀ u, w ∈ V,

hu + w, T (u + w)i = hu + w, T (u) + T (w)i = hu, T (u)i + hu, T (w)i + hw, T (u)i + hw, T (w)i.

52
Por hipótese, hu, T (u)i = hw, T (w)i = hu + w, T (u + w)i = 0, assim,

0 = hu, T (w)i+hw, T (u)i = hu, T (w)i+hw, T (u)i = hT ∗ (u), wi+hT (u), wi = hT ∗ (u)+T (u), wi.

Utilizando a Proposição 1.1, concluı́mos que T ∗ (u) + T (u) = 0, ∀ u ∈ V . Por fim, T ∗ (u) =
−T (u), ∀ u ∈ V . Isto nos diz que T ∗ = −T. Com isso, T é antiauto-adjunto.

Exemplo 5.9. Seja T : R2 → R2 dado por T (x, y) = (−y, x). Daı́,

h(x, y), T (x, y)i = h(x, y), (−y, x)i = x(−y) + yx = 0, ∀ (x, y) ∈ R2 .

Utilizando a Proposição 5.2, temos que T é antiauto-adjunto.

Exemplo 5.10. Seja T : R2 → R2 dado por T (x, y) = (y, x). Então

h(1, 1), T (1, 1)i = h(1, 1), (1, 1)i = 2 6= 0.

Dessa forma, pela Proposição 5.2, T não é antiauto-adjunto.

5.1.3 Matrizes de Operadores Antiauto-adjuntos e Auto-adjuntos

Caro aluno, é possı́vel verificarmos se um operador é auto-adjunto ou antiauto-adjunto,


através da matriz deste, em relação a uma base ortonormal. Vejamos a prova desta afirmação.

Teorema 5.1 (Caracterização de Operadores Auto-adjuntos). Seja V um espaço vetorial


com produto interno h·, ·i e dimensão finita. Seja T : V → V um operador linear. Então T
é auto-adjunto se, e somente se, [T ]β é simétrica, onde β é base ortonormal de V. Lembre
que uma matriz A é simétrica se A = At .

Demonstração. ⇒) Suponha que T é auto-adjunto. Seja β base ortonormal de V . Vimos


no Teorema 4.4 que [T ∗ ]β = [T ]tβ . Como T é auto-adjunto, então T ∗ = T (ver Definição 5.1).
Logo, [T ]β = [T ∗ ]β = [T ]tβ . Isto nos diz que [T ]β é simétrica.

⇐) Suponha que [T ]β = [T ]tβ , onde β = {v1 , v2 , ..., vn } é uma base ortonormal de V. Conse-
quentemente, hT (vi ), vj i = hT (vj ), vi i, ∀ i, j, estas são as entradas das matrizes [T ]β e [T ]tβ ,
X X
respectivamente. Sejam u, v ∈ V , então, pela definição de base, u = xi v i e v = yj vj .
i j

53
Portanto,
* Ã !+
X X X X X X
hu, T (v)i = xi vi , T y j vj = xi yj hvi , T (vj )i = xi yj hT (vj ), vi i
i j i j i j
X X
= xi yj hT (vi ), vj i,
i j

na última igualdade usamos que hT (vi ), vj i = hvi , T (vj )i. Por fim,
* + * Ã ! +
X X X X
hu, T (v)i = xi T (vi ), yj vj = T xi vi , yj vj = hT (u), vi.
i j i j

Logo, usando a Proposição 1.1, temos que, T ∗ = T. Pela Definição 5.1, T é auto-adjunto.

A hipótese de ortonormalidade da base não pode ser desconsiderada. Veja o exemplo a


seguir.

Exemplo 5.11. Seja T (x, y, z) = (2x + 2z, x + z, x + z). Seja β = {(1, 1, 0), (1, 0, 0), (0, 0, 1)}
uma base de V (esta base não é ortonormal, verifique!). Note que
 
1 1 1
 
[T ]β =  1 1 1  .
1 1 1

Assim sendo, [T ]β é simétrica, mas T não é auto-adjunto. Com efeito,

hT (1, 0, 0), (0, 1, 0)i = h(2, 1, 1), (0, 1, 0)i = 1 e h(1, 0, 0), T (0, 1, 0)i = h(1, 0, 0), (0, 0, 0)i = 0.

Logo, hT (1, 0, 0), (0, 1, 0)i 6= h(1, 0, 0), T (0, 1, 0)i.

Exemplo 5.12. Seja T : R2 → R2 dado por T (x, y) = (−y, x). Note que,
à !
0 −1
[T ]c = ,
1 0

onde c é a base canônica de R2 (a qual é ortonormal, ver exemplo 2.9). Veja que [T ]c não é
simétrica, logo, T não é auto-adjunto, pelo Teorema 5.1.

54
Exemplo 5.13. Seja T : R2 → R2 dado por T (x, y) = (y, x). Veja que
à !
0 1
[T ]c =
1 0

é uma matriz simétrica, onde c é a base canônica de R2 . Dessa forma, pelo Teorema 5.1, T
é auto-adjunto.

Teorema 5.2 (Caracterização de Operadores Anti-auto-adjuntos). Seja T : V → V um


operador linear, onde V é um espaço vetorial com produto interno h·, ·i e dimensão finita.
Então T é antiauto-adjunto se, e somente se, [T ]β é uma matriz anti-simétrica, onde β é
base ortonormal de V. Lembre que uma matriz A é anti-simétrica se A = −At .

Demonstração. ⇒) Considere que T é antiauto-adjunto. Seja β base ortonormal de V .


Vimos no Teorema 4.4 que [T ∗ ]β = [T ]tβ . Mas T é antiauto-adjunto, então T ∗ = −T (ver
Definição 5.2). Logo, [T ]β = [−T ∗ ]β = −[T ∗ ]β = −[T ]tβ . Isto nos diz que [T ]β é anti-simétrica.

⇐) Reciprocamente, suponha que [T ]β = −[T ]tβ = [−T ]tβ , onde β = {v1 , v2 , ..., vn } é uma base
ortonormal de V. Consequentemente, hT (vi ), vj i = h−T (vj ), vi i, ∀ i, j, estas são as entradas
das matrizes [T ]β e [−T ]tβ , respectivamente. Logo,

hu, T (v)i = h−T (u), vi, ∀ u, v ∈ V,

ver demonstração do Teorema 5.1. Dessa forma, pela Proposição 1.1, obtemos T ∗ = −T.
Pela Definição 5.2, T é antiauto-adjunto.
à !
0 −1
Exemplo 5.14. Seja A = uma matriz. Veja que T : R2 → R2 , dado por
1 0
T (x, y) = (−y, x) é tal que [T ]c = A, onde c é a base canônica de R2 (ver exemplo 2.9).
Vamos mostrar que A é anti-simétrica. De fato,
à ! à !
0 1 0 −1
At = =− = −A.
−1 0 1 0

Isto nos diz que At = −A. Ou seja, A é uma matriz anti-simétrica. Pelo Teorema 5.2, temos
que T é antiauto-adjunto.

55
5.1.4 Teorema Espectral para Operadores Auto-adjuntos

Prezados alunos, para provarmos o Teorema Espectral para operadores auto-adjuntos, pre-
cisamos de alguns resultados preliminares.

Lema 5.1 (Operadores Auto-adjuntos e Autovetores). Seja V um espaço vetorial com pro-
duto interno h·, ·i. Seja T : V → V um operador linear auto-adjunto. Então autovetores
associados a autovalores distintos são ortogonais, isto é, se T v = λv e T w = µw (v, w 6= 0),
com λ 6= µ, então v ⊥ w.

Demonstração. Sejam v, w ∈ V não-nulos tais que T v = λv e T w = µw, ou seja, v e w são


autovetores associados aos autovalores λ e µ, respectivamente. Considere que λ 6= µ, então,
pelas Definições 4.2 e 5.1, temos que

hv, T wi = hT v, wi ⇔ hv, µwi = hλv, wi ⇔ µhv, wi = λhv, wi.

Consequentemente,
(λ − µ)hv, wi = 0.

Como λ 6= µ, logo, hv, wi = 0. Usando a Definição 2.2, obtemos que v ⊥ w.

Lema 5.2 (Operadores Auto-adjuntos e Subespaços Invariantes). Seja T : V → V um


operador auto-adjunto, onde V é um espaço vetorial com produto interno h·, ·i. Seja U um
subespaço T -invariante, então U ⊥ também o é (ver Proposição 4.5).

Demonstração. Este Lema é só uma reformulação do exemplo 4.10.

Lema 5.3 (Existência de Autovetor para Operadores Auto-adjuntos). Seja V um espaço


vetorial com produto interno h·, ·i e dimensão finita e positiva. Seja T : V → V um operador
linear auto-adjunto. Então T tem um autovetor.

Demonstração. Seja β uma base ortonormal de V (existe pelo Teorema 2.1). Considere
que dim V = n > 0. Então, pelo Teorema 5.1, [T ]β = A = (Aij ) é simétrica, pois T é um
operador auto-adjunto. Considere o polinômio caracterı́stico de T , pA (x) = |xI − A|, onde
I é a matriz identidade n × n. Daı́, λ á autovalor de T ⇔ pA (λ) = |λI − A| = 0. Note que,
pelo Teorema Fundamental da Álgebra, este polinômio tem pelo menos uma raiz complexa

56
λ. Vamos mostrar que λ ∈ R. Como |λI − A| = 0, então AX = λX tem infinita soluções
não-nulas para X (matriz n × 1 com entradas complexas). Digamos que
 
y1
 
 y2 
Y =
 .. 

 . 
yn

é uma solução não-nula de AX = λX. Ou seja, AY = λY e Y 6= 0. Escrevendo esta equação


matricial como sistema linear, obtemos as equações
n
X
Aij yj = λyi , (i = 1, 2, ..., n).
j=1

n
X
Com isso, multiplicando por yi , encontramos Aij yj yi = λyi yi , (i = 1, 2, ..., n). Somando
j=1
estes resultados, obtemos
n
X n
X n
X
Aij yj yi = λ yi yi = λ |yi |2 . (5.1)
i,j=1 i=1 i=1

(este módulo é o módulo de um número complexo). Observe que esta última soma resulta
Xn
em um número real. Vamos, agora, verificar que Aij yj yi ∈ R. Ou seja,
i,j=1

n
X n
X
Aij yj yi = Aij yj yi .
i,j=1 i,j=1

De fato,
n
X n
X n
X
Aij yj yi = Aij yj yi = Aij yj yi ,
i,j=1 i,j=1 i,j=1

na última igualdade usamos o fato que A é uma matriz real. Como A é simétrica, então

n
X n
X n
X n
X
Aij yj yi = Aji yj yi = Aij yi yj = Aij yj yi ,
i,j=1 i,j=1 i,j=1 i,j=1

na penúltima igualdade fizemos uma mudança de ı́ndice de i por j. Consequentemente,

57
n
X n
X
Aij yj yi ∈ R. Mas, |yi |2 ∈ R. Pelas igualdades em 5.1, concluı́mos que λ ∈ R. Dessa
i,j=1 i=1
forma, λ é um autovalor real de T . Associado a este autovalor, existe um autovetor de T.

Teorema 5.3 (Teorema Espectral para Operadores Auto-adjuntos). Seja V um espaço ve-
torial com produto interno h·, ·i e dimensão finita. Então um operador linear T : V → V é
auto-adjunto se, e somente se, existe uma base ortonormal de V formada por autovetores de
T.

Demonstração. ⇒) Seja dim V = n. Faremos


½ ¾ a prova por indução sobre n. Suponha que
v
n = 1. Seja {v} uma base de V. Então (ver observação 1.9) é uma base ortonormal
kvk
v
de V. Vamos verificar que é autovetor de T . Com efeito, T (v) ∈ V , então, pela definição
kvk µ ¶
v 1 1
de base T (v) = λv, para algum λ ∈ R. Consequentemente, T = T (v) = λv =
kvk kvk kvk
v
λ . Agora considere que n > 1. Suponha que o Teorema seja válido para todo subespaço
kvk
de V de dimensão menor que n. Como n > 1, então existe v1 ∈ V autovetor unitário (ver
Lema 5.3 e Observação 1.9) de T . Seja U = [v1 ]. Daı́, dim U = 1. Pela Observação 3.1,
dim U ⊥ = dim V − dim U = n − 1 < n. Além disso, T (µv1 ) = µT (v1 ) = (µα)v1 ∈ U, ∀ µ ∈ R,
onde T (v1 ) = αv1 . Isto nos diz que U é T -invariante. Pelo Lema 5.2, U ⊥ é T -invariante.
Resumindo, U ⊥ é um subespaço de dimensão menor que n e T -invariante. Por hipótese de
indução, existe uma base ortonormal {v2 , v3 , ..., vn } de U ⊥ formada por autovetores de T.
Consequentemente, {v1 , v2 , ..., vn } é uma base ortonormal de V formada por autovetores de
T (ver Teorema 3.1).

⇐) Reciprocamente, seja β = {v1 , v2 , ..., vn } uma base ortonormal de V formada por autove-
tores de T. Digamos que T (vi ) = λi vi , ∀ i = 1, 2, ..., n. Vamos provar que T é auto-adjunta.
Note que  
λ1 0 ··· 0
 
 0 λ2 · · · 0 
[T ]β =   ...


 0 0 0 
0 0 · · · λn
é uma matriz simétrica, ou seja, [T ]β = [T ]tβ . Portanto, usando o Teorema 5.1, T é auto-
adjunto.

58
Vejamos uma aplicação (ou uma reformulação) do Teorema Espectral para matrizes.

Corolário 5.4 (Teorema Espectral para Matrizes Simétricas). Seja

A ∈ Mn (R) = {matrizes n × n com coeficientes reais}

uma matriz simétrica. Então existe P ∈ Mn (R) ortogonal tal que D = P t AP , onde D é uma
matriz diagoonal, constituı́da dos autovalores de A na diagonal (lembre que P é ortogonal se
P −1 = P t , isto é, P P t = P t P = I).

Demonstração. Seja V = Rn . Seja c a base canônica de Rn (ver exemplo 2.10). Seja T :


V → V o operador linear tal que [T ]c = A. Como c é ortonormal A é simétrica, então,
pelo Teorema 5.1, T é um operador auto-adjunto. Pelo Teorema 5.3, existe base ortonormal
β = {v1 , v2 , ..., vn } de V formada por autovetores de T , digamos T (vi ) = λi vi , ∀ i = 1, 2, ..., n.
Logo,  
λ1 0 · · · 0
 
 0 λ2 · · · 0 
D = [T ]β = 
 ..
.

 0 0 . 0 
0 0 · · · λn
Mas, D = [T ]β = P −1 AP, onde P é a matriz mudança de base de β para c. Isto é, P possui
como colunas os vetores da base β. Seja vi = (xi1 , xi2 , ..., xin ), ∀ i = 1, 2, ..., n. Logo,

    
x11 x12 ... x1n x11 x21 ... xn1 hv1 , v1 i hv1 , v2 i ... hv1 , vn i
    
 x21 x22 ... x2n  x12 x22 ... xn2   hv2 , v1 i hv2 , v2 i ... hv2 , vn i 
P P = 
t



=
 


 ··· ··· ··· ···  ··· ··· ··· ···   ··· ··· ··· ··· 
xn1 xn2 ... xnn x1n x2n ... xnn hvn , v1 i hvn , v2 i ... hvn , vn i

 
1 0 ... 0
 
 0 1 ... 0 
= 

 = I,

 ··· ··· ··· ··· 
0 0 ... 1

a penúltima igualdade segue da ortonormalidade de β. Ou seja, P é ortogonal (P −1 = P t ),


basta utilizar o Teorema do núcleo e imagem.

59
! Ã
1 2
Exemplo 5.15 (Potência de Matriz Simétrica de Ordem 2). Seja A = . Encontre
2 −2
An , ∀ n ∈ N. Note que A é uma matriz simétrica. Vamos encontrar os autovalores de A.
Para isto, basta encontrar as raı́zes do polinômio caracterı́stico. Veja que
¯ ¯
¯ x − 1 −2 ¯
¯ ¯
pA (x) = |xI − A| = ¯ ¯ = (x − 1)(x + 2) − 4 = x2 + 2x − x − 2 − 4
¯ −2 x + 2 ¯

= x2 + x − 6 = (x + 3)(x − 2)

(I é a matriz identidade 2 × 2) é o polinômio caracterı́stico de A. Logo, os autovalores


de A são λ1 = −3 e λ2 = 2. Agora, vamos encontrar os autovetores
à ! associados a estes
x
autovalores. Começemos com o autovalor λ1 = −3. Seja v = um autovetor qualquer
y
de A associado ao autovalor λ1 = −3. Daı́, Av = −3v. Ou seja,
à !à ! à !
1 2 x x
= −3 .
2 −2 y y

Em forma de sistemas lineares, obtemos


(
x + 2y = −3x;
2x − 2y = −3y.

Este sistema é equivalente ao sistema


(
4x + 2y = 0;
2x + y = 0.

A solução deste sistema é y = −2x, ∀ x ∈ R. Dessa forma,


à ! à ! à !
x x 1
v= = =x .
y −2x −2

Logo o autoespaço associado ao


à autovalor
! λ1 = −3 é V−3 = [(1, −2)]. Agora, considere o
x
autovalor λ2 = 2. Seja v = um autovetor qualquer de A associado ao autovalor
y

60
λ2 = 2. Logo, Av = 2v. Isto é,
à !à ! à !
1 2 x x
=2 .
2 −2 y y

Em forma de sistema linear, obtemos


(
x + 2y = 2x;
2x − 2y = 2y.

Este sistema é equivalente ao sistema


(
−x + 2y = 0;
2x − 4y = 0.

Portanto, a solução deste sistema é x = 2y, ∀ y ∈ R. Assim sendo,


à ! à ! à !
x 2y 2
v= = =y .
y y 1

Logo o autoespaço associado ao autovalor λ2 = 2 é V2 = [(2, 1)]. Consequentemente,


{v1 = (1, −2), v2 = (2, 1)} é uma base formada por autovetores de A. Para que a base
seja ortonormal devemos aplicar o Processo de Gram-Schmidt (ver Teorema 2.1).
µ ¶
v1 (1, −2) 1 −2
u1 = = = √ ,√
kv1 k k(1, −2)k 5 5
e
D ³ ´E ³ ´
(2, 1) − (2, 1), √1 , √
−2 √1 , √
−2 µ ¶
v2 − hv2 , u1 iu1 5 5 5 5 (2, 1) 2 1
u2 = =°
°
D ³ ´E ³ ´° = = √ ,√ .
kv2 − hv2 , u1 iu1 k −2 ° k(2, 1)k 5 5
°(2, 1) − (2, 1), √15 , √ −2
5
√1 , √
5 5
°
n³ ´ ³ ´o
Dessa forma, √1 , √
−2 2 √1
, 5, 5
√ é uma base ortonormal formada por autovetores de A.
5 5

61
Colocando estes vetores em coluna encontramos a matriz ortogonal
 1 2 
√ √
 5 
P =  −25 1 .
√ √
5 5

A matriz diagonal à !
−3 0
D=
0 2
(autovalores de A na diagonal) satisfaz D = P −1 AP, onde P −1 = P t . Consequentemente,
A = P DP −1 . Logo,

A2 = (P DP −1 )(P DP −1 ) = P D2 P −1 , A3 = A2 A = (P D2 P −1 )(P DP −1 ) = P D3 P −1 , ...


An = P Dn P −1 , ....

Ou seja,
à !à !à !
√1 √2 (−3)n 0 √1 −2

n n −1 n t 5 5 5 5
A = PD P = PD P = −2
√ √1 0 2n √2 √1
5 5 5 5

Exemplo 5.16 (Matriz Simétrica de Ordem 3). Seja


 
1 −2 0
 
A =  −2 1 0 .
0 0 −1

Veja que A é uma matriz simétrica. Vamos encontrar os autovalores de A. Note que
¯ ¯
¯ x−1 2 0 ¯
¯ ¯
¯ ¯
pA (x) = |xI − A| = ¯ 2 x−1 0 ¯ = (x + 1)2 (x − 3).
¯ ¯
¯ 0 0 x+1 ¯

(I é a matriz identidade 3×3) é o polinômio caracterı́stico de A. Logo, os autovalores de A são


λ1 = −1 (com multiplicidade algébrica 2) e λ2 = 3. Agora, vamos encontrar os autovetores
 
x
 
associados a estes autovalores. Começemos com o autovalor λ1 = −1. Seja v =  y  um
z

62
autovetor qualquer de A associado ao autovalor λ1 = −1. Daı́, Av = −v. Ou seja,
    
1 −2 0 x x
    
 −2 1 0  y  = − y .
0 0 −1 z z

Em forma de sistema linear, obtemos




 x − 2y = −x;
−2x + y = −y;


−z = −z.

Este sistema é equivalente ao sistema


(
2x − 2y = 0;
−2x + 2y = 0.

A solução deste sistema é x = y, ∀ y ∈ R. Com isso,


       
x y 1 0
       
v =  y  =  y  = y 1  + z 0 .
z z 0 1

Logo o autoespaço associado ao autovalor λ1 = −1 é V−1 = [(1, 1, 0), (0, 0, 1)]. Agora,
 
x
 
considere o autovalor λ2 = 3. Seja v =  y  um autovetor qualquer de A associado ao
z
autovalor λ2 = 3. Logo, Av = 3v. Isto é,
    
1 −2 0 x x
    
 −2 1 0  y  = 3 y .
0 0 −1 z z

Em forma de sistema linear, temos que




 x − 2y = 3x;
−2x + y = 3y;


−z = 3z.

63
Este sistema é equivalente ao sistema


 −2x − 2y = 0;
−2x − 2y = 0;


z = 0.

Portanto, a solução deste sistema é x = −y, ∀ y ∈ R. Assim sendo,


   
−y −1
   
v =  y  = y 1 .
0 0

Logo o autoespaço associado ao autovalor λ2 = 3 é V3 = [(−1, 1, 0)]. Por conseguinte,


{v1 = (1, 1, 0), v2 = (0, 0, 1), v3 = (−1, 1, 0)} é uma base formada por autovetores de A. Para
que a base seja ortonormal devemos aplicar o Processo de Gram-Schmidt (ver Teorema 2.1).
µ ¶
v1 (1, 1, 0) 1 1
u1 = = = √ , √ ,0 ,
kv1 k k(1, 1, 0)k 2 2

D ³ ´E ³ ´
(0, 0, 1) − (0, 0, 1), √1 , √1 , 0 √1 , √1 , 0
v2 − hv2 , u1 iu1 2 2 2 2 (0, 0, 1)
u2 = =°
°
D ³ ´E ³ ´° =
°
kv2 − hv2 , u1 iu1 k °(0, 0, 1) − (0, 0, 1), √12 , √12 , 0 √1 , √1 , 0 ° k(0, 0, 1)k
2 2
= (0, 0, 1) .

e
D ³ ´E ³ ´
(−1, 1, 0) − (−1, 1, 0), √1 , √1 , 0 √1 , √1 , 0
v3 − hv3 , u1 iu1 − hv3 , u2 iu2 2 2 2 2
u3 = =°°
D ³ ´E ³ ´°
°
kv3 − hv3 , u1 iu1 hv3 , u2 iu2 k ° (−1, 1, 0) − (−1, 1, 0), √1
, √1
, 0 √1
, √1
, 0 °
2 2 2 2
µ ¶
(−1, 1, 0) −1 1
= = √ , √ ,0 .
k(−1, 1, 0)k 2 2
n³ ´ ³ ´o
Dessa forma, √1 , √1 , 0 , (0, 0, 1), −1 √1
√ , 2, 0 é uma base ortonormal formada por au-
2 2 2

64
tovetores de A. Colocando estes vetores em coluna encontramos a matriz ortogonal
 
√1 0 −1

2 2
 √1 √1

P = 2
0 2
.
0 1 0

A matriz diagonal  
−1 0 0
 
D= 0 −1 0 
0 0 3
(autovalores de A na diagonal) satisfaz D = P −1 AP, onde P −1 = P t .

Exercı́cios de Fixação
1. Seja T (x, y, z) = (x + y + z, x + y + z) um operador linear. Mostre que T é auto-adjunto.
Encontre os autovalores de T e uma base ortonormal formada por autovetores de T.
2. Explique por que para  
1 −2 0
 
A =  −2 1 0 
0 0 −1
existe uma matriz ortogonal P tal que P t AP = D é diagonal. Encontre as matrizes P e D.
3. Explique por que para  
2 2 0
 
A =  2 −1 0 
0 0 2
existe uma matriz ortogonal P tal que P t AP = D é diagonal. Encontre os autovalores de A
e as matrizes P e D.
4. Explique por que para  
0 1 1
 
A= 1 0 1 
1 1 0
existe uma matriz ortogonal P tal que P t AP = D é diagonal. Encontre os autovalores de A
e as matrizes P e D. Determine A5 , usando o Corolário 5.4.

65
5. Explique por que para  
0 1 1 −1
 
 1 0 −1 1 
A=


 1 −1 0 1 
−1 1 1 0
existe uma matriz ortogonal P tal que P t AP = D é diagonal. Encontre os autovalores de A
e as matrizes P e D.
6. Explique por que para  
1 2 3
 
A= 2 3 4 
3 4 5
existe uma matriz ortogonal P tal que P t AP = D é diagonal. Encontre as matrizes P e D.
7. Dados o vetores v = (2, −1, −2) e w = (3, −6, −6), determine o operador auto-adjunto
T : R3 → R3 tal que T (v) = (1, 1, 13) e T (w) = (3, 21, 33), sabendo que o traço de T é 5,
isto é, a11 + a22 + a33 = 5, onde [T ] = (aij ).
8. Seja  
4 2 2
 
A =  2 4 2 .
2 2 4
Prove que A é simétrica e encontre P ortogonal tal que P t AP = D é uma matriz diagonal.

5.2 Exercı́cios Propostos

Exercı́cios:

1. Seja A uma matriz simétrica. Seja λ o autovalor de T de menor módulo. Mostre que A
é invertı́vel se, e somente se, λ 6= 0.
2. Sejam S, T : V → V operadores auto-adjuntos no espaço vetorial V com produto interno
e dimensão finita. Mostre que S ◦ T é auto-adjunto ⇔ S ◦ T = T ◦ S.
3. Seja T : V → V um operador auto-adjunto. Prove que T n (v) = 0, para algum n ∈ N ⇒
T (v) = 0.

66
4. Prove que os operadores auto-adjuntos S, T : V → V são iguais ⇔ hS(v), vi = hT (v), vi,
∀ v ∈ V.

67
Referências Bibliográficas

[1] BUENO, H. P., Álgebra Linear - Um Segundo Curso, Primeira Edição, Rio de Janeiro,
SBM, 2006.

[2] CALLIOLI, C. A., DOMINGUES, H. H.,COSTA, R. C. F. Álgebra Linear e


Aplicações, Sexta Edição, São Paulo, Editora Atual, 1995.

[3] COELHO, F. O., LOURENÇO, M. L., Um Curso de Álgebra Linear, Edição 2001,
São Paulo, EdusP, 2004.

[4] HOFFMAN, K., KUNZE, R., Linear Algebra, Second Edition, New Jersey, Prentice-
Hall, Inc., Englewood Cliffs, 1971.

[5] LANG, S., Álgebra Linear, Primeira Edição, New York, Ed. ciência Moderna, 2003.

[6] LIPSCHUTZ, S., Álgebra Linear, Terceira Edição, São Paulo, Schaum McGraw-Hill
Makron Books, 1994.

[7] SILVA, A., Introdução à Álgebra, Primeira Edição, Editora Universitária UFPB, João
Pessoa, 2007.

Professores Revisores

Professores Paulo de Souza Rabelo e Wilberclay Gonçalves Melo.

68
Capı́tulo 6

Operadores Unitários, Normais,


Definidos e Indefinidos

6.1 Operadores Unitários

Caro aluno, nesta seção, veremos mais duas outras classificações de operadores lineares.
Estes serão denominados operadores unitários e normais. Vamos utilizar, inicialmente, a
definição de aplicação isométrica para estabelecer que condições deve satisfazer um operador
unitário.

6.1.1 Definição e Exemplos de Isometrias

Definição 6.1 (Isometrias). Seja T : U → V uma aplicação, onde U, V são espaços vetoriais
com os respectivos produtos internos h·, ·iU , h·, ·iV . Dizemos que T é uma isometria se

kT (u) − T (v)kV = ku − vkU , ∀ u, v ∈ U.


p p
Aqui k · kU = h·, ·iU e k · kV = h·, ·iV .

Obs 6.1. Quando não houver possibilidade de confusão denotaremos por h·, ·i os produtos
h·, ·iU e h·, ·iV e por k · k as normas k · kU e k · kV .

Exemplo 6.1 (Translação é Isometria). Seja V um espaço vetorial com produto interno.

69
Seja T : V → V uma translação, isto é, T (v) = v + w, onde w ∈ V está fixo. Afirmamos que
T é uma isometria. Com efeito,

kT (u) − T (v)k = ku + w − (v + w)k = ku + w − v − wk = ku − vk, ∀ u, v ∈ V.

Exemplo 6.2. Seja T : R2 → R2 dada por T (x, y) = (y, x). Assim sendo,

kT (x, y) − T (a, b)k2 = k(y, x) − (b, a)k2 = (y − b)2 + (x − a)2 = (x − a)2 + (y − b)2
= k(x, y) − (a, b)k2 .

Logo,
kT (x, y) − T (a, b)k = k(x, y) − (a, b)k, ∀ (x, y), (a, b) ∈ R2 .

Daı́, T é uma isometria.

Exemplo 6.3. Seja T : R2 → R2 dada por T (x, y) = (1, y). Assim sendo,

kT (1, 1) − T (0, 1)k = k(1, 1) − (1, 1)k = 0.

Por outro lado, k(1, 1) − (0, 1)k = k(1, 0)k = 1. Daı́, kT (1, 1) − T (0, 1)k 6= k(1, 1) − (0, 1)k.
Logo, T não é uma isometria.

6.1.2 Operadores Lineares e Isometrias

Prezado aluno, quando uma aplicação T : U → V é linear, é possı́vel caracterizar uma


isometria da seguinte forma:

Proposição 6.1 (Caracterização Isometria Linear). Seja T : U → V uma aplicação linear,


onde U, V são espaços vetoriais com os respectivos produtos internos h·, ·iU , h·, ·iV . Então T
é uma isometria se, e somente se, kT (u)kV = kukU , ∀ u ∈ U, isto é, T preserva norma.

Demonstração. ⇒) Suponha que T é uma isometria. Como T é linear, então T (0) = 0.


Consequentemente,

kT (u)kV = kT (u − 0)kV = kT (u) − T (0)kV = ku − 0kU = kukU , ∀ u ∈ U,

na terceira igualdade usamos a Definição 6.1.

70
⇐) Reciprocamente, suponha que kT (u)kV = kukU , ∀ u ∈ U . Portanto, utilizando a
definição de aplicação linear, obtemos

kT (u) − T (v)kV = kT (u − v)kV = ku − vkU , ∀ u, v ∈ U.

Portanto, T é uma isometria (ver Definição 6.1).

Exemplo 6.4 (Isometria Linear em R2 ). Vejamos outra maneira de verificar que a aplicação
T (x, y) = (y, x) é uma isometria. Note que T é linear (verifique!). Além disso,
p p
kT (x, y)k = k(y, x)k = y 2 + x2 = x2 + y 2 = k(x, y)k, ∀ (x, y) ∈ R2 .

Assim, pela Proposição 6.1, T é uma isometria.

6.1.3 Definição e Exemplos de Operadores Unitários

Definição 6.2 (Operador Unitário). Seja T : V → V um operador linear, onde V é um


espaço vetorial com produto interno. Dizemos que T é um operador unitário se T é uma
isometria.

Obs 6.2. A Proposição 6.1 nos diz que um operador linear T : V → V é unitário se, e
somente se, kT (u)k = kuk, ∀ u ∈ V.

Exemplo 6.5 (Operador Unitário em R2 ). No exemplo 6.4, vimos que T (x, y) = (y, x) é
um operador unitário.

Exemplo 6.6. O operador T (x, y) = (x + y, y) não é unitário. Com efeito,


√ √
kT (1, 1)k = k(2, 1)k = 5 e k(1, 1)k = 2.

Logo, kT (1, 1)k 6= k(1, 1)k. Usando a Proposição 6.1, concluı́mos que T não é unitário (ver
Definição 6.2).

71
6.1.4 Alguns Resultados sobre Operadores Unitários

Caro aluno, agora vamos mostrar outras maneiras de definir operador unitário sobre espaços
vetoriais com produto interno.

Teorema 6.1 (Caracterização de Operadores Unitários). Seja T : V → V um operador


linear, onde V é um espaço vetorial com produto interno h·, ·i. Então são equivalentes os
seguintes itens:

i) T é um operador unitário;

ii) hu, vi = hT (u), T (v)i, ∀ u, v ∈ V, isto é, T preserva produto interno;

iii) T ∗ ◦ T = I, caso exista T ∗ (aqui I é o operador identidade).

Demonstração. Vamos provar as implicações i) ⇒ ii) ⇒ iii) ⇒ i).

Começemos com a implicação i) ⇒ ii). Assim sendo, suponha que T é um operador unitário.
Logo, pela Proposição 6.1, kT (u)k = kuk, ∀ u ∈ V. Portanto, usando a identidade de polari-
zação (ver exercı́cios da aula 01), obtemos

1 1 1 1
hu, vi2 = ku + vk2 − ku − vk2 = kT (u + v)k2 − kT (u − v)k2
4 4 4 4
1 1
= kT (u) + T (v)k − kT (u) − T (v)k = hT (u), T (v)i2 , ∀ u, v ∈ V.
2 2
4 4

Logo, hu, vi = hT (u), T (v)i, ∀ u, v ∈ V.

ii) ⇒ iii) Se hu, vi = hT (u), T (v)i, ∀ u, v ∈ V, então, pela Definição 4.2, obtemos

hu, vi = hT (u), T (v)i = hu, T ∗ ◦ T (v)i, ∀ u, v ∈ V,

ou seja, hu, T ∗ ◦ T (v) − vi = 0, ∀ u, v ∈ V, Dessa forma, pela Proposição 1.1, concluı́mos


T ∗ ◦ T (v) = v, ∀ v ∈ V. Com isso, T ∗ ◦ T = I.

iii) ⇒ i) Considere que T ∗ ◦ T = I. Note que, pela Definição 4.2, encontramos as igual-
dades

kT (u)k2 = hT (u), T (u)i = hu, T ∗ ◦ T (u)i = hu, I(u)i = hu, ui = kuk2 , ∀ u ∈ V.

72
Portanto, pela Proposição 6.1, temos que T é um operador unitário.

Exemplo 6.7 (Identidade Operador Unitário). Sabemos que a identidade, I : V → V ,


satisfaz I ∗ = I (ver Proposição 4.3). Além disso, I −1 = I (verifique!). Com isso, I −1 = I ∗ .
Portanto, pelo item iii) do Teorema 6.1, temos que I é unitário. Outra maneira de verificar
que I é unitário é utilizar o item ii) do Teorema 6.1. De fato,

hu, vi = hI(u), I(v)i, ∀ u, v ∈ V.

Corolário 6.2. Seja T : V → V um operador linear, onde V é um espaço vetorial com


produto interno h·, ·i e dimensão finita. Enão T é unitário se, e somente se, T ∗ também o
é.

Demonstração. ⇒) Se T é unitário então T −1 = T ∗ . Usando o Teorema 4.4 e a Proposição


4.3, temos que
(T ∗ )−1 = (T −1 )∗ = T ∗∗ .

Pelo item iii) do Teorema 6.1, T ∗ é unitário.


⇐) Reciprocamente, se T ∗ é uma isometria, então (T ∗ )−1 = T ∗∗ = T (ver Proposição 4.3).
Com isso, T −1 = [(T ∗ )−1 ]−1 = T ∗ , ou seja, T é uma isometria (ver item iii) do Teorema
6.1).

Exemplo 6.8. Seja T : R2 → R2 dado por T (x, y) = (−y, x). Verifique que T é unitário.
Vimos que T ∗ = −T (ver exemplo 4.5). Logo, −T , definido por −T (x, y) = (y, −x), é um
operador unitário, pelo Corolário 6.2.

Corolário 6.3. Seja T : V → V um operador linear, onde V é um espaço vetorial com


produto interno h·, ·i. Então T transforma conjuntos ortonormais em conjuntos ortonormais,
isto é, se {v1 , v2 , ..., vm } é ortonormal então {T (v1 ), T (v2 ), ..., T (vm )} também o é.

Demonstração. Seja {v1 , v2 , ..., vm } um conjunto orotnormal de V . Utilizando o Teorema


6.1, obtemos (
1, se i = j;
hT (vi ), T (vj )i = hvi , vj i =
0, se i 6= j,
∀ i, j = 1, 2, ..., m (ver Definição 2.4). Logo, {T (v1 ), T (v2 ), ..., T (vm )} é um conjunto ortonor-
mal (ver Definição 2.4).

73
Exemplo 6.9. Seja T : R2 → R2 dado por T (x, y) = (−y, x). T é um operador unitário
(verifique!). Sabemos que {(1, 0), (0, 1)} é uma base ortonormal de R2 (ver exemplo 2.9).
Portanto, pelo Corolário, 6.3, {T (1, 0), T (0, 1)} = {(0, 1), (−1, 0)} é um conjunto ortonormal.

Proposição 6.2. Seja T : V → V um operador unitário, onde V é um espaço vetorial com


produto interno h·, ·i. Então os possı́veis autovalores de T são 1 e −1.

Demonstração. Seja v um autovetor de T , ou seja, seja v 6= 0 tal que T (v) = λv. Vamos
provar que λ = 1 ou λ = −1. Com efeito, sabemos que kT (v)k = kvk (ver Definição 6.2).
Com isso, pela Definição 1.1,

|λ|kvk = kλvk = kT (v)k = kvk.

Assim, (|λ| − 1)kvk = 0. Como kvk > 0, então |λ| = 1. Por fim, λ = ±1.

Exemplo 6.10. Seja T : R2 → R2 dado por T (x, y) = (y, 2x). Note que
à !
0 1
[T ]c = ,
2 0

onde c é a base canônica de R2 (ver exemplo 2.9). Portanto,


¯ ¯
¯ x −1 ¯ √ √
¯ ¯
pT (x) = ¯ ¯ = x2 − 2 = (x − 2)(x + 2).
¯ −2 x ¯


Com isso, os autovalores de T são ± 2. Pela Proposição 6.3, T não é unitário.

6.1.5 Matrizes de Operadores Unitários

Prezado aluno, vejamos como definir operador unitário através da matriz deste operador,
em relação a uma base ortonormal.

Teorema 6.4 (Caracterização de Operadores Unitários). Seja T : V → V um operador


linear, onde V é um espaço vetorial com produto interno h·, ·i e dimensão finita. Então T
é unitário se, e somente se, [T ]β é uma matriz ortogonal, onde β é base ortonormal de V.
Lembre que uma matriz A é ortogonal se AAt = At A = I.

74
Demonstração. ⇒) Suponha que T é unitário. Seja β base ortonormal de V . Vimos no
Teorema 4.4 que [T ∗ ]β = [T ]tβ . Como T é unitário, então T ∗ ◦ T = T ◦ T ∗ = I, (ver Definição
6.2) através do Teorema do Núcleo e Imagem. Logo,

[T ]β [T ]tβ = [T ]β [T ∗ ]β = [T ◦ T ∗ ]β = [T ∗ ◦ T ]β = [T ∗ ]β [T ]β = [T ]tβ [T ]β .

Além disso,

[T ]β [T ]tβ = [T ]β [T ∗ ]β = [T ◦ T ∗ ]β = [I]β = I e [T ]tβ [T ]β = [T ∗ ]β [T ]β = [T ∗ ◦ T ]β = [I]β = I.

Portanto,
[T ]β [T ]tβ = [T ]tβ [T ]β = [I]β = I.

Isto nos diz que [T ]β é ortogonal (esta matriz tem entradas reais).

⇐) Suponha que [T ]tβ [T ]β = [T ]β [T ]tβ = I, onde β = {v1 , v2 , ..., vn } é uma base ortonormal de
V. Assim sendo, [T ∗ ◦ T ]β = [T ◦ T ∗ ]β = [I]β ( pelo que foi feito acima). Consequentemente,

hT ∗ ◦ T (vi ), vj i = hT ◦ T ∗ (vj ), vi i = hvi , vj i, ∀ i, j = 1, 2, ..., n.

estas são as entradas das matrizes [T ∗ ◦ T ]β , [T ◦ T ∗ ]β e [I]β , respectivamente. Portanto,

hu, T ◦ T ∗ (v)i = hT ∗ ◦ T (u), vi = hu, vi, ∀ u, v ∈ V,

ver demonstração do Teorema 5.1. Assim sendo, T ∗ ◦ T = T ◦ T ∗ = I (ver Proposição 1.1).


Pela Definição 6.2, T é unitário.
à !
0 1
Exemplo 6.11. Seja A = uma matriz. Note que
1 0
à !à ! à !
0 1 0 1 1 0
AAt = = = I.
1 0 1 0 0 1

Analogamente, Ã !Ã ! Ã !
0 1 0 1 1 0
At A = = = I.
1 0 1 0 0 1
Portanto, AAt = At A = I. Logo, A é uma matriz ortogonal. Com isso, pelo Teorema 6.4,
temos que o operador, definido por, T (x, y) = (y, x) é unitário, pois [T ]c = A (onde c é a

75
base canônica de R2 ).

Exercı́cios de Fixação
1. Seja T : U → V linear, onde U, V são espaços vetoriais de dimensão finita, com produto
interno e dim U = dim V . Sejam β e γ bases ortonormais de U e V , respectivamente. Mostre
que [T ]γβ é ortogonal ⇔ T é uma isometria.
2. Se uma matriz unitária é triangular superior, prove que ela é diagonal se seu quadrado é
igual à matriz identidade.
3. Entre as matrizes abaixo, determine quais são ortogonais.
     
9 −3 −6 1 2 3 1 0 0
     
 3 9 6  ,  3 2 2  e  0 −1 2  .
6 −6 9 2 3 5 0 −2 −1

4. Considere que a matriz P = (v1 v2 ...vn ), cujas colunas são os vetores {v1 , v2 , ..., vn } de
uma base ortonormal de Rn . Mostre que P é ortogonal.
5. Seja V = R2 , com produto interno canônico. Se T : V → V é um operador unitário,
mostre que a matriz de T em relação à base canônica é
à ! à !
cos θ −senθ cos θ senθ
ou ,
senθ cos θ −senθ cos θ

para algum θ ∈ [0, 2π].

6.2 Operadores Normais

Prezados alunos, nesta seção, veremos que propriedades operadores que comutam com sua
adjunta satisfazem.

76
6.2.1 Definição e Exemplos de Operadores Normais

Definição 6.3 (Operadores Normais). Seja T : V → V um operador linear, onde V é um


espaço vetorial com produto interno. Dizemos que T é normal se T ◦ T ∗ = T ∗ ◦ T .

Exemplo 6.12. Os operadores auto-adjuntos, antiauto-adjunto e unitários são operadores


normais (ver Definições 5.1, 5.2 e 6.2).

Exemplo 6.13. Seja T : R2 → R2 dada por T (x, y) = (x + y, −x + y). Vamos provar que T
é normal. Primeiramente vamos encontrar T ∗ .

h(a, b), T (x, y)i = h(a, b), (x + y, −x + y)i = a(x + y) + b(−x + y) = (a − b)x + (a + b)y
= h(a − b, a + b), (x, y)i.

Logo, T ∗ (a, b) = (a − b, a + b). Assim sendo,

T ◦ T ∗ (a, b) = T (a − b, a + b) = (a − b + a + b, −a + b + a + b) = (2a, 2b).

Por outro lado,

T ∗ ◦ T (x, y) = T ∗ (x + y, −x + y) = (x + y + x − y, x + y − x + y) = (2x, 2y).

Logo, T ◦ T ∗ = T ∗ ◦ T . Com isso, pela Definição 6.3, T é normal. Observe que T não é
auto-adjunto, não é antiauto-adjunto e também não é unitário (verifique!).

Exemplo 6.14 (Operador Não-normal). Seja T : R2 → R2 dado por T (x, y) = (y, 2x).
Vamos mostrar que T não é normal. De fato, T ∗ (x, y) = (2y, x) (verifique!). Logo,

T ◦ T ∗ (x, y) = T (2y, x) = (x, 4y).

Por outro lado,


T ∗ ◦ T (x, y) = T ∗ (y, 2x) = (4x, y).

Dessa forma, T ◦ T ∗ (0, 1) = (0, 4) e T ∗ ◦ T (0, 1) = (0, 1). Ou seja, T ◦ T ∗ 6= T ∗ ◦ T . Pela


Definição 6.3, T não é um operador normal.

77
6.2.2 Resultados Importantes sobre Operadores Normais

Caro aluno, vejamos uma outra maneira de definir um operador normal.


Teorema 6.5 (Caracterização de Operadores Normais). Seja T : V → V um operador
linear, onde V é um espaço vetorial com produto interno h·, ·i. Então T é normal se, e
somente se, kT (v)k = kT ∗ (v)k, ∀ v ∈ V.

Demonstração. ⇒) Suponha que T é um operador normal. Assim sendo, usando as Definições


4.2 e 6.3, obtemos

kT (v)k2 = hT (v), T (v)i = hv, T ∗ ◦T (v)i = hv, T ◦T ∗ (v)i = hT ∗ (v), T ∗ (v)i = kT ∗ (v)k2 , ∀ v ∈ V.

Consequentemente, kT (v)k = kT ∗ (v)k, ∀ v ∈ V.

⇐) Reciprocamente, considere que kT (v)k = kT ∗ (v)k, ∀ v ∈ V. Vamos mostrar que T é


normal. Note que, através da Definição 4.2, concluı́mos que

hT ∗ ◦T (v), vi = hT (v), T (v)i = kT (v)k2 = kT ∗ (v)k2 = hT ∗ (v), T ∗ (v)i = hT ◦T ∗ (v), vi ∀ v ∈ V.

Portanto, hT ∗ ◦ T (v), vi = hT ◦ T ∗ (v), vi ∀ v ∈ V. Dessa forma,

hT ∗ ◦ T (u + w), u + wi = hT ◦ T ∗ (u + w), u + wi, ∀ u, w ∈ V.

Pela Definição 1.1 e usando a hipótese da recı́proca, obtemos

hT ∗ ◦ T (u), wi + hT ∗ ◦ T (w), ui = hT ◦ T ∗ (u), wi + hT ◦ T ∗ (w), ui, ∀ u, w ∈ V.

através da Definição 4.2, encontramos

hT ∗ ◦ T (u), wi = hT ◦ T ∗ (u), wi, ∀ u, w ∈ V.

Consequentemente,

h[T ∗ ◦ T − T ◦ T ∗ ](u), wi = 0, ∀ u, w ∈ V.

Pela Proposição 1.1, [T ∗ ◦ T − T ◦ T ∗ ](u) = 0, ∀ u ∈ V. Isto nos diz que T ∗ ◦ T = T ◦ T ∗ .


Através da Definição 6.3, temos que T é normal.

78
Exemplo 6.15. Seja T : R3 → R3 definida por T (x, y, z) = (2x, x − y, 0). Vamos mostrar
que T não é normal. De fato, verifique que T ∗ (x, y, z) = (2x + y, −y, 0). Logo,

kT (0, 1, 0)k = k(0, −1, 0)k = 1 e kT ∗ (0, 1, 0)k = k(1, −1, 0)k = 2.

Consequentemente, kT ∗ (0, 1, 0)k 6= kT (0, 1, 0)k. Portanto, usando o Teorema 6.5, concluı́mos
que T não é normal.

Proposição 6.3 (Autovalores de um Operador Normal e de sua Adjunta). Seja T : V → V


um operador normal, onde V é um espaço vetorial com produto interno h·, ·i. Então todo
autovalor de T é autovalor de T ∗ , com o mesmo autovetor associado.

Demonstração. Seja λ um autovalor de T , então existe v ∈ V , não-nulo, tal que T (v) = λv.
Assim, T (v) − λv = 0, isto é, (T − λI)(v) = 0. Portanto, pelo Teorema 6.5 e pela Proposição
4.3, temos que λ é autovalor de T associado a v se, e somente se,

k(T −λI)(v)k = 0 ⇔ k(T −λI)∗ (v)k = 0 ⇔ (T ∗ −λI)(v) = 0 ⇔ T ∗ (v)−λv = 0 ⇔ T ∗ (v) = λv

se, e somente se, λ é autovalor de T ∗ associado a v.

Obs 6.3. Note que, na demonstração da Proposição 6.3, não provamos que T − λI é um
operador normal (hipótese do Teorema 6.5). Deixamos para o aluno este exercı́cio de fixação.

6.2.3 Matrizes de Operadores Normais

Prezado aluno, vamos mostrar que é possı́vel dar outra definição para um operador normal.
Faremos isto estabelecendo a relação de um operador deste tipo com sua matriz, em relação
a uma base ortonormal.

Teorema 6.6 (Caracterização de Operadores Normais). Seja T : V → V um operador


linear, onde V é um espaço vetorial com produto interno h·, ·i e dimensão finita. Então T é
normal se, e somente se, [T ]β é uma matriz, com coeficientes reais, normal, onde β é base
ortonormal de V. Lembre que uma matriz, com coeficientes reais, A é normal se AAt = At A.

Demonstração. ⇒) Suponha que T é normal. Seja β base ortonormal de V . Vimos no


Teorema 4.4 que [T ∗ ]β = [T ]tβ . Como T é normal, então T ∗ ◦ T = T ◦ T ∗ (ver Definição 6.3).

79
Logo,
[T ]β [T ]tβ = [T ]β [T ∗ ]β = [T ◦ T ∗ ]β = [T ∗ ◦ T ]β = [T ∗ ]β [T ]β = [T ]tβ [T ]β .

Isto nos diz que [T ]β é normal (esta matriz tem entradas reais).

⇐) Suponha que [T ]tβ [T ]β = [T ]β [T ]tβ , onde β = {v1 , v2 , ..., vn } é uma base ortonormal
de V. Assim sendo, [T ∗ ◦ T ]β = [T ◦ T ∗ ]β (pelo que foi feito acima). Consequentemente,
hT ∗ ◦ T (vi ), vj i = hT ◦ T ∗ (vj ), vi i, ∀ i, j, estas são as entradas das matrizes [T ∗ ◦ T ]β e
[T ◦ T ∗ ]β , respectivamente. Logo,

hu, T ◦ T ∗ (v)i = hT ∗ ◦ T (u), vi, ∀ u, v ∈ V,

ver demonstração do Teorema 5.1. Dessa forma, pela Proposição 1.1, obtemos T ∗ ◦T = T ◦T ∗ .
Pela Definição 6.3, T é normal.
à !
1 1
Exemplo 6.16. Seja A = uma matriz. Note que
−1 1
à !à ! à !
1 1 1 −1 2 0
AAt = = .
−1 1 1 1 0 2

Analogamente, Ã !Ã ! Ã !
1 −1 1 1 2 0
At A = = .
1 1 −1 1 0 2
Isto nos diz que At A = AAt . Portanto, A é uma matriz normal (com coeficientes reais).
Utilizando o Teorema 6.5, concluı́mos que T : R2 → R2 , dado por T (x, y) = (x + y, −x + y),
é um operador normal, já que [T ]c = A onde c é a base canônica de R2 .

Exercı́cios de Fixação
1. Se T é um operador normal, prove que autovetores de T que estão associados a autovalores
distintos são ortogonais.
2. Seja T : V → V um operador linear sobre um espaço vetorial com produto interno e
dimensão finita. Prove que S é normal ⇔ kT (v)k = kT ∗ (v)k, ∀ v ∈ V.
3. Seja T : V → V um operador normal tal que dim V = n. Se T possui n autovalores
distintos, prove que T é auto-adjunto.

80
4. Entre as matrizes abaixo, determine quais são normais.
     
9 −3 −6 1 2 3 1 0 0
     
 3 9 6  ,  3 2 2  e  0 −1 2  .
6 −6 9 2 3 5 0 −2 −1

6.3 Exercı́cios Propostos

Exercı́cios:

1. Um isomorfismo dos espaços com produto interno U e V é uma bijeção linear T : U → V


que satisfaz hT (u), T (v)iV = hu, viU , ∀ u, v ∈ U. Seja T : U → V linear, onde U, V são
espaços vetoriais de dimensão finita, com produto interno e dim U = dim V . Mostre que as
seguintes afirmações são equivalentes:
i) T preserva produto interno;
ii) T é um isomorfismo de espaços vetoriais com produto interno;
iii) T transforma base ortonormal de U em base ortonormal de V ;
iv) T transforma alguma base ortonormal de U em alguma base ortonormal de V .
2. Sejam M, N : V → V operadores lineares tais que N é normal. Mostre que N ◦ M =
M ◦ N ⇒ N ∗ ◦ M = M ◦ N ∗.
3. Sejam M, N : V → V operadores lineares normais. Mostre que N ◦ M = M ◦ N ⇒
M ∗ ◦ N = N ◦ M ∗ e M ◦ N ∗ = N ∗ ◦ M . Conclua que N ◦ M é normal.

81
Referências Bibliográficas

[1] BUENO, H. P., Álgebra Linear - Um Segundo Curso, Primeira Edição, Rio de Janeiro,
SBM, 2006.

[2] CALLIOLI, C. A., DOMINGUES, H. H.,COSTA, R. C. F. Álgebra Linear e


Aplicações, Sexta Edição, São Paulo, Editora Atual, 1995.

[3] COELHO, F. O., LOURENÇO, M. L., Um Curso de Álgebra Linear, Edição 2001,
São Paulo, EdusP, 2004.

[4] HOFFMAN, K., KUNZE, R., Linear Algebra, Second Edition, New Jersey, Prentice-
Hall, Inc., Englewood Cliffs, 1971.

[5] LANG, S., Álgebra Linear, Primeira Edição, New York, Ed. ciência Moderna, 2003.

[6] LIPSCHUTZ, S., Álgebra Linear, Terceira Edição, São Paulo, Schaum McGraw-Hill
Makron Books, 1994.

[7] SILVA, A., Introdução à Álgebra, Primeira Edição, Editora Universitária UFPB, João
Pessoa, 2007.

Professores Revisores

Professores Paulo de Souza Rabelo e Wilberclay Gonçalves Melo.

82
Capı́tulo 7

Operadores Definidos, Indefinidos e


Raı́zes Quadradas

7.1 Operadores Definidos e Indefinidos

Caros alunos, nesta seção exporemos as definições dos operadores positivos, negativos, não-
positivos, não-negativos e indefinidos. Almejamos, principalmente, encontrar a caracteri-
zação existente entre alguns destes operadores e seus autovalores.

7.1.1 Definições e Exemplos de Operadores Definidos e Indefinidos

Definição 7.1 (Operadores Definidos e Indefinidos). Seja V um espaço vetorial com produto
interno h·, ·i. Seja T : V → V um operador auto-adjunto (ver Definição 5.1). Então:

i) dizemos que T é positivo, e escrevemos T > 0, se hT (v), vi > 0, ∀ v ∈ V , com v 6= 0;

ii) dizemos que T é negativo, e escrevemos T < 0, se hT (v), vi < 0, ∀ v ∈ V , com v 6= 0;

iii) dizemos que T é não-positivo, e escrevemos T ≤ 0, se hT (v), vi ≤ 0, ∀ v ∈ V ;

iv) dizemos que T é não-negativo, e escrevemos T ≥ 0, se hT (v), vi ≥ 0, ∀ v ∈ V ;

v) dizemos que T é indefinido, se existem u, v ∈ V tais que hT (v), vi > 0 e hT (u), ui < 0.

83
Os quatro primeiros itens acima nos dizem que T é um operador definido.

Obs 7.1. Note que, através da Definição 7.1, todo operador positivo (respectivamente nega-
tivo) é não-negativo (respectivamente não-positivo).

Exemplo 7.1 (Operador Indefinido em R2 ). Seja T (x, y) = (y, x), ∀ (x, y) ∈ R2 . Vimos que
T é auto-adjunto (ver exemplo 4.6). Além disso,

hT (x, y), (x, y)i = h(y, x), (x, y)i = yx + xy = 2xy.

Logo T é um operador indefinido, pois

hT (1, −1), (1, −1)i = −2 < 0 e hT (1, 1), (1, 1)i = 2 > 0.

Exemplo 7.2 (Operador Não-negativo em R2 ). Seja T (x, y) = (x + y, x + y), ∀ (x, y) ∈ R2 .


Como à !
1 1
[T ]c =
1 1
é simétrica, então pelo Teorema 5.1, T é auto-adjunto. Além disso,

hT (x, y), (x, y)i = h(x + y, x + y), (x, y)i = (x + y)x + (x + y)y = (x + y)2 ≥ 0.

Isto nos diz que T ≥ 0 (ver Definição 7.1). Porém, hT (1, −1), (1, −1)i = (1 − 1)2 = 0.
Portanto, pela Definição 7.1, T não é positivo.

Exemplo 7.3 (Operador Positivo em R2 ). Seja I(x, y) = (x, y) o operador identidade de


R2 . Vimos, na Proposição 4.3, que I é auto-adjunto. Além disso,

hI(x, y), (x, y)i = h(x, y), (x, y)i = x2 + y 2 ≥ 0.

Mas, x2 + y 2 = 0 ⇔ x = y = 0. Assim,

hI(x, y), (x, y)i = x2 + y 2 > 0, ∀ (x, y) 6= (0, 0).

Dessa forma, pela Definição 7.1, I > 0.

Exemplo 7.4 (Operador Negativo em R2 ). Seja T (x, y) = (−x, −y). Note que T é auto-

84
adjunto, pois sua matriz, em relação à base canônica c, é dada por
à !
−1 0
[T ]c =
0 −1

é simétrica (ver Teorema 5.1). Além disso,

hT (x, y), (x, y)i = h(−x, −y), (x, y)i = −x2 − y 2 ≤ 0.

Mas, −x2 − y 2 = 0 ⇔ x = y = 0. Assim,

hT (x, y), (x, y)i = −x2 − y 2 < 0, ∀ (x, y) 6= (0, 0).

Dessa forma, pela Definição 7.1, T < 0.

Exemplo 7.5 (Operador Não-positivo em R2 ). Seja T (x, y) = (−x, −y). Vimos no exemplo
7.4 que
hT (x, y), (x, y)i ≤ 0, ∀ (x, y) ∈ R2 .

Logo, T ≤ 0.

Exercı́cios de Fixação
1. Seja V um espaço vetorial com dimensão finita e produto interno. Seja β = {v1 , v2 , ..., vn }
Xn Xn
uma base de V . Defina gij = hvi , vj i. Se u = xi v i e v = yi vi , mostre que vale
Pn i=1 i=1
hu, vi = i,j=1 gij xi yj . Verifique que G = (gij ) é uma matriz simétrica e positiva, isto
t
é, [u]β G[u]β , ∀ u 6= 0 em V. Reciprocamente, mostre que se G for uma matriz simétrica
positiva, então h·, ·i define um produto interno em V . A matriz G é chamada matriz de
Gram dos vetores v1 , v2 , ..., vn .
2. Entre as matrizes abaixo, determine quais são positivas.
     
9 −3 −6 1 2 3 1 0 0
     
 3 9 6  ,  3 2 2  e  0 −1 2  .
6 −6 9 2 3 5 0 −2 −1

3. Mostre que um operador T é positivo se, e somente se, T á não-negativo e invertı́vel.

85
7.2 Raiz Quadrada de Operadores Lineares

7.2.1 Definição e Exemplos de Raiz Quadrada

Definição 7.2 (Raiz Quadrada de Operadores). Seja V um espaço vetorial. Seja S : V → V


um operador linear. Dizemos que um operador linear T : V → V é raiz quadrada de T se
T 2 = S, isto é, T ◦ T = S.

Notação: T = S.
Exemplo 7.6 (Raiz Quadrada da Identidade em R2 ). Seja T (x, y) = (y, x). Note que

T 2 (x, y) = T ◦ T (x, y) = T (y, x) = (x, y) = I(x, y), ∀ (x, y) ∈ R2 .



Logo, T 2 = I. Com isso, T = I.
Exemplo 7.7 (Operador sem Raiz Quadrada). Seja S(x, y) = (−x − y, −x − y). Suponha
que existe T : R2 → R2 raiz quadrada de S. Assim, T 2 = S, ou seja,

T 2 (x, y) = S(x, y) = (−x − y, −x − y).

Logo,
T 2 (1, 0) = (−1, −1) e T 2 (0, 1) = (−1, −1).

Aplicando o Teorema 4.1 aos funcionais T1 (x, y) e T2 (x, y), onde T (x, y) = (T1 (x, y), T2 (x, y)).
Concluı́mos que T (x, y) = (ax + by, cx + dy), onde a, b, c, d ∈ R. Daı́, T (1, 0) = (a, c) e
T (0, 1) = (b, d). Portanto,

(−1, −1) = T 2 (1, 0) = T (a, c) = (a2 + bc, ca + dc)

e
(−1, −1) = T 2 (0, 1) = T (b, d) = (ab + bd, cb + d2 ).

Consequentemente, 

 b(a + d) = −1;
c(a + d) = −1;

 2
a + bc = −1.
Portanto, b = c (ver as duas primeiras equações do sistema acima). Substituindo este
resultado na terceira equação, obtemos 0 ≤ a2 + b2 = −1. Isto é um absurdo. Por fim, S não

86
possui raiz quadrada.

Exercı́cios de Fixação
1.

7.3 Resultados Importantes sobre Operadores Definidos,


Indefinidos e Raiz Quadrada

Prezados alunos, vejamos que condições devemos colocar em um operador para garantir a
existência e unicidade de uma raiz quadrada deste. Além disso, iremos responder a seguinte
pergunta: que condições esta raiz deve satisfazer?
Para responder esta indagação, primeiramente iremos estabelecer uma nova definição para
operadores definidos.

Lema 7.1 (Caracterização de Operadores Definidos). Seja V um espaço vetorial com produto
interno h·, ·i e dimensão finita. Seja T : V → V um operador auto-adjunto. Então

i) T é não-negativo se, e somente se, os autovalores de T são não-negativos;

ii) T é positivo se, e somente se, os autovalores de T são positivos;

iii) T é negativo se, e somente se, os autovalores de T são negativos;

iv) T é não-positivo se, e somente se, os autovalores de T são não-positivos.

Demonstração. Faremos a prova do item ii).

⇒) Suponha que T > 0 (ver Definição 7.1). Então hT (v), vi > 0, ∀ v ∈ V, com v 6= 0.
Seja λ autovalor de T . Logo, existe v 6= 0 tal que T (v) = λv. Assim sendo,

0 < hT (v), vi = hλv, vi = λhv, vi.

Como hv, vi > 0 (ver Definição 1.2), então λ > 0.

87
⇐) Reciprocamente, considere que os autovalores de T são positivos. Como T é auto-adjunto,
então, pelo Teorema 5.3, existe uma base ortonormal {v1 , v2 , ..., vn } de V formada por au-
tovetores de T , digamos T (vi ) = λi vi , ∀ i = 1, 2, ..., n. Sabemos que λi > 0, ∀ i = 1, 2, ..., n.
Xn
Seja v 6= 0 tal que v = xi vi (no mı́nimo um destes xi ’s é não-nulo). Vamos motrar que
i=1
hT (v), vi > 0. Com efeito,
* Ã n ! n + n n
X X X X
hT (v), vi = T xi v i , xj v j = xi xj hT (vi ) , vj i = xi xj hλi vi , vj i
i=1 j=1 i,j=1 i,j=1
n
X n
X
= λi xi xj hvi , vj i = λi x2i > 0,
i,j=1 i=1

na última igualdade usamos a Definição 2.4 e na desigualdade acima usamos o fato que
v 6= 0. Com isso, hT (v), vi > 0, ∀ v ∈ V , com v 6= 0. Portanto, T > 0 (ver Definição 7.1).
Obs 7.2. As demonstrações dos itens i), iii), iv), v) no Lema 7.1 são análogas a do item ii).
Convido o aluno a realização de tais provas como exercı́cio.
Obs 7.3. Note que o Lema 7.1 nos diz, implicitamente, que T é indefinido se, e somente se
possui autovalores positivo e negativo (se dim V > 1).
Exemplo 7.8. Seja T (x, y) = (x + y, x + y). Sabemos que T ≥ 0 (ver exemplo 7.2). Pelo
Lema 7.1, os autovalores de T são não-negativos. De fato, a matriz de T em relação à base
canônica c (ver exemplo 2.9) é dada por
à !
1 1
[T ]c = .
1 1

Note que o polinômio caracterı́stico de T é dado por


¯ ¯
¯ x − 1 −1 ¯
¯ ¯
pT (x) = ¯ ¯ = (x − 1)2 − 1 = x(x − 2).
¯ −1 x − 1 ¯

Logo os autovalores de T são 0 e 2, ou seja, números não-negativos.


Exemplo 7.9. Seja T (x, y) = (2y, 2x). Verifique que T é auto-adjunto. Além disso, a matriz
de T em relação à base canônica c (ver exemplo 2.9) é dada por
à !
0 2
[T ]c = .
2 0

88
Logo, o polinômio caracterı́stico de T é dado por
¯ ¯
¯ x −2 ¯
¯ ¯
pT (x) = ¯ ¯ = x2 − 4 = (x + 2)(x − 2).
¯ −2 x ¯

Logo os autovalores de T são −2 e 2. Assim, T possui autovalor positivo e negativo. Usando


o Lema 7.1, temos que T é indefinido.

Teorema 7.1 (Existência e Unicidade da Raiz Quadrada). Seja V um espaço vetorial com
produto interno h·, ·i e dimensão finita. Seja S : V → V um operador não-negativo. Então
existe uma (única) raiz quadrada não-negativa de T .

Demonstração. Como S ≥ 0, então S é auto-adjunto (ver Definição 7.1). Usando o Teorema


5.3, encontramos uma base ortonormal {v1 , v2 , ..., vn } de V formada por autovetores de S,
digamos S(vi ) = λi vi , ∀ i = 1, 2, ..., n (isto é, os λi ’s são os autovalores de S). Como S ≥ 0,
Xn
então, pelo Lema 7.1, λi ≥ 0, ∀ i = 1, 2, ..., n. Defina, para cada v = xi vi , o operador
i=1

n p
X
T (v) = λi xi vi .
i=1

n
X
Verifique que T é linear. Vamos mostrar que T é auto-adjunto. Com efeito, para u = y i vi ,
i=1
temos que
* n n
+ n n p
X X p X p X
hu, T (v)i = y i vi , λj xj vj = λj xj yi hvi , vj i = λ i xi y i ,
i=1 j=1 i,j=1 i=1

ver Definição 2.4. Por outro lado,


* n p n
+ n p n p
X X X X
hT (u), vi = λi yi vi , xj v j = λi xj yi hvi , vj i = λ i xi y i ,
i=1 j=1 i,j=1 i=1

ver Definição 2.4. Com isso,

hT (u), vi = hu, T (v)i, ∀ u, v ∈ V.



Pela Definição 5.1, temos que T é auto-adjunto. Além disso, T (vi ) = λi vi , ∀ i = 1, 2, ..., n.

89

Ou seja, os autovalores de T , são números não-negativos ( λi ≥ 0). Usando o Lema 7.1,
concluı́mos que T é não-negativo. Por fim, utilizando as definições de T e S acima, obtemos
à n ! n p n p n
Xp X X p X
T 2 (u) = T [T (u)] = T λi yi vi = λi yi T (vi ) = λi yi λ i vi = yi (λi vi )
i=1 i=1 i=1 i=1
n
à n !
X X
= yi S(vi ) = S y i vi = S(u).
i=1 i=1


Dessa forma, T 2 = S, ou seja, T = S.
Obs 7.4. A unicidade da raiz quadrada não foi provada no Teorema acima, por motivos de
simplificações na demonstração. Para ver a prova deste resultado consulte [4].
Obs 7.5. Note que na demonstração do Teorema 7.1, descrevemos como encontrar esta raiz
quadrada (ver definição de T ).
Exemplo 7.10. Seja S(x, y) = (x + y, x + y) um operador linear definido em R2 . O exemplo
7.2 nos diz que S ≥ 0. Pelo Teorema 7.1, existe uma única raiz quadrada para este operador.
Vamos encontrá-la. Primeiramente, precisamos dos autovalores de S. Vimos no exemplo 7.9
que λ1 = 0 e λ2 = 2 são os autovalores de T . Verifique que
µ ¶ µ ¶ µ ¶
−1 1 1 1 1 1
S √ ,√ = (0, 0) e S √ ,√ =2 √ ,√ ,
2 2 2 2 2 2
n³ ´ ³ ´o
−1 √1 1 √1
onde √
2
, 2
, 2, 2
√ é uma base ortonormal de R2 formada por autovetores de S
(utilize o método exposto no Corolário 5.4 para encontrar tais vetores). Seja T a raiz
quadrada de S. Vimos na demonstração do Teorema 7.1 que
√ µ ¶ √ µ ¶ √
2(y − x) √ −1 1 2(x + y) √ 1 1 2
T (x, y) = 0 √ ,√ + 2 √ ,√ = (x + y, x + y),
2 2 2 2 2 2 2

onde √ µ ¶ √ µ ¶
2(y − x) −1 1 2(x + y) 1 1
(x, y) = √ ,√ + √ ,√ .
2 2 2 2 2 2

Verifique que T = S.

Exercı́cios de Fixação
1. Mostre que são equivalentes as seguintes condições sobre um operador linear T : V → V .

90
i) T = P 2 , para algum P : V → V auto-adjunto;
ii) T = S ∗ ◦ S, para algum S : V → V auto-adjunto;
iii) T ≥ 0.

7.4 Exercı́cios Propostos

Exercı́cios:

1. Prove que todo operador linear T : V → V admite uma decomposição da forma T = P ◦R,
onde R : V → V é unitário e P : V → V é não-negativo. Esta decomposição chama-se
decomposição polar do operador T.
2. Obtenha a decomposição polar da matriz
 √ 
2 1 1
 √ 
A =  − 2 1 1 .
0 1 −1

91
Referências Bibliográficas

[1] BUENO, H. P., Álgebra Linear - Um Segundo Curso, Primeira Edição, Rio de Janeiro,
SBM, 2006.

[2] CALLIOLI, C. A., DOMINGUES, H. H.,COSTA, R. C. F. Álgebra Linear e


Aplicações, Sexta Edição, São Paulo, Editora Atual, 1995.

[3] COELHO, F. O., LOURENÇO, M. L., Um Curso de Álgebra Linear, Edição 2001,
São Paulo, EdusP, 2004.

[4] HOFFMAN, K., KUNZE, R., Linear Algebra, Second Edition, New Jersey, Prentice-
Hall, Inc., Englewood Cliffs, 1971.

[5] LANG, S., Álgebra Linear, Primeira Edição, New York, Ed. ciência Moderna, 2003.

[6] LIPSCHUTZ, S., Álgebra Linear, Terceira Edição, São Paulo, Schaum McGraw-Hill
Makron Books, 1994.

[7] SILVA, A., Introdução à Álgebra, Primeira Edição, Editora Universitária UFPB, João
Pessoa, 2007.

Professores Revisores

Professores Paulo de Souza Rabelo e Wilberclay Gonçalves Melo.

92
Capı́tulo 8

Formas Bilineares

8.1 Formas Bilineares

8.1.1 Definição e Exemplos de Formas Bilineares

Definição 8.1 (Formas Bilineares). Seja V um espaço vetorial. Uma função f : V × V → R


que satisfaz

i) f (λu, v) = λf (u, v), ∀ u, v ∈ V, λ ∈ R;

ii) f (u, λv) = λf (u, v), ∀ u, v ∈ V, λ ∈ R;

iii) f (u + w, v) = f (u, v) + f (w, v), ∀ u, v, w ∈ V ;

iv) f (u, v + w) = f (u, v) + f (u, w),∀ u, v, w ∈ V ;

é chamada forma bilinear sobre V , ou simplesmente forma bilinear.

Notação: B(V ) = {f : V × V → R é uma forma bilinear}.

Obs 8.1. Verifique que B(V ) munido das operações de soma,

(f + g)(u, v) := f (u, v) + g(u, v), ∀ (u, v) ∈ V × V,

93
e de multiplicação por escalar,

(λf )(u, v) := λf (u, v), ∀ (u, v) ∈ V × V, λ ∈ R,

é um espaço vetorial.

Exemplo 8.1 (Forma Bilinear sobre R2 ). Seja f : R2 × R2 → R uma função definida por

f ((x, y), (a, b)) = 3xa − 2xb + 5ya + 7yb.

Vamos mostrar que f é bilinear. De fato, para (x, y), (a, b) e (c, d) ∈ R2 e λ ∈ R, temos que

i)

f (λ(x, y), (a, b)) = f ((λx, λy), (a, b)) = 3(λx)a − 2(λx)b + 5(λy)a + 7(λy)b
= λ(3xa − 2xb + 5ya + 7yb) = λf ((x, y), (a, b)).

ii)

f ((x, y), λ(a, b)) = f ((x, y), (λa, λb)) = 3x(λa) − 2x(λb) + 5y(λa) + 7y(λb)
= λ(3xa − 2xb + 5ya + 7yb) = λf ((x, y), (a, b)).

iii)

f ((x, y), (a, b) + (c, d)) = f ((x, y), (a + c, b + d))


= 3x(a + c) − 2x(b + d) + 5y(a + c) + 7y(b + d)
= (3xa − 2xb + 5ya + 7yb) + (3xc − 2xd + 5yc + 7yd)
= f ((x, y), (a, b)) + f ((x, y), (c, d)).

iv)

f ((x, y) + (c, d), (a, b)) = f ((x + c, y + d), (a, b))


= 3(x + c)a − 2(x + c)b + 5(y + d)a + 7(y + d)b
= (3xa − 2xb + 5ya + 7yb) + (3ca − 2cb + 5da + 7db)
= f ((x, y), (a, b)) + f ((c, d), (a, b)).

94
Pela Definição 8.1, concluı́mos que f é uma forma bilinear.

Exemplo 8.2. Seja f : R2 × R2 → R dada por f ((x, y), (a, b)) = −2xb + 2ya. Sejam
(x, y), (a, b), (c, d) ∈ R2 e λ ∈ R. Note que

i)

f (λ(x, y), (a, b)) = f ((λx, λy), (a, b)) = −2(λx)b + 2(λy)a = λ(−2xb + 2ya)
= λf ((x, y), (a, b)).

ii)

f ((x, y), λ(a, b)) = f ((x, y), (λa, λb)) = −2x(λb) + 2y(λa) = λ(−2xb + 2ya)
= λf ((x, y), (a, b)).

iii)

f ((x, y), (a, b) + (c, d)) = f ((x, y), (a + c, b + d)) = −2x(b + d) + 2y(a + c)
= (−2xb + 2ya) + (−2xd + 2yc)
= f ((x, y), (a, b)) + f ((x, y), (c, d)).

iv)

f ((x, y) + (c, d), (a, b)) = f ((x + c, y + d), (a, b)) = −2(x + c)b + 2(y + d)a
= (−2xb + 2ya) + (−2cb + 2da)
= f ((x, y), (a, b)) + f ((c, d), (a, b)).

Daı́, f é uma forma bilinear.

Exemplo 8.3 (Produto Interno como Forma Bilinear). Seja V um espaço vetorial com
produto interno h·, ·i. Vamos provar que h·, ·i : V × V → R é uma forma bilinear. Note que,
pela Definição 1.1,

i) hλu, vi = λhu, vi, ∀ u, v ∈ V, λ ∈ R;

ii) hu, λvi = λhu, vi, ∀ u, v ∈ V, λ ∈ R;

95
iii) hu + w, vi = hu, vi + hw, vi, ∀ u, v, w ∈ V ;

iv) hu, v + wi = hu, vi + hu, wi,∀ u, v, w ∈ V ;

ou seja, h·, ·i satisfaz todos os itens da Definição 8.1. Isto nos diz que h·, ·i é uma forma
bilinear.

Exemplo 8.4. Seja V um espaço vetorial com produto interno h·, ·i. Seja T : V → V um
operador linear. Seja
f (u, v) = hT (u), vi, ∀ u, v ∈ V.

Então,

i) f (λu, v) = hT (λu), vi = hλT (u), vi = λhT (u), vi = λf (u, v), ∀ u, v ∈ V, λ ∈ R;

ii) f (u, λv) = hT (u), λvi = λhT (u), vi = λf (u, v), ∀ u, v ∈ V, λ ∈ R;

iii) f (u + w, v) = hT (u + w), vi = hT (u) + T (w), vi = hT (u), vi + hT (w), vi = f (u, v) +


f (w, v), ∀ u, v, w ∈ V ;

iv) f (u, v + w) = hT (u), v + wi = hT (u), vi + hT (u), wi = f (u, v) + f (u, w),∀ u, v, w ∈ V.

Logo, f é uma forma bilinear.

Exemplo 8.5 (Forma Não-bilinear). Seja f : R2 × R2 → R uma função definida por

f ((x, y), (a, b)) = 1, ∀ (x, y), (a, b) ∈ R2 .

Afirmamos que f não é uma forma bilinear. Com efeito,

f (2(1, 0), (0, 1)) = f ((2, 0), (0, 1)) = 1 e 2f ((1, 0), (0, 1)) = 2 · 1 = 2.

Com isso,
f (2(1, 0), (0, 1)) 6= 2f ((1, 0), (0, 1)).

Portanto, f não satisfaz o item i) da Definição 8.1. Dessa forma, f não é uma forma bilinear.

96
8.1.2 Formas Bilineares Simétrica e Anti-simétrica

Definição 8.2 (Formas Bilineares Simétricas e Anti-simétricas). Seja V um espaço vetorial.


Seja f : V × V → R uma forma bilinear. Dizemos que

i) f é simétrica, se f (u, v) = f (v, u), ∀ u, v ∈ V ;

ii) f é anti-simétrica, se f (u, v) = −f (v, u), ∀ u, v ∈ V .

Exemplo 8.6 (Forma Bilinear Não-simétrica). A forma bilinear do exemplo 8.1 não é
simétrica. Com efeito,

f ((1, 0), (0, 1)) = −2 e f ((0, 1), (1, 0)) = 5,

ver definição da forma no exemplo 8.1. Consequentemente,

f ((1, 0), (0, 1)) 6= f ((0, 1), (1, 0)).

Portanto, f , definida no exemplo 8.1, não é uma forma bilinear simétrica (ver Definição 8.2)

Exemplo 8.7 (Produto Interno como Forma Simétrica). Seja V um espaço vetorial com
produto interno h·, ·i. Vimos no exemplo 8.3 que o produto interno é uma forma bilinear.
Pela Definição 1.1, temos que

hu, vi = hv, ui, ∀ u, v ∈ V.

logo, h·, ·i é uma forma bilinear simétrica (ver Definição 8.2).

Exemplo 8.8. Considere a forma bilinear f ((x, y), (a, b)) = −2xb + 2ya, vista no exemplo
8.2. Veja que

f ((x, y), (a, b)) = −2xb + 2ya = −(−2ay + 2bx) = −f ((a, b), (x, y)), ∀ (x, y), (a, b) ∈ R2 .

Logo, pela Definição 8.2, f é uma forma bilinear anti-simétrica.

97
8.1.3 Resultados Importantes sobre Formas Bilineares

Caros alunos, veremos, nesta seção, que a recı́proca do exemplo 8.4 é verdadeira, mas para
isto precisamos da finitude da dimenensão do espaço vetorial em questão.
Teorema 8.1 (Caracterização de Formas Bilineares). Seja V um espaço vetorial com pro-
duto interno h·, ·i e dimensão finita. Seja f : V × V → R uma forma bilinear. Então
existe um único operador linear T : V → V tal que f (u, v) = hT (u), vi, ∀ u, v ∈ V. Além
disso, f é simétrica (respectivamente, anti-simétrica) se, e somente se, T é auto-adjunto
(respectivamente, antiauto-adjunto).

Demonstração. Seja v ∈ V um vetor fixo. Seja g : V → R uma aplicação definida por


g(u) = f (u, v), ∀ u ∈ V. Note que, através da Definição 8.1, chegamos a

g(λu + w) = f (λu + w, v) = λf (u, v) + f (w, v) = λg(u) + g(w),

∀ u, w ∈ V e λ ∈ R. Consequentemente, g é um funcional linear (ver Definição 4.1). Logo,


pelo Teorema 4.1, existe um único w ∈ V tal que g(u) = hu, wi, ∀ u ∈ V. Defina o operador
S : V → V dado por S(v) = w. Como dim V é finita, então existe única S ∗ : V → V (ver
Teorema 4.3). Seja T = S ∗ . Consequentemente, pela Definição 4.2, obtemos

f (u, v) = g(u) = hu, S(v)i = hS ∗ (u), vi = hT (u), vi, ∀ u, v ∈ V.

Vamos verificar que T é único. Suponha que existe um operador P : V → V linear tal que

f (u, v) = hP (u), vi = hT (u), vi, ∀ u, v ∈ V.

Por conseguinte,
hP (u) − T (u), vi = 0, ∀ u, v ∈ V.

Pela Proposição 1.1, temos que P (u) − T (u) = 0, ∀ u ∈ V. Por fim, T (u) = P (u), ∀ u ∈ V.
Ou seja, T é único que satisfaz f (u, v) = hT (u), vi, ∀ u, v ∈ V. Além disso,

f (u, v) = f (v, u) ⇔ hT (u), vi = hT (v), ui ⇔ T é auto-adjunto,

ver Definição 5.1. Analogamente,

f (u, v) = −f (v, u) ⇔ hT (u), vi = h−T (v), ui ⇔ T é antiauto-adjunto,

98
ver Definição 5.2.

Exemplo 8.9. Seja f : R2 → R dado por f ((x, y), (a, b)) = −2xb + 2ya. Vimos no exemplo
8.2, que f é uma forma bilinear. Seja T : R2 → R2 um operador linear definido por
T (x, y) = (2y, −2x), então

f ((x, y), (a, b)) = −2xb + 2ya = h(2y, −2x), (a, b)i = hT (x, y), (a, b)i, ∀ (x, y), (a, b) ∈ R2 .

Vimos no exemplo 8.8, que f é anti-simétrica. Portanto, pelo Teorema 8.1, T é um operador
antiauto-adjunto.

Prezado aluno, na Observação da Definição 8.1, informamos que B(V ) é um espaço


vetorial. Com o Teorema 8.1, faz sentido perguntarmos se é possı́vel compararmos dim L(V )
com dim B(V ) (aqui L(V ) = {T : V → V é linear} e dim V é finita), já que existe uma
relação entre uma forma bilinear e um operador linear. Vejamos o corolário a seguir que
responde a esta indagação.

Corolário 8.2 (dim B(V )). Seja V um espaço vetorial com produto interno h·, ·i e dimensão
finita. Então B(V ) é isomorfo a L(V ). Em particular, dim B(V ) = dim L(V ) = (dim V )2 .

Demonstração. Seja f ∈ B(V ) (ver Definição 8.1). Pelo Teorema 8.1, existe um único
T ∈ L(V ) tal que f (u, v) = hT (u), vi, ∀ u, v ∈ V. Defina Φ : B(V ) → L(V ) por Φ(f ) = T.
Mostre que Φ é um isomorfismo, isto é, Φ é uma transformação linear bijetora. Em particular,
pelo Teorema do núcleo e imagem, temos que

dim B(V ) = dim L(V ) = (dim V )2 .

8.1.4 Matrizes de Formas Bilineares

Caro aluno, agora, vamos estabelecer a idéia de matriz de uma forma bilinear para um espaço
vetorial de dimensão finita.

Definição 8.3 (Matriz de uma forma). Seja V um espaço vetorial de dimensão finita. Seja
β = {v1 , v2 , ..., vn } uma base de V . A matriz da forma bilinear f : V × V → R em relação à

99
base β é dada por [f ]β = (f (vj , vi )), ou seja,
 
f (v1 , v1 ) f (v2 , v1 ) ... f (vn , v1 )
 
 f (v1 , v2 ) f (v2 , v2 ) ... f (vn , v2 ) 
[f ]β = 

.

 ··· ··· ··· ··· 
f (v1 , vn ) f (v2 , v1 ) ... f (vn , vn )

Exemplo 8.10. Seja

f ((x, y), (a, b)) = 3xa − 2xb + 5ya + 7yb

a forma bilinear do exemplo 8.1. Vamos encontrar a matriz de f em relação à base canônica
de R2 (ver exemplo 2.9).
à ! à !
f ((1, 0), (1, 0)) f ((0, 1), (1, 0)) 3 5
= .
f ((1, 0), (0, 1)) f ((0, 1), (0, 1)) −2 7

Obs 8.2. Seja V um espaço vetorial com produto interno h·, ·i e dimensão finita. Seja f
uma forma bilinear. Vimos, no Teorema 8.1, que existe um único T tal que

f (u, v) = hT (u), vi, ∀ u, v ∈ V.

Seja β = {v1 , v2 , ..., vn } uma base ortonormal de V , então


   
f (v1 , v1 ) f (v2 , v1 ) ... f (vn , v1 ) hT (v1 ), v1 i hT (v2 ), v1 i ... hT (vn ), v1 i
   
 f (v1 , v2 ) f (v2 , v2 ) ... f (vn , v2 )   hT (v1 ), v2 i hT (v2 ), v2 i ... hT (vn ), v2 i 
[f ]β = 

=
 


 ··· ··· ··· ···   ··· ··· ··· ··· 
f (v1 , vn ) f (v2 , v1 ) ... f (vn , vn ) hT (v1 ), vn i hT (v2 ), vn i ... hT (vn ), vn i

= [T ]β .

Teorema 8.3 (Teorema do Eixo Principal). Seja V um espaço vetorial com produto interno
h·, ·i e dimensão finita. Seja f : V × V → R uma forma bilinear simétrica. Então existe
uma base ortonormal de V tal que [f ]β é diagonal.

Demonstração. Usando o Teorema 8.1, temos que existe um único operador auto-adjunto T
tal que f (u, v) = hT (u), vi, ∀ u, v ∈ V, pois f é simétrica. Agora, utilizando o Teorema 5.3,

100
temos que existe uma base ortonormal β tal que [T ]β é diagonal. Mas, pela observação 8.2,
sabemos que [f ]β = [T ]β . Logo, [f ]β é diagonal.

Exemplo 8.11. Verifique que

f ((x, y), (a, b)) = ax + 2ay + 2bx − 2by

é uma forma bilinear. Seja T (x, y) = (x + 2y, 2x − 2y) um operador linear (verifique). Veja
que, Ã !
1 2
[T ]c = ,
2 −2
onde c é a base canônica de R2 . Como [T ]c é simétrica, então pelo Teorema 5.1, T é auto-
adjunto. Mas,
f ((x, y), (a, b)) = hT (x, y), (a, b)i, ∀ (x, y), (a, b) ∈ R2

(verifique). Dessa forma, pelo Teorema 8.1, temos que f é uma forma bilinear simétrica.
Usando o exemplo 4.11 e a observação 8.2, concluı́mos que
à !
−3 0
[f ]β = [T ]β = ,
0 2
n³ ´ ³ ´o
onde β = √1 , √
−2
, √25 , √15 é uma base ortonormal.
5 5

Exercı́cios de Fixação
1. Seja f : V × V → R uma forma bilinear. Provar que
i) f (0, v) = f (v, 0) = 0;
à n ! n
X X
ii) f λ i vi , v = λi f (vi , v);
i=1 i=1
à m
! m
X X
iii) f v, λ j vj = λj f (v, vj );
j=1 j=1
à n m
! n X
m
X X X
iv) f β i vi , λj vj = βi λj f (vi , vj ).
i=1 j=1 i=1 j=1

2. Sejam u = (x1 , x2 ) e v = (y1 , y2 ) ∈ R2 . Quais das seguintes funções são formas bilineares:

101
i) f (u, v) = x1 y1 ;
ii) f (u, v) = x1 y2 ;
iii) f (u, v) = x1 (y1 + y2 );
iv) f (u, v) = 0;
v) f (u, v) = x21 + x2 y1 .
3. Calcular a matriz das formas bilineares da questão anterior em relação à base canônica.
4. Seja f : R2 × R2 → R dada por f ((x1 , x2 ), (y1 , y2 )) = x1 y1 + x2 y2 . Encontre a matriz de
f em relação a cada uma das bases abaixo:

{(1, 0), (0, 1)} e {(1, −1), (1, 1)}.

5. Seja f : R2 × R2 → R dada por f ((x1 , x2 ), (y1 , y2 )) = x1 y1 + 4x2 y2 + 2x1 y2 + 2x2 y1 .


Encontre uma base β de R2 tal que [f ]β é diagonal.
6. Escreva a expressão geral de uma forma bilinear simétrica sobre R2 e R3 .
7. Escreva a expressão geral de uma forma bilinear anti-simétrica sobre R2 e R3 .

8.2 Formas Quadráticas

Caros aluno, nesta seção, utilizaremos o método de Lagrange para diagonalizar formas
quadráticas simétricas. Além disso, enunciaremos e provaremos a Lei da Inércia proposta
por Sylvester.

Definição 8.4 (Forma Quadrática). Seja V um espaço vetorial. Seja f : V × V → R uma


forma bilinear. Uma aplicação q : V → R, definida por

q(v) = f (v, v), ∀ v ∈ V,

é chamada forma quadrática sobre V .

Obs 8.3. Se q : V → R é uma forma quadrática sobre V , então diremos, simplesmente, que
q é uma forma quadrática, quando estiver claro quem é o espaço V .

102
Exemplo 8.12. f ((x, y), (a, b)) = 3xa − 2xb + 5ya + 7yb é uma forma bilinear (ver exemplo
8.2). Logo, q : R2 → R, dada por

q(x, y) = f ((x, y), (x, y)) = 3x2 + 3xy + 7y 2 ,

é uma forma quadrática.

Exemplo 8.13. Seja f ((x, y), (a, b)) = −2xb + 2ya, a forma bilinear do exemplo 8.2. Logo,
q : R2 → R, definida por

q(x, y) = f ((x, y), (x, y)) = −2xy + 2yx = 0,

é uma forma quadrática.

Exemplo 8.14. Seja V um espaço vetorial com produto interno h·, ·i. Vimos no exemplo
8.3 que o produto interno é uma forma bilinear. Logo q : V → R, dado por

q(v) = hv, vi = kvk2 , ∀ v ∈ V,

é uma forma quadrática.

Definição 8.5 (Forma Quadrática Simétrica e Anti-simétrica). Seja V um espaço vetorial.


Seja q : V → R uma forma quadrática. Dizemos que:

i) q é simétrica se f também o for;

ii) q é anti-simétrica se f também o for.

Exemplo 8.15. Seja V um espaço vetorial com produto interno. A forma quadrática q(v) =
kvk2 , vista no exemplo 8.14 é simétrica, pois a forma bilinear que gera esta forma quadrática,
o produto interno, é uma forma bilinear simétrica (ver exemplo 8.7).

Exemplo 8.16. Vimos que a forma bilinear f ((x, y), (a, b)) = −2xb + 2ya é anti-simétrica
(ver exemplo 8.2). Portanto, a forma quadrática, definida por q(x, y) = 0 (ver exemplo 8.13),
é uma forma quadrática anti-simétrica.

Exemplo 8.17. Seja

q(x, y) = f ((x, y), (x, y)) = 3x2 + 3xy + 7y 2

103
a forma quadrática gerada pela forma bilinear

f ((x, y), (a, b)) = 3xa − 2xb + 5ya + 7yb.

Vimos, no exemplo 8.6, que f não é simétrica. Logo, esta forma quadrática q não é simétrica.

Definição 8.6 (Formas Quadráticas Definidas e Indefinidas). Seja V um espaço vetorial.


Seja U subespaço vetorial de V . Seja q : V → R uma forma quadrática simétrica. Dizemos
que

i) q é positiva em U , e escrevemos q > 0, se q(u) > 0, ∀ u ∈ U não-nulo;

ii) q é negativa em U , e escrevemos q < 0, se q(u) < 0, ∀ u ∈ U não-nulo;

iii) q é não-positiva em U , e escrevemos q ≤ 0, se q(u) ≤ 0, ∀ u ∈ U ;

iv) q é não-negativa em U , e escrevemos q ≥ 0, se q(u) ≥ 0, ∀ u ∈ U ;

v) q é indefinida, existem u, v ∈ V tais que q(u) > 0 e q(v) < 0.

Obs 8.4. Quando q satisfaz um dos quatro primeiros itens da Definição 8.6, dizemos que q
é uma forma quadrática definida em U.

Exemplo 8.18 (Forma Quadrática Positiva em R2 ). Considere a forma quadrática

q(x, y) = k(x, y)k2 = x2 + y 2 ,

vista no exemplo 8.14. Note que

q(x, y) = k(x, y)k2 = x2 + y 2 ≥ 0, ∀ (x, y) ∈ R2 .

Logo, q é não-negativa em R2 . Além disso,

q(x, y) = x2 + y 2 > 0, ∀ (x, y) 6= (0, 0) ∈ R2 ,

pois x2 + y 2 = 0 ⇔ x = y = 0. Isto nos diz que q também é uma forma quadrática positiva
em R2 .

104
8.2.1 Resultados Importantes sobre Formas Quadráticas

Caros alunos, nesta seção, poderı́amos trabalhar em um espaço vetorial V com dimensão
finita n. Porém, este espaço é facilmente identificado, através do isomorfismo T : V →
Rn , definido por T (v) = [v]β (β é uma base ortonormal de V ), com Rn . Portanto, por
conveniência, as formas quadráticas que aparecem aqui estão definidas sobre Rn . Com estas
considerações, veremos dois importantı́ssimos Teoremas que trabalham com a diagonalização
de uma forma quadrática.

Teorema 8.4 (Teorema de Lagrange). Seja q : Rn → R uma forma quadrática simétrica.


Então existe uma mudança de coordenadas de modo que nas novas coordenadas a forma
quadrática é diagonal, isto é,

q(y1 , y2 , ..., yn ) = d1 y1 + d2 y2 + ... + dn yn .

Antes de vermos a prova do Teorema 8.4, ilustremos com um exemplo o algoritmo que
será utilizado para diagonalizar formas quadráticas simétricas. Este algoritmo é chamado
Método de Lagrange.

Exemplo 8.19 (Método de Lagrange em R3 ). Seja q : R3 → R dada por

q(a, b, c) = 2a2 − 3b2 + c2 − 2ab + 4ac − 4bc.

Mostre que q é uma forma quadrática simétrica (veja como obter a forma bilinear que gerou
esta forma quadrática na lista de exercı́cios). Note que

q(a, b, c) = 2a2 − 3b2 + c2 − 2ab + 4ac − 4bc = 2(a2 − ab + 2ac) − 3b2 + c2 − 4bc
· µ ¶¸
2 b − 2c
= 2 a − 2a − 3b2 + c2 − 4bc
2
· µ ¶¸2 µ ¶2
b − 2c b − 2c
= 2 a− −2 − 3b2 + c2 − 4bc
2 2
· µ ¶¸2
b − 2c b2
= 2 a− − + 2bc − 2c2 − 3b2 + c2 − 4bc
2 2
· µ ¶¸2
b − 2c 7b2
= 2 a− − − 2bc − c2
2 2
· µ ¶¸2 µ ¶
b − 2c 7 2 2
= 2 a− − b + 2 bc − c2
2 2 7

105
· µ ¶¸2 ¶2 µ
b − 2c 2 7 2 2
= 2 a− b+ c + − c − c2
2 7 2 7
· µ ¶¸2 µ ¶2
b − 2c 7 2 5 2
= 2 a− − b+ c − c.
2 2 7 7
µ ¶
b − 2c 2
Dessa forma, para y1 = a − , y2 = b + c, y3 = c, obtemos
2 7

7 5
q(y1 , y2 , y3 ) = 2y12 − y22 − y32 .
2 7
7 5
Logo, q está na forma diagonal, onde d1 = 2, d2 = − , d3 = − .
2 7

Note que o Método de Lagrange pode ser resumido na técnica de completar quadrados.
Mas, para isso precisamos seguir algumas regras. Vejamos a prova do Teorema 8.4.

Demonstração. Seja {v1 , v2 , ..., vn } a base canônica de Rn . Então, pelas Definições 8.1 e 8.4,
obtemos
à n n
!
X X
q(x1 , x2 , ..., xn ) = f ((x1 , x2 , ..., xn ), (x1 , x2 , ..., xn )) = f xi v i , xj v j
i=1 j=1
n
X
= xi xj f (vi , vj ),
i,j=1

onde f é uma forma bilinear que gera q. Seja aij = f (vi , vj ). Assim,
n
X
q(x1 , x2 , ..., xn ) = aij xi xj . (8.1)
i,j=1

Como q é simétrica, então f é simétrica (ver Definição 8.5). Portanto,

aij = f (vi , vj ) = f (vj , vi ) = aji .

Se aij = 0, ∀ i, j, então q(x1 , ..., xn ) = 0, ou seja q está na forma diagonal com d1 = d2 = ... =
dn = 0. Afirmamos que podemos considerar que a11 6= 0. De fato, suponha que aii = 0, ∀ i
e que existam i, j tais que aij 6= 0, com i 6= j. Sem perda de generalidade, considere que

106
a12 6= 0. Daı́, as parcelas que contém x1 e x2 em (8.1) satisfazem

a12 x1 x2 + a21 x2 x1 = a12 x1 x2 + a12 x1 x2 = 2a12 x1 x2 .

Faça a mudança de variável x1 = z1 − z2 e x2 = z1 + z2 , temos que

2a12 x1 x2 = 2a12 (z1 − z2 )(z1 + z2 ) = 2a12 z12 − 2a12 z22 .

Como o termo que multiplica z12 é diferente de zero, podemos considerar que a11 6= 0. Com
isso, agrupando os termos que contém x1 , obtemos

n
à n
!
X 2x 1
X
a11 x21 + 2 a1j x1 xj = a11 x21 + a1j xj
j=2
a11 j=2
à n
!2 Ã n !2
1 X 1 X
= a11 x1 + a1j xj − a1j xj .
a11 j=2 a11 j=2

Sejam
n
1 X
y1 = x1 + a1j xj , y2 = x2 , ..., yn = xn .
a11 j=2

Portanto,
q(y1 , y2 , ..., yn ) = a11 y12 + q1 (y2 , y3 , ..., yn ),

onde q1 é uma forma quadrática simétrica. Repita o processo para q1 para concluir a diago-
nalização.

Exemplo 8.20. Seja q : R2 → R dado por

q(x, y) = xy, ∀ (x, y) ∈ R2 .

Apliquemos o Teorema 8.4. Sejam

x+y y−x
x = y1 − y2 e y = y1 + y2 , ou seja , y1 = e y2 = .
2 2

Daı́,
q(y1 , y2 ) = (y1 − y2 )(y1 + y2 ) = y12 − y22 .

Agora, veremos um resultado conhecido como Lei da Inércia.

107
Teorema 8.5 (Teorema de Sylvester). Seja q : Rn → R uma forma quadrática simétrica. O
número de termos positivos, negativos e nulos entre os coeficientes di , da diagonalização de
q no Teorema 8.4, é sempre o mesmo.

Demonstração. Sabemos, pelo Teorema 8.4, que é possı́vel diagonalizar q. Digamos que

q(y1 , y2 , ..., yn ) = d1 y12 + d2 y22 + ... + dn yn2

é uma diagonalização de q. Denote por m+ , m− , m0 o número de di0 s positivos, negativos e


nulos, respectivamente. Vamos primeiramente provar a seguinte afirmação

m+ = max{dim U : q > 0 em U },

onde este máximo é tomado em todos os subespaços U de V. Reordene a diagonalização de


q de forma que d1 , d2 , ..., dm+ sejam positivos, isto é,

q(y1 , y2 , ..., yn ) = d1 y12 + d2 y22 + ... + dm+ ym


2 2 2
+ + dm+ +1 ym +1 + ... + dn yn .
+

Seja U + = {(y1 , y2 , ..., ym+ , 0, ..., 0)} um subespaço de Rn (verifique). Observe que

dim U + = m+

(verifique). Por outro lado,

m+ = dim U + ≤ max{dim U : q > 0 em U },

pois,

2
q(y1 , y2 , ..., ym+ , 0, ..., 0) = d1 y12 + d2 y22 + ... + dm+ ym +
+ dm+ +1 0 + ... + dn 0
2
= d1 y12 + d2 y22 + ... + dm+ ym +
> 0,

relembre a definição de máximo. Suponha que existe U subespaço de Rn tal que q > 0 em
U e dim U > m+ . Defina T : U → U + , por

T (y1 , ..., yn ) = (y1 , y2 , ..., ym+ , 0, ..., 0).

Verifique que T é linear. Pela própria definição T é sobrejetiva, já que (y1 , y2 , ..., ym+ , 0, ..., 0)

108
define os elementos de U + . Como

dim U > m+ = dim U + ,

então, pelo Teorema do núcleo e imagem, T não é injetiva. Dessa forma, existe

(y1 , ..., yn ) 6= (0, ..., 0) em U

tal que
T (y1 , ..., yn ) = (0, ..., 0).

Consequentemente,
(y1 , y2 , ..., ym+ , 0, ..., 0) = (0, ..., 0).

Isto nos diz que y1 = y2 = ... = ym+ = 0. Portanto,

2
q(y1 , y2 , ..., yn ) = q(0, ..., 0, ym+ +1 , ..., yn ) = dm+ +1 ym + +1
+ ... + dn yn2 ≤ 0,

mas q > 0 em U (ver Definição 8.6). Isto gera um absurdo. Logo,

m+ = max{dim U : q > 0 em U }.

Veja que nesta definição de máximo não interessa como q está diagonalizado. Analogamente,
prova-se que m− = max{dim U : q < 0 em U }. Mas m0 = n − m+ − m− . Isto conclui a prova
do Teorema.

Exemplo 8.21. Vimos no exemplo 8.20 que a forma quadrática q(x, y) = xy pode ser
diagonalizada. A diagonalização encontrada foi q(y1 , y2 ) = y12 − y22 . Aqui,

m+ = 1, m− = 1, m0 = 0,

pois d1 = 1 (um positivo), d2 = −1 (um negativo).

Exercı́cios de Fixação
1. Seja f : V × V → R uma forma bilinear. Mostre que

1
f (u, v) + f (v, u) = [q(u + v) − q(u − v)], ∀ u, v ∈ V,
2

109
onde q : V → R é uma forma quadrática proveniente de f. Conclua que, se f é simétrica é
possı́vel encontrar f am função de q.
2. Seja q : R3 → R dada por q(x1 , x2 , x3 ) = x1 x2 + 2x1 x3 + x23 . Diagonalize q pelo método
de Lagrange.
3. Qual forma bilinear simétrica que dá origem à forma quadrática sobre R3 :
i) q(x1 , x2 , x3 ) = x21 + x22 + x23 − 2x1 x2 + 4x1 x3 − x2 x3 ;
ii) q(x1 , x2 , x3 ) = x21 − x22 + 4x2 x3 ;
iii) q(x1 , x2 , x3 ) = 2(x1 x2 + x1 x3 + x2 x3 ).
4. Reduzir à forma diagonal, pelo método de Lagrange, as seguint es formas quadráticas
sobre R2 :
i) x21 + x22 + 2x1 x2 ;
ii) x21 + x22 − 2x1 x2 ;
iii) x21 − x22 + 2x1 x2 ;
iv) x22 + 4x1 x2 ;
v) 4x1 x2 .
5. Chamamos de assinatura de uma forma quadrática simétrica o par p − n, onde p e n
são a quantidade de coeficientes positivos e negativos, respectivamente, na diagonalização
desta forma (ver Teorema 8.4). Encontre as assinaturas das formas quadráticas da questão
anterior.

8.3 Exercı́cios Propostos

Exercı́cios:

1. Seja f : V × V → R uma forma bilinear. Seja v0 um vetor fixo em V . Seja U = {v ∈ V :


f (v0 , v) = 0}. Prove que W é subespaço de V.
2. Seja V um espaço vetorial. Mostre que B(V ) = {f : V × V → R : f é uma forma } é um
espaço vetorial quando está munido das operações
i) (f + g)(u, v) = f (u, v) + g(u, v);
ii) (λf )(u, v) = λf (u, v), ∀ u, v ∈ V, λ ∈ R.

110
3. Seja f : V × V → R uma forma, onde V é um espaço vetorial com produto interno e
dimensão finita. Seja β uma base de V Seja A = [f ]β . Definimos o posto de f como sendo
o posto de A.
i) Mostre que o posto de uma forma está bem definido;
ii) Se o posto de f é 1, mostre que existem funcionais lineares g, h tais que f (u, v) =
g(u)h(v), ∀ u, v ∈ V.
4. Seja f : V × V → R uma forma bilinear. Mostre que

q(u + v) + q(u − v) = 2(q(u) + q(v)), ∀ u, v ∈ V,

onde q : V → R é uma forma quadrática proviniente de f.


5. Considere a forma quadrática q : R4 → R definida por

q(x1 , x2 , x3 , x4 ) = x21 + 6x1 x2 + 5x22 − 4x1 x3 − 12x2 x3 + 4x23 − 4x2 x4 − x3 x4 − x24 .

Coloque q na forma diagonal.

111
Referências Bibliográficas

[1] BUENO, H. P., Álgebra Linear - Um Segundo Curso, Primeira Edição, Rio de Janeiro,
SBM, 2006.

[2] CALLIOLI, C. A., DOMINGUES, H. H.,COSTA, R. C. F. Álgebra Linear e


Aplicações, Sexta Edição, São Paulo, Editora Atual, 1995.

[3] COELHO, F. O., LOURENÇO, M. L., Um Curso de Álgebra Linear, Edição 2001,
São Paulo, EdusP, 2004.

[4] HOFFMAN, K., KUNZE, R., Linear Algebra, Second Edition, New Jersey, Prentice-
Hall, Inc., Englewood Cliffs, 1971.

[5] LANG, S., Álgebra Linear, Primeira Edição, New York, Ed. ciência Moderna, 2003.

[6] LIPSCHUTZ, S., Álgebra Linear, Terceira Edição, São Paulo, Schaum McGraw-Hill
Makron Books, 1994.

[7] SILVA, A., Introdução à Álgebra, Primeira Edição, Editora Universitária UFPB, João
Pessoa, 2007.

Professores Revisores

Professores Paulo de Souza Rabelo e Wilberclay Gonçalves Melo.

112
Capı́tulo 9

Polinômio Mı́nimo e Operadores


Nilpotentes

9.1 Polinômio Mı́nimo

Caros alunos, vimos em Álgebra linear 1 que se V é um espaço vetorial de dimensão finita
n, então dim L(V ) = n2 , onde L(V ) = {T : V → V é um operador linear}. Considere
2
T ∈ L(V ). Assim sendo, o conjunto {I, T, T 2 , ..., T n } com n2 + 1 elementos é linearmente
dependente (l.d.), aqui T r = T ◦ T ◦ ... ◦ T, ∀ r ∈ N (r fatores), pois este conjunto possui mais
elementos que a dimensão do espaço L(V ). Seja m o menor natural tal que {I, T, T 2 , ..., T m }
é l.d.. Por esta minimalidade de m, T m é combinção linear dos operadores I, T, T 2 , ..., T m−1 ,
já que {I, T, T 2 , ..., T m−1 } é linearmente independente (l.i.). Logo, existem únicos (verifique)
a0 , a1 , ..., am−1 ∈ R, não todos nulos, tais que

T m + am−1 T m−1 + am−2 T m−2 + ... + a0 I = 0.

9.1.1 Definição e Exemplos de Polinômio Mı́nimo

Definição 9.1 (Polinômio Mı́nimo). Seja V um espaço vetorial com dimensão finita. Seja
T : V → V um operador linear. O polinômio

mT (x) = xm + am−1 xm−1 + am−2 xm−2 + ... + a0 , ∀ x ∈ R,

113
onde T m + am−1 T m−1 + am−2 T m−2 + ... + a0 I = 0, é chamado polinômio mı́nimo do operador
T.

Obs 9.1. Note que mT é mônico (coeficiente do termo de maior grau igual a 1).

Exemplo 9.1. Seja V um espaço de dimensão finita. Seja I : V → V o operador identidade


(I(v) = v, ∀ v ∈ V ). Logo,
mI (x) = x − 1, ∀ x ∈ R,

pois I 1 − I = I − I = 0 (m = 1).

Definição 9.2 (Polinômios como Operadores Lineares). Sejam V um espaço vetorial com
dimensão finita, T : V → V um operador linear e

p(x) = λm xm + λm−1 xm−1 + λm−2 xm−2 + ... + λ0 , ∀ x ∈ R

um polinômio. Definimos um operador linear p(T ) : V → V pondo

p(T )(v) := λm T m (v) + λm−1 T m−1 (v) + λm−2 T m−2 (v) + ... + λ0 I(v), ∀ v ∈ V.

Ou seja,
p(T ) := λm T m + λm−1 T m−1 + λm−2 T m−2 + ... + λ0 I.

Exemplo 9.2 (Minimalidade do Grau do Polinômio Mı́nimo). O polinômio mı́nimo de T

mT (x) = xm + am−1 xm−1 + am−2 xm−2 + ... + a0 , ∀ x ∈ R,

satisfaz
mT (T ) = T m + am−1 T m−1 + am−2 T m−2 + ... + a0 I = 0.

Portanto, mT é o polinômio de menor grau (minimalidade de m) tal que mT (T ) = 0.

Caro aluno, existe uma maneira mais simples de encontrar o polinômio mı́nimo de um
operador linear. Para isto precisaremos de alguns resultados preliminares.

Proposição 9.1. Seja V um espaço vetorial de dimensão finita. Seja p um polinômio


sobre R. Então p(T ) = 0 (ver Definição 9.2) ⇔ mT |p, isto é, existe polinômio q tal que
p(x) = mT (x)q(x), ∀ x ∈ R.

114
Demonstração. ⇒) Suponha que p(T ) = 0. Dividindo o polinômio p por mT , encontramos
polinômios q, r tais que

p = mT q + r, onde r = 0 ou ∂r < ∂mT ,

onde ∂r representa o grau do polinômio r. Portanto,

0 = p(T ) = mT (T )q(T ) + r(T ) = r(T )

(verifique). Daı́, r(T ) = 0. Com isso, ∂r ≥ ∂mT , pela minimalidade do grau de mT comen-
tada no exemplo 9.2. Assim, r = 0. Com isso, p = mT q, ou seja, mT |p.

⇐) Reciprocamente, suponha que mT |p. Logo, existe q tal que p = mT q. Assim sendo,

p(T ) = mT (T )q(T ) = 0q(T ) = 0,

verifique este produto. Por fim, p(T ) = 0.

Proposição 9.2 (Raı́zes do Polinômio Mı́nimo). Seja V um espaço vetorial com dimensão
finita. Seja T : V → V um operador linear. Seja mT o polinômio mı́nimo de T . Então

mT (λ) = 0 ⇔ λ é autovalor de T.

Demonstração. ⇒) Seja

mT (x) = xm + am−1 xm−1 + am−2 xm−2 + ... + a0 .

Suponha que mT (λ) = 0. Então, pelo Teorema Fundamental da Álgebra, existe polinômio q
tal que
mT (x) = (x − λ)q(x), ∀ x ∈ R,

onde ∂q = m − 1 < m. Consequentemente, pela Definição 9.2, obtemos

mT (T ) = (T − λI)q(T ).

Mas, mT (T ) = 0 (ver exemplo 9.2). Assim,

0 = mT (T ) = (T − λI)q(T ).

115
Como ∂q < m, então q(T ) 6= 0 (ver exemplo 9.2). Logo, existe u ∈ V tal que q(T )(u) 6= 0.
Para w = q(T )(u) 6= 0, temos que

(T − λI)(w) = (T − λI)q(T )(u) = 0.

Ou equaivalentemente,
T (w) = λw, com w 6= 0.

Ou seja, λ é autovalor de T associado ao autovetor w.

⇐) Reciprocamente, suponha que λ seja autovalor de T . Então existe v 6= 0 tal que


T (v) = λv. Indutivamente, é possı́vel verificar que T j (v) = λj v, ∀ j ∈ N (verifique). Conse-
quentemente,

0 = mT (T )(v) = (T m + am−1 T m−1 + am−2 T m−2 + ... + a0 I)(v)


= T m (v) + am−1 T m−1 (v) + am−2 T m−2 (v) + ... + a0 v
= λm v + am−1 λm−1 v + am−2 λm−2 v + ... + a0 v
= (λm + am−1 λm−1 + am−2 λm−2 + ... + a0 )v
= mT (λ)v.

Como v 6= 0, então mT (λ) = 0. Por fim, λ é raiz de mT .

Obs 9.2. Sabemos, através do curso Álgebra Linear 1, que as raı́zes do polinômio carac-
terı́stico são, exatamente, os autovalores. Logo, os polinômios mı́nimo e caracterı́stico têm
as mesmas raı́zes (ver Proposição 9.2).

Teorema 9.1 (Teorema de Cayley-Hamilton). Seja V um espaço vetorial com dimensão


finita. Seja T : V → V um operador linear. Seja pT o polinômio caracterı́stico de T . Então
pT (T ) = 0.

Demonstração. Seja dim V = n. Seja β uma base de V tal que A = [T ]β . Então,

pT (x) = |A − xI|.

Desejamos provar que pT (A) = 0. Se qT (x) = |xI − A|, então basta provar que

qT (A) = 0.

116
Seja N = xI − A. Considere Q =Adj(N ) = (qij ), onde qij são os cofatores de N (relembre
Álgebra Linear 1). Portanto,

qij = qij0 + qij1 x + qij2 x2 + ... + qijn−1 xn−1

são polinômios de grau menor ou igual a n − 1. Para cada r = 0, 1, ..., n − 1 ponha


 
r r r
q11 q12 · · · q1n
 r 
 q21 q22
r r
· · · q2n 
Q =
r
 ··· ··· ··· ···


 
r r r
qn1 qn2 · · · qnn

Verifique que

Q = Q0 + Q1 x + Q2 x2 + ... + Qn−1 xn−1 . (9.1)

Por outro lado,

QN = Adj(N )N = |N |I, (9.2)

onde I é a matriz identidade de ordem n. Usando (9.1) e (9.2), obtemos

(Q0 + Q1 x + Q2 x2 + ... + Qn−1 xn−1 )(xI − A) = (a0 + a1 x + a2 x2 + ... + an−1 xn−1 + xn )I,

onde qT (x) = a0 + a1 x + a2 x2 + ... + an−1 xn−1 + xn (este é polinômio mônico de grau n).
Comparando os coeficientes desta última igualdade, temos que


 a0 I = −Q0 A;



 Q0 − Q1 A;
 a1 I =
··· = ···;



 an−1 I = Qn−2 − Qn−1 A;



I = Qn−1 .

Consequentemente, multiplicando estas igualdadedes por I, A, A2 , ..., An , respectivamente,

117
obtemos 

 a0 I = −Q0 A;



 Q0 M − Q1 A2 ;
 a1 A =
··· = ···;



 an−1 An−1 = Qn−2 An−1 − Qn−1 An ;


 n
A = Qn−1 An .
Somando as equações deste sistema, encontranos

qT (A) = a0 I + a1 A + a2 A2 + ... + an−1 An−1 + An = 0.

Com isso,
qT (A) = 0.

Isto conclui a prova do Teorema.

Obs 9.3. Através da Proposição 9.1 e do Teorema 9.1, concluı́mos que o polinômio carac-
terı́stico pT divide o polinômio mı́nimo mT . Lembre que a Proposição 9.2 nos diz que os
polinômios caracterı́stico pT e mı́nimo mT têm as mesmas raı́zes. Pelo Teorema 9.1, temos
que pT (T ) = 0, consequentemente, ∂mT < ∂pT (ver exemplo 9.2). Portanto, na decom-
posição dos polinômios mT e pT encontramos os mesmos fatores. Estes tendo um grau
inferior ou igual em mT . Além disso, mT (T ) = 0.

Obs 9.4. É fato que, mT (T ) = 0 ⇔ mT ([T ]β ) = 0, onde β é uma base de V.

Vejamos uma aplicação do Teorema de Cayley-Hamilton.


à !
1 1
Exemplo 9.3 (Aplicação do Teorema de Cayley-Hamilton). Seja A = . Vamos
9 1
mostrar, através do Teorema 9.1, que A2 = 2A + 8I. Com efeito,

pA (x) = x2 − 2x − 8

é o polinônmio caracterı́stico de A (verifique). Usando o Teorema 9.1, concluı́mos que


pA (A) = 0. Consequentemente,

A2 − 2A − 8I = 0 ⇒ A2 = 2A + 8I.

Caros alunos, vejamos por que podemos calcular o polinômio mı́nimo de um operador

118
linear através da matriz deste em relação a uma base qualquer.

Teorema 9.2. Sejam A e B matrizes semelhantes, isto é, existe P invertı́vel tal que B =
P AP −1 . Então A e B têm o mesmo polinômio mı́nimo.

Demonstração. Seja B = P AP −1 , então B 2 = (P AP −1 )(P AP −1 ) = P A2 P −1 . Indutiva-


mente, temos que B n = P An P −1 , ∀ n ∈ N (verifique). Seja

mA (x) = xm + am−1 xm−1 + ... + a0

o polinômio mı́nimo de A. Logo,

mA (B) = B m + am−1 B m−1 + ... + a0 I


= P Am P −1 + am−1 P Am−1 P −1 + ... + a0 P IP −1
= P (Am + am−1 Am−1 + ... + a0 I)P −1 = P mA (A)P −1 = 0,

ver Exemplo 9.2. Através do Lema 9.1, concluı́mos que mB |mA . Observe que

B n = P An P −1 ⇒ P −1 B n P = P −1 P An P −1 P = An ⇒ An = P −1 B n P, ∀ n ∈ N.

Realizando um processo análogo ao que foi feito acima, concluı́mos que mA |mB . Como mA
e mB são mônicos (ver Definição 9.1), então mA = mB .

Prezados alunos, as duas observações acima descrevem como encontrar o polinômio


mı́nimo de um operador T , ou de uma matriz, qualquer.

Exemplo 9.4. Seja T : R3 → R3 dado por T (x, y, z) = (2x + y + z, 2x + y − 2z, −x − 2z).


Então  
2 1 1
 
A = [T ]c =  2 1 −2  ,
−1 0 −2
onde c é a base canônica de R3 (ver exemplo 2.10). Vamos encontrar o polinômio mı́nimo
desta matriz (ver Teorema 9.2). Note que o polinômio caracterı́stico de A é dado por
¯ ¯
¯ x − 2 −1 −1 ¯
¯ ¯
¯ ¯
pA (x) = ¯ −2 x − 1 2 ¯ = (x + 1)2 (x − 3),
¯ ¯
¯ 1 0 x+2 ¯

119
verifique. Com isso, através das observações acima, os possı́veis polinômios mı́nimos são

(x + 1)(x − 3) ou (x + 1)2 (x − 3).

Mas mA (A) = 0. Verifiquemos se (x + 1)(x − 3) é o polinômio mı́nimo. Olhe que


    
3 1 1 −1 1 1 −2
    
(A + I)(A − 3I) =  2 2 −2   2 −2 −2  =  .
−1 0 −1 −1 0 −5

Não importa os valores das outras entradas, essa matriz não é nula. Logo, (x + 1)(x − 3)
não é o polinômio mı́nimo. Portanto, o polinômio mı́nimo de A é

mA (x) = (x + 1)2 (x − 3) = pA (x).

Exemplo 9.5. Seja  


2 1 1
 
A =  −2 −1 −2  .
1 1 2
Desejamos revelar o polinômio mı́nimo desta matriz. Veja que o polinômio caracterı́stico de
A é dado por ¯ ¯
¯ x − 2 −1 −1 ¯
¯ ¯
¯ ¯
pA (x) = ¯ 2 x+1 2 ¯ = (x − 1)3 ,
¯ ¯
¯ −1 0 x−2 ¯
verifique. Com isso, os possı́veis polinômios mı́nimos são

(x − 1), (x − 1)2 ou (x − 1)3 .

Lembre que mA (A) = 0 (ver exemplo 9.2). Verifiquemos se (x − 1) é o polinômio mı́nimo.


Observe que  
1 1 1
 
(A − I) =  −2 −2 −2  .
1 1 1
Esta matriz não é nula. Logo, (x − 1) não é o polinômio mı́nimo. Agora, vejamos se (x − 1)2

120
é o polinômio minimo.
    
1 1 1 1 1 1 0 0 0
    
(A − I)2 =  −2 −2 −2   −2 −2 −2  =  0 0 0  .
1 1 1 1 1 1 0 0 0

Portanto, o polinômio mı́nimo de A é

mA (x) = (x − 1)2 .

Exemplo 9.6. Seja  


−1 1 −1 −3 −1 7
 
 0 −1 1 2 3 2 
 
 0 0 −1 0 −2 1 
 
A= .
 0 0 0 −1 1 −2 
 
 0 0 0 0 −1 3 
 
0 0 0 0 0 −4
Vamos encontrar o polinômio mı́nimo desta matriz. Note que o polinômio caracterı́stico de
A é dado por
¯ ¯
¯ x + 1 −1 1 3 1 −7 ¯
¯ ¯
¯ ¯
¯ 0 x + 1 −1 −2 −3 −2 ¯
¯ ¯
¯ 0 0 x+1 0 2 −1 ¯
¯ ¯
pA (x) = ¯ ¯ = (x + 1)5 (x + 4),
¯ 0 0 0 x + 1 −1 2 ¯
¯ ¯
¯ 0 0 0 0 x + 1 −3 ¯
¯ ¯
¯ ¯
¯ 0 0 0 0 0 x+4 ¯

verifique. Com isso, os possı́veis polinômios mı́nimos são

(x + 1)(x + 4), (x + 1)2 (x + 4), (x + 1)3 (x + 4), (x + 1)4 (x + 4) ou (x + 1)5 (x + 4).

Verifique que
mA (x) = (x + 1)3 (x + 4)

é o polinômio mı́nimo de A.

121
Exercı́cios de Fixação
1. Prove ou dê um contra exemplo para a seguinte afirmação: se A e B têm o mesmo
polinômio mı́nimo então A e B são semelhantes.
à !
1 1
2. Seja M = . Encontre o polinômio caracterı́stico de M. Mostre que M 2 =
9 1
2M + 8I, usando o Teorema de Cayley-Hamilton. Encontre M 3 e M 4 em função de M .
3. Seja T : V → V linear, onde V é um espaço vetorial com dimensão finita. Seja pT (x) =
(x − 1)2 (x − 4)3 (x + 2) o polinômio caracterı́stico de T . Então, qual a dimensão de V , quais
os autovalores de T e quais as possibilidades para o polinômio mı́nimo de T ?
4. Seja T : V → V linear, onde V é um espaço vetorial com dimensão finita 5. Seja
mT (x) = (x − 1)2 (x − 2) o polinômio mı́nimo de T . Quais as possibilidades para o polinômio
caracterı́stico de T ?
5. Seja T : R3 → R3 um operador linear tal que a matriz de T em relação à base canônica
é dada por  
λ a 0
 
A =  0 λ a .
0 0 λ
Determine o polinômio mı́nimo de T quando a = 0 e a 6= 0.
6. Para as transformações lineares definidas pelas matrizes abaixo encontre o polinômio
caracterı́stico e o polinômio mı́nimo.
 
14 8 −1 −6 2
 
 −12 −4 2 8 −1 
 
i) 
 8 −2 0 −9 0 ;

 
 8 8 0 0 2 
−8 −4 0 4 0
 
0 2 −6 −6 2
 
 1 −2 0 0 2 
 
ii) 
 1 0 −3 −3 2 ;

 
 1 −2 −1 −1 2 
1 −4 −3 −3 4

122
 
2 −1 −2 −1 −2
 
 0 3 2 1 2 
 
iii) 
 −2 −1 0 1 −2  ;
 
 −2 −3 −2 1 −2 
0 −1 0 1 0
 
10 0 0 −7 1
 
 0 0 −1 0 0 
 
iv)  0 1 0 0 0 ;

 
 13 0 0 −9 1 
4 0 0 −3 1
 
2 1 1 −4 4
 
 −1 0 −1 4 −4 
 
v)  1 1 2 −3 4 ;

 
 0 0 0 1 0 
−2 −2 −2 1 −2
 
2 1 1 0 0
 
 −1 0 −1 0 0 
 
vi)  1 1 2 1 0 .

 
 0 0 0 1 0 
0 0 0 −1 2

9.2 Operadores Nilpotentes

Caros alunos, nesta seção, estudaremos operadores que possuem alguma potência nula.

9.2.1 Definição e Exemplos de Operadores Nilpotentes

Definição 9.3 (Operadores Nilpotentes). Seja V um espaço vetorial de dimensão n. Dizemos


que um operador linear T : V → V é nilpotente se existe k ∈ N tal que

T k = 0, onde T k = T ◦ T ◦ ... ◦ T, com k fatores.

O menor natural m tal que T m = 0 é chamado ı́ndice de nilpotência de T .

123
Obs 9.5. Seja T : V → V um operador nilpotente com ı́ndice de nilpotência m, então, pela
minimalidade de m, T m−1 6= 0, isto é, existe v ∈ V tal que T m−1 (v) 6= 0.

Exemplo 9.7 (Operador Nilpotente em R4 ). Seja T : R4 → R4 um operador linear definido


por T (x, y, z, t) = (z, t, 0, 0). Observe que

T 2 (x, y, z, t) = T ◦ T (x, y, z, t) = T (T (x, y, z, t)) = T (z, t, 0, 0) = (0, 0, 0, 0).

Daı́, pela Definição 9.3, T é um operador nilpotente com ı́ndice de nilpotência 2.

Exemplo 9.8 (Operador Não-nilpotente). Considere o operador linear T : R3 → R3 dado


por T (x, y, z) = (y, 0, z). Veja que

T 2 (x, y, z) = T ◦ T (x, y, z) = T (T (x, y, z)) = T (y, 0, z) = (0, 0, z).

Com isso,

T 3 (x, y, z) = T ◦ T 2 (x, y, z) = T (T 2 (x, y, z)) = T (0, 0, z) = (0, 0, z).

Indutivamente, é possı́vel verificar que T k (x, y, z) = (0, 0, z), ∀ k ∈ N. Portanto, pela


Definição 9.3, T não é um operador nilpotente, pois

T k (0, 0, 1) = (0, 0, 1) 6= (0, 0, 0), ∀ k ∈ N.

Exemplo 9.9 (Operador Nilpotente em R5 ). Seja T : R5 → R5 um operador linear definido


por T (x, y, z, t, s) = (0, x, y, 0, t). Note que

T 2 (x, y, z, t, s) = T (T (x, y, z, t, s)) = T (0, x, y, 0, t) = (0, 0, x, 0, 0).

Consequentemente,

T 3 (x, y, z, t, s) = T (T 2 (x, y, z, t, s)) = T (0, 0, x, 0, 0) = (0, 0, 0, 0, 0).

Logo, através da Definição 9.3, concluı́mos que T é um operador nilpotente com ı́ndice de
nilpotência 3.

Exemplo 9.10 (Operador Nilpotente em P2 (R)). Seja P2 (R) o espaço vetorial constituı́do
dos polinômios com coeficientes reais de grau menor ou igual a 2. Sabemos que dim P2 (R) =

124
3. Seja T : P2 (R) → P2 (R) o operador derivada. Este é definido por

T (a0 + a1 x + a2 x2 ) = a1 + 2a2 x.

Com isso,
T 2 (a0 + a1 x + a2 x2 ) = T (a1 + 2a2 x) = 2a2 .

Por conseguinte,

T 3 (a0 + a1 x + a2 x2 ) = T (T 2 (a0 + a1 x + a2 x2 )) = T (2a2 ) = 0.

Portanto, pela Definição 9.3, T é um operador nilpotente com ı́ndice de nilpotência 3.

Definição 9.4 (Matriz Nilpotente). Seja A uma matriz quadrada, com coeficientes reais, de
ordem n. Dizemos que A é nilpotente se existe k ∈ N tal que

Ak = 0, onde Ak = A · A · ... · A, com k fatores.

O menor natural m tal que Am = 0 é chamado ı́ndice de nilpotência de A.

Obs 9.6. Seja A uma matriz nilpotente com ı́ndice de nilpotência m, então, pela minimali-
dade de m, Am−1 6= 0.

Exemplo 9.11. Seja  


0 0 1 0
 
 0 0 0 1 
A=

.

 0 0 0 0 
0 0 0 0
Logo,     
0 0 1 0 0 0 1 0 0 0 0 0
    
 0 0 0 1   0 0 0 1   0 0 0 0 
A =A·A=
2

 = .
 0 0 0 0 

 0 0 0 0  
  0 0 0 0 

0 0 0 0 0 0 0 0 0 0 0 0
Assim, pela Definição 9.4, A é nilpotente com ı́ndice de nilpotência 2.

Exemplo 9.12. Seja  


0 1 0
 
A =  0 0 0 .
0 0 1

125
Então,     
0 1 0 0 1 0 0 0 0
    
A2 = A · A =  0 0 0   0 0 0  =  0 0 0  .
0 0 1 0 0 1 0 0 1
Assim,     
0 1 0 0 0 0 0 0 0
    
A3 = A · A2 =  0 0 0   0 0 0  =  0 0 0  .
0 0 1 0 0 1 0 0 1
Podemos, indutivamente, verificar que
 
0 0 0
 
Ak =  0 0 0  , ∀ k ∈ N.
0 0 1

Portanto, pela Definição 9.4, A não é nilpotente.

9.2.2 Resultados Importantes sobre Nilpotência

Caros alunos, vocês devem estar se perguntando: até quando devemos calcular potências de
um operador para sabermos se este é nilpotente? A resposta está no seguinte Teorema:

Teorema 9.3. Seja V um espaço vetorial com dimensão finita n. Seja T : V → V nilpotente.
Então T n = 0.

Obs 9.7. Note que o Teorema 9.3 nos diz que não é necessário calcular potências de expoente
maior que a dimensão do espaço V. Se o operador não zerar até a potência de expoente dim V ,
então este não é nilpotente.

Para provar o Teorema 9.3 precisaremos de alguns resultados preliminares.

Lema 9.1. Seja V um espaço vetorial com dimensão n. Seja T : V → V linear. Se


ker T m = ker T m+1 , para algum m ∈ N, então

{0} = ker T 0 ⊆ ker T 1 ⊆ ker T 2 ⊆ ... ⊆ ker T m = ker T m+1 = ...,

onde T 0 = I identidade sobre V e ker T = {v ∈ V : T (v) = 0} é o núcleo do operador T .

126
Demonstração. Primeiramente, vamos provar que ker T j ⊆ ker T j+1 , ∀ j ∈ N. Seja v ∈
ker T j , então T j (v) = 0. Logo,

T j+1 (v) = T (T j (v)) = T (0) = 0,

pois T é linear. Daı́,


ker T j ⊆ ker T j+1 , ∀j ∈ N.

Agora, vamos mostrar que ker T m+k = ker T m+k+1 , ∀ k ∈ N. Já provamos que

ker T m+k ⊆ ker T m+k+1

(faça j = m + k). Reciprocamente, considere que v ∈ ker T m+k+1 . Logo, T m+k+1 (v) = 0.
Portanto,
0 = T m+k+1 (v) = T m+1 (T k (v)).

Isto nos diz que T k (v) ∈ ker T m+1 . Por hipótese, ker T m+1 = ker T m . Assim sendo, T k (v) ∈
ker T m . Logo,
0 = T m (T k (v)) = T m+k (v).

Por fim, v ∈ ker T m+k . Com isso, ker T m+k+1 ⊆ ker T m+k . Deste modo,

ker T m+k+1 ⊆ ker T m+k , ∀ k ∈ N.

Lema 9.2. Seja V um espaço vetorial com dimensão n. Seja T : V → V linear. Então

ker T n = ker T n+1 = ker T n+2 = ...,

ker T é o núcleo do operador T .

Demonstração. Pelo Lema 9.1, sabemos que ker T n ⊆ ker T n+1 . Suponha, por absurdo, que
ker T n ( ker T n+1 . Novamente, pelo Lema 9.1, obtemos

{0} = ker T 0 ( ker T ( ... ( ker T n−1 ( ker T n ( ker T n+1 .

127
Portanto,

n = dim V ≥ dim ker T n+1 ≥ dim ker T n + 1 ≥ dim ker T n−1 + 2 ≥ ... ≥ dim ker T + n
≥ dim ker T 0 + n + 1 = n + 1.

Logo, n ≥ n + 1, consequentemente, 0 ≥ 1. Isto é um absurdo. Por fim, ker T n = ker T n+1 .


Pelo Lema 9.1, obtemos

ker T n = ker T n+1 = ker T n+2 = ....

Caros alunos, agora, faremos a prova do Teorema 9.3.

Demonstração. Como T é nilpotente, então existe k ∈ N tal que T k = 0. Logo, T k (v) =


0, ∀ v ∈ V. Ou seja, V = ker T k . Pelos Lemas 9.1 e 9.2, temos que

ker T 1 ⊆ ker T 2 ⊆ ... ⊆ ker T n = ker T n+1 = ...

Logo, se k ≥ n, então V = ker T k = ker T n . Se k < n, então V = ker T k ⊆ ker T n ⊆ V. De


qualquer forma, V = ker T n . Ou equivalentemente, T n (v) = 0, ∀ v ∈ V. Isto nos diz que
T n = 0.

Exemplo 9.13. Vimos no exemplo 9.8, que o operador linear T : R3 → R3 , dado por
T (x, y, z) = (y, 0, z), satisfaz T 3 (x, y, z) = (0, 0, z). Como dim R3 = 3, então T não é nilpo-
tente, pois T 3 6= 0 (ver Terema 9.3). Não precisamos usar indução para chegarmos a esta
conclusão.

Teorema 9.4 (Autovalor de um Operador Nilpotente). Seja V um espaço vetorial com


dimensão finita. Seja T : V → V um operador nilpotente. Então o único autovalor de T é
0.

Demonstração. Considere que T é nilpotente com ı́ndice de nilpotência m. Então T m = 0 e


T m−1 6= 0. Daı́, existe w 6= 0 tal que T m−1 (w) 6= 0. Por outro lado,

T (T m−1 (w)) = T m (w) = 0,

128
isto implica que, T m−1 (w) ∈ ker T e T m−1 (w) 6= 0. Isto nos diz que ker T 6= {0}. Dessa
forma, existe v 6= 0 em V tal que T (v) = 0 = 0v. Consequentemente, 0 é autovalor de T .
Suponha que λ seja autovalor de T , ou seja, T (u) = λu (u 6= 0). Indutivamente, temos que
T m (u) = λm u. Mas, T m (u) = 0, logo, λm u = 0. Como u 6= 0, então λ = 0. Ou seja, 0 é o
único autovalor de T.

Obs 9.8. Vimos, na demonstração do Teorema 9.4, que ker T 6= {0}, para todo operador
nilpotente T . Dessa forma, todo operador nilpotente é não-injetivo.

9.2.3 Matrizes de Operadores Nilpotentes

Caros alunos, vejamos como representar um operador nilpotente em forma de matriz.

Teorema 9.5 (Representação Matricial de um Operador Nilpotente). Seja V um espaço


vetorial com dimensão finita n. Seja T : V → V um operador nilpotente. Então existe uma
base β de V tal que  
0 ∗ ∗
 . . 
[T ]β = 

.. . . ∗  .

0 ··· 0

Demonstração. Como T é nilpotente, então existe k ∈ N tal que T k = 0. Isto nos diz que
V = ker T k (verifique). Sabemos, através do Lema 9.1, que

{0} = ker T 0 ⊆ ker T 1 ⊆ ker T 2 ⊆ ... ⊆ ker T k = V.

Escolha uma base β1 = {v11 , v21 , ..., vr11 } de ker T . Complete esta base a uma base β2 =
{v11 , v21 , ..., vr11 , v12 , v22 , ..., vr22 } de ker T 2 . Siga este processo até encontrar uma base

β = {v11 , v21 , ..., vr11 , v12 , v22 , ..., vr22 , ..., v1k , v2k , ..., vrkk }

de ker T k = V, onde

βi = {v11 , v21 , ..., vr11 , v12 , v22 , ..., vr22 , ..., v1i , v2i , ..., vri i }

129
é base de ker T i , ∀ i = 1, 2, ..., k. Verifique que
 
0 ∗ ∗
 . . 
[T ]β = 

.. . . ∗  .

0 ··· 0

Exercı́cios de Fixação
1. Seja T : V → V um operador linear nilpotente, com dim V = n. Mostre que o polinômio
caracterı́stico de T é pT (x) = xn .
2. Seja T : R3 → R3 um operador linear tal que a matriz de T em relação à base canônica
é dada por  
0 a 0
 
A= 0 0 a ,
0 0 0
onde a ∈ R. T é nilpotente? No caso afirmativo, determine seu ı́ndice de nilpotência.
3. Prove que toda matriz diagonal A é nilpotente se, e somente se, A = 0.
4. Considere a matriz  
0 2 1
 
A =  0 0 3 .
0 0 0
A é nilpotente? No caso afirmativo, determine seu ı́ndice de nilpotência.
5. Quais das seguintes matrizes é nilpotente?
 
14 8 −1 −6 2
 
 −12 −4 2 8 −1 
 
i) 
 8 −2 0 −9 0 ;

 
 8 8 0 0 2 
−8 −4 0 4 0

130
 
0 2 −6 −6 2
 
 1 −2 0 0 2 
 
ii) 
 1 0 −3 −3 2 ;

 
 1 −2 −1 −1 2 
1 −4 −3 −3 4
 
2 −1 −2 −1 −2
 
 0 3 2 1 2 
 
iii) 
 −2 −1 0 1 −2  ;
 
 −2 −3 −2 1 −2 
0 −1 0 1 0
 
10 0 0 −7 1
 
 0 0 −1 0 0 
 
iv)  0 1 0 0 0 ;

 
 13 0 0 −9 1 
4 0 0 −3 1
 
2 1 1 −4 4
 
 −1 0 −1 4 −4 
 
v)  1 1 2 −3 4 .

 
 0 0 0 1 0 
−2 −2 −2 1 −2

9.3 Exercı́cios Propostos

Exercı́cios:

1. Seja A uma matriz de ordem n com entradas reais. Mostre que A e At têm o mesmo
polinômio mı́nimo.
2. Sejam A e B matrizes de ordem n com entradas reais. Mostre que o polinômio mı́nimo
da matriz de ordem 2n, em forma de blocos,
à !
A 0
C=
0 B

é o mmc dos polinômios mı́nimos de A e B.

131
3. Seja A uma matriz de ordem 4 com entradas reais e autovalores 1 e −1. Escreva todas
as possibilidades para o polinômio caracterı́stico de A. Para cada possibilidade do polinômio
caracterı́stico de A, escreva os possı́veis polinômios minimais de A.
4. Seja T : V → V um operador linear nilpotente com ı́ndice de nilpotência m, onde
dim V = n. Mostre que o polinômio mı́nimo de T é pT (x) = xm . Conclua que o único
autovalor de T é 0.

132
Referências Bibliográficas

[1] BUENO, H. P., Álgebra Linear - Um Segundo Curso, Primeira Edição, Rio de Janeiro,
SBM, 2006.

[2] CALLIOLI, C. A., DOMINGUES, H. H.,COSTA, R. C. F. Álgebra Linear e


Aplicações, Sexta Edição, São Paulo, Editora Atual, 1995.

[3] COELHO, F. O., LOURENÇO, M. L., Um Curso de Álgebra Linear, Edição 2001,
São Paulo, EdusP, 2004.

[4] HOFFMAN, K., KUNZE, R., Linear Algebra, Second Edition, New Jersey, Prentice-
Hall, Inc., Englewood Cliffs, 1971.

[5] LANG, S., Álgebra Linear, Primeira Edição, New York, Ed. ciência Moderna, 2003.

[6] LIPSCHUTZ, S., Álgebra Linear, Terceira Edição, São Paulo, Schaum McGraw-Hill
Makron Books, 1994.

[7] SILVA, A., Introdução à Álgebra, Primeira Edição, Editora Universitária UFPB, João
Pessoa, 2007.

Professores Revisores

Professores Paulo de Souza Rabelo e Wilberclay Gonçalves Melo.

133
Capı́tulo 10

Teorema da Decomposição Primária e


Forma Canônica de Jordan

10.1 Teorema da Decomposição Primária

Caros alunos, nesta seção, enunciaremos o Teorema da Decomposição Primária. A demons-


tração deste Teorema requer um conhecimento que não é pré-requisito para esta disciplina.
Portanto, entendemos que não é o momento de expor tal trabalho. Para os alunos mais
interessados, ver, por exemplo, [1].

Definição 10.1 (Polinômios Irredutı́veis). Dizemos que um polinômio não-constante p, com


coeficientes reais, é irredutı́vel sobre R se é impossı́vel encontrar dois polinômios, com coefi-
cientes reais, não-constantes q, r tais que p(x) = q(x)r(x), ∀ x ∈ R. Caso contrário dizemos
que p é não-irredutı́vel sobre R.

Exemplo 10.1 (Polinômio Irredutı́vel). O polinômio x2 + 1 é irredutı́vel sobre R, pois a


equação x2 + 1 = 0 tem discriminante negativo.

Exemplo 10.2 (Polinômio Não-irredutı́vel). O polinômio x2 − 1 é não-irredutı́vel sobre R,


pois
x2 − 1 = (x − 1)(x + 1).

Teorema 10.1 (Teorema da Decomposição Primária). Seja V um espaço vetorial de di-


mensão n. Seja T : V → V um operador linear. Seja pT o polinômio caracterı́stico de T tal

134
que
pT (x) = [p1 (x)]s1 [p2 (x)]s2 · ... · [pk (x)]sk ,

onde pi (x) são fatores irredutı́veis, ∀ i = 1, 2, ..., k, com pi 6= pk , para i 6= k. Então seu
polinômio mı́nimo é
mT (x) = [p1 (x)]d1 [p2 (x)]d2 · ... · [pk (x)]dk ,

onde 0 < di ≤ si , ∀ i = 1, 2, ..., k, e se Wi = ker[pi (T )]di = ker[pi (T )]si , ∀ i = 1, 2, ..., k,


temos também que
V = W1 ⊕ W2 ⊕ ... ⊕ Wk ,

onde Wi é subespaço invariante por T , ∀ i = 1, 2, ..., k.

10.1.1 Aplicação do Teorema da Decomposição Primária

Prezados alunos, vejamos um exemplo onde podemos aplicar o Teorema da Decomposição


Primária.

Exemplo 10.3 (Aplicação do Teorema da Decomposição Primária). Seja T : R5 → R5 dado


por

T (x1 , x2 , x3 , x4 , x5 ) = (10x1 − 7x4 + x5 , −x3 , x2 , 13x1 − 9x4 + x5 , 4x1 − 3x4 + x5 ).

Escrevendo a matriz de T em relação à base canônica c de R5 (ver exemplo 2.10), encontramos


 
10 0 0 −7 1
 
 0 0 −1 0 0 
 
A = [T ]c = 
 0 1 0 0 0 ,

 
 13 0 0 −9 1 
4 0 0 −3 1

verifique. Mostre que o polinômio caracterı́stico de A é

pA (x) = x(x2 + 1)(x − 1)2 .

Na linguagem do Teorema da Decomposição Primária 10.1, temos que

p1 (x) = x, p2 (x) = x2 + 1, p3 (x) = x − 1, s1 = s2 = 1 e s3 = 2.

135
O Teorema 10.1, nos garante que

R5 = ker p1 (A) ⊕ ker p2 (A) ⊕ ker p3 (A)2 = ker A ⊕ ker(A2 + 1) ⊕ ker(A − I)2 ,

onde ker A, ker(A2 + 1) e ker(A − I)2 são subespaços invariantes por A. Vamos encontrar
tais espaços. Seja (x1 , x2 , x3 , x4 , x5 ) ∈ ker A, então
        
0 x1 10 0 0 −7 1 x1 10x1 − 7x4 + x5
        
 0   x2   0 0 −1 0 0  x2   −x3 
        
 0  = A x3 = 0 1 0 0 0  x3 = x2 .
        
        
 0   x4   13 0 0 −9 1  x4   13x1 − 9x4 + x5 
0 x5 4 0 0 −3 1 x5 4x1 − 3x4 + x5

Resolvendo esta equação, obtemos

3 1
x2 = x3 = 0, x4 = x1 , x5 = x1 e x1 ∈ R.
2 2

Portanto,
½µ ¶¾ ½ µ ¶¾
3 1 3 1
ker A = {(x1 , x2 , x3 , x4 , x5 )} = x1 , 0, 0, x1 , x1 = x1 1, 0, 0, ,
2 2 2 2
= [(2, 0, 0, 3, 1)].

Agora, procuremos o espaço ker(A2 + I). Assim sendo, seja (x1 , x2 , x3 , x4 , x5 ) ∈ ker(A2 + I).
Daı́,    
x1 0
   
 x2   0 
   
(A2 + I)   
 x3  =  0 
.
   
 x4   0 
x5 0
Mas,
   
10 0 0 −7 1 10 0 0 −7 1 1 0 0 0 0
    
 0 0 −1 0 0   0 0 −1 0 0   0 1 0 0 0 
    
A +I = 
2
 0 1 0 0 0  0
 1 0 0 0  
+ 0 0 1 0 0 

    
 13 0 0 −9 1   13 0 0 −9 1   0 0 0 1 0 
4 0 0 −3 1 4 0 0 −3 1 0 0 0 0 1

136
     
13 0 0 −17 4 1 0 0 0 0 14 0 0 −17 4
     
 0 −1 0 0 0   0 1 0 0 0   0 0 0 0 0 
     
= 
 0 0 −1 0 0
+ 0 0 1
  0 0 = 0
  0 0 0 0 .

     
 17 0 0 −45 5   0 0 0 1 0   17 0 0 −44 5 
5 0 0 −4 2 0 0 0 0 1 5 0 0 −4 3

Dessa forma,
        
0 x1 14 0 0 −17 4 x1 14x1 − 17x4 + 4x5
        
 0   x2   0 0 0 0 0   x2   0 
        
 0  = (A + I) 
2
x3 = 0 0 0 0 0   x3  =  0 .
        
        
 0   x4   17 0 0 −44 5   x4   17x1 − 44x4 + 5x5 
0 x5 5 0 0 −4 3 x5 5x1 − 4x4 + 3x5

Esta equação tem solução x1 = x4 = x5 = 0. Logo,

ker(A2 +I) = {(0, x2 , x3 , 0, 0)} = {x2 (0, 1, 0, 0, 0)+x3 (0, 0, 1, 0, 0)} = [(0, 1, 0, 0, 0), (0, 0, 1, 0, 0)].

Analogamente, verificamos que

ker(A − I)2 = [(1, 0, 0, 0, 3), (0, 0, 0, 1, −2)].

Dessa forma, pelo Teorema 10.1 (ver soma direta), temos que

β = {(2, 0, 0, 3, 1), (0, 1, 0, 0, 0), (0, 0, 1, 0, 0), (1, 0, 0, 0, 3), (0, 0, 0, 1, −2)}

é uma base de R5 . Mostre que,


 
0 0 0 0 0
 
 0 0 −1 0 0 
 
[T ]β = 
 0 1 0 0 0 ,

 
 0 0 0 13 −9 
0 0 0 16 −11

137
onde à ! à !
0 −1 13 −9
(0), e
1 0 16 −11

são as matrizes de T restrito a ker A, ker(A2 + I) e ker(A − I)2 , respectivamente.

Exercı́cios de Fixação
1. Para as transformações lineares definidas pelas matrizes abaixo encontre bases para Wi
(ver Teorema 10.1) e a decomposição da matriz que representa T na base associada aos Wi0 s.
 
10 0 0 −7 1
 
 0 0 −1 0 0 
 
i)  0 1 0 0 0 ;

 
 13 0 0 −9 1 
4 0 0 −3 1
 
2 1 1 −4 4
 
 −1 0 −1 4 −4 
 
ii) 
 1 1 2 −3 4 ;

 
 0 0 0 1 0 
−2 −2 −2 1 −2
 
2 1 1 0 0
 
 −1 0 −1 0 0 
 
iii) 
 1 1 2 1 0 .

 
 0 0 0 1 0 
0 0 0 −1 2

10.2 Forma Canônica de Jordan

Caro aluno, nesta seção, mostraremos como encontrar a Forma Canônica de Jordan de uma
matriz utilizando os polinômios caracterı́stico e mı́nimo desta.

138
10.2.1 Definição de Forma Canônica de Jordan e Exemplos

Definição 10.2 (Bloco de Jordan). Seja A uma matriz quadrada de ordem n. Seja λ um
autovalor de A. A matriz quadrada de ordem r, onde r ≤ n,
 
λ 1 0 0 ··· 0
 
 0 λ 1 0 ··· 0 
 
 0 0 λ 1 ··· 0 
 
JA (λ) =  . 

 · · · · · · · · · · · · .. · · · 

 
 0 0 0 0 ··· 1 
0 0 0 0 ··· λ

é chamada bloco de Jordan de A associado ao autovalor λ.

Teorema 10.2 (Forma Canônica de Jordan). Seja A uma matriz quadrada de ordem n.
Sejam λ1 , λ2 , ..., λr autovalores distintos de A. Sejam

pA (x) = (x − λ1 )m1 · (x − λ2 )m2 · ... · (x − λr )mr e mA (x) = (x − λ1 )l1 · (x − λ2 )l2 · ... · (x − λr )lr

os polinômios caracterı́stico e mı́nimo de A, respectivamente. Então existe uma matriz dia-


gonal por blocos J, semelhante a A, chamada Forma Canônica de Jordan de A, onde na
diagonal estão os blocos de Jordan de A, tal que

i) existe pelo menos um bloco de Jordan JA (λi ) de ordem li , todos os outros têm ordem
menor ou igual a li ;

ii) A soma das ordens dos blocos de Jordan JA (λi ) é mi ;

iii) A quantidade dos blocos de Jordan JA (λi ) é a multiplicidade geométrica de λi , isto é,
dim ker(A − λi I);

iv) A quantidade dos blocos de Jordan J(λi ) de uma ordem qualquer é unicamente deter-
minda por A.

Exemplo 10.4. Seja  


2 1 1
 
 2 1 −2  .
−1 0 −2

139
Vimos no exemplo 9.4, que os polinômios caracterı́stico e mı́nimo de A são dados por

pA (x) = (x + 1)2 (x − 3) e mA (x) = (x + 1)2 (x − 3).

Asim, a diagonal da forma de Jordan é constituı́da dos números −1, −1 e 3. Como o


expoente do termo (x + 1)2 no polinômio mı́nimo é 2, então o primeiro (e único) bloco de
Jordan associado ao autovalor −1 de A é de ordem 2 (ver Teorema 10.2) e é dado por
à !
−1 1
JA (−1) = .
0 −1

Analogamente, como o expoente do termo (x − 3) é 1 então o primeiro (e único) bloco de


Jordan associado ao autovalotr 3 é de ordem 1 (ver Teorema 10.2) e é dado por
³ ´
JA (3) = 3 .

Portanto, a Forma canônica de Jordan para A é


 
−1 1 0
 
J =  0 −1 0  .
0 0 3

Exemplo 10.5. Seja  


2 1 1
 
A =  −2 −1 −2  .
1 1 2
No exemplo 9.5, vimos que os polinômios caracterı́stico e mı́nimo de A são dados por

pA (x) = (x − 1)3 e mA (x) = (x − 1)2 .

Portanto, 1 é autovalor de A com multipliciade algébrica 3. Portanto a diagonal da Forma


canônica de Jordan é constituı́da de três elementos iguais a 1. Note que o expoente do termo
(x − 1)2 no polinômio mı́nimo é 2, então o primeiro bloco de Jordan associado ao autovalor
1 de A é de ordem 2 (ver Teorema 10.2) e tem a seguinte representação
à !
1 1
JA (1) = .
0 1

140
O outro bloco de Jordan de A associado ao autovalor 1 deve ter ordem menor ou igual a 2
(ver Teorema 10.2). Mas, não pode acontecer de ser 2, caso contrário, a ordem da matriz
Forma Canônica de Jordan de A, J, seria 4. Isto é um absurdo (a matriz J tem ordem 3).
Portanto, este último bloco tem ordem 1. Por fim, a Forma canônica de Jordan para A é
 
1 1 0
 
J =  0 1 0 .
0 0 1

Exemplo 10.6. Seja  


−1 1 −1 −3 −1 7
 
 0 −1 1 2 3  2
 
 0 0 −1 0 −2  1
 
A= .
 0 0 0 −1 1 −2 
 
 0 0 0 0 −1 3 
 
0 0 0 0 0 −4
Verifique que os polinômios caracterı́stico e mı́nimo de A são dados por

pA (x) = (x + 1)5 (x + 4) e mA (x) = (x + 1)3 (x + 4).

Portanto, −4 e −1 são autovalores de A, este último com multipliciade algébrica 5. Portanto


a diagonal da Forma canônica de Jordan J de A é constituı́da de cinco elementos iguais a
−1 e um igual a −4. Olhe que o termo do polinômio mı́nimo (x + 4) tem expoente 1. Daı́,
só existe um (por que?) bloco de Jordan associado ao autovalor −4 de ordem 1. Por outro
lado, veja que o expoente do termo (x + 1)3 no polinômio mı́nimo é 3, então o primeiro bloco
de Jordan associado ao autovalor −1 de A é de ordem 3 (ver Teorema 10.2) e tem a seguinte
representação  
−1 1 0
 
JA (−1) =  0 −1 1  .
0 0 −1
Existem duas possibilidades para os outros blocos associados ao autovalor −1, já que estes
devem ter ordem menor ou igual a 3 (ver Teorema 10.2). Logo, podemos encontrar mais
dois blocos de ordem 1, ou seja,
³ ´ ³ ´
JA (−1) = −1 e JA (−1) = −1

141
ou podemos encontrar mais um bloco de dimensão dois, isto é,
à !
−1 1
JA (−1) = .
0 −1

Portanto, as possı́veis Formas Canônicas de Jordan para A são


   
−1 1 0 0 0 0 −1 1 0 0 0 0
   
 0 −1 1 0 0 0   0 −1 1 0 0 0 
   
 0 0 −1 0 0 0   0 0 −1 0 0 0 
   
  ou  .
 0 0 0 −1 0 0   0 0 0 −1 1 0 
   
 0 0 0 0 −1 0   0 0 0 0 −1 0 
   
0 0 0 0 0 −4 0 0 0 0 0 −4

Mas,
   
0 1 −1 −3 −1 7 0 1 −1 −3 −1 7
   
 0 0 1 2 3 2   0 0 1 2 3 2 
   
 0 0 0 0 −2 1   0 0 0 0 1 −2 
   
A+I =  ∼ 
 0 0 0 0 1 −2   1 
   0 0 0 0 −2 
 0 0 0 0 0 
3   1 
  0 0 0 0 0 
0 0 0 0 0 −3 0 0 0 0 0 1

   
0 1 −1 −3 −1 7 0 1 −1 −3 −1 7
   
 0 0 1 2 3 2   0 0 1 2 3 2 
   
 0 0 0 0 1 −2   0 0 0 0 1 −2 
   
∼  ∼ .
 0 0 0 0 0 −3   0 0 0 0 0 1 
   
 0 0 0 0 0 1   0 0 0 0 0 0 
   
0 0 0 0 0 0 0 0 0 0 0 0

Portanto, como existem duas linhas nulas no final destas congruências, então

dim ker(A + I) = 2.

Logo, só existem dois blocos de Jordan associados ao autovalor −1 (ver Teorema 10.2). Com

142
isso, a Forma Canônica de Jordan é dada por
 
−1 1 0 0 0 0
 
 0 −1 1 0 0  0
 
 0 0 −1 0 0  0
 
 ,
 0 0 0 −1 1  0
 
 0 0 0 0 −1 0 
 
0 0 0 0 0 −4

pois a outra Forma possı́vel tem três blocos de Jordan para o autovalor −1.

Exemplo 10.7. Seja A uma matriz tal que os polinômios caracterı́stico e mı́nimo são

pA (x) = (x − 2)3 (x − 5)2 e mA (x) = (x − 2)(x − 5).

Assim sendo, o termo (x − 2) tem expoente 1 no polinômio mı́nimo, então o primeiro bloco
de Jordan associado ao autovalor 2 tem ordem 1 (ver Teorema 10.2). Como os outros blocos
de Jordan associados a este mesmo autovalor tem ordem menor ou igual a 1 (ver Teorema
10.2), logo, temos três (ver Teorema 10.2) blocos associados ao autovalor 2 de ordem 1, ou
seja, três blocos da forma ³ ´
JA (2) = 2 .

Da mesma forma, obtemos três blocos de Jordam idênticos associados ao autovalor 5, isto é,
³ ´
JA (5) = 5 .

Com isso, a única Forma de Jordan possı́vel para A é


 
2 0 0 0 0
 
 0 2 0 0 0 
 
J =
 0 0 2 0 0 .

 
 0 0 0 5 0 
0 0 0 0 5

Obs 10.1. Note que a ordem de uma matriz é o grau do seu polinôimo caracterı́stico e não
o grau do polinômio mı́nimo.

143
Exercı́cios de Fixação
1. Considere a matriz  
0 2 1
 
A =  0 0 3 .
0 0 0
Determine a forma canônica de A.
2. Seja A uma matriz de ordem 5 com entradas reais, polinômios caracterı́stico e mı́nimo
pA (x) = (x − 2)3 (x + 7)2 e mA (x) = (x − 2)3 (x + 7), respectivamente. Determine a Forma
Canônica de Jordan de A.
3. Seja T : V → V um operador linear com polinômios caracterı́stico pT (x) = (x − 2)5 e
mı́nimo mT (x) = (x − 2)2 Determine as possı́veis Formas Canônicas de Jordan para T e a
dim V.
4. Seja T : V → V um operador linear com polinômio caracterı́stico pT (x) = (x − 2)5 . De-
termine as possı́veis Formas Canônicas de Jordan para T e a dim V. Em cada caso, determine
o polinômio mı́nimo de T.
5. Seja  
0 1 1
 
A =  1 0 1 .
1 1 0
Encontre A10 usando a Forma Canônica de Jordan.

10.3 Exercı́cios Propostos

Exercı́cios:

1. Seja T : V → V linear, onde V é um espaço vetorial com dimensão finita. Se pT (x) = (x−
4)2 (x+2)4 é o polinômio caracterı́stico de T , então quais as possibilidades para dim ker(T −4I)
e dim ker(T + 2I)?
2. Seja T : V → V linear com autovalores distintos λ1 e λ2 , onde V é um espaço vetorial com
dimensão finita 6. Se dim ker(T − λ1 I) = 3 e dim ker(T − λ2 I) = 1, quais as possibilidades
para os polinômios caracterı́stico e mı́nimo de T ?

144
3. Seja T : V → V um operador linear com polinômio caracterı́stico pT (x) = (x+2)4 (x−1)2 .
Determine as possı́veis Formas Canônicas de Jordan para T e encontre a dim V.
4. Para as transformações lineares definidas pelas matrizes abaixo encontre o polinômio
caracterı́stico, o polinômio mı́nimo bases para Wi (ver Teorema 10.1) e a decomposição da
matriz que representa T na base associada aos Wi0 s.
 
14 8 −1 −6 2
 
 −12 −4 2 8 −1 
 
i)  8 −2 0 −9 0 ;

 
 8 8 0 0 2 
−8 −4 0 4 0
 
0 2 −6 −6 2
 
 1 −2 0 0 2 
 
ii) 
 1 0 −3 −3 2 ;

 
 1 −2 −1 −1 2 
1 −4 −3 −3 4
 
2 −1 −2 −1 −2
 
 0 3 2 1 2 
 
iii) 
 −2 −1 0 1 −2  .
 
 −2 −3 −2 1 −2 
0 −1 0 1 0

145
Referências Bibliográficas

[1] BUENO, H. P., Álgebra Linear - Um Segundo Curso, Primeira Edição, Rio de Janeiro,
SBM, 2006.

[2] CALLIOLI, C. A., DOMINGUES, H. H.,COSTA, R. C. F. Álgebra Linear e


Aplicações, Sexta Edição, São Paulo, Editora Atual, 1995.

[3] COELHO, F. O., LOURENÇO, M. L., Um Curso de Álgebra Linear, Edição 2001,
São Paulo, EdusP, 2004.

[4] HOFFMAN, K., KUNZE, R., Linear Algebra, Second Edition, New Jersey, Prentice-
Hall, Inc., Englewood Cliffs, 1971.

[5] LANG, S., Álgebra Linear, Primeira Edição, New York, Ed. ciência Moderna, 2003.

[6] LIPSCHUTZ, S., Álgebra Linear, Terceira Edição, São Paulo, Schaum McGraw-Hill
Makron Books, 1994.

[7] SILVA, A., Introdução à Álgebra, Primeira Edição, Editora Universitária UFPB, João
Pessoa, 2007.

Professores Revisores

Professores Paulo de Souza Rabelo e Wilberclay Gonçalves Melo.

146

Você também pode gostar