Synthèse D'algèbre (Théories + Exemples D'applications)
Synthèse D'algèbre (Théories + Exemples D'applications)
Synthèse D'algèbre (Théories + Exemples D'applications)
Algèbre
Synthèse
2018 - 2020
– Lisez-moi –
— Gardez toujours à l’esprit que cette synthèse n’a pas été rédigé par
génie mathématique (malheureusement).
Ce qui signifie que si une chose, dite en cours et/ou aux TPs, est
contraire à ce que dit cette synthèse ; c’est l’explication du cours/TP
qui prime (dans ce cours ci en tout cas).
2 Notions fondamentales 2
2.1 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2.1.1 Matrices Complètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2.2 Système Homogène . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2.3 Types de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2.4 Opérations élémentaires sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.5 Échelonnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.5.1 Forme Réduite de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.6 Addition de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.6.1 Somme directe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.7 Multiplication de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.8 Transposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.9 Inversion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.9.1 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.9.1.1 Pour inverser une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.10 Matrices élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.11 Matrices carrées régulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.12 Autres concepts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
I
6 Règle de Cramer 11
6.1 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
6.1.1 Pour trouver les inconnues des systèmes d’ordre 2 avec Cramer . . . . . . . . . . . 12
6.1.2 Pour trouver les inconnues des systèmes d’ordre 3 avec Cramer . . . . . . . . . . . 13
II Espaces vectoriels 14
1 Espaces vectoriels (ev) 14
1.1 Vecteur nul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2 Combinaisons linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.1 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.1.1 Pour trouver les scalaires d’une expression de plusieurs vecteurs . . . . . 15
3 Bases 17
3.1 Réflexions utiles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.2 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2.1 Pour déterminer si une suite est génératrice . . . . . . . . . . . . . . . . . . . . . . 18
3.2.2 Pour déterminer si une suite est libre . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2.3 Distinctions pratiques entre « générateur » et « libre » . . . . . . . . . . . . . . . . 18
3.2.4 Pour trouver une base du sev d’un ensemble de solutions d’une équation . . . . . . 19
4 Dimension 19
4.1 Notions fondamentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.2 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.2.1 Pour calculer les dimensions de deux espaces . . . . . . . . . . . . . . . . . . . . . 20
II
IV Espaces euclidiens 27
1 Produits scalaires 27
1.1 Normes et distances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2 Bases 28
2.1 Bases orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2 Bases orthonormées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.1 Pour déterminer si une base d’un ev est orthogonale . . . . . . . . . . . . . . . . . 29
2.3.2 Pour déterminer si une base d’un ev est orthonormée . . . . . . . . . . . . . . . . 29
2.3.3 Pour calculer une base orthonormée d’un sev . . . . . . . . . . . . . . . . . . . . . 30
3 Projections orthogonales 30
3.1 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.1.1 Pour déterminer la projection d’un point sur un sev grâce au produit scalaire . . . 31
3.1.2 Pour déterminer la distance entre un point et sa projection . . . . . . . . . . . . . 32
4 Algorithme de Gram-Schmidt 32
4.1 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.1.1 Pour construire une base orthogonale à partir d’une base quelconque avec Gram-
Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
V Opérateurs linéaires 33
1 Notions fondamentales 33
1.1 Valeurs propres et vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.2 Espaces propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.3 Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.4 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.4.1 Pour déterminer le polynôme caractéristique à partir d’une matrice . . . . . . . . . 34
1.4.2 Pour déterminer les valeurs propres et vecteurs propres d’une matrice . . . . . . . 34
1.4.3 Pour déterminer si une matrice est inversible en connaissant ses valeurs propres . 36
2 Diagonalisation 36
2.1 Multiplicités des valeurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.2 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.2.1 Pour vérifier si une matrice est diagonalisable dans Rn . . . . . . . . . . . . . . . 37
2.2.2 Pour exprimer une matrice diagonalisable A sous la forme P · D · P −1 . . . . . . . 38
III
SYSTÈMES LINÉAIRES, MATRICES ET DÉTERMINANTS ALGÈBRE
Première partie
Systèmes linéaires, matrices et
déterminants
1 Rappels
1.1 Système Trivial
En mathématiques, on qualifie de trivial un énoncé dont on juge la vérité évidente à la lecture, ou
encore un objet mathématique dont on estime que l’existence va de soi et que son étude n’a pas d’intérêt :
Exemple : x = y est un système trivial.
p(1) = −1 − 3 + 4
= 0
— En bas, l’addition (en mauve) des termes et la multiplication d’horner avec les solutions trouvées
(en rouge) ainsi que le report de ces valeurs sur la section suivante (en rouge flèché).
p(λ) = (λ − 1).(−λ2 − 4λ − 4)
= −(λ − 1).(λ2 + 4λ + 4)
= −(λ − 1).(λ + 2)2
1
SYSTÈMES LINÉAIRES, MATRICES ET DÉTERMINANTS ALGÈBRE
2 Notions fondamentales
2.1 Matrices
La matrice représente un système d’équation de ce style :
a11 x1 + · · · + a1n xn =
b1
..
.
am1 x1 + · · · + amn xn =
bm
en un tableau à m lignes et n colonnes où chaque ligne correspond à une équation du système. Nous
avons :
a11 · · · a1n
.. ..
. .
am1 ··· amn
qui représente la matrice des coefficients du système, et
b1
..
.
bm
qui représente la colonne des termes indépendants.
Ce tableau est appelée matrice complète du système car l’on a ajouté à la matrice des coefficients du
système, la colonne des termes indépendants (b1 , · · · , bm ).
a11 x1 + · · · + a1n xn = 0
..
.
am1 x1 + · · · + amn xn = 0
— Les matrices qui n’ont qu’une seule ligne sont appelées matrices lignes.
— Les matrices qui n’ont qu’une seule colonne sont appelées matrices colonnes.
— Les matrices dont le nombre de lignes = nombre de colonnes sont appelées matrices carrées
(noté A ∈ Kn×n où n est le nombre de lignes/colonnes).
2
SYSTÈMES LINÉAIRES, MATRICES ET DÉTERMINANTS ALGÈBRE
— L’ordre d’une matrice carrée est le nombre de ses lignes ou de ses colonnes.
— La diagonale principale d’une matrice carrée est formée des entrées dont les indices sont
égaux :
1 0 5 8
2 1 7 6
Exemple :
7
Où les 1 représentent la diagonale principale.
8 1 0
0 9 4 1
— Une matrice diagonale est une matrice carrée dont toutes les entrées, hors de la diagonale
principale,
sont nulles :
1 0 0 0
0 5 0 0
Exemple : 0 0 2 0
0 0 0 8
— La matrice nulle est la matrice où toutes les entrées sont nulles.
— La
matrice unité (ou matrice identité) est représenté comme suit :
1 0 0 0
0 1 0 0
0 0 1 0 Où les 1 représentent la diagonale principale.
0 0 0 1
Elle est défini par :
In = (δij )1≥i,j≥n
où
0 si i 6= j
δij =
1 si i = j
La fonction δij ainsi définie est appelée symbole de Kronecker.
— Une matrice triangulaire supérieure (resp. inférieure) est une matrice carrée dont les valeurs
sous (resp.
au-dessus) la
diagonale principale sont nulles :
1 9 1 3
0 5 2 7
Exemple : 0 0 2 4
0 0 0 8
— Une matrice symétrique est une matrice qui est égale à sa transposée, c’est-à-dire :
At = A.
— Une matrice élémentaire (voir sous-section 2.10)
— Une matrice orthogonale est une matrice unitaire inversible, à coefficients dans R, où son inverse
est égal à sa transposée, c’est-à-dire :
A ∈ Rn×n , A−1 = At
— Une matrice de plein rang est une matrice carrée où son nombre de lignes est égal à son rang.
I. Dans un système d’équations, on peut remplacer une des équations par la somme de celle-ci et
d’une multiplication d’une autre équation du système sans modifier l’ensemble des solutions.
II. Dans un système d’équations, on peut échanger deux équations sans modifier l’ensemble des
solutions.
III. Dans un système d’équations, on peut multiplier les deux membres d’une équations par un élément
3
SYSTÈMES LINÉAIRES, MATRICES ET DÉTERMINANTS ALGÈBRE
2.5 Échelonnement
Une matrice ayant comme propriétés :
— Un nombre d’entrées nulles au début de chaque ligne (sauf éventuellement la 1ère),
— qui augmente à chaque ligne,
— avec une augmentation stricte (d’une différence de 1) pour les lignes avant une ligne non-nulle ;
est appelée matrice à ligne échelonnées.
Dans une ligne non nulle, la première entrée non nulle est appelée pivot de la ligne. Ainsi, une matrice
à lignes échelonnées prend cette forme :
0 1 2 3 4 5
0 0 0 6 7 8
(aij ) 1 ≥ i ≥ 5 = 0 0 0 0 9 10
0 0 0 0 0 0
1≥j≥6
0 0 0 0 0 0
Les pivots ici sont a12 = 1, a24 = 6 et a35 = 9.
En revanche, la matrice suivante n’est pas à ligne échelonnées :
0 0 1 2
0 0 0 3
0 0 0 4
0 0 0 0
···
La résolution se
fait comme
suit:
1 3 0 0
Si A = 1 0 et B = 7 5
1 2 2 1
Alors,
1+0 3+0 1 3
A . B = 1 + 7 0 + 5 = 8 5
1+2 2+1 3 3
4
SYSTÈMES LINÉAIRES, MATRICES ET DÉTERMINANTS ALGÈBRE
0 0
a11 ··· a1n ···
.. .. .. ..
. ··· . . ··· .
0 0
am1 ··· amn ···
A B=
L
0 0
··· b11 ··· b1q
. .. .. ..
.. ··· . . ··· .
0 ··· 0 bp1 ··· bpq
Exemple :
1 3 2 0 0
1 3 2 L 1 6 2 3 1 0 0
=
2 3 1 8 1 0 0 0 1 6
0 0 0 8 1
La résolution se
fait comme
suit
:
0 1 0 1
Si A = et B =
0 0 0 0
Alors,
(0.0 + 1.0) (0.1 + 1.0) 0 0
A.B= =
(0.0 + 0.0) (0.1 + 0.0) 0 0
PS : Le produit des matrices N’EST PAS commutatif : AB 6= BA
————————————————————————————————–
La mutiplication matricielle peut s’écrire plus simplement. En effet, le système linéaire de m équations à n
inconnues :
a11 x1 + · · · + a1n xn = b1
..
.
am1 x1 + · · · + amn xn = bm
xn
b1
b = ... est la matrice-colonne des termes indépendants.
bm
2.8 Transposition
La matrice At est appelée transposée de la matrice A ; elle est obtenue en écrivant en colonnes les
lignes de A et vice-versa [ou en effectuant une symétrie orthogonale sur la diagonale principale de la
matrice] :
5
SYSTÈMES LINÉAIRES, MATRICES ET DÉTERMINANTS ALGÈBRE
1 2 3 4
5 6 7 8
Si A =
9
;
10 11 12
13 14 15 16
1 5 9 13
2 6 10 14
Alors, la matrice transposée At =
3 7 11 15
4 8 12 16
2.9 Inversion
Une matrice A ∈ Km×n est dite inversible à gauche (resp. à droite) s’il existe une matrice B ∈ Kn×m
telle que B · A = In (resp. A · B = Im ).
Toute matrice B satisfaisant ces deux conditions (inversible à gauche ET à droite) est appelée : inverse de
A.
De plus, toute matrice-ligne (resp. matrice-colonne) non nulle est inversible à droite (resp. à gauche).
b1
.
a1 · · · an . .. = I1
bn
NB :
— Une matrice est inversible ssi son déterminant est 6= de 0.
— Pour qu’une matrice soit inversible à gauche et à droite, il faut nécéssairement qu’elle
soit carrée.
2.9.1 En Pratique
2.9.1.1 Pour inverser une matrice
Une manière d’inverser une matrice P ∈ R2×2 est de former une matrice R2×4 en combinant la matrice
P et la matrice unité (les dimensions doivent correspondre) comme ceci :
1 1 1 0
0 1 0 1
Ensuite, on applique aux deux parties les mêmes opérations élémentaires afin de ramener la partie gauche
à la forme réduite de Gauss-Jordan. Si la partie à gauche correspond à la matrice unitaire, alors la matrice
est inversible, sinon elle ne l’est pas.
OU
On peut aussi trouver l’inverse de toute matrice carrée régulière (voir sous-section 2.11) grâce à la formule :
A−1 = (det(A))−1 . (cof (A))t (voir section 4)
6
SYSTÈMES LINÉAIRES, MATRICES ET DÉTERMINANTS ALGÈBRE
où l’entrée λ est non nulle et d’indice i,j avec i 6= j, les autres entrées hors de la diagonale principale étant
nulles.
det A 6= 0.
Si une matrice carrée satisfait les conditions équivalentes :
a) A est inversible (à gauche et à droite) ;
b) A est un produit de matrices élémentaires ;
c) Toute matrice U sous forme réduite de Gauss-Jordan obtenue en effectuant des opérations élémen-
taires sur les lignes de A est la matrice unité In ;
d) La matrice In peut être obtenue en effectuant des opérations élémentaires sur les lignes de A ;
e) Le système homogène A . X = 0 n’admet que la solution triviale ;
f) Pour tout b ∈ Kn , le système A. X = b admet une et une seule solution.
Alors cette matrice carrée est qualifiée de régulière (ou d’inversible). Les matrices non régulières sont
appelées singulières.
— La trace d’une matrice carrée A, noté Tr(A), est définie comme la somme des coefficients
présents sur ladiagonaleprincipale de A.
3 3 4
Ainsi, si A = 1 2 0, alors Tr(A) = 3 + 2 + 7 = 12
0 1 7
7
SYSTÈMES LINÉAIRES, MATRICES ET DÉTERMINANTS ALGÈBRE
t
a b a b
4. det = det
c d c d
c d a b
5. det = cb − ad = − det
a b c d
3.2 En Pratique
3.2.1 Pour trouver le déterminant des matrices carrées d’ordres 1 et 2
Pour les matrices d’ordres 1 ou 2, cela est facile. On pose :
8
SYSTÈMES LINÉAIRES, MATRICES ET DÉTERMINANTS ALGÈBRE
— Enfin, tous les éléments de chaque diagonale doivent être ensuite multipliés entre eux.
— Comme la matrice est d’ordre 3 dans ce cas, il doit y avoir 3 éléments dans chaque diagonale prise.
Si la diagonale n’est pas complète, il faut reprendre le terme opposé qui va compléter la diagonale.
Pour les matrices d’ordres 2, 3, 4,... ; la définition est légèrement plus complexe :
1. Fixons un entier n ≥ 2.
2. Supposons avoir défini le déterminant des matrices d’ordre n − 1.
—————————————————————
— Soit A ∈ Kn×n une matrice carrée d’ordre n.
— Pour i, j = 1, · · · , n, on note Aij la matrice d’ordre n − 1 qui a été obtenue en supprimant la
i-ème ligne et la j-ème colonne de A.
Pour k = 1, · · · , n, on pose :
Pn
δk (A) = l=1 (−1)
l+k
alk . det(Alk ).
3.4.1 En Pratique
3.4.1.1 Pour trouver un lien entre le déterminant d’une matrice et de sa
sous-matrice
Dans le cas général, pour n et c1 , · · · , cn quelconques :
— Établir un lien entre det An−1 et detAn ⇔
cn cn−1 cn−2 ··· c1
cn−1 cn−1
cn−2 ··· c1
An = cn−2 cn−2
cn−2 ··· c1
.. .. .. .. ..
. . . . .
c1 c1 c1 ··· c1
On observe que
cn−1 cn−2 ··· c1
cn−2 cn−2 ··· c1
An−1 = . .. .. ..
.. . . .
c1 c1 · · · c1
Alors, l’on prend la colonne 1 (c1 ) et on la soustrait par la colonne 2 (c2 ) :
9
SYSTÈMES LINÉAIRES, MATRICES ET DÉTERMINANTS ALGÈBRE
cn − cn−1 cn−1 cn−2 ··· c1
0 cn−1 cn−2 ··· c1
0
An =
cn−2 cn−2 ··· c1
.. .. .. .. ..
. . . . .
0 c1 c1 · · · c1
⇔ On peut donc déterminer que, sur la colonne 1,
det An = (cn − cn−1 ) · det An−1 .
La matrice
cof(A) = ((−1)i+j . det(Aij )1≥i,j≥n
est appelée matrice des cofacteurs (ou comatrice) de A.
Exemple :
−1
1
a b d −b
= · ;
c d ad − bc −c a
•
ad − bc est
le déterminant,
d −b
• est la comatrice transposée.
−c a
4.1 En Pratique
4.1.1 Pour calculer les comatrices des matrices 1×1
La comatrice de toute matrice de taille (1,1) est la matrice identité I1 = (1).
Enfin, il suffit de :
(1) Trouver le déterminant de chaques sous-matrices
(2) Appliquer les signes aux valeurs trouvées en (1)
Pour trouver la comatrice.
10
SYSTÈMES LINÉAIRES, MATRICES ET DÉTERMINANTS ALGÈBRE
5.1 En Pratique
Cette sous-section fait appel à des notions abordées dans la deuxième partie sur les espaces
vectoriels ! ! !
(1) : En appliquant des opération élémentaires sur la matrice, l’on obtient la matrice échelonnée :
1 0 2 3
0 1 1 0
A= 0 0 0 0
0 0 0 0
Ainsi, le rang correspond au nombre de ses lignes qui sont non nulles, c’est-à-dire de rang 2 .
6 Règle de Cramer
Le système de n équations à n inconnues, de forme générale :
a11 x1 + a12 x2 + · · · + a1n xn =
λ1
a21 x1 + a22 x2 + · · · + a2n xn =
λ2
..
.
an1 x1 + an2 x2 + · · · + ann xn =
λn
11
SYSTÈMES LINÉAIRES, MATRICES ET DÉTERMINANTS ALGÈBRE
Un système carré (i.e. avec autant d’équations que d’inconnues) est dit de Cramer si le détermi-
nant de sa matrice est non nul.
Lorsque le système (toujours carré) n’est pas de Cramer (i.e. lorsque le déterminant de A est nul) :
– Si le déterminant d’une des matrices Ak est non nul, alors le système n’a pas de solution ;
– La réciproque est fausse : il peut arriver que le système n’ait pas de solution bien que les déterminants
det(Ak ) soient tous nuls. Un exemple en est donné par :
x+y+z =1
x+y+z =2
x+y+z =3
6.1 En Pratique
6.1.1 Pour trouver les inconnues des systèmes d’ordre 2 avec Cramer
Si ad − bc 6= 0, le système
ax + by = e
cx + dx = f
a pour unique solution :
e b a e
f d ed − bf c f af − ec
x= = , y= = .
a b ad − bc a b ad − bc
c d c d
Exemple numérique :
24.3 − 16.2 40
4x + 2y = 24 x= = =5
8 8
⇔
2x + 3y = 16 4.16 − 2.24 16
y= = =2
8 8
12
SYSTÈMES LINÉAIRES, MATRICES ET DÉTERMINANTS ALGÈBRE
6.1.2 Pour trouver les inconnues des systèmes d’ordre 3 avec Cramer
a1 x1 + b1 x2 + c1 x3 = d1
a2 x1 + b2 x2 + c2 x3 = d2
a3 x1 + b3 x2 + c3 x3 = d3
Posons :
a1 b1 c1 x1 d1
A = a2 b2 c2 , X = x2 et Λ = d2 .
a3 b3 c3 x3 d3
a1 d 1 c1
a2 d 2 c2
det(A2 ) a3 d 3 c3
x2 = =
det(A) det(A)
a1 b1 d1
a2 b2 d2
det(A3 ) a3 b3 d3
x3 = =
det(A) det(A)
Ou plus simplement :
det(A1 )
x1
1
X = x2 = . det(A2 ).
det(A)
x3 det(A3 )
– Pour que le système n’admette aucune solution, il suffit que :
13
ESPACES VECTORIELS ALGÈBRE
Deuxième partie
Espaces vectoriels
1 Espaces vectoriels (ev)
Soit K un corps (commutatif),
Soit E un ensemble muni de deux lois de composition :
+ : E × E −→ E
(x, y) 7−→ x + y
· : E × K −→ E
(x, α) 7−→ xα
On dit que E est un espace vectoriel sur K si les conditions suivantes sont satisfaites :
A) E est un groupe commutatif pour +.
B) Pour x, y ∈ E et α, β ∈ K,
x(α + β) = xα + xβ
(x + y)α = xα + yα
x(αβ) = (xα)β
x.1 = x
—————————————————————
— Les éléments de E sont alors appelés vecteurs,
— Les éléments de K sont appelés scalaires
• Les scalaires sont le plus souvent des nombres réels ou, plus généralement, des nombres complexes.
On parle alors d’espace vectoriel réel ou complexe, respectivement.
NB : Le résultat de la multiplication d’un vecteur x et d’un scalaire α est conventionnellement noté xα,
même si l’on peut aussi l’écrire αx.
14
ESPACES VECTORIELS ALGÈBRE
Exemple :
*Valable aussi pour les fonctions, les polynômes, les matrices et les droites sur un plan.
1.2.1 En Pratique
1.2.1.1 Pour trouver les scalaires d’une expression de plusieurs vecteurs
Pour trouver les valeurs de α1 , α2 , α3 ∈ R dans une expression du type
w = α1 · v1 + α2 · v2 + α3 · v3 ,
et dans le cas où :
1 1 1
−1
v1 = 1 , v2 = 1 , v3 = 0 , w = 0 ;
1 1 −1 0
Il suffit de :
(1) Assembler v1 , v2 et v3 en une matrice et d’y ajouter w en tant que colonne des termes indépendants.
(2) Simplifier la matrice principale en une matrice de Gauss-Jordan, grâce aux opérations élémentaires,
pour trouver les valeurs de α1 , α2 et de α3 .
Si nous suivons cette démarche, nous avons alors :
1 −1 1 1 1 0 0 1
2
1 1 0 0 = 0 1 0 −1
2
1 1 −1 0 0 0 1 0
Ce qui nous donne comme solution :
S = {α1 , α2 , α3 | 21 , −1
2 , 0}
NB : Lors de l’assemblage des vecteurs v en une matrice A, il est préférable de mettre les éléments
x des vecteurs v sur les colonnes de la matrice, c’est-à-dire
x11 x21 x31
A = (v1 v2 v3 ) = (x1∗ x2∗ x3∗ ) = x12 x22 x32
x13 x23 x33
De manière équivalente, un sous-espace vectoriel de E est une partie non vide de E qui est stable
par combinaison linéaires :
Pour v1 , · · · , vn ∈ V ,
Pour α1 , · · · , αn ∈ K,
15
ESPACES VECTORIELS ALGÈBRE
v1 α1 + · · · + vn αn ∈ V .
De plus, une vérification directe montre que tout sous-espace vectoriel est lui-même un espace vectoriel.
Exemple :
– L’ensemble des solutions d’un système de m équations linéaires homogènes à n inconnues est un
sous-espace vectoriel de Kn .
*Valable aussi pour les fonctions, les polynômes, les droites sur un plan et les matrices.
B. Somme :
Si V1 , · · · , Vn sont les sev d’un ev E, on définit la somme de V1 , · · · , Vn par :
V1 + · · · + Vn = {v1 + · · · + vn | v1 ∈ V1 , · · · , vn ∈ Vn }
Une vérification directe montre que cet ensemble est un sev de E.
Pour v1 ∈ V1 , · · · , vn ∈ Vn ,
v1 + · · · + vn = 0 ⇒ v1 = · · · = vn = 0
C’est-à-dire qu’il n’y a pas de combinaisons linéaires entre les vecteurs.
La somme V1 + · · · + Vn est alors notée V1 ⊕ · · · ⊕ Vn .
Il est le plus petit sev de E contenant v1 , · · · , vn , puisque tout sev qui contient v1 , · · · , vn contient
aussi les combinaisons linéaires de ces vecteurs.
En résumé, un sous-espace vectoriel engendré n’a pas de combinaison linéaire entre ses vecteurs v1 , · · · , vn .
2.4 En Pratique
2.4.1 Pour prouver qu’un ensemble quelconque est un sev
Il faut vérifier si l’ensemble quelconque possède les caractéristiques d’un sev (voir plus haut) :
16
ESPACES VECTORIELS ALGÈBRE
Il suffit de montrer qu’il est possible d’écrire les vecteurs d’un des deux sev comme combinaison li-
néaire des vecteurs de l’autre sev.
L’on remarque dans notre exemple que
w1 = 2v1 − v2
w2 = v1 + 3v2
Ainsi, tout les éléments de E peuvent s’écrire comme une combinaison linéaire des vecteurs générateurs de
F et inversément.
Cela prouve que E = F .
3 Bases
Soit e = (e1 , · · · , en ) une suite de vecteurs d’un ev E sur un corps K.
• On dit que la suite e est libre (ou que les vecteurs e1 , · · · , en sont linéairement indépendants) ssi il
n’y a pas de combinaisons linéaires possible entre les différents éléments de la suite e.
Pour convention, la suite vide () est aussi considérée comme libre, et on convient que le sev engendré
par cette suite est {0} (qui est en effet le plus petit de tous les sev).
• On dit que la suite e est une suite génératice de E si le sev engendré par les vecteurs de cette suite
génère l’espace E dans son ensemble :
sevhv1 , · · · , vn i = E,
ce qui revient à dire que, si n est le nombre d’éléments dans la suite e et que
— n < dim(E) ⇒ e ne sera jamais génératrice de E.
— n = dim(E) ⇒ si e est libre, alors e sera génératrice.
— n > dim(E) ⇒ e n’est initialement pas libre. Après avoir rendu la suite libre, si n = dim(E),
alors la suite e sera génératrice mais pas libre (car l’on reprend sa forme initiale).
• Enfin, on dit que la suite e est une base de E si elle est à la fois libre et génératrice.
Pour convention, la suite vide () est une base de l’espace nul {0}.
NB : Si e1 est une base de E1 et e2 est une base de E2 , où E1 , E2 ∈ E, alors, l’extension (pas l’ad-
dition) de la base e1 avec e2 forme une base de E.
17
ESPACES VECTORIELS ALGÈBRE
3.2 En Pratique
3.2.1 Pour déterminer si une suite est génératrice
Montrer que tout vecteur v = (x, y) ∈ R2 peut s’écrire comme une combinaison linéaire des vecteurs
u1 = (1, 1) et u2 = (−1, 1) :
!
1 −1 x 1 0 (x+y)
⇔ 2
1 1 y 0 1 (y−x)
2
Contre-exemple :
Montrer que u1 = (1, 2, 3), u2 = (−1, −1, 1) et u3 = (1, 3, 7) sont linéairement indépendants :
1 −1 1 0 1 0 2 0
2 −1 3 0 ⇔ 0 1 1 0
3 1 7 0 0 0 0 0
Les trois vecteurs ne sont pas linéairement indépendant car :
Le troisième vecteur est combinaison linéaire des deux premiers,
DONC qu’il est devenu un vecteur nul,
ET DONC qu’il n’y a que deux pivots sur une matrice à trois vecteurs.
18
ESPACES VECTORIELS ALGÈBRE
3.2.4 Pour trouver une base du sev d’un ensemble de solutions d’une équa-
tion
On considère le système homogène Ax = 0 de 5 équations à 4 inconnues où
2 3 4
−5
1 x1
4 3 −4
A= 1 1 x2
∈ R , x = x3 ∈ R .
5×4
4
−1 −1
−2 2 −2 2
x4
0 5 2 −3
Pour trouver une base du sev des solution de Ax = 0, il faut :
1. Échelonner la matrice A :
1 1 −1
−1
0 5 2 −3
0 0 0 0
A⇒
0 0 0 0
0 0 0 0
Nous pouvons déjà affirmer que le rang A = 2.
2. Déterminer quelles sont les variables libres et leurs attribuer des valeurs réelles :
Dans notre cas, les variables libres sont x3 et x4 car ce sont les seules valeurs qui ne sont pas des
pivots dans notre matrice échelonnée (contrairement à x1 et x2 ).
Ainsi, nous pouvons attribuer à x3 et à x4 des valeurs réelles pour trouver une base de deux vecteurs
(car deux variables libres) précis de l’ensemble des solutions.
On choisira donc que
— Pour le vecteur 1 ⇒ x3 = 1 et x4 = 0
— Pour la vecteur 2 ⇒ x3 = 0 et x4 = 1
3. Trouver les valeurs des variables non-libres :
x1 − x2 + x3 = 0
− x4
5x2 + 2x3 − 3x4 = 0
On remplace x3 et x4 par les valeurs choisies au point précédent et on isole les variables non-libres :
— Vecteur 1 :
x1 − x2 + 1 = 0 x1 = −7
⇔ 5
5x2 + 2 = 0 x2 = −2 5
— Vecteur 2 :
x1 − x2 − 1 = 0 x1 = 58
⇔
5x2 − 3 = 0 x2 = 35
4. Écrire l’ensemble de solution :
S = sev < (( −7
5 , 5 , 1, 0), ( 5 , 5 , 0, 1)) >
−2 8 3
4 Dimension
4.1 Notions fondamentales
La dimension d’un ev finiment engendré est le nombre d’élément d’une base quelconque.
Théorème Toutes les bases d’un espace vectoriel finiment engendré ont le même nombre d’éléments.
19
ESPACES VECTORIELS ALGÈBRE
4.2 En Pratique
4.2.1 Pour calculer les dimensions de deux espaces
On considère, dans R4 les vecteurs :
v1 = (1, 2, 3, 4), v2 = (1, 1, 1, 3), v3 = (2, 1, 1, 1), v4 = (−1, 0, −1, 2), v5 = (2, 3, 0, 1).
Soit F , l’ev engendré par {v1 , v2 , v3 },
Soit G, l’ev engendré par {v4 , v5 },
4 3 1 2 1 4 3 1 2 1 0 0 0 1 11 2
On obtient donc une matrice d’ordre 4, ainsi dim(F + G) = 4.
NB : Comme le but est de trouver le nombre de pivots, il n’y a pas besoin de mettre la matrice
F + G sous forme réduite de Gauss-Jordan, la forme échelonnée suffit.
am1 · · · amn
l’on décompose par ligne :
a1∗
A = ...
am∗
20
ESPACES VECTORIELS ALGÈBRE
et par colonnes :
A = (a∗1 a∗n .
···
Définition On appelle rang d’une matrice A ∈ Km×n la dimension du sev C(A) de Km engendré par
les n colonnes de A ou, ce qui revient au même d’après le théorème précédent, la dimension du sev L(A)
de Kn engendré par les lignes de A.
Grâce à cette définition, l’on détermine que
rang A ≤ min(m, n)
rang A = rang At .
L’on remarque que si rang A = n alors les lignes de A forment une suite génératrice de Kn , et récipro-
quement.
5.1 En Pratique
5.1.1 Pour trouver la dimension de l’espace annulateur d’une matrice
1 2 0 3
Nous avons A = 0 1 0 1
1 −1 1 1
— Trouver le rang de la matrice A :
1 0 0 1
A = 0 1 0 1 ⇒ rang(A) = 3
0 0 1 1
— Trouver la dimension de l’espace annulateur de A :
Pour trouver cela, il faut soustraire le nombre de colonnes d’une matrice n × m par son
rang. Ainsi, nous avons
m − rang(A) = dimension espace annulateur de A
4 − 3 = 1
Dès lors, la dimension de l’espace annulateur de A vaut 1.
21
APPLICATIONS LINÉAIRES ALGÈBRE
Troisième partie
Applications linéaires
1 Notions fondamentales
Définition Soient E et F , deux ev sur un même corps K. Un application A : E → F est dite linéaire
si les conditions suivantes sont satisfaites :
1. A(x + y) = A(x) + A(y) pour x, y ∈ E.
2. A(xα) = A(x)α pour x ∈ E et α ∈ K.
pour x, y ∈ E et α, β ∈ K.
———–
A(X) = b
où A : E → F est une application linéaire entre deux ev E et F , et b ∈ F .
⇒ Résoudre cette équation consiste à trouver tous les vecteurs x ∈ E qui sont envoyés sur b par A.
1.1 En Pratique
1.1.1 Pour vérifier si une application est linéaire
Nous avons : L : R2 → R3 , (x, y) 7→ (x + y, x − 2y, 0).
(x, y) ∈ R2
(u, v) ∈ R2
22
APPLICATIONS LINÉAIRES ALGÈBRE
Im A = {A(x) ∈ F | x ∈ E}
ou, de manière équivalente, par :
Im A = {y ∈ F | ∃x ∈ E tel que A(x) = y}.
⇒ Pour vérifier que 0 ∈ Ker A, càd que A(0) = 0 ; il faut remplacer α par 0 dans la relation A(xα) = A(x)α.
La dimension du noyau (dim Ker) équivaut au nombre de paramètre dans la solution du système
d’équation A(x) = 0 (au sens vectoriel [x et 0 sont des vecteurs])
dim Im A + dim Ker A = dim E
(voir Rang et Nullité).
1.2.2 En Pratique
L : R[x]62 → R2 : P (x) 7→ L(P (x)) = [P (0), P 0 (0) + P 00 (0)]
23
APPLICATIONS LINÉAIRES ALGÈBRE
— Ainsi, Ker L = sev <(1, -2, 0)> où (1, -2, 0) est une base de Ker L
— Et donc null L = 1 (car il n’y a que un seul paramètre dans la solution du système [à savoir α]).
— NB : Dans certains cas, il est intéressant d’échelonner la matrice U (si elle ne l’est pas déjà) pour
obtenir un système plus simple à résoudre.
– L’application linéaire A : E → F est inversible s’il existe une application linéaire B : F → E, ap-
pelée inverse de A, telle que B ◦ A = IE et A ◦ B = IF .
24
APPLICATIONS LINÉAIRES ALGÈBRE
⇒ Bien entendu, si une application linéaire est inversible, elle est à la fois inversible à gauche et à
droite, et inversément. Aussi, elle admet un unique inverse à gauche, qui est aussi l’unique inverse à droite
et donc plus simplement l’unique inverse.
Proposition Pour qu’une application linéaire soit inversible à gauche (resp. à droite), il faut et il suffit
qu’elle soit injective (resp. surjective).
Pour qu’une application linéaire soit inversible, il faut et il suffit qu’elle soit bijective.
La j-ème colonne de la matrice f (A)e est donc formée des coordonnées par rapport à la base f de A(ej ),
l’image par A du j-ème vecteur de la base e.
Proposition 1
1. Pour tout scalaire α,
f (αA)e = αf (A)e .
2. Si A et B sont deux applications linéaires de E vers F ,
Proposition 2 Soient e et f , respectivement les bases des ev E et F . Pour toute application linéaire
A : E → F,
rang A = rang f (A)e .
25
APPLICATIONS LINÉAIRES ALGÈBRE
e (IE )e = In ;
cependant, si f =6 e, alors la matrice f (IE )e n’est pas la matrice unité ; c’est la matrice dont la j-ème
colonne est formée des coordonnées du vecteur ej (= IE (ej )) par rapport à la base f . Elle permet de
contrôler les changements de base.
et que
det e0 (A)e0 = det e (A)e .
Ce dernier montre que le déterminant de la matrice de A par rapport à une base de E ne dépend pas du
choix de la base. On peut donc poser :
26
ESPACES EUCLIDIENS ALGÈBRE
Quatrième partie
Espaces euclidiens
Dans certains espaces vectoriels, tels que l’espace usuel, il est possible de calculer la longueur d’un
vecteur ou l’angle entre deux vecteurs au moyen d’un produit scalaire.
Dans cette section, nous allons nous concentrer sur le produit scalaire, et non sur la norme.
1 Produits scalaires
Définitions
Une Forme Bilinéaire Symétrique sur un espace vectoriel E, sur le corps R est une application
(·|·) : E × E → R
satisfaisant les conditions suivantes :
1. Bilinéarité : pour x, y, z ∈ E et α, β ∈ R,
(xα + yβ|z) = α(x|z) + β(y|z).
(z|xα + yβ) = (z|x)α + (z|y)β.
2. Symétrie : pour x, y ∈ E,
(y|x) = (x|y).
Un Produit Scalaire est une forme bilinéaire symétrique qui possède EN PLUS la propriété suivante :
3. Définie positivité : pour x ∈ E, x 6= 0,
(x|x) > 0.
La bilinéarité entraîne par ailleurs
(0|0) = 0.
Exemples
Le produit scalaire usuel sur Rn est noté et défini par
((x1 , · · · , xn ) | (y1 , · · · , yn )) = x1 y1 + · · · + xn yn .
D’autres formes bilinéaires symétriques peuvent être définies de la manière suivante :
Soit A ∈ Rn une matrice symétrique, c’est-à-dire telle que At = A et x, y ∈ Rn×1 ,
(x|y)A = xt · A · y.
La bilinéarité de (·|·)A résulte des propriétés du produit matriciel ainsi que de l’hypothèse que A est
symétrique.
Cela permet d’assurer que
(y|x)A = (x|y)A pour x, y ∈ Rn .
De plus, l’on peut aussi définir une forme bilinéaire symétrique sur des espaces , des ensembles (des
fonctions continues sur une intervalle [intégrales]) ou sur d’autres scalaires.
27
ESPACES EUCLIDIENS ALGÈBRE
Comparaison de concepts : Le produit scalaire peut être comparé, en programmation, à une fonction
de deux arguments noté (a|b) où a et b peuvent être des fonctions, des réels, des inconnues,...
Exemple : Si
a = 1 − x2
b = x
R1
(a|b) = 0
ab.
Alors,
R1
(a|b) = 0
(1 − x2 ) · x
1
(a|b) =
4
kxk2 = (x|x) ∈ R
La norme, c’est la "longueur" du vecteur.
Proposition L’application k · k : E → R satisfait les conditions qui définissent une norme (abstraite) au
sens de l’analyse, à savoir :
(I) kxk ≥ 0 pour tout x ∈ E.
(II) kxk = 0 entraîne x = 0 (où 0 est un vecteur).
(III) kαxk = |α| · kxk pour x ∈ E et α ∈ R.
(IV ) kx + yk ≤ kxk + kyk pour x, y ∈ E.
Démonstration :
(I) est claire,
(II) découle directement de la définie positivité du produit scalaire,
(III) résulte de sa linéarité,
(IV) doit utiliser le lemme suivant pour être établie :
2 Bases
2.1 Bases orthogonales
Définition
Deux vecteurs x, y d’un espace euclidien E sont dits orthogonaux si
(x|y) = 0.
NB : Comme (y|x) = (x|y), cette relation est symétrique.
Application
Une base e = (e1 , · · · , en ) d’un espace euclidien E est dite orthogonale si les vecteurs de base sont
orthogonaux deux à deux (toute base réduite à un élément est considérée comme orthogonale) :
(ei |ej ) = 0 si i 6= j.
28
ESPACES EUCLIDIENS ALGÈBRE
Exemple
Il suffit de de prouver l’existence d’une base orthonormée :
— Si l’espace est de dimension 1, le théorème est clair.
— On peut donc supposer que dim E > 2, raisonner par induction et supposer que l’énoncé est vrai
pour les espaces euclidiens de dimension < dim E.
Application
Une base orthogonale e = (e1 , · · · , en ) d’un espace euclidien E est dite orthonormée si la norme
de tout les vecteurs de base sont égaux à 1 :
||ei || = 1 ∀ i = 1, · · · , n.
Si ||ei || =
6 1 (pour un ou plusieurs i), alors il est possible de transformer la base orthogonale e en une
base orthonormée.
Ainsi, si e = (e1 , · · · , en ) est une base orthogonale, alors la suite e0 = (e01 , · · · , e0n ) définie par
ei
e0i =
||ei ||
est une base orthonormée.
2.3 En Pratique
2.3.1 Pour déterminer si une base d’un ev est orthogonale
Nous avons
e = ((1, 0, 0), (0, 1, 0), (0, 0, 1))
P3
(x|y) = i=1 xi yi , pour x, y ∈ R3 .
Pour déterminer si la base e est orthogonale, il faut vérifier, pour tout les éléments de e, que (ei |ej ) = 0
(i 6= j) :
P3
— (e1 |e2 ) = i=1 e1i · e2i = (1 · 0) + (0 · 1) + (0 · 0) = 0
P3
— (e1 |e3 ) = i=1 e1i · e3i = (1 · 0) + (0 · 0) + (0 · 1) = 0
P3
— (e2 |e3 ) = i=1 e2i · e3i = (0 · 0) + (1 · 0) + (0 · 1) = 0
Ainsi, e est une base orthogonale.
29
ESPACES EUCLIDIENS ALGÈBRE
k2 = 1
k = 1
Ainsi, la base orthonormée de l’espace E est e = (1, 0).
3 Projections orthogonales
On parle ici de sous-espaces qui sont orthogonaux entre eux.
Définiton
Soit E un espace euclidien de dimension finie.
Pour toute partie V ⊂ E, l’orthogonal V ⊥ est l’ensemble des vecteurs orthogonaux à tous les vecteurs de
V :
V ⊥ = (x ∈ E|(x|v) = 0 pour tout v ∈ V ).
Cet ensemble est un sous-espace vectoriel de E.
Proposition
Soit V un sous-espace d’un espace euclidien E.
Pour tout x ∈ E, il existe un et un seul vecteur p ∈ V tel que x − p ∈ V ⊥ .
De plus, si (e1 , · · · , er ) est une base orthonormée de V , alors
r
X
p= ei (ei |x).
i=1
En français : p s’écrit comme la combinaison linéaire de tout les éléments de la base orthonormée avec,
pour coefficients, le produit scalaire entre x et l’élément de cette base orthonormé (ei ).
Le vecteur p est appelé projection orthogonale du vecteur x sur le sous-espace V .
30
ESPACES EUCLIDIENS ALGÈBRE
Corollaire Pour tout sous-espace vectoriel V d’un espace euclidien E de dimension finie,
E = V ⊕ V ⊥.
donc
dim V ⊥ = dim E − dim V .
De plus,
(V ⊥ )⊥ = V .
3.1 En Pratique
3.1.1 Pour déterminer la projection d’un point sur un sev grâce au produit
scalaire
Nous avons
x = (2, 1) ∈ R2
E = {(a, b) ∈ R2 |b = 0}
P2
(u|v) = i=1 ui vi (u, v ∈ R2 )
Pour trouver la projection px de x sur E, il faut :
1. Trouver une base orthonormée de E (voir 2.3.3 Pour calculer une base orthonormée d’un sev) :
e = (1, 0) où ||e|| = 1
2. Trouver la projection px :
Selon la théorie (voir plus haut), nous savons que, dans le cas de notre exemple :
px = (e|x)e
1
Auquel nous ajoutons pour ajuster la longueur du vecteur à sa projection.
||e||
Ce qui nous donne
(e|x)
px = e
||e||
Ainsi, nous pouvons déterminer que :
(e|x)
px = e
||e||
(1 · 2) + (0 · 1)
= e
1
= 2·e
= 2 · (1, 0)
= (2, 0)
Ainsi, la projection px de x sur E est px = (2, 0).
31
ESPACES EUCLIDIENS ALGÈBRE
4 Algorithme de Gram-Schmidt
Objectif La technique des projections orthogonales permet de construire systématiquement une base
orthogonale à partir d’une base quelconque.
4.1 En Pratique
4.1.1 Pour construire une base orthogonale à partir d’une base quelconque
avec Gram-Schmidt
1. Choisir un vecteur parmis la base existante :
u1 = e1
e i
2. Appliquer la formule e0i = (où ||ei || est la norme de ei ) au vecteur u1 établi précédemment
||ei ||
pour que la norme de ce vecteur soit égale à 1.
3. Pour les autres vecteurs de la base, on les réduits à leurs projections orthonormées par rapport
aux vecteurs précédemment calculés :
u2 = e2 − (e2 |u01 )u01
Ainsi, on s’arrange pour que le vecteur u2 soit orthonormé par rapport au vecteur u01 ,
32
OPÉRATEURS LINÉAIRES ALGÈBRE
Cinquième partie
Opérateurs linéaires
Un opérateur linéaire est une application linéaire d’un ev dans lui-même.
On peut donc considérer un opérateur linéaire, sur un ev, comme une re-transformation de cet espace,
et envisager de trouver :
— les vecteurs fixes sous cette transformation, ou,
— les vecteurs transformés en leurs opposés, ou,
— Plus généralement les vecteurs dont l’image est un multiple d’eux-mêmes, appelés vecteurs propres
de l’opérateur.
1 Notions fondamentales
1.1 Valeurs propres et vecteurs propres
• Soit A : E → E, un opérateur linéaire sur un ev E, sur un corps arbitraire K.
Un vecteur propre de A est un vecteur v ∈ E non nul tel que
A(v) = vλ pour un certain λ ∈ K.
En français : L’opérateur A appliqué au vecteur v permet d’obtenir une valeur proportionnelle à v,
à une constante près, où cette constante est la valeur propre λ.
• Le scalaire propre λ est appelé valeur propre de A associée à v ; on dit aussi que v est un vecteur
propre de A de valeur propre λ.
NB : Comme nous sommes limité aux nombres réels R dans ce cours, certains opérateurs linéaires peuvent
ne pas avoir de valeur propre, ni vecteur propre.
• Si on a des solutions non nulles au système d’équation (λIE − A)(v) = 0, il faut alors que :
det(λIE − A) = 0
Ce polynôme est unitaire, c’est-à-dire que le coefficient du terme de plus haut degré est 1, et son
degré est égal à la dimension de E :
33
OPÉRATEURS LINÉAIRES ALGÈBRE
deg P cA = dim E
1.4 En Pratique
1.4.1 Pour déterminer le polynôme caractéristique à partir d’une matrice
3 2
Si A = , il faut :
3 −2
1. Trouver la matrice B(= λI − A), où P cA = p(λ) = det(B) :
1 0 λ−3
−3 −2 −2
λI − A = λ · + =
0 1 −3 2 −3 λ+2
2. Calculer le polynôme caractéristique P cA (= p(λ)) (le déterminant de la matrice B trouvée en 1.) :
∆ = (λ − 3) · (λ + 2) − 6
∆ = (−1)2 · (λ2 − λ − 12)
(−1) · (λ − λ − 12) =
2 2
λ2 − λ − 12 = 0
Ainsi, P cA = λ2 − λ − 12 ⇔ POLYNÔME CARACTÉRISTIQUE.
Pour aller plus loin Nous pouvons prendre de l’avance sur la sous-section 1.4.2 en trouvant les
valeurs propres (les racines) de ce polynôme caractéristique :
1.4.2 Pour déterminer les valeurs propres et vecteurs propres d’une matrice
1 0
Si A = , il faut :
0 2
1. Calculer le polynôme caractéristique P cA (= p(λ)) (voir 1.4.1 Pour déterminer le polynôme caracté-
ristique à partir d’une matrice) :
p(λ) = (1 − λ) · (2 − λ)
2. Calculer les racines de p(λ) :
(= aux VALEURS PROPRES de A(λi ))
On trouve que λ1 = 1 et λ2 = 2 car p(0) = (1 − 0).(2 − 0)
34
OPÉRATEURS LINÉAIRES ALGÈBRE
3. Pour chaque valeur propre trouvée en 3., trouver les valeurs de x tel que Ax = λx [⇔ (A−λI)·x = 0] :
(où λ est la valeur propre)
(= aux VECTEURS PROPRES de A(xλi ))
[ ! ! ! Le système DOIT être AU MOINS une fois indéterminé]
a
Si x ∈ R2 , x =
b
• Racine 1 → λ = 1 :
A · x = 1x
1 0 a a
· = .
0 2 b b
a = a → IN DÉT ERM IN AT ION
⇔
2b = b → b = 0
1
E(1) = {(a, 0)|a ∈ R} = sevh(1, 0)i ⇒ xλ1 =
0
• Racine 2 → λ = 2 :
A · x = 2x
1 0 a 2a
· = .
0 2 b 2b
a = 2a → a = 0
⇔
2b = 2b → IN DÉT ERM IN AT ION
0
E(2) = {(0, b)|b ∈ R} = sevh(0, 1)i ⇒ xλ2 =
1
NB : Le calcul des valeurs de x au 4. peut aussi être réalisé grâce à une élimination de
Gauss-Jordan.
4. Finalement, on peut noter les valeurs et vecteurs propres trouvés de cette façon :
λ = {1, 2}
E(1) = sevh(1, 0)i
E(2) = sevh(0, 1)i
Remarques :
— Imaginons un système à valeur propre λ où :
−2x + y + z = 0
⇔ x − 2y + z = 0
x + y − 2z = 0
a = α | α ∈ R → IN DÉT ERM IN AT ION
⇔ b = α
c = α
Dans ce cas, on remarque que a = b = c mais que le degré d’indétermination du système vaut 1 car
il y a 1 ligne qui est combinaison des 2 autres.
Ainsi, on a que :
E(λ) = {(α, α, α)|α ∈ R} = sevh(1, 1, 1)i
— Le nombre de vecteurs propres engendré par leur valeur propre doit correspondre avec le degré
d’indétermination du système :
Imaginons un système à valeur propre λ où :
a = α | α ∈ R → IN DÉT ERM IN AT ION
35
OPÉRATEURS LINÉAIRES ALGÈBRE
2 Diagonalisation
A désigne un opérateur linéaire sur un espace E de dimension finie sur un corps K.
On dit que l’opérateur A est diagonalisable s’il existe une base e de E par rapport à laquelle la matrice
e (A)e est diagonale.
L’objectif principal de la diagonalisation est de pouvoir écrire une matrice carrée A (∈ Rn×n ) sous la
forme
A = P · Λ · P −1
où Λ est une matrice diagonale.
L’une des utilisation de cette forme est de pouvoir calculer la puissance d’une matrice, c’est-à-dire :
Ak = P · Λk · P −1
Théorème Spectral : Pour une matrice réelle A ∈ Rn×n , les conditions suivantes sont équivalentes :
(a) Il existe une matrice orthogonale Q ∈ Rn×n telle que Q−1 · A · Q = Λ soit une matrice diagonale.
(b) Il existe une base orthonormée (par rapport au produit scalaire usuel) de Rn .
La base est constituée des vecteurs propres de A.
Cette condition sera la plus utilisée dans ce cours
(c) La matrice A est symétrique.
Si l’un de ces trois points est vrai, alors, la matrice A est diagonalisable.
De plus, la matrice Λ peut être trouvée soit :
— Grâce à la propriété (a) où D = diag(λi ).
— En construisant une matrice diagonale composée des valeurs propres de A.
Règle 2
On définit :
— La matrice P comme la matrice dont les colonnes sont les VECTEURS PROPRES.
— La matrice Λ où la diagonale principale est composée des VALEURS PROPRES.
(Les vecteurs propres dans P doivent être dans le MÊME ORDRE que les valeurs propres dans Λ.
— A est la matrice de départ.
On a :
A·P =P ·Λ
On peut déduire que :
A = P · Λ · P −1
ou
Λ = P −1 · A · P
36
OPÉRATEURS LINÉAIRES ALGÈBRE
Pour appliquer cela, il faut utiliser la condition sur les multiplicités des valeurs propres énonce que
0 ≤ mg (λi ) ≤ ma (λi ) ≤ n
où :
mg (λi ), la multiplicité géométrique, est la dimension de l’espace propre associée à une valeur
propre λi
(= nombre de vecteurs propres, dans la base de l’espace propre, associés à λi )
(= degrés d’indétermination de Ax = λx)
ma (λi ), la multiplicité algébrique, est le nombre de fois qu’une valeur propre λi apparaît dans
le polynôme caractéristique
(= nombre de valeurs propres λi associées au polynôme caractéristique)
Pour que les vecteurs propres forment une base de Rn , il faut que la matrice A soit de plein rang, et
donc que :
— Chaque valeur propre doit être associée à un vecteur propre,
— Une valeur propre double, triple ou quadruple doit avoir respectivement 2, 3, ou 4 vecteurs propres
associés.
Cela nous permet d’arriver à la conclusion que
mg (λi ) = ma (λi ),
qui permet finalement de dire que A est DIAGONALISABLE.
2.2 En Pratique
2.2.1 Pour vérifier si une matrice est diagonalisable dans Rn
Nous allons utiliser la deuxième propriété du théorème spectral
4 2
−1
Si A = 0 5 0, il faut :
0 0 5
1. Calculer les valeurs propres et les vecteurs propres (voir 1.4.2 Pour déterminer les valeurs propres
et vecteurs propres d’une matrice) :
λ = {4, 5, 5}
E(4) = sevh(1, 0, 0)i
E(5) = sevh(−1, 1, 0), (2, 0, 1)i
2. Vérifier que chaque valeur propre ∈ R :
Vrai car énoncé dans le titre.
3. Vérifier la condition sur les multiplicités :
— ma (4) = 1 = mg (4) : Vrai car la valeur propre 4 :
(a) Apparaît 1 seule fois dans le polynôme caractéristique,
(b) A bien 1 seul vecteur de base.
— ma (5) = 2 = mg (5) : Vrai car la valeur propre 5 :
(a) Apparaît 2 fois dans le polynôme caractéristique,
37
OPÉRATEURS LINÉAIRES ALGÈBRE
P = 0 1 0
0 0 1
L’on remarque que la matrice est triangulaire supérieure (donc déjà échelonnée).
Ce qui permet de déterminer que :
rang(P ) = 3
⇓
Les vecteurs propres sont linéairement indépendants
⇓
Ils forment une base de R3
5. Vérifier votre réponse, grâce à la formule :
A·P =P ·D
6. La matrice A est diagonalisable.
P −1 = 0 1 0
0 0 1
3. Trouver D (qui est la matrice diagonale des valeurs propres associées aux vecteurs propres) :
4 0 0
D = 0 5 0
0 0 5
38