Resume 2
Resume 2
Resume 2
1. Applications linéaires
Soient E et F des espaces vectoriels sur K.
1.1. Définition. Une application f : E → F est dite linéaire si
f (x + y) = f (x) + f (y) ∀x, y ∈ E
et
f (λx) = λf (x) ∀λ ∈ K et ∀x ∈ E
1.2. Proposition. L’application f : E → F est linéaire si et seulement si
f (λx + µy) = λf (x) + µf (y) ∀λ, µ ∈ K et ∀x, y ∈ E
si et seulement si
X X
f( λi xi ) = λi f (xi ) ∀λ1 , . . . , λn ∈ K et ∀x1 , . . . , xn ∈ E.
i i
3. Matrices
Nous avons vu dans le théorème 1.5 qu’une application linéaire φ : E → F est
caractérisée par l’image d’une base de E. Considérons donc le cas où E = Kn et
F = Km . Ces deux espaces ont chacun une base canonique (voir résumé 1, 2.22).
Notons (ei )i=1,...,n celle de E et (fi )i=1,...,m celle de F .
Il est donc équivalent de se donner une application φ : Kn → Km où de se donner
des coefficients
P (ai,j ) dans K où i = 1, . . . , m et j = 1, . . . , n, avec la convention que
φ(ej ) = i ai,j fi . On écrit habituellement ces éléments dans un tableau à m lignes
et n colonnes, où le coefficient ai,j figure en ligne i et colonne j.
a11 a12 · · · a1n
a21 a22 · · · a2n
.. .. . . ..
. . . .
am1 am2 · · · amn
Pour cette raison, on pose la définition suivante.
3.1. Définition (matrice). Une matrice de taille m × n à coefficients dans K est
la donnée d’une famille de coefficients (ai,j ) avec i ∈ {1, . . . , m} et j ∈ {1, . . . , n}.
L’ensemble des matrices de taille m × n à coefficients dans K se note Mm,n (K).
Lorsque m = n, on note Mn (K) au lieu de Mn,n (K).
3.2. Exemple. La matrice Idn ∈ Mn (K) est celle dont le coefficient (i, j) est δi,j
(symbole de Kronecker). Autrement dit, c’est 0 si i 6= j et 1 si i = j. On l’appelle
la matrice identité de taille n.
1 0 ··· 0
.. ..
0 1 . .
Idn =
.. . . ..
n
. . . 0
0 ··· 0 1
3.3. Définition. Si φ ∈ L(Kn , Km ), on lui associe P la matrice Mφ ∈ Mm,n (K)
définie par l’unique famille (ai,j ) telle que φ(ej ) = i ai,j fi . Dans l’autre sens, si
A ∈ Mm,n (K) est une matrice A = (a Pi,j ), on lui associe l’unique application linéaire
lA ∈ L(Kn , Km ) telle que lA (ej ) = i ai,j fi .
3.4. Remarque (très importante). La j-ème colonne de la matrice Mφ est donc
constituée des coordonnées de φ(ej ) (sur la base canonique).
3.5. Proposition. Les applications
L(Kn , Km ) → Mm,n (K) Mm,n (K) → L(Kn , Km )
et
φ 7→ Mφ A 7→ lA
sont bijectives et inverses l’une de l’autre.
En 1.4, nous avons défini trois opérations sur les applications linéaires : la somme,
le produit par un scalaire, et la composition. Nous allons voir qu’elles correspondent
par la proposition 3.5 à des opérations sur les matrices.
Dans ce qui suit, la matrice A (resp. B, C, etc.) a pour coefficients (ai,j ) (resp.
(bi,j ), (ci,j ), etc.).
3.6. Définition. La somme de deux matrices A, B ∈ Mm,n (K), est la matrice
C ∈ Mm,n (K) définie par ci,j = ai,j + bi,j pour tous i et j. On la note A + B.
4 APPLICATIONS LINÉAIRES ET MATRICES
3.12. Définition. Le noyau d’une matrice A ∈ Mm,n (K) est le noyau de lA , i.e.
c’est l’ensemble des vecteurs X ∈ Kn tels que AX = 0.
L’image de A est l’image de lA , i.e. c’est l’ensemble des vecteurs Y ∈ Km tels
qu’il existe X ∈ Kn avec AX = Y .
Le rang de A est le rang de lA , i.e. c’est la dimension de l’image de A.
3.13. Proposition. Si v1 , . . . , vn sont les vecteurs colonnes de A, alors im(A) =
Vec(v1 , . . . , vn ).
Introduisons encore une opération classique sur les matrices qui nous servira par
la suite.
3.14. Définition. La transposée d’une matrice A ∈ Mm,n (K) est notée At et est la
matrice B ∈ Mn,m (K) de coefficients bi,j = aj,i .
APPLICATIONS LINÉAIRES ET MATRICES 5
3.15. Proposition. On a
t
(1) (A + B) = At + B t ;
t
(2) (λA) = λ(At ) ;
t
(3) (AB) = B t At ;
t
(4) (At ) = A.
3.16. Définition. Une matrice A telle que A = At est appelée matrice symétrique.
Si A = −At , elle est appelée antisymétrique. (Dans les deux cas, une telle matrice
est nécessairement carrée.)
3.17. Théorème. Le rang d’une matrice est égal à celui de sa transposée.
5. Systèmes linéaires
Le système à m équations et n inconnues x1 , . . . , xn
a11 x1 + a12 x2 + · · · + a1n xn = y1
a21 x1 + a22 x2 + · · · + a2n xn = y2
(5.1)
···
am1 x1 + am2 x2 + · · · + amn xn = ym
(5.2) AX = Y
où
a11 a12 ··· a1n x1 y1
a21 a22 ··· a2n x2 y2
A= . .. , X= . et Y = .
..
.. . . .. ..
am1 am2 ··· amn xn ym
Résoudre le système consiste à exprimer, si possible, les inconnues x1 , . . . , xn en
fonction des seconds membres y1 , . . . , ym .
5.1. Proposition. On a
(1) Le système (5.2) a au moins un vecteur X solution si et seulement si le
vecteur Y est dans l’image de l’application lA , ce qui est en particulier
toujours le cas quand celle-ci est surjective (i.e. de rang m).
(2) Le système (5.2) a au plus un vecteur X solution si et seulement si l’appli-
cation lA est injective.
(3) Le système (5.2) a une unique solution X pour tout Y si et seulement si
l’application lA est inversible. Elle est alors donnée par X = A−1 Y .
(4) Deux solutions diffèrent d’un élément de ker(lA ).
6. Algorithmes
Citons maintenant un certain nombre d’algorithmes utiles.
6.1. Définition. Soit En (λ, k, l) la matrice de Mn (K) définie par
(
λ si i = k et j = l
ei,j =
0 sinon.
Soit Dn (λ, k) la matrice définie par
λ si i = j = k
di,j = 1 si i = j mais i 6= k
0 sinon.
l
l
λ 1
k λ k
E(λ, k, l) =
F(λ, k, l) =
(0)
(0)
(0)
1
k l
1
k
1
1
(0)
0 1 k
D(λ, k) = 1 G(k, l) = 1
λ k
1 1
(0)
1 0 l
1
1
1
6.2. Lemme. On a
E(λ, k, l)E(µ, o, p) = δl,o E(λµ, k, p)
6.3. Proposition. La matrice D(λ, k) est inversible si et seulement si λ 6= 0 et
alors D(λ, k)−1 = D(λ−1 , k).
La matrice F(λ, k, l) est inversible pour tout λ et F(λ, k, l)−1 = F(−λ, k, l).
La matrice G(k, l) est inversible et est égale à son inverse.
La multiplication à gauche par une matrice élémentaire correspond à une opérations
sur les lignes de la matrice qu’on multiplie :
6.4. Théorème (opérations sur les lignes). Si A ∈ Mm,n (K), alors
(A) E(λ, k, l)A est une matrice de Mm,n (K) constituée de λ fois la l-ième ligne de
A mise en ligne k, et qui est nulle partout ailleurs.
8 APPLICATIONS LINÉAIRES ET MATRICES
(B) F(λ, k, l)A est obtenue à partir de A en lui rajoutant λ fois sa l-ième ligne à
sa k-ième ligne.
(C) D(λ, k)A est obtenue à partir de A en multipliant sa k-ième ligne par λ.
(D) G(k, l)A est obtenue à partir de A en échangeant ses k-ième et l-ième lignes.
Le théorème symétrique existe bien entendu pour les colonnes au lieu des lignes,
et correspond à des multiplications à droite. Nous ne les utiliserons pas.
Passons maintenant aux matrices échelonnées, et à la manière de transformer
une matrice en matrice échelonnée.
6.5. Définition. Une matrice B ∈ Mm,n (K) est dite échelonnée si elle vérifie les
conditions suivantes :
Pour tout i, représentant un numéro d’une ligne de B, soit p(i) le plus petit
indice j tel que bi,j 6= 0, s’il existe. S’il n’existe pas (bi,j = 0 pour tout j), on pose
p(i) = +∞.
(1) Si p(i) 6= +∞, alors bi,p(i) = 1.
(2) Si i1 < i2 , alors p(i1 ) < p(i2 ), sauf si p(i1 ) = +∞, auquel cas p(i2 ) = +∞
aussi.
(3) Si i1 < i2 et p(i2 ) 6= +∞, alors bi1 ,p(i2 ) = 0.
6.6. Remarque. Les positions (i, p(i)) jouent un rôle clé et sont appelées positions
pivots. Il y a au plus un pivot par ligne, et il n’y a que des zéros à gauche des pivots.
S’il n’y a pas de pivot, toute la ligne est nulle.
On peut alors intuitivement énoncer la description d’une matrice échelonnée sous
la forme suivante :
(1) Le coefficient en position pivot est 1.
(2) Les pivots sont placés dans le même ordre sur les lignes et les colonnes.
(3) Il n’y a que des zéros au-dessus des pivots.
Si B est échelonnée, soit pB le nombre de pivots de B, i.e. le nombre de i tels
que p(i) 6= ∞.
De manière imagée, une telle matrice a donc la forme
p(1) p(2) p(pB )
1 ? ··· ? 0 ? ··· ? 0 ? ··· 1
1 ? ·. · · ?. ?. · · ·
0. 2
. . .. .. ..
0 ? ···
1 ? ··· pB
(0)
où les ? représentent des coefficients quelconques et les 1 sont en positions pivots.
6.7. Remarque. Si un système d’équations linéaires BX = Y est donné par une
matrice échelonnée B, alors sa résolution est immédiate. C’est la raison pour laquelle
ces matrices sont aussi importantes d’un point de vue pratique.
6.8. Lemme. pB est égal au nombre de lignes non nulles de B ; pour tout i > pB ,
bi,j = 0 pour tout j.
APPLICATIONS LINÉAIRES ET MATRICES 9
6.9. Proposition. L’image de B est constituée des vecteurs dont les coordonnées
sont nulles au-delà de l’indice pB (non compris). On a donc rg(B) = pB .
6.10. Proposition. Le noyau de B est de dimension égale à n − pB . Une base de
ce noyau est constitué des vecteurs
l(j)
X
ej − bi,j ep(i)
i=1
où la colonne j est sans pivot et l(j) désigne le plus petit indice tel que bi,j = 0 si
i > l(j).
Étant donnée une matrice A ∈ Mm,n (K), il est très utile de trouver une matrice
M ∈ Mm (K) inversible telle que la matrice B = M A est échelonnée, en particulier
pour résoudre le système associé, mais également pour d’autres raisons que nous
allons voir plus bas.
6.11. Théorème. Étant donné une matrice A, il existe une et une seule matrice
B = M A échelonnée telle que M soit inversible.
6.12. Remarque. La matrice M n’est pas unique, comme on s’en convainc aisément
lorsque A est nulle : toute matrice M inversible convient alors (et B est bien
évidemment la matrice nulle).
6.13. Théorème. La matrice A est inversible si et seulement si m = n et B = Idn .
Son inverse est alors la matrice M .
On constate que si une matrice est sous forme échelonnée, ses sous-matrices
obenues en ne conservant que les lignes et colonnes en-dessous et à droite d’une
position pivot sont également sous forme échelonnée. On peut donc appliquer une
forme de récurrence pour transformer une matrice en une matrice échelonnée.
6.14. Algorithme (Échelonnage par opérations sur les lignes). Les opérations (B),
(C) et (D) mentionnées ci-dessous sont celles du théorème 6.4.
étape pivot. Si une colonne d’une matrice n’est pas nulle, par les opérations
sur les lignes, transformer cette colonne en un 1 sur la première ligne suivi de
0 sur toutes les autres : on trouve le premier coefficient non nul de la colonne,
on le permute en première ligne par l’opération (D) puis on le change en 1 en le
multipliant par son inverse par l’opération (C). Puis on annule le coefficient en
première colonne de chaque autre ligne en additionnant à cette ligne un multiple
de la première ligne.
L’algorithme se déroule alors de la manière suivante. Au départ, la matrice en
cours est la matrice A ∈ Mm,n (K) que l’on veut échelonner.
étape 1. On applique l’étape pivot à la première colonne non nulle de la matrice
en cours. Soit la matrice est nulle et l’on s’arrête, soit cela fait apparaı̂tre un pivot
de plus. On passe ensuite à la sous-matrice constituée des colonnes et des lignes
strictement après le pivot. Si elle est vide on s’arrête, sinon, on reprends cette étape
1 dessus.
Après avoir répété un nombre fini de fois l’étape 1 (au plus min(m, n)), on obtient
une matrice B 0 qui satisfait à toutes les conditions de la définition d’une matrice
échelonnée, sauf peut-être la condition (3).
étape 2. À l’aide de l’opération (B), on supprime successivement tous les co-
efficients non nuls au-dessus des pivots, en commençant par le dernier pivot et en
remontant jusqu’au premier.
10 APPLICATIONS LINÉAIRES ET MATRICES
L’algorithme précédent ou une de ses proches variantes est également connu sous
le nom de “pivot de Gauss”.
6.15. Algorithme (obtenir la matrice de passage). Partant de A, pour obtenir une
matrice M telle que B = M A avec B échelonnée, lors de l’algorithme précédent,
il faut conserver le produit des matrices élémentaires utilisées. Une manière de le
faire est de poser, à côté de la matrice A sur laquelle on travaille, une autre matrice
qui au départ est Idm . Puis, à chaque fois qu’on fait une opération sur les lignes de
A, on fait la même sur cette matrice. À la fin de l’algorithme, elle s’est changée en
la matrice M recherchée.
6.16. Algorithme (Extraire une base d’une liste de vecteurs). On regroupe ces
vecteurs comme les colonnes d’une matrice A, qu’on échelonne en une matrice B.
Les colonnes de A qui se trouvent aux positions des colonnes de B à pivots forment
une base de l’espace engendré par les vecteurs de départ, qui n’est autre que im(A).
6.17. Algorithme (Vérifier si un vecteur est engendré par d’autres vecteurs). On
veut vérfier si un vecteur v est engendré par les vecteurs c1 , . . . , cn . On forme une
matrice A dont c1 , . . . , cn sont les colonnes. On échelonne A, en B = M A. Alors
v est dans l’image de A si et seulement si M v est dans l’image de B, ce qui est
évident à vérifier par la proposition 6.9.
6.18. Algorithme (Trouver une base du noyau d’une matrice). Si A est cette
matrice, elle a le même noyau que la matrice échelonnée B = M A obtenue par
l’algorithme 6.14. On en obtient donc une base par la proposition 6.10.
6.19. Remarque. Passer de la description d’un sous-espace vectoriel comme solution
d’équations linéaires vers une description paramétrique, c’est-à-dire décrire ses vec-
teurs comme les combinaisons linéaires d’une base revient exactement à appliquer
l’algorithem précédent.
6.20. Algorithme (Inverser une matrice). Si A n’est pas carrée, inutile d’aller plus
loin, elle n’est pas inversible. Si elle est carrée, on applique l’algorithme 6.14 pour
échelonner A. Par le théorème 6.13 La matrice A est inversible si et seulement si B
est l’identité, et dans ce cas A−1 = M , obtenue par l’algorithme 6.15.
6.21. Algorithme (Forme paramétrique vers forme cartésienne). Soit V un sous-
espace vectoriel de Kn décrit comme V = Vec(v1 , . . . , vl ). On veut trouver des
équations linéairement indépendantes (i.e. non redondantes) de manière à ce que
V soit exactement la solution de ces équations. Autrement dit, on veut trouver
une matrice A ∈ Mk,n pour un certain k, telle que Av = 0 si et seulement si
v ∈ V et telle que ses lignes soient linéairement indépendantes (k soit minimum).
Soit C ∈ Mn,l la matrice formée des colonnes v1 , . . . , vn . Alors AC doit être nulle,
autrement dit, on doit avoir C t At = 0. Le problème revient ainsi à trouver une base
de ker(C t ), ce que l’on sait faire grâce à l’algorithme 6.18, puis à s’en servir comme
colonnes de At , autrement dit comme lignes de A.