Professional Documents
Culture Documents
L1, algèbre 1.
Anne Beaulieu
Année 2007–2008
2
Table des matières
4 Applications linéaires. 35
4.1 Définitions et exemples. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.2 Image et noyau. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.3 Application linéaire injective. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.4 Cas où l’espace vectoriel de départ est de dimension finie, image d’une partie
génératrice. Rang d’une application linéaire. . . . . . . . . . . . . . . . . . . . . . 38
4.5 Isomorphismes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.6 Exemples : projections vectorielles, symétries vectorielles. . . . . . . . . . . . . . 40
3
4 TABLE DES MATIÈRES
6 Changements de bases. 53
6.1 Changement de coordonnées. Matrice de passage. . . . . . . . . . . . . . . . . . . 53
6.2 Formule de changement de base pour une application linéaire. . . . . . . . . . . . 56
qui a le même ensemble de solutions que (S1 ). En effet, on retrouve (S1 ) à partir de (S10 ) en
faisant ½
(L01 ) + 2(L02 )
(L02 )
La ligne (L01 ) est équivalente à y = 1. On reporte dans la deuxième équation, on trouve x = 2.
On conclut que (S1 ) a une solution et une seule : (x, y) = (2, 1).
Deuxième exemple.
½
2x − 2y = 10 (L1 )
(S2 )
x−y = 1 (L2 )
On remarque que le système (S2 ) peut être retrouvé à partir du système (S20 ) car
Les systèmes (S2 ) et (S20 ) ont donc le même ensemble de solutions. La première ligne (L01 ) n’est
jamais réalisée. On conclut que le système (S2 ) n’a aucune solution.
5
6 CHAPITRE 1. RÉSOLUTION DES SYSTÈMES LINÉAIRES.
Troisième exemple.
½
2x − 2y = 8 (L1 )
(S3 )
x−y = 4 (L2 ).
La première ligne est égale à deux fois la seconde. On conclut que le système (S3 ) est équivalent
à
(S 0 3) x=y+4
Le système (S3 ) a donc une infinité de solutions. On dit qu’on a pris y comme paramètre.
Remarquons qu’au lieu de prendre y comme paramètre, on peut prendre x. Le même ensemble
de solutions s‘écrit donc aussi
{(x, x − 4); x ∈ R}.
est appelé le système homogène associé à (S) (on dit aussi le système sans second membre).
1.2. SYSTÈMES À N LIGNES ET P COLONNES, SYSTÈMES ÉCHELONNÉS. 7
Définition 1.2.3 On appelle solution de (S) tout n-uplet (u1 , ..., un ) de K n tel que
a1,1 u1 + ... + a1,p up = b1
...........
an,1 u1 + ... + an,p up = bn
Définition 1.2.4 Deux systèmes (S1 ) et (S2 ) sont équivalents s’ils ont le même ensemble de
solutions, c’est à dire si toute solution de (S1 ) est solution de (S2 ) et vice-versa.
½ ½
x1 =2 x1 + x2 = 0
Exemple : Les systèmes : et
x1 − x2 = 4 x1 − x2 = 4
sont équivalents car chacun d’eux a pour unique solution (2, −2).
Définition 1.2.5 On dit qu’un système n × p est carré si n = p. La matrice du système est
alors dite matrice carrée. On dit qu’un système carré est triangulaire inférieur si ai,j = 0 pour
tout couple (i, j) tel que i < j. On dit qu’un système carré est triangulaire supérieur si ai,j = 0
pour tout couple (i, j) tel que i > j.
On dit que la diagonale est non nulle si tous les termes diagonaux sont non nuls. Le système
ci-dessus est triangulaire supérieur à diagonale non nulle. La matrice du système est dite matrice
triangulaire supérieure à diagonale non nulle.
Définition 1.2.6 On dit qu’un système n × p est échelonné s’il est de la forme
a1,j1 xj1 + ....................... + a1,p xp = b1
a2,j2 xj2 + ............. + a2,p xp = b2
a3,j3 xj3 + .......... + a3,p xp = b3
..............
(S)
ak,jk xjk + .... + ak,p xp = bk
0 = bk+1
....
0 = bn
où 1 ≤ j1 < j2 < ... < jk ≤ p, 1 ≤ k ≤ n et tous les am,jm sont non nuls, m = 1....k. Les
k premières équations sont appelées les équations principales et les inconnues xj1 ,...,xjk sont
appelées les inconnues principales.
Exemple : Le système 3 × 5 suivant est échelonné.
x1 − x2 + +x4 + 2x5 = 0
−x3 + x4 − x5 = 0
0 =1
8 CHAPITRE 1. RÉSOLUTION DES SYSTÈMES LINÉAIRES.
Remarque : Tout système triangulaire supérieur de taille n × n à diagonale non nulle est
échelonné avec k = n et ji = i pour i = 1...n. Un système carré est échelonné si il est : soit
triangulaire supérieur à diagonale non nulle, soit triangulaire supérieur avec certains termes
diagonaux nuls. Dans ce dernier cas, la ou les dernière lignes ont leurs premiers membres nuls.
Exemple : Le système carré 4 × 4 suivant
x1 +2x2 −x3 =2
x3 −x4 = 0
x4 = 5
0 =3
est échelonné, triangulaire avec des termes diagonaux nuls. Le premier membre de sa dernière
ligne est nul.
Pour retrouver le système initial, on remplace la ligne (L0i ) par (L0i ) − (L0j ).
Théorème 1.4.2 Tout système est équivalent à un système échelonné.
La démonstration repose sur l’algorithme du pivot de Gauss. Montrons-le sur un exemple.
Soit le système
x1 +2x2 −x4 = 1 (L1 )
2x1 +3x2 +x3 +x4 = 2 (L2 )
x1 −x3 −x4 = 0 (L3 )
La première équation est prise comme pivot et reste inchangée. On remplace les deux dernières
lignes en leur retranchant un multiple de la première ligne, de manière à supprimer l’inconnue
x1 . On obtient le système équivalent suivant :
x1 +2x2 −x4 = 1 (L01 )
−x2 +x3 +3x4 = 0 (L02 ) = (L2 ) − 2(L1 )
−2x2 −x3 = −1 (L03 ) = (L3 ) − (L1 )
10 CHAPITRE 1. RÉSOLUTION DES SYSTÈMES LINÉAIRES.
1 2 0 −1 1
0 −1 1 3 et 0 .
0 −2 −1 0 −1
En réitérant le procédé, on obtient la matrice et le second membre :
1 2 0 −1 1
0 −1 1 3 et 0 .
0 0 −3 −6 −1
Algorithme du pivot de Gauss dans le cas général.
Soit (S) un système n × p de matrice A non nulle. Soit j1 l’indice de la première colonne non
nulle.
Première étape. On permute éventuellement des lignes pour se ramener à a1,j1 6= 0. Après
cette permutation éventuelle, (S) est remplacé par un système équivalent, de matrice
0 ...0 a1,j1 ......
.. ..
A= . .
0 .....0 an,j1 .......
On n’oublie pas de faire simultanément les mêmes opérations élémentaires sur le second membre
du système. Après ces p opérations élémentaires, on obtient le système de matrice
0 ...0 a1,j1 ∗ ...∗
..
. 0 ∗ ...∗
0 .....0 0 ∗ ...∗
On recommence ces deux étapes pour le système (n − 1) × p constitué par les lignes numéros
2 à p du système obtenu à la fin de la première étape. L’algorithme s’arrête au bout d’au plus
n − 1 itérations, ou quand la matrice du sous-système obtenu a toutes ses lignes nulles.
L’algorithme est programmable et permet de résoudre des systèmes linéaires, même de très
grandes dimensions, par ordinateur.
x4 x4 1 0.
On présente l’ensemble des solutions sous la forme :
4 1
1 0
E = {λ
−1 + 1
; λ ∈ R}.
1 0
Proposition 1.6.1 Soit (S) un système linéaire et soit (S0 ) le système homogène associé.
Soient E et E0 leurs ensembles de solutions respectifs. Alors E0 n’est jamais l’ensemble vide,
car il contient toujours la solution nulle. De plus, la différence de deux éléments de E est un
élément de E0 . On a donc : soit E = ∅, soit E est l’ensemble de la somme des éléments de E0 et
d’un élément particulier de E.
Preuve : Si E = 6 ∅, soit (α1 , ..., αp ) une solution de (S). Si (x1 , ..., xp ) est une autre solution de
(S), alors la différence (x1 − α1 , ..., xp − αp ) est une solution de (S0 ). Pour le montrer, on écrit,
pour tout i = 1, ..., n, que la ligne numéro i du système (S) est vérifiée par (x1 , ..., xp ) et par
(α1 , ..., αp ). On a donc :
½
ai,1 x1 + ... + ai,p xp = bi
ai,1 α1 + ... + ai,p αp = bi
On soustrait membre à membre les deux équations ci-dessus, on obtient :
ce qui signifie que la ligne numéro i du système homogène (S0 ) est vérifiée par (x1 −α1 , ..., xp −αp ).
Ceci est vrai pour i = 1, ..., n, donc (x1 − α1 , ..., xp − αp ) est une solution du système homogène
(S0 ).
1.6. STRUCTURE DE L’ENSEMBLE DES SOLUTIONS D’UN SYSTÈME LINÉAIRE. 13
Réciproquement, on montre de la même manière que si (α1 , ..., αp ) est une solution de (S)
et si (β1 , ..., βp ) est une solution de (S0 ), alors (α1 + β1 , ..., αp + βp ) est une solution de (S).
1
0
Exemple. Dans l’exemple ci-dessus, remarquons que
1 est une solution de (S), obtenue
0
pour la valeur 0 du paramètre. D’après la proposition ci-dessus, les solutions de (S0 ) s’obtiennent
en retranchant cette solution particulière à toutes les solutions de (S). On a donc
4
1
E0 = {λ
−1 ; λ ∈ R}.
1
Point de vue géométrique. Un vecteur du plan est un segment orienté. Plus précisémment,
c’est une classe d’équivalence de segments pour la relation :
Ou encore : les couples de points (A, B) et (A0 , B 0 ) définissent le même vecteur si et seulement
si le quadrilatère ABB 0 A0 est un parallélogramme.
Point de vue analytique. Un vecteur du plan est caractérisé par ses coordonnées x et y
suivant une base de vecteurs (~i, ~j) fixée une fois pour toutes.
Pour nous : un vecteur du plan sera un couple de réels, autrement dit un élément de R2 ,
~u = (x, y), qu’on notera soit en ligne, soit en colonne.
On sait déjà ajouter deux vecteurs du plan. u~1 = (x1 , y1 ), u~2 = (x2 , y2 ).
Comme la somme de deux vecteurs du plan est un vecteur du plan, on dit que l’addition est une
loi interne.
On sait multiplier un vecteur du plan par un nombre réel. Si λ est un nombre réel et si
~u = (x, y) est un vecteur du plan, on définit
La multiplication est effectuée par un réel et non par un vecteur. On dit que la multiplication
par un réel est une loi externe.
On ne sait pas multiplier deux vecteurs du plan, ni diviser deux vecteurs du plan.
On peut combiner la multiplication par un réel et l’addition.
λ, µ ∈ R; λ~u1 + µ~u2 = (λx1 + µx2 , λy1 + µy2 ).
On dit qu’on a effectué une combinaison linéaire des deux vecteurs ~u1 et ~u2 avec les coefficients
λ et µ.
Lorsqu’il existe un réel λ tel que ~u = λ~v , ou tel que ~v = λ~u on dit que les vecteurs ~u et ~v
sont colinéaires. Dans le cas contraire, on dit qu’ils sont linéairement indépendants. Exemple :
(1, 0) et (0, 1) sont linéairement indépendants.
On peut définir aussi les vecteurs de l’espace comme les triplets de réels ~u = (x, y, z).
15
16 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.
Définition 2.2.1 Un espace vectoriel sur K est un ensemble non vide E qui est muni de deux
opérations : la somme et la multiplication par un scalaire. Ces deux opérations vérifient les
propriétés suivantes :
u, v ∈ E, u+v = v +u (l’addition est commutative). u, v, w ∈ E, u+(v +w) = (u+v)+w.
On notera u + v + w. (L’addition est associative).
Il existe e ∈ E tel que u + e = u pour tout u de E.
Pour tout u ∈ E, il existe u0 ∈ E tel que u + u0 = e.
u ∈ E, 1u = u.
u ∈ E, λ, µ ∈ K, (λ + µ)u = λu + µu
u ∈ E, λ, µ ∈ K, (λµ)u = λ(µu). (on notera λµu).
u, v ∈ E, λ ∈ K, λ(u + v) = λu + λv.
Tout élément de E s’appelle un vecteur. On pourrait noter ~u, on notera u.
Remarques : Ce n’est pas la nature des éléments de E qui fait que E est appelé un espace
vectoriel, mais ce sont les opérations qu’on peut effectuer sur les éléments de E et les propriétés
de ces opérations.
L’addition est une loi interne. Les quatre premières propriétés sont des propriétés de l’addi-
tion seulement. On dit que (E, +) est un groupe abélien. L’élément e est appelé l’élément neutre
pour +. Les éléments u et u0 sont appelés des éléments symétriques pour +.
La multiplication par un scalaire est une loi externe. On n’a pas défini la multiplication de
deux éléments de E.
Montrons l’unicité de l’élément neutre pour l’addition. Soient e et e0 tels que pour tout u ∈ E,
e + x = x et e0 + x = x. alors e + e0 = e et e0 + e = e0 . Mais e + e0 = e0 + e donc e = e0 .
Pour u ∈ E, montrons l’unicité de l’élément symétrique de u pour l’addition. Soient u0 et v
tels que u + u0 = e et u + v = e. Alors v + (u + u0 ) = (v + u) + u0 = e + u0 = u0 . Mais on a aussi
v + (u + u0 ) = v + e = v. Donc v = u0 .
Notation : L’élément neutre pour l’addition, e, sera noté 0. On pourrait noter ~0, pour ne pas
le confondre avec le 0 de R ou C, mais on décide de ne pas mettre de flèches sur les vecteurs.
Attention : On prendra garde, tout au long du cours, à ne pas confondre le vecteur 0 (vecteur
nul) avec le scalaire 0. C’est le contexte qui nous permettra de reconnaı̂tre dans quels cas le
symbole 0 désigne le vecteur nul et dans quels cas il désigne le scalaire nul.
Montrons que si u, v, w ∈ E,
(u + w = v + w) ⇒ (u = v).
(λu = 0) ⇒ (λ = 0 ou u = 0).
−u = (−1)u.
Exemples d’espaces vectoriels a) L’ensemble K lui même est un espace vectoriel sur K. On
prend comme opérations l’addition et la multiplication dans K. Toutes les propriétés ci-dessus
sont vérifiées.
b) C est un espace vectoriel sur C, d’après a). C’est aussi un espace vectoriel sur R, si on
prend les opérations suivantes : comme loi interne l’addition dans C et comme loi externe la
mutiplication d’un nombre complexe par un nombre réel. C’est à dire
a, b, a0 , b0 ∈ R, (a + ib) + (a0 + ib0 ) = (a + a0 ) + i(b + b0 ).
a, b, λ ∈ R, λ(a + ib) = λa + iλb.
c) Si n est un entier supérieur ou égal à 2, l’ensemble Rn des n−uplets de réels est un espace
vectoriel sur R. Pour n = 2, on trouve les vecteurs du plan étudiés au lycée, pour n = 3, on
trouve les vecteurs de l’espace. L’addition dans Rn est définie par :
L’addition dans Rn est commutative, car l’addition dans R l’est. On vérifie facilement que
l’addition dans Rn est associative car l’addition dans R l’est. L’addition dans Rn a un élément
neutre qui est (0, ..., 0) car (x1 , ..., xn ) + (0, ..., 0) = (x1 + 0, ..., xn + 0) = (x1 , ..., xn ). Chaque
élément (x1 , ..., xn ) de Rn a un symétrique pour l’addition, qui est (−x1 , ..., −xn ). Donc (Rn , +)
est un groupe abélien.
De plus on a :
1(x1 , ..., xn ) = (1x1 , ..., 1xn ) = (x1 , ..., xn ).
Pour λ, µ ∈ R on a :
(λ + µ)(x1 , ..., xn ) = ((λ + µ)x1 , ..., (λ + µ)xn ) = (λx1 + µx1 , ..., λxn + µxn ) =
(λx1 , ..., λxn ) + (µx1 , ..., µxn ) = λ(x1 , ..., xn ) + µ(x1 , ..., xn ),
λ(µ(x1 , ..., xn )) = λ(µx1 , ..., µxn ) = (λµx1 , ..., λµxn ) = (λµ)(x1 , ..., xn )
et
((λµ)f )(x) = (λµ)(f (x)) = λ(µf (x)) = λ((µf )(x)) = (λ(µf ))(x), donc (λµ)f = λ(µf ).
On a
((λ + µ)f )(x) = (λ + µ)(f (x)) = λ(f (x)) + µ(f (x)) = (λf )(x) + (µf )(x),
donc (λ + µ)f = λf + µf .
On a
(λ(f + g))(x) = λ((f + g)(x)) = λ(f (x) + g(x)) = λ(f (x)) + λ(g(x)) = (λf )(x) + (λg)(x) =
(λf + λg)(x),
donc λ(f + g) = (λf ) + (λg).
On a démontré que F(I, R) muni de l’addition et de la multiplication par un scalaire définies
ci-dessus est un espace vectoriel sur R.
Définition 2.3.2 Soit F un sous-ensemble non vide de E. On dit que F est un sous-espace
vectoriel de E si
(i) Pour tous u, v ∈ F , u + v ∈ F ;
(ii) pour tous λ ∈ K, u ∈ F , λu ∈ F .
Remarques : Si F est un sous-espace vectoriel de E, alors
a) le vecteur nul appartient à F . En effet, comme F 6= ∅, soit u ∈ F . Soit 0 ∈ K le scalaire
nul, on a 0u ∈ F . Or 0u est le vecteur nul, donc le vecteur nul appartient à F .
b) Si n ≥ 2 et si u1 , ..., un ∈ F , alors u1 + ... + un ∈ F . (Appelons (Pn ) la propriété ”si
u1 , ..., un sont n vecteurs de F , alors le vecteur u1 + ... + un appartient à F ”. Démontrons par
récurrence que (Pn ) est vraie pour tout n ≥ 2. La propriété (P2 ) est vraie, donc la propriété (Pn )
est initialisée à l’ordre 2. Montrons qu’elle est héréditaire à partir de l’ordre 2, c’est à dire que
pour n ≥ 2, ((Pn ) ⇒ (Pn+1 )). Soit n ≥ 2 tel que (Pn ) soit vraie. Montrons que (Pn+1 ) est vraie.
Prenons n + 1 vecteurs de F . On a u1 + ... + un+1 = (u1 + ... + un ) + un+1 . Or, par la propriété
(Pn ) on a u1 + ... + un ∈ F . Par la propriété (P2 ), on a donc que (u1 + ... + un ) + un+1 ∈ F . La
propriété (Pn ) est donc bien héréditaire à partir de l’ordre 2. Comme elle est aussi initialisée à
l’ordre 2, alors elle est vraie pour tout n ≥ 2, par le théorème de récurrence.)
c) Si n ≥ 2, toute combinaison linéaire de n vecteurs de F appartient à F . (C’est vrai pour
toute combinaison linéaire de deux vecteurs de F , puis on fait une démonstration par récurrence
sur le nombre de vecteurs).
Proposition 2.4.2 L’ensemble des solutions d’un système homogène n × p est un sous-espace
vectoriel de Kp .
20 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.
Montrons que F1 est un sous-espace vectoriel de Kp . D’abord F1 n’est pas vide car il contient
(0, ..., 0). Si λ ∈ K, (x1 , ..., xp ) ∈ F1 et (y1 , ..., yp ) ∈ F1 , alors on a
½
a1,1 x1 + ... + a1,p xp = 0
a1,1 y1 + ... + a1,p yp = 0
Définition 2.6.1 On dit que la somme F + G est une somme directe si tout vecteur de F + G
s’écrit de manière unique comme somme d’un vecteur de F et d’un vecteur de G.
L
Notation. Quand la somme est directe, on écrit F G à la place de F + G. Exemple. Dans
l’exemple ci-dessus la somme F1 + F2 est directe.
Définition 2.6.3 On dit que F et G sont supplémentaires si tout vecteur de E s’écrit de manière
unique comme sommeL d’un vecteur de F et d’un vecteur de G.
On note alors E = F G.
Proposition 2.6.4 Soient F et G deux sous-espaces vectoriels de E. Alors ils sont supplémentaires
si et seulement si E = F + G et F ∩ G = {0}. (C’est un corollaire de la proposition précédente).
Exemples : a) Dans R2 F1 = {(λ, 0), λ ∈ R} et F2 = {(0, λ), λ ∈ R} sont des sous-espaces
vectoriels supplémentaires.
b) Soit G l’espace
L vectoriel des fonctions affines de R dans R : G = {x → ax + b, a ∈ R, b ∈ R}.
Alors G = G1 G2 où G1 est le sous-espace vectoriel des fonctions constantes et G2 est le
sous-espace vectoriel des fonctions linéaires. On vérifie que G1 ∩ G2 = {0G }, où 0G désigne la
fonction constante x → 0.
c) Dans E = F(R, R), on définit
On vérifie d’abordL(exercice) que F et G sont des sous-espaces vectoriels de F(R, R). Montrons
que F(R, R) = F G. Prouvons d’abord que F ∩ G = {0}. Soit f ∈ F ∩ G. Alors f est à la fois
paire et impaire, donc pour tout x ∈ R on a f (−x) = f (x) et f (−x) = −f (x). Donc f (x) = 0
pour tout x ∈ R, ce qui prouve que F ∩ G = {0}. Prouvons maintenant que F(R, R) = F + G.
Soit h ∈ F(R, R). On écrit :
h(x)+h(−x) h(x)−h(−x)
h(x) = 2 + 2 .
Posons
h(x)+h(−x) h(x)−h(−x)
f (x) = 2 et g(x) = 2 .
Xn
F ={ λi si ; n ∈ N; λi ∈ K; si ∈ S, i = 1, ..., n}.
i=1
Proposition 2.7.1 L’ensemble F est un sous-espace vectoriel de E et c’est le plus petit sous-
espace vectoriel de E, pour l’inclusion, qui contient tous les vecteurs de la partie S.
Dire que F est le plus petit sous-espace vectoriel, pour l’inclusion, contenant S signifie que
si G est un autre sous-espace vectoriel de E qui contient S, alors F ⊂ G.
Preuve : Le fait que F est un sous-espace vectoriel de E est immédiat : la somme de deux
combinaisons linéaires de familles finies d’éléments de S est une combinaison linéaire de la
réunion de ces deux familles ( pour les mêmes coefficients) donc c’est encore une combinaison
linéaire finie d’éléments de S. La multiplication par un scalaire d’une combinaison linéaire finie
d’éléments de S est encore une combinaison linéaire finie des mêmes éléments de S (avec les
coefficients multipliés par λ). Donc F est un sous-espace vectoriel de E. Montrons que c’est le
plus petit sous-espace vectoriel, pour l’inclusion, qui contient S. Soit G un sous-espace vectoriel
de E qui contient la partie S. Alors G contient toutes les combinaisons linéaires finie d’éléments
de S (Voir Remarques c)), donc F ⊂ G.
Notation : F = Vect S.
Cas particulier : si S a un nombre fini d’éléments, il existe p ∈ N et e1 , ..., ep des vecteurs de
E tels que S = {e1 , ..., ep }. Dans ce cas,
Xp
F ={ λi ei ; λ1 ∈ K, ..., λp ∈ K}.
i=1
Définition 2.7.3 Soit u ∈ E, u 6= 0 et soit S = {u}. Alors Vect S = {λu; λ ∈ K}. On dit alors
que Vect S est une droite vectorielle de E. C’est la droite vectorielle engendrée par le vecteur
non nul u.
On en déduit que F est l’ensemble des combinaisons linéaires des vecteurs (1, 2, 0) et (0, 1, 1).
Donc F est le sous espace vectoriel de R3 engendré par ces deux vecteurs. On dit aussi que
ces deux vecteurs constituent une partie génératrice de F . Remarquons qu’en montrant que
F = Vect {(1, 2, 0); (0, 1, 1)}, on a redémontré que F est un sous-espace vectoriel de R3 !
Cela signifie que F + G est le plus petit sous-espace vectoriel, pour l’inclusion, qui contient
à la fois les éléments du sous-espace vectoriel F et ceux du sous-espace vectoriel G.
Preuve : Prouvons que F + G = Vect (F ∪ G). Prouvons d’abord que F + G ⊂ Vect (F ∪ G).
Soit u ∈ F et v ∈ G. Alors u + v est une combinaison linéaire de deux éléments de F ∪ G,
donc u + v ∈ Vect (F ∪ G). On a donc bien : F + G ⊂ Vect (F ∪ G). Montrons maintenant que
Vect (F ∪ G) ⊂ F + G. Soit w ∈ Vect (F ∪ G). Alors w est une combinaison linéaire d’un nombre
fini de vecteurs de F ∪ G. C’est à dire qu’il existe n, m ∈ N, il existe f1 ,...,fn ∈ F , il existe
g1 ,...,gm ∈ G, il existe λ1 ,...,λn ∈ K, il existe µ1 ,...,µm ∈ K tels que
n
X m
X
w= λi fi + µj gj .
i=1 j=1
Proposition 2.7.5 Si F est le sous-espace vectoriel de E engendré par les vecteurs f1 ,...,fp et
si G est le sous- espace vectoriel de E engendré par les vecteurs g1 ,...,gq , alors F + G est le
sous-espace vectoriel de E engendré par les vecteurs f1 ,...,fp , g1 ,...,gq . (la réunion des parties
génératrices est une partie génératrice de F + G.)
Proposition 2.7.6 Soient g1 , ..., gq et f1 , ..., fp deux familles de vecteurs de E. Supposons que
pour tout i = 1, ..., q le vecteur gi s’écrive comme combinaison linéaire des vecteurs f1 , ..., fp .
g1 , ..., gq . Alors V ect{g1 , ..., gq } ⊂ V ect{f1 , ..., fp }.
Donc F est engendré par les deux vecteurs (−1, 1, 0) et (0, 0, 1). Alors F + G est le sous-espace
vectoriel de R3 engendré par la réunion des parties génératrices de F et de G. c’est à dire :
24 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.
donc
(x, y, z) = (x + y)(1, 0, 0) + y(−1, 1, 0) + z(0, 0, 1).
D’où R3 ⊂ F + G et donc R3 = F + G.
Montrons que F ∩ G = {0}. Si (x, y, z) ∈ F ∩ G, alors d’une part il existe λ ∈ R tel que
(x, y, z) = λ(1, 0, 0) L
, ce qui signifie que y = z = 0 et d’autre part x = −z. Donc x = y = z = 0.
Finalement R3 = F G.
de vecteurs pris parmi les ui qui forment une famille liée. (Dans ce cours, on s’interessera plus
particulièrement aux familles libres qui ont un nombre fini d’éléments et aux parties génératrices
qui ont un nombre fini d’éléments).
Proposition 2.8.2 Si n ≥ 2, les vecteurs u1 ,...,un forment une famille liée si et seulement si
l’un des vecteurs est combinaison linéaire des autres.
Preuve : Supposons que les vecteurs u1 , ... , un forment une famille liée (autrement dit, ils
ne sont pas linéairement indépendants). Alors il existe des scalaires λ1 , ..., λn non tous nuls
tels que λ1 u1 + ... + λn un = 0. Quitte à réindexer, on Ppeut supposer que λ1 6= 0. Alors on a :
n −λi
u1 = λ11 (−λ2 u2 − ... − λn un ), c’est à dire que u1 = i=1 ( λ1 )xj . Donc u1 est combinaison
linéaire des vecteurs u2 , ..., un .
Supposons maintenant que l’un des vecteurs est combinaison linéaire des autres. En réindexant
on peut se ramener au cas où u1 est combinaison linéaire de u2 ,...,un . Il existe λ2 ,...,λn des sca-
laires tels que u1 = λ2 u2 + ... + λn un , donc u1 − λ2 u2 − ... − λn un = 0, donc u1 ,...,un ne sont
pas linéairement indépendants (car le coefficient 1 est 6= 0).
Remarque : Pour n = 2, la proposition ci-dessus signifie que deux vecteurs sont liés si et seule-
ment si ils sont colinéaires. (c’est à dire si il existe un scalaire λ tel que u1 = λu2 ou u2 = λu1 ).
2.9 Bases.
Définition 2.9.1 Si il existe des vecteurs u1 ,...,un de E qui sont linéairement indépendants et
qui engendrent E, on dit que u1 ,...,un forment une base de E.
(ii) ⇒ (i) : Comme tout vecteur de E s’écrit comme combinaison linéaire des vecteurs
u1 ,...,un , alors les vecteurs u1 ,...,un engendrent E. Prouvons qu’ils sont linéairement indépendants.
Le vecteur nul, comme tout vecteur de E s’écrit de manière unique comme combinaison linéaire
des vecteurs u1 ,...,un ( cette écriture unique est : 0 = 0u1 + ... + 0un ). Ceci est la définition de
vecteurs linéairement indépendants.
Exemples : a) Dans R2 , les vecteurs (1, 0) et (0, 1) forment une base de R2 . En effet, tout vecteur
de R2 s’écrit de manière unique comme combinaison linéaire de (1, 0) et (0, 1) : soit (x, y) ∈ R2 ,
on écrit (x, y) = x(1, 0) + y(0, 1) et si a et b sont des scalaires tels que (x, y) = a(1, 0) + b(0, 1),
alors a = x et b = y.
b) Pour n ∈ N, n ≥ 2, les vecteurs e1 = (1, 0, ..., 0), ..., ei = (0, ..., 1, ..., 0) (1 à la ième
place),..., en = (0, ...., 0, 1). forment une base de Rn , appelée la base canonique. En effet, tout
vecteur (x1 , ..., xn ) de Rn s’écrit comme combinaison linéaire des vecteurs e1 , ..., en :
Cette écriture est unique car si (x1 , ..., xn ) = a1 (1, 0, ..., 0) + ... + an (0, ..., 0, 1), alors x1 =
a1 ,...,xn = an .
c) On donne les vecteurs de R3 : v1 = (1, −1, 0), v2 = (0, 1, −1), v3 = (2, −1, −1). Forment-ils
une base de R3 ?
(Rep. :Non.)
Notation Si les vecteurs e1 ,...,en forment une base de E, on notera : (e1 , ..., en ) est une base de
E.
Définition 2.9.3 Soit (e1 , ..., en ) une base de E. Soit u ∈ E. Les scalaires λ1 ,...,λn ∈ K qui sont
tels que u = λ1 e1 + .... + λn en s’appellent les coordonnées du vecteur u dans la base (e1 , ..., en ).
Remarque : Si E = Kn . Soit u = (x1 , ..., xn ) un vecteur de Kn . Alors les coordonnées de u
dans la base canonique de Kn sont ses composantes x1 ,...,xn .
Chapitre 3
Définition 3.1.1 On dit que E est un espace vectoriel de dimension finie s’il est engendré par
un nombre fini d’éléments. C’est à dire s’il existe un sous-ensemble de vecteurs {u1 , ..., up } tel
que tout vecteur u de E s’écrive u = λ1 u1 + ... + λp up , pour certains scalaires λ1 ,...,λp .
Rappel L’ensemble {u1 , ..., up } est alors appelé une partie génératrice de E et il peut exister
d’autres coefficients µ1 ,...,µp tels que u = µ1 u1 + ... + µp up .
Exemple : Soit l’espace vectoriel sur R E = R3 . Les vecteurs e1 = (1, 2, 0), e2 = (0, 1, 1),
e3 = (0, 1, 0) et e4 = (0, 0, 1) engendrent R3 . En effet, on a
(1, 0, 0) = e1 − 2e2 + 2e4 .
Or tout vecteur de R3 est combinaison linéaire des vecteurs de la base canonique (1, 0, 0), (0, 1, 0),
(0, 0, 1). Ces trois vecteurs de la base canonique s’écrivent comme combinaisons linéaires des
vecteurs e1 , e2 , e3 , e4 , donc tout vecteur de R3 s’écrit comme combinaison linéaire de e1 , e2 , e3 ,
e4 .
On remarque que le vecteur e3 = (0, 1, 0) s’écrit au moins de deux manières comme combi-
naison linéaire des vecteurs e1 , e2 , e3 , e4 . En effet on écrit : e3 = 1e3 et e3 = e2 − e4 . Donc les
vecteurs e1 , e2 , e3 , e4 engendrent R3 mais ne forment pas une base de R3 .
Remarque : Il existe des espaces vectoriels qui ne sont pas engendrés par une famille finie de
vecteurs. On dit qu’ils sont de dimension infinie. Par exemple, montrons que l’espace vectoriel
E sur R des fonctions polynômes à coefficients réels n’est pas de dimension finie. Faisons une
démonstration par l’absurde. Supposons qu’il existe un nombre fini de fonctions polynômes
f1 ,...,fq qui engendrent E. Parmi ces fonctions polynômes, l’une au moins a un degré maximal,
noté d. (Par exemple, si on a : q = 2, f1 : x → x2 et f2 : x → x3 + 1, ce degré maximal est
d = 3.) Alors toute fonction polynôme est une combinaison linéaire de f1 ,...,fq (dans l’exemple,
toute fonction polynôme s’écrit x → λ1 x2 + λ2 (x3 + 1), pour certains réels λ1 , λ2 ). Donc toute
fonction polynôme est de degré inférieur ou égal à 3, ce qui est absurde.
27
28 CHAPITRE 3. ESPACES VECTORIELS SUR R OU C DE DIMENSION FINIE.
p des entiers, p ≥ 1, q ≥ 1. Supposons que E soit engendré par les vecteurs g1 ,...,gq . Soient
f1 ,...,fp des vecteurs de E linéairement indépendants. Alors il existe un sous-ensemble G0 de
l’ensemble {g1 , ..., gq } tel que les éléments de l’ensemble {f1 , ..., fp } ∪ G0 forment une base de E.
Le théorème dit que si E est de dimension finie et si E 6= {0}, alors toute partie libre de E
peut être complètée en une base de E en lui ajoutant des vecteurs d’une partie génératrice.
Preuve : Remarquons d’abord qu’on peut toujours trouver des vecteurs f1 ,...,fp linéairement
indépendants. En particulier on peut choisir p = 1 et prendre pour f1 n’importe quel vecteur
non nul de E.
Posons G = {g1 , ..., gq } et L = {f1 , ..., fp }. Il existe des parties G0 de G telles que L ∪ G0 soit
libre : il y a au moins G0 = ∅. Soit G0 une partie de G telle que L ∪ G0 soit libre, de cardinal
maximal. (On commentera plus tard l’existence d’une telle partie G0 ).
Assertion : L ∪ G0 est une base de E.
Preuve de cette assertion. Par hypothèse, L ∪ G0 est libre. Il reste à prouver qu’elle engendre
E. Il suffit de prouver que tout élément g de G est combinaison linéaire des vecteurs de L ∪ G0 .
Distinguons deux cas.
Premier cas : G ⊂ L ∪ G0 . Alors il n’y a rien à démontrer.
Deuxième cas : il existe g ∈ G, g ∈ / L ∪ G0 . En particulier, g ∈ / G0 . Considèrons la partie G0 ∪ {g}
de G. Elle a un cardinal strictement plus grand que celui de G0 . On en déduit que L ∪ G0 ∪ {g}
n’est pas libre. Or L ∪ G0 est libre, donc g s’écrit comme combinaison linéaire des éléments de
L ∪ G0 .
Finalement, tout élément g de la partie génératrice G est combinaison linéaire des éléments de
L ∪ G0 , donc L ∪ G0 engendre E.
Commentons l’existence d’une partie G0 de G de cardinal maximal telle que L ∪ G0 soit libre.
Point de vue ”pratique” : on regarde les parties L ∪ {g1 },...,L ∪ {gq }. Si toutes ces parties sont
liées, alors G0 = ∅.
Sinon il existe un élément g de G tel que L∪{g} est libre. Supposons que c’est g1 . On recommence
avec les parties L∪{g1 } et {g2 , ..., gq }. On regarde donc les parties L∪{g1 }∪{g2 },...,L∪{g1 }∪{gq }.
Si toutes ces parties sont liées, alors on prend G0 = {g1 }. Sinon il existe un élément g de G tel
que L ∪ {g1 } ∪ {g} est libre. Supposons que c’est g2 . On recommence avec les parties L ∪ {g1 , g2 }
et {g3 , ..., gq }. Etc...On arrive à un nombre n maximal, n ≤ q tel que L ∪ {g1 , ..., gn } est libre.
On pose G0 = {g1 , ..., gn }.
Point de vue ”axiomatique” : l’existence de d’une partie G0 de G, de cardinal le plus grand
possible telle que L ∪ G0 est libre vient de ”l’axiome du choix”.
Corollaire 3.2.2 Tout espace vectoriel de dimension finie, non égal à {0} possède des bases qui
ont un nombre fini d’éléments.
Preuve : Soit f un vecteur non nul de E et soit G une partie génératrice de E. Par le théorème
de la base incomplète il existe une partie G0 de G telle que {f } ∪ G0 est une base de E.
Corollaire 3.2.3 Si E est un espace vectoriel de dimension finie, E 6= {0}, alors de toute partie
génératrice de E on peut extraire une base.
Preuve : Soit G une partie génératrice de E et soit f un vecteur non nul de G, puis voir la
démonstration ci-dessus.
Preuve : Posons G = {g1 , ..., gq }. On va faire une démonstration par l’absurde. Soit L =
{f1 , ..., fq+1 , ...} une partie libre de plus de q éléments. On va utiliser le théorème de la base
incomplète pour arriver à une absurdité. La partie L\{f1 } est libre. Montrons qu’elle n’engendre
pas E. Comme L est libre, f1 ne peut pas s’écrire comme une combinaison linéaire d’éléments
de L\{f1 }, sinon cela donnerait une relation linéaire non triviale entre les éléments de L. Cela
prouve que L\{f1 } n’engendre pas E. Par le théorème de la base incomplète, il existe une partie
G0 de G telle que L\{f1 } ∪ G0 est une base de E. On a G0 6= ∅. Soit un élément g de G0 . On a
que L\{f1 } ∪ {g} est libre, car c’est un sous-ensemble de la base L\{f1 } ∪ G0 . Supposons que
cet élément est g1 . On est arrivé à : L\{f1 } ∪ {g1 } est libre et G engendre E. On recommence
avec L\{f1 } ∪ {g1 } à la place de L. La partie L\{f1 , f2 } ∪ {g1 } est libre et n’engendre pas E. Il
existe donc un élément g de G, g 6= g1 , tel que L\{f1 , f2 } ∪ {g1 , g} est libre. Supposons que c’est
g2 . On recommence avec la partie libre L\{f1 , f2 } ∪ {g1 , g2 } à la place de L\{f1 } ∪ {g1 }. Comme
L a au moins q + 1 éléments, on peut faire ce raisonnement q fois. Au bout de q fois on obtient
que L\{f1 , f2 , ...fq } ∪ {g1 , ..., gq } est libre. Or comme G = {g1 , ..., gq } engendre E, le vecteur
fq+1 s’écrit comme combinaison linéaire des vecteurs g1 ,...,gq . Cela donne une relation linéaire
non triviale entre les éléments de L\{f1 , f2 , ...fq } ∪ {g1 , ..., gq }. On conclut que cette partie est à
la fois libre et liée, ce qui est absurde. L’hypothèse de l’existence d’une partie libre d’au moins
q + 1 éléments est donc fausse.
Corollaire 3.3.2 Soit E un espace vectoriel de dimension finie. Alors toutes les bases de E
sont finies et ont le même nombre d’éléments.
Preuve : Soit B et B0 deux bases de E. Elles ont un nombre fini d’éléments car il existe une
partie génératrice finie. Soit n =CardB et n0 =CardB 0 . Alors on a n ≤ n0 et n ≥ n0 , donc n = n0 .
Définition 3.3.3 Si E est de dimension finie, le nombre d’éléments commun à toutes les bases
de E s’appelle la dimension de E. (Si E = {0}, E n’admet pas de base).
Théorème 3.4.4 Soit E un espace vectoriel sur K de dimension finie. Alors tout sous-espace
vectoriel de E admet un sous-espace vectoriel supplémentaire.
Preuve : Soit e1 ,...,ep une base de F . Par le théorème de la base incomplète, on peut complèter
ces vecteurs pour obtenir une base de E. Soient ep+1 ,...,en des vecteurs de E tels que les
vecteurs e1 ,...,ep ,ep+1 ,...,en forment une base de E. On pose G = V ect{ep+1 , ..., en }. Les vec-
teurs ep+1 ,...,en sont linéairement indépendants (car ils font partie d’une famille de vecteurs
3.5. RANG D’UNE FAMILLE DE VECTEURS. 31
linéairement indépendants) et ils engendrent G (par la définition de G). Donc les vecteurs
ep+1 ,...,en forment une base
L de G. La réunion d’une base de F et d’une base de G forme une
base de E, donc E = F G par la proposition ci-dessus.
Exemple : Dans R3 on considère le sous-espace vectoriel F engendré par e1 = (1, 0, 0), e2 =
(1, 2, 0) et e3 = (1, 1, 0). Soit G le sous-espace vectoriel engendré par e4 = (0, 0, 3). On voit que e1
et e2 sont non colinéaires, donc ils sont linéairement indépendants. On remarque que e1 +e2 = 2e3
donc F est de dimension 2 et admet une base formée des vecteurs e1 et e2 . D’autre part, G est
une droite vectorielle. Montrons que e1 ,e2 ,e4 sont linéairement indépendants. S’ils étaient liés,
alors e4 serait combinaison linéaire de e1 et e2 (car e1 et e2 sont linéairement indépendants). Or
cela implique que la dernière composante de e4 serait nulle, ce qui est faux. Donc e1 ,e2 ,e4 sont
linéairementL indépendants, leur nombre est trois, donc ils forment une base de R3 . Cela montre
que R3 = F G.
Premier exemple. Dans R4 on considère le sous-espace vectoriel F engendré par les vecteurs
u1 = (1, 0, −1, 1), u2 = (2, 1, 4, 0), u3 = (1, 1, 0, 0), u4 = (3, 1, 2, 1) et u5 = (4, 2, 13, −1). On
les place en colonnes. Comme la première composante de u1 est non nulle, on la prend comme
pivot. La première étape consiste à remplacer pour tout i ≥ 2 le vecteur ui par un vecteur de la
forme ui − λu1 , où le scalaire λ est choisi pour que la première composante du vecteur
32 CHAPITRE 3. ESPACES VECTORIELS SUR R OU C DE DIMENSION FINIE.
1 2 1 3 4 1 0 0 0 0
0 1 1 1 2 0 1 1 1 2
ui − λu1 soit nulle. On écrit : puis . Appelons
−1 4 0 2 13 −1 6 1 5 17
1 0 0 1 −1 1 −2 −1 −2 −5
w1 , w2 , w3 , w4 et w5 les colonnes qu’on vient d’obtenir. Alors F = Vect {w1 , w2 , w3 , w4 , w5 },
d’après le principe énoncé ci-dessus. Comme le coefficient de la deuxième colonne et deuxième
ligne est non nul, on le prend comme pivot et on recommence sur les colonnes j, j ≥ 2. On écrit :
1 0 0 0 0
0 1 0 0 0
Appelons η1 ,...,η5 les 5 colonnes obtenues. Selon le principe énoncé
−1 6 −5 4 5
1 −2 1 −1 −1
ci-dessus, on a Vect {w1 , ..., w5 } = V ect{η1 , ..., η5 } ; on recommence sur les colonnes 4 et 5.
1 0 0 0 0
0 1 0 0 0
.
−1 6 −5 0 0
1 −2 1 −1/5 0
Appelons t1 ,...,t5 les colonnes qu’on vient d’obtenir. Toujours grace au même principe, on a
Vect {η1 , ..., η5 } = Vect {t1 , ..., t5 }. Donc finalement F = Vect {t1 , ..., t5 }. Or t5 est nul, donc
F = Vect {t1 , t2 , t3 , t4 }. De plus les vecteurs t1 , t2 , t3 et t4 sont linéairement indépendants, à
cause du caractère échelonné de leurs composantes. En effet, t4 et t3 sont non colinéaires. Puis t2
n’est pas combinaison linéaire des vecteurs t4 et t3 , sinon sa deuxième composante serait nulle.
donc t4 , t3 , t2 sont linéairement indépendants. Puis t1 n’est pas combinaison linéaire de t4 , t3 ,t2 ,
sinon sa première composante serait nulle. Donc t1 , t2 , t3 , t4 sont linéairement indépendants.
Comme on sait qu’ils engendrent F , alors ils forment une base de F . On a donc trouvé que le
rang de la famille des 5 vecteurs u1 , u2 , u3 , u4 , u5 est 4.
Remarquons qu’au cours de l’utilisation de l’algorithme du pivot de Gauss, on n’a pas eu
besoin d’intervertir l’ordre des colonnes. Montrons, à titre d’exercice, que cela implique que
les vecteurs u1 , u2 , u3 , u4 forment une base de F , extraite de la famille u1 , u2 , u3 , u4 , u5 .
Soient w1 ,...,w5 les vecteurs obtenus après la première étape. On remarque que w1 , w2 , w3 ,
w4 ∈ Vect {u1 , u2 , u3 , u4 } et que u1 , u2 , u3 ,u4 ∈ Vect {w1 , w2 , w3 , w4 }. En effet, les vecteurs
wi , i = 1, ..., 4 s’écrivent comme des combinaisons linéaires des vecteurs ui , i = 1, ..., 4 et
réciproquement, les vecteurs ui , i = 1, ..., 4 s’écrivent comme des combinaisons linéaires des
vecteurs wi , i = 1, ..., 4. Par conséquent Vect {u1 , ..., u4 } = Vect {w1 , ..., w4 }. A l’étape sui-
vante, on n’a pas intervertit les colonnes. On trouve donc des vecteurs η1 ,...,η5 de la forme
ηi = wi − λi w2 , i = 1, ..., 5, donc les vecteurs η1 ,...,η4 sont combinaisons linéaires de w1 ,...,w4
et réciproquement les vecteurs w1 ,...,w4 sont combinaisons linéaires de η1 ,...,η4 . Par conséquent
Vect {w1 , ..., w4 } = Vect {η1 , ..., η4 }. On recommence le même raisonnement à la dernière étape.
On trouve Vect {t1 , t2 , t3 , t4 } = Vect {η1 , η2 , η3 , η4 }. Finalement :
Vect {u1 , u2 , u3 , u4 } = Vect {t1 , t2 , t3 , t4 } = F . Les vecteurs u1 , u2 , u3 , u4 engendrent donc F .
Or F est de dimension 4, donc toute partie génératrice de 4 vecteurs est une base de F . Donc
les quatre vecteurs u1 , u2 , u3 et u4 forment une base de F .
Dans certains cas, on peut être obligé d’intervertir les colonnes, afin d’avoir à chaque itération
un pivot non nul.
Deuxième exemple. Dans R4 on considère le sous-espace vectoriel F engendré par les vec-
teurs e1 = (1, 2, 3, 1), e2 = (1, 2, 1, 0), e3 = (2, 1, 0, 1) et e4 = (0, 1, 2, 2). On cherche la dimension
de F , en même temps qu’une base de F . On écrit
3.6. SOUS-ESPACES VECTORIELS DE KP . 33
1 1 2 0 1 0 0 0
2 2 1 1 2 0 −3 1
puis .
3 1 0 2 3 −2 −6 2
1 0 1 2 1 −1 −1 2
le deuxième pivot est nul. On intervertit par exemple la deuxième colonne avec la dernière.
On obtient :
1 0 0 0 1 0 0 0
2 1 −3 0 2 1 0 0
, puis
3 2 −6 −2 3 2 0 −2
1 2 −1 −1 1 2 5 −1
Le troisième pivot est nul. On intervertit la troisième colonne et la quatrième. On obtient :
1 0 0 0
2 1 0 0
.
3 2 −2 0
1 2 −1 5
Soient t1 ,...,t4 ces colonnes . Comme dans le premier exemple on a F = V ect{t1 , ..., t4 } et t1 , t2 ,
t3 , t4 sont linéairement indépendants, car leurs composantes sont échelonnées. Donc le rang des
vecteurs e1 , e2 , e3 , e4 est 4 (et donc ils forment une base de F ).
Attention : La méthode ci-dessus ne s’applique qu’à partir d’une base de F et pas de n’importe
quelle partie génératrice. Si F est donné par une partie génératrice quelconque, il faut d’abord
trouver une base avant de calculer un système d’équations cartésiennes par cette méthode.
Chapitre 4
Applications linéaires.
Remarque : f est un homomorphisme de groupe du groupe (E, +) dans le groupe (F, +).
Propriétés. a) Pour tout u ∈ E, f (0u) = 0f (u) = 0F . Donc f (0E ) = 0F .
b)Pour tous n ∈ N? , λ1 ,...,λn ∈ K, u1 ,...,un ∈ E, f (λ1 u1 + ... + λn un ) = λ1 f (u1 ) + ... + λn f (un ).
(Démonstration par récurrence).
Exemples. a) Soit a ∈ R et f : R 7→ R, x → ax. Alors f est une application linéaire.
(Rappel : sa représentation graphique est une droite qui passe par 0. Les applications linéaires
de R dans R sont utilisées dans les problèmes de proportionnalité.) Montrons que si g : R 7→ R
est une application linéaire, alors il existe a ∈ R tel que pour tout x, g(x) = ax. On a g(x) =
g(1x) = xg(1). On pose a = g(1).
f :R →R
b) Si a ∈ R et b ∈ R, b 6= 0, alors l’application n’est pas linéaire, car
x → ax + b
f (0) 6= 0.
f :R →R
c) Soit alors f n’est pas une application linéaire. En effet :f (2x) = 4f (x) 6=
x → x2
2f (x) si x 6= 0.
d) E = C 1 (R, R), F = C 0 (R, R). E et F sont des espaces vectoriels sur R car ce sont des sous
Ψ:E →F
-espaces vectoriels de F(R, R). Alors est une application linéaire de E dans F .
f → f0
Φ:E →R
e) Soit F = C 0 (R, R) alors Rb est une application linéaire de E dans R.
f → a f (t)dt
H : Kn → Kp
f) Soient n et p des entiers, 1 ≤ p ≤ n alors est une application
(x1 , ..., xn ) → (x1 , ..., xp )
linéaire.
F(R, R) → R
g) Soit x0 un réel fixé. L’application est linéaire.
f → f (x0 )
35
36 CHAPITRE 4. APPLICATIONS LINÉAIRES.
R2 → R
h) Si a ∈ R et b ∈ R, alors est une application linéaire. Si λ ∈ R,
(x, y) → ax + by
on a f (λ(x, y)) = f (λx, λy) = aλx + bλy = λ(ax + by) = λf ((x, y)). et f ((x, y) + (x0 , y 0 )) =
f ((x + x0 , y + y 0 )) = a(x + x0 ) + b(y + y 0 ) = ax + ax0 + by + by 0 = f ((x, y)) + f ((x0 , y 0 )).
g◦f :E →F →G
Preuve : Si u,v ∈ E, (g ◦ f )(u + v) = g(f (u + v)) = g(f (u) + f (v)) = g(f (u)) + g(f (v)) =
g ◦ f (u) + g ◦ f (v). De même, si λ ∈ K, g ◦ f (λu) = λg ◦ f (u).
Proposition 4.1.3 Soit f : E → F une application linéaire bijective. Alors son application
linéaire réciproque f −1 : F → G est une application linéaire.
Preuve : On sait que si u ∈ E, v ∈ F , (u = f −1 (v)) ⇔ (v = f (u)). Soient v1 et v2 ∈ F .
Montrons que f −1 (v1 + v2 ) = f −1 (v1 ) + f −1 (v2 ). Soient u1 et u2 les éléments de E tels que
f (u1 ) = v1 et f (u2 ) = v2 . Comme f est linéaire, on a
On pose u = u1 +u2 . On a f (u) = v1 +v2 , donc u = f −1 (v1 +v2 ), c’est à dire f −1 (v1 )+f −1 (v2 ) =
f −1 (v1 + v2 ).
Si λ ∈ K, v ∈ F et u ∈ E, montrons que f −1 (λv) = λf −1 (v). Soit u l’élément de E tel que
f (u) = v alors, comme f est linéaire, on a f (λu) = λv, donc f −1 (λv) = λu = λf −1 (v).
Exemple : Si a ∈ R, a 6= 0, alors f : R → R, x 7→ ax est une application linéaire bijective et
f −1 : x 7→ a1 x.
Définition 4.1.4 Soit f : E → F une application linéaire bijective. On dit que f est un iso-
morphisme d’espaces vectoriels de E sur F . On dit aussi que l’espace vectoriel E est isomorphe
à l’espace vectoriel F .
Proposition 4.1.5 Soit la relation binaire R définie sur l’ensemble des K-espaces vectoriels
par ”ERF si E est isomorphe à F ”. Alors R est une relation d’équivalence dans l’ensemble des
K-espaces vectoriels.
Preuve : Réflexive : id : E → E est un isomorphisme. Symétrique : si f : E → F est un
isomorphisme, alors f −1 : F → E est un isomorphisme. Transitive : si f : E → F et g : F → G
sont des isomorphismes, alors g ◦ f : E → G est un isomorphisme.
Exemple fondamental. Si E est un espace vectoriel de dimension n, alors E est isomorphe à
Kn .
Preuve : Soit (e1 , ..., en ) une base de E. On définit f : E → Kn , u 7→ (x1 , ..., xn ), où x1 , ..., xn
sont les coordonnées de u dans la base (e1 , ...., en ). On vérifie que f est une application (si u est
un vecteur de E, existence et unicité des coordonnées de u). Puis on vérifie que f est linéaire.
Ensuite on définit l’application g par g : Kn → E, (x1 , ..., xn ) 7→ x1 e1 +...+xn en . On a g◦f = idE
et f ◦ g = idKn . Donc f est bijective, d’application réciproque g.
Vocabulaire. Une application linéaire de E dans K s’appelle une forme linéaire.
Une application linéaire de E dans lui-même s’appelle un endomorphisme d’espace vectoriel de
E.
Un endomorphisme bijectif de E s’appelle un automorphisme de E.
4.2. IMAGE ET NOYAU. 37
Définition 4.2.3 On appelle noyau de f l’ensemble des vecteurs de E dont l’image par f est
le vecteur nul de F .
Notation ker f .
On a ker f = {u ∈ E, f (u) = 0F }.
(f (u) = f (v)) ⇔ (f (u − v) = 0F ).
Donc
Comme Ker f = {0E }, alors : (f (u) = f (v)) ⇒ (u = v), donc f est injective.
Exemples f : R2 → R (x, y) → 2x + 3y. ker f = {(x, −(2/3)x); x ∈ R}, donc ker f 6= {(0, 0)}.
f n’est pas injective. Rπ
Soit E = C 0 (R, R) et Φ : E → R, f → −π f (t)dt. Soit f (t) = sin t. On a Φ(f ) = 0, et f 6= 0E ,
donc Φ n’est pas injective.
Proposition 4.3.2 Si f est injective alors l’image de toute partie libre de E est une partie libre
de F .
38 CHAPITRE 4. APPLICATIONS LINÉAIRES.
Proposition 4.4.1 Si {g1 , ..., gq } est une partie génératrice de E, alors son image {f (g1 ), ..., f (gq )}
est une partie génératrice de Im f .
Preuve : Si v ∈ Im f , alors il existe u ∈ E tel que v = f (u). Il existe des scalaires λ1 ,...,
λq tels que u = λ1 g1 + ... + λq gq . Donc v = λ1 f (g1 ) + ... + λq f (gq ), ce qui prouve que
Im f ⊂ Vect {f (g1 ), ..., f (gq )}. Réciproquement, on a bien Vect {f (g1 ), ..., f (gq )} ⊂ Im f, car
f (g1 ), ..., f (gq ) ∈ Im f . Finalement, Im f = Vect {f (g1 ), ..., f (gq )}.
Corollaire 4.4.2 Si l’espace vectoriel E est de dimension finie, alors son image par une appli-
cation linéaire est un espace vectoriel de dimension finie et dim Im f ≤ dim E.
Remarque 4.4.4 Si (e1 , ..., en ) est une base de E, alors le rang de f est égal au rang des
vecteurs f (e1 ),...,f (en ).
4.5 Isomorphismes.
Théorème 4.5.1 Soit f : E → F une application linéaire. Supposons que E est de dimension
finie. Alors on a l’équivalence de
(i) f est un isomorphisme de E dans F .
(ii) L’image de toute base de E est une base de F .
(iii) Il existe une base de E dont l’image par f est une base de F .
4.5. ISOMORPHISMES. 39
Preuve : a) Montrons (i) ⇒ (ii). Soit (e1 , ..., en ) une base de E. Comme f est injective alors
{f (e1 ), ..., f (en )} est une partie libre de F . On sait que cette partie engendre Im f , donc c’est
une base de Im f . Or f est surjective, donc Im f = F . Finalement, (f (e1 ), ..., f (en )) est une base
de F .
b) Montrons que (iii) ⇒ (i). Soit (e1 , ..., en ) une base de E telle que (f (e1 ), ..., f (en )) soit
une base de F . Montrons que f est bijective. On voit immédiatement que F ⊂ Im f , car
f (e1 ),...,f (en ) ∈ Im f. Donc f est surjective. Montrons que f est injective. Soit u ∈ ker f . Il
existe des scalaires λ1 ,...,λn tels que u = λ1 e1 +...+λn en . Alors f (λ1 e1 +...+λn en ) = 0F . Comme
f est linéaire, λ1 f (e1 ) + ... + λn f (en ) = 0F . Or f (e1 ),...,f (en ) sont linéairement indépendants,
donc λ1 = ... = λn = 0. On en déduit que u = 0E .
Corollaire 4.5.2 Soient E et F des espaces vectoriels isomorphes. Alors si l’un est de dimen-
sion finie, l’autre aussi et ils ont tous deux la même dimension.
Théorème 4.5.3 Supposons que E et F sont de dimension finie et que dim E = dim F . Soit
f : E → F une application linéaire. Alors on a l’équivalence de
(i) f est un isomorphisme de E dans F .
(ii) f est injective.
(iii) f est surjective.
Preuve : Soit r le rang des vecteurs u1 , ..., up . Rappelons que le rang est la dimension de
Vect {u1 , ..., up }. Le rang r est caractérisé par le fait qu’il existe r vecteurs linéairement indépendants
parmi les p vecteurs u1 , ..., up et que toute sous-famille d’au moins r + 1 vecteurs pris parmi
u1 , ..., up est liée. Supposons que u1 ,...,ur sont linéairement indépendants. Alors, comme f
est injective, f (u1 ), ..., f (ur ) sont linéairement indépendants. Appelons r0 le rang de la famille
f (u1 ), ..., f (up ). On a montré que r0 ≥ r. En faisant le même raisonnement avec l’isomorphisme
f −1 , on en déduit que r ≥ r0 . Donc r = r0 .
Corollaire 4.5.5 Soit E un espace vectoriel de dimension n. Soit (e1 , ..., en ) une base de E.
Soient u1 ...up des vecteurs de E. On note (x11 , ..., x1n ),...,(xp1 , ..., xpn ) les coordonnées des vecteurs
u1 ,...,up dans la base (e1 , ..., en ). Alors le rang de la famille u1 ,...,up est égal au rang de la
famille des p vecteurs de Kn : (x11 , ..., x1n ),...,(xp1 , ..., xpn ).
Applications. a) Pour calculer le rang de p vecteurs de E, on fixe une base de E et on écrit
les coordonnées de ces vecteurs dans la base. On est ramené au calcul du rang de p vecteurs de
Kn , ce qu’on sait faire, par la méthode du pivot appliquée aux colonnes.
b) Soit F un sous-espace vectoriel de E. Une base (e1 , ..., en ) de E étant fixée, on peut calculer
un système d’équations cartésiennes de F dans la base (e1 , ..., en ).
40 CHAPITRE 4. APPLICATIONS LINÉAIRES.
III) Exercice Dans E = R2 , soit F la droite vectorielle engendrée par le vecteur (1, 1) et G
la droite vectorielle engendrée
L par (1, −1).
(i) Montrer que E = F G. (Indication : réunir une base de F et une base de G.)
(ii) Soit w = (x, y) un vecteur de R2 . Trouver les coordonnées de p(w) dans la base canonique
de R2 . (Réponse : p(w) = ( x+y x+y
2 , 2 )).
Chapitre 5
Définition 5.1.2 (Rappel) Une matrice qui a le même nombre de lignes et de colonnes est dite
carrée. Un matrice carrée est dite :
diagonale si ai,j = 0 si i 6= j ;
triangulaire supérieure si ai,j = 0 pour i > j ;
triangulaire inférieure si ai,j = 0 pour i > j.
41
42 CHAPITRE 5. APPLICATIONS LINÉAIRES EN DIMENSION FINIE. MATRICES
Définition 5.1.3 Une matrice à une ligne s’appelle une matrice-ligne. Une matrice à une co-
lonne s’appelle une matrice-colonne. La ième ligne de la matrice (ai,j ) est lamatrice-ligne :
a1,j
..
(ai,1 , ai,2 , ..., ai,p ). La jème colonne de la matrice (ai,j ) est la matrice-colonne : . .
an,j
Définition 5.1.4 Si A = (ai,j ) ∈ Mn,p (K) et λ ∈ K on définit le produit de A par λ par :
λA = (λai,j ).
A + B = (ai,j + bi,j ).
µ ¶ µ ¶
1 −1 2 2 −2 4
Exemples : A = ∈ M2,3 (R). 2A = .
0 1 3 0 2 6
µ ¶ µ ¶
0 −1 3 1 −2 5
B= ∈ M2,3 (R). A + B = ∈ M2,3 (R).
1 1 0 1 2 3
a1 b1 + ... + ap bp .
Attention : le produit d’une matrice-ligne par une matrice-colonne n’est défini que si les deux
matrices ont le même nombre de coefficients.
1
Exemple : A = (1, −1, 0) et B = 2 . AB = 1 × 1 + (−1) × 2 + 0 × 1 = −1.
1
Définition 5.1.6 Soit A ∈ Mn,p (K) et B ∈ Mp,q (K). Le produit de A par B, noté AB est la
matrice n × q dont le coefficient de la ième ligne et jème colonne est le produit de la ième ligne
de A et de la jème colonne de B.
Attention : Le produit de A par B n’est défini que si le nombre de colonnes de A est égal au
nombre de lignes de B.
Exemple :
1 1 −1
−2 1 3 1 2
A=
3 0 1 ∈ M4,3 (R) et B =
0 1 ∈ M3,2 (R).
1 3
1 0 0
Alors
0 0
1 6
AB =
4
∈ M4,2 (R).
9
1 2
5.1. MATRICES. RÈGLES DE CALCUL. 43
0
..
.
Remarques : Si A ∈ Mn,p (K) et si Ej =
1 ∈ Mp,1 (K), (1 à la jème place, 0 ailleurs),
..
.
0
alors AEj est la jème colonne de A.
La ième ligne de la matrice AB est égale au produit de la ième ligne de la matrice A par la
matrice B.
La jème colonne de la matrice AB est égale au produit de la matrice A par la jème colonne de
la matrice B.
Règles de calcul. Soient A, B, C ∈ Mn,p (K) ,λ, µ ∈ K.
En utilisant les définitions de l’addition des matrices et de la multiplication par un scalaire, on
montre que :
A + B = B + A, A − A = 0 (où 0 désigne la matrice nulle.) A + 0 = A.
A + (B + C) = (A + B) + C, on note A + B + C.
λ(A + B) = λA + λB
(λ + µ)A = λA + µA.
(λµ)A = λ(µA).
1A = A.
Définition 5.1.7 Pour 0 ≤ k ≤ n et 0 ≤ l ≤ p, on définit la matrice Ek,l dont le coefficient de
la kème ligne et lème colonne vaut 1, les autres coefficients étant égaux à 0.
Proposition 5.1.8 L’ensemble Mn,p (K), muni de l’addition des matrices et de la multiplication
par les scalaires est un espace vectoriel sur K. Les matrices Ek,l , 0 ≤ k ≤ n et 0 ≤ l ≤ p, forment
une base de Mn,p (K).
Preuve : Les règles de calcul ci-dessus font que Mn,p (K) muni de l’addition et de la multi-
plication par les scalaires est un espace vectoriel sur K. De plus on écrit pour toute matrice
A = (ai,j ),
Xn Xp
A= ak,l Ek,l ,
k=1 l=1
et si
p
n X
X
A= ck,l Ek,l ,
k=1 l=1
alors ak,l = ck,l pour 0 ≤ k ≤ n et 0 ≤ l ≤ p. On voit donc que toute matrice de Mn,p (K) s’écrit
de manière unique comme combinaison linéaire des matrices Ek,l , 0 ≤ k ≤ n, 0 ≤ l ≤ p.
Définition 5.1.9 On définit In comme la matrice carrée n × n, diagonale, dont les coefficients
diagonaux sont tous égaux à 1.
On a les règles de calcul suivantes, qui résultent des propriétés de l’addition et de la mul-
tiplication dans K, ainsi que de la définition de la multiplication des matrices (quand on peut
calculer les produits).
A, b, C ∈ Mn (K), λ ∈ K,
In A = AIn = A
λ(AC) = (λA)C, on note λAC.
(A + B)C = AC + BC et A(B + C) = AB + AC (double distributivité de la multiplication par
rapport à l’addition.)
44 CHAPITRE 5. APPLICATIONS LINÉAIRES EN DIMENSION FINIE. MATRICES
Remarque : Le produit des matrices n’est pas commutatif. On n’a pas toujours AB = BA,
même si les produits AB et BA existent tous les deux.
Exemple :
1 2 µ ¶
1 1
A= 3 0 B=
0 1
1 −1
AB existe, BA n’existe pas. µ ¶
1 2
C=
−1 1
BC et CB existent et BC 6= CB.
Proposition 5.1.10 Soient A ∈ Mn,p (K), B ∈ Mp,q (K), C ∈ Mq,r (K). Alors A(BC) =
(AB)C.
Preuve : Notons ((AB)C)i,j le coefficient de la ième ligne et jème colonne de la matrice (AB)C.
Alors on a :
((AB)C)i,j =( ième ligne de AB)×( jème colonne de C)
= (ai,1 b1,1 + ... + ai,p bp,1 )c1,j + (ai,1 b1,2 + ... + ai,p bp,2 )c2,j + .... + (ai,1 b1,q + ... + ai,p bp,q )cq,j
et
(A(BC))i,j =( ième ligne de A)×( jème colonne de BC)
= ai,1 (b1,1 c1,j + ... + b1,q cq,j ) + ai,2 (b2,1 c1,j + ... + b2,q cq,j ) + .... + ai,p (bp,1 c1,j + ... + bp,q cq,j ).
On constate que ((AB)C)i,j = (A(BC))i,j .
Définition 5.1.11 (i) Si A est une matrice-colonne, on appelle transposée de A la matrice-ligne
qui a les mêmes coefficients que A.
i (ii) Si A ∈ Mn,p (K), on appelle transposée de A la matrice de Mp,n (K) dont la ième ligne est
égale à la transposée de la ième colonne de A.
La transposée de A sera notée At .
Exemple :
1 −1 µ ¶
1 0 1
A= 0 2 t
A = .
−1 2 1
1 1
Proposition 5.1.12 Si A, B, C ∈ Mn (K) alors
(i) (At )t = A.
(ii) (A + B)t = At + B t .
(iii) (AC)t = C t At .
Preuve : (i) et (ii) sont faciles à vérifier (exercice). Montrons (iii). D’une part on a :
ième ligne de (AC)t = ième colonne de AC
=A× (ième colonne de C).
D’autre part on a :
ième ligne de (C t At ) = (ième ligne de C t ) ×At
=(ième ligne de C t×
1ère colonne de At , ième ligne de C t × 2ème colonne de At ,..., ième ligne
de C t × nième colonne de At )
=(1ère ligne de A× ième colonne de C , 2ème ligne de A× ième colonne de C ,..., nième ligne
de A× ième colonne de C)
=A× ième colonne de C.
5.2. MATRICE D’UNE APPLICATION LINÉAIRE DANS DES BASES. 45
x1 b1
x2 b2
Remarque : Si A = (ai,j ) ∈ Mn,p (K), X = .. ∈ Kp et B = .. ∈ Kn , on notera
. .
xp bn
AX = B le système linéaire de matrice A et de second membre B :
a1,1 x1 +... +a1,p xp = b1
....
an,1 x1 +... +an,p xp = bn
Le système homogène associé sera noté AX = 0, où 0 désigne le vecteur nul de Kn .
Φ : Kp → Kn
X → AX
est une application linéaire de l’espace vectoriel Kp dans l’espace vectoriel Kn et sa matrice dans
les bases canoniques de Kp et Kn est A.
Preuve : Prouvons que Φ est une application linéaire. Tout vecteur X de Kp s’écrit
x1
x2 x1 a1,1 +... +xp a1,p
..
X = . . On a :AX = . .
. .
x1 an,1 +... +xp an,p
xn
On vérifie que si X et Y appartiennent à Kp , alors A(X + Y ) = AX + AY
et si
λ ∈ K, A(λX
=
1 1
0 0
λX. Donc Φ est une application linéaire de Kp dans Kn . De plus, on a φ( . ) = A . ,
.. ..
0 0
alors c’est
bien la première
colonne de A. De même
0 0
. .
φ(
1 ) = A 1 (1 à la jème place, 0 ailleurs). C’est la jème colonne de A.
0 0
. .
46 CHAPITRE 5. APPLICATIONS LINÉAIRES EN DIMENSION FINIE. MATRICES
Exemple :
1 0
Pour n = 3, p = 2 et K = R, on donne u1 = 3 et u2 = 1 deux vecteurs de R3 .
2 3
L’unique application linéaire φ : R2 → R3 telle que
µ ¶ µ ¶
1 0
φ( ) = u1 et φ( ) = u2
0 1
est une application linéaire bijective. (Le fait que M est une application linéaire est un corollaire
de la proposition précédente. Il suffit de vérifier que M est bijective.)
48 CHAPITRE 5. APPLICATIONS LINÉAIRES EN DIMENSION FINIE. MATRICES
Attention : Si A ∈ Mn,p (K), n 6= p, on n’a pas défini l’inverse de A et on peut démontrer qu’il
n’existe jamais de matrice B ∈ Mp,n (K) telle que AB = In et BA = Ip .
Proposition 5.7.5 On a l’équivalence de :
(i) A est une matrice carrée n × n inversible.
(ii) Pour tout B ∈ Kn le système linéaire AX = B admet une solution unique.
Preuve : a) Montrons que (i) ⇒ (ii). AX = B ⇔ A−1 AX = A−1 B ⇔ X = A−1 B. Le système
AX = B admet donc une solution et une seule.
b) Montrons que (ii) ⇒ (i). On considère l’endomorphisme de Kn défini par
Φ : Kn → Kn
X → AX
c’est à dire l’application linéaire de Kn dans Kn dont la matrice dans la base canonique de Kn
est A. La propriété (ii) signifie que Φ est bijective. Donc Φ admet une fonction réciproque et on
5.7. MATRICES CARRÉES INVERSIBLES. 49
sait que la fonction réciproque d’une application linéaire bijective est une application linéaire.
Soit B la matrice de Φ−1 dans la base canonique de Kn . Alors AB est la matrice dans la base
canonique de l’application linéaire Φ ◦ Φ−1 , c’est à dire que ABX = Φ ◦ Φ−1 (X). Or Φ ◦ Φ−1 est
l’application identité de Kn : X → X. On sait que la matrice de l’identité dans la base canonique
de Kn est In . Donc AB = In .
De même, BA est la matrice de l’application linéaire Φ−1 ◦ Φ : X → X. Donc BA = In . On a
donc montré que A est inversible.
Proposition 5.7.6 Soit A une matrice carrée. On a l’équivalence de :
(i) A est inversible ;
(ii)Le système linéaire homogène
à ! AX = 0 admet la solution unique X = 0 (ici 0 désigne le
0
vecteur nul de Kn : 0 = .. .)
.
Preuve : (i) ⇒ (ii) est évident.
Montrons (ii) ⇒ (i). Soit Φ l’application linéaire de Kn dans Kn associée canoniquement à la
matrice A. La propriété (ii) signifie que la noyau de Φ est réduit au vecteur nul de Kn . Cela
implique que Φ est bijective, car Φ est un endomorphisme, donc l’espace vectoriel de départ et
d’arrivée ont la même dimension. Donc pour tout vecteur B de Kn , le système AX = B admet
une solution unique. On conclut que A est inversible en utilisant la proposition précédente.
Corollaire 5.7.7 Considérons les n matrices-colonnes de A comme n vecteurs de Kn . Alors
A est inversible si et seulement si les n colonnes de A sont des vecteurs de Kn linéairement
indépendants.
x1
x2
Preuve : Rappelons que si X =
. , alors :
.
xn
a1,1 a1,2 a1,n
a2,1 a2,2 a2,n
AX = x1
. + x2 . + .... + xn . .
. . .
an,1 an,2 an,n
Dire que le système AX = 0 admet l’unique solution X = 0 revient donc à dire que le vec-
teur nul de Kn s’écrit de manière unique comme combinaison linéaire des n vecteurs-colonnes
de A, cette manière unique étant de prendre les coefficients x1 = x2 = ... = xn = 0. Par
définition de l’indépendance linéaire, ceci signifie que les vecteurs-colonnes de A sont linéairement
indépendants. µ ¶
a b
Application. Dans M2 (K), la matrice est inversible si et seulement si ad − bc 6= 0.
c d
Le nombre ad − bc est appelé le déterminant de A.
La notion de déterminant se généralise à toute dimension n. (Cours d’algèbre 2).
Proposition 5.7.8 On a l’équivalence de
(i) A est inversible
(ii) il existe une matrice B telle que AB = In
(iii) il existe une matrice C telle que CA = In .
Preuve : a) Montrons que (ii) ⇒ (i). Pour X ∈ Kn on (BX = 0) ⇒ (ABX = 0) ⇒ (X = 0).
Donc B est inversible, par la proposition précédente. De plus ABB −1 = B −1 , donc A = B −1 .
Donc A est inversible, d’inverse B.
Montrons que (ii) ⇒ (i). (AX = 0) ⇒ (CAX = 0) ⇒ (X = 0). Donc A est inversible.
50 CHAPITRE 5. APPLICATIONS LINÉAIRES EN DIMENSION FINIE. MATRICES
Preuve : a) Montrons que (i) ⇒ (ii). Soit f un isomorphisme de E dans F . Soit f −1 l’applica-
tion linéaire réciproque de f . La matrice de f ◦ f −1 dans la base B0 est le produit des matrices de
f et de f −1 . Or f ◦ f −1 = idF . Sa matrice dans la base B0 est la matrice identité In . On a donc
M(f, B, B0 ) × M(f −1 , B 0 , B) = In . De même, f −1 ◦ f = idE , donc M(f −1 , B0 , B) × M(f, B, B0 ) =
In . On conclut que M(f, B, B0 ) est inversible et que sa matrice inverse est M(f −1 , B 0 , B).
b) Prouvons que (iii) ⇒ (i). Soient B une base de E et B0 une base de F telles que la matrice
M(f, B, B0 ) soit inversible. Notons M cette matrice. Notons M −1 sa matrice inverse. Définissons
l’application linéaire g comme étant l’application linéaire de F dans G dont la matrice dans les
bases B0 et B est M −1 . Alors la matrice de g ◦ f dans la base B est M × M −1 , donc c’est In . On
en déduit que g ◦ f = idE . La matrice de f ◦ g dans la base B 0 est M −1 × M , c’est donc aussi
In . On en déduit que f ◦ g = idF . On conclut que f est bijective.
Remarquons que pour reconnaı̂tre si f est bijective ou non (sans calculer l’endomorphisme
réciproque éventuel f −1 ), il suffit de résoudre le système AX = 0. Si on trouve l’unique solution
X = 0, alors le noyau de f est réduit au vecteur nul, donc f est injective, donc bijective car
dim E = dim F . Si on trouve un espace vectoriel de solutions de dimension supérieure ou égale
à 1, alors f n’est pas injective, donc pas bijective.
Remarquons que pour reconnaı̂tre seulement si A est inversible (sans calculer sa matrice inverse
éventuelle), il suffit de résoudre le système AX = 0. Si on trouve comme unique solution le
vecteur nul de R3 , alors A est inversible. Sinon, on trouve comme ensemble de solutions un
sous-espace vectoriel de R3 de dimension 1 ou 2 et A n’est pas inversible.
Proposition 5.9.1 La matrice A est inversible si et seulement si la méthode du pivot de Gauss
appliquée aux lignes de la matrice A la transforme en une matrice triangulaire supérieure à
diagonale non nulle. (Rappel : la méthode du pivot de Gauss sur les lignes de la matrice A est
la méthode qu’on utilise pour résoudre les systèmes linéaires de la forme AX = B).
Preuve : La méthode du pivot de Gauss transforme la matrice A en une matrice échelonnée
carrée E. Soit cette matrice E est triangulaire supérieure à diagonale non nulle, soit sa ou ses
dernières lignes sont nulles. La méthode du pivot de Gauss transforme le système AX = 0 en le
système équivalent EX = 0. Ce dernier système admet l’unique solution X = 0 si et seulement
si E est triangulaire supérieure à diagonale non nulle.
Remarque : Si on utilise la méthode du pivot de Gauss pour étudier l’inversibilité d’une matrice
A, on a intérêt à transformer en même temps le second membre B. Ainsi, dans le cas où A est
inversible, on pourra lire la matrice inverse A−1 .
52 CHAPITRE 5. APPLICATIONS LINÉAIRES EN DIMENSION FINIE. MATRICES
1 −1 1
Exemple : A = 2 0 4 . On utilise la méthode du pivot de Gauss pour résoudre le
1 1 3
x −y +z = b1 x −y +z = b1
système 2x +4z = b2 . On trouve 2y +2z = −2b1 + b2
x +y +3z = b3 . 2y +2z = −b1 + b3
x −y +z = b1
puis 2y +2z = −2b1 + b2 Ici, la méthode du pivot de Gauss transforme la matrice
0 = −b1 + b2 − b3 .
1 −1 1
A en une matrice échelonnée dont la dernière ligne est nulle : E = 0 2 2 . Le système
0 0 0
AX = B a soit aucune solution, soit une infinité de solutions, selon la valeur de (b1 , b2 , b3 ). Le
système AX = 0 a une infinité de solutions. Donc A n’est pas inversible. (Remarquons que la
transformation du second membre ne sert à rien ici !)
(A + B)2 = A2 + B 2 + AB + BA.
Exercice a) Montrer 2 2 2
µ ¶que (A +µB) n’est
¶ n’est pas toujours égal à A + 2AB + B . (Voir par
0 1 0 0
exemple A = et B = .)
0 0 0 1
b) Montrer que (A + B)(A − B) = A2 − B 2 + BA − AB et que ce n’est pas toujours égal à
A2 − B 2 .
Chapitre 6
Changements de bases.
Proposition 6.1.1 Soient e01 ,...,e0n n vecteurs de E. Soient C1 ,....,Cn les colonnes des coor-
données de e01 ,...,e0n dans la base (e1 , ..., en ). Soit P ∈ Mn (K) la matrice dont la jème colonne
53
54 CHAPITRE 6. CHANGEMENTS DE BASES.
est Cj . Alors les vecteurs e01 ,....,e0n forment une base de E si et seulement si la matrice P est
inversible.
Définition 6.1.2 Quand la matrice P définie ci-dessus est inversible, on l’appelle la matrice
de passage de la base (e1 , ..., en ) à la base (e01 , ..., e0n ). La base (e1 , ..., en ) sera appelée l’ancienne
base et la base (e01 , ..., e0n ) sera
appelée
la nouvelle base.
x1
Soit u ∈ E et soit X = ... la colonne des coordonnées de u dans la base (e1 , ..., en ).
xn
On se pose la question suivante : comment calculer les coordonnées de u dans la nouvelle base
(e01 , ..., e0n ) ?
Théorème 6.1.3 Soient (e1 , ..., en ) d’une part et (e01 , ..., e0n ) d’autre part, deux bases de E. Soit
P la matrice de passage de la base (e1 , ..., en ) àla base(e01 , ..., e0n ). Si la colonne des coordonnées
x1
..
du vecteur u dans la base (e1 , ..., en ) est X = . , alors la colonne X 0 de ses coordonnées
xn
dans la base (e0 , ..., e0 ) se déduit de la formule : X = P X 0 .
1
n 0
x1 x1
.. ..
C’est à dire : . = P . .
xn x0n
On a la formule équivalente : X 0 = P −1 X.
Preuve :
u = x1 e1 + ... + xn en et u = x01 e01 + ... + x0n e0n .
Or on a, par la définition de la matrice P :
0
e1 = p1,1 e1 + · · · + pn,1 en
(1ère colonne de P )
..
.
0
en = p1,n e1 + · · · + pn,n en (nième colonne de P )
On remplace les e0i par leurs décompositions sur la base des ej , dans la deuxième formule donnant
u ci-dessus. On trouve :
ce qui donne :
u = (p1,1 x01 +p1,2 x02 +. . .+p1,n x0n )e1 +(p2,1 x01 +p2,2 x02 +. . .+p2,n x0n )e2 +. . .+(pn,1 x01 +pn,2 x02 +. . .+pn,n x0n )en .
Or il n’y a qu’une seule décomposition de u sur la base e1 ,...,en . Donc les scalaires qui appa-
raissent comme coefficients des vecteurs ei dans la formule ci-dessus sont les coordonnées de u
dans la base e1 ,...,en . On a donc :
x1 = p1,1 x01 + p1,2 x02 + . . . + p1,n x0n
x2 = p2,1 x0 + p2,2 x0 + . . . + p2,n x0
1 2 n
..
.
xn = pn,1 x01 + pn,2 x02 + . . . + pn,n x0n ,
Autrement dit : X = P X 0 .
6.1. CHANGEMENT DE COORDONNÉES. MATRICE DE PASSAGE. 55
0 0 1 2
Vérifions que les vecteurs e1 , e2 , e3 , e4 forment une base de R4 . On remarque que les coor-
0 0 0 0
données de ces vecteurs sont presque échelonnées. On raisonne suivant la manière habituelle pour
des vecteurs de coordonnées échelonnées. D’abord on voit que e04 et e03 ne sont pas colinéaires,
donc ils sont linéairement indépendants. Puis on voit que e02 n’est pas combinaison linéaire de e03
et e04 , sinon sa deuxième coordonnée serait nulle. Comme e03 et e04 sont linéairement indépendants,
cela prouve que e02 , e03 , e04 sont linéairement indépendants. Alors e01 ,...,e04 sont liés si et seulement
si e01 s’écrit comme combinaison linéaire de e02 , e03 , e04 . Or e01 n’est pas combinaison linéaire de
ces trois vecteurs, sinon sa première composante serait nulle. Donc les quatre vecteurs e01 , e02 , e03 ,
e04 sont linéairement indépendants. Comme leur nombre est 4, ils forment une base de R4 . Soit
u le vecteur 4
de R donné parses 4 composantes :
1 1
1 1
u=
1 . La colonne 1 est le vecteur u, mais c’est aussi la colonne des coordonnées
1 1
du vecteur u dans la base canonique de R4 . Cherchons les coordonnées de u dans la nouvelle
base (e01 , e02 , e03 , e04 ). Ecrivons la matrice de passage P de la base canonique (ancienne base) à la
nouvelle base.
56 CHAPITRE 6. CHANGEMENTS DE BASES.
1 0 0 0 e1
2 1 0 0 e2
P = 0 0 2 1 e3
0 0 1 2 e4
e01 e02 e03 e04 .
Les coordonnées X 0 de u dans la nouvelle base sont données par la formule X = P X 0 , c’est
à dire
: 0
1 = x 0 x 0 = 1 x =1
1
1
0 0 0 10
1 = 2x1 + x2 x2 = −1 x2 = −1
1 = 2x 0 + x0 Il reste à résoudre ce système. On trouve 2x 0 + x0 = 1
d’où
x03 = 1/3
3 4
3 4
1 = x03 + 2x04 3x04 = 1 x04 = 1/3
1
−1
Les nouvelles coordonnées de u sont donc données par la colonne 1/3
1/3
Attention : Le vecteur u n’est pas égal à cette colonne. On a seulement : u = e01 −e02 + 13 e03 + 31 e04 .
(Formule qu’on peut vérifier pour détecter d’éventuelles erreurs de calcul).
On aurait pu résoudre le problème autrement. D’abord prouver que P est inversible et
calculer P −1 . Alors le fait que P soit inversible montre que (e01 , e02 , e03 , e04 ) est une base de R4 .
Puis on calcule les nouvelles coordonnées de u par la formule X 0 = P −1 X.
A0 = Q−1 AP.
Preuve : La preuve est à connaı̂tre, car il faut être capable de retrouver la formule. On va
donner deux preuves différentes (retenir celle qui semble la plus simple !)
Première démonstration. Montrons que QA0 = AP . Pour cela, on calcule de deux manières
la matrice de f dans les bases (u01 , ..., u0p ) et (v1 , ..., vn ). D’une part on écrit : f = idF ◦ f . La
matrice Q est la matrice de idF dans les bases (v10 , ..., vn0 ) et (v1 , ..., vn ). La matrice A0 est la
matrice de f dans les bases (u01 , ..., u0p ) et (v10 , ..., vn0 ). Par le théorème de composition, la matrice
de f = idF ◦f dans les bases (u01 , ..., u0p ) et (v1 , ..., vn ) est QA0 . D’autre part, on écrit : f = idE ◦f .
La matrice P est la matrice de idE dans les bases (u01 , ..., u0p ) et (u1 , ..., up ). La matrice A est la
matrice de f dans les bases (u1 , ..., up ) et (v1 , ..., vn ). Donc la matrice de la fonction composée
f = idE ◦ f dans les bases (u01 , ..., u0p ) et (v1 , ..., vn ) est AP . On a donc calculé la matrice de
f dans les bases (u01 , ..., u0p ) et (v1 , ..., vn ) de deux manières différentes. Comme il n’y a qu’une
seule matrice, on a AP = QA0 .
Deuxième démonstration. (Nécessite de connaı̂tre la formule de changement de base pour
les vecteurs). On donne un vecteur u de E. Soit X la colonne de ses coordonnées dans la
base (u1 , ..., up ) et X 0 la colonne de ses coordonnées dans la base (u01 , ..., u0p ). Le vecteur f (u)
appartient à F . Appelons Y la colonne de ses coordonnées dans la base (v1 , ..., vn ) et Y 0 la
colonne de ses coordonnées dans la base (v10 , ..., vn0 ). On : Y = AX et Y 0 = A0 X 0 . Or X = P X 0
et Y = QY 0 . On substitue P X 0 à X et QY 0 à Y dans la formule Y = AX. On trouve QY 0 =
6.2. FORMULE DE CHANGEMENT DE BASE POUR UNE APPLICATION LINÉAIRE.57
AP X 0 , donc Y 0 = Q−1 AP X 0 . Comme cela est vrai pour tout vecteur u de E, on en déduit que
A0 = Q−1 AP .
f : R2 → R3
Exemple : Soit . Appelons (e1 , e2 ) la base canonique de R2 et
(x, y) → (2x + 3y, x, x − y)
e1 ,
ee2 , ee3 ) la base 3 2 3
(e canonique de R . La matrice de f dans les bases canoniques de R et R
2 3
est 1 0 . On donne u1 = (1, 2) et u2 = (0, 1) deux vecteurs de R2 . Ils forment une
1 −1
base de R2 car ils ne sont pas colinéaires. On donne trois vecteurs de R3 : v1 = (1, −1, 0),
v2 = (1, 2, 1) et v3 = (0, 1, 2). On voit que v1 et v2 sont linéairement indépendants. Donc v1 ,
v2 , v3 ne peuvent être liés que si v3 est une combinaison linéaire de v1 et v2 , c’est à dire si il
0 =α+β
existe des réels α et β tels que 1 = −α + 2β et ce système n’a pas de solution, donc v1 ,
2 =β
v2 , v3 sont linéairement indépendants. Ils forment une µ base ¶ de R3 . La matrice de passage de
1 0
la base canonique de R2 à la base (u1 , u2 ) est P = et la matrice de passage de la
2 1
1 1 0
base canonique de R3 à la base (v1 , v2 , v3 ) est Q = −1 2 1 . On inverse la matrice Q.
0 1 2
3 −2 1 21 8
On trouve Q−1 = 51 2 2 −1 . Le produit Q−1 AP donne A0 = 15 19 7 . Ceci
−1 −1 3 −12 −6
1 1
signifie que f (u1 ) = 5 (21v1 + 19v2 − 12v3 ) et f (u2 ) = 5 (8v1 + 7v2 − 6v3 ).
Définition 6.2.2 Soient A et A0 deux matrices de Mn,p (K). Si il existe deux matrices inver-
sibles P ∈ Mp (K) et Q ∈ Mn (K) telles que A0 = Q−1 AP , on dit que A et A0 sont des matrices
équivalentes. Si A et A0 ∈ Mp (K) et s’il existe une matrice inversible P ∈ Mp (K) telle que
A0 = P −1 AP , on dit que A et A0 sont des matrices semblables.
Exercice : La relation R définie sur Mn,p (K) par ”ARA0 s’il existe deux matrices inversibles
P ∈ Mp (K) et Q ∈ Mn (K) telles que A0 = Q−1 AP ” est une relation d’équivalence.
58 CHAPITRE 6. CHANGEMENTS DE BASES.
Chapitre 7
Proposition 7.1.2 Soit (u1 , ..., up ) une base de E, (v1 , ..., vn ) une base de F et soit f : E → F
une application linéaire. Soit A la matrice de f dans les bases (u1 , ..., up ) et (v1 , ..., vn ). Alors le
rang de f est égal au rang de A.
Preuve : On a rg (f ) = dim Im f = dim Vect {f (u1 ), ..., f (up )}. Et rg (A) = dim Vect {C1 , ..., Cp }
où C1 ,...,Cp sont les colonnes de A. Mais on sait que la jème colonne Cj est la colonne des coor-
données du vecteur f (uj ) dans la base (v1 , ..., vn ). Par conséquent la famille des vecteurs f (u1 ),
...,f (up ) et la famille des vecteurs C1 ,...,Cp ont le même rang. Donc rg (f ) = rg (A).
Corollaire 7.1.3 Si A et A0 sont deux matrices équivalentes, alors elles ont le même rang.
Preuve : Par hypothèse il existe deux matrices inversibles P ∈ Mp (K) et Q ∈ Mn (K) telles
que A0 = Q−1 AP . Soit Φ l’application linéaire de Kp dans Kn associée canoniquement à la
matrice A. Soient u1 ,...,up les vecteurs de Kp constitués par les colonnes de P . Alors, comme P
est inversible, (u1 , ..., up ) est une base de Kp et P est la matrice de passage de la base canonique
de Kp à la base (u1 , ..., up ) . De même on considère les colonnes de Q. Ce sont n vecteurs de Kn ,
appelés v1 ,...,vn , qui forment une base de Kn et Q est la matrice de passage de la base canonique
de Kn à la base (v1 , ..., vn ). Par la formule de changement de base, la matrice A0 est la matrice de
l’application linéaire Φ dans les bases (u1 , ..., up ) et (v1 , ..., vn ). Donc rg (A) = rg (Φ) = rg (A0 ).
Remarque : Soit A une matrice. On connaı̂t deux manières différentes de calculer le rang de
A. La première méthode consiste à trouver le rang des colonnes de A par la méthode expliquée
au Chapitre 3 (page 31) : on applique la méthode du pivot de Gauss aux colonnes de A. La
deuxième méthode consiste à trouver la dimension du noyau de Φ, où Φ est l’application linéaire
associée canoniquement à A. On utilise ensuite la formule : dim Im Φ + dim Ker Φ = p, qui donne
rg A = p − dim Ker Φ. (En effet, on sait par la proposition ci-dessus que rg A = dim Im Φ.)
Définition 7.1.4 Soit A ∈ Mn,p (K). On considère le système linéaire AX = 0. On dit que les
lignes du système sont linéairement indépendantes si les n matrices-lignes de A : (a1,1 , ..., a1,p ),....,
(an,1 , ..., an,p ) (considérées comme des vecteurs de Kp ) sont linéairement indépendantes.
59
60 CHAPITRE 7. RANG D’UNE MATRICE, RETOUR AUX SYSTÈMES LINÉAIRES.
t 0 1
−1 −1
1
Cela montre que les vecteurs u1 = et u2 = −1 engendrent F . Montrons qu’ils
1 0
0 1
forment une base
de F
. Il suffit
démontrer qu’ils sont linéairement indépendants. On remarque
−1 −1 0
1 −1 0
que si z
1 + t 0 = 0 , alors z = t = 0 car z et t sont des composantes du vec-
0 1 0
0
0
teur
0 . Donc u1 et u2 forment une base de F et la dimension de F est 2. Par ailleurs le rang
0
du système est deux, car du fait qu’il est échelonné, les lignes sont linéairement indépendantes.
Dans ce cas, on trouve dim F = p − r.
Généralisons ce résultat.
Proposition 7.1.6 Soit le système linéaire homogène AX = 0, de dimension n × p et de rang
r. La dimension de l’espace vectoriel F des solutions de ce système est p − r.
La démonstration de cette proposition découle de deux lemmes.
7.1. RANG D’UNE MATRICE. RANG D’UN SYSTÈME LINÉAIRE. 61
Lemme 7.1.7 Le rang des lignes du système homogène AX = 0 est égal au nombre de lignes
non nulles du système échelonné équivalent EX = 0 obtenu par la méthode du pivot de Gauss.
Preuve C’est le raisonnement du chapitre 3, page 31, mais appliqué aux lignes de la matrice
A, notées L1 ,...,Ln , considérées comme des vecteurs de Kp . On rappelle le principe : si λ2 ,...,λn
sont des scalaires, alors le sous-espace vectoriel de Kp engendré par les vecteurs L1 ,...,Ln est le
même que les sous-espace vectoriel engendré par les vecteurs L1 , L2 − λ2 L1 ,...,Ln − λn L1 . Donc
les lignes obtenues après la première itération du pivot de Gauss ont le même rang que les lignes
L1 ,...,Ln . On réitère le procédé. Une fois terminée la méthode du pivot de Gauss le rang des n
lignes obtenues est égal au rang des lignes L1 ,...,Ln . Or, à cause du caractère échelonné, le rang
des n lignes obtenues est le nombre, appelé r, de lignes non nulles (car on montre facilement que
les r lignes non nulles, échelonnées, sont linéairement indépendantes) .
Lemme 7.1.8 Soit un système linéaire échelonné homogène de dimension r × p, dont les r
équations sont non nulles. Alors la dimension de l’espace vectoriel F des solutions de ce système
est égal au nombre d’inconnues non principales, c’est p − r.
Preuve : Rappelons que dans un tel système, il y a r inconnues principales et p − r inconnues
non principales qu’on prend comme paramètres. Quitte à réindexer les inconnues, appelons
x1 ,...,xr les inconnues principales et xr+1 ,..., xp les p − r paramètres. Pour chaque valeur du
(p − r)−uplet (xr+1 , ..., xp ) on trouve une unique solution du système par la méthode de la
remontée. Appelons ur+1 la solution (x1 , ..., xp ) trouvée pour (xr+1 , ..., xp ) = (1, 0, ...0), ur+2 la
solution trouvée pour (xr+1 , ..., xp ) = (0, 1, 0...0),..., up la solution trouvée pour (xr+1 , ..., xp ) =
(0, ..., 0, 1). Soit le vecteur u défini par u = xr+1 ur+1 + ... + xp up . Alors u est une solution du
système comme combinaison linéaire de solutions. Les p − r dernières composantes du vecteur
u sont xr+1 ,...,xp . Réciproquement, si u = (x1 , ..., xp ) est une solution du système, alors le
vecteur xr+1 ur+1 + ... + xp up est une solution du système pour les mêmes valeurs xr+1 ,...,xp des
paramètres, donc il est égal à u. L’ensemble des solutions est donc
Les vecteurs ur+1 ,...,up engendrent donc F . De plus la décomposition de toute solution u comme
combinaison linéaire des vecteurs ur+1 ,...,up est unique, puisque les coefficients qui apparaissent
dans la décomposition sont nécessairement les p − r dernières composantes de u. Les p − r
vecteurs ur+1 ,...,up forment donc une base de F .
Preuve de la proposition 7.1.6 Le rang r des lignes de A se calcule par la méthode
du pivot de Gauss appliquée aux lignes de A. Il est égal au nombre d’équations non nulles
dans le système échelonné qu’on trouve après l’utilisation de l’algorithme du pivot de Gauss
pour résoudre le système AX = 0. Soit F l’espace vectoriel des solutions du système homogène
AX = 0. C’est aussi l’ensemble des solutions du système échelonné à r lignes non nulles EX = 0,
obtenu par la méthode du pivot de Gauss. Donc dim F = p − r.
Proposition 7.1.9 Pour toute matrice, le rang des lignes est égal au rang des colonnes.
Preuve : Soit A ∈ Mn,p (K). Appelons r le rang des lignes de A, r0 le rang de A (c’est à dire le
rang des colonnes de A) et F l’espace vectoriel des solutions du système homogène AX = 0. On
a vu que dim F = p − r. Soit Φ l’application linéaire de Kp dans Kn associée canoniquement à
A. Alors F = Ker Φ. Par ailleurs, r0 = dim Im Φ. Par le théorème de la dimension on a
Remarque : Soit A ∈ Mn,p (K). Le K-espace vectoriel des solutions du système linéaire ho-
mogène AX = 0 est l’intersection de n hyperplans de Kp .
Définition 7.1.11 Soit A ∈ Mn,p (K). On appelle matrice extraite de A toute matrice A0 ∈
M0 n0 ,p0 (K), 1 ≤ n0 ≤ n, 1 ≤ p0 ≤ p, obtenue à partir de A en rayant n − n0 lignes et p − p0
colonnes.
Proposition 7.1.12 Soit A ∈ Mn,p (K). Soit r le rang de A. Alors il existe une matrice carrée
extraite de A, de dimension r × r et inversible. C’est le cas pour toute matrice r × r extraite de
A en choisissant r lignes linéairement indépendantes et r colonnes linéairement indépendantes
et en rayant les autres. De plus, si r0 > r, toute matrice carrée extraite de A et de dimension
r0 × r0 (s’il en existe) est non inversible.
Preuve : Choisissons r colonnes de A linéairement indépendantes et r lignes de A linéairement
indépendantes et rayons toutes les autres lignes et les autres colonnes. On obtient une matrice
carrée A0 de dimension r × r. Montrons que les r lignes de A0 sont linéairement indépendantes.
7.1. RANG D’UNE MATRICE. RANG D’UN SYSTÈME LINÉAIRE. 63
Supposons, pour simplifier les notations, qu’on a gardé les r premières lignes et les r premières
colonnes de A.
a1,1 . . . a1,r a1,r+1 . . . a1,p
a2,1 . . . a2,r a2,r+1 . . . a2,p
..
.
A=
r,1 . . . ar,r
a ar,r+1 . . . ar,p
..
.
an,1 . . . an,r an,r+1 . . . an,p
Ecrivons une relation linéaire entre les lignes de A0 . Soient λ1 ,...,λr ∈ K telles que
λ1 (a1,1 , ..., a1,r ) + ... + λr (ar,1 , ..., ar,r ) = (0, ..., 0).
Il s’agit de prouver que nécessairement λ1 = ... = λr = 0. Dans ce but on va prouver que :
λ1 (a1,1 , ..., a1,p ) + ... + λr (ar,1 , ..., ar,p ) = (0, ..., 0).
Comme on a supposé que les r premières lignes de A sont linéairement indépendantes, ça
impliquera que λ1 = ... = λr = 0.
Utilisons le fait que chacune des p − r dernières colonnes de A est une combinaison linéaire
des r premières colonnes de A. Comme la r + 1 ème colonne de A est une combinaison linéaire
des r premières colonnes de A, il existe des scalaires µ1 ,...,µr tels que
a1,r+1 = µ1 a1,1 + µ2 a1,2 + ... + µr a1,r
..
.
ar,r+1 = µ1 ar,1 + µ2 ar,2 + ... + µr ar,r
On en déduit que :
λ1 a1,r+1 +...+λr ar,r+1 = λ1 (µ1 a1,1 +µ2 a1,2 +...+µr a1,r )+. . .+λr (µ1 ar,1 +µ2 ar,2 +...+µr ar,r ).
Or
λ1 (µ1 a1,1 + µ2 a1,2 + ... + µr a1,r ) + . . . + λr (µ1 ar,1 + µ2 ar,2 + ... + µr ar,r )
= µ1 (λ1 a1,1 + λ2 a2,1 + ... + λr ar,1 ) + ... + µr ((λ1 a1,r + λ2 a2,r ... + λr ar,r ) = 0.
On trouve donc λ1 a1,r+1 +...+λr ar,r+1 = 0. On fait la même démonstration pour les colonnes
numéros r + 2,...,p. On trouve λ1 a1,r+2 + ... + λr ar,r+2 = 0,....,λ1 a1,p + ... + λr ar,p = 0. Donc
λ1 (a1,1 , ..., a1,p ) + ... + λr (ar,1 , ..., ar,p ) = (0, ..., 0) et ça implique que λ1 = ...λr = 0. Donc les
lignes de A0 sont linéairement indépendantes, donc A0 est inversible.
Soit maintenant r0 > r et soit A00 une matrice extraite de A, carrée r0 × r0 . Les lignes de A00
sont extraites d’une famille de r0 lignes de A, en rayant certaines colonnes. Or toute famille de
r0 lignes de A est liée c’est à dire que l’une des r0 lignes de A est combinaison linéaire des r0 − 1
autres. Donc ceci est encore vrai pour les lignes de A00 . Les lignes de A00 ne sont pas linéairement
indépendantes, donc A00 n’est pas de rang maximal, donc n’est pas inversible.
Rappel Si A est une matrice carrée inversible, alors pour tout second membre B le système
linéaire AX = B admet une solution unique X = A−1 B.
Définition 7.1.13 Si A est une matrice carrée inversible, alors on dit que le système linéaire
AX = B est un système de Cramer.
Définition 7.1.14 Soit un système linéaire de matrice A ∈ Mn,p , de second membre B, noté
AX = B. Soit r le rang de la matrice A. Choisissons une matrice r×r extraite de A et inversible.
Les r lignes du systèmes ainsi choisies sont appelées les équations principales et les r inconnues
ainsi choisies sont appelées les inconnues principales.
Supposons qu’on a déterminé le rang r de la matrice A, qu’on a trouvé r lignes indépendantes
et r colonnes indépendantes. Appelons A0 la matrice inversible r × r ainsi obtenue. Supposons,
pour simplifier, que L1 ,...,Lr soient des lignes linéairement indépendantes. Alors les autres lignes
de la matrice A sont des combinaisons linéaires de ces r lignes. Si les seconds membres br+1 ,...,bn
sont des combinaisons linéaires des seconds membres b1 ,...,br avec les mêmes coefficients, alors
on obtient un système équivalent en supprimant ces n − r équations. Sinon le système n’a pas
64 CHAPITRE 7. RANG D’UNE MATRICE, RETOUR AUX SYSTÈMES LINÉAIRES.
de solution. Dans le cas où on obtient un système équivalent en ne conservant que les équations
principales, alors on prend les p − r inconnues non principales comme paramètres et on résoud
un système de Cramer de matrice A0 pour calculer les inconnues principales en fonction des
paramètres.
µ ¶ ½
2 −4 1 2x −4y +z = 1
Exemple : A = . Soit le système AX = B suivant :
0 −1 1 x −y +z = 2.
Le rang de A est 2. On voit que la matrice extraite de A en rayant la dernière colonne est
une matrice inversible. On peut donc prendre x et y comme inconnues ½ principales et z comme
2x −4y = 1 − z
paramètre et on résoud le système de Cramer d’inconnues x et y :
x −y = 2 − z.
Définition 7.2.3 On appelle hyperplan d’un espace affine de dimension p tout sous-espace affine
de dimension p − 1.
On peut interpréter chaque ligne du systm̀e linéaire AX = B comme l’équation d’un hyper-
plan affine de Kp . L’ensemble des solutions du système linéaire est l’intersection de n hyperplans
affines.