You are on page 1of 64

Notes de cours d’algèbre linéaire.

L1, algèbre 1.

Anne Beaulieu

Année 2007–2008
2
Table des matières

1 Résolution des systèmes linéaires. 5


1.1 Exemples élémentaires (à coefficients réels). . . . . . . . . . . . . . . . . . . . . . 5
1.2 Systèmes à n lignes et p colonnes, systèmes échelonnés. . . . . . . . . . . . . . . . 6
1.3 Résolution des systèmes échelonnés. . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Algorithme du pivot de Gauss. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.5 Principes à retenir, pour la résolution des systèmes linéaires. . . . . . . . . . . . 11
1.6 Structure de l’ensemble des solutions d’un système linéaire. . . . . . . . . . . . . 12

2 Espaces vectoriels sur R ou C. 15


2.1 Rappel : les vecteurs du plan. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Espaces vectoriels sur R ou C. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3 Sous-espaces vectoriels. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4 Intersection de sous-espaces vectoriels. . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5 Somme d’un nombre fini de sous-espaces vectoriels. . . . . . . . . . . . . . . . . . 20
2.6 Somme directe de deux sous-espaces vectoriels.
Sous-espaces vectoriels supplémentaires. . . . . . . . . . . . . . . . . . . . . . . . 21
2.7 Sous-espace vectoriel engendré par une famille de vecteurs. . . . . . . . . . . . . 22
2.8 Dépendance et indépendance linéaire. . . . . . . . . . . . . . . . . . . . . . . . . 24
2.9 Bases. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

3 Espaces vectoriels sur R ou C de dimension finie. 27


3.1 Définition d’un espace vectoriel de dimension finie. Exemple d’un espace vectoriel
de dimension infinie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2 Théorème de la base incomplète. Existence des bases. . . . . . . . . . . . . . . . 27
3.3 Notion de dimension d’un espace vectoriel. . . . . . . . . . . . . . . . . . . . . . . 28
3.4 Sous-espaces vectoriels en dimension finie. Tout sous-espace vectoriel admet un
supplémentaire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.5 Rang d’une famille de vecteurs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.6 Sous-espaces vectoriels de Kp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.6.1 Passage d’une partie génératrice à une base ; calcul du rang. . . . . . . . . 31
3.6.2 Passage d’une base à un système d’équations cartésiennes. . . . . . . . . . 33

4 Applications linéaires. 35
4.1 Définitions et exemples. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.2 Image et noyau. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.3 Application linéaire injective. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.4 Cas où l’espace vectoriel de départ est de dimension finie, image d’une partie
génératrice. Rang d’une application linéaire. . . . . . . . . . . . . . . . . . . . . . 38
4.5 Isomorphismes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.6 Exemples : projections vectorielles, symétries vectorielles. . . . . . . . . . . . . . 40

3
4 TABLE DES MATIÈRES

5 Applications linéaires en dimension finie. Matrices 41


5.1 Matrices. Règles de calcul. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.2 Matrice d’une application linéaire dans des bases. . . . . . . . . . . . . . . . . . . 45
5.3 Application linéaire de Kp dans Kn associée canoniquement
à une matrice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.4 Calcul des coordonnées de l’image d’un vecteur de E. . . . . . . . . . . . . . . . 46
5.5 Opérations linéaires sur les applications linéaires et les matrices. . . . . . . . . . 47
5.6 Composition des applications linéaires et multiplication des matrices. . . . . . . . 48
5.7 Matrices carrées inversibles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.8 Matrices carrées inversibles et isomorphismes. . . . . . . . . . . . . . . . . . . . . 50
5.9 Calcul de la matrice inverse. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.10 Algèbre des matrices n×n. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

6 Changements de bases. 53
6.1 Changement de coordonnées. Matrice de passage. . . . . . . . . . . . . . . . . . . 53
6.2 Formule de changement de base pour une application linéaire. . . . . . . . . . . . 56

7 Rang d’une matrice, retour aux systèmes linéaires. 59


7.1 Rang d’une matrice. Rang d’un système linéaire. . . . . . . . . . . . . . . . . . . 59
7.2 Systèmes linéaires avec second membre. Espaces affines. . . . . . . . . . . . . . . 64
Chapitre 1

Résolution des systèmes linéaires.

Dans tout ce cours, le symbole K désigne R ou C, appelé corps des scalaires.

1.1 Exemples élémentaires (à coefficients réels).


Premier exemple. On veut trouver les couples de réels (x, y) qui satisfont les deux équations
du système
½
2x + 3y = 7 (L1 )
(S1 )
x−y = 1 (L2 )

Par exemple on retranche 2(L2 ) à (L1 ). On obtient le système


½
0 5y = 5 (L01 )
(S1 )
x − y = 1 (L02 )

qui a le même ensemble de solutions que (S1 ). En effet, on retrouve (S1 ) à partir de (S10 ) en
faisant ½
(L01 ) + 2(L02 )
(L02 )
La ligne (L01 ) est équivalente à y = 1. On reporte dans la deuxième équation, on trouve x = 2.
On conclut que (S1 ) a une solution et une seule : (x, y) = (2, 1).

Deuxième exemple.
½
2x − 2y = 10 (L1 )
(S2 )
x−y = 1 (L2 )

On retranche 2(L2 ) à (L1 ). On obtient le système


½
0 0 = 8 (L01 )
(S2 )
x − y = 1 (L02 ).

On remarque que le système (S2 ) peut être retrouvé à partir du système (S20 ) car

(L1 ) = (L01 ) + 2(L02 ).

Les systèmes (S2 ) et (S20 ) ont donc le même ensemble de solutions. La première ligne (L01 ) n’est
jamais réalisée. On conclut que le système (S2 ) n’a aucune solution.

5
6 CHAPITRE 1. RÉSOLUTION DES SYSTÈMES LINÉAIRES.

Troisième exemple.
½
2x − 2y = 8 (L1 )
(S3 )
x−y = 4 (L2 ).

La première ligne est égale à deux fois la seconde. On conclut que le système (S3 ) est équivalent

(S 0 3) x=y+4

L’ensemble des couples (x, y) qui vérifient l’équation (S30 ) est

{(y + 4, y); y ∈ R}.

Le système (S3 ) a donc une infinité de solutions. On dit qu’on a pris y comme paramètre.
Remarquons qu’au lieu de prendre y comme paramètre, on peut prendre x. Le même ensemble
de solutions s‘écrit donc aussi
{(x, x − 4); x ∈ R}.

1.2 Systèmes à n lignes et p colonnes, systèmes échelonnés.


Définition 1.2.1 Soient p et n dans N∗ . On appelle système linéaire à n équations et p incon-
nues à coefficients dans K tout système d’équations qui s’écrit


 a1,1 x1 + ... + a1,j xj + ... + a1,p xp = b1


 ................
(S) ai,1 x1 + ... + ai,j xj + ... + ai,p xp = bi



 ................

an,1 x1 + ... + an,j xj + ... + an,p xp = bn

où ai,j ∈ K, 1 ≤ i ≤ n, 1 ≤ j ≤ n et bi ∈ K. On appelle matrice associée au système (S) le


tableau de nombres  
a1,1 a1,2 ... a1,p
 a2,1 a2,2 ... a2,p 
A=  .......


an,1 an,2 ... an,p
On note A = (ai,j ) On dit que A est une matrice à n lignes et p colonnes à coefficients
1≤i≤n
1≤j≤n
dans K.
On notera toujours par i l’indice de ligne (premier indice) et par j l’indice de colonne (deuxième
indice).
Exemple : Le système (S1 ) a pour matrice
µ ¶
2 3
A= .
1 −1

Définition 1.2.2 Si b1 = ... = bn = 0, on dit que le système est homogène. Le système



 a1,1 x1 + ... + a1,j xj + ... + a1,p xp = 0
(S0 ) ..............

an,1 x1 + ... + an,j xj + ... + an,p xp = 0

est appelé le système homogène associé à (S) (on dit aussi le système sans second membre).
1.2. SYSTÈMES À N LIGNES ET P COLONNES, SYSTÈMES ÉCHELONNÉS. 7

Exemple : Le système homogène associé à (S1 ) est


½
2x + 3y = 0
x−y =0

Définition 1.2.3 On appelle solution de (S) tout n-uplet (u1 , ..., un ) de K n tel que

 a1,1 u1 + ... + a1,p up = b1
...........

an,1 u1 + ... + an,p up = bn

Définition 1.2.4 Deux systèmes (S1 ) et (S2 ) sont équivalents s’ils ont le même ensemble de
solutions, c’est à dire si toute solution de (S1 ) est solution de (S2 ) et vice-versa.
½ ½
x1 =2 x1 + x2 = 0
Exemple : Les systèmes : et
x1 − x2 = 4 x1 − x2 = 4
sont équivalents car chacun d’eux a pour unique solution (2, −2).

Définition 1.2.5 On dit qu’un système n × p est carré si n = p. La matrice du système est
alors dite matrice carrée. On dit qu’un système carré est triangulaire inférieur si ai,j = 0 pour
tout couple (i, j) tel que i < j. On dit qu’un système carré est triangulaire supérieur si ai,j = 0
pour tout couple (i, j) tel que i > j.

Exemple : Le système suivant est triangulaire supérieur




 x1 +2x2 −x3 =2

x2 +x3 −x4 =0

 x3 −x4 =5

x4 =3

On dit que la diagonale est non nulle si tous les termes diagonaux sont non nuls. Le système
ci-dessus est triangulaire supérieur à diagonale non nulle. La matrice du système est dite matrice
triangulaire supérieure à diagonale non nulle.

Définition 1.2.6 On dit qu’un système n × p est échelonné s’il est de la forme


 a1,j1 xj1 + ....................... + a1,p xp = b1

 a2,j2 xj2 + ............. + a2,p xp = b2



 a3,j3 xj3 + .......... + a3,p xp = b3



..............
(S)

 ak,jk xjk + .... + ak,p xp = bk



 0 = bk+1



 ....

0 = bn

où 1 ≤ j1 < j2 < ... < jk ≤ p, 1 ≤ k ≤ n et tous les am,jm sont non nuls, m = 1....k. Les
k premières équations sont appelées les équations principales et les inconnues xj1 ,...,xjk sont
appelées les inconnues principales.
Exemple : Le système 3 × 5 suivant est échelonné.

 x1 − x2 + +x4 + 2x5 = 0
−x3 + x4 − x5 = 0

0 =1
8 CHAPITRE 1. RÉSOLUTION DES SYSTÈMES LINÉAIRES.

Remarque : Tout système triangulaire supérieur de taille n × n à diagonale non nulle est
échelonné avec k = n et ji = i pour i = 1...n. Un système carré est échelonné si il est : soit
triangulaire supérieur à diagonale non nulle, soit triangulaire supérieur avec certains termes
diagonaux nuls. Dans ce dernier cas, la ou les dernière lignes ont leurs premiers membres nuls.
Exemple : Le système carré 4 × 4 suivant


 x1 +2x2 −x3 =2

x3 −x4 = 0

 x4 = 5

0 =3
est échelonné, triangulaire avec des termes diagonaux nuls. Le premier membre de sa dernière
ligne est nul.

1.3 Résolution des systèmes échelonnés.


Proposition 1.3.1 Soit (S) un système triangulaire supérieur n × n à diagonale non nulle.
Alors (S) a une solution unique obtenue par la méthode de la remontée.
bn bn−1 −an−1,n xn b1 −a1,2 x2 ....−a1,p xp
Preuve : xn = ap,p , xn−1 = an−1,n−1 , ...., x1 = a1,1 .
Remarque : Les systèmes triangulaires inférieurs à diagonale non nulle peuvent être résolus
par la méthode de la descente.
Proposition 1.3.2 Soit (S) le système échelonné p × n de la définition 1.2.6. Supposons k < n.
Alors
(i) Si l’un des bj , j ∈ {k + 1, ..., n} est non nul, S n’a pas de solution.
(ii) Si bk+1 = ... = bn = 0, alors S est équivalent à


 a1,j1 xj1 + ....................... + a1,p xp = b1


 a2,j2 xj2 + ............. + a2,p xp = b2
(Σ) a3,j3 xj3 + .......... + a3,p xp = b3



 ..............

ak,jk xjk + .... + ak,p xp = bk
où 1 ≤ j1 < j2 ... < jk ≤ p et a1,j1 6= 0 ,...., ak,jk 6= 0. Alors on a deux cas. Le premier cas est k =
p (autant d’équations que d’inconnues pour (Σ)), alors (Σ) est un système triangulaire supérieur
à diagonale non nulle, il a une solution unique. Le second cas est k < p (plus d’inconnues que
d’équations pour (Σ), on prend les inconnues non principales comme paramètres. On obtient
une infinité de solutions, par la méthode de la remontée.
Remarque : Si k = n, on est placé directement dans la situation (ii).
Exemples : 1) Le système 4 × 5


 x1 + 2x2 x5 = 1

x2 +2x4 − x5 = 2

 x5 = 6

0 =8
n’a pas de solutions.
2) Le système 4 × 5 

 x1 + 2x2 − x3 +x5 =1

x2 + +x4 −x5 =2

 x5 =6

0 =0
1.4. ALGORITHME DU PIVOT DE GAUSS. 9

a pour inconnues principales x1 , x2 , x5 . On prend x3 et x4 comme paramètres. On passe x3 et


x4 dans le second membre. On est ramené à un système triangulaire supérieur à diagonale non
nulle. Par la méthode de la remontée, on trouve

 x5 = 6
x2 = −x4 + 6 + 2 = −x4 + 8

x1 = x3 + 2x4 − 16 − 6 + 1 = x3 + 2x4 − 21

Le système a donc une infinité de solutions. L’ensemble des solutions est

{(x3 + 2x4 − 21, −x4 + 8, x3 , x4 , 6); x3 ∈ R, x4 ∈ R}.

1.4 Algorithme du pivot de Gauss.


L’algorithme du pivot de Gauss sert à transformer n’importe quel système en un système
échelonné équivalent, à l’aide de transformations élémentaires.
Les transformations élémentaires sont :
(1) échange de deux lignes du système ;
(2) multiplication d’une ligne par un scalaire non nul ;
(3) ajout d’une ligne à une autre ligne.
Proposition 1.4.1 Quand on transforme un système en un autre par une succession d’opérations
élémentaires, on obtient un système équivalent au premier. (Autrement dit, transformer un
système par une succession d’opérations élémentaires ne change pas l’ensemble des solutions.)
Preuve : Pour l’opération (1), c’est évident. Pour l’opération (2) : on passe de la ligne (Li ) :
ai,1 x1 + ... + ai,p xp = bi à la ligne (L0i ) : αai,1 x1 + ... + αai,p xp = αbi en multipliant par le
scalaire non nul α. Alors on passe de (L0i ) à (Li ) en multipliant par α1 . Pour l’opération (3) : On
remplace la ligne (Li ) par la ligne (Li ) + (Lj ),notée (L0i ), les autres lignes restant inchangées.
Dans le système initial les lignes numéros i et j sont
½
ai,1 x1 + .... + ai,p xp = bi (Li )
aj,1 x1 + .... + aj,p xp = bj (Lj )

Dans le système obtenu les lignes numéros i et j sont


½
(ai,1 + aj,1 )x1 +.... +(ai,p + aj,p )xp = bi + bj (L0i )
aj,1 x1 +.... +aj,p xp = bj (L0j )

Pour retrouver le système initial, on remplace la ligne (L0i ) par (L0i ) − (L0j ).
Théorème 1.4.2 Tout système est équivalent à un système échelonné.
La démonstration repose sur l’algorithme du pivot de Gauss. Montrons-le sur un exemple.
Soit le système 
 x1 +2x2 −x4 = 1 (L1 )
2x1 +3x2 +x3 +x4 = 2 (L2 )

x1 −x3 −x4 = 0 (L3 )
La première équation est prise comme pivot et reste inchangée. On remplace les deux dernières
lignes en leur retranchant un multiple de la première ligne, de manière à supprimer l’inconnue
x1 . On obtient le système équivalent suivant :

 x1 +2x2 −x4 = 1 (L01 )
−x2 +x3 +3x4 = 0 (L02 ) = (L2 ) − 2(L1 )

−2x2 −x3 = −1 (L03 ) = (L3 ) − (L1 )
10 CHAPITRE 1. RÉSOLUTION DES SYSTÈMES LINÉAIRES.

On réitère le procédé pour le système 2 × 3 formé par la deuxième et la troisième équation. La


deuxième équation est prise comme pivot.

 x1 +2x2 −x4 = 1 (L01 )
−x2 +x3 +3x4 = 0 (L02 ))

−3x3 −6x4 = −1 (L03 ) − 2(L02 )

On a obtenu un système échelonné. Les inconnues principales sont x1 , x2 , x3 . On a une inconnue


non principale : x4 . On la prend comme paramètre, puis on utilise la méthode de la remontée.

 x3 = −2x4 + 13
x2 = −2x4 + 13 + 3x4 = x4 + 31

x1 = 1 + x4 − 2(x4 + 13 ) = −x4 + 31

L’ensemble des solutions est


1 1 1
{(−x4 + , x4 + , −2x4 + ); x4 ∈ R}.
3 3 3
Remarquons qu’on peut présenter l’algorithme du pivot de Gauss sous une forme matricielle.
On fait alors une succession d’opérations élémentaires sur les lignes de la matrice du système,
sans oublier de faire simultanément les mêmes opérations sur le second membre. Dans le cas de
l’exemple ci-dessus,    
1 2 0 −1 1
la matrice du système est  2 3 1 1  et le second membre est  2 .
1 0 −1 −1 0
En prenant la première ligne comme pivot, on obtient d’abord la matrice et le second membre :

   
1 2 0 −1 1
 0 −1 1 3  et  0  .
0 −2 −1 0 −1
En réitérant le procédé, on obtient la matrice et le second membre :
   
1 2 0 −1 1
 0 −1 1 3  et  0  .
0 0 −3 −6 −1
Algorithme du pivot de Gauss dans le cas général.
Soit (S) un système n × p de matrice A non nulle. Soit j1 l’indice de la première colonne non
nulle.
Première étape. On permute éventuellement des lignes pour se ramener à a1,j1 6= 0. Après
cette permutation éventuelle, (S) est remplacé par un système équivalent, de matrice
 
0 ...0 a1,j1 ......
 .. .. 
A= . . 
0 .....0 an,j1 .......

On permute de la même manière les lignes du second membre.


Deuxième étape. On fait apparaı̂tre des 0 dans la colonne j1 , sous le coefficient a1,j1 . Pour
cela, on remplace la ligne (Li ), i = 2, ..., p, par
ai,j1
(L0i ) = (Li ) − (L1 ).
a1,j1
1.5. PRINCIPES À RETENIR, POUR LA RÉSOLUTION DES SYSTÈMES LINÉAIRES. 11

On n’oublie pas de faire simultanément les mêmes opérations élémentaires sur le second membre
du système. Après ces p opérations élémentaires, on obtient le système de matrice
 
0 ...0 a1,j1 ∗ ...∗
 .. 
 . 0 ∗ ...∗ 
0 .....0 0 ∗ ...∗
On recommence ces deux étapes pour le système (n − 1) × p constitué par les lignes numéros
2 à p du système obtenu à la fin de la première étape. L’algorithme s’arrête au bout d’au plus
n − 1 itérations, ou quand la matrice du sous-système obtenu a toutes ses lignes nulles.
L’algorithme est programmable et permet de résoudre des systèmes linéaires, même de très
grandes dimensions, par ordinateur.

1.5 Principes à retenir, pour la résolution des systèmes linéaires.


Pour résoudre un système linéaire, on le transforme en un système équivalent et on réitère le
procédé jusqu’à obtenir l’ensemble des solutions. Il y a deux procédés qui permettent de passer
d’un système donné à un système équivalent.
Premier procédé pour obtenir un système équivalent : la substitution. On se sert
de l’une des équations pour calculer l’une des inconnues en fonction des autres. Ensuite on
écrit un nouveau système équivalent au premier en gardant l’équation qui vient de servir et en
remplaçant, dans toutes les autres équations, l’inconnue qu’on a calculée par son expression en
fonction des autres. (Remarquons que le nombre d’équations reste le même).
Deuxième procédé pour obtenir un système équivalent : les opérations élémentaires.
On multiplie plusieurs équations par des nombres non nuls puis on les ajoute membre à membre.
Ensuite on écrit un nouveau système équivalent au premier en remplaçant l’une des équations
qu’on vient d’utiliser par celle qu’on a obtenue et en gardant toutes les autres. (Là aussi, on
remarque que le nombre d’équations reste le même).
Toute méthode de résolution qui utilise successivement l’un ou l’autre de ces deux procédés
est juste. La méthode du pivot de Gauss permet à coup sûr de trouver un système échelonné
équivalent au système donné en procédant par opérations élémentaires. La résolution par la
méthode de la remontée est un procédé de substitutions réitérées.
Dans la pratique courante (sans machine !) la méthode du pivot n’est pas toujours la méthode
la plus rapide, il se peut qu’on ait intérêt à procéder par substitutions.
Exemple : 
 2x1 −x2 +x3 = 4 (L1 )
x1 −x3 = 0 (L2 )

x2 +x3 = 0 (L3 )
Résolution
 par la méthode du pivot de Gauss : 
 2x 1 −x2 +x3 =4  2x1 −x2 +x3 = 4
x2 −3x3 = −4 2(L2 ) − (L1 ) puis x2 −3x3 = −4
 
x2 +x3 = 0 +4x3 = 4 (L03 ) − (L02 )
Par la méthode de la remontée on obtient la solution unique :

 x3 = 1
x2 = −4 + 3 = −1

x1 = 1
Reprenons le même système et résolvons-le par substitution :

 x1 = x3 (L2 )
x2 = −x3 (L3 )

2x3 + x3 + x3 = 4 (on substitue x3 à x1 et −x3 à x2 dans (L1 ))
12 CHAPITRE 1. RÉSOLUTION DES SYSTÈMES LINÉAIRES.

On retrouve la solution unique (1, −1, 1).

1.6 Structure de l’ensemble des solutions d’un système linéaire.


Présentation de l’ensemble des solutions. Exemple. Soit le système 3 × 4 à coefficients
dans R : 
 x1 −2x2 +x3 −x4 = 2 (L1 )
−x2 +x4 = 0 (L2 )

x3 +x4 = 1 (L3 )
C’est un système échelonné. On prend x4 comme paramètre et x1 , x2 , x3 comme inconnues
principales..

 x3 = −x4 + 1 (L3 )
x2 = x4 (L2 )

x1 = 2 + 2x4 + x4 − 1 + x4 (on substitue x4 à x2 et −x4 + 1 à x3 dans (L1 ))

 
x1 
 x1 = 4x4 + 1
 x2  
x2 = x4
L’ensemble des solutions est l’ensemble des quatre-uplets de réels  
 x3  qui vérifient :  x3 = −x4 + 1


x4 x =x .
       4 4
x1 x1 4 1
 x2   x2   1   0 
Ceci est équivalent à dire que la colonne       
 x3  est telle que :  x3  = x4  −1  +  1 

x4 x4 1 0.
On présente l’ensemble des solutions sous la forme :
   
4 1
 1   0 
E = {λ   
 −1  +  1
 ; λ ∈ R}.

1 0

Proposition 1.6.1 Soit (S) un système linéaire et soit (S0 ) le système homogène associé.
Soient E et E0 leurs ensembles de solutions respectifs. Alors E0 n’est jamais l’ensemble vide,
car il contient toujours la solution nulle. De plus, la différence de deux éléments de E est un
élément de E0 . On a donc : soit E = ∅, soit E est l’ensemble de la somme des éléments de E0 et
d’un élément particulier de E.
Preuve : Si E = 6 ∅, soit (α1 , ..., αp ) une solution de (S). Si (x1 , ..., xp ) est une autre solution de
(S), alors la différence (x1 − α1 , ..., xp − αp ) est une solution de (S0 ). Pour le montrer, on écrit,
pour tout i = 1, ..., n, que la ligne numéro i du système (S) est vérifiée par (x1 , ..., xp ) et par
(α1 , ..., αp ). On a donc :
½
ai,1 x1 + ... + ai,p xp = bi
ai,1 α1 + ... + ai,p αp = bi
On soustrait membre à membre les deux équations ci-dessus, on obtient :

ai,1 (x1 − α1 ) + ... + ai,p (xp − αp ) = 0,

ce qui signifie que la ligne numéro i du système homogène (S0 ) est vérifiée par (x1 −α1 , ..., xp −αp ).
Ceci est vrai pour i = 1, ..., n, donc (x1 − α1 , ..., xp − αp ) est une solution du système homogène
(S0 ).
1.6. STRUCTURE DE L’ENSEMBLE DES SOLUTIONS D’UN SYSTÈME LINÉAIRE. 13

Réciproquement, on montre de la même manière que si (α1 , ..., αp ) est une solution de (S)
et si (β1 , ..., βp ) est une solution de (S0 ), alors (α1 + β1 , ..., αp + βp ) est une solution de (S).
 
1
 0 
Exemple. Dans l’exemple ci-dessus, remarquons que  
 1  est une solution de (S), obtenue
0
pour la valeur 0 du paramètre. D’après la proposition ci-dessus, les solutions de (S0 ) s’obtiennent
en retranchant cette solution particulière à toutes les solutions de (S). On a donc
 
4
 1 
E0 = {λ  
 −1  ; λ ∈ R}.
1

On dira que E0 est un sous-espace vectoriel de R4 .


14 CHAPITRE 1. RÉSOLUTION DES SYSTÈMES LINÉAIRES.
Chapitre 2

Espaces vectoriels sur R ou C.

2.1 Rappel : les vecteurs du plan.


On connaı̂t depuis le lycée ~u = (x, y).

Point de vue géométrique. Un vecteur du plan est un segment orienté. Plus précisémment,
c’est une classe d’équivalence de segments pour la relation :

[A, B] ∼ [A0 , B 0 ] ⇔ (AB) k (A0 B 0 ) et (AA0 ) k (BB 0 ).

Ou encore : les couples de points (A, B) et (A0 , B 0 ) définissent le même vecteur si et seulement
si le quadrilatère ABB 0 A0 est un parallélogramme.

Point de vue analytique. Un vecteur du plan est caractérisé par ses coordonnées x et y
suivant une base de vecteurs (~i, ~j) fixée une fois pour toutes.

Pour nous : un vecteur du plan sera un couple de réels, autrement dit un élément de R2 ,
~u = (x, y), qu’on notera soit en ligne, soit en colonne.
On sait déjà ajouter deux vecteurs du plan. u~1 = (x1 , y1 ), u~2 = (x2 , y2 ).

~u1 + ~u2 = (x1 + x2 , y1 + y2 ).

Comme la somme de deux vecteurs du plan est un vecteur du plan, on dit que l’addition est une
loi interne.
On sait multiplier un vecteur du plan par un nombre réel. Si λ est un nombre réel et si
~u = (x, y) est un vecteur du plan, on définit

λ~u = (λx, λy).

La multiplication est effectuée par un réel et non par un vecteur. On dit que la multiplication
par un réel est une loi externe.
On ne sait pas multiplier deux vecteurs du plan, ni diviser deux vecteurs du plan.
On peut combiner la multiplication par un réel et l’addition.
λ, µ ∈ R; λ~u1 + µ~u2 = (λx1 + µx2 , λy1 + µy2 ).
On dit qu’on a effectué une combinaison linéaire des deux vecteurs ~u1 et ~u2 avec les coefficients
λ et µ.
Lorsqu’il existe un réel λ tel que ~u = λ~v , ou tel que ~v = λ~u on dit que les vecteurs ~u et ~v
sont colinéaires. Dans le cas contraire, on dit qu’ils sont linéairement indépendants. Exemple :
(1, 0) et (0, 1) sont linéairement indépendants.
On peut définir aussi les vecteurs de l’espace comme les triplets de réels ~u = (x, y, z).

15
16 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.

2.2 Espaces vectoriels sur R ou C.


On rappelle que K = R ou C est appelé le corps des scalaires.

Définition 2.2.1 Un espace vectoriel sur K est un ensemble non vide E qui est muni de deux
opérations : la somme et la multiplication par un scalaire. Ces deux opérations vérifient les
propriétés suivantes :
u, v ∈ E, u+v = v +u (l’addition est commutative). u, v, w ∈ E, u+(v +w) = (u+v)+w.
On notera u + v + w. (L’addition est associative).
Il existe e ∈ E tel que u + e = u pour tout u de E.
Pour tout u ∈ E, il existe u0 ∈ E tel que u + u0 = e.
u ∈ E, 1u = u.
u ∈ E, λ, µ ∈ K, (λ + µ)u = λu + µu
u ∈ E, λ, µ ∈ K, (λµ)u = λ(µu). (on notera λµu).
u, v ∈ E, λ ∈ K, λ(u + v) = λu + λv.
Tout élément de E s’appelle un vecteur. On pourrait noter ~u, on notera u.
Remarques : Ce n’est pas la nature des éléments de E qui fait que E est appelé un espace
vectoriel, mais ce sont les opérations qu’on peut effectuer sur les éléments de E et les propriétés
de ces opérations.
L’addition est une loi interne. Les quatre premières propriétés sont des propriétés de l’addi-
tion seulement. On dit que (E, +) est un groupe abélien. L’élément e est appelé l’élément neutre
pour +. Les éléments u et u0 sont appelés des éléments symétriques pour +.
La multiplication par un scalaire est une loi externe. On n’a pas défini la multiplication de
deux éléments de E.
Montrons l’unicité de l’élément neutre pour l’addition. Soient e et e0 tels que pour tout u ∈ E,
e + x = x et e0 + x = x. alors e + e0 = e et e0 + e = e0 . Mais e + e0 = e0 + e donc e = e0 .
Pour u ∈ E, montrons l’unicité de l’élément symétrique de u pour l’addition. Soient u0 et v
tels que u + u0 = e et u + v = e. Alors v + (u + u0 ) = (v + u) + u0 = e + u0 = u0 . Mais on a aussi
v + (u + u0 ) = v + e = v. Donc v = u0 .
Notation : L’élément neutre pour l’addition, e, sera noté 0. On pourrait noter ~0, pour ne pas
le confondre avec le 0 de R ou C, mais on décide de ne pas mettre de flèches sur les vecteurs.
Attention : On prendra garde, tout au long du cours, à ne pas confondre le vecteur 0 (vecteur
nul) avec le scalaire 0. C’est le contexte qui nous permettra de reconnaı̂tre dans quels cas le
symbole 0 désigne le vecteur nul et dans quels cas il désigne le scalaire nul.
Montrons que si u, v, w ∈ E,

(u + w = v + w) ⇒ (u = v).

Il suffit d’ajouter le symétrique de w, w0 , de chaque côté.


Montrons que si u ∈ E,
0u = 0.
(Remarquons que le 0 à gauche du signe = est un scalaire et que le 0 à droite du signe = est un
élément de E).
0u + u = 0u + 1u = (0 + 1)u = 1u = u donc 0u + u + u0 = u + u0 d’où 0u = 0.
Montrons que si λ est un scalaire,
λ0 = 0.
(Remarquons que le 0 à gauche du signe = et le 0 à droite du signe = désignent tous deux le
vecteur nul).
λ0 + λ0 = λ(0 + 0) = λ0 = λ0 + 0 donc λ0 = 0.
2.2. ESPACES VECTORIELS SUR R OU C. 17

Montrons que si u ∈ E et λ ∈ K et si λu = 0, alors u = 0 (u est le vecteur nul), ou λ = 0 (λ


est le zéro de R ou C). Supposons λ 6= 0. Soit 1/λ son inverse dans R ou C. On a (1/λ)(λu) = 0
Or (1/λ)(λu) = ((1/λ)λ)u = 1u = u, donc u = 0. On a donc bien montré

(λu = 0) ⇒ (λ = 0 ou u = 0).

Le symétrique pour l’addition du vecteur u ∈ E, u0 , sera noté −u. On a u + (−1)u =


1u + (−1)u, donc u + (−1)u = (1 + (−1))u = 0u = 0. Donc

−u = (−1)u.

Exemples d’espaces vectoriels a) L’ensemble K lui même est un espace vectoriel sur K. On
prend comme opérations l’addition et la multiplication dans K. Toutes les propriétés ci-dessus
sont vérifiées.
b) C est un espace vectoriel sur C, d’après a). C’est aussi un espace vectoriel sur R, si on
prend les opérations suivantes : comme loi interne l’addition dans C et comme loi externe la
mutiplication d’un nombre complexe par un nombre réel. C’est à dire
a, b, a0 , b0 ∈ R, (a + ib) + (a0 + ib0 ) = (a + a0 ) + i(b + b0 ).
a, b, λ ∈ R, λ(a + ib) = λa + iλb.
c) Si n est un entier supérieur ou égal à 2, l’ensemble Rn des n−uplets de réels est un espace
vectoriel sur R. Pour n = 2, on trouve les vecteurs du plan étudiés au lycée, pour n = 3, on
trouve les vecteurs de l’espace. L’addition dans Rn est définie par :

(x1 , ..., xn ) + (y1 , ..., yn ) = (x1 + y1 , ..., xn + yn ).

La multiplication par un réel λ est définie par :

λ(x1 , ..., xn ) = (λx1 , ..., λxn ).

L’addition dans Rn est commutative, car l’addition dans R l’est. On vérifie facilement que
l’addition dans Rn est associative car l’addition dans R l’est. L’addition dans Rn a un élément
neutre qui est (0, ..., 0) car (x1 , ..., xn ) + (0, ..., 0) = (x1 + 0, ..., xn + 0) = (x1 , ..., xn ). Chaque
élément (x1 , ..., xn ) de Rn a un symétrique pour l’addition, qui est (−x1 , ..., −xn ). Donc (Rn , +)
est un groupe abélien.
De plus on a :
1(x1 , ..., xn ) = (1x1 , ..., 1xn ) = (x1 , ..., xn ).
Pour λ, µ ∈ R on a :

(λ + µ)(x1 , ..., xn ) = ((λ + µ)x1 , ..., (λ + µ)xn ) = (λx1 + µx1 , ..., λxn + µxn ) =
(λx1 , ..., λxn ) + (µx1 , ..., µxn ) = λ(x1 , ..., xn ) + µ(x1 , ..., xn ),

λ(µ(x1 , ..., xn )) = λ(µx1 , ..., µxn ) = (λµx1 , ..., λµxn ) = (λµ)(x1 , ..., xn )

et

λ((x1 , ..., xn ) + (y1 , ..., yn )) = λ(x1 + y1 , ..., xn + yn ) = (λ(x1 + y1 ), ..., λ(xn + yn )) =


(λx1 + λy1 , ..., λxn + λyn ) = (λx1 , ..., λxn ) + (λy1 , ..., λyn ) = λ(x1 , ..., xn ) + λ(y1 , ..., yn ).

d) L’ensemble des n−uplets de nombres complexes, Cn , est un espace vectoriel sur C. La


démonstration est identique à celle de c).
18 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.

e) L’ensemble Cn est un espace vectoriel sur R pour la somme dans Cn et la multiplication


d’un élément de Cn par un nombre réel.

f) Soit I un intervalle de R. Soit F(I, R) l’ensemble des fonctions de I dans R. F(I, R) 6= ∅,


puisqu’il contient au moins la fonction identiquement nulle : x → 0. On le munit des opérations
définies par :
(f + g)(x) = f (x) + g(x),
λ ∈ R, (λf )(x) = λ(f (x)).
On a bien une loi interne et une multiplication par les scalaires. Vérifions les quatre propriétés de
la loi interne. La fonction identiquement nulle est élément neutre pour l’addition. Montrons que
l’addition dans F(I, R) est commutative. Par la définition de f +g on a : (f +g)(x) = f (x)+g(x).
Comme l’addition dans R est commutative, on a f (x) + g(x) = g(x) + f (x). Or par la définition
de la fonction g + f , on a g(x) + f (x) = (g + f )(x). On conclut que f + g = g + f . On peut
montrer de la même manière que l’addition dans F(I, R) est associative. Chaque élément f a un
symétrique pour l’addition qui est la fonction x → −f (x), qu’on notera −f . On a donc montré
que (F(I, R), +) est un groupe abélien.
On a :
(1f )(x) = 1(f (x)) = f (x), donc 1f = f .
On a

((λµ)f )(x) = (λµ)(f (x)) = λ(µf (x)) = λ((µf )(x)) = (λ(µf ))(x), donc (λµ)f = λ(µf ).
On a
((λ + µ)f )(x) = (λ + µ)(f (x)) = λ(f (x)) + µ(f (x)) = (λf )(x) + (µf )(x),
donc (λ + µ)f = λf + µf .
On a

(λ(f + g))(x) = λ((f + g)(x)) = λ(f (x) + g(x)) = λ(f (x)) + λ(g(x)) = (λf )(x) + (λg)(x) =
(λf + λg)(x),
donc λ(f + g) = (λf ) + (λg).
On a démontré que F(I, R) muni de l’addition et de la multiplication par un scalaire définies
ci-dessus est un espace vectoriel sur R.

2.3 Sous-espaces vectoriels.


Dans cette partie, E sera un espace vectoriel sur K.
Définition 2.3.1 Soient n ∈ N∗ , u1 , ..., un , v ∈ K, alors
(i) si il existe λ ∈ K tel que v = λu1 , on dit que v est colinéaire à u1 .
(ii) si n ≥ 2 et si il existe λ1 , ..., λn ∈ K tels que v = λ1 u1 + ... + λn un , on dit que le vecteur v
est une combinaison linéaire des vecteurs u1 , ..., un .
Remarque : Le vecteur nul est colinéaire à tout autre vecteur car
0 = 0u, pour tout u ∈ E.
(À gauche du signe=, le symbole 0 désigne le vecteur nul ; à droite du signe= le même symbole
désigne le scalaire nul.)
2.4. INTERSECTION DE SOUS-ESPACES VECTORIELS. 19

Définition 2.3.2 Soit F un sous-ensemble non vide de E. On dit que F est un sous-espace
vectoriel de E si
(i) Pour tous u, v ∈ F , u + v ∈ F ;
(ii) pour tous λ ∈ K, u ∈ F , λu ∈ F .
Remarques : Si F est un sous-espace vectoriel de E, alors
a) le vecteur nul appartient à F . En effet, comme F 6= ∅, soit u ∈ F . Soit 0 ∈ K le scalaire
nul, on a 0u ∈ F . Or 0u est le vecteur nul, donc le vecteur nul appartient à F .
b) Si n ≥ 2 et si u1 , ..., un ∈ F , alors u1 + ... + un ∈ F . (Appelons (Pn ) la propriété ”si
u1 , ..., un sont n vecteurs de F , alors le vecteur u1 + ... + un appartient à F ”. Démontrons par
récurrence que (Pn ) est vraie pour tout n ≥ 2. La propriété (P2 ) est vraie, donc la propriété (Pn )
est initialisée à l’ordre 2. Montrons qu’elle est héréditaire à partir de l’ordre 2, c’est à dire que
pour n ≥ 2, ((Pn ) ⇒ (Pn+1 )). Soit n ≥ 2 tel que (Pn ) soit vraie. Montrons que (Pn+1 ) est vraie.
Prenons n + 1 vecteurs de F . On a u1 + ... + un+1 = (u1 + ... + un ) + un+1 . Or, par la propriété
(Pn ) on a u1 + ... + un ∈ F . Par la propriété (P2 ), on a donc que (u1 + ... + un ) + un+1 ∈ F . La
propriété (Pn ) est donc bien héréditaire à partir de l’ordre 2. Comme elle est aussi initialisée à
l’ordre 2, alors elle est vraie pour tout n ≥ 2, par le théorème de récurrence.)
c) Si n ≥ 2, toute combinaison linéaire de n vecteurs de F appartient à F . (C’est vrai pour
toute combinaison linéaire de deux vecteurs de F , puis on fait une démonstration par récurrence
sur le nombre de vecteurs).

Proposition 2.3.3 Tout sous-espace vectoriel de E est un espace vectoriel sur K.


Preuve : On prend comme addition dans F la loi interne de E. On prend comme loi externe sur
F la loi externe sur E. On a vu que le vecteur nul de E appartient à F . C’est l’élément neutre
pour l’addition dans F . Si u appartient à F , on sait que son symétrique pour l’addition est
(−1)u, donc il appartient à F . La commutativité et l’associativité de la loi interne sont vérifiées
dans F , car elles le sont dans E. Il en est de même des quatre dernières propriétés qui définissent
un espace vectoriel.
Exemples : a) Si E est un espace vectoriel sur K alors {0} est un sous-espace vectoriel de E
et E lui-même est un sous-espace vectoriel de E.

b) Soit n ∈ N, n ≥ 2 et soit l’espace vectoriel sur K Kn . Soit 1 ≤ p ≤ n. Alors

F = {(x1 , ..., xp , 0...0); xi ∈ K, i = 1, ..., p}

est un sous-espace vectoriel de Kn . On a (0, ..., 0) ∈ F , donc F 6= ∅. Si u = (x1 , ..., xp , 0, ...0) ∈ F


et si λ ∈ K, alors λu ∈ F car λu = (λx1 , ..., λxp , 0, ..., 0). Si v = (y1 , ..., yp , 0, ..., 0) ∈ F , alors
u + v ∈ F car u + v = (x1 + y1 , ..., xp + yp , 0, ..., 0).
c) Soit C ∞ (R) l’ensemble des fonctions indéfiniment dérivables de R dans R. C’est un sous-espace
vectoriel de l’espace vectoriel sur R F(R, R).

2.4 Intersection de sous-espaces vectoriels.


Proposition 2.4.1 Si F et G sont des sous-espaces vectoriels de E, alors F ∩ G est un sous-
espace vectoriel de E.
Preuve : 0 ∈ F ∩G, donc F ∩G 6= ∅. Si u, v ∈ F ∩G et λ ∈ K, alors λu ∈ F ∩G et u+v ∈ F ∩G.
Remarque : L’intersection d’une famille quelconque de sous-espaces vectoriels de E est un
sous-espace vectoriel de E.

Proposition 2.4.2 L’ensemble des solutions d’un système homogène n × p est un sous-espace
vectoriel de Kp .
20 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.

Preuve : 0n rappelle qu’un système homogène n × p a n lignes et p inconnues et un second


membre nul.


 a1,1 x1 + ... + a1,p xp = 0


 ...
(S) ai,1 x1 + ... + ai,p xp = 0



 ...

an,1 x1 + ... + an,p xp = 0

Soit F1 l’ensemble des solutions de la première ligne, c’est à dire :

F1 = {(x1 , ..., xp ) ∈ Kp ; a1,1 x1 + ... + a1,p xp = 0}.

Montrons que F1 est un sous-espace vectoriel de Kp . D’abord F1 n’est pas vide car il contient
(0, ..., 0). Si λ ∈ K, (x1 , ..., xp ) ∈ F1 et (y1 , ..., yp ) ∈ F1 , alors on a
½
a1,1 x1 + ... + a1,p xp = 0
a1,1 y1 + ... + a1,p yp = 0

En sommant membre à membre on obtient :

a1,1 (x1 + y1 ) + ... + a1,p (xp + yp ) = 0,

ce qui montre que (x1 , ..., xp ) + (y1 , ..., yp ) ∈ F1 .


En multipliant la premıère ligne de (S) par λ on obtient

a1,1 (λx1 ) + ... + a1,p (λxp ) = 0,

ce qui montre que


λ(x1 , ..., xp ) ∈ F1 .
Donc F1 est un sous-espace vectoriel de Kp . Si n = 1, F1 est l’ensemble des solutions de (S). Si
n ≥ 2, on appelle Fi l’ensemble des solutions de la ième ligne du système (S), pour i = 2, ..., n.
La même démonstration que pour F1 montre que Fi est un sous-espace vectoriel de Kp , pour
i = 2, ..., n. Or l’ensemble des solutions de (S) est F1 ∩ ... ∩ Fn . C’est l’intersection d’une famille
finie de sous-espaces vectoriels de Kp , donc c’est un sous-espace vectoriel de Kp .

2.5 Somme d’un nombre fini de sous-espaces vectoriels.


Définition 2.5.1 Soient n ≥ 2 et F1 ,...,Fn des sous-espaces vectoriels de E. On appelle somme
des sous-espaces vectoriels F1 ,...,Fn , et on note F1 + ... + Fn l’ensemble défini par

F1 + ... + Fn = {u1 + ... + un ; u1 ∈ F1 , ..., un ∈ Fn }.

Proposition 2.5.2 F1 + ... + Fn est un sous-espace vectoriel de E.


Preuve : Soient u1 ∈ F1 , v1 ∈ F1 ,....,un ∈ Fn , vn ∈ Fn . Alors (u1 + ... + un ) + (v1 + .... + vn ) =
(u1 + v1 ) + ... + (un + vn ) ∈ F1 + ... + Fn . Si λ ∈ K, alors λ(u1 + ... + un ) = (λu1 ) + ... + (λun ) ∈
F1 + ... + Fn .
Exemple. Dans R2 . Soit F1 = {(λ, 0), λ ∈ R} et F2 = {(0, λ), λ ∈ R}. Ce sont des sous-
espaces vectoriels de R2 . On a F1 + F2 = {(λ, µ), λ ∈ R, µ ∈ R}. Donc F1 + F2 = R2 . Soit
F3 = {(λ, λ), λ ∈ R}. C’est un sous-espace vectoriel de R2 . Alors F1 + F2 + F3 = R2 .
2.6. SOMME DIRECTE DE DEUX SOUS-ESPACES VECTORIELS.SOUS-ESPACES VECTORIELS SUPPLÉ

2.6 Somme directe de deux sous-espaces vectoriels.


Sous-espaces vectoriels supplémentaires.
Soient F et G deux sous-espaces vectoriels de E.

Définition 2.6.1 On dit que la somme F + G est une somme directe si tout vecteur de F + G
s’écrit de manière unique comme somme d’un vecteur de F et d’un vecteur de G.
L
Notation. Quand la somme est directe, on écrit F G à la place de F + G. Exemple. Dans
l’exemple ci-dessus la somme F1 + F2 est directe.

Proposition 2.6.2 La somme F + G est directe si et seulement si F ∩ G = {0}.


Preuve : Supposons d’abord que la somme F +G est directe. Tout u de F +G s’écrit de manière
unique u = v + w, où v ∈ F et w ∈ G. Soit u ∈ F ∩ G. Le vecteur nul appartient à F + G et
on a d’une part 0 = 0 + 0 et d’autre part 0 = u + (−u). Or la décomposition de tout vecteur de
F + G comme somme d’un vecteur de F et d’un vecteur de G est unique, donc 0 = u.
Supposons maintenant que F ∩ G = {0}. Soit u ∈ F + G. Il existe v ∈ F et w ∈ G tels
que u = v + w. Montrons l’unicité de la décomposition. Soient v 0 ∈ F et w0 ∈ G tels que
u = v 0 + w0 . Alors en retranchant membre à membre les deux décompositions de u on obtient
0 = (u − u0 ) + (v − v 0 ), ce qui donne u − u0 = v 0 − v. Or u − u0 ∈ F et v 0 − v ∈ G. Donc
u − u0 ∈ F ∩ G et v 0 − v ∈ F ∩ G. On a donc u = u0 et v = v 0 .

Définition 2.6.3 On dit que F et G sont supplémentaires si tout vecteur de E s’écrit de manière
unique comme sommeL d’un vecteur de F et d’un vecteur de G.
On note alors E = F G.

Proposition 2.6.4 Soient F et G deux sous-espaces vectoriels de E. Alors ils sont supplémentaires
si et seulement si E = F + G et F ∩ G = {0}. (C’est un corollaire de la proposition précédente).
Exemples : a) Dans R2 F1 = {(λ, 0), λ ∈ R} et F2 = {(0, λ), λ ∈ R} sont des sous-espaces
vectoriels supplémentaires.
b) Soit G l’espace
L vectoriel des fonctions affines de R dans R : G = {x → ax + b, a ∈ R, b ∈ R}.
Alors G = G1 G2 où G1 est le sous-espace vectoriel des fonctions constantes et G2 est le
sous-espace vectoriel des fonctions linéaires. On vérifie que G1 ∩ G2 = {0G }, où 0G désigne la
fonction constante x → 0.
c) Dans E = F(R, R), on définit

F = {f ∈ F(R, R), f paire} et G = {g ∈ F(R, R), f impaire}.

On vérifie d’abordL(exercice) que F et G sont des sous-espaces vectoriels de F(R, R). Montrons
que F(R, R) = F G. Prouvons d’abord que F ∩ G = {0}. Soit f ∈ F ∩ G. Alors f est à la fois
paire et impaire, donc pour tout x ∈ R on a f (−x) = f (x) et f (−x) = −f (x). Donc f (x) = 0
pour tout x ∈ R, ce qui prouve que F ∩ G = {0}. Prouvons maintenant que F(R, R) = F + G.
Soit h ∈ F(R, R). On écrit :
h(x)+h(−x) h(x)−h(−x)
h(x) = 2 + 2 .

Posons
h(x)+h(−x) h(x)−h(−x)
f (x) = 2 et g(x) = 2 .

Alors f est paire


L et g est impaire. On a donc bien F(R, R) = F + G et on conclut que
F(R, R) = F G.
22 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.

2.7 Sous-espace vectoriel engendré par une famille de vecteurs.


Soit S une partie non vide de E. On considère toutes les familles finies d’éléments de S et
on appelle F l’ensemble de toutes les combinaisons linéaires de toutes les parties finies de S.

Xn
F ={ λi si ; n ∈ N; λi ∈ K; si ∈ S, i = 1, ..., n}.
i=1

Proposition 2.7.1 L’ensemble F est un sous-espace vectoriel de E et c’est le plus petit sous-
espace vectoriel de E, pour l’inclusion, qui contient tous les vecteurs de la partie S.
Dire que F est le plus petit sous-espace vectoriel, pour l’inclusion, contenant S signifie que
si G est un autre sous-espace vectoriel de E qui contient S, alors F ⊂ G.
Preuve : Le fait que F est un sous-espace vectoriel de E est immédiat : la somme de deux
combinaisons linéaires de familles finies d’éléments de S est une combinaison linéaire de la
réunion de ces deux familles ( pour les mêmes coefficients) donc c’est encore une combinaison
linéaire finie d’éléments de S. La multiplication par un scalaire d’une combinaison linéaire finie
d’éléments de S est encore une combinaison linéaire finie des mêmes éléments de S (avec les
coefficients multipliés par λ). Donc F est un sous-espace vectoriel de E. Montrons que c’est le
plus petit sous-espace vectoriel, pour l’inclusion, qui contient S. Soit G un sous-espace vectoriel
de E qui contient la partie S. Alors G contient toutes les combinaisons linéaires finie d’éléments
de S (Voir Remarques c)), donc F ⊂ G.

Définition 2.7.2 On appelle F le sous-espace vectoriel de E engendré par la partie S. On dit


que S est une partie génératrice de F .

Notation : F = Vect S.
Cas particulier : si S a un nombre fini d’éléments, il existe p ∈ N et e1 , ..., ep des vecteurs de
E tels que S = {e1 , ..., ep }. Dans ce cas,

Xp
F ={ λi ei ; λ1 ∈ K, ..., λp ∈ K}.
i=1

Définition 2.7.3 Soit u ∈ E, u 6= 0 et soit S = {u}. Alors Vect S = {λu; λ ∈ K}. On dit alors
que Vect S est une droite vectorielle de E. C’est la droite vectorielle engendrée par le vecteur
non nul u.

Exemple. Si E = R2 . Soit e ∈ E, e 6= 0 et soit e0 ∈ E, e0 6∈ Vect {e}. On dessine Vect {e} dans


le plan R2 comme la droite passant par 0 de vecteur directeur e. On dessine Vect {e0 } comme une
droite passant par 0, différente de Vect {e}. Alors Vect {e, e0 } = {λe+µe0 , λ, µ ∈ K} est l’ensemble
des sommes des vecteurs de la droite vectorielle Vect {e} et des vecteurs de la droite vectorielle
Vect {e0 }. On construit la somme de deux vecteurs par la méthode du parallélogramme. On
constate sur la figure que Vect {e, e0 } = R2 .
Exemples. a) Soit E = F(R, R) le R-espace vectoriel des fonctions de R dans R. Soit S le
sous-ensemble de E constitué des monômes x → xk , k = 0, 1.... Le sous-espace vectoriel Vect S
est par définition l’ensemble de toutes les combinaisons linéaires d’un nombre fini de monômes.
On a donc
Vect S = {αn xn + .... + α0 ; n ∈ N; α0 , ..., αn ∈ R}.
Donc les éléments de Vect S sont des fonctions polynômes de R dans R, de tous les degrés
possibles, avec tous les coefficients réels possibles. Vect S est donc l’ensemble des fonctions po-
lynômes de R dans R.
2.7. SOUS-ESPACE VECTORIEL ENGENDRÉ PAR UNE FAMILLE DE VECTEURS. 23

b) Soit F = {(x, y, z) ∈ R3 ; 2x − y + z = 0}. On sait que F est un sous-espace vectoriel de


R3 (c’est l’ensemble des solutions d’un système homogène 1 × 3). Peut-on trouver une partie
de R3 qui engendre F ? On a un système échelonné, avec une seule inconnue principale et deux
paramètres.
      
 x=x x 1 0
(2x − y + z = 0) ⇔ (y = 2x + z) ⇔ y = 2x+ z ⇔  y  = x  2  + z  1  .

z= z z 0 1

On en déduit que F est l’ensemble des combinaisons linéaires des vecteurs (1, 2, 0) et (0, 1, 1).
Donc F est le sous espace vectoriel de R3 engendré par ces deux vecteurs. On dit aussi que
ces deux vecteurs constituent une partie génératrice de F . Remarquons qu’en montrant que
F = Vect {(1, 2, 0); (0, 1, 1)}, on a redémontré que F est un sous-espace vectoriel de R3 !

Proposition 2.7.4 F + G est le sous-espace vectoriel de E engendré par la partie F ∪ G.

Cela signifie que F + G est le plus petit sous-espace vectoriel, pour l’inclusion, qui contient
à la fois les éléments du sous-espace vectoriel F et ceux du sous-espace vectoriel G.
Preuve : Prouvons que F + G = Vect (F ∪ G). Prouvons d’abord que F + G ⊂ Vect (F ∪ G).
Soit u ∈ F et v ∈ G. Alors u + v est une combinaison linéaire de deux éléments de F ∪ G,
donc u + v ∈ Vect (F ∪ G). On a donc bien : F + G ⊂ Vect (F ∪ G). Montrons maintenant que
Vect (F ∪ G) ⊂ F + G. Soit w ∈ Vect (F ∪ G). Alors w est une combinaison linéaire d’un nombre
fini de vecteurs de F ∪ G. C’est à dire qu’il existe n, m ∈ N, il existe f1 ,...,fn ∈ F , il existe
g1 ,...,gm ∈ G, il existe λ1 ,...,λn ∈ K, il existe µ1 ,...,µm ∈ K tels que
n
X m
X
w= λi fi + µj gj .
i=1 j=1

Or la première somme est un vecteur de F et la deuxième est un vecteur de G. Donc w ∈ F + G.


On a donc bien Vect (F ∪ G) ⊂ F + G. Finalement : Vect (F ∪ G) = F + G. Remarquons que
cela redémontre que F + G est un sous-espace vectoriel de E.

Proposition 2.7.5 Si F est le sous-espace vectoriel de E engendré par les vecteurs f1 ,...,fp et
si G est le sous- espace vectoriel de E engendré par les vecteurs g1 ,...,gq , alors F + G est le
sous-espace vectoriel de E engendré par les vecteurs f1 ,...,fp , g1 ,...,gq . (la réunion des parties
génératrices est une partie génératrice de F + G.)

Proposition 2.7.6 Soient g1 , ..., gq et f1 , ..., fp deux familles de vecteurs de E. Supposons que
pour tout i = 1, ..., q le vecteur gi s’écrive comme combinaison linéaire des vecteurs f1 , ..., fp .
g1 , ..., gq . Alors V ect{g1 , ..., gq } ⊂ V ect{f1 , ..., fp }.

Exercice résolu. Soit E = R3 , F = {(x, y, z) ∈ R3 , x + y = 0} et G = V ect{(1, 0, 0)}.


On sait que F est un sous-espace vectoriel de R3 (ensemble des solutions d’un système
homogène) et que G est un sous-espace vectoriel de R3 (sous-espace
L vectoriel engendré par un
vecteur non nul, appelé droite vectorielle.) Montrer que R3 = F G.
On va prouver d’abord que E = F + G. Cherchons une partie génératrice de F . On a

((x, y, z) ∈ F ) ⇔ (x = −y) ⇔ (x, y, z) = y(−1, 1, 0) + z(0, 0, 1).

Donc F est engendré par les deux vecteurs (−1, 1, 0) et (0, 0, 1). Alors F + G est le sous-espace
vectoriel de R3 engendré par la réunion des parties génératrices de F et de G. c’est à dire :
24 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.

F + G = Vect {(−1, 1, 0); (0, 0, 1); (1, 0, 0)}


Montrons que tout vecteur de R3 appartient à F + G. Soit (x, y, z) ∈ R3 . On écrit

(x, y, z) = x(1, 0, 0) + y((−1, 1, 0) + (1, 0, 0)) + z(0, 0, 1),

donc
(x, y, z) = (x + y)(1, 0, 0) + y(−1, 1, 0) + z(0, 0, 1).
D’où R3 ⊂ F + G et donc R3 = F + G.
Montrons que F ∩ G = {0}. Si (x, y, z) ∈ F ∩ G, alors d’une part il existe λ ∈ R tel que
(x, y, z) = λ(1, 0, 0) L
, ce qui signifie que y = z = 0 et d’autre part x = −z. Donc x = y = z = 0.
Finalement R3 = F G.

Attention : Ne pas confondre somme de deux sous-espaces vectoriels et réunion (F + G et


F ∪ G).
Exercice. G1 = {x → ax, a ∈ R} ; G2 = {x → b, b ∈ R}. Prouver que G1 et G2 sont des
sous-espaces vectoriels de
LF(R, R). Soit G = {x → ax + b} l’ensemble des fonctions affines sur
R. Prouver que G = G1 G2 .
Ne pas confondre sous-espaces vectoriels supplémentaires et sous-ensembles complémentaires.

2.8 Dépendance et indépendance linéaire.


Définition 2.8.1 Soit n un entier positif et u1 ,...,un des vecteurs de E. Les vecteurs u1 ,..., un
sont dits linéairement indépendants si on a l’implication :
λ1 ,...,λn ∈ K, u1 ,...,un ∈ E,
(λ1 u1 + ... + λn un = 0) ⇒ (λ1 = ... = λn = 0).
Remarques : a) Cette implication signifie qu’il n’y a qu’une seule façon d’écrire le vecteur nul
comme une combinaison linéaire des vecteurs u1 ,...,un . Cette écriture est 0 = 0u1 + .. + 0un ,
dans laquelle tous les coefficients sont des scalaires nuls.
b) Si n = 1, l’implication devient (λ1 u1 = 0) ⇒ (λ1 = 0). Donc u1 est ”linéairement
indépendant” si et seulement si il est non nul.
c) Si n ∈ N∗, et si u1 ,...,un sont des vecteurs de E, alors 0, u1 ,...,un ne sont pas linéairement
indépendants. En effet, le vecteur nul s’écrit de plusieurs manières comme combinaison linéaire
des vecteurs 0, u1 ,...,un , car pour n’importe quel scalaire λ on a : 0 = λ0 + 0u1 + ... + 0u2 .
Exemples : a) Dans R2 les vecteurs (1, 0) et (0, 1) sont linéairement indépendants. En effet si
λ1 (1, 0) + λ2 (0, 1) = 0, alors (λ1 , λ2 ) = (0, 0) donc λ1 = λ2 = 0.
b) Dans R2 les vecteurs (0, 3) et (0, 1) ne sont pas linéairement indépendants. On a (0, 3) −
3(0, 1) = (0, 0), donc le vecteur nul s’écrit au moins de deux manières différente comme combi-
naison linéaire des vecteurs (0, 3) et (0, 1).
Vocabulaire. a) Si les vecteurs u1 ,...,un sont linéairement indépendants, on dit qu’ils forment
une famille libre. On dit aussi que {u1 , ..., un } est une partie libre. Sinon, on dit qu’ils forment
une famille liée.
b) Si la partie {u1 , ..., un } est liée, et si λ1 ,...,λn sont n scalaires non tous nuls tels que λ1 u1 +
... + λn un = 0, on dit qu’on a une relation linéaire non triviale entre les vecteurs u1 ,....,un , de
coefficients λ1 ,...,λn . La relation linéaire ”triviale” est celle où les coefficients sont tous nuls.
Généralisation. On peut définir la notion de famille libre ou liée pour des familles de vecteurs
qui ont une infinité d’éléments. Soient I un ensemble infini et ui , i ∈ I, une famille de vecteurs
de E. On dit qu’elle est libre si toute sous-famille finie est libre. On dit qu’elle est liée si elle n’est
pas libre. Par conséquent, la famille des ui , i ∈ I, sera liée si et seulement il existe un nombre fini
2.9. BASES. 25

de vecteurs pris parmi les ui qui forment une famille liée. (Dans ce cours, on s’interessera plus
particulièrement aux familles libres qui ont un nombre fini d’éléments et aux parties génératrices
qui ont un nombre fini d’éléments).

Proposition 2.8.2 Si n ≥ 2, les vecteurs u1 ,...,un forment une famille liée si et seulement si
l’un des vecteurs est combinaison linéaire des autres.
Preuve : Supposons que les vecteurs u1 , ... , un forment une famille liée (autrement dit, ils
ne sont pas linéairement indépendants). Alors il existe des scalaires λ1 , ..., λn non tous nuls
tels que λ1 u1 + ... + λn un = 0. Quitte à réindexer, on Ppeut supposer que λ1 6= 0. Alors on a :
n −λi
u1 = λ11 (−λ2 u2 − ... − λn un ), c’est à dire que u1 = i=1 ( λ1 )xj . Donc u1 est combinaison
linéaire des vecteurs u2 , ..., un .
Supposons maintenant que l’un des vecteurs est combinaison linéaire des autres. En réindexant
on peut se ramener au cas où u1 est combinaison linéaire de u2 ,...,un . Il existe λ2 ,...,λn des sca-
laires tels que u1 = λ2 u2 + ... + λn un , donc u1 − λ2 u2 − ... − λn un = 0, donc u1 ,...,un ne sont
pas linéairement indépendants (car le coefficient 1 est 6= 0).
Remarque : Pour n = 2, la proposition ci-dessus signifie que deux vecteurs sont liés si et seule-
ment si ils sont colinéaires. (c’est à dire si il existe un scalaire λ tel que u1 = λu2 ou u2 = λu1 ).

Proposition 2.8.3 Soit n ∈ N. Soient u1 , ..., un des vecteurs de E linéairement indépendants


et soit v un vecteur de E. Alors les deux propositions suivantes sont équivalentes :
(i) v est combinaison linéaire de u1 , ..., un .
(ii) Les n + 1 vecteurs v, u1 ,...,un ne sont pas linéairement indépendants.
Preuve : (i) ⇒ (ii) : voir la proposition ci-dessus.
(ii) ⇒ (i) : par (ii) il existe µ, λ1 , ..., λn ∈ K non tous nuls tels que µv+λ1 u1 +...+λn un = 0. Si
on avait µ = 0, alors on aurait λ1 u1 +...+λn un = 0. Or u1 , ..., un sont linéairement indépendants,
donc λ1 = ... = λn = 0, ce qui contredit l’hypothèse ”µ, λ1 , ..., λn non tous nuls”. Donc µ 6= 0
et on peut donc diviser par µ. On en déduit que v = − λµ1 − ... − λµn un .

Proposition 2.8.4 Si n ≥ 2 Et si u1 ,...,un sont des vecteurs de E linéairement indépendants.


Alors u1 ,...,un sont deux à deux différents et pour tout 1 ≤ p ≤ n, les vecteurs u1 , ..., up sont
linéairement indépendants.
Preuve : En exercice.

2.9 Bases.
Définition 2.9.1 Si il existe des vecteurs u1 ,...,un de E qui sont linéairement indépendants et
qui engendrent E, on dit que u1 ,...,un forment une base de E.

Théorème 2.9.2 Les deux propositions suivantes sont équivalentes :


(i) les vecteurs u1 ,...,un forment une base de E
(ii) tout vecteur de E s’écrit de manière unique comme combinaison linéaire des vecteurs
u1 ,...,un .
Preuve : (i) ⇒ (ii) : soit u un vecteur de E. Comme les vecteurs u1 ,...,un engendrent E il
existe des scalaires λ1 ,...,λn tels que u = λ1 u1 + ... + λn un . Supposons qu’il existe des scalaires
λ01 ,...,λ0n tels que u = λ01 u1 + ... + λ0n un . En soustrayant membre à membre on trouve 0 =
(λ1 − λ01 )u1 + ... + (λn − λ0n )un . Comme u1 ,...,un sont linéairement indépendants, on en déduit
que λ1 − λ01 = ... = λn − λ0n = 0,, donc λ1 = λ01 , ..., λn = λ0n . Donc la décomposition de u comme
combinaison linéaire des vecteurs u1 ,...,un est unique.
26 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.

(ii) ⇒ (i) : Comme tout vecteur de E s’écrit comme combinaison linéaire des vecteurs
u1 ,...,un , alors les vecteurs u1 ,...,un engendrent E. Prouvons qu’ils sont linéairement indépendants.
Le vecteur nul, comme tout vecteur de E s’écrit de manière unique comme combinaison linéaire
des vecteurs u1 ,...,un ( cette écriture unique est : 0 = 0u1 + ... + 0un ). Ceci est la définition de
vecteurs linéairement indépendants.
Exemples : a) Dans R2 , les vecteurs (1, 0) et (0, 1) forment une base de R2 . En effet, tout vecteur
de R2 s’écrit de manière unique comme combinaison linéaire de (1, 0) et (0, 1) : soit (x, y) ∈ R2 ,
on écrit (x, y) = x(1, 0) + y(0, 1) et si a et b sont des scalaires tels que (x, y) = a(1, 0) + b(0, 1),
alors a = x et b = y.
b) Pour n ∈ N, n ≥ 2, les vecteurs e1 = (1, 0, ..., 0), ..., ei = (0, ..., 1, ..., 0) (1 à la ième
place),..., en = (0, ...., 0, 1). forment une base de Rn , appelée la base canonique. En effet, tout
vecteur (x1 , ..., xn ) de Rn s’écrit comme combinaison linéaire des vecteurs e1 , ..., en :

(x1 , ..., xn ) = x1 (1, 0, ..., 0) + ... + xn (0, ..., 0, 1).

Cette écriture est unique car si (x1 , ..., xn ) = a1 (1, 0, ..., 0) + ... + an (0, ..., 0, 1), alors x1 =
a1 ,...,xn = an .
c) On donne les vecteurs de R3 : v1 = (1, −1, 0), v2 = (0, 1, −1), v3 = (2, −1, −1). Forment-ils
une base de R3 ?
(Rep. :Non.)
Notation Si les vecteurs e1 ,...,en forment une base de E, on notera : (e1 , ..., en ) est une base de
E.

Définition 2.9.3 Soit (e1 , ..., en ) une base de E. Soit u ∈ E. Les scalaires λ1 ,...,λn ∈ K qui sont
tels que u = λ1 e1 + .... + λn en s’appellent les coordonnées du vecteur u dans la base (e1 , ..., en ).
Remarque : Si E = Kn . Soit u = (x1 , ..., xn ) un vecteur de Kn . Alors les coordonnées de u
dans la base canonique de Kn sont ses composantes x1 ,...,xn .
Chapitre 3

Espaces vectoriels sur R ou C de


dimension finie.

3.1 Définition d’un espace vectoriel de dimension finie. Exemple


d’un espace vectoriel de dimension infinie.
Soit E un espace vectoriel sur K = R ou C.

Définition 3.1.1 On dit que E est un espace vectoriel de dimension finie s’il est engendré par
un nombre fini d’éléments. C’est à dire s’il existe un sous-ensemble de vecteurs {u1 , ..., up } tel
que tout vecteur u de E s’écrive u = λ1 u1 + ... + λp up , pour certains scalaires λ1 ,...,λp .
Rappel L’ensemble {u1 , ..., up } est alors appelé une partie génératrice de E et il peut exister
d’autres coefficients µ1 ,...,µp tels que u = µ1 u1 + ... + µp up .
Exemple : Soit l’espace vectoriel sur R E = R3 . Les vecteurs e1 = (1, 2, 0), e2 = (0, 1, 1),
e3 = (0, 1, 0) et e4 = (0, 0, 1) engendrent R3 . En effet, on a
(1, 0, 0) = e1 − 2e2 + 2e4 .
Or tout vecteur de R3 est combinaison linéaire des vecteurs de la base canonique (1, 0, 0), (0, 1, 0),
(0, 0, 1). Ces trois vecteurs de la base canonique s’écrivent comme combinaisons linéaires des
vecteurs e1 , e2 , e3 , e4 , donc tout vecteur de R3 s’écrit comme combinaison linéaire de e1 , e2 , e3 ,
e4 .
On remarque que le vecteur e3 = (0, 1, 0) s’écrit au moins de deux manières comme combi-
naison linéaire des vecteurs e1 , e2 , e3 , e4 . En effet on écrit : e3 = 1e3 et e3 = e2 − e4 . Donc les
vecteurs e1 , e2 , e3 , e4 engendrent R3 mais ne forment pas une base de R3 .
Remarque : Il existe des espaces vectoriels qui ne sont pas engendrés par une famille finie de
vecteurs. On dit qu’ils sont de dimension infinie. Par exemple, montrons que l’espace vectoriel
E sur R des fonctions polynômes à coefficients réels n’est pas de dimension finie. Faisons une
démonstration par l’absurde. Supposons qu’il existe un nombre fini de fonctions polynômes
f1 ,...,fq qui engendrent E. Parmi ces fonctions polynômes, l’une au moins a un degré maximal,
noté d. (Par exemple, si on a : q = 2, f1 : x → x2 et f2 : x → x3 + 1, ce degré maximal est
d = 3.) Alors toute fonction polynôme est une combinaison linéaire de f1 ,...,fq (dans l’exemple,
toute fonction polynôme s’écrit x → λ1 x2 + λ2 (x3 + 1), pour certains réels λ1 , λ2 ). Donc toute
fonction polynôme est de degré inférieur ou égal à 3, ce qui est absurde.

3.2 Théorème de la base incomplète. Existence des bases.


Théorème 3.2.1 (Théorème de la base incomplète). On suppose E 6= {0}. Soient q et

27
28 CHAPITRE 3. ESPACES VECTORIELS SUR R OU C DE DIMENSION FINIE.

p des entiers, p ≥ 1, q ≥ 1. Supposons que E soit engendré par les vecteurs g1 ,...,gq . Soient
f1 ,...,fp des vecteurs de E linéairement indépendants. Alors il existe un sous-ensemble G0 de
l’ensemble {g1 , ..., gq } tel que les éléments de l’ensemble {f1 , ..., fp } ∪ G0 forment une base de E.
Le théorème dit que si E est de dimension finie et si E 6= {0}, alors toute partie libre de E
peut être complètée en une base de E en lui ajoutant des vecteurs d’une partie génératrice.
Preuve : Remarquons d’abord qu’on peut toujours trouver des vecteurs f1 ,...,fp linéairement
indépendants. En particulier on peut choisir p = 1 et prendre pour f1 n’importe quel vecteur
non nul de E.
Posons G = {g1 , ..., gq } et L = {f1 , ..., fp }. Il existe des parties G0 de G telles que L ∪ G0 soit
libre : il y a au moins G0 = ∅. Soit G0 une partie de G telle que L ∪ G0 soit libre, de cardinal
maximal. (On commentera plus tard l’existence d’une telle partie G0 ).
Assertion : L ∪ G0 est une base de E.
Preuve de cette assertion. Par hypothèse, L ∪ G0 est libre. Il reste à prouver qu’elle engendre
E. Il suffit de prouver que tout élément g de G est combinaison linéaire des vecteurs de L ∪ G0 .
Distinguons deux cas.
Premier cas : G ⊂ L ∪ G0 . Alors il n’y a rien à démontrer.
Deuxième cas : il existe g ∈ G, g ∈ / L ∪ G0 . En particulier, g ∈ / G0 . Considèrons la partie G0 ∪ {g}
de G. Elle a un cardinal strictement plus grand que celui de G0 . On en déduit que L ∪ G0 ∪ {g}
n’est pas libre. Or L ∪ G0 est libre, donc g s’écrit comme combinaison linéaire des éléments de
L ∪ G0 .
Finalement, tout élément g de la partie génératrice G est combinaison linéaire des éléments de
L ∪ G0 , donc L ∪ G0 engendre E.
Commentons l’existence d’une partie G0 de G de cardinal maximal telle que L ∪ G0 soit libre.
Point de vue ”pratique” : on regarde les parties L ∪ {g1 },...,L ∪ {gq }. Si toutes ces parties sont
liées, alors G0 = ∅.
Sinon il existe un élément g de G tel que L∪{g} est libre. Supposons que c’est g1 . On recommence
avec les parties L∪{g1 } et {g2 , ..., gq }. On regarde donc les parties L∪{g1 }∪{g2 },...,L∪{g1 }∪{gq }.
Si toutes ces parties sont liées, alors on prend G0 = {g1 }. Sinon il existe un élément g de G tel
que L ∪ {g1 } ∪ {g} est libre. Supposons que c’est g2 . On recommence avec les parties L ∪ {g1 , g2 }
et {g3 , ..., gq }. Etc...On arrive à un nombre n maximal, n ≤ q tel que L ∪ {g1 , ..., gn } est libre.
On pose G0 = {g1 , ..., gn }.
Point de vue ”axiomatique” : l’existence de d’une partie G0 de G, de cardinal le plus grand
possible telle que L ∪ G0 est libre vient de ”l’axiome du choix”.

Corollaire 3.2.2 Tout espace vectoriel de dimension finie, non égal à {0} possède des bases qui
ont un nombre fini d’éléments.
Preuve : Soit f un vecteur non nul de E et soit G une partie génératrice de E. Par le théorème
de la base incomplète il existe une partie G0 de G telle que {f } ∪ G0 est une base de E.

Corollaire 3.2.3 Si E est un espace vectoriel de dimension finie, E 6= {0}, alors de toute partie
génératrice de E on peut extraire une base.
Preuve : Soit G une partie génératrice de E et soit f un vecteur non nul de G, puis voir la
démonstration ci-dessus.

3.3 Notion de dimension d’un espace vectoriel.


Proposition 3.3.1 Soit G un ensemble fini de générateurs de E. Soit q ∈ N? le cardinal de G.
Alors toute partie de E contenant plus de q éléments est liée.
3.4. SOUS-ESPACES VECTORIELS EN DIMENSION FINIE. TOUT SOUS-ESPACE VECTORIEL ADMET U

Preuve : Posons G = {g1 , ..., gq }. On va faire une démonstration par l’absurde. Soit L =
{f1 , ..., fq+1 , ...} une partie libre de plus de q éléments. On va utiliser le théorème de la base
incomplète pour arriver à une absurdité. La partie L\{f1 } est libre. Montrons qu’elle n’engendre
pas E. Comme L est libre, f1 ne peut pas s’écrire comme une combinaison linéaire d’éléments
de L\{f1 }, sinon cela donnerait une relation linéaire non triviale entre les éléments de L. Cela
prouve que L\{f1 } n’engendre pas E. Par le théorème de la base incomplète, il existe une partie
G0 de G telle que L\{f1 } ∪ G0 est une base de E. On a G0 6= ∅. Soit un élément g de G0 . On a
que L\{f1 } ∪ {g} est libre, car c’est un sous-ensemble de la base L\{f1 } ∪ G0 . Supposons que
cet élément est g1 . On est arrivé à : L\{f1 } ∪ {g1 } est libre et G engendre E. On recommence
avec L\{f1 } ∪ {g1 } à la place de L. La partie L\{f1 , f2 } ∪ {g1 } est libre et n’engendre pas E. Il
existe donc un élément g de G, g 6= g1 , tel que L\{f1 , f2 } ∪ {g1 , g} est libre. Supposons que c’est
g2 . On recommence avec la partie libre L\{f1 , f2 } ∪ {g1 , g2 } à la place de L\{f1 } ∪ {g1 }. Comme
L a au moins q + 1 éléments, on peut faire ce raisonnement q fois. Au bout de q fois on obtient
que L\{f1 , f2 , ...fq } ∪ {g1 , ..., gq } est libre. Or comme G = {g1 , ..., gq } engendre E, le vecteur
fq+1 s’écrit comme combinaison linéaire des vecteurs g1 ,...,gq . Cela donne une relation linéaire
non triviale entre les éléments de L\{f1 , f2 , ...fq } ∪ {g1 , ..., gq }. On conclut que cette partie est à
la fois libre et liée, ce qui est absurde. L’hypothèse de l’existence d’une partie libre d’au moins
q + 1 éléments est donc fausse.

Corollaire 3.3.2 Soit E un espace vectoriel de dimension finie. Alors toutes les bases de E
sont finies et ont le même nombre d’éléments.
Preuve : Soit B et B0 deux bases de E. Elles ont un nombre fini d’éléments car il existe une
partie génératrice finie. Soit n =CardB et n0 =CardB 0 . Alors on a n ≤ n0 et n ≥ n0 , donc n = n0 .

Définition 3.3.3 Si E est de dimension finie, le nombre d’éléments commun à toutes les bases
de E s’appelle la dimension de E. (Si E = {0}, E n’admet pas de base).

Théorème 3.3.4 Soit E 6= {0} un K-espace vectoriel de dimension n. Alors :


(i) Toute partie libre a au plus n éléments et toute partie libre de n éléments est une base de E.
(ii) Toute partie génératrice a au moins n éléments et toute partie génératrice de n éléments est
une base de E.
Preuve : Prouvons (i). Comme il existe une base de E à n éléments, alors toute partie de plus
de n éléments est liée. Donc si f1 ,...,fp forment une partie libre, alors p ≤ n. Par le théorème de
la base incomplète, on peut complèter f1 ,...,fp en une base de E, donc si n = p, f1 ,...,fp forment
une base de E (sinon, en complètant, on trouverait une base d’au moins n + 1 éléments).
Montrons (ii). Il existe un sous-ensemble de {g1 , ..., gq } qui forme une base de E. Donc n ≤ q.
Si n = q, alors cette base est g1 ,...,gq .

3.4 Sous-espaces vectoriels en dimension finie. Tout sous-espace


vectoriel admet un supplémentaire.

Soit E un K-espace vectoriel de dimension n. Soit F un sous-espace vectoriel de E. Soit


e1 ,....,en une base de E. Alors tout vecteur de F s’écrit comme combinaison linéaire des vecteurs
e1 ,...,en , mais les vecteurs ei ne sont pas forcément dans F . Nous allons montrer que F est
engendré par un nombre fini de vecteurs, qui ne sont peut-être pas des éléments de la base
e1 ,...,en .
Exemple : E = R2 , F est la droite vectorielle engendrée par le vecteur (2, 1) (on la dessine, dans
le plan rapporté à la base canonique, comme la droite passant par (0, 0) de vecteur directeur
(2, 1)). Alors (1, 0) et (0, 1) 6∈ F et F est de dimension 1. Il admet pour base le vecteur (2, 1).
30 CHAPITRE 3. ESPACES VECTORIELS SUR R OU C DE DIMENSION FINIE.

Théorème 3.4.1 Si F est un sous-espace vectoriel de E, alors F est de dimension finie et


dim F ≤ dim E. Si dim F = dim E, alors F = E.
Preuve : Si F = {0} alors dim F = 0 et le théorème est démontré. Supposons F 6= {0}.
Soit un vecteur non nul de F . Il forme une famille libre. On sait que n + 1 vecteurs de E
sont liés, donc c’est vrai aussi pour n + 1 vecteurs de F . Donc il existe un plus grand entier p,
1 ≤ p ≤ n pour lequel on peut trouver p vecteurs de F linéairement indépendants. Soient f1 ,...,fp
p vecteurs de F linéairement indépendants. Soit u ∈ F . Alors les vecteurs u,f1 ,...,fp ne sont pas
linéairement indépendants car ils constituent une famille de p + 1 vecteurs. Comme f1 ,...,fp sont
linéairement indépendants, alors u est combinaison linéaire de f1 ,...,fp . On en déduit que f1 ,...,fp
engendrent F . Comme de plus ils sont linéairement indépendants, alors ils forment une base de
F . et dim F ≤ n.
Supposons que p = n. Alors f1 ,...,fn sont n vecteurs linéairement indépendants, donc ils
forment une base de E. Comme ils forment aussi une base de F , alors E = F (car tous deux
sont égaux à Vect {f1 , ..., fn }).

Définition 3.4.2 On appelle plan vectoriel de E tout sous-espace vectoriel de dimension 2. On


appelle hyperplan vectoriel de E tout sous-espace vectoriel de dimension n − 1.
Exemple : Si E = R3 les hyperplans sont les plans vectoriels. Si E = R4 , les hyperplans sont
les sous-espaces vectoriels de dimension 3.
Remarque : Les droites vectorielles sont les sous-espaces vectoriels de dimension 1.

Proposition 3.4.3 Soient F et G des sous-espaces vectoriels de E différents de {0}. Si e1 ,...,ep


forment une base de F et si ep+1 ,...,ep+q forment une base de G, alors F et G sont des sous-
espaces vectoriels supplémentaires si et seulement si les vecteurs e1 ,...ep+q forment une base de
E.
Preuve : Supposons que F et G sont supplémentaires. Soit u ∈ E. Il existe v ∈ F et w ∈ G
uniques tels que u = v+w. Or v est combinaison linéaire des vecteurs e1 ,...ep et w est combinaison
linéaire des vecteurs ep+1 ,...,ep+q . Donc les vecteurs e1 ,...ep ,ep+1 ,...,ep+q engendrent E. D’autre
part écrivons le vecteur nul comme combinaison linéaire des vecteurs e1 ,...ep ,ep+1 ,...,ep+q . Soient
des scalaires λ1 ,...,λp+q tels que 0 = λ1 e1 + .... + λp+q ep+q . Alors λ1 e1 + .... + λp ep = −λp+1 ep+1 −
... − λp+q ep+q . Or à gauche du signe égal nous avons un vecteur de F et à droite du signe
égal un vecteur de G. Comme F ∩ G = {0}, on en déduit que λ1 e1 + .... + λp ep = 0 et que
λ1 e1 + .... + λp+q ep+q = 0. Comme les vecteurs e1 ,...ep d’une part et ep+1 ,...,ep+q d’autre part
sont linéairement indépendants, alors λ1 = 0,...,λp+q = 0. Donc les vecteurs e1 ,...ep ,ep+1 ,...,ep+q
sont linéairement indépendants et engendrent E. Ils forment une base de E.
Supposons maintenant que les vecteurs e1 ,...ep ,ep+1 ,...,ep+q forment une base de E. Alors
tout vecteur u de E s’écrit de manière unique u = λ1 e1 + ... + λp ep + λp+1 ep+1 + ... + λp+q ep+q ,
où λ1 ,...,λp+q ∈ K. Posons v = λ1 e1 + ... + λp ep et w = λp+1 ep+1 + ... + λp+q ep+q . Alors v ∈ F ,
w ∈ G et u = v + w. Puis, si u = v 0 + w0 est une autre décomposition de u sur les sous-espaces
vectoriels F et G, on a v 0 = λ01 e1 + ... + λ0p ep et w0 = λ0p+1 ep+1 + ... + λ0p+q ep+q , où λ01 ,...,λ0p+q ∈ K,
donc u = λ01 e1 + ... + λ0p ep + λ0p+1 ep+1 + ... + λ0p+q ep+q . Comme la décomposition de u sur la
base e1 ,...,ep ,ep+1 ,...,ep+q est unique, alors λ01 = λ1 ,...,λ0p+q = λp+q , doncL la décomposition de u
suivant les sous-espaces vectoriels F et G est unique. On a donc E = F G.

Théorème 3.4.4 Soit E un espace vectoriel sur K de dimension finie. Alors tout sous-espace
vectoriel de E admet un sous-espace vectoriel supplémentaire.
Preuve : Soit e1 ,...,ep une base de F . Par le théorème de la base incomplète, on peut complèter
ces vecteurs pour obtenir une base de E. Soient ep+1 ,...,en des vecteurs de E tels que les
vecteurs e1 ,...,ep ,ep+1 ,...,en forment une base de E. On pose G = V ect{ep+1 , ..., en }. Les vec-
teurs ep+1 ,...,en sont linéairement indépendants (car ils font partie d’une famille de vecteurs
3.5. RANG D’UNE FAMILLE DE VECTEURS. 31

linéairement indépendants) et ils engendrent G (par la définition de G). Donc les vecteurs
ep+1 ,...,en forment une base
L de G. La réunion d’une base de F et d’une base de G forme une
base de E, donc E = F G par la proposition ci-dessus.
Exemple : Dans R3 on considère le sous-espace vectoriel F engendré par e1 = (1, 0, 0), e2 =
(1, 2, 0) et e3 = (1, 1, 0). Soit G le sous-espace vectoriel engendré par e4 = (0, 0, 3). On voit que e1
et e2 sont non colinéaires, donc ils sont linéairement indépendants. On remarque que e1 +e2 = 2e3
donc F est de dimension 2 et admet une base formée des vecteurs e1 et e2 . D’autre part, G est
une droite vectorielle. Montrons que e1 ,e2 ,e4 sont linéairement indépendants. S’ils étaient liés,
alors e4 serait combinaison linéaire de e1 et e2 (car e1 et e2 sont linéairement indépendants). Or
cela implique que la dernière composante de e4 serait nulle, ce qui est faux. Donc e1 ,e2 ,e4 sont
linéairementL indépendants, leur nombre est trois, donc ils forment une base de R3 . Cela montre
que R3 = F G.

3.5 Rang d’une famille de vecteurs.


Définition 3.5.1 Soit E un espace vectoriel sur K et soient u1 ,...,uq des vecteurs de E. On
appelle rang de la famille de vecteurs u1 ,...,uq la dimension du sous-espace vectoriel engendré
par les vecteurs u1 ,...,uq .
Remarque : Si le rang de la famille de vecteurs u1 ,...,uq est r, alors r ≤ q et on peut extraire
une sous-famille à r éléments de la famille u1 ,...,uq qui soit une base de Vect {u1 , ..., uq }. De plus,
dans le cas où r < q, toute sous famille de u1 ,...,uq de plus de r éléments est liée.

3.6 Sous-espaces vectoriels de Kp .


Un sous-espace vectoriel de Kp peut être donné d’au moins trois manières :
a) par une partie génératrice ;
b) par un système d’équations linéaires de second membre nul ;
c) par une base.
Il faut savoir passer d’une description à l’autre.

3.6.1 Passage d’une partie génératrice à une base ; calcul du rang.


Le problème : on donne un sous-espace vectoriel F de Kp par des vecteurs u1 ,..., uq qui
l’engendrent, c’est à dire que F = Vect {u1 , ..., uq }. On veut calculer la dimension de F (encore
appelée le rang de la famille de vecteurs u1 ,...,uq ) et trouver une base de F . On peut aussi se
poser le problème d’extraire une base de F de la famille de vecteurs u1 ,...,uq .
On va écrire les vecteurs u1 ,...,uq en colonnes et utiliser l’algorithme du pivot de Gauss
appliqué aux colonnes u1 ,...,uq .
Principe. Si λ2 ,...,λq sont des scalaires, alors les vecteurs w1 = u1 , w2 = u2 − λ2 u1 ,....,wq =
uq − λq u1 engendrent F . En effet, d’une part on a w1 ,....,wq ∈ F , donc Vect {w1 , ..., wq } ⊂ F
et d’autre part on peut écrire u1 = w1 , u2 = w2 + λ2 w1 ,....,uq = wq + λq w1 , donc u1 ,....,uq ∈
Vect {w1 , ..., wq } , donc F ⊂ Vect {w1 , ..., wq }. Finalement, F = Vect {w1 , ..., wq }.
On explique la méthode sur des exemples.

Premier exemple. Dans R4 on considère le sous-espace vectoriel F engendré par les vecteurs
u1 = (1, 0, −1, 1), u2 = (2, 1, 4, 0), u3 = (1, 1, 0, 0), u4 = (3, 1, 2, 1) et u5 = (4, 2, 13, −1). On
les place en colonnes. Comme la première composante de u1 est non nulle, on la prend comme
pivot. La première étape consiste à remplacer pour tout i ≥ 2 le vecteur ui par un vecteur de la
forme ui − λu1 , où le scalaire λ est choisi pour que la première composante du vecteur
32 CHAPITRE 3. ESPACES VECTORIELS SUR R OU C DE DIMENSION FINIE.

1 2 1 3 4 1 0 0 0 0
0 1 1 1 2 0 1 1 1 2
ui − λu1 soit nulle. On écrit : puis . Appelons
−1 4 0 2 13 −1 6 1 5 17
1 0 0 1 −1 1 −2 −1 −2 −5
w1 , w2 , w3 , w4 et w5 les colonnes qu’on vient d’obtenir. Alors F = Vect {w1 , w2 , w3 , w4 , w5 },
d’après le principe énoncé ci-dessus. Comme le coefficient de la deuxième colonne et deuxième
ligne est non nul, on le prend comme pivot et on recommence sur les colonnes j, j ≥ 2. On écrit :
1 0 0 0 0
0 1 0 0 0
Appelons η1 ,...,η5 les 5 colonnes obtenues. Selon le principe énoncé
−1 6 −5 4 5
1 −2 1 −1 −1
ci-dessus, on a Vect {w1 , ..., w5 } = V ect{η1 , ..., η5 } ; on recommence sur les colonnes 4 et 5.

1 0 0 0 0
0 1 0 0 0
.
−1 6 −5 0 0
1 −2 1 −1/5 0

Appelons t1 ,...,t5 les colonnes qu’on vient d’obtenir. Toujours grace au même principe, on a
Vect {η1 , ..., η5 } = Vect {t1 , ..., t5 }. Donc finalement F = Vect {t1 , ..., t5 }. Or t5 est nul, donc
F = Vect {t1 , t2 , t3 , t4 }. De plus les vecteurs t1 , t2 , t3 et t4 sont linéairement indépendants, à
cause du caractère échelonné de leurs composantes. En effet, t4 et t3 sont non colinéaires. Puis t2
n’est pas combinaison linéaire des vecteurs t4 et t3 , sinon sa deuxième composante serait nulle.
donc t4 , t3 , t2 sont linéairement indépendants. Puis t1 n’est pas combinaison linéaire de t4 , t3 ,t2 ,
sinon sa première composante serait nulle. Donc t1 , t2 , t3 , t4 sont linéairement indépendants.
Comme on sait qu’ils engendrent F , alors ils forment une base de F . On a donc trouvé que le
rang de la famille des 5 vecteurs u1 , u2 , u3 , u4 , u5 est 4.
Remarquons qu’au cours de l’utilisation de l’algorithme du pivot de Gauss, on n’a pas eu
besoin d’intervertir l’ordre des colonnes. Montrons, à titre d’exercice, que cela implique que
les vecteurs u1 , u2 , u3 , u4 forment une base de F , extraite de la famille u1 , u2 , u3 , u4 , u5 .
Soient w1 ,...,w5 les vecteurs obtenus après la première étape. On remarque que w1 , w2 , w3 ,
w4 ∈ Vect {u1 , u2 , u3 , u4 } et que u1 , u2 , u3 ,u4 ∈ Vect {w1 , w2 , w3 , w4 }. En effet, les vecteurs
wi , i = 1, ..., 4 s’écrivent comme des combinaisons linéaires des vecteurs ui , i = 1, ..., 4 et
réciproquement, les vecteurs ui , i = 1, ..., 4 s’écrivent comme des combinaisons linéaires des
vecteurs wi , i = 1, ..., 4. Par conséquent Vect {u1 , ..., u4 } = Vect {w1 , ..., w4 }. A l’étape sui-
vante, on n’a pas intervertit les colonnes. On trouve donc des vecteurs η1 ,...,η5 de la forme
ηi = wi − λi w2 , i = 1, ..., 5, donc les vecteurs η1 ,...,η4 sont combinaisons linéaires de w1 ,...,w4
et réciproquement les vecteurs w1 ,...,w4 sont combinaisons linéaires de η1 ,...,η4 . Par conséquent
Vect {w1 , ..., w4 } = Vect {η1 , ..., η4 }. On recommence le même raisonnement à la dernière étape.
On trouve Vect {t1 , t2 , t3 , t4 } = Vect {η1 , η2 , η3 , η4 }. Finalement :
Vect {u1 , u2 , u3 , u4 } = Vect {t1 , t2 , t3 , t4 } = F . Les vecteurs u1 , u2 , u3 , u4 engendrent donc F .
Or F est de dimension 4, donc toute partie génératrice de 4 vecteurs est une base de F . Donc
les quatre vecteurs u1 , u2 , u3 et u4 forment une base de F .
Dans certains cas, on peut être obligé d’intervertir les colonnes, afin d’avoir à chaque itération
un pivot non nul.

Deuxième exemple. Dans R4 on considère le sous-espace vectoriel F engendré par les vec-
teurs e1 = (1, 2, 3, 1), e2 = (1, 2, 1, 0), e3 = (2, 1, 0, 1) et e4 = (0, 1, 2, 2). On cherche la dimension
de F , en même temps qu’une base de F . On écrit
3.6. SOUS-ESPACES VECTORIELS DE KP . 33

1 1 2 0 1 0 0 0
2 2 1 1 2 0 −3 1
puis .
3 1 0 2 3 −2 −6 2
1 0 1 2 1 −1 −1 2
le deuxième pivot est nul. On intervertit par exemple la deuxième colonne avec la dernière.
On obtient :
1 0 0 0 1 0 0 0
2 1 −3 0 2 1 0 0
, puis
3 2 −6 −2 3 2 0 −2
1 2 −1 −1 1 2 5 −1
Le troisième pivot est nul. On intervertit la troisième colonne et la quatrième. On obtient :
1 0 0 0
2 1 0 0
.
3 2 −2 0
1 2 −1 5
Soient t1 ,...,t4 ces colonnes . Comme dans le premier exemple on a F = V ect{t1 , ..., t4 } et t1 , t2 ,
t3 , t4 sont linéairement indépendants, car leurs composantes sont échelonnées. Donc le rang des
vecteurs e1 , e2 , e3 , e4 est 4 (et donc ils forment une base de F ).

3.6.2 Passage d’une base à un système d’équations cartésiennes.


Le problème : On donne un sous-espace vectoriel F de Kp par une de ses bases. On va trouver
un système homogène d’équations linéaires dont l’ensemble des solutions est F . Un tel système
sera appelé un système d’équations cartésiennes de F .
Exemple : Soit F le sous-espace vectoriel de R4 engendré par les vecteurs u1 = (1, 1, 2, 1) et
u2 = (2, 1, 3, 4). On vérifient que u1 et u2 sont non colinéaires, donc indépendants. Ils forment une
base de F . Soit w = (x, y, z, t) ∈ R4 . Le sous-espace vectoriel Vect {w, u1 , u2 } est de dimension 2
si w ∈ F et il est de dimension 3 si w 6∈ F . Donc w ∈ F si et seulement si la famille de vecteurs
u1 , u2 , w est de rang 2. Utilisons la méthode décrite dans ce chapitre pour calculer le rang d’une
famille de vecteurs. On écrit les trois vecteurs u1 , u2 , w en colonnes.
1 2 x 1 0 0
1 1 y 1 −1 y − x
. On prend la première colonne comme pivot. . On prend la deuxième
2 3 z 2 −1 z − 2x
1 4 t 1 2 t−x
1 0 0
1 −1 0
colonne comme pivot. . Appelons t1 , t2 , t3 les vecteurs qui apparaissent
2 −1 −x − y + z
1 2 −3x + 2y + t
en colonnes. Comme dans les exemples ci-dessus, t1 et t2 sont linéairement indépendants, car
leurs composantes sont ”échelonnées”. ( Ici on voit que t1 et t2 sont non colinéaires). Si on a
t3 6= 0, alors t3 et t2 ne sont pas colinéaires, puis t1 n’est pas combinaison linéaire de t3 et t2
(sinon sa première composante serait nulle), donc t1 , t2 , t3 sont linéairement indépendants. Par
conséquent, si t3 6= 0, alors le rang des trois vecteurs u1 , u2 , w est trois. On en déduit que w ∈ F
si et seulement si ½
−x− y+ z = 0
−3x+ 2y+ t = 0
On a trouvé un système d’équations cartésiennes de F . Remarquons qu’on obtient d’autres
systèmes d’équations cartésiennes de F en multipliant l’une ou l’autre des deux équations du
système ci-dessus par une constante non nulle, ou en formant une ou plusieurs combinaisons
linéaires des deux équations et en les joignant au système.
34 CHAPITRE 3. ESPACES VECTORIELS SUR R OU C DE DIMENSION FINIE.

Attention : La méthode ci-dessus ne s’applique qu’à partir d’une base de F et pas de n’importe
quelle partie génératrice. Si F est donné par une partie génératrice quelconque, il faut d’abord
trouver une base avant de calculer un système d’équations cartésiennes par cette méthode.
Chapitre 4

Applications linéaires.

Dans cette partie E et F désignent deux espaces vectoriels sur K.

4.1 Définitions et exemples.


Définition 4.1.1 Une application linéaire de E dans F est une application f : E → F telle que
(i) x, y ∈ E, f (x + y) = f (x) + f (y)
(ii) x ∈ E, λ ∈ K, f (λx) = λf (x).

Remarque : f est un homomorphisme de groupe du groupe (E, +) dans le groupe (F, +).
Propriétés. a) Pour tout u ∈ E, f (0u) = 0f (u) = 0F . Donc f (0E ) = 0F .
b)Pour tous n ∈ N? , λ1 ,...,λn ∈ K, u1 ,...,un ∈ E, f (λ1 u1 + ... + λn un ) = λ1 f (u1 ) + ... + λn f (un ).
(Démonstration par récurrence).
Exemples. a) Soit a ∈ R et f : R 7→ R, x → ax. Alors f est une application linéaire.
(Rappel : sa représentation graphique est une droite qui passe par 0. Les applications linéaires
de R dans R sont utilisées dans les problèmes de proportionnalité.) Montrons que si g : R 7→ R
est une application linéaire, alors il existe a ∈ R tel que pour tout x, g(x) = ax. On a g(x) =
g(1x) = xg(1). On pose a = g(1).
f :R →R
b) Si a ∈ R et b ∈ R, b 6= 0, alors l’application n’est pas linéaire, car
x → ax + b
f (0) 6= 0.

f :R →R
c) Soit alors f n’est pas une application linéaire. En effet :f (2x) = 4f (x) 6=
x → x2
2f (x) si x 6= 0.

d) E = C 1 (R, R), F = C 0 (R, R). E et F sont des espaces vectoriels sur R car ce sont des sous
Ψ:E →F
-espaces vectoriels de F(R, R). Alors est une application linéaire de E dans F .
f → f0
Φ:E →R
e) Soit F = C 0 (R, R) alors Rb est une application linéaire de E dans R.
f → a f (t)dt
H : Kn → Kp
f) Soient n et p des entiers, 1 ≤ p ≤ n alors est une application
(x1 , ..., xn ) → (x1 , ..., xp )
linéaire.

F(R, R) → R
g) Soit x0 un réel fixé. L’application est linéaire.
f → f (x0 )

35
36 CHAPITRE 4. APPLICATIONS LINÉAIRES.

R2 → R
h) Si a ∈ R et b ∈ R, alors est une application linéaire. Si λ ∈ R,
(x, y) → ax + by
on a f (λ(x, y)) = f (λx, λy) = aλx + bλy = λ(ax + by) = λf ((x, y)). et f ((x, y) + (x0 , y 0 )) =
f ((x + x0 , y + y 0 )) = a(x + x0 ) + b(y + y 0 ) = ax + ax0 + by + by 0 = f ((x, y)) + f ((x0 , y 0 )).

Proposition 4.1.2 Soient f : E → F et g : F → G des applications linéaires, alors

g◦f :E →F →G

est une application linéaire.

Preuve : Si u,v ∈ E, (g ◦ f )(u + v) = g(f (u + v)) = g(f (u) + f (v)) = g(f (u)) + g(f (v)) =
g ◦ f (u) + g ◦ f (v). De même, si λ ∈ K, g ◦ f (λu) = λg ◦ f (u).

Proposition 4.1.3 Soit f : E → F une application linéaire bijective. Alors son application
linéaire réciproque f −1 : F → G est une application linéaire.
Preuve : On sait que si u ∈ E, v ∈ F , (u = f −1 (v)) ⇔ (v = f (u)). Soient v1 et v2 ∈ F .
Montrons que f −1 (v1 + v2 ) = f −1 (v1 ) + f −1 (v2 ). Soient u1 et u2 les éléments de E tels que
f (u1 ) = v1 et f (u2 ) = v2 . Comme f est linéaire, on a

v1 + v2 = f (u1 ) + f (u2 ) = f (u1 + u2 ).

On pose u = u1 +u2 . On a f (u) = v1 +v2 , donc u = f −1 (v1 +v2 ), c’est à dire f −1 (v1 )+f −1 (v2 ) =
f −1 (v1 + v2 ).
Si λ ∈ K, v ∈ F et u ∈ E, montrons que f −1 (λv) = λf −1 (v). Soit u l’élément de E tel que
f (u) = v alors, comme f est linéaire, on a f (λu) = λv, donc f −1 (λv) = λu = λf −1 (v).
Exemple : Si a ∈ R, a 6= 0, alors f : R → R, x 7→ ax est une application linéaire bijective et
f −1 : x 7→ a1 x.

Définition 4.1.4 Soit f : E → F une application linéaire bijective. On dit que f est un iso-
morphisme d’espaces vectoriels de E sur F . On dit aussi que l’espace vectoriel E est isomorphe
à l’espace vectoriel F .

Proposition 4.1.5 Soit la relation binaire R définie sur l’ensemble des K-espaces vectoriels
par ”ERF si E est isomorphe à F ”. Alors R est une relation d’équivalence dans l’ensemble des
K-espaces vectoriels.
Preuve : Réflexive : id : E → E est un isomorphisme. Symétrique : si f : E → F est un
isomorphisme, alors f −1 : F → E est un isomorphisme. Transitive : si f : E → F et g : F → G
sont des isomorphismes, alors g ◦ f : E → G est un isomorphisme.
Exemple fondamental. Si E est un espace vectoriel de dimension n, alors E est isomorphe à
Kn .
Preuve : Soit (e1 , ..., en ) une base de E. On définit f : E → Kn , u 7→ (x1 , ..., xn ), où x1 , ..., xn
sont les coordonnées de u dans la base (e1 , ...., en ). On vérifie que f est une application (si u est
un vecteur de E, existence et unicité des coordonnées de u). Puis on vérifie que f est linéaire.
Ensuite on définit l’application g par g : Kn → E, (x1 , ..., xn ) 7→ x1 e1 +...+xn en . On a g◦f = idE
et f ◦ g = idKn . Donc f est bijective, d’application réciproque g.
Vocabulaire. Une application linéaire de E dans K s’appelle une forme linéaire.
Une application linéaire de E dans lui-même s’appelle un endomorphisme d’espace vectoriel de
E.
Un endomorphisme bijectif de E s’appelle un automorphisme de E.
4.2. IMAGE ET NOYAU. 37

4.2 Image et noyau.


Rappel. Soit f : E → F une application entre deux ensembles E et F. Si G est une partie
de E, on appelle image de G l’ensemble des éléments de F de la forme f (x) où x ∈ G. On note
cet ensemble f (G).
Dans la suite, E et F sont des espaces vectoriels sur K et f : E → F est une application
linéaire.

Définition 4.2.1 On appelle image de f l’image de E par l’application linéaire f .


Notation. Im f .
On a donc Im f = f (E), Im f = {f (u); u ∈ E}, ou encore Im f = {v ∈ F, ∃u ∈ E, f (u) = v}.

Proposition 4.2.2 L’image de f est un sous-espace vectoriel de F .


Preuve : D’abord 0F ∈ Im f , donc Im f 6= ∅. Soient v1 , v2 ∈ Im f . Il existe u1 , u2 ∈ E,
v1 = f (u1 ), v2 = f (u2 ). Alors v1 + v2 = f (u1 ) + f (u2 ) = f (u1 + u2 ), donc v1 + v2 ∈ Im f . Si
λ ∈ K, alors λv1 = λf (u1 ) = f (λu1 ), donc λv1 ∈ Im f .
Remarque : L’application linéaire f est surjective si et seulement si Im f = F .

Définition 4.2.3 On appelle noyau de f l’ensemble des vecteurs de E dont l’image par f est
le vecteur nul de F .
Notation ker f .
On a ker f = {u ∈ E, f (u) = 0F }.

Proposition 4.2.4 Le noyau de f est un sous-espace vectoriel de E.


Preuve : On a 0E ∈ Ker f car f (0E ) = 0F (à gauche du signe =, 0E désigne le vecteur nul
de E, à droite 0F désigne le vecteur nul de F ). Si u et v ∈ Ker f , alors f (u) + f (v) = 0F ,
or f est linéaire, donc f (u + v) = f (u) + f (v) = 0F , donc u + v ∈ Ker f . Si λ ∈ K, on a
f (λu) = λf (u) = λ0F = 0F , donc λu ∈ Ker f .

4.3 Application linéaire injective.


Proposition 4.3.1 L’application linéaire f est injective si et seulement si Ker f = {0E } (où
0E désigne le vecteur nul de E ).
Preuve : Supposons f injective. Comme on a f (0E ) = 0F , alors le seul vecteur de E dont l’image
est le vecteur nul de F est le vecteur nul de E. Donc Ker f = {0E }. Supposons maintenant que
Ker f = {0E }. Soient u et v ∈ E tels que f (u) = f (v). Comme f est linéaire, alors :

(f (u) = f (v)) ⇔ (f (u − v) = 0F ).

Donc

(f (u) = f (v)) ⇔ (u − v ∈ Ker f ).

Comme Ker f = {0E }, alors : (f (u) = f (v)) ⇒ (u = v), donc f est injective.
Exemples f : R2 → R (x, y) → 2x + 3y. ker f = {(x, −(2/3)x); x ∈ R}, donc ker f 6= {(0, 0)}.
f n’est pas injective. Rπ
Soit E = C 0 (R, R) et Φ : E → R, f → −π f (t)dt. Soit f (t) = sin t. On a Φ(f ) = 0, et f 6= 0E ,
donc Φ n’est pas injective.

Proposition 4.3.2 Si f est injective alors l’image de toute partie libre de E est une partie libre
de F .
38 CHAPITRE 4. APPLICATIONS LINÉAIRES.

Preuve : Soient u1 ,...,up des vecteurs de E linéairement indépendants. On suppose que f


est injective. Montrons que les vecteurs f (u1 ),...,f (up ) sont linéairement indépendants. Soient
λ1 ,...,λp des scalaires tels que λ1 f (u1 ) + ... + λp f (up ) = 0F . Comme f est linéaire, f (λ1 u1 + ... +
λp up ) = 0F . Or f est injective, donc λ1 u1 + ... + λp up = OE . Comme u1 ,...,up sont linéairement
indépendants, λ1 = .... = λp = 0.
Remarque : La réciproque de cette proposition est vraie (exercice).

4.4 Cas où l’espace vectoriel de départ est de dimension fi-


nie, image d’une partie génératrice. Rang d’une application
linéaire.
Dans cette partie, f : E → F est une application linéaire et E est de dimension finie n.

Proposition 4.4.1 Si {g1 , ..., gq } est une partie génératrice de E, alors son image {f (g1 ), ..., f (gq )}
est une partie génératrice de Im f .
Preuve : Si v ∈ Im f , alors il existe u ∈ E tel que v = f (u). Il existe des scalaires λ1 ,...,
λq tels que u = λ1 g1 + ... + λq gq . Donc v = λ1 f (g1 ) + ... + λq f (gq ), ce qui prouve que
Im f ⊂ Vect {f (g1 ), ..., f (gq )}. Réciproquement, on a bien Vect {f (g1 ), ..., f (gq )} ⊂ Im f, car
f (g1 ), ..., f (gq ) ∈ Im f . Finalement, Im f = Vect {f (g1 ), ..., f (gq )}.

Corollaire 4.4.2 Si l’espace vectoriel E est de dimension finie, alors son image par une appli-
cation linéaire est un espace vectoriel de dimension finie et dim Im f ≤ dim E.

Définition 4.4.3 On appelle rang de l’application linéaire f la dimension de l’espace vectoriel


Im f .

Remarque 4.4.4 Si (e1 , ..., en ) est une base de E, alors le rang de f est égal au rang des
vecteurs f (e1 ),...,f (en ).

Théorème 4.4.5 (du rang). dim E = dim Im f + dim Ker f .


Preuve : Soit (u1 ,...,uk ) une base de Ker f et soit (f1 , ..., fn ) une base de Im f . Il existe v1 ∈ E
tel que f (v1 ) = f1 ,..., il existe vn ∈ E tel que f (vn ) = fn . Prouvons que (u1 , ..., uk , v1 , ..., vn ) est
une base de E. Prouvons qu’elle engendre E. Soit u ∈ E. On a f (u) ∈ Im f , donc il existe des
scalaires λ1 ,...,λn tels que f (u) = λ1 f1 +...+λn fn . Ceci donne : f (u−λ1 v1 −...−λn vn ) = 0, donc
u − λ1 v1 − ... − λn vn ∈ Ker f . Finalement, il existe des scalaires µ1 ,...,µk tels que u = λ1 v1 + ... +
λn vn + µ1 u1 + ... + µk uk . Donc u1 , ..., uk , v1 , ..., vn engendrent E. Prouvons qu’ils forment une
famille libre. Soient λ1 ,...,λn , µ1 ,...,µk des scalaires tels que λ1 v1 + ... + λn vn + µ1 u1 + ... + µk uk =
0E . Alors f (λ1 v1 +...+λn vn +µ1 u1 +...+µk uk ) = 0F , donc λ1 f1 +...+λn fn = 0. Or f1 ,...,fn sont
linéairement indépendants, donc λ1 = ... = λn = 0. On en déduit que µ1 u1 + ... + µk uk = 0. Or
u1 ,...,uk sont linéairement indépendants, donc µ1 = ... = µk = 0. Finalement u1 , ..., uk , v1 , ..., vn
engendrent E et forment une famille libre, donc une base de E. La dimension de E est égale au
nombre de vecteurs de cette base, n + k, qui est égal à dim Im f + dim Ker f .

4.5 Isomorphismes.
Théorème 4.5.1 Soit f : E → F une application linéaire. Supposons que E est de dimension
finie. Alors on a l’équivalence de
(i) f est un isomorphisme de E dans F .
(ii) L’image de toute base de E est une base de F .
(iii) Il existe une base de E dont l’image par f est une base de F .
4.5. ISOMORPHISMES. 39

Preuve : a) Montrons (i) ⇒ (ii). Soit (e1 , ..., en ) une base de E. Comme f est injective alors
{f (e1 ), ..., f (en )} est une partie libre de F . On sait que cette partie engendre Im f , donc c’est
une base de Im f . Or f est surjective, donc Im f = F . Finalement, (f (e1 ), ..., f (en )) est une base
de F .
b) Montrons que (iii) ⇒ (i). Soit (e1 , ..., en ) une base de E telle que (f (e1 ), ..., f (en )) soit
une base de F . Montrons que f est bijective. On voit immédiatement que F ⊂ Im f , car
f (e1 ),...,f (en ) ∈ Im f. Donc f est surjective. Montrons que f est injective. Soit u ∈ ker f . Il
existe des scalaires λ1 ,...,λn tels que u = λ1 e1 +...+λn en . Alors f (λ1 e1 +...+λn en ) = 0F . Comme
f est linéaire, λ1 f (e1 ) + ... + λn f (en ) = 0F . Or f (e1 ),...,f (en ) sont linéairement indépendants,
donc λ1 = ... = λn = 0. On en déduit que u = 0E .

Corollaire 4.5.2 Soient E et F des espaces vectoriels isomorphes. Alors si l’un est de dimen-
sion finie, l’autre aussi et ils ont tous deux la même dimension.

Théorème 4.5.3 Supposons que E et F sont de dimension finie et que dim E = dim F . Soit
f : E → F une application linéaire. Alors on a l’équivalence de
(i) f est un isomorphisme de E dans F .
(ii) f est injective.
(iii) f est surjective.

Preuve : Soit (e1 , ..., en ) une base de E.


a) Montrons (ii) ⇒ (i). On suppose que f est injective. Alors {f (e1 ), ..., f (en )} est une partie
libre de F . Or on sait que F est de dimension n, donc (f (e1 ), ..., f (en )) est une base de F . On
en déduit que f est un isomorphisme.
b) Montrons (iii) ⇒ (i). On suppose que f est surjective, donc que Im f = F . On sait
que {f (e1 ), ..., f (en )} est une partie génératrice de Im f , donc de F . Or dim F = n, donc
(f (e1 ), ..., f (en )) est une base de F . On en déduit que f est un isomorphisme.

Proposition 4.5.4 Soit f : E → F un isomorphisme. Soient u1 , ...up des vecteurs de E. Alors


le rang de la famille de vecteurs u1 , ...up est égal au rang de la famille de vecteurs f (u1 ), ...f (up ).

Preuve : Soit r le rang des vecteurs u1 , ..., up . Rappelons que le rang est la dimension de
Vect {u1 , ..., up }. Le rang r est caractérisé par le fait qu’il existe r vecteurs linéairement indépendants
parmi les p vecteurs u1 , ..., up et que toute sous-famille d’au moins r + 1 vecteurs pris parmi
u1 , ..., up est liée. Supposons que u1 ,...,ur sont linéairement indépendants. Alors, comme f
est injective, f (u1 ), ..., f (ur ) sont linéairement indépendants. Appelons r0 le rang de la famille
f (u1 ), ..., f (up ). On a montré que r0 ≥ r. En faisant le même raisonnement avec l’isomorphisme
f −1 , on en déduit que r ≥ r0 . Donc r = r0 .

Corollaire 4.5.5 Soit E un espace vectoriel de dimension n. Soit (e1 , ..., en ) une base de E.
Soient u1 ...up des vecteurs de E. On note (x11 , ..., x1n ),...,(xp1 , ..., xpn ) les coordonnées des vecteurs
u1 ,...,up dans la base (e1 , ..., en ). Alors le rang de la famille u1 ,...,up est égal au rang de la
famille des p vecteurs de Kn : (x11 , ..., x1n ),...,(xp1 , ..., xpn ).
Applications. a) Pour calculer le rang de p vecteurs de E, on fixe une base de E et on écrit
les coordonnées de ces vecteurs dans la base. On est ramené au calcul du rang de p vecteurs de
Kn , ce qu’on sait faire, par la méthode du pivot appliquée aux colonnes.
b) Soit F un sous-espace vectoriel de E. Une base (e1 , ..., en ) de E étant fixée, on peut calculer
un système d’équations cartésiennes de F dans la base (e1 , ..., en ).
40 CHAPITRE 4. APPLICATIONS LINÉAIRES.

4.6 Exemples : projections vectorielles, symétries vectorielles.


I) Soient F et G des sous-espaces vectoriels supplémentaires de E. Soit p l’application linéaire
définie par L
E=F G →E
u=v+w →v
Alors tout vecteur u de E a bien une image et une seule par p car la décomposition de tout vecteur
u comme somme d’un vecteur de F et d’un vecteur de G existe et est unique. L’application p
est appelée la projection vectorielle sur le sous-espace vectoriel F , parallèlement au sous-espace
vectoriel G.

Proposition 4.6.1 p est un endomorphisme de E. On a Ker p = G et Im p = F .

II) Soient F et G des sous-espaces vectoriels supplémentaires de E. Soit s l’application


linéaire définie par L
E=F G →E
u=v+w →v−w
Alors tout vecteur u de E a bien une image et une seule par s car la décomposition de tout vecteur
u comme somme d’un vecteur de F et d’un vecteur de G existe et est unique. L’application s
est appelée la symétrie vectorielle sur le sous-espace vectoriel F , parallèlement au sous-espace
vectoriel G.

Proposition 4.6.2 s est un isomorphisme de E.

III) Exercice Dans E = R2 , soit F la droite vectorielle engendrée par le vecteur (1, 1) et G
la droite vectorielle engendrée
L par (1, −1).
(i) Montrer que E = F G. (Indication : réunir une base de F et une base de G.)
(ii) Soit w = (x, y) un vecteur de R2 . Trouver les coordonnées de p(w) dans la base canonique
de R2 . (Réponse : p(w) = ( x+y x+y
2 , 2 )).
Chapitre 5

Applications linéaires en dimension


finie. Matrices

5.1 Matrices. Règles de calcul.


Définition 5.1.1 (Rappel) On appelle matrice à n lignes et p colonnes, ou matrice n × p un
tableau d’éléments de K que l’on note
 
a1,1 a1,2 ... a1,p
 a2,1 a2,2 ... a2,p 
 
 ....... 
an,1 an,2 ... an,p
On note en abrégé (ai,j ) i sera l’indice de ligne et j l’indice de colonne.
1≤i≤n
1≤j≤n
Notation : L’ensemble des matrices n × p à coefficients dans K est appelé Mn,p (K). Si n = p,
on le notera Mn (K).
Exemple : µ ¶
1 −1 2
A= ∈ M2,3 (R).
0 1 3
La matrice dont tous les coefficients sont nuls est appelée la matrice nulle et sera notée 0.

Définition 5.1.2 (Rappel) Une matrice qui a le même nombre de lignes et de colonnes est dite
carrée. Un matrice carrée est dite :
diagonale si ai,j = 0 si i 6= j ;
triangulaire supérieure si ai,j = 0 pour i > j ;
triangulaire inférieure si ai,j = 0 pour i > j.

Exemples : Les matrices de la forme :


µ ¶
a 0
,
0 b
a, b ∈ R, sont les matrices diagonales de M2 (R).
Les matrices de la forme µ ¶
a b
,
0 c
a, b, c ∈ R, sont les matrices triangulaires supérieures de M2 (R).

41
42 CHAPITRE 5. APPLICATIONS LINÉAIRES EN DIMENSION FINIE. MATRICES

Définition 5.1.3 Une matrice à une ligne s’appelle une matrice-ligne. Une matrice à une co-
lonne s’appelle une matrice-colonne. La ième ligne de la matrice (ai,j ) est lamatrice-ligne  :
a1,j
 .. 
(ai,1 , ai,2 , ..., ai,p ). La jème colonne de la matrice (ai,j ) est la matrice-colonne :  . .
an,j
Définition 5.1.4 Si A = (ai,j ) ∈ Mn,p (K) et λ ∈ K on définit le produit de A par λ par :

λA = (λai,j ).

Si B = (bi,j ) ∈ Mn,p (K), on définit la somme des matrices A et B par :

A + B = (ai,j + bi,j ).

µ ¶ µ ¶
1 −1 2 2 −2 4
Exemples : A = ∈ M2,3 (R). 2A = .
0 1 3 0 2 6
µ ¶ µ ¶
0 −1 3 1 −2 5
B= ∈ M2,3 (R). A + B = ∈ M2,3 (R).
1 1 0 1 2 3

Définition 5.1.5 (multiplication d’unematrice-ligne


 par une matrice-colonne). Si
b1
 .. 
A = (a1 , ...., ap ) ∈ M1,p (R) et B =  .  ∈ Mp,1 (R),
bp
le produit AB est la matrice 1 × 1 dont l’unique coefficient est :

a1 b1 + ... + ap bp .

Attention : le produit d’une matrice-ligne par une matrice-colonne n’est défini que si les deux
matrices ont le même nombre de coefficients.
 
1
Exemple : A = (1, −1, 0) et B =  2  . AB = 1 × 1 + (−1) × 2 + 0 × 1 = −1.
1

Définition 5.1.6 Soit A ∈ Mn,p (K) et B ∈ Mp,q (K). Le produit de A par B, noté AB est la
matrice n × q dont le coefficient de la ième ligne et jème colonne est le produit de la ième ligne
de A et de la jème colonne de B.
Attention : Le produit de A par B n’est défini que si le nombre de colonnes de A est égal au
nombre de lignes de B.
Exemple :
 
1 1 −1  
 −2 1 3  1 2
A= 
 3 0 1  ∈ M4,3 (R) et B =
 0 1  ∈ M3,2 (R).
1 3
1 0 0

Alors  
0 0
 1 6 
AB = 
 4
 ∈ M4,2 (R).
9 
1 2
5.1. MATRICES. RÈGLES DE CALCUL. 43
 
0
 .. 
 . 
 
Remarques : Si A ∈ Mn,p (K) et si Ej =  
 1  ∈ Mp,1 (K), (1 à la jème place, 0 ailleurs),
 .. 
 . 
0
alors AEj est la jème colonne de A.
La ième ligne de la matrice AB est égale au produit de la ième ligne de la matrice A par la
matrice B.
La jème colonne de la matrice AB est égale au produit de la matrice A par la jème colonne de
la matrice B.
Règles de calcul. Soient A, B, C ∈ Mn,p (K) ,λ, µ ∈ K.
En utilisant les définitions de l’addition des matrices et de la multiplication par un scalaire, on
montre que :
A + B = B + A, A − A = 0 (où 0 désigne la matrice nulle.) A + 0 = A.
A + (B + C) = (A + B) + C, on note A + B + C.
λ(A + B) = λA + λB
(λ + µ)A = λA + µA.
(λµ)A = λ(µA).
1A = A.
Définition 5.1.7 Pour 0 ≤ k ≤ n et 0 ≤ l ≤ p, on définit la matrice Ek,l dont le coefficient de
la kème ligne et lème colonne vaut 1, les autres coefficients étant égaux à 0.
Proposition 5.1.8 L’ensemble Mn,p (K), muni de l’addition des matrices et de la multiplication
par les scalaires est un espace vectoriel sur K. Les matrices Ek,l , 0 ≤ k ≤ n et 0 ≤ l ≤ p, forment
une base de Mn,p (K).
Preuve : Les règles de calcul ci-dessus font que Mn,p (K) muni de l’addition et de la multi-
plication par les scalaires est un espace vectoriel sur K. De plus on écrit pour toute matrice
A = (ai,j ),
Xn Xp
A= ak,l Ek,l ,
k=1 l=1
et si
p
n X
X
A= ck,l Ek,l ,
k=1 l=1
alors ak,l = ck,l pour 0 ≤ k ≤ n et 0 ≤ l ≤ p. On voit donc que toute matrice de Mn,p (K) s’écrit
de manière unique comme combinaison linéaire des matrices Ek,l , 0 ≤ k ≤ n, 0 ≤ l ≤ p.

Définition 5.1.9 On définit In comme la matrice carrée n × n, diagonale, dont les coefficients
diagonaux sont tous égaux à 1.
On a les règles de calcul suivantes, qui résultent des propriétés de l’addition et de la mul-
tiplication dans K, ainsi que de la définition de la multiplication des matrices (quand on peut
calculer les produits).

A, b, C ∈ Mn (K), λ ∈ K,
In A = AIn = A
λ(AC) = (λA)C, on note λAC.
(A + B)C = AC + BC et A(B + C) = AB + AC (double distributivité de la multiplication par
rapport à l’addition.)
44 CHAPITRE 5. APPLICATIONS LINÉAIRES EN DIMENSION FINIE. MATRICES

Remarque : Le produit des matrices n’est pas commutatif. On n’a pas toujours AB = BA,
même si les produits AB et BA existent tous les deux.

Exemple :  
1 2 µ ¶
1 1
A= 3 0  B=
0 1
1 −1
AB existe, BA n’existe pas. µ ¶
1 2
C=
−1 1
BC et CB existent et BC 6= CB.
Proposition 5.1.10 Soient A ∈ Mn,p (K), B ∈ Mp,q (K), C ∈ Mq,r (K). Alors A(BC) =
(AB)C.
Preuve : Notons ((AB)C)i,j le coefficient de la ième ligne et jème colonne de la matrice (AB)C.
Alors on a :
((AB)C)i,j =( ième ligne de AB)×( jème colonne de C)
= (ai,1 b1,1 + ... + ai,p bp,1 )c1,j + (ai,1 b1,2 + ... + ai,p bp,2 )c2,j + .... + (ai,1 b1,q + ... + ai,p bp,q )cq,j
et
(A(BC))i,j =( ième ligne de A)×( jème colonne de BC)
= ai,1 (b1,1 c1,j + ... + b1,q cq,j ) + ai,2 (b2,1 c1,j + ... + b2,q cq,j ) + .... + ai,p (bp,1 c1,j + ... + bp,q cq,j ).
On constate que ((AB)C)i,j = (A(BC))i,j .
Définition 5.1.11 (i) Si A est une matrice-colonne, on appelle transposée de A la matrice-ligne
qui a les mêmes coefficients que A.
i (ii) Si A ∈ Mn,p (K), on appelle transposée de A la matrice de Mp,n (K) dont la ième ligne est
égale à la transposée de la ième colonne de A.
La transposée de A sera notée At .
Exemple :  
1 −1 µ ¶
1 0 1
A= 0 2  t
A = .
−1 2 1
1 1
Proposition 5.1.12 Si A, B, C ∈ Mn (K) alors
(i) (At )t = A.
(ii) (A + B)t = At + B t .
(iii) (AC)t = C t At .

Preuve : (i) et (ii) sont faciles à vérifier (exercice). Montrons (iii). D’une part on a :
ième ligne de (AC)t = ième colonne de AC
=A× (ième colonne de C).
D’autre part on a :
ième ligne de (C t At ) = (ième ligne de C t ) ×At
=(ième ligne de C t×
1ère colonne de At , ième ligne de C t × 2ème colonne de At ,..., ième ligne
de C t × nième colonne de At )
=(1ère ligne de A× ième colonne de C , 2ème ligne de A× ième colonne de C ,..., nième ligne
de A× ième colonne de C)
=A× ième colonne de C.
5.2. MATRICE D’UNE APPLICATION LINÉAIRE DANS DES BASES. 45
   
x1 b1
 x2   b2 
   
Remarque : Si A = (ai,j ) ∈ Mn,p (K), X =  ..  ∈ Kp et B =  ..  ∈ Kn , on notera
 .   . 
xp bn
AX = B le système linéaire de matrice A et de second membre B :

 a1,1 x1 +... +a1,p xp = b1
....

an,1 x1 +... +an,p xp = bn
Le système homogène associé sera noté AX = 0, où 0 désigne le vecteur nul de Kn .

5.2 Matrice d’une application linéaire dans des bases.


Définition 5.2.1 Soient E et F des espaces vectoriels sur K de dimensions finies non nulles
et soient (u1 , ..., up ) une base de E et (v1 , ..., vn ) une base de F . On appelle matrice de f dans
les bases (u1 , ..., up ) et (v1 , ..., vn ) la matrice à n lignes et p colonnes dont la jème colonne est
constituée par les coordonnées du vecteur f (uj ) dans la base (v1 , ..., vn ).

5.3 Application linéaire de Kp dans Kn associée canoniquement


à une matrice.
Dans cette partie, on note les vecteurs de Kn et de Kp en colonnes. Donc si A est une matrice
à n lignes et p colonnes et si X ∈ Kp , on sait calculer le produit AX et il donne un élément de
Kn .

Proposition 5.3.1 Soit A ∈ Mn,p (K). Alors la fonction Φ définie par :

Φ : Kp → Kn
X → AX
est une application linéaire de l’espace vectoriel Kp dans l’espace vectoriel Kn et sa matrice dans
les bases canoniques de Kp et Kn est A.
Preuve : Prouvons que Φ est une application linéaire. Tout vecteur X de Kp s’écrit
 
x1  
 x2  x1 a1,1 +... +xp a1,p
   .. 
X =  .  . On a :AX =  . .
 . .
x1 an,1 +... +xp an,p
xn
On vérifie que si X et Y appartiennent à Kp , alors A(X + Y ) = AX + AY 
et si 
λ ∈ K, A(λX
  =
1 1
 0   0 
   
λX. Donc Φ est une application linéaire de Kp dans Kn . De plus, on a φ( . ) = A  . ,
 ..   .. 
0 0
alors c’est
  bien la première
  colonne de A. De même
0 0
 .   . 
   
φ(   
 1 ) = A  1  (1 à la jème place, 0 ailleurs). C’est la jème colonne de A.
 0   0 
. .
46 CHAPITRE 5. APPLICATIONS LINÉAIRES EN DIMENSION FINIE. MATRICES

5.4 Calcul des coordonnées de l’image d’un vecteur de E.


Proposition 5.4.1 Soit f une application linéaire de E dans  F .Soit A la matrice de f dans
x1
 .. 
les bases (u1 , ..., up ) et (v1 , ..., vn ). Soit u ∈ E et soit X =  .  la colonne des coordonnées
xp
de u dans la base (u1 , ..., up ). Alors la colonne des coordonnées de f (u) dans la base (v1 , ..., vn )
est donnée par le produit AX.
Preuve : On a u = x1 u1 + ... + xp up . Comme f est linéaire, alors
f (u) = f (x1 u1 + ... +xp up )  = x1 f (u1 ) + ... + xp f (up ). Pour j = 1, ..., p, la colonne des
a1,j
 .. 
coordonnées de f (uj ) est  .  donc la colonne des coordonnées de f (u) est
an,j
 
x1 a1,1 +... +xp a1,p
 .. 
 .  = AX.
x1 an,1 +... +xp an,p

Proposition 5.4.2 Soient w1 ,...,wp p vecteurs de F . Il existe une application linéaire de E


dans F et une seule telle que f (u1 ) = w1 ,...,f (up ) = wp . Sa matrice dans les bases (u1 , ..., up )
et (v1 , ..., vn ) a sa jème colonne formée des coordonnées du vecteur wj dans la base (u1 , ..., up ).
Preuve : a) Montrons d’abord l’unicité de f . Si f existe, alors la matrice de f dans les bases
(u1 , ..., up ) et (v1 , ..., vn ) est bien la matrice décrite dans l’énoncé .
b) Montrons maintenant l’existence de f . Soit A la matrice décrite dans l’énoncé de la proposi-
tion. Définissons f comme l’application linéaire qui au vecteur u de coordonnées X dans la base
(u1 , ..., up ) associe le vecteur dont la colonne de coordonnées dans la base (v1 , ..., vn ) est donnée
par le produit AX. Alors on a bien f (uj ) = wj , j = 1, ..., p.
Exemple : Soit E de base (e1 , e2 , e3 ) et soit F de base (u1 , u2 ). Soit f l’application linéaire de
E dans F définie par f (e1 ) = u1 + u2 , f (e2 ) = 2u1 − u2 et f (e3 ) = u1 − u2 . La matrice de f
dans les µ bases (e1 , e2 ), e¶ 3 ) et (u1 , u2 ) est
1 2 1 u1
A=
1 −1 −1 u2
f (e1 )f (e2 )f (e3 )  
x
Si u a pour coordonnées X =  y  dans la base (e1 , e2 , e3 ), alors f (u) a pour coordonnées
z
µ ¶
x + 2y + z
AX = dans la base (u1 , u2 ).
x−y−z
C’est à dire que f (u) est donné par f (u) = (x + 2y + z)u1 + (x − y − z)u2 .
Remarque : Des bases de E et F étant fixées, on calcule Ker f comme si l’on avait une
application linéaire de Kp dans Kn . Dans l’exemple ci-dessus,
½
x + 2y + z = 0
Ker f = {u ∈ E; u = xe1 + ye2 + ze3 ; }
x−y−z =0

En résolvant le système on touve que les vecteurs   du noyau


 sont les
 vecteurs de E dont les
x 1/3
coordonnées dans la base e1 , e2 , e3 , vérifient :  y  = z  −2/3 . Le noyau de f est donc
z 1
une droite vectorielle qui admet pour base le vecteur u1 − 2u2 + 3u3 .
5.5. OPÉRATIONS LINÉAIRES SUR LES APPLICATIONS LINÉAIRES ET LES MATRICES.47

Exemple : 
  
1 0
Pour n = 3, p = 2 et K = R, on donne u1 =  3  et u2 =  1  deux vecteurs de R3 .
2 3
L’unique application linéaire φ : R2 → R3 telle que
µ ¶ µ ¶
1 0
φ( ) = u1 et φ( ) = u2
0 1

est définie par


 
µ ¶ 1 0 µ ¶
x1   x1
φ( )= 3 1 .
x2 x2
2 3

autrement dit par :


 
µ ¶ x1
x1
φ( ) =  3x1 +x2  .
x2
2x1 +3x2

Notation Si on note B une base de E et B0 une base de F et si f : E → F est une application


linéaire, alors on notera M(f, B, B0 ) la matrice de f dans les bases B et B 0 . Si f est un endo-
morphisme de E (c’est à dire si E = F ), et si on choisit la même base B au départ et à l’arrivée,
on dira que M(f, B, B) est la matrice de f dans la base B et on la notera M(f, B).
Remarque : Soit f = idE l’application identité de E dans E et soit B une base de E, alors
M(f, B) = I, où I est la matrice identité. (Ce n’est pas vrai si on prend des bases différentes au
départ et à l’arrivée).

5.5 Opérations linéaires sur les applications linéaires et les ma-


trices.
Soient f : E → F et g : E → F des applications linéaires.

Proposition 5.5.1 Si A est la matrice de f dans les bases B et B0 et si B est la matrice de


g dans les mêmes bases, si λ ∈ K, alors la matrice de λf dans ces mêmes bases est λA et la
matrice de f + g, dans les mêmes bases est A + B.
Preuve : Soit uj le jème vecteur de la base B. La jème colonne de la matrice de f + g est formée
des coordonnées de (f + g)(uj ) dans la base B 0 . C’est donc la somme de la jème colonne de la
matrice A et de la jème colonne de la matrice B. On fait la même démonstration pour λA.

Proposition 5.5.2 Soient E et F des K-espaces vectoriels de dimensions p et n. Soit B une


base de E et B0 une base de F . Soit L(E, F ) l’ensemble des applications linéaires de E dans F .
Alors L(E, F ) est un K-espace vectoriel et l’application M définie par

M : L(E, F ) → Mn,p (K)


f 7→ M(f, B, B 0 )

est une application linéaire bijective. (Le fait que M est une application linéaire est un corollaire
de la proposition précédente. Il suffit de vérifier que M est bijective.)
48 CHAPITRE 5. APPLICATIONS LINÉAIRES EN DIMENSION FINIE. MATRICES

5.6 Composition des applications linéaires et multiplication des


matrices.
Proposition 5.6.1 Soient E, F , G des K−espaces vectoriels de dimensions respectives p, n, q.
On donne les base (u1 , ..., up ) pour E, (u01 , ..., u0n ) pour F et (u001 , ..., u00q ) pour G. Soient f : E → F
et g : F → G des applications linéaires. Soit A la matrice de f dans les bases (u1 , ..., up ) et
(u01 , ..., u0n ) et soit B la matrice de g dans les bases (u01 , ..., u0n ) et (u001 , ..., u00q ). Alors la matrice
de g ◦ f dans les bases (u1 , ..., up ) et (u001 , ..., u00q ) est BA.
 
x1
 
Preuve : Soit u ∈ E de coordonnées X =  ...  dans la base (u1 , ..., up ). Alors la colonne
xp
des coordonnées de f (u) dans la base (u01 , ..., u0n )
est AX. La colonne des coordonnées de g(f (u))
dans la base (u001 , ..., u00q ) est donc BAX = (BA)X. Donc la matrice de g ◦ f est BA.

5.7 Matrices carrées inversibles.


Cette partie concerne uniquement les matrices carrées. Dans toute la suite on donne n ∈ N∗
et les matrices considérées seront des éléments de Mn (K).
Définition 5.7.1 Soit A ∈ Mn (K). On dit que A est inversible s’il existe une matrice B ∈
Mn (K) telle que AB = BA = In .
Lemme 5.7.2 Si A est inversible alors il n’existe qu’une seule matrice B telle que AB = BA =
In .
Preuve : Supposons que AB = BA = In et que AC = CA = In . Alors C = CIn = CAB =
In B = B.
Définition 5.7.3 Si A est inversible, la matrice B telle que AB = BA = In s’appelle l’inverse
de A et est notée A−1 .
Proposition 5.7.4 Si A et C sont inversibles, alors
(i) AC est inversible et (AC)−1 = C −1 A−1 .
(ii) At est inversible et (At )−1 = (A−1 )t .
Preuve : (i) C −1 A−1 AC = C −1 In C = C −1 C = In . On montre de même que ACC −1 A−1 = In .
(ii) At (A−1 )t = (A−1 A)t = (In )t = In .

Attention : Si A ∈ Mn,p (K), n 6= p, on n’a pas défini l’inverse de A et on peut démontrer qu’il
n’existe jamais de matrice B ∈ Mp,n (K) telle que AB = In et BA = Ip .
Proposition 5.7.5 On a l’équivalence de :
(i) A est une matrice carrée n × n inversible.
(ii) Pour tout B ∈ Kn le système linéaire AX = B admet une solution unique.
Preuve : a) Montrons que (i) ⇒ (ii). AX = B ⇔ A−1 AX = A−1 B ⇔ X = A−1 B. Le système
AX = B admet donc une solution et une seule.
b) Montrons que (ii) ⇒ (i). On considère l’endomorphisme de Kn défini par

Φ : Kn → Kn
X → AX

c’est à dire l’application linéaire de Kn dans Kn dont la matrice dans la base canonique de Kn
est A. La propriété (ii) signifie que Φ est bijective. Donc Φ admet une fonction réciproque et on
5.7. MATRICES CARRÉES INVERSIBLES. 49

sait que la fonction réciproque d’une application linéaire bijective est une application linéaire.
Soit B la matrice de Φ−1 dans la base canonique de Kn . Alors AB est la matrice dans la base
canonique de l’application linéaire Φ ◦ Φ−1 , c’est à dire que ABX = Φ ◦ Φ−1 (X). Or Φ ◦ Φ−1 est
l’application identité de Kn : X → X. On sait que la matrice de l’identité dans la base canonique
de Kn est In . Donc AB = In .
De même, BA est la matrice de l’application linéaire Φ−1 ◦ Φ : X → X. Donc BA = In . On a
donc montré que A est inversible.
Proposition 5.7.6 Soit A une matrice carrée. On a l’équivalence de :
(i) A est inversible ;
(ii)Le système linéaire homogène
à ! AX = 0 admet la solution unique X = 0 (ici 0 désigne le
0
vecteur nul de Kn : 0 = .. .)
.
Preuve : (i) ⇒ (ii) est évident.
Montrons (ii) ⇒ (i). Soit Φ l’application linéaire de Kn dans Kn associée canoniquement à la
matrice A. La propriété (ii) signifie que la noyau de Φ est réduit au vecteur nul de Kn . Cela
implique que Φ est bijective, car Φ est un endomorphisme, donc l’espace vectoriel de départ et
d’arrivée ont la même dimension. Donc pour tout vecteur B de Kn , le système AX = B admet
une solution unique. On conclut que A est inversible en utilisant la proposition précédente.
Corollaire 5.7.7 Considérons les n matrices-colonnes de A comme n vecteurs de Kn . Alors
A est inversible si et seulement si les n colonnes de A sont des vecteurs de Kn linéairement
indépendants.
 
x1
 x2 
 
Preuve : Rappelons que si X =  
 . , alors :
 . 
xn
     
a1,1 a1,2 a1,n
 a2,1   a2,2   a2,n 
     
AX = x1     
 .  + x2  .  + .... + xn  .  .

 .   .   . 
an,1 an,2 an,n
Dire que le système AX = 0 admet l’unique solution X = 0 revient donc à dire que le vec-
teur nul de Kn s’écrit de manière unique comme combinaison linéaire des n vecteurs-colonnes
de A, cette manière unique étant de prendre les coefficients x1 = x2 = ... = xn = 0. Par
définition de l’indépendance linéaire, ceci signifie que les vecteurs-colonnes de A sont linéairement
indépendants. µ ¶
a b
Application. Dans M2 (K), la matrice est inversible si et seulement si ad − bc 6= 0.
c d
Le nombre ad − bc est appelé le déterminant de A.
La notion de déterminant se généralise à toute dimension n. (Cours d’algèbre 2).
Proposition 5.7.8 On a l’équivalence de
(i) A est inversible
(ii) il existe une matrice B telle que AB = In
(iii) il existe une matrice C telle que CA = In .
Preuve : a) Montrons que (ii) ⇒ (i). Pour X ∈ Kn on (BX = 0) ⇒ (ABX = 0) ⇒ (X = 0).
Donc B est inversible, par la proposition précédente. De plus ABB −1 = B −1 , donc A = B −1 .
Donc A est inversible, d’inverse B.
Montrons que (ii) ⇒ (i). (AX = 0) ⇒ (CAX = 0) ⇒ (X = 0). Donc A est inversible.
50 CHAPITRE 5. APPLICATIONS LINÉAIRES EN DIMENSION FINIE. MATRICES

5.8 Matrices carrées inversibles et isomorphismes.


Théorème 5.8.1 Soient E et F deux K-espaces vectoriels de même dimension n. Soit f : E →
F une application linéaire. On a l’équivalence de
(i) f est un isomorphisme
(ii) Pour toute base B de E et toute base B0 de F la matrice carrée M(f, B, B 0 ) est inversible
(iii) Il existe une base B de E et une base B 0 de F telles que la matrice carrée M(f, B, B0 ) soit
inversible

Preuve : a) Montrons que (i) ⇒ (ii). Soit f un isomorphisme de E dans F . Soit f −1 l’applica-
tion linéaire réciproque de f . La matrice de f ◦ f −1 dans la base B0 est le produit des matrices de
f et de f −1 . Or f ◦ f −1 = idF . Sa matrice dans la base B0 est la matrice identité In . On a donc
M(f, B, B0 ) × M(f −1 , B 0 , B) = In . De même, f −1 ◦ f = idE , donc M(f −1 , B0 , B) × M(f, B, B0 ) =
In . On conclut que M(f, B, B0 ) est inversible et que sa matrice inverse est M(f −1 , B 0 , B).
b) Prouvons que (iii) ⇒ (i). Soient B une base de E et B0 une base de F telles que la matrice
M(f, B, B0 ) soit inversible. Notons M cette matrice. Notons M −1 sa matrice inverse. Définissons
l’application linéaire g comme étant l’application linéaire de F dans G dont la matrice dans les
bases B0 et B est M −1 . Alors la matrice de g ◦ f dans la base B est M × M −1 , donc c’est In . On
en déduit que g ◦ f = idE . La matrice de f ◦ g dans la base B 0 est M −1 × M , c’est donc aussi
In . On en déduit que f ◦ g = idF . On conclut que f est bijective.

Exemple : Soit E un R-espace vectoriel de base B = (u1 , u2 , u3 ) et soit F un R-espace vectoriel


de base B 0 = (v1 , v2 , v3 ). Soit f : E → F l’application linéaire définie par
 
1 0 −1
M(f, B, B 0 ) =  0 0 2 .
1 −1 −1
On veut savoir si f est un isomorphisme
 etsi oui, calculer l’isomorphisme inverse. On considère
b1
n’importe quel second membre B =  b2  et on cherche à résoudre le système AX = B :
b3

 x1 −x3 = b1
2x3 = b2

x1 −x2 −x3 = b3
Dans ce cas une méthode de substitution donne rapidement :
 
 x3 = b22  x3 = b22
x −x3 = b1 , x = b1 + b22 ,
 1  1
x1 −x2 −x3 = b3 x2 = −b3 + x1 − x3
donc
 b
 b
 x3 = 22  x1 = b1 + 22
x = b1 + b22 , c’est à dire : x2 = b1 − b3
 1 
x2 = −b3 + b1 + b2
2 − b2
2
x3 = b22
Pour tout second membre B on trouve une solution unique, donc f est bijective. On a : X =
M(f −1 , B0 , B)B, donc  
1 12 0
M(f −1 , B0 , B) =  1 0 −1  .
0 12 0
5.9. CALCUL DE LA MATRICE INVERSE. 51

Pour vérifier qu’il n’y a pas d’erreurs de calcul, on calcule :


    
1 21 0 1 0 −1 1 0 0
 1 0 −1   0 0 2  =  0 1 0 .
1
0 2 0 1 −1 −1 0 0 1

Remarquons que pour reconnaı̂tre si f est bijective ou non (sans calculer l’endomorphisme
réciproque éventuel f −1 ), il suffit de résoudre le système AX = 0. Si on trouve l’unique solution
X = 0, alors le noyau de f est réduit au vecteur nul, donc f est injective, donc bijective car
dim E = dim F . Si on trouve un espace vectoriel de solutions de dimension supérieure ou égale
à 1, alors f n’est pas injective, donc pas bijective.

5.9 Calcul de la matrice inverse.


On donne une matrice carrée A. On veut reconnaı̂tre si A est inversible et si oui calculer son
inverse A−1 . Par exemple  
1 1 2
A =  −1 0 0 
2 1 3
Pour cela on résoud le système AX = B, pour B ∈ R3 .

 x +y +2z = b1
−x = b2

2x +y +3z = b3

Pour chaque (b1 , b2 , b3 ) on trouve une solution unique qui est :  


 x = −b2 0 −1 0
y = 3b1 − b2 − 2b3 Donc A est inversible, d’inverse A−1 =  3 −1 −2  . Pour

z = −b1 + b2 + b3 . −1 1 1
vérifier qu’il n’y a pas d’erreurs de calcul, on calcule :
    
1 1 2 0 −1 0 1 0 0
 −1 0 0   3 −1 −2  =  0 1 0 
2 1 3 −1 1 1 0 0 1

Remarquons que pour reconnaı̂tre seulement si A est inversible (sans calculer sa matrice inverse
éventuelle), il suffit de résoudre le système AX = 0. Si on trouve comme unique solution le
vecteur nul de R3 , alors A est inversible. Sinon, on trouve comme ensemble de solutions un
sous-espace vectoriel de R3 de dimension 1 ou 2 et A n’est pas inversible.
Proposition 5.9.1 La matrice A est inversible si et seulement si la méthode du pivot de Gauss
appliquée aux lignes de la matrice A la transforme en une matrice triangulaire supérieure à
diagonale non nulle. (Rappel : la méthode du pivot de Gauss sur les lignes de la matrice A est
la méthode qu’on utilise pour résoudre les systèmes linéaires de la forme AX = B).
Preuve : La méthode du pivot de Gauss transforme la matrice A en une matrice échelonnée
carrée E. Soit cette matrice E est triangulaire supérieure à diagonale non nulle, soit sa ou ses
dernières lignes sont nulles. La méthode du pivot de Gauss transforme le système AX = 0 en le
système équivalent EX = 0. Ce dernier système admet l’unique solution X = 0 si et seulement
si E est triangulaire supérieure à diagonale non nulle.
Remarque : Si on utilise la méthode du pivot de Gauss pour étudier l’inversibilité d’une matrice
A, on a intérêt à transformer en même temps le second membre B. Ainsi, dans le cas où A est
inversible, on pourra lire la matrice inverse A−1 .
52 CHAPITRE 5. APPLICATIONS LINÉAIRES EN DIMENSION FINIE. MATRICES
 
1 −1 1
Exemple : A =  2 0 4 . On utilise la méthode du pivot de Gauss pour résoudre le
1 1 3
 
 x −y +z = b1  x −y +z = b1
système 2x +4z = b2 . On trouve 2y +2z = −2b1 + b2
 
x +y +3z = b3 . 2y +2z = −b1 + b3

 x −y +z = b1
puis 2y +2z = −2b1 + b2 Ici, la méthode du pivot de Gauss transforme la matrice

0 = −b1 + b2 − b3 .
 
1 −1 1
A en une matrice échelonnée dont la dernière ligne est nulle : E =  0 2 2 . Le système
0 0 0
AX = B a soit aucune solution, soit une infinité de solutions, selon la valeur de (b1 , b2 , b3 ). Le
système AX = 0 a une infinité de solutions. Donc A n’est pas inversible. (Remarquons que la
transformation du second membre ne sert à rien ici !)

5.10 Algèbre des matrices n×n.


Sur l’ensemble des matrices carrées n × n, on a trois opérations : l’addition, la multiplication
par les scalaires et la multiplication des matrices. Les propriétés de ces opérations permettent
de dire que
(i) (Mn (K), +, .) est un K-espace vectoriel (. désigne la multiplication d’une matrice par un
scalaire)
(ii) (Mn (K), +, ×) est un anneau (× désigne la multiplication des matrices).
On dit que (Mn (K), +, ×) est un anneau car : a) (Mn (K), +) est un groupe abélien ; b) la
multiplication des matrices est associative et doublement distributive par rapport à l’addition.
(Voir le paragraphe sur les opérations.) De plus, la matrice In vérifie : pour toute A ∈ Mn (K),
A × In = In × A = A. On dit que l’anneau (Mn (K), +, ×) est unitaire et que In est l’élément
unité.
De plus, on a la propriété suivante :
Si λ ∈ K, (λA) × C = λ(A × C) = A × (λC).
Grace à toutes ces propriétés, on dit que (Mn (K), +, ., ×) est une algèbre sur K.
Remarquons qu’on peut faire des calculs portant sur des matrices carrées, presque comme s’il
s’agissait de nombres réels ou complexes. Mais il y a des différences importantes :
(i) La multiplication des matrices n’est pas commutative ;
(ii) une matrice nonµ nulle n’admet
¶ pas forcément une matrice inverse. Par exemple dans
1 2
M2 (R) la matrice A = est non nulle et n’est pas inversible.
1 2
(iii) Le produit de deux matrices non nulles
µ peut¶être nul. (On dit que l’anneau des matrices
0 2
carrées a des diviseurs de 0.) Exemple B = . On a B 6= 0 et B 2 = 0.
0 0
(iv) On a l’identité remarquable :

(A + B)2 = A2 + B 2 + AB + BA.

Exercice a) Montrer 2 2 2
µ ¶que (A +µB) n’est
¶ n’est pas toujours égal à A + 2AB + B . (Voir par
0 1 0 0
exemple A = et B = .)
0 0 0 1
b) Montrer que (A + B)(A − B) = A2 − B 2 + BA − AB et que ce n’est pas toujours égal à
A2 − B 2 .
Chapitre 6

Changements de bases.

6.1 Changement de coordonnées. Matrice de passage.


Soit E un K−espace vectoriel de dimension n 6= 0. Soit (e1 , ..., en ) une base de E, qu’on
notera B. Si u est un vecteur de E on notera en colonne le n−uplet des coordonnées de u dans
la base (e1 , ..., en ). On l’appelera la colonne des coordonnées de u dans la base (e1 , ..., en ).
 
x1
 . 
Attention : Si u a pour coordonnées  
 .  dans la base (e1 , ..., en ), on n’écrit pas
xn
 
x1
 . 
u= 
 . . En effet, d’abord u est un vecteur de l’espace vectoriel E, qui n’est pas toujours
xn
Kn . Ensuite si on prend une autre base (e01 , ..., e0n ) de E, la colonne des coordonnées de u dans
cette nouvelle base ne sera pas la même que dans l’ancienne base (e1 , ..., en ).
Attention : Il y a une exception à l’avertissement donné ci-dessus. Si u est un vecteur de Kn ,
alors c’est un n−uplet d’éléments de K, soit u = (x1 , ..., xn ). Les coordonnées de u dans la base
canonique de Kn sont exactement ses composantes x1 ,...,xn . Dans ce cas (mais seulement  dans
x1
 . 
ce cas), il n’est pas faux d’écrire le vecteur u en colonne, c’est à dire d’écrire : u =  
 . !
xn
Soient e01 ,...,e0n n vecteurs de E. On se pose la question suivante : à quelle condition les vecteurs
e01 ,...,e0n forment-ils une base de E ?
Réponse : comme ils sont en nombre égal à la dimension de E, ils forment une base de E si et
seulement si ils forment une famille libre.
Appelons C1 la colonne des coordonnées du vecteur e01 dans la base (e1 , ..., en ) ,... et Cn la
colonne des coordonnées du vecteur e0n dans la base (e1 , ..., en ). Alors on sait que les vecteurs
e01 ,...,e0n forment une famille libre de E si et seulement si C1 ,...,Cn forment une famille libre de
Kn .
Enfin, on sait que les vecteurs C1 ,...,Cn forment une famille libre de Kn si et seulement si la
matrice dont les colonnes sont C1 ,....,Cn est une matrice n × n inversible.
Ceci montre la proposition suivante :

Proposition 6.1.1 Soient e01 ,...,e0n n vecteurs de E. Soient C1 ,....,Cn les colonnes des coor-
données de e01 ,...,e0n dans la base (e1 , ..., en ). Soit P ∈ Mn (K) la matrice dont la jème colonne

53
54 CHAPITRE 6. CHANGEMENTS DE BASES.

est Cj . Alors les vecteurs e01 ,....,e0n forment une base de E si et seulement si la matrice P est
inversible.

Définition 6.1.2 Quand la matrice P définie ci-dessus est inversible, on l’appelle la matrice
de passage de la base (e1 , ..., en ) à la base (e01 , ..., e0n ). La base (e1 , ..., en ) sera appelée l’ancienne
base et la base (e01 , ..., e0n ) sera
 appelée
 la nouvelle base.
x1
 
Soit u ∈ E et soit X =  ...  la colonne des coordonnées de u dans la base (e1 , ..., en ).
xn
On se pose la question suivante : comment calculer les coordonnées de u dans la nouvelle base
(e01 , ..., e0n ) ?

Théorème 6.1.3 Soient (e1 , ..., en ) d’une part et (e01 , ..., e0n ) d’autre part, deux bases de E. Soit
P la matrice de passage de la base (e1 , ..., en ) àla base(e01 , ..., e0n ). Si la colonne des coordonnées
x1
 .. 
du vecteur u dans la base (e1 , ..., en ) est X =  . , alors la colonne X 0 de ses coordonnées
xn
dans la base (e0 , ..., e0 ) se déduit de la formule : X = P X 0 .
1 
n  0 
x1 x1
 ..   .. 
C’est à dire :  .  = P  .  .
xn x0n
On a la formule équivalente : X 0 = P −1 X.
Preuve :
u = x1 e1 + ... + xn en et u = x01 e01 + ... + x0n e0n .
Or on a, par la définition de la matrice P :
 0
 e1 = p1,1 e1 + · · · + pn,1 en
 (1ère colonne de P )
..
 .
 0
en = p1,n e1 + · · · + pn,n en (nième colonne de P )

On remplace les e0i par leurs décompositions sur la base des ej , dans la deuxième formule donnant
u ci-dessus. On trouve :

u = x01 (p1,1 e1 + p2,1 e2 + . . . + pn,1 en ) + . . . + x0n (p1,n e1 + p2,n e2 + . . . + pn,n en ),

ce qui donne :

u = (p1,1 x01 +p1,2 x02 +. . .+p1,n x0n )e1 +(p2,1 x01 +p2,2 x02 +. . .+p2,n x0n )e2 +. . .+(pn,1 x01 +pn,2 x02 +. . .+pn,n x0n )en .

Or il n’y a qu’une seule décomposition de u sur la base e1 ,...,en . Donc les scalaires qui appa-
raissent comme coefficients des vecteurs ei dans la formule ci-dessus sont les coordonnées de u
dans la base e1 ,...,en . On a donc :


 x1 = p1,1 x01 + p1,2 x02 + . . . + p1,n x0n

 x2 = p2,1 x0 + p2,2 x0 + . . . + p2,n x0
1 2 n
..

 .


xn = pn,1 x01 + pn,2 x02 + . . . + pn,n x0n ,

Autrement dit : X = P X 0 .
6.1. CHANGEMENT DE COORDONNÉES. MATRICE DE PASSAGE. 55

Attention : Un vecteur u de E étant donné, la matrice de passage P permet de calculer les


”anciennes” coordonnées de u (ou coordonnées de u dans l’ancienne base) en fonction des ”nou-
velles” coordonnées de u (ou coordonnées de u dans la nouvelle base). Comment s’en souvenir ?
On teste la formule X = P X 0 sur le premier vecteur de la nouvelle base, e01 . On sait que la
première colonne de P est formée des coordonnées du vecteur e01 dans la 
base 
(e1 , ..., en ). Or on
1
 0 
 
sait que pour n’importe quelle matrice A, le produit de A par la colonne  .  est la première
 .. 
0
colonne de A. On a donc
   
1 p1,1
 0   p2,1 
   
P ..  = 1ère colonne de P =  .. .
 .   . 
0 pn,1
 
1
 0 
 
Or la colonne  ..  est la colonne des coordonnées du vecteur e01 dans la nouvelle base. La
 . 
0
 
p1,1
 p2,1 
 
colonne  .  est la colonne des coordonnées du même vecteur e01 dans l’ancienne base. On
 .  .
pn,1
a donc bien vérifié la formule X = P X 0 , quand X et X 0 sont les colonnes des coordonnées du
vecteur e01 .
Exemple : Soit R4 muni de la base canonique (e1 , ..., e4 ). Soient les vecteurs e01 ,...,e04 de R4
donnés par  leurs  composantes
  (qui  sont 
aussi leurs
coordonnées
 dans la base canonique) :
1 0 0 0
 2  0  1  0  0   0 
e01 =      
 0  e2 =  0  e3 =  2  et e4 =  1 .
0  

0 0 1 2
Vérifions que les vecteurs e1 , e2 , e3 , e4 forment une base de R4 . On remarque que les coor-
0 0 0 0

données de ces vecteurs sont presque échelonnées. On raisonne suivant la manière habituelle pour
des vecteurs de coordonnées échelonnées. D’abord on voit que e04 et e03 ne sont pas colinéaires,
donc ils sont linéairement indépendants. Puis on voit que e02 n’est pas combinaison linéaire de e03
et e04 , sinon sa deuxième coordonnée serait nulle. Comme e03 et e04 sont linéairement indépendants,
cela prouve que e02 , e03 , e04 sont linéairement indépendants. Alors e01 ,...,e04 sont liés si et seulement
si e01 s’écrit comme combinaison linéaire de e02 , e03 , e04 . Or e01 n’est pas combinaison linéaire de
ces trois vecteurs, sinon sa première composante serait nulle. Donc les quatre vecteurs e01 , e02 , e03 ,
e04 sont linéairement indépendants. Comme leur nombre est 4, ils forment une base de R4 . Soit
u le vecteur 4
 de  R donné parses  4 composantes :
1 1
 1   1 
u=   
 1 . La colonne  1  est le vecteur u, mais c’est aussi la colonne des coordonnées
1 1
du vecteur u dans la base canonique de R4 . Cherchons les coordonnées de u dans la nouvelle
base (e01 , e02 , e03 , e04 ). Ecrivons la matrice de passage P de la base canonique (ancienne base) à la
nouvelle base.
56 CHAPITRE 6. CHANGEMENTS DE BASES.
 
1 0 0 0 e1
 2 1 0 0  e2
P =  0 0 2 1  e3

0 0 1 2 e4
e01 e02 e03 e04 .
Les coordonnées X 0 de u dans la nouvelle base sont données par la formule X = P X 0 , c’est
à dire
:   0
1 = x 0 x 0 = 1 x =1

 1 
 1 

 0 0  0  10
1 = 2x1 + x2 x2 = −1 x2 = −1
1 = 2x 0 + x0 Il reste à résoudre ce système. On trouve 2x 0 + x0 = 1
d’où
x03 = 1/3

 3 4 
 3 4 

  
1 = x03 + 2x04 3x04 = 1 x04 = 1/3
 
1
 −1 
Les nouvelles coordonnées de u sont donc données par la colonne   1/3 

1/3
Attention : Le vecteur u n’est pas égal à cette colonne. On a seulement : u = e01 −e02 + 13 e03 + 31 e04 .
(Formule qu’on peut vérifier pour détecter d’éventuelles erreurs de calcul).
On aurait pu résoudre le problème autrement. D’abord prouver que P est inversible et
calculer P −1 . Alors le fait que P soit inversible montre que (e01 , e02 , e03 , e04 ) est une base de R4 .
Puis on calcule les nouvelles coordonnées de u par la formule X 0 = P −1 X.

6.2 Formule de changement de base pour une application linéaire.


Théorème 6.2.1 Soit f : E → F une application linéaire. Soient (u1 , ..., up ) et (u01 , ..., u0p ) deux
bases de E et soient (v1 , ..., vn ) et (v10 , ..., vn0 ) deux bases de F . Soit A la matrice de f dans les
bases (u1 , ..., up ) et (v1 , ..., vn ) et soit A0 la matrice de f dans les bases (u01 , ..., u0p ) et (v10 , ..., vn0 ).
Appelons P la matrice de passage de la base (u1 , ..., up ) à la base (u01 , ..., u0p ) et Q la matrice de
passage de la base (v1 , ..., vn ) à la base (v10 , ..., vn0 ). Alors on a la formule suivante :

A0 = Q−1 AP.

Preuve : La preuve est à connaı̂tre, car il faut être capable de retrouver la formule. On va
donner deux preuves différentes (retenir celle qui semble la plus simple !)
Première démonstration. Montrons que QA0 = AP . Pour cela, on calcule de deux manières
la matrice de f dans les bases (u01 , ..., u0p ) et (v1 , ..., vn ). D’une part on écrit : f = idF ◦ f . La
matrice Q est la matrice de idF dans les bases (v10 , ..., vn0 ) et (v1 , ..., vn ). La matrice A0 est la
matrice de f dans les bases (u01 , ..., u0p ) et (v10 , ..., vn0 ). Par le théorème de composition, la matrice
de f = idF ◦f dans les bases (u01 , ..., u0p ) et (v1 , ..., vn ) est QA0 . D’autre part, on écrit : f = idE ◦f .
La matrice P est la matrice de idE dans les bases (u01 , ..., u0p ) et (u1 , ..., up ). La matrice A est la
matrice de f dans les bases (u1 , ..., up ) et (v1 , ..., vn ). Donc la matrice de la fonction composée
f = idE ◦ f dans les bases (u01 , ..., u0p ) et (v1 , ..., vn ) est AP . On a donc calculé la matrice de
f dans les bases (u01 , ..., u0p ) et (v1 , ..., vn ) de deux manières différentes. Comme il n’y a qu’une
seule matrice, on a AP = QA0 .
Deuxième démonstration. (Nécessite de connaı̂tre la formule de changement de base pour
les vecteurs). On donne un vecteur u de E. Soit X la colonne de ses coordonnées dans la
base (u1 , ..., up ) et X 0 la colonne de ses coordonnées dans la base (u01 , ..., u0p ). Le vecteur f (u)
appartient à F . Appelons Y la colonne de ses coordonnées dans la base (v1 , ..., vn ) et Y 0 la
colonne de ses coordonnées dans la base (v10 , ..., vn0 ). On : Y = AX et Y 0 = A0 X 0 . Or X = P X 0
et Y = QY 0 . On substitue P X 0 à X et QY 0 à Y dans la formule Y = AX. On trouve QY 0 =
6.2. FORMULE DE CHANGEMENT DE BASE POUR UNE APPLICATION LINÉAIRE.57

AP X 0 , donc Y 0 = Q−1 AP X 0 . Comme cela est vrai pour tout vecteur u de E, on en déduit que
A0 = Q−1 AP .
f : R2 → R3
Exemple : Soit . Appelons (e1 , e2 ) la base canonique de R2 et
(x, y) → (2x + 3y, x, x − y)
e1 , 
ee2 , ee3 ) la base 3 2 3
(e  canonique de R . La matrice de f dans les bases canoniques de R et R
2 3
est  1 0  . On donne u1 = (1, 2) et u2 = (0, 1) deux vecteurs de R2 . Ils forment une
1 −1
base de R2 car ils ne sont pas colinéaires. On donne trois vecteurs de R3 : v1 = (1, −1, 0),
v2 = (1, 2, 1) et v3 = (0, 1, 2). On voit que v1 et v2 sont linéairement indépendants. Donc v1 ,
v2 , v3 ne peuvent être liés que si v3 est une combinaison linéaire de v1 et v2 , c’est à dire si il
 0 =α+β
existe des réels α et β tels que 1 = −α + 2β et ce système n’a pas de solution, donc v1 ,

2 =β
v2 , v3 sont linéairement indépendants. Ils forment une µ base ¶ de R3 . La matrice de passage de
1 0
la base canonique de R2 à la base (u1 , u2 ) est P = et la matrice de passage de la
2 1
 
1 1 0
base canonique de R3 à la base (v1 , v2 , v3 ) est Q =  −1 2 1  . On inverse la matrice Q.
0 1 2
   
3 −2 1 21 8
On trouve Q−1 = 51  2 2 −1  . Le produit Q−1 AP donne A0 = 15  19 7  . Ceci
−1 −1 3 −12 −6
1 1
signifie que f (u1 ) = 5 (21v1 + 19v2 − 12v3 ) et f (u2 ) = 5 (8v1 + 7v2 − 6v3 ).

Définition 6.2.2 Soient A et A0 deux matrices de Mn,p (K). Si il existe deux matrices inver-
sibles P ∈ Mp (K) et Q ∈ Mn (K) telles que A0 = Q−1 AP , on dit que A et A0 sont des matrices
équivalentes. Si A et A0 ∈ Mp (K) et s’il existe une matrice inversible P ∈ Mp (K) telle que
A0 = P −1 AP , on dit que A et A0 sont des matrices semblables.
Exercice : La relation R définie sur Mn,p (K) par ”ARA0 s’il existe deux matrices inversibles
P ∈ Mp (K) et Q ∈ Mn (K) telles que A0 = Q−1 AP ” est une relation d’équivalence.
58 CHAPITRE 6. CHANGEMENTS DE BASES.
Chapitre 7

Rang d’une matrice, retour aux


systèmes linéaires.

7.1 Rang d’une matrice. Rang d’un système linéaire.


Définition 7.1.1 Soient n, p ∈ N? et soit A ∈ Mn,p (K). On appelle rang de A le rang des p
colonnes de A, considérées comme des vecteurs de Kn . (C’est à dire la dimension du sous-espace
vectoriel de Kn engendré par les p colonnes de A.)

Proposition 7.1.2 Soit (u1 , ..., up ) une base de E, (v1 , ..., vn ) une base de F et soit f : E → F
une application linéaire. Soit A la matrice de f dans les bases (u1 , ..., up ) et (v1 , ..., vn ). Alors le
rang de f est égal au rang de A.
Preuve : On a rg (f ) = dim Im f = dim Vect {f (u1 ), ..., f (up )}. Et rg (A) = dim Vect {C1 , ..., Cp }
où C1 ,...,Cp sont les colonnes de A. Mais on sait que la jème colonne Cj est la colonne des coor-
données du vecteur f (uj ) dans la base (v1 , ..., vn ). Par conséquent la famille des vecteurs f (u1 ),
...,f (up ) et la famille des vecteurs C1 ,...,Cp ont le même rang. Donc rg (f ) = rg (A).

Corollaire 7.1.3 Si A et A0 sont deux matrices équivalentes, alors elles ont le même rang.
Preuve : Par hypothèse il existe deux matrices inversibles P ∈ Mp (K) et Q ∈ Mn (K) telles
que A0 = Q−1 AP . Soit Φ l’application linéaire de Kp dans Kn associée canoniquement à la
matrice A. Soient u1 ,...,up les vecteurs de Kp constitués par les colonnes de P . Alors, comme P
est inversible, (u1 , ..., up ) est une base de Kp et P est la matrice de passage de la base canonique
de Kp à la base (u1 , ..., up ) . De même on considère les colonnes de Q. Ce sont n vecteurs de Kn ,
appelés v1 ,...,vn , qui forment une base de Kn et Q est la matrice de passage de la base canonique
de Kn à la base (v1 , ..., vn ). Par la formule de changement de base, la matrice A0 est la matrice de
l’application linéaire Φ dans les bases (u1 , ..., up ) et (v1 , ..., vn ). Donc rg (A) = rg (Φ) = rg (A0 ).
Remarque : Soit A une matrice. On connaı̂t deux manières différentes de calculer le rang de
A. La première méthode consiste à trouver le rang des colonnes de A par la méthode expliquée
au Chapitre 3 (page 31) : on applique la méthode du pivot de Gauss aux colonnes de A. La
deuxième méthode consiste à trouver la dimension du noyau de Φ, où Φ est l’application linéaire
associée canoniquement à A. On utilise ensuite la formule : dim Im Φ + dim Ker Φ = p, qui donne
rg A = p − dim Ker Φ. (En effet, on sait par la proposition ci-dessus que rg A = dim Im Φ.)

Définition 7.1.4 Soit A ∈ Mn,p (K). On considère le système linéaire AX = 0. On dit que les
lignes du système sont linéairement indépendantes si les n matrices-lignes de A : (a1,1 , ..., a1,p ),....,
(an,1 , ..., an,p ) (considérées comme des vecteurs de Kp ) sont linéairement indépendantes.

59
60 CHAPITRE 7. RANG D’UNE MATRICE, RETOUR AUX SYSTÈMES LINÉAIRES.

Exemple : On donne le système linéaire homogène


½
2x −y +3z = 0
x −3y +z = 0
Les lignes du système sont linéairement indépendantes.
Définition 7.1.5 Soit A ∈ Mn,p (K). On appelle rang du système homogène AX = 0 le rang
des matrices-lignes de A (considérées comme des vecteurs de Kp ).
C’est la dimension du sous-espace vectoriel de Kp engendré par les n lignes de A. C’est aussi le
nombre maximal de lignes indépendantes parmi les lignes de A. On dit aussi que c’est le nombre
maximal d’équations indépendantes pour le système AX = 0. On va donner une formule qui lie
le rang du système homogène AX = 0 et la dimension de l’espace vectoriel des solutions.
Le problème : on donne un système linéaire homogène à n lignes et p colonnes, de rang r.
Soit F le sous-espace vectoriel de Kp formé par les solutions de ce système. Trouver la dimension
de F et une base de F .
Exemple : Soit F le sous-espace vectoriel de R4 formé par les solutions (x, y, z, t) du système
linéaire homogène
½
2x− y+ 3z+ t = 0
(Σ)
y− z+ t = 0
C’est un système échelonné. Il y a deux inconnues principales : x et y et deux inconnues non
principales qu’on prend comme paramètres : z et t. On résoud  (Σ)  par la méthode de la remontée.
½ x
x = −z − t  y 
On trouve la solution . Donc le vecteur  
 z  est solution du système (Σ) si
y =z−t
t
     
x −1 −1
 y   1   −1 
et seulement si    
 z  = z  1  + t  0 .
 

t 0 1
   
−1 −1
 1   
Cela montre que les vecteurs u1 =   et u2 =  −1  engendrent F . Montrons qu’ils
 1   0 
0 1
forment  une base
 de F
 . Il suffit
   démontrer qu’ils sont linéairement indépendants. On remarque
−1 −1 0
 1   −1   0 
que si z      
 1  + t  0  =  0 , alors z = t = 0 car z et t sont des composantes du vec-
0 1 0
 
0
 0 
teur  
 0 . Donc u1 et u2 forment une base de F et la dimension de F est 2. Par ailleurs le rang
0
du système est deux, car du fait qu’il est échelonné, les lignes sont linéairement indépendantes.
Dans ce cas, on trouve dim F = p − r.

Généralisons ce résultat.
Proposition 7.1.6 Soit le système linéaire homogène AX = 0, de dimension n × p et de rang
r. La dimension de l’espace vectoriel F des solutions de ce système est p − r.
La démonstration de cette proposition découle de deux lemmes.
7.1. RANG D’UNE MATRICE. RANG D’UN SYSTÈME LINÉAIRE. 61

Lemme 7.1.7 Le rang des lignes du système homogène AX = 0 est égal au nombre de lignes
non nulles du système échelonné équivalent EX = 0 obtenu par la méthode du pivot de Gauss.
Preuve C’est le raisonnement du chapitre 3, page 31, mais appliqué aux lignes de la matrice
A, notées L1 ,...,Ln , considérées comme des vecteurs de Kp . On rappelle le principe : si λ2 ,...,λn
sont des scalaires, alors le sous-espace vectoriel de Kp engendré par les vecteurs L1 ,...,Ln est le
même que les sous-espace vectoriel engendré par les vecteurs L1 , L2 − λ2 L1 ,...,Ln − λn L1 . Donc
les lignes obtenues après la première itération du pivot de Gauss ont le même rang que les lignes
L1 ,...,Ln . On réitère le procédé. Une fois terminée la méthode du pivot de Gauss le rang des n
lignes obtenues est égal au rang des lignes L1 ,...,Ln . Or, à cause du caractère échelonné, le rang
des n lignes obtenues est le nombre, appelé r, de lignes non nulles (car on montre facilement que
les r lignes non nulles, échelonnées, sont linéairement indépendantes) .

Lemme 7.1.8 Soit un système linéaire échelonné homogène de dimension r × p, dont les r
équations sont non nulles. Alors la dimension de l’espace vectoriel F des solutions de ce système
est égal au nombre d’inconnues non principales, c’est p − r.
Preuve : Rappelons que dans un tel système, il y a r inconnues principales et p − r inconnues
non principales qu’on prend comme paramètres. Quitte à réindexer les inconnues, appelons
x1 ,...,xr les inconnues principales et xr+1 ,..., xp les p − r paramètres. Pour chaque valeur du
(p − r)−uplet (xr+1 , ..., xp ) on trouve une unique solution du système par la méthode de la
remontée. Appelons ur+1 la solution (x1 , ..., xp ) trouvée pour (xr+1 , ..., xp ) = (1, 0, ...0), ur+2 la
solution trouvée pour (xr+1 , ..., xp ) = (0, 1, 0...0),..., up la solution trouvée pour (xr+1 , ..., xp ) =
(0, ..., 0, 1). Soit le vecteur u défini par u = xr+1 ur+1 + ... + xp up . Alors u est une solution du
système comme combinaison linéaire de solutions. Les p − r dernières composantes du vecteur
u sont xr+1 ,...,xp . Réciproquement, si u = (x1 , ..., xp ) est une solution du système, alors le
vecteur xr+1 ur+1 + ... + xp up est une solution du système pour les mêmes valeurs xr+1 ,...,xp des
paramètres, donc il est égal à u. L’ensemble des solutions est donc

F = {(x1 , ..., xp ) = xr+1 ur+1 + ... + xp up ; xr+1 ∈ K, ..., xp ∈ K}.

Les vecteurs ur+1 ,...,up engendrent donc F . De plus la décomposition de toute solution u comme
combinaison linéaire des vecteurs ur+1 ,...,up est unique, puisque les coefficients qui apparaissent
dans la décomposition sont nécessairement les p − r dernières composantes de u. Les p − r
vecteurs ur+1 ,...,up forment donc une base de F .
Preuve de la proposition 7.1.6 Le rang r des lignes de A se calcule par la méthode
du pivot de Gauss appliquée aux lignes de A. Il est égal au nombre d’équations non nulles
dans le système échelonné qu’on trouve après l’utilisation de l’algorithme du pivot de Gauss
pour résoudre le système AX = 0. Soit F l’espace vectoriel des solutions du système homogène
AX = 0. C’est aussi l’ensemble des solutions du système échelonné à r lignes non nulles EX = 0,
obtenu par la méthode du pivot de Gauss. Donc dim F = p − r.
Proposition 7.1.9 Pour toute matrice, le rang des lignes est égal au rang des colonnes.
Preuve : Soit A ∈ Mn,p (K). Appelons r le rang des lignes de A, r0 le rang de A (c’est à dire le
rang des colonnes de A) et F l’espace vectoriel des solutions du système homogène AX = 0. On
a vu que dim F = p − r. Soit Φ l’application linéaire de Kp dans Kn associée canoniquement à
A. Alors F = Ker Φ. Par ailleurs, r0 = dim Im Φ. Par le théorème de la dimension on a

dim Kp = dim Ker Φ + dim Im Φ,

donc p = dim F + r0 , d’où dim F = p − r0 . Par conséquent p − r0 = p − r, donc r = r0 .


µ ¶ ½
2 −4 1 2x −4y +z = 0
Exemple : A = . Le système AX = 0 est Le rang des
0 −1 1 −y +z = 0.
lignes de A est 2. On vérifie que le rang des colonnes aussi : C3 = −C2 − 23 C1 . L’espace vectoriel
62 CHAPITRE 7. RANG D’UNE MATRICE, RETOUR AUX SYSTÈMES LINÉAIRES.


3
des solutions sera de dimension 3 − 2 = 1. En effet, c’est la droite vectorielle de base  2  .
2
Pour la première équation prise séparémment, l’espace vectoriel des solutions est de dimension
3 − 1 = 2 (car le rang est 1), c’est un plan vectoriel. De même pour la seconde équation.
La droite vectorielle F est donc l’intersection de deux plans vectoriels (qu’on représente, dans
l’espace R3 , comme deux plans qui passent par le point (0, 0)). Donnons des bases de ces deux
plans vectoriels.      
x 1 0
(2x − 4y + z = 0) ⇔ (z = −2x + 4y) ⇔  y  = x  0  + y  1 
z −2 4
     
x 1 0
et (−y + z = 0) ⇔ (y = z) ⇔  y  = x  0  + z  1  . On a donc trouvé une
z 0 1
base pour chacun des deux plans vectoriels admettant pour équation cartésienne chacune des
équations du système.

Proposition 7.1.10 Soit E un espace vectoriel de dimension p.


(i) Le noyau de toute forme linéaire non nulle de E est un hyperplan de E.
(ii) Tout hyperplan de E est le noyau d’une forme linéaire non nulle.
Rappel : par définition, un hyperplan de l’espace vectoriel E de dimension p est un sous-espace
vectoriel de dimension p − 1.
Preuve (i) Soit f une forme linéaire non nulle de E. C’est une application linéaire non iden-
tiquement nulle de E dans K. Son image est un sous-espace vectoriel de K non réduit à zéro,
donc Im f = K (car dim K = 1). On a dim Ker f + dim Im f = dim E, donc dim Ker f = p − 1.
(ii) Soit H un hyperplan de E. Fixons une base (e1 , ..., ep ) de E. On sait que tout sous-espace
vectoriel de E admet un système d’équations cartésiennes dans cette base. C’est vrai en particu-
lier pour H. Si u est un vecteur de E, on appelle X la colonne de ses coordonnées dans la base
(e1 , ..., ep ). Il existe une matrice A telle que u ∈ H si est seulement si X est solution du système
linéaire AX = 0. Comme dim H = p − 1, le rang du système linéaire AX = 0 est 1. Il existe
donc un système équivalent qui n’a qu’une seule équation (c’est le système échelonné obtenu
par la méthode du pivot). Donc il existe (a1 , ..., ap ) 6= (0, ..., 0) tel que u ∈ H si et seulement si
a1 x1 + ... + ap xp = 0. Considérons La forme linéaire f dont la matrice dans la base (e1 , ..., ep )
est (a1 , ..., ap ). Alors E = ker f .

Remarque : Soit A ∈ Mn,p (K). Le K-espace vectoriel des solutions du système linéaire ho-
mogène AX = 0 est l’intersection de n hyperplans de Kp .

Définition 7.1.11 Soit A ∈ Mn,p (K). On appelle matrice extraite de A toute matrice A0 ∈
M0 n0 ,p0 (K), 1 ≤ n0 ≤ n, 1 ≤ p0 ≤ p, obtenue à partir de A en rayant n − n0 lignes et p − p0
colonnes.

Proposition 7.1.12 Soit A ∈ Mn,p (K). Soit r le rang de A. Alors il existe une matrice carrée
extraite de A, de dimension r × r et inversible. C’est le cas pour toute matrice r × r extraite de
A en choisissant r lignes linéairement indépendantes et r colonnes linéairement indépendantes
et en rayant les autres. De plus, si r0 > r, toute matrice carrée extraite de A et de dimension
r0 × r0 (s’il en existe) est non inversible.
Preuve : Choisissons r colonnes de A linéairement indépendantes et r lignes de A linéairement
indépendantes et rayons toutes les autres lignes et les autres colonnes. On obtient une matrice
carrée A0 de dimension r × r. Montrons que les r lignes de A0 sont linéairement indépendantes.
7.1. RANG D’UNE MATRICE. RANG D’UN SYSTÈME LINÉAIRE. 63

Supposons, pour simplifier les notations, qu’on a gardé les r premières lignes et les r premières
colonnes de A.  
a1,1 . . . a1,r a1,r+1 . . . a1,p
 a2,1 . . . a2,r a2,r+1 . . . a2,p 
 
 .. 
 . 
A=  
 r,1 . . . ar,r
a ar,r+1 . . . ar,p 

 .. 
 . 
an,1 . . . an,r an,r+1 . . . an,p
Ecrivons une relation linéaire entre les lignes de A0 . Soient λ1 ,...,λr ∈ K telles que
λ1 (a1,1 , ..., a1,r ) + ... + λr (ar,1 , ..., ar,r ) = (0, ..., 0).
Il s’agit de prouver que nécessairement λ1 = ... = λr = 0. Dans ce but on va prouver que :
λ1 (a1,1 , ..., a1,p ) + ... + λr (ar,1 , ..., ar,p ) = (0, ..., 0).
Comme on a supposé que les r premières lignes de A sont linéairement indépendantes, ça
impliquera que λ1 = ... = λr = 0.
Utilisons le fait que chacune des p − r dernières colonnes de A est une combinaison linéaire
des r premières colonnes de A. Comme la r + 1 ème colonne de A est une combinaison linéaire
des r premières colonnes de A, il existe des scalaires µ1 ,...,µr tels que
 a1,r+1 = µ1 a1,1 + µ2 a1,2 + ... + µr a1,r

..
 .

ar,r+1 = µ1 ar,1 + µ2 ar,2 + ... + µr ar,r
On en déduit que :
λ1 a1,r+1 +...+λr ar,r+1 = λ1 (µ1 a1,1 +µ2 a1,2 +...+µr a1,r )+. . .+λr (µ1 ar,1 +µ2 ar,2 +...+µr ar,r ).
Or
λ1 (µ1 a1,1 + µ2 a1,2 + ... + µr a1,r ) + . . . + λr (µ1 ar,1 + µ2 ar,2 + ... + µr ar,r )
= µ1 (λ1 a1,1 + λ2 a2,1 + ... + λr ar,1 ) + ... + µr ((λ1 a1,r + λ2 a2,r ... + λr ar,r ) = 0.
On trouve donc λ1 a1,r+1 +...+λr ar,r+1 = 0. On fait la même démonstration pour les colonnes
numéros r + 2,...,p. On trouve λ1 a1,r+2 + ... + λr ar,r+2 = 0,....,λ1 a1,p + ... + λr ar,p = 0. Donc
λ1 (a1,1 , ..., a1,p ) + ... + λr (ar,1 , ..., ar,p ) = (0, ..., 0) et ça implique que λ1 = ...λr = 0. Donc les
lignes de A0 sont linéairement indépendantes, donc A0 est inversible.
Soit maintenant r0 > r et soit A00 une matrice extraite de A, carrée r0 × r0 . Les lignes de A00
sont extraites d’une famille de r0 lignes de A, en rayant certaines colonnes. Or toute famille de
r0 lignes de A est liée c’est à dire que l’une des r0 lignes de A est combinaison linéaire des r0 − 1
autres. Donc ceci est encore vrai pour les lignes de A00 . Les lignes de A00 ne sont pas linéairement
indépendantes, donc A00 n’est pas de rang maximal, donc n’est pas inversible.
Rappel Si A est une matrice carrée inversible, alors pour tout second membre B le système
linéaire AX = B admet une solution unique X = A−1 B.
Définition 7.1.13 Si A est une matrice carrée inversible, alors on dit que le système linéaire
AX = B est un système de Cramer.
Définition 7.1.14 Soit un système linéaire de matrice A ∈ Mn,p , de second membre B, noté
AX = B. Soit r le rang de la matrice A. Choisissons une matrice r×r extraite de A et inversible.
Les r lignes du systèmes ainsi choisies sont appelées les équations principales et les r inconnues
ainsi choisies sont appelées les inconnues principales.
Supposons qu’on a déterminé le rang r de la matrice A, qu’on a trouvé r lignes indépendantes
et r colonnes indépendantes. Appelons A0 la matrice inversible r × r ainsi obtenue. Supposons,
pour simplifier, que L1 ,...,Lr soient des lignes linéairement indépendantes. Alors les autres lignes
de la matrice A sont des combinaisons linéaires de ces r lignes. Si les seconds membres br+1 ,...,bn
sont des combinaisons linéaires des seconds membres b1 ,...,br avec les mêmes coefficients, alors
on obtient un système équivalent en supprimant ces n − r équations. Sinon le système n’a pas
64 CHAPITRE 7. RANG D’UNE MATRICE, RETOUR AUX SYSTÈMES LINÉAIRES.

de solution. Dans le cas où on obtient un système équivalent en ne conservant que les équations
principales, alors on prend les p − r inconnues non principales comme paramètres et on résoud
un système de Cramer de matrice A0 pour calculer les inconnues principales en fonction des
paramètres.
µ ¶ ½
2 −4 1 2x −4y +z = 1
Exemple : A = . Soit le système AX = B suivant :
0 −1 1 x −y +z = 2.
Le rang de A est 2. On voit que la matrice extraite de A en rayant la dernière colonne est
une matrice inversible. On peut donc prendre x et y comme inconnues ½ principales et z comme
2x −4y = 1 − z
paramètre et on résoud le système de Cramer d’inconnues x et y :
x −y = 2 − z.

7.2 Systèmes linéaires avec second membre. Espaces affines.


Soit A ∈ Mn,p (K), soit B ∈ Kn et soit le système linéaire AX = B. Interprétons ce système
en utilisant l’application linéaire de Kp dans Kn de matrice A dans les bases canoniques de Kp
Φ : Kp → Kn
et Kn :
X → AX.

Proposition 7.2.1 (i) Le système AX = B admet au moins une solution si et seulement si


B ∈ Im Φ.
(ii) Supposons que B ∈ Im Φ et choisissons X0 ∈ Kp tel que B = Φ(X0 ) = AX0 . Alors
l’ensemble des solutions de AX = B est
S = {X0 + Y ; Y ∈ Ker Φ}. On notera S = X0 + Ker Φ.
Preuve : On a (i) de manière évidente. Montrons (ii). AX = B ⇔ AX = AX0 ⇔ A(X0 − X) =
0 ⇔ X − X0 ∈ Ker Φ.

Définition 7.2.2 Si X0 ∈ Kp et si F est un sous-espace vectoriel de Kp de dimension p0 , alors


l’ensemble {X0 + Y ; Y ∈ F }, qu’on peut noter X0 + F , s’appelle le sous-espace affine de Kp
de direction l’espace vectoriel F et passant par le point X0 . On définit la dimension de l’espace
affine X0 + F comme étant égale à la dimension de l’espace vectoriel F .
Remarque : Tout sous-espace affine de direction l’espace vectoriel {0} est réduit à un point.
Un sous-espace affine de R2 (différent de R2 lui-même) est soit un point, soit une droite. Si
c’est un point, sa direction est l’espace vectoriel {0}. Si c’est une droite, alors sa direction est
la droite vectorielle associée, c’est à dire la droite qui lui est parallèle et qui passe par le point
(0, 0). Un sous-espace affine de R3 (différent de R3 lui-même) est soit un point, soit une droite,
soit un plan. Les directions associées sont respectivement l’espace vectoriel {0}, ou une droite
vectorielle, ou un plan vectoriel.
Par la proposition ci-dessus on a la discussion suivante, pour l’ensemble des solutions du
système linéaire AX = B. Soit l’ensemble des solutions est vide, soit le système admet au moins
une solution et alors l’ensemble des solutions est un sous-espace affine de Kp , dont la direction
est l’espace vectoriel des solutions du système homogène associé AX = 0. Dans ce cas, si le
système AX = 0 n’admet que la solution nulle, l’espace affine des solutions est réduit à un
point. Sinon, l’espace affine des solutions est de dimension 1, ou etc..ou p.

Définition 7.2.3 On appelle hyperplan d’un espace affine de dimension p tout sous-espace affine
de dimension p − 1.
On peut interpréter chaque ligne du systm̀e linéaire AX = B comme l’équation d’un hyper-
plan affine de Kp . L’ensemble des solutions du système linéaire est l’intersection de n hyperplans
affines.

You might also like