5.3 Applications linéaires, matrices

5.3.1 Applications linéaires

Définition 25   Soient E et F deux espaces vectoriels sur un corps K. Une application f de E dans F est une application linéaire si et seulement si elle satisfait les deux conditions :
1.
quels que soient les vecteurs u et v de E,

f(u+v)=f(u)+f(v)

2.
quels que soient l'élément $\lambda $ du corps K et le vecteur u de E,

\begin{displaymath}f(\lambda u ) = \lambda f(u) .\end{displaymath}

Si de plus f est bijective, on dit que f est un isomorphisme d'espaces vectoriels.

Proposition 9 (Caractérisation des applications linéaires)   Une application f de E dans F est linéaire si et seulement si, quels que soient les éléments $\lambda $ et $\mu$ de K et quels que soient les vecteurs u et v de E

\begin{displaymath}
f(\lambda u +\mu v) = \lambda f(u) + \mu f(v).
\end{displaymath}

Preuve
1.
Si f est linéaire alors $
f(\lambda u +\mu v) = f(\lambda u) + f(\mu v)= \lambda f(u) + \mu f(v) $.
2.
Réciproquement, si $\lambda = \mu =1$ alors f(u+v)=f(u)+f(v)
et si $\mu =0$ alors $ f(\lambda u ) = \lambda f(u) $.

Remarque 14  
1.
L'application de R dans R définie par f(x)=x2 n'est pas linéaire :

\begin{displaymath}f(2+1) =9 \quad \textrm{ et } f(2) + f(1) = 5 .\end{displaymath}

2.
On dispose ainsi de plusieurs possibilités pour calculer f(u+v) : soit on calcule la somme de u et v dans E puis son image par f dans F, soit on calcule les images de u et v dans F et on effectue leur somme dans ce dernier.

5.3.1.1 Exercice

Soit f un isomorphisme d'espaces vectoriels. Montrer que l'application réciproque f-1 de f est aussi une application linéaire (donc un isomorphisme).

Notations :
1.
L'ensemble des applications linéaires de E dans F est noté LK(E,F) (ou L(E,F) s'il n'y a pas d'ambiguité sur le corps K).
2.
On note L(E,E) = End(E) l'ensemble des endomorphismes de E et Aut(E) l'ensemble des automorphismes de E (endomorphismes bijectifs de E).
Exemples
1.
L'application nulle, l'identité, la multiplication par un scalaire et l'addition de deux vecteurs sont des endomorphismes d'un espace vectoriel E.
2.
Dans le plan, les rotations, les projections et les symétries sont des endomorphismes (et même des automorphismes pour les rotations et symétries.)
3.
L'application qui à un polynôme P fait correspondre son polynôme dérivé est un endomorphisme (mais pas un automorphisme !) de l'espace vectoriel des polynômes à une indéterminée.

Proposition 10   LK(E,F) est un K-espace vectoriel pour les lois suivantes
1.
f+g : $v \in E \mapsto f(v)+g(v)$
2.
$\lambda f$ : $v \in E \mapsto \lambda f(v)$

5.3.1.2 Exercice

Montrer que si E, F et G sont 3 K-e.v., $f \in L_K(E,F)$ et $g \in L_K(F,G)$ alors $g \circ f \in L_K(E,G)$.

Définition 26   Si $f \in L_K(E,F)$, on définit :
1.
$Ker\, f = \{ x \in E \vert f(x)=0 \}$, le noyau de f.
2.
$Im\, f = \{ y \in F \vert \exists x \in E, y=f(x) \}$ l'image de f.

Proposition 11  
1.
$Ker \, f$ est un sous espace vectoriel de E.
2.
$Im \, f$ est un sous espace vectoriel de F.
3.
f est injective si et seulement si $Ker \, f =\{ 0 \} $.

Preuve : en exercice.

Théorème 29 (admis)   Soient E et F deux K-e.v. de dimensions finies, $f \in L_K(E,F)$ alors :

\begin{displaymath}
dim \, E = dim \, Im \, f + dim \, ker \, f
\end{displaymath}

Définition 27   La dimension de l'image de f est appelée le rang de f et est notée $rg \, f$.

Proposition 12   Si $u\in L(E,F)$, on a :

\begin{displaymath}
rg \, u \leq \inf (dim \, E , dim \, F).
\end{displaymath}

u est surjective si et seulement si $rg \, u = dim \, F$.

On admettra enfin la propriété importante suivante :

Proposition 13   Si $dim \, E =dim \, F$, on a les équivalences suivantes :
i)
u est injective.
ii)
u est surjective.
iii)
u est un isomorphisme.
iv)
L'image par u d'une base de E est une base de F.

5.3.2 Matrices

Proposition 14   Soit $(e_1,\cdots ,e_p)$ la base canonique de Rp et f une application linéaire de Rp dans Rn.
L'application linéaire f est déterminée par les images $f(e_1), \cdots ,f(e_n)$ des vecteurs $e_1,\cdots ,e_p$.

Preuve :
Si $u=x_1 e_1 + \cdots +x_p e_p$ alors $f(u)= x_1 f(e_1) + \cdots +x_p f(e_p)$. Si donc on connaît l'image des vecteurs de base par f, on connaît l'image de tous les vecteurs, donc f est entièrement déterminée.

Exemple :
On note (e1,e2) et (l1,l2,l3) les bases canoniques respectives de R2 et R3.
Si f(e1)=2l1+l2-l3 et f(e2)=-l1+3l2+l3, alors l'image du vecteur u=x1 e1 +x2e2 par f est

\begin{eqnarray*}
f(u) &=& x_1 (2l_1+l_2-l_3) +x_2 (-l_1+3l_2+l_3) \\
&=&(2x_1 ...
..._2 + (-x_1 +x_2)l_3 \\
&=&(2x_1 -x_2 , x_1 + 3 x_2 , -x_1 +x_2)
\end{eqnarray*}


Définition 28   Soit f une application linéaire de Rp dans Rn ; on note $(e_1,\cdots ,e_p)$ et $(l_1,\cdots ,l_n)$ les bases canoniques respectives de Rp et Rn.
La matrice M associée à f relativement aux bases canoniques de Rp et Rn est le tableau dont les colonnes sont les coordonnées des vecteurs $f(e_1), \cdots ,f(e_n)$ dans la base canonique $(l_1,\cdots ,l_n)$ de Rn.

Notation
On note habituellement aij le coefficient de la matrice M situé à l'intersection de la i-ème ligne et de la j-ème colonne.
Ainsi pour tout entier j tel que $1 \leq j \leq p$ :

\begin{displaymath}
f(e_j) = a_{1j} + a_{2j} + \cdots + a_{nj}
\end{displaymath}

et

\begin{eqnarray*}
M =
\left(
\begin{array}{cccccc}
a_{11} & a_{12} & \cdots &a_...
...} & a_{n2} & \cdots &a_{nj}& \cdots & a_{np}
\end{array}\right)
\end{eqnarray*}


Remarque 15  
1.
M est une matrice rectangulaire (n,p) où n est le nombre de lignes et p le nombre de colonnes. Une écriture symbolique de la matrice M est $\displaystyle{M= (a_{ij})_{\stackrel{1 \leq i \leq n}{1 \leq j \leq p}} }$.
2.
Si n=p la matrice est carrée.
3.
Si n=1 alors M est une matrice ligne.
4.
Si p=1 alors M est une matrice colonne.

5.3.3 Calcul matriciel

5.3.3.1 Egalité

Deux matrices sont égales si et seulement si elles ont même taille et si leurs coefficients de mêmes indices sont égaux deux à deux.

5.3.3.2 Somme

Définition 29   Soit A=(aij) et B=(bij) deux matrices de même taille. La matrice somme de A et B est la matrice C=(cij) de même taille telle que :

\begin{displaymath}
\forall (i,j), 1 \leq i \leq n, 1\leq j \leq p, \qquad c_{ij}=a_{ij} + b_{ij}
\end{displaymath}

Proposition 15   On démontre que l'ensemble des matrices de taille (n,p) muni de l'addition est un groupe commutatif.
L'élément neutre est la matrice dont tous les coefficients sont nuls.

5.3.3.3 Multiplication par un réel

Définition 30   Soit A=(aij) une matrice et $\lambda $ un réel. La matrice produit de A par $\lambda $ est la matrice D=(dij) de même taille que A telle que :

\begin{displaymath}
\forall (i,j), 1 \leq i \leq n, 1\leq j \leq p, \qquad d_{ij}=\lambda a_{ij}.
\end{displaymath}

Proposition 16   On démontre que l'ensemble des matrices de taille (n,p) muni de l'addition et de la multiplication par un réel est un R-espace vectoriel.

5.3.3.4 Produit de deux matrices

Définition 31   Soit A=(aij) une matrice (n,p) et B=(bij) une matrice (p,q). La matrice produit de A et B est la matrice AB=(cij) de taille (n,q) définie par :

\begin{displaymath}
\forall (i,k), 1 \leq i \leq n, 1\leq k \leq q, \qquad c_{ik}=a_{i1}b_{1k} + a_{i2}b_{2k}+ \cdots +a_{ip}b_{pk}
\end{displaymath}

Remarque 16  
1.
On ne peut définir le produit AB de deux matrices A et B que si le nombre de colonnes de A est égal au nombre de lignes de B.
2.
Le produit de matrices n'est donc pas commutatif.
Pour voir cela on peut aussi considérer les matrices $\displaystyle{ A=
\left(
\begin{array}{cc}
1&0 \\
0 & 0
\end{array}\right) }$ et $\displaystyle{ B=
\left(
\begin{array}{cc}
0&0 \\
1 & 1
\end{array}\right) }$.
$AB= \displaystyle{
\left(
\begin{array}{cc}
0 & 0 \\
0 & 0
\end{array}\right) }$ et $BA = \displaystyle{
\left(
\begin{array}{cc}
0&0 \\
1 & 0
\end{array}\right). }$
De plus on constate sur cet exemple que si $A \neq 0$ et $B \neq 0$ on peut tout de même avoir AB=0.
3.
La multiplication s'effectue ligne par colonne : le premier coefficient de la matrice produit s'obtient en faisant le "produit" de la première ligne et de la première colonne.

Proposition 17   On démontre que pour des matrices A, B et C quelconques, sous réserve que les produits considérés existent et pour tout réel $\lambda $ on a :

\begin{eqnarray*}
A \times (B \times C) = (A \times B) \times C \\
A \times ( B...
...\times (\lambda B) = ( \lambda A) \times B = \lambda \cdot (AB).
\end{eqnarray*}


L'élément neutre est la matrice dont tous les coefficients sont nuls.
Dans le cas des matrices carrées d'ordre n, la matrice notée I et définie par : aii=1 pour $1 \leq i \leq n$ et aij =0 pour $i \neq j$ vérifie : A x I = I x A =A pour toute matrice carrée A d'ordre n. On l'appelle matrice unité ou identité.

Remarque 17   Les propriétés du calcul matriciel permettent d'obtenir des résultats sur une matrice A sans avoir à effectuer des calculs sur ses nombreux coefficients.
Par exemple, si une matrice carrée A vérifie A2 = -4A +2I, alors il existe une matrice A' telle que A x A' = A' x A = I. En effet on a les égalités suivantes :

\begin{eqnarray*}
A^2 +4A &=& 2I \\
\frac{1}{2} A^2 + 2A &=& I \\
\left( \frac...
...\right) A = I &\textrm{et}&A \left( \frac{1}{2} A + 2I \right)=I
\end{eqnarray*}


donc il suffit de prendre $\displaystyle{A'=\frac{1}{2} A + 2I }$.