Votre navigateur n'accepte pas le Javascript.La navigation sur ce site risque de ne pas fonctionner correctement.

278. Un espace utile stable par un endomorphisme

Soient $\K$ un corps et $f$ un endomorphisme d’un $\K$-espace vectoriel noté $E$. Soit $\lambda\in\K$ un scalaire.

Notez :

F=\mathrm{Im} (f-\lambda\mathrm{Id}) = \{f(x)-\lambda x, x\in E\}.

Vous allez démontrer que $F$ est stable par $f.$

Ce résultat est si important dans la trigonalisation ou la jordanisation d’un endomorphisme que vous en trouverez deux démonstrations.

Première démonstration

Soit $y\in F.$

Par définition de $F$, il existe $x\in E$ tel que :

y=f(x)-\lambda x.

L’application $f$ étant linéaire, il vient :

\begin{align*}
f(y) &= f(f(x)-\lambda x)\\
&=f(f(x))-\lambda f(x). 
\end{align*}

Posez $z = f(x).$

Comme $f$ est un endomorphisme de $E$, il vient $f(x)\in E$ et $z\in E.$

Comme :

f(y) = f(z)-\lambda z

vous déduisez que $f(y)\in F.$

Ainsi :

\boxed{\forall y\in F, f(y)\in F.}

Seconde démonstration

Soit $y\in F.$

Il s’agit de montrer que $f(y)$ est encore dans $F$.

Vous remarquez bien entendu que le vecteur $f(y)-\lambda y$ appartient à $F$ puisque $y\in E.$

Comme $F$ est l’image de l’endomorphisme $f-\lambda \mathrm{Id}$, $F$ est un sous-espace vectoriel de $E.$

Comme $y\in F$, vous déduisez $\lambda y \in F.$

Par somme, vous déduisez $(f(y)-\lambda y) + \lambda y \in F$ et donc $f(y)\in F.$

Ainsi :

\boxed{\forall y\in F, f(y)\in F.}

277. Trigonalisez une matrice en utilisant des images d’endomorphismes

Considérez la matrice :

A= \begin{pmatrix}
3 & -1 & -1 \\
-1 & 2 & 0\\
3 & -2 & 0
\end{pmatrix}.

Soit $(x_1,x_2,x_3)\in\R^3.$ En posant $X = \begin{pmatrix} x_1 \\ x_2\\ x_3\end{pmatrix}$ il vient :

\begin{align*}
AX &= \begin{pmatrix}
3 & -1 & -1 \\
-1 & 2 & 0\\
3 & -2 & 0
\end{pmatrix}
\begin{pmatrix} x_1 \\ x_2\\ x_3\end{pmatrix} 
\\
&=\begin{pmatrix} 3x_1-x_2-x_3 \\ -x_1+2x_2\\3x_1-2 x_2\end{pmatrix}.
\end{align*}

Vous allez considérer l’endomorphisme $f$ de $\R^3$ défini par :

\forall (x_1,x_2,x_3), f(x_1,x_2,x_3) = (3x_1-x_2-x_3,-x_1+2x_2, 3x_1-2x_2).

Quelques notations

Notez $e_1 = (1,0,0)$ le premier vecteur de la base canonique de $\R^3.$

Notez $e_2 = (0,1,0)$ le deuxième vecteur de la base canonique de $\R^3.$

Notez $e_3 = (0,0,1)$ le troisième vecteur de la base canonique de $\R^3.$

La matrice de $f$ dans la base $(e_1,e_2,e_3)$ est bien la matrice $A.$

Pour tout sous-espace vectoriel $H$ de $\R^3$ vous noterez $\mathrm{Id}_H$ l’application identité de $H.$

Qu’est-ce que trigonaliser l’endomorphisme $f$ ?

Il s’agit de trouver une base de $\R^3$, notée $(v_1,v_2,v_3)$ telle que :

\left\{\begin{align*}
f(v_1)&\in \mathrm{Vect}(v_1)\\
f(v_2)&\in \mathrm{Vect}(v_1,v_2)\\
f(v_3)&\in \mathrm{Vect}(v_1,v_2,v_3).
\end{align*}\right.

Comment démarrer ?

Tout d’abord, à supposer que vous êtes arrivé à trigonaliser l’endomorphisme $f$, il existe une base $(v_1,v_2,v_3)$ de $\R^3$ (donc $v_1$ est non nul) qui satisfait les conditions ci-dessus.

Comme $f(v_1)\in \text{Vect}(v_1)$, vous déduisez qu’il existe $\lambda\in\R$ tel que $f(v_1)=\lambda v_1$ donc $(f-\lambda \mathrm{Id}_{\R^3})(v_1) = 0.$ Par suite l’endomorphisme $f-\lambda \mathrm{Id}_{\R^3}$ n’est pas injectif.

Il s’agit ainsi de trouver $\lambda\in\R$ pour que $f-\lambda \mathrm{Id}_{\R^3}$ ne soit pas un automorphisme de $\R^3.$ Trouver un réel $\lambda$ qui satisfait cette condition, c’est trouver une valeur propre de $f$.

Ciblez les valeurs propres potentielles de $f$

L’intérêt d’un endomorphisme, c’est qu’il peut s’itérer plusieurs fois.

Vous calculez successivement :

\begin{align*}
f(e_1) &= (3, -1, 3)\\
f^2(e_1) &= f(f(e_1)) =  f(3,-1,3) =(7, -5, 11)\\
f^3(e_1) &= f(f(f(e_1))) = f(7,-5,11) = (15, -17, 31).
\end{align*}

La famille $(e_1, f(e_1), f^2(e_1), f^3(e_1) )$ est formée par quatre vecteurs de $\R^3$ qui est engendré par les $3$ vecteurs de la base canonique, donc elle est liée.

La méthode du pivot va permettre de trouver une relation qui les lie.

Utilisez le vecteur $e_1$ pour faire apparaître des zéros sur la première coordonnée :

\begin{align*}
f(e_1)-3e_1 &=(0, -1, 3)\\
f^2(e_1)-7e_1 &= (0,-5, 11)\\
f^3(e_1)-15e_1 &=(0, -17, 31).
\end{align*}

La famille $(f(e_1)-3e_1, f^2(e_1)-7e_1, f^3(e_1)-5e_1)$ est formée par trois vecteurs qui appartiennent à $\text{Vect}(e_2, e_3)$ où $e_2 = (0,1,0)$ et $e_3 = (0,0,1)$, qui est un sous-espace vectoriel de $\R^3$ engendré par $2$ vecteurs, donc elle est liée.

Vous continuez ainsi :

\begin{align*}
-5f(e_1)+15e_1 &=(0, 5, -15)\\
f^2(e_1)-7e_1 &= (0,-5, 11)\\
f^2(e_1)-5f(e_1)+8e_1 &=(0,0,-4).
\end{align*}
\begin{align*}
-17f(e_1)+51e_1 &=(0, 17, -51)\\
f^3(e_1)-15e_1 &=(0, -17, 31)\\
f^3(e_1)-17f(e_1)+36e_1&=(0,0,-20).
\end{align*}

A partir des deux dernières relations, vous pouvez obtenir le vecteur nul.

\begin{align*}
-5f^2(e_1)+25f(e_1)-40e_1 &=(0,0,20)\\
f^3(e_1)-17f(e_1)+36e_1&=(0,0,-20).
\end{align*}
\begin{align*}
f^3(e_1)-5f^2(e_1)+8f(e_1)-4e_1 &= 0 \\
(f^3-5f^2+8f-4\mathrm{Id}_{\R^3})(e_1) &=0.
\end{align*}

Factorisez le polynôme $X^3-5X^2+8X-4$

Posez $P(X) = X^3-5X^2+8X-4.$

Ce polynôme étant à coefficients entiers vous pouvez chercher des racines entières pour commencer.

$P(0)$ n’étant pas nul, vous essayez avec $X=1$ :

\begin{align*}
P(1) &= 1-5+8-4 = 9-9\\
P(1)&= 0.
\end{align*}

Ainsi, $1$ est racine de $P$ donc $P$ est factorisable par $X-1.$ Par identification du coefficient dominant et du coefficient $-4$ du polynôme $P$ vous obtenez l’existence de $a\in\R$ tel que $P(X) = (X-1)(X^2+aX+4).$

Effectuez $X=-1$, vous obtenez : $-1-5-8-4 = (-2)(5-a)$ donc $-18 = (-2)(5-a) $ puis $9=5-a$ donc $a=-4.$

Donc $P(X) = (X-1)(X^2-4X+4) = (X-1)(X-2)^2.$

Les valeurs propres possibles de $f$ sont égales à $1$ ou $2$

D’après ce qui précède, $f^3-5f^2+8f-4\mathrm{Id}_{\R^3} = (f- \mathrm{Id}_{\R^3}) \circ (f- 2\mathrm{Id}_{\R^3}) \circ (f- 2\mathrm{Id}_{\R^3}).$

Si $f$ ne possédait pas de valeur propre, les deux endomorphismes de $\R^3$, $f- \mathrm{Id}_{\R^3}$ et $f- 2\mathrm{Id}_{\R^3}$ seraient des automorphismes de $\R^3.$

En composant successivement par les automorphismes réciproques, il viendrait :

\begin{align*}
(f^3-5f^2+8f-4\mathrm{Id})(e_1) &=0\\
\left[(f- \mathrm{Id}) \circ (f- 2\mathrm{Id}) \circ (f- 2\mathrm{Id})\right](e_1)&=0\\
\left[ (f- 2\mathrm{Id}) \circ (f- 2\mathrm{Id})\right](e_1) &= (f- \mathrm{Id})^{-1}(0) =0\\
(f- 2\mathrm{Id})(e_1)&= (f- 2\mathrm{Id})^{-1}(0) = 0\\
e_1 &= (f- 2\mathrm{Id})^{-1}(0)=0.
\end{align*}

La dernière égalité étant une contradiction, vous déduisez que l’un au moins des deux endomorphismes parmi $f- \mathrm{Id}_{\R^3}$ et $f- 2\mathrm{Id}_{\R^3}$ n’est pas injectif et donc $f$ possède au moins une valeur propre.

A ce stade vous ne savez pas encore si $f- \mathrm{Id}_{\R^3}$ est un automorphisme ou non. Pour le savoir, vous pouvez calculer son image, qui sera utile dans la suite.

Déterminez l’image de l’endomorphisme $f- \mathrm{Id}_{\R^3}$

Notez $F = \mathrm{Im} (f- \mathrm{Id}_{\R^3})$.

$F$ est engendré par les vecteurs $f(e_1)-e_1$, $f(e_2)-e_1$, $f(e_3)-e_3$. Or :

\begin{align*}
f(e_1)-e_1 &= (3, -1, 3) - (1,0,0) = (2,-1,3)\\
f(e_2)-e_2 &= (-1, 2, -2) - (0,1,0) = (-1,1,-2)\\
f(e_3)-e_3 &= (-1, 0, 0) - (0,0,1) = (-1,0,-1).
\end{align*}

Vous constatez que :

\begin{align*}
-(-1,1,-2)-(-1,0,-1) &= (1,-1,2)+(1,0,1)\\
&=(2,-1,3).
\end{align*}

Par conséquent $F = \mathrm{Vect}((-1,1,-2), (-1,0,-1) ).$

$F$ est un espace vectoriel de dimension inférieure ou égale à $2$, donc $1$ est valeur propre de $f.$

D’autre part, la famille $((-1,1,-2), (-1,0,-1))$ est libre. En effet, soit $(a,b)\in\R^2$ tel que $a(-1,1,-2) + b(-1,0,-1) = 0.$

La deuxième coordonnée fournit $a = 0$ donc $b(-1,0,-1) = 0$ et la première coordonnée fournit $-b=0$ donc $b=0.$

Le sous-espace vectoriel $F = \mathrm{Im} (f- \mathrm{Id})$ admet pour base la famille $((-1,1,-2), (-1,0,-1)).$

Or, d’après le contenu rédigé dans l'article 278, $F$ est stable par $f.$

Vous considérez l’endomorphisme $g$ de $F$ défini par $\forall x\in F, g(x) = f(x).$ Cet endomorphisme est usuellement noté $ f_{\vert F}$, c’est la restriction de $f$ à $F.$ Comme $F$ est seulement de dimension $2$, il va être plus aisé de trigonaliser $g.$

Votre plan pour trigonaliser l’endomorphisme $g$

Il s’agit tout d’abord de trouver une valeur propre de $g$, appelée $\mu.$

L’application identité de $F$ sera notée $\mathrm{Id}_F$ dans la suite.

L’endomorphisme $g-\mu\mathrm{Id}_F$ ne sera pas un automorphisme de $F$, donc non surjectif, donc le sous-espace $G$ défini par $G = \mathrm{Im}(g-\mu\mathrm{Id}_F)$ aura une dimension strictement inférieure à celle de $F.$

Comme $F$ admet pour base $((-1,1,-2), (-1,0,-1))$ vous déduisez que $G$ sera engendré par la famille $((g-\mu\mathrm{Id}_F)(-1,1,-2), (g-\mu\mathrm{Id}_F)(-1,0,-1)).$

Trouvez une valeur propre candidate pour $g$

Le vecteur $\boxed{e’_1 = (-1,1,-2)}$ appartient à $F$, vous calculez la suite de ses itérés.

\begin{align*}
g(e'_1) &= g(-1,1,-2)\\
&= f(-1,1,-2)\\
&=(-2,3-5).
\end{align*}

Notez $\boxed{e’_2 = (-1,0,-1).}$

\begin{align*}
g(e'_2) &= g(-1,0,-1)\\
&= f(-1,0,-1)\\
&=(-2,1,-3).
\end{align*}

Comme $F$ admet pour base $(e’_1,e’_2)$ et $g$ est un endomorphisme de $F$, vous déduisez que $g(e’_1)$ se décompose sur cette base.

Il existe deux réels $a$ et $b$ tels que :

(-2,3,-5) = a(-1,1,-2)+b(-1,0,-1).

La seconde coordonnée fournit :

3=a.

Du coup :

\begin{align*}
(-2,3,-5) &= (-3,3,-6)+b(-1,0,-1)\\
(1,0,1) &= b(-1,0,-1)\\
-1 = b.
\end{align*}

Ainsi :

g(e'_1) = 3e'_1-e'_2.

De même, $g(e’_2)$ se décompose au sein de la base $(e’_1,e’_2).$

Il existe deux réels notés encore $a$ et $b$ tels que :

(-2,1,-3) = a(-1,1,-2)+b(-1,0,-1).

La seconde coordonnée fournit :

1 = a.

Du coup :

\begin{align*}
(-2,1,-3) &= (-1,1,-2)+b(-1,0,-1)\\
(-1,0,-1) &= b(-1,0,-1)\\
1 &= b.
\end{align*}
g(e'_2) = e'_1+e'_2.

Repartez de la relation $g(e’_1) = 3e’_1-e’_2$ puis vous appliquez $g.$

\begin{align*}
g^2(e'_1) &= g(g(e'_1))\\
&=g(3e'_1-e'_2)\\
&=3g(e'_1)-g(e'_2)\\
&=3(3e'_1-e'_2)-(e'_1+e'_2)\\
&=8e'_1-4e'_2.
\end{align*}

La famille $(e’_1, g(e’_1), g^2(e’_1))$ est une famille de trois vecteurs de $F$ qui est un espace généré par deux vecteurs. Donc cette famille est liée.

Comme :

\begin{align*}
g(e'_1)-3e'_1 &=-e'_2\\
g^2(e'_1)-8e'_1 &=-4e'_2
\end{align*}

vous multipliez la première ligne par $-4$ pour obtenir :

\begin{align*}
-4g(e'_1)+12e'_1 &=4e'_2\\
g^2(e'_1)-8e'_1 &=-4e'_2.
\end{align*}

Et par somme, il vient :

\begin{align*}
g^2(e'_1)-4g(e'_1)+4e'_1 = 0\\
(g^2-4g+4\mathrm{Id}_F)(e'_1) = 0.
\end{align*}

Le polynôme $X^2-4X+4$ est factorisable, puisque $X^2-4X+4 = (X-2)^2$ du coup :

((g-2\mathrm{Id}_F)\circ(g-2\mathrm{Id}_F))(e'_1) = 0.

Si l’endomorphisme $g-2\mathrm{Id}_F$ était inversible, en composant à gauche deux fois par $(g-2\mathrm{Id}_F)^{-1}$ vous auriez $e’_1 = 0$ ce qui est absurde.

Par suite, $g-2\mathrm{Id}_F$ n’est pas inversible, donc $g-2\mathrm{Id}_F$ n’est pas injectif donc le nombre $2$ est valeur propre de $g.$

Soit $G = \mathrm{Im}(g-2\mathrm{Id}_F).$ Toujours d’après le contenu rédigé dans l'article 278, $G$ est stable par $g.$

Vous considérez l’endomorphisme $h$ de $G$ défini par $\forall x\in G, h(x) = g(x) = f(x).$ Comme $G$ est de dimension inférieure ou égale à $1$, l’endomorphisme $h$ va être trigonalisé rapidement.

Déterminez une base de $G$

$G$ est engendré par la famille $((g-2\mathrm{Id}_F)(e’_1), (g-2\mathrm{Id}_F)(e’_2)).$

Vous effectuez les calculs suivants :

\begin{align*}
(g-2\mathrm{Id}_F)(e'_1) &= g(e'_1)-2e'_1 \\
&= 3e'_1-e'_2 - 2e'_1\\
&=e'_1-e'_2.
\end{align*}
\begin{align*}
(g-2\mathrm{Id}_F)(e'_2) &= g(e'_2)-2e'_2 \\
&= e'_1+e'_2 - 2e'_1\\
&=-e'_1+e'_2.
\end{align*}

Le vecteur $-e’_1+e’_2$ est égal à $-(e’_1-e’_2)$, ainsi :

G = \mathrm{Vect}(e'_1-e'_2).

Comme la famille $(e’_1,e’_2)$ est libre, le vecteur $e’_1-e’_2$ ne peut être le vecteur nul, donc $G$ est de dimension $1$.

Trigonalisez l’endomorphisme $h$

Posez $\boxed{v_1 = e’_1-e’_2= (0,1,-1).}$

\begin{align*}
h(v_1) &= h(e'_1)-h(e'_2)\\
&= g(e'_1)-g(e'_2)\\
&=(3e'_1-e'_2)-(e'_1+e'_2)\\
&=2e'_1-2e'_2\\
&=2(e'_1-e'_2)\\
&=2v_1.
\end{align*}

Trigonalisez l’endomorphisme $g$

$G$ est engendré par la famille $(e’_1,e’_2).$ Il est donc engendré par la famille $(v_1,e’_1,e’_2).$

La relation $v_1 = e’_1-e’_2 = (0,1,-1)$ fournit $e’_2 = e’_1-v_1$ donc $F = \mathrm{Vect}(v_1,e’_1).$

Comme $F$ est de dimension $2$, la famille $(v_1,e’_1)$ est une base de $F.$

Bien entendu, $g(v_1) = h(v_1) = 2v_1$ donc $g(v_1)\in\mathrm{Vect}(v_1).$

Pour l’image de $e’_1$ vous procédez comme suit :

\begin{align*}
g(e'_1) &= (g(e'_1)-2e'_1) + 2e'_1\\
&= (g-2\mathrm{Id}_F)(e'_1)  + 2e'_1\\
&=(e'_1-e'_2) + 2e'_1\\
&=v_1+2e'_1.
\end{align*}

$g(e’_1)\in\mathrm{Vect}(v_1,e’_1).$

En posant $\boxed{v_2 = e’_1 = (-1,1,-2)}$ vous avez obtenu $g(v_2)\in\mathrm{Vect}(v_1,v_2).$ et $(v_1,v_2)$ est une base de $F.$

Trigonalisez l’endomorphisme $f$

$\R^3$ est engendré par $(e_1,e_2,e_3)$ donc il est aussi engendré par $(v_1,v_2,e_1,e_2,e_3).$

En prenant les expressions $v_1 =e’_1-e’_2 = (0,1,-1)$ et $v_2 =(-1,1,-2)$ vous déduisez :

\begin{align*}
v_1 &= &e_2&-e_3\\
v_2 &= -e_1&+e_2&-2e_3\\
2v_1-v_2&=e_1+e_2.
\end{align*}

Par suite, $e_2 = 2v_1-v_2-e_1$ et $e_2 \in \mathrm{Vect}(v_1,v_2,e_1).$

Comme $e_3 = e_2-v_1 = v_1-v_2-e_1$, vous avez aussi $e_3 \in \mathrm{Vect}(v_1,v_2,e_1).$

Posez $v_3 = e_3 = (0,0,1).$

Vous avez montré que $\R^3$ est engendré par la famille $(v_1,v_2,v_3).$

Comme $\R^3$ est de dimension $3$, vous déduisez que $(v_1,v_2,v_3)$ est une base de $\R^3.$

Bien entendu, $f(v_1)=g(v_1) = 2v_1$ donc $f(v_1)\in\mathrm{Vect}(v_1).$

Il a été montré plus haut que $g(v_2) = v_1+2v_2.$ Comme $f(v_2)=g(v_2)$ vous avez $f(v_2) = v_1+2v_2$ et $f(v_2)\in\mathrm{Vect}(v_1,v_2).$

Il reste à finir avec $f(v_3).$ Comme c’est un vecteur de $\R^3$ il se décompose dans la base $(v_1,v_2,v_3)$ donc $f$ est bien trigonalisé dans la base $(v_1,v_2,v_3).$

Déterminez la matrice de $f$ dans la nouvelle base $(v_1,v_2,v_3)$

Vous procédez comme précédemment.

\begin{align*}
f(v_3) = (f-\mathrm{Id}_{\R^3})(v_3)+v_3.
\end{align*} 

Comme $(f-\mathrm{Id}_{\R^3})(v_3)$ appartient à $F$ et que $F$ admet pour base $(v_1,v_2)$ il va y avoir une décomposition.

Il existe donc deux réels $a$ et $b$ tels que :

\begin{align*}
(f-\mathrm{Id}_{\R^3})(v_3) &= av_1+bv_2\\
f(v_3)-v_3 &= av_1+bv_2\\
f(0,0,1)-(0,0,1) &= a(0,1,-1)+b(-1,1,-2)\\
(-1,0,0)-(0,0,1) &=(0,a,-a)+(-b,b,-2b)\\
(-1,0,-1)&=(-b,a+b,-a-2b).
\end{align*}
 

L’identification de la première coordonnée fournit $b=1.$

L’identification de la deuxième fournit $a+b=0$ donc $a=-1.$

Pour vérifier que tout va bien vous calculez $-a-2b$ ce qui fournit $1-2 = -1$ la troisième coordonnée concorde.

Ainsi $f(v_3) = -v_1+v_2+v_3.$

Concluez

Dans la base $(v_1,v_2,v_3)$ où $v_1 = (0,1,-1)$, $v_2 = (-1,1,-2)$ et $v_3 = (0,0,1)$ la matrice de $f$ est triangulaire supérieure et elle égale à :

\begin{pmatrix}
2 &  1& -1 \\
0 &  2& 1\\
0 &  0& 1\\
\end{pmatrix}.

L’endomorphisme $f$ a été trigonalisé.

276. Factorisez une matrice en utilisant la décomposition PLU (2/2)

Soit $A$ la matrice définie par :

A= \begin{pmatrix}
1 & 1 & -1 \\
-1 & 1 & 2\\
1& 1 & 1
\end{pmatrix}.

Utilisez des opérations élémentaires sur les lignes

Vous partez de la factorisation suivante avec la matrice identité :

A= \begin{pmatrix}
1 & 0 & 0 \\
0 & 1 & 0\\
0& 0 & 1
\end{pmatrix}
\begin{pmatrix}
1 & 1 & -1 \\
-1 & 1 & 2\\
1& 1 & 1
\end{pmatrix}.

Vous intercalez la matrice de transvection correspondant à l’opération élémentaire $L_2\leftarrow L_2+L_1$ qui est égale à :

\begin{pmatrix}
1 & 0 & 0 \\
1 & 1 & 0\\
0& 0 & 1
\end{pmatrix}.

Cette matrice est inversible et admet pour inverse :

\begin{pmatrix}
1 & 0 & 0 \\
-1 & 1 & 0\\
0& 0 & 1
\end{pmatrix}.

Du coup :

\begin{align*}
A&= \left[
\begin{pmatrix}
1 & 0 & 0 \\
-1 & 1 & 0\\
0& 0 & 1
\end{pmatrix}
\begin{pmatrix}
1 & 0 & 0 \\
1 & 1 & 0\\
0& 0 & 1
\end{pmatrix}
\right]
\begin{pmatrix}
1 & 1 & -1 \\
-1 & 1 & 2\\
1& 1 & 1
\end{pmatrix}
\\
&= \begin{pmatrix}
1 & 0 & 0 \\
-1 & 1 & 0\\
0& 0 & 1
\end{pmatrix}
\left[
\begin{pmatrix}
1 & 0 & 0 \\
1 & 1 & 0\\
0& 0 & 1
\end{pmatrix}
\begin{pmatrix}
1 & 1 & -1 \\
-1 & 1 & 2\\
1& 1 & 1
\end{pmatrix}
\right]
\\
&= \begin{pmatrix}
1 & 0 & 0 \\
-1 & 1 & 0\\
0& 0 & 1
\end{pmatrix}

\begin{pmatrix}
1 & 1 & -1 \\
0 & 2 & 1\\
1& 1 & 1
\end{pmatrix}.

\end{align*}

Ensuite, vous utilisez l’opération élémentaire $L_3\leftarrow L_3-L_1$, les détails seront omis, ils sont similaires à la démarche employée ci-dessus.

\begin{align*}
A &= \begin{pmatrix}
1 & 0 & 0 \\
-1 & 1 & 0\\
0& 0 & 1
\end{pmatrix}

\begin{pmatrix}
1 & 1 & -1 \\
0 & 2 & 1\\
1& 1 & 1
\end{pmatrix}


\\

&= \begin{pmatrix}
1 & 0 & 0 \\
-1 & 1 & 0\\
1& 0 & 1
\end{pmatrix}

\begin{pmatrix}
1 & 1 & -1 \\
0 & 2 & 1\\
0& 0 & 2
\end{pmatrix}
\end{align*}

Notez qu’ici une factorisation $LU$ a été suffisante, ce qui revient à prendre $P$ égale à la matrice identité.

Vous posez :

\begin{align*}
L &= \begin{pmatrix}
1 & 0 & 0 \\
-1 & 1 & 0\\
1& 0 & 1
\end{pmatrix}
\\
U&=
\begin{pmatrix}
1 & 1 & -1 \\
0 & 2 & 1\\
0& 0 & 2
\end{pmatrix}.

\end{align*}

Note. Les matrices $L$ et $U$ sont triangulaires. Elles n’ont aucun coefficient nul sur leur diagonale principale, elles sont donc inversibles. Il en est de même pour la matrice $A.$

Résolvez trois systèmes linéaires

Le but étant de déterminer l’inverse de la matrice $A$, vous introduisez les notations suivantes :

\begin{align*}
E_1 = \begin{pmatrix}1\\0\\0\end{pmatrix} \qquad E_2 = \begin{pmatrix}0\\1\\0\end{pmatrix} \qquad E_3 = \begin{pmatrix}0\\0\\1\end{pmatrix}.
\end{align*}

Premier système

Vous cherchez à trouver $(x_1,x_2,x_3)\in\R^3$ tel que $X = \begin{pmatrix} x_1 \\ x_2 \\ x_3 \end{pmatrix}$ soit solution de :

\begin{align*}
LUX &= E_1 \\
L(UX) &= E1.
\end{align*}

Vous résolvez d’abord le système $LY = E_1$ avec $Y$ défini par $Y= \begin{pmatrix} y_1 \\ y_2 \\ y_3 \end{pmatrix}$ où $(y_1,y_2,y_3)\in \R^3.$

Cela s’écrit :

 \begin{pmatrix}
1 & 0 & 0 \\
-1 & 1 & 0\\
1& 0 & 1
\end{pmatrix}
 \begin{pmatrix} y_1 \\ y_2 \\ y_3 \end{pmatrix}
= 
 \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix}

Cela est équivalent à :

\begin{align*}
y_1 &= 1\\
-y_1+y_2 &=0\\
y_1+y_3 &= 0.
\end{align*}
\begin{align*}
y_1 &= 1\\
y_2 &=1\\
y_3 &= -1.
\end{align*}

D’après ce qui précède, l’équation $LUX = E_1$ est équivalente à :

UX = \begin{pmatrix} 1 \\ 1 \\ -1\end{pmatrix}.

Cela s’écrit :

\begin{align*}
x_1+x_2-x_3 &= 1\\
2x_2+x_3&=1\\
2x_3&=-1
\end{align*}
\begin{align*}
x_1+x_2 &= 1+x_3\\
2x_2&=1-x_3\\
x_3&=-1/2
\end{align*}
\begin{align*}
x_1+x_2 &= 1/2\\
2x_2& = 3/2\\
x_3&=-1/2
\end{align*}
\begin{align*}
x_1 &= 1/2-x_2\\
x_2& = 3/4\\
x_3&=-1/2
\end{align*}
\begin{align*}
x_1 &= -1/4\\
x_2& = 3/4\\
x_3&=-1/2.
\end{align*}

La première colonne de $A^{-1}$ est :

\begin{pmatrix}
-1/4 \\
3/4 \\
-1/2
\end{pmatrix}.

Deuxième système

Vous cherchez à trouver $(x_1,x_2,x_3)\in\R^3$ tel que $X = \begin{pmatrix} x_1 \\ x_2 \\ x_3 \end{pmatrix}$ soit solution de :

\begin{align*}
LUX &= E_2.
\end{align*}

Vous résolvez d’abord le système $LY = E_2$ avec $Y$ défini par $Y= \begin{pmatrix} y_1 \\ y_2 \\ y_3 \end{pmatrix}$ où $(y_1,y_2,y_3)\in \R^3.$

 \begin{pmatrix}
1 & 0 & 0 \\
-1 & 1 & 0\\
1& 0 & 1
\end{pmatrix}
 \begin{pmatrix} y_1 \\ y_2 \\ y_3 \end{pmatrix}
= 
 \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix}

Vous trouvez ce qui suit :

\begin{align*}
y_1 &= 0\\
y_2 &=1\\
y_3 &= 0.
\end{align*}

Vous déduisez qu’il vous reste à résoudre :

UX = \begin{pmatrix} 0 \\ 1 \\ 0\end{pmatrix}.
\begin{align*}
x_1+x_2-x_3 &= 0\\
2x_2+x_3&=1\\
2x_3&=0
\end{align*}
\begin{align*}
x_1+x_2 &= 0\\
2x_2&=1\\
x_3&=0
\end{align*}
\begin{align*}
x_1 &= -x_2\\
x_2&=1/2\\
x_3&=0
\end{align*}
\begin{align*}
x_1 &= -1/2\\
x_2&=1/2\\
x_3&=0.
\end{align*}

La deuxième colonne de $A^{-1}$ est :

\begin{pmatrix}
-1/2 \\
1/2\\
0
\end{pmatrix}.

Troisième système

Vous cherchez à trouver $(x_1,x_2,x_3)\in\R^3$ tel que $X = \begin{pmatrix} x_1 \\ x_2 \\ x_3 \end{pmatrix}$ soit solution de :

\begin{align*}
LUX &= E_3.
\end{align*}

Vous résolvez d’abord le système $LY = E_3$ avec $Y$ défini par $Y= \begin{pmatrix} y_1 \\ y_2 \\ y_3 \end{pmatrix}$ où $(y_1,y_2,y_3)\in \R^3.$

 \begin{pmatrix}
1 & 0 & 0 \\
-1 & 1 & 0\\
1& 0 & 1
\end{pmatrix}
 \begin{pmatrix} y_1 \\ y_2 \\ y_3 \end{pmatrix}
= 
 \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix}
\begin{align*}
y_1 &= 0\\
y_2 &=0\\
y_3 &= 1.
\end{align*}

Vous déduisez qu’il vous reste à résoudre :

UX = \begin{pmatrix} 0 \\ 0 \\ 1\end{pmatrix}.
\begin{align*}
x_1+x_2-x_3 &= 0\\
2x_2+x_3&=0\\
2x_3&=1
\end{align*}
\begin{align*}
x_1+x_2 &= x_3\\
2x_2&=-x_3\\
x_3&=1/2
\end{align*}
\begin{align*}
x_1+x_2 &= 1/2\\
2x_2&=-1/2\\
x_3&=1/2
\end{align*}
\begin{align*}
x_1 &= 1/2-x_2\\
x_2&=-1/4\\
x_3&=1/2
\end{align*}
\begin{align*}
x_1 &= 3/4\\
x_2&=-1/4\\
x_3&=1/2.
\end{align*}

La troisième colonne de $A^{-1}$ est :

\begin{pmatrix}
3/4 \\
-1/4\\
1/2
\end{pmatrix}.

Application : la matrice inverse de $A$

La matrice $A$ est inversible et son inverse est égale à :

A^{-1} = \begin{pmatrix}
-1/4 & -1/2 & 3/4\\
3/4 & 1/2& -1/4\\
-1/2& 0 & 1/2
\end{pmatrix}.

275. Factorisez une matrice en utilisant la décomposition PLU (1/2)

Il a été établi dans le contenu se trouvant dans l'article 083 qu’une matrice $A$ inversible admet une décomposition $LU$ si et seulement si tous ses mineurs principaux sont inversibles.

Dans cet article vous mettrez en évidence une méthode qui généralise cette factorisation à condition d’y rajouter une matrice $P$ dite de permutation, lorsque la condition sur les mineurs n’est pas satisfaite.

L’échec de la décomposition $LU$ pour certaines matrices

Pour illustrer la situation, vous allez vérifier que la matrice suivante :

A= \begin{pmatrix}
1 & 2 & 2\\
2 & 4 & -1\\
1 & -1 & 1
\end{pmatrix}

n’admet pas de décomposition $LU.$

Note. Cela est causé par la défaillance du mineur principal d’ordre $2$ qui est nul :

\begin{vmatrix}
1 & 2 \\
2 & 4
\end{vmatrix} = 4\times 1-2\times 2=0.

Raisonnez par l’absurde en supposant qu’il existe neuf nombres réels $\ell_{21}$, $\ell_{31}$, $\ell_{32}$, $u_{11}$, $u_{12}$, $u_{13}$, $u_{22}$, $u_{23}$ et $u_{33}$, de sorte que $A$ s’écrive sous la forme $A=LU$ avec :

L= \begin{pmatrix}
1 & 0 & 0\\
\ell_{21} & 1 & 0\\
\ell_{31} & \ell_{32} & 1
\end{pmatrix}

et

U= \begin{pmatrix}
u_{11}& u_{12} & u_{13}\\
0 & u_{22} & u_{23}\\
0 & 0 & u_{33}
\end{pmatrix}.

Le calcul de la première ligne de $L$ avec la première colonne de $U$ fournit $u_{11} = 1.$

Le calcul de la première ligne de $L$ avec la deuxième colonne de $U$ fournit $u_{12} = 2.$

Le calcul de la deuxième ligne de $L$ avec la première colonne de $U$ fournit $\ell_{21}u_{11} = 2$ soit $\ell_{21} = 2.$

Le calcul de la deuxième ligne de $L$ avec la deuxième colonne de $U$ fournit $\ell_{21}u_{12}+u_{22} = 4$ soit $u_{22} = 0.$

A ce stade il a été montré que :

L= \begin{pmatrix}
1 & 0 & 0\\
2 & 1 & 0\\
\ell_{31} & \ell_{32} & 1
\end{pmatrix}

et

U= \begin{pmatrix}
1&2 & u_{13}\\
0 & 0 & u_{23}\\
0 & 0 & u_{33}
\end{pmatrix}.

Le calcul de la première ligne de $L$ avec la troisième colonne de $U$ fournit $u_{13} = 2.$

Le calcul de la deuxième ligne de $L$ avec la troisième colonne de $U$ fournit $2u_{13} +u_{23}= -1$ soit $u_{23}= -5.$

Le calcul de la troisième ligne de $L$ avec la première colonne de $U$ fournit $\ell_{31}= 1.$

Ainsi vous avez obtenu :

L= \begin{pmatrix}
1 & 0 & 0\\
2 & 1 & 0\\
1 & \ell_{32} & 1
\end{pmatrix}

et

U= \begin{pmatrix}
1&2 & 2\\
0 & 0 & -5\\
0 & 0 & u_{33}
\end{pmatrix}.

Le calcul de la troisième ligne de $L$ avec la deuxième colonne de $U$ fournit $2\ell_{31}= -1$ soit $2 = -1$, contradiction.

Déterminez une factorisation $PLU$ de la matrice $A$

Obtention de la première colonne de la matrice $U$

Le coefficient de $A$ situé à la première ligne et à la première colonne est non nul, vous le choisissez comme pivot, que vous encadrez :

A= \begin{pmatrix}
\boxed{1} & 2 & 2\\
2 & 4 & -1\\
1 & -1 & 1
\end{pmatrix}.

Vous effectuez l’opération élémentaire $L_2\leftarrow L_2-2L_1$ sur la matrice $A$ et vous obtenez la matrice :

 \begin{pmatrix}
\boxed{1} & 2 & 2\\
0 & 0 & -5\\
1 & -1 & 1
\end{pmatrix}

Cette opération élémentaire sur les lignes se traduit par une multiplication de $A$ à gauche par une matrice de transvection :

 \begin{pmatrix}
1 & 0 & 0\\
-2 & 1 & 0\\
0 & 0 & 1
\end{pmatrix} A= \begin{pmatrix}
\boxed{1} & 2 & 2\\
0 & 0 & -5\\
1 & -1 & 1
\end{pmatrix}

Note. Pour plus d’informations sur cette opération, vous pouvez vous référer au contenu écrit dans l'article 274.

L’élimination de la matrice de transvection s’effectue en multipliant par une matrice qui représente l’opération élémentaire réciproque de cette transvection qui est $L_2\leftarrow L_2+2L_1.$ Vous multipliez l’égalité précédente à gauche par la matrice $\begin{pmatrix}1 & 0 & 0\\2 & 1 & 0\\0 & 0 & 1\end{pmatrix}$ :

\begin{pmatrix}
1 & 0 & 0\\
2 & 1 & 0\\
0 & 0 & 1
\end{pmatrix}
 \begin{pmatrix}
1 & 0 & 0\\
-2 & 1 & 0\\
0 & 0 & 1
\end{pmatrix} A=\begin{pmatrix}
1 & 0 & 0\\
2 & 1 & 0\\
0 & 0 & 1
\end{pmatrix}
 \begin{pmatrix}
\boxed{1} & 2 & 2\\
0 & 0 & -5\\
1 & -1 & 1
\end{pmatrix}.

Or, le produit :

\begin{pmatrix}
1 & 0 & 0\\
2 & 1 & 0\\
0 & 0 & 1
\end{pmatrix}
 \begin{pmatrix}
1 & 0 & 0\\
-2 & 1 & 0\\
0 & 0 & 1
\end{pmatrix}

est égal à la matrice identité.

Ainsi :

A=\begin{pmatrix}
1 & 0 & 0\\
2 & 1 & 0\\
0 & 0 & 1
\end{pmatrix}
 \begin{pmatrix}
\boxed{1} & 2 & 2\\
0 & 0 & -5\\
1 & -1 & 1
\end{pmatrix}.

Vous utilisez le même pivot afin de poursuivre la factorisation de la matrice $A$ :

Vous effectuez l’opération élémentaire $L_3\leftarrow L_3-L_1$ sur la matrice où le pivot est encadré et vous obtenez, en suivant la même démarche que celle explicitée ci-dessus :

 \begin{pmatrix}
\boxed{1} & 2 & 2\\
0 & 0 & -5\\
1 & -1 & 1
\end{pmatrix}
=   \begin{pmatrix}
1 & 0 & 0\\
0 & 1 & 0\\
1 & 0 & 1
\end{pmatrix}\begin{pmatrix}
\boxed{1} & 2 & 2\\
0 & 0 & -5\\
0 & -3 & -1
\end{pmatrix}.

Ainsi, tout se passe bien, le produit de deux matrices triangulaires inférieures étant lui-même une matrice triangulaire inférieure :

\begin{align*}
A&=\begin{pmatrix}
1 & 0 & 0\\
2 & 1 & 0\\
0 & 0 & 1
\end{pmatrix}
\left[ \begin{pmatrix}
1 & 0 & 0\\
0 & 1 & 0\\
1 & 0 & 1
\end{pmatrix}\begin{pmatrix}
\boxed{1} & 2 & 2\\
0 & 0 & -5\\
0 & -3 & -1
\end{pmatrix}\right] \\
&=\left[\begin{pmatrix}
1 & 0 & 0\\
2 & 1 & 0\\
0 & 0 & 1
\end{pmatrix}
 \begin{pmatrix}
1 & 0 & 0\\
0 & 1 & 0\\
1 & 0 & 1
\end{pmatrix}\right]\begin{pmatrix}
\boxed{1} & 2 & 2\\
0 & 0 & -5\\
0 & -3 & -1
\end{pmatrix}\\
&=\begin{pmatrix}
1 & 0 & 0\\
2 & 1 & 0\\
1 & 0 & 1
\end{pmatrix}
\begin{pmatrix}
\boxed{1} & 2 & 2\\
0 & 0 & -5\\
0 & \boxed{-3} & -1
\end{pmatrix}.
\end{align*}

Le second pivot, $-3$, est mal positionné. Il va donc falloir utiliser une permutation des lignes $2$ et $3$ de la matrice $\begin{pmatrix}\boxed{1} & 2 & 2\\0 & 0 & -5\\0 & \boxed{-3} & -1\end{pmatrix}.$

Notez $P$ la matrice de permutation suivante qui correspond à l’échange des lignes $2$ et $3$ à partir de la matrice identité :

P = \begin{pmatrix}
1 & 0 & 0\\
0 & 0 & 1\\
0 & 1 & 0
\end{pmatrix}.

Vous avez :

P \begin{pmatrix}
\boxed{1} & 2 & 2\\
0 & 0 & -5\\
0 & \boxed{-3} & -1
\end{pmatrix} = \begin{pmatrix}
\boxed{1} & 2 & 2\\
0 & \boxed{-3} & -1\\
0 & 0 & -5
\end{pmatrix}.

Comme $P$ est involutive ($P ^2$ est la matrice identité), vous multipliez l’égalité précédente à gauche par $P$ et vous obtenez :

\begin{pmatrix}
\boxed{1} & 2 & 2\\
0 & 0 & -5\\
0 & \boxed{-3} & -1
\end{pmatrix} = P \begin{pmatrix}
\boxed{1} & 2 & 2\\
0 & \boxed{-3} & -1\\
0 & 0 & \boxed{-5}
\end{pmatrix}.

Du coup, vous avez obtenu :

\begin{align*}
A
&=\begin{pmatrix}
1 & 0 & 0\\
2 & 1 & 0\\
1 & 0 & 1
\end{pmatrix}
\begin{pmatrix}
\boxed{1} & 2 & 2\\
0 & 0 & -5\\
0 & \boxed{-3} & -1
\end{pmatrix} \\
&=\begin{pmatrix}
1 & 0 & 0\\
2 & 1 & 0\\
1 & 0 & 1
\end{pmatrix} P \begin{pmatrix}
\boxed{1} & 2 & 2\\
0 & \boxed{-3} & -1\\
0 & 0 & \boxed{-5}
\end{pmatrix}.
\end{align*}

Eliminez la difficulté

Le problème a priori, c’est que :

\begin{pmatrix}
1 & 0 & 0\\
2 & 1 & 0\\
1 & 0 & 1
\end{pmatrix} P  = \begin{pmatrix}
1 & 0 & 0\\
2 & 0 & 1\\
1 & 1 & 0
\end{pmatrix}.

En effet, la multiplication à droite par $P$ revient à effectuer l’opération élémentaire $C_2\leftrightarrow C_3$ qui se passe sur les colonnes.

Ainsi, la matrice triangulaire inférieure semble être perdue :

\begin{align*}
A
&=\begin{pmatrix}
1 & 0 & 0\\
2 & 1 & 0\\
1 & 0 & 1
\end{pmatrix} P \begin{pmatrix}
\boxed{1} & 2 & 2\\
0 & \boxed{-3} & -1\\
0 & 0 & \boxed{-5}
\end{pmatrix}\\
&=  \begin{pmatrix}
1 & 0 & 0\\
2 & 0 & 1\\
1 & 1 & 0
\end{pmatrix}\begin{pmatrix}
\boxed{1} & 2 & 2\\
0 & \boxed{-3} & -1\\
0 & 0 & \boxed{-5}
\end{pmatrix}.
\end{align*}

Pour retrouver une matrice triangulaire inférieure, une solution consiste à multiplier l’égalité précédente par $P$ à gauche.

\begin{align*}
PA
&=  P \begin{pmatrix}
1 & 0 & 0\\
2 & 0 & 1\\
1 & 1 & 0
\end{pmatrix}\begin{pmatrix}
\boxed{1} & 2 & 2\\
0 & \boxed{-3} & -1\\
0 & 0 & \boxed{-5}
\end{pmatrix} \\
&=  \begin{pmatrix}
1 & 0 & 0\\
1 & 1 & 0\\
2 & 0 & 1
\end{pmatrix}\begin{pmatrix}
\boxed{1} & 2 & 2\\
0 & \boxed{-3} & -1\\
0 & 0 & \boxed{-5}
\end{pmatrix}.
\end{align*}

Concluez

Vous avez obtenu $PA = LU$ avec :

\begin{align*}
P &= \begin{pmatrix}
1 & 0 & 0\\
0 & 0 & 1\\
0 & 1 & 0
\end{pmatrix}\\
L &= \begin{pmatrix}
1 & 0 & 0\\
1 & 1 & 0\\
2 & 0 & 1
\end{pmatrix}\\
U &= \begin{pmatrix}
1 & 2 & 2\\
0 & -3 & -1\\
0 & 0 & -5
\end{pmatrix}.
\end{align*}

Comme $P$ est involutive, vous obtenez au final, après multiplication à gauche par $P$ :

\boxed{A=PLU.}

Prolongements

La factorisation $PLU$ peut être utilisée afin de choisir le pivot d’une colonne ayant la plus forte valeur absolue afin de réduire les erreurs d’arrondis et la stabilité numérique. Cela s’appelle la méthode du pivot partiel.

Quitte à rajouter une matrice $Q$ de permutation à droite, la matrice $A$ peut se factoriser sous la forme $PLUQ$ où à chaque étape, le pivot est choisi parmi l’ensemble des coefficients situés dans le coin inférieur droit ayant le maximum de valeur absolue. Cela s’appelle la méthode du pivot global.

274. Effectuer une opération élémentaire de transvection sur une ligne d’une matrice revient à la multiplier à gauche par une matrice élémentaire de transvection (3/3)

Cet article s’inscrit dans le prolongement du contenu que vous trouverez dans l'article 273 et dans l'article 272.

Effet des matrices élémentaires de troisième type, dites de transvection

Fixez un scalaire $\lambda\in\K$. Soient $k$ et $\ell$ deux éléments de l’ensemble $\llbracket 1, n \rrbracket$ de sorte que $k\neq \ell.$

Par définition de la matrice $I$, vous avez :

I = \sum_{m=1}^n F_{mm}.

Vous séparez la ligne de la somme, pour obtenir :

I = F_{kk} + \sum_{m\in\llbracket 1, n\rrbracket \setminus \{k\}} F_{mm}.

On appelle matrice de transvection $J$ la matrice obtenue à partir de la matrice $I$, pour laquelle vous remplacez la ligne $k$ par la somme de la ligne $k$ et de la ligne $\ell$ multipliée par $\lambda.$ Cette opération est notée : $L_k \leftarrow L_k+\lambda L_{\ell}.$

Ainsi :

J = F_{kk} + \lambda F_{k \ell} + \sum_{m\in\llbracket 1, n\rrbracket \setminus \{k\}} F_{mm}.

Vous allez maintenant montrer que la matrice $JA$ est la matrice $A$ qui subit l’opération élémentaire $L_k \leftarrow L_k+\lambda L_{\ell}.$

\begin{align*}
JA &= \left( F_{kk} + \lambda F_{k \ell} + \sum_{m\in\llbracket 1, n\rrbracket \setminus \{k\}} F_{mm} \right)
\left( \sum_{\substack{1\leq i \leq n \\ 1\leq j \leq p} } a_{ij} E_{ij} \right) \\
&= \sum_{\substack{1\leq i \leq n \\ 1\leq j \leq p} } a_{ij} F_{kk}E_{ij}
+ \sum_{\substack{1\leq i \leq n \\ 1\leq j \leq p} } \lambda a_{ij} F_{k \ell}E_{ij}
+\sum_{m\in\llbracket 1, n\rrbracket \setminus \{k\}}  \sum_{\substack{1\leq i \leq n \\ 1\leq j \leq p} } a_{ij} F_{mm}E_{ij}\\
&=  \sum_{\substack{1\leq j \leq p} } a_{kj} F_{kk}E_{kj}
+ \sum_{\substack{ 1\leq j \leq p} } \lambda a_{\ell j} F_{k \ell}E_{\ell j}
+ \sum_{m\in\llbracket 1, n\rrbracket \setminus \{k\}}  \sum_{\substack{ 1\leq j \leq p} } a_{mj} F_{mm}E_{mj}\\
&=  \sum_{\substack{1\leq j \leq p} } a_{kj} E_{kj}
+  \sum_{\substack{ 1\leq j \leq p} } \lambda a_{\ell j} E_{k j}
+  \sum_{m\in\llbracket 1, n\rrbracket \setminus \{k\}}  \sum_{\substack{ 1\leq j \leq p} } a_{mj} E_{mj}\\
&= \sum_{\substack{1\leq j \leq p} } (a_{kj} +\lambda a_{\ell j})E_{kj}
+  \sum_{m\in\llbracket 1, n\rrbracket \setminus \{k\}}  \sum_{\substack{ 1\leq j \leq p} } a_{mj} E_{mj}.
\end{align*}

Cette dernière expression montre que les coefficients situés à la ligne $k$ de $JA$ sont ceux de la ligne $k$ de la matrice $A$ ajoutés à $\lambda$ fois ceux de la ligne $\ell$ de $A.$
D’autre part, quel que soit $m\in\llbracket 1, n\rrbracket \setminus \{k\}$ les lignes numéro $m$ des matrices $A$ et $JA$ ont les mêmes coefficients.

Concluez

Quels que soient $k$ et $\ell$ deux éléments de l’ensemble $\llbracket 1, n \rrbracket$ tels que $k\neq \ell$, quel que soit le scalaire $\lambda$, effectuer l’opération élémentaire $L_k \leftarrow L_k+\lambda L_{\ell}$ sur les lignes de la matrice $A$ revient à la multiplier à gauche par une matrice de transvection qui s’obtient en appliquant la même opération élémentaire sur les lignes de la matrice identité.

Visualisez cette propriété sur un exemple

Soit $A$ la matrice définie par :

A=\begin{pmatrix}1 & 1 & 2 & 1 \\
0 & 1 & 1 & 2 \\ 2 & 1 & 1  & 1\end{pmatrix}.

Comme vous souhaitez multiplier $A$ à gauche, vous formez la matrice identité d’ordre $3$ :

I=\begin{pmatrix}1 & 0 &  0 \\
0 & 1 & 0  \\ 0 & 0 & 1 \end{pmatrix}.

La ligne $1$ est :

L_1 =  \begin{pmatrix}1 & 0 & 0\end{pmatrix}.

La ligne $3$ est :

L_3 =  \begin{pmatrix}0 & 0 & 1\end{pmatrix}.

Ainsi :

\begin{align*}
L_1+2L_3 &=  \begin{pmatrix}1 & 0 & 0\end{pmatrix} + 2  \begin{pmatrix}0 & 0 & 1\end{pmatrix}\\
&=  \begin{pmatrix}1 & 0 & 0\end{pmatrix} +  \begin{pmatrix}0 & 0 & 2\end{pmatrix}\\
&=  \begin{pmatrix}1 & 0 & 2\end{pmatrix}.
\end{align*}

Effectuez l’opération élémentaire $L_1 \leftarrow L_1+2L_3$ sur la matrice $I$ vous obtenez la matrice $J$ suivante :

J=\begin{pmatrix}1 & 0 &  2 \\
0 & 1 & 0  \\ 0 & 0 & 1 \end{pmatrix}.

Effectuez le produit matriciel $JA.$

\begin{align*}
JA&=\begin{pmatrix}1 & 0 &  2 \\
0 & 1 & 0  \\ 0 & 0 & 1 \end{pmatrix}
 \begin{pmatrix}1 & 1 & 2 & 1 \\
0 & 1 & 1 & 2 \\ 2 & 1 & 1  & 1\end{pmatrix}  \\
&=\begin{pmatrix}5 & 3 & 4 & 3 \\
0 & 1 & 1 & 2 \\ 2 & 1 & 1  & 1\end{pmatrix}.
\end{align*}

Pour la matrice $A$ vous avez :

\begin{align*}
L_1 &=  \begin{pmatrix}1 & 1 & 2 & 1\end{pmatrix}\\
L_3 &=  \begin{pmatrix}2 & 1 & 1 & 1\end{pmatrix}.
\end{align*}

Ainsi :

\begin{align*}
L_1+2L_3 &=  \begin{pmatrix}1 & 1 & 2 & 1\end{pmatrix} + 2 \begin{pmatrix}2 & 1 & 1 & 1\end{pmatrix}\\
&=  \begin{pmatrix}1 & 1 & 2 & 1\end{pmatrix} +  \begin{pmatrix}4 & 2 & 2 & 2\end{pmatrix}\\
&=  \begin{pmatrix}5 & 3 & 4 & 3\end{pmatrix}.
\end{align*}

En effectuant l’opération élémentaire $L_1 \leftarrow L_1+2L_3$ sur la matrice $A$ vous obtenez la matrice :

\begin{pmatrix}5 & 3 & 4 & 3 \\
0 & 1 & 1 & 2 \\ 2 & 1 & 1  & 1\end{pmatrix}.

Or cette matrice est précisément celle obtenue par le calcul du produit $JA.$

273. Effectuer une opération élémentaire de dilatation sur une ligne d’une matrice revient à la multiplier à gauche par une matrice élémentaire de dilatation (2/3)

Cet article utilise les mêmes notations que celles qui se trouvent au sein du contenu que vous trouverez dans l'article 272.

Effet des matrices élémentaires de deuxième type, dites de dilatation

Soient $k$ un élément de l’ensemble $\llbracket 1, n \rrbracket$ et $\lambda\in\K^{*}.$

Par définition de la matrice identité $I$, vous avez :

I = \sum_{m=1}^n F_{mm}.

Vous séparez la ligne $k$ du reste de la somme

I = F_{kk} + \sum_{m\in\llbracket 1, n\rrbracket \setminus \{k\}} F_{mm}.

On appelle matrice de dilatation $J$ de la ligne $k$ par le scalaire $\lambda$ où $\lambda \neq 0$, la matrice $I$ qui subit elle-même la multiplication de la ligne $k$ par le scalaire $\lambda.$

Ainsi :

J = \lambda F_{kk} + \sum_{m\in\llbracket 1, n\rrbracket \setminus \{k\}} F_{mm}.

Vous allez maintenant montrer que la matrice $JA$ est la matrice $A$ qui subit la multiplication de sa ligne $k$ avec le scalaire $\lambda.$

\begin{align*}
JA &= \left( \lambda F_{kk} + \sum_{m\in\llbracket 1, n\rrbracket \setminus \{k\}} F_{mm}\right) 
\left( \sum_{\substack{1\leq i \leq n \\ 1\leq j \leq p} } a_{ij} E_{ij}\right) \\
&= \lambda \sum_{\substack{1\leq i \leq n \\ 1\leq j \leq p} }  a_{ij} F_{kk}E_{ij} 
+ \sum_{m\in\llbracket 1, n\rrbracket \setminus \{k\}} \sum_{\substack{1\leq i \leq n \\ 1\leq j \leq p} }  a_{ij}F_{mm}E_{ij} \\
&=  \lambda \sum_{\substack{ 1\leq j \leq p} }  a_{kj} F_{kk}E_{kj} 
+ \sum_{m\in\llbracket 1, n\rrbracket \setminus \{k\}} \sum_{\substack{ 1\leq j \leq p} }  a_{mj}F_{mm}E_{mj} \\
&=  \lambda \sum_{\substack{ 1\leq j \leq p} }  a_{kj} E_{kj} 
+ \sum_{m\in\llbracket 1, n\rrbracket \setminus \{k\}} \sum_{\substack{ 1\leq j \leq p} }  a_{mj}E_{mj} \\
&=  \sum_{\substack{ 1\leq j \leq p} } ( \lambda a_{kj} ) E_{kj} 
+ \sum_{m\in\llbracket 1, n\rrbracket \setminus \{k\}} \sum_{\substack{ 1\leq j \leq p} }  a_{mj}E_{mj}.
\end{align*}

Cette dernière expression montre que les coefficients situés à la ligne $k$ de $JA$ sont ceux de la ligne $k$ de la matrice $A$ multipliés par $\lambda.$
D’autre part, quel que soit $m\in\llbracket 1, n\rrbracket \setminus \{k\}$ les lignes numéro $m$ des matrices $A$ et $JA$ comportent les mêmes coefficients.

Concluez

Quel que soit $k$ un élément de l’ensemble $\llbracket 1, n \rrbracket$ et quel que soit $\lambda\in\K^{*}$ multiplier la ligne $k$ de la matrice $A$ par $\lambda$ revient à la multiplier à gauche par une matrice élémentaire de dilatation, cette matrice s’obtenant en faisant subir à la matrice identité $I$ la même opération que celle effectuée sur $A.$

Visualisez cette propriété sur un exemple

Soit $A$ la matrice définie par :

A=\begin{pmatrix}1 & 1 & 2 & 1 \\
0 & 1 & 1 & 2 \\ 2 & 1 & 1  & 1\end{pmatrix}.

Comme vous souhaitez multiplier $A$ à gauche, vous formez la matrice identité d’ordre $3$ :

I=\begin{pmatrix}1 & 0 &  0 \\
0 & 1 & 0  \\ 0 & 0 & 1 \end{pmatrix}.

Vous multipliez la lignes $3$ de la matrice $I$ par $-2$, vous obtenez la matrice $J$ suivante :

J=\begin{pmatrix}1 & 0 &  0 \\
0 & 1 & 0  \\ 0 & 0 & -2 \end{pmatrix}.

Effectuez le produit matriciel $JA.$

\begin{align*}
JA&=\begin{pmatrix}1 & 0 &  0 \\
0 & 1 & 0  \\ 0 & 0 & -2 \end{pmatrix} \begin{pmatrix}1 & 1 & 2 & 1 \\
0 & 1 & 1 & 2 \\ 2 & 1 & 1  & 1\end{pmatrix}  \\
&=\begin{pmatrix}1 & 1  & 2 & 1 \\ 0 & 1 & 1 & 2 \\ -4 & -2 & -2 & -2\end{pmatrix}.
\end{align*}

Vous constatez qu’en multipliant la ligne $3$ de la matrice $A$ par $-2$, vous obtenez bien la matrice $JA.$

272. Effectuer une opération élémentaire de permutation sur les lignes d’une matrice revient à la multiplier à gauche par une matrice élémentaire de permutation (1/3)

Soit $n$ un nombre entier supérieur ou égal à $2$ et $p$ un nombre entier supérieur ou égal à $1.$

Vous désignez par $A$ une matrice rectangulaire qui possède $n$ lignes et $p$ colonnes, à coefficients dans un corps $\K.$

Il sera commode de noter $I$ la matrice identité d’ordre $n$ à coefficients dans $\K.$

Il existe ainsi $(a_{ij})_{ \substack{1\leq i \leq n \\ 1\leq j \leq p} }$ tel que :

\left\{
\begin{array}{ll}
\forall i\in \llbracket1, n\rrbracket, \forall j\in \llbracket1, p\rrbracket,  a_{ij}\in\K\\
A = (a_{ij})_{\substack{1\leq i \leq n \\ 1\leq j \leq p} }.
\end{array}\right.

Décomposez la matrice $A$

Quels que soient les entiers $i\in \in \llbracket1, n\rrbracket$ et $j\in \llbracket1, p\rrbracket$ notez $E_{ij}$ la matrice rectangulaire comportant $n$ lignes et $p$ colonnes, dont toutes les lignes sont nulles excepté la ligne numéro $i.$ La ligne numéro $i$ ne comporte que des zéros sauf à la colonne numéro $j$ où elle est égale à $1$, le neutre de $\K$ pour la multiplication.

Autrement dit, $E_{ij}$ ne comporte que des zéros, sauf à la ligne $i$ et à la colonne $j$ où son coefficient vaut $1.$

De ce qui précède, la matrice $A$ s’écrit ainsi :

A = \sum_{\substack{1\leq i \leq n \\ 1\leq j \leq p} } a_{ij} E_{ij}.

Les matrices $F_{k \ell}$

Quels que soient les entiers $k\in \in \llbracket1, n\rrbracket$ et $\ell \in \llbracket1, n\rrbracket$ notez $F_{k \ell}$ la matrice carrée comportant $n$ lignes et $n$ colonnes, dont toutes les lignes sont nulles excepté la ligne numéro $k.$ La ligne numéro $k$ ne comporte que des zéros sauf à la colonne numéro $\ell$ où elle est égale à $1$, le neutre de $\K$ pour la multiplication.

Autrement dit, $F_{k \ell}$ ne comporte que des zéros, sauf à la ligne $k$ et à la colonne $\ell$ où son coefficient vaut $1.$

Multiplication à gauche d’une matrice $E_{ij}$ par une matrice $F_{k \ell}$

Vous êtes amené à vérifier que :

 \forall k\in \llbracket 1, n\rrbracket, \forall \ell\in \llbracket 1, n\rrbracket,   \forall i\in \llbracket 1, n\rrbracket, \forall j\in \llbracket 1, p\rrbracket,  \left\{\begin{array}{ll} F_{k \ell} E_{ij} = E_{kj} &\text{ si } \ell=i\\ F_{k \ell} E_{ij} =0 &\text{ si } \ell \neq i.\end{array}\\\right.

Effet des matrices élémentaires de premier type, dites de permutation

Soient $k$ et $\ell$ deux éléments de l’ensemble $\llbracket 1, n \rrbracket$ de sorte que $k\neq \ell.$

Par définition de la matrice $I$, vous avez :

I = \sum_{m=1}^n F_{mm}.

Vous séparez les lignes $k$ et $\ell$ de la somme, pour obtenir :

I = F_{kk} + F_{\ell\ell} + \sum_{m\in\llbracket 1, n\rrbracket \setminus \{k, \ell\}} F_{mm}.

On appelle matrice de permutation $J$ des lignes $k$ et $\ell$ la matrice $I$ qui subit la permutation de la ligne $k$ et de la ligne $\ell.$

Ainsi :

J = F_{k\ell} + F_{\ell k} + \sum_{m\in\llbracket 1, n\rrbracket \setminus \{k, \ell\}} F_{mm}.

Vous allez maintenant montrer que la matrice $JA$ est la matrice $A$ qui subit la permutation de sa ligne $k$ avec sa ligne $\ell.$

\begin{align*}
JA &= \left(F_{k\ell} + F_{\ell k} + \sum_{m\in\llbracket 1, n\rrbracket \setminus \{k, \ell\}} F_{mm}\right)\left(\sum_{\substack{1\leq i \leq n \\ 1\leq j \leq p} } a_{ij} E_{ij}\right) \\
&= \sum_{\substack{1\leq i \leq n \\ 1\leq j \leq p} } a_{ij} F_{k\ell}E_{ij} 
+ \sum_{\substack{1\leq i \leq n \\ 1\leq j \leq p} } a_{ij} F_{\ell k}E_{ij} 
+ \sum_{\substack{1\leq i \leq n \\ 1\leq j \leq p \\ m\in\llbracket 1, n\rrbracket \setminus \{k, \ell\}}   } a_{ij} F_{mm}E_{ij} \\
&= \sum_{\substack{ 1\leq j \leq p} } a_{\ell j} F_{k\ell}E_{\ell j} 
+ \sum_{ 1\leq j \leq p } a_{kj} F_{\ell k}E_{kj} 
+ \sum_{\substack{ 1\leq j \leq p \\ m\in\llbracket 1, n\rrbracket \setminus \{k, \ell\}}   } a_{mj} F_{mm}E_{mj} \\
&= \sum_{\substack{ 1\leq j \leq p} } a_{\ell j} E_{k j} 
+ \sum_{ 1\leq j \leq p } a_{kj} E_{\ell j} 
+ \sum_{\substack{ 1\leq j \leq p \\ m\in\llbracket 1, n\rrbracket \setminus \{k, \ell\}}   } a_{mj} E_{mj} \\ 

\end{align*}

Cette dernière expression montre que les coefficients situés à la ligne $k$ de $JA$ sont ceux de la ligne $\ell$ de la matrice $A.$
De même les coefficients situés à la ligne $\ell$ de $JA$ sont ceux de la ligne $k$ de la matrice $A.$
D’autre part, quel que soit $m\in\llbracket 1, n\rrbracket \setminus \{k, \ell\}$ les lignes numéro $m$ des matrices $A$ et $JA$ ont les mêmes coefficients.

Concluez

Quels que soient $k$ et $\ell$ deux éléments de l’ensemble $\llbracket 1, n \rrbracket$ tels que $k\neq \ell$, permuter les lignes $k$ et $\ell$ de la matrice $A$ revient à la multiplier à gauche par une matrice élémentaire de permutation, cette matrice s’obtenant en faisant subir à la matrice identité $I$ la même permutation de lignes.

Visualisez cette propriété sur un exemple

Soit $A$ la matrice définie par :

A=\begin{pmatrix}1 & 1 & 2 & 1 \\
0 & 1 & 1 & 2 \\ 2 & 1 & 1  & 1\end{pmatrix}.

Comme vous souhaitez multiplier $A$ à gauche, vous formez la matrice identité d’ordre $3$ :

I=\begin{pmatrix}1 & 0 &  0 \\
0 & 1 & 0  \\ 0 & 0 & 1 \end{pmatrix}.

Vous permutez les lignes $1$ et $2$ de la matrice $I$, vous obtenez la matrice $J$ suivante :

J=\begin{pmatrix}0 & 1 &  0 \\
1 & 0 & 0  \\ 0 & 0 & 1 \end{pmatrix}.

Effectuez le produit matriciel $JA.$

\begin{align*}
JA&=\begin{pmatrix}0 & 1 &  0 \\
1 & 0 & 0  \\ 0 & 0 & 1 \end{pmatrix} \begin{pmatrix}1 & 1 & 2 & 1 \\
0 & 1 & 1 & 2 \\ 2 & 1 & 1  & 1\end{pmatrix}  \\
&=\begin{pmatrix}0 & 1 & 1 & 2 \\
1 & 1 & 2 & 1 \\ 2 & 1 & 1  & 1\end{pmatrix}.
\end{align*}

Vous constatez qu’en permutant les lignes $1$ et $2$ de la matrice $A$, vous obtenez bien $JA.$

271. Une application linéaire et bijective a une bijection réciproque qui est nécessairement linéaire

Dans cet article, $\K$ désigne un corps. Soient $E$ et $F$ deux $\K$-espaces vectoriels.

Supposez qu’il existe une application bijective $f$ allant de $E$ vers $F$ et qui soit linéaire.

Linéarité et bijectivité de l’application $f$

Rappelez-vous que la linéarité de $f$ se traduit par la propriété suivante :

\forall (\lambda, \mu)\in\K^2, \forall (u,v)\in E^2, f(\lambda u+\mu v)=\lambda f(u)+\mu f(v).

Vous allez montrer que la bijection réciproque de $f$, qui sera notée $g$, est aussi linéaire.

Rappelez-vous que, comme $f$ est une bijection :

\forall u'\in F, \exists!u\in E, u'=f(u).

Autrement dit, pour tout $u’\in F$, $g(u’)$ désigne l’unique antécédent par $f$ du vecteur $u’.$ Il vient donc :

\forall u'\in F, f(g(u'))=u'.

Linéarité de l’application $g$

Soit $(\lambda, \mu)\in\K^2$ et soit $(x,y)\in F^2.$

Le vecteur $g(x)$ est l’unique antécédent de $x$ par la fonction $f$, donc $f(g(x))=x.$

Il en va de même pour $g(y)$ qui vérifie l’égalité $f(g(y)) = y.$

Utilisant la linéarité de la fonction $f$, vous obtenez :

\begin{align*}
f(\lambda g(x)+\mu g(y)) &= \lambda f(g(x))+\mu f(g(y)) \\
&= \lambda x + \mu y.
\end{align*}

Il est ainsi prouvé que $\lambda x + \mu y$ admet $\lambda g(x) + \mu g(y)$ pour antécédent par $f.$

Or, le vecteur $\lambda x + \mu y$ appartient à $F.$ Via la fonction $g$, le vecteur $g(\lambda x + \mu y)$ est l’unique antécédent par la fonction $f$ du vecteur $\lambda x + \mu y.$

Ainsi les vecteurs $\lambda g(x) + \mu g(y)$ et $g(\lambda x + \mu y)$ sont deux antécédents par $f$ du vecteur $\lambda x + \mu y.$ Il s’ensuit que :

g(\lambda x + \mu y) = \lambda g(x) + \mu g(y).

Concluez

La bijection réciproque d’une application linéaire est elle-même linéaire. Avec le vocabulaire des espaces vectoriels, cela se reformule ainsi : la bijection réciproque d’un isomorphisme est aussi un isomorphisme.

270. Matrices d’un endomorphisme et conjugaisons

Cet article est le prolongement du contenu se trouvant dans l'article 269.

Il y a été établi que l’application $\varphi$ est un isomorphisme de $\R^3$ vers $\R_2[X]$ qui se déduit de la base $(X^2,X,1)$ choisie pour $\R_2[X].$ Pour rappel, $\varphi$ est définie par :

\forall (a,b,c)\in\R^3, \varphi((a,b,c)) = aX^2+bX+c.

De même, l’application $\psi$ est un isomorphisme de $\R^3$ vers $\R_2[X]$ concernant la base $(X(X-1),X(X-2),(X-1)(X-2)).$ Pour rappel, $\psi$ est définie par :

\forall (a,b,c)\in\R^3, \psi((a,b,c))=aX(X-1)+bX(X-2)+c(X-1)(X-2).

Vous considérez maintenant l’application $f$ suivante :

\begin{array}{cccc}
f: &\R_2[X] & \to & \R_2[X] \\
&P & \mapsto & P+P'
\end{array}

et allez représenter celle-ci par des matrices en fonction des bases choisies.

Montrez que $f$ est un endomorphisme

Comme $f$ a le même espace de départ et d’arrivée qui est un espace vectoriel, il suffit de vérifier que $f$ est linéaire.

Soit $(\lambda, \mu)\in\R^2$ et soit $(P,Q)\in (\R_2[X])^2.$

\begin{align*}
f(\lambda P+\mu Q) &= \lambda P+\mu Q + (\lambda P+\mu Q)'\\
&= \lambda P+\mu Q + \lambda P'+\mu Q'\\
&= \lambda(P+P')+\mu(Q+Q')\\
&= \lambda f(P)+\mu f(Q).
\end{align*}

Ainsi :

\forall(\lambda, \mu)\in\R^2, \forall(P,Q)\in (\R_2[X])^2, f(\lambda P + \mu Q) = \lambda f(P)+\mu f(Q).

L’application $f$ est bien un endomorphisme.

Matrice de $f$ dans la base $(X^2, X, 1)$

Il a été déjà vu plus haut que se donner une base de $\R_2[X]$, c’est choisir un isomorphisme de $\R^3$ vers $\R_2[X].$

En effectuant le choix de la base $(X^2,X,1)$ vous mettez $\R^3$ et $\R_2[X]$ en relation via l’isomorphisme $\varphi.$

Comme des matrices vont être utilisées dans la suite, on conviendra exceptionnellement de confondre une ligne avec sa colonne, autrement on s’autorisera à considérer que :

\R^3 = \left\{\begin{pmatrix} a \\ b \\ c \end{pmatrix}, a\in\R, b\in\R, c\in\R\right\}.

Soit $\begin{pmatrix} a \\ b \\ c \end{pmatrix}$ un élément de $\R^3.$

$\varphi\left( \begin{pmatrix} a \\ b \\ c \end{pmatrix} \right) \in\R_2[X].$

De même, les parenthèses doubles seront omises afin de simplifier les notations. Vous noterez par exemple :

\varphi \begin{pmatrix} a \\ b \\ c \end{pmatrix}   = \varphi\left( \begin{pmatrix} a \\ b \\ c \end{pmatrix} \right).

Il convient de remarquer les résultats suivants.

\begin{align*}

\varphi \begin{pmatrix} a \\ b \\ c \end{pmatrix}  \in\R_2[X] \\

f\left(\varphi \begin{pmatrix} a \\ b \\ c \end{pmatrix} \right) \in\R_2[X] \\

(f\circ \varphi) \begin{pmatrix} a \\ b \\ c \end{pmatrix} \in\R_2[X]

\end{align*}

Notez $\varphi^{-1}$ la bijection réciproque de $\varphi$, qui est aussi un isomorphisme (ce résultat est général, une application linéaire bijective a sa bijection réciproque automatiquement linéaire, allez consulter le contenu se trouvant dans l'article 271) :

\forall (a,b,c)\in\R^3, \varphi^{-1} (aX^2+bX+c) = \begin{pmatrix} a \\ b \\ c \end{pmatrix}.

Alors :

\begin{align*}

\varphi^{-1}\left((f\circ \varphi) \begin{pmatrix} a \\ b \\ c \end{pmatrix}\right) \in\R^3\\

(\varphi^{-1}\circ f\circ \varphi) \begin{pmatrix} a \\ b \\ c \end{pmatrix} \in \R^3. 

\end{align*}

Pour résumer ce processus, si $f$ est un endomorphisme de $\R_2[X]$, l’application $\varphi^{-1}\circ f \circ \varphi$ est un endomorphisme de $\R^3.$

Ce processus est appelé conjugaison.

La matrice $A$ de $f$ dans la base $(X^2,X,1)$ est celle qui va apparaître dans l’écriture matricielle de l’endomorphisme $\varphi^{-1}\circ f \circ \varphi.$

Pour déterminer une telle matrice, il est plus simple de procéder colonne par colonne.

Première colonne de la matrice de $f$

\begin{align*}

\varphi \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix}  &= X^2 \\

f(X^2) &= X^2+2X = 1X^2+2X \\

\varphi^{-1} (X^2+2X) &= \begin{pmatrix} 1 \\ 2 \\ 0 \end{pmatrix} \\


(\varphi^{-1} \circ f \circ \varphi) \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix}&= \begin{pmatrix} 1 \\ 2 \\ 0 \end{pmatrix}.

\end{align*}

La première colonne de la matrice $A$ est $\begin{pmatrix} 1 \\ 2 \\ 0 \end{pmatrix}.$

Deuxième colonne de la matrice de $f$

\begin{align*}

\varphi \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix}  &= X \\

f(X) &= X+1 = 1X+1 \\

\varphi^{-1} (X+1) &= \begin{pmatrix} 0 \\ 1 \\ 1 \end{pmatrix} \\


(\varphi^{-1} \circ f \circ \varphi) \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix}&= \begin{pmatrix} 0 \\ 1 \\ 1 \end{pmatrix}.

\end{align*}

La deuxième colonne de la matrice $A$ est $\begin{pmatrix} 0 \\ 1 \\ 1 \end{pmatrix}.$

Troisième colonne de la matrice de $f$

\begin{align*}

\varphi \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix}  &= 1 \\

f(X) &= 1+0= 1\\

\varphi^{-1} (1) &= \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix} \\


(\varphi^{-1} \circ f \circ \varphi) \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix}&= \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix}.

\end{align*}

La troisième colonne de la matrice $A$ est $\begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix}.$

Écriture de $\varphi^{-1} \circ f \circ \varphi$ sous forme matricielle

Soit $(a,b,c)\in\R^3.$ Utilisant la linéarité de $\varphi$ :

\begin{align*}
\varphi \begin{pmatrix} a \\ b \\ c \end{pmatrix} &= \varphi \left(a \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix}+ b \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix} + c \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix}\right) \\
&= a\ \varphi\begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix} + b\ \varphi \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix} + c\ \varphi \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix}.
\end{align*}

Utilisez maintenant la linéarité de $f$ :

\begin{align*}
f\left(\varphi \begin{pmatrix} a \\ b \\ c \end{pmatrix}\right)
&= a\ f\left(\varphi\begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix} \right)+ b\ f\left(\varphi \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix} \right)+ c\ f\left(\varphi \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix}\right).
\end{align*}

Finissez avec la linéarité de $\varphi^{-1}$ :

\begin{align*}
\varphi^{-1} \left(f\left(\varphi \begin{pmatrix} a \\ b \\ c \end{pmatrix}\right) \right)
&= a\ \varphi^{-1} \left( f\left(\varphi\begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix} \right) \right) + b\ \varphi^{-1} \left(  f\left(\varphi \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix} \right) \right) + c\ \varphi^{-1}  \left( f\left(\varphi \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix}\right) \right).
\end{align*}

Cela s’écrit :

\begin{align*}
(\varphi^{-1} \circ f \circ \varphi)  \begin{pmatrix} a \\ b \\ c \end{pmatrix} &= a\  (\varphi^{-1} \circ f \circ \varphi) \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix} + b\  (\varphi^{-1} \circ f \circ \varphi)\begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix} + c\  (\varphi^{-1} \circ f \circ \varphi)\begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix} \\
&=a \begin{pmatrix} 1 \\ 2 \\ 0 \end{pmatrix} + b \begin{pmatrix} 0 \\ 1 \\ 1 \end{pmatrix} + c \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix} \\
&= \begin{pmatrix} a \\ 2a \\ 0 \end{pmatrix} + \begin{pmatrix} 0 \\ b \\ b \end{pmatrix}+ \begin{pmatrix} 0 \\ 0 \\ c \end{pmatrix}\\
&= \begin{pmatrix} a \\ 2a+b \\ b+c \end{pmatrix}\\
&= \begin{pmatrix} 1 & 0 & 0 \\ 2 & 1 & 0 \\ 0 &1&1 \end{pmatrix} \begin{pmatrix} a\\ b \\ c \end{pmatrix}.
\end{align*}

Concluez pour la matrice de $f$

D’après les calculs précédents, vous avez obtenu que la matrice de $f$ dans la base $(X^2,X,1)$ est égale à :

\boxed{A =  \begin{pmatrix} 1 & 0 & 0 \\ 2 & 1 & 0 \\ 0 &1&1 \end{pmatrix}.}

Matrice de $f$ dans la base $(X(X-1),X(X-2),(X-1)(X-2))$

Vous suivez la même démarche que celle initiée.

Par conjugaison, l’application $\psi^{-1}\circ f \circ \psi$ est un endomorphisme de $\R^3.$

Il a été vu dans l'article 269 que :

\forall (a,b,c)\in\R^3, \psi \left(\frac{4a+2b+c}{2},-a-b-c,\frac{c}{2} \right) = aX^2+bX+c.

Vous déduisez que :

\forall (a,b,c)\in\R^3, \psi^{-1}(aX^2+bX+c) =\left(\frac{4a+2b+c}{2},-a-b-c,\frac{c}{2} \right).

Première colonne de la matrice de $f$

\begin{align*}
\psi \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix}  &= X(X-1) = X^2-X \\
f(X^2-X) &= X^2-X+2X-1 = X^2+X-1 \\
\end{align*}

Compte tenu de l’expression de $\psi^{-1}$ il vient :

\begin{align*}
\psi^{-1} (X^2+X-1) &= \left(\frac{4+2-1}{2},-1-1+1,\frac{-1}{2} \right) \\
&=\left(\frac{5}{2},-1,\frac{-1}{2} \right).
\end{align*}

De ce qui précède, la première colonne de la matrice de $f$ est : $\begin{pmatrix} 5/2 \\ -1 \\ -1/2 \end{pmatrix}.$

Deuxième colonne de la matrice de $f$

\begin{align*}
\psi \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix}  &= X(X-2) = X^2-2X \\
f(X^2-2X) &= X^2-2X+2X-2 = X^2-2 \\
\psi^{-1}(X^2-2)&= \left(\frac{4-2}{2},-1+2,\frac{-2}{2} \right) = \left(1,1,-1\right) .
\end{align*}

La deuxième colonne de la matrice de $f$ est : $\begin{pmatrix} 1 \\ 1 \\ -1 \end{pmatrix}.$

Troisième colonne de la matrice de $f$

\begin{align*}
\psi \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix}  &= (X-1)(X-2) = X^2-3X+2 \\
f(X^2-3X+2) &= X^2-3X+2+2X-3 = X^2-X-1 \\
\psi^{-1}(X^2-X-1)&= \left(\frac{4-2-1}{2},-1+1+1,\frac{-1}{2} \right) =  \left(\frac{1}{2},1,\frac{-1}{2} \right).
\end{align*}

La troisième colonne de la matrice de $f$ est : $\begin{pmatrix} 1/2 \\ 1 \\ -1/2 \end{pmatrix}.$

De ce qui précède, la deuxième colonne de la matrice de $f$ est : $\begin{pmatrix} 1 \\ 1 \\ -1 \end{pmatrix}.$

Concluez pour la matrice de $f$

Vous avez obtenu que la matrice de $f$ dans la base $(X(X-1),X(X-2),(X-1)(X-2))$ est égale à :

\boxed{B =  \begin{pmatrix} 5/2 & 1 & 1/2 \\ -1 & 1 & 1 \\ -1/2 &-1&-1/2 \end{pmatrix}.}

269. Isomorphismes d’espaces vectoriels

Désignez par $\R_2[X]$ l’ensemble des polynômes réels dont le degré est inférieur ou égal à $2.$

\R_2[X]=\{aX^2+bX+c, (a,b,c)\in\R^3\}.

Vous allez constater que $\R_2[X]$ est isomorphe à $\R^3$ et que plusieurs isomorphismes existent entre ces deux espaces vectoriels.

Le choix de la base canonique $(X^2, X, 1)$ de $\R_2[X]$ induit un isomorphisme de $\R^3$ vers $\R_2[X]$

Notez $\varphi$ l’application suivante :

\begin{array}{cccc}
\varphi:&  \R^3 & \to & \R_2[X] \\
&(a,b,c) & \mapsto & aX^2+bX+c.
\end{array}

Linéarité de $\varphi$

Soit $(\lambda,\lambda’)\in\R^2$ et $(u,u’)\in(\R^3)^2.$

Il existe $(a,b,c)\in\R^3$ et $(a’,b’,c’)\in\R^3$ tels que :

\begin{align*}
u&=(a,b,c)\\
u'&=(a',b',c').
\end{align*}

Dès lors :

\begin{align*}
\lambda u +\lambda' u' &= \lambda(a,b,c)+\lambda'(a',b',c')\\
&= (\lambda a, \lambda b, \lambda c)+(\lambda' a', \lambda' b', \lambda' c')\\
&= (\lambda a+\lambda' a', \lambda b+\lambda' b', \lambda c+\lambda' c').
\end{align*}

Alors :

\begin{align*}
\varphi(\lambda u + \lambda' u') &= \varphi((\lambda a+\lambda' a', \lambda b+\lambda' b', \lambda c+\lambda' c')) \\
&=( \lambda a+\lambda' a' ) X^2+( \lambda b+\lambda' b')X+(\lambda c+\lambda' c')\\
&= \lambda(aX^2+bX+c)+\lambda'(a'X^2+b'X+c')\\
&= \lambda \varphi((a,b,c))+ \lambda' \varphi((a',b',c'))\\
&= \lambda \varphi(u)+ \lambda' \varphi(u').
\end{align*}

Il est ainsi démontré que $\varphi$ est linéaire :

\boxed{\forall (\lambda,\lambda')\in\R^2,  \forall (u,u')\in(\R^3)^2, \varphi(\lambda u + \lambda' u')  = \lambda \varphi(u)+ \lambda' \varphi(u').}

Bijectivité de $\varphi$

Soit $P$ un élément de $\R_2[X].$ Par définition de $\R_2[X]$ il existe un triplet $(a,b,c)\in\R^3$ tel que :

\begin{align*}
P &= aX^2+bX+c \\
&= \varphi((a,b,c)).
\end{align*}

Par conséquent l’application $\varphi$ est surjective.

Déterminez maintenant le noyau de $\varphi.$ Soit $u\in\R^3$ tel que $\varphi(u)=0.$

Il existe $(a,b,c)\in\R^3$ tel que $u=(a,b,c)$ et donc :

\begin{align*}
\varphi(u) &=0 \\
\varphi((a,b,c))&=0\\
aX^2+bX+c &= 0
\end{align*}

Et par conséquent tous les coefficients du polynôme $aX^2+bX+c$ sont nuls, donc $u=(0,0,0).$

Comme $\ker \varphi \subset \{(0,0,0)\}$ vous déduisez que $\varphi$, qui est déjà linéaire, est aussi injective.

En résumé $\varphi$ est bien bijective.

Concluez

$\varphi$ est une application linéaire et bijective de $\R^3$ vers $\R_2[X]$, c’est un isomorphisme de $\R^3$ vers $\R_2[X].$

Le choix de la famille $(X(X-1), X(X-2), (X-1)(X-2))$ de $\R_2[X]$ induit un isomorphisme de $\R^3$ vers $\R_2[X]$

Notez $\psi$ l’application suivante :

\begin{array}{cccc}
\psi:&  \R^3 & \to & \R_2[X] \\
&(a,b,c) & \mapsto & aX(X-1)+bX(X-2)+c(X-1)(X-2).
\end{array}

Linéarité de $\psi$

Soit $(\lambda,\lambda’)\in\R^2$ et $(u,u’)\in(\R^3)^2.$

Il existe $(a,b,c)\in\R^3$ et $(a’,b’,c’)\in\R^3$ tels que :

\begin{align*}
u&=(a,b,c)\\
u'&=(a',b',c').
\end{align*}

Il a été vu que :

\lambda u +\lambda' u' = (\lambda a+\lambda' a', \lambda b+\lambda' b', \lambda c+\lambda' c').

Alors :

\begin{align*}
\psi(\lambda u + \lambda' u') &= \psi((\lambda a+\lambda' a', \lambda b+\lambda' b', \lambda c+\lambda' c')) \\
&=( \lambda a+\lambda' a' ) X(X-1)+( \lambda b+\lambda' b')X(X-2)+(\lambda c+\lambda' c')(X-1)(X-2)\\
&= \lambda(aX(X-1)+bX(X-2)+c(X-1)(X-2))+\lambda'(a'X(X-1)+b'X(X-2)+c'(X-1)(X-2))\\
&= \lambda \psi((a,b,c))+ \lambda' \psi((a',b',c'))\\
&= \lambda \psi(u)+ \lambda' \psi(u').
\end{align*}

Il est ainsi démontré que $\psi$ est linéaire :

\boxed{\forall (\lambda,\lambda')\in\R^2,  \forall (u,u')\in(\R^3)^2, \psi(\lambda u + \lambda' u')  = \lambda \psi(u)+ \lambda' \psi(u').}

Injectivité de $\psi$

L’application $\psi$ étant linéaire, il suffit de prouver que son noyau est inclus dans $\{(0,0,0)\}$ pour en déduire qu’elle est injective. Soit $u\in\R^3$ tel que $\psi(u)=0.$

Il existe $(a,b,c)\in\R^3$ tel que $u=(a,b,c)$ et donc :

\begin{align*}
\psi(u) &=0 \\
\psi((a,b,c))&=0\\
aX(X-1)+bX(X-2)+c(X-1)(X-2) &= 0.
\end{align*}

Le polynôme $aX(X-1)+bX(X-2)+c(X-1)(X-2)$ est donc le polynôme nul.

En substituant $X=0$, vous trouvez $c\times (-1)\times (-2) = 0$ donc $c=0.$

En substituant $X=1$, vous trouvez $b\times 1\times (-1) = 0$ donc $b=0.$

En substituant $X=2$, vous trouvez $a\times 2\times 1 = 0$ donc $a=0.$

Comme $\ker \psi \subset \{(0,0,0)\}$ vous déduisez le résultat annoncé.

Surjectivité de $\psi$

Vous voulez démontrer de façon explicite pourquoi tout élément de $\R_2[X]$ admet un antécédent par $\psi.$

Comme $\R_2[X]$ est muni d’une base canonique $(X^2,X,1)$ vous démontrez d’abord que les polynômes $X^2$, $X$ et $1$ ont bien chacun un antécédent par $\psi.$

Recherchez un antécédent de $X^2$

Analyse. Soit $(a,b,c)\in\R^3$ tel que $\psi((a,b,c))=X^2.$

Alors :

aX(X-1)+bX(X-2)+c(X-1)(X-2) = X^2.

En substituant $X=0$, vous trouvez $c\times (-1)\times (-2) = 0$ donc $c=0.$

En substituant $X=1$, vous trouvez $b\times 1\times (-1) = 1$ donc $b=-1.$

En substituant $X=2$, vous trouvez $a\times 2\times 1 = 4$ donc $a=2.$

Synthèse. Posez $u = (2,-1,0).$

Alors :

\begin{align*}
\psi(u) &= 2X(X-1)-X(X-2)+0(X-1)(X-2)\\
&= 2X(X-1)-X(X-2)\\
&=2X^2-2X-X^2+2X\\
&=X^2.
\end{align*}

Ainsi :

\boxed{\psi((2,-1,0)) = X^2.}

Recherchez un antécédent de $X$

Analyse. Soit $(a,b,c)\in\R^3$ tel que $\psi((a,b,c))=X.$

Alors :

aX(X-1)+bX(X-2)+c(X-1)(X-2) = X.

En substituant $X=0$, vous trouvez $c\times (-1)\times (-2) = 0$ donc $c=0.$

En substituant $X=1$, vous trouvez $b\times 1\times (-1) = 1$ donc $b=-1.$

En substituant $X=2$, vous trouvez $a\times 2\times 1 = 2$ donc $a=1.$

Synthèse. Posez $u = (1,-1,0).$

Alors :

\begin{align*}
\psi(u) &= X(X-1)-X(X-2)+0(X-1)(X-2)\\
&= X(X-1)-X(X-2)\\
&=X^2-X-X^2+2X\\
&=X.
\end{align*}

Ainsi :

\boxed{\psi((1,-1,0)) = X.}

Recherchez un antécédent de $1$

Analyse. Soit $(a,b,c)\in\R^3$ tel que $\psi((a,b,c))=1.$

Alors :

aX(X-1)+bX(X-2)+c(X-1)(X-2) = 1.

En substituant $X=0$, vous trouvez $c\times (-1)\times (-2) = 1$ donc $c=\frac{1}{2}.$

En substituant $X=1$, vous trouvez $b\times 1\times (-1) = 1$ donc $b=-1.$

En substituant $X=2$, vous trouvez $a\times 2\times 1 = 1$ donc $a=\frac{1}{2}.$

Synthèse. Posez $u = \left(\frac{1}{2},-1,\frac{1}{2}\right).$

Alors :

\begin{align*}
\psi(u) &= \frac{1}{2}X(X-1)-X(X-2)+\frac{1}{2}(X-1)(X-2)\\
&= \frac{X(X-1)-2X(X-2)+(X-1)(X-2)}{2}\\
&=\frac{X^2-X-2X^2+4X+X^2-2X-X+2}{2}\\
&=\frac{2}{2}\\
&=1.
\end{align*}

Ainsi :

\boxed{\psi\left( \left(\frac{1}{2},-1,\frac{1}{2}\right)\right) = 1.}

Concluez à propos de la surjectivité de $\psi$

Soit $P\in\R_2[X].$ Il existe $(a,b,c)\in\R^3$ tel que $P = aX^2+bX+c.$ Du coup :

\begin{align*}
P &= a\ \psi((2,-1,0)) + b\ \psi((1,-1,0))+c\ \psi\left( \left(\frac{1}{2},-1,\frac{1}{2}\right)\right)\\
&=  \psi\left(a (2,-1,0) + b(1,-1,0)+ c \left(\frac{1}{2},-1,\frac{1}{2}\right) \right)\\
&= \psi\left( (2a,-a,0) + (b,-b,0)+  \left(\frac{c}{2},-c,\frac{c}{2}\right) \right)\\
&= \psi\left( \left(2a+b+\frac{c}{2},-a-b-c,\frac{c}{2} \right) \right)\\
&= \psi\left( \left(\frac{4a+2b+c}{2},-a-b-c,\frac{c}{2} \right) \right).
\end{align*}

Tout polynôme $P$ de $\R_2[X]$ admet au moins un antécédent par $\psi$ qui est bien surjective.

Concluez

$\psi$ est une application linéaire et bijective de $\R^3$ vers $\R_2[X]$, c’est bien un isomorphisme de $\R^3$ vers $\R_2[X].$

Remarque n°1. Comme $((1,0,0), (0,1,0), (0,0,1))$ est une base de $\R^3$ on en déduit par l’isomorphisme $\psi$ que $(\psi(1,0,0), \psi(0,1,0), \psi(0,0,1))$ est une base de $\R_2[X].$

Comme :

\begin{align*}
\psi((1,0,0)) &= X(X-1) \\
\psi((0,1,0)) &= X(X-2) \\
\psi((0,0,1)) &= (X-1)(X-2)
\end{align*}

vous déduisez que la famille $(X(X-1),X(X-2), (X-1)(X-2) )$ est une base de $\R_2[X].$

Remarque n°2. Le choix de la base de trois vecteurs $(X^2,X,1)$ de $\R_2[X]$ induit un isomorphisme $\varphi$ de $\R^3$ vers $\R_2[X].$
De même, le choix d’une autre base de trois vecteurs $(X(X-1), X(X-2), (X-1)(X-2))$ induit un autre isomorphisme $\psi$ de $\R^3$ vers $\R_2[X].$

Les isomorphismes $\varphi$ et $\psi$ sont différents

En effet :

\begin{align*}
\varphi((1,0,0)) &= X^2 \\
\psi((1,0,0)) &= X(X-1) = X^2-X.
\end{align*}

Il en résulte que $\varphi((1,0,0)) \neq \psi((1,0,0))$ et par conséquent $\varphi \neq \psi.$