Votre navigateur n'accepte pas le Javascript.La navigation sur ce site risque de ne pas fonctionner correctement.

292. Inversez la matrice de Hilbert d’ordre 4

L’utilisation des blocs matriciels va vous permettre d’inverser cette matrice.

La méthode explicitée dans le contenu rédigé dans l'article 291 va être reconduite.

Pour rappel, la matrice de Hilbert d’ordre $3$ est définie par :

H_3 = \begin{pmatrix}
1 & \frac{1}{2} & \frac{1}{3}\\
\frac{1}{2} & \frac{1}{3} & \frac{1}{4}\\
\frac{1}{3} & \frac{1}{4} & \frac{1}{5}
\end{pmatrix}.

La matrice $H_3$ est inversible et son inverse est égale à :

H_3^{-1} = \begin{pmatrix}
9 & -36 & 30\\
-36 & 192 & -180\\
30 & -180 & 180
\end{pmatrix}.

Ecrivez la matrice de Hilbert d’ordre $4$

Par définition, la matrice de Hilbert d’ordre $4$ est définie par :

H_4 = \begin{pmatrix}
1 & \frac{1}{2} & \frac{1}{3} & \frac{1}{4}\\
\frac{1}{2} & \frac{1}{3} & \frac{1}{4}& \frac{1}{5}\\
\frac{1}{3} & \frac{1}{4} & \frac{1}{5}& \frac{1}{6}\\
 \frac{1}{4} & \frac{1}{5}& \frac{1}{6}& \frac{1}{7}
\end{pmatrix}.

Vous constatez que celle-ci fait apparaître la matrice $H_3$ dans une écriture par blocs puisque :

H_4 =
\begin{pmatrix}

\begin{array}{ccc|c}
1 & \frac{1}{2} & \frac{1}{3} & \frac{1}{4}\\
\frac{1}{2} & \frac{1}{3} & \frac{1}{4}& \frac{1}{5}\\
\frac{1}{3} & \frac{1}{4} & \frac{1}{5}& \frac{1}{6}\\
\hline
 \frac{1}{4} & \frac{1}{5}& \frac{1}{6}& \frac{1}{7}
\end{array}
\end{pmatrix}.

Vous posez donc :

\left\{
\begin{align*}

C = \begin{pmatrix}
\frac{1}{4}\\
\frac{1}{5}\\
\frac{1}{6}\\
\end{pmatrix}
\\
a = \frac{1}{7}.
\end{align*}
\right.

Ainsi :

H_4 = \begin{pmatrix}

\begin{array}{c|c}
H_3 & C\\
\hline
{}^{t}C & a
\end{array}

\end{pmatrix}.

Déterminez la matrice candidate pour inverser la matrice de Hilbert d’ordre $4$

Tout d’abord, suivant les notations utilisées dans l'article 291, vous calculez :

\begin{align*}

H_3^{-1}C &=  \begin{pmatrix}
9 & -36 & 30\\
-36 & 192 & -180\\
30 & -180 & 180
\end{pmatrix}
\begin{pmatrix}
\frac{1}{4}\\
\frac{1}{5}\\
\frac{1}{6}\\
\end{pmatrix}\\
&=\frac{1}{4}\begin{pmatrix}
9\\
-36\\
30\\
\end{pmatrix}
+
\frac{1}{5}\begin{pmatrix}
-36\\
192\\
-180\\
\end{pmatrix}
+
\frac{1}{6}\begin{pmatrix}
30\\
-180\\
180\\
\end{pmatrix}
\\
&=
\begin{pmatrix}
9/4\\
-9\\
15/2\\
\end{pmatrix}
+
\begin{pmatrix}
-36/5\\
192/5\\
-36\\
\end{pmatrix}
+
\begin{pmatrix}
5\\
-30\\
30\\
\end{pmatrix}
\\
&=
\begin{pmatrix}
45/20\\
-45/5\\
15/2\\
\end{pmatrix}
+
\begin{pmatrix}
-144/20\\
192/5\\
-72/2\\
\end{pmatrix}
+
\begin{pmatrix}
100/20\\
-150/5\\
60/2\\
\end{pmatrix}
\\
&=
\begin{pmatrix}
1/20\\
-3/5\\
3/2\\
\end{pmatrix}.
\end{align*}
\begin{align*}
u &= a - {}^{t}CH_3^{-1}C\\
&= \frac{1}{7}-\begin{pmatrix}
\frac{1}{4} & \frac{1}{5} & \frac{1}{6}
\end{pmatrix}
\begin{pmatrix}
1/20\\
-3/5\\
3/2\\
\end{pmatrix}
\\
&=
\frac{1}{7}-\frac{1}{80}+\frac{3}{25}-\frac{1}{4}.
\end{align*}

Pour ajouter toutes ces fractions, il est possible de calculer le PPCM des quatre dénominateurs. Comme :

\begin{align*}
80 &= 8\times 10\\
&= 16\times 5\\
&=2^4\times 5
\end{align*}

vous déduisez :

\begin{align*}
\mathrm{PPCM}(7, 80, 25, 4) &= 2^4\times 5^2\times 7 \\
&= 80\times 35\\
&= 40 \times 70\\
&=2800.
\end{align*}

Vous obtenez :

\begin{align*}
 u &=\frac{400}{2800}-\frac{35}{2800}+\frac{336}{2800}-\frac{700}{2800}\\
&= \frac{1}{2800}
.\end{align*}

Ainsi :

\boxed{b = \frac{1}{u} = 2800.}

Vous poursuivez avec :

\begin{align*}
D &= -b H_3^{-1}C\\
&=-2800\begin{pmatrix}
1/20\\
-3/5\\
3/2\\
\end{pmatrix}.
\end{align*}

Vous déduisez :

\boxed{D = \begin{pmatrix}
-140\\
 1680\\
- 4200\\
\end{pmatrix}.}

Enfin, vous calculez ce qui suit :

\begin{align*}
K &= H_3^{-1} - (H_3^{-1}C){}^{t}D \\
&= H_3^{-1}- \begin{pmatrix}
1/20\\
-3/5\\
3/2\\
\end{pmatrix}
\begin{pmatrix}
-140 & 1680 & -4200
\end{pmatrix}
\\
&=\begin{pmatrix}
9 & -36 & 30\\
-36 & 192 & -180\\
30 & -180 & 180
\end{pmatrix}
+\begin{pmatrix}
7 & -84 & 210 \\
- 84 & 1008 & -2520\\
210 & -2520 & 6300
\end{pmatrix}.
\end{align*}

D’où :

\boxed{K= \begin{pmatrix}
16 & -120 & 240\\
-120 & 1200&-2700\\
240 & -2700 & 6480
\end{pmatrix}.}

La matrice candidate pour inverser $H_4$ est :

L = \begin{pmatrix}

\begin{array}{c|c}
K & D\\
\hline
{}^{t}D & b
\end{array}

\end{pmatrix} = \begin{pmatrix}
16 & -120 & 240 & -140\\
-120 & 1200&-2700 & 1680\\
240 & -2700 & 6480 & -4200\\
-140 & 1680 & -4200 & 2800
\end{pmatrix}.

Vérifiez que la matrice candidate convient

Calculez la première colonne du produit $H_4L$ :

\begin{align*}
\begin{pmatrix}
1 & \frac{1}{2} & \frac{1}{3} & \frac{1}{4}\\
\frac{1}{2} & \frac{1}{3} & \frac{1}{4}& \frac{1}{5}\\
\frac{1}{3} & \frac{1}{4} & \frac{1}{5}& \frac{1}{6}\\
 \frac{1}{4} & \frac{1}{5}& \frac{1}{6}& \frac{1}{7}
\end{pmatrix}
\begin{pmatrix}
16\\
-120\\
240\\
-140
\end{pmatrix}
&=16\begin{pmatrix}
1\\
\frac{1}{2}\\
\frac{1}{3}\\
\frac{1}{4}
\end{pmatrix}
-120\begin{pmatrix}
\frac{1}{2}\\
\frac{1}{3}\\
\frac{1}{4}\\
\frac{1}{5}
\end{pmatrix}
+240\begin{pmatrix}
\frac{1}{3}\\
\frac{1}{4}\\
\frac{1}{5}\\
\frac{1}{6}
\end{pmatrix}
-140\begin{pmatrix}
\frac{1}{4}\\
\frac{1}{5}\\
\frac{1}{6}\\
\frac{1}{7}
\end{pmatrix}
\\
&=\begin{pmatrix}
16\\
8\\
16/3\\
4
\end{pmatrix}
+
\begin{pmatrix}
-60\\
-40\\
-30\\
-24
\end{pmatrix}
+
\begin{pmatrix}
80\\
60\\
48\\
40
\end{pmatrix}
+
\begin{pmatrix}
-35\\
-28\\
-70/3\\
-20
\end{pmatrix}
\\
&=\begin{pmatrix}
1\\
0\\
-54/3+18\\
0
\end{pmatrix}
\\
&=\begin{pmatrix}
1\\
0\\
0\\
0
\end{pmatrix}.
\end{align*}

Calculez la deuxième colonne du produit $H_4L$ :

\begin{align*}
\begin{pmatrix}
1 & \frac{1}{2} & \frac{1}{3} & \frac{1}{4}\\
\frac{1}{2} & \frac{1}{3} & \frac{1}{4}& \frac{1}{5}\\
\frac{1}{3} & \frac{1}{4} & \frac{1}{5}& \frac{1}{6}\\
 \frac{1}{4} & \frac{1}{5}& \frac{1}{6}& \frac{1}{7}
\end{pmatrix}
\begin{pmatrix}
-120\\1200\\-2700\\1680
\end{pmatrix}
&=-120\begin{pmatrix}
1\\ \frac{1}{2}\\\frac{1}{3}\\\frac{1}{4}
\end{pmatrix}
+1200\begin{pmatrix}
\frac{1}{2}\\\frac{1}{3}\\\frac{1}{4}\\\frac{1}{5}
\end{pmatrix}
-2700\begin{pmatrix}
\frac{1}{3}\\\frac{1}{4}\\\frac{1}{5}\\\frac{1}{6}
\end{pmatrix}
+1680\begin{pmatrix}
\frac{1}{4}\\\frac{1}{5}\\\frac{1}{6}\\\frac{1}{7}
\end{pmatrix}
\\&=\begin{pmatrix}
-120\\ -60 \\-40 \\-30
\end{pmatrix}
+\begin{pmatrix}
600\\400\\300\\240
\end{pmatrix}
+\begin{pmatrix}
-900\\-675\\-540\\-450
\end{pmatrix}
+\begin{pmatrix}
420\\336\\280\\240
\end{pmatrix}
\\
&=\begin{pmatrix}
0\\
1\\
0\\
0
\end{pmatrix}.
\end{align*}

Calculez la troisième colonne du produit $H_4L$ :

\begin{align*}
\begin{pmatrix}
1 & \frac{1}{2} & \frac{1}{3} & \frac{1}{4}\\
\frac{1}{2} & \frac{1}{3} & \frac{1}{4}& \frac{1}{5}\\
\frac{1}{3} & \frac{1}{4} & \frac{1}{5}& \frac{1}{6}\\
 \frac{1}{4} & \frac{1}{5}& \frac{1}{6}& \frac{1}{7}
\end{pmatrix}
\begin{pmatrix}
240\\-2700\\6480\\-4200
\end{pmatrix}
&= 240\begin{pmatrix}
1\\ \frac{1}{2}\\\frac{1}{3}\\\frac{1}{4}
\end{pmatrix}
-2700\begin{pmatrix}
\frac{1}{2}\\\frac{1}{3}\\\frac{1}{4}\\\frac{1}{5}
\end{pmatrix}
+6480\begin{pmatrix}
\frac{1}{3}\\\frac{1}{4}\\\frac{1}{5}\\\frac{1}{6}
\end{pmatrix}
-4200\begin{pmatrix}
\frac{1}{4}\\\frac{1}{5}\\\frac{1}{6}\\\frac{1}{7}
\end{pmatrix}
\\&=
\begin{pmatrix}
240\\120\\80\\60
\end{pmatrix}
+\begin{pmatrix}
-1350\\-900\\-675\\-540
\end{pmatrix}
+\begin{pmatrix}
2160\\ 1620\\1296\\1080
\end{pmatrix}
+\begin{pmatrix}
-1050\\-840\\-700\\-600
\end{pmatrix}
\\
&=\begin{pmatrix}
0\\
0\\
1\\
0
\end{pmatrix}.
\end{align*}

Calculez la quatrième colonne du produit $H_4L$ :

\begin{align*}
\begin{pmatrix}
1 & \frac{1}{2} & \frac{1}{3} & \frac{1}{4}\\
\frac{1}{2} & \frac{1}{3} & \frac{1}{4}& \frac{1}{5}\\
\frac{1}{3} & \frac{1}{4} & \frac{1}{5}& \frac{1}{6}\\
 \frac{1}{4} & \frac{1}{5}& \frac{1}{6}& \frac{1}{7}
\end{pmatrix}
\begin{pmatrix}
-140\\1680\\-4200\\2800
\end{pmatrix}
&= -140\begin{pmatrix}
1\\ \frac{1}{2}\\\frac{1}{3}\\\frac{1}{4}
\end{pmatrix}
+1680\begin{pmatrix}
\frac{1}{2}\\\frac{1}{3}\\\frac{1}{4}\\\frac{1}{5}
\end{pmatrix}
-4200\begin{pmatrix}
\frac{1}{3}\\\frac{1}{4}\\\frac{1}{5}\\\frac{1}{6}
\end{pmatrix}
+2800\begin{pmatrix}
\frac{1}{4}\\\frac{1}{5}\\\frac{1}{6}\\\frac{1}{7}
\end{pmatrix}
\\&=\begin{pmatrix}
-140\\-70\\-140/3\\-35
\end{pmatrix}
+\begin{pmatrix}
840\\560\\420\\336
\end{pmatrix}
+\begin{pmatrix}
-1400\\-1050\\-840\\-700
\end{pmatrix}
+\begin{pmatrix}
700\\560\\1400/3\\400
\end{pmatrix}
\\
&=\begin{pmatrix}
0\\
0\\
1260/3-420\\
1
\end{pmatrix}
\\
&=\begin{pmatrix}
0\\0\\0\\1
\end{pmatrix}.
\end{align*}

Concluez

D’après les calculs effectués, si vous notez $I_4$ la matrice identité d’ordre $4$ :

H_4L = I_4.

En transposant cette égalité, vous obtenez :

{}^{t}L{}^{t}H_4 = I_4.

Or, les matrices $L$ et $H_4$ sont symétriques donc ${}^{t}L = L$ et ${}^{t}H_4 = H_4$ d’où finalement :

H_4L = LH_4 = I_4.

Ce résultat montre que la matrice $H_4$ est inversible et que son inverse est la matrice $L.$

En définitive :

\boxed{H_4^{-1} = \begin{pmatrix}
16 & -120 & 240 & -140\\
-120 & 1200&-2700 & 1680\\
240 & -2700 & 6480 & -4200\\
-140 & 1680 & -4200 & 2800
\end{pmatrix}.}

Prolongement

Il rappelé que pour tout entier $n$ supérieur ou égal à $2$, la matrice de Hilbert d’ordre $n$ est la matrice réelle carrée notée $H_n$ qui est définie par :

\forall (i,j)\in\llbracket1, n\rrbracket, (H_n)_{i,j} = \frac{1}{i+j-1}.

Pourriez-vous démontrer que, pour tout entier $n$ supérieur ou égal à $2$, la matrice $H_n$ est inversible et que son inverse $H_n^{-1}$ est à coefficients entiers ?

291. Inversez les matrices de Hilbert

Pour tout entier $n$ supérieur ou égal à $2$, vous appelez matrice de Hilbert d’ordre $n$ la matrice réelle carrée notée $H_n$ définie par :

\forall (i,j)\in\llbracket1, n\rrbracket, (H_n)_{i,j} = \frac{1}{i+j-1}.

Inversez la matrice $H_2$ en utilisant un système d’équations

Par définition :

H_2 = \begin{pmatrix}
1 & \frac{1}{2}\\
\frac{1}{2} & \frac{1}{3}
\end{pmatrix}.

A ce stade, vous ne savez pas encore que $H_2$ est inversible. Toutefois, si $(e_1,e_2)$ désigne la base canonique de $\R^2$, vous posez :

\left\{
\begin{align*}
f_1 &= e_1 + \frac{1}{2}e_2\\
f_2 &=\frac{1}{2}e_1+\frac{1}{3}e_2.
\end{align*}
\right.

Alors, vous obtenez successivement :

\left\{
\begin{align*}
2f_1 &= 2e_1 + e_2\\
6f_2 &=3e_1+2e_2.
\end{align*}
\right.

Par suite :

\left\{
\begin{align*}
4f_1 &= 4e_1 + 2e_2\\
6f_2 &=3e_1+2e_2.
\end{align*}
\right.

Par différence, il vient :

\boxed{e_1 = 4f_1-6f_2.}

Comme :

e_2 = 2f_1-2e_1

il vient :

\begin{align*}
e_2 &= 2f_1-2(4f_1-6f_2)\\
&=-6f_1+12f_2.
\end{align*}

Du coup :

\boxed{e_2 = -6f_1+12f_2.}

Vous venez de montrer que :

\R^2\subset \mathrm{Vect}(e_1,e_2)\subset \mathrm{Vect}(f_1,f_2) \subset \R^2

donc :

\R^2 = \mathrm{Vect}(f_1,f_2).

La famille $(f_1,f_2)$ est génératrice de $\R^2$ et son nombre de vecteurs est égal à la dimension de $\R^2$ donc $(f_1,f_2)$ est une base de $\R^2.$

La matrice $H_2$ est la matrice de passage de la base $(e_1,e_2)$ vers la base $(f_1,f_2).$ Elle est donc inversible.

La décomposition des vecteurs $e_1$ et $e_2$ sur la base $(f_1,f_2)$ fournit l’expression de $H_2^{-1}$ :

\boxed{H_2^{-1} = \begin{pmatrix}
4 & -6\\
-6 & 12
\end{pmatrix}.}

Inversez la matrice $H_3$ en utilisant des matrices par blocs

La matrice $H_3$ est définie par :

H_3 = \begin{pmatrix}
1 & \frac{1}{2} & \frac{1}{3}\\
\frac{1}{2} & \frac{1}{3} & \frac{1}{4}\\
\frac{1}{3} & \frac{1}{4} & \frac{1}{5}
\end{pmatrix}.

Elle pourrait être inversée par résolution de système aussi.

Cependant, compte tenu du fait que la matrice $H_2$ apparaît dans le bloc supérieur gauche de la matrice $H_3$ une autre approche va être utilisée.

La matrice $H_3$ étant symétrique, vous posez :

\begin{align*}
C &= \begin{pmatrix}
\frac{1}{3}\\
\frac{1}{4}
\end{pmatrix}
\\
a &= \frac{1}{5}.
\end{align*}

Avec ces notations, vous obtenez :

H_3 = \begin{pmatrix}
H_2 & C\\
{}^{t} C & a
\end{pmatrix}.

Soit $I_2$ la matrice identité d’ordre $2$ et $O_2$ la matrice définie par :

O_2 = \begin{pmatrix}
0\\
0
\end{pmatrix}.

Analyse. Supposez que $H_3$ soit inversible. Alors $H_3^{-1}$ est symétrique puisque $H_3$ l’est. Il existe une matrice symétrique $K_2$ d’ordre $2$, $b$ un réel et $D_2$ une matrice colonne comportant deux coefficients tels que :

\begin{pmatrix}
H_2 & C\\
{}^{t} C & a
\end{pmatrix}
\begin{pmatrix}
K_2 & D_2\\
{}^{t} D_2 & b
\end{pmatrix} =
\begin{pmatrix}
I_2 & O_2\\
{}^{t} O_2 & 1
\end{pmatrix} .

Le produit matriciel par blocs fournit :

\left\{
\begin{align*}
H_2K_2+C({}^tD_2) &= I_2\\
H_2D_2+bC &= O_2\\
{}^tCK_2+a^{t}D_2 &= ^{t}O_2\\
{}^tCD_2 + ab &= 1.
\end{align*}
\right.

Ignorez la troisième équation.

\left\{
\begin{align*}
H_2K_2+C({}^tD_2) &= I_2\\
H_2D_2+bC &= O_2\\
{}^tCD_2 + ab &= 1.
\end{align*}
\right.

L’inversibilité de la matrice $H_2$, utilisée sur les deux premières lignes, fournit :

\left\{
\begin{align*}
K_2 &=H_2^{-1}( I_2-C({}^tD_2))\\
D_2 &=-bH_2^{-1}C\\
{}^tCD_2 + ab &= 1.
\end{align*}
\right.

Vous substituez $D_2$ par $-bH_2^{-1}C$ dans la dernière ligne et obtenez :

\left\{
\begin{align*}
K_2 &=H_2^{-1}( I_2-C({}^tD_2))\\
D_2 &=-bH_2^{-1}C\\
-b{}^tCH_2^{-1}C + ab &= 1.
\end{align*}
\right.

La dernière ligne se factorise par $b$ :

b(a-{}^tCH_2^{-1}C ) = 1.

Remarquez alors que le réel $a-{}^tCH_2^{-1}C$ est non nul.

Vous posez :

\boxed{u = a-{}^tCH_2^{-1}C.}

Vous avez $u\in\R^{*}$ et par suite :

\boxed{b = \frac{1}{u}.}

$b$ étant connu, vous obtenez la matrice $D_2$ :

\boxed{D_2 = -bH_2^{-1}C.}

Puis vous obtenez la matrice $K_2$ :

\boxed{K_2 =H_2^{-1}-(H_2^{-1}C)({}^tD_2).}

La matrice inverse de $H_3$ est donc :

\boxed{H_3^{-1} = \begin{pmatrix}
K_2 & D_2\\
{}^{t} D_2 & b
\end{pmatrix}.}

Synthèse. Vous calculez d’abord $H_2^{-1}C$ :

\begin{align*}
H_2^{-1}C &=  \begin{pmatrix}
4 & -6\\
-6 & 12
\end{pmatrix}
\begin{pmatrix}
\frac{1}{3}\\
\frac{1}{4}
\end{pmatrix}
\\
&=\frac{1}{3}\begin{pmatrix}
4\\
-6
\end{pmatrix}
+
\frac{1}{4}\begin{pmatrix}
-6\\
12
\end{pmatrix}
\\
&=\frac{1}{12}\begin{pmatrix}
16\\
-24
\end{pmatrix}
+
\frac{1}{12}\begin{pmatrix}
-18\\
36
\end{pmatrix}
\\
&=\frac{1}{12}
\begin{pmatrix}
-2\\
12
\end{pmatrix}
\\
&=\frac{1}{6}
\begin{pmatrix}
-1\\
6
\end{pmatrix}.
\end{align*}

Vous déduisez ensuite ${}^tC(H_2^{-1}C)$ :

\begin{align*}
{}^tC(H_2^{-1}C) &= \frac{1}{6}\begin{pmatrix}
\frac{1}{3} & \frac{1}{4}
\end{pmatrix}
\begin{pmatrix}
-1 \\ 6
\end{pmatrix}\\
&=\frac{1}{6}\left(\frac{-1}{3}+\frac{3}{2}\right)
\\
&=\frac{1}{6}\left(\frac{-2}{6}+\frac{9}{6}\right)
\\
&=\frac{7}{36}.
\end{align*}

Vous posez :

\begin{align*}
u &= a-{}^tC(H_2^{-1}C)\\
&=\frac{1}{5} - \frac{7}{36}\\
&=\frac{36}{180} - \frac{35}{180}\\
&=\frac{1}{180}.
\end{align*}

Alors vous avez :

\boxed{b = \frac{1}{u } = 180.}

Ensuite :

\begin{align*}
D_2 &= -bH_2^{-1}C\\
&= -180\times \frac{1}{6}
\begin{pmatrix}
-1\\
6
\end{pmatrix}
\\
&=-30  \begin{pmatrix}
-1\\
6
\end{pmatrix}.
\end{align*}

D’où :

\boxed{D_2 = \begin{pmatrix}
30\\
-180
\end{pmatrix}.}

Enfin :

\begin{align*}
K_2 &=H_2^{-1}-(H_2^{-1}C)({}^tD_2) \\
&= \begin{pmatrix}
4 & -6\\
-6 & 12
\end{pmatrix}-\frac{1}{6}
\begin{pmatrix}
-1\\
6
\end{pmatrix}
 \begin{pmatrix}
30 & -180
\end{pmatrix}\\
&=
 \begin{pmatrix}
4 & -6\\
-6 & 12
\end{pmatrix}-
\frac{1}{6}\begin{pmatrix}
-30 & 180\\
6\times30 & -6\times 180
\end{pmatrix}
\\
&=
 \begin{pmatrix}
4 & -6\\
-6 & 12
\end{pmatrix}+
\begin{pmatrix}
5 & -30\\
-30 &  180
\end{pmatrix}.
\end{align*}

Donc :

\boxed{K_2 = \begin{pmatrix}
9 & -36\\
-36 & 192
\end{pmatrix}.}

Vous notez temporairement $L$ la matrice suivante :

L = \begin{pmatrix}
K_2 & D_2\\
{}^{t} D_2 & b
\end{pmatrix} = \begin{pmatrix}
9 & -36 & 30\\
-36 & 192 & -180\\
30 & -180 & 180
\end{pmatrix}.

Pour vérifier que $H_3$ est inversible et que son inverse est $L$ vous calculez les deux produits :

\begin{align*}
H_3 L &= \begin{pmatrix}
1 & \frac{1}{2} & \frac{1}{3}\\
\frac{1}{2} & \frac{1}{3} & \frac{1}{4}\\
\frac{1}{3} & \frac{1}{4} & \frac{1}{5}
\end{pmatrix}
 \begin{pmatrix}
9 & -36 & 30\\
-36 & 192 & -180\\
30 & -180 & 180
\end{pmatrix}
\\
&=\begin{pmatrix}
9-18+10 & -36+96-60 & 30-90+60\\
\frac{9}{2}-12+\frac{15}{2} & -18 +64 - 45 & 15-60+45\\
3-9+6 & -12 +48-36 & 10-45+36
\end{pmatrix}
\\
&=\begin{pmatrix}
1 & 0 & 0\\
0 & 1 & 0\\
0 & 0 & 1
\end{pmatrix}.
\end{align*}

En transposant cette égalité :

{}^{t}L{}^{t}H_3 = \begin{pmatrix}
1 & 0 & 0\\
0 & 1 & 0\\
0 & 0 & 1
\end{pmatrix}.

Comme $L$ et $H_3$ sont symétriques, $L = {}^{t}L$ et $H_3 = {}^{t}H_3$ du coup :

H_3L = LH_3 = \begin{pmatrix}
1 & 0 & 0\\
0 & 1 & 0\\
0 & 0 & 1
\end{pmatrix}.

Il est ainsi démontré que $H_3$ est inversible et que :

\boxed{H_3^{-1} = \begin{pmatrix}
9 & -36 & 30\\
-36 & 192 & -180\\
30 & -180 & 180
\end{pmatrix}.}

Prolongements

  • Vous souhaitez savoir ce qu’il advient pour la matrice $H_4$ ? Allez lire le contenu rédigé dans l'article 292.
  • La troisième équation de cet article a été ignorée. Sans cette dernière, il a été quand même été possible de calculer explicitement tous les coefficients de $H_3^{-1}.$ Pourriez-vous expliquer si ce phénomène est généralisable pour les autres matrices de Hilbert ?
  • Le calcul explicite du produit $H_3L$ a fourni la matrice identité d’ordre $3.$ En fait, ce calcul aurait pu être évité. Pourriez-vous l’expliquer ?

289. Mise sous forme de Hessenberg d’une matrice symétrique (1/2)

Soit $A$ la matrice réelle définie par :

A = \begin{pmatrix}
0 & 1 &1 &1\\
1 & 0 &1 &1\\
1 & 1 &0 &1\\
1 & 1 &1 &0
\end{pmatrix}.

Le but de cette section est d’expliciter une matrice réelle inversible notée $P$ telle que :

P^{-1}AP= \begin{pmatrix}
* & * &* &*\\
* & * &* &*\\
0 & * &* &*\\
0 & 0 &* &*
\end{pmatrix}.

Une telle matrice sera dite de Hessenberg puisque tous ses coefficients situés strictement en-dessous de la première sous-diagonale sont nuls.

Traitez la première colonne, premier zéro

A partir de la matrice $A$, vous souhaitez effectuer l’opération élémentaire $L_3\leftarrow L_3-L_2$ ce qui revient à multiplier $A$ à gauche par une matrice de transvection $T$ égale à :

T = \begin{pmatrix}
1 & 0 &0 &0\\
0 & 1 &0 &0\\
0 & -1 &1 &0\\
0 & 0 &0 &1
\end{pmatrix}.

Il vous faut multiplier à droite la matrice $TA$ par $T^{-1}$ qui est aussi une matrice transvection :

T^{-1} = \begin{pmatrix}
1 & 0 &0 &0\\
0 & 1 &0 &0\\
0 & 1 &1 &0\\
0 & 0 &0 &1
\end{pmatrix}.

Cela correspond à l’opération élémentaire $C_2\leftarrow C_2+C_3.$

En détail, vous partez de $A$ et vous appliquez l’opération élémentaire $L_3\leftarrow L_3-L_2$ qui donne :

A^{(1)} = \begin{pmatrix}
0 & 1 &1 &1\\
1 & 0 &1 &1\\
0 & 1 &-1 &0\\
1 & 1 &1 &0
\end{pmatrix}.

Vous appliquez à la matrice $A^{(1)}$ l’opération $C_2\leftarrow C_2+C_3$ et obtenez :

A^{(2)} = \begin{pmatrix}
0 & 2 &1 &1\\
1 & 1 &1 &1\\
0 & 0 &-1 &0\\
1 & 2 &1 &0
\end{pmatrix}.

Note. Vous pouvez aussi vérifier que le produit $TAT^{-1}$ est bien égal à $A^{(2)}.$

Traitez la première colonne, second zéro

Comme précédemment, vous considérez les opérations élémentaires successives $L_4\leftarrow L_4-L_2$ et $C_2\leftarrow C_2+C_4.$

A partir de la matrice $A^{(2)}$ vous appliquez $L_4\leftarrow L_4-L_2$ et obtenez :

A^{(3)} = \begin{pmatrix}
0 & 2 &1 &1\\
1 & 1 &1 &1\\
0 & 0 &-1 &0\\
0 & 1 &0 &-1
\end{pmatrix}.

A partir de la matrice $A^{(3)}$ vous appliquez $C_2\leftarrow C_2+C_4.$ et obtenez :

A^{(4)} = \begin{pmatrix}
0 & 3 &1 &1\\
1 & 2 &1 &1\\
0 & 0 &-1 &0\\
0 & 0 &0 &-1
\end{pmatrix}.

En posant :

R = \begin{pmatrix}
1 & 0 &0 &0\\
0 & 1 &0 &0\\
0 & 0 &1 &0\\
0 & -1 &0 &1
\end{pmatrix}

vous obtenez :

R^{-1} = \begin{pmatrix}
1 & 0 &0 &0\\
0 & 1 &0 &0\\
0 & 0 &1 &0\\
0 & 1 &0 &1
\end{pmatrix}.

Alors le produit $RA^{(2)}R^{-1}$ est égal à $A^{(4)}.$

Comme $A^{(4)}$ est une matrice de Hessenberg, il n’y a pas lieu de traiter spécifiquement la deuxième colonne.

Concluez

Des égalités :

\left\{\begin{align*}
RA^{(2)}R^{-1}&=A^{(4)}\\
TAT^{-1} &=A^{(2)}
\end{align*}
\right.

vous déduisez :

RTAT^{-1}R^{-1}=A^{(4)}.

Du coup, en posant

\begin{align*}
P &= T^{-1}R^{-1} \\
&=   \begin{pmatrix}
1 & 0 &0 &0\\
0 & 1 &0 &0\\
0 & 1 &1 &0\\
0 & 0 &0 &1
\end{pmatrix} \begin{pmatrix}
1 & 0 &0 &0\\
0 & 1 &0 &0\\
0 & 0 &1 &0\\
0 & 1 &0 &1
\end{pmatrix}
\\
&=\begin{pmatrix}
1 & 0 &0 &0\\
0 & 1 &0 &0\\
0 & 1 &1 &0\\
0 & 1 &0 &1
\end{pmatrix}
\end{align*}
.

vous déduisez l’inversibilité de $P$ qui est produit de deux matrices inversibles et :

\begin{align*}
P^{-1} &= RT \\
&=   \begin{pmatrix}
1 & 0 &0 &0\\
0 & 1 &0 &0\\
0 & 0 &1 &0\\
0 & -1 &0 &1
\end{pmatrix} \begin{pmatrix}
1 & 0 &0 &0\\
0 & 1 &0 &0\\
0 & -1 &1 &0\\
0 & 0 &0 &1
\end{pmatrix}
\\
&=\begin{pmatrix}
1 & 0 &0 &0\\
0 & 1 &0 &0\\
0 & -1 &1 &0\\
0 & -1 &0 &1
\end{pmatrix}.
\end{align*}

De ce qui précède, vous avez obtenu :

P^{-1}AP = A^{(4)} = \begin{pmatrix}
0 & 3 &1 &1\\
1 & 2 &1 &1\\
0 & 0 &-1 &0\\
0 & 0 &0 &-1
\end{pmatrix}.

La matrice $A$ est semblable à une matrice de Hessenberg et la matrice de passage $P$ ainsi que son inverse ont été déterminés.

Note. Le lecteur aura remarqué que la matrice $A^{(4)}$ n’est pas symétrique. Il est néanmoins possible d’améliorer ce qui vient d’être trouvé en utilisant le procédé d’orthonormalisation de Gram-Schmidt. Rendez-vous pour cela au sein du contenu écrit dans l'article 290. En effet, une matrice de Hessenberg qui est multipliée par une matrice triangulaire supérieure, que ce soit à droite ou à gauche, reste de Hessenberg.

288. Calculez une suite d’intégrales

Pour tout entier naturel $n$ vous définissez :

I_n = \int_{0}^{1} (x(x-1))^n\dx.

Utilisez une intégration par parties

Soit $n$ un entier naturel. Vous cherchez à calculer l’intégrale $I_{n+1}$ directement à l’aide d’une intégration par parties.

Vous posez :

\left\{
\begin{align*}
u'(x) &= 1 \\
v(x) &= (x(x-1))^{n+1}.
\end{align*}
\right.

Cela amène à :

\left\{
\begin{align*}
u(x) &= x \\
v'(x) &= (n+1)(2x-1)(x(x-1))^n.
\end{align*}
\right.

Ainsi :

\begin{align*}
I_{n+1} &= \int_{0}^{1} u'(x)v(x) \dx \\
&=\left[u(x)v(x)\right]_{0}^{1} -\int_{0}^{1} u(x)v'(x)\dx \\
&=\left[x(x^2-x)^{n+1}\right]_{0}^{1} - (n+1)\int_{0}^{1} (2x^2-x)(x^2-x)^n\dx\\
&= - (n+1)\int_{0}^{1} (2x^2-x)(x^2-x)^n\dx.
\end{align*}

A ce stade, vous allez écrire :

\begin{align*}
2x^2-x &= 2x^2-2x+x \\
&=2(x^2-x)+x
\end{align*}

Du coup :

\begin{align*}
I_{n+1} &=  - (2n+2)\int_{0}^{1} (x^2-x)^{n+1}\dx - (n+1)\int_{0}^{1} x(x^2-x)^{n}\dx \\
&=(-2n-2)I_{n+1}-(n+1)\int_{0}^{1} x(x^2-x)^{n}\dx.
\end{align*}

Comme $I_{n+1}$ réapparaît dans le membre de droite, il vient :

(2n+3)I_{n+1} = -(n+1)\int_{0}^{1} x(x^2-x)^{n}\dx.

Faites apparaître une dérivée

Pour calculer l’intégrale $\int_{0}^{1} x(x^2-x)^{n}\dx$ vous procédez ainsi :

\begin{align*}
\int_{0}^{1} x(x^2-x)^{n}\dx &=\frac{1}{2} \int_{0}^{1} 2x(x^2-x)^{n}\dx \\
 &=\frac{1}{2} \int_{0}^{1} (2x-1)(x^2-x)^{n}\dx +\frac{1}{2} \int_{0}^{1} (x^2-x)^{n}\dx \\
&=\frac{1}{2}\left[\frac{(x^2-x)^{n+1}}{n+1}\right]_0^1 + \frac{1}{2} I_n\\
&=\frac{1}{2}I_n.
\end{align*}

Vous déduisez de ce calcul que :

2(2n+3)I_{n+1} = -(n+1)I_n.

En définitive :

\boxed{\forall n\in\N, 2(2n+3)I_{n+1} = -(n+1)I_n.}

Préparez l’hypothèse de récurrence

Soit $n\in\N$, écrivez la relation obtenue ci-dessus sur $n$ lignes :

\begin{align*}
2(2n+1)I_{n}& = -(n)I_{n-1}\\
2(2n-1)I_{n-1} &= -(n-1)I_{n-2}\\
\dots &= \dots\\
2(5)I_{2} &= -(2)I_n\\
2(3)I_{1} &= -(1)I_0.
\end{align*}

En multipliant toutes ces lignes entre elles, vous obtenez :

2^n(1\times 3\times \cdots\times (2n-1)(2n+1)) I_1I_2\cdots I_{n-1}I_n = (-1)^n n! I_0I_1\cdots I_{n-1}.

Sans prendre le besoin de justifier que l’on peut diviser par le produit $I_1I_2\cdots I_{n-1}$ vous pensez que :

2^n(1\times 3\times \cdots\times (2n-1)(2n+1)) I_n = (-1)^n n! I_0.

Or, le calcul de $I_0$ fournit :

\begin{align*}
I_0 &= \int_0^1 (x^2-x)^0\dx \\
&= \int_0^1 1 \dx \\
&=1.
\end{align*}

Donc :

2^n(1\times 3\times \cdots\times (2n-1)(2n+1)) I_n = (-1)^n n!.

Il reste à écrire avec des factorielles le produit des impairs. Pour cela, vous multipliez par le produit :

\begin{align*}
2\times 4 \times \cdots \times (2n) &= (2\times 1)\times (2\times 2)\times \cdots \times(2\times n)\\
&=2^n n!.
\end{align*}

Ainsi :

2^n(1\times 3\times \cdots\times (2n-1)(2n+1)) \times 2\times 4 \times \cdots \times (2n) I_n = (-1)^n 2^n (n!)^2.

Vous simplifiez par $2^n$ :

(2n+1)! I_n = (-1)^n  (n!)^2.

Et voilà le candidat trouvé :

I_n = \frac{(-1)^n (n!)^2}{(2n+1)!}.

Effectuez la récurrence

Pour tout entier naturel $n$, vous posez $\mathscr{P}(n)$ : « $I_n = \frac{(-1)^n (n!)^2}{(2n+1)!}.$ »

Initialisation. D’une part :

\frac{(-1)^0 (0!)^2}{(2\times 0+1)!} = \frac{1}{1!} = 1.

D’autre part, il a été vu que $I_0 = 1.$

Donc $\mathscr{P}(0)$ est vérifiée.

Hérédité. Soit $n$ un entier naturel tel que $I_n = \frac{(-1)^n (n!)^2}{(2n+1)!}.$

Il a été établi que :

 2(2n+3)I_{n+1} = -(n+1)I_n.

Utilisant l’hypothèse de récurrence :

\begin{align*}
 2(2n+3)I_{n+1} &= -\frac{(-1)^n (n!)^2 (n+1)}{(2n+1)!}\\
 &=\frac{(-1)^{n+1} (n!)^2 (n+1)}{(2n+1)!}\\
 &=\frac{(-1)^{n+1} (n!)^2 (n+1)^2}{(n+1)(2n+1)!}\\
&=\frac{(-1)^{n+1} ((n+1)!)^2 }{(n+1)(2n+1)!}.
\end{align*}

En divisant par $2$ :

\begin{align*}
(2n+3)I_{n+1} 
&=\frac{(-1)^{n+1} ((n+1)!)^2 }{2(n+1)(2n+1)!}\\
&=\frac{(-1)^{n+1} ((n+1)!)^2 }{(2n+2)(2n+1)!}\\
\end{align*}

En divisant par $2n+3$ qui est non nul :

\begin{align*}
I_{n+1} 
&=\frac{(-1)^{n+1} ((n+1)!)^2 }{(2n+3)(2n+2)(2n+1)!}\\
&=\frac{(-1)^{n+1} ((n+1)!)^2 }{(2n+3)!}\\
&=\frac{(-1)^{n+1} ((n+1)!)^2 }{(2(n+1)+1)!}.
\end{align*}

Donc $\mathscr{P}(n+1)$ est vérifiée.

Conclusion. Pour tout $n\in\N$, la propriété $\mathscr{P}(n)$ est vérifiée.

Concluez

Il a été démontré par récurrence que :

\boxed{\forall n\in\N, \int_{0}^1 (x^2-x)^n \dx =  \frac{(-1)^n (n!)^2}{(2n+1)!}.}

287. Les effets des opérations élémentaires sur une base duale (2/2)

Notez :

\left\{
\begin{align*}
e_1 &= (1,0,0,0)\\
e_2 &= (0,1,0,0)\\
e_3 &= (0,0,1,0)\\
e_4 &= (0,0,0,1).
\end{align*}
\right.

La famille $(e_1,e_2,e_3,e_4)$ est la base canonique de $\R^4.$

Pour tout $(x,y,z,t)\in\R^4$ vous avez :

(x,y,z,t) = xe_1+ye_2+ze_3+te_4.

D’autre part la base duale $(e_1^{*}, e_2^{*}, e_3^{*}, e_4^{*})$ vérifie la propriété suivante :

\forall (x,y,z,t)\in\R^4, (x,y,z,t) = e_1^{*}(x,y,z,t)e_1+e_2^{*}(x,y,z,t)e_2+e_3^{*}(x,y,z,t)e_3+e_4^{*}(x,y,z,t)e_4.

Par unicité de la décomposition d’un vecteur sur une base, vous déduisez immédiatement que, quel que soit $(x,y,z,t)\in\R^4$ :

\left\{
\begin{align*}
e_1^{*}(x,y,z,t) &= x\\
e_2^{*}(x,y,z,t) &= y\\
e_3^{*}(x,y,z,t) &= z\\
e_4^{*}(x,y,z,t) &= t.
\end{align*}
\right.

Vous posez :

\left\{
\begin{align*}
v_1 &= (1,1,0,2)\\
v_2 &= (1,2,1,2)\\
v_3 &= (0,1,2,1)\\
v_4 &= (3,3,1,8).
\end{align*}
\right.

Votre objectif est double :

  • démontrer que la famille $(v_1,v_2,v_3,v_4)$ est une base de $\R^4$ ;
  • déterminer explicitement la base duale notée $(v_1^{*}, v_2^{*}, v_3^{*}, v_4^{*})$ de $(v_1,v_2,v_3,v_4).$

Effets des dilatations et des transvections

D’après le contenu rédigé dans l'article 287, la propriété suivante a été établie.

Soit $n$ un entier naturel supérieur ou égal à $2.$

Etant donnée une base $f=(f_1, \dots, f_n)$ d’un $\K$-espace vectoriel de dimension finie $n$, de base duale notée $f^{*} = (f_1^{*}, \dots, f_n^{*})$ :

  • quel que soit le scalaire $\lambda$, quels que soient les entiers $i$ et $j$ de $\llbracket 1, n \rrbracket$ tels que $i\neq j$, l’opération $f_i \leftarrow f_i + \lambda f_j$ transforme la base $f$ en une base $f’$ de $E.$ La base duale de $f’$ se déduit de la base duale $f^{*}$ par l’opération $f_j^{*} \leftarrow f_j^{*} – \lambda f_i^{*}$ ;
  • quel que soit le scalaire $\lambda$ non nul, l’opération $f_i \leftarrow \lambda f_i $transforme la base $f$ en une base $f’$ de $E.$ La base duale de $f’$ se déduit de la base duale $f^{*}$ par l’opération $f_i^{*} \leftarrow \frac{1}{\lambda} f_i^{*}.$

Mise en pratique

Il s’agit de trouver une suite d’opérations élémentaires qui transforme la famille $(v_1,v_2,v_3,v_4)$ vers la famille $(e_1,e_2,e_3,e_4).$

Vous effectuez les opérations suivantes : $L_2 \leftarrow L_2-L_1$ et $L_4\leftarrow L_4-3L_1$ :

\left\{
\begin{align*}
v_1 &= (1,1,0,2)\\
v_2-v_1 &= (0,1,1,0)\\
v_3 &= (0,1,2,1)\\
v_4-3v_1 &= (0,0,1,2).
\end{align*}
\right.

Vous effectuez $L_3\leftarrow L_3-L_2$ :

\left\{
\begin{align*}
v_1 &= (1,1,0,2)\\
v_2-v_1         &= (0,1,1,0)\\
v_3-v_2+v_1 &= (0,0,1,1)\\
v_4-3v_1 &= (0,0,1,2).
\end{align*}
\right.

Vous effectuez $L_4 \leftarrow L_4-L_3$ :

\left\{
\begin{align*}
v_1 &= (1,1,0,2)\\
v_2-v_1         &= (0,1,1,0)\\
v_3-v_2+v_1 &= (0,0,1,1)\\
v_4-v_3+v_2-4v_1       &= (0,0,0,1).
\end{align*}
\right.

Puis, vous continuez avec $L_1\leftarrow L_1-L_2$ :

\left\{
\begin{align*}
2v_1-v_2               &= (1,0,-1,2)\\
v_2-v_1         &= (0,1,1,0)\\
v_3-v_2+v_1 &= (0,0,1,1)\\
v_4-v_3+v_2-4v_1       &= (0,0,0,1).
\end{align*}
\right.

Vous effectuez $L_1\leftarrow L_1+L_3$ :

\left\{
\begin{align*}
3v_1-2v_2+v_3               &= (1,0,0,3)\\
v_2-v_1         &= (0,1,1,0)\\
v_3-v_2+v_1 &= (0,0,1,1)\\
v_4-v_3+v_2-4v_1       &= (0,0,0,1).
\end{align*}
\right.

Vous effectuez $L_2\leftarrow L_2-L_3$ :

\left\{
\begin{align*}
3v_1-2v_2+v_3               &= (1,0,0,3)\\
-2v_1+2v_2-v_3         &= (0,1,0,-1)\\
v_3-v_2+v_1 &= (0,0,1,1)\\
v_4-v_3+v_2-4v_1       &= (0,0,0,1).
\end{align*}
\right.

Vous effectuez $L_1\leftarrow L_1-3L_4$ :

\left\{
\begin{align*}
15v_1-5v_2+4v_3  -3v_4              &= e_1\\
-2v_1+2v_2-v_3         &= (0,1,0,-1)\\
v_3-v_2+v_1 &= (0,0,1,1)\\
v_4-v_3+v_2-4v_1       &= (0,0,0,1).
\end{align*}
\right.

Vous effectuez $L_2\leftarrow L_2+L_4$ :

\left\{
\begin{align*}
15v_1-5v_2+4v_3  -3v_4              &= e_1\\
-6v_1+3v_2-2v_3+v_4         &= e_2\\
v_3-v_2+v_1 &= (0,0,1,1)\\
v_4-v_3+v_2-4v_1       &= (0,0,0,1).
\end{align*}
\right.

Vous terminez avec $L_3\leftarrow L_3-L_4$ :

\left\{
\begin{align*}
15v_1-5v_2+4v_3  -3v_4              &= e_1\\
-6v_1+3v_2-2v_3+v_4         &= e_2\\
5v_1-2v_2+2v_3 -v_4 &= e_3\\
v_4-v_3+v_2-4v_1       &= e_4.
\end{align*}
\right.

Il est ainsi prouvé que :

\forall i\in\llbracket 1, 4\rrbracket, e_i\in \mathrm{Vect}(v_1,v_2,v_3,v_4).

La famille $(v_1,v_2,v_3,v_4)$ est génératrice de $\R^4$ c’est donc une base de $\R^4.$

Note. A partir des égalités ci-dessus, il est possible de déterminer l’expression de la base duale $(v_1^{*}, v_2^{*}, v_3^{*}, v_4^{*})$ sans continuer les opérations élémentaires vu qu’elle vérifie la relation :

\forall u\in\R^4, u = \sum_{i=1}^{4}v_i^{*}(u) v_i.

Comme cet article a pour objectif de détailler les effets des opérations élémentaires, elles seront poursuivies dans la suite.

Résumé des opérations élémentaires

Pour passer de la base $(v_1,v_2,v_3,v_4)$ à la base $(e_1,e_2,e_3,e_4)$ vous avez appliqué les opérations élémentaires suivantes, dans cet ordre :

\begin{array}{| l  l |}
\hline
L_2 &\leftarrow L_2-L_1 \\ \hline
L_4 &\leftarrow L_4-3L_1  \\ \hline
L_3&\leftarrow L_3-L_2 \\ \hline
L_4 &\leftarrow L_4-L_3 \\ \hline
 L_1&\leftarrow L_1-L_2 \\ \hline
L_1&\leftarrow L_1+L_3 \\ \hline
L_2&\leftarrow L_2-L_3 \\ \hline
L_1&\leftarrow L_1-3L_4 \\ \hline
L_2&\leftarrow L_2+L_4 \\ \hline
L_3&\leftarrow L_3-L_4 \\ \hline
\end{array}

En utilisant les opérations élémentaires réciproques, vous déduisez que vous passez de la base $(e_1,e_2,e_3,e_4)$ à la base $(v_1,v_2,v_3,v_4)$ de la façon suivante :

\begin{array}{| l  l |}
\hline
L_3&\leftarrow L_3+L_4 \\ \hline
L_2&\leftarrow L_2-L_4 \\ \hline
L_1&\leftarrow L_1+3L_4 \\ \hline
L_2&\leftarrow L_2+L_3 \\ \hline
L_1&\leftarrow L_1-L_3 \\ \hline
L_1&\leftarrow L_1+L_2 \\ \hline
L_4 &\leftarrow L_4+L_3 \\ \hline
L_3&\leftarrow L_3+L_2 \\ \hline
L_4 &\leftarrow L_4+3L_1  \\ \hline
L_2 &\leftarrow L_2+L_1 \\ \hline
\end{array}

En utilisant les effets des opérations élémentaires sur les bases duales, vous déduisez que vous passez de la base $(e_1^{*},e_2^{*},e_3^{*},e_4^{*})$ à la base $(v_1^{*},v_2^{*},v_3^{*},v_4^{*})$ de la façon suivante :

\begin{array}{| l  l |}
\hline
L_4&\leftarrow L_4-L_3 \\ \hline
L_4&\leftarrow L_4+L_2 \\ \hline
L_4&\leftarrow L_4-3L_1 \\ \hline
L_3&\leftarrow L_3-L_2 \\ \hline
L_3&\leftarrow L_3+L_1 \\ \hline
L_2&\leftarrow L_2-L_1 \\ \hline
L_3 &\leftarrow L_3-L_4 \\ \hline
L_2&\leftarrow L_2-L_3 \\ \hline
L_1 &\leftarrow L_1-3L_4  \\ \hline
L_1 &\leftarrow L_1-L_2 \\ \hline
\end{array}

Pour terminer, vous partez de la base $(e_1^{*},e_2^{*},e_3^{*},e_4^{*})$ et appliquez les opérations ci-dessus.

\begin{array}{| l  l | l |}
\hline
& & (e_1^{*},e_2^{*},e_3^{*},e_4^{*})
\\ \hline
L_4&\leftarrow L_4-L_3 & (e_1^{*},e_2^{*},e_3^{*},e_4^{*}-e_3^{*})
\\ \hline
L_4&\leftarrow L_4+L_2 &  (e_1^{*},e_2^{*},e_3^{*},e_4^{*}-e_3^{*} + e_2^{*})
\\ \hline
L_4&\leftarrow L_4-3L_1 &  (e_1^{*},e_2^{*},e_3^{*},e_4^{*}-e_3^{*} + e_2^{*}-3e_1^{*})
 \\ \hline
L_3&\leftarrow L_3-L_2 & (e_1^{*},e_2^{*},e_3^{*}-e_2^{*},e_4^{*}-e_3^{*} + e_2^{*}-3e_1^{*})
 \\ \hline
L_3&\leftarrow L_3+L_1 &  (e_1^{*},e_2^{*},e_3^{*}-e_2^{*}+e_1^{*},e_4^{*}-e_3^{*} + e_2^{*}-3e_1^{*})
\\ \hline
L_2&\leftarrow L_2-L_1 &  (e_1^{*},e_2^{*}-e_1^{*},e_3^{*}-e_2^{*}+e_1^{*},e_4^{*}-e_3^{*} + e_2^{*}-3e_1^{*})
\\ \hline
L_3 &\leftarrow L_3-L_4&   (e_1^{*},e_2^{*}-e_1^{*},4e_1^{*}-2e_2^{*}+2e_3^{*}-e_4^{*} ,e_4^{*}-e_3^{*} + e_2^{*}-3e_1^{*})
 \\ \hline
L_2&\leftarrow L_2-L_3 & (e_1^{*},-5e_1^{*}+3e_2^{*}-2e_3^{*}+e_4^{*},4e_1^{*}-2e_2^{*}+2e_3^{*}-e_4^{*} ,e_4^{*}-e_3^{*} + e_2^{*}-3e_1^{*})
\\ \hline
L_1 &\leftarrow L_1-3L_4 & (10e_1^{*}-3e_2^{*}+3e_3^{*}-3e_4^{*},
-5e_1^{*}+3e_2^{*}-2e_3^{*}+e_4^{*},
4e_1^{*}-2e_2^{*}+2e_3^{*}-e_4^{*} ,
e_4^{*}-e_3^{*} + e_2^{*}-3e_1^{*})
 \\ \hline
L_1 &\leftarrow L_1-L_2&  (15e_1^{*}-6e_2^{*}+5e_3^{*}-4e_4^{*},
-5e_1^{*}+3e_2^{*}-2e_3^{*}+e_4^{*},
4e_1^{*}-2e_2^{*}+2e_3^{*}-e_4^{*} ,
e_4^{*}-e_3^{*} + e_2^{*}-3e_1^{*}).
 \\ \hline
\end{array}

Concluez

Vous déduisez des calculs qui précèdent que, pour tout $(x,y,z,t)\in\R^4$ :

\left\{
\begin{align*}
v_1^{*}(x,y,z,t) &= 15x-6y+5z-4t\\
v_2^{*}(x,y,z,t) &= -5x+3y-2z+t\\
v_3^{*}(x,y,z,t) &= -4x-2y+2z-t\\
v_4^{*}(x,y,z,t) &= -3x+y-z+t.
\end{align*}
\right.

286. Les effets des opérations élémentaires sur une base duale (1/2)

Soit $E$ un $\K$-espace vectoriel de dimension finie $n\geq 2$ et une de ses bases notée $e=(e_1, \dots, e_n).$

Vous définissez des formes linéaires $e_1^{*}, \dots, e_n^{*}$ en posant :

\forall i \in \llbracket 1, n\rrbracket, e_i^{*}(e_j)  = \delta_{ij}

où $\delta$ désigne le symbole de Kronecker.

L’espace dual de $E$, à savoir l’ensemble des formes linéaires sur $E$, noté $E^{*}$ admet alors une base.

Démontrez que l’espace dual admet pour base $e^{*}$

Liberté de la famille $e^{*}$

Soit $(\lambda_1,\dots,\lambda_n)\in\K^n$ tel que :

\sum_{i=1}^{n} \lambda_i e_i^{*} = 0.

Ainsi :

\forall x\in E, \sum_{i=1}^{n} \lambda_i e_i^{*}(x) = 0.

Soit $j$ un élément fixé de $\llbracket 1, n\rrbracket.$ Appliquez le résultat précédent lorsque $x=e_j$ :

\begin{align*}
\sum_{i=1}^{n} \lambda_i e_i^{*}(e_j) &= 0 \\
\sum_{i=1}^{n} \lambda_i \delta_{ij} &= 0 \\
\lambda_j = 0.
\end{align*}

Du coup :

\forall j\in\llbracket 1, n \rrbracket, \lambda_j = 0.

La décomposition d’un vecteur

Soit $x$ un vecteur de $E.$

Comme $(e_1,\dots, e_n)$ est une base de $E$, il existe $(\lambda_1,\dots, \lambda_n)\in\K^n$ tel que :

x=\sum_{i=1}^{n} \lambda_i e_i.

Soit $j$ un élément fixé de $\llbracket 1, n\rrbracket.$ Vous calculez $e_j^{*}(x)$ et utilisez la linéarité :

\begin{align*}
e_j^{*}(x) &=\sum_{i=1}^{n} \lambda_i e_j^{*}(e_i)\\
&=\sum_{i=1}^{n} \lambda_i \delta_{ij}\\
&=\lambda_j.
\end{align*}

Il vient donc :

x=\sum_{i=1}^{n} e_i^{*}(x) e_i.

Ainsi :

\boxed{\forall x\in E, x=\sum_{i=1}^{n} e_i^{*}(x) e_i.}

Caractère générateur de la famille $e^{*}$

Soit $\varphi$ une forme linéaire, c’est-à-dire une application linéaire allant de $E$ dans $\K.$

Fixez un vecteur $x\in E.$

Il a été vu plus haut que :

x=\sum_{i=1}^{n} e_i^{*}(x) e_i.

Par linéarité de $\varphi$ il vient :

\begin{align*}
\varphi(x)&=\sum_{i=1}^{n} e_i^{*}(x) \varphi(e_i)\\
&=\sum_{i=1}^{n} \varphi(e_i) e_i^{*}(x) \\
&=\left(\sum_{i=1}^{n} \varphi(e_i) e_i^{*}\right)(x).
\end{align*}

Ainsi :

\forall x\in E, \varphi(x) = \left(\sum_{i=1}^{n} \varphi(e_i) e_i^{*}\right)(x).

Et par suite :

\varphi = \sum_{i=1}^{n} \varphi(e_i) e_i^{*}.

Il est ainsi démontré que :

\boxed{\forall \varphi\in E^{*}, \varphi = \sum_{i=1}^{n} \varphi(e_i) e_i^{*}.}

Dimension de $E^{*}$

D’après ce qui précède, $e^{*}$ est une base de $E^{*}$ comportant $n$ vecteurs donc $\boxed{\dim E^{*} = \dim E.}$

Caractérisez la base duale de $e$

Réciproquement, supposez qu’il existe une famille de $E^{*}$, notée $(\varphi_1, \dots, \varphi_n)$ telle que :

\forall x\in E, x = \sum_{i=1}^{n} \varphi_i(x) e_i.

Fixez $x\in E.$ Le vecteur $x$ se décompose de deux façons différentes :

\begin{align*}
x &= \sum_{i=1}^{n} \varphi_i(x) e_i\\
x &= \sum_{i=1}^{n} e_i^{*}(x) e_i.
\end{align*}

Par unicité de la décomposition d’un vecteur sur une base, vous déduisez :

\forall i\in \llbracket 1, n \rrbracket, e_i^{*}(x) = \varphi_i(x).

Ainsi :

\forall i\in \llbracket 1, n \rrbracket, e_i^{*} = \varphi_i.

La famille $(\varphi_1, \dots, \varphi_n)$ est la base duale de $(e_1,\dots,e_n).$

Une dilatation d’un vecteur de la base $e$ induit une autre dilatation sur la base duale $e^{*}$

Soit $(e_1,\dots, e_n)$ une base de $E.$

Soit $\lambda$ un scalaire non nul et soit $i$ un élément de $\llbracket 1, n \rrbracket$ fixé.

Vous effectuez l’opération élémentaire $e_i \leftarrow \lambda e_i$ au niveau de la base $e.$

Concrètement, vous passez de la base $e = (e_1, \dots, e_{i-1}, e_i, e_{i+1}, \dots e_n)$ à la famille $e’ = (e_1, \dots, e_{i-1}, \lambda e_i, e_{i+1}, \dots e_n).$

Vous allez démontrer que $e’$ est une base de $E$ et trouver sa base duale.

Soit $x\in E.$ Un tel vecteur se décompose ainsi :

\begin{align*}
x &= \sum_{k=1}^{n} e_k^{*}(x) e_k\\
&= e_i^{*}(x) e_i + \sum_{k\neq i} e_k^{*}(x) e_k\\
&= \frac{1}{\lambda}e_i^{*}(x) (\lambda e_i) + \sum_{k\neq i} e_k^{*}(x) e_k.
\end{align*}

D’une part, le vecteur $x$ appartient à l’espace vectoriel engendré par la famille $e’.$ Or $e’$ possède le même nombre de vecteurs que la dimension de $E$ donc $e’$ est une base de $E.$

D’autre part, cette écriture montre que la famille $e’^{*} = (e_1^{*}, \dots, e_{i-1}^{*}, \frac{1}{\lambda} e_i^{*},e_{i+1}^{*}, \dots e_n^{*})$ est la base duale de $e’.$

En définitive, si $e = (e_1, \dots, e_{i-1}, e_i, e_{i+1}, \dots e_n)$ est une base de $E$ dont la base duale est notée $e^{*} = (e_1^{*}, \dots, e_{i-1}^{*}, e_i^{*}, e_{i+1}^{*}, \dots e_n^{*})$, alors, pour tout $\lambda\in\K^{*}$, la famille $e’ = (e_1, \dots, e_{i-1}, \lambda e_i, e_{i+1}, \dots e_n)$ est une autre base de $E$ et la base duale de $e’$ est $e’^{*} = (e_1^{*}, \dots, e_{i-1}^{*}, \frac{1}{\lambda} e_i^{*}, e_{i+1}^{*}, \dots e_n^{*}).$

Une transvection effectuée sur la base $e$ induit une autre transvection sur la base duale $e^{*}$

Soit $(e_1,\dots, e_n)$ une base de $E.$

Soient $i$ et $j$ deux éléments différents de l’ensemble $\llbracket 1, n \rrbracket.$ Soit $\lambda$ un scalaire fixé.

Vous effectuez l’opération élémentaire $e_i \leftarrow \lambda e_i+\lambda e_j$ au niveau de la base $e.$

Concrètement, vous passez de la base $e = (e_1, \dots, e_{i-1}, e_i, e_{i+1}, \dots e_n)$ à la famille $e’ = (e_1, \dots, e_{i-1}, e_i+\lambda e_j, e_{i+1}, \dots e_n).$

Soit $x\in E.$ Un tel vecteur se décompose ainsi :

\begin{align*}
x &= \sum_{k=1}^{n} e_k^{*}(x) e_k\\
&= e_i^{*}(x) e_i + \sum_{k\neq i} e_k^{*}(x) e_k\\
&= e_i^{*}(x) (e_i+\lambda e_j) - e_i^{*}(x)\lambda e_j + \sum_{k\neq i} e_k^{*}(x) e_k\\
&= e_i^{*}(x) (e_i+\lambda e_j) - e_i^{*}(x)\lambda e_j + e_j^{*}(x) e_j +\sum_{k\notin \{i, j\}} e_k^{*}(x) e_k\\
&= e_i^{*}(x) (e_i+\lambda e_j)+ ( e_j^{*}(x)- \lambda e_i^{*}(x)   ) e_j +\sum_{k\notin \{i, j\}} e_k^{*}(x) e_k.
\end{align*}

D’une part, le vecteur $x$ appartient à l’espace vectoriel engendré par la famille $e’.$ Or $e’$ possède le même nombre de vecteurs que la dimension de $E$ donc $e’$ est une base de $E.$

D’autre part, cette écriture montre que la famille $e’^{*} = (e_1^{*}, \dots, e_{j-1}^{*}, e_j^{*}-\lambda e_i^{*}, e_{j+1}^{*}, \dots e_n^{*})$ est la base duale de $e’.$

En définitive, si $e = (e_1, \dots, e_{i-1}, e_i, e_{i+1}, \dots e_n)$ est une base de $E$ dont la base duale est notée $e^{*} = (e_1^{*}, \dots, e_{i-1}^{*}, e_i^{*}, e_{i+1}^{*}, \dots e_n^{*})$, alors, appliquer l’opération de transvection $e_i \leftarrow e_i + \lambda e_j$ sur la base $e$ fournit une autre base de $E$ notée $e’.$ La base duale $e’^{*}$ de $e’$ s’obtient à partir de la base $e^{*}$, à partir de laquelle on applique l’opération de transvection $e_j^{*} \leftarrow e_j^{*} – \lambda e_i^{*}.$

Prolongements

Cas de transpositions

Soit $e=(e_1,\dots, e_n)$ une base de $E$ dont la base duale est notée $e^{*} = (e_1^{*}, \dots, e_n^{*}).$

Soient $i$ et $j$ deux éléments différents de l’ensemble $\llbracket 1, n \rrbracket.$Si vous appliquez l’opération de transposition $e_i \leftrightarrow e_j$ sur la base $e$ et notez $e’$ la nouvelle famille obtenue, justifiez que $e’$ est encore une base de $E$ et déterminez la base duale de $e’$ en fonction de $e^{*}.$

Les permutations

Expliquez pourquoi, sur le plan théorique, il n’est pas utile de traiter le cas d’une permutation des vecteurs d’une base de $e$ et de ses effets éventuels sur la base duale obtenue.

285. Une matrice de transposition est le produit de trois matrices de transvections et d’une matrice de dilatation

Soient $n$ et $p$ deux entiers supérieurs ou égaux à $2$ et $A$ une matrice à coefficients dans un corps $\K$ qui comporte $n$ lignes et $p$ colonnes.

Soient $i$ et $j$ deux éléments différents de l’ensemble $\llbracket 1, n \rrbracket.$

Comme cela a été vu au sein du contenu rédigé dans l'article 272 dont vous reprenez les mêmes notations, quand vous appliquez à la matrice $A$ l’opération élémentaire $L_i \leftrightarrow L_j$, cela revient à la multiplier à gauche par la matrice suivante :

T = F_{ij} + F_{ji} + \sum_{m\in\llbracket 1, n\rrbracket \setminus \{i, j\}} F_{mm}.

Une idée de décomposition en utilisant des transvections

Considérez les variables $x$ et $y$ auxquelles vous appliquez les instructions suivantes :

\begin{align*}
x&\leftarrow x+y\\
y&\leftarrow y-x\\
x&\leftarrow x+y.
\end{align*}

Ces trois opérations échangent les valeurs de $x$ et de $y$ et transforment $x$ en son opposé, comme le montre le tableau des valeurs successives prises par $x$ et $y$ :

\begin{array}{|c|c|}
\hline\
\text{Variable }x & \text{Variable }y \\ \hline
x & y \\ 
x+y & y\\
x+y & -x\\
y & -x\\\hline
\end{array}

Pour permuter $x$ avec $y$ il faut rajouter une dilatation en changeant la variable $y$ en son opposé.

L’opération d’échange :

x\leftrightarrow y

est donc équivalente à la série des quatre opérations suivantes :

\left\{
\begin{align*}
x&\leftarrow x+y\\
y&\leftarrow y-x\\
x&\leftarrow x+y\\
y&\leftarrow -y.
\end{align*}
\right.

Vérifiez l’ensemble sur le plan matriciel

Les quatre opérations décrites ci-dessus s’écrivent de façon analogue de la façon suivante :

\left\{
\begin{align*}
L_i&\leftarrow L_i+L_j\\
L_j&\leftarrow L_j-L_i\\
L_i&\leftarrow L_i+L_j\\
L_j&\leftarrow -L_j.
\end{align*}
\right.

Vous posez :

V_i =    F_{i j} + \sum_{k\in\llbracket 1, n\rrbracket } F_{kk} \\
V_j =  -  F_{ji} + \sum_{\ell \in\llbracket 1, n\rrbracket } F_{\ell\ell}\\
D_j = -F_{jj} + \sum_{m\in\llbracket 1, n\rrbracket \setminus \{j\}} F_{mm} = -2F_{jj} + \sum_{m\in\llbracket 1, n\rrbracket } F_{mm}.

En notant $I$ la matrice identité d’ordre $n$, il vient :

V_i = F_{ij} + I\\
V_j = -F_{ji} + I\\
D_j = -2F_{jj} + I.

Quand vous appliquez à la matrice $A$ les opérations élémentaires suivantes :

\left\{
\begin{align*}
L_i&\leftarrow L_i+L_j\\
L_j&\leftarrow L_j-L_i\\
L_i&\leftarrow L_i+L_j\\
L_j&\leftarrow -L_j.
\end{align*}
\right.

vous multipliez la matrice $A$ à gauche par le produit :

D_jV_iV_jV_i.

Premier produit, calcul de $V_jV_i$

\begin{align*}
V_jV_i &= (-F_{ji} + I)(F_{ij} + I)\\
&=-F_{ji}F_{ij} - F_{ji} + F_{ij} + I\\
&=F_{ij}-F_{ji}-F_{jj}+I.
\end{align*}

Deuxième produit, calcul de $V_i(V_jV_i)$

\begin{align*}
V_i(V_jV_i) &=(F_{ij} + I)(F_{ij}-F_{ji}-F_{jj}+I)\\
&= F_{ij}F_{ij}-F_{ij}F_{ji}-F_{ij}F_{jj}+F_{ij}\\
&\qquad +F_{ij}-F_{ji}-F_{jj}+I\\
&= 0-F_{ii}-F_{ij}+F_{ij}\\
&\qquad +F_{ij}-F_{ji}-F_{jj}+I\\
&=  F_{ij}-F_{ji}-F_{ii}-F_{jj}+I\\
 &=  F_{ij} - F_{ji} + \sum_{m\in\llbracket 1, n\rrbracket \setminus \{i, j\}} F_{mm}.
\end{align*}

Troisième et dernier produit, calcul de $D_j(V_iV_jV_i)$

\begin{align*}
D_j(V_iV_jV_i) &= ( -2F_{jj} + I)\left(  F_{ij} - F_{ji} + \sum_{m\in\llbracket 1, n\rrbracket \setminus \{i, j\}} F_{mm}\right)\\
&= -2F_{jj}F_{ij} +2F_{jj}F_{ji}-2\sum_{m\in\llbracket 1, n\rrbracket \setminus \{i, j\}} F_{jj}F_{mm}\\
&\qquad +F_{ij} - F_{ji} + \sum_{m\in\llbracket 1, n\rrbracket \setminus \{i, j\}} F_{mm}
\\
&= 0+2F_{ji} - 0 \\
&\qquad +F_{ij} - F_{ji} + \sum_{m\in\llbracket 1, n\rrbracket \setminus \{i, j\}} F_{mm}\\
&= F_{ij} + F_{ji} + \sum_{m\in\llbracket 1, n\rrbracket \setminus \{i, j\}} F_{mm}\\
&= T.
\end{align*}

Prolongement

Pour savoir ce qui a motivé l’introduction des opérations ci-dessous

\begin{align*}
x&\leftarrow x+y\\
y&\leftarrow y-x\\
x&\leftarrow x+y
\end{align*}

allez lire le contenu rédigé dans l'article 376.

284. Hyperplans, formes linéaires, stabilité d’un hyperplan par un endomorphisme, trigonalisation (3/3)

Vous considérez la matrice :

A=\begin{pmatrix}
0 & 1 & 0 & 2\\
-3 & 0 & 4 & 0\\
0 & 1 & 0 & 3\\
-1 & 0 & 1 & 0
\end{pmatrix}.

Trigonaliser la matrice $A$ revient à trigonaliser l’endomorphisme $u$ de $\R^4$ canoniquement associé à $A.$ Il est défini par :

\forall(x,y,z,t)\in\R^4, u(x,y,z,t)=(y+2t, -3x+4z, y+3t, -x+z).

Notez les matrices identité

Dans la suite, vous aurez besoin des matrices suivantes :

\begin{align*}
I &= \begin{pmatrix}
1 & 0 & 0 & 0\\
0 & 1 & 0 & 0\\
0 & 0 & 1 & 0\\
0 & 0 & 0 & 1
\end{pmatrix}
\\
I_2 &= \begin{pmatrix}
1 & 0\\
0 & 1
\end{pmatrix}.
\end{align*}

Déterminez un hyperplan stable par $u$

Suivant ce qui a été établi au sein du contenu écrit dans l'article 283 vous formez la matrice transposée de $A$ :

^{t}A=\begin{pmatrix}
0 & -3 & 0 & -1\\
1 & 0 & 1 & 0\\
0 & 4 & 0 & 1\\
2 & 0 & 3 & 0
\end{pmatrix}.

Pour déterminer un vecteur propre de $^{t}A$ vous pouvez choisir la colonne de $^{t}A$ qui semble la plus simple possible, ici la quatrième. Vous posez $V = \begin{pmatrix} 0 \\0\\0\\1\end{pmatrix}$ et calculez les itérés de ce vecteur par la matrice $^{t}A.$

Tout d’abord :

\begin{align*}
^{t}A V &=\begin{pmatrix}
0 & -3 & 0 & -1\\
1 & 0 & 1 & 0\\
0 & 4 & 0 & 1\\
2 & 0 & 3 & 0
\end{pmatrix}
\begin{pmatrix}
0 \\
0\\
0\\
1
\end{pmatrix}
\\
&=\begin{pmatrix}
-1 \\
0\\
1\\
0
\end{pmatrix}.
\end{align*}

La famille $(V, ^{t}A V)$ étant libre, vous poursuivez.

\begin{align*}
(^{t}A)^2 V &=\ ^{t}A (^{t}AV)\\
&= \begin{pmatrix}
0 & -3 & 0 & -1\\
1 & 0 & 1 & 0\\
0 & 4 & 0 & 1\\
2 & 0 & 3 & 0
\end{pmatrix}
\begin{pmatrix}
-1 \\
0\\
1\\
0
\end{pmatrix}  \\
&= \begin{pmatrix}
0 \\
-1\\
0\\
-2
\end{pmatrix} 
+
\begin{pmatrix}
0 \\
1\\
0\\
3
\end{pmatrix} 
\\
&=
\begin{pmatrix}
0 \\
0\\
0\\
1
\end{pmatrix} \\
&=V.
\end{align*}

Cette égalité fournit :

\begin{align*}
(^{t}A)^2V - V &= 0\\
((^{t}A)^2-I)V &=0\\
(^{t}A-I)(^{t}A+I)V &=0.
\end{align*}

D’après ce qui précède, le polynôme $(X+1)(X-1)$ est le polynôme unitaire de plus petit degré appartenant à l’ensemble :

\{P\in\R[X], P(^{t}A)V = 0\}.

Cet ensemble est un idéal de $\R[X]$ qui est engendré par $(X+1)(X-1).$

Or, le polynôme $\pi$ minimal de la matice $^{t}A$ appartient à cet idéal, donc $(X+1)(X-1)$ divise $\pi$ donc $1$ et $-1$ sont deux racines de $\pi$, donc $1$ et $-1$ sont deux valeurs propres de $^{t}A.$

Ainsi, les deux matrices $(^{t}A-I)$ et $(^{t}A+I)$ sont non inversibles.

Vous formez la première :

^{t}A-I=\begin{pmatrix}
-1 & -3 & 0 & -1\\
1 & -1 & 1 & 0\\
0 & 4 & -1 & 1\\
2 & 0 & 3 & -1
\end{pmatrix}.

Pour déterminer son noyau, vous cherchez à exprimer une colonne en fonction des autres, elle vous donnera un vecteur non nul de ce noyau.

Vous effectuez les opérations élémentaires suivantes : $L_2\leftarrow L_2+L_1$ ce qui donne :

\begin{pmatrix}
-1 & -3 & 0 & -1\\
0 & -4 & 1 & -1\\
0 & 4 & -1 & 1\\
2 & 0 & 3 & -1
\end{pmatrix}.

Vous constatez immédiatement en effectuant l’opération $L_3\leftarrow L_3+L_2$ que vous tombez sur une matrice qui comporte une ligne entièrement nulle :

\begin{pmatrix}
-1 & -3 & 0 & -1\\
0 & -4 & 1 & -1\\
0 & 0 & 0 & 0\\
2 & 0 & 3 & -1
\end{pmatrix}.

Vous retrouvez bien le fait que $^{t}A -I$ est non inversible. Vous continuez les opérations élémentaires. Par exemple avec $L_4\leftarrow L_4+2L_1$ :

\begin{pmatrix}
-1 & -3 & 0 & -1\\
0 & -4 & 1 & -1\\
0 & 0 & 0 & 0\\
0 & -6 & 3 & -3
\end{pmatrix}.

Vous effectuez alors $L_3 \leftrightarrow L_4$ puis $L_3 \leftarrow \frac{1}{3}L_3$ :

\begin{pmatrix}
-1 & -3 & 0 & -1\\
0 & -4 & 1 & -1\\
0 & -2 & 1 & -1\\
0 & 0 & 0 & 0
\end{pmatrix}.

Pour triangulariser la matrice, vous terminez par les opérations $L_2\leftarrow L_2 – 2L_3$ et $L_2\leftrightarrow L_3$ :

\begin{pmatrix}
-1 & -3 & 0 & -1\\
0 & -2 & 1 & -1\\
0 & 0 & -1 & 1\\
0 & 0 & 0 & 0
\end{pmatrix}.

Il apparaît alors que $C_4 = C_1-C_3$, autrement dit $C_1-C_3-C_4 = 0.$

Les opérations élémentaires sur les lignes conservant les noyaux, il vient, en posant $W = \begin{pmatrix}1 \\0\\-1\\-1\end{pmatrix}$ :

\begin{align*}
(^{t}A-I)W&=\begin{pmatrix}
-1 & -3 & 0 & -1\\
1 & -1 & 1 & 0\\
0 & 4 & -1 & 1\\
2 & 0 & 3 & -1
\end{pmatrix}
\begin{pmatrix}1 \\0\\-1\\-1\end{pmatrix}
\\
&=\begin{pmatrix}0 \\0\\0\\0\end{pmatrix}.
\end{align*}

Donc $W$ est un vecteur propre de la matrice $^{t}A$ associé à la valeur propre $1.$

Ainsi, l’hyperplan $H_3$ de $\R^4$ défini par :

\boxed{H_3 = \{(x,y,z,t)\in\R^4, x-z-t = 0\}}

est stable par l’endomorphisme $u.$

Facultatif : vérifiez que cet hyperplan est stable par $u$

Soit $(x,y,z,t)\in\R^4$ tel que $(x,y,z,t)\in H_3.$

Alors $x = z+t.$

De plus :

\begin{align*}
u(x,y,z,t)&=(y+2t, -3x+4z, y+3t, -x+z) \\
 &=(y+2t, -3z-3t+4z, y+3t, -z-t+z)\\
&=(y+2t, z-3t, y+3t, -t).
\end{align*}

Or :

\begin{align*}
(y+2t)-(y+3t)-(-t) &= y+2t-y-3t+t\\
&=0.
\end{align*}

donc $u(x,y,z,t)\in H_3.$

De ce qui précède, vous déduisez que la restriction de $u$ à $H_3$, notée $u_{|H_3}$ est bien définie.

Déterminez un hyperplan stable par $u_{|H_3}$

Comme :

H_3 = \{(x,y,z,t)\in\R^4, x = z+t\}

vous déduisez :

\begin{align*}
H_3 &= \{(z+t,y,z,t), (y,z,t)\in\R^3\}\\
&= \{(z,0,z,0) + (t,0,0,t) + (0,y,0,0), (y,z,t)\in\R^3\}\\
&= \{z(1,0,1,0) + t(1,0,0,1) + y(0,1,0,0), (y,z,t)\in\R^3\}.
\end{align*}

Vous posez :

\boxed{\begin{align*}
e_1 &= (1,0,1,0)\\
e_2 &= (1,0,0,1)\\
e_3 &= (0,1,0,0).
\end{align*}}

Alors :

H_3 = \mathrm{Vect}(e_1,e_2,e_3).

Comme $H_3$ est de dimension $3$ en tant qu’hyperplan de $\R^4$ vous déduisez que la famille $(e_1,e_2,e_3)$, qui est génératrice de $H_3$, est en fait une base de $H_3.$ Vous noterez $(e_1^{*}, e_2^{*}, e_3^{*})$ sa base duale.

Vous calculez d’abord :

\begin{align*}
u_{|H_3}(e_1) &= u(1,0,1,0)\\
&=(0, 1, 0, 0)\\
&=e_3.
\end{align*}

Puis :

\begin{align*}
u_{|H_3}(e_2) &= u(1,0,0,1)\\
&=(2, -3, 3, -1)\\
&=(2, -3, 3, -1) +e_2-e_2\\
&=(2, -3, 3, -1) + (1,0,0,1)-e_2\\
&=(3, -3, 3, 0) -e_2\\
&=3(1, -1, 1, 0) -e_2\\
&=3(e_1-e_3) -e_2\\
&=3e_1 -e_2-3e_3.
\end{align*}

Enfin :

\begin{align*}
u_{|H_3}(e_3) &= u(0,1,0,0)\\
&=(1, 0, 1, 0)\\
&=e_1.
\end{align*}

Vous déduisez que la matrice de $u_{|H_3}$ dans la base $(e_1,e_2,e_3)$ est :

B = \begin{pmatrix}
0  & 3 & 1\\
0  & -1 & 0\\
1 & -3 & 0
\end{pmatrix}.

Du coup, la matrice transposée de $B$ est :

^{t}B = \begin{pmatrix}
0  & 0 & 1\\
3  & -1 & -3\\
1 & 0 & 0
\end{pmatrix}.

La colonne la plus simple de $B$ est la deuxième, ce qui conduit à poser $V = \begin{pmatrix}0\\ 1 \\ 0\end{pmatrix}.$

\begin{align*}
^{t}B V &=  \begin{pmatrix}
0  & 0 & 1\\
3  & -1 & -3\\
1 & 0 & 0
\end{pmatrix}
 \begin{pmatrix}0\\ 1 \\ 0\end{pmatrix}
\\
&= \begin{pmatrix}0\\ -1 \\ 0\end{pmatrix}\\
&=-V.
\end{align*}

Vous avez obtenu un vecteur propre de $^{t}B.$

Notez :

\begin{align*}
H_2 &= \{x\in H_3, 0e_1^{*}(x)+1e_2^{*}(x)+0e_3^{*}(x) = 0\}\\
&= \{x\in H_3, e_2^{*}(x) = 0\}.
\end{align*}

Alors $H_2$ est le noyau d’une forme linéaire non nulle de $H_3$ donc $H_2$ est un hyperplan de $H_3$ et donc $H_2$ est de dimension $2.$

Soit $x\in H_2.$ Comme :

\begin{align*}
x &= e_1^{*}(x) e_1+e_2^{*}(x) e_2+e_3^{*}(x) e_3\\
&= e_1^{*}(x) e_1+0 e_2+e_3^{*}(x) e_3\\
&= e_1^{*}(x) e_1+e_3^{*}(x) e_3
\end{align*}

vous déduisez que $x \in \mathrm{Vect}(e_1, e_3).$

Réciproquement, soit $x \in \mathrm{Vect}(e_1, e_3).$

Il existe $(\lambda_1, \lambda_3)\in\R^2$ tel que :

x = \lambda_1 e_1 + \lambda_3 e_3.

Par linéarité :

\begin{align*}
e_2^{*}(x) &= \lambda_1 e_2^{*}(e_1) + \lambda_3 e_2^{*}(e_3)\\
&= \lambda_1 \times 0 + \lambda_3 \times 0\\
&=0.
\end{align*}

Donc $x\in H_2.$

Ainsi l’hyperplan $H_2$ est stable par $u_{|H_3}$ donc par $u$, avec :

\boxed{H_2  = \mathrm{Vect}(e_1, e_3).}

Comme $H_2$ est de dimension $2$, la famille $(e_1,e_3)$ qui est génératrice de $H_2$, en est une base.

Déterminez une droite stable par $u_{|H_2}$

Comme $u(e_1) = e_3$ et $u(e_3) = e_1$ la matrice $C$ de $u_{|H_2}$ dans la base $(e_1,e_3)$ est :

C = \begin{pmatrix}
0 & 1\\
1 & 0
\end{pmatrix}.

Vous constatez que $^{t}C = C.$ Vous posez $V = \begin{pmatrix}1\\ 0 \end{pmatrix}.$

Alors :

\begin{align*}
^{t}CV &= \begin{pmatrix}
0 & 1\\
1 & 0
\end{pmatrix}
\begin{pmatrix}1\\ 0 \end{pmatrix}
\\
&=\begin{pmatrix}0\\ 1 \end{pmatrix}.
\end{align*}

La famille $(V, ^{t}CV)$ étant libre vous poursuivez.

Puis :

\begin{align*}
(^{t}C)^2V &= \begin{pmatrix}
0 & 1\\
1 & 0
\end{pmatrix}
\begin{pmatrix}0\\ 1 \end{pmatrix}
\\
&=\begin{pmatrix}1\\ 0 \end{pmatrix}\\
&=V.
\end{align*}

Ainsi, le polynôme $X^2-1$ est le polynôme unitaire de plus petit degré appartenant à l’ensemble :

\{P\in\R[X], P(^{t}C)V = 0\}.

Comme le polynôme minimal de la matrice $^{t}C$ y appartient, vous déduisez que $X^2-1 = (X+1)(X-1)$ le divise. Le polynôme minimal de $^{t}C$ admet donc $1$ et $-1$ pour racines qui sont deux valeurs propres.

Vous formez la matrice :

^{t}C - I_2 = \begin{pmatrix}
-1 & 1\\
1 & -1
\end{pmatrix}.

La colonne $2$ vaut $-1$ fois la colonne $1$, soit $C_2 = -C_1$ soit $C_1+C_2 = 0$ donc le vecteur $\begin{pmatrix}1\\ 1 \end{pmatrix}$ est vecteur propre de $^{t}C.$

En notant $(e_1^{**}, e_3^{**})$ la base duale de $(e_1,e_3)$ vous définissez la droite $D$ de $H_2$ en posant :

\begin{align*}
D &= \{x\in H_2, 1e_1^{**}(x)+ 1e_3^{**}(x) = 0\}\\
&= \{x\in H_2, e_1^{**}(x)+ e_3^{**}(x) = 0\}.
\end{align*}

Notez que $e_1^{**}(e_1)+ e_3^{**}(e_1) = 1+0 = 1$ donc la forme linéaire $e_1^{**}+e_3^{**}$ n’est pas nulle.

Donc $D$ est un hyperplan de $H_2$ et par suite $D$ est de dimension $1$, c’est une droite.

Il s’agit maintenant d’en déterminer une base.

Soit $x \in D.$ Alors $x\in H_2$ donc il existe $(\lambda_1, \lambda_3)\in \R^2$ tel que :

x=\lambda_1e_1+\lambda_3e_3.

Par linéarité :

\begin{align*}
e_1^{**}(x) &= \lambda_1e_1^{**}(e_1)+\lambda_3 e_1^{**}(e_3)\\
&=\lambda_1.
\end{align*}
\begin{align*}
e_3^{**}(x) &= \lambda_1e_3^{**}(e_1)+\lambda_3 e_3^{**}(e_3)\\
&=\lambda_3.
\end{align*}

Comme :

e_1^{**}(x)+ e_3^{**}(x) = 0

Vous déduisez :

\begin{align*}
\lambda_1+\lambda_3 &= 0\\
\lambda_1 &= - \lambda_3.
\end{align*}

Du coup :

\begin{align*}
x&=\lambda_1e_1+\lambda_3e_3\\
x&=-\lambda_3e_1+\lambda_3e_3\\
x&=\lambda_3(-e_1+e_3)\\
x&\in \mathrm{Vect}(-e_1+e_3).
\end{align*}

Réciproquement, soit $x\in \mathrm{Vect}(-e_1+e_3).$

Il existe un réel $\lambda$ tel que :

\begin{align*}
x&=\lambda(-e_1+e_3)\\
&=-\lambda e_1+ \lambda e_3.
\end{align*}

Vous obtenez toujours par linéarité :

\begin{align*}
e_1^{**}(x) &= -\lambda e_1^{**}(e_1) + \lambda e_1^{**}(e_3)\\
&=-\lambda.
\end{align*}
\begin{align*}
e_3^{**}(x) &= -\lambda e_3^{**}(e_1) + \lambda e_3^{**}(e_3)\\
&=\lambda.
\end{align*}

Et par suite :

e_1^{**}(x)+ e_3^{**}(x) = 0

donc $x\in D.$

En définitive, la droite $\boxed{D = \mathrm{Vect}(-e_1+e_3)}$ est stable par $u_{|H_2}$ donc par $u.$

Déduisez-en une trigonalisation de l’endomorphisme $u$

Choisissez un vecteur $v_4$ n’appartenant pas à $H_3.$

Comme $H_3$ est caractérisé par l’égalité :

H_3 = \{(x,y,z,t)\in\R^4, x-z-t = 0\}

vous choisissez $\boxed{v_4 = (1,0,0,0).}$

Alors $\R^4$ s’écrit comme somme directe :

\R^4 = H_3 \oplus \mathrm{Vect}(v_4)

Vous cherchez maintenant à décomposer $H_3.$ Vous prenez un vecteur de $H_3$ qui n’appartient pas à $H_2.$

Pour rappel :

H_3 = \mathrm{Vect}(e_1,e_2,e_3).

Cependant :

\begin{align*}
H_2 &= \mathrm{Vect}(e_1,e_3)\\
&= \{x\in H_3, e_2^{*}(x) = 0\}.
\end{align*}

En choisissant $\boxed{v_3 = e_2 = (1,0,0,1)}$ vous aboutissez à :

\R^4 = H_2  \oplus \mathrm{Vect}(v_3) \oplus \mathrm{Vect}(v_4)

Pour décomposer $H_2$ vous choisissez de $H_2$ qui n’appartient pas à $D.$ Vous pouvez choisir $\boxed{v_2 = e_3 = (0,1,0,0).}$

En effet, si $e_3$ appartenait à la droite $D$, il existerait un scalaire $\lambda$ tel que :

\begin{align*}
e_3 &= \lambda(-e_1+e_3)\\
\lambda e_1+(1-\lambda)e_3&=0
\end{align*}

La famille $(e_1,e_3)$ étant libre, cela fournit $\lambda = 0$ et $1-\lambda = 0$ donc $\lambda= 0= 1$ ce qui est absurde.

En posant $\boxed{v_1 = -e_1+e_3 = (-1,1,-1,0)}$ vous aboutissez à :

\R^4 =\mathrm{Vect}(v_1) \oplus \mathrm{Vect}(v_2)   \oplus \mathrm{Vect}(v_3) \oplus \mathrm{Vect}(v_4).

Pour finir les calculs, il reste à calculer, pour tout $i\in \llbracket, 1,4\rrbracket$ le vecteur $u(v_i)$ au sein de la base $(v_1,v_2,v_3,v_4).$

Tout d’abord :

\begin{align*}
u(v_1) &= u(-1,1,-1,0)\\
&= (1, -1, 1, 0)\\
&= -v_1.
\end{align*}

Ensuite :

\begin{align*}
u(v_2) &= u(0,1,0,0)\\
&= (1, 0, 1, 0)\\
&= (1, 0, 1, 0) + (-1,1,-1,0) - v_1\\
&= (0,1,0,0) -v_1\\
&= -v_1+v_2.
\end{align*}

Puis :

\begin{align*}
u(v_3) &= u(1,0,0,1)\\
&= (2, -3, 3, -1) \\
&=  (2, -3, 3, -1) + (1,0,0,1)  -v_3\\
&=(3,-3,3,0)-v_3\\
&=3(1,-1,1,0)-v_3\\
&=-3v_1-v_3.
\end{align*}

Enfin :

\begin{align*}
u(v_4) &= u(1,0,0,0)\\
&= (0, -3, 0, -1).
\end{align*}

La famille $(v_1,v_2,v_3,v_4,u(v_4))$ est liée. Cela va permettre d’exprimer le vecteur $u(v_4)$ dans la base $(v_1,v_2,v_3,v_4).$

\left\{\begin{align*}
v_1&=(-1,1,-1,0)\\
v_2 &= (0,1,0,0)\\
v_3 &= (1,0,0,1)\\
v_4 &= (1,0,0,0)\\
u(v_4) &= (0, -3, 0, -1).
\end{align*}\right.
\left\{\begin{align*}
v_2 &= (0,1,0,0)\\
v_1+v_3 &= (0,1,-1,1)\\
v_1+v_4 &= (0,1,-1,0)\\
u(v_4) &= (0, -3, 0, -1).
\end{align*}\right.
\left\{\begin{align*}
v_1-v_2+v_3 &= (0,0,-1,1)\\
v_1-v_2+v_4 &= (0,0,-1,0)\\
3v_2+u(v_4) &= (0, 0, 0, -1).
\end{align*}\right.
\left\{\begin{align*}
v_3 -v_4 &= (0,0,0,1)\\
3v_2+u(v_4) &= (0, 0, 0, -1).
\end{align*}\right.
\begin{align*}
 3v_2+v_3 -v_4 +u(v_4) &= 0 \\
u(v_4) &= -3v_2-v_3+v_4.
\end{align*}

Dans la base $(v_1,v_2,v_3,v_4)$ l’endomorphisme $u$ est trigonalisé, puisque sa matrice $T$ est triangulaire supérieure :

\boxed{T = \begin{pmatrix}
-1 & -1 & -3 & 0\\
0 & 1 & 0 & -3\\
0 & 0 & -1 & -1\\
0 & 0 & 0 & 1
\end{pmatrix}.}

Interprétez matriciellement le changement de base

Partez de la matrice :

A=\begin{pmatrix}
0 & 1 & 0 & 2\\
-3 & 0 & 4 & 0\\
0 & 1 & 0 & 3\\
-1 & 0 & 1 & 0
\end{pmatrix}.

Vous notez $P$ la matrice de passage de la base canonique de $\R^4$ vers la base $(v_1,v_2,v_3,v_4)$ :

P=\begin{pmatrix}
-1 & 0 & 1 & 1\\
1 & 1 & 0 & 0\\
-1 & 0 & 0 & 0\\
0 & 0 & 1 & 0
\end{pmatrix}.

Alors $P$ est inversible et :

\boxed{T = P^{-1}AP.}

283. Hyperplans, formes linéaires, stabilité d’un hyperplan par un endomorphisme, trigonalisation (2/3)

Soit $E$ l’ensemble $\R^3$ muni de sa structure de $\R$-espace vectoriel.

Vous considérez l’endomorphisme $u$ de $\R^3$ défini par :

\forall (x,y,z)\in\R^3, u(x,y,z)=(4x+2y-2z,x+5y-z, x+3y+z).

Note. La matrice de l’endomorphisme $u$ dans la base canonique de $\R^3$ est :

A =\begin{pmatrix}
4 & 2 & -2\\
1 & 5 & -1 \\
1 & 3 & 1
\end{pmatrix}.

Supposez qu’il existe un hyperplan stable par $u$

Notez $H$ un tel hyperplan. Alors $\forall X\in H, u(X)\in H.$

Il a été vu dans le contenu rédigé dans l'article 282 qu’il existe une forme linéaire $\varphi$ non nulle telle que $H = \ker \varphi.$

Vous simplifier les notations, vous notez $a = \varphi(1,0,0)$, $b=\varphi(0,1,0)$ et $c=\varphi(0,0,1).$

Vous fixez un élément $(x,y,z)$ de $\ker \varphi.$

Comme $(x,y,z)\in H$ vous déduisez que $u(x,y,z)$ appartient encore à $H$, ce qui s’écrit :

\begin{align*}
\varphi(4x+2y-2z,x+5y-z, x+3y+z) &= 0 \\
\varphi(4x,x,x)+\varphi(2y,5y,3y)+\varphi(-2z,-z,z)&=0\\
x\varphi(4,1,1)+y\varphi(2,5,3)+z\varphi(-2,-1,1)&=0\\
(4a+b+c)x+(2a+5b+3c)y+(-2a-b+c)z &= 0.
\end{align*}

Considérez la forme linéaire $\psi$ de $\R^3$ définie par :

\forall (x',y',z')\in\R^3, \psi(x',y',z') = (4a+b+c)x'+(2a+5b+3c)y'+(-2a-b+c)z'.

Ainsi vous avez obtenu $(x,y,z)\in\ker \psi.$

Du coup, $\ker \varphi \subset \ker \psi.$

Toujours d’après le contenu rédigé dans l'article 282 vous déduisez qu’il existe un réel $t$ tel que $\psi = t \varphi.$

En évaluant cette égalité pour le vecteur $(1,0,0)$ vous trouvez $4a+b+c = ta.$

Avec l’évaluation sur le vecteur $(0,1,0)$ vous trouvez $2a+5b+3c=tb.$

Enfin, avec le vecteur $(0,0,1)$ vous trouvez $-2a-b+c = tc.$

La forme linéaire $\varphi$ étant non nulle, vous déduisez $(a,b,c)\neq (0,0,0).$ De plus :

\begin{pmatrix}
4 & 1 & 1\\
2 & 5 & 3\\
-2 & -1 & 1\\
\end{pmatrix}\begin{pmatrix}
 a\\
 b\\
c\\
\end{pmatrix} = t\begin{pmatrix}
 a\\
 b\\
c\\
\end{pmatrix}.

Ainsi, le vecteur $\begin{pmatrix}a\\b\\ c\end{pmatrix}$ est un vecteur propre de la matrice $^{t}A.$

Réciproquement, pour chaque vecteur propre de la matrice transposée de $A$, montrez que vous obtenez un hyperplan stable par $u$

Soit $X$ un vecteur propre de la matrice $^{t}A.$

Il existe donc un réel $t$ et un triplet $(a,b,c)\in\R^3 \setminus \{0,0,0\}$ tels que :

\begin{align*}
X&=\begin{pmatrix}
a\\
b\\
c
\end{pmatrix}\\
^{t}AX &= tX.
\end{align*}

Vous déduisez alors que :

\left\{\begin{align*}
 4a+b+c &= ta\\
 2a+5b+3c&=tb\\
-2a-b+c &= tc.
\end{align*}\right.

Notez $\varphi$ la forme linéaire définie par :

\forall (x,y,z)\in\R^3, \varphi(x,y,z)=ax+by+cz.

Comme $(a,b,c)\neq (0,0,0)$ la forme linéaire $\varphi$ n’est pas entièrement nulle.

Posez $H = \ker \varphi.$ Alors $H$ est un hyperplan de $E.$

Soit maintenant $(x,y,z)\R^3$ tel que $(x,y,z)\in H.$

Alors :

\begin{align*}
\varphi(u(x,y,z)) &= \varphi(4x+2y-2z,x+5y-z, x+3y+z) \\
&=a(4x+2y-2z)+b(x+5y-z)+c(x+3y+z)\\
&=(4a+b+c)x+(2a+5b+3c)y+(-2a-b+c)z\\
&=tax+tby+tcz\\
&=t(ax+by+cz)\\
&=t\varphi(x,y,z)\\
&=t\times 0\\
&=0.
\end{align*}

Donc $u(x,y,z)\in H.$

L’hyperplan $H$ est bien stable par $u.$

Concluez

Pour obtenir un hyperplan stable par l’endomorphisme $u$ il faut et il suffit de trouver un triplet de réels $(a,b,c)$ pour que $\begin{pmatrix} a\\ b\\ c \end{pmatrix}$ soit un vecteur propre de la matrice transposée de $A.$

Une fois ce vecteur propre obtenu, l’ensemble défini par :

H = \{(x,y,z)\in\R^3, ax+by+cz=0\}

est un hyperplan stable par $u.$

282. Hyperplans, formes linéaires, stabilité d’un hyperplan par un endomorphisme, trigonalisation (1/3)

Soit $n$ un entier naturel non nul. Soit $E$ un $\K$-espace vectoriel de dimension finie $n.$

Note. Dans cet article, le théorème du rang ainsi que les résultats éventuels sur la dualité ne seront volontairement pas utilisés.

Démontrez qu’un hyperplan est le noyau d’une forme linéaire non nulle

Vous fixez dans ce paragraphe un sous-espace vectoriel de $E$ de dimension $n-1$ qui sera noté $H.$ Un tel sous-espace est nommé hyperplan de $E.$

Notez $(e_1, \dots, e_{n-1})$ une base de $H$ et complétez la en rajoutant un vecteur $e_n$ de $E$ tel que $(e_1,\dots, e_{n-1}, e_n)$ soit une base de $E.$

Une application linéaire étant déterminée par ses images sur une base, vous notez $\varphi$ l’unique forme linéaire de $E$ qui vérifie :

\left\{\begin{array}{l}
\forall i\in \llbracket 1, n-1 \rrbracket, \varphi(e_i)=0\\
\varphi(e_n)=1.
\end{array}\right.

La forme linéaire $\varphi$ est non nulle puisque $\varphi(e_n) \neq 0.$

Soit maintenant $x$ un vecteur de $H.$

Comme $H$ est engendré par la famille de vecteurs $(e_1,\dots,e_{n-1})$ vous déduisez qu’il existe $(\lambda_1,\dots, \lambda_{n-1})\in\K^{n-1}$ tel que :

x = \sum_{i=1}^{n-1}\lambda_i e_i.

Par linéarité de $\varphi$ :

\begin{align*}
\varphi(x) &= \sum_{i=1}^{n-1}\lambda_i \varphi(e_i)\\
&= \sum_{i=1}^{n-1}\lambda_i  \times 0\\
&=0.
\end{align*}

Ainsi $H$ est inclus dans le noyau de $\varphi.$

Soit maintenant $x$ un vecteur de $E$ tel que $x\in \ker \varphi.$

Il existe $(\lambda_1,\dots,\lambda_{n-1},\lambda_n)\in \K^n$ tel que :

x = \sum_{i=1}^{n-1}\lambda_i e_i + \lambda_n e_n

D’autre part, $\varphi(x) = 0.$

Ainsi, en appliquant $\varphi$ vous déduisez :

\begin{align*}
\varphi(x) & = \sum_{i=1}^{n-1}\lambda_i \varphi(e_i) + \lambda_n \varphi(e_n) \\
0 &= \sum_{i=1}^{n-1}\lambda_i \times 0 + \lambda_n \times 1 \\
0 &= \lambda_n.
\end{align*}

Du coup :

\begin{align*}
x &= \sum_{i=1}^{n-1}\lambda_i e_i + 0\times e_n\\
&= \sum_{i=1}^{n-1}\lambda_i e_i.
\end{align*}

Ainsi :

\begin{array}{l}
x\in\mathrm{Vect}(e_1,\dots, e_{n-1})\\
x\in H.
\end{array} 

Vous déduisez l’égalité :

\boxed{H = \ker \varphi.}

Démontrez qu’une forme linéaire est proportionnelle à une autre quand le noyau de la seconde est inclus dans le noyau de la première

Soient $\psi$ et $\varphi$ deux formes linéaires quelconques de $E$ telles que $\ker \varphi \subset \ker \psi.$

Cas où $\varphi = 0$

Si la forme linéaire $\varphi$ est entièrement nulle, alors $\ker \varphi = E$ et l’inclusion $\ker \varphi \subset \ker \psi$ fournit $\ker \psi = E$ et donc $\psi = 0.$ Ainsi $\varphi = \psi$ et les deux formes linéaires $\psi$ et $\varphi$ sont bien proportionnelles.

Cas où $\varphi \neq 0$

Supposez maintenant que $\varphi \neq 0.$ Il existe un vecteur $e_n$ tel que $\varphi(e_n) \neq 0.$ Notez $H = \ker \varphi.$

Démontrez que $E = H\oplus \mathrm{Vect}(e_n).$

Soit $x$ un vecteur de $E.$

Comme $\varphi(x)\in\K$ vous avez :

\varphi(x) =  \frac{\varphi(x)}{\varphi(e_n)} \times \varphi(e_n)

Posez $t = \frac{\varphi(x)}{\varphi(e_n)}.$ Alors :

\begin{align*}
\varphi(x) &=  t \times \varphi(e_n) \\
\varphi(x)&=  \varphi(t e_n) \\
\varphi(x) - \varphi(t e_n) &= 0\\
\varphi(x-te_n)&=0\\
x-te_n \in H.
\end{align*}

Comme :

x= (x-te_n)+te_n

il apparaît que $x\in H + \mathrm{Vect}(e_n).$

Donc

E = H+\mathrm{Vect}(e_n).

Soit maintenant $x\in H\cap \mathrm{Vect}(e_n).$

D’une part, il existe $t\in\K$ tel que $x = te_n$ et d’autre part $\varphi(x) = 0.$

Ainsi $t\varphi(e_n) = 0.$ Or $\varphi(e_n)\neq 0$ donc $t = 0$ et par suite $x=0.$

Donc

H\cap \mathrm{Vect}(e_n) = \{0\}.

Ainsi :

\boxed{E = H \oplus \mathrm{Vect}(e_n).}

Démontrez que la forme $\psi$ est un multiple de $\varphi$

Le vecteur $e_n$ ne peut être nul, sinon $\varphi(e_n)$ serait nul aussi, ce qui est absurde. Donc $\dim \mathrm{Vect(e_n)}=1.$

Comme :

\dim E = \dim H + \dim \mathrm{Vect}(e_n)

vous déduisez que :

\dim H = n-1.

Donc $H$ est un hyperplan de $E.$ Il existe donc $(e_1,\dots, e_{n-1})\in E^{n-1}$ tel que $H$ admette la famille $(e_1,\dots, e_{n-1})$ comme base.

L’égalité $E = H \oplus \mathrm{Vect}(e_n)$ fournit alors le résultat suivant : $(e_1,\dots, e_{n-1}, e_n)$ est une base de $E.$

Les formes linéaires $\psi$ et $\varphi$ s’annulent simultanément lorsqu’elles sont restreintes à $H.$

Via un scalaire $t$ bien choisi, vous allez montrer que $\psi$ et $t \varphi$ coïncident sur $E$ tout entier.

Pour cela intéressez-vous encore au vecteur $e_n.$ Comme $\psi(e_n)\in \K$ il suffit de poser $t = \frac{\psi(e_n)}{\varphi(e_n)}.$

Tout d’abord :

\begin{align*}
(t\varphi)(e_n) &= t\times \varphi(e_n)\\
&=\frac{\psi(e_n)}{\varphi(e_n)} \times \varphi(e_n)\\
&=\psi(e_n).
\end{align*}

Soit maintenant $x\in E.$

Il existe $(\lambda_1, \dots, \lambda_n)\in\K^n$ tel que :

x = \sum_{i=1}^{n}\lambda_i e_i.

D’une part :

\begin{align*}
(t\varphi)(x) &=  t\times \varphi(x)\\
&=t \times \sum_{i=1}^{n} \lambda_i \varphi(e_i)\\
&= \sum_{i=1}^{n} (t\lambda_i) \varphi(e_i)\\
&= \sum_{i=1}^{n-1} (t\lambda_i) \varphi(e_i) + t\lambda_n \varphi(e_n) \\
&= \sum_{i=1}^{n-1} (t\lambda_i) \times 0 + \lambda_n \times (t\varphi)(e_n) \\
&= \lambda_n \psi(e_n).
\end{align*}

D’autre part :

\begin{align*}
\psi(x) &=   \sum_{i=1}^{n} \lambda_i \psi(e_i)\\
&= \sum_{i=1}^{n-1} \lambda_i \psi (e_i) + \lambda_n \psi(e_n) \\
&= \sum_{i=1}^{n-1} \lambda_i \times 0 + \lambda_n \psi(e_n) \\
&= \lambda_n \psi(e_n)\\
&=(t\varphi)(x).
\end{align*}

Concluez

Si $\varphi$ et $\psi$ sont deux formes linéaires telles que $\ker \varphi \subset \ker \psi$, alors la forme linéaire $\psi$ est un multiple de la forme linéaire $\varphi.$