Votre navigateur n'accepte pas le Javascript.La navigation sur ce site risque de ne pas fonctionner correctement.

099. Axiomatique de N

L’ensemble des entiers naturels noté $\N$ est formé de tous les entiers positifs en commençant par $0$ qui est lui aussi positif.

Il est impossible de démontrer que l’ensemble $\N$ existe : on travaille à partir d’axiomes qui justifient son existence.

L’ensemble $\N$ possède deux propriétés fondamentales qui sont équivalentes :

  1. Le « bon ordre ». Toute partie de $\N$, non vide, admet un plus petit élément.
  2. Le « principe » de récurrence. Pour tout entier $n\in\N$, notez $P(n)$ une propriété qui peut être vraie ou fausse en fonction de la valeur de l’entier naturel $n$. Supposez que $P(0)$ soit vraie (on parle d’initialisation) et que l’implication $\forall n\in\N, P(n)$ vraie $\Longrightarrow P(n+1)$ vraie soit vérifiée (on parle d’hérédité). Alors la propriété $P(n)$ est vraie quel que soit l’entier naturel $n$.

Note : selon la théorie utilisée, le principe de récurrence peut être considéré comme un axiome ou un théorème.

Passez maintenant à l’équivalence des deux énoncés.

Le bon ordre implique le principe de récurrence

Supposez que $\N$ possède la propriété suivante : « toute partie de $\N$ non vide admet un plus petit élément ».

Pour tout entier naturel $n$, on note $P(n)$ une propriété vraie ou fausse, vérifiant les conditions suivantes.

$P(0)$ est vraie et $\forall n\in\N, P(n)$ vraie $\Longrightarrow P(n+1)$ vraie.

Vous voulez montrer que $P(n)$ est vraie pour tout entier naturel $n$. Vous allez considérer l’ensemble noté $A$ des entiers naturels $n$ tels que $P(n)$ soit fausse.

Si $A$ n’est pas vide, alors $A$ admet un plus petit élément noté $a$. Notez que $a=0$ donne $P(a)$ vraie ce qui contredit le fait que $a\in A$. Par conséquent, $a\neq 0$ donc $a\geq 1$ et $a-1 \in \N$. Comme $a-1$ est strictement inférieur à $a$, $a-1\notin A$, donc $P(a-1)$ est vraie. Du coup, $P(a-1+1)$ est vraie et $P(a)$ est vraie donc $a\notin A$, contradiction.

Il en résulte que $A$ est vide, donc $\forall n\in\N$, la propriété $P(n)$ est vraie.

Le principe de récurrence implique que le bon ordre

Partir d’une partie de $\N$ non vide et chercher un plus petit élément est quelque chose de délicat.

Le principe, c’est de regarder si $0$ est un élément de cette partie. Si oui, c’est le plus petit élément recherché. Sinon, vous regardez si $1$ est un élément de cette partie, et ainsi de suite…

Pour traduire rigoureusement le « ainsi de suite », vous utiliserez le principe de récurrence pour montrer que si une partie de $\N$ n’admet pas de plus petit élément, alors elle est vide.

Supposez que $\N$ vérifie le principe de récurrence et notez $A$ une partie de $\N$ n’admettant pas de plus petit élément.

Pour tout entier naturel $n$, vous notez $P(n)$ la propriété : « Pour tout entier naturel $k$ inférieur ou égal à $n$, $k\notin A.$ »

Initialisation : pour $k=0$. Si $0$ appartenait à $A$, alors $0$ serait le plus petit élément de $A$, contradiction. Donc $0\notin A$ et par conséquent $P(0)$ est vérifiée.

Hérédité : soit $n$ un entier naturel. Supposez que $P(n)$ est vérifiée.

Notez que tous les entiers naturels $k$ compris entre $0$ et $n$ n’appartient pas à $A$. Si $n+1$ appartenait à $A$, $n+1$ serait le plus petit élément de $A$, contradiction. Donc $n+1\notin A$.

Conclusion : vous venez de montrer que $\forall n\in\N$, $P(n)$ est vraie. Vous en déduisez que $\forall n\in\N, n\notin A.$ Comme $A$ est une partie de $\N$, il s’ensuit que $A$ est vide.

Par contraposée, si $A$ est une partie non vide de $\N$, elle admet un plus petit élément.

098. Calcul d’une intégrale impropre

Le problème de l’intégrale impropre

Remarquez déjà que, pour tout réel $x$,

\begin{aligned}
\sin x + \cos x &= \sqrt{2} \left(\dfrac{\sqrt{2}}{2}\sin x+ \dfrac{\sqrt{2}}{2} \cos x\right) \\
&=\sqrt{2} \left(\sin x \cos \dfrac{\pi}{4} + \cos x \sin \dfrac{\pi}{4}\right) \\
&= \sqrt{2} \sin \left(x+\dfrac{\pi}{4}\right)
\end{aligned}

Il apparaît donc que, quand $x \to -\frac{\pi}{4}$, que $\sin x + \cos x \to 0$ et le logarithme de $0$ n’est pas défini. Du coup, vous travaillerez avec des intégrales bien définies où l’intérieur du logarithme est toujours strictement positif. Cela conduit au paragraphe suivant.

Les propriétés de l’intégrale $I_\varepsilon$

Pour tout réel $\varepsilon \in \left]0,\dfrac{\pi}{2}\right]$ considérez, $I_\varepsilon =\displaystyle \int_{-\pi/4+\varepsilon}^{\pi/4} \ln \left(\sin x + \cos x \right) \mathrm{d}x = \int_{-\pi/4+\varepsilon}^{\pi/4} \ln \left(\sqrt{2} \sin \left(x+\dfrac{\pi}{4}\right)\right) \mathrm{d}x.$

Via le changement de variable $y = x+\frac{\pi}{4}$, il apparaît que $I_\varepsilon =\displaystyle\int_{\varepsilon}^{\pi/2} \ln (\sqrt{2} \sin y) \mathrm{d}y. $

Effectuez une première séparation.

\begin{aligned}
I_{\varepsilon} &= \displaystyle\int_{\varepsilon}^{\pi/2} \ln (\sqrt{2} \sin y) \mathrm{d}y \\
&= \displaystyle\int_{\varepsilon}^{\pi/2}\left( \ln \sqrt{2} + \ln (\sin y) \right) \mathrm{d}y \\
&= \displaystyle\int_{\varepsilon}^{\pi/2} (\ln \sqrt{2}) \mathrm{d}y + \int_{\varepsilon}^{\pi/2} \ln (\sin y) \mathrm{d}y \\
&= \displaystyle (\ln \sqrt{2}) \int_{\varepsilon}^{\pi/2}\mathrm{d}y + \int_{\varepsilon}^{\pi/2} \ln (\sin y) \mathrm{d}y \\
&= \displaystyle \left(\dfrac{\pi}{2}-\varepsilon \right) (\ln \sqrt{2}) + \int_{\varepsilon}^{\pi/2} \ln (\sin y) \mathrm{d}y. \\
\end{aligned}

Vers le calcul de $J = \displaystyle\int_{0}^{\pi/2} \ln (\sin y) \mathrm{d}y$

Pour tout réel $\varepsilon \in \left]0,\dfrac{\pi}{2}\right]$, posez $J_\varepsilon =\displaystyle \int_{\varepsilon}^{\pi/2} \ln (\sin y) \mathrm{d}y. $

Définissez une fonction $g$ sur $\R$ en posant $g(0)=1$ et, pour tout réel $y$ non nul, $g(y)=\dfrac{\sin y}{y}$. Cette fonction $g$ est continue sur $\R$.

Notez que pour tout réel $y> 0$ :

\begin{aligned}
\ln(\sin y) &= \ln \left(y \times\dfrac{\sin y}{y}\right) \\
&= \ln y + \ln g(y).
\end{aligned}

Par composée de fonctions continues, la fonction $y\mapsto \ln g(y)$ est continue sur $[0,\frac{\pi}{2}]$ donc elle est intégrable sur $[0,\frac{\pi}{2}]$.

La fonction $y\mapsto \ln y$ admet pour primitive $y\mapsto y\ln y -y$ sur $]0,+\infty[$ et cette primitive a bien une limite quand $y\to 0$ donc la fonction $y\mapsto \ln y$ est intégrable sur $\left[0,\dfrac{\pi}{2}\right].$

Par somme de fonctions intégrables, il en résulte que $J = \displaystyle \int_{0}^{\pi/2} \ln (\sin y) \mathrm{d}y$ est bien définie et que $\lim_{\varepsilon \to 0} J_\varepsilon = J.$

Vous allez vous focaliser sur cette intégrale. L’idée principale c’est de construire une équation la faisant réapparaître plusieurs fois.

Vous pouvez utiliser l’égalité : $\forall y\in\left[0,\dfrac{\pi}{2}\right], \cos\left(\dfrac{\pi}{2}-y\right) = \sin y.$

Vous effectuez le changement de variable $z = \frac{\pi}{2}-y$ :

\begin{aligned}
J_\varepsilon &= \int_{\varepsilon}^{\pi/2} \ln (\sin y) \mathrm{d}y \\
&= \ – \int_{\pi/2 – \varepsilon}^{0} \ln (\cos z) \mathrm{d}z\\
&= \int_{0}^{\pi/2 – \varepsilon} \ln (\cos z) \mathrm{d}z\\
\end{aligned}

Maintenant, vous sommez les deux expressions pour $\varepsilon \in \left]0,\dfrac{\pi}{4}\right].$

\begin{aligned}
2J_\varepsilon &= \int_{\varepsilon}^{\pi/2} \ln (\sin x) \mathrm{d}x + \int_{0}^{\pi/2 – \varepsilon} \ln (\cos x) \mathrm{d}x \\
&= \int_{\varepsilon}^{\pi/2-\varepsilon} \ln (\sin x) \mathrm{d}x + \int_{\pi/2 – \varepsilon}^{\pi/2} \ln (\sin x) \mathrm{d}x + \int_{0}^{\varepsilon} \ln (\cos x) \mathrm{d}x + \int_{\varepsilon}^{\pi/2 – \varepsilon} \ln (\cos x) \mathrm{d}x \\
&= \int_{\varepsilon}^{\pi/2-\varepsilon}\left[ \ln (\sin x) + \ln (\cos x)\right] \mathrm{d}x + \int_{\pi/2 – \varepsilon}^{\pi/2} \ln (\sin x) \mathrm{d}x + \int_{0}^{\varepsilon} \ln (\cos x) \mathrm{d}x.
\end{aligned}

Notez que la fonction $x\mapsto \ln(\cos x)$ est continue au voisinage de $0$, par conséquent $\displaystyle\lim_{\varepsilon\to 0} \int_{0}^{\varepsilon} \ln (\cos x) \mathrm{d}x = 0.$

De même, la fonction $x\mapsto \ln(\sin x)$ est continue au voisinage de $\dfrac{\pi}{2}$, par conséquent $\displaystyle\lim_{\varepsilon\to 0} \int_{\pi/2 – \varepsilon}^{\pi/2} \ln (\sin x) \mathrm{d}x = 0.$

Vers le calcul de $\displaystyle \int_{\varepsilon}^{\pi/2-\varepsilon}\left[ \ln (\sin x) + \ln (\cos x)\right] \mathrm{d}x$

Pour tout réel $\varepsilon \in \left]0,\dfrac{\pi}{4}\right]$, posez $K_\varepsilon = \displaystyle \int_{\varepsilon}^{\pi/2-\varepsilon}\left[ \ln (\sin x) + \ln (\cos x)\right] \mathrm{d}x.$

\begin{aligned}
K_\varepsilon &= \int_{\varepsilon}^{\pi/2-\varepsilon}\left[ \ln (\sin x) + \ln (\cos x)\right] \mathrm{d}x\\
&= \int_{\varepsilon}^{\pi/2-\varepsilon} \ln \left(\sin x \cos x\right) \mathrm{d}x\\
&= \int_{\varepsilon}^{\pi/2-\varepsilon} \ln \left(\dfrac{2 \sin x \cos x}{2}\right) \mathrm{d}x\\
&= \int_{\varepsilon}^{\pi/2-\varepsilon} \ln \left(\dfrac{\sin (2x)}{2}\right) \mathrm{d}x\\
&= \int_{\varepsilon}^{\pi/2-\varepsilon} \left[\ln (\sin (2x)) – \ln2 \right] \mathrm{d}x\\
&= \int_{\varepsilon}^{\pi/2-\varepsilon} \ln (\sin (2x)) \mathrm{d}x \ – (\ln2)\int_{\varepsilon}^{\pi/2-\varepsilon} \mathrm{d}x\\
&= \int_{\varepsilon}^{\pi/2-\varepsilon} \ln (\sin (2x)) \mathrm{d}x -\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2)\\
&=\dfrac{1}{2}\int_{2\varepsilon}^{\pi-2\varepsilon} \ln (\sin y) \mathrm{d}y -\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2)\\
&=\dfrac{1}{2}\int_{2\varepsilon}^{\pi/2} \ln (\sin y) \mathrm{d}y + \dfrac{1}{2}\int_{\pi/2}^{\pi-2\varepsilon} \ln (\sin y) \mathrm{d}y -\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2)\\
&=\dfrac{1}{2}J_{2\varepsilon}+ \dfrac{1}{2}\int_{\pi/2}^{\pi-2\varepsilon} \ln (\sin y) \mathrm{d}y -\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2)\\
&=\dfrac{1}{2}J_{2\varepsilon}+ \dfrac{1}{2}\int_{0}^{\pi/2-2\varepsilon} \ln \left(\sin \left(z+\dfrac{\pi}{2}\right)\right) \mathrm{d}z -\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2)\\
&=\dfrac{1}{2}J_{2\varepsilon}+ \dfrac{1}{2}\int_{0}^{\pi/2-2\varepsilon} \ln (\cos z) \mathrm{d}z -\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2)\\
&= \dfrac{1}{2}J_{2\varepsilon} + \dfrac{1}{2}J_{2\varepsilon}-\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2)\\
&=J_{2\varepsilon}-\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2).
\end{aligned}

Concluez

\begin{aligned}
2J_\varepsilon &= \int_{\varepsilon}^{\pi/2-\varepsilon}\left[ \ln (\sin x) + \ln (\cos x)\right] \mathrm{d}x + \int_{\pi/2 – \varepsilon}^{\pi/2} \ln (\sin x) \mathrm{d}x + \int_{0}^{\varepsilon} \ln (\cos x) \mathrm{d}x\\
&= K_\varepsilon + \int_{\pi/2 – \varepsilon}^{\pi/2} \ln (\sin x) \mathrm{d}x + \int_{0}^{\varepsilon} \ln (\cos x) \mathrm{d}x \\
&=J_{2\varepsilon}-\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2) + \int_{\pi/2 – \varepsilon}^{\pi/2} \ln (\sin x) \mathrm{d}x + \int_{0}^{\varepsilon} \ln (\cos x) \mathrm{d}x.
\end{aligned}

Maintenant passez à la limite quand $\varepsilon \to 0.$

$2J = J – \dfrac{\pi}{2} (\ln2).$

Donc $J = \dfrac{-\pi \ln 2}{2}.$

On a vu que :

$I_{\varepsilon} = J_\varepsilon + \left(\dfrac{\pi}{2}-\varepsilon \right) (\ln \sqrt{2}).$

Le membre de droite admet une limite quand $\varepsilon\to 0$, donc le membre de gauche aussi.

L’intégrale $\displaystyle\int_{-\pi/4}^{\pi/4} \ln (\sin x + \cos x) \mathrm{d}x$ est donc bien définie et on a le résultat :

\begin{aligned}
\displaystyle\int_{-\pi/4}^{\pi/4} \ln (\sin x + \cos x) \mathrm{d}x &= J + \dfrac{\pi}{2}(\ln \sqrt{2}) \\
&=\dfrac{-\pi \ln 2}{2} + \dfrac{\pi \ln 2}{4}\\
&=\dfrac{-\pi \ln 2}{4}.
\end{aligned}

Conclusion : $\boxed{\displaystyle\int_{-\pi/4}^{\pi/4} \ln (\sin x + \cos x) \mathrm{d}x = \dfrac{-\pi \ln 2}{4}}.$

097. Comment obtenir la réduction de Frobenius d’une matrice ainsi qu’une base associée ?

Une base de Frobenius ? Une matrice de Frobenius ? Qu’est-ce ?

Connaissez-vous la matrice compagnon d’un polynôme unitaire ?

Pour $P_1(X) = X^3 + X^2 -3X +7$, vous associez l’équation de ses racines en isolant le terme de plus haut degré, ce qui donne $X^3 = -X^2+3X-7$. Les coefficients du polynôme de droite sont ceux de la dernière colonne de la matrice compagnon du polynôme $P_1.$ Les autres colonnes sont formées de $0$ partout excepté sur la sous-diagonale tronquée où les coefficients valent tous $1$.

Vous noterez $C(P_1)$ la matrice compagnon du polynôme $P_1$ qui est définie par $C(P_1)=\begin{pmatrix}0 & 0 & -7 \\ 1 & 0 & 3 \\ 0 & 1 & -1\end{pmatrix}.$

Pour le polynôme $P_2(X) = X^4+X^3-X+2$, la matrice compagnon $C(P_2)$ est définie par $C(P_2)=\begin{pmatrix}0 & 0 & 0 & -2\\ 1 & 0 & 0 & 1\\ 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & -1\end{pmatrix}.$

Des matrices compagnons par blocs comme matrices de Frobenius ?

Considérez la matrice $A$ définie par  : $A = \begin{pmatrix}C(P_1) & 0\\ 0 & C(P_2)\end{pmatrix}
= \begin{pmatrix}
0 & 0 & -7 & 0 & 0 & 0 & 0 \\
1 & 0 & 3 & 0 & 0 & 0 & 0\\
0 & 1 & -1 & 0 & 0 & 0 & 0\\
0 & 0 & 0 &0 & 0 & 0 & -2\\
0 & 0 & 0 &1 & 0 & 0 & 1\\
0 & 0 & 0 &0 & 1 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 & 1 & -1
\end{pmatrix}$

Elle est diagonale par blocs mais ce n’est pas suffisant : le polynôme $P_1$ défini par $P_1(X) = X^3+X^2-3X+7$ ne divise pas le polynôme $P_2$ défini par $P_2(X)=X^4+X^3-X+2$. Bien que $A$ soit diagonale par blocs avec des matrices compagnons, la matrice $A$ n’est pas une matrice de Frobenius.

Les polynômes doivent se diviser

Trouver une base de Frobenius pour une matrice $A\in M_n(\K)$, où $n\in\N^{*}$, c’est trouver une matrice inversible $P\in GL_n(\K)$ telle que $P^{-1}AP$ soit diagonale par blocs, avec des blocs de la forme $C(P_1)$, …, $C(P_\ell)$ où $\ell\in\N^{*}$, la famille $(P_i)_{1\leq i \leq \ell}$ étant une famille de polynômes unitaires telle que $P_1 | P_2 | … | P_{\ell}$, les matrices $C(P_1)$, …, $C(P_{\ell})$ étant les matrices compagnons relatives aux polynômes $P_1$, …, $P_{\ell}.$

Note. La suite de polynômes $(P_i)_{1\leq i \leq \ell}$ s’appelle la suite des invariants de similitude de la matrice $A$. Elle ne dépend que de la matrice $A.$

Former une matrice diagonale par blocs avec des matrices compagnons est un prérequis, mais il faut bien d’y prendre pour avoir la divisibilité des polynômes.

Exemple. Considérez la matrice $A = \begin{pmatrix}
5 & 7 & 6 & 5 & 5\\
-2 & -5 & -6 & -4 & -5\\
5 & 10 & 10 & 7 & 8\\
-6 & -8 & -6 & -5 & -5\\
-1 & -3 & -3 & -2 & -3
\end{pmatrix}.$

Si vous formez la matrice $P = \begin{pmatrix}
-1 & 0 & -1 & 1 & 0\\
1 & 1 & 1 & -1 & 0\\
-2 & -1 & -1 & 2 & 0\\
2 & 0 & 1 & -1 & 0\\
0 & 0 & 0 & -1 & 1
\end{pmatrix}$ alors la matrice $P$ est inversible et $P^{-1}AP = \begin{pmatrix}
0 & -1 & 0 & 0 & 0\\
1 & 2 & 0 & 0 & 0\\
0 & 0 & 0 & 0 & -2\\
0 & 0 & 1 & 0 & 3\\
0 & 0 & 0 & 1 & 0
\end{pmatrix} = \begin{pmatrix}
C(P_1) & 0\\
0 & C(P_2)
\end{pmatrix},$

avec $P_1 = X^2-2X+1 = (X-1)^2$ et $P_2 = X^3-3X+2 = (X+2)(X-1)^2$ et par suite, le polynôme $P_1$ divise bien le polynôme $P_2.$

La matrice $P^{-1}AP$ est bien une matrice de Frobenius associée à la matrice $A$ et la base de $\R^5$ formée par les cinq colonnes de la matrice $P$ constitue une base de Frobenius de la matrice $A.$

Etude complète d’un exemple pour bien comprendre

Soit à trouver une base de Frobenius et la matrice de Frobenius associés à la matrice réelle $A=\begin{pmatrix}
3 & 0 & -1 & 1\\
2 & 2 & 1 & 2\\
-3 & 0 & 2 & -3\\
-4 & 0 & 1 & -2
\end{pmatrix}.$

La première chose à faire, c’est construire un vecteur $v$ pour que $<v> = \vect\{A^k v, k\in\N\}$, l’espace cyclique engendré par $v$ soit de dimension maximum.

Cette dimension maximum sera donnée par le degré du polynôme minimal de la matrice $A$.

Déterminez le polynôme minimal de $A$

Une façon de faire c’est de calculer les puissances successives de $A$ jusqu’à trouver une relation de dépendance linéaire.

Les matrices $I$ et $A$ n’étant pas colinéaires, vous calculez $A^2 = \begin{pmatrix}
8 & 0 & -4 & 4\\
-1 & 4 & 4 & -1\\
-3 & 0 & 4& -3\\
-7 & 0 &4 &-3
\end{pmatrix}$

Le système $A^2 = aA + bI$ d’inconnues $a$ et $b$ réelles n’a pas de solution.

Vous calculez donc $A^3 = \begin{pmatrix}
20 & 0 & -12 & 12\\
-3 & 8 & 12 & -3\\
-9 & 0 & 8& -9\\
-21 & 0 &12 & -13
\end{pmatrix}$

Vous résolvez le système $A^3=aA^2+bA+cI.$ Vous trouvez $a = 3$, $b=0$ et $c=-4$, ce qui prouve que $A^3 = 3A^2-4I.$

Le polynôme minimal de $A$ est égal à $X^3-3X^2+4 = (X+1)(X^2-4X+4)=(X+1)(X-2)^2.$

Construisez un vecteur $v$ pour que l’espace cyclique $<v>$ soit de dimension maximale

En considérant les facteurs irréductibles du polynôme minimal de $A$, vous cherchez un vecteur $v_1\in\ker(A+I)\setminus \{0\}$ et un vecteur $v_2\in\ker(A-2I)^2 \setminus \ker(A-2I).$

Calculez le noyau de la matrice $A+I= \begin{pmatrix}
4 & 0 & -1 & 1\\
2 & 3 & 1 & 2\\
-3 & 0 & 3 & -3\\
-4 & 0 & 1 & -1
\end{pmatrix}.$

Vous finissez par trouver $\ker(A+I) = \vect\left[ \begin{pmatrix}
0\\
-1 \\
1\\
1
\end{pmatrix}\right].$ Vous posez $v_1 = \begin{pmatrix}
0\\
-1 \\
1\\
1
\end{pmatrix}.$

Calculez maintenant le noyau de $A-2I = \begin{pmatrix}
1 & 0 & -1 & 1\\
2 & 0 & 1 & 2\\
-3 & 0 & 0 & -3\\
-4 & 0 & 1 & -4
\end{pmatrix}.$

Le détail du processus est donné parce qu’il est intéressant et évitera de calculer la matrice $(A-2I)^2.$

Pour la détermination de $\ker(A-2I)$ vous résolvez le système linéaire suivant :

$\left\{\begin{align*}
x_1 -x_3+x_4&=0\\
2x_1+x_3+2x_4 &=0\\
-3x_1-3x_4 &=0\\
-4x_1+x_3-4x_4 &=0.
\end{align*}\right.$

Vous effectuez les opérations élémentaires suivantes : $L_2\leftarrow L_2-2L_1$, $L_3\leftarrow L_3+3L_1$ et $L_4\leftarrow L_4+4L_1.$

$\left\{\begin{align*}
x_1 -x_3+x_4&=0\\
3x_3 &=0\\
-3x_3 &=0\\
-3x_3 &=0.
\end{align*}\right.$

Ainsi le système est équivalent à :

$\left\{\begin{align*}
x_1 &=-x_4\\
x_2 & = x_2\\
x_3 &=0\\
x_4 &=x_4.
\end{align*}\right.$

$\ker(A-2I) = \vect\left[ \begin{pmatrix}
-1\\
0 \\
0\\
1
\end{pmatrix}, \begin{pmatrix}
0\\
1 \\
0\\
0
\end{pmatrix}\right].$

Vous cherchez maintenant une base de $\ker(A-2I)^2.$

Soit $X = \begin{pmatrix}
x_1\\
x_2 \\
x_3\\
x_4
\end{pmatrix}.$ Au lieu de résoudre $(A-2I)^2X = 0$ vous résolvez $(A-2I)X\in \ker(A-2I).$

Le vecteur $X$ appartient au noyau de $(A-2I)^2$, si et seulement si, il existe deux réels $a$ et $b$ tels que :

$\left\{\begin{align*}
x_1 -x_3+x_4&=-a\\
2x_1+x_3+2x_4 &=b\\
-3x_1-3x_4 &=0\\
-4x_1+x_3-4x_4 &=a.
\end{align*}\right.$

Vous effectuez les mêmes opérations élémentaires : $L_2\leftarrow L_2-2L_1$, $L_3\leftarrow L_3+3L_1$ et $L_4\leftarrow L_4+4L_1.$

$\left\{\begin{align*}
x_1 -x_3+x_4&=-a\\
3x_3 &=b+2a\\
-3x_3 &=-3a\\
-3x_3 &=-3a.
\end{align*}\right.$

$\left\{\begin{align*}
x_1 -x_3&=-a-x_4\\
x_3 &=a\\
b &=a\\
\end{align*}\right.$

$\left\{\begin{align*}
x_1 &=-x_4\\
x_3 &=a\\
b &=a\\
\end{align*}\right.$

$X$ appartient à $\ker(A-2I)^2$ si et seulement si il existe un réel $a$ tel que :

$\left\{\begin{align*}
x_1 &=-x_4\\
x_2 &=x_2\\
x_3 &=a\\
x_4 &=x_4\\
\end{align*}\right.$

$\ker(A-2I)^2 = \vect\left[ \begin{pmatrix}
-1\\
0 \\
0\\
1
\end{pmatrix}, \begin{pmatrix}
0\\
1 \\
0\\
0
\end{pmatrix}, \begin{pmatrix}
0\\
0 \\
1 \\
0
\end{pmatrix}\right].$

Vous choisissez $v_2 = \begin{pmatrix}
0\\
0 \\
1 \\

\end{pmatrix}.$

Maintenant que vous avez les vecteurs $v_1$ et $v_2$, vous posez $v = v_1-v_2 = \begin{pmatrix}
0\\
-1 \\
0 \\
1
\end{pmatrix}.$

Voyez pourquoi le vecteur $v$ a un polynôme minimal de degré $3$.

Il a été vu que $v_1$ admet $X+1$ pour polynôme minimal et que $v_2$ admet $(X-2)^2.$

Soit $P\in\R[X]$ un polynôme annulant le vecteur $v$, c’est-à-dire tel que $P(A)v = 0.$

Prenez le vecteur $v_1 = v + v_2$. Appliquez le polynôme $P$.

$P(A)v_1 = P(A)v_2$, puis annulez le vecteur $v_2$.

$(A-2I)^2P(A) v_1 = 0.$

Le polynôme $(X-2)^2 P(X)$ annule le vecteur $v_1$. Ce polynôme est un multiple du polynôme minimal de $v_1$, donc $X+1 \ (X-2)^2 P(X)$ et par application du théorème de Gauss, $X+1 | P(X).$

Prenez le vecteur $v_2 = v_1 – v$. Appliquez le polynôme $P$.

$P(A)v_2 = P(A)v_1$, puis annulez le vecteur $v_1$.

$(A+I)P(A)v_2 = 0.$

Le polynôme $(X+1)P(X)$ annule le vecteur $v_2$. Du coup $(X-2)^2 | (X+1)P(X)$ et par le théorème de Gauss, $(X-2)^2 | P(X).$

$P(X)$ est un multiple de $X+1$ et de $(X-2)^2$ qui sont premiers entre eux, donc $P(X)$ est un multiple de leur produit.

D’autre part, $(A+I)(A-2I)^2 v = (A-2I)^2(A+I)v_1-(A+I)(A-2I)^2v_2 = 0. $

Ainsi, le vecteur $v$ admet $(X+1)(X-2)^2 = X^3-3X^2+4$ pour polynôme minimal et $<v>$ est de dimension $3$.

Le premier bloc de Frobenius

D’après ce qui précède, la famille $(v, Av, A^2v)$ est libre et $A^3v = 3A^2v-4v.$ Si vous complétez cette famille en une base $(v, Av, A^2v, w)$ de $\R^4$ et que vous formez la matrice $P = (v | Av | A^2v | w)$, la matrice $P$ sera inversible et $P^{-1}AP$ aura pour forme : $P^{-1}AP = \begin{pmatrix}
0 & 0 & -4 & \times \\
1 & 0 & 0 & \times\\
0 & 1 & 3 & \times \\
0 & 0 & 0 & \times
\end{pmatrix}.$

En notant $P_2 = (X+1)(X-2)^2$, on a $C(P_2) = \begin{pmatrix}
0 & 0 & -4\\
1 & 0 & 0 \\
0 & 1 & 3
\end{pmatrix}$ et $P^{-1}AP = \begin{pmatrix}C(P_1) & \times \\ 0 & \times \end{pmatrix}$

Attaquez le second bloc de Frobenius

D’après ce qui précède, compléter la famille $(v, Av, A^2v)$ en une base de $\R^4$ ne suffit pas.

Il s’agit, pour former un second bloc avec une matrice compagnon, de construire un supplémentaire stable par $A$ de $\vect(v,Av,A^2v).$

Construisez une forme linéaire $f$ de $\R^4$ telle que $f(v)=0$, $f(Av)=0$ et $f(A^2v) \neq 0$ puis considérez $F = \{w\in\R^4, f(w)=f(Aw)=f(A^2w)=0\}.$ Alors $F$ est un sous-espace vectoriel de $\R^4$, stable par $A$, tel que $\R^4 = <v> \oplus \ F.$

En effet, $F$ est déjà un sous-espace vectoriel de $\R^4$, comme noyau de l’application linéaire $g: w\mapsto (f(w), f(Aw), f(A^2w))$ qui va de $\R^4$ dans $\R^3.$

$F$ est stable par la matrice $A$. En effet, supposez que $w\in F.$ Alors $f(w)=f(Aw)=f(A^2w)=0$ or $A^3w \in \vect(w,Aw,A^2w)$ puisque le polynôme minimal de $A$ est de degré $3$. Par linéarité il s’ensuit que $f(A^3w)=0$ et donc $Aw \in F.$

Pour montrer que $\R^4 = <v> \oplus \ F$ il suffit de montrer que $F$ est de dimension $1$.

Par le théorème du rang, il suffit de montrer que l’image de $g$ est de dimension $3$. Or c’est effectivement le cas, puisque pour $g(v) = (0,0,k)$ où $ k$ est non nul (puisqu’il est égal à $f(A^2v)$), $g(Av) = (0,k,\times)$, $g(A^2v) = (k, \times, \times).$ Du coup la famille $(g(v), g(Av), g(A^2v))$ est libre. L’image de $g$ contient l’espace engendré par cette famille et donc l’image de $g$ a une dimension supérieure ou égale à $3$. Comme l’image de $g$ est incluse dans $\R^3$, on obtient le résultat annoncé.

Terminez les calculs

Les calculs montrent que $v = \begin{pmatrix}
0\\
-1\\
0\\
1
\end{pmatrix}$, que $Av = \begin{pmatrix}
1\\
0\\
-3\\
-2
\end{pmatrix}$ et que $A^2v = \begin{pmatrix}
4\\
-5\\
-3\\
-3
\end{pmatrix}.$

Il suffit de poser $f\left(\begin{pmatrix}
x_1\\
x_2\\
x_3\\
x_4
\end{pmatrix}\right) = 3x_1+x_3.$

Pour trouver $F$ on résout $f(x) = f(Ax) = f(A^2x)=0$ pour $x = \begin{pmatrix}
x_1\\
x_2\\
x_3\\
x_4
\end{pmatrix}$ ce qui conduit au système :

$\left\{\begin{align*}
3x_1+x_3&=0\\
6x_1-x_3&=0 \\
21x_1-8x_3+9x_4&=0.
\end{align*}\right.$

Sa résolution fournit $x_1 = x_3 = x_4 = 0$ et donc $F = \vect\left[\begin{pmatrix}
0\\
1\\
0\\
0
\end{pmatrix}\right]$ est un supplémentaire stable de $<v>.$

On peut constater rapidement que si $w = \begin{pmatrix}
0\\
1\\
0\\

\end{pmatrix}$, alors $Aw = 2w$ ce qui montre que $w$ admet $X-2$ pour polynôme minimal.

La matrice compagnon de ce polynôme est $(2)$.

Posez $P = (v| Av| A^2v| w)=\begin{pmatrix}
0 & 1 & 4 & 0 \\
-1 & 0 & -5 & 1\\
0 & -3 & -3 & 0 \\
1 & -2 & -3 & 0
\end{pmatrix}.$

Notez que tous les vecteurs de $F$ sont annulés par le polynôme minimal de $A$, par conséquent le polynôme minimal du vecteur $w$ divise le polynôme minimal de $A$.

En posant $P_1 = X-2$ et $P_2 =(X-2)^2(X+1)$, vous obtenez bien :

$P^{-1}AP = \begin{pmatrix}
C(P_2) & 0\\
0 & C(P_1)
\end{pmatrix} $ où $P_1 | P_2.$

Pour avoir les blocs de Frobenius dans le bon ordre, il suffit de poser $Q = (w | v| Av| A^2v)=\begin{pmatrix}
0 & 0 & 1 & 4 \\
1 & -1 & 0 & -5 \\
0 & 0 & -3 & -3 \\
0 & 1 & -2 & -3
\end{pmatrix}.$

Alors $Q^{-1}AQ = \begin{pmatrix}
C(P_1) & 0\\
0 & C(P_2)
\end{pmatrix} = \begin{pmatrix}
2 & 0 & 0 & 0 \\
0 & 0 & 0 & -4\\
0 & 1 & 0 & 0 \\
0 & 0 & 1 & 3
\end{pmatrix}, $ où $P_1 | P_2$ ce qui est la matrice de Frobenius et $Q$ la matrice dont les colonnes constituent une base de Frobenius de la matrice $A$.

096. Comment calculer le polynôme minimal d’une matrice ?

Soit $n$ un entier naturel non nul, $\K$ un corps et $A$ une matrice appartenant à $M_n(\K).$

$\K^n$ désigne l’ensemble des matrices colonnes à $n$ lignes à coefficients dans $\K.$

Il existe un polynôme unitaire de degré minimal, noté $\Pi\in\K[X]$ tel que $\Pi(A)=0.$

Le but de cet article consiste à donner une méthode générale permettant de calculer $\Pi.$

Les premiers paragraphes sont théoriques, ceux de la fin donnent un cas pratique.

Le polynôme minimal d’un vecteur

Pour tout vecteur $x\in\K^n$ non nul, il existe un unique polynôme $P_x$ unitaire de degré minimal tel que $P_x(A)x = 0.$

Une première information sur $\Pi$ est donnée par le théorème suivant.

Pour tout vecteur $x\in \K^n$ non nul, le polynôme minimal de $x$, noté $P_x$ divise le polynôme minimal $\Pi$ de la matrice $A$.

Cette information est cruciale, sauf que, pour avoir $\Pi$, combien faut-il prendre de vecteurs ? L’idée c’est que si $(e_1,…,e_n)$ est une base de $\K^n$, $\forall i\in\N, 1\leq i \leq n \Longrightarrow P_{e_i} | \Pi.$

Alors on constate que si $Q$ est le PPCM des polynômes $P_{e_i}$ quand $i$ est compris entre $1$ et $n$, alors $Q$ divise $\Pi$. Il y a en fait égalité : comme chaque $P_{e_i}$ annule le vecteur $e_i$, on en déduit que $\forall i \in\N, 1\leq i \leq n \Longrightarrow P_{e_i}(A)e_i = 0 \Longrightarrow Q(A)e_i = 0.$

Enfin, par linéarité, on conclut que $Q(A)=0.$ Si $x\in\K^n$, il existe $(a_1,…,a_n)\in\K^n$ tel que $x=\sum_{k=1}^n a_ie_i$ et donc $Q(A)x =\sum_{k=1}^n a_iQ(A)e_i = 0.$

Ainsi il apparaît que $Q = \Pi.$

Le cas d’une base générée par plusieurs vecteurs cycliques

Au début vous choisissez un vecteur $x_1$ non nul et pour calculer $P_{x_1}$, vous calculez successivement $Ax_1$, $A^2x_1$ jusqu’à obtenir un premier entier $k$ tel que $A^kx_1$ soit une combinaison linéaire des $A^\ell x_1$ pour $1\leq \ell \leq k-1.$ Les coefficients trouvés vous donnent $P_{x_1}.$

Vous choisissez ensuite un vecteur $x_2$ n’appartenant pas à l’espace cyclique engendré par $x_1$, et calculez de même $P_{x_2}$ jusqu’à ce que vous ayez une base de $\K^n$ de la forme $(x_1, Ax_1, … A^{k_1}x_1, …, x_p, Ax_p, …, A^{k_p}x_p).$ Notez bien ici que $k_i$ n’est pas forcément le degré du polynôme $P_{x_i}.$ En itérant le vecteur $x_i$ sur $A$, il se peut que $A^p x_i$ soit combinaison linéaire des vecteurs précédents… autant itérer permet de trouver le polynôme minimal du vecteur $x_i$, autant il faudra prendre moins de vecteurs pour garder une famille libre…

En notant $Q$ le PPCM de $P_{x_1}$, …, $P_{x_p}$ nous prétendons que $\Pi$ est égal à $Q$.

Pour tout $i\in\N$ compris entre $1$ et $p$, le polynôme $P_{x_i}$ divise le polynôme $\Pi$, du coup, $Q$ divise $\Pi.$

Soit $i$ un entier compris entre $1$ et $p$.
Soit $j$ un entier compris entre $0$ et $k_i.$

Par définition de $P_{x_i}$, $P(x_i)$ divise $\Pi.$

Notez $P_{x_i}(X) = \sum_{k=0}^{d} a_kX^k.$

Vous avez $\sum_{k=0}^{d} a_kA^k x_i = 0.$ Multipliez cette relation par $A^j.$

Alors $\sum_{k=0}^{d} a_kA^k (A^j x_i)= 0.$ Cela prouve que le polynôme minimal de $A^j x_i$ divise $P_{x_i}$ qui lui-même divise $Q$.

Ainsi $Q$ annule tous les vecteurs de la base $(x_1, Ax_1, … A^{k_1}x_1, …, x_p, Ax_p, …, A^{k_p}x_p)$ et par linéarité $Q(A)=0.$

D’où l’égalité $Q = \Pi.$

Et maintenant, un exemple de calcul dans $\R$

Considérez la matrice réelle définie par $A = \begin{pmatrix}
3 & 0 & -1 & 1\\
2 & 2 & 1 & 2\\
-3 & 0 & 2 & -3\\
-4 & 0 & 1 & -2
\end{pmatrix}.$

L’idée première consiste à choisir un vecteur $x$ de sorte que l’espace cyclique $<x>$ soit facile à calculer.

Vous choisissez $x = \begin{pmatrix}
0 \\
1\\
0\\

\end{pmatrix}.$

Alors $Ax = \begin{pmatrix}
0 \\
2\\
0\\

\end{pmatrix}.$

D’où $Ax = 2x$ et donc $(A-2I)x=0.$

Le polynôme minimal du vecteur $x$ est $X-2.$ N’ayant pas encore une base de $\R^4$ il faut continuer.

La famille $(x)$ étant libre, vous choisissez un vecteur $y$ tel que $y\notin \vect (x)$ de sorte que la famille $(x,y)$ soit libre.

La troisième colonne de $A$ étant la plus simple après la seconde, vous choisissez $y = \begin{pmatrix}
0 \\
0\\
1\\

\end{pmatrix} $ qui convient. Vous cherchez à trouver le polynôme minimal du vecteur $y.$

$Ay = \begin{pmatrix}
-1 \\
1\\
2\\
1
\end{pmatrix}.$

La famille $(y,Ay)$ est libre, il faut continuer.

$A^2 y = A \begin{pmatrix}
-1 \\
1\\
2\\
1
\end{pmatrix} = \begin{pmatrix}
-4 \\
4\\
4\\
4
\end{pmatrix}$

Vous constatez que $A^2y = 4Ay-4y$, donc $(A^2-4A+4I)y = 0$ et $X^2-4X+4 = (X-2)^2.$

La famille $(x,y,Ay)$ étant libre, il manque un vecteur pour obtenir une base de $\R^4.$

Choisissez $z\in\R^4 \setminus \vect(x,y,Ay).$ Par exemple $z = \begin{pmatrix}
0\\
0\\
0\\
1
\end{pmatrix}$ convient.

$Az = \begin{pmatrix}
1 \\
2\\
-3\\
2
\end{pmatrix}$

La famille $(z,Az)$ est libre.

$A^2z = A \begin{pmatrix}
1 \\
2\\
-3\\
2
\end{pmatrix} = \begin{pmatrix}
4 \\
-1\\
-3\\
-3
\end{pmatrix} $

La famille $(z,Az,A^2z)$ est libre.

$A^3z = A \begin{pmatrix}
4 \\
-1\\
-3\\
-3
\end{pmatrix}= \begin{pmatrix}
12 \\
-3\\
-9\\
-13
\end{pmatrix}.$

Vous remarquez que $A^3 z = 3A^2z – 4z$ d’où $(A^3-3A^2+4I)z=0$ donc $z$ admet $X^3-3X^2+4$ pour polynôme minimal. Pour le factoriser, on teste si $2$ est une racine de ce polynôme. C’est bien le cas et c’est même une racine double : $X^3-3X^2+4 = (X-2)(X^2-X-2) = (X-2)^2(X+1).$

Ainsi le polynôme $\Pi$ est un multiple de $(X-2)^2(X+1)$.

Remarquez que le polynôme $(X-2)^2(X+1)$ annule tous les vecteurs de la base $(x,y,Ay,z).$ En effet, vous avez $(A-2I)^2(A+I) x = 0$, $(A-2I)^2(A+I) y = 0$ et $(A-2I)^2(A+I) z = 0$, du coup $(A-2I)^2(A+I) (Ay) = 0.$

Par linéarité il s’ensuit que $(A-2I)^2(A+I)=0$ ce qui prouve que $\boxed{\Pi = (X-2)^2(X+1)}.$

Peut-on se passer des vecteurs cycliques ?

Tout à fait, si on ne veut pas tester les conditions de liberté de la forme « est-ce que $Ay$ est une combinaison linéaire de $x$ et de $y$ ? », il suffit de travailler avec une base $(e_1,…,e_n)$ de $\K^n.$

Le polynôme minimal $\Pi$ de la matrice $A$ est égal au PPCM des polynômes minimaux (pris sur $A$) des vecteurs d’une base de $\K^n.$
$\Pi =$ PPCM $(P_{e_i})_{1\leq i\leq n}.$

095. Comprendre la réduction de Frobenius et de Jordan pour un endomorphisme cyclique

Considérez la matrice $A = \begin{pmatrix}
2 & 1 & -1\\
3 & 3 & -4\\
3 & 1 & -2
\end{pmatrix}.$

Notez $f$ l’endomorphisme de $\R^3$ dont la matrice est $A$ dans la base canonique.

Une idée, pour chercher à trouver une base dans laquelle la matrice de $f$ est plus simple, c’est de trouver un sous-espace cyclique de $\R^3$.

Rappelons qu’un sous-espace cyclique est un sous-espace vectoriel de $\R^3$, stable par $f$, qui est de la forme $Vect(x, f(x), f^2(x), …)$ c’est à dire l’ensemble des valeurs prises sur le vecteur $x$ de tous les endomorphismes de $\R^3$ qui sont des polynômes en $f$ : $\{P(f)(x), P\in\R[X]\}$.

Comme vous travaillez ici dans $\R^3$ qui est de dimension $3$, si vous arrivez à trouver un vecteur $x$ tel que $(x, f(x), f^2(x))$ soit une base de $\R^3$, alors $f^3(x)$ est une combinaison linéaire des vecteurs $x$, $f(x)$ et $f^2(x)$ ce que vous notez ainsi : il existe un triplet $(a,b,c)\in\R^3$ tel que $f^3(x) = af^2(x)+bf(x)+cx$ et dans la base $(x,f(x),f^2(x))$ la matrice $B$ de $f$ est grandement simplifiée :

$B = \begin{pmatrix}
0 & 0 & c\\
1 & 0 & b\\
0 & 1 & a
\end{pmatrix}.$

Pour simplifier les notations et améliorer la lisibilité, la notation $<x>$ désignera le sous-espace cyclique de $f$ engendré par $x$, c’est-à-dire $<x> =\{P(f)(x), P\in\R[X]\} .$

Une idée naturelle, mais qui n’aboutira pas ici !

On peut se fire qu’il suffit de choisir un vecteur au hasard et d’appliquer $f$ successivement. Malheureusement…

Exemple : choisissez le vecteur très simple $e_1 = \begin{pmatrix}
1 \\
0\\

\end{pmatrix}$ et étudiez $<e_1>.$

Vous obtenez $f(e_1)= \begin{pmatrix}
2 \\
3\\
3
\end{pmatrix}$ puis $f^2(e_1) = f \begin{pmatrix}
2 \\
3\\
3
\end{pmatrix} = \begin{pmatrix}
4 \\
3\\
3
\end{pmatrix}.$

La famille $(e_1,f(e_1),f^2(e_1))$ est-elle libre ?

Il s’avère que non, puisque $f^2(e_1) = 2e_1+f(e_1).$ Choisir un vecteur de départ au hasard n’est pas une bonne idée…

Vers le calcul du polynôme minimal de $f$

Peut-on construire un vecteur $x$ tel que $<x>$ soit de dimension $3$ ? Comment y parvenir ?

Un aparté à propos du polynôme minimal d’un vecteur

Remarquez déjà que la dimension de $<x>$ est précisément égale au degré du polynôme minimal de $x$. Qu’est-ce qu’un tel polynôme ? Parmi tous les polynômes $P\in\R[X]^{*}$ tels que $P(f)(x)=0$, il en existe un et un seul, unitaire et de degré minimal, tel que $P(f)(x) = 0.$

Justifiez ici l’existence et l’unicité d’un tel polynôme.
Soit $x$ un vecteur de $\R^3$, fixé.

Considérez l’ensemble $\{\text{deg}(P), \exists P\in\R[X]^{*}, P(f)(x)=0\}.$

La difficulté première est de montrer que $E = \{P\in\R[X]^{*}, P(f)(x)=0\}$ est non vide. Bien-sûr, l’argument massue du théorème de Cayley-Hamilton permettrait de conclure, mais vous allez procéder de manière différente.

Pour l’existence. Vous travaillez dans un espace de dimension $3$, par conséquent toute famille de $4$ vecteurs est liée. Considérez la famille $(x,f(x),f^2(x), f^3(x))$ qui est liée.

Il existe donc un quadruplet $(a_0,a_1,a_2,a_3)\in\R^4$ différent de $(0,0,0,0)$ tel que : $a_0x+a_1f(x)+a_2f^2(x)+a_3f^3(x)=0.$

L’ensemble $\{ i \in \N, 0\leq i \leq 3, a_i\neq 0\}$ est non vide, c’est une partie de $\N$, majorée par $3$, qui admet un plus grand élément $p$.

Si $p=0$ c’est que $a_1=a_2=a_3=0$ et que $a_0\neq 0$. Par conséquent $x=0$. Définissez $P(X)=X$. Le polynôme $P$ appartient bien à $E$.

Si $p>0$, vous écrivez que $\sum_{k=0}^p a_kf^k(x)=0$ avec $a_p\neq 0$ et donc $f^p(x)=\sum_{k=0}^{p-1}\frac{-a_k}{a_p}f^k(x).$ Posez $P(X) = X^p – \sum_{k=0}^{p-1} \frac{-a_k}{a_p}X^k$. Alors $P\in E.$

Maintenant que $E \neq \emptyset$, vous déduisez que l’ensemble $\{\text{deg}(P), \exists P\in\R[X]^{*}, P(f)(x)=0\} = \{\text{deg}(P), P\in E\}$ est non vide, que c’est une partie de $\N$. Par conséquent, vous pouvez noter $n$ le minimum de $\{\text{deg}(P), P\in E.\}$

Il existe donc un polynôme $P$ de degré $n\geq 0$ tel que $P(f)(x)=0$. Quitte à diviser par le coefficient dominant de $P$, vous pouvez supposer que $P$ est unitaire.

Pour l’unicité. Supposez qu’il existe deux polynômes $P_1$ et $P_2$ unitaires et de degré $n\geq 0$ tels que $P_1(f)(x) = P_2(f)(x)=0.$

Notez que $(P_1-P_2)(f)(x)=0.$ Si le polynôme $P_1-P_2$ n’était pas nul, alors notez que le polynôme $P_1-P_2$ est de degré strictement inférieur à $n$ et annule le vecteur $x$, d’où $\text{deg}(P_1-P_2) \in \{\text{deg}(P), \exists P\in\R[X]^{*}, P(f)(x)=0\}$ ce qui contredit la minimalité de $n.$

Retour vers la recherche du vecteur $x$

Pour trouver un vecteur $x$ tel que $<x>$ soit de dimension $3$, il faut déjà vérifier que le polynôme minimal de $f$ (polynôme unitaire et de plus petit degré possible annulant $f$) n’est pas de degré $0$, $1$ ou $2.$ Le polynôme minimal de $f$ annule $f$ en entier et annule bien-sûr tout vecteur $x$. Il serait illusoire de chercher $x$ si le degré du polynôme minimal de $f$ n’est pas suffisamment élevé.

Le calcul du polynôme minimal de $f$

Notez $\Pi$ le polynôme minimal de $f$.

Remarquez que $A$ n’est pas la matrice nulle, donc $\Pi$ n’est pas constant, donc $\text{deg}(\Pi) \geq 1.$

Examinez l’hypothèse $\text{deg}(\Pi) = 1.$ Vous en déduisez l’existence d’un réel $a$ tel que $A = aI$, ce qui est impossible. Donc $\text{deg}(\Pi) \geq 2.$

Vous calculez ensuite $A^2$ et aboutissez à $A^2 = \begin{pmatrix}
4 & 4 & 4\\
3 & 8 & -7\\
3&4&-3
\end{pmatrix}.$

Examinez l’hypothèse $\text{deg}(\Pi) = 2.$ Vous en déduisez l’existence de deux réels $a$ et $b$ tels que :

$A^2=aA+bI$, ce qui donne $4 = 2a+b$, $4=a$, $3 = 3a$, … ce qui est impossible.

Il est donc acquis que le polynôme minimal de $f$ est de degré supérieur ou égal à 3.

Vérifiez qu’effectivement $\text{deg}(\Pi) = 3.$

Note : le lecteur averti sait dans le polynôme minimal a toujours un degré inférieur ou égal à la dimension de l’espace, toujours par le théorème de Cayley-Hamilton.

Vous calculez $A^3$ et trouvez que $A^3 = \begin{pmatrix}
8 & 12 & -12\\
9 & 20 & -21\\
9&12&-13
\end{pmatrix}$ puis que $A^3=3A^2-4I$, soit $A^3-3A^2+4I = 0.$

Vous en déduisez que $\Pi(X) = X^3-3X^2+4.$

L’endomorphisme $f$ de $\R^3$ a un polynôme minimal qui a le même degré que la dimension de l’espace dans lequel il opère. On dit que $f$ est un endomorphisme cyclique.

Vers la construction d’un vecteur $x$ tel que $<x>$ soit de dimension 3

Ce qui est remarquable et délicat, c’est de justifier de l’existence d’un vecteur $x$ qui admet $\Pi$ pour polynôme minimal.

Première étape : écrivez $\Pi$ comme un produit de facteurs irréductibles

Il apparaît que $-1$ est une racine de $\Pi$, ce qui permet d’aboutir à la factorisation $\Pi(X)=(X+1)(X^2-4X+4)=(X+1)(X-2)^2.$

Vous en déduisez que $\Pi = P_1^{\alpha_1}P_2^{\alpha_2}$ avec $P_1 = X+1$, $\alpha_1 = 1$, $P_2 = X-2$ et $\alpha_2 = 2.$

Seconde étape : pour chaque facteur irréductible de la forme $P_i^{\alpha}$, prenez un vecteur $x_i$ appartenant au noyau de $P_i^{\alpha}$ mais n’appartenant pas au noyau $P_i^{\alpha_i-1}$

Si $P_i^{\alpha_i}$ est un facteur apparaissant dans la factorisation de $\Pi$ avec $\alpha_i$ maximal, comment se fait-il que l’inclusion $\ker(P_i(f)^{\alpha_i-1}\subset \ker(P_i(f)^{\alpha_i}$ soit stricte ? Ce qui justifie l’existence du vecteur $x_i$ ?

Notez déjà que les polynômes $P_1$ et $P_2$ sont premiers entre eux dans $\R[X].$

Par le théorème de Bezout, il existe deux polynômes réels $Q_1$ et $Q_2$ tels que $1 = Q_1P_1+Q_2P_2^2.$

Soit $x$ un vecteur de $\R^3.$ Posez $x_1 = (Q_1P_1)(f)(x)$ et $x_2 = (Q_2P_2^2)(f)(x)$. Alors $x=x_1+x_2$ mais $(P_2^2)(f)(x_1)=(Q_1P_1P_2^2)(f)(x) = (Q_1(f))((P_1P_2^2)(f)(x))=(Q_1(f))(0)=0.$ De même, $P_1(f)(x_2) = (Q_2P_1P_2^2)(f)(x)= (Q_2(f))((P_1P_2^2)(f)(x))=(Q_2(f))(0)=0.$

Cela prouve que $\R^3 = \ker(P_1(f)) + \ker(P_2^2(f)).$

S’il existait un entier $i$ tel que $\ker(P_i(f))^{\alpha_i-1} = \ker(P_i(f))^{\alpha_i}$ vous auriez soit $\R^3 = \ker(P_2^2(f))$, soit $\R^3 = \ker(P_1(f)) + \ker(P_2(f))$ donc soit $P_2(f) = 0$, soit $(P_1P_2)(f)=0$ ce qui contredit la minimalité du degré de $\Pi.$

Cherchez un vecteur $x_1$ tel que $x_1\in\ker(A+I) \setminus \{0\}.$

Vous calculez $A+I = \begin{pmatrix}
3&1&-1\\
3&4&-4\\
3&1&-1
\end{pmatrix}$ et constatez que $x_1 = \begin{pmatrix}
0\\
1\\
1
\end{pmatrix}$ convient.

Cherchez un vecteur $x_2$ tel que $x_2\in\ker(A-2I)^2 \setminus \ker(A-2I).$

Vous calculez d’abord $\ker(A-2I).$ Comme $\begin{pmatrix}
0 & 1 & -1\\
3 & 1 & -4\\
3 & 1 & -4
\end{pmatrix}$ le rang de $A-2I$ est $2$, donc son noyau est de dimension $1$ et par suite $\ker(A-2I) = Vect\left(\begin{pmatrix}
1 \\
1 \\
1
\end{pmatrix}\right).$

Vous cherchez $X\in\ker(A-2I)^2$ soit $(A-2I)X\ker(A-2I)$ et aboutissez à $\ker(A-2I)^2 = Vect\left(\begin{pmatrix}
1 \\
1 \\
1
\end{pmatrix},\begin{pmatrix}
0 \\
1 \\

\end{pmatrix}\right).$

Vous choisissez donc $x_2 = \begin{pmatrix}
0 \\
1 \\

\end{pmatrix}.$

Dernière étape : la somme des $x_i$ fournit un vecteur cyclique

Posez $x = x_1+x_2.$

Il s’agit de comprendre pourquoi $(x,f(x),f^2(x))$ est une base de $\R^3.$

Y aller avec la définition $\forall (a_0,a_1,a_2)\in\R^3, \sum_{k=0}^2 a_kf^k(x) = 0 \Longrightarrow a_0=a_1=a_2=0$ marchera en prenant les valeurs numériques mais ne permettra pas de comprendre pourquoi cela fonctionne dans le cas général.

Travailler avec cette définition dans le cas général n’aboutira pas.

Reprenez avec ce que vous savez.

$\Pi = (X+1)(X-2)^2$ est le polynôme minimal de $f$ et vous avez deux vecteurs $x_1$ et $x_2$ tels que $x_1\in\ker(f+Id)\setminus \{0\}$ et $x_2\in \ker((f-2Id)^2) \setminus \ker(f-2Id).$

Avec $x=x_1+x_2$, pourquoi $<x>$ est de dimension $3$ ?

Il suffit de calculer le polynôme minimal de $x$.

Notez $R$ ce polynôme.

Vous allez montrer que $X+1$ divise $R$ et que $(X-2)^2$ divise $R$ aussi.

Pour utiliser $X+1$ il faut utiliser le vecteur $x_1$ et pour $(X-2)^2$ il faut $x_2.$

Remarquez que $x_1 = x – x_2$

Alors annulez $x$ et $x_2$ :

\begin{aligned}
(R(f)\circ (f-2Id)^2)(x_1) &=(R(f)\circ (f-2Id)^2)(x-x_2)\\
&= (R(f)\circ (f-2Id)^2)(x)-(R(f)\circ (f-2Id)^2)(x_2)\\
&= ((f-2Id)^2)(R(f)(x)) – (R(f))((f-2Id)^2)(x_2))\\
&= ((f-2Id)^2)(0)-(R(f))(0)\\
&= 0.
\end{aligned}

Le polynôme $(X-2)^2 R(X)$ annule le vecteur $x_1$, qui admet $X+1$ pour polynôme minimal donc $X+1$ divise $(X-2)^2R(X).$ Comme $X+1$ et $(X-2)^2$ sont premiers entre eux, par le théorème de Gauss, $X+1$ divise $R(X).$

Faites de même pour $x_2$.

Remarquez que $x_2 = x – x_1.$

Alors annulez $x$ et $x_1$ :

\begin{aligned}
(R(f)\circ (f+Id))(x_2) &=(R(f)\circ (f+Id))(x-x_1)\\
&= (R(f)\circ (f+Id))(x)-(R(f)\circ (f+Id))(x_1)\\
&= (f+Id)(R(f)(x)) – (R(f))((f+Id)(x_1))\\
&= (f+Id)(0)-(R(f))(0)\\
&= 0.
\end{aligned}

Le polynôme $(X+1)R(X)$ annule le vecteur $x_2$, qui admet $(X-2)^2$ pour polynôme minimal donc $(X-2)^2$ divise $(X+1)R(X).$ Comme $X+1$ et $(X-2)^2$ sont premiers entre eux, par le théorème de Gauss, $(X-2)^2$ divise $R(X).$

Mis bout à bout, vous en déduisez que $(X+1)(X-2)^2$ divise $R(X)$ ce qui prouve que $<x>$ est de dimension $3$. En effet, le polynôme minimal de $f$ étant de degré $3$, $<x>$ est forcément de degré inférieur ou égal à $3.$ Si $<x>$ avait une dimension strictement inférieure à $3$, alors le polynôme minimal de $x$, unitaire, serait de degré inférieur ou égal à $2$, mais il serait aussi multiple de $(X+1)(X-2)^2$ ce qui est impossible pour une question de degré.

Vous en déduisez que $x = x_1+x_2 = \begin{pmatrix}
0 \\
2\\
1
\end{pmatrix}$ est tel que $<x>$ est de dimension $3$.

Vérifiez-le directement.

$f(x) = \begin{pmatrix}
1 \\
2\\

\end{pmatrix}$

et

$f^2(x)=\begin{pmatrix}
4 \\
9\\
5
\end{pmatrix}.$

La famille $(x,f(x))$ est libre puisque $x$ est non nul et $f(x)$ non colinéaire à $x$.

Si $f^2(x)$ était une combinaison linéaire de $x$ et de $f(x)$ il existerait un couple $(a,b)\in\R^2$ tel que :

$4 = a$, $9 = 2a+2b$ et $5=b$ ce qui est impossible.

Pour déterminer la matrice de $f$ dans la base $(x,f(x),f^2(x))$ vous calculez $f^3(x)$.

Utilisant le polynôme minimal de $f$, vous savez déjà que $A^3 = 3A^2-4I$ soit

$f^3(x) = 3f^2(x)-4x.$

Vous pouvez effectuer la vérification avec les valeurs numériques des vecteurs.

$f^3(x) = f\left(\begin{pmatrix}
4 \\
9\\
5
\end{pmatrix}\right)= \begin{pmatrix}
12 \\
19\\
11
\end{pmatrix}$

Or, $f^3(x) = \begin{pmatrix}
12 \\
19\\
11
\end{pmatrix} = 3 \begin{pmatrix}
4 \\
9\\
5
\end{pmatrix} – 4 \begin{pmatrix}
0 \\
2\\
1
\end{pmatrix} = 3f^2(x)-4x.$

Et le changement de base pour Frobenius

Notez $P$ la matrice $P = \begin{pmatrix}x | f(x) | f^2(x) \end{pmatrix} =
\begin{pmatrix}
0 & 1 & 4\\
2 & 2 & 9\\
1 & 0 & 5
\end{pmatrix}.$

Comme $(x,f(x),f^2(x))$ est une base de $\R^3$, la matrice $P$ est inversible.

Comme $f^3(x) = 3f^2(x)-4x$, il s’ensuit que :

$P^{-1}AP =\begin{pmatrix}
0 & 0 & -4\\
1 & 0 & 0\\
0 & 1 & 3
\end{pmatrix}$ ce qui est une décomposition de $A$ sous la forme d’une matrice compagnon.

Au polynôme unitaire $X^3-3X^2+4$ on associe l’équation $X^3 =3X^2-4$ qui donne la matrice compagnon $C$ en prenant du bas vers le haut les coefficients apparaissant dans le membre de droite qui fournit bien $C = \begin{pmatrix}
0 & 0 & -4\\
1 & 0 & 0\\
0 & 1 & 3
\end{pmatrix}.$

Et la décomposition de Jordan dans tout cela ?

L’endomorphisme $f$ est cyclique, vous avez $\Pi = (X+1)(X-2)^2$ et deux vecteurs $x_1$ et $x_2$ tels que $x_1\in\ker(f+Id)\setminus \{0\}$ et $x_2\in \ker((f-2Id)^2) \setminus \ker(f-2Id).$

Trouver une base de Jordan est rapide : $(x_1,(f-2Id)(x_2),x_2)$ est une base de $\R^3$ qui convient.

Vous montrez avec le polynôme minimal de $f$ et le théorème de Bezout que la somme $\ker(f+Id) + \ker((f-2Id)^2)$ est directe (propriété appelée souvent « lemme des noyaux« ).

Ainsi s’il existe un triplet $(u,v,w)\in R^3$ tel que $ux_1 + v(f-2Id)(x_2)+wx_2=0$ c’est que $ux_1 = 0$ et que $v(f-2Id)(x_2)+wx_2 = 0$ puis vous concluez en appliquant les propriétés des vecteurs $x_1$ et $x_2.$

Posez $x_3 = (f-2Id)x_2$ et $Q = (x_1 | x_3 | x_2) = \begin{pmatrix}
0 &1 & 0\\
1 & 1 & 1\\
1 & 1 & 0
\end{pmatrix}.$

De plus, $f(x_2)=2x_2+x_3.$ Comme $(f-2Id)(x_3)= (f-2Id)^2(x_2)=0$, c’est que $f(x_3)=2x_3$.

La famille $(x_1,x_3,x_2)$ est une base de $\R^3$, donc $Q$ est inversible et $Q^{-1}AQ =\begin{pmatrix}
-1 &0 & 0\\
0 & 2 & 1\\
0 & 0 & 2
\end{pmatrix}$ ce qui est bien une matrice de Jordan.

Une note sur le degré du polynôme minimal

Les endomorphismes $Id$, $f$, $f^2$, …, $f^9$ étant au nombre de $10$, ils sont liés puisque l’ensemble des endomorphismes de $\R^3$ est de dimension $9$. Cette remarque permet de justifier l’existence du polynôme minimal de $f$.

Voir que le degré de ce polynôme minimal est inférieur ou égal à $3$ est plus délicat.

Il a été vu dans cet article une méthode constructive permettant de trouver un vecteur $x$ de sorte que le polynôme minimal de $x$ est précisément le polynôme minimal de $f$. Comme le polynôme minimal de $x$ est égal à la dimension de $<x>$ qui est un sous-espace vectoriel de $\R^3$, vous en déduisez bien le résultat annoncé.

Le théorème de Cayley-Hamilton est plus précis mais nous n’en avons pas besoin dans cet article ; en fait ce théorème se déduit de cette méthode constructive exposée ici.

094. Comment bien calculer un déterminant ?

Pourquoi calculer un déterminant ?

Considérez la matrice $A=\begin{pmatrix}
7&1&2&2\\
1&4&-1&-1\\
-2&1&5&-1\\
1&1&2&8
\end{pmatrix}.$

Pour parvenir à trouver une représentation plus simple de cette matrice, vous êtes plus ou moins amenés à déterminer les valeurs propres et vecteurs propres de $A$, c’est-à-dire tous les réels $x\in\R$ de sorte qu’il existe un vecteur $X$ non nul tel que $AX=xX.$ Cette égalité amène à $(A-xI)X=0$ avec $X\neq 0$ autrement dit, le réel $x$ ne peut pas être choisi n’importe comment.

L’égalité $(A-xI)X = 0$ avec $X$ non nul force la matrice $A-xI$ a être singulière ou non inversible. Par conséquent le déterminant $\det(xI-A)$ est nul. Le choix de $xI-A$ au lieu de $A-xI$ pour le calcul du déterminant est motivé par le fait que, pour toute matrice réelle $T$ carrée d’ordre $n$, $\det(xI-T)$ est un polynôme unitaire de degré $n$, ce qui n’est pas le cas de $\det(A-xI)$ quand $n$ est impair.

Quels outils utiliser pour développer un déterminant ?

Un déterminant de taille $3\times 3$ peut être calculé avec la règle de Sarrus, ce qui donne 6 termes, ce qui est faisable, mais fastidieux… et puis si le déterminant de départ est de taille $4\times 4$ vous êtes ramenés à développer avec une formule à 24 termes. Il faut bannir ces utilisations-là.

Utilisez plutôt les opérations élémentaires sur les lignes et les colonnes.

  • Priorité 1 : cherchez à factoriser par un polynôme de degré 1.
  • Priorité 2 : faites apparaître des zéros pour vous ramener à un déterminant de taille inférieure, et recommencez.

Calcul bien mené d’un déterminant $4×4$

Pour déterminer les valeurs propres de $A$, vous êtes amené à calculer :

\begin{aligned}
\det(xI-A)&=\begin{vmatrix}
x-7 & -1 & -2 & -2\\
-1 & x-4 & 1 & 1\\
2 & -1 & x-5 & 1\\
-1 & -1 & -2 & x-8
\end{vmatrix}
\end{aligned}

Le plus important ensuite c’est d’arriver à former une colonne qui soit factorisable par un polynôme de degré 1. Remplacez la colonne 1 avec l’opération élémentaire $C_1\leftarrow C_1+C_2-C_3.$

\begin{aligned}
\det(xI-A) &= \begin{vmatrix}
x-6 & -1 & -2 & -2\\
x-6 & x-4 & 1 & 1\\
0 & -1 & x-5 & 1\\
-x+6 & -1 & -2 & x-8
\end{vmatrix}\\
&=(x-6)\begin{vmatrix}
1 & -1 & -2 & -2\\
1 & x-4 & 1 & 1\\
0 & -1 & x-5 & 1\\
-1 & -1 & -2 & x-8
\end{vmatrix}.
\end{aligned}

Ensuite vous forcez l’apparition de trois zéros sur la première colonne avec les opérations élémentaires suivantes :
$L_2\leftarrow L_2-L_1$ et $L_4\leftarrow L_4+L_1.$

\begin{aligned}
\det(xI-A)&=(x-6)\begin{vmatrix}
1 & -1 & -2 & -2\\
0 & x-3 & 3 & 3\\
0 & -1 & x-5 & 1\\
0 & -2 & -4 & x-10
\end{vmatrix}\\
&=(x-6)\begin{vmatrix}
x-3 & 3 & 3\\
-1 & x-5 & 1\\
-2 & -4 & x-10
\end{vmatrix}\\
\end{aligned}

Puis vous formez l’opération élémentaire $C_2\leftarrow C_2-C_3.$

\begin{aligned}
\det(xI-A)&=(x-6)\begin{vmatrix}
x-3 & 3 & 3\\
-1 & x-5 & 1\\
-2 & -4 & x-10
\end{vmatrix}\\
&=(x-6)\begin{vmatrix}
x-3 & 0 & 3\\
-1 & x-6 & 1\\
-2 & -x+6 & x-10
\end{vmatrix}\\
&=(x-6)^2\begin{vmatrix}
x-3 & 0 & 3\\
-1 & 1 & 1\\
-2 & -1 & x-10
\end{vmatrix}\\
\end{aligned}

Forcez l’apparition de deux zéros sur la colonne 2.
$L_3\leftarrow L_3+L_2$

\begin{aligned}
\det(xI-A) &= (x-6)^2\begin{vmatrix}
x-3 & 0 & 3\\
-1 & 1 & 1\\
-3 & 0 & x-9
\end{vmatrix}\\
&= (x-6)^2\begin{vmatrix}
x-3 & 3\\
-3 & x-9
\end{vmatrix}
\end{aligned}

Formez l’opération élémentaire $C_1\leftarrow C_1-C_2.$

\begin{aligned}
\det(xI-A) &= (x-6)^2\begin{vmatrix}
x-3 & 3\\
-3 & x-9
\end{vmatrix}\\
&= (x-6)^2\begin{vmatrix}
x-6 & 3\\
-x+6 & x-9
\end{vmatrix}\\
&= (x-6)^3\begin{vmatrix}
1 & 3\\
-1 & x-9
\end{vmatrix}\\
\end{aligned}

Puis forcez l’apparition d’un zéro sur la colonne 1 avec $L_2\leftarrow L_2+L_1$ et concluez.

\begin{aligned}
\det(xI-A) &= (x-6^3)\begin{vmatrix}
1 & 3\\
0 & x-6
\end{vmatrix}\\
&=(x-6)^4.
\end{aligned}

Prolongement

Procédez à la réduction de la matrice $A$, maintenant que vous savez qu’elle n’a que $6$ comme valeur propre.

093. Meilleure approximation et orthogonalité

Le contexte

Dans cet article, on se place dans un espace vectoriel $V$ réel ou complexe muni d’un produit scalaire, appellé aussi espace préhilbertien. Ce produit scalaire sera noté $(.|.)$, dans le cas complexe ce produit scalaire sera linéaire pour la première variable et anti-linéaire vis-à-vis de la seconde variable. La norme associée à ce produit scalaire sera notée $||.||.$

Considérez un sous-espace vectoriel de $V$ que vous noterez $W.$

Soit $x$ un vecteur quelconque de $V$. Il s’agit d’approximer le mieux possible le vecteur $x$ parmi tous les vecteurs de $W$. Vous considérez la borne inférieure $\inf_{w\in W} ||x-w||$ qui est bien définie. En effet, puisque $W$ contient toujours le vecteur nul et $\forall w\in W, ||x-w||\geq 0$, l’ensemble $\{||x-w||, w\in W\}$ est non vide et minoré par $0.$

Que se passe-t-il s’il existe une meilleure approximation ?

Lorsque la borne inférieure $\inf_{w\in W} ||x-w||$ est atteinte, il existe un vecteur $y\in W$ de sorte que $\forall w\in W, ||x-y||\leq ||x-w||.$ Cette dernière inégalité permet de justifier l’appellation « meilleure approximation. »

Comment localiser un tel vecteur $y$, réalisant une meilleure approximation ?

Dans cette partie sera étudié le lien entre orthogonalité et meilleure approximation.

Supposez qu’il existe un vecteur $y\in W$ réalisant une meilleure approximation de $x$ parmi tous les vecteurs $w\in W.$ Autrement dit, supposez qu’il existe un vecteur $y\in W$ tel que $\forall w\in W, ||x-y||\leq ||x-w||.$

Maintenant les calculs débutent. Fixez un vecteur $w\in W.$ Dans le cas où l’espace $V$ est complexe, notez qu’on n’a pas, en général, la commutativité du produit scalaire et qu’il convient d’être vigilant sur l’ordre dans le développement.

\begin{aligned}
||x-y||&\leq ||x-w|| \\
||x-y||^2 &\leq ||x-w||^2 \\
(x-y|x-y) &\leq (x-w|x-w)\\
||x||^2+||y||^2-(x|y)-(y|x)&\leq ||x||^2+||w||^2-(x|w)-(w|x) \\
0&\leq ||w||^2-||y||^2+(x|y-w)+(y-w|x)
\end{aligned}

Comment aller plus loin ?

Regardez ce qui se passe quand $V$ est de dimension $2$ et que $W$ est de dimension $1$. Il apparaît géométriquement que le vecteur $y$ est tel que $x-y$ est orthogonal à tous les vecteurs de $W.$ Ce vecteur joue un rôle important, vous allez le faire apparaître dans vos calculs.

Vous allez donc écrire que $x = x-y + y$ dans les deux produits scalaires du dessus.

En développant, vous obtenez :

\begin{aligned}
(x|y-w)&= (x-y | y-w)+(y|y-w)\\
&=(x-y|y-w)+||y||^2-(y|w).
\end{aligned}

\begin{aligned}
(y-w|x)&= (y-w|x-y)+(y-w|y)\\
&=(y-w|x-y)+||y||^2-(w|y).
\end{aligned}

\begin{aligned}
0&\leq ||w||^2-||y||^2+(x|w-y)+(w-y|x) \\
0&\leq ||w||^2-||y||^2+2||y||^2+(x-y|w-y)+(w-y|x-y)-(y|w)-(w|y)\\
0&\leq ||w||^2+||y||^2+(x-y|w-y)+(w-y|x-y)-(y|w)-(w|y)\\
0&\leq (w-y|w-y)+(x-y|w-y)+(w-y|x+y)\\
0&\leq ||w-y||^2+(x-y|w-y)+(w-y|x-y).
\end{aligned}

Il a été établi que :

$\forall w\in W, 0\leq ||w-y||^2+(x-y|w-y)+(w-y|x-y).$

Note. Les lecteurs avertis réussiront à établir à cette inégalité beaucoup plus rapidement.

Soit $r\in W$. Posez $w=r+y.$ Alors $w\in W$ du coup, comme $r=w-y$ :

$0\leq ||r||^2+(x-y|r)+(r|x-y).$

Ainsi :

$\forall r\in W, 0\leq ||r||^2+(x-y|r)+(r|x-y).$

Cette propriété est trop forte : soit $w$ un vecteur quelconque de $W$.

$\forall k\in\R^{*}, k^2w\in W$
$\forall k\in\R^{*}, 0\leq ||k^2w||^2+(x-y|k^2w)+(k^2w|x-y)$
$\forall k\in\R^{*}, 0\leq k^4||w||^2+k^2(x-y|w)+k^2(w|x-y)$
$\forall k\in\R^{*}, 0\leq k^2||w||^2+(x-y|w)+(w|x-y)$

Faisant tendre $k$ vers $0$, il s’ensuit que : $(x-y|w)+(w|x-y) \geq 0.$

De même :

$\forall k\in\R^{*}, -k^2w\in W$
$\forall k\in\R^{*}, 0\leq ||-k^2w||^2-(x-y|k^2w)-(k^2w|x-y)$
$\forall k\in\R^{*}, 0\leq k^4||w||^2-k^2(x-y|w)-k^2(w|x-y)$
$\forall k\in\R^{*}, 0\leq k^2||w||^2-(x-y|w)-(w|x-y)$

Faisant tendre $k$ vers $0$, il s’ensuit que : $(x-y|w)+(w|x-y) \leq 0.$

Vous en déduisez que $\forall w\in W, (x-y|w)+(w|x-y) = 0.$

La conclusion où l’espace vectoriel $V$ est réel

Le produit scalaire est commutatif, donc $\forall w\in W, (x-y|w)+(w|x-y) = 2(x-y|w)$ et par suite $\forall w\in W, (x-y|w)=0.$

La conclusion où l’espace vectoriel $V$ est complexe

Le produit scalaire vérifie l’anti-linéarité par rapport à la seconde variable.

Soit $w\in W$. Alors vous utilisez le nombre $i\in \C$ qui vérifie $i^2 = -1.$ Comme $i w \in W$ :

\begin{aligned}
(x-y|iw)+(iw|x-y)&=0\\
-i(x-y|w)+i(w|x-y)&=0\\
-(x-y|w)+(w|x-y)&=0.
\end{aligned}

D’autre part $(x-y|w)+(w|x-y) = 0.$

Par différence vous obtenez $2(x-y|w)=0$ et finalement $(x-y|w)=0.$

Le lien est maintenant établi

Que l’espace $V$ soit réel ou complexe, un vecteur $y\in W$qui réalise le minimum de la borne inférieure $\inf_{w\in W} ||x-w||$ est tel que $x-y$ est orthogonal à tous les vecteurs de $W.$

Prolongement

Dans le cas où il existerait deux vecteurs $y_1\in W$ et $y_2\in W$ tels que $y_1$ et $y_2$ réalisent le minimum de la borne inférieure $\inf_{w\in W} ||x-w||$, a-t-on obligatoirement $y_1 = y_2$ ?

Dans le cas où la borne inférieure $\inf_{w\in W} ||x-w||$ est atteinte, peut-il y avoir plusieurs vecteurs réalisant un tel minimum ?

092. AB et BA ont le même polynôme caractéristique

Dans le cas réel ou complexe, avec la topologie, on y arrive

Dans la littérature mathématique, on trouve beaucoup de preuves de ce résultat dans $\R$ ou $\C$, avec des arguments de densité.

On commence par montrer que, si $A$ ou $B$ est inversible, supposons par exemple que ce soit la matrice $A$, alors les deux polynômes caractéristiques sont égaux :
\begin{aligned}
\det(xI – AB) &= \det(A^{-1}) \det(xI – AB) \det(A) \\
&= \det( A^{-1}(xI – AB)A )\\
&= \det( xI – A^{-1}ABA)\\
&=\det (xI -BA).
\end{aligned}

Note. Les lecteurs avertis auront remarqué que les matrices $AB$ et $BA$ sont semblables lorsque la matrice $A$ ou la matrice $B$ est inversible.

Puis on conclut par passage à la limite dans le cas général.

Est-on limité aux cas réels et complexes ?

Il est surprenant de trouver des preuves de ce type, basées sur la densité et la topologie, alors qu’en fait, la propriété fondamentale du déterminant $\det(AB)=\det(A) \det(B)$ permet de conclure avec de l’algèbre.

Vous allez voir comment.

Il y a mieux, le résultat est valable dans n’importe quel corps commutatif

Soit $n$ un entier naturel non nul.

Soient $A$ et $B$ deux matrices carrées d’ordre $n$ à coefficients dans un corps commutatif $K$ (qui n’est pas forcément réel ou complexe).

Il s’agit de montrer que $\forall x\in K, \det(xI-AB)=\det(xI-BA).$

Comme on ne sait pas si la matrice $A$ est inversible ou non, on utilise seulement $\det(A)$.

Remarquez que :

\begin{aligned}
\det(A) \det(xI-BA) &= \det( A(xI- BA ))\\
&= \det(xA-ABA)\\
&= \det ((xI-AB)A)\\
&=\det (xI-AB)\det(A)
\end{aligned}
.

Mais problème, il s’agit de simplifier par $\det(A)$, ce qui ne pourrait se faire que si $A$ est inversible… et on se mord la queue.

Comment s’en sortir ? La simplification est possible dans un anneau commutatif intègre. Or, si $K$ est un corps, l’anneau des polynômes à une indéterminée $K[X]$ l’est.

Vous allez reprendre le même calcul que précédemment mais en travaillant avec la matrice $A-XI$ à la place de la matrice $A$. Les matrices $A-XI$ et $B$ sont maintenant vues comme des matrices à coefficients dans l’anneau $K[X]$.

\begin{aligned}
\det(A-XI) \det(xI-B(A-XI)) &= \det( (A-XI)(xI- B(A-XI) ))\\
&= \det(x(A-XI)-(A-XI)B(A-XI))\\
&= \det ((xI-(A-XI)B)(A-XI))\\
&=\det (xI-(A-XI)B)\det(A-XI)
\end{aligned}
.

Cette égalité est vraie dans l’anneau $K[X]$. Or $\det(A-XI)$ est un polynôme de degré $n$, de coefficient dominant $(-1)^n.$ Par conséquent, il est non nul dans $K[X].$

Il en résulte que, dans $K[X]$, $\det(xI-B(A-XI))=\det(xI-(A-XI)B).$ On substitue $X$ par $0$ (le neutre de l’addition dans $K$) et on obtient le résultat voulu $\det(xI-BA)=\det(xI-AB).$

090. Un vecteur est caractérisé par les valeurs des produits scalaires qu’il prend avec les vecteurs d’une base

Soit $E$ un espace vectoriel de dimension finie $n$ sur un corps $K$, muni d’un produit scalaire noté $(.|.)$.

Par le procédé de Gram-Schmidt, vous savez qu’il existe une base de $E$, par exemple $(e_1,\dots,e_n)$ qui est orthonormale. Elle restera fixée une bonne fois pour toutes dans tout cet article.

L’intérêt d’une base orthonormée c’est qu’il est facile de décomposer un vecteur sur cette base en utilisant des produits scalaires.

Le lemme

Vous allez démontrer le résultat suivant :

Quels que soient les scalaires $k_1$, …, $k_n$ du corps $K$ il existe un unique vecteur $x\in E$ tel que $\forall i\in\N, 1\leq i\leq n \Rightarrow (x|e_i)=k_i.$

Procédez par analyse-synthèse.

Analyse

Soient $k_1$, …, $k_n$ des éléments de $K$. Supposez qu’il existe un vecteur $x\in E$ tel que, pour tout entier $i$ compris entre $1$ et $n$, le produit scalaire $(x|e_i)$ est égal à $k_i.$

Comme $(e_1,\dots,e_n)$ est une base de $E$, le vecteur $x$ se décompose dessus. Il existe $n$ scalaires $\ell_1$,…,$\ell_n$ tels que $x=\sum_{j=1}^n \ell_j e_j.$

Soit $i$ un entier compris entre $1$ et $n$. Vous calculez le produit scalaire $(x|e_i)$ par distributivité.

\begin{aligned}
(x|e_i) &= \sum_{j=1}^n \ell_j (e_j|e_i) \\
&= \ell_i + \sum_{j\neq i} \ell_j (e_j|e_i) \\
&= \ell_i.
\end{aligned}

Il s’ensuit que, pour tout entier $i$ compris entre $1$ et $n$, $\ell_i =(x|e_i) = k_i.$

Vous en déduisez que $x = \sum_{j=1}^n k_j e_j$ d’où l’unicité.

Synthèse

Soient $k_1$, …, $k_n$ des éléments de $K$.

Considérez le vecteur $x = \sum_{j=1}^n k_j e_j$. Alors, pour tout $i$ compris entre $1$ et $n$ :

\begin{aligned}
(x|e_i) &= \sum_{j=1}^n k_j (e_j|e_i) \\
&= k_i + \sum_{j\neq i} k_j (e_j|e_i) \\
&= k_i.
\end{aligned}

et le vecteur $x$ convient.

Le résultat avec une base quelconque

Soit $(u_1,…,u_n)$ une base de $E$. Vous utilisez la base ortonormée $(e_1,…,e_n)$ précédente. Il existe $n^2$ scalaires $(\lambda_{ij})_{1\leq i \leq n; 1\leq j \leq n}$ tels que :$\forall i \in \N, 1\leq i \leq n \Longrightarrow e_i = \sum_{j=1}^n \lambda_{ij} u_j.$

De même, il existe $n^2$ scalaires $(\mu_{ij})_{1\leq i \leq n; 1\leq j \leq n}$ tels que :$\forall i \in \N, 1\leq i \leq n \Longrightarrow u_i = \sum_{j=1}^n \mu_{ij} e_j.$

Soient $p$ et $j$ deux entiers compris entre $1$ et $n$. Vous aurez besoin d’évaluer une somme double.

Partez du vecteur $u_p$, $u_p = \sum_{q=1}^n \mu_{pq} e_q$, puis décomposez tous les vecteurs $e_q.$

\begin{aligned}
u_p &= \sum_{q=1}^n \mu_{pq} \left( \sum_{i=1}^n \lambda_{qi} u_i \right) \\
&= \sum_{q=1}^n \mu_{pq} \sum_{i=1}^n \lambda_{qi} u_i \\
&= \sum_{i=1}^n \sum_{q=1}^n \mu_{pq}\lambda_{qi} u_i \\
&= \sum_{i=1}^n \left(\sum_{q=1}^n \mu_{pq}\lambda_{qi}\right) u_i \\
\end{aligned}

Par unicité de la décomposition d’un vecteur dans une base, il en résulte que :

$\sum_{q=1}^n \mu_{pq}\lambda_{qi} = 1$ si $i=p.$

$\sum_{q=1}^n \mu_{pq}\lambda_{qi} = 1$ si $i\neq p.$

Cela permet de démontrer le résultat suivant, plus large.

Quels que soient les scalaires $k_1$, …, $k_n$ du corps $K$ il existe un unique vecteur $x\in E$ tel que $\forall i\in\N, 1\leq i\leq n \Rightarrow (x|u_i)=k_i.$

Analyse

Soient $k_1$, …, $k_n$ des éléments de $K$. Supposez qu’il existe un vecteur $x\in E$ tel que, pour tout entier $i$ compris entre $1$ et $n$, le produit scalaire $(x|u_i)$ est égal à $k_i.$

Vous déduisez que, pour tout entier $i$ compris entre $1$ et $n$ :

\begin{aligned}
(x|e_i) &= \sum_{j=1}^n \lambda_{ij} (x|u_j) \\
&= \sum_{j=1}^n \lambda_{ij} k_j.
\end{aligned}

D’après le lemme, l’unicité du vecteur $x$ est assurée.

Synthèse

Soient $k_1$, …, $k_n$ des éléments de $K$.

Considérons le vecteur $x$ défini par $x = \sum_{i=1}^n \left( \sum_{j=1}^n \lambda_{ij} k_j \right)e_i.$

Soit $p$ un entier compris entre $1$ et $n$.

\begin{aligned}
(x|u_p) &= \sum_{i=1}^n \left( \sum_{j=1}^n \lambda_{ij} k_j \right) (e_i | u_p)\\
&= \sum_{i=1}^n \sum_{j=1}^n \lambda_{ij} k_j (e_i | u_p) \\
&= \sum_{i=1}^n \sum_{j=1}^n \sum_{q=1}^n \lambda_{ij}\mu_{pq} k_j (e_i | e_q) \\
&= \sum_{i=1}^n \sum_{j=1}^n \lambda_{ij}\mu_{pi} k_j \\
&=\sum_{j=1}^n \left( \sum_{i=1}^n \lambda_{ij}\mu_{pi}\right) k_j \\
&=\sum_{j=1}^n \left( \sum_{i=1}^n\mu_{pi} \lambda_{ij}\right) k_j \\
&=\left( \sum_{i=1}^n\mu_{pi} \lambda_{ip}\right) k_p + \sum_{j\neq p} \left( \sum_{i=1}^n\mu_{pi} \lambda_{ij}\right) k_j \\
&= 1 k_p + \sum_{j\neq p} 0 k_j \\
&= k_p.
\end{aligned}

Voilà prouvé que le vecteur $x$ convient bien.

Cela achève la démonstration.

Note. Les lecteurs avertis auront remarqué que nous utilisons le fait que les matrices de passage des bases $(e_i)$ vers $(u_i)$ et vice-versa sont inversibles et inverses l’une de l’autre. Nous nous en passons ici afin de manipuler les symboles sigmas.

Prolongement

Dans $\R^3$ on note $u = (1,1,1)$, $v=(1,2,1)$ et $w=(2,3,-1)$. Le produit scalaire usuel est noté $(.|.).$
Montrez qu’il existe un unique vecteur $x$ tel que $(x|u)=1$, $(x|v)=3$, $(x|w)=2$ et déterminez ce vecteur.

089. Indépendance de vecteurs avec les projections orthogonales

Tester l’indépendance linéaire de vecteurs sans résoudre de systèmes linéaires ? Est-ce possible ? Le procédé d’orthogonalisation de Gram-Schmidt permet de répondre par l’affirmative.

Pour y voir plus clair, travaillez dans $\R^3$ muni du produit scalaire usuel noté $(.|.)$ et considérez les vecteurs suivants :
$u_1 = (2,-1,3)$, $u_2 = (3,-2,7)$ et $u_3=(8,-5,17).$ La famille $(u_1,u_2,u_3)$ est-elle libre ou liée ?

Les calculs vont prendre du temps et c’est tout à fait normal puisqu’on forme une base orthogonale de l’espace engendré par les trois vecteurs $u_1$, $u_2$ et $u_3$.

Qu’est-ce que le procédé de Gram-Schmidt ?

Pour chaque vecteur, de la gauche vers la droite, parmi $u_1$, $u_2$ et $u_3$, vous remplacez chaque vecteur par sa différence avec sa projection orthogonale sur l’espace engendré par les vecteurs précédents.

Par exemple, $u_2$ sera remplacé par $u_2-\alpha$ où $\alpha$ est la projection orthogonale de $u_2$ sur l’espace engendré par $u_1$.

De même, $u_3$ sera remplacé par $u_3-\beta$ où $\beta$ est la projection orthogonale de $u_3$ sur l’espace engendré par $u_1$ et $u_2$.

Appliquez l’orthogonalisation de Gram-Schmidt sur $u_1$ et $u_2$

Projetez orthogonalement le vecteur $u_2$ sur l’espace vectoriel engendré par $u_1$, notez $p(u_2)$ ce vecteur pour l’instant.

L’expression de cette projection pose souvent des difficultés.

Analyse

Par définition de la projection orthogonale, $p(u_2)$ est colinéaire à $u_1$. D’autre part, les vecteurs $u_2-p(u_2)$ et $u_1$ sont orthogonaux.

Il existe un réel $k$ tel que $p(u_2) = ku_1.$

Pour trouver ce réel $k$, vous utilisez le produit scalaire.

\begin{aligned}
(u_2-p(u_2)|u_1)&=0 \\
(u_2-k u_1)|u_1)&=0 \\
(u_2|u_1) -k ||u_1||^2 &=0\\
k &=\dfrac{(u_2|u_1)}{||u_1||^2}
\end{aligned}

Synthèse

Posez $p(u_2) = \dfrac{(u_2|u_1)}{||u_1||^2} u_1.$

$p(u_2)$ est bien colinéaire à $u_1$.

D’autre part :

\begin{aligned}
(u_2-p(u_2)|u_1)&=(u_2|u_1)-\left(\dfrac{(u_2|u_1)}{||u_1||^2} u_1 |u_1\right) \\
&=(u_2|u_1)-\dfrac{(u_2|u_1)}{||u_1||^2} ||u_1||^2 \\
&=0.
\end{aligned}

Procédez au calcul

$(u_2|u_1) = 6+2+21=29.$
$||u_1||^2=4+1+9=14.$

Notez $v_2 = u_2-p(u_2).$

Alors
\begin{aligned}
v_2 &= (3,-2,7) – \dfrac{29}{14} (2,-1,3) \\
&= \dfrac{1}{14}( (42,-28,98) – (58,-29,87))\\
&=\dfrac{1}{14} (-16,1,11).
\end{aligned}

Quel intérêt ?

La famille $(u_1,v_2)$ est orthogonale. L’espace engendré par $u_1$ et $u_2$ est le même que celui qui est engendré par $u_1$ et $v_2$. La famille $(u_1,v_2)$ est donc une base de l’espace engendré par $u_1$ et $u_2$.

Projetez le vecteur $u_3$ orthogonalement sur l’espace engendré par $u_1$ et $u_2$

Afin de ne pas compliquer les notations, notez $p(u_3)$ le projeté orthogonal cherché. Notez bien qu’il suffit de projeter orthogonalement $u_3$ sur l’espace engendré par $u_1$ et $v_2$. Pour se débarrasser des fractions, vous projetez sur l’espace engendré par $u_1$ et $w_2 = 14v_2=(-16,1,11)$.

En suivant une méthode analogue, vous trouvez que :

$p(u_3) = \dfrac{(u_3|u_1)}{||u_1||^2}u_1 + \dfrac{(u_3|w_2)}{||w_2||^2}w_2.$

Passez au calcul de $p(u_3)$ et concluez

$(u_3|u_1) = 16+5+51 = 21+51=72.$
$||u_1||^2=14.$

$(u_3|w_2) = – 128-5+187 = -133+187=54.$
$||w_2||^2=256+1+121=257+121=378.$

\begin{aligned}
p(u_3)&=\dfrac{72}{14}(2,-1,3)+\dfrac{54}{378}(-16,1,11)\\
&=\dfrac{36}{7}(2,-1,3)+\dfrac{27}{189}(-16,1,11)\\
&=\dfrac{36}{7}(2,-1,3)+\dfrac{1}{7}(-16,1,11)\\
&=\dfrac{1}{7}((72,-36,108)+(-16,1,11))\\
&=\dfrac{1}{7}(56,-35,119)\\
&=(8,-5,17)\\
\end{aligned}

Dans la suite de Gram-Schmidt, vous calculez $u_3-p(u_3)$ et ici, le résultat est le vecteur nul. A partir de ce stade, vous savez que la famille $(u_1,u_2,u_3)$ est liée puisque $u_3=p(u_3)$ et que $p(u_3)$ est une combinaison linéaire de $u_1$ et de $u_2$.

Bonus : trouvez la décomposition de $u_3$ sur les vecteurs précédents

\begin{aligned}
u_3 &= p(u_3)\\
&=\dfrac{(u_3|u_1)}{||u_1||^2}u_1 + \dfrac{(u_3|w_2)}{||w_2||^2}w_2\\
&=\dfrac{36}{7} u_1 + \dfrac{1}{7}\times 14 v_2\\
&=\dfrac{36}{7} u_1 + 2 v_2\\
&=\dfrac{36}{7} u_1 + 2 \left(u_2 – \dfrac{29}{14}u_1\right)\\
&=\left(\dfrac{36}{7} – \dfrac{29}{7} \right)u_1 + 2u_2\\
&=u_1+2u_2.
\end{aligned}

Prolongement

Démontrez que l’ensemble $\left\{\displaystyle\int_0^1 (x^3-ax-b)^2 \text{d}x, (a,b)\in\R^2\right\}$ admet un plus petit élément $d$. Trouvez la valeur exacte du nombre $d$. Déterminez toutes les valeurs de $a$ et de $b$ pour lesquelles le nombre $d$ est atteint.