Votre navigateur n'accepte pas le Javascript. La navigation sur ce site risque de ne pas fonctionner correctement.

105. Décomposition en éléments simples dans les nombres réels (niveau3)

Vous allez voir qu’il est tout à fait possible de trouver la décomposition en éléments simples en effectuant, dès le début, un changement de variable sur les éléments de seconde espèce.

Soit à trouver la décomposition en éléments simples dans $\R(X)$ de $ F(X) =\dfrac {X^4+1}{ X^2(X^2+X+1)^2}.$

Vous posez $Y = X^2+X+1$ et vous allez écrire $F(X)$ comme un quotient de deux polynômes de $Y$, dont les coefficients sont des polynômes réels de degré inférieur à $1$ de la variable $X$. Formellement $F(X)$ s’écrit comme un quotient de deux polynômes appartenant à $(\R_1[X])[Y].$

Calculez le numérateur de la fraction rationnelle $F(X)$

Partez de la relation $X^2 = Y-X-1$ :

$\begin{align*}
X^3 &= XY-X^2-X\\
&=XY-(Y-X-1)-X\\
&=(-1+X)Y+1
\end{align*}$

$\begin{align*}
X^4 &= (-X+X^2)Y+X\\
&=(-X+Y-X-1)Y+X\\
&=(Y-2X-1)Y+X\\
&=Y^2+(-2X-1)Y+X.
\end{align*}$

Vous en déduisez que $\boxed{F(X)=\dfrac{Y^2+(-2X-1)Y+(X+1)}{(Y+(-X-1))Y^2}}.$

Effectuez la division selon les puissances croissantes

Vous divisez $Y^2+(-2X-1)Y+(X+1)$ par $Y+(-X-1)$ selon les puissances croissantes en $Y$ de façon à obtenir un reste qui soit un multiple de $Y^2$.

$\begin{array}{rrr|l}
(X+1) & +(-2X-1)Y & +Y^2 & (-X-1) + Y\\
(X+1) & +(-1)Y & & -1 \\ \hline
& (-2X)Y & +Y^2 \\
\end{array}$

Il a été possible d’éliminer le terme $(X+1)$ du quotient en choisissant $-1$ comme premier terme au quotient, mais éliminer le terme $-2XY$ semble plus délicat, étant donné que le quotient doit rester comme un polynôme appartenant à $(\R_1[X])[Y].$

Comment continuer ?

Pour éliminer le terme en $-2XY$, vous devez ajouter au quotient un terme de la forme $(aX+b)Y.$

Calculez le produit $(aX+b)(-X-1)$ :

$\begin{align*}
(aX+b)(-X-1) &= -aX^2+(-a-b)X-b \\
&=-a(-1-X+Y)+(-a-b)X-b\\
&=(a-b)-bX-aY.
\end{align*}$

Vous choisissez $a$ et $b$ pour que $a-b = 0$ et $-b=-2$, pas le choix il n’y a que $a=b=2$ qui conduit à l’égalité :

$(2X+2)(-X-1) = -2X-2Y.$

Terminez la division

$\begin{array}{rrr|l}
(X+1) & +(-2X-1)Y & +Y^2 & (-X-1) + Y\\
(X+1) & +(-1)Y & & -1 + (2X+2)Y \\ \hline
& (-2X)Y & +Y^2 \\
& -2XY-2Y^2&+(2X+2)Y^2 \\ \hline
& & (-2X+1)Y^2
\end{array}$

Vous avez obtenu que :

$Y^2+(-2X-1)Y+(X+1) = ((-X-1)+Y)(-1+(2X+2)Y) + (-2X+1)Y^2.$

En divisant par $Y^2((-X-1)+Y)$ vous aboutissez à la séparation de la partie polaire en $Y^2$ du reste.

$\begin{align*}
F(X)&=\dfrac{-1+(2X+2)Y}{Y^2}+\dfrac{-2X+1}{(-X-1)+Y} \\
&=\dfrac{2X+2}{Y}-\dfrac{1}{Y^2}+\dfrac{-2X+1}{(-X-1)+Y}\\
&= \dfrac{2X+2}{Y}-\dfrac{1}{Y^2}+\dfrac{-2X+1}{X^2}\\
&=\dfrac{2X+2}{Y}-\dfrac{1}{Y^2}-\dfrac{2}{X}+\dfrac{1}{X^2}.
\end{align*}$

Concluez

$\boxed{F(X) = \dfrac {X^4+1}{ X^2(X^2+X+1)^2} =\dfrac{2X+2}{X^2+X+1}-\dfrac{1}{(X^2+X+1)^2}-\dfrac{2}{X}+\dfrac{1}{X^2}}.$

102. Décomposition en éléments simples dans les réels (niveau2)

Au lieu de séparer d’un seul coup toutes les parties polaires, vous allez utiliser la division selon les puissances croissantes, qui va séparer une partie polaire des autres. La dernière partie polaire sera traitée avec la division euclidienne.

Utilisez la division selon les puissances croissantes

Reprenez la fraction rationnelle $F$ définie par $F(X)=\dfrac{X^4+1}{X^2(X^2+X+1)^2}.$ Vous allez effectuer la division selon les puissances croissantes de $X^4+1$ par $(X^2+X+1)^2=X^4+2X^3+3X^2+2X+1.$

Vous effectuez cette division jusqu’à trouver un reste qui soit un multiple de $X^2.$

$\begin{array}{rrrrrr|ll}
1 & & & & +X^4 & & 1 &+2X+3X^2+2X^3+X^4 \\
1 & +2X & + 3X^2 & +2X^3 & +X^4 & & 1 &- 2X\\ \hline
& -2X & – 3X^2 & -2X^3 & \\
& -2X & -4X^2 & -6X^3 & -4X^4 & -2X^5 \\ \hline
& & X^2 & +4X^3 & +4X^4 & +2X^5
\end{array}
$

Obtenez une décomposition

Ecrivez le résultat obtenu par la division précédente, sous la forme $\text{dividende} = \text{quotient}\times \text{diviseur} + \text{reste}.$

$\begin{align*}
1+X^4 &= (1-2X)(X^2+X+1)^2+(X^2+4X^3+4X^4+2X^5)\\
&= (1-2X)(X^2+X+1)^2+X^2(1+4X+4X^2+2X^3).
\end{align*}$

Puis divisez cette relation par le produit $X^2(X^2+X+1)^2.$ Vous constatez que vous obtenez la partie polaire relative à $X^2.$

$\boxed{\begin{align*}
\dd F(X)&= {1-2X \over X^2} + {2X^3+4X^2+4X+1 \over (X^2+X+1)^2}\\
&=-{2 \over X} + {1 \over X^2} + {2X^3+4X^2+4X+1 \over (X^2+X+1)^2}.
\end{align*}}$

Traitez la dernière partie polaire

Effectuez une première division euclidienne.

$\begin{array}{rrrr|ll}
2X^3 & +4X^2 & +4X & +1 & X^2 &+X+1 \\
2X^3 & +2X^2 & +2X & & 2X &+ 2 \\ \hline
& 2X^2 & +2X & +1 \\
& 2X^2 & +2X & +2 \\ \hline
& & & -1
\end{array}$

Le calcul effectué montre que :

$2X^3+4X^2+4X+1 = (X^2+X+1)(2X+2) – 1.$

Vous constatez qu’il n’y a pas besoin d’effectuer une seconde division euclidienne par $X^2+X+1.$

En divisant par $(X^2+X+1)^2$ vous obtenez la partie polaire recherchée :

$\dd \boxed{{2X^3+4X^2+4X+1 \over (X^2+X+1)^2} = {2X+2 \over X^2+X+1} – { 1 \over (X^2+X+1)^2}}.$

Exprimez la décomposition en éléments simples dans $\R(X)$

$\dd \boxed{F(X)={X^4+1 \over X^2(X^2+X+1)^2} =-{2 \over X} + {1 \over X^2} + {2X+2 \over X^2+X+1} – { 1 \over (X^2+X+1)^2}}.$

101. Décomposition en éléments simples dans les réels (niveau1)

Pour comprendre le principe général et trouver la décomposition en éléments simples de la fraction rationnelle $F(X)=\dfrac{X^4+1}{X^2(X^2+X+1)^2}$, vous pouvez utiliser avec le théorème de Bezout et la division euclidienne comme outils.

Le théorème de Bezout va vous permettre de séparer toutes les parties polaires et la division euclidienne va vous permettre de décomposer en éléments simples les dénominateurs irréductibles restants, c’est-à-dire toutes les fractions rationnelles de la forme $\dfrac{A(X)}{R(X)^n}$ où $R$ est un polynôme réel irréductible (de degré 1 ou de degré 2 avec un discriminant strictement négatif).

Vous êtes prêts ? C’est parti avec la première étape.

Séparation des parties polaires avec le théorème de Bezout

Examinez le dénominateur de la fraction rationnelle $F$. Elle est composée de deux polynômes irréductibles, le premier est $P_1(X)=X$ et le second est $P_2(X) = X^2+X+1.$ Comme ces deux polynômes sont premiers entre eux, il en résulte que $P_1^2$ et $P_2^2$ le sont aussi.

Il existe donc d’après le théorème de Bezout deux polynômes réels $A(X)$ et $B(X)$ tels que $1 = A(X)P_1^2+B(X)P_2^2.$ Divisez le tout par $P_1^2P_2^2$ et vous obtenez $\dfrac{1}{X^2(X^2+X+1)^2} = \dfrac{B(X)}{X^2}+\dfrac{A(X)}{(X^2+X+1)^2}$, puis multipliez par le numérateur de la fraction rationnelle $F$, pour obtenir la séparation voulue des parties polaires :

$\dd F(X)= \dfrac{(X^4+1)B(X)}{X^2}+{(X^4+1)A(X)\over (X^2+X+1)^2}.$

Quels outils utiliser pour trouver les polynômes intervenant dans le théorème de Bezout ?

L’idée majeure c’est que, les polynômes $P_1^2$ et $P_2^2$ s’écrivent comme une combinaison des polynômes $Q_1=P_1^2$ et $Q_2=P_2^2$ :

$\begin{align*}
X^2 &= 1Q_1+0Q_2\\
(X^2+X+1)^2 &= 0Q_1+1Q_2
\end{align*}$

Vous allez diminuer le degré des polynômes du membre de gauche jusqu’à obtenir le polynôme constant $1$.

$\begin{align*}
X^2 &= 1Q_1+0Q_2\\
X^4+2X^3+3X^2+2X+1 &= 0Q_1+1Q_2
\end{align*}$

Vous effectuez l’opération élémentaire $L_2\longleftarrow L_2-X^2L_1.$

$\begin{align*}
X^2 &= 1Q_1+0Q_2\\
2X^3+3X^2+2X+1 &= -X^2Q_1+1Q_2
\end{align*}$

Puis vous effectuez l’opération élémentaire $L_2\longleftarrow L_2-2XL_1.$

$\begin{align*}
X^2 &= 1Q_1+0Q_2\\
3X^2+2X+1 &= (-X^2-2X)Q_1+1Q_2
\end{align*}$

Puis vous effectuez l’opération élémentaire $L_2\longleftarrow L_2-3L_1.$

$\begin{align*}
X^2 &= 1Q_1+0Q_2\\
2X+1 &= (-X^2-2X-3)Q_1+1Q_2
\end{align*}$

Puis vous effectuez l’opération élémentaire $L_1\longleftarrow 2L_1.$

$\begin{align*}
2X^2 &= 2Q_1+0Q_2\\
2X+1 &= (-X^2-2X-3)Q_1+1Q_2
\end{align*}$

Puis vous effectuez l’opération élémentaire $L_1\longleftarrow L_1-XL_2.$

$\begin{align*}
-X &= (X^3+2X^2+3X+2)Q_1-XQ_2\\
2X+1 &= (-X^2-2X-3)Q_1+1Q_2
\end{align*}$

Puis vous effectuez l’opération élémentaire $L_2\longleftarrow L_2+2L_1.$

Et enfin vous trouvez la relation fondamentale de Bezout :

$1 = (2X^3+3X^2+4X+1)Q_1+(1-2X)Q_2$, soit $1 = (2X^3+3X^2+4X+1)X^2+(1-2X)(X^2+X+1)^2.$

Divisez le tout dans $\R(X)$ par le produit $X^2(X^2+X+1)^2$ pour obtenir :

$\dd {1\over X^2(X^2+X+1)^2} ={ 1-2X \over X^2 }+{2X^3+3X^2+4X+1 \over (X^2+X+1)^2} $

et enfin, après multiplication par $X^4+1$, vous obtenez la séparation des parties polaires :

$\dd \boxed{{X^4 +1 \over X^2(X^2+X+1^2)} = {(1-2X)(X^4+1)\over X^2} + {(X^4+1)(2X^3+3X^2+4X+1) \over (X^2+X+1)^2}}.$

La première partie est terminée. Maintenant, passez au traitement de chaque partie polaire.

Traitez la partie polaire ${(1-2X)(X^4+1)\over X^2}$

Il suffit de développer le polynôme $(1-2X)(X^4+1)$ puis de diviser chaque terme par $X^2$.

$\begin{align*}
(1-2X)(X^4+1) &= X^4+1-2X^5-2X\\
&=-2X^5+X^4-2X+1
\end{align*}$

$\dd \boxed{{(1-2X)(X^4+1)\over X^2} = -2X^3+X^2-{2 \over X} + {1\over X^2}}.$

Traitez la partie polaire ${(X^4+1)(2X^3+3X^2+4X+1) \over (X^2+X+1)^2}$

D’abord développez le polynôme $(X^4+1)(2X^3+3X^2+4X+1)$ puis effectuez deux divisions euclidiennes successives par $X^2+X+1.$

$\begin{align*}
(X^4+1)(2X^3+3X^2+4X+1) &= 2X^7+3X^6+4X^5+X^4+2X^3+3X^2+4X+1.
\end{align*}$

Première division euclidienne :

$\begin{array}{rrrrrrrr|llllll}
2X^7 & +3X^6 & +4X^5 & +X^4 & +2X^3 & +3X^2 & +4X & +1 & X^2 & +X & +1\\
2X^7 & +2X^6 & +2X^5 & & & & & & 2X^5&+X^4&+X^3&-X^2&+2X&+2\\ \hline
& X^6 & +2X^5 & +X^4 & +2X^3 &+3X^2 & +4X &+1 \\
& X^6 & +X^5 & +X^4 \\ \hline
& & X^5 & & +2X^3 &+3X^2 & +4X &+1 \\
& & X^5 & +X^4 & +X^3 \\ \hline
& & & -X^4 & +X^3 &+3X^2 & +4X &+1 \\
& & & -X^4 & -X^3 &-X^2 \\ \hline
& & & & +2X^3 &+4X^2 & +4X &+1 \\
& & & & 2X^3 & +2X^2 & +2X \\ \hline
& & & & &+2X^2 & +2X &+1 \\
& & & & & 2X^2 & +2X &+2 \\ \hline
& & & & & & & -1
\end{array}$

Elle montre que :

$\dd {(X^4+1)(2X^3+3X^2+4X+1) \over X^2+X+1 } = 2X^5+X^4+X^3-X^2+2X+2-{1 \over X^2+X+1}.$

Deuxième division euclidienne :

$\begin{array}{rrrrrr|lll}
2X^5&+X^4&+X^3&-X^2&+2X&+2 & X^2 & +X & +1 \\
2X^5&+2X^4&+2X^3& & & &2X^3-X^2 \\ \hline
&-X^4&-X^3&-X^2&+2X&+2 \\
&-X^4&-X^3&-X^2& & \\ \hline
& & & &2X&+2
\end{array}$

Elle montre que :

$\dd \boxed{{(X^4+1)(2X^3+3X^2+4X+1) \over (X^2+X+1)^2 } = 2X^3-X^2 + {2X+2 \over X^2+X+1}-{1 \over (X^2+X+1)^2}}.$

Concluez avec la décomposition finale dans $\R(X)$

En additionnant les parties polaires, vous constatez que la partie entière est nulle : $(-2X^3+X^2) + (2X^3-X^2)=0$, ce que vous pouviez prédire, puisque le degré du numérateur de $F$ est strictement inférieur au degré de son dénominateur. Finalement :

$\dd \boxed{F(X)={X^4 +1 \over X^2(X^2+X+1)^2} = -{2 \over X} + {1\over X^2} + {2X+2 \over X^2+X+1}-{1 \over (X^2+X+1)^2} }.$

100. Diagonalisez deux matrices simultanément

Vous êtes sur un espace vectoriel $E$ de dimension finie. Cet article illustre sur un exemple la propriété suivante :

Etant donnée une famille d’endomorphismes de $E$ tous diagonalisables qui commutent deux à deux, il existe une base de $E$ qui diagonalise tous ces endomorphismes.

Notez que la commutation est nécessaire : si une famille d’endomorphismes est diagonalisable dans une même base, alors ils commutent tous.

La réciproque fonctionne aussi très bien : si tous les endomorphismes n’ont chacun qu’une seule valeur propre, ils sont tous diagonalisables dans n’importe quelle base ; sinon, on diagonalise un endomorphisme qui a au moins deux valeurs propres différentes et sur chaque sous espace propre, on effectue une diagonalisation commune de tous les endomorphismes.

L’argument utilisé ici est la dimension des sous-espaces qui est dans ce dernier cas strictement inférieure à la dimension de $E$, autrement dit, la propriété se démontre par récurrence forte sur la dimension de $E$.

Exemple de diagonalisation simultanée avec deux matrices de $M_4(\R)$ qui commutent

Considérez les matrices suivantes, $A=
\begin{pmatrix}1 & 2 & -1&-1\\
2 & 1 & -1 & -1\\
1 & 1 & 0 & -2\\
1 & 1 & -2 & 0
\end{pmatrix}$ et $B=\begin{pmatrix}0 & -1 & -1&2\\
1 & -1 & -2 & 1\\
1 & -2 & -1 & 1\\
2 & -1 & -1 & 0
\end{pmatrix}.$

$I$ désignera la matrice identité d’ordre $4.$

Avant toute chose, vérifiez que $A$ est diagonalisable

Vous pouvez chercher le polynôme minimal de $A$ en calculant les premières puissances $A^k$, pour certains entiers $k\geq 1$.

Notez que $\forall \lambda\in\R, A \neq \lambda I$ donc le polynôme minimal de $A$ a un degré supérieur ou égal à $2$.

Vous calculez $A^2$ et vous obtenez $A^2 =
\begin{pmatrix} 3& 2 & -1& -1\\
2 & 3 & -1 & -1\\
1 & 1 & 2 & -2\\
1 & 1 & -2 & 2
\end{pmatrix}$

De là, vous obtenez que $A^2$ est un polynôme en $A$, plus précisément, $A^2 = A+2I$, donc $A^2-A-2I=0$ et $(A+I)(A-2I)=0.$

La matrice $A$ est donc diagonalisable, son polynôme minimal étant un produit de polynômes de degré 1 sans racine multiple. Les deux valeurs propres de $A$ sont $-1$ et $2$.

Utilisez l’espace propre associé à la valeur propre $-1$ de la matrice $A$

Vous allez construire autant de vecteurs propres simultanés (pour les matrices $A$ et $B$) que la dimension de l’espace propre de la matrice $A$ associé à la valeur propre $-1.$

Vous calculez $A+I$ qui est égale à $A+I=
\begin{pmatrix}
2 & 2 & -1&-1\\
2 & 2 & -1 & -1\\
1 & 1 & 1 & -2\\
1 & 1 & -2 & 1
\end{pmatrix}.$

Pour déterminer le noyau de $A+I$ vous résolvez le système :

$\left\{\begin{align*}
2x_1+2x_2-x_3-x_4&=0\\
x_1+x_2+x_3-2x_4&=0\\
x_1+x_2-2x_3+x_4&=0
\end{align*}\right.$

Appliquez la méthode du pivot de Gauss :

$\left\{\begin{align*}
x_1+x_2-2x_3+x_4&=0\\
3x_3-3x_4&=0\\
3x_3-3x_4&=0\\
\end{align*}\right.$

$\left\{\begin{align*}
x_1&=-x_2+x_4\\
x_3&=x_4.\\
\end{align*}\right.$

Le noyau de $A+I$ est donc de dimension $2$ et il est engendré par les vecteurs $V_1 = \begin{pmatrix}1\\-1\\0\\0 \end{pmatrix}$ et $V_2=\begin{pmatrix}1\\0\\1\\1\end{pmatrix}.$

Construisez deux vecteurs propres de $B$ appartenant à cet espace propre

Il s’agit de construire deux combinaisons linéaires des vecteurs $V_1$ et $V_2$ pour obtenir deux vecteurs propres de $B$, en remarquant que ces combinaisons linéaires resteront dans l’espace propre de $A.$

Vous cherchez donc une valeur propre $\lambda\in\R$ ainsi que deux réels $a$ et $b$ non simultanément nuls, tels que $B(aV_1+bV_2)=\lambda(aV_1+bV_2)$, soit $(B-\lambda I)(aV_1+bV_2)=0.$

Pour simplifier les calculs vous mettez cette relation sous la forme $a(B-\lambda I)V_1 + b(B-\lambda I)V_2 = 0.$

$B-\lambda I=
\begin{pmatrix}-\lambda & -1 & -1&2\\
1 & -1-\lambda & -2 & 1\\
1 & -2 & -1-\lambda & 1\\
2 & -1 & -1 & -\lambda
\end{pmatrix}$

$(B-\lambda I)V_1=
\begin{pmatrix}1-\lambda \\
2+\lambda \\
3\\
3
\end{pmatrix}$ et $(B-\lambda I)V_2=
\begin{pmatrix}
1-\lambda \\
0 \\
1-\lambda\\
1-\lambda
\end{pmatrix}$

Le vecteur $a(B-\lambda I)V_1+b(B-\lambda I )V_2)$ est nul, si et seulement si, $\left\{\begin{align*}
(1-\lambda)(a+b)&=0\\
a(2+\lambda)&=0\\
3a+(1-\lambda)b&=0.\end{align*}
\right.$

Avec $\lambda = 1$, $a=0$ et $b=1$ vous constatez que $(B-I)V_2=0.$

Si $\lambda =-2$, $a=1$ et $b=-1$, alors $a+b=0$ et $3a+(1-\lambda)b=3+(3)(-1)=0$ donc $(B-2I)(V_2-V_1)=0.$

Posez $W_1 = V_2-V_1 = \begin{pmatrix}
0\\
1\\
1\\
1
\end{pmatrix}$ et $W_2 = V_2 = \begin{pmatrix}
1\\
0\\
1\\
1
\end{pmatrix}$.

Les vecteurs $W_1$ et $W_2$ sont deux vecteurs propres simultanés pour les matrices $A$ et $B$ :

$\begin{align*}
AW_1 &= A(V_2-V_1)=AV_2-AV_1= -V_2+V_1 = -W_1\\
AW_2 &= AV_2 = -AW_2\\
BW_1 &= 2W_1\\
BW_2 &= W_2.
\end{align*}$

Terminez en considérant l’espace propre de $A$ associé à la valeur propre $2$

Vous calculez $A-2I$ qui est égale à $A-2I=
\begin{pmatrix}
-1 & 2 & -1&-1\\
2 & -1 & -1 & -1\\
1 & 1 & -2 & -2\\
1 & 1 & -2 & -2
\end{pmatrix}.$

Vous résolvez le système suivant :
$\left\{\begin{align*}
-x_1+2x_2-x_3-x_4&=0\\
2x_1-x_2-x_3-x_4&=0\\
x_1+x_2-2x_3-2x_4&=0
\end{align*}\right.$

$\left\{\begin{align*}
-x_1+2x_2-x_3-x_4&=0\\
3x_2-3x_3-3x_4&=0\\
3x_2-3x_3-3x_4&=0
\end{align*}\right.$

$\left\{\begin{align*}
-x_1+2x_2-x_3-x_4&=0\\
x_2-x_3-x_4&=0
\end{align*}\right.$

$\left\{\begin{align*}
x_1&=x_3+x_4\\
x_2&=x_3+x_4
\end{align*}\right.$

Le noyau de $A-2I$ est donc de dimension $2$ et il est engendré par les vecteurs $V_3 = \begin{pmatrix}1\\1\\1\\0 \end{pmatrix}$ et $V_4=\begin{pmatrix}1\\1\\0\\1\end{pmatrix}.$

Il reste la formation des combinaisons linéaires des vecteurs $V_3$ et $V_4$ pour construire deux vecteurs propres de la matrice $B$.

Soit $\lambda$ un réel dont la valeur numérique sera choisie un peu plus loin.

$(B-\lambda I)V_3=
\begin{pmatrix}-2-\lambda \\
-2-\lambda \\
-2-\lambda\\
0
\end{pmatrix}$ et $(B-\lambda I)V_4=
\begin{pmatrix}
1-\lambda \\
0 \\
1-\lambda\\
1-\lambda
\end{pmatrix}$

Vous constatez que $(B+2I)V_3=0$ et que $(B-I)V_4=0.$

Justifiez que la famille $(W_1,W_2,V_3,V_4)$ est libre

Soit un quadruplet $(x_1,x_2,x_3,x_4)\in\R^4$ tel que : $x_1W_1+x_2W_2+x_3V_3+x_4V_4=0.$

Rappelez-vous que $(A-2I)V_3 = (A-2I)V_4=0$.

En multipliant par à gauche par $A-2I$, vous obtenez $x_1(A-2I)W_1+x_2(A-2I)W_2=0$ soit $(A-2I)(x_1W_1+x_2W_2) = 0$, soit $A(x_1W_1+x_2W_2) = 2(x_1W_1+x_2W_2).$ Or $W_1$ et $W_2$ vérifient $AW_1 = -W_1$ et $AW_2=-W_2$ d’où $-(x_1W_1+x_2W_2) = 2(x_1W_1+x_2W_2)$ et par suite $x_1W_1+x_2W_2 = 0. $ La famille $(W_1,W_2)$ étant libre, vous obtenez $x_1=x_2=0.$

Pour montrer la nullité de $x_3$ et de $x_4$ vous changez d’espace propre en multipliant à gauche par $(A+I)$.

Vous formez $(A+I)(x_3V_3+x_4V_4)=0$ puis $A(x_3V_3+x_4V_4) = -(x_3V_3+x_4V_4)$ d’où $2(x_3V_3+x_4V_4) = -(x_3V_3+x_4V_4)$ et $x_3V_3+x_4V_4 = 0.$ La famille $(V_3,V_4)$ étant libre, l’égalité $x_3=x_4=0$ est vérifiée.

Comme les $4$ réels $x_1$, $x_2$, $x_3$ et $x_4$ sont tous nuls, c’est que la famille $(W_1,W_2,V_3,V_4)$ est libre.

Concluez

Formez la matrice $P$ donnée par les vecteurs colonnes de $W_1$, $W_2$, $V_3$ et $V_4$, c’est-à-dire :

$P = \begin{pmatrix}
0 & 1 & 1 &1 \\
1 & 0 & 1 & 1\\
1 & 1 & 1 & 0\\
1& 1 & 0 & 1
\end{pmatrix}.$

D’après le paragraphe précédent, elle est inversible et permet de diagonaliser simultanément les matrices $A$ et $B$ :

$P^{-1}AP = \begin{pmatrix}
-1 & 0 & 0 & 0\\
0 & -1 & 0 & 0\\
0 & 0 & 2 & 0\\
0 & 0 & 0 & 2
\end{pmatrix}$

$P^{-1}BP = \begin{pmatrix}
-2 & 0 & 0 & 0\\
0 & 1 & 0 & 0\\
0 & 0 & -2 & 0\\
0 & 0 & 0 & 1
\end{pmatrix}.$

Note. Comme deux matrices diagonales commutent, il en est de même des matrices $A$ et $B$ par conjugaison.

099. Axiomatique de $\N$

L’ensemble des entiers naturels noté $\N$ est formé de tous les entiers positifs en commençant par $0$ qui est lui aussi positif.

Il est impossible de démontrer que l’ensemble $\N$ existe : on travaille à partir d’axiomes qui justifient son existence.

L’ensemble $\N$ possède deux propriétés fondamentales qui sont équivalentes :

  1. Le « bon ordre ». Toute partie de $\N$, non vide, admet un plus petit élément.
  2. Le « principe » de récurrence. Pour tout entier $n\in\N$, notez $P(n)$ une propriété qui peut être vraie ou fausse en fonction de la valeur de l’entier naturel $n$. Supposez que $P(0)$ soit vraie (on parle d’initialisation) et que l’implication $\forall n\in\N, P(n)$ vraie $\Longrightarrow P(n+1)$ vraie soit vérifiée (on parle d’hérédité). Alors la propriété $P(n)$ est vraie quel que soit l’entier naturel $n$.

Note : selon la théorie utilisée, le principe de récurrence peut être considéré comme un axiome ou un théorème.

Passez maintenant à l’équivalence des deux énoncés.

Le bon ordre implique le principe de récurrence

Supposez que $\N$ possède la propriété suivante : « toute partie de $\N$ non vide admet un plus petit élément ».

Pour tout entier naturel $n$, on note $P(n)$ une propriété vraie ou fausse, vérifiant les conditions suivantes.

$P(0)$ est vraie et $\forall n\in\N, P(n)$ vraie $\Longrightarrow P(n+1)$ vraie.

Vous voulez montrer que $P(n)$ est vraie pour tout entier naturel $n$. Vous allez considérer l’ensemble noté $A$ des entiers naturels $n$ tels que $P(n)$ soit fausse.

Si $A$ n’est pas vide, alors $A$ admet un plus petit élément noté $a$. Notez que $a=0$ donne $P(a)$ vraie ce qui contredit le fait que $a\in A$. Par conséquent, $a\neq 0$ donc $a\geq 1$ et $a-1 \in \N$. Comme $a-1$ est strictement inférieur à $a$, $a-1\notin A$, donc $P(a-1)$ est vraie. Du coup, $P(a-1+1)$ est vraie et $P(a)$ est vraie donc $a\notin A$, contradiction.

Il en résulte que $A$ est vide, donc $\forall n\in\N$, la propriété $P(n)$ est vraie.

Le principe de récurrence implique que le bon ordre

Partir d’une partie de $\N$ non vide et chercher un plus petit élément est quelque chose de délicat.

Le principe, c’est de regarder si $0$ est un élément de cette partie. Si oui, c’est le plus petit élément recherché. Sinon, vous regardez si $1$ est un élément de cette partie, et ainsi de suite…

Pour traduire rigoureusement le « ainsi de suite », vous utiliserez le principe de récurrence pour montrer que si une partie de $\N$ n’admet pas de plus petit élément, alors elle est vide.

Supposez que $\N$ vérifie le principe de récurrence et notez $A$ une partie de $\N$ n’admettant pas de plus petit élément.

Pour tout entier naturel $n$, vous notez $P(n)$ la propriété : « Pour tout entier naturel $k$ inférieur ou égal à $n$, $k\notin A.$ »

Initialisation : pour $k=0$. Si $0$ appartenait à $A$, alors $0$ serait le plus petit élément de $A$, contradiction. Donc $0\notin A$ et par conséquent $P(0)$ est vérifiée.

Hérédité : soit $n$ un entier naturel. Supposez que $P(n)$ est vérifiée.

Notez que tous les entiers naturels $k$ compris entre $0$ et $n$ n’appartient pas à $A$. Si $n+1$ appartenait à $A$, $n+1$ serait le plus petit élément de $A$, contradiction. Donc $n+1\notin A$.

Conclusion : vous venez de montrer que $\forall n\in\N$, $P(n)$ est vraie. Vous en déduisez que $\forall n\in\N, n\notin A.$ Comme $A$ est une partie de $\N$, il s’ensuit que $A$ est vide.

Par contraposée, si $A$ est une partie non vide de $\N$, elle admet un plus petit élément.

098. Calcul de $\displaystyle\int_{-\pi/4}^{\pi/4} \ln (\sin x + \cos x) \mathrm{d}x$

Le problème de l’intégrale impropre

Remarquez déjà que, pour tout réel $x$,

$\begin{align*}
\sin x + \cos x &= \sqrt{2} \left(\dfrac{\sqrt{2}}{2}\sin x+ \dfrac{\sqrt{2}}{2} \cos x\right) \\
&=\sqrt{2} \left(\sin x \cos \dfrac{\pi}{4} + \cos x \sin \dfrac{\pi}{4}\right) \\
&= \sqrt{2} \sin \left(x+\dfrac{\pi}{4}\right)
\end{align*}$

Il apparaît donc que, quand $x \to -\frac{\pi}{4}$, que $\sin x + \cos x \to 0$ et le logarithme de $0$ n’est pas défini. Du coup, vous travaillerez avec des intégrales bien définies où l’intérieur du logarithme est toujours strictement positif. Cela conduit au paragraphe suivant.

Les propriétés de l’intégrale $I_\varepsilon$

Pour tout réel $\varepsilon \in \left]0,\dfrac{\pi}{2}\right]$ considérez, $I_\varepsilon =\displaystyle \int_{-\pi/4+\varepsilon}^{\pi/4} \ln \left(\sin x + \cos x \right) \mathrm{d}x = \int_{-\pi/4+\varepsilon}^{\pi/4} \ln \left(\sqrt{2} \sin \left(x+\dfrac{\pi}{4}\right)\right) \mathrm{d}x.$

Via le changement de variable $y = x+\frac{\pi}{4}$, il apparaît que $I_\varepsilon =\displaystyle\int_{\varepsilon}^{\pi/2} \ln (\sqrt{2} \sin y) \mathrm{d}y. $

Effectuez une première séparation.

$\begin{align*}
I_{\varepsilon} &= \displaystyle\int_{\varepsilon}^{\pi/2} \ln (\sqrt{2} \sin y) \mathrm{d}y \\
&= \displaystyle\int_{\varepsilon}^{\pi/2}\left( \ln \sqrt{2} + \ln (\sin y) \right) \mathrm{d}y \\
&= \displaystyle\int_{\varepsilon}^{\pi/2} (\ln \sqrt{2}) \mathrm{d}y + \int_{\varepsilon}^{\pi/2} \ln (\sin y) \mathrm{d}y \\
&= \displaystyle (\ln \sqrt{2}) \int_{\varepsilon}^{\pi/2}\mathrm{d}y + \int_{\varepsilon}^{\pi/2} \ln (\sin y) \mathrm{d}y \\
&= \displaystyle \left(\dfrac{\pi}{2}-\varepsilon \right) (\ln \sqrt{2}) + \int_{\varepsilon}^{\pi/2} \ln (\sin y) \mathrm{d}y. \\
\end{align*}$

Vers le calcul de $J = \displaystyle\int_{0}^{\pi/2} \ln (\sin y) \mathrm{d}y$

Pour tout réel $\varepsilon \in \left]0,\dfrac{\pi}{2}\right]$, posez $J_\varepsilon =\displaystyle \int_{\varepsilon}^{\pi/2} \ln (\sin y) \mathrm{d}y. $

Définissez une fonction $g$ sur $\R$ en posant $g(0)=1$ et, pour tout réel $y$ non nul, $g(y)=\dfrac{\sin y}{y}$. Cette fonction $g$ est continue sur $\R$.

Notez que pour tout réel $y> 0$ :

$\begin{align*}
\ln(\sin y) &= \ln \left(y \times\dfrac{\sin y}{y}\right) \\
&= \ln y + \ln g(y).
\end{align*}$

Par composée de fonctions continues, la fonction $y\mapsto \ln g(y)$ est continue sur $[0,\frac{\pi}{2}]$ donc elle est intégrable sur $[0,\frac{\pi}{2}]$.

La fonction $y\mapsto \ln y$ admet pour primitive $y\mapsto y\ln y -y$ sur $]0,+\infty[$ et cette primitive a bien une limite quand $y\to 0$ donc la fonction $y\mapsto \ln y$ est intégrable sur $\left[0,\dfrac{\pi}{2}\right].$

Par somme de fonctions intégrables, il en résulte que $J = \displaystyle \int_{0}^{\pi/2} \ln (\sin y) \mathrm{d}y$ est bien définie et que $\lim_{\varepsilon \to 0} J_\varepsilon = J.$

Vous allez vous focaliser sur cette intégrale. L’idée principale c’est de construire une équation la faisant réapparaître plusieurs fois.

Vous pouvez utiliser l’égalité : $\forall y\in\left[0,\dfrac{\pi}{2}\right], \cos\left(\dfrac{\pi}{2}-y\right) = \sin y.$

Vous effectuez le changement de variable $z = \frac{\pi}{2}-y$ :

$\begin{align*}
J_\varepsilon &= \int_{\varepsilon}^{\pi/2} \ln (\sin y) \mathrm{d}y \\
&= \ – \int_{\pi/2 – \varepsilon}^{0} \ln (\cos z) \mathrm{d}z\\
&= \int_{0}^{\pi/2 – \varepsilon} \ln (\cos z) \mathrm{d}z\\
\end{align*}$

Maintenant, vous sommez les deux expressions pour $\varepsilon \in \left]0,\dfrac{\pi}{4}\right].$

$\begin{align*}
2J_\varepsilon &= \int_{\varepsilon}^{\pi/2} \ln (\sin x) \mathrm{d}x + \int_{0}^{\pi/2 – \varepsilon} \ln (\cos x) \mathrm{d}x \\
&= \int_{\varepsilon}^{\pi/2-\varepsilon} \ln (\sin x) \mathrm{d}x + \int_{\pi/2 – \varepsilon}^{\pi/2} \ln (\sin x) \mathrm{d}x + \int_{0}^{\varepsilon} \ln (\cos x) \mathrm{d}x + \int_{\varepsilon}^{\pi/2 – \varepsilon} \ln (\cos x) \mathrm{d}x \\
&= \int_{\varepsilon}^{\pi/2-\varepsilon}\left[ \ln (\sin x) + \ln (\cos x)\right] \mathrm{d}x + \int_{\pi/2 – \varepsilon}^{\pi/2} \ln (\sin x) \mathrm{d}x + \int_{0}^{\varepsilon} \ln (\cos x) \mathrm{d}x.
\end{align*}$

Notez que la fonction $x\mapsto \ln(\cos x)$ est continue au voisinage de $0$, par conséquent $\displaystyle\lim_{\varepsilon\to 0} \int_{0}^{\varepsilon} \ln (\cos x) \mathrm{d}x = 0.$

De même, la fonction $x\mapsto \ln(\sin x)$ est continue au voisinage de $\dfrac{\pi}{2}$, par conséquent $\displaystyle\lim_{\varepsilon\to 0} \int_{\pi/2 – \varepsilon}^{\pi/2} \ln (\sin x) \mathrm{d}x = 0.$

Vers le calcul de $\displaystyle \int_{\varepsilon}^{\pi/2-\varepsilon}\left[ \ln (\sin x) + \ln (\cos x)\right] \mathrm{d}x$

Pour tout réel $\varepsilon \in \left]0,\dfrac{\pi}{4}\right]$, posez $K_\varepsilon = \displaystyle \int_{\varepsilon}^{\pi/2-\varepsilon}\left[ \ln (\sin x) + \ln (\cos x)\right] \mathrm{d}x.$

$\begin{align*}
K_\varepsilon &= \int_{\varepsilon}^{\pi/2-\varepsilon}\left[ \ln (\sin x) + \ln (\cos x)\right] \mathrm{d}x\\
&= \int_{\varepsilon}^{\pi/2-\varepsilon} \ln \left(\sin x \cos x\right) \mathrm{d}x\\
&= \int_{\varepsilon}^{\pi/2-\varepsilon} \ln \left(\dfrac{2 \sin x \cos x}{2}\right) \mathrm{d}x\\
&= \int_{\varepsilon}^{\pi/2-\varepsilon} \ln \left(\dfrac{\sin (2x)}{2}\right) \mathrm{d}x\\
&= \int_{\varepsilon}^{\pi/2-\varepsilon} \left[\ln (\sin (2x)) – \ln2 \right] \mathrm{d}x\\
&= \int_{\varepsilon}^{\pi/2-\varepsilon} \ln (\sin (2x)) \mathrm{d}x \ – (\ln2)\int_{\varepsilon}^{\pi/2-\varepsilon} \mathrm{d}x\\
&= \int_{\varepsilon}^{\pi/2-\varepsilon} \ln (\sin (2x)) \mathrm{d}x -\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2)\\
&=\dfrac{1}{2}\int_{2\varepsilon}^{\pi-2\varepsilon} \ln (\sin y) \mathrm{d}y -\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2)\\
&=\dfrac{1}{2}\int_{2\varepsilon}^{\pi/2} \ln (\sin y) \mathrm{d}y + \dfrac{1}{2}\int_{\pi/2}^{\pi-2\varepsilon} \ln (\sin y) \mathrm{d}y -\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2)\\
&=\dfrac{1}{2}J_{2\varepsilon}+ \dfrac{1}{2}\int_{\pi/2}^{\pi-2\varepsilon} \ln (\sin y) \mathrm{d}y -\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2)\\
&=\dfrac{1}{2}J_{2\varepsilon}+ \dfrac{1}{2}\int_{0}^{\pi/2-2\varepsilon} \ln \left(\sin \left(z+\dfrac{\pi}{2}\right)\right) \mathrm{d}z -\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2)\\
&=\dfrac{1}{2}J_{2\varepsilon}+ \dfrac{1}{2}\int_{0}^{\pi/2-2\varepsilon} \ln (\cos z) \mathrm{d}z -\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2)\\
&= \dfrac{1}{2}J_{2\varepsilon} + \dfrac{1}{2}J_{2\varepsilon}-\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2)\\
&=J_{2\varepsilon}-\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2).
\end{align*}$

Concluez

$\begin{align*}
2J_\varepsilon &= \int_{\varepsilon}^{\pi/2-\varepsilon}\left[ \ln (\sin x) + \ln (\cos x)\right] \mathrm{d}x + \int_{\pi/2 – \varepsilon}^{\pi/2} \ln (\sin x) \mathrm{d}x + \int_{0}^{\varepsilon} \ln (\cos x) \mathrm{d}x\\
&= K_\varepsilon + \int_{\pi/2 – \varepsilon}^{\pi/2} \ln (\sin x) \mathrm{d}x + \int_{0}^{\varepsilon} \ln (\cos x) \mathrm{d}x \\
&=J_{2\varepsilon}-\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2) + \int_{\pi/2 – \varepsilon}^{\pi/2} \ln (\sin x) \mathrm{d}x + \int_{0}^{\varepsilon} \ln (\cos x) \mathrm{d}x.
\end{align*}$

Maintenant passez à la limite quand $\varepsilon \to 0.$

$2J = J – \dfrac{\pi}{2} (\ln2).$

Donc $J = \dfrac{-\pi \ln 2}{2}.$

On a vu que :

$I_{\varepsilon} = J_\varepsilon + \left(\dfrac{\pi}{2}-\varepsilon \right) (\ln \sqrt{2}).$

Le membre de droite admet une limite quand $\varepsilon\to 0$, donc le membre de gauche aussi.

L’intégrale $\displaystyle\int_{-\pi/4}^{\pi/4} \ln (\sin x + \cos x) \mathrm{d}x$ est donc bien définie et on a le résultat :

$\begin{align*}
\displaystyle\int_{-\pi/4}^{\pi/4} \ln (\sin x + \cos x) \mathrm{d}x &= J + \dfrac{\pi}{2}(\ln \sqrt{2}) \\
&=\dfrac{-\pi \ln 2}{2} + \dfrac{\pi \ln 2}{4}\\
&=\dfrac{-\pi \ln 2}{4}.
\end{align*}$

Conclusion : $\boxed{\displaystyle\int_{-\pi/4}^{\pi/4} \ln (\sin x + \cos x) \mathrm{d}x = \dfrac{-\pi \ln 2}{4}}.$

097. Comment obtenir la réduction de Frobenius d’une matrice ainsi qu’une base associée ?

Une base de Frobenius ? Une matrice de Frobenius ? Qu’est-ce ?

Connaissez-vous la matrice compagnon d’un polynôme unitaire ?

Pour $P_1(X) = X^3 + X^2 -3X +7$, vous associez l’équation de ses racines en isolant le terme de plus haut degré, ce qui donne $X^3 = -X^2+3X-7$. Les coefficients du polynôme de droite sont ceux de la dernière colonne de la matrice compagnon du polynôme $P_1.$ Les autres colonnes sont formées de $0$ partout excepté sur la sous-diagonale tronquée où les coefficients valent tous $1$.

Vous noterez $C(P_1)$ la matrice compagnon du polynôme $P_1$ qui est définie par $C(P_1)=\begin{pmatrix}0 & 0 & -7 \\ 1 & 0 & 3 \\ 0 & 1 & -1\end{pmatrix}.$

Pour le polynôme $P_2(X) = X^4+X^3-X+2$, la matrice compagnon $C(P_2)$ est définie par $C(P_2)=\begin{pmatrix}0 & 0 & 0 & -2\\ 1 & 0 & 0 & 1\\ 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & -1\end{pmatrix}.$

Des matrices compagnons par blocs comme matrices de Frobenius ?

Considérez la matrice $A$ définie par  : $A = \begin{pmatrix}C(P_1) & 0\\ 0 & C(P_2)\end{pmatrix}
= \begin{pmatrix}
0 & 0 & -7 & 0 & 0 & 0 & 0 \\
1 & 0 & 3 & 0 & 0 & 0 & 0\\
0 & 1 & -1 & 0 & 0 & 0 & 0\\
0 & 0 & 0 &0 & 0 & 0 & -2\\
0 & 0 & 0 &1 & 0 & 0 & 1\\
0 & 0 & 0 &0 & 1 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 & 1 & -1
\end{pmatrix}$

Elle est diagonale par blocs mais ce n’est pas suffisant : le polynôme $P_1$ défini par $P_1(X) = X^3+X^2-3X+7$ ne divise pas le polynôme $P_2$ défini par $P_2(X)=X^4+X^3-X+2$. Bien que $A$ soit diagonale par blocs avec des matrices compagnons, la matrice $A$ n’est pas une matrice de Frobenius.

Les polynômes doivent se diviser

Trouver une base de Frobenius pour une matrice $A\in M_n(\K)$, où $n\in\N^{*}$, c’est trouver une matrice inversible $P\in GL_n(\K)$ telle que $P^{-1}AP$ soit diagonale par blocs, avec des blocs de la forme $C(P_1)$, …, $C(P_\ell)$ où $\ell\in\N^{*}$, la famille $(P_i)_{1\leq i \leq \ell}$ étant une famille de polynômes unitaires telle que $P_1 | P_2 | … | P_{\ell}$, les matrices $C(P_1)$, …, $C(P_{\ell})$ étant les matrices compagnons relatives aux polynômes $P_1$, …, $P_{\ell}.$

Note. La suite de polynômes $(P_i)_{1\leq i \leq \ell}$ s’appelle la suite des invariants de similitude de la matrice $A$. Elle ne dépend que de la matrice $A.$

Former une matrice diagonale par blocs avec des matrices compagnons est un prérequis, mais il faut bien d’y prendre pour avoir la divisibilité des polynômes.

Exemple. Considérez la matrice $A = \begin{pmatrix}\
5 & 7 & 6 & 5 & 5\\
-2 & -5 & -6 & -4 & -5\\
5 & 10 & 10 & 7 & 8\\
-6 & -8 & -6 & -5 & -5\\
-1 & -3 & -3 & -2 & -3
\end{pmatrix}.$

Si vous formez la matrice $P = \begin{pmatrix}
-1 & 0 & -1 & 1 & 0\\
1 & 1 & 1 & -1 & 0\\
-2 & -1 & -1 & 2 & 0\\
2 & 0 & 1 & -1 & 0\\
0 & 0 & 0 & -1 & 1
\end{pmatrix}$ alors la matrice $P$ est inversible et $P^{-1}AP = \begin{pmatrix}
0 & -1 & 0 & 0 & 0\\
1 & 2 & 0 & 0 & 0\\
0 & 0 & 0 & 0 & -2\\
0 & 0 & 1 & 0 & 3\\
0 & 0 & 0 & 1 & 0
\end{pmatrix} = \begin{pmatrix}
C(P_1) & 0\\
0 & C(P_2)
\end{pmatrix},$

avec $P_1 = X^2-2X+1 = (X-1)^2$ et $P_2 = X^3-3X+2 = (X+2)(X-1)^2$ et par suite, le polynôme $P_1$ divise bien le polynôme $P_2.$

La matrice $P^{-1}AP$ est bien une matrice de Frobenius associée à la matrice $A$ et la base de $\R^5$ formée par les cinq colonnes de la matrice $P$ constitue une base de Frobenius de la matrice $A.$

Etude complète d’un exemple pour bien comprendre

Soit à trouver une base de Frobenius et la matrice de Frobenius associés à la matrice réelle $A=\begin{pmatrix}
3 & 0 & -1 & 1\\
2 & 2 & 1 & 2\\
-3 & 0 & 2 & -3\\
-4 & 0 & 1 & -2
\end{pmatrix}.$

La première chose à faire, c’est construire un vecteur $v$ pour que $<v> = \vect\{A^k v, k\in\N\}$, l’espace cyclique engendré par $v$ soit de dimension maximum.

Cette dimension maximum sera donnée par le degré du polynôme minimal de la matrice $A$.

Déterminez le polynôme minimal de $A$

Une façon de faire c’est de calculer les puissances successives de $A$ jusqu’à trouver une relation de dépendance linéaire.

Les matrices $I$ et $A$ n’étant pas colinéaires, vous calculez $A^2 = \begin{pmatrix}
8 & 0 & -4 & 4\\
-1 & 4 & 4 & -1\\
-3 & 0 & 4& -3\\
-7 & 0 &4 &-3
\end{pmatrix}$

Le système $A^2 = aA + bI$ d’inconnues $a$ et $b$ réelles n’a pas de solution.

Vous calculez donc $A^3 = \begin{pmatrix}
20 & 0 & -12 & 12\\
-3 & 8 & 12 & -3\\
-9 & 0 & 8& -9\\
-21 & 0 &12 & -13
\end{pmatrix}$

Vous résolvez le système $A^3=aA^2+bA+cI.$ Vous trouvez $a = 3$, $b=0$ et $c=-4$, ce qui prouve que $A^3 = 3A^2-4I.$

Le polynôme minimal de $A$ est égal à $X^3-3X^2+4 = (X+1)(X^2-4X+4)=(X+1)(X-2)^2.$

Construisez un vecteur $v$ pour que l’espace cyclique $<v>$ soit de dimension maximale

En considérant les facteurs irréductibles du polynôme minimal de $A$, vous cherchez un vecteur $v_1\in\ker(A+I)\setminus \{0\}$ et un vecteur $v_2\in\ker(A-2I)^2 \setminus \ker(A-2I).$

Calculez le noyau de la matrice $A+I= \begin{pmatrix}
4 & 0 & -1 & 1\\
2 & 3 & 1 & 2\\
-3 & 0 & 3 & -3\\
-4 & 0 & 1 & -1
\end{pmatrix}.$

Vous finissez par trouver $\ker(A+I) = \vect\left[ \begin{pmatrix}
0\\
-1 \\
1\\
1
\end{pmatrix}\right].$ Vous posez $v_1 = \begin{pmatrix}
0\\
-1 \\
1\\
1
\end{pmatrix}.$

Calculez maintenant le noyau de $A-2I = \begin{pmatrix}
1 & 0 & -1 & 1\\
2 & 0 & 1 & 2\\
-3 & 0 & 0 & -3\\
-4 & 0 & 1 & -4
\end{pmatrix}.$

Le détail du processus est donné parce qu’il est intéressant et évitera de calculer la matrice $(A-2I)^2.$

Pour la détermination de $\ker(A-2I)$ vous résolvez le système linéaire suivant :

$\left\{\begin{align*}
x_1 -x_3+x_4&=0\\
2x_1+x_3+2x_4 &=0\\
-3x_1-3x_4 &=0\\
-4x_1+x_3-4x_4 &=0.
\end{align*}\right.$

Vous effectuez les opérations élémentaires suivantes : $L_2\leftarrow L_2-2L_1$, $L_3\leftarrow L_3+3L_1$ et $L_4\leftarrow L_4+4L_1.$

$\left\{\begin{align*}
x_1 -x_3+x_4&=0\\
3x_3 &=0\\
-3x_3 &=0\\
-3x_3 &=0.
\end{align*}\right.$

Ainsi le système est équivalent à :

$\left\{\begin{align*}
x_1 &=-x_4\\
x_2 & = x_2\\
x_3 &=0\\
x_4 &=x_4.
\end{align*}\right.$

$\ker(A-2I) = \vect\left[ \begin{pmatrix}
-1\\
0 \\
0\\
1
\end{pmatrix}, \begin{pmatrix}
0\\
1 \\
0\\
0
\end{pmatrix}\right].$

Vous cherchez maintenant une base de $\ker(A-2I)^2.$

Soit $X = \begin{pmatrix}
x_1\\
x_2 \\
x_3\\
x_4
\end{pmatrix}.$ Au lieu de résoudre $(A-2I)^2X = 0$ vous résolvez $(A-2I)X\in \ker(A-2I).$

Le vecteur $X$ appartient au noyau de $(A-2I)^2$, si et seulement si, il existe deux réels $a$ et $b$ tels que :

$\left\{\begin{align*}
x_1 -x_3+x_4&=-a\\
2x_1+x_3+2x_4 &=b\\
-3x_1-3x_4 &=0\\
-4x_1+x_3-4x_4 &=a.
\end{align*}\right.$

Vous effectuez les mêmes opérations élémentaires : $L_2\leftarrow L_2-2L_1$, $L_3\leftarrow L_3+3L_1$ et $L_4\leftarrow L_4+4L_1.$

$\left\{\begin{align*}
x_1 -x_3+x_4&=-a\\
3x_3 &=b+2a\\
-3x_3 &=-3a\\
-3x_3 &=-3a.
\end{align*}\right.$

$\left\{\begin{align*}
x_1 -x_3&=-a-x_4\\
x_3 &=a\\
b &=a\\
\end{align*}\right.$

$\left\{\begin{align*}
x_1 &=-x_4\\
x_3 &=a\\
b &=a\\
\end{align*}\right.$

$X$ appartient à $\ker(A-2I)^2$ si et seulement si il existe un réel $a$ tel que :

$\left\{\begin{align*}
x_1 &=-x_4\\
x_2 &=x_2\\
x_3 &=a\\
x_4 &=x_4\\
\end{align*}\right.$

$\ker(A-2I)^2 = \vect\left[ \begin{pmatrix}
-1\\
0 \\
0\\
1
\end{pmatrix}, \begin{pmatrix}
0\\
1 \\
0\\
0
\end{pmatrix}, \begin{pmatrix}
0\\
0 \\
1 \\
0
\end{pmatrix}\right].$

Vous choisissez $v_2 = \begin{pmatrix}
0\\
0 \\
1 \\
0
\end{pmatrix}.$

Maintenant que vous avez les vecteurs $v_1$ et $v_2$, vous posez $v = v_1-v_2 = \begin{pmatrix}
0\\
-1 \\
0 \\
1
\end{pmatrix}.$

Voyez pourquoi le vecteur $v$ a un polynôme minimal de degré $3$.

Il a été vu que $v_1$ admet $X+1$ pour polynôme minimal et que $v_2$ admet $(X-2)^2.$

Soit $P\in\R[X]$ un polynôme annulant le vecteur $v$, c’est-à-dire tel que $P(A)v = 0.$

Prenez le vecteur $v_1 = v + v_2$. Appliquez le polynôme $P$.

$P(A)v_1 = P(A)v_2$, puis annulez le vecteur $v_2$.

$(A-2I)^2P(A) v_1 = 0.$

Le polynôme $(X-2)^2 P(X)$ annule le vecteur $v_1$. Ce polynôme est un multiple du polynôme minimal de $v_1$, donc $X+1 \ (X-2)^2 P(X)$ et par application du théorème de Gauss, $X+1 | P(X).$

Prenez le vecteur $v_2 = v_1 – v$. Appliquez le polynôme $P$.

$P(A)v_2 = P(A)v_1$, puis annulez le vecteur $v_1$.

$(A+I)P(A)v_2 = 0.$

Le polynôme $(X+1)P(X)$ annule le vecteur $v_2$. Du coup $(X-2)^2 | (X+1)P(X)$ et par le théorème de Gauss, $(X-2)^2 | P(X).$

$P(X)$ est un multiple de $X+1$ et de $(X-2)^2$ qui sont premiers entre eux, donc $P(X)$ est un multiple de leur produit.

D’autre part, $(A+I)(A-2I)^2 v = (A-2I)^2(A+I)v_1-(A+I)(A-2I)^2v_2 = 0. $

Ainsi, le vecteur $v$ admet $(X+1)(X-2)^2 = X^3-3X^2+4$ pour polynôme minimal et $<v>$ est de dimension $3$.

Le premier bloc de Frobenius

D’après ce qui précède, la famille $(v, Av, A^2v)$ est libre et $A^3v = 3A^2v-4v.$ Si vous complétez cette famille en une base $(v, Av, A^2v, w)$ de $\R^4$ et que vous formez la matrice $P = (v | Av | A^2v | w)$, la matrice $P$ sera inversible et $P^{-1}AP$ aura pour forme : $P^{-1}AP = \begin{pmatrix}
0 & 0 & -4 & \times \\
1 & 0 & 0 & \times\\
0 & 1 & 3 & \times \\
0 & 0 & 0 & \times
\end{pmatrix}.$

En notant $P_2 = (X+1)(X-2)^2$, on a $C(P_2) = \begin{pmatrix}
0 & 0 & -4\\
1 & 0 & 0 \\
0 & 1 & 3
\end{pmatrix}$ et $P^{-1}AP = \begin{pmatrix}C(P_1) & \times \\ 0 & \times \end{pmatrix}$

Attaquez le second bloc de Frobenius

D’après ce qui précède, compléter la famille $(v, Av, A^2v)$ en une base de $\R^4$ ne suffit pas.

Il s’agit, pour former un second bloc avec une matrice compagnon, de construire un supplémentaire stable par $A$ de $\vect(v,Av,A^2v).$

Construisez une forme linéaire $f$ de $\R^4$ telle que $f(v)=0$, $f(Av)=0$ et $f(A^2v) \neq 0$ puis considérez $F = \{w\in\R^4, f(w)=f(Aw)=f(A^2w)=0\}.$ Alors $F$ est un sous-espace vectoriel de $\R^4$, stable par $A$, tel que $\R^4 = <v> \oplus \ F.$

En effet, $F$ est déjà un sous-espace vectoriel de $\R^4$, comme noyau de l’application linéaire $g : w\mapsto (f(w), f(Aw), f(A^2w))$ qui va de $\R^4$ dans $\R^3.$

$F$ est stable par la matrice $A$. En effet, supposez que $w\in F.$ Alors $f(w)=f(Aw)=f(A^2w)=0$ or $A^3w \in \vect(w,Aw,A^2w)$ puisque le polynôme minimal de $A$ est de degré $3$. Par linéarité il s’ensuit que $f(A^3w)=0$ et donc $Aw \in F.$

Pour montrer que $\R^4 = <v> \oplus \ F$ il suffit de montrer que $F$ est de dimension $1$.

Par le théorème du rang, il suffit de montrer que l’image de $g$ est de dimension $3$. Or c’est effectivement le cas, puisque pour $g(v) = (0,0,k)$ où $ k$ est non nul (puisqu’il est égal à $f(A^2v)$), $g(Av) = (0,k,\times)$, $g(A^2v) = (k, \times, \times).$ Du coup la famille $(g(v), g(Av), g(A^2v))$ est libre. L’image de $g$ contient l’espace engendré par cette famille et donc l’image de $g$ a une dimension supérieure ou égale à $3$. Comme l’image de $g$ est incluse dans $\R^3$, on obtient le résultat annoncé.

Terminez les calculs

Les calculs montrent que $v = \begin{pmatrix}
0\\
-1\\
0\\
1
\end{pmatrix}$, que $Av = \begin{pmatrix}
1\\
0\\
-3\\
-2
\end{pmatrix}$ et que $A^2v = \begin{pmatrix}
4\\
-5\\
-3\\
-3
\end{pmatrix}.$

Il suffit de poser $f\left(\begin{pmatrix}
x_1\\
x_2\\
x_3\\
x_4
\end{pmatrix}\right) = 3x_1+x_3.$

Pour trouver $F$ on résout $f(x) = f(Ax) = f(A^2x)=0$ pour $x = \begin{pmatrix}
x_1\\
x_2\\
x_3\\
x_4
\end{pmatrix}$ ce qui conduit au système :

$\left\{\begin{align*}
3x_1+x_3&=0\\
6x_1-x_3&=0 \\
21x_1-8x_3+9x_4&=0.
\end{align*}\right.$

Sa résolution fournit $x_1 = x_3 = x_4 = 0$ et donc $F = \vect\left[\begin{pmatrix}
0\\
1\\
0\\
0
\end{pmatrix}\right]$ est un supplémentaire stable de $<v>.$

On peut constater rapidement que si $w = \begin{pmatrix}
0\\
1\\
0\\
0
\end{pmatrix}$, alors $Aw = 2w$ ce qui montre que $w$ admet $X-2$ pour polynôme minimal.

La matrice compagnon de ce polynôme est $(2)$.

Posez $P = (v| Av| A^2v| w)=\begin{pmatrix}
0 & 1 & 4 & 0 \\
-1 & 0 & -5 & 1\\
0 & -3 & -3 & 0 \\
1 & -2 & -3 & 0
\end{pmatrix}.$

Notez que tous les vecteurs de $F$ sont annulés par le polynôme minimal de $A$, par conséquent le polynôme minimal du vecteur $w$ divise le polynôme minimal de $A$.

En posant $P_1 = X-2$ et $P_2 =(X-2)^2(X+1)$, vous obtenez bien :

$P^{-1}AP = \begin{pmatrix}
C(P_2) & 0\\
0 & C(P_1)
\end{pmatrix} $ où $P_1 | P_2.$

Pour avoir les blocs de Frobenius dans le bon ordre, il suffit de poser $Q = (w | v| Av| A^2v)=\begin{pmatrix}
0 & 0 & 1 & 4 \\
1 & -1 & 0 & -5 \\
0 & 0 & -3 & -3 \\
0 & 1 & -2 & -3
\end{pmatrix}.$

Alors $Q^{-1}AQ = \begin{pmatrix}
C(P_1) & 0\\
0 & C(P_2)
\end{pmatrix} = \begin{pmatrix}
2 & 0 & 0 & 0 \\
0 & 0 & 0 & -4\\
0 & 1 & 0 & 0 \\
0 & 0 & 1 & 3
\end{pmatrix}, $ où $P_1 | P_2$ ce qui est la matrice de Frobenius et $Q$ la matrice dont les colonnes constituent une base de Frobenius de la matrice $A$.

096. Comment calculer le polynôme minimal d’une matrice ?

Soit $n$ un entier naturel non nul, $\K$ un corps et $A$ une matrice appartenant à $M_n(\K).$

$\K^n$ désigne l’ensemble des matrices colonnes à $n$ lignes à coefficients dans $\K.$

Il existe un polynôme unitaire de degré minimal, noté $\Pi\in\K[X]$ tel que $\Pi(A)=0.$

Le but de cet article consiste à donner une méthode générale permettant de calculer $\Pi.$

Les premiers paragraphes sont théoriques, ceux de la fin donnent un cas pratique.

Le polynôme minimal d’un vecteur

Pour tout vecteur $x\in\K^n$ non nul, il existe un unique polynôme $P_x$ unitaire de degré minimal tel que $P_x(A)x = 0.$

Une première information sur $\Pi$ est donnée par le théorème suivant.

Pour tout vecteur $x\in \K^n$ non nul, le polynôme minimal de $x$, noté $P_x$ divise le polynôme minimal $\Pi$ de la matrice $A$.

Cette information est cruciale, sauf que, pour avoir $\Pi$, combien faut-il prendre de vecteurs ? L’idée c’est que si $(e_1,…,e_n)$ est une base de $\K^n$, $\forall i\in\N, 1\leq i \leq n \Longrightarrow P_{e_i} | \Pi.$

Alors on constate que si $Q$ est le PPCM des polynômes $P_{e_i}$ quand $i$ est compris entre $1$ et $n$, alors $Q$ divise $\Pi$. Il y a en fait égalité : comme chaque $P_{e_i}$ annule le vecteur $e_i$, on en déduit que $\forall i \in\N, 1\leq i \leq n \Longrightarrow P_{e_i}(A)e_i = 0 \Longrightarrow Q(A)e_i = 0.$

Enfin, par linéarité, on conclut que $Q(A)=0.$ Si $x\in\K^n$, il existe $(a_1,…,a_n)\in\K^n$ tel que $x=\sum_{k=1}^n a_ie_i$ et donc $Q(A)x =\sum_{k=1}^n a_iQ(A)e_i = 0.$

Ainsi il apparaît que $Q = \Pi.$

Le cas d’une base générée par plusieurs vecteurs cycliques

Au début vous choisissez un vecteur $x_1$ non nul et pour calculer $P_{x_1}$, vous calculez successivement $Ax_1$, $A^2x_1$ jusqu’à obtenir un premier entier $k$ tel que $A^kx_1$ soit une combinaison linéaire des $A^\ell x_1$ pour $1\leq \ell \leq k-1.$ Les coefficients trouvés vous donnent $P_{x_1}.$

Vous choisissez ensuite un vecteur $x_2$ n’appartenant pas à l’espace cyclique engendré par $x_1$, et calculez de même $P_{x_2}$ jusqu’à ce que vous ayez une base de $\K^n$ de la forme $(x_1, Ax_1, … A^{k_1}x_1, …, x_p, Ax_p, …, A^{k_p}x_p).$ Notez bien ici que $k_i$ n’est pas forcément le degré du polynôme $P_{x_i}.$ En itérant le vecteur $x_i$ sur $A$, il se peut que $A^p x_i$ soit combinaison linéaire des vecteurs précédents… autant itérer permet de trouver le polynôme minimal du vecteur $x_i$, autant il faudra prendre moins de vecteurs pour garder une famille libre…

En notant $Q$ le PPCM de $P_{x_1}$, …, $P_{x_p}$ nous prétendons que $\Pi$ est égal à $Q$.

Pour tout $i\in\N$ compris entre $1$ et $p$, le polynôme $P_{x_i}$ divise le polynôme $\Pi$, du coup, $Q$ divise $\Pi.$

Soit $i$ un entier compris entre $1$ et $p$.
Soit $j$ un entier compris entre $0$ et $k_i.$

Par définition de $P_{x_i}$, $P(x_i)$ divise $\Pi.$

Notez $P_{x_i}(X) = \sum_{k=0}^{d} a_kX^k.$

Vous avez $\sum_{k=0}^{d} a_kA^k x_i = 0.$ Multipliez cette relation par $A^j.$

Alors $\sum_{k=0}^{d} a_kA^k (A^j x_i)= 0.$ Cela prouve que le polynôme minimal de $A^j x_i$ divise $P_{x_i}$ qui lui-même divise $Q$.

Ainsi $Q$ annule tous les vecteurs de la base $(x_1, Ax_1, … A^{k_1}x_1, …, x_p, Ax_p, …, A^{k_p}x_p)$ et par linéarité $Q(A)=0.$

D’où l’égalité $Q = \Pi.$

Et maintenant, un exemple de calcul dans $\R$

Considérez la matrice réelle définie par $A = \begin{pmatrix}
3 & 0 & -1 & 1\\
2 & 2 & 1 & 2\\
-3 & 0 & 2 & -3\\
-4 & 0 & 1 & -2
\end{pmatrix}.$

L’idée première consiste à choisir un vecteur $x$ de sorte que l’espace cyclique $<x>$ soit facile à calculer.

Vous choisissez $x = \begin{pmatrix}
0 \\
1\\
0\\
0
\end{pmatrix}.$

Alors $Ax = \begin{pmatrix}
0 \\
2\\
0\\
0
\end{pmatrix}.$

D’où $Ax = 2x$ et donc $(A-2I)x=0.$

Le polynôme minimal du vecteur $x$ est $X-2.$ N’ayant pas encore une base de $\R^4$ il faut continuer.

La famille $(x)$ étant libre, vous choisissez un vecteur $y$ tel que $y\notin \vect (x)$ de sorte que la famille $(x,y)$ soit libre.

La troisième colonne de $A$ étant la plus simple après la seconde, vous choisissez $y = \begin{pmatrix}
0 \\
0\\
1\\
0
\end{pmatrix} $ qui convient. Vous cherchez à trouver le polynôme minimal du vecteur $y.$

$Ay = \begin{pmatrix}
-1 \\
1\\
2\\
1
\end{pmatrix}.$

La famille $(y,Ay)$ est libre, il faut continuer.

$A^2 y = A \begin{pmatrix}
-1 \\
1\\
2\\
1
\end{pmatrix} = \begin{pmatrix}
-4 \\
4\\
4\\
4
\end{pmatrix}$

Vous constatez que $A^2y = 4Ay-4y$, donc $(A^2-4A+4I)y = 0$ et $X^2-4X+4 = (X-2)^2.$

La famille $(x,y,Ay)$ étant libre, il manque un vecteur pour obtenir une base de $\R^4.$

Choisissez $z\in\R^4 \setminus \vect(x,y,Ay).$ Par exemple $z = \begin{pmatrix}
0\\
0\\
0\\
1
\end{pmatrix}$ convient.

$Az = \begin{pmatrix}
1 \\
2\\
-3\\
2
\end{pmatrix}$

La famille $(z,Az)$ est libre.

$A^2z = A \begin{pmatrix}
1 \\
2\\
-3\\
2
\end{pmatrix} = \begin{pmatrix}
4 \\
-1\\
-3\\
-3
\end{pmatrix} $

La famille $(z,Az,A^2z)$ est libre.

$A^3z = A \begin{pmatrix}
4 \\
-1\\
-3\\
-3
\end{pmatrix}= \begin{pmatrix}
12 \\
-3\\
-9\\
-13
\end{pmatrix}.$

Vous remarquez que $A^3 z = 3A^2z – 4z$ d’où $(A^3-3A^2+4I)z=0$ donc $z$ admet $X^3-3X^2+4$ pour polynôme minimal. Pour le factoriser, on teste si $2$ est une racine de ce polynôme. C’est bien le cas et c’est même une racine double : $X^3-3X^2+4 = (X-2)(X^2-X-2) = (X-2)^2(X+1).$

Ainsi le polynôme $\Pi$ est un multiple de $(X-2)^2(X+1)$.

Remarquez que le polynôme $(X-2)^2(X+1)$ annule tous les vecteurs de la base $(x,y,Ay,z).$ En effet, vous avez $(A-2I)^2(A+I) x = 0$, $(A-2I)^2(A+I) y = 0$ et $(A-2I)^2(A+I) z = 0$, du coup $(A-2I)^2(A+I) (Ay) = 0.$

Par linéarité il s’ensuit que $(A-2I)^2(A+I)=0$ ce qui prouve que $\boxed{\Pi = (X-2)^2(X+1)}.$

Peut-on se passer des vecteurs cycliques ?

Tout à fait, si on ne veut pas tester les conditions de liberté de la forme « est-ce que $Ay$ est une combinaison linéaire de $x$ et de $y$ ? », il suffit de travailler avec une base $(e_1,…,e_n)$ de $\K^n.$

Le polynôme minimal $\Pi$ de la matrice $A$ est égal au PPCM des polynômes minimaux (pris sur $A$) des vecteurs d’une base de $\K^n.$
$\Pi =$ PPCM $(P_{e_i})_{1\leq i\leq n}.$

095. Comprendre la réduction de Frobenius et de Jordan pour un endomorphisme cyclique

Considérez la matrice $A = \begin{pmatrix}
2 & 1 & -1\\
3 & 3 & -4\\
3 & 1 & -2
\end{pmatrix}.$

Notez $f$ l’endomorphisme de $\R^3$ dont la matrice est $A$ dans la base canonique.

Une idée, pour chercher à trouver une base dans laquelle la matrice de $f$ est plus simple, c’est de trouver un sous-espace cyclique de $\R^3$.

Rappelons qu’un sous-espace cyclique est un sous-espace vectoriel de $\R^3$, stable par $f$, qui est de la forme $Vect(x, f(x), f^2(x), …)$ c’est à dire l’ensemble des valeurs prises sur le vecteur $x$ de tous les endomorphismes de $\R^3$ qui sont des polynômes en $f$ : $\{P(f)(x), P\in\R[X]\}$.

Comme vous travaillez ici dans $\R^3$ qui est de dimension $3$, si vous arrivez à trouver un vecteur $x$ tel que $(x, f(x), f^2(x))$ soit une base de $\R^3$, alors $f^3(x)$ est une combinaison linéaire des vecteurs $x$, $f(x)$ et $f^2(x)$ ce que vous notez ainsi : il existe un triplet $(a,b,c)\in\R^3$ tel que $f^3(x) = af^2(x)+bf(x)+cx$ et dans la base $(x,f(x),f^2(x))$ la matrice $B$ de $f$ est grandement simplifiée :

$B = \begin{pmatrix}
0 & 0 & c\\
1 & 0 & b\\
0 & 1 & a
\end{pmatrix}.$

Pour simplifier les notations et améliorer la lisibilité, la notation $<x>$ désignera le sous-espace cyclique de $f$ engendré par $x$, c’est-à-dire $<x> =\{P(f)(x), P\in\R[X]\} .$

Une idée naturelle, mais qui n’aboutira pas ici !

On peut se fire qu’il suffit de choisir un vecteur au hasard et d’appliquer $f$ successivement. Malheureusement…

Exemple : choisissez le vecteur très simple $e_1 = \begin{pmatrix}
1 \\
0\\
0
\end{pmatrix}$ et étudiez $<e_1>.$

Vous obtenez $f(e_1)= \begin{pmatrix}
2 \\
3\\
3
\end{pmatrix}$ puis $f^2(e_1) = f \begin{pmatrix}
2 \\
3\\
3
\end{pmatrix} = \begin{pmatrix}
4 \\
3\\
3
\end{pmatrix}.$

La famille $(e_1,f(e_1),f^2(e_1))$ est-elle libre ?

Il s’avère que non, puisque $f^2(e_1) = 2e_1+f(e_1).$ Choisir un vecteur de départ au hasard n’est pas une bonne idée…

Vers le calcul du polynôme minimal de $f$

Peut-on construire un vecteur $x$ tel que $<x>$ soit de dimension $3$ ? Comment y parvenir ?

Un aparté à propos du polynôme minimal d’un vecteur

Remarquez déjà que la dimension de $<x>$ est précisément égale au degré du polynôme minimal de $x$. Qu’est-ce qu’un tel polynôme ? Parmi tous les polynômes $P\in\R[X]^{*}$ tels que $P(f)(x)=0$, il en existe un et un seul, unitaire et de degré minimal, tel que $P(f)(x) = 0.$

Justifiez ici l’existence et l’unicité d’un tel polynôme.
Soit $x$ un vecteur de $\R^3$, fixé.

Considérez l’ensemble $\{\text{deg}(P), \exists P\in\R[X]^{*}, P(f)(x)=0\}.$

La difficulté première est de montrer que $E = \{P\in\R[X]^{*}, P(f)(x)=0\}$ est non vide. Bien-sûr, l’argument massue du théorème de Cayley-Hamilton permettrait de conclure, mais vous allez procéder de manière différente.

Pour l’existence. Vous travaillez dans un espace de dimension $3$, par conséquent toute famille de $4$ vecteurs est liée. Considérez la famille $(x,f(x),f^2(x), f^3(x))$ qui est liée.

Il existe donc un quadruplet $(a_0,a_1,a_2,a_3)\in\R^4$ différent de $(0,0,0,0)$ tel que : $a_0x+a_1f(x)+a_2f^2(x)+a_3f^3(x)=0.$

L’ensemble $\{ i \in \N, 0\leq i \leq 3, a_i\neq 0\}$ est non vide, c’est une partie de $\N$, majorée par $3$, qui admet un plus grand élément $p$.

Si $p=0$ c’est que $a_1=a_2=a_3=0$ et que $a_0\neq 0$. Par conséquent $x=0$. Définissez $P(X)=X$. Le polynôme $P$ appartient bien à $E$.

Si $p>0$, vous écrivez que $\sum_{k=0}^p a_kf^k(x)=0$ avec $a_p\neq 0$ et donc $f^p(x)=\sum_{k=0}^{p-1}\frac{-a_k}{a_p}f^k(x).$ Posez $P(X) = X^p – \sum_{k=0}^{p-1} \frac{-a_k}{a_p}X^k$. Alors $P\in E.$

Maintenant que $E \neq \emptyset$, vous déduisez que l’ensemble $\{\text{deg}(P), \exists P\in\R[X]^{*}, P(f)(x)=0\} = \{\text{deg}(P), P\in E\}$ est non vide, que c’est une partie de $\N$. Par conséquent, vous pouvez noter $n$ le minimum de $\{\text{deg}(P), P\in E.\}$

Il existe donc un polynôme $P$ de degré $n\geq 0$ tel que $P(f)(x)=0$. Quitte à diviser par le coefficient dominant de $P$, vous pouvez supposer que $P$ est unitaire.

Pour l’unicité. Supposez qu’il existe deux polynômes $P_1$ et $P_2$ unitaires et de degré $n\geq 0$ tels que $P_1(f)(x) = P_2(f)(x)=0.$

Notez que $(P_1-P_2)(f)(x)=0.$ Si le polynôme $P_1-P_2$ n’était pas nul, alors notez que le polynôme $P_1-P_2$ est de degré strictement inférieur à $n$ et annule le vecteur $x$, d’où $\text{deg}(P_1-P_2) \in \{\text{deg}(P), \exists P\in\R[X]^{*}, P(f)(x)=0\}$ ce qui contredit la minimalité de $n.$

Retour vers la recherche du vecteur $x$

Pour trouver un vecteur $x$ tel que $<x>$ soit de dimension $3$, il faut déjà vérifier que le polynôme minimal de $f$ (polynôme unitaire et de plus petit degré possible annulant $f$) n’est pas de degré $0$, $1$ ou $2.$ Le polynôme minimal de $f$ annule $f$ en entier et annule bien-sûr tout vecteur $x$. Il serait illusoire de chercher $x$ si le degré du polynôme minimal de $f$ n’est pas suffisamment élevé.

Le calcul du polynôme minimal de $f$

Notez $\Pi$ le polynôme minimal de $f$.

Remarquez que $A$ n’est pas la matrice nulle, donc $\Pi$ n’est pas constant, donc $\text{deg}(\Pi) \geq 1.$

Examinez l’hypothèse $\text{deg}(\Pi) = 1.$ Vous en déduisez l’existence d’un réel $a$ tel que $A = aI$, ce qui est impossible. Donc $\text{deg}(\Pi) \geq 2.$

Vous calculez ensuite $A^2$ et aboutissez à $A^2 = \begin{pmatrix}
4 & 4 & 4\\
3 & 8 & -7\\
3&4&-3
\end{pmatrix}.$

Examinez l’hypothèse $\text{deg}(\Pi) = 2.$ Vous en déduisez l’existence de deux réels $a$ et $b$ tels que :

$A^2=aA+bI$, ce qui donne $4 = 2a+b$, $4=a$, $3 = 3a$, … ce qui est impossible.

Il est donc acquis que le polynôme minimal de $f$ est de degré supérieur ou égal à 3.

Vérifiez qu’effectivement $\text{deg}(\Pi) = 3.$

Note : le lecteur averti sait dans le polynôme minimal a toujours un degré inférieur ou égal à la dimension de l’espace, toujours par le théorème de Cayley-Hamilton.

Vous calculez $A^3$ et trouvez que $A^3 = \begin{pmatrix}
8 & 12 & -12\\
9 & 20 & -21\\
9&12&-13
\end{pmatrix}$ puis que $A^3=3A^2-4I$, soit $A^3-3A^2+4I = 0.$

Vous en déduisez que $\Pi(X) = X^3-3X^2+4.$

L’endomorphisme $f$ de $\R^3$ a un polynôme minimal qui a le même degré que la dimension de l’espace dans lequel il opère. On dit que $f$ est un endomorphisme cyclique.

Vers la construction d’un vecteur $x$ tel que $<x>$ soit de dimension 3

Ce qui est remarquable et délicat, c’est de justifier de l’existence d’un vecteur $x$ qui admet $\Pi$ pour polynôme minimal.

Première étape : écrivez $\Pi$ comme un produit de facteurs irréductibles

Il apparaît que $-1$ est une racine de $\Pi$, ce qui permet d’aboutir à la factorisation $\Pi(X)=(X+1)(X^2-4X+4)=(X+1)(X-2)^2.$

Vous en déduisez que $\Pi = P_1^{\alpha_1}P_2^{\alpha_2}$ avec $P_1 = X+1$, $\alpha_1 = 1$, $P_2 = X-2$ et $\alpha_2 = 2.$

Seconde étape : pour chaque facteur irréductible de la forme $P_i^{\alpha}$, prenez un vecteur $x_i$ appartenant au noyau de $P_i^{\alpha}$ mais n’appartenant pas au noyau $P_i^{\alpha_i-1}$

Si $P_i^{\alpha_i}$ est un facteur apparaissant dans la factorisation de $\Pi$ avec $\alpha_i$ maximal, comment se fait-il que l’inclusion $\ker(P_i(f)^{\alpha_i-1}\subset \ker(P_i(f)^{\alpha_i}$ soit stricte ? Ce qui justifie l’existence du vecteur $x_i$ ?

Notez déjà que les polynômes $P_1$ et $P_2$ sont premiers entre eux dans $\R[X].$

Par le théorème de Bezout, il existe deux polynômes réels $Q_1$ et $Q_2$ tels que $1 = Q_1P_1+Q_2P_2^2.$

Soit $x$ un vecteur de $\R^3.$ Posez $x_1 = (Q_1P_1)(f)(x)$ et $x_2 = (Q_2P_2^2)(f)(x)$. Alors $x=x_1+x_2$ mais $(P_2^2)(f)(x_1)=(Q_1P_1P_2^2)(f)(x) = (Q_1(f))((P_1P_2^2)(f)(x))=(Q_1(f))(0)=0.$ De même, $P_1(f)(x_2) = (Q_2P_1P_2^2)(f)(x)= (Q_2(f))((P_1P_2^2)(f)(x))=(Q_2(f))(0)=0.$

Cela prouve que $\R^3 = \ker(P_1(f)) + \ker(P_2^2(f)).$

S’il existait un entier $i$ tel que $\ker(P_i(f))^{\alpha_i-1} = \ker(P_i(f))^{\alpha_i}$ vous auriez soit $\R^3 = \ker(P_2^2(f))$, soit $\R^3 = \ker(P_1(f)) + \ker(P_2(f))$ donc soit $P_2(f) = 0$, soit $(P_1P_2)(f)=0$ ce qui contredit la minimalité du degré de $\Pi.$

Cherchez un vecteur $x_1$ tel que $x_1\in\ker(A+I) \setminus \{0\}.$

Vous calculez $A+I = \begin{pmatrix}
3&1&-1\\
3&4&-4\\
3&1&-1
\end{pmatrix}$ et constatez que $x_1 = \begin{pmatrix}
0\\
1\\
1
\end{pmatrix}$ convient.

Cherchez un vecteur $x_2$ tel que $x_2\in\ker(A-2I)^2 \setminus \ker(A-2I).$

Vous calculez d’abord $\ker(A-2I).$ Comme $\begin{pmatrix}
0 & 1 & -1\\
3 & 1 & -4\\
3 & 1 & -4
\end{pmatrix}$ le rang de $A-2I$ est $2$, donc son noyau est de dimension $1$ et par suite $\ker(A-2I) = Vect\left(\begin{pmatrix}
1 \\
1 \\
1
\end{pmatrix}\right).$

Vous cherchez $X\in\ker(A-2I)^2$ soit $(A-2I)X\ker(A-2I)$ et aboutissez à $\ker(A-2I)^2 = Vect\left(\begin{pmatrix}
1 \\
1 \\
1
\end{pmatrix},\begin{pmatrix}
0 \\
1 \\
0
\end{pmatrix}\right).$

Vous choisissez donc $x_2 = \begin{pmatrix}
0 \\
1 \\
0
\end{pmatrix}.$

Dernière étape : la somme des $x_i$ fournit un vecteur cyclique

Posez $x = x_1+x_2.$

Il s’agit de comprendre pourquoi $(x,f(x),f^2(x))$ est une base de $\R^3.$

Y aller avec la définition $\forall (a_0,a_1,a_2)\in\R^3, \sum_{k=0}^2 a_kf^k(x) = 0 \Longrightarrow a_0=a_1=a_2=0$ marchera en prenant les valeurs numériques mais ne permettra pas de comprendre pourquoi cela fonctionne dans le cas général.

Travailler avec cette définition dans le cas général n’aboutira pas.

Reprenez avec ce que vous savez.

$\Pi = (X+1)(X-2)^2$ est le polynôme minimal de $f$ et vous avez deux vecteurs $x_1$ et $x_2$ tels que $x_1\in\ker(f+Id)\setminus \{0\}$ et $x_2\in \ker((f-2Id)^2) \setminus \ker(f-2Id).$

Avec $x=x_1+x_2$, pourquoi $<x>$ est de dimension $3$ ?

Il suffit de calculer le polynôme minimal de $x$.

Notez $R$ ce polynôme.

Vous allez montrer que $X+1$ divise $R$ et que $(X-2)^2$ divise $R$ aussi.

Pour utiliser $X+1$ il faut utiliser le vecteur $x_1$ et pour $(X-2)^2$ il faut $x_2.$

Remarquez que $x_1 = x – x_2$

Alors annulez $x$ et $x_2$ :

$\begin{align*}
(R(f)\circ (f-2Id)^2)(x_1) &=(R(f)\circ (f-2Id)^2)(x-x_2)\\
&= (R(f)\circ (f-2Id)^2)(x)-(R(f)\circ (f-2Id)^2)(x_2)\\
&= ((f-2Id)^2)(R(f)(x)) – (R(f))((f-2Id)^2)(x_2))\\
&= ((f-2Id)^2)(0)-(R(f))(0)\\
&= 0.
\end{align*}$

Le polynôme $(X-2)^2 R(X)$ annule le vecteur $x_1$, qui admet $X+1$ pour polynôme minimal donc $X+1$ divise $(X-2)^2R(X).$ Comme $X+1$ et $(X-2)^2$ sont premiers entre eux, par le théorème de Gauss, $X+1$ divise $R(X).$

Faites de même pour $x_2$.

Remarquez que $x_2 = x – x_1.$

Alors annulez $x$ et $x_1$ :

$\begin{align*}
(R(f)\circ (f+Id))(x_2) &=(R(f)\circ (f+Id))(x-x_1)\\
&= (R(f)\circ (f+Id))(x)-(R(f)\circ (f+Id))(x_1)\\
&= (f+Id)(R(f)(x)) – (R(f))((f+Id)(x_1))\\
&= (f+Id)(0)-(R(f))(0)\\
&= 0.
\end{align*}$

Le polynôme $(X+1)R(X)$ annule le vecteur $x_2$, qui admet $(X-2)^2$ pour polynôme minimal donc $(X-2)^2$ divise $(X+1)R(X).$ Comme $X+1$ et $(X-2)^2$ sont premiers entre eux, par le théorème de Gauss, $(X-2)^2$ divise $R(X).$

Mis bout à bout, vous en déduisez que $(X+1)(X-2)^2$ divise $R(X)$ ce qui prouve que $<x>$ est de dimension $3$. En effet, le polynôme minimal de $f$ étant de degré $3$, $<x>$ est forcément de degré inférieur ou égal à $3.$ Si $<x>$ avait une dimension strictement inférieure à $3$, alors le polynôme minimal de $x$, unitaire, serait de degré inférieur ou égal à $2$, mais il serait aussi multiple de $(X+1)(X-2)^2$ ce qui est impossible pour une question de degré.

Vous en déduisez que $x = x_1+x_2 = \begin{pmatrix}
0 \\
2\\
1
\end{pmatrix}$ est tel que $<x>$ est de dimension $3$.

Vérifiez-le directement.

$f(x) = \begin{pmatrix}
1 \\
2\\
0
\end{pmatrix}$

et

$f^2(x)=\begin{pmatrix}
4 \\
9\\
5
\end{pmatrix}.$

La famille $(x,f(x))$ est libre puisque $x$ est non nul et $f(x)$ non colinéaire à $x$.

Si $f^2(x)$ était une combinaison linéaire de $x$ et de $f(x)$ il existerait un couple $(a,b)\in\R^2$ tel que :

$4 = a$, $9 = 2a+2b$ et $5=b$ ce qui est impossible.

Pour déterminer la matrice de $f$ dans la base $(x,f(x),f^2(x))$ vous calculez $f^3(x)$.

Utilisant le polynôme minimal de $f$, vous savez déjà que $A^3 = 3A^2-4I$ soit

$f^3(x) = 3f^2(x)-4x.$

Vous pouvez effectuer la vérification avec les valeurs numériques des vecteurs.

$f^3(x) = f\left(\begin{pmatrix}
4 \\
9\\
5
\end{pmatrix}\right)= \begin{pmatrix}
12 \\
19\\
11
\end{pmatrix}$

Or, $f^3(x) = \begin{pmatrix}
12 \\
19\\
11
\end{pmatrix} = 3 \begin{pmatrix}
4 \\
9\\
5
\end{pmatrix} – 4 \begin{pmatrix}
0 \\
2\\
1
\end{pmatrix} = 3f^2(x)-4x.$

Et le changement de base pour Frobenius

Notez $P$ la matrice $P = \begin{pmatrix}x | f(x) | f^2(x) \end{pmatrix} =
\begin{pmatrix}
0 & 1 & 4\\
2 & 2 & 9\\
1 & 0 & 5
\end{pmatrix}.$

Comme $(x,f(x),f^2(x))$ est une base de $\R^3$, la matrice $P$ est inversible.

Comme $f^3(x) = 3f^2(x)-4x$, il s’ensuit que :

$P^{-1}AP =\begin{pmatrix}
0 & 0 & -4\\
1 & 0 & 0\\
0 & 1 & 3
\end{pmatrix}$ ce qui est une décomposition de $A$ sous la forme d’une matrice compagnon.

Au polynôme unitaire $X^3-3X^2+4$ on associe l’équation $X^3 =3X^2-4$ qui donne la matrice compagnon $C$ en prenant du bas vers le haut les coefficients apparaissant dans le membre de droite qui fournit bien $C = \begin{pmatrix}
0 & 0 & -4\\
1 & 0 & 0\\
0 & 1 & 3
\end{pmatrix}.$

Et la décomposition de Jordan dans tout cela ?

L’endomorphisme $f$ est cyclique, vous avez $\Pi = (X+1)(X-2)^2$ et deux vecteurs $x_1$ et $x_2$ tels que $x_1\in\ker(f+Id)\setminus \{0\}$ et $x_2\in \ker((f-2Id)^2) \setminus \ker(f-2Id).$

Trouver une base de Jordan est rapide : $(x_1,(f-2Id)(x_2),x_2)$ est une base de $\R^3$ qui convient.

Vous montrez avec le polynôme minimal de $f$ et le théorème de Bezout que la somme $\ker(f+Id) + \ker((f-2Id)^2)$ est directe (propriété appelée souvent « lemme des noyaux« ).

Ainsi s’il existe un triplet $(u,v,w)\in R^3$ tel que $ux_1 + v(f-2Id)(x_2)+wx_2=0$ c’est que $ux_1 = 0$ et que $v(f-2Id)(x_2)+wx_2 = 0$ puis vous concluez en appliquant les propriétés des vecteurs $x_1$ et $x_2.$

Posez $x_3 = (f-2Id)x_2$ et $Q = (x_1 | x_3 | x_2) = \begin{pmatrix}
0 &1 & 0\\
1 & 1 & 1\\
1 & 1 & 0
\end{pmatrix}.$

De plus, $f(x_2)=2x_2+x_3.$ Comme $(f-2Id)(x_3)= (f-2Id)^2(x_2)=0$, c’est que $f(x_3)=2x_3$.

La famille $(x_1,x_3,x_2)$ est une base de $\R^3$, donc $Q$ est inversible et $Q^{-1}AQ =\begin{pmatrix}
-1 &0 & 0\\
0 & 2 & 1\\
0 & 0 & 2
\end{pmatrix}$ ce qui est bien une matrice de Jordan.

Une note sur le degré du polynôme minimal

Les endomorphismes $Id$, $f$, $f^2$, …, $f^9$ étant au nombre de $10$, ils sont liés puisque l’ensemble des endomorphismes de $\R^3$ est de dimension $9$. Cette remarque permet de justifier l’existence du polynôme minimal de $f$.

Voir que le degré de ce polynôme minimal est inférieur ou égal à $3$ est plus délicat.

Il a été vu dans cet article une méthode constructive permettant de trouver un vecteur $x$ de sorte que le polynôme minimal de $x$ est précisément le polynôme minimal de $f$. Comme le polynôme minimal de $x$ est égal à la dimension de $<x>$ qui est un sous-espace vectoriel de $\R^3$, vous en déduisez bien le résultat annoncé.

Le théorème de Cayley-Hamilton est plus précis mais nous n’en avons pas besoin dans cet article ; en fait ce théorème se déduit de cette méthode constructive exposée ici.

094. Comment bien calculer un déterminant ?

Pourquoi calculer un déterminant ?

Considérez la matrice $A=\begin{pmatrix}
7&1&2&2\\
1&4&-1&-1\\
-2&1&5&-1\\
1&1&2&8
\end{pmatrix}.$

Pour parvenir à trouver une représentation plus simple de cette matrice, vous êtes plus ou moins amenés à déterminer les valeurs propres et vecteurs propres de $A$, c’est-à-dire tous les réels $x\in\R$ de sorte qu’il existe un vecteur $X$ non nul tel que $AX=xX.$ Cette égalité amène à $(A-xI)X=0$ avec $X\neq 0$ autrement dit, le réel $x$ ne peut pas être choisi n’importe comment.

L’égalité $(A-xI)X = 0$ avec $X$ non nul force la matrice $A-xI$ a être singulière ou non inversible. Par conséquent le déterminant $\det(xI-A)$ est nul. Le choix de $xI-A$ au lieu de $A-xI$ pour le calcul du déterminant est motivé par le fait que, pour toute matrice réelle $T$ carrée d’ordre $n$, $\det(xI-T)$ est un polynôme unitaire de degré $n$, ce qui n’est pas le cas de $\det(A-xI)$ quand $n$ est impair.

Quels outils utiliser pour développer un déterminant ?

Un déterminant de taille $3\times 3$ peut être calculé avec la règle de Sarrus, ce qui donne 6 termes, ce qui est faisable, mais fastidieux… et puis si le déterminant de départ est de taille $4\times 4$ vous êtes ramenés à développer avec une formule à 24 termes. Il faut bannir ces utilisations-là.

Utilisez plutôt les opérations élémentaires sur les lignes et les colonnes.

  • Priorité 1 : cherchez à factoriser par un polynôme de degré 1.
  • Priorité 2 : faites apparaître des zéros pour vous ramener à un déterminant de taille inférieure, et recommencez.

Calcul bien mené d’un déterminant $4×4$

Pour déterminer les valeurs propres de $A$, vous êtes amené à calculer :

$\begin{align*}
\det(xI-A)&=\begin{vmatrix}
x-7 & -1 & -2 & -2\\
-1 & x-4 & 1 & 1\\
2 & -1 & x-5 & 1\\
-1 & -1 & -2 & x-8
\end{vmatrix}
\end{align*}$

Le plus important ensuite c’est d’arriver à former une colonne qui soit factorisable par un polynôme de degré 1. Remplacez la colonne 1 avec l’opération élémentaire $C_1\leftarrow C_1+C_2-C_3.$

$\begin{align*}
\det(xI-A) &= \begin{vmatrix}
x-6 & -1 & -2 & -2\\
x-6 & x-4 & 1 & 1\\
0 & -1 & x-5 & 1\\
-x+6 & -1 & -2 & x-8
\end{vmatrix}\\
&=(x-6)\begin{vmatrix}
1 & -1 & -2 & -2\\
1 & x-4 & 1 & 1\\
0 & -1 & x-5 & 1\\
-1 & -1 & -2 & x-8
\end{vmatrix}.
\end{align*}$

Ensuite vous forcez l’apparition de trois zéros sur la première colonne avec les opérations élémentaires suivantes :
$L_2\leftarrow L_2-L_1$ et $L_4\leftarrow L_4+L_1.$

$\begin{align*}
\det(xI-A)&=(x-6)\begin{vmatrix}
1 & -1 & -2 & -2\\
0 & x-3 & 3 & 3\\
0 & -1 & x-5 & 1\\
0 & -2 & -4 & x-10
\end{vmatrix}\\
&=(x-6)\begin{vmatrix}
x-3 & 3 & 3\\
-1 & x-5 & 1\\
-2 & -4 & x-10
\end{vmatrix}\\
\end{align*}$

Puis vous formez l’opération élémentaire $C_2\leftarrow C_2-C_3.$

$\begin{align*}
\det(xI-A)&=(x-6)\begin{vmatrix}
x-3 & 3 & 3\\
-1 & x-5 & 1\\
-2 & -4 & x-10
\end{vmatrix}\\
&=(x-6)\begin{vmatrix}
x-3 & 0 & 3\\
-1 & x-6 & 1\\
-2 & -x+6 & x-10
\end{vmatrix}\\
&=(x-6)^2\begin{vmatrix}
x-3 & 0 & 3\\
-1 & 1 & 1\\
-2 & -1 & x-10
\end{vmatrix}\\
\end{align*}$

Forcez l’apparition de deux zéros sur la colonne 2.
$L_3\leftarrow L_3+L_2$

$\begin{align*}
\det(xI-A) &= (x-6)^2\begin{vmatrix}
x-3 & 0 & 3\\
-1 & 1 & 1\\
-3 & 0 & x-9
\end{vmatrix}\\
&= (x-6)^2\begin{vmatrix}
x-3 & 3\\
-3 & x-9
\end{vmatrix}
\end{align*}$

Formez l’opération élémentaire $C_1\leftarrow C_1-C_2.$

$\begin{align*}
\det(xI-A) &= (x-6)^2\begin{vmatrix}
x-3 & 3\\
-3 & x-9
\end{vmatrix}\\
&= (x-6)^2\begin{vmatrix}
x-6 & 3\\
-x+6 & x-9
\end{vmatrix}\\
&= (x-6)^3\begin{vmatrix}
1 & 3\\
-1 & x-9
\end{vmatrix}\\
\end{align*}$

Puis forcez l’apparition d’un zéro sur la colonne 1 avec $L_2\leftarrow L_2+L_1$ et concluez.

$\begin{align*}
\det(xI-A) &= (x-6^3)\begin{vmatrix}
1 & 3\\
0 & x-6
\end{vmatrix}\\
&=(x-6)^4.
\end{align*}$

Prolongement

Procédez à la réduction de la matrice $A$, maintenant que vous savez qu’elle n’a que $6$ comme valeur propre.