Votre navigateur n'accepte pas le Javascript.La navigation sur ce site risque de ne pas fonctionner correctement.

084. Les sommes de Newton

Dans cet article, vous trouverez :

  • la définition d’une somme de Newton associée à un polynôme,
  • les relations qu’il y a entre les sommes de Newton et les coefficients dudit polynôme avec un moyen efficace de les mémoriser,
  • une démonstration de ces relations qui fait appel à la division euclidienne et à la dérivation d’un polynôme scindé.

Qu’entend-on par sommes de Newton vis-à-vis d’un polynôme ?

Soit $P$ un polynôme à coefficients dans un corps $\K$, de degré $n\geq 1$.

Il existe des coefficients $(a_0,a_1,\dots,a_n)$ tels que $P(x)=a_0x^n+a_1x^{n-1}+\cdots+a_{n-1}x+a_n.$

Notez que, contrairement à beaucoup de notations usuelles sur les polynômes, le coefficient dominant de $P$ est noté $a_0$.

Il existe un surcorps $\L$ de $\K$ dans lequel $P$ est scindé.

Il existe donc $n$ racines appartenant à $\L$, certaines étant éventuellement répétées, notées $\lambda_1$, … , $\lambda_n$, telles que $P(x)=a_0(x-\lambda_1)\cdots(x-\lambda_n).$

Les sommes de Newton, notées $N_1$ pour « Newton 1 », …, $N_n$ pour « Newton $n$ », sont définies de la façon suivante :

$N_1 = \lambda_1+\cdots+\lambda_n = \sum_{k=1}^n\lambda_k$,

$N_2 = \lambda_1^2+\cdots+\lambda_n^2= \sum_{k=1}^n\lambda_k^2$,

$\dots$

$N_n = \lambda_1^n+\cdots+\lambda_n^n=\sum_{k=1}^n\lambda_k^n.$

Autrement dit, pour tout entier $i$ compris entre $1$ et $n$,

$N_i = \displaystyle\sum_{k=1}^n\lambda_k^i.$

Note : vous trouverez aussi des sommes de Newton définies pour $i\geq n+1$. Elles ne seront pas traitées dans cet article, le point de difficulté à lever étant de comprendre le lien entre les premières relations.

Comment mémoriser efficacement les relations qui lient les sommes de Newton ?

La relation fondamentale

Soit $k$ un entier compris entre $1$ et $n$.

Comme $\lambda_k$ est une racine de $P$, vous déduisez :

$a_0\lambda_k^n+a_1\lambda_k^{n-1}+\cdots+a_{n-1}\lambda_k+a_n=0.$

Pour plus de clarté, on écrira le dernier coefficient fois $1$.

$a_0\lambda_k^n+a_1\lambda_k^{n-1}+\cdots+a_{n-1}\lambda_k+a_n\times 1=0.$

Maintenant sommez ces $n$ relations.

\begin{aligned}
\sum_{k=1}^n \left(a_0\lambda_k^n+a_1\lambda_k^{n-1}+\cdots+a_{n-1}\lambda_k+a_n\times 1\right)&=0\\
a_0\sum_{k=1}^n \lambda_k^n + a_1 \sum_{k=1}^n \lambda_k^{n-1}+\cdots + a_{n-1}\sum_{k=1}^n\lambda_k + a_n \sum_{k=1}^n 1 &= 0\\
\end{aligned}

Vous obtenez la relation de base fondamentale qui lie toutes les sommes.

$\boxed{a_0N_n+a_1N_{n-1}+\cdots+a_{n-1}N_1+na_n=0.}$

$\boxed{\sum_{i=0}^{n-1} a_iN_{n-i} + na_n=0.}$

Comment se souvenir des autres relations ?

Considérez le polynôme de degré $1$ qui n’utilise que les premiers coefficients de $P$ en commençant par son coefficient dominant.

Posez $P_1(x) = a_0x+a_1$. Le polynôme $P_1$ n’a qu’une seule racine $\lambda’_1$. Si vous appliquez la relation fondamentale avec sa somme de Newton $N’_1 = \lambda’_1$, vous obtenez $a_0N’_1+a_1=0.$

Ce qui est remarquable c’est que cette relation reste valable pour la somme $N_1$ associée au polynôme de départ $P$ : $a_0N_1+a_1=0.$

De même pour le degré $2$. Posez $P_2(x)=a_0x^2+a_1x+a_2$. Notez $\lambda’_1$ et $\lambda’_2$ les deux racines de $P_2$, posez $N’_1 = \lambda’_1+\lambda’_2$ et $N’_2 = {\lambda’}_1^2$ $+{\lambda’}_2^2$.

D’après la relation fondamentale $a_0N’_2+a_1N’_1+2a_2=0.$

Cette relation se transpose aussi.

Vous avez $a_0N_2+a_1N_1+2a_2=0$ où $N_1$ et $N_2$ sont les deux premières sommes de Newton associées au polynôme de départ $P$.

Vous en déduisez toutes les relations liant les sommes de Newton. Il y en a $n$ au total.

\begin{aligned}
a_0N_1+a_1 &= 0\\
a_0N_2+a_1N_1+2a_2 &=0\\
a_0N_3+a_1N_2+a_2N_1+3a_3 &=0\\
\cdots & \cdots\\
a_0N_n+a_1N_{n-1}+\cdots+a_{n-1}N_1+na_n &=0.
\end{aligned}

Conclusion : toutes les formules de Newton avec des sigmas

Pour tout entier $k$ compris entre $1$ et $n$ :

$\boxed{\sum_{i=0}^{k-1} a_iN_{k-i} + ka_k=0.}$

Et maintenant, démontrez les relations qu’il y a entre les sommes de Newton et les coefficients du polynôme

Ecartez d’office le cas où $P$ est de degré $1$. Il y a une seule racine $\lambda_1$ qui vérifie $a_0\lambda_1+a_1=0$, or $N_1 = \lambda_1.$

Dans la suite $n$ désignera un entier naturel supérieur ou égal à $2$.

A partir du polynôme $P$ défini par $P(x)=a_0x^n+a_1x^{n-1}+\cdots+a_{n-1}x+a_n$, vous allez définir les polynômes tronqués $P_0$, $P_1$, …, $P_n$ de la façon suivante :

\begin{aligned}
P_0(x) &= a_0\\
P_1(x) &= a_0x+a_1\\
P_2(x) &= a_0x^2+a_1x+a_2\\
\cdots & \cdots\\
P_n(x) &= a_0x^n+a_1x^{n-1}+\cdots+a_{n-1}x+a_n.
\end{aligned}

Soit $i$ un entier compris entre $1$ et $n$.

Quand vous effectuez la division euclidienne de $P(x)$ par $x-\lambda_i$ dans le corps $\L(x)$, vous obtenez $P(x)=(x-\lambda_i)\left(P_0(\lambda_i)x^{n-1} + P_1(\lambda_i)x^{n-2} + \cdots + P_{n-1}(\lambda_i)\right) + P_n(\lambda_i).$

Faites une disgression et voyez pourquoi on obtient une telle relation par division euclidienne

Comment bien comprendre le processus ?

Supposez temporairement que le polynôme $P$ est de degré $3$ dans $\L[x]$, $P(x)=a_0x^3+a_1x^2+a_2x+a_3$. Soit $\lambda$ un élément de $\L$.

Vous allez effectuer la division de $P$ par $x-\lambda$, pas à pas.

\begin{aligned}
a_0x^3+a_1x^2+a_2x+a_3 &=a_0x^2\times x + a_1x^2+a_2x+a_3\\
&=a_0x^2( (x-\lambda)+\lambda)+a_1x^2+a_2x+a_3\\
&=(x-\lambda)(a_0x^2) +(a_0\lambda+a_1)x^2+a_2x+a_3\\
&=(x-\lambda)(a_0x^2) +(a_0\lambda+a_1)x\times x+a_2x+a_3\\
&=(x-\lambda)(a_0x^2) +(a_0\lambda+a_1)x\times ((x-\lambda)+\lambda)+a_2x+a_3\\
&=(x-\lambda)(a_0x^2) +(a_0\lambda+a_1)x(x-\lambda) + (a_0\lambda^2+a_1\lambda) x+a_2x+a_3\\
&=(x-\lambda)(a_0x^2+(a_0\lambda+a_1)x) + (a_0\lambda^2+a_1\lambda +a_2) x+ a_3\\
&=(x-\lambda)(a_0x^2+(a_0\lambda+a_1)x) + (a_0\lambda^2+a_1\lambda +a_2) ((x-\lambda)+\lambda)+ a_3\\
&=(x-\lambda)(a_0x^2+(a_0\lambda+a_1)x+(a_0\lambda^2+a_1\lambda +a_2)) + ((a_0\lambda^2+a_1\lambda +a_2))\lambda)+ a_3\\
&=(x-\lambda)(a_0x^2+(a_0\lambda+a_1)x+(a_0\lambda^2+a_1\lambda +a_2)) +P(\lambda).\\
\end{aligned}

Note. Dans le processus vous pouvez reconnaître la méthode de Hörner pour calculer $P(\lambda)$.

La division euclidienne pour tout degré $n\geq 2$

Supposez que le polynôme $P$ soit de degré $n\geq 2$ à coefficients dans $\L$. Soit $\lambda$ un élément de $\L$.

L’exemple précédent suggère de poser $Q(x)=\sum_{k=0}^{n-1}\sum_{i=0}^k a_i\lambda^{k-i}x^{n-1-k}$ comme polynôme qui va être le quotient de la division euclidienne de $P(x)$ par $x-\lambda$. Le reste de cette division doit être $P(\lambda).$

Vérifiez-le en effectuant le développement de l’expression $E$ définie par $E(x)=Q(x)(x-\lambda)+P(\lambda).$

Par développement du $x$ et du $\lambda$ dans le sigma, vous obtenez :

$E(x) = \sum_{k=0}^{n-1}\sum_{i=0}^k a_i\lambda^{k-i}x^{n-k}-\sum_{k=0}^{n-1}\sum_{i=0}^k a_i\lambda^{k+1-i}x^{n-1-k} + P(\lambda).$

Maintenant vous isolez le terme pour $i=0$ du premier sigma et le terme pour $i=n-1$ du deuxième sigma. Aussitôt :

$E(x) =a_0x^n + \sum_{k=1}^{n-1}\sum_{i=0}^k a_i\lambda^{k-i}x^{n-k}-\sum_{k=0}^{n-2}\sum_{i=0}^k a_i\lambda^{k+1-i}x^{n-1-k} – \sum_{i=0}^{n-1} a_i\lambda^{n-i}+ P(\lambda).$

Une première simplification apparaît dans le terme constant de $E(x)$.

$E(x) =a_0x^n + \sum_{k=1}^{n-1}\sum_{i=0}^k a_i\lambda^{k-i}x^{n-k}-\sum_{k=0}^{n-2}\sum_{i=0}^k a_i\lambda^{k+1-i}x^{n-1-k} +a_n.$

Maintenant, dans le premier sigma qui est double, vous allez isoler $i=k$ du reste.

$E(x) =a_0x^n + \sum_{k=1}^{n-1}\left(a_kx^{n-k}+ \sum_{i=0}^{k-1} a_i\lambda^{k-i}x^{n-k}\right)-\sum_{k=0}^{n-2}\sum_{i=0}^k a_i\lambda^{k+1-i}x^{n-1-k} +a_n.$

Vous poursuivez le développement du premier sigma.

$E(x) =a_0x^n + \sum_{k=1}^{n-1}a_kx^{n-k}+ \sum_{k=1}^{n-1}\sum_{i=0}^{k-1} a_i\lambda^{k-i}x^{n-k}-\sum_{k=0}^{n-2}\sum_{i=0}^k a_i\lambda^{k+1-i}x^{n-1-k} +a_n.$

Dans le second double sigma, vous effectuez un changement de variable, en posant $k’=k+1$.

$E(x) =a_0x^n + \sum_{k=1}^{n-1}a_kx^{n-k}+ \sum_{k=1}^{n-1}\sum_{i=0}^{k-1} a_i\lambda^{k-i}x^{n-k}-\sum_{k’=1}^{n-1}\sum_{i=0}^{k’-1} a_i\lambda^{k’-i}x^{n-k’} +a_n.$

Il apparaît une somme téléscopique. Les deux doubles sigmas se simplifient. Vous déduisez :

$E(x) = a_0x^n + \sum_{k=1}^{n-1}a_kx^{n-k} + a_n$.

$E(x)$ coïncide avec $P(x)$.

Aussitôt $\boxed{P(x) =(x-\lambda)\left( \sum_{k=0}^{n-1}\left(\sum_{i=0}^k a_i\lambda^{k-i}\right)x^{n-1-k}\right)+P(\lambda).}$

Maintenant, revenez au calcul des sommes de Newton

Comme $\lambda_i$ est racine de $P$, $P_n(\lambda_i)=P(\lambda_i)=0.$ Aussitôt :

$\dfrac{P(x)}{x-\lambda_i} = P_0(\lambda_i)x^{n-1} + P_1(\lambda_i)x^{n-2} + \cdots + P_{n-1}(\lambda_i).$

Vous sommez cette relation sur toutes les racines.

\begin{aligned}
\displaystyle\sum_{i=1}^n \dfrac{P(x)}{x-\lambda_i} &= \left(\sum_{i=1}^n P_0(\lambda_i)\right)x^{n-1} &+ \left(\sum_{i=1}^n P_1(\lambda_i)\right)x^{n-2} &+ \cdots &+ \left(\sum_{i=1}^n P_{n-1}(\lambda_i)\right)\\
&= na_0x^{n-1} &+ (a_0N_1+na_1)x^{n-2} &+ \cdots &+ (a_0N_{n-1}+a_1N_{n-2}+\cdots+a_{n-2}N_1+na_{n-1})
\end{aligned}

Partant de $P(x) = a_0(x-\lambda_1)\cdots(x-\lambda_n)$, en dérivant :

$P'(x)=\displaystyle\sum_{i=1}^n \prod_{j\neq i} a_0(x-\lambda_j) = \sum_{i=1}^n \dfrac{P(x)}{x-\lambda_i}$

Du coup :

\begin{aligned}
P'(x) &= na_0x^{n-1} &+ (a_0N_1+na_1)x^{n-2} &+ \cdots &+ (a_0N_{n-1}+a_1N_{n-2}+\cdots+a_{n-2}N_1+na_{n-1})\\
na_0x^{n-1}+(n-1)a_{1}x^{n-2}+\cdots+a_{n-1}&= na_0x^{n-1} &+ (a_0N_1+na_1)x^{n-2} &+ \cdots &+ (a_0N_{n-1}+a_1N_{n-2}+\cdots+a_{n-2}N_1+na_{n-1}).
\end{aligned}

Par identification des coefficients à partir du deuxième à gauche, il vient :

\begin{aligned}
\forall i\in \N, 1\leq i\leq n-1&\Rightarrow ia_{n-i} =a_0 N_{n-i}+a_1N_{n-i-1}+\cdots +a_{n-i-1}N_1 +na_{n-i}\\
&\Rightarrow a_0 N_{n-i}+a_1N_{n-i-1}+\cdots +a_{n-i-1}N_1 +(n-i)a_{n-i}=0
\end{aligned}

Effectuez le changement de variable $k=n-i$. Quand $i$ varie entre $1$ et $n-1$, $k$ varie de $1$ à $n-1$ aussi.

Pour tout entier naturel $k$ compris entre $1$ et $n-1$, vous avez :

$a_0 N_{k}+a_1N_{k-1}+\cdots +a_{k-1}N_1 +ka_{k}=0.$

Avec un sigma, cela s’écrit $\sum_{i=0}^{k-1} a_iN_{k-i} + ka_k=0.$

Comme la relation $\sum_{i=0}^{n-1} a_iN_{n-i} +na_n=0$ a déjà été établie, vous en déduisez que :

Pour tout $k$ compris entre $1$ et $n$, $\sum_{i=0}^{k-1} a_iN_{k-i} + ka_k=0.$

Le lien entre les sommes de Newton et les coefficients du polynôme associé est maintenant établi.

Pensez aux résultats qui en découlent

Les sommes de Newton serviront à établir une démonstration de la méthode de Faddeev, qui constitue une amélioration de la méthode de Leverrier. Vous pourrez par la suite calculer le polynôme caractéristique d’une matrice ainsi que l’inverse de cette matrice le cas échéant.

Prolongement

Pour observer comment les liens entre les sommes de Newton sont construits sur un exemple, allez lire le contenu rédigé dans l'article 316.

083. La décomposition LU d’une matrice inversible

Dans cet article, vous trouverez :

  • comment construire la décomposition $LU$ de la matrice $A=\begin{pmatrix} 2 & 7 & 1 \\4 & 13 & 1\\ -2 & -10 & -7\end{pmatrix}$ en utilisant une méthode se ramenant à des matrices de tailles inférieures ;
  • une condition nécessaire et suffisante pour qu’une matrice $A$ admette une telle décomposition $LU.$

Qu’est-ce que la décomposition $LU$ d’une matrice ?

On dit qu’une matrice $A$ admet une décomposition $LU$ lorsqu’il existe deux matrices $L$ et $U$ de même taille que $A$, telles que :

  • le produit matriciel $LU$ est égal à $A$ ;
  • la matrice $L$ (comme « low ») est triangulaire inférieure ;
  • la matrice $L$ a tous ses coefficients diagonaux égaux à $1$ ;
  • la matrice $U$ (comme « up ») est triangulaire supérieure.

Trouvez une décomposition $LU$ pour la matrice $A$

Il s’agit de trouver $L = \begin{pmatrix} 1 & 0 & 0 \\ \times & 1 & 0\\ \times & \times & 1\end{pmatrix}$ et $U = \begin{pmatrix} \times & \times & \times \\0 & \times & \times\\ 0 & 0 & \times\end{pmatrix}$ pour que l’on ait $A=LU.$

Pour répondre à cette question et ne pas s’embrouiller, il s’agit de résoudre cela avec méthode, de façon progressive. Vous allez vous en tirer en considérant les mineurs principaux de la matrice $A$. Ce sont les sous-matrices de $A$, carrées, construites à partir de son premier coefficient en haut à gauche.

La matrice $A$ possède trois mineurs principaux :

  • la matrice $1\times 1$ à un coefficient : $\begin{pmatrix} 2 \end{pmatrix}$ ;
  • la matrice $2\times 2$ suivante : $\begin{pmatrix} 2& 7 \\4 & 13\end{pmatrix}$ ;
  • la matrice $3\times3$ égale à la matrice $A$ elle-même.

L’idée de base lors de la décomposition $LU$ c’est que, pour une taille donnée, les mineurs de $A$ sont égaux au produit des mineurs de $L$ et de $U$. Cette constatation est immédiate compte tenu de la structure triangulaire des matrices $L$ et $U$.

Regardez ce que donnent les mineurs $1\times1$

Pour la matrice $A$ vous n’avez besoin que de son premier mineur. Tous les autres coefficients de $A$ sont masqués.

$ \begin{pmatrix} \boxed{2} & \times & \times \\\times & \times & \times\\ \times & \times & \times\end{pmatrix}= \begin{pmatrix} \boxed{1} & 0 & 0 \\ \times & 1 & 0\\ \times & \times & 1\end{pmatrix} \begin{pmatrix} \boxed{\times} & \times & \times \\0 & \times & \times\\ 0 & 0 & \times\end{pmatrix}$

$2 = 1 \times 2$, donc pas le choix, vous déduisez :

$ \begin{pmatrix} \boxed{2} & 7 & 1 \\4 & 13 & 1\\ -2 & -10 & -7\end{pmatrix}= \begin{pmatrix} \boxed{1} & 0 & 0 \\ \times & 1 & 0\\ \times & \times & 1\end{pmatrix} \begin{pmatrix} \boxed{2} & \times & \times \\0 & \times & \times\\ 0 & 0 & \times\end{pmatrix}.$

Regardez ce que donnent les mineurs $2\times 2$

$ \begin{pmatrix} 2 & 7& \times \\4& 13& \times\\ \times & \times & \times\end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ \times & 1 & 0\\ \times & \times & 1\end{pmatrix} \begin{pmatrix} 2 & \times & \times \\0 & \times & \times\\ 0 & 0 & \times\end{pmatrix}$

Vous allez pouvoir compléter un coefficient du mineur de taille $2\times2$ de la matrice $U$. En commençant par celui du haut.

$ \begin{pmatrix} 2 & 7& \times \\4& 13& \times\\ \times & \times & \times\end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ \times & 1 & 0\\ \times & \times & 1\end{pmatrix} \begin{pmatrix} 2 & \boxed{\times} & \times \\0 & \times & \times\\ 0 & 0 & \times\end{pmatrix}$

$7$ est égal à $1$ fois $\boxed{\times}$ plus 0. Donc :

$ \begin{pmatrix} 2 & 7& \times \\4& 13& \times\\ \times & \times & \times\end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ \times & 1 & 0\\ \times & \times & 1\end{pmatrix} \begin{pmatrix} 2 & 7 & \times \\0 & \times & \times\\ 0 & 0 & \times\end{pmatrix}.$

Passez au coefficient suivant :

$ \begin{pmatrix} 2 & 7& \times \\4& 13& \times\\ \times & \times & \times\end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ \boxed{\times} & 1 & 0\\ \times & \times & 1\end{pmatrix} \begin{pmatrix} 2 & 7 & \times \\0 & \times & \times\\ 0 & 0 & \times\end{pmatrix}.$

$2$ fois $\boxed{\times}$ plus 0 est égal à $4$. Donc :

$ \begin{pmatrix} 2 & 7& \times \\4& 13& \times\\ \times & \times & \times\end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ 2 & 1 & 0\\ \times & \times & 1\end{pmatrix} \begin{pmatrix} 2 & 7 & \times \\0 & \times & \times\\ 0 & 0 & \times\end{pmatrix}.$

Et maintenant le dernier coefficient des mineurs de taille $2\times 2.$

$ \begin{pmatrix} 2 & 7& \times \\4& 13& \times\\ \times & \times & \times\end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ 2 & 1 & 0\\ \times & \times & 1\end{pmatrix} \begin{pmatrix} 2 & 7 & \times \\0 & \boxed{\times} & \times\\ 0 & 0 & \times\end{pmatrix}$

Or $7$ fois $2$ plus $1$ fois $\boxed{\times}$ est égal à $13.$ Donc :

$ \begin{pmatrix} 2 & 7& \times \\4& 13& \times\\ \times & \times & \times\end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ 2 & 1 & 0\\ \times & \times & 1\end{pmatrix} \begin{pmatrix} 2 & 7 & \times \\0 & -1 & \times\\ 0 & 0 & \times\end{pmatrix}.$

Regardez ce que donnent les mineurs $3\times 3$

$ \begin{pmatrix} 2 & 7& 1\\4& 13& 1\\ -2& -10& -7\end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ 2 & 1 & 0\\ \times & \times & 1\end{pmatrix} \begin{pmatrix} 2 & 7 & \boxed{\times} \\0 & -1 & \boxed{\times}\\ 0 & 0 & \times\end{pmatrix}$

Or $1$ fois $\boxed{\times}$ plus $0$ est égal à $1$. Donc la première croix doit être remplacée par 1.

$2$ fois $1$ plus $1$ fois la seconde $\boxed{\times}$ est égal à $1.$

Vous déduisez :

$ \begin{pmatrix} 2 & 7& 1\\4& 13& 1\\ -2& -10& -7\end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ 2 & 1 & 0\\ \times & \times & 1\end{pmatrix} \begin{pmatrix} 2 & 7 & 1 \\0 & -1 & -1\\ 0 & 0 & \times\end{pmatrix}.$

Maintenant vous passez aux deux autres coefficients.

$ \begin{pmatrix} 2 & 7& 1\\4& 13& 1\\ -2& -10& -7\end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ 2 & 1 & 0\\ \boxed{\times} & \boxed{\times} & 1\end{pmatrix} \begin{pmatrix} 2 & 7 & 1 \\0 & -1 & -1\\ 0 & 0 & \times\end{pmatrix}$

Or $2$ fois $\boxed{\times}$ plus $0$ est égal à $2$. Donc la première croix doit être remplacée par $-1$.

$7$ fois $-1$ plus $-1$ fois la seconde $\boxed{\times}$ est égal à $-10.$

Vous déduisez :

$ \begin{pmatrix} 2 & 7& 1\\4& 13& 1\\ -2& -10& -7\end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ 2 & 1 & 0\\ -1 & 3 & 1\end{pmatrix} \begin{pmatrix} 2 & 7 & 1 \\0 & -1 & -1\\ 0 & 0 & \times\end{pmatrix}.$

Puis, vous finissez avec le dernier coefficient.

$ \begin{pmatrix} 2 & 7& 1\\4& 13& 1\\ -2& -10& -7\end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ 2 & 1 & 0\\ -1 & 3 & 1\end{pmatrix} \begin{pmatrix} 2 & 7 & 1 \\0 & -1 & -1\\ 0 & 0 & \boxed{\times}\end{pmatrix}$

$-1$ fois $1$ plus $3$ fois $-1$ plus $1$ fois $\boxed{\times}$ est égal à $1$.

Vous déduisez :

$ \begin{pmatrix} 2 & 7& 1\\4& 13& 1\\ -2& -10& -7\end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ 2 & 1 & 0\\ -1 & 3 & 1\end{pmatrix} \begin{pmatrix} 2 & 7 & 1 \\0 & -1 & -1\\ 0 & 0 & -3\end{pmatrix}.$

Quand, et seulement quand, une matrice inversible $A$ admet une décomposition $LU$ ?

Analyse

Soit $n$ un entier naturel non nul et $A$ une matrice inversible de taille $n\times n$ admettant une décomposition $LU$.

Alors $\det A = \det L \times \det U.$ Comme $\det A\neq 0$ et $\det L = 1$, vous déduisez $\det U \neq 0.$

Notez $u_{11}$, …, $u_{nn}$ les coefficients diagonaux de $U$.

Comme $\det U = u_{11}\times \dots \times u_{nn}$, vous déduisez $\forall i\in\llbracket, 1, n\rrbracket, u_{ii} \neq 0.$

Soit $k$ un entier naturel compris entre $1$ et $n$. Notez $A_k$ le mineur principal de $A$ de taille $k$. Notez $L_k$ le mineur principal de $L$ de taille $k$. Notez $U_k$ le mineur principal de $U_k$ de taille $k$. En effectuant un produit par blocs :

$\begin{pmatrix} A_k & \times \\ \times &\times \end{pmatrix} = \begin{pmatrix} L_k & 0 \\ \times &\times \end{pmatrix} \begin{pmatrix} U_k & \times \\ 0 &\times \end{pmatrix}$

vous constatez que $A_k = L_kU_k$ donc $\det A_k = \det L_k \times \det U_k$ et par suite $\det A_k = u_{11}\times \cdots\times u_{kk}$, donc $\det A_k\neq 0.$

Donc tous les mineurs principaux de $A$ sont inversibles.

Note : on désigne parfois par le mot « mineur » le déterminant d’une sous-matrice de $A$ au lieu de cette sous-matrice.

Synthèse

Pour tout entier naturel $n$ non nul, notez $P(n)$ la propriété « pour toute matrice $A$ d’ordre $n$ inversible ayant ses mineurs principaux inversibles, $A$ admet une décomposition $LU$. »

Initialisation. Prenez $n=1$. Supposez que $A$ soit une matrice d’ordre $1$ ayant des mineurs principaux tous inversibles. Comme $A$ n’admet qu’un seul coefficient $a$, vous posez $L = (1)$ et $U=(a)$ et vous déduisez $A=LU$. Donc $P(1)$ est vérifiée.

Hérédité. Soit $n$ un entier naturel non nul. Supposez $P(n)$. Vous allez montrer $P(n+1)$.

Soit $A$ une matrice carrée d’ordre $n+1$ ayant tous ses mineurs principaux inversibles.

Notez $A’$ le mineur principal de $A$ d’ordre $n$.

Il existe une matrice ligne $v_L$ et une matrice colonne $v_C$ et un scalaire $s$ tels que $A = \begin{pmatrix}A’ & v_C \\ v_L & s\end{pmatrix}.$

D’après l’hypothèse, $A’$ admet une décomposition $L’U’.$

Soient $\alpha_L$ une matrice ligne à $n$ coefficients, $\alpha_C$ une matrice colonne à $n$ coefficients et un scalaire $\beta$ que l’on choisira plus tard.

Posez $L = \begin{pmatrix} L’ & 0 \\\alpha_L & 1\end{pmatrix}$ et $U=\begin{pmatrix} U’ & \alpha_C \\ 0 & \beta \end{pmatrix}.$

Le produit $LU$ est égal à $\begin{pmatrix} L’U’ &L’\alpha_C \\ \alpha_LU’ & \alpha_L\alpha_C+\beta\end{pmatrix}.$

Comme $A’$ est inversible, $\det A’ \neq 0$. Or $\det L’ \det U’ =\det A’$ donc les deux matrices $L’$ et $U’$ sont inversibles.

Choisissez $\alpha_C$, $\alpha_L$ et $\beta$ pour que $L’\alpha_C = v_C$ et $\alpha_L U’ = v_L$ et $\beta = s-\alpha_L\alpha_C.$

Vous avez $A = LU$. $L$ est bien triangulaire inférieure avec des coefficients diagonaux égaux à $1$. $U$ est bien une matrice triangulaire supérieure. $A$ admet donc une décomposition $LU$. Donc $P(n+1)$ est vérifiée.

Par récurrence, vous avez montré que pour tout entier naturel $n$ non nul, $P(n)$ est vérifiée.

Concluez

Une matrice $A$ inversible admet une décomposition $LU$, si et seulement si, tous ses mineurs principaux sont inversibles.

081. Polynômes caractéristiques de AB et de BA

Dans cet article, vous considérez deux matrices carrées $A$ et $B$ à coefficients dans un corps $\K$, lorsque $\K = \R$ ou $\K=\C.$ Notez $I$ la matrice identité.

Que peut-on dire, en général, des polynômes caractéristiques des matrices $AB$ et $BA$ ?

Les deux polynômes sont égaux quand $A$ est inversible

Supposez que $A$ soit inversible.

Les matrices $AB$ et $BA$ sont semblables :
$A^{-1}(AB)A = (A^{-1}A)(BA) = IBA = BA.$

De ce fait elles ont le même polynôme caractéristique.

Que faire lorsque la matrice $A$ n’est pas inversible ?

Vous disposez d’un argument de topologie pour y répondre.

Notez $P(x) = \det(xI-A)$ le polynôme caractéristique de $A$. C’est un polynôme non constant à coefficients dans $\K$. Il est scindé dans $\C$ et admet un nombre fini de racines.

  • Soit $0$ est sa seule racine. Dans ce cas, pour tout $x\in ]0,+\infty[$, $P(x)\neq 0$. En particulier $\forall x\in ]0,1[, P(x)\neq 0.$
  • Soit il admet une ou plusieurs racines différentes de $0$. Notez $r>0$ le plus petit module de toutes ces racines. Alors $\forall x\in ]0,r[, P(x)\neq 0.$

Vous constatez que dans les deux cas énumérés ci-dessus il existe toujours un réel $\alpha>0$ tel que $\forall x\in ]0,\alpha[, P(x)\neq 0.$

Vous en déduisez que $\forall x\in ]0,\alpha[, A-xI$ est inversible.

D’après la partie précédente, pour tout $y$ tel que $0<y<\alpha$, $(A-yI)B$ et $B(A-yI)$ ont le même polynôme caractéristique.

Vous en déduisez que $\forall x\in\K, \forall y\in]0,r[$, $\det(xI-(A-yI)B)=\det(xI-B(A-yI)).$

Les deux déterminants ci-dessus sont des polynômes à deux variables en $x$ et $y$. Ce sont, en particulier, des fonctions continues à deux variables. Fixez $x\in\K$ et passez à la limite dans l’égalité $\det(xI-(A-yI)B)=\det(xI-B(A-yI))$ en faisant tendre $y$ vers $0$.

Vous obtenez l’égalité $\det(xI-AB)=\det(xI-BA).$

Concluez

Quelles que soient les matrices réelles ou complexes $A$ et $B$, les matrices $AB$ et $BA$ ont le même polynôme caractéristique.

80. Méthode de Le Verrier

Cherchez les valeurs propres de $A$

Considérez la matrice suivante : $A = \begin{pmatrix}
6 & -3 & -2 \\
4 & -1 & -2 \\
10 & -5 & -3
\end{pmatrix}.$

Comment trouver ses valeurs propres ? Supposez que vous ne connaissez rien, mais absolument rien, au concept du déterminant… De même, résoudre $AX = \lambda X$ avec $X\neq 0$ serait possible, mais vous voulez trouver autre chose…

Pour accéder aux valeurs propres, mieux vaut se placer dans $\C$, puisque vous savez que dans ce corps, tous les polynômes non constants sont scindés.

Cette propriété implique que la matrice $A$ est trigonalisable. Autrement dit, il existe une matrice inversible $P$ à coefficients complexes, trois nombres complexes, $\lambda_1$, $\lambda_2$ et $\lambda_3$ tels que $P^{-1}AP = \begin{pmatrix}
\lambda_1 &\times & \times \\
0 & \lambda_2 &\times \\
0 & 0 & \lambda_3 \\
\end{pmatrix}$

Et maintenant, la trace

La somme des valeurs propres

La trace de $A$ est égale à la somme des coefficients diagonaux de $A$, on la note $\tr(A)$ et bien-sûr $\tr(A)=2.$

La trace a une propriété très importante : quelles que soient les matrices complexes $C$ et $D$, $\tr(CD)=\tr(DC).$

Aussitôt, deux matrices semblables ont la même trace, d’où l’on déduit que $\boxed{\lambda_1+\lambda_2+\lambda_3=2}.$

La somme des carrés des valeurs propres

Après calcul, vous trouvez que $A^2 = \begin{pmatrix}
4 & -5 & 0 \\
0 & -1 & 0 \\
10 & -10 & -1
\end{pmatrix}.$

Comme $P^{-1}A^2P = \begin{pmatrix}
\lambda_1^2 &\times & \times \\
0 & \lambda_2^2 &\times \\
0 & 0 & \lambda_3^2 \\
\end{pmatrix}$

En prenant la trace, vous trouvez $\boxed{\lambda_1^2+\lambda_2^2+\lambda_3^2=2}.$

La somme des cubes des valeurs propres

Après calcul, vous trouvez que $A^3 = \begin{pmatrix}
4 & -7 & 2 \\
-4 & 1 & 2 \\
10 & -15 & 3
\end{pmatrix}.$

Comme $P^{-1}A^3P = \begin{pmatrix}
\lambda_1^3 &\times & \times \\
0 & \lambda_2^3 &\times \\
0 & 0 & \lambda_3^3 \\
\end{pmatrix}$

En prenant la trace, vous trouvez $\boxed{\lambda_1^3+\lambda_2^3+\lambda_3^3=8}.$

Les sommes de Newton et les fonctions symétriques

Les valeurs propres sont les racines du polynôme caractéristique de $A$ défini par $P(x)=(x-\lambda_1)(x-\lambda_2)(x-\lambda_3).$

En développant $P(x)$ vous obtenez : $P(x) = x^3 – (\lambda_1+\lambda_2+\lambda_3)x^2+(\lambda_1\lambda_2+\lambda_1\lambda_3+\lambda_2\lambda_3)x-\lambda_1\lambda_2\lambda_3.$

Introduisez les fonctions symétriques :

\begin{aligned}
\sigma_1 &= \lambda_1+\lambda_2+\lambda_3\\
\sigma_2 &=\lambda_1\lambda_2+\lambda_1\lambda_3+\lambda_2\lambda_3 \\
\sigma_3 &=\lambda_1\lambda_2\lambda_3.
\end{aligned}

Introduisez les sommes de Newton :

\begin{aligned}
N_1 &= \lambda_1+\lambda_2+\lambda_3\\
N_2 &=\lambda_1^2+\lambda_2^2+\lambda_3^2 \\
N_3 &=\lambda_1^3+\lambda_2^3+\lambda_3^3.
\end{aligned}

Vous connaissez les valeurs de $N_1$, $N_2$, $N_3$. Vous cherchez les valeurs de $\sigma_1$, $\sigma_2$ et $\sigma_3.$ C’est possible. Voilà comment procéder.

Vous avez déjà $\boxed{\sigma_1 = N_1}.$

Pour faire apparaître $\sigma_2$ une idée consiste à élever au carré la somme $\lambda_1+\lambda_2+\lambda_3.$

\begin{aligned}
(\lambda_1+\lambda_2+\lambda_3)^2 &= \lambda_1^2+\lambda_2^2+\lambda_3^2+2 \lambda_1\lambda_2 + 2\lambda_1\lambda_3+2\lambda_2\lambda_3\\
N_1^2 &=N_2 + 2\sigma_2
\end{aligned}

Aussitôt : $\boxed{2\sigma_2 = N_1^2-N_2}.$

Pour faire apparaître $\sigma_3$, c’est plus long mais le principe reste le même. Vous élevez au cube la somme $\lambda_1+\lambda_2+\lambda_3.$

\begin{aligned}
(\lambda_1+\lambda_2+\lambda_3)^3 &= \lambda_1^3+\lambda_2^3+\lambda_3^3+3 \lambda_1^2\lambda_2 + 3 \lambda_1^2\lambda_3+3 \lambda_2^2\lambda_1 +3 \lambda_2^2\lambda_3+3\lambda_3^2\lambda_1+3\lambda_3^2\lambda_2+6\lambda_1\lambda_2\lambda_3\\
N_1^3 &=N_3+6\sigma_3+3 (\lambda_1^2\lambda_2 + \lambda_1^2\lambda_3+ \lambda_2^2\lambda_1 +\lambda_2^2\lambda_3+\lambda_3^2\lambda_1+\lambda_3^2\lambda_2).
\end{aligned}

Il reste à calculer la somme $\lambda_1^2\lambda_2 + \lambda_1^2\lambda_3+ \lambda_2^2\lambda_1 +\lambda_2^2\lambda_3+\lambda_3^2\lambda_1+\lambda_3^2\lambda_2.$ Vous développez le produit $Q=(\lambda_1+\lambda_2+\lambda_3)(\lambda_1^2+\lambda_2^2+\lambda_3^2)$ qui se sépare en 3 termes (ceux au cube) avec 6 autres termes.

\begin{aligned}
Q &= \lambda_1^3+\lambda_1\lambda_2^2+\lambda_1 \lambda_3^2 \\&\quad+\lambda_1^2\lambda_2 +\lambda_2^3+\lambda_2\lambda_3^2 \\
&\quad+ \lambda_1^2\lambda_3 +\lambda_2^2 \lambda_3 + \lambda_3^3\\
N_1N_2 &= N_3 + \lambda_1^2\lambda_2 + \lambda_1^2\lambda_3+\lambda_2^2\lambda_1 +\lambda_2^2\lambda_3+\lambda_3^2\lambda_1+\lambda_3^2\lambda_2.
\end{aligned}

Du coup, $\lambda_1^2\lambda_2 + \lambda_1^2\lambda_3+ \lambda_2^2\lambda_1 +\lambda_2^2\lambda_3+\lambda_3^2\lambda_1+\lambda_3^2\lambda_2 = N_1N_2-N_3$, que l’on substitue plus haut, donnant :

\begin{aligned}
N_1^3 &=N_3+6\sigma_3+3(N_1N_2-N_3)\\
&=6\sigma_3 +3N_1N_2-2N_3.
\end{aligned}

Aussitôt $\boxed{6\sigma_3 = N_1^3+2N_3-3N_1N_2}.$

Calculez les fonctions symétriques

Vous avez successivement :
\begin{aligned}
\sigma_1 &= N_1 = 2\\
2\sigma_2 &= N_1^2-N_2 = 4-2=2\\
6\sigma_3 &=N_1^3+2N_3-3N_1N_2 = 8+16-12 = 12.
\end{aligned}

Aussitôt :

$\left\{\begin{align*}
\sigma_1 & = 2\\
\sigma_2 & = 1\\
\sigma_3 & = 2.\\
\end{align*}\right.$

Ecrivez le polynôme caractéristique

\begin{aligned}
P(x) &= x^3-\sigma_1x^2+\sigma_2x-\sigma_3\\
&= x^3-2x^2+x-2.
\end{aligned}

Les valeurs propres de $A$ sont les racines du polynôme $P$, il y en a trois qui annulent $P$, ce sont $2$, $i$ et $-i$.

Un prolongement…

Quelles que soient les matrices $A$ et $B$, selon vous, est-ce que $AB$ et $BA$ ont le même polynôme caractéristique ?

079. Un endomorphisme réel non diagonalisable

Considérez l’endomorphisme $f$ de $\R^3$ dont la matrice, dans la base canonique, est $A=\begin{pmatrix}6 & -3 & -2 \\ 4 & -1 & -2 \\ 10 & -5 & -3\end{pmatrix}.$

Pour savoir s’il est diagonalisable ou non, vous allez suivre les étapes suivantes :

  1. Calculez le polynôme caractéristique de la matrice $A$,
  2. Déterminez les valeurs propres de $A$,
  3. Déterminez la dimension des sous-espaces propres de $A$ avec le théorème du rang,
  4. Effectuer la somme des dimensions de ces sous-espaces propres ;
    si elle est égale à la dimension de $\R^3$, l’endomorphisme $f$ sera diagonalisable, sinon, il ne le sera pas.

Calculez le polynôme caractéristique de $A$

Effectuez des opérations élémentaires sur les lignes et/ou les colonnes pour calculer le polynôme caractéristique de $A.$

\begin{aligned}
\det (xI-A) &= \begin{vmatrix}x-6 & 3 & 2 \\ -4 & x+1 & 2\\ -10 & 5 & x+3\end{vmatrix} \\
&= \begin{vmatrix}x-2 & -x+2 & 0 \\ -4 & x+1 & 2\\ -10 & 5 & x+3\end{vmatrix} \\
&= (x-2)\begin{vmatrix}1 & -1 & 0 \\ -4 & x+1 & 2\\ -10 & 5 & x+3\end{vmatrix} \\
&= (x-2)\begin{vmatrix}1 & 0 & 0 \\ -4 & x-3 & 2\\ -10 &-5 & x+3\end{vmatrix} \\
&= (x-2)\begin{vmatrix} x-3 & 2\\ -5 & x+3\end{vmatrix} \\
&= (x-2)(x^2-9+10)\\
&=(x-2)(x^2+1).
\end{aligned}

Trouvez les valeurs propres de $A$

Ce sont les solutions de l’équation $(x-2)(x^2+1)=0.$

Il s’ensuit, comme $x$ est un nombre réel, que $x^2+1\neq 0$.
L’équation $(x-2)(x^2+1)=0$ admet $x=2$ pour solution unique.

La matrice $A$ admet exactement une seule valeur propre $2.$

Calculez la dimension des sous-espaces propres de $A$

Etudiez le seul espace propre associé à la valeur propre $2$. Vous formez la matrice : $$A-2I=\begin{pmatrix}4 & -3 & -2 \\ 4 & -3 & -2 \\ 10 & -5 & -5\end{pmatrix}.$$

Vous cherchez à déterminer la dimension du noyau de $A-2I$.

Vous constatez que les lignes $L_1$ et $L_2$ sont identiques et que les lignes $L_1$ et $L_3$ ne sont pas proportionnelles, donc le rang de la matrice $A$ est égal à $2$.

Par le théorème du rang, la dimension du noyau de $A-2I$ est égale à $1$.

En bonus, vous en déduisez que le sous espace propre associé à la valeur propre $2$ est la droite engendrée par le vecteur $u$ qui admet $\begin{pmatrix}1 \\ 0 \\ 2\end{pmatrix}$ dans la base canonique.

Concluez sur la diagonalisabilité de l’endomorphisme $f$

La somme de la dimension de tous les espaces propres (en fait il n’y en a qu’un seul) est égale à 1. Or $\R^3$ est de dimension $3$.

Aussitôt, l’endomorphisme $f$ de $\R^3$ n’est pas diagonalisable.

Remarque : par d’autres arguments, vous pouvez savoir que cet endomorphisme $f$ n’est pas diagonalisable. S’il l’était, il admettrait une base de diagonalisation. Comme il n’a qu’une seule valeur propre $2$, on en déduit que $f$ serait égal à deux fois l’application identité de $\R^3$. Mais alors la matrice $A$ serait égale à $A=2I$, ce qui n’est pas le cas.

078. Un endomorphisme réel diagonalisable

Soit $T$ l’endomorphisme de $\R^3$ qui est représenté par la matrice suivante $A$ dans la base canonique : $A =
\begin{pmatrix}
-9 & 4 & 4 \\
-8 & 3 & 4 \\
-16 & 8 & 7
\end{pmatrix}.$

Déterminez les valeurs propres de $T$

Le polynôme caractéristique de $T$ est égal à celui de n’importe quelle matrice dans laquelle $T$ est représenté. Vous allez calculer le polynôme caractéristique de $T$, en calculant :

\begin{aligned}
\det(xI-A) &= \begin{vmatrix}
x+9 & -4 & -4 \\
8 & x-3 & -4 \\
16 & -8 & x-7
\end{vmatrix}\\
&= \begin{vmatrix}
x+9 & 0 & -4 \\
8 & x+1 & -4 \\
16 & -x-1 & x-7
\end{vmatrix}\\
&= (x+1)\begin{vmatrix}
x+9 & 0 & -4 \\
8 & 1 & -4 \\
16 & -1 & x-7
\end{vmatrix}\\
&= (x+1)\begin{vmatrix}
x+9 & 0 & -4 \\
24 & 0 & x-11 \\
16 & -1 & x-7
\end{vmatrix}\\
&= (x+1)\begin{vmatrix}
x+9 & -4 \\
24 & x-11 \\
\end{vmatrix}\\
&=(x+1)(x^2-2x-99+96)\\
&=(x+1)(x^2-2x-3)\\
&=(x+1)^2(x-3).\\
\end{aligned}

L’endomorphisme $T$ possède deux valeurs propres $-1$ et $3.$

Déterminez des vecteurs propres de $T$

Vecteurs propres associés à la valeur propre $-1$

Vous déterminez d’abord la dimension du noyau de l’endomorphisme $T+I.$ Il est représenté par la matrice $A+I$ dans la base canonique.

$A+I = \begin{pmatrix}
-8 & 4 & 4 \\
-8 & 4 & 4 \\
-16 & 8 &8
\end{pmatrix}$

Il est immédiat de voir que le rang de $A+I$ est égal à 1. Par le théorème du rang, le noyau de $A+I$ est de dimension 2.

Posons $V_1 = \begin{pmatrix}
1 \\
2 \\

\end{pmatrix}$ et $V_2 = \begin{pmatrix}
1 \\
0 \\
2
\end{pmatrix}.$

$V_1$ et $V_2$ sont deux vecteurs non colinéaires, appartenant au noyau de $A+I$. Il s’ensuit que le noyau de $A+I$ est l’espace engendré par la famille $(V_1,V_2).$

Vecteurs propres associés à la valeur propre $3$

D’après ce qui précède, vous savez que la dimension du noyau de l’endomorphisme $T-3I$ est égale à $1$. Vérifiez-le directement.

$A-3I = \begin{pmatrix}
-12 & 4 & 4 \\
-8 & 0 & 4 \\
-16 & 8 &4
\end{pmatrix}.$

Les deux premières lignes de $A-3I$ sont linéairement indépendantes.
La troisième dépend des deux autres : $L_3 = 2L_1-L_2$. Le rang de $A-3I$ est égal à 2, donc son noyau est de dimension 1 par le théorème du rang.

Posons $V_3 = \begin{pmatrix}
1 \\
1 \\
2
\end{pmatrix}.$

$V_3$ appartient au noyau de $A-3I$.

Formez une base de vecteurs propres

La famille $(V_1,V_2)$ est libre et $V_3$ ne peut appartenir à l’espace engendré par elle, parce que des vecteurs propres associés à des valeurs propres différentes sont toujours linéairement indépendants.

Par conséquent la famille $(V_1,V_2,V_3)$ est libre et c’est une base de $\R^3$. Posez $P = (V_1 \vert V_2 \vert V_3) = \begin{pmatrix}
1 & 1 & 1 \\
2 & 0 & 1 \\
0 & 2 &2
\end{pmatrix}.$

Notez $D$ la matrice diagonale $D = \begin{pmatrix}
-1 & 0 & 0 \\
0 & -1 & 0 \\
0 & 0 &3
\end{pmatrix}.$

La matrice $P$ est inversible et
\begin{aligned}
AP &= A(V_1 \vert V_2 \vert V_3)\\
&=(AV_1 \vert AV_2 \vert AV_3)\\
&=(-V_1 \vert -V_2 \vert 3V_3)\\
&=PD
\end{align*}.$

Par invisibilité de $P$, vous avez $P^{-1}AP = D.$

L’endomorphisme $T$ est diagonalisable et admet la base $(V_1,V_2,V_3)$ pour base de diagonalisation.

074. A propos d’un algorithme sur le PPCM

Avec deux suites

Dans l’intégralité de cet article, $a$ et $b$ désignent deux entiers strictement positifs.

Pour déterminer leur PPCM, deux suites $(u_n)_{n\in\N}$ et $(v_n)_{n\in\N}$ sont définies par récurrence :

\left\{\begin{array}{l} 
u_0 = 0,\\
v_0 = 0.
\end{array}\right.
\forall n\in\N, u_{n+1} = 
\left\{\begin{array}{ll} 
u_n & \text{ si }u_n> v_n\\
 u_n+a& \text{ si } u_n \leq v_n
\end{array}\right.
\forall n\in\N, v_{n+1} = 
\left\{\begin{array}{ll} 
v_n+b & \text{ si }u_n > v_n\\
 v_n& \text{ si } u_n \leq v_n.
\end{array}\right.

L’objectif de cet article est d’étudier le comportement de ces deux suites. Vous verrez qu’elles sont à nouveau égales après leur valeur de départ commune. De plus, quand cela se produit pour la première fois, leurs valeurs sont égales au PPCM des entiers $a$ et $b$.

Croissance des deux suites

Ce résultat est très important. Pour le voir, fixez un entier $n\in\N$.

$u_{n+1}-u_n \in \{0,a\}$ donc $u_{n+1}\geq u_n$.
De même $v_{n+1}-v_n \in \{0,b\}$ donc $v_{n+1}\geq v_n$.

Vous avez montré que les suites $(u_n)_{n\in\N}$ et $(v_n)_{n\in\N}$ sont croissantes.

Un exemple

Prenez $a=15$ et $b=18$.

Vous obtenez successivement :

\begin{array}{|c | c| c |}
\hline
u_n& v_n & n\\
\hline
0 & 0 & 0\\
15 & 18 & 1\\
30 & 18 & 2\\
30 & 36 & 3\\
45 & 36 & 4\\
45 & 54 & 5\\
60 & 54 & 6\\
60 & 72 & 7\\
75 & 72 & 8\\
75 & 90 & 9\\
90 & 90 & 10\\
105 & 90 & 11\\
105 & 108 & 12\\ 
\hline
\end{array}

Vous observez que le premier rang $n\geq 1$ qui vérifie $u_n=v_n$ vous fournit $90$ qui est le PPCM de $15$ et de $18$.

Certaines personnes sont étonnées de constater qu’un tel rang existe. La question est légitime : pourquoi, après avoir démarré de $0$, les deux suites finissent par être de nouveau égales ? Et pourquoi sur le PPCM ?

Pour prouver ce résultat, vous avez besoin d’en savoir un peu plus.

La plus petite des deux suites finit par augmenter de façon arithmétique jusqu’à dépasser l’autre suite qui reste stationnaire.

Cela vous amène à étudier deux situations.

Les deux comportements

Comportement 1 : si $p$ est un rang tel que $u_p\leq v_p\dots$ qu’advient-il ?

La situation s’inverse, il existe un rang $q>p$ de sorte que les suites se comportent comme suit :

  • la suite $(u_n)_{p\leq n\leq q }$ est arithmétique de raison $a$,
  • la suite $(v_n)_{p\leq n\leq q}$ est stationnaire,
  • $\forall n\in\N, p\leq n\leq q-1 \Longrightarrow u_n\leq v_n$,
  • $u_q>v_q$.

Soit $p\in\N$ tel que $u_p\leq v_p.$

D’après les définitions des deux suites, $u_{p+1} = u_p+a$ et $v_{p+1}=v_p.$

Notez $A$ la partie de $\N$ égale à l’ensemble des entiers naturels $r$ tels que :

  • $r\geq p+1$,
  • la suite $(u_n)_{p\leq n\leq r }$ est arithmétique de raison $a$,
  • la suite $(v_n)_{p\leq n\leq r}$ est stationnaire,
  • $\forall n\in\N, p\leq n\leq r-1 \Longrightarrow u_n\leq v_n.$

Constatez que $p+1\in A$ donc $A\neq \emptyset.$

Supposez que $A$ n’est pas majorée.

Alors la suite $(u_n)_{p\leq n}$ est arithmétique de raison $a$ et la suite $(v_n)_{p\leq n}$ est stationnaire. D’autre part :

\begin{array}{l}
\forall r\in\N, r\geq p \Longrightarrow u_r\leq v_r\\
\forall r\in\N, r\geq p \Longrightarrow u_p + (r-p)a \leq v_p\\
\forall r\in\N, r\geq p \Longrightarrow r\leq p + \dfrac{v_p-u_p}{a}.
\end{array}

Mais il existe un entier supérieur à $p + 1 + \dfrac{v_p-u_p}{a}.$ Contradiction.

Par l’absurde, vous venez de montrer que $A$ est majorée.

La partie $A$ est incluse dans $\N$, elle est non vide et majorée.
Notez $q$ son plus grand élément. Vous savez que $q\in A$ :

  • $q\geq p+1$,
  • la suite $(u_n)_{p\leq n\leq q }$ est arithmétique de raison $a$,
  • la suite $(v_n)_{p\leq n\leq q}$ est stationnaire,
  • $\forall n\in\N, p\leq n\leq q-1 \Longrightarrow u_n\leq v_n.$

Supposez que $u_q \leq v_q$.

Alors $u_{q+1}=u_q + a$ donc la suite $(u_n)_{p\leq n\leq q+1}$ est arithmétique de raison $a$.

$v_{q+1}=v_q$ donc la suite $(v_n)_{p\leq n \leq q+1}$ est stationnaire.

D’autre part, $\forall n\in\N, p\leq n\leq q \Longrightarrow u_n\leq v_n$.

Donc $q+1\in A$. Contradiction, $q$ étant le plus grand élément de $A$.

Par l’absurde, vous venez de justifier que $u_q>v_q.$

Cela achève la démonstration.

Comportement 2 : si $p$ est un rang tel que $u_p> v_p\dots$ qu’advient-il ?

La situation s’inverse à nouveau, il existe un rang $q>p$ de sorte que les suites se comportent comme suit :

  • la suite $(u_n)_{p\leq n\leq q }$ est stationnaire,
  • la suite $(v_n)_{p\leq n\leq q}$ est arithmétique de raison $b$,
  • $\forall n\in\N, p\leq n\leq q-1 \Longrightarrow u_n > v_n$,
  • $u_q\leq v_q$.

Soit $p\in\N$ tel que $u_p> v_p.$

D’après les définitions des deux suites, $u_{p+1} = u_p$ et $v_{p+1}=v_p+b.$

Notez $A$ la partie de $\N$ égale à l’ensemble des entiers naturels $r$ tels que :

  • $r\geq p+1$,
  • la suite $(u_n)_{p\leq n\leq r }$ est stationnaire,
  • la suite $(v_n)_{p\leq n\leq r}$ est arithmétique de raison $b$,
  • $\forall n\in\N, p\leq n\leq r-1 \Longrightarrow u_n > v_n.$

Constatez que $p+1\in A$ donc $A\neq \emptyset.$

Supposez que $A$ n’est pas majorée.

Alors la suite $(u_n)_{p\leq n}$ est stationnaire et la suite $(v_n)_{p\leq n}$ est arithmétique de raison $b$. D’autre part :

\begin{array}{l}
\forall r\in\N, r\geq p \Longrightarrow u_r> v_r\\
\forall r\in\N, r\geq p \Longrightarrow u_p > v_p + (r-p)b\\
\forall r\in\N, r\geq p \Longrightarrow \dfrac{u_p-v_p}{b}+p>r.
\end{array}

Mais il existe un entier supérieur à $p + 1 + \dfrac{u_p-v_p}{b}.$ Contradiction.

Par l’absurde, vous venez de montrer que $A$ est majorée.

La partie $A$ est incluse dans $\N$, elle est non vide et majorée.
Notez $q$ son plus grand élément. Vous savez que $q\in A$ :

  • $q\geq p+1$,
  • la suite $(u_n)_{p\leq n\leq q }$ est stationnaire,
  • la suite $(v_n)_{p\leq n\leq q}$ est arithmétique de raison $b$,
  • $\forall n\in\N, p\leq n\leq q-1 \Longrightarrow u_n> v_n.$

Supposez que $u_q > v_q$.

Alors $u_{q+1}=u_q$ donc la suite $(u_n)_{p\leq n\leq q+1}$ est stationnaire.

$v_{q+1}=v_q+b$ donc la suite $(v_n)_{p\leq n \leq q+1}$ est arithmétique de raison $b$.

D’autre part, $\forall n\in\N, p\leq n\leq q \Longrightarrow u_n> v_n$.

Donc $q+1\in A$. Contradiction, $q$ étant le plus grand élément de $A$.

Par l’absurde, vous venez de justifier que $u_q\leq v_q.$

Cela achève la démonstration.

Etude des multiples de $a$ et de $b$ atteints par les suites

La suite $(u_n)$ est « tantôt stationnaire », sur une certaine plage de rangs, « tantôt arithmétique » de raison $a$, il vous semble « logique » que tous les multiples de $a$ soient atteints par cette suite. Et effectivement, c’est bien le cas. Passez à la démonstration de ce résultat.

Vous allez montrer que $\forall k\in\N, \exists n\in\N, ka =u_n.$

Pour tout $k\in\N$, notez $P(k)$ la propriété : « $\exists n\in\N, ka=u_n $ ».

Initialisation : pour $k=0$, $ka = 0\times a = 0.$ Or $u_0 = 0$ donc $0\times a=u_0$ et $P(0)$ est vérifiée.

Hérédité : soit $k\in\N$, supposez $P(k)$.

Il existe $n\in\N$ tel que $ka = u_n$.

Si $u_n\leq v_n$, alors $u_{n+1} = u_n+a = ka +a= (k+1)a$ et $P(k+1)$ est vérifiée.

Sinon, $u_n > v_n$. D’après le comportement 2, il existe un rang $m>n$ de sorte que :

  • la suite $(u_i)_{n\leq i\leq m }$ est stationnaire,
  • $u_m\leq v_m$.

Comme $u_m \leq v_m$, vous obtenez $u_{m+1} = u_{m} + a = u_n +a = ka+a = (k+1)a$ et $P(k+1)$ est encore vérifiée.

Cela finit la démonstration.

La suite $(v_n)$ possède un comportement similaire. Elle est « tantôt stationnaire », sur une certaine plage de rangs, « tantôt arithmétique » de raison $b$, il vous semble aussi « logique » que tous les multiples de $b$ soient atteints par cette suite. Et effectivement, c’est bien le cas. Passez à la démonstration de ce résultat.

Vous allez montrer que $\forall k\in\N, \exists n\in\N, kb =v_n.$

Pour tout $k\in\N$, notez $P(k)$ la propriété : « $\exists n\in\N, kb=v_n $ ».

Initialisation : pour $k=0$, $kb = 0\times b = 0.$ Or $v_0 = 0$ donc $0\times b=v_0$ et $P(0)$ est vérifiée.

Hérédité : soit $k\in\N$, supposez $P(k)$.

Il existe $n\in\N$ tel que $kb = v_n$.

Si $u_n> v_n$, alors $v_{n+1} = v_n+b = kb+b = (k+1)b$ et $P(k+1)$ est vérifiée.

Sinon, $u_n \leq v_n$. D’après le comportement 1, il existe un rang $m>n$ de sorte que :

  • la suite $(v_i)_{n\leq i\leq m }$ est stationnaire,
  • $u_m> v_m$.

Comme $u_m > v_m$, vous obtenez $v_{m+1} = v_{m} + b = v_n +b = kb+b = (k+1)b$ et $P(k+1)$ est encore vérifiée.

Cela finit la démonstration.

Le PPCM est atteint par les deux suites au même moment

Notez $\delta$ le PPCM des entiers $a$ et $b$. $\delta$ étant un multiple de $a$ et de $b$, il existe $(n,m)\in\N^2$, $\delta = u_n = v_m$.

Vous allez montrer que l’ensemble $\{i\in\N, \delta = u_i=v_i\}$ est non vide.

Cas 1 : $m\leq n$

Par croissance de la suite $(u_i)_{i\in\N}$, $u_m\leq u_n$, donc $u_m \leq v_m$.

D’après le comportement 1, il existe un rang $p>m$ de sorte que :

  • la suite $(u_i)_{m\leq i\leq p }$ est arithmétique de raison $a$,
  • la suite $(v_i)_{m\leq i\leq p}$ est stationnaire avec $\delta$ pour valeur,
  • $\forall n\in\N, m\leq i\leq p-1 \Longrightarrow u_i\leq v_i \leq \delta$,
  • $u_p>v_p\geq v_m\geq \delta$.

Si vous aviez $n\geq p$, par croissance de la suite $(u_i)_{i\in\N}$, $\delta \geq u_n\geq u_p>\delta$, contradiction.

Donc $m\leq n \leq p-1.$ Aussitôt : $\delta\leq u_n \leq v_n \leq \delta.$ Donc $\delta = v_n = u_n$.

Cas 2 : $n\leq m$

Par croissance de la suite $(v_i)_{i\in\N}$, $v_n\leq v_m \leq \delta \leq u_n$, donc $u_n \geq v_n$. Si $u_n=v_n$, alors $\delta = u_n=v_n$ et c’est terminé.

Supposez $u_n>v_n$.

D’après le comportement 2, il existe un rang $p>n$ de sorte que :

  • la suite $(u_i)_{n\leq i\leq p }$ est stationnaire de valeur $\delta$,
  • la suite $(v_i)_{n\leq i\leq p}$ est arithmétique de raison $b$,
  • $\forall i\in\N, n\leq i\leq p-1 \Longrightarrow \delta \geq u_i > v_i$,
  • $\delta \leq u_n \leq u_p\leq v_p$.

Si vous aviez $m\leq p-1$ alors $n\leq m \leq p-1$ et donc $\delta > v_m \geq \delta$, contradiction.

Donc $m\geq p$, donc $\delta \leq u_n \leq u_p \leq v_p \leq v_m \leq \delta$ aussitôt $\delta = v_p = u_p.$

Le plus petit rang non nul pour lequel les suites sont égales correspond au PPCM

D’après ce qui précède, il existe $n\in\N$, $\delta = u_n = v_n$. Or, $\delta\neq 0$, donc $n\neq 0$. L’ensemble $\{i\in\NN, u_i=v_i\}$ est une partie non vide de $\N$. Notez $s$ son minimum.

Vous voulez comprendre pourquoi $u_s = v_s = \delta$…

Premièrement, vous savez d’après ce qui précède qu’il existe un entier $p\in\N$ tel que $\delta = u_p = v_p.$ Par minimalité de $s$, vous avez $s\leq p$ et par croissance des suites $u$ et $v$ : $u_s\leq u_p \leq \delta$ et $ v_s \leq v_p \leq \delta$.

Ensuite, $u_s$ est un terme de la suite $(u_n)$ donc c’est un multiple de $a$, de même pour $v_s$ qui est un terme de la suite $(v_n)$ qui est un multiple de $b$. Comme $u_s = v_s$ vous en déduisez que $u_s$ est un multiple de $a$ et de $b$. Par définition du PPCM, $\delta \leq u_s$ et $\delta \leq v_s$.

Aussitôt $\delta \leq u_s\leq u_p \leq \delta$ et $\delta \leq v_s \leq v_p \leq \delta$ ce qui fournit le résultat.

073. Divergence de la série harmonique

Pour tout $n\in\N^{*}$ considérez la suite définie par $u_n=\displaystyle\sum_{k=1}^{n}\dfrac{1}{k}$.

Cette suite est à termes positifs et $\forall n\in\N^{*}, u_{n+1}-u_n = \dfrac{1}{n+1}$ est positif.

La suite $(u_n)_{n\geq 1}$ est croissante. Soit elle converge vers un réel, soit elle diverge vers $+\infty$.

Raisonnez par l’absurde

Supposez qu’il existe un nombre réel $\ell$ tel que $\displaystyle\lim_{n\to +\infty} u_n = \ell $.
Vous voulez arriver à une impossibilité.

Définissez des notations utiles

Notez $2\N$ l’ensemble des entiers naturels pairs et $2\N+1$ l’ensemble des entiers naturels impairs.

Pour tout réel $x$, notez $[x]$ le plus grand entier inférieur ou égal à $x$, appelé aussi partie entière de $x$.

Séparez les termes pairs des termes impairs

Soit $n$ un entier naturel supérieur ou égal à $3$.

\begin{aligned}
u_{n} &= \sum_{k=1}^{n} \dfrac{1}{k} \\
&= \sum_{k\in[1,n]\cap 2\N} \dfrac{1}{k} + \sum_{k\in[1,n]\cap (2\N+1)} \dfrac{1}{k} \\
&= \sum_{p=1}^{\left[\frac{n}{2}\right]} \dfrac{1}{2p}+ \sum_{p=0}^{\left[\frac{n-1}{2}\right]} \dfrac{1}{2p+1} \\
&=\dfrac{1}{2} \sum_{p=1}^{\left[\frac{n}{2}\right]} \dfrac{1}{p}+ \sum_{p=0}^{\left[\frac{n-1}{2}\right]} \dfrac{1}{2p+1} \\
\end{aligned}

Aussitôt : $\displaystyle\sum_{p=0}^{\left[\frac{n-1}{2}\right]} \dfrac{1}{2p+1} = u_n – \dfrac{1}{2} u_{\left[\frac{n}{2}\right]}.$

Effectuez une soustraction à partir de la relation précédente

Soit $n$ un entier naturel supérieur ou égal à $3$.

Vous allez effectuer une soustraction en majorant le dénominateur $2p+1$ par $2p+2$. Vous faites apparaître une nouvelle somme grâce à la relation :$ \forall p\in\N, \dfrac{1}{2p+1} – \dfrac{1}{2p+2} = \dfrac{1}{(2p+1)(2p+2)}. $

\begin{aligned}
\displaystyle\sum_{p=0}^{\left[\frac{n-1}{2}\right]} \dfrac{1}{2p+1} -\sum_{p=0}^{\left[\frac{n-1}{2}\right]} \dfrac{1}{2p+2} &= u_n – \dfrac{1}{2} u_{\left[\frac{n}{2}\right]}-\sum_{p=0}^{\left[\frac{n-1}{2}\right]} \dfrac{1}{2p+2}\\
&= u_n – \dfrac{1}{2} u_{\left[\frac{n}{2}\right]}-\dfrac{1}{2}\sum_{p=0}^{\left[\frac{n-1}{2}\right]} \dfrac{1}{p+1}\\
&= u_n – \dfrac{1}{2} u_{\left[\frac{n}{2}\right]}-\dfrac{1}{2}\sum_{p=1}^{\left[\frac{n-1}{2}\right]+1} \dfrac{1}{p}\\
&= u_n – \dfrac{1}{2} u_{\left[\frac{n}{2}\right]}-\dfrac{1}{2}\sum_{p=1}^{\left[\frac{n+1}{2}\right]} \dfrac{1}{p}\\
&= u_n – \dfrac{1}{2} u_{\left[\frac{n}{2}\right]}-\dfrac{1}{2}u_{\left[\frac{n+1}{2}\right]}.\\
\end{aligned}

Aussitôt : $\displaystyle\sum_{p=0}^{\left[\frac{n-1}{2}\right]} \dfrac{1}{(2p+1)(2p+2)}= u_n – \dfrac{1}{2} u_{\left[\frac{n}{2}\right]}-\dfrac{1}{2}u_{\left[\frac{n+1}{2}\right]}.$

Vous avez dans le terme de gauche une somme de termes strictement positifs. Vous la minorez par son premier terme lorsque $p=0$ :

$\forall n\geq 3, \dfrac{1}{2}\leq u_n – \dfrac{1}{2} u_{\left[\frac{n}{2}\right]}-\dfrac{1}{2}u_{\left[\frac{n+1}{2}\right]}.$

Passez à la limite

Pour tout entier naturel $n$, $\left[\frac{n+1}{2}\right] > \frac{n+1}{2} -1$ et $\left[\frac{n}{2}\right] > \frac{n}{2} -1$.

Aussitôt, quand $n\to +\infty$, $\left[\frac{n+1}{2}\right]\to +\infty$ et $\left[\frac{n}{2}\right]\to +\infty.$

Et l’impossibilité apparaît

Par passage à la limite dans la relation : $\forall n\geq 3, \dfrac{1}{2}\leq u_n – \dfrac{1}{2} u_{\left[\frac{n}{2}\right]}-\dfrac{1}{2}u_{\left[\frac{n+1}{2}\right]}$

vous en déduisez que :
\begin{aligned}
\dfrac{1}{2}&\leq \ell – \dfrac{1}{2}\ell – \dfrac{1}{2}\ell\\
\dfrac{1}{2}&\leq 0.
\end{aligned}

Contradiction.

Conclusion

La série harmonique diverge vers $+\infty$.

$\lim_{n\to+\infty}\sum_{k=1}^{n}\dfrac{1}{k} = +\infty.$

071. Comment simplifier une expression ? (2/2)

Soit $\alpha$ un réel vérifiant la relation $\boxed{4\alpha^3 = 3\alpha+8}$. Vous souhaitez simplifier la fraction suivante : $\dfrac{\alpha^3+1}{4\alpha^2-1}.$

Les coefficients de Bézout

Vous allez chercher deux polynômes $P$ et $Q$ tels que $P(X)(4X^3-3X-8)+Q(X)(4X^2-1)=1$.

Pourquoi ? Si vous y parvenez, en remplaçant l’indéterminée $X$ par $\alpha$, vous obtiendrez $P(\alpha)(4\alpha^3-3\alpha-8)+Q(\alpha)(4\alpha^2-1)=1$. Comme $4\alpha^3-3\alpha-8=0$, vous aurez l’égalité $\dfrac{1}{4\alpha^2-1} = Q(\alpha)$.

Pour la suite, posez $A(X)=4X^3-3X-8$ et $B(X)=4X^2-1.$

Commencez par les relations fondamentales.

\begin{aligned}
1A(X)+0B(X) &= 4X^3-3X-8 \\
0A(X)+1B(X) &=4X^2-1.
\end{aligned}

Effectuez l’opération élémentaire $L_2 \leftrightarrow L_1$ suivi de $L_2 \leftarrow L_2-XL_1.$

\begin{aligned}
0A(X)+1B(X) &= 4X^2-1 \\
1A(X)-XB(X) &=-2X-8.
\end{aligned}

Effectuez l’opération élémentaire $L_2 \leftrightarrow L_1$ suivi de $L_2 \leftarrow L_2+2XL_1.$

\begin{aligned}
1A(X)-XB(X) &=-2X-8\\
2XA(X)+(-2X^2+1)B(X) &=-16X-1 \\
\end{aligned}

Effectuez la combinaison $ -8L_1+L_2$ qui élimine $X$ dans le membre de droite, pour obtenir $(2X-8)A(X)+(-2X^2+8X+1)B(X)=63.$

Cela vous donne : $\dfrac{63}{4\alpha^2-1} = -2\alpha^2+8\alpha+1.$

Ainsi : $\dfrac{63(\alpha^3+1)}{4\alpha^2-1} = (\alpha^3+1)(-2\alpha^2+8\alpha+1).$

Dernière partie, la simplification cherchée

Pour utiliser l’expression $4\alpha^3=3\alpha+8$, vous multipliez par $4$ :

\begin{align*}
\dfrac{4\times 63(\alpha^3+1)}{4\alpha^2-1} &= (4\alpha^3+4)(-2\alpha^2+8\alpha+1) \\
&=(3\alpha+12)(-2\alpha^2+8\alpha+1)\\
&=-6\alpha^3+24\alpha^2+3\alpha-24\alpha^2+96\alpha+12\\
&=-6\alpha^3+99\alpha+12.
\end{align*}

Vous divisez par $3$ :
$\dfrac{4\times 21(\alpha^3+1)}{4\alpha^2-1} =-2\alpha^3+33\alpha+4.$

Vous multipliez par $2$ :
\begin{aligned}
\dfrac{8\times 21(\alpha^3+1)}{4\alpha^2-1} &=-4\alpha^3+66\alpha+8\\
&= -3\alpha-8+66\alpha+8\\
&=63\alpha.
\end{aligned}

Vous divisez par $21$ :
$\dfrac{8(\alpha^3+1)}{4\alpha^2-1} =3\alpha$

et finalement vous retrouvez : $\boxed{\dfrac{\alpha^3+1}{4\alpha^2-1} =\dfrac{3\alpha}{8}}.$

070. Comment simplifier une expression ? (1/2)

Ce qui motive cet article, c’est la simplification de la fraction $f(\alpha)=\dfrac{\alpha^3+1}{4\alpha^2-1}$, sachant que $\alpha$ est un réel vérifiant la relation $4\alpha^3=3\alpha + 8.$

Le plan d’action

Il faut faire disparaître le dénominateur présent dans $f(\alpha)$, ce qui motive le choix de poser $\beta = 4\alpha^2-1$.

Vous allez calculer les puissances successives de $\beta$.

Elles s’expriment toutes en fonction de $\alpha$ et de $\alpha^2.$

Vous utilisez l’élimination exactement comme si vous résolvez un système linéaire d’équations. De là, vous éliminez tous les $\alpha$ et $\alpha^2$.

Vous en tirez une expression avec des puissances successives de $\beta$ uniquement.

Vous pouvez exprimer $\dfrac{1}{\beta}$ en fonction de $\alpha$ et $\alpha^2$ et supprimer le dénominateur de $f(\alpha)…$

Etude des puissances de $\beta$

\begin{aligned}
\beta^2 &= ( 4\alpha^2-1)^2 \\
&=16\alpha^4-8\alpha^2+1\\
&=4\alpha(4\alpha^3)-8\alpha^2+1\\
&=4\alpha(3\alpha + 8)-8\alpha^2+1\\
&=4\alpha^2+32\alpha+1.
\end{aligned}

\begin{aligned}
\beta^3 &= \beta^2( 4\alpha^2-1) \\
&=(4\alpha^2+32\alpha+1)(4\alpha^2-1)\\
&=16\alpha^4-4\alpha^2+32( 4\alpha^3)-32\alpha+4\alpha^2-1\\
&=4\alpha (4\alpha^3)+32 (4\alpha^3)-32\alpha-1\\
&=4\alpha (3\alpha + 8)+32(3\alpha + 8)-32\alpha-1\\
&=12\alpha^2+32\alpha+96\alpha+256-32\alpha-1\\
&=12\alpha^2+96\alpha+255.
\end{aligned}

Elimination de $\alpha$

Le système suivant est obtenu :

\begin{aligned}
1 +0\alpha +0\alpha^2 &=1\\
-1 +0\alpha +4\alpha^2 &=\beta\\
1 +32\alpha +4\alpha^2 &=\beta^2\\
255 +96\alpha +12\alpha^2 &=\beta^3.
\end{aligned}

Vous effectuez des opérations élémentaires.

\begin{aligned}
1 &+0\alpha +0\alpha^2 =1\\
&+0\alpha +4\alpha^2 =1+\beta\\
&+32\alpha +4\alpha^2 =-1+\beta^2\\
&+96\alpha +12\alpha^2 =-255+\beta^3.
\end{aligned}

Une permutation de deux lignes.

\begin{aligned}
1 &+0\alpha +0\alpha^2 =1\\
&+32\alpha +4\alpha^2 =-1+\beta^2\\
&+0\alpha +4\alpha^2 =1+\beta\\
&+96\alpha +12\alpha^2 =-255+\beta^3.
\end{aligned}

Et une opération élémentaire.

\begin{aligned}
1 +0\alpha +0\alpha^2 &=1\\
+32\alpha +4\alpha^2 & =-1+\beta^2\\
+4\alpha^2 &=1+\beta\\
0 &=\beta^3-3\beta^2-252.
\end{aligned}

On en déduit le résultat : $\dfrac{252}{\beta}=\beta^2-3\beta.$

Le calcul de $f(\alpha)$

\begin{aligned}
f(\alpha) &=\dfrac{\alpha^3+1}{\beta}\\
252f(\alpha) &= \dfrac{252}{\beta} (\alpha^3+1) \\
&= (\beta^2-3\beta)(\alpha^3+1)\\
&=(4\alpha^2+32\alpha+1 -12\alpha^2+3)(\alpha^3+1)\\
&=(-8\alpha^2+32\alpha +4)(\alpha^3+1)\\
&=(-2\alpha^2+8\alpha +1)(4\alpha^3+4)\\
&=(-2\alpha^2+8\alpha +1)(3\alpha+12)\\
&=-6\alpha^3-24\alpha^2+24\alpha^2+96\alpha+3\alpha+12\\
&=-6\alpha^3+99\alpha+12.\\
\end{aligned}

On simplifie par 3.

\begin{aligned}
84f(\alpha) &=-2\alpha^3+33\alpha+4\\
168f(\alpha) &=-4\alpha^3+66\alpha+8\\
&=-3\alpha-8+66\alpha+8\\
&=63\alpha\\
\end{aligned}

On simplifie par 7 puis par 3.

\begin{aligned}
168f(\alpha) &=63\alpha\\
24f(\alpha) &=9\alpha\\
8f(\alpha)&=3\alpha
\end{aligned}

et on obtient le résultat $f(\alpha)=\dfrac{3}{8}\alpha.$