Votre navigateur n'accepte pas le Javascript.La navigation sur ce site risque de ne pas fonctionner correctement.

096. Comment calculer le polynôme minimal d’une matrice ?

Soit $n$ un entier naturel non nul, $\K$ un corps et $A$ une matrice appartenant à $M_n(\K).$

$\K^n$ désigne l’ensemble des matrices colonnes à $n$ lignes à coefficients dans $\K.$

Il existe un polynôme unitaire de degré minimal, noté $\Pi\in\K[X]$ tel que $\Pi(A)=0.$

Le but de cet article consiste à donner une méthode générale permettant de calculer $\Pi.$

Les premiers paragraphes sont théoriques, ceux de la fin donnent un cas pratique.

Le polynôme minimal d’un vecteur

Pour tout vecteur $x\in\K^n$ non nul, il existe un unique polynôme $P_x$ unitaire de degré minimal tel que $P_x(A)x = 0.$

Une première information sur $\Pi$ est donnée par le théorème suivant.

Pour tout vecteur $x\in \K^n$ non nul, le polynôme minimal de $x$, noté $P_x$ divise le polynôme minimal $\Pi$ de la matrice $A$.

Cette information est cruciale, sauf que, pour avoir $\Pi$, combien faut-il prendre de vecteurs ? L’idée c’est que si $(e_1,…,e_n)$ est une base de $\K^n$, $\forall i\in\N, 1\leq i \leq n \Longrightarrow P_{e_i} | \Pi.$

Alors on constate que si $Q$ est le PPCM des polynômes $P_{e_i}$ quand $i$ est compris entre $1$ et $n$, alors $Q$ divise $\Pi$. Il y a en fait égalité : comme chaque $P_{e_i}$ annule le vecteur $e_i$, on en déduit que $\forall i \in\N, 1\leq i \leq n \Longrightarrow P_{e_i}(A)e_i = 0 \Longrightarrow Q(A)e_i = 0.$

Enfin, par linéarité, on conclut que $Q(A)=0.$ Si $x\in\K^n$, il existe $(a_1,…,a_n)\in\K^n$ tel que $x=\sum_{k=1}^n a_ie_i$ et donc $Q(A)x =\sum_{k=1}^n a_iQ(A)e_i = 0.$

Ainsi il apparaît que $Q = \Pi.$

Le cas d’une base générée par plusieurs vecteurs cycliques

Au début vous choisissez un vecteur $x_1$ non nul et pour calculer $P_{x_1}$, vous calculez successivement $Ax_1$, $A^2x_1$ jusqu’à obtenir un premier entier $k$ tel que $A^kx_1$ soit une combinaison linéaire des $A^\ell x_1$ pour $1\leq \ell \leq k-1.$ Les coefficients trouvés vous donnent $P_{x_1}.$

Vous choisissez ensuite un vecteur $x_2$ n’appartenant pas à l’espace cyclique engendré par $x_1$, et calculez de même $P_{x_2}$ jusqu’à ce que vous ayez une base de $\K^n$ de la forme $(x_1, Ax_1, … A^{k_1}x_1, …, x_p, Ax_p, …, A^{k_p}x_p).$ Notez bien ici que $k_i$ n’est pas forcément le degré du polynôme $P_{x_i}.$ En itérant le vecteur $x_i$ sur $A$, il se peut que $A^p x_i$ soit combinaison linéaire des vecteurs précédents… autant itérer permet de trouver le polynôme minimal du vecteur $x_i$, autant il faudra prendre moins de vecteurs pour garder une famille libre…

En notant $Q$ le PPCM de $P_{x_1}$, …, $P_{x_p}$ nous prétendons que $\Pi$ est égal à $Q$.

Pour tout $i\in\N$ compris entre $1$ et $p$, le polynôme $P_{x_i}$ divise le polynôme $\Pi$, du coup, $Q$ divise $\Pi.$

Soit $i$ un entier compris entre $1$ et $p$.
Soit $j$ un entier compris entre $0$ et $k_i.$

Par définition de $P_{x_i}$, $P(x_i)$ divise $\Pi.$

Notez $P_{x_i}(X) = \sum_{k=0}^{d} a_kX^k.$

Vous avez $\sum_{k=0}^{d} a_kA^k x_i = 0.$ Multipliez cette relation par $A^j.$

Alors $\sum_{k=0}^{d} a_kA^k (A^j x_i)= 0.$ Cela prouve que le polynôme minimal de $A^j x_i$ divise $P_{x_i}$ qui lui-même divise $Q$.

Ainsi $Q$ annule tous les vecteurs de la base $(x_1, Ax_1, … A^{k_1}x_1, …, x_p, Ax_p, …, A^{k_p}x_p)$ et par linéarité $Q(A)=0.$

D’où l’égalité $Q = \Pi.$

Et maintenant, un exemple de calcul dans $\R$

Considérez la matrice réelle définie par $A = \begin{pmatrix}
3 & 0 & -1 & 1\\
2 & 2 & 1 & 2\\
-3 & 0 & 2 & -3\\
-4 & 0 & 1 & -2
\end{pmatrix}.$

L’idée première consiste à choisir un vecteur $x$ de sorte que l’espace cyclique $<x>$ soit facile à calculer.

Vous choisissez $x = \begin{pmatrix}
0 \\
1\\
0\\

\end{pmatrix}.$

Alors $Ax = \begin{pmatrix}
0 \\
2\\
0\\

\end{pmatrix}.$

D’où $Ax = 2x$ et donc $(A-2I)x=0.$

Le polynôme minimal du vecteur $x$ est $X-2.$ N’ayant pas encore une base de $\R^4$ il faut continuer.

La famille $(x)$ étant libre, vous choisissez un vecteur $y$ tel que $y\notin \vect (x)$ de sorte que la famille $(x,y)$ soit libre.

La troisième colonne de $A$ étant la plus simple après la seconde, vous choisissez $y = \begin{pmatrix}
0 \\
0\\
1\\

\end{pmatrix} $ qui convient. Vous cherchez à trouver le polynôme minimal du vecteur $y.$

$Ay = \begin{pmatrix}
-1 \\
1\\
2\\
1
\end{pmatrix}.$

La famille $(y,Ay)$ est libre, il faut continuer.

$A^2 y = A \begin{pmatrix}
-1 \\
1\\
2\\
1
\end{pmatrix} = \begin{pmatrix}
-4 \\
4\\
4\\
4
\end{pmatrix}$

Vous constatez que $A^2y = 4Ay-4y$, donc $(A^2-4A+4I)y = 0$ et $X^2-4X+4 = (X-2)^2.$

La famille $(x,y,Ay)$ étant libre, il manque un vecteur pour obtenir une base de $\R^4.$

Choisissez $z\in\R^4 \setminus \vect(x,y,Ay).$ Par exemple $z = \begin{pmatrix}
0\\
0\\
0\\
1
\end{pmatrix}$ convient.

$Az = \begin{pmatrix}
1 \\
2\\
-3\\
2
\end{pmatrix}$

La famille $(z,Az)$ est libre.

$A^2z = A \begin{pmatrix}
1 \\
2\\
-3\\
2
\end{pmatrix} = \begin{pmatrix}
4 \\
-1\\
-3\\
-3
\end{pmatrix} $

La famille $(z,Az,A^2z)$ est libre.

$A^3z = A \begin{pmatrix}
4 \\
-1\\
-3\\
-3
\end{pmatrix}= \begin{pmatrix}
12 \\
-3\\
-9\\
-13
\end{pmatrix}.$

Vous remarquez que $A^3 z = 3A^2z – 4z$ d’où $(A^3-3A^2+4I)z=0$ donc $z$ admet $X^3-3X^2+4$ pour polynôme minimal. Pour le factoriser, on teste si $2$ est une racine de ce polynôme. C’est bien le cas et c’est même une racine double : $X^3-3X^2+4 = (X-2)(X^2-X-2) = (X-2)^2(X+1).$

Ainsi le polynôme $\Pi$ est un multiple de $(X-2)^2(X+1)$.

Remarquez que le polynôme $(X-2)^2(X+1)$ annule tous les vecteurs de la base $(x,y,Ay,z).$ En effet, vous avez $(A-2I)^2(A+I) x = 0$, $(A-2I)^2(A+I) y = 0$ et $(A-2I)^2(A+I) z = 0$, du coup $(A-2I)^2(A+I) (Ay) = 0.$

Par linéarité il s’ensuit que $(A-2I)^2(A+I)=0$ ce qui prouve que $\boxed{\Pi = (X-2)^2(X+1)}.$

Peut-on se passer des vecteurs cycliques ?

Tout à fait, si on ne veut pas tester les conditions de liberté de la forme « est-ce que $Ay$ est une combinaison linéaire de $x$ et de $y$ ? », il suffit de travailler avec une base $(e_1,…,e_n)$ de $\K^n.$

Le polynôme minimal $\Pi$ de la matrice $A$ est égal au PPCM des polynômes minimaux (pris sur $A$) des vecteurs d’une base de $\K^n.$
$\Pi =$ PPCM $(P_{e_i})_{1\leq i\leq n}.$

094. Comment bien calculer un déterminant ?

Pourquoi calculer un déterminant ?

Considérez la matrice $A=\begin{pmatrix}
7&1&2&2\\
1&4&-1&-1\\
-2&1&5&-1\\
1&1&2&8
\end{pmatrix}.$

Pour parvenir à trouver une représentation plus simple de cette matrice, vous êtes plus ou moins amenés à déterminer les valeurs propres et vecteurs propres de $A$, c’est-à-dire tous les réels $x\in\R$ de sorte qu’il existe un vecteur $X$ non nul tel que $AX=xX.$ Cette égalité amène à $(A-xI)X=0$ avec $X\neq 0$ autrement dit, le réel $x$ ne peut pas être choisi n’importe comment.

L’égalité $(A-xI)X = 0$ avec $X$ non nul force la matrice $A-xI$ a être singulière ou non inversible. Par conséquent le déterminant $\det(xI-A)$ est nul. Le choix de $xI-A$ au lieu de $A-xI$ pour le calcul du déterminant est motivé par le fait que, pour toute matrice réelle $T$ carrée d’ordre $n$, $\det(xI-T)$ est un polynôme unitaire de degré $n$, ce qui n’est pas le cas de $\det(A-xI)$ quand $n$ est impair.

Quels outils utiliser pour développer un déterminant ?

Un déterminant de taille $3\times 3$ peut être calculé avec la règle de Sarrus, ce qui donne 6 termes, ce qui est faisable, mais fastidieux… et puis si le déterminant de départ est de taille $4\times 4$ vous êtes ramenés à développer avec une formule à 24 termes. Il faut bannir ces utilisations-là.

Utilisez plutôt les opérations élémentaires sur les lignes et les colonnes.

  • Priorité 1 : cherchez à factoriser par un polynôme de degré 1.
  • Priorité 2 : faites apparaître des zéros pour vous ramener à un déterminant de taille inférieure, et recommencez.

Calcul bien mené d’un déterminant $4×4$

Pour déterminer les valeurs propres de $A$, vous êtes amené à calculer :

\begin{aligned}
\det(xI-A)&=\begin{vmatrix}
x-7 & -1 & -2 & -2\\
-1 & x-4 & 1 & 1\\
2 & -1 & x-5 & 1\\
-1 & -1 & -2 & x-8
\end{vmatrix}
\end{aligned}

Le plus important ensuite c’est d’arriver à former une colonne qui soit factorisable par un polynôme de degré 1. Remplacez la colonne 1 avec l’opération élémentaire $C_1\leftarrow C_1+C_2-C_3.$

\begin{aligned}
\det(xI-A) &= \begin{vmatrix}
x-6 & -1 & -2 & -2\\
x-6 & x-4 & 1 & 1\\
0 & -1 & x-5 & 1\\
-x+6 & -1 & -2 & x-8
\end{vmatrix}\\
&=(x-6)\begin{vmatrix}
1 & -1 & -2 & -2\\
1 & x-4 & 1 & 1\\
0 & -1 & x-5 & 1\\
-1 & -1 & -2 & x-8
\end{vmatrix}.
\end{aligned}

Ensuite vous forcez l’apparition de trois zéros sur la première colonne avec les opérations élémentaires suivantes :
$L_2\leftarrow L_2-L_1$ et $L_4\leftarrow L_4+L_1.$

\begin{aligned}
\det(xI-A)&=(x-6)\begin{vmatrix}
1 & -1 & -2 & -2\\
0 & x-3 & 3 & 3\\
0 & -1 & x-5 & 1\\
0 & -2 & -4 & x-10
\end{vmatrix}\\
&=(x-6)\begin{vmatrix}
x-3 & 3 & 3\\
-1 & x-5 & 1\\
-2 & -4 & x-10
\end{vmatrix}\\
\end{aligned}

Puis vous formez l’opération élémentaire $C_2\leftarrow C_2-C_3.$

\begin{aligned}
\det(xI-A)&=(x-6)\begin{vmatrix}
x-3 & 3 & 3\\
-1 & x-5 & 1\\
-2 & -4 & x-10
\end{vmatrix}\\
&=(x-6)\begin{vmatrix}
x-3 & 0 & 3\\
-1 & x-6 & 1\\
-2 & -x+6 & x-10
\end{vmatrix}\\
&=(x-6)^2\begin{vmatrix}
x-3 & 0 & 3\\
-1 & 1 & 1\\
-2 & -1 & x-10
\end{vmatrix}\\
\end{aligned}

Forcez l’apparition de deux zéros sur la colonne 2.
$L_3\leftarrow L_3+L_2$

\begin{aligned}
\det(xI-A) &= (x-6)^2\begin{vmatrix}
x-3 & 0 & 3\\
-1 & 1 & 1\\
-3 & 0 & x-9
\end{vmatrix}\\
&= (x-6)^2\begin{vmatrix}
x-3 & 3\\
-3 & x-9
\end{vmatrix}
\end{aligned}

Formez l’opération élémentaire $C_1\leftarrow C_1-C_2.$

\begin{aligned}
\det(xI-A) &= (x-6)^2\begin{vmatrix}
x-3 & 3\\
-3 & x-9
\end{vmatrix}\\
&= (x-6)^2\begin{vmatrix}
x-6 & 3\\
-x+6 & x-9
\end{vmatrix}\\
&= (x-6)^3\begin{vmatrix}
1 & 3\\
-1 & x-9
\end{vmatrix}\\
\end{aligned}

Puis forcez l’apparition d’un zéro sur la colonne 1 avec $L_2\leftarrow L_2+L_1$ et concluez.

\begin{aligned}
\det(xI-A) &= (x-6^3)\begin{vmatrix}
1 & 3\\
0 & x-6
\end{vmatrix}\\
&=(x-6)^4.
\end{aligned}

Prolongement

Procédez à la réduction de la matrice $A$, maintenant que vous savez qu’elle n’a que $6$ comme valeur propre.

093. Meilleure approximation et orthogonalité

Le contexte

Dans cet article, on se place dans un espace vectoriel $V$ réel ou complexe muni d’un produit scalaire, appellé aussi espace préhilbertien. Ce produit scalaire sera noté $(.|.)$, dans le cas complexe ce produit scalaire sera linéaire pour la première variable et anti-linéaire vis-à-vis de la seconde variable. La norme associée à ce produit scalaire sera notée $||.||.$

Considérez un sous-espace vectoriel de $V$ que vous noterez $W.$

Soit $x$ un vecteur quelconque de $V$. Il s’agit d’approximer le mieux possible le vecteur $x$ parmi tous les vecteurs de $W$. Vous considérez la borne inférieure $\inf_{w\in W} ||x-w||$ qui est bien définie. En effet, puisque $W$ contient toujours le vecteur nul et $\forall w\in W, ||x-w||\geq 0$, l’ensemble $\{||x-w||, w\in W\}$ est non vide et minoré par $0.$

Que se passe-t-il s’il existe une meilleure approximation ?

Lorsque la borne inférieure $\inf_{w\in W} ||x-w||$ est atteinte, il existe un vecteur $y\in W$ de sorte que $\forall w\in W, ||x-y||\leq ||x-w||.$ Cette dernière inégalité permet de justifier l’appellation « meilleure approximation. »

Comment localiser un tel vecteur $y$, réalisant une meilleure approximation ?

Dans cette partie sera étudié le lien entre orthogonalité et meilleure approximation.

Supposez qu’il existe un vecteur $y\in W$ réalisant une meilleure approximation de $x$ parmi tous les vecteurs $w\in W.$ Autrement dit, supposez qu’il existe un vecteur $y\in W$ tel que $\forall w\in W, ||x-y||\leq ||x-w||.$

Maintenant les calculs débutent. Fixez un vecteur $w\in W.$ Dans le cas où l’espace $V$ est complexe, notez qu’on n’a pas, en général, la commutativité du produit scalaire et qu’il convient d’être vigilant sur l’ordre dans le développement.

\begin{aligned}
||x-y||&\leq ||x-w|| \\
||x-y||^2 &\leq ||x-w||^2 \\
(x-y|x-y) &\leq (x-w|x-w)\\
||x||^2+||y||^2-(x|y)-(y|x)&\leq ||x||^2+||w||^2-(x|w)-(w|x) \\
0&\leq ||w||^2-||y||^2+(x|y-w)+(y-w|x)
\end{aligned}

Comment aller plus loin ?

Regardez ce qui se passe quand $V$ est de dimension $2$ et que $W$ est de dimension $1$. Il apparaît géométriquement que le vecteur $y$ est tel que $x-y$ est orthogonal à tous les vecteurs de $W.$ Ce vecteur joue un rôle important, vous allez le faire apparaître dans vos calculs.

Vous allez donc écrire que $x = x-y + y$ dans les deux produits scalaires du dessus.

En développant, vous obtenez :

\begin{aligned}
(x|y-w)&= (x-y | y-w)+(y|y-w)\\
&=(x-y|y-w)+||y||^2-(y|w).
\end{aligned}

\begin{aligned}
(y-w|x)&= (y-w|x-y)+(y-w|y)\\
&=(y-w|x-y)+||y||^2-(w|y).
\end{aligned}

\begin{aligned}
0&\leq ||w||^2-||y||^2+(x|w-y)+(w-y|x) \\
0&\leq ||w||^2-||y||^2+2||y||^2+(x-y|w-y)+(w-y|x-y)-(y|w)-(w|y)\\
0&\leq ||w||^2+||y||^2+(x-y|w-y)+(w-y|x-y)-(y|w)-(w|y)\\
0&\leq (w-y|w-y)+(x-y|w-y)+(w-y|x+y)\\
0&\leq ||w-y||^2+(x-y|w-y)+(w-y|x-y).
\end{aligned}

Il a été établi que :

$\forall w\in W, 0\leq ||w-y||^2+(x-y|w-y)+(w-y|x-y).$

Note. Les lecteurs avertis réussiront à établir à cette inégalité beaucoup plus rapidement.

Soit $r\in W$. Posez $w=r+y.$ Alors $w\in W$ du coup, comme $r=w-y$ :

$0\leq ||r||^2+(x-y|r)+(r|x-y).$

Ainsi :

$\forall r\in W, 0\leq ||r||^2+(x-y|r)+(r|x-y).$

Cette propriété est trop forte : soit $w$ un vecteur quelconque de $W$.

$\forall k\in\R^{*}, k^2w\in W$
$\forall k\in\R^{*}, 0\leq ||k^2w||^2+(x-y|k^2w)+(k^2w|x-y)$
$\forall k\in\R^{*}, 0\leq k^4||w||^2+k^2(x-y|w)+k^2(w|x-y)$
$\forall k\in\R^{*}, 0\leq k^2||w||^2+(x-y|w)+(w|x-y)$

Faisant tendre $k$ vers $0$, il s’ensuit que : $(x-y|w)+(w|x-y) \geq 0.$

De même :

$\forall k\in\R^{*}, -k^2w\in W$
$\forall k\in\R^{*}, 0\leq ||-k^2w||^2-(x-y|k^2w)-(k^2w|x-y)$
$\forall k\in\R^{*}, 0\leq k^4||w||^2-k^2(x-y|w)-k^2(w|x-y)$
$\forall k\in\R^{*}, 0\leq k^2||w||^2-(x-y|w)-(w|x-y)$

Faisant tendre $k$ vers $0$, il s’ensuit que : $(x-y|w)+(w|x-y) \leq 0.$

Vous en déduisez que $\forall w\in W, (x-y|w)+(w|x-y) = 0.$

La conclusion où l’espace vectoriel $V$ est réel

Le produit scalaire est commutatif, donc $\forall w\in W, (x-y|w)+(w|x-y) = 2(x-y|w)$ et par suite $\forall w\in W, (x-y|w)=0.$

La conclusion où l’espace vectoriel $V$ est complexe

Le produit scalaire vérifie l’anti-linéarité par rapport à la seconde variable.

Soit $w\in W$. Alors vous utilisez le nombre $i\in \C$ qui vérifie $i^2 = -1.$ Comme $i w \in W$ :

\begin{aligned}
(x-y|iw)+(iw|x-y)&=0\\
-i(x-y|w)+i(w|x-y)&=0\\
-(x-y|w)+(w|x-y)&=0.
\end{aligned}

D’autre part $(x-y|w)+(w|x-y) = 0.$

Par différence vous obtenez $2(x-y|w)=0$ et finalement $(x-y|w)=0.$

Le lien est maintenant établi

Que l’espace $V$ soit réel ou complexe, un vecteur $y\in W$qui réalise le minimum de la borne inférieure $\inf_{w\in W} ||x-w||$ est tel que $x-y$ est orthogonal à tous les vecteurs de $W.$

Prolongement

Dans le cas où il existerait deux vecteurs $y_1\in W$ et $y_2\in W$ tels que $y_1$ et $y_2$ réalisent le minimum de la borne inférieure $\inf_{w\in W} ||x-w||$, a-t-on obligatoirement $y_1 = y_2$ ?

Dans le cas où la borne inférieure $\inf_{w\in W} ||x-w||$ est atteinte, peut-il y avoir plusieurs vecteurs réalisant un tel minimum ?

092. AB et BA ont le même polynôme caractéristique

Dans le cas réel ou complexe, avec la topologie, on y arrive

Dans la littérature mathématique, on trouve beaucoup de preuves de ce résultat dans $\R$ ou $\C$, avec des arguments de densité.

On commence par montrer que, si $A$ ou $B$ est inversible, supposons par exemple que ce soit la matrice $A$, alors les deux polynômes caractéristiques sont égaux :
\begin{aligned}
\det(xI – AB) &= \det(A^{-1}) \det(xI – AB) \det(A) \\
&= \det( A^{-1}(xI – AB)A )\\
&= \det( xI – A^{-1}ABA)\\
&=\det (xI -BA).
\end{aligned}

Note. Les lecteurs avertis auront remarqué que les matrices $AB$ et $BA$ sont semblables lorsque la matrice $A$ ou la matrice $B$ est inversible.

Puis on conclut par passage à la limite dans le cas général.

Est-on limité aux cas réels et complexes ?

Il est surprenant de trouver des preuves de ce type, basées sur la densité et la topologie, alors qu’en fait, la propriété fondamentale du déterminant $\det(AB)=\det(A) \det(B)$ permet de conclure avec de l’algèbre.

Vous allez voir comment.

Il y a mieux, le résultat est valable dans n’importe quel corps commutatif

Soit $n$ un entier naturel non nul.

Soient $A$ et $B$ deux matrices carrées d’ordre $n$ à coefficients dans un corps commutatif $K$ (qui n’est pas forcément réel ou complexe).

Il s’agit de montrer que $\forall x\in K, \det(xI-AB)=\det(xI-BA).$

Comme on ne sait pas si la matrice $A$ est inversible ou non, on utilise seulement $\det(A)$.

Remarquez que :

\begin{aligned}
\det(A) \det(xI-BA) &= \det( A(xI- BA ))\\
&= \det(xA-ABA)\\
&= \det ((xI-AB)A)\\
&=\det (xI-AB)\det(A)
\end{aligned}
.

Mais problème, il s’agit de simplifier par $\det(A)$, ce qui ne pourrait se faire que si $A$ est inversible… et on se mord la queue.

Comment s’en sortir ? La simplification est possible dans un anneau commutatif intègre. Or, si $K$ est un corps, l’anneau des polynômes à une indéterminée $K[X]$ l’est.

Vous allez reprendre le même calcul que précédemment mais en travaillant avec la matrice $A-XI$ à la place de la matrice $A$. Les matrices $A-XI$ et $B$ sont maintenant vues comme des matrices à coefficients dans l’anneau $K[X]$.

\begin{aligned}
\det(A-XI) \det(xI-B(A-XI)) &= \det( (A-XI)(xI- B(A-XI) ))\\
&= \det(x(A-XI)-(A-XI)B(A-XI))\\
&= \det ((xI-(A-XI)B)(A-XI))\\
&=\det (xI-(A-XI)B)\det(A-XI)
\end{aligned}
.

Cette égalité est vraie dans l’anneau $K[X]$. Or $\det(A-XI)$ est un polynôme de degré $n$, de coefficient dominant $(-1)^n.$ Par conséquent, il est non nul dans $K[X].$

Il en résulte que, dans $K[X]$, $\det(xI-B(A-XI))=\det(xI-(A-XI)B).$ On substitue $X$ par $0$ (le neutre de l’addition dans $K$) et on obtient le résultat voulu $\det(xI-BA)=\det(xI-AB).$

090. Un vecteur est caractérisé par les valeurs des produits scalaires qu’il prend avec les vecteurs d’une base

Soit $E$ un espace vectoriel de dimension finie $n$ sur un corps $K$, muni d’un produit scalaire noté $(.|.)$.

Par le procédé de Gram-Schmidt, vous savez qu’il existe une base de $E$, par exemple $(e_1,\dots,e_n)$ qui est orthonormale. Elle restera fixée une bonne fois pour toutes dans tout cet article.

L’intérêt d’une base orthonormée c’est qu’il est facile de décomposer un vecteur sur cette base en utilisant des produits scalaires.

Le lemme

Vous allez démontrer le résultat suivant :

Quels que soient les scalaires $k_1$, …, $k_n$ du corps $K$ il existe un unique vecteur $x\in E$ tel que $\forall i\in\N, 1\leq i\leq n \Rightarrow (x|e_i)=k_i.$

Procédez par analyse-synthèse.

Analyse

Soient $k_1$, …, $k_n$ des éléments de $K$. Supposez qu’il existe un vecteur $x\in E$ tel que, pour tout entier $i$ compris entre $1$ et $n$, le produit scalaire $(x|e_i)$ est égal à $k_i.$

Comme $(e_1,\dots,e_n)$ est une base de $E$, le vecteur $x$ se décompose dessus. Il existe $n$ scalaires $\ell_1$,…,$\ell_n$ tels que $x=\sum_{j=1}^n \ell_j e_j.$

Soit $i$ un entier compris entre $1$ et $n$. Vous calculez le produit scalaire $(x|e_i)$ par distributivité.

\begin{aligned}
(x|e_i) &= \sum_{j=1}^n \ell_j (e_j|e_i) \\
&= \ell_i + \sum_{j\neq i} \ell_j (e_j|e_i) \\
&= \ell_i.
\end{aligned}

Il s’ensuit que, pour tout entier $i$ compris entre $1$ et $n$, $\ell_i =(x|e_i) = k_i.$

Vous en déduisez que $x = \sum_{j=1}^n k_j e_j$ d’où l’unicité.

Synthèse

Soient $k_1$, …, $k_n$ des éléments de $K$.

Considérez le vecteur $x = \sum_{j=1}^n k_j e_j$. Alors, pour tout $i$ compris entre $1$ et $n$ :

\begin{aligned}
(x|e_i) &= \sum_{j=1}^n k_j (e_j|e_i) \\
&= k_i + \sum_{j\neq i} k_j (e_j|e_i) \\
&= k_i.
\end{aligned}

et le vecteur $x$ convient.

Le résultat avec une base quelconque

Soit $(u_1,…,u_n)$ une base de $E$. Vous utilisez la base ortonormée $(e_1,…,e_n)$ précédente. Il existe $n^2$ scalaires $(\lambda_{ij})_{1\leq i \leq n; 1\leq j \leq n}$ tels que :$\forall i \in \N, 1\leq i \leq n \Longrightarrow e_i = \sum_{j=1}^n \lambda_{ij} u_j.$

De même, il existe $n^2$ scalaires $(\mu_{ij})_{1\leq i \leq n; 1\leq j \leq n}$ tels que :$\forall i \in \N, 1\leq i \leq n \Longrightarrow u_i = \sum_{j=1}^n \mu_{ij} e_j.$

Soient $p$ et $j$ deux entiers compris entre $1$ et $n$. Vous aurez besoin d’évaluer une somme double.

Partez du vecteur $u_p$, $u_p = \sum_{q=1}^n \mu_{pq} e_q$, puis décomposez tous les vecteurs $e_q.$

\begin{aligned}
u_p &= \sum_{q=1}^n \mu_{pq} \left( \sum_{i=1}^n \lambda_{qi} u_i \right) \\
&= \sum_{q=1}^n \mu_{pq} \sum_{i=1}^n \lambda_{qi} u_i \\
&= \sum_{i=1}^n \sum_{q=1}^n \mu_{pq}\lambda_{qi} u_i \\
&= \sum_{i=1}^n \left(\sum_{q=1}^n \mu_{pq}\lambda_{qi}\right) u_i \\
\end{aligned}

Par unicité de la décomposition d’un vecteur dans une base, il en résulte que :

$\sum_{q=1}^n \mu_{pq}\lambda_{qi} = 1$ si $i=p.$

$\sum_{q=1}^n \mu_{pq}\lambda_{qi} = 1$ si $i\neq p.$

Cela permet de démontrer le résultat suivant, plus large.

Quels que soient les scalaires $k_1$, …, $k_n$ du corps $K$ il existe un unique vecteur $x\in E$ tel que $\forall i\in\N, 1\leq i\leq n \Rightarrow (x|u_i)=k_i.$

Analyse

Soient $k_1$, …, $k_n$ des éléments de $K$. Supposez qu’il existe un vecteur $x\in E$ tel que, pour tout entier $i$ compris entre $1$ et $n$, le produit scalaire $(x|u_i)$ est égal à $k_i.$

Vous déduisez que, pour tout entier $i$ compris entre $1$ et $n$ :

\begin{aligned}
(x|e_i) &= \sum_{j=1}^n \lambda_{ij} (x|u_j) \\
&= \sum_{j=1}^n \lambda_{ij} k_j.
\end{aligned}

D’après le lemme, l’unicité du vecteur $x$ est assurée.

Synthèse

Soient $k_1$, …, $k_n$ des éléments de $K$.

Considérons le vecteur $x$ défini par $x = \sum_{i=1}^n \left( \sum_{j=1}^n \lambda_{ij} k_j \right)e_i.$

Soit $p$ un entier compris entre $1$ et $n$.

\begin{aligned}
(x|u_p) &= \sum_{i=1}^n \left( \sum_{j=1}^n \lambda_{ij} k_j \right) (e_i | u_p)\\
&= \sum_{i=1}^n \sum_{j=1}^n \lambda_{ij} k_j (e_i | u_p) \\
&= \sum_{i=1}^n \sum_{j=1}^n \sum_{q=1}^n \lambda_{ij}\mu_{pq} k_j (e_i | e_q) \\
&= \sum_{i=1}^n \sum_{j=1}^n \lambda_{ij}\mu_{pi} k_j \\
&=\sum_{j=1}^n \left( \sum_{i=1}^n \lambda_{ij}\mu_{pi}\right) k_j \\
&=\sum_{j=1}^n \left( \sum_{i=1}^n\mu_{pi} \lambda_{ij}\right) k_j \\
&=\left( \sum_{i=1}^n\mu_{pi} \lambda_{ip}\right) k_p + \sum_{j\neq p} \left( \sum_{i=1}^n\mu_{pi} \lambda_{ij}\right) k_j \\
&= 1 k_p + \sum_{j\neq p} 0 k_j \\
&= k_p.
\end{aligned}

Voilà prouvé que le vecteur $x$ convient bien.

Cela achève la démonstration.

Note. Les lecteurs avertis auront remarqué que nous utilisons le fait que les matrices de passage des bases $(e_i)$ vers $(u_i)$ et vice-versa sont inversibles et inverses l’une de l’autre. Nous nous en passons ici afin de manipuler les symboles sigmas.

Prolongement

Dans $\R^3$ on note $u = (1,1,1)$, $v=(1,2,1)$ et $w=(2,3,-1)$. Le produit scalaire usuel est noté $(.|.).$
Montrez qu’il existe un unique vecteur $x$ tel que $(x|u)=1$, $(x|v)=3$, $(x|w)=2$ et déterminez ce vecteur.

089. Indépendance de vecteurs avec les projections orthogonales

Tester l’indépendance linéaire de vecteurs sans résoudre de systèmes linéaires ? Est-ce possible ? Le procédé d’orthogonalisation de Gram-Schmidt permet de répondre par l’affirmative.

Pour y voir plus clair, travaillez dans $\R^3$ muni du produit scalaire usuel noté $(.|.)$ et considérez les vecteurs suivants :
$u_1 = (2,-1,3)$, $u_2 = (3,-2,7)$ et $u_3=(8,-5,17).$ La famille $(u_1,u_2,u_3)$ est-elle libre ou liée ?

Les calculs vont prendre du temps et c’est tout à fait normal puisqu’on forme une base orthogonale de l’espace engendré par les trois vecteurs $u_1$, $u_2$ et $u_3$.

Qu’est-ce que le procédé de Gram-Schmidt ?

Pour chaque vecteur, de la gauche vers la droite, parmi $u_1$, $u_2$ et $u_3$, vous remplacez chaque vecteur par sa différence avec sa projection orthogonale sur l’espace engendré par les vecteurs précédents.

Par exemple, $u_2$ sera remplacé par $u_2-\alpha$ où $\alpha$ est la projection orthogonale de $u_2$ sur l’espace engendré par $u_1$.

De même, $u_3$ sera remplacé par $u_3-\beta$ où $\beta$ est la projection orthogonale de $u_3$ sur l’espace engendré par $u_1$ et $u_2$.

Appliquez l’orthogonalisation de Gram-Schmidt sur $u_1$ et $u_2$

Projetez orthogonalement le vecteur $u_2$ sur l’espace vectoriel engendré par $u_1$, notez $p(u_2)$ ce vecteur pour l’instant.

L’expression de cette projection pose souvent des difficultés.

Analyse

Par définition de la projection orthogonale, $p(u_2)$ est colinéaire à $u_1$. D’autre part, les vecteurs $u_2-p(u_2)$ et $u_1$ sont orthogonaux.

Il existe un réel $k$ tel que $p(u_2) = ku_1.$

Pour trouver ce réel $k$, vous utilisez le produit scalaire.

\begin{aligned}
(u_2-p(u_2)|u_1)&=0 \\
(u_2-k u_1)|u_1)&=0 \\
(u_2|u_1) -k ||u_1||^2 &=0\\
k &=\dfrac{(u_2|u_1)}{||u_1||^2}
\end{aligned}

Synthèse

Posez $p(u_2) = \dfrac{(u_2|u_1)}{||u_1||^2} u_1.$

$p(u_2)$ est bien colinéaire à $u_1$.

D’autre part :

\begin{aligned}
(u_2-p(u_2)|u_1)&=(u_2|u_1)-\left(\dfrac{(u_2|u_1)}{||u_1||^2} u_1 |u_1\right) \\
&=(u_2|u_1)-\dfrac{(u_2|u_1)}{||u_1||^2} ||u_1||^2 \\
&=0.
\end{aligned}

Procédez au calcul

$(u_2|u_1) = 6+2+21=29.$
$||u_1||^2=4+1+9=14.$

Notez $v_2 = u_2-p(u_2).$

Alors
\begin{aligned}
v_2 &= (3,-2,7) – \dfrac{29}{14} (2,-1,3) \\
&= \dfrac{1}{14}( (42,-28,98) – (58,-29,87))\\
&=\dfrac{1}{14} (-16,1,11).
\end{aligned}

Quel intérêt ?

La famille $(u_1,v_2)$ est orthogonale. L’espace engendré par $u_1$ et $u_2$ est le même que celui qui est engendré par $u_1$ et $v_2$. La famille $(u_1,v_2)$ est donc une base de l’espace engendré par $u_1$ et $u_2$.

Projetez le vecteur $u_3$ orthogonalement sur l’espace engendré par $u_1$ et $u_2$

Afin de ne pas compliquer les notations, notez $p(u_3)$ le projeté orthogonal cherché. Notez bien qu’il suffit de projeter orthogonalement $u_3$ sur l’espace engendré par $u_1$ et $v_2$. Pour se débarrasser des fractions, vous projetez sur l’espace engendré par $u_1$ et $w_2 = 14v_2=(-16,1,11)$.

En suivant une méthode analogue, vous trouvez que :

$p(u_3) = \dfrac{(u_3|u_1)}{||u_1||^2}u_1 + \dfrac{(u_3|w_2)}{||w_2||^2}w_2.$

Passez au calcul de $p(u_3)$ et concluez

$(u_3|u_1) = 16+5+51 = 21+51=72.$
$||u_1||^2=14.$

$(u_3|w_2) = – 128-5+187 = -133+187=54.$
$||w_2||^2=256+1+121=257+121=378.$

\begin{aligned}
p(u_3)&=\dfrac{72}{14}(2,-1,3)+\dfrac{54}{378}(-16,1,11)\\
&=\dfrac{36}{7}(2,-1,3)+\dfrac{27}{189}(-16,1,11)\\
&=\dfrac{36}{7}(2,-1,3)+\dfrac{1}{7}(-16,1,11)\\
&=\dfrac{1}{7}((72,-36,108)+(-16,1,11))\\
&=\dfrac{1}{7}(56,-35,119)\\
&=(8,-5,17)\\
\end{aligned}

Dans la suite de Gram-Schmidt, vous calculez $u_3-p(u_3)$ et ici, le résultat est le vecteur nul. A partir de ce stade, vous savez que la famille $(u_1,u_2,u_3)$ est liée puisque $u_3=p(u_3)$ et que $p(u_3)$ est une combinaison linéaire de $u_1$ et de $u_2$.

Bonus : trouvez la décomposition de $u_3$ sur les vecteurs précédents

\begin{aligned}
u_3 &= p(u_3)\\
&=\dfrac{(u_3|u_1)}{||u_1||^2}u_1 + \dfrac{(u_3|w_2)}{||w_2||^2}w_2\\
&=\dfrac{36}{7} u_1 + \dfrac{1}{7}\times 14 v_2\\
&=\dfrac{36}{7} u_1 + 2 v_2\\
&=\dfrac{36}{7} u_1 + 2 \left(u_2 – \dfrac{29}{14}u_1\right)\\
&=\left(\dfrac{36}{7} – \dfrac{29}{7} \right)u_1 + 2u_2\\
&=u_1+2u_2.
\end{aligned}

Prolongement

Démontrez que l’ensemble $\left\{\displaystyle\int_0^1 (x^3-ax-b)^2 \text{d}x, (a,b)\in\R^2\right\}$ admet un plus petit élément $d$. Trouvez la valeur exacte du nombre $d$. Déterminez toutes les valeurs de $a$ et de $b$ pour lesquelles le nombre $d$ est atteint.

088. Trois théorèmes qui appellent le PGCD et le PPCM

Pour cet article :

  • Un rappel de ce que sont les PGCD et les PPCM, qui sont indispensables pour ajouter ou soustraire des fractions ou les simplifier.
  • Soient $a$ et $b$ deux entiers naturels différents de $0$. Vous allez établir le théorème selon lequel le produit $\mathrm{PGCD}(a,b) \times \mathrm{PGCD}(a,b)$ est égal au produit $ab.$ On rencontre souvent ce résultat mais sans aucune preuve, c’est ce que cet article vient préciser pour vous dans la section « un peu d’arithmétique ». Dans cette section sera démontrée aussi un théorème important : si $d =\mathrm{PGCD}(a,b)$, alors les entiers $\frac{a}{d}$ et $\frac{b}{d}$ sont premiers entre eux.
  • Peut-on se passer de l’algorithme d’Euclide pour calculer un $\mathrm{PGCD}$ avec des petits nombres, en utilisant les nombres premiers et les critères de divisibilité ? La réponse est oui et vous verrez comment, ce qui constitue le dernier théorème de cet article.
  • Fin avec des prolongements.

Que signifient $\mathrm{PGCD}$ et $\mathrm{PPCM}$ ?

$\mathrm{PGCD}$ pour « plus grand commun diviseur »

Soient $a$ et $b$ deux entiers naturels différents de $0$. Notez que $a$ et $b$ sont des multiples de $1$. L’ensemble des entiers naturels $n\in\N^{*}$ tels que $a$ soit un multiple de $n$ et $b$ un multiple de $n$ est non vide.

Si $n$ est un entier naturel non nul qui divise $a$ il existe un entier naturel $m$ tel que $a=nm$. $a$ étant non nul, $m$ est non nul donc $1\leq m$ et aussitôt $n \leq nm$ donc $n\leq a.$

L’ensemble $\{n\in\N^{*}, n\vert a\text{ et }n\vert b\}$ est une partie de $\N$ non vide et majorée (par $a$).

Son plus grand élément est noté $\mathrm{PGCD}(a,b).$

$\mathrm{PPCM}$ pour « plus petit commun multiple »

Soient $a$ et $b$ deux entiers naturels différents de $0$. Notez que le produit $ab$, non nul, est à la fois un multiple de $a$ et de $b$. L’ensemble des entiers naturels $n\in\N^{*}$ qui sont des multiples de $a$ et de $b$ est non vide.

L’ensemble $\{n\in\N^{*}, a\vert n\text{ et }b\vert n\}$ est une partie de $\N$ non vide.

Son plus petit élément est noté $\mathrm{PPCM}(a,b).$

Un peu d’arithmétique

Soient $a$ et $b$ deux entiers naturels différents de $0$.

Vous allez démontrer que :

\boxed{\mathrm{PGCD}(a,b)\times \mathrm{PPCM}(a,b) = ab.}

Pour plus de commodité notez $d = \mathrm{PGCD}(a ,b)$ et $\mu=\mathrm{PPCM}(a ,b).$

Partez de la définition du $\mathrm{PPCM}$. Il existe deux entiers naturels $k$ et $\ell$ tels que $\mu = ak = b\ell.$ Pour pouvoir tirer quelque chose d’intéressant de cette relation, vous cherchez à appliquer le théorème de Gauss.

Sauf que $a$ et $b$ ne sont pas forcément premiers entre eux.

Mais $d$ est un diviseur commun à $a$ et à $b$. Il existe deux entiers naturels $a’$ et $b’$ tels que $a=da’$ et $b=db’$. $a$ et $b$ étant non nuls, il en est de même de $a’$ et de $b’.$

De $ak = b\ell$ vous déduisez $da’k=db’\ell$ soit $d(a’k-b’\ell)=0$ et par intégrité de l’anneau $\Z$, $a’k-b’\ell=0$ soit $a’k=b’\ell.$

Notez $d’=\mathrm{PGCD}(a’ ,b’).$

L’entier $d’$ est supérieur ou égal à $1$ par définition.

Il existe deux entiers naturels $a^{\prime\prime}$ et $b^{\prime\prime}$ non nuls tels que $a’ = d’a^{\prime\prime}$ et $b’=d’b^{\prime\prime}.$

Vous en déduisez que $a = dd’a^{\prime\prime}$ et $b = dd’b^{\prime\prime}$ donc $dd’$ est un diviseur commun à $a$ et à $b$.

Par définition de $d$, le produit $dd’$ est inférieur ou égal à $d$. Aussitôt $d’$ est inférieur ou égal à $1$.

Vous déduisez que $d’=1$.

Les entiers $a’$ et $b’$ sont premiers entre eux, et $a’$ est un diviseur de $b’\ell.$ Par le théorème de Gauss, $a’$ est un diviseur de $\ell.$

Il existe un entier $m$ non nul tel que $\ell = a’m.$

De $\mu = b\ell = ba’m$ vous déduisez que $ba’\geq \mu.$

Or, $ba’$ est un multiple de $b$. Comme $ba’=db’a’ = b’a$, vous déduisez que $ba’$ est un multiple de $a$. Par définition de $\mu$, vous avez $\mu \leq ba’$.

Ainsi $ba’ = \mu$. En multipliant par $d$, vous obtenez le résultat annoncé : $ab = d\mu.$

Calculez le $\mathrm{PGCD}$ sans utiliser l’algorithme d’Euclide pour des petits nombres

Pour fixer les idées, seule la situation du $\mathrm{PGCD}$ de trois entiers sera traitée.

Soient $a$, $b$ et $c$ trois entiers naturels non nuls.

On définit de la même façon le $\mathrm{PGCD}$ de trois entiers naturels, c’est le plus grand entier supérieur ou égal à $1$ qui est un diviseur de $a$, $b$ et $c$.

Pour les petits nombres, on peut calculer le $\mathrm{PGCD}$ en utilisant des nombres premiers.

Soit $p$ un nombre premier. On rappelle qu’un nombre premier désigne un entier naturel non nul qui admet exactement deux diviseurs. Par conséquent, $1$ n’est pas un nombre premier.

Supposez que $p$ divise les trois entiers $a$, $b$ et $c$

Vous notez $(a’,b’,c’)\in(\N^{*})^3$ tel que $a=pa’$, $b=pb’$ et $c=pc’$. Alors :

\boxed{\mathrm{PGCD}(a, b, c)=p \times\mathrm{PGCD}(a',b',c').}

En effet, notez $d =\mathrm{PGCD}(a, b, c)$ et $d’=\mathrm{PGCD}(a’, b’, c’).$

$d’$ divise $a’$ donc $pd’$ divise $pa’$ donc $pd’$ divise $a$.
Vous procédez de la même façon avec $b$ et $c$, et déduisez que $pd’$ est un diviseur commun à $a$, $b$ et $c$, ce qui montre que $pd’\leq d$.

Avant de poursuivre, montrez que $p$ divise $d$…

Pour cela considérez le $\mathrm{PGCD}(d,p)$. Comme $p$ est premier, le $\mathrm{PGCD}$ précédent au $1$ ou $p$.

Supposez que $\mathrm{PGCD}(d,p)=1$. Comme $d$ divise $a$, $d$ divise $pa’$ et par le théorème de Gauss, $d$ divise $a’$. Répétez le même raisonnement avec $b$ et $c$, vous déduisez que $d$ divise $a’$, $b’$ et $c’$ donc, par définition de $d’$, $d\leq d’$ donc $pd\leq pd’ \leq d$ et donc $p\leq 1$, contradiction avec le fait que $p$ est premier.

Il en résulte que $\mathrm{PGCD}(d,p)=p$ et donc $p$ divise $d$.

Notez $\delta\in\N^{*}$ tel que $d = p\delta.$ Vous allez montrer que $d\leq pd’$. Comme $d$ divise $a$, $p\delta$ divise $pa’$ donc $\delta$ divise $a’$. Répétez ce raisonnement sur $b$ et $c$, vous déduisez que $\delta$ est un diviseur commun à $a’$, $b’$ et $c’$ donc $\delta\leq d’$. Multipliez par $p$, vous obtenez $d \leq pd’.$

Supposez que $p$ divise l’entier $a$ mais que $p$ ne divise pas l’entier $b$

Vous notez $a’\in\N^{*}$ tel que $a=pa’.$ Dans ce cas, le $\mathrm{PGCD}$ n’est pas modifié :

\boxed{\mathrm{PGCD}(a, b, c)=  \mathrm{PGCD}(a',b,c).}

En effet, notez $d=\mathrm{PGCD}(a, b, c)$ et $\delta = \mathrm{PGCD}(a’,b, c).$

Comme $\delta$ divise $a’$, $\delta$ divise aussi $pa’$ donc $a$.
$\delta$ est un diviseur commun à $a$, $b$ et $c$ donc $\delta\leq d.$

Dans l’autre sens, vous avez déjà $d$ qui divise $pa’$.

Considérez $\mathrm{PGCD}(d,p)$. Si ce $\mathrm{PGCD}$ vaut $1$, vous appliquez le théorème de Gauss et aussitôt $d$ divise $a’$, puis $b$, puis $c$ et donc $d\leq \delta$ et le résultat annoncé est démontré.

Comme $p$ est premier, la seule autre valeur possible du $\mathrm{PGCD}$ de $d$ et de $p$ est $p$. Supposez que $\mathrm{PGCD}(d,p)=p.$ Dans ce cas-là, $p$ diviserait $d$. Or $d$ divise $b$, donc par transitivité $p$ diviserait $b$ ce qui est absurde. Le cas où $\mathrm{PGCD}(d,p)=p$ est exclu et le résultat annoncé est finalisé.

Un exemple de calcul du $\mathrm{PGCD}$

Pour des petits nombres, la connaissance du début de la suite des nombres premiers $2$, $3$, $5$, $7$ suffit dans la plupart des situations du collège et du lycée.

Soit à calculer $\mathrm{PGCD}(12, 36, 50).$

$2$ divise tout le monde : $12$, $36$ et $50$.

Donc $\mathrm{PGCD}(12, 36, 50) = 2\times \mathrm{PGCD}(6, 18, 25)$

$2$ divise $6$ mais pas $25$ donc $\mathrm{PGCD}(6, 18, 25)=\mathrm{PGCD}(3, 18, 25)$.

De la même façon, $2$ divise $18$ mais pas $3$ donc $\mathrm{PGCD}(3, 18, 25)=\mathrm{PGCD}(3, 9, 25).$

$3$ divise $3$ mais pas $25$, donc $\mathrm{PGCD}(3, 9, 25)=\mathrm{PGCD}(1, 9, 25)$

Comme le chiffre $1$ apparaît, vous déduisez que $\mathrm{PGCD}(1,9,25)=1.$

Conclusion : $\mathrm{PGCD}(12, 36, 50)=2.$

Prolongements

[q1] Calculez le $\mathrm{PGCD}$ des nombres $20$, $36$ et $38$ en vous inspirant de la méthode décrite ci-dessus qui n’utilise pas l’algorithme d’Euclide.

[q2] Vrai ou faux ? Quels que soient les entiers naturels non nuls $a$, $b$ et $c$, $\mathrm{PGCD}(a , b, c)\times \mathrm{PPCM}(a ,b, c) = abc$ ?

087. Une partie réelle qui vérifie la propriété de Heine-Borel est fermée et bornée

Un peu de topologie… soit $F$ une partie de $\R$ qui vérifie la propriété dite de Heine-Borel :

Tout recouvrement ouvert de $F$ admet un sous-recouvrement fini.

Vous allez démontrer que $F$ est une partie fermée et bornée.

Quelques notations pratiques

Pour toute partie $A\subset \R$, notez son complémentaire $\overline{A} = \{x\in\R, x\notin A\}.$ La notation « barre » n’a rien à voir avec la notion d’adhérence que l’on peut trouver ailleurs dans des notions topologiques.

Démontrez que $F$ est bornée

Pour tout entier naturel $n$, notez $I_n = \left]-n-1 ;n+1\right[.$

Comme $\R$ est recouvert par l’ensemble des $I_n$ pris pour $n\in\N$, il en est de même de $F$.

Appliquant la propriété de Heine-Borel à $F$, vous déduisez qu’il existe $r$ entiers naturels $n_1$, $\dots$, $n_r$ tels que $F \subset I_{n_1} \cup \cdots \cup I_{n_r}.$

Notez $m$ le plus grand entier naturel parmi $n_1$, $\dots$, $n_r$. Vous déduisez que $F \subset I_m$ ce qui prouve que la partie $F$ est bornée.

Démontrez que $F$ est fermée

Soit $x\in \overline{F}.$ Il s’agit de démontrer qu’il existe un intervalle ouvert inclus dans $\overline{F}$ et contenant $x$.

Pour tout entier naturel $n$, notez $I_n = \left[x-\dfrac{1}{n+1} ; x+\dfrac{1}{n+1}\right].$

L’intersection des $(I_n)$ est réduite à un singleton : $\bigcap_{n\in\N} I_n = \{x\}$. Comme $x\notin F$, il en résulte que $\left(\bigcap_{n\in\N} I_n\right)\cap F = \emptyset.$

Vous déduisez $ F\subset \bigcup_{n\in\N} \overline{I_n}.$

Pour tout entier naturel $n$, les ensembles $\overline{I_n}$ sont ouverts. Vous appliquez la propriété de Heine-Borel à $F$. Vous déduisez qu’il existe $r$ entiers naturels $n_1$, $\dots$, $n_r$ tels que $F \subset I_{n_1} \cup \cdots \cup I_{n_r}.$

Notez $m$ le plus petit entier naturel parmi $n_1$, $\dots$, $n_r$. Vous déduisez que $F \subset \overline{I_m}$ et par suite $I_m\subset \overline{F}$ donc l’ouvert $\left]x-\dfrac{1}{m+1}; x+\dfrac{1}{m+1}\right[$ est inclus dans $\overline{F}$ et contient $x$.

La partie $F$ est donc fermée.

Prolongement

La propriété établie dans ce document est-elle valable si on considère que $F$ est cette fois une partie d’un espace métrique $E$ ou lieu d’une partie de $\R$ ?

086. Une caractérisation du triangle équilatéral

Soient $A$, $B$ et $C$ les points du plan d’affixes respectives $a$, $b$ et $c$ telles que :

$\left\{\begin{array}{l}
\vert a \vert = \vert b \vert = \vert c \vert \\
a\neq b.
\end{array}\right.$

Vous supposez ainsi que le triangle contient au moins deux points distincts.

Vous allez démontrer l’équivalence suivante :

Caractérisation du triangle équilatéral par des affixes, où le centre du cercle circonscrit est placé à l’origine du repère :

$a+b+c = 0 \Longleftrightarrow \vert a-b \vert =\vert b-c \vert=\vert c-a \vert$

Remarques avant de commencer, l’esprit de ce document

La caractérisation ci-dessus du triangle équilatéral peut être traduite autrement (avec le centre de gravité notamment) et démontrée sans faire appel aux nombres complexes.

Ce document vous propose une démonstration où les principaux outils utilisés sont les nombres complexes, même si on peut s’en passer. Le choix privilégié ici c’est de manipuler les nombres complexes et d’exhiber un cas où leur utilisation est non triviale.

Le nombre complexe $j$

Notez $j = \e^{i\frac{2\pi}{3}}$. Alors $j=-\dfrac{1}{2}+i\dfrac{\sqrt{3}}{2}$ et $j^3 = e^{2i\pi} = 1.$

Or $j^3-1 = (j-1)(j^2+j+1)$. Comme $j\neq 1$, vous déduisez l’importante relation $\boxed{1+j+j^2=0.}$

Premier sens, supposez que $a+b+c=0$

Montrez l’égalité de deux côtés $\vert a -b\vert = \vert b-c\vert $

Notez $R = \vert a \vert = \vert b \vert = \vert c \vert.$

Comme $c=-a-b$, vous en tirez $\vert c\vert ^2 = \vert a+b\vert^2.$

Aussitôt :

\begin{aligned}
c\overline{c} &= (a+b)(\overline{a}+\overline{b})\\
R^2&=R^2+a\overline{b}+\overline{a}b+R^2\\
a\overline{b}+\overline{a}b+R^2&=0.
\end{aligned}

Multipliez par 2 et séparez.

\begin{aligned}
2a\overline{b}+2\overline{a}b+2R^2&=0\\
a\overline{b}+b\overline{a}&=-b\overline{a}-R^2-a\overline{b}-R^2\\
a\overline{b}+b\overline{a}&=b(-\overline{a}-\overline{b})+\overline{b}(-a-b)\\
a\overline{b}+b\overline{a}&=b\overline{c}+c\overline{b}\\
R^2-a\overline{b}-b\overline{a}+R^2 &=R^2-b\overline{c}-c\overline{b}+R^2\\
(a-b)(\overline{a}-\overline{b}) &= (b-c)(\overline{b}-\overline{c})\\
\vert a-b\vert^2 &= \vert b-c\vert^2.
\end{aligned}

Montrez que $ABC$ est équilatéral

Par permutation circulaire des affixes $a$, $b$, $c$ la condition $a+b+c=0$ est encore satisfaite. Vous déduisez de ce qui précède $\vert b -c\vert = \vert c-a\vert.$

Aussitôt $\vert a -b\vert = \vert b-c\vert = \vert c-a\vert.$

Démontrez l’autre sens, supposez que les 3 côtés du triangle $ABC$ sont égaux

Supposez donc que $\vert a-b \vert = \vert b-c \vert = \vert c-a \vert.$

Notez encore $R = \vert a \vert = \vert b \vert = \vert c \vert.$

Posez les hypothèses, s’ensuivent les premières déductions

De l’égalité $\vert b-c \vert^2 = \vert c-a \vert^2$ vous développez avec le conjugué et trouvez que :

\begin{aligned}
(b-c)(\overline{b}-\overline{c}) &=(c-a)(\overline{c}-\overline{a})\\
R^2-b\overline{c}-c\overline{b}+R^2 &= R^2-c\overline{a}-a\overline{c}+R^2\\
b\overline{c}+c\overline{b} &=c\overline{a}+a\overline{c}.
\end{aligned}

De même, développez l’égalité $\vert c-a \vert^2 = \vert a-b \vert^2$, vous aboutissez à $c\overline{a}+a\overline{c} =a\overline{b}+b\overline{a}.$

Utilisez la forme trigonométrique d’un nombre complexe non nul

Comme $a$ et $b$ sont différents, l’un d’entre eux n’est pas nul. Comme $a$, $b$ et $c$ sont de même module, les trois nombres complexes $a$, $b$ et $c$ sont tous non nuls et admettent une forme trigonométrique.

Il existe trois réels $\alpha$, $\beta$ et $\gamma$ tels que :

\begin{aligned}
a &= R\e^{i\alpha}\\
b&= R\e^{i\beta}\\
c &= R\e^{i\gamma}.
\end{aligned}

Les relations précédentes s’écrivent :

\begin{aligned} R^2\e^{i(\beta-\gamma)}+R^2\e^{i(\gamma-\beta)}&=R^2\e^{i(\gamma-\alpha)}+R^2\e^{i(\alpha-\gamma)}\\
R^2\e^{i(\alpha-\gamma)}+R^2\e^{i(\gamma-\alpha)}&=R^2\e^{i(\alpha-\beta)}+R^2\e^{i(\beta-\alpha)}
\end{aligned}

d’où, après simplification par $R^2$ et par $2$ :

\begin{aligned}
\cos (\beta-\gamma)&=\cos(\gamma-\alpha)\\
\cos(\gamma-\alpha) &=\cos(\alpha-\beta).
\end{aligned}

Trouvez la valeur commune des cosinus

Posez $x = \cos (\beta-\gamma) = \cos (\gamma-\alpha) = \cos (\alpha-\beta) =\cos (\beta-\alpha).$

Remarquez que $x$ ne peut jamais être égal à $1$

Si tel était le cas, vous auriez :

\begin{aligned}
\alpha-\beta &= 0 \mod (2\pi)\\
\beta-\gamma &= 0 \mod (2\pi)\\
\end{aligned}

donc

\begin{aligned}
\alpha &= \beta \mod (2\pi)\\
\beta &= \gamma \mod (2\pi)\\
\end{aligned}

$b = R\e^{i\beta} = R\e^{i\alpha} =a$, contradiction.

Dans toute la suite, on utilisera le fait que $x\neq 1$.

Remarquez que $\beta-\alpha = (\beta-\gamma) + (\gamma-\alpha).$

Comme les cosinus $\cos(\beta-\gamma)$ et $\cos(\gamma-\alpha)$ sont égaux, les sinus $\sin(\beta-\gamma)$ et $\sin(\gamma-\alpha)$ sont égaux ou opposés. Le produit $\sin(\beta-\gamma)\sin(\gamma-\alpha)$ est donc égal à $\sin^2(\beta-\gamma)=1-x^2$ ou bien à $-\sin^2(\beta-\gamma)=x^2-1.$

Premier cas, si les deux sinus sont égaux

\begin{aligned}
\cos(\beta-\alpha)&= \cos(\beta-\gamma)\cos(\gamma-\alpha)-\sin(\beta-\gamma)\sin(\gamma-\alpha)\\
x &= x^2-(1-x^2)\\
x &= 2x^2-1\\
0 &= 2x^2-x-1\\
0 &= (2x+1)(x-1).
\end{aligned}

Comme $x\neq 1$, vous déduisez $x=-\dfrac{1}{2}.$

Du coup, $\cos (\beta-\gamma) = -\dfrac{1}{2}$ donc il y a deux possibilités, soit $\beta = \gamma + \dfrac{2\pi}{3} \mod 2\pi$, soit $\beta = \gamma + \dfrac{4\pi}{3} \mod 2\pi$

  • si $\beta = \gamma + \dfrac{2\pi}{3} \mod 2\pi$

Notez que vous ne pouvez pas avoir $\gamma = \alpha + \dfrac{4\pi}{3} \mod 2\pi$. Cela entraînerait $\beta = \alpha \mod 2\pi$ et par suite $x=\cos(\beta-\alpha)$ serait égal à $1$ et non à $-\dfrac{1}{2}.$

Comme $x = \cos (\gamma-\alpha) = -\dfrac{1}{2}$, la seule possibilité est $\gamma = \alpha + \dfrac{2\pi}{3} \mod 2\pi$

Ainsi, vous en tirez que $c = R\e^{i(\gamma)} = R\e^{i(\alpha)}\e^{i\frac{2\pi}{3}} = aj$ et que $b = R\e^{i(\beta)} = R\e^{i(\alpha)}\e^{i\frac{4\pi}{3}} = aj^2$

Par suite, $a+b+c = a+aj^2+aj=a(1+j+j^2)=0.$

  • si $\beta = \gamma + \dfrac{4\pi}{3} \mod 2\pi$

Notez que vous ne pouvez pas avoir $\gamma = \alpha + \dfrac{2\pi}{3} \mod 2\pi$. Cela entraînerait $\beta = \alpha \mod 2\pi$ et par suite $x=\cos(\beta-\alpha)$ serait égal à $1$ et non à $-\dfrac{1}{2}.$

Comme $x = \cos (\gamma-\alpha) = -\dfrac{1}{2}$, la seule possibilité est $\gamma = \alpha + \dfrac{4\pi}{3} \mod 2\pi$

Ainsi, vous en tirez que $c = R\e^{i(\gamma)} = R\e^{i(\alpha)}\e^{i\frac{4\pi}{3}} = aj^2$ et que $b = R\e^{i(\beta)} = R\e^{i(\alpha)}\e^{i\frac{8\pi}{3}} = R\e^{i(\alpha)}\e^{i\frac{2\pi}{3}} = aj$

Par suite, $a+b+c = a+aj+aj^2=a(1+j+j^2)=0.$

Second cas, si les deux sinus étaient opposés

\begin{aligned}
\cos(\beta-\alpha)&= \cos(\beta-\gamma)\cos(\gamma-\alpha)-\sin(\beta-\gamma)\sin(\gamma-\alpha)\\
x &= x^2-(x^2-1)\\
x &= 1
\end{aligned}

Vous avez vu précédemment que ce cas ne peut se produire, vu que $x\neq 1$.

Concluez

Vous venez de constater que dans tous les cas $a+b+c = 0.$

Prolongement

Démontrez le résultat suivant : le triangle $ABC$ est équilatéral si et seulement si, $a^2+b^2+c^2=ab+bc+ca.$

084. Les sommes de Newton

Dans cet article, vous trouverez :

  • la définition d’une somme de Newton associée à un polynôme,
  • les relations qu’il y a entre les sommes de Newton et les coefficients dudit polynôme avec un moyen efficace de les mémoriser,
  • une démonstration de ces relations qui fait appel à la division euclidienne et à la dérivation d’un polynôme scindé.

Qu’entend-on par sommes de Newton vis-à-vis d’un polynôme ?

Soit $P$ un polynôme à coefficients dans un corps $\K$, de degré $n\geq 1$.

Il existe des coefficients $(a_0,a_1,\dots,a_n)$ tels que $P(x)=a_0x^n+a_1x^{n-1}+\cdots+a_{n-1}x+a_n.$

Notez que, contrairement à beaucoup de notations usuelles sur les polynômes, le coefficient dominant de $P$ est noté $a_0$.

Il existe un surcorps $\L$ de $\K$ dans lequel $P$ est scindé.

Il existe donc $n$ racines appartenant à $\L$, certaines étant éventuellement répétées, notées $\lambda_1$, … , $\lambda_n$, telles que $P(x)=a_0(x-\lambda_1)\cdots(x-\lambda_n).$

Les sommes de Newton, notées $N_1$ pour « Newton 1 », …, $N_n$ pour « Newton $n$ », sont définies de la façon suivante :

$N_1 = \lambda_1+\cdots+\lambda_n = \sum_{k=1}^n\lambda_k$,

$N_2 = \lambda_1^2+\cdots+\lambda_n^2= \sum_{k=1}^n\lambda_k^2$,

$\dots$

$N_n = \lambda_1^n+\cdots+\lambda_n^n=\sum_{k=1}^n\lambda_k^n.$

Autrement dit, pour tout entier $i$ compris entre $1$ et $n$,

$N_i = \displaystyle\sum_{k=1}^n\lambda_k^i.$

Note : vous trouverez aussi des sommes de Newton définies pour $i\geq n+1$. Elles ne seront pas traitées dans cet article, le point de difficulté à lever étant de comprendre le lien entre les premières relations.

Comment mémoriser efficacement les relations qui lient les sommes de Newton ?

La relation fondamentale

Soit $k$ un entier compris entre $1$ et $n$.

Comme $\lambda_k$ est une racine de $P$, vous déduisez :

$a_0\lambda_k^n+a_1\lambda_k^{n-1}+\cdots+a_{n-1}\lambda_k+a_n=0.$

Pour plus de clarté, on écrira le dernier coefficient fois $1$.

$a_0\lambda_k^n+a_1\lambda_k^{n-1}+\cdots+a_{n-1}\lambda_k+a_n\times 1=0.$

Maintenant sommez ces $n$ relations.

\begin{aligned}
\sum_{k=1}^n \left(a_0\lambda_k^n+a_1\lambda_k^{n-1}+\cdots+a_{n-1}\lambda_k+a_n\times 1\right)&=0\\
a_0\sum_{k=1}^n \lambda_k^n + a_1 \sum_{k=1}^n \lambda_k^{n-1}+\cdots + a_{n-1}\sum_{k=1}^n\lambda_k + a_n \sum_{k=1}^n 1 &= 0\\
\end{aligned}

Vous obtenez la relation de base fondamentale qui lie toutes les sommes.

$\boxed{a_0N_n+a_1N_{n-1}+\cdots+a_{n-1}N_1+na_n=0.}$

$\boxed{\sum_{i=0}^{n-1} a_iN_{n-i} + na_n=0.}$

Comment se souvenir des autres relations ?

Considérez le polynôme de degré $1$ qui n’utilise que les premiers coefficients de $P$ en commençant par son coefficient dominant.

Posez $P_1(x) = a_0x+a_1$. Le polynôme $P_1$ n’a qu’une seule racine $\lambda’_1$. Si vous appliquez la relation fondamentale avec sa somme de Newton $N’_1 = \lambda’_1$, vous obtenez $a_0N’_1+a_1=0.$

Ce qui est remarquable c’est que cette relation reste valable pour la somme $N_1$ associée au polynôme de départ $P$ : $a_0N_1+a_1=0.$

De même pour le degré $2$. Posez $P_2(x)=a_0x^2+a_1x+a_2$. Notez $\lambda’_1$ et $\lambda’_2$ les deux racines de $P_2$, posez $N’_1 = \lambda’_1+\lambda’_2$ et $N’_2 = {\lambda’}_1^2$ $+{\lambda’}_2^2$.

D’après la relation fondamentale $a_0N’_2+a_1N’_1+2a_2=0.$

Cette relation se transpose aussi.

Vous avez $a_0N_2+a_1N_1+2a_2=0$ où $N_1$ et $N_2$ sont les deux premières sommes de Newton associées au polynôme de départ $P$.

Vous en déduisez toutes les relations liant les sommes de Newton. Il y en a $n$ au total.

\begin{aligned}
a_0N_1+a_1 &= 0\\
a_0N_2+a_1N_1+2a_2 &=0\\
a_0N_3+a_1N_2+a_2N_1+3a_3 &=0\\
\cdots & \cdots\\
a_0N_n+a_1N_{n-1}+\cdots+a_{n-1}N_1+na_n &=0.
\end{aligned}

Conclusion : toutes les formules de Newton avec des sigmas

Pour tout entier $k$ compris entre $1$ et $n$ :

$\boxed{\sum_{i=0}^{k-1} a_iN_{k-i} + ka_k=0.}$

Et maintenant, démontrez les relations qu’il y a entre les sommes de Newton et les coefficients du polynôme

Ecartez d’office le cas où $P$ est de degré $1$. Il y a une seule racine $\lambda_1$ qui vérifie $a_0\lambda_1+a_1=0$, or $N_1 = \lambda_1.$

Dans la suite $n$ désignera un entier naturel supérieur ou égal à $2$.

A partir du polynôme $P$ défini par $P(x)=a_0x^n+a_1x^{n-1}+\cdots+a_{n-1}x+a_n$, vous allez définir les polynômes tronqués $P_0$, $P_1$, …, $P_n$ de la façon suivante :

\begin{aligned}
P_0(x) &= a_0\\
P_1(x) &= a_0x+a_1\\
P_2(x) &= a_0x^2+a_1x+a_2\\
\cdots & \cdots\\
P_n(x) &= a_0x^n+a_1x^{n-1}+\cdots+a_{n-1}x+a_n.
\end{aligned}

Soit $i$ un entier compris entre $1$ et $n$.

Quand vous effectuez la division euclidienne de $P(x)$ par $x-\lambda_i$ dans le corps $\L(x)$, vous obtenez $P(x)=(x-\lambda_i)\left(P_0(\lambda_i)x^{n-1} + P_1(\lambda_i)x^{n-2} + \cdots + P_{n-1}(\lambda_i)\right) + P_n(\lambda_i).$

Faites une disgression et voyez pourquoi on obtient une telle relation par division euclidienne

Comment bien comprendre le processus ?

Supposez temporairement que le polynôme $P$ est de degré $3$ dans $\L[x]$, $P(x)=a_0x^3+a_1x^2+a_2x+a_3$. Soit $\lambda$ un élément de $\L$.

Vous allez effectuer la division de $P$ par $x-\lambda$, pas à pas.

\begin{aligned}
a_0x^3+a_1x^2+a_2x+a_3 &=a_0x^2\times x + a_1x^2+a_2x+a_3\\
&=a_0x^2( (x-\lambda)+\lambda)+a_1x^2+a_2x+a_3\\
&=(x-\lambda)(a_0x^2) +(a_0\lambda+a_1)x^2+a_2x+a_3\\
&=(x-\lambda)(a_0x^2) +(a_0\lambda+a_1)x\times x+a_2x+a_3\\
&=(x-\lambda)(a_0x^2) +(a_0\lambda+a_1)x\times ((x-\lambda)+\lambda)+a_2x+a_3\\
&=(x-\lambda)(a_0x^2) +(a_0\lambda+a_1)x(x-\lambda) + (a_0\lambda^2+a_1\lambda) x+a_2x+a_3\\
&=(x-\lambda)(a_0x^2+(a_0\lambda+a_1)x) + (a_0\lambda^2+a_1\lambda +a_2) x+ a_3\\
&=(x-\lambda)(a_0x^2+(a_0\lambda+a_1)x) + (a_0\lambda^2+a_1\lambda +a_2) ((x-\lambda)+\lambda)+ a_3\\
&=(x-\lambda)(a_0x^2+(a_0\lambda+a_1)x+(a_0\lambda^2+a_1\lambda +a_2)) + ((a_0\lambda^2+a_1\lambda +a_2))\lambda)+ a_3\\
&=(x-\lambda)(a_0x^2+(a_0\lambda+a_1)x+(a_0\lambda^2+a_1\lambda +a_2)) +P(\lambda).\\
\end{aligned}

Note. Dans le processus vous pouvez reconnaître la méthode de Hörner pour calculer $P(\lambda)$.

La division euclidienne pour tout degré $n\geq 2$

Supposez que le polynôme $P$ soit de degré $n\geq 2$ à coefficients dans $\L$. Soit $\lambda$ un élément de $\L$.

L’exemple précédent suggère de poser $Q(x)=\sum_{k=0}^{n-1}\sum_{i=0}^k a_i\lambda^{k-i}x^{n-1-k}$ comme polynôme qui va être le quotient de la division euclidienne de $P(x)$ par $x-\lambda$. Le reste de cette division doit être $P(\lambda).$

Vérifiez-le en effectuant le développement de l’expression $E$ définie par $E(x)=Q(x)(x-\lambda)+P(\lambda).$

Par développement du $x$ et du $\lambda$ dans le sigma, vous obtenez :

$E(x) = \sum_{k=0}^{n-1}\sum_{i=0}^k a_i\lambda^{k-i}x^{n-k}-\sum_{k=0}^{n-1}\sum_{i=0}^k a_i\lambda^{k+1-i}x^{n-1-k} + P(\lambda).$

Maintenant vous isolez le terme pour $i=0$ du premier sigma et le terme pour $i=n-1$ du deuxième sigma. Aussitôt :

$E(x) =a_0x^n + \sum_{k=1}^{n-1}\sum_{i=0}^k a_i\lambda^{k-i}x^{n-k}-\sum_{k=0}^{n-2}\sum_{i=0}^k a_i\lambda^{k+1-i}x^{n-1-k} – \sum_{i=0}^{n-1} a_i\lambda^{n-i}+ P(\lambda).$

Une première simplification apparaît dans le terme constant de $E(x)$.

$E(x) =a_0x^n + \sum_{k=1}^{n-1}\sum_{i=0}^k a_i\lambda^{k-i}x^{n-k}-\sum_{k=0}^{n-2}\sum_{i=0}^k a_i\lambda^{k+1-i}x^{n-1-k} +a_n.$

Maintenant, dans le premier sigma qui est double, vous allez isoler $i=k$ du reste.

$E(x) =a_0x^n + \sum_{k=1}^{n-1}\left(a_kx^{n-k}+ \sum_{i=0}^{k-1} a_i\lambda^{k-i}x^{n-k}\right)-\sum_{k=0}^{n-2}\sum_{i=0}^k a_i\lambda^{k+1-i}x^{n-1-k} +a_n.$

Vous poursuivez le développement du premier sigma.

$E(x) =a_0x^n + \sum_{k=1}^{n-1}a_kx^{n-k}+ \sum_{k=1}^{n-1}\sum_{i=0}^{k-1} a_i\lambda^{k-i}x^{n-k}-\sum_{k=0}^{n-2}\sum_{i=0}^k a_i\lambda^{k+1-i}x^{n-1-k} +a_n.$

Dans le second double sigma, vous effectuez un changement de variable, en posant $k’=k+1$.

$E(x) =a_0x^n + \sum_{k=1}^{n-1}a_kx^{n-k}+ \sum_{k=1}^{n-1}\sum_{i=0}^{k-1} a_i\lambda^{k-i}x^{n-k}-\sum_{k’=1}^{n-1}\sum_{i=0}^{k’-1} a_i\lambda^{k’-i}x^{n-k’} +a_n.$

Il apparaît une somme téléscopique. Les deux doubles sigmas se simplifient. Vous déduisez :

$E(x) = a_0x^n + \sum_{k=1}^{n-1}a_kx^{n-k} + a_n$.

$E(x)$ coïncide avec $P(x)$.

Aussitôt $\boxed{P(x) =(x-\lambda)\left( \sum_{k=0}^{n-1}\left(\sum_{i=0}^k a_i\lambda^{k-i}\right)x^{n-1-k}\right)+P(\lambda).}$

Maintenant, revenez au calcul des sommes de Newton

Comme $\lambda_i$ est racine de $P$, $P_n(\lambda_i)=P(\lambda_i)=0.$ Aussitôt :

$\dfrac{P(x)}{x-\lambda_i} = P_0(\lambda_i)x^{n-1} + P_1(\lambda_i)x^{n-2} + \cdots + P_{n-1}(\lambda_i).$

Vous sommez cette relation sur toutes les racines.

\begin{aligned}
\displaystyle\sum_{i=1}^n \dfrac{P(x)}{x-\lambda_i} &= \left(\sum_{i=1}^n P_0(\lambda_i)\right)x^{n-1} &+ \left(\sum_{i=1}^n P_1(\lambda_i)\right)x^{n-2} &+ \cdots &+ \left(\sum_{i=1}^n P_{n-1}(\lambda_i)\right)\\
&= na_0x^{n-1} &+ (a_0N_1+na_1)x^{n-2} &+ \cdots &+ (a_0N_{n-1}+a_1N_{n-2}+\cdots+a_{n-2}N_1+na_{n-1})
\end{aligned}

Partant de $P(x) = a_0(x-\lambda_1)\cdots(x-\lambda_n)$, en dérivant :

$P'(x)=\displaystyle\sum_{i=1}^n \prod_{j\neq i} a_0(x-\lambda_j) = \sum_{i=1}^n \dfrac{P(x)}{x-\lambda_i}$

Du coup :

\begin{aligned}
P'(x) &= na_0x^{n-1} &+ (a_0N_1+na_1)x^{n-2} &+ \cdots &+ (a_0N_{n-1}+a_1N_{n-2}+\cdots+a_{n-2}N_1+na_{n-1})\\
na_0x^{n-1}+(n-1)a_{1}x^{n-2}+\cdots+a_{n-1}&= na_0x^{n-1} &+ (a_0N_1+na_1)x^{n-2} &+ \cdots &+ (a_0N_{n-1}+a_1N_{n-2}+\cdots+a_{n-2}N_1+na_{n-1}).
\end{aligned}

Par identification des coefficients à partir du deuxième à gauche, il vient :

\begin{aligned}
\forall i\in \N, 1\leq i\leq n-1&\Rightarrow ia_{n-i} =a_0 N_{n-i}+a_1N_{n-i-1}+\cdots +a_{n-i-1}N_1 +na_{n-i}\\
&\Rightarrow a_0 N_{n-i}+a_1N_{n-i-1}+\cdots +a_{n-i-1}N_1 +(n-i)a_{n-i}=0
\end{aligned}

Effectuez le changement de variable $k=n-i$. Quand $i$ varie entre $1$ et $n-1$, $k$ varie de $1$ à $n-1$ aussi.

Pour tout entier naturel $k$ compris entre $1$ et $n-1$, vous avez :

$a_0 N_{k}+a_1N_{k-1}+\cdots +a_{k-1}N_1 +ka_{k}=0.$

Avec un sigma, cela s’écrit $\sum_{i=0}^{k-1} a_iN_{k-i} + ka_k=0.$

Comme la relation $\sum_{i=0}^{n-1} a_iN_{n-i} +na_n=0$ a déjà été établie, vous en déduisez que :

Pour tout $k$ compris entre $1$ et $n$, $\sum_{i=0}^{k-1} a_iN_{k-i} + ka_k=0.$

Le lien entre les sommes de Newton et les coefficients du polynôme associé est maintenant établi.

Pensez aux résultats qui en découlent

Les sommes de Newton serviront à établir une démonstration de la méthode de Faddeev, qui constitue une amélioration de la méthode de Leverrier. Vous pourrez par la suite calculer le polynôme caractéristique d’une matrice ainsi que l’inverse de cette matrice le cas échéant.

Prolongement

Pour observer comment les liens entre les sommes de Newton sont construits sur un exemple, allez lire le contenu rédigé dans l'article 316.