Votre navigateur n'accepte pas le Javascript.La navigation sur ce site risque de ne pas fonctionner correctement.

083. La décomposition LU d’une matrice inversible

Dans cet article, vous trouverez :

  • comment construire la décomposition $LU$ de la matrice $A=\begin{pmatrix} 2 & 7 & 1 \\4 & 13 & 1\\ -2 & -10 & -7\end{pmatrix}$ en utilisant une méthode se ramenant à des matrices de tailles inférieures ;
  • une condition nécessaire et suffisante pour qu’une matrice $A$ admette une telle décomposition $LU.$

Qu’est-ce que la décomposition $LU$ d’une matrice ?

On dit qu’une matrice $A$ admet une décomposition $LU$ lorsqu’il existe deux matrices $L$ et $U$ de même taille que $A$, telles que :

  • le produit matriciel $LU$ est égal à $A$ ;
  • la matrice $L$ (comme « low ») est triangulaire inférieure ;
  • la matrice $L$ a tous ses coefficients diagonaux égaux à $1$ ;
  • la matrice $U$ (comme « up ») est triangulaire supérieure.

Trouvez une décomposition $LU$ pour la matrice $A$

Il s’agit de trouver $L = \begin{pmatrix} 1 & 0 & 0 \\ \times & 1 & 0\\ \times & \times & 1\end{pmatrix}$ et $U = \begin{pmatrix} \times & \times & \times \\0 & \times & \times\\ 0 & 0 & \times\end{pmatrix}$ pour que l’on ait $A=LU.$

Pour répondre à cette question et ne pas s’embrouiller, il s’agit de résoudre cela avec méthode, de façon progressive. Vous allez vous en tirer en considérant les mineurs principaux de la matrice $A$. Ce sont les sous-matrices de $A$, carrées, construites à partir de son premier coefficient en haut à gauche.

La matrice $A$ possède trois mineurs principaux :

  • la matrice $1\times 1$ à un coefficient : $\begin{pmatrix} 2 \end{pmatrix}$ ;
  • la matrice $2\times 2$ suivante : $\begin{pmatrix} 2& 7 \\4 & 13\end{pmatrix}$ ;
  • la matrice $3\times3$ égale à la matrice $A$ elle-même.

L’idée de base lors de la décomposition $LU$ c’est que, pour une taille donnée, les mineurs de $A$ sont égaux au produit des mineurs de $L$ et de $U$. Cette constatation est immédiate compte tenu de la structure triangulaire des matrices $L$ et $U$.

Regardez ce que donnent les mineurs $1\times1$

Pour la matrice $A$ vous n’avez besoin que de son premier mineur. Tous les autres coefficients de $A$ sont masqués.

$ \begin{pmatrix} \boxed{2} & \times & \times \\\times & \times & \times\\ \times & \times & \times\end{pmatrix}= \begin{pmatrix} \boxed{1} & 0 & 0 \\ \times & 1 & 0\\ \times & \times & 1\end{pmatrix} \begin{pmatrix} \boxed{\times} & \times & \times \\0 & \times & \times\\ 0 & 0 & \times\end{pmatrix}$

$2 = 1 \times 2$, donc pas le choix, vous déduisez :

$ \begin{pmatrix} \boxed{2} & 7 & 1 \\4 & 13 & 1\\ -2 & -10 & -7\end{pmatrix}= \begin{pmatrix} \boxed{1} & 0 & 0 \\ \times & 1 & 0\\ \times & \times & 1\end{pmatrix} \begin{pmatrix} \boxed{2} & \times & \times \\0 & \times & \times\\ 0 & 0 & \times\end{pmatrix}.$

Regardez ce que donnent les mineurs $2\times 2$

$ \begin{pmatrix} 2 & 7& \times \\4& 13& \times\\ \times & \times & \times\end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ \times & 1 & 0\\ \times & \times & 1\end{pmatrix} \begin{pmatrix} 2 & \times & \times \\0 & \times & \times\\ 0 & 0 & \times\end{pmatrix}$

Vous allez pouvoir compléter un coefficient du mineur de taille $2\times2$ de la matrice $U$. En commençant par celui du haut.

$ \begin{pmatrix} 2 & 7& \times \\4& 13& \times\\ \times & \times & \times\end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ \times & 1 & 0\\ \times & \times & 1\end{pmatrix} \begin{pmatrix} 2 & \boxed{\times} & \times \\0 & \times & \times\\ 0 & 0 & \times\end{pmatrix}$

$7$ est égal à $1$ fois $\boxed{\times}$ plus 0. Donc :

$ \begin{pmatrix} 2 & 7& \times \\4& 13& \times\\ \times & \times & \times\end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ \times & 1 & 0\\ \times & \times & 1\end{pmatrix} \begin{pmatrix} 2 & 7 & \times \\0 & \times & \times\\ 0 & 0 & \times\end{pmatrix}.$

Passez au coefficient suivant :

$ \begin{pmatrix} 2 & 7& \times \\4& 13& \times\\ \times & \times & \times\end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ \boxed{\times} & 1 & 0\\ \times & \times & 1\end{pmatrix} \begin{pmatrix} 2 & 7 & \times \\0 & \times & \times\\ 0 & 0 & \times\end{pmatrix}.$

$2$ fois $\boxed{\times}$ plus 0 est égal à $4$. Donc :

$ \begin{pmatrix} 2 & 7& \times \\4& 13& \times\\ \times & \times & \times\end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ 2 & 1 & 0\\ \times & \times & 1\end{pmatrix} \begin{pmatrix} 2 & 7 & \times \\0 & \times & \times\\ 0 & 0 & \times\end{pmatrix}.$

Et maintenant le dernier coefficient des mineurs de taille $2\times 2.$

$ \begin{pmatrix} 2 & 7& \times \\4& 13& \times\\ \times & \times & \times\end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ 2 & 1 & 0\\ \times & \times & 1\end{pmatrix} \begin{pmatrix} 2 & 7 & \times \\0 & \boxed{\times} & \times\\ 0 & 0 & \times\end{pmatrix}$

Or $7$ fois $2$ plus $1$ fois $\boxed{\times}$ est égal à $13.$ Donc :

$ \begin{pmatrix} 2 & 7& \times \\4& 13& \times\\ \times & \times & \times\end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ 2 & 1 & 0\\ \times & \times & 1\end{pmatrix} \begin{pmatrix} 2 & 7 & \times \\0 & -1 & \times\\ 0 & 0 & \times\end{pmatrix}.$

Regardez ce que donnent les mineurs $3\times 3$

$ \begin{pmatrix} 2 & 7& 1\\4& 13& 1\\ -2& -10& -7\end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ 2 & 1 & 0\\ \times & \times & 1\end{pmatrix} \begin{pmatrix} 2 & 7 & \boxed{\times} \\0 & -1 & \boxed{\times}\\ 0 & 0 & \times\end{pmatrix}$

Or $1$ fois $\boxed{\times}$ plus $0$ est égal à $1$. Donc la première croix doit être remplacée par 1.

$2$ fois $1$ plus $1$ fois la seconde $\boxed{\times}$ est égal à $1.$

Vous déduisez :

$ \begin{pmatrix} 2 & 7& 1\\4& 13& 1\\ -2& -10& -7\end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ 2 & 1 & 0\\ \times & \times & 1\end{pmatrix} \begin{pmatrix} 2 & 7 & 1 \\0 & -1 & -1\\ 0 & 0 & \times\end{pmatrix}.$

Maintenant vous passez aux deux autres coefficients.

$ \begin{pmatrix} 2 & 7& 1\\4& 13& 1\\ -2& -10& -7\end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ 2 & 1 & 0\\ \boxed{\times} & \boxed{\times} & 1\end{pmatrix} \begin{pmatrix} 2 & 7 & 1 \\0 & -1 & -1\\ 0 & 0 & \times\end{pmatrix}$

Or $2$ fois $\boxed{\times}$ plus $0$ est égal à $2$. Donc la première croix doit être remplacée par $-1$.

$7$ fois $-1$ plus $-1$ fois la seconde $\boxed{\times}$ est égal à $-10.$

Vous déduisez :

$ \begin{pmatrix} 2 & 7& 1\\4& 13& 1\\ -2& -10& -7\end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ 2 & 1 & 0\\ -1 & 3 & 1\end{pmatrix} \begin{pmatrix} 2 & 7 & 1 \\0 & -1 & -1\\ 0 & 0 & \times\end{pmatrix}.$

Puis, vous finissez avec le dernier coefficient.

$ \begin{pmatrix} 2 & 7& 1\\4& 13& 1\\ -2& -10& -7\end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ 2 & 1 & 0\\ -1 & 3 & 1\end{pmatrix} \begin{pmatrix} 2 & 7 & 1 \\0 & -1 & -1\\ 0 & 0 & \boxed{\times}\end{pmatrix}$

$-1$ fois $1$ plus $3$ fois $-1$ plus $1$ fois $\boxed{\times}$ est égal à $1$.

Vous déduisez :

$ \begin{pmatrix} 2 & 7& 1\\4& 13& 1\\ -2& -10& -7\end{pmatrix}= \begin{pmatrix} 1 & 0 & 0 \\ 2 & 1 & 0\\ -1 & 3 & 1\end{pmatrix} \begin{pmatrix} 2 & 7 & 1 \\0 & -1 & -1\\ 0 & 0 & -3\end{pmatrix}.$

Quand, et seulement quand, une matrice inversible $A$ admet une décomposition $LU$ ?

Analyse

Soit $n$ un entier naturel non nul et $A$ une matrice inversible de taille $n\times n$ admettant une décomposition $LU$.

Alors $\det A = \det L \times \det U.$ Comme $\det A\neq 0$ et $\det L = 1$, vous déduisez $\det U \neq 0.$

Notez $u_{11}$, …, $u_{nn}$ les coefficients diagonaux de $U$.

Comme $\det U = u_{11}\times \dots \times u_{nn}$, vous déduisez $\forall i\in\llbracket, 1, n\rrbracket, u_{ii} \neq 0.$

Soit $k$ un entier naturel compris entre $1$ et $n$. Notez $A_k$ le mineur principal de $A$ de taille $k$. Notez $L_k$ le mineur principal de $L$ de taille $k$. Notez $U_k$ le mineur principal de $U_k$ de taille $k$. En effectuant un produit par blocs :

$\begin{pmatrix} A_k & \times \\ \times &\times \end{pmatrix} = \begin{pmatrix} L_k & 0 \\ \times &\times \end{pmatrix} \begin{pmatrix} U_k & \times \\ 0 &\times \end{pmatrix}$

vous constatez que $A_k = L_kU_k$ donc $\det A_k = \det L_k \times \det U_k$ et par suite $\det A_k = u_{11}\times \cdots\times u_{kk}$, donc $\det A_k\neq 0.$

Donc tous les mineurs principaux de $A$ sont inversibles.

Note : on désigne parfois par le mot « mineur » le déterminant d’une sous-matrice de $A$ au lieu de cette sous-matrice.

Synthèse

Pour tout entier naturel $n$ non nul, notez $P(n)$ la propriété « pour toute matrice $A$ d’ordre $n$ inversible ayant ses mineurs principaux inversibles, $A$ admet une décomposition $LU$. »

Initialisation. Prenez $n=1$. Supposez que $A$ soit une matrice d’ordre $1$ ayant des mineurs principaux tous inversibles. Comme $A$ n’admet qu’un seul coefficient $a$, vous posez $L = (1)$ et $U=(a)$ et vous déduisez $A=LU$. Donc $P(1)$ est vérifiée.

Hérédité. Soit $n$ un entier naturel non nul. Supposez $P(n)$. Vous allez montrer $P(n+1)$.

Soit $A$ une matrice carrée d’ordre $n+1$ ayant tous ses mineurs principaux inversibles.

Notez $A’$ le mineur principal de $A$ d’ordre $n$.

Il existe une matrice ligne $v_L$ et une matrice colonne $v_C$ et un scalaire $s$ tels que $A = \begin{pmatrix}A’ & v_C \\ v_L & s\end{pmatrix}.$

D’après l’hypothèse, $A’$ admet une décomposition $L’U’.$

Soient $\alpha_L$ une matrice ligne à $n$ coefficients, $\alpha_C$ une matrice colonne à $n$ coefficients et un scalaire $\beta$ que l’on choisira plus tard.

Posez $L = \begin{pmatrix} L’ & 0 \\\alpha_L & 1\end{pmatrix}$ et $U=\begin{pmatrix} U’ & \alpha_C \\ 0 & \beta \end{pmatrix}.$

Le produit $LU$ est égal à $\begin{pmatrix} L’U’ &L’\alpha_C \\ \alpha_LU’ & \alpha_L\alpha_C+\beta\end{pmatrix}.$

Comme $A’$ est inversible, $\det A’ \neq 0$. Or $\det L’ \det U’ =\det A’$ donc les deux matrices $L’$ et $U’$ sont inversibles.

Choisissez $\alpha_C$, $\alpha_L$ et $\beta$ pour que $L’\alpha_C = v_C$ et $\alpha_L U’ = v_L$ et $\beta = s-\alpha_L\alpha_C.$

Vous avez $A = LU$. $L$ est bien triangulaire inférieure avec des coefficients diagonaux égaux à $1$. $U$ est bien une matrice triangulaire supérieure. $A$ admet donc une décomposition $LU$. Donc $P(n+1)$ est vérifiée.

Par récurrence, vous avez montré que pour tout entier naturel $n$ non nul, $P(n)$ est vérifiée.

Concluez

Une matrice $A$ inversible admet une décomposition $LU$, si et seulement si, tous ses mineurs principaux sont inversibles.

082. La matrice I-AB est inversible, si et seulement si, la matrice I-BA est inversible

Dans cet article, vous allez faire des calculs matriciels.

Notez qu’il suffit de montrer que, si $I-BA$ est inversible, alors $I-AB$ l’est. En effet, en échangeant les matrices $A$ et $B$, vous déduisez le résultat « dans l’autre sens », stipulant que si $I-AB$ est inversible, alors $I-BA$ l’est aussi.

Passez à l’analyse, ce qui est le plus intéressant

Supposez que la matrice $I-BA$ soit inversible. Vous disposez d’une matrice inversible $J = (I-BA)^{-1}$, telle que :

\begin{aligned}
(I-BA)J&=I\\
J(I-BA)&=I.
\end{aligned}

Développez, vous avez $J-JBA = I$ et $J-BAJ=I.$

Vous cherchez à montrer que $I-AB$ est inversible, ce qui fait que vous cherchez une matrice $K$ telle que :

\begin{aligned}
(I-AB)K&=I\\
K(I-AB)&=I.
\end{aligned}

Toujours en développant, vous cherchez une matrice $K$ telle que $K-KAB=I$ et $K-ABK=I.$

Le but du jeu c’est de trouver une expression de $K$ en fonction de $A$, $B$ et $J$.

La relation $K-KAB=I$ permet d’écrire $K=I+KAB.$

Maintenant, il faut bien faire quelque chose à partir des relations existant avec la matrice $J$. Il faut utiliser les matrices $JBA$ ou $BAJ$ et elles ne vont pas apparaître toutes seules ! C’est parti, utilisez la méthode de la force.

De $K=I+KAB$, vous multipliez à droite par $AJ$.

$KAJ=AJ+KABAJ$.

De $J-BAJ=I$ vous avez $BAJ = J-I$. Du coup, $KAJ=AJ+KA(J-I).$

Développez : $KAJ=AJ+KAJ-KA$ et vous avez $0=AJ-KA$ soit $AJ=KA$.

Substituez dans $K=I+KAB$ et vous avez $\boxed{K=I+AJB}.$

Démontrez en bonne intelligence que les matrices $I-AB$ et $I+AJB$ sont inverses l’une de l’autre

L’analyse vous a permis de savoir pourquoi il fallait choisir $I+AJB$.

Maintenant que le plus dur est fait, développez :

\begin{aligned}
(I-AB)(I+AJB) &= I-AB+AJB+A(BAJ)B\\
&= I-AB+AJB-A(J-I)B\\
&=I-AB+AJB-AJB+AB\\
&=I.
\end{aligned}

Et dans l’autre sens.

\begin{aligned}
(I+AJB)(I-AB) &= I-AB+AJB-A(JBA)B\\
&= I-AB+AJB-A(J-I)B\\
&=I-AB+AJB+AJB+AB\\
&=I.
\end{aligned}

Vous voyez des prolongements ?

Ce résultat vous montre que $1$ est valeur propre de la matrice $AB$, si et seulement si, $1$ est valeur propre de la matrice $BA$.

Vous pouvez montrer que, pour tout scalaire $\lambda$, $\lambda I – AB$ est inversible, si et seulement si, $\lambda I -BA$ est inversible.

A vous de jouer !

081. Polynômes caractéristiques de AB et de BA

Dans cet article, vous considérez deux matrices carrées $A$ et $B$ à coefficients dans un corps $\K$, lorsque $\K = \R$ ou $\K=\C.$ Notez $I$ la matrice identité.

Que peut-on dire, en général, des polynômes caractéristiques des matrices $AB$ et $BA$ ?

Les deux polynômes sont égaux quand $A$ est inversible

Supposez que $A$ soit inversible.

Les matrices $AB$ et $BA$ sont semblables :
$A^{-1}(AB)A = (A^{-1}A)(BA) = IBA = BA.$

De ce fait elles ont le même polynôme caractéristique.

Que faire lorsque la matrice $A$ n’est pas inversible ?

Vous disposez d’un argument de topologie pour y répondre.

Notez $P(x) = \det(xI-A)$ le polynôme caractéristique de $A$. C’est un polynôme non constant à coefficients dans $\K$. Il est scindé dans $\C$ et admet un nombre fini de racines.

  • Soit $0$ est sa seule racine. Dans ce cas, pour tout $x\in ]0,+\infty[$, $P(x)\neq 0$. En particulier $\forall x\in ]0,1[, P(x)\neq 0.$
  • Soit il admet une ou plusieurs racines différentes de $0$. Notez $r>0$ le plus petit module de toutes ces racines. Alors $\forall x\in ]0,r[, P(x)\neq 0.$

Vous constatez que dans les deux cas énumérés ci-dessus il existe toujours un réel $\alpha>0$ tel que $\forall x\in ]0,\alpha[, P(x)\neq 0.$

Vous en déduisez que $\forall x\in ]0,\alpha[, A-xI$ est inversible.

D’après la partie précédente, pour tout $y$ tel que $0<y<\alpha$, $(A-yI)B$ et $B(A-yI)$ ont le même polynôme caractéristique.

Vous en déduisez que $\forall x\in\K, \forall y\in]0,r[$, $\det(xI-(A-yI)B)=\det(xI-B(A-yI)).$

Les deux déterminants ci-dessus sont des polynômes à deux variables en $x$ et $y$. Ce sont, en particulier, des fonctions continues à deux variables. Fixez $x\in\K$ et passez à la limite dans l’égalité $\det(xI-(A-yI)B)=\det(xI-B(A-yI))$ en faisant tendre $y$ vers $0$.

Vous obtenez l’égalité $\det(xI-AB)=\det(xI-BA).$

Concluez

Quelles que soient les matrices réelles ou complexes $A$ et $B$, les matrices $AB$ et $BA$ ont le même polynôme caractéristique.

075. Construisez une solution de l’équation de degré 3 dans toutes les situations

Toute équation réelle de degré 3 admet au moins une solution. Cet article vous donnera les armes permettant de construire une ou plusieurs solutions de cette équation.

La discussion du nombre de solutions de l’équation de degré 3 fait appel à la notion de discriminant qui ne sera pas traitée dans cet article.

Les outils

Fonctions hyperboliques

Sinus hyperbolique

La fonction sinus hyperbolique est définie par $\sh: x\mapsto \dfrac{\e^x-\e^{-x}}{2}$, c’est une bijection de $\R$ dans $\R$. Sa bijection réciproque est notée $\argsh$.

La fonction sinus hyperbolique vérifie une importante identité.

\begin{aligned}
(\sh x)^3 &= \dfrac{(\e^x-\e^{-x})^3}{8}\\
&=\dfrac{\e^{3x} -3\e^x+3\e^{-x}-\e^{-3x}}{8}\\
&=\dfrac{2\sh (3x)-6\sh x }{8}\\
&=\dfrac{\sh (3x)-3\sh x }{4}\\
\end{aligned}

Aussitôt : $\boxed{\sh (3x) = 4(\sh x)^3 + 3\sh x}.$

Cosinus hyperbolique

La fonction cosinus hyperbolique est définie par $\ch: x\mapsto \dfrac{\e^x+\e^{-x}}{2}$. Elle réalise une bijection de $\R_{+}$ dans $[1,+\infty[$, sa bijection réciproque est notée $\argch.$

La fonction cosinus hyperbolique une identité similaire :

\begin{aligned}
(\ch x)^3 &= \dfrac{(\e^x+\e^{-x})^3}{8}\\
&=\dfrac{\e^{3x} +3\e^x+3\e^{-x}+\e^{-3x}}{8}\\
&=\dfrac{2\ch (3x)+6\ch x }{8}\\
&=\dfrac{\ch (3x)+3\ch x }{4}\\
\end{aligned}

Aussitôt : $\boxed{\ch (3x) = 4(\ch x)^3 – 3\ch x}.$

Fonctions circulaires

Le sinus trigonométrique

La fonction sinus est définie par l’exponentielle complexe $\sin : x\mapsto \dfrac{\e^{ix}-\e^{-ix}}{2i}$. C’est une surjection de $\R$ dans $[-1,1]$.

\begin{aligned}
(\sin x)^3 &= \dfrac{(\e^{ix}-\e^{-ix})^3}{-8i}\\
&=\dfrac{\e^{3ix} -3\e^{ix}+3\e^{-ix}-\e^{-3ix}}{-8i}\\
&=\dfrac{2i\sin (3x)-6i\sin x }{-8i}\\
&=\dfrac{-\sin (3x)+3\sin x }{4}\\
\end{aligned}

Aussitôt $\boxed{\sin 3x = -4\sin^3 x + 3\sin x}.$

Cette propriété ne sera pas utilisée dans la suite de cet article, elle est donnée néanmoins par souci d’exhaustivité.

Le cosinus trigonométrique

La fonction cosinus est définie par l’exponentielle complexe $\cos: x\mapsto \dfrac{\e^{ix}+\e^{-ix}}{2}$. C’est une surjection de $\R$ vers $[-1,1]$ qui réalise une bijection de $[0,\pi]$ dans $[-1,1]$. On note $\arccos$ la bijection réciproque qui va de $[-1,1]$ dans $[0,\pi].$

\begin{aligned}
(\cos x)^3 &= \dfrac{(\e^{ix}+\e^{-ix})^3}{8}\\
&=\dfrac{\e^{3ix} +3\e^{ix}+3\e^{-ix}+\e^{-3ix}}{8}\\
&=\dfrac{2\cos (3x)+6\cos x }{8}\\
&=\dfrac{\cos (3x)+3\cos x }{4}\\
\end{aligned}

Aussitôt : $\boxed{\cos (3x) = 4(\cos x)^3 – 3\cos x}.$

Une stratégie pour expliciter une solution de l’équation de degré 3 : $x^3 – x -2 = 0$

Les coefficients de $x^3$ et de $x$ étant de signes contraires, vous choisirez en temps voulu une fonction $f$ vérifiant l’identité :

\forall \theta\in\R, f(3\theta) = 4f(\theta)^3-3f(\theta).

Vu ce qui précède, vous prendrez $f$ égale au cosinus trigonométrique ou au cosinus hyperbolique.

Une première idée

Vous essayez d’avoir une équation équivalente à $x^3 – x -2 = 0$ qui commence par $4x^3-3x.$

Multipliez par 4 vous donne un bon départ, mais…

\begin{aligned}
x^3 – x-2 = 0 &\Longleftrightarrow 4x^3 – 4x-8 = 0.
\end{aligned}

L’équation obtenue n’a pas le bon nombre de $x$.

Il faut donc falloir pousser la stratégie un cran plus loin.

Affinement du changement de variable

Essayez de chercher une solution sous la forme $x = rf(\theta)$ avec $r\neq 0$ et $\theta\in\R.$

\begin{aligned}
x^3 – x-2 = 0 &\Longleftrightarrow (rf( \theta))^3 – (rf(\theta))-2 = 0 \\
&\Longleftrightarrow r^3f( \theta)^3 – rf(\theta)-2 = 0\\
&\Longleftrightarrow r^2f( \theta)^3 – f(\theta) = \dfrac{2}{r}\\
&\Longleftrightarrow 3r^2f( \theta)^3 – 3f(\theta) = \dfrac{6}{r}.
\end{aligned}

Vous choisissez $r\neq 0$ pour que $3r^2 = 4$, ce qui est possible avec $r = \dfrac{2}{\sqrt{3}}.$ L’autre valeur possible de $r$, négative, est exclue puisqu’il vaut mieux avoir un second membre positif.

\begin{aligned}
x^3 – x-2 = 0 &\Longleftrightarrow 4f(\theta)^3 – 3f(\theta) = 3\sqrt{3}\\
&\Longleftrightarrow f(3\theta) = 3\sqrt{3}.
\end{aligned}

La fonction cosinus prend ses valeurs dans $[-1,1]$, or $3\sqrt{3}\not\in [-1,1]$, vous choisissez $f$ égal au cosinus hyperbolique.

Et maintenant une solution

Pour tout $\theta\in\R_{+}$, vous posez $x =\dfrac{2}{\sqrt{3}} \ch \theta.$

Comme $3\sqrt{3} \geq 1$, vous utilisez la bijection réciproque de $\ch$.

\begin{aligned}
x^3 – x-2 = 0 &\Longleftrightarrow \ch (3\theta) = 3\sqrt{3}\\
&\Longleftrightarrow 3\theta = \argch(3\sqrt{3})\\
&\Longleftrightarrow \theta = \dfrac{1}{3}\argch(3\sqrt{3})\\
&\Longleftrightarrow x = \dfrac{2}{\sqrt{3}} \ch\left(\dfrac{1}{3}\argch(3\sqrt{3}) \right).
\end{aligned}

Conclusion : $x =\dfrac{2}{\sqrt{3}} \ch\left(\dfrac{1}{3}\argch(3\sqrt{3}) \right)$ est solution de l’équation $x^3-x-2=0.$

Cette solution peut s’écrire avec des radicaux, étant donné que : $\forall x\geq 1, \argch x = \ln\left(x+\sqrt{x^2-1}\right)$, le cosinus hyperbolique fait apparaître des exponentielles qui se simplifieront avec le logarithme mais donneront naissance à des racines cubiques. Cet article ne développera pas ce point.

Une stratégie pour expliciter une solution de l’équation de degré 3 : $x^3 – 2x -\dfrac{1}{4} = 0$

Vous suivez la même technique que précédemment.

Les coefficients de $x^3$ et de $x$ étant de signes contraires, pour tout $\theta\in\R$ et pour tout $r\in\R^{*}$, vous posez $x = rf(\theta)$, $f$ étant égale au cosinus trigonométrique ou hyperbolique, selon le second membre trouvé dans l’équivalence.

\begin{aligned}
x^3 – 2x-\dfrac{1}{4} = 0 &\Longleftrightarrow \dfrac{1}{2}x^3 – x-\dfrac{1}{8} = 0 \\
&\Longleftrightarrow \dfrac{3}{2}x^3 – 3x-\dfrac{3}{8} = 0 \\
&\Longleftrightarrow \dfrac{3}{2}r^3f(\theta)^3-3rf(\theta)=\dfrac{3}{8}\\
&\Longleftrightarrow \dfrac{3}{2}r^2f(\theta)^3-3f(\theta)=\dfrac{3}{8r}\\
\end{aligned}

Vous choisissez $r$ pour que $\dfrac{3}{8r}$ soit positif et pour que $\dfrac{3}{2}r^2 = 4$, soit $r = \sqrt{\dfrac{8}{3}} = \dfrac{2\sqrt{6}}{3}.$

Remarquez que $0\leq \dfrac{3}{8r} \leq \dfrac{3\sqrt{3}}{8\sqrt{8}}\leq 1$, cela conduit à choisir $f$ égale au cosinus trigonométrique.

Pour tout $\theta\in\R$, posez $x = \dfrac{2\sqrt{6}}{3}\cos \theta$.
\begin{aligned}
x^3 – 2x-\dfrac{1}{4} = 0
&\Longleftrightarrow 4\cos^3 \theta-3\cos \theta= \dfrac{3\sqrt{3}}{8\sqrt{8}}\\
&\Longleftrightarrow \cos(3\theta) = \dfrac{3\sqrt{3}}{8\sqrt{8}}\\
&\Longleftrightarrow \cos(3\theta) = \dfrac{3\sqrt{6}}{32}.\\
\end{aligned}

Posez
\begin{aligned}
\theta_1 &= \dfrac{1}{3}\arccos \left(\dfrac{3\sqrt{6}}{32}\right) \\
\theta_2 &= \dfrac{1}{3}\arccos \left(\dfrac{3\sqrt{6}}{32}\right) +\dfrac{2\pi}{3}\\
\theta_3 &= \dfrac{1}{3}\arccos \left(\dfrac{3\sqrt{6}}{32}\right)+\dfrac{4\pi}{3}. \\
\end{aligned}

Alors les trois réels
\begin{aligned}
x_1 &= \dfrac{2\sqrt{6}}{3} \cos\left(\theta_1\right) \\
x_2 &= \dfrac{2\sqrt{6}}{3} \cos\left(\theta_2\right)\\
x_3 &= \dfrac{2\sqrt{6}}{3} \cos\left(\theta_3\right). \\
\end{aligned}

sont des solutions de l’équation $x^3 – 2x-\dfrac{1}{4} = 0.$

Comme $x_1$, $x_2$ et $x_3$ sont deux à deux distincts, l’équation $x^3 – 2x-\dfrac{1}{4} = 0$ est complètement résolue parce que toute équation polynomiale réelle de degré 3 admet au maximum 3 solutions.

Conclusion : l’équation $x^3 – 2x-\dfrac{1}{4} = 0$ admet exactement 3 solutions qui sont données par les réels :
\begin{aligned}
x_1 &= \dfrac{2\sqrt{6}}{3} \cos\left(\dfrac{1}{3}\arccos \left(\dfrac{3\sqrt{6}}{32}\right) \right) \\
x_2 &= \dfrac{2\sqrt{6}}{3} \cos\left(\dfrac{1}{3}\arccos \left(\dfrac{3\sqrt{6}}{32}\right) + \dfrac{2\pi}{3}\right)\\
x_3 &= \dfrac{2\sqrt{6}}{3} \cos\left(\dfrac{1}{3}\arccos \left(\dfrac{3\sqrt{6}}{32}\right) + \dfrac{4\pi}{3}\right). \\
\end{aligned}

074. A propos d’un algorithme sur le PPCM

Avec deux suites

Dans l’intégralité de cet article, $a$ et $b$ désignent deux entiers strictement positifs.

Pour déterminer leur PPCM, deux suites $(u_n)_{n\in\N}$ et $(v_n)_{n\in\N}$ sont définies par récurrence :

\left\{\begin{array}{l} 
u_0 = 0,\\
v_0 = 0.
\end{array}\right.
\forall n\in\N, u_{n+1} = 
\left\{\begin{array}{ll} 
u_n & \text{ si }u_n> v_n\\
 u_n+a& \text{ si } u_n \leq v_n
\end{array}\right.
\forall n\in\N, v_{n+1} = 
\left\{\begin{array}{ll} 
v_n+b & \text{ si }u_n > v_n\\
 v_n& \text{ si } u_n \leq v_n.
\end{array}\right.

L’objectif de cet article est d’étudier le comportement de ces deux suites. Vous verrez qu’elles sont à nouveau égales après leur valeur de départ commune. De plus, quand cela se produit pour la première fois, leurs valeurs sont égales au PPCM des entiers $a$ et $b$.

Croissance des deux suites

Ce résultat est très important. Pour le voir, fixez un entier $n\in\N$.

$u_{n+1}-u_n \in \{0,a\}$ donc $u_{n+1}\geq u_n$.
De même $v_{n+1}-v_n \in \{0,b\}$ donc $v_{n+1}\geq v_n$.

Vous avez montré que les suites $(u_n)_{n\in\N}$ et $(v_n)_{n\in\N}$ sont croissantes.

Un exemple

Prenez $a=15$ et $b=18$.

Vous obtenez successivement :

\begin{array}{|c | c| c |}
\hline
u_n& v_n & n\\
\hline
0 & 0 & 0\\
15 & 18 & 1\\
30 & 18 & 2\\
30 & 36 & 3\\
45 & 36 & 4\\
45 & 54 & 5\\
60 & 54 & 6\\
60 & 72 & 7\\
75 & 72 & 8\\
75 & 90 & 9\\
90 & 90 & 10\\
105 & 90 & 11\\
105 & 108 & 12\\ 
\hline
\end{array}

Vous observez que le premier rang $n\geq 1$ qui vérifie $u_n=v_n$ vous fournit $90$ qui est le PPCM de $15$ et de $18$.

Certaines personnes sont étonnées de constater qu’un tel rang existe. La question est légitime : pourquoi, après avoir démarré de $0$, les deux suites finissent par être de nouveau égales ? Et pourquoi sur le PPCM ?

Pour prouver ce résultat, vous avez besoin d’en savoir un peu plus.

La plus petite des deux suites finit par augmenter de façon arithmétique jusqu’à dépasser l’autre suite qui reste stationnaire.

Cela vous amène à étudier deux situations.

Les deux comportements

Comportement 1 : si $p$ est un rang tel que $u_p\leq v_p\dots$ qu’advient-il ?

La situation s’inverse, il existe un rang $q>p$ de sorte que les suites se comportent comme suit :

  • la suite $(u_n)_{p\leq n\leq q }$ est arithmétique de raison $a$,
  • la suite $(v_n)_{p\leq n\leq q}$ est stationnaire,
  • $\forall n\in\N, p\leq n\leq q-1 \Longrightarrow u_n\leq v_n$,
  • $u_q>v_q$.

Soit $p\in\N$ tel que $u_p\leq v_p.$

D’après les définitions des deux suites, $u_{p+1} = u_p+a$ et $v_{p+1}=v_p.$

Notez $A$ la partie de $\N$ égale à l’ensemble des entiers naturels $r$ tels que :

  • $r\geq p+1$,
  • la suite $(u_n)_{p\leq n\leq r }$ est arithmétique de raison $a$,
  • la suite $(v_n)_{p\leq n\leq r}$ est stationnaire,
  • $\forall n\in\N, p\leq n\leq r-1 \Longrightarrow u_n\leq v_n.$

Constatez que $p+1\in A$ donc $A\neq \emptyset.$

Supposez que $A$ n’est pas majorée.

Alors la suite $(u_n)_{p\leq n}$ est arithmétique de raison $a$ et la suite $(v_n)_{p\leq n}$ est stationnaire. D’autre part :

\begin{array}{l}
\forall r\in\N, r\geq p \Longrightarrow u_r\leq v_r\\
\forall r\in\N, r\geq p \Longrightarrow u_p + (r-p)a \leq v_p\\
\forall r\in\N, r\geq p \Longrightarrow r\leq p + \dfrac{v_p-u_p}{a}.
\end{array}

Mais il existe un entier supérieur à $p + 1 + \dfrac{v_p-u_p}{a}.$ Contradiction.

Par l’absurde, vous venez de montrer que $A$ est majorée.

La partie $A$ est incluse dans $\N$, elle est non vide et majorée.
Notez $q$ son plus grand élément. Vous savez que $q\in A$ :

  • $q\geq p+1$,
  • la suite $(u_n)_{p\leq n\leq q }$ est arithmétique de raison $a$,
  • la suite $(v_n)_{p\leq n\leq q}$ est stationnaire,
  • $\forall n\in\N, p\leq n\leq q-1 \Longrightarrow u_n\leq v_n.$

Supposez que $u_q \leq v_q$.

Alors $u_{q+1}=u_q + a$ donc la suite $(u_n)_{p\leq n\leq q+1}$ est arithmétique de raison $a$.

$v_{q+1}=v_q$ donc la suite $(v_n)_{p\leq n \leq q+1}$ est stationnaire.

D’autre part, $\forall n\in\N, p\leq n\leq q \Longrightarrow u_n\leq v_n$.

Donc $q+1\in A$. Contradiction, $q$ étant le plus grand élément de $A$.

Par l’absurde, vous venez de justifier que $u_q>v_q.$

Cela achève la démonstration.

Comportement 2 : si $p$ est un rang tel que $u_p> v_p\dots$ qu’advient-il ?

La situation s’inverse à nouveau, il existe un rang $q>p$ de sorte que les suites se comportent comme suit :

  • la suite $(u_n)_{p\leq n\leq q }$ est stationnaire,
  • la suite $(v_n)_{p\leq n\leq q}$ est arithmétique de raison $b$,
  • $\forall n\in\N, p\leq n\leq q-1 \Longrightarrow u_n > v_n$,
  • $u_q\leq v_q$.

Soit $p\in\N$ tel que $u_p> v_p.$

D’après les définitions des deux suites, $u_{p+1} = u_p$ et $v_{p+1}=v_p+b.$

Notez $A$ la partie de $\N$ égale à l’ensemble des entiers naturels $r$ tels que :

  • $r\geq p+1$,
  • la suite $(u_n)_{p\leq n\leq r }$ est stationnaire,
  • la suite $(v_n)_{p\leq n\leq r}$ est arithmétique de raison $b$,
  • $\forall n\in\N, p\leq n\leq r-1 \Longrightarrow u_n > v_n.$

Constatez que $p+1\in A$ donc $A\neq \emptyset.$

Supposez que $A$ n’est pas majorée.

Alors la suite $(u_n)_{p\leq n}$ est stationnaire et la suite $(v_n)_{p\leq n}$ est arithmétique de raison $b$. D’autre part :

\begin{array}{l}
\forall r\in\N, r\geq p \Longrightarrow u_r> v_r\\
\forall r\in\N, r\geq p \Longrightarrow u_p > v_p + (r-p)b\\
\forall r\in\N, r\geq p \Longrightarrow \dfrac{u_p-v_p}{b}+p>r.
\end{array}

Mais il existe un entier supérieur à $p + 1 + \dfrac{u_p-v_p}{b}.$ Contradiction.

Par l’absurde, vous venez de montrer que $A$ est majorée.

La partie $A$ est incluse dans $\N$, elle est non vide et majorée.
Notez $q$ son plus grand élément. Vous savez que $q\in A$ :

  • $q\geq p+1$,
  • la suite $(u_n)_{p\leq n\leq q }$ est stationnaire,
  • la suite $(v_n)_{p\leq n\leq q}$ est arithmétique de raison $b$,
  • $\forall n\in\N, p\leq n\leq q-1 \Longrightarrow u_n> v_n.$

Supposez que $u_q > v_q$.

Alors $u_{q+1}=u_q$ donc la suite $(u_n)_{p\leq n\leq q+1}$ est stationnaire.

$v_{q+1}=v_q+b$ donc la suite $(v_n)_{p\leq n \leq q+1}$ est arithmétique de raison $b$.

D’autre part, $\forall n\in\N, p\leq n\leq q \Longrightarrow u_n> v_n$.

Donc $q+1\in A$. Contradiction, $q$ étant le plus grand élément de $A$.

Par l’absurde, vous venez de justifier que $u_q\leq v_q.$

Cela achève la démonstration.

Etude des multiples de $a$ et de $b$ atteints par les suites

La suite $(u_n)$ est « tantôt stationnaire », sur une certaine plage de rangs, « tantôt arithmétique » de raison $a$, il vous semble « logique » que tous les multiples de $a$ soient atteints par cette suite. Et effectivement, c’est bien le cas. Passez à la démonstration de ce résultat.

Vous allez montrer que $\forall k\in\N, \exists n\in\N, ka =u_n.$

Pour tout $k\in\N$, notez $P(k)$ la propriété : « $\exists n\in\N, ka=u_n $ ».

Initialisation : pour $k=0$, $ka = 0\times a = 0.$ Or $u_0 = 0$ donc $0\times a=u_0$ et $P(0)$ est vérifiée.

Hérédité : soit $k\in\N$, supposez $P(k)$.

Il existe $n\in\N$ tel que $ka = u_n$.

Si $u_n\leq v_n$, alors $u_{n+1} = u_n+a = ka +a= (k+1)a$ et $P(k+1)$ est vérifiée.

Sinon, $u_n > v_n$. D’après le comportement 2, il existe un rang $m>n$ de sorte que :

  • la suite $(u_i)_{n\leq i\leq m }$ est stationnaire,
  • $u_m\leq v_m$.

Comme $u_m \leq v_m$, vous obtenez $u_{m+1} = u_{m} + a = u_n +a = ka+a = (k+1)a$ et $P(k+1)$ est encore vérifiée.

Cela finit la démonstration.

La suite $(v_n)$ possède un comportement similaire. Elle est « tantôt stationnaire », sur une certaine plage de rangs, « tantôt arithmétique » de raison $b$, il vous semble aussi « logique » que tous les multiples de $b$ soient atteints par cette suite. Et effectivement, c’est bien le cas. Passez à la démonstration de ce résultat.

Vous allez montrer que $\forall k\in\N, \exists n\in\N, kb =v_n.$

Pour tout $k\in\N$, notez $P(k)$ la propriété : « $\exists n\in\N, kb=v_n $ ».

Initialisation : pour $k=0$, $kb = 0\times b = 0.$ Or $v_0 = 0$ donc $0\times b=v_0$ et $P(0)$ est vérifiée.

Hérédité : soit $k\in\N$, supposez $P(k)$.

Il existe $n\in\N$ tel que $kb = v_n$.

Si $u_n> v_n$, alors $v_{n+1} = v_n+b = kb+b = (k+1)b$ et $P(k+1)$ est vérifiée.

Sinon, $u_n \leq v_n$. D’après le comportement 1, il existe un rang $m>n$ de sorte que :

  • la suite $(v_i)_{n\leq i\leq m }$ est stationnaire,
  • $u_m> v_m$.

Comme $u_m > v_m$, vous obtenez $v_{m+1} = v_{m} + b = v_n +b = kb+b = (k+1)b$ et $P(k+1)$ est encore vérifiée.

Cela finit la démonstration.

Le PPCM est atteint par les deux suites au même moment

Notez $\delta$ le PPCM des entiers $a$ et $b$. $\delta$ étant un multiple de $a$ et de $b$, il existe $(n,m)\in\N^2$, $\delta = u_n = v_m$.

Vous allez montrer que l’ensemble $\{i\in\N, \delta = u_i=v_i\}$ est non vide.

Cas 1 : $m\leq n$

Par croissance de la suite $(u_i)_{i\in\N}$, $u_m\leq u_n$, donc $u_m \leq v_m$.

D’après le comportement 1, il existe un rang $p>m$ de sorte que :

  • la suite $(u_i)_{m\leq i\leq p }$ est arithmétique de raison $a$,
  • la suite $(v_i)_{m\leq i\leq p}$ est stationnaire avec $\delta$ pour valeur,
  • $\forall n\in\N, m\leq i\leq p-1 \Longrightarrow u_i\leq v_i \leq \delta$,
  • $u_p>v_p\geq v_m\geq \delta$.

Si vous aviez $n\geq p$, par croissance de la suite $(u_i)_{i\in\N}$, $\delta \geq u_n\geq u_p>\delta$, contradiction.

Donc $m\leq n \leq p-1.$ Aussitôt : $\delta\leq u_n \leq v_n \leq \delta.$ Donc $\delta = v_n = u_n$.

Cas 2 : $n\leq m$

Par croissance de la suite $(v_i)_{i\in\N}$, $v_n\leq v_m \leq \delta \leq u_n$, donc $u_n \geq v_n$. Si $u_n=v_n$, alors $\delta = u_n=v_n$ et c’est terminé.

Supposez $u_n>v_n$.

D’après le comportement 2, il existe un rang $p>n$ de sorte que :

  • la suite $(u_i)_{n\leq i\leq p }$ est stationnaire de valeur $\delta$,
  • la suite $(v_i)_{n\leq i\leq p}$ est arithmétique de raison $b$,
  • $\forall i\in\N, n\leq i\leq p-1 \Longrightarrow \delta \geq u_i > v_i$,
  • $\delta \leq u_n \leq u_p\leq v_p$.

Si vous aviez $m\leq p-1$ alors $n\leq m \leq p-1$ et donc $\delta > v_m \geq \delta$, contradiction.

Donc $m\geq p$, donc $\delta \leq u_n \leq u_p \leq v_p \leq v_m \leq \delta$ aussitôt $\delta = v_p = u_p.$

Le plus petit rang non nul pour lequel les suites sont égales correspond au PPCM

D’après ce qui précède, il existe $n\in\N$, $\delta = u_n = v_n$. Or, $\delta\neq 0$, donc $n\neq 0$. L’ensemble $\{i\in\NN, u_i=v_i\}$ est une partie non vide de $\N$. Notez $s$ son minimum.

Vous voulez comprendre pourquoi $u_s = v_s = \delta$…

Premièrement, vous savez d’après ce qui précède qu’il existe un entier $p\in\N$ tel que $\delta = u_p = v_p.$ Par minimalité de $s$, vous avez $s\leq p$ et par croissance des suites $u$ et $v$ : $u_s\leq u_p \leq \delta$ et $ v_s \leq v_p \leq \delta$.

Ensuite, $u_s$ est un terme de la suite $(u_n)$ donc c’est un multiple de $a$, de même pour $v_s$ qui est un terme de la suite $(v_n)$ qui est un multiple de $b$. Comme $u_s = v_s$ vous en déduisez que $u_s$ est un multiple de $a$ et de $b$. Par définition du PPCM, $\delta \leq u_s$ et $\delta \leq v_s$.

Aussitôt $\delta \leq u_s\leq u_p \leq \delta$ et $\delta \leq v_s \leq v_p \leq \delta$ ce qui fournit le résultat.

073. Divergence de la série harmonique

Pour tout $n\in\N^{*}$ considérez la suite définie par $u_n=\displaystyle\sum_{k=1}^{n}\dfrac{1}{k}$.

Cette suite est à termes positifs et $\forall n\in\N^{*}, u_{n+1}-u_n = \dfrac{1}{n+1}$ est positif.

La suite $(u_n)_{n\geq 1}$ est croissante. Soit elle converge vers un réel, soit elle diverge vers $+\infty$.

Raisonnez par l’absurde

Supposez qu’il existe un nombre réel $\ell$ tel que $\displaystyle\lim_{n\to +\infty} u_n = \ell $.
Vous voulez arriver à une impossibilité.

Définissez des notations utiles

Notez $2\N$ l’ensemble des entiers naturels pairs et $2\N+1$ l’ensemble des entiers naturels impairs.

Pour tout réel $x$, notez $[x]$ le plus grand entier inférieur ou égal à $x$, appelé aussi partie entière de $x$.

Séparez les termes pairs des termes impairs

Soit $n$ un entier naturel supérieur ou égal à $3$.

\begin{aligned}
u_{n} &= \sum_{k=1}^{n} \dfrac{1}{k} \\
&= \sum_{k\in[1,n]\cap 2\N} \dfrac{1}{k} + \sum_{k\in[1,n]\cap (2\N+1)} \dfrac{1}{k} \\
&= \sum_{p=1}^{\left[\frac{n}{2}\right]} \dfrac{1}{2p}+ \sum_{p=0}^{\left[\frac{n-1}{2}\right]} \dfrac{1}{2p+1} \\
&=\dfrac{1}{2} \sum_{p=1}^{\left[\frac{n}{2}\right]} \dfrac{1}{p}+ \sum_{p=0}^{\left[\frac{n-1}{2}\right]} \dfrac{1}{2p+1} \\
\end{aligned}

Aussitôt : $\displaystyle\sum_{p=0}^{\left[\frac{n-1}{2}\right]} \dfrac{1}{2p+1} = u_n – \dfrac{1}{2} u_{\left[\frac{n}{2}\right]}.$

Effectuez une soustraction à partir de la relation précédente

Soit $n$ un entier naturel supérieur ou égal à $3$.

Vous allez effectuer une soustraction en majorant le dénominateur $2p+1$ par $2p+2$. Vous faites apparaître une nouvelle somme grâce à la relation :$ \forall p\in\N, \dfrac{1}{2p+1} – \dfrac{1}{2p+2} = \dfrac{1}{(2p+1)(2p+2)}. $

\begin{aligned}
\displaystyle\sum_{p=0}^{\left[\frac{n-1}{2}\right]} \dfrac{1}{2p+1} -\sum_{p=0}^{\left[\frac{n-1}{2}\right]} \dfrac{1}{2p+2} &= u_n – \dfrac{1}{2} u_{\left[\frac{n}{2}\right]}-\sum_{p=0}^{\left[\frac{n-1}{2}\right]} \dfrac{1}{2p+2}\\
&= u_n – \dfrac{1}{2} u_{\left[\frac{n}{2}\right]}-\dfrac{1}{2}\sum_{p=0}^{\left[\frac{n-1}{2}\right]} \dfrac{1}{p+1}\\
&= u_n – \dfrac{1}{2} u_{\left[\frac{n}{2}\right]}-\dfrac{1}{2}\sum_{p=1}^{\left[\frac{n-1}{2}\right]+1} \dfrac{1}{p}\\
&= u_n – \dfrac{1}{2} u_{\left[\frac{n}{2}\right]}-\dfrac{1}{2}\sum_{p=1}^{\left[\frac{n+1}{2}\right]} \dfrac{1}{p}\\
&= u_n – \dfrac{1}{2} u_{\left[\frac{n}{2}\right]}-\dfrac{1}{2}u_{\left[\frac{n+1}{2}\right]}.\\
\end{aligned}

Aussitôt : $\displaystyle\sum_{p=0}^{\left[\frac{n-1}{2}\right]} \dfrac{1}{(2p+1)(2p+2)}= u_n – \dfrac{1}{2} u_{\left[\frac{n}{2}\right]}-\dfrac{1}{2}u_{\left[\frac{n+1}{2}\right]}.$

Vous avez dans le terme de gauche une somme de termes strictement positifs. Vous la minorez par son premier terme lorsque $p=0$ :

$\forall n\geq 3, \dfrac{1}{2}\leq u_n – \dfrac{1}{2} u_{\left[\frac{n}{2}\right]}-\dfrac{1}{2}u_{\left[\frac{n+1}{2}\right]}.$

Passez à la limite

Pour tout entier naturel $n$, $\left[\frac{n+1}{2}\right] > \frac{n+1}{2} -1$ et $\left[\frac{n}{2}\right] > \frac{n}{2} -1$.

Aussitôt, quand $n\to +\infty$, $\left[\frac{n+1}{2}\right]\to +\infty$ et $\left[\frac{n}{2}\right]\to +\infty.$

Et l’impossibilité apparaît

Par passage à la limite dans la relation : $\forall n\geq 3, \dfrac{1}{2}\leq u_n – \dfrac{1}{2} u_{\left[\frac{n}{2}\right]}-\dfrac{1}{2}u_{\left[\frac{n+1}{2}\right]}$

vous en déduisez que :
\begin{aligned}
\dfrac{1}{2}&\leq \ell – \dfrac{1}{2}\ell – \dfrac{1}{2}\ell\\
\dfrac{1}{2}&\leq 0.
\end{aligned}

Contradiction.

Conclusion

La série harmonique diverge vers $+\infty$.

$\lim_{n\to+\infty}\sum_{k=1}^{n}\dfrac{1}{k} = +\infty.$

072. Polynôme minimal d’un élément algébrique

Soit $\K$ un corps quelconque et $\L$ un corps contenant $\K$.

Supposez que $\alpha$ est un élément algébrique sur $\K$, i.e. il existe un polynôme $P$ non nul de $\K[X]$ tel que $P(\alpha)=0.$

Remarquez déjà que $P$ est de degré supérieur à égal à $1$. Si tel n’était pas le cas, $P$ serait constant et non nul et l’égalité $P(\alpha)=0$ forcerait la valeur de cette constante à $0$ et donc $P$ serait nul, ce qui constitue une contradiction.

Vers un polynôme irréductible

Vous savez que dans $\R[X]$, tout comme dans $\C[X]$ les polynômes s’écrivent tous comme produits de polynômes irréductibles.

Pour le corps $\K$, rappelez-vous ce que signifie la notion de « polynôme irréductible ». La définition est analogue à celle des nombres premiers.

Par exemple, $1$ n’est pas un nombre premier pour assurer l’unicité de la décomposition d’un entier $n\geq 2$ comme produit de nombres premiers. Pour les polynômes, on effectue l’analogie et on définit les polynômes constants comme n’étant pas irréductibles. Ces remarques conduisent à la définition suivante.

Un polynôme $A\in \K[X]$ est dit irréductible sur $\K$, si et seulement si les deux conditions suivantes sont satisfaites :
$A$ est de degré supérieur ou égal à 1,
$\forall B \in \K[X]$, $ B$ divise $A \Rightarrow (\exists \lambda\in \K^{*}, A = \lambda$ ou $B=\lambda A)$.

La dernière condition peut être remplacée par : « les seuls polynômes qui divisent $A$ sont les polynômes constants et les polynômes associés à $A$« .

Vous voulez montrer maintenant qu’il existe un et un seul polynôme unitaire et irréductible $A\in \K[X]$ tel que $A(\alpha)=0$. Cela sera montré en deux étapes.

Existence d’un polynôme unitaire et irréductible sur $\K$ qui annule $\alpha$

Parmi tous les polynômes unitaires de $\K[X]$ qui annulent $\alpha$, vous allez considérer « les plus petits », c’est-à-dire ceux qui ont un degré minimal. Cela conduit à considérer l’ensemble suivant.
$E = \{ n\in \N^{*}, \exists Q\in\K[X], Q\text{ est unitaire, de degré }n, \text{ tel que }Q(\alpha)=0.\}$

Soit $c\neq 0$ le coefficient dominant du polynôme $P$. Considérez $P_0 = \dfrac{1}{c} P$.
Il s’ensuit que $\mathrm{deg} P_0 \in E $ vu que $P_0$ est unitaire de même degré que $P$ et annulant $\alpha$.

L’ensemble $E$ est non vide. Comme $E\subset \N^{*}$ notons $m\geq 1$ le plus petit élément de $E$. Il existe ainsi un polynôme $Q\in\K[X]$ unitaire, de degré $m\geq 1$, tel que $Q(\alpha)=0$. Il reste à montrer que $Q$ est irréductible sur $\K$.

Vous allez y parvenir grâce à ce lemme : si $B$ est un diviseur de $Q$ dans $\K[X]$ tel que $B(\alpha)=0$, alors $B$ et $Q$ sont associés.

Preuve du lemme. Soit $B$ un diviseur de $Q$ dans $\K[X]$ tel que $B(\alpha)=0$. Il existe $C\in\K[X]$ tel que $Q(X)=B(X)C(X)$.

Si $B$ était constant, on aurait $B(X)=B(\alpha)=0$ et $Q=BC=0$, contradiction. Donc $B$ n’est pas constant. Notez $b\neq 0$ le coefficient dominant de $B$ et considérez $B_0 = \dfrac{1}{b}B$.

Comme $\mathrm{deg} B_0 = \mathrm{deg} B$ vous constatez que $B_0$ est unitaire, annule $\alpha$ et a un degré supérieur ou égal à $1$. Donc $\mathrm{deg} B_0\in E$.
Il s’ensuit que, par minimalité de $m$, $m\leq \mathrm{deg} B_0 \leq \mathrm{deg} B$. Comme $B$ divise $Q$, $\mathrm{deg} B \leq m$ donc $\mathrm{deg} B = m$. $Q$ et $B$ ayant le même degré, $C(X)$ est constant. Cette constante est non nulle sinon $Q$ serait nul. Par conséquent, il existe $\mu \in \K^{*}$ tel que $C(X)=\mu$ et vous obtenez $B(X)=\dfrac{1}{\mu}Q(X)$. Le lemme est démontré.

Maintenant, vous avez tous les outils pour montrer que $Q$ est irréductible sur $\K$.

Remarquez que $Q$ est de degré supérieur ou égal à 1.
Notez $B\in \K[X]$ un diviseur de $Q$. Il existe un polynôme $C\in\K[X]$ tel que $Q=BC$.
Supposez que $B(\alpha)=0$. Par application du lemme à $B$, $B$ est associé à $Q$.
Supposez maintenant que $B(\alpha)\neq 0$. Posez $\lambda = B(\alpha) $, $\lambda\in\K^{*}$. Comme $Q(\alpha)=0=B(\alpha)C(\alpha)$, par intégrité du corps $\K$, vous avez $C(\alpha)=0$. Comme $C$ est un diviseur de $Q$ dans $\K[X]$, par application du lemme à $C$, $C$ et $Q$ sont associés. Ils ont le même degré. Aussitôt, $B$ est constant, donc $B(X)=\lambda$.

Unicité du polynôme unitaire et irréductible sur $\K$ qui annule $\alpha$

Soient $R$ et $S$ deux polynômes unitaires et irréductibles sur $\K$ tels que $R(\alpha)=S(\beta)=0.$

Notez $T$ le PGCD des deux polynômes $R$ et $S$. Ce PGCD est le polynôme unitaire de plus haut degré divisant à la fois $R$ et $S$. Par l’algorithme d’Euclide, vous savez que $T\in\K[X]$.
Supposez que $T$ est constant. D’après la relation de Bézout, il existe $U$ et $V$, deux polynômes à coefficients dans $K$, tels que $T(X)= U(X)R(X)+V(X)S(X)$. Alors $T(\alpha) = U(\alpha)\times 0 + V(\alpha)\times 0 = 0.$ Donc $T(X)=T(\alpha)=0$. Comme $R$ est un multiple de $T$, c’est que $R=0$. Contradiction avec $\mathrm{deg}R \geq 1.$

Donc $T$ n’est pas constant. $\mathrm{deg} T \geq 1.$ Comme $T$ est un diviseur de $R$ qui est irréductible sur $\K$, $T$ est associé à $R$. Comme $T$ et $R$ sont unitaires, $T=R$. De même, comme $T$ est un diviseur de $S$ qui est irréductible sur $\K$, $T$ et $S$ sont associés. Ils sont unitaires donc $T=S$.

Finalement $R=T=S$.

Quels sont les polynômes de $\K[X]$ qui annulent $\alpha$ ?

Soit $A$ un polynôme de $\K[X]$ qui annule $\alpha$. Notez $\Pi$ l’unique polynôme unitaire et irréductible sur $\K$ qui annule aussi $\alpha$.

Notez $B$ le PGCD des polynômes $\Pi$ et $A$. Alors $B\in\K[X]$. Il existe deux polynômes de Bézout $U$ et $V$ de $\K[X]$ tels que $B = UA+V\Pi$. En substituant $\alpha$, vous trouvez $B(\alpha)=0$.
Or, $B$ divise $\Pi$ qui est irréductible. Si $B$ est constant alors il est identiquement nul, donc $\Pi$ est nul, contradiction. Donc $B$ n’est pas constant. Il est donc associé à $\Pi$. Comme $B$ divise $A$ et que $B$ et $\Pi$ sont associés, aussitôt $\Pi$ divise $A$.

L’ensemble des multiples de $\Pi$ dans $\K[X]$ est l’ensemble des polynômes de $\K[X]$ qui annulent $\alpha$. C’est pour cette raison que le polynôme $\Pi$ est aussi appelé « polynôme minimal » de $\alpha$.

Que peut-on dire d’un polynôme de $\K[X]$ qui n’annule pas $\alpha$ ?


Soit $Q$ un polynôme à coefficients dans $\K$ tel que $Q(\alpha)\neq 0$. Vous pourrez former l’inverse $\dfrac{1}{Q(\alpha)}$ et l’exprimer comme un polynôme en $\alpha$.

C’est ainsi qu’il est possible d’écrire une expression de la forme $\dfrac{1}{\sqrt{2}+\sqrt{3}+\sqrt{5}}$ sans racine carrée au dénominateur…

Reprenez le polynôme $Q$ et diminuez son degré en le divisant par le polynôme minimal $\Pi$.

De l’algorithme d’Euclide, vous déduisez l’existence de deux polynômes $A$ et $B$ à coefficients dans $\K$ tels que $Q=A\Pi+B$ avec la condition de degré $\mathrm{deg} B < \mathrm{deg} \Pi.$

En substituant $\alpha$ vous trouvez $Q(\alpha) = B(\alpha)$. Il reste à montrer que $\dfrac{1}{B(\alpha)}$ s’exprime comme un polynôme en $\alpha$.

Considérez les coefficients de Bézout dans le calcul du PGCD de $\Pi$ et de $B$ noté $R$. Comme $\mathrm{deg}R \leq \mathrm{deg}B < \mathrm{deg} \Pi$, $R$ ne peut être associé à $\Pi$. Comme $\Pi$ est irréductible, $R$ est une constante non nulle. Donc il existe $\lambda\in\K^{*}$ et deux polynômes $U$ et $V$ à coefficients dans $\K$ tels que $\lambda = U\Pi + VB.$ En substituant $\alpha$, vous trouvez $\lambda = V(\alpha)B(\alpha)$ aussitôt $\dfrac{1}{Q(\alpha)} = \dfrac{1}{B(\alpha)}=\dfrac{V(\alpha)}{\lambda}.$

067. Quelle est la différence entre une fonction et une application ?

La différence est subtile…

Soient $E$ et $F$ deux ensembles. On rappelle que le produit cartésien $E\times F$ de ces deux ensembles est défini par un ensemble de couples, c’est-à-dire : $E\times F = \{(x,y)  , x\in E, y\in F\}$. 

Définition d’une application

Une application $f$ de $E$ dans $F$ est un sous-ensemble de $E\times F$ tel que, pour tout $x\in E$, il existe un unique $y\in F$ tel que $(x,y)\in f$. L’unicité permet de donner le nom $f(x)$ à ce seul $y$ pour $x$. 

Définition d’une fonction

Une fonction $f$ de $E$ dans $F$ est une sous-ensemble de  $E\times F$ tel que, pour tout $x\in E$, il existe au plus un  $y\in F$ tel que  $(x,y)\in f$.

Remarques

Une fonction de $E$ dans $F$ est une application d’une partie $E’$ de $E$ dans $F$.

Exemples

$f: \mathbb{R}\to \mathbb{R}$ définie par $f(x) = \sqrt{x}$ est une fonction.
$g: \mathbb{R}_{+}\to \mathbb{R}$ définie par $g(x) = \sqrt{x}$ est une application.