Votre navigateur n'accepte pas le Javascript.La navigation sur ce site risque de ne pas fonctionner correctement.

198. Une norme vérifiant la propriété du parallélogramme est issue d’un produit scalaire (théorème de Fréchet-Von Neumann)

Soit $E$ un $\R$-espace vectoriel muni d’une application $\lVert \cdot \rVert: E \to \R_{+}$ vérifiant les propriétés suivantes :

\begin{aligned} \begin{array}{lr}
\forall (x,y)\in E^2, \lVert x+y \rVert \leq \lVert x \rVert + \lVert y \rVert & \text{(inégalité triangulaire)}\\
\forall \lambda\in\R, \forall x\in E, \lVert \lambda x \rVert = \lvert \lambda \rvert \lVert x \rVert & \text{(homogénéité)}\\
\forall x\in E, \lVert x \rVert = 0 \implies x = 0 &\text{(séparabilité)}\\
\forall (x,y)\in E^2, \lVert x+y \rVert^2 + \lVert x- y \rVert^2 = 2 \lVert x \rVert^2 + 2 \lVert y \rVert^2.&\text{(propriété du parallélogramme)}
\end{array}\end{aligned}

Les trois premières propriétés permettent d’écrire que $E$ est un espace vectoriel normé.

La dernière propriété, dite du parallélogramme, va vous permettre de démontrer le résultat difficile suivant : la norme $\lVert \cdot \rVert: E \to \R_{+}$ provient d’un produit scalaire.

Autrement dit, il existe une application : $\langle \cdot, \cdot \rangle: E^2\to \R$ vérifiant toutes les propriétés suivantes :

\begin{aligned} \begin{array}{lr}
\forall (x,y)\in E^2, \langle x,y\rangle= \langle y,x\rangle & \text{(symétrie)}\\
\forall (\lambda, \mu)\in\R^2, \forall (x,y,z)\in E^3, \langle\lambda x + \mu y, z\rangle = \lambda \langle x,z\rangle+\mu \langle y,z\rangle & \text{(linéarité à gauche)}\\
\forall (\lambda, \mu)\in\R^2, \forall (x,y,z)\in E^3, \langle x, \lambda y + \mu z \rangle = \lambda \langle x,y \rangle+\mu \langle x,z \rangle & \text{(linéarité à droite)}\\
\forall x\in E, \langle x,x \rangle=0 \Longleftrightarrow x=0 & \text{(caractère défini)}\\
\forall x\in E, \langle x,x \rangle \geq 0 & \text{(positivité)}\\
\forall x\in E, \lVert x \rVert^2 = \langle x,x \rangle. & \text{(lien avec la norme)}\\
\end{array}\end{aligned}

Analyse du problème : déterminez une expression valable pour le produit scalaire

Supposez un instant que la norme provient d’un produit scalaire noté $\langle \cdot, \cdot \rangle: E^2\to \R.$

Soit $(x,y)\in E^2.$ Utilisez la linéarité à gauche et à droite, ainsi que la symétrie :

\begin{aligned}
\lVert x+y \rVert^2 &= \langle x+y,x+y \rangle \\
&= \langle x,x \rangle + \langle x,y \rangle + \langle y,x \rangle + \langle y,y \rangle \\
&= \lVert x\rVert^2 + \lVert y \rVert^2 + 2\langle x,y \rangle.
\end{aligned}

Effectuez maintenant le calcul similaire suivant :

\begin{aligned}
\lVert x-y \rVert^2 &= \langle x-y,x-y \rangle \\
&= \langle x,x \rangle – \langle x,y \rangle – \langle y,x \rangle + \langle y,y \rangle \\
&= \lVert x\rVert^2 + \lVert y \rVert^2 – 2\langle x,y \rangle.
\end{aligned}

Par soustraction, il vient $ \lVert x+y \rVert^2 – \lVert x- y \rVert^2 = 4 \langle x,y \rangle.$

Ainsi il est établi que, si la norme provient d’un produit scalaire, ce dernier est nécessairement unique, et il est défini par :

$\boxed{\forall (x,y)\in E^2, \langle x,y \rangle = \frac{\lVert x+y \rVert^2 – \lVert x- y \rVert^2}{4}.}$

Note : cette identité, fondamentale, est appelée « identité de polarisation ».

Définissez une application à partir de l’identité de polarisation

Fort du résultat établi plus haut, vous définissez l’application suivante $\langle \cdot, \cdot \rangle: E^2\to \R$ en posant :

$\forall (x,y)\in E^2, \langle x,y \rangle = \frac{\lVert x+y \rVert^2 – \lVert x- y \rVert^2}{4}.$

Il reste à comprendre pourquoi cette application est bien un produit scalaire.

Montrez les premières propriétés

La norme est invariante par passage à l’opposé

Soit $u\in E$, vous avez :

\begin{aligned}
\lVert -u \rVert &= \lVert (-1)\cdot u \rVert \\
\lvert -1 \rvert \lVert u \rVert\\
&= 1 \lVert u \rVert\\
&= \lVert u \rVert.
\end{aligned}

Vous déduisez :

$\boxed{\forall u\in E, \lVert -u \rVert = \lVert u \rVert.}$

La norme vérifie l’inégalité triangulaire renversée

Soit $(x,y)\in E^2.$

D’après l’inégalité triangulaire :

\begin{aligned}
\lVert y + (x-y) \rVert &\leq \lVert y \rVert + \lVert x-y \rVert \\
\lVert x \rVert &\leq \lVert y \rVert + \lVert x-y \rVert \\
\lVert x \rVert – \lVert y \rVert &\leq \lVert x-y \rVert\\
\end{aligned}

En échangeant les rôles de $x$ et de $y$ et en utilisant l’invariance de la norme par passage à l’opposé :

\begin{aligned}
\lVert x + (y-x) \rVert &\leq \lVert x \rVert + \lVert y-x \rVert \\
\lVert y \rVert &\leq \lVert x \rVert + \lVert y-x \rVert \\
\lVert y \rVert – \lVert x \rVert &\leq \lVert y-x \rVert\\
\lVert x \rVert – \lVert y \rVert &\leq \lVert x-y \rVert\\
\end{aligned}

Comme $\left\lvert \lVert x \rVert – \lVert y \rVert \right\rvert = \mathrm{Max}\left(\lVert y \rVert – \lVert x \rVert, \lVert x \rVert – \lVert y \rVert\right)$ vous déduisez :

$\left\lvert \lVert x \rVert – \lVert y \rVert \right\rvert \leq \lVert x-y \rVert.$

En définitive :

$\boxed{\forall (x,y)\in E^2, \left\lvert \lVert x \rVert – \lVert y \rVert \right\rvert \leq \lVert x-y \rVert.}$

Une somme toujours nulle

Soit $(x,y)\in E^2.$ Utilisant le fait que la norme est invariante par passage à l’opposé :

\begin{aligned}
\langle x,y \rangle + \langle -x,y \rangle &= \frac{\lVert x+y \rVert^2 – \lVert x-y \rVert^2}{4}+ \frac{\lVert -x+y \rVert^2- \lVert -x-y \rVert^2}{4}\\
&= \frac{\lVert x+y \rVert^2- \lVert x-y \rVert^2+\lVert -x+y \rVert^2 -\lVert -x-y \rVert^2 }{4}\\
&= \frac{\lVert x+y \rVert^2- \lVert x-y \rVert^2+\lVert x-y \rVert^2 -\lVert x+y \rVert^2 }{4}\\
&=0.
\end{aligned}

Du coup :

$\boxed{\forall (x,y)\in E^2, \langle x,y \rangle + \langle -x,y \rangle = 0. }$

Justifiez la symétrie

Soit $(x,y)\in E^2.$ Utilisez encore le fait que $\forall u\in E, \lVert -u \rVert = \lVert u \rVert.$

\begin{aligned}
\langle x,y \rangle &= \frac{\lVert x+y \rVert^2 – \lVert x-y \rVert^2}{4} \\
&= \frac{\lVert y+x \rVert^2 – \lVert y-x \rVert^2}{4}\\
&=\langle y,x \rangle.
\end{aligned}

Vous déduisez :

$\boxed{\forall (x,y)\in E^2, \langle x,y \rangle =\langle y,x \rangle.}$

Montrez le lien avec la norme et le caractère positif

Soit $x\in E.$

Alors il vient, en utilisant les propriétés d’homogénéité :

\begin{aligned}
\langle x,x \rangle &= \frac{\lVert x+x \rVert^2 – \lVert x-x \rVert^2}{4} \\
&= \frac{\lVert 2x \rVert^2 – \lVert 0 \rVert^2}{4}\\
&= \frac{(2\lVert x \rVert)^2 – \lVert 0\cdot 0 \rVert^2}{4}\\
&= \frac{4\lVert x \rVert^2 – (0\times \lVert 0 \rVert)^2}{4}\\
&= \frac{4 \lVert x \rVert^2 }{4}\\
&= \lVert x \rVert^2.\\
\end{aligned}

La norme de $x$ étant un réel positif, son carré l’est aussi, par suite :

$\boxed{\forall x\in E, \langle x,x \rangle \geq 0.}$

Montrez le caractère défini

Soit $x\in E$ tel que $\langle x,x \rangle = 0.$

Utilisant la propriété de séparation :

\begin{aligned}
\langle x,x \rangle &= 0 \\
\lVert x \rVert^2 &= 0\\
\lVert x \rVert &= 0\\
x &=0.
\end{aligned}

Par suite :

$\boxed{\forall x\in E, \langle x,x \rangle = 0 \implies x=0.}$

Réciproquement, si $x=0$, alors :

\begin{aligned}
\langle x,x \rangle &= \frac{\lVert 0+0 \rVert^2 – \lVert 0-0 \rVert^2}{4}\\
&= \frac{\lVert 0 \rVert^2 – \lVert 0 \rVert^2}{4}\\
&= 0.
\end{aligned}

Ainsi :

$\boxed{\forall x\in E, x=0 \implies \langle x,x \rangle = 0.}$

Démontrez le caractère additif

Le but de cette section est de démontrer que :

$\forall (x,y,z)\in E^3, \langle x+y,z \rangle = \langle x,z \rangle+ \langle y,z \rangle.$

Soit $(x,y,z)\in E^3$ un triplet de trois vecteurs de $E.$

Note : pour une démonstration plus robuste et plus élégante, vous êtes invité à aller dans l'article 200.

Par définition, vous avez $\langle x+y,z \rangle = \frac{\lVert x+y+z \rVert^2- \lVert x+y -z\rVert^2}{4}.$

D’autre part, via l’identité du parallélogramme, vous avez :

$\lVert x+(y+z) \rVert^2 + \lVert x- (y+z) \rVert^2 = 2 \lVert x \rVert^2 + 2 \lVert y+z \rVert^2$

donc :

$\lVert x+y+z \rVert^2 = 2 \lVert x \rVert^2 + 2 \lVert y+z \rVert^2 – \lVert x- y-z \rVert^2.$

D’autre part, toujours avec l’identité du parallélogramme, vous avez aussi :

$\lVert x+(y-z) \rVert^2 + \lVert x- (y-z) \rVert^2 = 2 \lVert x \rVert^2 + 2 \lVert y-z \rVert^2$

donc :

$\lVert x+y-z \rVert^2 = 2 \lVert x \rVert^2 + 2 \lVert y-z \rVert^2 – \lVert x- y+z \rVert^2.$

Mis bout à bout, vous déduisez :

\begin{aligned}
\langle x+y,z \rangle &= \frac{\lVert x+y+z \rVert^2- \lVert x+y -z\rVert^2}{4}\\
&= \frac{2 \lVert x \rVert^2 + 2 \lVert y+z \rVert^2 – \lVert x- y-z \rVert^2 – 2 \lVert x \rVert^2 – 2 \lVert y-z \rVert^2 + \lVert x- y+z \rVert^2}{4}\\
&= \frac{ 2 \lVert y+z \rVert^2 – 2 \lVert y-z \rVert^2 + \lVert x- y+z \rVert^2 – \lVert x- y-z \rVert^2 }{4}\\
&= 2 \times \frac{ \lVert y+z \rVert^2 – \lVert y-z \rVert^2 }{4} + \frac{\lVert x- y-z \rVert^2 – \lVert x- y-z\rVert^2 }{4}\\
&= 2 \langle y,z \rangle + \langle x-y,z \rangle.
\end{aligned}

Vous avez ainsi prouvé que :

$\forall (x,y,z)\in E^3, \langle x+y,z \rangle = 2 \langle y,z \rangle + \langle x-y,z \rangle.$

Vous n’êtes pas très loin du but recherché…

Fixez maintenant $(x,y,z)\in E^3$ et utilisez le résultat ci-dessus en échangeant les rôles de $x$ et de $y$, vous obtenez alors :

$\langle y+x,z \rangle = 2 \langle x,z \rangle + \langle y-x,z \rangle.$

Or, vous avez toujours :

$\langle x+y,z \rangle = 2 \langle y,z \rangle + \langle x-y,z \rangle.$

Comme $x+y=y+x$, par somme, il vient :

$2\langle x+y,z \rangle = 2 \langle x,z \rangle +2 \langle y,z \rangle + \langle y-x,z \rangle + \langle x-y,z \rangle.$

Pour les deux derniers termes obtenus, vous utilisez la propriété de la somme nulle, démontrée plus haut, qui stipule :

$\forall (u,v)\in E^2, \langle u,v \rangle + \langle -u,v \rangle =0.$

En choisissant $u = y-x$ il vient $-u = x-y$ et $v=z$, vous obtenez :

$ \langle y-x,z \rangle + \langle x-y,z \rangle = 0.$

Donc :

$2\langle x+y,z \rangle = 2 \langle x,z \rangle +2 \langle y,z \rangle.$

Après division par $2$, il vient le résultat annoncé, à savoir :

$\boxed{\forall (x,y,z)\in E^3, \langle x+y,z \rangle = \langle x,z \rangle+ \langle y,z \rangle.}$

Démontrez l’homogénéité à gauche

Le but de cette section est de démontrer que :

$\forall \lambda\in \R, \forall (x,y)\in E^2, \langle \lambda x,y \rangle = \lambda \langle x,y \rangle.$

Démontrer cette propriété directement est chose difficile. Aussi, vous allez y aller étape par étape.

Démontrez que que $\forall n \in \N, \forall (x,y)\in E^2, \langle n x,y \rangle =n\langle x,y \rangle$

Pour tout entier naturel $n$, notez $P(n)$ la propriété : « $\forall (x,y)\in E^2, \langle n x,y \rangle =n\langle x,y \rangle.$ »

Initialisation. Soit $(x,y)\in E^2.$

\begin{aligned}
\langle 0 x,y \rangle &= \langle 0 ,y \rangle \\
&= \frac{\lVert 0+y \rVert^2 – \lVert 0-y \rVert^2}{4}\\
&= \frac{\lVert y \rVert^2 – \lVert -y \rVert^2}{4}\\
&= \frac{\lVert y \rVert^2 – \lVert y \rVert^2}{4}\\
&=0.
\end{aligned}

D’autre part, $0 \langle x,y \rangle = 0$ il vient donc $\langle 0 x,y \rangle = 0 \langle x,y \rangle$ et $P(0)$ est vraie.

Hérédité. Soit $n$ un entier naturel tel que $P(n)$ soit vérifiée.

Soit $(x,y)\in E^2.$

\begin{aligned}
\langle (n+1) x,y \rangle &= \langle n x +x ,y \rangle \\
&= \langle n x,y \rangle + \langle x,y \rangle \quad \text{(par additivité)}\\
&= n\langle x,y \rangle + \langle x,y \rangle \quad \text{(puisque }P(n)\text{ est vérifiée)}\\
&= (n+1) \langle x,y \rangle.
\end{aligned}

Donc $P(n+1)$ est vérifiée.

Par récurrence sur $n$, il est maintenant établi que :

$\forall n\in \N, \forall (x,y)\in E^2, \langle n x,y \rangle =n\langle x,y \rangle.$

Démontrez que que $\forall p \in \Z, \forall (x,y)\in E^2, \langle p x,y \rangle =p\langle x,y \rangle$

Soit $p$ un entier naturel négatif et soit $(x,y)\in E^2.$

Utilisant la propriété de la somme nulle il vient :

\begin{aligned}
\langle p x,y \rangle &= – \langle (-p) x,y \rangle\\
&= – (-p) \langle x,y \rangle \quad \text{(vu que }-p\in\N\text{)}\\
&= p \langle x,y \rangle.
\end{aligned}

Vous déduisez :

$\forall p \in \Z_{-}, \forall (x,y)\in E^2, \langle p x,y \rangle =p\langle x,y \rangle.$

Or d’après le paragraphe précédent :

$\forall p \in \Z_{+}, \forall (x,y)\in E^2, \langle p x,y \rangle =p\langle x,y \rangle.$

Vous en déduisez :

$\forall p \in \Z, \forall (x,y)\in E^2, \langle p x,y \rangle =p\langle x,y \rangle.$

Démontrez que que $\forall q \in \Q, \forall (x,y)\in E^2, \langle q x,y \rangle =q\langle x,y \rangle$

Soit $q\in \Q$ et soit $(x,y)\in E^2.$

Il existe $m\in \Z$ et $n\in\N^{*}$ tels que $q = \frac{m}{n}.$

\begin{aligned}
n \langle q x,y \rangle &= \langle n(q x),y \rangle \quad \text{(puisque }n\in\N\text{)} \\
&=\langle (nq) x,y \rangle\\
&= \langle m x,y \rangle \\
&= m \langle x,y \rangle \quad \text{(puisque }m\in\Z\text{)} \\
&= n q \langle x,y \rangle \quad \text{(puisque }m\in\Z\text{)}.
\end{aligned}

Or $n \neq 0$ donc $\langle q x,y \rangle = q \langle x,y \rangle.$

Vous avez démontré :

$\forall q \in \Q, \forall (x,y)\in E^2, \langle q x,y \rangle =q\langle x,y \rangle.$

Démontrez que que $\forall r \in \R, \forall (x,y)\in E^2, \langle r x,y \rangle =r\langle x,y \rangle$

Note. Cette propriété est démontrée autrement de manière plus courte dans l'article 202 en démontrant au préalable l’inégalité de Cauchy-Schwarz.

Soit $r\in \R$ et $(x,y)\in E^2.$

Pour tout nombre réel $a$, notez $\lfloor a \rfloor$ la partie entière de $a$, c’est-à-dire le grand petit entier inférieur ou égal à $a.$ Par définition de ce nombre, vous avez : $\forall a\in \R, \lfloor a \rfloor \leq a < \lfloor a \rfloor + 1.$

Soit $n$ un entier naturel.

$\lfloor 10^n r \rfloor \leq 10^n r < \lfloor 10^n r \rfloor + 1$ donc en divisant :

$\frac{\lfloor 10^n r \rfloor}{10^n} \leq r < \frac{\lfloor 10^n r \rfloor}{10^n} + \frac{1}{10^n}.$

Il est donc légitime de poser, pour tout entier naturel $n$, $q_n = \frac{\lfloor 10^n r \rfloor}{10^n}.$

Vous avez : $\forall n\in\N, q_n \leq r < q_n + \left(\frac{1}{10}\right)^n.$

Par souci de simplification des notations, pour tout entier naturel $n$, vous notez $t_n = r-q_n.$

Il vient immédiatement $\forall n\in\N, 0\leq t_n \leq \left(\frac{1}{10}\right)^n \leq 1.$

Soit $n\in \N.$ Maintenant vous procédez aux majorations :

\begin{aligned}
\left\lvert \langle r x,y \rangle – r \langle x,y \rangle\right\rvert &\leq \left\lvert \langle r x,y \rangle – \langle q_n x,y \rangle\right\rvert + \left\lvert \langle q_n x,y \rangle – r \langle x,y \rangle\right\rvert \\
&\leq \left\lvert \langle r x,y \rangle + \langle – q_n x,y \rangle\right\rvert + \left\lvert \langle q_n x,y \rangle – r \langle x,y \rangle\right\rvert \quad\text{(par la propriété de la somme nulle)}\\
&\leq \left\lvert \langle r x,y \rangle + \langle – q_n x,y \rangle\right\rvert + \left\lvert q_n \langle x,y \rangle – r \langle x,y \rangle\right\rvert \quad\text{(vu que }q_n\in\Q\text{)}\\
&\leq \left\lvert \langle t_n x,y \rangle \right\rvert + \left\lvert q_n \langle x,y \rangle – r \langle x,y \rangle\right\rvert \quad\text{(par additivité)}\\
&\leq \left\lvert \langle t_n x,y \rangle \right\rvert + \left\lvert q_n -r \right\rvert \left\lvert \langle x,y \rangle \right\rvert\\
&\leq \left\lvert \langle t_n x,y \rangle \right\rvert + t_n \left\lvert \langle x,y \rangle \right\rvert\\
&\leq \left\lvert \frac{\lVert t_n x+y \rVert^2 – \lVert t_n x – y \rVert^2}{4} \right\rvert + t_n \left\lvert \langle x,y \rangle \right\rvert\\
&\leq \frac{ \left\lvert \lVert t_n x+y \rVert^2 – \lVert t_n x – y \rVert^2 \right\rvert}{4} + t_n \left\lvert \langle x,y \rangle \right\rvert\\
&\leq \frac{ \left\lvert \lVert t_n x+y \rVert^2 – \lVert y \rVert^2+ \lVert y \rVert^2- \lVert t_n x – y \rVert^2 \right\rvert}{4} + t_n \left\lvert \langle x,y \rangle \right\rvert\\
&\leq \frac{ \left\lvert \lVert t_n x+y \rVert^2 – \lVert y \rVert^2\right\rvert + \left\lvert \lVert y \rVert^2- \lVert t_n x – y \rVert^2 \right\rvert}{4} + t_n \left\lvert \langle x,y \rangle \right\rvert\\
&\leq \frac{ \left\lvert \lVert t_n x+y \rVert – \lVert y \rVert \right\rvert ( \lVert t_n x+y \rVert + \lVert y \rVert )+ \left\lvert \lVert y \rVert- \lVert y-t_n x \rVert \right\rvert ( \lVert y \rVert+ \lVert t_n x – y \rVert)}{4} + t_n \left\lvert \langle x,y \rangle \right\rvert\\
&\leq \frac{ \left\lvert \lVert t_n x+y \rVert – \lVert y \rVert \right\rvert ( \lVert t_n x+y \rVert + \lVert y \rVert )+ \left\lvert \lVert y \rVert- \lVert t_n x – y \rVert \right\rvert ( \lVert y \rVert+ \lVert t_n x – y \rVert)}{4} + t_n \left\lvert \langle x,y \rangle \right\rvert\\
&\leq \frac{ \left\lvert \lVert t_n x+y \rVert – \lVert y \rVert \right\rvert ( \lVert t_n x\rVert +\lVert y \rVert + \lVert y \rVert )+ \left\lvert \lVert y \rVert- \lVert t_n x – y \rVert \right\rvert ( \lVert y \rVert+ \lVert t_n x\rVert + \lVert – y \rVert)}{4} + t_n \left\lvert \langle x,y \rangle \right\rvert \quad \text{(par inégalité triangulaire)}\\
&\leq \frac{ \left\lvert \lVert t_n x+y \rVert – \lVert y \rVert \right\rvert ( t_n \lVert x\rVert +\lVert y \rVert + \lVert y \rVert )+ \left\lvert \lVert y \rVert- \lVert t_n x – y \rVert \right\rvert ( \lVert y \rVert+ t_n \lVert x\rVert + \lVert y \rVert)}{4} + t_n \left\lvert \langle x,y \rangle \right\rvert \\
&\leq \frac{ \left\lvert \lVert t_n x+y \rVert – \lVert y \rVert \right\rvert ( \lVert x\rVert +2\lVert y \rVert )+ \left\lvert \lVert y \rVert- \lVert t_n x – y \rVert \right\rvert ( \lVert x\rVert + 2 \lVert y \rVert)}{4} + t_n \left\lvert \langle x,y \rangle \right\rvert \quad \text{(on majore }t_n\text{ par }1\text{)}\\
&\leq \frac{ t_n \lVert x \rVert ( \lVert x\rVert +2\lVert y \rVert )+ t_n \lVert x \rVert ( \lVert x\rVert + 2 \lVert y \rVert)}{4} + t_n \left\lvert \langle x,y \rangle \right\rvert \quad \text{(on majore }t_n\text{ par }1\text{)} \quad \text{(par inégalité triangulaire renversée)}\\
&\leq \frac{ t_n \lVert x \rVert ( \lVert x\rVert +2\lVert y \rVert )}{2} + t_n \left\lvert \langle x,y \rangle \right\rvert \\
&\leq t_n \left(\frac{ \lVert x \rVert ( \lVert x\rVert +2\lVert y \rVert )}{2} + \left\lvert \langle x,y \rangle \right\rvert \right)\\
&\leq \left(\frac{1}{10}\right)^n \left(\frac{ \lVert x \rVert ( \lVert x\rVert +2\lVert y \rVert )}{2} + \left\lvert \langle x,y \rangle \right\rvert \right).
\end{aligned}

Comme $0< \frac{1}{10}< 1$, il vient $\lim_{n\to +\infty} \left(\frac{1}{10}\right)^n =0.$

En passant à la limite dans l’inégalité ci-dessus, il vient $\left\lvert \langle r x,y \rangle – r \langle x,y \rangle\right\rvert \leq 0$, par conséquent $ \langle r x,y \rangle = r \langle x,y \rangle.$

Cela achève la démonstration suivante :

$\boxed{\forall r \in \R, \forall (x,y)\in E^2, \langle r x,y \rangle =r\langle x,y \rangle.}$

Démontrez la linéarité

Soit $(\lambda, \mu)\in\R^2$ et $(x,y,z\in E^3).$

\begin{aligned}
\langle \lambda x + \mu y, z \rangle &= \langle \lambda x , z \rangle+ \langle \mu y, z \rangle \quad \text{(par additivité)} \\
&= \lambda \langle x , z \rangle+ \mu \langle y, z \rangle \quad \text{(par homogénéité)} .
\end{aligned}

D’autre part :

\begin{aligned}
\langle x, \lambda y + \mu z \rangle &=\langle \lambda y + \mu z, x \rangle \quad \text{(par symétrie)} \\
&=\lambda \langle y , x \rangle + \mu \langle z, x \rangle\\
&=\lambda \langle x , y \rangle + \mu \langle x, z \rangle. \quad \text{(par symétrie)}
\end{aligned}

La linéarité à droite et à gauche est acquise.

Ainsi, l’application $\langle \cdot, \cdot \rangle: E^2\to \R$ est un produit scalaire réel dont dérive la norme $\lVert \cdot \rVert: E \to \R_{+}$ qui vérifie l’identité du parallélogramme.

197. Caractérisez un produit scalaire réel

Vous lisez dans de nombreux livres qu’un produit scalaire réel est une forme bilinéaire symétrique définie positive.

Autrement dit, soit $E$ un espace vectoriel, l’application $\langle, \rangle: E^2\to \R$ définit un produit scalaire réel, si et seulement si, elle vérifie toutes les conditions énumérées ci-dessous :

\begin{aligned} \begin{array}{lr}
\forall (x,y)\in E^2, \langle x,y\rangle= \langle y,x\rangle & \text{(symétrie)}\\
\forall (\lambda, \mu)\in\R^2, \forall (x,y,z)\in E^3, \langle\lambda x + \mu y, z\rangle = \lambda \langle x,z\rangle+\mu \langle y,z\rangle & \text{(linéarité à gauche)}\\
\forall (\lambda, \mu)\in\R^2, \forall (x,y,z)\in E^3, \langle x, \lambda y + \mu z \rangle = \lambda \langle x,y \rangle+\mu \langle x,z \rangle & \text{(linéarité à droite)}\\
\forall x\in E, \langle x,x \rangle=0 \Longleftrightarrow x=0 & \text{(caractère défini)}\\
\forall x\in E, \langle x,x \rangle \geq 0.& \text{(positivité)}\\
\end{array}\end{aligned}

Vous allez montrer que ces conditions peuvent être allégées, et notamment la condition de positivité.

Soit dans toute la suite une application $\langle, \rangle: E^2\to \R$ vérifiant les conditions suivantes :

\begin{aligned} \begin{array}{lr}
\forall (x,y)\in E^2, \langle x,y\rangle= \langle y,x\rangle & \text{(symétrie)}\\
\forall \lambda \in\R, \forall (x,y,z)\in E^3, \langle\lambda x + y, z\rangle = \lambda \langle x,z\rangle+\langle y,z\rangle & \text{(linéarité allégée à gauche)}\\
\forall x\in E, \langle x,x \rangle=0 \implies x=0 & \text{(caractère défini sans équivalence)}\\
\exists x_0\in E, \langle x_0,x_0 \rangle > 0.& \text{(existence d’un vecteur de norme strictement positive)}\\
\end{array}\end{aligned}

Vous allez montrer que l’application $\langle, \rangle$ est un produit scalaire réel.

Etablissez une propriété avec le vecteur nul

Utilisez la linéarité allégée à gauche :

\begin{aligned}
\langle 1 \cdot 0 + 0, 0\rangle &= 1 \langle 0,0\rangle+\langle 0,0\rangle \\
\langle 0+0, 0\rangle &= \langle 0,0\rangle + \langle 0,0\rangle\\
\langle 0, 0\rangle &= \langle 0,0\rangle + \langle 0,0\rangle\\
0 &= \langle 0,0\rangle.
\end{aligned}

Soit $x\in E.$

Grâce à la symétrie puis à la linéarité allégée à gauche, il vient :

\begin{aligned}
\langle x, 0\rangle &= \langle 0, x\rangle \\
&= \langle 1\cdot 0+0, x\rangle \\
&= 1 \langle 0, x\rangle +\langle 0, x\rangle \\
&= \langle 0, x\rangle +\langle 0, x\rangle\\
&= \langle x, 0\rangle +\langle x, 0\rangle.
\end{aligned}

Du coup, $0 = \langle x, 0\rangle.$

Est donc démontrée la propriété suivante :

$\boxed{\forall x\in E, \langle x, 0\rangle = 0.}$

Déduisez-en une équivalence

Vous souhaitez démontrer que :

$\forall x\in E, \langle x,x \rangle=0 \Longleftrightarrow x=0.$

L’implication :

$\forall x\in E, \langle x,x \rangle=0 \implies x=0$ est déjà acquise.

Compte tenu du fait que $\forall x\in E, 0 = \langle x, 0\rangle$ il vient $0 =\langle 0, 0\rangle$ ce qui prouve l’implication :

$\forall x\in E, x=0 \implies \langle x,x \rangle=0.$

Vérifiez la bilinéarité

Soient $(\lambda, \mu)\in\R^2$ et $(x,y,z)\in E^3.$

\begin{aligned}
\langle \lambda x + \mu y , z \rangle &= \langle 1(\lambda x) + (\mu y) , z \rangle \\
&= 1 \langle \lambda x, z \rangle + \langle \mu y , z \rangle \\
&= \langle \lambda x, z \rangle + \langle \mu y , z \rangle \\
&= \langle \lambda x + 0, z \rangle + \langle \mu y + 0 , z \rangle \\
&= \lambda \langle x , z \rangle + \langle 0,z \rangle + \mu \langle y , z \rangle + \langle 0, z \rangle \\
&= \lambda \langle x, z \rangle + 0 + \mu \langle y , z \rangle + 0 \\
&= \lambda \langle x, z \rangle + \mu \langle y , z \rangle.
\end{aligned}

\begin{aligned}
\langle x, \lambda y + \mu z \rangle &= \langle \lambda y + \mu z , x\rangle \\
&= \lambda \langle y , x\rangle + \mu \langle z, x\rangle\\
&= \lambda \langle x , y\rangle + \mu \langle x, z\rangle.
\end{aligned}

La bilinéarité à gauche et à droite de l’application $\langle, \rangle$ est acquise.

Bonus : démontrez la double distributivité

Soient $(\alpha, \beta, \gamma, \delta )\in\R^4$ et $(x,y,z, t)\in E^4.$

\begin{aligned}
\langle \alpha x + \beta y, \gamma z + \delta t \rangle &= \alpha \langle x , \gamma z + \delta t \rangle + \beta \langle y , \gamma z + \delta t \rangle \\
&= \alpha (\gamma \langle x , z \rangle +\delta \langle x , t \rangle ) + \beta (\gamma \langle y , z \rangle + \delta t \langle y,t \rangle)\\
&= \alpha \gamma \langle x,z\rangle + \alpha \delta \langle x,t\rangle + \beta \gamma \langle y,z\rangle +\beta \delta \langle y,t\rangle.
\end{aligned}

Est ainsi justifié le résultat pratique :

$\boxed{\forall (\alpha, \beta, \gamma, \delta )\in\R^4, \forall (x,y,z, t)\in E^4, \langle \alpha x + \beta y, \gamma z + \delta t \rangle = \alpha \gamma \langle x,z\rangle + \alpha \delta \langle x,t\rangle + \beta \gamma \langle y,z\rangle +\beta \delta \langle y,t\rangle.}$

Démontrez la positivité

Par hypothèse il existe un vecteur $x_0\in E$ tel que $\langle x_0, x_0\rangle > 0.$

Soit $x\in E$ et supposez un instant que $\langle x, x\rangle < 0.$

Pour tout réel $t$, vous posez $f(t) = \langle x + tx_0, x+tx_0\rangle.$

Par double distributivité et par symétrie, il vient :

\begin{aligned}
f(t) &= \langle x + tx_0, x+tx_0\rangle \\
&= \langle x , x\rangle + t \langle x , x_0\rangle + t\langle x_0 , x\rangle+t^2 \langle x_0 , x_0\rangle\\
&= \langle x , x\rangle + 2t \langle x_0, x\rangle + t^2\langle x_0, x_0 \rangle.
\end{aligned}

$f$ est donc un polynôme du second degré, de coefficient dominant $\langle x_0, x_0 \rangle$ strictement positif.

Il vient donc $\lim_{t\to +\infty} f(t) = +\infty$ donc il existe un réel $t_1> 0$ tel que $f(t_1) > 0.$

D’autre part, $f(0) = \langle x , x\rangle $ et $f(0)<0.$

$f$ étant une fonction continue sur $\R$, l’application du théorème des valeurs intermédiaires sur l’intervalle $[0, t_1]$ fournit l’existence d’un réel $u\in[0, t_1]$ tel que $f(u)=0$.

Ainsi, $\langle x + u x_0, x+ u x_0\rangle = 0.$ Or, le caractère défini de l’application $\langle, \rangle$ fournit $x+ux_0 = 0$, donc $x = -u x_0.$

Il vient donc par double distributivité :

\begin{aligned}
\langle x, x\rangle &=\langle -u x_0, -u x_0\rangle \\
&= (-u)^2 \langle x_0, x_0\rangle\\
&= u^2 \langle x_0, x_0\rangle.
\end{aligned}

Comme $\langle x_0, x_0\rangle \neq 0$ vous déduisez $\frac{\langle x, x\rangle}{\langle x_0, x_0\rangle} = u^2.$

Or $u$ est réel donc $u^2$ est positif. Comme $\langle x_0, x_0\rangle > 0$ et $\langle x, x\rangle < 0$ il vient $\frac{\langle x, x\rangle}{\langle x_0, x_0\rangle} < 0$ ce qui contredit le fait que $u^2 \geq 0.$

Il est donc aburde d’avoir l’existence d’un vecteur $x\in E$ tel que $\langle x, x\rangle < 0.$

Vous déduisez que pour tout $x\in E$, $\langle x, x\rangle \geq 0$ ce qui était la positivité cherchée.

196. Calculez le polynôme minimal d’une matrice

Considérez la matrice suivante $A = \begin{pmatrix}1 & 1 & 2 \\ 1 & -1 & 1 \\ 1& 1 & -1\end{pmatrix}.$

Il s’agit de déterminer le polynôme unitaire de plus petit degré annulant une telle matrice.

Calculez les matrices $A^2$ et $A^3$

Via le théorème de Cayley-Hamilton, vous savez que la matrice $A$ est annulée par un polynôme de degré $3.$

Vous calculez donc les puissances de la matrice $A$ jusqu’à un exposant égal à $3$, ce qui aboutit à :

A^2 = \begin{pmatrix}4 & 2 & 1 \\
1 & 3 & 0\\
1 & -1 & 4
\end{pmatrix}
A^3 = \begin{pmatrix}7 & 3 & 9 \\
4 & -2 & 5\\
4 & 6 & -3
\end{pmatrix}.

Formez la matrice augmentée

Considérez les matrices $I$, $A$, $A^2$ et $A^3$ que vous écrivez ligne par ligne.

Vous obtenez la matrice suivante :

\begin{pmatrix}
1 & 0 & 0 & 0 & 1 & 0 & 0 & 0 & 1\\
1 & 1 & 2 & 1 & -1 & 1 & 1& 1 & -1\\
4 & 2 & 1 & 1 & 3 & 0 & 1 & -1 & 4 \\
7 & 3 & 9 & 4 & -2 & 5 & 4 & 6 & -3
\end{pmatrix}.

Afin de garder la trace à tout instant des opérations qui seront menées, il est commode d’y rajouter la matrice identité, ce qui fournit en tout et pour tout ceci la matrice $B$ suivante :

B = \begin{pmatrix}\begin{array}{ccccccccc|cccc}
1 & 0 & 0 & 0 & 1 & 0 & 0 & 0 & 1 & 1 & 0 & 0 & 0\\
1 & 1 & 2 & 1 & -1 & 1 & 1& 1 & -1 & 0 &1 & 0 & 0\\
4 & 2 & 1 & 1 & 3 & 0 & 1 & -1 & 4 & 0 & 0 & 1 & 0\\
7 & 3 & 9 & 4 & -2 & 5 & 4 & 6 & -3 & 0 & 0 & 0 & 1
\end{array}\end{pmatrix}.

Déterminez le degré du polynôme minimal

Il s’agit dans un premier temps de manipuler par des opérations élémentaires sur les lignes de $B$ seulement les deux premières lignes de $B$.

Vous effectuez l’opération élémentaire $L_2\leftarrow L_2-L_1$ et obtenez la matrice suivante :

B_1 = \begin{pmatrix}\begin{array}{ccccccccc|cccc}
1 & 0 & 0 & 0 & 1 & 0 & 0 & 0 & 1 & 1 & 0 & 0 & 0\\
0 & 1 & 2 & 1 & -2 & 1 & 1& 1 & -2 & -1 &1 & 0 & 0\\
4 & 2 & 1 & 1 & 3 & 0 & 1 & -1 & 4 & 0 & 0 & 1 & 0\\
7 & 3 & 9 & 4 & -2 & 5 & 4 & 6 & -3 & 0 & 0 & 0 & 1
\end{array}\end{pmatrix}.

Les deux premières lignes vous donnent les coefficients des matrices $I$ et $A-I.$

Montrez que ces deux matrices sont linéairement indépendantes.

Soit en effet deux scalaires $a$ et $b$ tels que $aI + b(A-I) = 0.$

Alors $a\begin{pmatrix}1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1\end{pmatrix} + b\begin{pmatrix}0 & 1 & 2 \\ 1 & -2 & 1 \\ 1 & 1 & -2\end{pmatrix} = 0.$

L’identification du premier coefficient en haut à gauche fournit $a=0$ immédiatement.

Puis, l’identification du coefficient de la ligne 1 à la colonne 2 fournit $b=0.$

Les deux matrices $I$ et $A-I$ appartiennent à l’espace vectoriel engendré par les matrices $I$ et $A$, qui est donc de dimension $2.$ Donc les matrices $I$ et $A$ sont linéairement indépendantes. Donc le polynôme minimal de $A$ est de degré supérieur ou égal à $2.$

Effectuez alors l’opération élémentaire $L_3\leftarrow L_3-4L_1$ à partir de la matrice $B_1$, qui fournit la matrice $B_2$ suivante :

B_2 = \begin{pmatrix}\begin{array}{ccccccccc|cccc}
1 & 0 & 0 & 0 & 1 & 0 & 0 & 0 & 1 & 1 & 0 & 0 & 0\\
0 & 1 & 2 & 1 & -2 & 1 & 1& 1 & -2 & -1 &1 & 0 & 0\\
0 & 2 & 1 & 1 & -1 & 0 & 1 & -1 & 0 & -4 & 0 & 1 & 0\\
7 & 3 & 9 & 4 & -2 & 5 & 4 & 6 & -3 & 0 & 0 & 0 & 1
\end{array}\end{pmatrix}.

Vous effectuez alors l’opération élémentaire suivante $L_3\leftarrow L_3-2L_2$ qui fournit une nouvelle matrice :

B_3 = \begin{pmatrix}\begin{array}{ccccccccc|cccc}
1 & 0 & 0 & 0 & 1 & 0 & 0 & 0 & 1 & 1 & 0 & 0 & 0\\
0 & 1 & 2 & 1 & -2 & 1 & 1& 1 & -2 & -1 &1 & 0 & 0\\
0 & 0 & -3 & -1 & 3 & -2 & -1 & -3 & 4 & -2 & -2 & 1 & 0\\
7 & 3 & 9 & 4 & -2 & 5 & 4 & 6 & -3 & 0 & 0 & 0 & 1
\end{array}\end{pmatrix}.

Ce calcul montre que les matrices $I$, $I-A$ et $A^2-2A-2I$ sont linéairement indépendantes.

En effet, soient trois scalaires $a$, $b$ et $c$ tels que $aI+b(I-A)+c(A^2-2A-2I) = 0.$

Cela s’écrit :

$a\begin{pmatrix}1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1\end{pmatrix} + b\begin{pmatrix}0 & 1 & 2 \\ 1 & -2 & 1 \\ 1 & 1 & -2\end{pmatrix} + c \begin{pmatrix}0 & 0 & -3 \\ -1 & 3 & -2 \\ -1 & -3 & -4\end{pmatrix}= 0.$

L’identification du coefficient de la ligne $1$ et de la colonne $1$ fournit $a=0.$

L’identification du coefficient de la ligne $1$ et de la colonne $2$ fournit $b=0.$

L’identification du coefficient de la ligne $1$ et de la colonne $3$ fournit $c=0.$

Par suite, l’espace vectoriel engendré par les matrices $I$, $A$ et $A^2$ contient une famille libre de 3 matrices, donc cet espace vectoriel est de dimension supérieure ou égale à $3$. Par suite, les matrices $I$, $A$ et $A^2$ sont linéairement indépendantes, donc le degré du polynôme minimal est supérieur ou égal à $3.$

Pour continuer, vous effectuez l’opération élémentaire $L_4\leftarrow L_4-7L_1$ depuis la matrice $B_3$ ce qui fournit :

B_4 = \begin{pmatrix}\begin{array}{ccccccccc|cccc}
1 & 0 & 0 & 0 & 1 & 0 & 0 & 0 & 1 & 1 & 0 & 0 & 0\\
0 & 1 & 2 & 1 & -2 & 1 & 1& 1 & -2 & -1 &1 & 0 & 0\\
0 & 0 & -3 & -1 & 3 & -2 & -1 & -3 & 4 & -2 & -2 & 1 & 0\\
0 & 3 & 9 & 4 & -9 & 5 & 4 & 6 & -10 & -7 & 0 & 0 & 1
\end{array}\end{pmatrix}.

Vous effectuez alors l’opération élémentaire $L_4\leftarrow L_4-3L_2$ ce qui fournit :

B_5 = \begin{pmatrix}\begin{array}{ccccccccc|cccc}
1 & 0 & 0 & 0 & 1 & 0 & 0 & 0 & 1 & 1 & 0 & 0 & 0\\
0 & 1 & 2 & 1 & -2 & 1 & 1& 1 & -2 & -1 &1 & 0 & 0\\
0 & 0 & -3 & -1 & 3 & -2 & -1 & -3 & 4 & -2 & -2 & 1 & 0\\
0 & 0 & 3 & 1 & -3 & 2 & 1 & 3 & -4 & -4 & -3 & 0 & 1
\end{array}\end{pmatrix}.

Vous effectuez alors l’opération élémentaire $L_4\leftarrow L_4+L_3$ ce qui fournit :

B_5 = \begin{pmatrix}\begin{array}{ccccccccc|cccc}
1 & 0 & 0 & 0 & 1 & 0 & 0 & 0 & 1 & 1 & 0 & 0 & 0\\
0 & 1 & 2 & 1 & -2 & 1 & 1& 1 & -2 & -1 &1 & 0 & 0\\
0 & 0 & -3 & -1 & 3 & -2 & -1 & -3 & 4 & -2 & -2 & 1 & 0\\
0 & 0 & 0 & 0 & 0 & 0 & 0 & 0 & 0 & -6 & -5 & 1 & 1
\end{array}\end{pmatrix}.

Ce dernier calcul montre que $A^3+A^2-5A-6I = 0$ compte tenu de la dernière ligne.

Notez $P(X) = X^3+X^2-5X-6.$ Ce polynôme est unitaire et est celui de degré minimal annulant la matrice $A.$

Ainsi, c’est le polynôme minimal de $A.$

195. Inversibilité d’une matrice

Soit $A$ une matrice carrée d’ordre $n$ où $n$ désigne un entier naturel non nul, à coefficients dans un corps $\K.$

Supposez qu’il existe une matrice $B$ telle que $AB=I$ où $I$ désigne la matrice identité d’ordre $n.$

Vous allez démontrer que le produit $BA$ est aussi égal à $I$, ce qui établira que $AB=BA=I$ et donc que $A$ est inversible, avec $A^{-1} = B.$

Justifiez l’existence d’un polynôme annulateur de $A$

La matrice $A$ fait partie de l’ensemble des matrices carrées à $n$ éléments, qui est un $\K$-espace vectoriel de dimension $n^2.$ La famille $(I, A, …, A^{n^2})$ est donc liée. D’où l’existence d’un polynôme $P\in\K[X]$ non nul tel que $P(A)=0.$

Vous considérez donc l’ensemble $Q$ des entiers naturels $m$ tels qu’il existe un polynôme de degré $m$ annulant la matrice $A.$ D’après ce qui précède cet ensemble est une partie de $\N$ non vide, donc $Q$ admet un plus petit élément noté $p.$

Vous noterez dans la suite $\pi\in\K[X]$ un polynôme non nul, de degré $p$, tel que $\pi(A)=0.$

Démontrez que la matrice $B$ est un polynôme en $A$

Notez $\pi(X)=\sum_{k=0}^p \alpha_k X^k$, avec $\forall k\in\N, 0\leq k \leq p \implies \alpha_k\in\K.$

Vous avez $0 = \pi(A) = \sum_{k=0}^p \alpha_k A^k.$

Supposez un instant que $p = 0.$ Cela s’écrit $\alpha_0 I = 0$ donc $\alpha_0 = 0.$ Donc $\pi$ est le polynôme nul. Contradiction.

Donc $p\geq 1$ ce qui s’écrit $\alpha_0 I + \sum_{k=1}^p \alpha_k A^k = 0.$

Supposez alors que $\alpha_0 = 0.$

Vous déduisez $0 = \sum_{k=1}^p \alpha_k A^k.$ Multipliez à droite par $B.$

$0 = \sum_{k=1}^p \alpha_k A^kB$ et comme $AB = I$ il vient $0 = \sum_{k=1}^p \alpha_k A^{k-1}.$ Vous avez trouvé un polynôme de degré strictement inférieur à $p$ qui annule la matrice $A.$ Cela ne peut se produire, pour ne pas contredire la définition de $p$, que si ce polynôme est nul. Vous déduisez donc $\forall k\in\N, 1\leq k \leq p \implies \alpha_k = 0.$ Et comme $\alpha_0 = 0$ vous déduisez que $\pi$ est le polynôme nul. Contradiction.

C’est donc que $\alpha_0 \neq 0.$

Du coup, vous déduisez $I = \sum_{k=1}^p \frac{-\alpha_k}{\alpha_0} A^k.$ Multipliez à droite par $B$, vous déduisez $B =\sum_{k=1}^p \frac{-\alpha_k}{\alpha_0} A^{k-1}$ ce qui prouve l’existence d’un polynôme $R\in\K[X]$ tel que $B = R(A).$

Concluez

Comme $AB = I$, vous avez $AR(A) = I.$ Or par commutation de polynômes de matrices, vous avez $R(A)A = I$ ce qui s’écrit $BA = I.$

Prolongement

Pourriez-vous démontrer que, si vous supposez l’existence d’une matrice $B$ carrée telle que $BA = I$, alors vous avez aussi $AB =I$ ?

194. Déterminez la forme de Jordan d’une matrice avec des opérations élémentaires

Soit la matrice suivante :

\begin{align*}
A = \begin{pmatrix}
0 & 1 & 0 & 0 &0 &0 &0 \\
0 &0 &0 &0 &0 &0 &4 \\
0 &0 &0 &1 &0 &0 &0 \\
0 &0 &0 &0 &1 &0 &0 \\
0 &0 &0 &0 &0 &0 &0 \\
0 &0 &0 &0 &0 &0 &1\\
0 &0 &0 &0 &0 &0 &0
\end{pmatrix}.
\end{align*}

Comment obtenir sa forme de Jordan ?

Note. La matrice $A$ est triangulaire supérieure avec uniquement des zéros sur sa diagonale principale. Elle est donc nilpotente : il existe un entier $k$ tel que $A^k=0.$ (Vous pouvez vérifier que $A^7$ est la matrice nulle.)

Première étape : utilisez des dilatations pour changer le $4$ en $1$ dans la dernière colonne

Vous effectuez les deux opérations élémentaires sur la matrice $A$ : $L_2 \leftarrow 1/4 L_2$ et $C_2\leftarrow 4C_2$ ce qui fournit :

\begin{align*}
A_1 = \begin{pmatrix}
0 & 4 & 0 & 0 &0 &0 &0 \\
0 &0 &0 &0 &0 &0 &1 \\
0 &0 &0 &1 &0 &0 &0 \\
0 &0 &0 &0 &1 &0 &0 \\
0 &0 &0 &0 &0 &0 &0 \\
0 &0 &0 &0 &0 &0 &1\\
0 &0 &0 &0 &0 &0 &0
\end{pmatrix}.
\end{align*}

Puis vous effectuez les deux opérations élémentaires sur la matrice $A_1$ : $L_1\leftarrow 1/4 L_1$ et $C_1\leftarrow 4C_1$ ce qui fournit :

\begin{align*}
A_2 = \begin{pmatrix}
0 & 1 & 0 & 0 &0 &0 &0 \\
0 &0 &0 &0 &0 &0 &1 \\
0 &0 &0 &1 &0 &0 &0 \\
0 &0 &0 &0 &1 &0 &0 \\
0 &0 &0 &0 &0 &0 &0 \\
0 &0 &0 &0 &0 &0 &1\\
0 &0 &0 &0 &0 &0 &0
\end{pmatrix}.
\end{align*}

En notant $D_1$ la première matrice de dilatation, vous avez :

\begin{aligned}
D_1 = \begin{pmatrix}
1 & 0 & 0 & 0 &0 &0 &0 \\
0 &4 &0 &0 &0 &0 &0 \\
0 &0 &1 &0 &0 &0 &0 \\
0 &0 &0 &1 &0 &0 &0 \\
0 &0 &0 &0 &1 &0 &0 \\
0 &0 &0 &0 &0 &1 &0\\
0 &0 &0 &0 &0 &0 &1
\end{pmatrix}.
\end{aligned}

Alors $D_1^{-1}AD_1 = A_1.$

En notant $D_2$ la deuxième matrice de dilatation, vous avez :

\begin{align*}
D_2 = \begin{pmatrix}
4 & 0 & 0 & 0 &0 &0 &0 \\
0 &1 &0 &0 &0 &0 &0 \\
0 &0 &1 &0 &0 &0 &0 \\
0 &0 &0 &1 &0 &0 &0 \\
0 &0 &0 &0 &1 &0 &0 \\
0 &0 &0 &0 &0 &1 &0\\
0 &0 &0 &0 &0 &0 &1
\end{pmatrix}.
\end{align*}

Alors $D_2^{-1}A_1D_2 = A_2.$

Soit $D_2^{-1}D_1^{-1}AD_1D_2 = A_2.$

Deuxième étape : utilisez des transvections pour n’avoir qu’un seul $1$ dans la dernière colonne

L’idée consiste à partir du $1$ du dessus, associé à un bloc de Jordan de taille maximale, pour éliminer les autres.

Partez de la matrice $A_2$ ci-dessous :

\begin{align*}
A_2 = \begin{pmatrix}
0 & 1 & 0 & 0 &0 &0 &0 \\
0 &0 &0 &0 &0 &0 &1 \\
0 &0 &0 &1 &0 &0 &0 \\
0 &0 &0 &0 &1 &0 &0 \\
0 &0 &0 &0 &0 &0 &0 \\
0 &0 &0 &0 &0 &0 &1\\
0 &0 &0 &0 &0 &0 &0
\end{pmatrix}.
\end{align*}

Effectuez alors les opérations élémentaires $L_6\leftarrow L_6-L_2$ et $C_2\leftarrow C_2+C_6$ ce qui fournit :

\begin{align*}
A_3 = \begin{pmatrix}
0 & 1 & 0 & 0 &0 &0 &0 \\
0 &0 &0 &0 &0 &0 &1 \\
0 &0 &0 &1 &0 &0 &0 \\
0 &0 &0 &0 &1 &0 &0 \\
0 &0 &0 &0 &0 &0 &0 \\
0 &0 &0 &0 &0 &0 &0\\
0 &0 &0 &0 &0 &0 &0
\end{pmatrix}.
\end{align*}

Selon le positionnement des $1$ à éliminer, plusieurs transvections peuvent être utilisées. Dans le cas présent, une seule suffit.

La matrice de transvection associée est :

\begin{align*}
T = \begin{pmatrix}
1 & 0 & 0 & 0 &0 &0 &0 \\
0 &1 &0 &0 &0 &0 &0 \\
0 &0 &1 &0 &0 &0 &0 \\
0 &0 &0 &1 &0 &0 &0 \\
0 &0 &0 &0 &1 &0 &0 \\
0 &1 &0 &0 &0 &1 &0\\
0 &0 &0 &0 &0 &0 &1
\end{pmatrix}.
\end{align*}

Vous avez $T^{-1}A_2T = A_3$ et $T^{-1}D_2^{-1}D_1^{-1}AD_1D_2T = A_3.$

Troisième et dernière étape : utilisez une matrice de permutation pour obtenir la matrice de Jordan

Repartez de la matrice suivante :

\begin{align*}
A_3 = \begin{pmatrix}
0 & 1 & 0 & 0 &0 &0 &0 \\
0 &0 &0 &0 &0 &0 &1 \\
0 &0 &0 &1 &0 &0 &0 \\
0 &0 &0 &0 &1 &0 &0 \\
0 &0 &0 &0 &0 &0 &0 \\
0 &0 &0 &0 &0 &0 &0\\
0 &0 &0 &0 &0 &0 &0
\end{pmatrix}.
\end{align*}

Appliquez la matrice de permutation suivante :

\begin{align*}
P = \begin{pmatrix}
1 & 0 & 0 & 0 &0 &0 &0 \\
0 & 1 & 0 & 0 &0 &0 &0 \\
0 & 0 & 0 & 1 &0 &0 &0 \\
0 & 0 & 0 & 0 &1 &0 &0 \\
0 & 0 & 0 & 0 &0 &1 &0 \\
0 & 0 & 0 & 0 &0 &0 &1 \\
0 & 0 & 1 & 0 &0 &0 &0
\end{pmatrix}.
\end{align*}

Vous obtenez alors :

P^{-1}A_3P = J =  \begin{pmatrix}
0 & 1 & 0 & 0 &0 &0 &0 \\
0 &0 &1 &0 &0 &0 &0 \\
0 &0 &0 &0 &0 &0 &0 \\
0 &0 &0 &0 &1 &0 &0 \\
0 &0 &0 &0 &0 &1 &0 \\
0 &0 &0 &0 &0 &0 &0\\
0 &0 &0 &0 &0 &0 &0
\end{pmatrix}.

Calculez la matrice de passage associée au processus et son inverse

Vous cherchez une matrice inversible $Q$ telle que $Q^{-1}AQ = J.$

D’après ce qui précède, vous pouvez choisir $Q = D_1D_2TP$, ce qui est égal à $ID_1D_2TP$ où $I$ est la matrice identité.

Pour obtenir $Q$ vous partez donc de la matrice identité et effectuez les opérations élémentaires suivantes dans cet ordre : $C_2\leftarrow 4C_2$, $C_1\leftarrow 4C_1$, $C_2\leftarrow C_2+C_6$ et la dernière qui place la colonne 7 à la place de la troisième et décale toutes les autres sur la droite, à savoir $(C_1,C_2,C_3,C_4,C_5,C_6,C_7)\rightarrow (C_1,C_2,C_7, C_3,C_4,C_5,C_6).$

\begin{align*}
 I = \begin{pmatrix}
1 & 0 & 0 & 0 &0 &0 &0 \\
0 &1 &0 &0 &0 &0 &0 \\
0 &0 &1 &0 &0 &0 &0 \\
0 &0 &0 &1 &0 &0 &0 \\
0 &0 &0 &0 &1 &0 &0 \\
0 &0 &0 &0 &0 &1 &0\\
0 &0 &0 &0 &0 &0 &1
\end{pmatrix} &\xrightarrow[C_2\leftarrow 4C_2]{}  \begin{pmatrix}
1 & 0 & 0 & 0 &0 &0 &0 \\
0 &4 &0 &0 &0 &0 &0 \\
0 &0 &1 &0 &0 &0 &0 \\
0 &0 &0 &1 &0 &0 &0 \\
0 &0 &0 &0 &1 &0 &0 \\
0 &0 &0 &0 &0 &1 &0\\
0 &0 &0 &0 &0 &0 &1
\end{pmatrix} \xrightarrow[C_1\leftarrow 4C_1]{}  \begin{pmatrix}
4 & 0 & 0 & 0 &0 &0 &0 \\
0 &4 &0 &0 &0 &0 &0 \\
0 &0 &1 &0 &0 &0 &0 \\
0 &0 &0 &1 &0 &0 &0 \\
0 &0 &0 &0 &1 &0 &0 \\
0 &0 &0 &0 &0 &1 &0\\
0 &0 &0 &0 &0 &0 &1
\end{pmatrix}\\
&\xrightarrow[C_2\leftarrow C_2+C_6]{}  \begin{pmatrix}
4 & 0 & 0 & 0 &0 &0 &0 \\
0 &4 &0 &0 &0 &0 &0 \\
0 &0 &1 &0 &0 &0 &0 \\
0 &0 &0 &1 &0 &0 &0 \\
0 &0 &0 &0 &1 &0 &0 \\
0 &1 &0 &0 &0 &1 &0\\
0 &0 &0 &0 &0 &0 &1
\end{pmatrix} \\
&\xrightarrow[(C_1,C_2,C_3,C_4,C_5,C_6,C_7)\rightarrow (C_1,C_2,C_7, C_3,C_4,C_5,C_6)]{}  Q=\begin{pmatrix}
4 & 0&0 & 0 & 0 &0 &0 \\
0 &4&0 &0 &0 &0 &0  \\
0 &0&0 &1 &0 &0 &0  \\
0 &0&0 &0 &1 &0 &0  \\
0 &0&0 &0 &0 &1 &0  \\
0 &1&0 &0 &0 &0 &1 \\
0 &0&1 &0 &0 &0 &0 
\end{pmatrix}.
\end{align*}

D’après ce qui précède, vous avez $Q^{-1} = (D_1D_2TP)^{-1} = P^{-1}T^{-1}D_2^{-1}D_1^{-1}$, ce qui est égal à $P^{-1}T^{-1}D_2^{-1}D_1^{-1}I.$

Pour obtenir $Q^{-1}$ vous partez donc de la matrice identité et effectuez les opérations élémentaires suivantes dans cet ordre : $L_2\leftarrow 1/4 L_2$, $L_1\leftarrow 1/4 L_1$, $L_6\leftarrow L_6-L_2$ et la dernière qui place la ligne 7 à la place de la troisième et décale toutes les autres sur le fond, à savoir $(L_1,L_2,L_3,L_4,L_5,L_6,L_7)\rightarrow (L_1,L_2,L_7, L_3,L_4,L_5,L_6).$

\begin{align*}
 I = \begin{pmatrix}
1 & 0 & 0 & 0 &0 &0 &0 \\
0 &1 &0 &0 &0 &0 &0 \\
0 &0 &1 &0 &0 &0 &0 \\
0 &0 &0 &1 &0 &0 &0 \\
0 &0 &0 &0 &1 &0 &0 \\
0 &0 &0 &0 &0 &1 &0\\
0 &0 &0 &0 &0 &0 &1
\end{pmatrix} &\xrightarrow[L_2\leftarrow 1/4 L_2]{}  \begin{pmatrix}
1 & 0 & 0 & 0 &0 &0 &0 \\
0 &1/4 &0 &0 &0 &0 &0 \\
0 &0 &1 &0 &0 &0 &0 \\
0 &0 &0 &1 &0 &0 &0 \\
0 &0 &0 &0 &1 &0 &0 \\
0 &0 &0 &0 &0 &1 &0\\
0 &0 &0 &0 &0 &0 &1
\end{pmatrix} \xrightarrow[L_1\leftarrow 1/4 L_1]{}  \begin{pmatrix}
1/4 & 0 & 0 & 0 &0 &0 &0 \\
0 &1/4 &0 &0 &0 &0 &0 \\
0 &0 &1 &0 &0 &0 &0 \\
0 &0 &0 &1 &0 &0 &0 \\
0 &0 &0 &0 &1 &0 &0 \\
0 &0 &0 &0 &0 &1 &0\\
0 &0 &0 &0 &0 &0 &1
\end{pmatrix}\\
&\xrightarrow[L_6\leftarrow L_6-L_2]{}  \begin{pmatrix}
1/4 & 0 & 0 & 0 &0 &0 &0 \\
0 &1/4 &0 &0 &0 &0 &0 \\
0 &0 &1 &0 &0 &0 &0 \\
0 &0 &0 &1 &0 &0 &0 \\
0 &0 &0 &0 &1 &0 &0 \\
0 &-1/4 &0 &0 &0 &1 &0\\
0 &0 &0 &0 &0 &0 &1
\end{pmatrix} \\
&\xrightarrow[(L_1,L_2,L_3,L_4,L_5,L_6,L_7)\rightarrow (L_1,L_2,L_7, L_3,L_4,L_5,L_6)]{}  Q^{-1}=\begin{pmatrix}
1/4 & 0 & 0 & 0 &0 &0 &0 \\
0 &1/4 &0 &0 &0 &0 &0 \\
0 &0 &0 &0 &0 &0 &1\\
0 &0 &1 &0 &0 &0 &0 \\
0 &0 &0 &1 &0 &0 &0 \\
0 &0 &0 &0 &1 &0 &0 \\
0 &-1/4 &0 &0 &0 &1 &0
\end{pmatrix}.
\end{align*}

Concluez

Vous avez obtenu $Q^{-1}AQ = J$ avec :

\begin{align*}
A = \begin{pmatrix}
0 & 1 & 0 & 0 &0 &0 &0 \\
0 &0 &0 &0 &0 &0 &4 \\
0 &0 &0 &1 &0 &0 &0 \\
0 &0 &0 &0 &1 &0 &0 \\
0 &0 &0 &0 &0 &0 &0 \\
0 &0 &0 &0 &0 &0 &1\\
0 &0 &0 &0 &0 &0 &0
\end{pmatrix} \qquad J = \begin{pmatrix}
0 & 1 & 0 & 0 &0 &0 &0 \\
0 &0 &1 &0 &0 &0 &0 \\
0 &0 &0 &0 &0 &0 &0 \\
0 &0 &0 &0 &1 &0 &0 \\
0 &0 &0 &0 &0 &1 &0 \\
0 &0 &0 &0 &0 &0 &0\\
0 &0 &0 &0 &0 &0 &0
\end{pmatrix}
\end{align*}
\begin{align*}
Q = \begin{pmatrix}
4 & 0&0 & 0 & 0 &0 &0 \\
0 &4&0 &0 &0 &0 &0  \\
0 &0&0 &1 &0 &0 &0  \\
0 &0&0 &0 &1 &0 &0  \\
0 &0&0 &0 &0 &1 &0  \\
0 &1&0 &0 &0 &0 &1 \\
0 &0&1 &0 &0 &0 &0 
\end{pmatrix} \qquad Q^{-1} = \begin{pmatrix}
1/4 & 0 & 0 & 0 &0 &0 &0 \\
0 &1/4 &0 &0 &0 &0 &0 \\
0 &0 &0 &0 &0 &0 &1\\
0 &0 &1 &0 &0 &0 &0 \\
0 &0 &0 &1 &0 &0 &0 \\
0 &0 &0 &0 &1 &0 &0 \\
0 &-1/4 &0 &0 &0 &1 &0
\end{pmatrix}.
\end{align*}

193. Un ensemble qui n’admet pas de plus grand élément

Considérez la partie $A$ suivante de l’ensemble des rationnels $\Q$, définie par :

$A=\left\{\frac{m}{n}, m\in\N, n\in\N^{*}\text{ et } \left(\frac{m}{n}\right)^2<2\right\}.$

Vous allez montrer que $A$ n’admet pas de plus grand élément.

En effet, soient deux entiers $m\in\N$, $n\in\N^{*}$ tels que $ \left(\frac{m}{n}\right)^2<2.$

Considérez le rationnel $q$ défini par $q = \frac{3m+4n}{2m+3n}$, bien défini puisque $2m+3n \geq 3n\geq 3.$

Montrez que $q$ est strictement supérieur à $\frac{m}{n}$

Vous avez les inégalités suivantes :

\begin{aligned}
m^2&<2n^2 \\
2m^2 &< 4n^2\\
2m^2+3mn &< 4n^2+3mn\\
m(2m+3n) &< n(4n+3m)\\
\frac{m}{n} &< \frac{4n+3m}{2m+3n}\\
\frac{m}{n} &< q.
\end{aligned}

Montrez que $q$ appartient à l’ensemble $A$

Vous avez déjà $4n+3m\in\N$ et $2m+3n\in\N^{*}.$

Calculez la différence suivante :

\begin{aligned}
\left(\frac{4n+3m}{2m+3n}\right)^2 -2 &= \frac{(4n+3m)^2}{(2m+3n)^2}-2 \\
&= \frac{(4n+3m)^2-2(2m+3n^2)}{(2m+3n)^2} \\
&= \frac{ 16n^2+9m^2+24mn -2(4m^2+9n^2+12mn)}{(2m+3n)^2} \\
&= \frac{ 16n^2+9m^2+24mn -8m^2-18n^2-24mn}{(2m+3n)^2} \\
&= \frac{m^2 -2n^2}{(2m+3n)^2}.
\end{aligned}

Elle est strictement négative vu que $m^2 < 2n^2.$

D’où $q\in A.$

Concluez

Vous avez montré que pour tout nombre appartenant à $A$, il existe un nombre appartenant à $A$ qui lui est strictement supérieur.

Donc l’ensemble $A$ n’admet pas de plus grand élément.

Prolongement

En suivant une démarche similaire, pourriez-vous prouver aussi que l’ensemble défini par :

$B=\left\{\frac{m}{n}, m\in\N, n\in\N^{*}\text{ et } \left(\frac{m}{n}\right)^2<3\right\}$

n’admet pas de plus grand élément ?

192. Le théorème de Heine

Ce théorème est attribué à Eduard Heine et date de 1872. Il s’énonce ainsi.

Quels que soient les réels $a$ et $b$ tels que $a<b$ et quelle que soit $f: [a,b]\to \R$ une fonction continue, $f$ est uniformément continue sur $[a,b].$

Continuité et continuité uniforme

Le fait que $f$ soit continue sur $[a,b]$ s’exprime ainsi :

\begin{aligned} \forall x\in [a,b], \forall \varepsilon > 0, \exists \delta >0, \forall y\in[a,b], \lvert y-x \rvert\leq \delta \implies \lvert f(y)-f(x)\rvert \leq \varepsilon.\end{aligned}

Il s’agit démontrer sous cette hypothèse la continuité uniforme de $f$ sur $[a,b]$, à savoir :

\begin{aligned} \forall \varepsilon > 0, \exists \delta >0, \forall x\in [a,b], \forall y\in[a,b], \lvert y-x \rvert\leq \delta \implies \lvert f(y)-f(x)\rvert \leq \varepsilon.\end{aligned}

De nombreuses démonstrations se basent sur des suites, des suites extraites et le raisonnement par l’absurde. D’autres utilisent la notion de compacité du segment $[a,b]$, qui, recouvert par des ouverts bien choisis, et extraction d’un sous-recouvrement fini, permettent d’aboutir à une démonstration.

Dans cet article vous utiliserez une preuve directe reposant sur la propriété de la borne supérieure des réels : toute partie non vide et majorée de $\R$ admet une borne supérieure, c’est-à-dire un plus petit majorant pour cette partie.

Fixez deux réels $a$ et $b$ tels que $a<b.$ Soit $f: [a,b]\to \R$ une fonction continue et $\varepsilon$ un réel strictement positif.

Une notation utile

On dit que $f$ possède la propriété $P$ sur un intervalle $I\subset[a,b]$, si et seulement si : $\exists \delta > 0, \forall z,z’\in I, \lvert z-z’\rvert\leq \delta \implies \lvert f(z)-f(z’)\rvert \leq \varepsilon.$

De cette définition, on tire immédiatement le fait que si $J$ est un sous-intervalle d’un intervalle $I\subset[a,b]$ et si $f$ possède la propriété $P$ sur $I$, alors $f$ possède la propriété $P$ sur $J.$

Lemme $1$ : caractère local de la propriété $P$

Soit $c$ un réel appartenant à l’intervalle $[a,b].$

Alors il existe un réel $r$ strictement positif tel que $f$ possède la propriété $P$ sur l’intervalle $[a,b]\cap [c-r, c+r].$

En effet, $f$ est continue en $c.$

Il existe donc un réel $r$ strictement positif tel que $\forall x\in[a,b], \lvert x-c\rvert \leq r \implies \lvert f(x)-f(c)\rvert \leq \frac{\varepsilon}{2}.$

Soient maintenant $z$ et $z’$ deux réels de l’intervalle $[a,b]\cap [c-r, c+r].$

Comme $\lvert z-c\rvert \leq r$ et $\lvert z’-c\rvert \leq r$ il vient $\lvert f(z)-f(c)\rvert \leq \frac{\varepsilon}{2}$ et $\lvert f(z’)-f(c)\rvert \leq \frac{\varepsilon}{2}.$

D’après l’inégalité triangulaire :

\begin{aligned}
\lvert f(z)-f(z’) \rvert &\leq \lvert f(z)-f(c) \rvert + \lvert f(z’)-f(c) \rvert\\
&\leq \frac{\varepsilon}{2} + \frac{\varepsilon}{2}\\
&\leq \varepsilon.
\end{aligned}

Ce qui conclut.

Le lemme suivant sera aussi très utile dans la suite.

Lemme $2$ : recollement d’intervalles

Supposez que $u$, $v$ et $w$ sont trois réels de l’intervalle $[a,b]$ tels que $u<v<w$, de sorte que : $f$ ait la propriété $P$ sur l’ intervalle $[u,v]$ et $f$ ait aussi la propriété $P$ sur l’intervalle $[v,w].$

Vous allez montrer que $f$ possède la propriété $P$ sur l’intervalle $[u,w].$

Vous avez tout d’abord l’existence de deux réels strictement positifs $\delta_1$ et $\delta_2$ tels que :

$\forall z,z’\in [u,v], \lvert z-z’\rvert\leq \delta_1 \implies \lvert f(z)-f(z’)\rvert \leq \varepsilon.$

$\forall z,z’\in [v,w], \lvert z-z’\rvert\leq \delta_2 \implies \lvert f(z)-f(z’)\rvert \leq \varepsilon.$

Le recollement va être dû à la continuité de $f$ en $v$.

En effet, il existe $\delta_3>0$ tel que $\forall x\in [a,b], \lvert x-v\rvert\leq \delta_3 \implies \lvert f(x)-f(v)\rvert \leq \frac{\varepsilon}{2}.$

Posez alors $\delta = \mathrm{Min}(\delta_1, \delta_2,\delta_3).$

Considérez deux réels $z$ et $z’$ appartenant à l’intervalle $[u,w]$ et tels que $\lvert z-z’\rvert\leq \delta.$

1er cas : $z\in[u,v]$ et $z’\in[u,v].$ Comme $\lvert z-z’\rvert\leq \delta \leq \delta_1$ il vient $\lvert f(z)-f(z’)\rvert \leq \varepsilon.$

2ème cas : $z\in[u,v]$ et $z’\notin[u,v].$ Alors $z’\in[v,w].$ Alors :

$\lvert z-v\rvert \leq \lvert z-z’\rvert\leq \delta \leq \delta_3.$

De même :

$\lvert z’-v\rvert \leq \lvert z-z’\rvert\leq \delta \leq \delta_3.$

Donc $\lvert f(z)-f(v)\rvert \leq \frac{\varepsilon}{2}$ et $\lvert f(z’)-f(v)\rvert \leq \frac{\varepsilon}{2}.$

L’inégalité triangulaire fournit :

\begin{aligned}
\lvert f(z)-f(z’) \rvert &\leq \lvert f(z)-f(v) \rvert + \lvert f(z’)-f(v) \rvert\\
&\leq \frac{\varepsilon}{2} + \frac{\varepsilon}{2}\\
&\leq \varepsilon.
\end{aligned}

3ème cas : $z\notin[u,v]$ et $z’\in[u,v].$ Alors $z\in[v,w].$ Il s’agit du cas numéro 2 où $z$ et $z’$ ont été échangés. Vous obtenez alors $\lvert f(z)-f(z’) \rvert \leq \varepsilon.$

4ème cas : $z\notin[u,v]$ et $z’\notin[u,v].$ Alors $z,z’\in[v,w].$ Comme $\lvert z-z’\rvert\leq \delta \leq \delta_2$ il vient $\lvert f(z)-f(z’)\rvert \leq \varepsilon.$

Ainsi $f$ possède bien la propriété $P$ sur l’intervalle $[u,w].$

Passez maintenant à la démonstration du théorème de Heine

Considérez pour cela l’ensemble $A = \{x\in[a,b],$ $f$ possède la propriété $P$ sur l’intervalle $[a,x].\}$

Montrez que $A$ contient un élément strictement supérieur à $a$

En appliquant le lemme $1$, avec $c=a$ vous avez l’existence d’un réel $r>0$ tel que $f$ possède la propriété $P$ sur l’intervalle $[a,b]\cap[a-r, a+r].$

Posez $a_0 = a+ \mathrm{Min}(b-a, r)$. Alors $a<a_0\leq b$ et $f$ possède la propriété $P$ sur l’intervalle $[a, a_0].$

Donc $a_0\in A.$

Montrez que $A$ admet une borne supérieure

La partie $A$ est une partie de $\R$ non vide (puisqu’elle contient $a_0$) et qui est majorée par $b.$

Donc elle admet une borne supérieure $\alpha.$

Comme $a_0\in A$ il vient $a_0\leq \alpha$ puisque la borne supérieure de $A$ est un majorant de $A.$

Le nombre $b$ majore $A$, or le plus petit des majorants de $A$ est $\alpha$, donc $\alpha\leq b.$

Ainsi $a<a_0\leq \alpha \leq b.$

Montrez que la borne supérieure $\alpha$ est égale à $b$

Ce point est délicat.

Raisonnez par l’absurde en supposant $\alpha \neq b.$ Alors $a < \alpha < b.$

Appliquez le lemme $1$ avec $c=\alpha.$ Il existe un réel $r’>0$ tel que $f$ possède la propriété $P$ sur l’intervalle $[a,b]\cap[\alpha-r’, \alpha+r’].$

Posez alors $r = \mathrm{Min}(r’, b-\alpha, \alpha-a)>0.$ Alors $a\leq \alpha-r\leq \alpha+r\leq b.$

Alors $f$ possède la propriété $P$ sur $[\alpha-r, \alpha+r].$

Or $\alpha-r < \alpha$, donc $\alpha-r$ ne peut majorer $A$ donc il existe $d\in A$ tel que $\alpha-r<d.$ Comme $f$ possède la propriété $P$ sur $[a, d]$ vous déduisez que $f$ possède aussi la propriété $P$ sur $[a, \alpha-r].$

Utilisant le lemme $2$ de recollement, vous déduisez que $f$ admet la propriété $P$ sur $[a, \alpha+r]$, donc $\alpha+r\in A.$

Or $\alpha$ majore $A$ donc $\alpha+r \leq \alpha$ donc $r\leq 0$ contradiction.

Concluez

D’après ce qui précède, la borne supérieure de $A$ est égale à $b.$

Or, en appliquant le lemme $1$ à $c=b$ vous déduisez l’existence d’un réel $r’>0$ tel que $f$ possède la propriété $P$ sur $[a,b]\cap [b-r’, b+r’].$

Posez alors $r = \mathrm{Min}(r’,b-a)> 0.$ Vous avez $a\leq b-r < b.$

La fonction $f$ possède la propriété $P$ sur l’intervalle $[b-r, b]\subset [a,b]\cap [b-r’, b+r’].$

Or $b-r < b$ donc $b-r$ ne peut majorer $A$ donc il existe $d\in A$ tel que $b-r< d.$

La fonction $f$ possède la propriété $P$ sur l’intervalle $[a,d]$ donc $f$ possède aussi la propriété $P$ sur l’intervalle $[a,b-r].$

Utilisant le lemme $2$ de recollement vous déduisez que $f$ possède la propriété $P$ sur l’intervalle $[a,b].$

Cela termine la démonstration du théorème de Heine.

191. Calcul de la somme de la suite formée par les dérivées des termes consécutifs d’une suite géométrique

Soit $q$ un nombre réel positif tel que $q<1.$

Pour tout entier naturel $n\geq 3$, vous considérez $u_n = 1+2q+3q^2+4q^3+\cdots+(n+1)q^n.$

Autrement dit, pour tout $n\geq 0$ vous avez $u_n = \sum_{k=0}^n (k+1)q^k.$

Le but de cet article est de montrer que la limite $\lim_{n\to +\infty} u_n$ existe et de calculer sa valeur.

Ramenez-vous à une suite géométrique

Soit $n$ un entier naturel supérieur ou égal à $1.$

\begin{aligned}
q\times u_n &= \sum_{k=0}^n (k+1)q^{k+1} \\
&= \sum_{k=1}^{n+1} kq^{k}\\
&= \sum_{k=1}^{n} kq^{k} + (n+1)q^n.
\end{aligned}

Or $u_n = 1 + \sum_{k=1}^n (k+1)q^k.$

Il vient :

\begin{aligned}
u_n-q\times u_n &= \sum_{k=1}^n (k+1)q^k -\sum_{k=1}^{n} kq^{k} + 1 – (n+1)q^n\\
&=\sum_{k=1}^n q^k + 1 – (n+1)q^n\\
&=\sum_{k=0}^n q^k – (n+1)q^n\\
&=\frac{1-q^{n+1}}{1-q} – (n+1)q^n
\end{aligned}

Vous déduisez $u_n=\frac{\frac{1-q^{n+1}}{1-q} – (n+1)q^n}{1-q}.$

Déduisez la valeur de la somme

Soit $x$ un nombre réel positif et $n$ un entier supérieur ou égal à $2.$

Le développement de $(1+x)^n$ par la formule du binôme fournit l’inégalité $(1+x)^n \geq \frac{n(n-1)}{2}x^2.$

Par suite, comme $1/q$ est strictement supérieur à $1$, vous avez $1/q = 1+x$ avec $x>0$ et $\frac{(1/q)^n}{n} \geq \frac{n-1}{2}x^2$ donc $\lim_{n\to +\infty} \frac{(1/q)^n}{n} = +\infty$ soit $\lim_{n\to +\infty} nq^n = 0.$

Comme $0\leq q^n \leq nq^n$ vous retrouvez par le théorème des gendarmes que $\lim_{n\to +\infty} q^n = 0.$

Vous déduisez $\lim_{n\to +\infty} (n+1)q^n =0$ et $\lim_{n\to +\infty} q^{n+1} =0.$

Il vient immédiatement $\lim_{n\to +\infty} u_n = \frac{1}{(1-q)^2.}$

Il est ainsi prouvé que pour tout $q\in[0,1[, \boxed{\sum_{k=0}^{+\infty} (k+1)q^k = \frac{1}{(1-q)^2}.}$

Prolongement

Justifiez que le résultat s’étend à un intervalle plus large.

Montrez que pour tout $q\in]-1,1[, \sum_{k=0}^{+\infty} (k+1)q^k = \frac{1}{(1-q)^2}.$

190. Les équations de Cauchy-Riemann avec les parties réelles et imaginaires

Dans cet article, $z_0$ désigne un nombre complexe fixé.

Il s’écrit sous la forme unique $z_0=x_0+iy_0$ où $x_0$ et $y_0$ sont deux nombres réels.

Supposez qu’il existe un nombre réel $r$ strictement positif tel que $f$ soit une fonction définie sur $B = \{z\in\C, \lvert z-z_0\rvert<r\}$ (boule ouverte de centre $z_0$ et de rayon $r$) à valeurs dans $\C.$

Supposez de plus que la fonction $f$ est dérivable au sens complexe en $z_0$, autrement dit il existe un nombre complexe noté $f'(z_0)$ tel que :

\begin{aligned} \forall \varepsilon > 0, \exists \delta > 0, \forall h\in \C, 0<\lvert h \rvert < \mathrm{Min}(\delta,r) \implies \left\lvert\frac{f(z_0+h)-f(z_0)}{h} – f'(z_0) \right\rvert \leq \varepsilon.\end{aligned}

Ceci est noté $\lim_{\substack{h\to 0\\h\in\C}} \frac{f(z_0+h)-f(z_0)}{h} = f'(z_0).$

Avant de commencer les démonstrations proprement dites sur les équations de Cauchy-Riemann il sera très utile de faire le lien entre les parties réelles et imaginaires.

Un petit lemme sur les parties réelles et imaginaires

Soit $z$ un nombre complexe. Il existe un unique couple de réels $(x,y)$ tel que $z = x+iy.$

On note $x = \mathrm{Re}(z)$ et $y = \mathrm{Im}(z)$.

Notez que $iz = -y + ix = – \mathrm{Im}(z) + i \mathrm{Re}(z).$

Vous obtenez alors le résultat suivant, valable pour tout nombre complexe $z$ :

$\boxed{\mathrm{Re}(iz) = -\mathrm{Im}(z)}$ et $\boxed{\mathrm{Im}(iz) = \mathrm{Re}(z).}$

Définissez les fonctions de deux variables qui correspondent à la partie réelle et à la partie imaginaire

Notez :

\begin{aligned} C = \left\{(x_0+h, y_0+k), (h,k)\in\left]\frac{-r\sqrt{2}}{2}, \frac{r\sqrt{2}}{2}\right[^2\right\}\end{aligned}

qui est un carré centré en $(x_0,y_0)$ avec $C\subset \R^2.$

Il convient de remarquer que $\forall (x,y)\in C, x+iy\in U.$

Cela conduit aux définitions suivantes.

Pour tout $(x,y)\in C$ vous posez $\boxed{u(x,y) = \mathrm{Re}(f(x+iy))}$ et $\boxed{v(x,y) = \mathrm{Im}(f(x+iy)).}$

Démontrez la première relation de Cauchy-Riemann $\frac{\partial u}{\partial x}(x_0,y_0) = \frac{\partial v}{\partial y}(x_0,y_0)$

Il s’agit de démontrer que la fonction $u$ admet une dérivée partielle par rapport à la première variable en $(x_0,y_0)$, notée $\frac{\partial u}{\partial x}(x_0,y_0)$ puis de démontrer que la fonction $v$ admet aussi une dérivée partielle par rapport à la seconde variable, notée $\frac{\partial v}{\partial y}(x_0,y_0)$ puis d’arriver à l’égalité $\frac{\partial u}{\partial x}(x_0,y_0) = \frac{\partial v}{\partial y}(x_0,y_0).$

Soit $\varepsilon$ un nombre réel strictement positif.

Il existe alors un nombre réel $\delta$ strictement positif tel que:

\begin{aligned} \forall h\in \C, 0<\lvert h \rvert < \mathrm{Min}(\delta,r) \implies \left\lvert\frac{f(z_0+h)-f(z_0)}{h} – f'(z_0) \right\rvert \leq \varepsilon.\end{aligned}

Soit maintenant $h$ un réel tel que $0 < \lvert h \rvert < \mathrm{Min}\left(\delta,\frac{r\sqrt{2}}{2}\right).$

\begin{aligned}
\left\lvert \frac{u(x_0+h,y_0)-u(x_0,y_0)}{h}-\mathrm{Re}(f'(z_0))\right\rvert &\leq \left\lvert \frac{\mathrm{Re}(f(x_0+h+iy_0))-\mathrm{Re}(f(x_0+iy_0))}{h}-\mathrm{Re}(f'(z_0))\right\rvert \\
&\leq \left\lvert \mathrm{Re}\left(\frac{f(x_0+h+iy_0)-f(x_0+iy_0)}{h}\right) -\mathrm{Re}(f'(z_0)) \right\rvert\\
&\leq \left\lvert \mathrm{Re}\left(\frac{f(z_0+h)-f(z_0)}{h}\right) -\mathrm{Re}(f'(z_0)) \right\rvert\\
&\leq \left\lvert \mathrm{Re}\left(\frac{f(z_0+h)-f(z_0)}{h} – f'(z_0)\right) \right\rvert\\
&\leq \left\lvert \frac{f(z_0+h)-f(z_0)}{h} – f'(z_0) \right\rvert\\
&\leq \varepsilon.
\end{aligned}

Il est ainsi démontré que la fonction $u$ admet une dérivée partielle par rapport à la première variable en $(x_0,y_0)$ et que $\boxed{\frac{\partial u}{\partial x}(x_0,y_0) = \mathrm{Re}(f'(z_0)).}$

Il s’agit maintenant de passer à la fonction $v.$

Remarquez que $\lvert ih \rvert = \lvert h \rvert$ donc:

\begin{aligned} \left\lvert\frac{f(z_0+ih)-f(z_0)}{ih} – f'(z_0) \right\rvert \leq \varepsilon.\end{aligned}

Il vient les majorations suivantes:

\begin{aligned}
\left\lvert \frac{v(x_0,y_0+h)-v(x_0,y_0)}{h}-\mathrm{Re}(f'(z_0))\right\rvert &\leq \left\lvert \frac{\mathrm{Im}(f(x_0+iy_0+ih))-\mathrm{Im}(f(x_0+iy_0))}{h}-\mathrm{Re}(f'(z_0))\right\rvert \\
&\leq \left\lvert \frac{\mathrm{Im}(f(x_0+iy_0+ih)-f(x_0+iy_0))}{h}-\mathrm{Re}(f'(z_0))\right\rvert \\
&\leq \left\lvert \mathrm{Im}\left(\frac{f(x_0+iy_0+ih)-f(x_0+iy_0)}{h}\right) -\mathrm{Re}(f'(z_0))\right\rvert \\
&\leq \left\lvert \mathrm{Im}\left(\frac{f(z_0+ih)-f(z_0)}{h}\right) -\mathrm{Re}(f'(z_0))\right\rvert \\
&\leq \left\lvert \mathrm{Im}\left(i\times \frac{f(z_0+ih)-f(z_0)}{ih}\right) -\mathrm{Re}(f'(z_0))\right\rvert \\
&\leq \left\lvert \mathrm{Re}\left( \frac{f(z_0+ih)-f(z_0)}{ih}\right) -\mathrm{Re}(f'(z_0))\right\rvert \\
&\leq \left\lvert \mathrm{Re}\left( \frac{f(z_0+ih)-f(z_0)}{ih}-f'(z_0)\right) \right\rvert \\
&\leq \left\lvert \frac{f(z_0+ih)-f(z_0)}{ih}-f'(z_0) \right\rvert \\
&\leq \varepsilon.
\end{aligned}

Il est ainsi démontré que la fonction $v$ admet une dérivée partielle par rapport à la deuxième variable en $(x_0,y_0)$ et que $\boxed{\frac{\partial v}{\partial y}(x_0,y_0) = \mathrm{Re}(f'(z_0)).}$

Vous en déduisez que $\boxed{\frac{\partial u}{\partial x}(x_0,y_0) = \frac{\partial v}{\partial y}(x_0,y_0).}$

Démontrez la deuxième relation de Cauchy-Riemann $\frac{\partial u}{\partial y}(x_0,y_0) = -\frac{\partial v}{\partial x}(x_0,y_0)$

Il s’agit de démontrer que la fonction $u$ admet une dérivée partielle par rapport à la deuxième variable en $(x_0,y_0)$, notée $\frac{\partial u}{\partial y}(x_0,y_0)$ puis de démontrer que la fonction $v$ admet aussi une dérivée partielle par rapport à la première variable, notée $\frac{\partial v}{\partial x}(x_0,y_0)$ puis d’arriver à l’égalité $\frac{\partial u}{\partial y}(x_0,y_0) = -\frac{\partial v}{\partial x}(x_0,y_0).$

Soit $\varepsilon$ un nombre réel strictement positif.

Il existe alors un nombre réel $\delta$ strictement positif tel que:

\begin{aligned} \forall h\in \C, 0<\lvert h \rvert < \mathrm{Min}(\delta,r) \implies \left\lvert\frac{f(z_0+h)-f(z_0)}{h} – f'(z_0) \right\rvert \leq \varepsilon.\end{aligned}

Soit maintenant $h$ un réel tel que $0 < \lvert h \rvert < \mathrm{Min}\left(\delta,\frac{r\sqrt{2}}{2}\right).$ Notez encore que $\lvert ih \rvert = \lvert h \rvert$ donc:

\begin{aligned} \left\lvert\frac{f(z_0+ih)-f(z_0)}{ih} – f'(z_0) \right\rvert \leq \varepsilon.\end{aligned}

Il vient successivement:

\begin{aligned}
\left\lvert \frac{u(x_0,y_0+h)-u(x_0,y_0)}{h}-\left[-\mathrm{Im}(f'(z_0))\right]\right\rvert &\leq \left\lvert \frac{\mathrm{Re}(f(x_0+iy_0+ih))-\mathrm{Re}(f(x_0+iy_0))}{h}+\mathrm{Im}(f'(z_0))\right\rvert \\
&\leq \left\lvert \frac{\mathrm{Re}(f(z_0+ih))-\mathrm{Re}(f(z_0))}{h}+\mathrm{Im}(f'(z_0))\right\rvert \\
&\leq \left\lvert \mathrm{Re} \left(\frac{f(z_0+ih)-f(z_0)}{h}\right) +\mathrm{Im}(f'(z_0))\right\rvert \\
&\leq \left\lvert \mathrm{Re} \left(i\times \frac{f(z_0+ih)-f(z_0)}{ih}\right) +\mathrm{Im}(f'(z_0))\right\rvert \\
&\leq \left\lvert -\mathrm{Im} \left( \frac{f(z_0+ih)-f(z_0)}{ih}\right) +\mathrm{Im}(f'(z_0))\right\rvert \\
&\leq \left\lvert \mathrm{Im} \left( f'(z_0) – \frac{f(z_0+ih)-f(z_0)}{ih} \right) \right\rvert \\
&\leq \left\lvert f'(z_0) – \frac{f(z_0+ih)-f(z_0)}{ih} \right\rvert \\
&\leq \left\lvert \frac{f(z_0+ih)-f(z_0)}{ih} – f'(z_0) \right\rvert \\
&\leq \varepsilon.
\end{aligned}

Il est ainsi démontré que la fonction $u$ admet une dérivée partielle par rapport à la deuxième variable en $(x_0,y_0)$ et que $\boxed{\frac{\partial u}{\partial y}(x_0,y_0) = -\mathrm{Im}(f'(z_0)).}$

\begin{aligned}
\left\lvert \frac{v(x_0+h,y_0)-v(x_0,y_0)}{h}-\mathrm{Im}(f'(z_0))\right\rvert &\leq \left\lvert \frac{\mathrm{Im}(f(x_0+h+iy_0))-\mathrm{Im}(f(x_0+iy_0))}{h}-\mathrm{Im}(f'(z_0))\right\rvert \\
&\leq \left\lvert \frac{\mathrm{Im}(f(z_0+h))-\mathrm{Im}(f(z_0))}{h}-\mathrm{Im}(f'(z_0))\right\rvert \\
&\leq \left\lvert \mathrm{Im}\left( \frac{f(z_0+h)-f(z_0)}{h} – f'(z_0) \right)\right\rvert \\
&\leq \left\lvert\frac{f(z_0+h)-f(z_0)}{h} – f'(z_0) \right\rvert \\
&\leq \varepsilon.
\end{aligned}

Il est ainsi démontré que la fonction $v$ admet une dérivée partielle par rapport à la première variable en $(x_0,y_0)$ et que $\boxed{\frac{\partial v}{\partial x}(x_0,y_0) = \mathrm{Im}(f'(z_0)).}$

Vous en déduisez que $\boxed{\frac{\partial u}{\partial y}(x_0,y_0) = -\frac{\partial v}{\partial x}(x_0,y_0).}$

189. Théorème de Mertens sur les séries

Dans cet article vous allez prouver un résultat attribué à un mathématicien allemand Franz Mertens, qui a prouvé une propriété de convergence sur les séries de nombres complexes.

Soient $\sum_{n\geq 0} a_n$ et $\sum_{n\geq 0} b_n$ deux séries de nombres complexes.

Supposez que $\sum_{n\geq 0} b_n$ converge vers un nombre complexe $b$ noté $\sum_{n=0}^{+\infty} b_n$ et que la série $\sum_{n\geq 0} a_n$ est absolument convergente, autrement dit $\sum_{n = 0}^{+\infty} \lvert a_n \rvert < +\infty.$

Alors la série $\sum_{n\geq 0} a_n$ est convergente, vous notez $a = \sum_{n= 0}^{+\infty} a_n.$

Pour tout entier naturel $n$ vous posez $c_n =\sum_{k=0}^n a_kb_{n-k}.$ La série $\sum_{n \geq 0} c_n$ est appelée produit de Cauchy des séries $\sum_{n\geq 0} a_n$ et $\sum_{n\geq 0} b_n.$

Sous les hypothèses ci-dessus, vous allez démontrer que la série $\sum_{n \geq 0} c_n$ est convergente et que sa somme $\sum_{n =0}^{+\infty} c_n$ est égale au produit $ab = \left(\sum_{n = 0}^{+\infty} a_n\right)\left(\sum_{n = 0}^{+\infty} b_n\right).$

Trouvez une écriture convenable pour la somme $\sum_{p=0}^n c_p$

Calculez les premiers termes :

\begin{aligned}
c_0 &= a_0b_0\\
c_1 &= a_0b_1+a_1b_0\\
c_2 &= a_0b_2+a_1b_1+a_2b_0.
\end{aligned}

Si bien que :

\begin{aligned}
c_0 +c_1+c_2&= a_0(b_0+b_1+b_2)+a_1(b_0+b_1)+a_2b_0.
\end{aligned}

Pour tout entier naturel $n$, posez $\boxed{B_n = \sum_{p=0}^n b_p.}$

Vous obtenez :

\begin{aligned}
c_0 +c_1+c_2&= a_0B_2+a_1B_1+a_2B_0.
\end{aligned}

Généralisez avec une récurrence.

Pour tout entier naturel $n$, notez $P(n)$ la propriété suivante : « $\sum_{p=0}^n c_p = \sum_{p=0}^n a_pB_{n-p}$. »

Initialisation. Pour $n=0$ :

\begin{aligned}
\sum_{p=0}^n c_p &= c_0 \\ &= a_0b_0 \\ &= a_0B_0 \\ &= \sum_{p=0}^n a_pB_{n-p}.
\end{aligned}

Hérédité. Soit $n$ un entier naturel fixé tel que $P(n)$ soit vérifiée.

\begin{aligned}
\sum_{p=0}^{n+1} c_p &= \sum_{p=0}^{n} c_p + c_{n+1}\\
&= \sum_{p=0}^n a_pB_{n-p} +c_{n+1}\\
&= \sum_{p=0}^n a_pB_{n-p} +\sum_{p=0}^{n+1} a_p b_{n+1-p}\\
&= \sum_{p=0}^n a_pB_{n-p} +\sum_{p=0}^{n} a_p b_{n+1-p} + a_{n+1}b_0\\
&= \sum_{p=0}^n a_p (B_{n-p} + b_{n+1-p}) + a_{n+1}b_0\\
&= \sum_{p=0}^n a_p (B_{n-p} + b_{n-p+1}) + a_{n+1}b_0\\
&= \sum_{p=0}^n a_p \left(\sum_{k=0}^{n-p} b_k + b_{n-p+1}\right) + a_{n+1}b_0\\
&= \sum_{p=0}^n a_p \left(\sum_{k=0}^{n-p+1} b_k\right) + a_{n+1}b_0\\
&= \sum_{p=0}^n a_p B_{n+1-p} + a_{n+1}b_0\\
&= \sum_{p=0}^n a_p B_{n+1-p} + a_{n+1}B_0\\
&= \sum_{p=0}^{n+1} a_p B_{n+1-p}.
\end{aligned}

Donc $P(n+1)$ est vérifiée.

Conclusion. Par récurrence vous avez établi que :

\begin{aligned} \boxed{\forall n\in\N, \sum_{p=0}^n c_p = \sum_{p=0}^n a_pB_{n-p}.}\end{aligned}

Démontrez que $\lim_{n\to +\infty} \sum_{p=0}^n c_p = ab$

Par définition de la suite $(B_n)_{n\geq 0}$ vous avez $\lim_{n\to +\infty} B_n = b.$ Cette suite étant convergente, elle est bornée : il existe un réel $M$ strictement positif tel que, pour tout $n\in\N$, $\lvert B_n \rvert \leq M.$

Soit maintenant $\varepsilon$ un réel strictement positif.

Comme $\lim_{n\to +\infty} \sum_{p=0}^n a_p = a$, il existe un entier naturel $N_1$ tel que, pour tout $n\geq N_1$, $\left\lvert \sum_{p=0}^n a_p -a \right\rvert\leq \frac{\varepsilon / 3}{\lvert b \rvert +1}.$

Comme $\sum_{k=0}^{+\infty} \lvert a_k \rvert < +\infty$, il existe un entier naturel $N_2$ tel que, pour tout $n\geq N_2$, $\sum_{k=n}^{+\infty} \lvert a_k \rvert \leq \frac{\varepsilon / 3}{M + \lvert b \rvert }.$

Comme $\lim_{n\to +\infty}B_n = b $, il existe un entier naturel $N_3$ tel que, pour tout $n\geq N_3$, $\left\lvert B_n -b \right\rvert \leq \frac{\varepsilon / 3}{1+ \sum_{k=0}^{+\infty} \lvert a_k \rvert}.$

Notez $N = \mathrm{Max}(N_1,N_2,N_3, 1)$.

Supposez que $n$ est un entier naturel tel que $n\geq 2N.$

\begin{aligned}
\left\lvert \sum_{p=0}^n c_p – ab \right\rvert &\leq \left\lvert \sum_{p=0}^n a_pB_{n-p}- ab \right\rvert \\
&\leq \left\lvert \sum_{p=0}^n a_p(B_{n-p} – b) \right\rvert + \left\lvert \sum_{p=0}^n ba_p – ab \right\rvert \\
&\leq \left\lvert \sum_{p=0}^n a_p(B_{n-p} – b) \right\rvert + \left\lvert b \right\rvert \left\lvert \sum_{p=0}^n a_p – a \right\rvert \\
&\leq \left\lvert \sum_{p=0}^n a_p(B_{n-p} – b) \right\rvert + \left\lvert b \right\rvert \times \frac{\varepsilon / 3}{\lvert b \rvert +1} \\
&\leq \left\lvert \sum_{p=0}^n a_p(B_{n-p} – b) \right\rvert + \frac{\varepsilon}{3} \\
&\leq \left\lvert \sum_{p=0}^N a_p(B_{n-p} – b) \right\rvert + \left\lvert \sum_{p=N+1}^{n} a_p(B_{n-p} – b) \right\rvert + \frac{\varepsilon}{3} \\
&\leq \sum_{p=0}^N \lvert a_p\rvert \lvert B_{n-p} – b\rvert + \left\lvert \sum_{p=N+1}^{n} a_p(B_{n-p} – b) \right\rvert + \frac{\varepsilon}{3} \\
&\leq \sum_{p=0}^N \left(\lvert a_p\rvert \times \frac{\varepsilon / 3}{1+ \sum_{k=0}^{+\infty} \lvert a_k \rvert}\right) + \left\lvert \sum_{p=N+1}^{n} a_p(B_{n-p} – b) \right\rvert + \frac{\varepsilon}{3} \\
&\leq \frac{\varepsilon / 3}{1+ \sum_{k=0}^{+\infty} \lvert a_k \rvert} \times \sum_{p=0}^N \lvert a_p\rvert + \left\lvert \sum_{p=N+1}^{n} a_p(B_{n-p} – b) \right\rvert + \frac{\varepsilon}{3} \\
&\leq \frac{\varepsilon / 3}{1+ \sum_{k=0}^{+\infty} \lvert a_k \rvert} \times \sum_{p=0}^{+\infty} \lvert a_p\rvert + \left\lvert \sum_{p=N+1}^{n} a_p(B_{n-p} – b) \right\rvert + \frac{\varepsilon}{3} \\
&\leq \frac{\varepsilon}{3} + \left\lvert \sum_{p=N+1}^{n} a_p(B_{n-p} – b) \right\rvert + \frac{\varepsilon}{3} \\
&\leq \frac{\varepsilon}{3} + \sum_{p=N+1}^{n} \lvert a_p \rvert (M + \lvert b \rvert) + \frac{\varepsilon}{3} \\
&\leq \frac{\varepsilon}{3} + (M + \lvert b \rvert) \sum_{p=N+1}^{n} \lvert a_p \rvert + \frac{\varepsilon}{3} \\
&\leq \frac{\varepsilon}{3} + (M + \lvert b \rvert) \sum_{p=N+1}^{+\infty} \lvert a_p \rvert + \frac{\varepsilon}{3} \\
&\leq \frac{\varepsilon}{3} + (M + \lvert b \rvert) \times \frac{\varepsilon / 3}{M + \lvert b \rvert } + \frac{\varepsilon}{3} \\
&\leq \frac{\varepsilon}{3} + \frac{\varepsilon}{3} + \frac{\varepsilon}{3} \\
&\leq \varepsilon.
\end{aligned}

Cela termine la démonstration.

Résumez et concluez

Si deux séries $\sum_{n\geq 0} a_n$ et $\sum_{n\geq 0} b_n$ sont convergentes et que l’une d’entre elles est absolument convergente, alors la série du produit de Cauchy $\sum_{n\geq 0} \left(\sum_{k=0}^n a_kb_{n-k}\right)$ est convergente et de plus :

\begin{aligned} \boxed{\sum_{n= 0}^{+\infty} \left(\sum_{k=0}^n a_kb_{n-k} \right)= \left(\sum_{n= 0}^{+\infty} a_n\right)\left(\sum_{n= 0}^{+\infty} b_n\right).}\end{aligned}

Prolongement

Soit $q$ un nombre complexe tel que $\lvert q \rvert < 1.$

Pourriez-vous démontrer que la série $\sum_{n\geq 0} (n+1)q^n$ est convergente ?

Montrez alors que sa somme est donnée par $\sum_{n=0}^{+\infty} (n+1)q^n = \frac{1}{(1-q)^2}.$