Votre navigateur n'accepte pas le Javascript.La navigation sur ce site risque de ne pas fonctionner correctement.

110. Faisceau de droites parallèles coupant une ellipse

Descriptif du faisceau

Tout d’abord, décrivons la partie géométrique, on se donne une ellipse de demi-grand axe $a>0$ et de demi-petit axe $b>0$ qui n’est pas un cercle : $0<b<a.$

On considère des droites $D_1$, $D_2$… toutes parallèles entre elles, coupant ladite ellipse en deux points chacune, ce qui s’appelle un faisceau.

On considère alors les milieux des points d’intersection : la droite $D_1$ coupe l’ellipse en deux points dont on note $I_1$ le milieu, et ainsi de suite, conformément au schéma ci-dessus.

Ce qui est tout à fait remarquable, c’est que l’ensemble de ces milieux est inclus dans droite qui passe par le centre de l’ellipse.

Note : le lecteur qui connaît la notion d’affinité et ses propriétés pourra démontrer très rapidement ce résultat.
Dans cet article, le résultat sera démontré avec une approche qui ne déforme pas l’ellipse.

Première approche pour démontrer ce résultat

Le repère dans lequel l’ellipse a l’équation la plus simple est un repère $(O,\vv{i},\vv{j})$, $O$ étant le centre de l’ellipse, les vecteurs $\vv{i}$ et $\vv{j}$ dirigeant le grand axe et le petit axe de ladite ellipse.

Soient $D_1$ et $D_2$ deux droites du faisceau.

Notez $ux+vy+w=0$ avec $(u,v)\neq(0,0)$ une équation cartésienne de $D_1$, puis $u’x+v’y+w’=0$ avec $(u’,v’)\neq (0,0)$ une équation cartésienne de $D_2$. Comme elles sont parallèles, vous avez l’égalité $uv’ – u’v=0.$

Obtenir les deux points d’intersection de $D_1$ avec l’ellipse, c’est trouver les solutions du système :

$\left\{\begin{align*}\dfrac{x^2}{a^2}+\dfrac{y^2}{b^2}=1 \\ ux+yv+w = 0\end{align*}\right.$

Notez $\left(x_1^{(1)},y_1^{(1)}\right)$ et $\left(x_2^{(1)},y_2^{(1)}\right)$ les coordonnées des deux points obtenus.

Obtenir lesdeux points d’intersection de $D_2$ avec l’ellipse, c’est trouver les solutions du système :

$\left\{\begin{align*}\dfrac{x^2}{a^2}+\dfrac{y^2}{b^2}=1 \\ u’x+y’v+w’ = 0\end{align*}\right.$

Notez $\left(x_1^{(2)},y_1^{(2)}\right)$ et $\left(x_2^{(2)},y_2^{(2)}\right)$ les coordonnées des deux points obtenus.

Il va vous falloir former les deux milieux $\left(\dfrac{x_1^{(1)}+x_2^{(1)}}{2};\dfrac{y_1^{(1)}+y_2^{(1)}}{2}\right)$ et $\left(\dfrac{x_1^{(2)}+x_2^{(2)}}{2};\dfrac{y_1^{(2)}+y_2^{(2)}}{2}\right)$ puis démontrer l’alignement de ces deux points avec l’origine du repère.

Est-ce possible ? Oui, mais ce n’est pas l’approche que l’on va privilégier.

Changez les axes du repère par une rotation

Au lieu de travailler dans un repère orthonormé ayant des axes parallèles à ceux de l’ellipse, il est tout à fait possible de changer de repère par rotation et de considérer que la droite $D_1$ est horizontale, dans le nouveau repère, avec une équation de la forme $Y=k$. Notez $O$ le centre de l’ellipse et $\vv{i}$ et $\vv{j}$ deux vecteurs unitaires orthogonaux dirigés selon les axes de l’ellipse.

Notez $\vv{u}$ et $\vv{v}$ les deux vecteurs obtenus par rotation, d’angle $\alpha$ choisi pour que $\vv{u}$ soit un vecteur qui dirige $D_1$, $D_2$, ce qui change le point de vue conformément au dessin ci-dessous.

Matriciellement, le vecteur $\vv{OM}$ est égal au produit $\begin{pmatrix}x & y \end{pmatrix}\begin{pmatrix} \vv{i}\\ \vv{j}\end{pmatrix}.$ Or, $\begin{pmatrix} \vv{u}\\ \vv{v}\end{pmatrix} = \begin{pmatrix} \cos \alpha & \sin \alpha \\ -\sin\alpha & \cos\alpha \end{pmatrix} \begin{pmatrix} \vv{i}\\ \vv{j}\end{pmatrix}.$

Soit $M$ un point du plan. Notez $(x,y)$ ses coordonnées dans le repère orthonormé $(O,\vv{i},\vv{j})$ et $(X,Y)$ ses coordonnées dans l’autre repère $(O,\vv{u},\vv{v}).$

\begin{align*}
\vv{OM} &= \begin{pmatrix}X & Y \end{pmatrix}\begin{pmatrix} \vv{u}\\ \vv{v}\end{pmatrix}\\
 &=\begin{pmatrix}X & Y \end{pmatrix} \begin{pmatrix} \cos \alpha & \sin \alpha \\ -\sin\alpha & \cos\alpha \end{pmatrix} \begin{pmatrix} \vv{i}\\ \vv{j}\end{pmatrix} \\
&= \begin{pmatrix}X\cos\alpha - Y\sin\alpha & X\sin\alpha+Y\cos\alpha \end{pmatrix}\begin{pmatrix} \vv{i}\\ \vv{j}\end{pmatrix}.
\end{align*}

Il vient donc $\left\{\begin{align*}x &= X\cos\alpha – Y\sin\alpha \\
y &= X\sin\alpha+Y\cos\alpha \end{align*}\right.$

Considérez la matrice $A = \begin{pmatrix} \cos\alpha & -\sin\alpha \\ \sin\alpha & \cos\alpha \end{pmatrix}.$ Elle est orthogonale, puisque $A (^{t}A) = (^{t}A) A = I.$

La relation $\begin{pmatrix}x \\ y \end{pmatrix} = A \begin{pmatrix}X \\ Y \end{pmatrix} $ est équivalente à $\begin{pmatrix}X \\ Y \end{pmatrix} = (^{t}A) \begin{pmatrix}x \\ y \end{pmatrix}.$

Obtenez la nouvelle équation de l’ellipse

Quel que soit $(x,y,X,Y)\in\R^4$ vérifiant $\left\{\begin{align*}x &= X\cos\alpha – Y\sin\alpha \\
y &= X\sin\alpha+Y\cos\alpha \end{align*}\right.$

vous observez l’équivalence :

\begin{align*}
\dfrac{x^2}{a^2}+\dfrac{y^2}{b^2}=1 &\Longleftrightarrow \dfrac{(X\cos\alpha - Y\sin\alpha)^2}{a^2}+\dfrac{(X\sin\alpha+Y\cos\alpha)^2}{b^2}=1 \\
&\Longleftrightarrow \dfrac{(\cos^2\alpha) X^2+(\sin^2\alpha) Y^2-\sin(2\alpha)XY}{a^2}+\dfrac{(\sin^2\alpha) X^2+(\cos^2\alpha)Y^2+\sin(2\alpha)XY}{b^2}=1\\
&\Longleftrightarrow \left(\dfrac{\cos^2\alpha}{a^2}+\dfrac{\sin^2\alpha}{b^2}\right)X^2+\left(\dfrac{\sin^2\alpha}{a^2}+\dfrac{\cos^2\alpha}{b^2}\right)Y^2+\left(\dfrac{1}{b^2}-\dfrac{1}{a^2}\right)\sin(2\alpha)XY = 1.
\end{align*}

Dans le repère $(O,\vv{u},\vv{v})$ l’ellipse a pour équation :

\left(\dfrac{\cos^2\alpha}{a^2}+\dfrac{\sin^2\alpha}{b^2}\right)X^2+\left(\dfrac{\sin^2\alpha}{a^2}+\dfrac{\cos^2\alpha}{b^2}\right)Y^2+\left(\dfrac{1}{b^2}-\dfrac{1}{a^2}\right)\sin(2\alpha)XY = 1.

Calculez les coordonnées d’un des milieux

Soit $D$ la droite horizontale d’équation $Y=k$. On suppose que $D$ coupe l’ellipseen deux points distincts. Vous noterez $(X_1,k)$ et $(X_2,k)$ les coordonnées de ces deux points.

Alors $X_1$ et $X_2$ sont les deux solutions de l’équation de degré 2 :

\left(\dfrac{\cos^2\alpha}{a^2}+\dfrac{\sin^2\alpha}{b^2}\right)X^2+k\left(\dfrac{1}{b^2}-\dfrac{1}{a^2}\right)\sin(2\alpha)X+\left(\dfrac{\sin^2\alpha}{a^2}+\dfrac{\cos^2\alpha}{b^2}\right)k^2 -1 =0.

Vous noterez que le coefficient dominant est non nul. En effet, si, par l’absurde, vous aviez $\dfrac{\cos^2\alpha}{a^2}+\dfrac{\sin^2\alpha}{b^2}=0$, alors les deux carrés $\dfrac{\cos^2\alpha}{a^2}$ et $\dfrac{\sin^2\alpha}{b^2}$ seraient nuls et donc $\cos\alpha = \sin\alpha = 0$, ce qui contredit l’équation fondamentale $\cos^2\alpha + \sin^2\alpha = 1.$

En utilisant la formule qui donne la somme des deux racines en fonction des coefficients d’une équation polynomiale de degré 2, vous obtenez :

X_1+X_2 = \dfrac{k\sin(2\alpha)\left(\dfrac{1}{a^2}-\dfrac{1}{b^2}\right)}{\dfrac{\cos^2 \alpha}{a^2}+\dfrac{\sin^2\alpha}{b^2}}.

Pour plus de lisibilité, posez $m =\left(\dfrac{1}{a^2}-\dfrac{1}{b^2}\right) \dfrac{\sin(2\alpha)}{\dfrac{2\cos^2 \alpha}{a^2}+\dfrac{2\sin^2\alpha}{b^2}}$. Le milieu des deux points d’intersection de $D$ avec l’ellipse a pour coordonnées $(km; k)$, il est donc situé sur la droite d’équation $mY = X$ qui est passe par l’origine $O$ du repère qui est aussi le centre de l’ellipse, ce qui démontre le résultat annoncé.

Prolongement

Partant d’une ellipse déjà dessinée, avec une règle et un compas :

  • pourriez-vous construire le centre de cette ellipse ?
  • pourriez-vous retrouver son grand axe et son petit axe ?

109. Trouvez le polynôme minimal d’un nombre algébrique

Calculez les puissances successives de $\alpha = \sqrt{2}+\sqrt{3}$

Pour calculer $\alpha^2$, vous utilisez l’identité remarquable $(a+b)^2=a^2+2ab+b^2.$

$\alpha^2 = 5+2\sqrt{6}$

Pour calculer $\alpha^3$, vous développez le produit $\alpha\times \alpha^2.$

\begin{aligned}
\alpha^3 &= 5\sqrt{2}+5\sqrt{3}+4\sqrt{3}+6\sqrt{2}\\
&=11\sqrt{2}+9\sqrt{3}.
\end{aligned}

Pour calculer $\alpha^4$, il est plus rapide d’élever au carré $\alpha^2$, avec l’identité remarquable affichée précédemment.

\begin{aligned}
\alpha^4 &= 25+24+20\sqrt{6}\\
&=49+20\sqrt{6}.
\end{aligned}

Eliminez $\sqrt{6}$ dans $\alpha^4$ et $\alpha^2$

Multipliez par 10 la relation $\alpha^2 = 5+2\sqrt{6}$ pour obtenir $10\alpha^2 = 50+20\sqrt{6}$.

Comme $\alpha^4 = 49+20\sqrt{6}$, par soustraction membre à membre, il vient $10\alpha^2-\alpha^4=1$ et par suite vous en déduisez que $\alpha$ est annulé par le polynôme $\boxed{P(X) = X^4-10X^2+1}$ à coefficients dans $\Z[X].$

Le nombre $\alpha$ est dit algébrique.

Prolongement : est-il possible d’annuler $\alpha$ avec un polynôme non nul $Q\in\Z[X]$ de degré inférieur ou égal à 3 ?

Participez et faites-moi part de vos contributions par courrier électronique ou sur les réseaux sociaux.

108. Les équations de Cauchy-Riemann

Soit $z$ un nombre complexe fixé et $f$ une fonction à valeurs complexes définie sur une partie ouverte $U\subset\C$ contenant $z.$ Le nombre $z$ est contenu dans une petite boule ouverte, elle-même contenue dans l’ouvert $U$. Cette notion est essentielle car elle précise que l’on peut calculer $f(z+h)$ quand $h$ est de module suffisamment petit.

Plus précisément, il existe un réel $r>0$ tel que, pour tout $h\in\C$, $|h|< r$ implique $z+h\in U.$ Notez $B$ l’ensemble des nombres complexes de module strictement inférieur à $r$, $B$ s’appelant la boule ouverte de centre $0$ et de rayon $r$. Notez que $B$ est non vide et que pour tout $h\in B$, le nombre complexe $z+h$ admet une image par la fonction $f$, ce que vous écrivez $z+h\in U.$

Qu’est-ce qu’une fonction dérivable au sens complexe ?

On dit que la fonction $f$ est dérivable au sens complexe en $z$, si et seulement si, la limite $\lim_{\substack{h\to 0 \\h\in \C}} \dfrac{f(z+h)-f(z)}{h}$ existe dans $\C.$

Plus précisément, cela signifie qu’il existe un nombre complexe $\ell \in\C$ tel que :

$\forall \varepsilon >0, \exists \delta >0, \forall h\in \C, 0< |h|<\delta \Longrightarrow \left( z+h\in U \text{ et } \left|\dfrac{f(z+h)-f(z)}{h} – \ell \right|<\varepsilon \right).$

Le nombre $\ell$ est unique et ne dépend que du choix de $z$ et de la fonction $f.$ Il se note $f'(z).$

Quel est le lien avec les dérivées partielles ?

Le lien entre la dérivabilité au sens complexe et le lien avec les dérivées partielles va être explicité dans ce paragraphe.

La fonction $f$, définie sur une partie $U$ ouverte de $\C$, n’est pas à proprement parler une fonction de deux variables. Il semble quelque peu abusif d’écrire $f(z) = f(x,y)$ où $x$ désigne la partie réelle de $z$ et $y$ sa partie imaginaire… tout simplement parce que $f$ est définie sur une partie de $\C$ et pas sur une partie de $\R^2.$ Il convient d’être précis.

Soit $z = x+iy$ où $(x,y)\in\R^2$ un nombre complexe appartenant à $U.$

Il existe un réel $r$ un réel strictement positif tel que la boule $B= \{c \in\C, \lvert c – z \rvert < r\}$ soit incluse dans $U.$

Il convient alors de noter que le domaine carré $D$ défini par :

\begin{aligned} D=\left\{x+iy+h+ik, (h,k)\in\left[\frac{-r\sqrt{2}}{2}, \frac{r\sqrt{2}}{2} \right]^2\right\}\end{aligned} est inclus dans la boule $B$.

Ainsi il est maintenant légitime de considérer l’application $\widetilde{f}$ qui va de $D\subset \R^2$ dans $\C$, définie par $\forall (h,k)\in D, \widetilde{f}(h,k) = f(h+ik).$

Vous allez démontrer dans la suite le théorème suivant : si $f$ est dérivable au sens complexe en $z$, alors les dérivées partielles $\frac{\partial \widetilde{f}}{\partial x}(x,y)$ et $\frac{\partial \widetilde{f}}{\partial y}(x,y)$ existent et vérifient la condition dite de Cauchy-Riemann :

\begin{aligned} \boxed{\frac{\partial \widetilde{f}}{\partial x}(x,y) + i \frac{\partial \widetilde{f}}{\partial y}(x,y) = 0.}\end{aligned}

En effet, montrez d’abord que le nombre complexe $\frac{\partial \widetilde{f}}{\partial x}(x,y)$ existe bel et bien.

Etant donné que :

$\forall \varepsilon >0, \exists \delta >0, \forall h\in \C, 0< |h|<\delta \Longrightarrow \left( z+h\in U \text{ et } \left|\dfrac{f(z+h)-f(z)}{h} – f'(z) \right|<\varepsilon \right)$

vous allez pouvoir conclure.

Pour tout réel $h$ vérifiant la condition $0 < \lvert h \rvert < r$, vous avez :

\begin{align*}
\frac{\widetilde{f}(x+h,y)-\widetilde{f}(x,y)}{h} &= \frac{f(x+h+iy)-f(x+iy)}{h}\\
&= \frac{f(z+h)-f(z)}{h}\\
\end{align*}

Soit $\varepsilon >0$. Alors il existe $\delta >0$ tel que :

\begin{align*}\forall h\in \C, 0< \lvert h\rvert <\delta &\Longrightarrow \left\lvert\dfrac{f(z+h)-f(z)}{h} - f'(z) \right\rvert<\varepsilon.
\end{align*}

Posez $\delta’ = \mathrm{Min}(\delta, r).$

Alors :

\begin{align*}
\forall h\in \R, 0< \lvert h\rvert <\delta' &\Longrightarrow \left\lvert\dfrac{f(z+h)-f(z)}{h} - f'(z) \right\rvert<\varepsilon \\
&\Longrightarrow \left\lvert\frac{\widetilde{f}(x+h,y)-\widetilde{f}(x,y)}{h} - f'(z) \right\rvert<\varepsilon.
\end{align*}

Il est ainsi prouvé que $\frac{\partial \widetilde{f}}{\partial x}(x,y)$ existe et que $\frac{\partial \widetilde{f}}{\partial x}(x,y) = f'(z).$

Soit $h$ un réel tel que $0< \lvert h \rvert < \delta’.$

Pour l’autre dérivée partielle vous êtes amené à calculer :

\begin{align*}
\frac{\widetilde{f}(x,y+h)-\widetilde{f}(x,y)}{h} &= \frac{f(x+iy+ih)-f(x,y)}{h}\\
&= \frac{f(z+ih)-f(z)}{h}\\
&= i \frac{f(z+ih)-f(z)}{ih}\\
\end{align*}

Or :

\begin{align*}
\forall h\in \R, \lvert h\rvert < \delta' &\implies \lvert ih\rvert < \delta'\leq \delta \\
 &\implies\left\lvert\dfrac{f(z+ih)-f(z)}{ih} - f'(z) \right\rvert<\varepsilon\\
&\implies\left\lvert i\dfrac{f(z+ih)-f(z)}{ih} - i f'(z) \right\rvert<\varepsilon\\
&\implies\left\lvert \frac{\widetilde{f}(x,y+h)-\widetilde{f}(x,y)}{h} - i f'(z) \right\rvert<\varepsilon.
\end{align*}

Il est ainsi prouvé que $\frac{\partial \widetilde{f}}{\partial y}(x,y)$ existe et que $\frac{\partial \widetilde{f}}{\partial y}(x,y) = if'(z).$

Par somme, il vient :

\begin{align*}
\frac{\partial \widetilde{f}}{\partial x}(x,y) + i \frac{\partial \widetilde{f}}{\partial y}(x,y) &= f'(z)+i(if'(z))\\
&= f'(z)-f'(z)\\
&=0.
\end{align*}

Exemple avec la fonction $z\mapsto z^2$

Pour tout nombre complexe $z$, posez $f(z) = z^2.$

Fixez $z\in\C$. Pour tout $h\in\C$, quand vous calculez $f(z+h) = (z+h)^2 = z^2+2zh+h^2$, vous déduisez que pour tout nombre complexe $h\neq 0$, $\dfrac{f(z+h)-f(z)}{h} = 2z+h$ et par conséquent $f$ est dérivable au sens complexe en $z$ et $f'(z)=2z.$

Ecrivez $z = x+iy$ où $(x,y)\in\R^2$ avec $f(z)=(x+iy)^2 = (x^2-y^2)+i(2xy)$ si bien que $\widetilde{f}(x,y) = x^2-y^2 +2ixy.$

Alors :

\begin{align*}
\frac{\partial \widetilde{f}}{\partial x}(x,y) + i \frac{\partial \widetilde{f}}{\partial y}(x,y) &= 2x+2iy+i(-2y+2ix)\\
&= 2x+2iy-2iy-2x\\
&=0.
\end{align*}

Prolongements

Qu’en est-il de la réciproque ?

Si $f$ est une fonction à valeurs complexes définie sur un ouvert $U\in\C$ contenant $z$ et si les parties réelle et imaginaire de $f$ vérifient les équations de Cauchy-Riemann en $z$, peut-on conclure que $f$ est dérivable en $z$ au sens complexe ?

Vous souhaitez en savoir davantage ? Allez jeter un coup d’oeil dans l'article 185.

Vous souhaitez obtenir les équations de Cauchy-Riemann quand on définit la partie réelle et la partie imaginaire associées à la fonction qui est dérivable au sens complexe ? Allez jeter un coup d’oeil dans l'article 190.

107. Calcul des cosinus de 2pi/7, 4pi/7 et 6pi/7

Soit $\alpha = \frac{2\pi}{7}.$ Le but de l’article est de trouver une équation polynomiale qui caractérise $u=\cos \alpha$, $v=\cos (2\alpha)$ et $w=\cos (3\alpha).$

Factorisez le polynôme $X^7-1$ dans $\C[X]$

Les 7 nombres complexes $1$, $\e^{i\alpha}$, $\e^{-i\alpha}$, $\e^{2i\alpha}$, $\e^{-2i\alpha}$, $\e^{3i\alpha}$ et $\e^{-3i\alpha}$ sont des solutions deux à deux distinctes de l’équation $z^7=1$ d’inconnue $z\in\C.$

Par conséquent :

\boxed{X^7-1 = (X-1)(X-\e^{i\alpha})(X-\e^{-i\alpha})(X-\e^{2i\alpha})(X-\e^{-2i\alpha})(X-\e^{3i\alpha})(X-\e^{-3i\alpha})}.

Regroupez les polynômes ayant des racines complexes conjuguées

Des égalités suivantes :

\begin{align*}
(X-\e^{i\alpha})(X-\e^{-i\alpha}) &= X^2-2X\cos \alpha + 1\\
(X-\e^{2i\alpha})(X-\e^{-2i\alpha}) &= X^2-2X\cos (2\alpha) + 1\\
(X-\e^{3i\alpha})(X-\e^{-3i\alpha}) &= X^2-2X\cos (3\alpha) + 1
\end{align*}

Vous déduisez la factorisation de $X^7-1$ dans $\R[X]$ qui est :

\boxed{X^7-1 = (X-1)(X^2-2uX + 1)(X^2-2vX + 1)(X^2-2wX + 1) }.

Déduisez-en la factorisation de $X^6+X^5+X^4+X^3+X^2+X+1$ dans $\R[X]$

La division euclidienne de $X^7-1$ par $X-1$ fournit l’égalité :

$\boxed{X^7-1 = (X-1)(X^6+X^5+X^4+X^3+X^2+X+ 1) }.$

Par unicité du quotient de la division euclidienne, vous aboutissez à :

$\boxed{X^6+X^5+X^4+X^3+X^2+X+1 = (X^2-2uX + 1)(X^2-2vX + 1)(X^2-2wX + 1) }.$

Comment continuer ?

Rappelez-vous que les réels $u$, $v$ et $w$ sont deux à deux distincts.

Soit $r\in\{u,v,w\}$ et effectuez la longue division euclidienne de $X^6+X^5+X^4+X^3+X^2+X+1$ par $X^2-2rX+1.$

\begin{array}{rrrrrrr|lll}
X^6 &+X^5 &+X^4 &+X^3 &+X^2 &+X &+1 & X^2 &-2rX&+1 \\
X^6 & -2rX^5 &+X^4 & & & & &X^4 &+ (1+2r)X^3 &+(4r^2+2r)X^2+(8r^3+4r^2-2r)X+(16r^4+8r^3-8r^2-2r+1)\\ \hline
 & (1+2r)X^5 & &+X^3 &+X^2 &+X &+1 \\
 & (1+2r)X^5 & +(-4r^2-2r)X^4 & +(1+2r)X^3 \\ \hline
 & & (4r^2+2r)X^4 &-2rX^3&+X^2&+X&+1 \\
 & & (4r^2+2r)X^4 &+(-8r^3-4r^2)X^3 &+(4r^2+2r)X^2 \\ \hline
& & &(8r^3+4r^2-2r)X^3 &+(-4r^2-2r+1)X^2&+X&+1 \\
 & & &(8r^3+4r^2-2r)X^3 & + (-16r^4-8r^3+4r^2)X^2 &+(8r^3+4r^2-2r)X \\ \hline
& & & &(16r^4+8r^3-8r^2-2r+1)X^2&+(-8r^3-4r^2+2r+1)X &+1\\
&&&&(16r^4+8r^3-8r^2-2r+1)X^2&+(-32r^5-16r^4+16r^3+4r^2-2r)X&+(16r^4+8r^3-8r^2-2r+1) \\ \hline
&&&&&(32r^5+16r^4-24r^3-8r^2+4r+1)X&+(-16r^4-8r^3+8r^2+2r)
\end{array}

Par unicité du reste de la division euclidienne, vous déduisez que :

\left\{\begin{align*}
-16r^4-8r^3+8r^2+2r &=0\\
32r^5+16r^4-24r^3-8r^2+4r+1 &= 0
\end{align*}\right.

Comme $r\neq 0$ la première équation se simplifie en divisant par $r$ et en divisant par $-2$ ce qui donne :

\left\{\begin{align*}
8r^3+4r^2-4r-1 &=0\\
32r^5+16r^4-24r^3-8r^2+4r+1 &= 0
\end{align*}\right.

Qu’apporte l’équation $32r^5+16r^4-24r^3-8r^2+4r+1 = 0$ pour vous ?

Effectuez la division euclidienne de $32X^5+16X^4-24X^3-8X^2+4X+1$ par $8X^3+4X^2-4X-1.$

\begin{array}{rrrrrr|l}
32X^5 & +16X^4 & -24X^3 & -8X^2 & +4X &+1 & 8X^3+4X^2-4X-1 \\
32X^5 & +16X^4 &-16X^3 & -4X^2 & & &4X^2 -1\\ \hline
& & -8X^3 &-4X^2&+4X&+1 \\
& & -8X^3 &-4X^2&+4X&+1 \\ \hline
& & & & & 0
\end{array}

Par conséquent l’équation de degré $5$ satisfaite par $r$ n’apporte aucun renseignement de plus que l’équation de degré $3$ dont vous disposez.

Concluez

Les trois réels $u$, $v$ et $w$ sont deux à deux distincts et sont solution de la même équation $8x^3+4x^2-4x-1=0$ d’inconnue $x\in\R.$ Vous aboutissez à la factorisation du polynôme $8X^3+4X^2-4X-1$ conformément à ce qui suit :

\boxed{\begin{align*}
8X^3+4X^2-4X-1 &= 8(X-u)(X-v)(X-w) \\
&=8\left(X-\cos \frac{2\pi}{7}\right)\left(X-\cos \frac{4\pi}{7}\right)\left(X-\cos \frac{6\pi}{7}\right).
\end{align*}}

Pour les valeurs numériques, il est possible d’approcher les trois racines du polynôme $8X^3+4X^2-4X-1$ par des suites.

Vous cherchez à calculer les cosinus de pi/7, 3pi/7 et 5pi/7 ?

Ne traînez plus ! Jetez un coup d'oeil sur l'article 112.

106. Calcul algébrique du cosinus de 36° et du cosinus de 72°

Un angle de $36°$ correspond, en radians, à un angle de $\dfrac{\pi}{5}$. De même un angle de $72°$ admet une mesure en radians égale à $\dfrac{2\pi}{5}$.

Les nombres complexes permettent de trouver les valeurs des cosinus de $\dfrac{2\pi}{5}$ et du cosinus de $\dfrac{\pi}{5}.$

Voilà les étapes à suivre : vous factorisez un polynôme dans les complexes, puis dans les réels et déduisez des équations permettant de trouver les valeurs.

Factorisez le polynôme $X^5-1$ dans $\C[X]$

D’abord résolvez l’équation $z^5=1$ où $z\in\C.$

Analyse. Soit $z\in\C$ une solution de l’équation $z^5=1$. Alors $z\neq 0$, donc il existe un réel $r>0$ et un réel $\theta$ tels que $z = r\e^{i\theta}.$

De là vous déduisez que $\vert z^5\vert = \vert z\vert^5 = 1 = r^5$ et par suite $r=1.$

Du coup $1 = z^5 = \e^{5i\theta}$ et donc il existe $k\in\Z$, $5\theta = 2k\pi$ et $\theta = \dfrac{2k\pi}{5}.$

Synthèse. Pour tout entier $k$ compris entre $-2$ et $2$, posez $z_k = \e^{2ik\pi / 5}.$

Pour plus de lisibilité posez $\alpha = \dfrac{2\pi}{5}.$

$z_k^5 = \e^{5ik\alpha} = (\e^{2i\pi})^k = 1^k = 1.$

Les nombres complexes $z_{-2}, z_{-1}, z_0, z_1$ et $z_2$ sont deux à deux distincts et sont au nombre $5$, par conséquent, le polynôme unitaire $X^5-1$ est scindé sur $\C[X]$ et :

\boxed{ X^5-1 = (X-1)(X-\e^{i\alpha})(X-\e^{-i\alpha})(X-\e^{2i\alpha})(X-\e^{-2i\alpha})}.

Factorisez le polynôme $X^5-1$ dans $\R[X]$

Il suffit de regrouper les racines complexes conjuguées.

\begin{align*}
(X-\e^{i\alpha})(X-\e^{-i\alpha}) &= X^2-(\e^{i\alpha} + \e^{-i\alpha})X+1\\
&=X^2-2X\cos \alpha  + 1\\
&=X^2-2X\cos \dfrac{2\pi}{5}+ 1.
\end{align*}
\begin{align*}
(X-\e^{2i\alpha})(X-\e^{-2i\alpha}) &= X^2-(\e^{2i\alpha} + \e^{-2i\alpha})X+1\\
&=X^2-2X\cos 2\alpha  + 1\\
&=X^2-2X\cos \dfrac{4\pi}{5}+1\\
&=X^2+2X\cos \dfrac{\pi}{5}+1\\
\end{align*}

Du coup :

\boxed{X^5-1 = (X-1)\left(X^2-2X\cos \dfrac{2\pi}{5}+ 1\right)\left(X^2+2X\cos \dfrac{\pi}{5}+1\right)}.

Effectuez la division euclidienne de $X^5-1$ par $X-1$

\begin{array}{rrrrrr|ll}
X^5 & & & & &-1  &X&-1 \\
X^5 & -X^4 & & & & &X^4&+X^3+X^2+X+1\\ \hline 
 & X^4 & & & & -1 \\
   & X^4 & -X^3 \\ \hline  
 & & X^3 & & &-1 \\
 & & X^3 & -X^2 \\\hline
 &  & &X^2 & &-1\\
& & & X^2 &-X\\ \hline
&&&&X&-1 \\
&&&&X&-1 \\\hline
&&&&&0
\end{array}

Par unicité du quotient dans une division euclidienne, vous déduisez que :

\boxed{ X^4+X^3+X^2+X+1 = \left(X^2-2\cos \dfrac{2\pi}{5}X+ 1\right)\left(X^2+2\cos \dfrac{\pi}{5}X+1\right)}.

Pour simplifier les notations, posez $\boxed{u=\cos \dfrac{2\pi}{5} }$ et $\boxed{v=\cos \dfrac{\pi}{5}.}$

Effectuez la division euclidienne de $X^4+X^3+X^2+X+1$ par $X^2-2uX+1$

\begin{array}{rrrrr|lll}
X^4 & +X^3 & +X^2 & +X & +1 & X^2&-2uX&+1\\
X^4 & -2uX^3 & +X^2 & & &X^2 &+(1+2u)X &+(2u+4u^2)\\ \hline
      &(1+2u)X^3 &      &+X & +1 \\    
      &(1+2u)X^3 & +(-2u-4u^2)X^2 & +(1+2u)X\\ \hline
   & & (2u+4u^2)X^2 & -2uX & +1\\
  &  &(2u+4u^2)X^2 &+ (-4u^2-8u^3)X&+(2u+4u^2) \\ \hline
& & & (4u^2+8u^3-2u)X&+(-4u^2-2u+1)
\end{array}

Par unicité du quotient et du reste de la division euclidienne, et identification des coefficients de deux polynômes, vous obtenez les relations :

\left\{\begin{align*}
1+2u &= 2v \\
2u+4u^2 &=1 \\
4u^2+8u^3-2u &=0\\
-4u^2-2u+1 &=0
\end{align*}\right.

Soit :

\left\{\begin{align*}
1+2u &= 2v \\
2u-4u^2 &=1 \\
2u(2u+4u^2-1) &=0\\
4u^2+2u-1 &=0.
\end{align*}\right.

Concluez avec les valeurs exactes des cosinus de 36° et de 72°

Par redondance des relations, vous avez à résoudre :

\left\{\begin{align*}
1+2u &= 2v \\
4u^2+2u-1 &=0.
\end{align*}\right.

La résolution de l’équation $4x^2+2x-1=0$ d’inconnue $x\in \R$ aboutit à deux solutions distinctes, $u_1 = \dfrac{-2 + \sqrt{20}}{8} = \dfrac{-1+\sqrt{5}}{4}$ et $u_2 = \dfrac{-1-\sqrt{5}}{4}$, et donc $u\in\{u_1,u_2\}.$

Or, le réel $u=\cos \dfrac{2\pi}{5}$ est strictement positif vu que $0<\dfrac{2\pi}{5}<\dfrac{\pi}{2}$, par conséquent $\boxed{u=\cos \dfrac{2\pi}{5} = \dfrac{-1+\sqrt{5}}{4}}.$

De $4u = -1+\sqrt{5}$ et de $4v = 4u+2 = -1+\sqrt{5} + 2 = 1+\sqrt{5}$, vous déduisez que $\boxed{v = \cos \dfrac{\pi}{5} = \dfrac{1+\sqrt{5}}{4}}.$

Prolongement

Vous souhaitez calculer $\cos (72^{\circ})= \cos\frac{2\pi}{5}$ et $\cos (36^{\circ}) = \cos\frac{\pi}{5}$ en utilisant une solution géométrique ? Allez jeter un coup d’œil dans le contenu rédigé dans l'article 331.

104. Topologie, notions de complémentaire, d’adhérence et d’intérieur

Il a été vu dans l’article précédent que si $E$ est une partie de $\C$, alors l’intérieur de $E$ est égal à $\overset{\circ}{E} = E \setminus \partial E$, c’est-à-dire à $E$ privé de sa frontière et l’adhérence de $E$ est égale à $\overline{E} = E \cup \partial E$, c’est-à-dire à l’union de $E$ et de sa frontière.

Le complémentaire d’une adhérence est l’intérieur du complémentaire

Partez de $\overline{E} = E \cup \partial E$.

En prenant le complémentaire :

\begin{align*}
\C \setminus \overline {E} &= (\C \setminus E) \cap (\C \setminus \partial E)\\
&= (\C \setminus E) \setminus ( \partial E) \\
&= (\C \setminus E) \setminus ( \partial (\C \setminus E)) \\
&= \overset{\circ}{\widehat{\C\setminus E}}.
\end{align*}

En résumé, $\boxed{\C \setminus \overline {E} =\overset{\circ}{\widehat{\C\setminus E}}}. $

Le complémentaire d’un intérieur est l’adhérence du complémentaire

Partez de $\overset{\circ}{E} = E \setminus \partial E = E \cap (\C\setminus \partial E)$.

En prenant le complémentaire :

\begin{align*}
\C \setminus \overset{\circ}{E} &= (\C \setminus E) \cup \partial E\\
&= (\C \setminus E) \cup ( \partial (\C\setminus E)) \\
&= \overline{\C \setminus E}.
\end{align*}

En résumé, $\boxed{\C \setminus \overset{\circ}{E} =\overline{\C \setminus E}}. $

Application aux ensembles ouverts et fermés

Définitions avec l’adhérence et l’intérieur

Vous adoptez les définitions suivantes :

  • une partie $E$ de $\C$ est fermée, si et seulement si, $E=\overline{E}$ ;
  • une partie de $E$ de $\C$ est ouverte, si et seulement si, $E=\overset{\circ}{E}.$

Application 1 : le complémentaire d’un ouvert est un fermé

Soit $E$ une partie ouverte de $\C$. Alors $\overline{\C \setminus E} = \C \setminus \overset{\circ}{E} = \C \setminus E $ puisque $E = \overset{\circ}{E}.$ Par conséquent $\C\setminus E$ est une partie fermée de $\C.$

Application 2 : le complémentaire d’un fermé est un ouvert

Soit $E$ une partie fermée de $\C$. Alors $\overset{\circ}{\widehat{\C\setminus E}} = \C \setminus \overline{E}.$ Mais $\overline{E}=E$, donc $\overset{\circ}{\widehat{\C\setminus E}} =\C \setminus E$ et $\C \setminus E$ est une partie ouverte de $\C.$

Prolongements

La notion de frontière est détaillée dans le contenu rédigé dans l'article 103.

Avec les définitions des parties ouvertes et fermées de $\C$ adoptées, vous pouvez démontrer ce qui suit.

  • Une partie $E$ de $\C$ est ouverte, si et seulement si, pour tout $x\in E\comma$ il existe $r>0$ tel que $B_x(r)$ soit inclus dans $E.$
  • Une partie $E$ de $\C$ est fermée, si et seulement si, quel que soit $x\in \C\comma$ si pour tout $r>0$ il existe un élément $y\in E$ appartenant à $B_x(r)\comma$ alors $x$ appartient à $E.$ Autrement dit, une partie $E\subset \C$ est une partie fermée de $\C$ si et seulement si, pour tout point de $\C$ pour lequel toute boule ouverte centrée en ce point contient au moins un élément de la partie $E\comma$ ce point appartient lui-même à la partie $E.$

Pour aller plus loin, allez vers le théorème de Kuratowski, qui est illustré dans le contenu rédigé dans l'article 391.

103. Topologie, frontière d’un ensemble

Pour fixer les idées, soit $E$ une partie de $\C.$

Pour tout $x\in E$ et pour tout réel $r>0$, on note $B_x(r)$ la boule (au sens topologique) ouverte de centre $x$ et de rayon $r$, définie par l’ensemble $\{z\in\C, |z-x|<r\}.$

On appelle frontière de $E$, notée $\partial E$, la partie de $\C$ contenant les complexes $z\in\C$ dont toutes les boules ouvertes de centre $z$ rencontrent $E$ et $\C\setminus E.$ Avec une notation ensembliste, on écrit :
$\partial E = \left\{z\in\C, \forall r>0, \exists x\in E, \exists y\in \C\setminus E, (x,y)\in B_z(r)^2\right\}.$

Remarquez de cette définition que $\boxed{\partial (\C \setminus E) = \partial (E)}.$

Qu’est-ce que l’intérieur de $E$ ? Quel rapport avec la frontière de $E$ ?

On appelle intérieur de $E$, noté $\overset{\circ}{E}$ l’ensemble des points de $z\in E$ qui contiennent au moins un boule totalement incluse dans $E.$ Avec la notation ensembliste, on écrit :
$\overset{\circ}{E} = \left\{z\in E, \exists r>0, B_z(r) \subset E\right\}.$

Vous allez démontrer que $\overset{\circ}{E}$, l’intérieur de $E$, est égal à l’ensemble $E$ privé de sa frontière $\partial E$.
Autrement dit, $\boxed{\overset{\circ}{E} = E\setminus \partial E}.$

Pour y parvenir, vous procédez par double inclusion.

Première inclusion : $\overset{\circ}{E} \subset E\setminus \partial E$

Soit $x\in \overset{\circ}{E}.$ Par définition de l’intérieur de $E$, l’élément $x$ appartient à $E$ : $x\in E.$ Raisonnez par l’absurde en supposant que $x\in \partial E.$ Par définition de la frontière, toutes les boules ouvertes centrées en $x$ rencontrent un élément de $\C \setminus E.$ Comme $x$ est intérieur à $E$, il existe un réel $r>0$ tel que $B_x(r) \subset E.$ Or il existe $y\in \C \setminus E$ et que $y\in B_x(r)$. Vous en déduisez que $y\in E$, contradiction. Par conséquent $x\notin \partial E$. Du coup, $x\in E\setminus \partial E.$

Seconde inclusion : $E\setminus \partial E \subset \overset{\circ}{E} $

Soit $x\in E\setminus \partial E.$ En particulier $x\notin \partial E.$ En niant la proposition qui définit la frontière de $E$, vous déduisez qu’il existe un réel $r>0$, de sorte pour tout $a\in E$ et pour tout $b\in \C\setminus E$, $(a,b)\notin B_x(r)^2.$ Soit $y\in B_x(r)$. Supposez en raisonnant par l’absurde que $y\notin E$. Choisissez $a=x$ et $b=y$, vous déduisez que $(x,y)\notin B_x(r)^2.$ Or $x\in B_x(r)$ et $y\in B_x(r)$ donc $(x,y)\in B_x(r)^2$, contradiction. Donc $y\in E$ ce qui prouve l’inclusion $B_x(r)\subset E$ et finalement $x\in \overset{\circ}{E}.$

Qu’est-ce que l’adhérence de $E$ ? Quel rapport avec la frontière de $E$ ?

On appelle adhérence de $E$ l’ensemble noté $\overline{E}$ défini par le complémentaire de l’intérieur du complémentaire de $E$. Cette définition formelle s’écrit ainsi :$\overline{E} = \{z\in \C, z\notin \overset{\circ}{\widehat{\C\setminus E}} \}.$ Un élément $z\in\C$ appartient à l’adhérence de $E$, si et seulement si, il n’appartient pas à l’intérieur de $\C\setminus E.$

D’après ce qui a été fait sur la notion d’intérieur, $\overset{\circ}{\widehat{\C\setminus E}} = (\C\setminus E) \setminus \partial (\C\setminus E) = (\C\setminus E) \setminus \partial E.$ De là vous allez démontrer que $\boxed{\overline{E} = E\cup \partial E}.$

Première inclusion : $\overline{E} \subset E\cup \partial E$

Soit $x\in \overline{E}.$ Alors $x\notin (\C\setminus E) \setminus \partial E.$ Si $x\in E$ vous avez déjà $x\in E \cup \partial E$. Si $x\notin E$, alors $x\in \C\setminus E$. Par l’absurde, supposez que $x\notin \partial E.$ Alors $x\in (\C\setminus E)\setminus \partial E$, contradiction. Donc $x\in \partial E$ et donc $x\in E\cup \partial E.$

Seconde inclusion : $E\cup \partial E \subset \overline{E}$

Soit $x\in E\cup \partial E.$ Si $x\notin E$, alors $x\in \partial E$. Or $x\in \C\setminus E$, donc $x\notin (\C\setminus E) \setminus \partial E$, donc $x\in \overline{E}.$ Maintenant, si $x\in E$, alors $x\notin \C\setminus E$. Comme $(\C\setminus E) \setminus \partial E \subset \C\setminus E $ vous en déduisez que $x \notin (\C\setminus E) \setminus \partial E$, donc $x\in\overline{E}.$

Prolongement

Les notions d’adhérence, d’intérieur et de complémentaire s’étendent vers les notions de parties ouvertes et fermées, que vous pouvez lire dans le contenu rédigé dans l'article 104.

Tous ces éléments s’étendent vers le théorème de Kuratowski, qui est illustré dans le contenu rédigé dans l'article 391.

099. Axiomatique de N

L’ensemble des entiers naturels noté $\N$ est formé de tous les entiers positifs en commençant par $0$ qui est lui aussi positif.

Il est impossible de démontrer que l’ensemble $\N$ existe : on travaille à partir d’axiomes qui justifient son existence.

L’ensemble $\N$ possède deux propriétés fondamentales qui sont équivalentes :

  1. Le « bon ordre ». Toute partie de $\N$, non vide, admet un plus petit élément.
  2. Le « principe » de récurrence. Pour tout entier $n\in\N$, notez $P(n)$ une propriété qui peut être vraie ou fausse en fonction de la valeur de l’entier naturel $n$. Supposez que $P(0)$ soit vraie (on parle d’initialisation) et que l’implication $\forall n\in\N, P(n)$ vraie $\Longrightarrow P(n+1)$ vraie soit vérifiée (on parle d’hérédité). Alors la propriété $P(n)$ est vraie quel que soit l’entier naturel $n$.

Note : selon la théorie utilisée, le principe de récurrence peut être considéré comme un axiome ou un théorème.

Passez maintenant à l’équivalence des deux énoncés.

Le bon ordre implique le principe de récurrence

Supposez que $\N$ possède la propriété suivante : « toute partie de $\N$ non vide admet un plus petit élément ».

Pour tout entier naturel $n$, on note $P(n)$ une propriété vraie ou fausse, vérifiant les conditions suivantes.

$P(0)$ est vraie et $\forall n\in\N, P(n)$ vraie $\Longrightarrow P(n+1)$ vraie.

Vous voulez montrer que $P(n)$ est vraie pour tout entier naturel $n$. Vous allez considérer l’ensemble noté $A$ des entiers naturels $n$ tels que $P(n)$ soit fausse.

Si $A$ n’est pas vide, alors $A$ admet un plus petit élément noté $a$. Notez que $a=0$ donne $P(a)$ vraie ce qui contredit le fait que $a\in A$. Par conséquent, $a\neq 0$ donc $a\geq 1$ et $a-1 \in \N$. Comme $a-1$ est strictement inférieur à $a$, $a-1\notin A$, donc $P(a-1)$ est vraie. Du coup, $P(a-1+1)$ est vraie et $P(a)$ est vraie donc $a\notin A$, contradiction.

Il en résulte que $A$ est vide, donc $\forall n\in\N$, la propriété $P(n)$ est vraie.

Le principe de récurrence implique que le bon ordre

Partir d’une partie de $\N$ non vide et chercher un plus petit élément est quelque chose de délicat.

Le principe, c’est de regarder si $0$ est un élément de cette partie. Si oui, c’est le plus petit élément recherché. Sinon, vous regardez si $1$ est un élément de cette partie, et ainsi de suite…

Pour traduire rigoureusement le « ainsi de suite », vous utiliserez le principe de récurrence pour montrer que si une partie de $\N$ n’admet pas de plus petit élément, alors elle est vide.

Supposez que $\N$ vérifie le principe de récurrence et notez $A$ une partie de $\N$ n’admettant pas de plus petit élément.

Pour tout entier naturel $n$, vous notez $P(n)$ la propriété : « Pour tout entier naturel $k$ inférieur ou égal à $n$, $k\notin A.$ »

Initialisation : pour $k=0$. Si $0$ appartenait à $A$, alors $0$ serait le plus petit élément de $A$, contradiction. Donc $0\notin A$ et par conséquent $P(0)$ est vérifiée.

Hérédité : soit $n$ un entier naturel. Supposez que $P(n)$ est vérifiée.

Notez que tous les entiers naturels $k$ compris entre $0$ et $n$ n’appartient pas à $A$. Si $n+1$ appartenait à $A$, $n+1$ serait le plus petit élément de $A$, contradiction. Donc $n+1\notin A$.

Conclusion : vous venez de montrer que $\forall n\in\N$, $P(n)$ est vraie. Vous en déduisez que $\forall n\in\N, n\notin A.$ Comme $A$ est une partie de $\N$, il s’ensuit que $A$ est vide.

Par contraposée, si $A$ est une partie non vide de $\N$, elle admet un plus petit élément.

098. Calcul d’une intégrale impropre

Le problème de l’intégrale impropre

Remarquez déjà que, pour tout réel $x$,

\begin{aligned}
\sin x + \cos x &= \sqrt{2} \left(\dfrac{\sqrt{2}}{2}\sin x+ \dfrac{\sqrt{2}}{2} \cos x\right) \\
&=\sqrt{2} \left(\sin x \cos \dfrac{\pi}{4} + \cos x \sin \dfrac{\pi}{4}\right) \\
&= \sqrt{2} \sin \left(x+\dfrac{\pi}{4}\right)
\end{aligned}

Il apparaît donc que, quand $x \to -\frac{\pi}{4}$, que $\sin x + \cos x \to 0$ et le logarithme de $0$ n’est pas défini. Du coup, vous travaillerez avec des intégrales bien définies où l’intérieur du logarithme est toujours strictement positif. Cela conduit au paragraphe suivant.

Les propriétés de l’intégrale $I_\varepsilon$

Pour tout réel $\varepsilon \in \left]0,\dfrac{\pi}{2}\right]$ considérez, $I_\varepsilon =\displaystyle \int_{-\pi/4+\varepsilon}^{\pi/4} \ln \left(\sin x + \cos x \right) \mathrm{d}x = \int_{-\pi/4+\varepsilon}^{\pi/4} \ln \left(\sqrt{2} \sin \left(x+\dfrac{\pi}{4}\right)\right) \mathrm{d}x.$

Via le changement de variable $y = x+\frac{\pi}{4}$, il apparaît que $I_\varepsilon =\displaystyle\int_{\varepsilon}^{\pi/2} \ln (\sqrt{2} \sin y) \mathrm{d}y. $

Effectuez une première séparation.

\begin{aligned}
I_{\varepsilon} &= \displaystyle\int_{\varepsilon}^{\pi/2} \ln (\sqrt{2} \sin y) \mathrm{d}y \\
&= \displaystyle\int_{\varepsilon}^{\pi/2}\left( \ln \sqrt{2} + \ln (\sin y) \right) \mathrm{d}y \\
&= \displaystyle\int_{\varepsilon}^{\pi/2} (\ln \sqrt{2}) \mathrm{d}y + \int_{\varepsilon}^{\pi/2} \ln (\sin y) \mathrm{d}y \\
&= \displaystyle (\ln \sqrt{2}) \int_{\varepsilon}^{\pi/2}\mathrm{d}y + \int_{\varepsilon}^{\pi/2} \ln (\sin y) \mathrm{d}y \\
&= \displaystyle \left(\dfrac{\pi}{2}-\varepsilon \right) (\ln \sqrt{2}) + \int_{\varepsilon}^{\pi/2} \ln (\sin y) \mathrm{d}y. \\
\end{aligned}

Vers le calcul de $J = \displaystyle\int_{0}^{\pi/2} \ln (\sin y) \mathrm{d}y$

Pour tout réel $\varepsilon \in \left]0,\dfrac{\pi}{2}\right]$, posez $J_\varepsilon =\displaystyle \int_{\varepsilon}^{\pi/2} \ln (\sin y) \mathrm{d}y. $

Définissez une fonction $g$ sur $\R$ en posant $g(0)=1$ et, pour tout réel $y$ non nul, $g(y)=\dfrac{\sin y}{y}$. Cette fonction $g$ est continue sur $\R$.

Notez que pour tout réel $y> 0$ :

\begin{aligned}
\ln(\sin y) &= \ln \left(y \times\dfrac{\sin y}{y}\right) \\
&= \ln y + \ln g(y).
\end{aligned}

Par composée de fonctions continues, la fonction $y\mapsto \ln g(y)$ est continue sur $[0,\frac{\pi}{2}]$ donc elle est intégrable sur $[0,\frac{\pi}{2}]$.

La fonction $y\mapsto \ln y$ admet pour primitive $y\mapsto y\ln y -y$ sur $]0,+\infty[$ et cette primitive a bien une limite quand $y\to 0$ donc la fonction $y\mapsto \ln y$ est intégrable sur $\left[0,\dfrac{\pi}{2}\right].$

Par somme de fonctions intégrables, il en résulte que $J = \displaystyle \int_{0}^{\pi/2} \ln (\sin y) \mathrm{d}y$ est bien définie et que $\lim_{\varepsilon \to 0} J_\varepsilon = J.$

Vous allez vous focaliser sur cette intégrale. L’idée principale c’est de construire une équation la faisant réapparaître plusieurs fois.

Vous pouvez utiliser l’égalité : $\forall y\in\left[0,\dfrac{\pi}{2}\right], \cos\left(\dfrac{\pi}{2}-y\right) = \sin y.$

Vous effectuez le changement de variable $z = \frac{\pi}{2}-y$ :

\begin{aligned}
J_\varepsilon &= \int_{\varepsilon}^{\pi/2} \ln (\sin y) \mathrm{d}y \\
&= \ – \int_{\pi/2 – \varepsilon}^{0} \ln (\cos z) \mathrm{d}z\\
&= \int_{0}^{\pi/2 – \varepsilon} \ln (\cos z) \mathrm{d}z\\
\end{aligned}

Maintenant, vous sommez les deux expressions pour $\varepsilon \in \left]0,\dfrac{\pi}{4}\right].$

\begin{aligned}
2J_\varepsilon &= \int_{\varepsilon}^{\pi/2} \ln (\sin x) \mathrm{d}x + \int_{0}^{\pi/2 – \varepsilon} \ln (\cos x) \mathrm{d}x \\
&= \int_{\varepsilon}^{\pi/2-\varepsilon} \ln (\sin x) \mathrm{d}x + \int_{\pi/2 – \varepsilon}^{\pi/2} \ln (\sin x) \mathrm{d}x + \int_{0}^{\varepsilon} \ln (\cos x) \mathrm{d}x + \int_{\varepsilon}^{\pi/2 – \varepsilon} \ln (\cos x) \mathrm{d}x \\
&= \int_{\varepsilon}^{\pi/2-\varepsilon}\left[ \ln (\sin x) + \ln (\cos x)\right] \mathrm{d}x + \int_{\pi/2 – \varepsilon}^{\pi/2} \ln (\sin x) \mathrm{d}x + \int_{0}^{\varepsilon} \ln (\cos x) \mathrm{d}x.
\end{aligned}

Notez que la fonction $x\mapsto \ln(\cos x)$ est continue au voisinage de $0$, par conséquent $\displaystyle\lim_{\varepsilon\to 0} \int_{0}^{\varepsilon} \ln (\cos x) \mathrm{d}x = 0.$

De même, la fonction $x\mapsto \ln(\sin x)$ est continue au voisinage de $\dfrac{\pi}{2}$, par conséquent $\displaystyle\lim_{\varepsilon\to 0} \int_{\pi/2 – \varepsilon}^{\pi/2} \ln (\sin x) \mathrm{d}x = 0.$

Vers le calcul de $\displaystyle \int_{\varepsilon}^{\pi/2-\varepsilon}\left[ \ln (\sin x) + \ln (\cos x)\right] \mathrm{d}x$

Pour tout réel $\varepsilon \in \left]0,\dfrac{\pi}{4}\right]$, posez $K_\varepsilon = \displaystyle \int_{\varepsilon}^{\pi/2-\varepsilon}\left[ \ln (\sin x) + \ln (\cos x)\right] \mathrm{d}x.$

\begin{aligned}
K_\varepsilon &= \int_{\varepsilon}^{\pi/2-\varepsilon}\left[ \ln (\sin x) + \ln (\cos x)\right] \mathrm{d}x\\
&= \int_{\varepsilon}^{\pi/2-\varepsilon} \ln \left(\sin x \cos x\right) \mathrm{d}x\\
&= \int_{\varepsilon}^{\pi/2-\varepsilon} \ln \left(\dfrac{2 \sin x \cos x}{2}\right) \mathrm{d}x\\
&= \int_{\varepsilon}^{\pi/2-\varepsilon} \ln \left(\dfrac{\sin (2x)}{2}\right) \mathrm{d}x\\
&= \int_{\varepsilon}^{\pi/2-\varepsilon} \left[\ln (\sin (2x)) – \ln2 \right] \mathrm{d}x\\
&= \int_{\varepsilon}^{\pi/2-\varepsilon} \ln (\sin (2x)) \mathrm{d}x \ – (\ln2)\int_{\varepsilon}^{\pi/2-\varepsilon} \mathrm{d}x\\
&= \int_{\varepsilon}^{\pi/2-\varepsilon} \ln (\sin (2x)) \mathrm{d}x -\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2)\\
&=\dfrac{1}{2}\int_{2\varepsilon}^{\pi-2\varepsilon} \ln (\sin y) \mathrm{d}y -\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2)\\
&=\dfrac{1}{2}\int_{2\varepsilon}^{\pi/2} \ln (\sin y) \mathrm{d}y + \dfrac{1}{2}\int_{\pi/2}^{\pi-2\varepsilon} \ln (\sin y) \mathrm{d}y -\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2)\\
&=\dfrac{1}{2}J_{2\varepsilon}+ \dfrac{1}{2}\int_{\pi/2}^{\pi-2\varepsilon} \ln (\sin y) \mathrm{d}y -\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2)\\
&=\dfrac{1}{2}J_{2\varepsilon}+ \dfrac{1}{2}\int_{0}^{\pi/2-2\varepsilon} \ln \left(\sin \left(z+\dfrac{\pi}{2}\right)\right) \mathrm{d}z -\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2)\\
&=\dfrac{1}{2}J_{2\varepsilon}+ \dfrac{1}{2}\int_{0}^{\pi/2-2\varepsilon} \ln (\cos z) \mathrm{d}z -\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2)\\
&= \dfrac{1}{2}J_{2\varepsilon} + \dfrac{1}{2}J_{2\varepsilon}-\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2)\\
&=J_{2\varepsilon}-\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2).
\end{aligned}

Concluez

\begin{aligned}
2J_\varepsilon &= \int_{\varepsilon}^{\pi/2-\varepsilon}\left[ \ln (\sin x) + \ln (\cos x)\right] \mathrm{d}x + \int_{\pi/2 – \varepsilon}^{\pi/2} \ln (\sin x) \mathrm{d}x + \int_{0}^{\varepsilon} \ln (\cos x) \mathrm{d}x\\
&= K_\varepsilon + \int_{\pi/2 – \varepsilon}^{\pi/2} \ln (\sin x) \mathrm{d}x + \int_{0}^{\varepsilon} \ln (\cos x) \mathrm{d}x \\
&=J_{2\varepsilon}-\left(\dfrac{\pi}{2}-2\varepsilon\right) (\ln2) + \int_{\pi/2 – \varepsilon}^{\pi/2} \ln (\sin x) \mathrm{d}x + \int_{0}^{\varepsilon} \ln (\cos x) \mathrm{d}x.
\end{aligned}

Maintenant passez à la limite quand $\varepsilon \to 0.$

$2J = J – \dfrac{\pi}{2} (\ln2).$

Donc $J = \dfrac{-\pi \ln 2}{2}.$

On a vu que :

$I_{\varepsilon} = J_\varepsilon + \left(\dfrac{\pi}{2}-\varepsilon \right) (\ln \sqrt{2}).$

Le membre de droite admet une limite quand $\varepsilon\to 0$, donc le membre de gauche aussi.

L’intégrale $\displaystyle\int_{-\pi/4}^{\pi/4} \ln (\sin x + \cos x) \mathrm{d}x$ est donc bien définie et on a le résultat :

\begin{aligned}
\displaystyle\int_{-\pi/4}^{\pi/4} \ln (\sin x + \cos x) \mathrm{d}x &= J + \dfrac{\pi}{2}(\ln \sqrt{2}) \\
&=\dfrac{-\pi \ln 2}{2} + \dfrac{\pi \ln 2}{4}\\
&=\dfrac{-\pi \ln 2}{4}.
\end{aligned}

Conclusion : $\boxed{\displaystyle\int_{-\pi/4}^{\pi/4} \ln (\sin x + \cos x) \mathrm{d}x = \dfrac{-\pi \ln 2}{4}}.$

097. Comment obtenir la réduction de Frobenius d’une matrice ainsi qu’une base associée ?

Une base de Frobenius ? Une matrice de Frobenius ? Qu’est-ce ?

Connaissez-vous la matrice compagnon d’un polynôme unitaire ?

Pour $P_1(X) = X^3 + X^2 -3X +7$, vous associez l’équation de ses racines en isolant le terme de plus haut degré, ce qui donne $X^3 = -X^2+3X-7$. Les coefficients du polynôme de droite sont ceux de la dernière colonne de la matrice compagnon du polynôme $P_1.$ Les autres colonnes sont formées de $0$ partout excepté sur la sous-diagonale tronquée où les coefficients valent tous $1$.

Vous noterez $C(P_1)$ la matrice compagnon du polynôme $P_1$ qui est définie par $C(P_1)=\begin{pmatrix}0 & 0 & -7 \\ 1 & 0 & 3 \\ 0 & 1 & -1\end{pmatrix}.$

Pour le polynôme $P_2(X) = X^4+X^3-X+2$, la matrice compagnon $C(P_2)$ est définie par $C(P_2)=\begin{pmatrix}0 & 0 & 0 & -2\\ 1 & 0 & 0 & 1\\ 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & -1\end{pmatrix}.$

Des matrices compagnons par blocs comme matrices de Frobenius ?

Considérez la matrice $A$ définie par  : $A = \begin{pmatrix}C(P_1) & 0\\ 0 & C(P_2)\end{pmatrix}
= \begin{pmatrix}
0 & 0 & -7 & 0 & 0 & 0 & 0 \\
1 & 0 & 3 & 0 & 0 & 0 & 0\\
0 & 1 & -1 & 0 & 0 & 0 & 0\\
0 & 0 & 0 &0 & 0 & 0 & -2\\
0 & 0 & 0 &1 & 0 & 0 & 1\\
0 & 0 & 0 &0 & 1 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 & 1 & -1
\end{pmatrix}$

Elle est diagonale par blocs mais ce n’est pas suffisant : le polynôme $P_1$ défini par $P_1(X) = X^3+X^2-3X+7$ ne divise pas le polynôme $P_2$ défini par $P_2(X)=X^4+X^3-X+2$. Bien que $A$ soit diagonale par blocs avec des matrices compagnons, la matrice $A$ n’est pas une matrice de Frobenius.

Les polynômes doivent se diviser

Trouver une base de Frobenius pour une matrice $A\in M_n(\K)$, où $n\in\N^{*}$, c’est trouver une matrice inversible $P\in GL_n(\K)$ telle que $P^{-1}AP$ soit diagonale par blocs, avec des blocs de la forme $C(P_1)$, …, $C(P_\ell)$ où $\ell\in\N^{*}$, la famille $(P_i)_{1\leq i \leq \ell}$ étant une famille de polynômes unitaires telle que $P_1 | P_2 | … | P_{\ell}$, les matrices $C(P_1)$, …, $C(P_{\ell})$ étant les matrices compagnons relatives aux polynômes $P_1$, …, $P_{\ell}.$

Note. La suite de polynômes $(P_i)_{1\leq i \leq \ell}$ s’appelle la suite des invariants de similitude de la matrice $A$. Elle ne dépend que de la matrice $A.$

Former une matrice diagonale par blocs avec des matrices compagnons est un prérequis, mais il faut bien d’y prendre pour avoir la divisibilité des polynômes.

Exemple. Considérez la matrice $A = \begin{pmatrix}
5 & 7 & 6 & 5 & 5\\
-2 & -5 & -6 & -4 & -5\\
5 & 10 & 10 & 7 & 8\\
-6 & -8 & -6 & -5 & -5\\
-1 & -3 & -3 & -2 & -3
\end{pmatrix}.$

Si vous formez la matrice $P = \begin{pmatrix}
-1 & 0 & -1 & 1 & 0\\
1 & 1 & 1 & -1 & 0\\
-2 & -1 & -1 & 2 & 0\\
2 & 0 & 1 & -1 & 0\\
0 & 0 & 0 & -1 & 1
\end{pmatrix}$ alors la matrice $P$ est inversible et $P^{-1}AP = \begin{pmatrix}
0 & -1 & 0 & 0 & 0\\
1 & 2 & 0 & 0 & 0\\
0 & 0 & 0 & 0 & -2\\
0 & 0 & 1 & 0 & 3\\
0 & 0 & 0 & 1 & 0
\end{pmatrix} = \begin{pmatrix}
C(P_1) & 0\\
0 & C(P_2)
\end{pmatrix},$

avec $P_1 = X^2-2X+1 = (X-1)^2$ et $P_2 = X^3-3X+2 = (X+2)(X-1)^2$ et par suite, le polynôme $P_1$ divise bien le polynôme $P_2.$

La matrice $P^{-1}AP$ est bien une matrice de Frobenius associée à la matrice $A$ et la base de $\R^5$ formée par les cinq colonnes de la matrice $P$ constitue une base de Frobenius de la matrice $A.$

Etude complète d’un exemple pour bien comprendre

Soit à trouver une base de Frobenius et la matrice de Frobenius associés à la matrice réelle $A=\begin{pmatrix}
3 & 0 & -1 & 1\\
2 & 2 & 1 & 2\\
-3 & 0 & 2 & -3\\
-4 & 0 & 1 & -2
\end{pmatrix}.$

La première chose à faire, c’est construire un vecteur $v$ pour que $<v> = \vect\{A^k v, k\in\N\}$, l’espace cyclique engendré par $v$ soit de dimension maximum.

Cette dimension maximum sera donnée par le degré du polynôme minimal de la matrice $A$.

Déterminez le polynôme minimal de $A$

Une façon de faire c’est de calculer les puissances successives de $A$ jusqu’à trouver une relation de dépendance linéaire.

Les matrices $I$ et $A$ n’étant pas colinéaires, vous calculez $A^2 = \begin{pmatrix}
8 & 0 & -4 & 4\\
-1 & 4 & 4 & -1\\
-3 & 0 & 4& -3\\
-7 & 0 &4 &-3
\end{pmatrix}$

Le système $A^2 = aA + bI$ d’inconnues $a$ et $b$ réelles n’a pas de solution.

Vous calculez donc $A^3 = \begin{pmatrix}
20 & 0 & -12 & 12\\
-3 & 8 & 12 & -3\\
-9 & 0 & 8& -9\\
-21 & 0 &12 & -13
\end{pmatrix}$

Vous résolvez le système $A^3=aA^2+bA+cI.$ Vous trouvez $a = 3$, $b=0$ et $c=-4$, ce qui prouve que $A^3 = 3A^2-4I.$

Le polynôme minimal de $A$ est égal à $X^3-3X^2+4 = (X+1)(X^2-4X+4)=(X+1)(X-2)^2.$

Construisez un vecteur $v$ pour que l’espace cyclique $<v>$ soit de dimension maximale

En considérant les facteurs irréductibles du polynôme minimal de $A$, vous cherchez un vecteur $v_1\in\ker(A+I)\setminus \{0\}$ et un vecteur $v_2\in\ker(A-2I)^2 \setminus \ker(A-2I).$

Calculez le noyau de la matrice $A+I= \begin{pmatrix}
4 & 0 & -1 & 1\\
2 & 3 & 1 & 2\\
-3 & 0 & 3 & -3\\
-4 & 0 & 1 & -1
\end{pmatrix}.$

Vous finissez par trouver $\ker(A+I) = \vect\left[ \begin{pmatrix}
0\\
-1 \\
1\\
1
\end{pmatrix}\right].$ Vous posez $v_1 = \begin{pmatrix}
0\\
-1 \\
1\\
1
\end{pmatrix}.$

Calculez maintenant le noyau de $A-2I = \begin{pmatrix}
1 & 0 & -1 & 1\\
2 & 0 & 1 & 2\\
-3 & 0 & 0 & -3\\
-4 & 0 & 1 & -4
\end{pmatrix}.$

Le détail du processus est donné parce qu’il est intéressant et évitera de calculer la matrice $(A-2I)^2.$

Pour la détermination de $\ker(A-2I)$ vous résolvez le système linéaire suivant :

$\left\{\begin{align*}
x_1 -x_3+x_4&=0\\
2x_1+x_3+2x_4 &=0\\
-3x_1-3x_4 &=0\\
-4x_1+x_3-4x_4 &=0.
\end{align*}\right.$

Vous effectuez les opérations élémentaires suivantes : $L_2\leftarrow L_2-2L_1$, $L_3\leftarrow L_3+3L_1$ et $L_4\leftarrow L_4+4L_1.$

$\left\{\begin{align*}
x_1 -x_3+x_4&=0\\
3x_3 &=0\\
-3x_3 &=0\\
-3x_3 &=0.
\end{align*}\right.$

Ainsi le système est équivalent à :

$\left\{\begin{align*}
x_1 &=-x_4\\
x_2 & = x_2\\
x_3 &=0\\
x_4 &=x_4.
\end{align*}\right.$

$\ker(A-2I) = \vect\left[ \begin{pmatrix}
-1\\
0 \\
0\\
1
\end{pmatrix}, \begin{pmatrix}
0\\
1 \\
0\\
0
\end{pmatrix}\right].$

Vous cherchez maintenant une base de $\ker(A-2I)^2.$

Soit $X = \begin{pmatrix}
x_1\\
x_2 \\
x_3\\
x_4
\end{pmatrix}.$ Au lieu de résoudre $(A-2I)^2X = 0$ vous résolvez $(A-2I)X\in \ker(A-2I).$

Le vecteur $X$ appartient au noyau de $(A-2I)^2$, si et seulement si, il existe deux réels $a$ et $b$ tels que :

$\left\{\begin{align*}
x_1 -x_3+x_4&=-a\\
2x_1+x_3+2x_4 &=b\\
-3x_1-3x_4 &=0\\
-4x_1+x_3-4x_4 &=a.
\end{align*}\right.$

Vous effectuez les mêmes opérations élémentaires : $L_2\leftarrow L_2-2L_1$, $L_3\leftarrow L_3+3L_1$ et $L_4\leftarrow L_4+4L_1.$

$\left\{\begin{align*}
x_1 -x_3+x_4&=-a\\
3x_3 &=b+2a\\
-3x_3 &=-3a\\
-3x_3 &=-3a.
\end{align*}\right.$

$\left\{\begin{align*}
x_1 -x_3&=-a-x_4\\
x_3 &=a\\
b &=a\\
\end{align*}\right.$

$\left\{\begin{align*}
x_1 &=-x_4\\
x_3 &=a\\
b &=a\\
\end{align*}\right.$

$X$ appartient à $\ker(A-2I)^2$ si et seulement si il existe un réel $a$ tel que :

$\left\{\begin{align*}
x_1 &=-x_4\\
x_2 &=x_2\\
x_3 &=a\\
x_4 &=x_4\\
\end{align*}\right.$

$\ker(A-2I)^2 = \vect\left[ \begin{pmatrix}
-1\\
0 \\
0\\
1
\end{pmatrix}, \begin{pmatrix}
0\\
1 \\
0\\
0
\end{pmatrix}, \begin{pmatrix}
0\\
0 \\
1 \\
0
\end{pmatrix}\right].$

Vous choisissez $v_2 = \begin{pmatrix}
0\\
0 \\
1 \\

\end{pmatrix}.$

Maintenant que vous avez les vecteurs $v_1$ et $v_2$, vous posez $v = v_1-v_2 = \begin{pmatrix}
0\\
-1 \\
0 \\
1
\end{pmatrix}.$

Voyez pourquoi le vecteur $v$ a un polynôme minimal de degré $3$.

Il a été vu que $v_1$ admet $X+1$ pour polynôme minimal et que $v_2$ admet $(X-2)^2.$

Soit $P\in\R[X]$ un polynôme annulant le vecteur $v$, c’est-à-dire tel que $P(A)v = 0.$

Prenez le vecteur $v_1 = v + v_2$. Appliquez le polynôme $P$.

$P(A)v_1 = P(A)v_2$, puis annulez le vecteur $v_2$.

$(A-2I)^2P(A) v_1 = 0.$

Le polynôme $(X-2)^2 P(X)$ annule le vecteur $v_1$. Ce polynôme est un multiple du polynôme minimal de $v_1$, donc $X+1 \ (X-2)^2 P(X)$ et par application du théorème de Gauss, $X+1 | P(X).$

Prenez le vecteur $v_2 = v_1 – v$. Appliquez le polynôme $P$.

$P(A)v_2 = P(A)v_1$, puis annulez le vecteur $v_1$.

$(A+I)P(A)v_2 = 0.$

Le polynôme $(X+1)P(X)$ annule le vecteur $v_2$. Du coup $(X-2)^2 | (X+1)P(X)$ et par le théorème de Gauss, $(X-2)^2 | P(X).$

$P(X)$ est un multiple de $X+1$ et de $(X-2)^2$ qui sont premiers entre eux, donc $P(X)$ est un multiple de leur produit.

D’autre part, $(A+I)(A-2I)^2 v = (A-2I)^2(A+I)v_1-(A+I)(A-2I)^2v_2 = 0. $

Ainsi, le vecteur $v$ admet $(X+1)(X-2)^2 = X^3-3X^2+4$ pour polynôme minimal et $<v>$ est de dimension $3$.

Le premier bloc de Frobenius

D’après ce qui précède, la famille $(v, Av, A^2v)$ est libre et $A^3v = 3A^2v-4v.$ Si vous complétez cette famille en une base $(v, Av, A^2v, w)$ de $\R^4$ et que vous formez la matrice $P = (v | Av | A^2v | w)$, la matrice $P$ sera inversible et $P^{-1}AP$ aura pour forme : $P^{-1}AP = \begin{pmatrix}
0 & 0 & -4 & \times \\
1 & 0 & 0 & \times\\
0 & 1 & 3 & \times \\
0 & 0 & 0 & \times
\end{pmatrix}.$

En notant $P_2 = (X+1)(X-2)^2$, on a $C(P_2) = \begin{pmatrix}
0 & 0 & -4\\
1 & 0 & 0 \\
0 & 1 & 3
\end{pmatrix}$ et $P^{-1}AP = \begin{pmatrix}C(P_1) & \times \\ 0 & \times \end{pmatrix}$

Attaquez le second bloc de Frobenius

D’après ce qui précède, compléter la famille $(v, Av, A^2v)$ en une base de $\R^4$ ne suffit pas.

Il s’agit, pour former un second bloc avec une matrice compagnon, de construire un supplémentaire stable par $A$ de $\vect(v,Av,A^2v).$

Construisez une forme linéaire $f$ de $\R^4$ telle que $f(v)=0$, $f(Av)=0$ et $f(A^2v) \neq 0$ puis considérez $F = \{w\in\R^4, f(w)=f(Aw)=f(A^2w)=0\}.$ Alors $F$ est un sous-espace vectoriel de $\R^4$, stable par $A$, tel que $\R^4 = <v> \oplus \ F.$

En effet, $F$ est déjà un sous-espace vectoriel de $\R^4$, comme noyau de l’application linéaire $g: w\mapsto (f(w), f(Aw), f(A^2w))$ qui va de $\R^4$ dans $\R^3.$

$F$ est stable par la matrice $A$. En effet, supposez que $w\in F.$ Alors $f(w)=f(Aw)=f(A^2w)=0$ or $A^3w \in \vect(w,Aw,A^2w)$ puisque le polynôme minimal de $A$ est de degré $3$. Par linéarité il s’ensuit que $f(A^3w)=0$ et donc $Aw \in F.$

Pour montrer que $\R^4 = <v> \oplus \ F$ il suffit de montrer que $F$ est de dimension $1$.

Par le théorème du rang, il suffit de montrer que l’image de $g$ est de dimension $3$. Or c’est effectivement le cas, puisque pour $g(v) = (0,0,k)$ où $ k$ est non nul (puisqu’il est égal à $f(A^2v)$), $g(Av) = (0,k,\times)$, $g(A^2v) = (k, \times, \times).$ Du coup la famille $(g(v), g(Av), g(A^2v))$ est libre. L’image de $g$ contient l’espace engendré par cette famille et donc l’image de $g$ a une dimension supérieure ou égale à $3$. Comme l’image de $g$ est incluse dans $\R^3$, on obtient le résultat annoncé.

Terminez les calculs

Les calculs montrent que $v = \begin{pmatrix}
0\\
-1\\
0\\
1
\end{pmatrix}$, que $Av = \begin{pmatrix}
1\\
0\\
-3\\
-2
\end{pmatrix}$ et que $A^2v = \begin{pmatrix}
4\\
-5\\
-3\\
-3
\end{pmatrix}.$

Il suffit de poser $f\left(\begin{pmatrix}
x_1\\
x_2\\
x_3\\
x_4
\end{pmatrix}\right) = 3x_1+x_3.$

Pour trouver $F$ on résout $f(x) = f(Ax) = f(A^2x)=0$ pour $x = \begin{pmatrix}
x_1\\
x_2\\
x_3\\
x_4
\end{pmatrix}$ ce qui conduit au système :

$\left\{\begin{align*}
3x_1+x_3&=0\\
6x_1-x_3&=0 \\
21x_1-8x_3+9x_4&=0.
\end{align*}\right.$

Sa résolution fournit $x_1 = x_3 = x_4 = 0$ et donc $F = \vect\left[\begin{pmatrix}
0\\
1\\
0\\
0
\end{pmatrix}\right]$ est un supplémentaire stable de $<v>.$

On peut constater rapidement que si $w = \begin{pmatrix}
0\\
1\\
0\\

\end{pmatrix}$, alors $Aw = 2w$ ce qui montre que $w$ admet $X-2$ pour polynôme minimal.

La matrice compagnon de ce polynôme est $(2)$.

Posez $P = (v| Av| A^2v| w)=\begin{pmatrix}
0 & 1 & 4 & 0 \\
-1 & 0 & -5 & 1\\
0 & -3 & -3 & 0 \\
1 & -2 & -3 & 0
\end{pmatrix}.$

Notez que tous les vecteurs de $F$ sont annulés par le polynôme minimal de $A$, par conséquent le polynôme minimal du vecteur $w$ divise le polynôme minimal de $A$.

En posant $P_1 = X-2$ et $P_2 =(X-2)^2(X+1)$, vous obtenez bien :

$P^{-1}AP = \begin{pmatrix}
C(P_2) & 0\\
0 & C(P_1)
\end{pmatrix} $ où $P_1 | P_2.$

Pour avoir les blocs de Frobenius dans le bon ordre, il suffit de poser $Q = (w | v| Av| A^2v)=\begin{pmatrix}
0 & 0 & 1 & 4 \\
1 & -1 & 0 & -5 \\
0 & 0 & -3 & -3 \\
0 & 1 & -2 & -3
\end{pmatrix}.$

Alors $Q^{-1}AQ = \begin{pmatrix}
C(P_1) & 0\\
0 & C(P_2)
\end{pmatrix} = \begin{pmatrix}
2 & 0 & 0 & 0 \\
0 & 0 & 0 & -4\\
0 & 1 & 0 & 0 \\
0 & 0 & 1 & 3
\end{pmatrix}, $ où $P_1 | P_2$ ce qui est la matrice de Frobenius et $Q$ la matrice dont les colonnes constituent une base de Frobenius de la matrice $A$.