Votre navigateur n'accepte pas le Javascript.La navigation sur ce site risque de ne pas fonctionner correctement.

118. Alignement de trois points

Considérez la figure ci-dessous.

$ABCD$ est un carré, le point $E$ est situé à l’intérieur de ce carré pour que le triangle $ABE$ soit équilatéral, le point $F$ est situé à l’extérieur de ce même carré pour que le triangle $BCF$ soit équilatéral.

Notez $a = AB$ la valeur du côté du carré.

Vous allez montrer uniquement avec des calculs de distances que les points $D$, $E$ et $F$ sont alignés dans cet ordre.

Calculez la distance entre $D$ et $F$

Comme le triangle $DCF$ est isocèle en $C$, vous obtenez par le théorème d’Al-Kashi :

\begin{align*}
DF^2 &= DC^2+CF^2-2\times DC\times CF\times \cos 150°\\
&= 2a^2-2a^2 \cos 150°\\
&= 2a^2+2a^2\cos 30°\\
&=2a^2+2a^2\dfrac{\sqrt{3}}{2}\\
&=2a^2+a^2\sqrt{3}\\
&=a^2(2+\sqrt{3}).
\end{align*}

Avant de prendre la racine carrée, il convient de voir si $2+\sqrt{3}$ s’écrit comme un carré agréable, et c’est effectivement le cas.

Remarquez que :

\begin{align*}
(\sqrt{2}+\sqrt{6})^2 &= 2+6+2\sqrt{12}\\
&=8+2\times 2\sqrt{3}\\
&=8+4\sqrt{3}\\
&=4(2+\sqrt{3}).
\end{align*}

Ainsi :

\begin{align*}
4DF^2 &= 4a^2(2+\sqrt{3})\\
&= a^2(\sqrt{2}+\sqrt{6})^2.
\end{align*}

Par positivité des distances $\boxed{2DF = a(\sqrt{2}+\sqrt{6}).}$

Calculez la distance entre $D$ et $E$

Comme le triangle $ADE$ est isocèle en $A$, vous obtenez par le théorème d’Al-Kashi :

\begin{align*}
DE^2 &= AE^2+AD^2-2\times AE \times AD\times \cos 30°\\
&=2a^2-2a^2\cos30°\\
&=2a^2-a^2\sqrt{3}\\
&=a^2(2-\sqrt{3}).
\end{align*}

Remarquez comme dans le paragraphe précédent que :

\begin{align*}
(\sqrt{6}-\sqrt{2})^2 &= 6+2-2\sqrt{12}\\
&=8-2\times 2\sqrt{3}\\
&=8-4\sqrt{3}\\
&=4(2-\sqrt{3}).
\end{align*}

Par positivité des distances et du nombre $\sqrt{6}-\sqrt{2}$, vous obtenez $\boxed{2DE = a(\sqrt{6}-\sqrt{2}).}$

Calculez la distance entre $E$ et $F$

Le triangle $EBF$ est isocèle en $B$. De plus, $\widehat{EBF} =\widehat{EBC}+\widehat{CBF} = 30°+60°=90°.$ Par conséquent, le triangle $EBF$ est rectangle isocèle en $B$. Le théorème de Pythagore fournit :

\begin{align*}
EF^2 &= BE^2+BF^2\\
&=2a^2.
\end{align*}

Du coup $EF = a\sqrt{2}.$

Montrez que $DE+EF=DF$

Par somme :

\begin{align*}
2DE+2EF &= a(\sqrt{6}-\sqrt{2}) + 2a\sqrt{2}\\
&=a(\sqrt{6}+\sqrt{2})\\
&=2DF.
\end{align*}

L’égalité $DE+EF=DF$ entraîne l’appartenance du point $E$ au segment $[DF]$ comme annoncé.

Prolongement

L’alignement des points $D$, $E$ et $F$ peut être démontrée autrement. Voici une autre méthode utilisant des homothéties, une projection et une translation.

117. La multiplication d’un chiffre par 9

Vous avez appris par coeur la table de multiplication par 9, oui mais… avez-vous compris comment elle est construite ?

Une conséquence d’un calcul algébrique

Prenez un chiffre non nul noté $c$, autrement dit, un nombre entier compris entre $1$ et $9.$

Pour calculer $c\times 9$, vous pouvez effectuer $c\times (10-1) = 10c -c.$ Cette méthode est largement connue, par exemple au lieu de calculer $7\times 9$ vous effectuez $70-7=63.$

Le problème c’est que cette écriture présente une soustraction qui ne donne pas directement les chiffres de l’écriture décimale du résultat. Vous souhaitez pouvoir obtenir $9\times 7 = 6\times 10 + 3$.

Il est tout à fait possible d’y parvenir.

Remarquez que :

\begin{aligned}
c\times 9 &= c\times (10-1)\\
&=10c-c\\
&= (10(c-1)+10)-c\\
&=10(c-1)+(10-c)
\end{aligned}

Comme $c$ est un chiffre non nul, vous constatez que $c-1$ est un chiffre et que $10-c$ est aussi un chiffre.

Par conséquent, l’égalité $\boxed{c\times 9 = (c-1)\times 10 + (10-c)}$ vous donne la lecture des deux chiffres du résultat de la multiplication $c\times 9.$

  • Le chiffre des dizaines est égal à $c-1$,
  • Le chiffre des unités est égal à $10-c.$

Comment calculer $7\times 9$ ?

Vous souhaitez calculer $7\times 9$ ? Vous avez $c=7$ donc $c-1 = 6$. Le résultat de $7\times 9$ commence par un $6$. Puis prenez le complément à $10$ du chiffre $c$, à savoir $10-c = 10-7=3.$ Vous obtenez le chiffre des unités de $7\times 9$ et finalement $7\times 9= 63.$

Pas convaincu ? Encore un autre exemple

Comment calculer le délicat $9\times 9$ ? Vous posez $c=9$, donc $c-1 = 8$ (8 dizaines) et $10-c = 10-9=1$ (1 unité). Donc $9\times 9 =81.$

Prolongement

D’après vous, peut-on généraliser la méthode vue ci-dessus pour calculer le produit d’un nombre à deux chiffres par 9 ? Par exemple $52\times 9$ ? $87\times 9$ ?

116. Comment savoir si un vecteur se décompose ?

Considérez les vecteurs suivants de $\R^4$ : $\alpha_1=(1,1,2,-1)$, $\alpha_2 = (3,0,4,-1)$ et $\alpha_3 = (-1,2,5,2).$

Posez $\alpha = (4,-5,9,-7)$. Est-ce que $\alpha$ est une combinaison linéaire des vecteurs $\alpha_1$, $\alpha_2$ et $\alpha_3$ ? Autrement dit, est-ce que $\alpha\in \vect(\alpha_1,\alpha_2,\alpha_3)$ ? Ou encore existe-t-il $(a_1,a_2,a_3)\in\R^3$ tel que $\alpha = a_1\alpha_1 + a_2\alpha_2+a_3\alpha_3$ ?

En remplaçant chaque vecteur par sa valeur numérique, vous êtes amené à à résoudre un système de 4 équations d’inconnues $a_1$ puis $a_2$ et $a_3$. Cela répondrait à la question, mais il sera privilégié ici une présentation différente.

Formez la matrice suivante :

A= \begin{pmatrix}1 & 1 & 2 & -1\\
3 & 0 & 4 & -1\\
-1& 2 & 5 &2 
\end{pmatrix}.

Comme les opérations élémentaires sur les lignes de $A$ ne changent pas l’espace vectoriel engendré par les lignes de $A$ – notez que cet espace vectoriel n’est autre que $\vect(\alpha_1,\alpha_2,\alpha_3)$ -, il revient au même de se poser la question : est-ce que $\alpha\in\vect(r_1,r_2,r_3)$ où $r_1$, $r_2$ et $r_3$ sont les vecteurs lignes de la matrice $R$ échelonnée réduite de $A$ ? L’intérêt des vecteurs $r_1$, $r_2$ et $r_3$ c’est que ce seront des vecteurs qui permettront de décomposer instantanément $\alpha$ dessus.

Calculez la matrice $R$, la vaguelette $\sim$ signifiant que l’on peut passer d’une matrice à l’autre par des opérations élémentaires sur les lignes de $A$. Il vient :

A= \begin{pmatrix}
1 & 1 & 2 & -1\\
3 & 0 & 4 & -1\\
-1& 2 & 5 &2
\end{pmatrix}.

Puis $L_3\leftarrow L_3+L_1$ fournit :

A \sim \begin{pmatrix}
1 & 1 & 2 & -1\\
3 & 0 & 4 & -1\\
 0& 3 & 7 &1 
\end{pmatrix}.

Puis $L_2\leftarrow L_2-3L_1$ fournit :

A \sim \begin{pmatrix}
1 & 1 & 2 & -1\\
0 & -3 & -2 & 2\\
0& 3 & 7 &1
\end{pmatrix}.

Puis $L_3\leftarrow L_3+L_2$ fournit :

A \sim \begin{pmatrix}
1 & 1 & 2 & -1\\
0 & -3 & -2 & 2\\
0& 0 & 5 &3
\end{pmatrix}.

Puis $L_1\leftarrow 3L_1$ fournit :

A \sim \begin{pmatrix}
3 & 3 & 6 & -3\\
0 & -3 & -2 & 2\\
0& 0 & 5 &3
\end{pmatrix}.

Puis $L_1\leftarrow L_1+L_2$ fournit :

A \sim \begin{pmatrix}
3 & 0 & 4 & -1\\
0 & -3 & -2 & 2\\
0& 0 & 5 &3
\end{pmatrix}.

Puis $L_1\leftarrow 5L_1$, $L_2\leftarrow 10L_2$, $L_3\leftarrow 4L_3$ donnent :

A \sim \begin{pmatrix}
15 & 0 & 20 & -5\\
0 & -30 & -20 & 20\\
0& 0 & 20 &12
\end{pmatrix}.

Puis $L_1\leftarrow L_1-L_3$, $L_2\leftarrow L_2+L_3$ donnent :

A \sim \begin{pmatrix}
15 & 0 & 0 & -17\\
0 & -30 & 0 & 32\\
0& 0 & 20 &12
\end{pmatrix}.

Puis $L_2\leftarrow L_2 / 2$, $L_3\leftarrow L_3/4$ donnent :

A \sim \begin{pmatrix}
15 & 0 & 0 & -17\\
0 & -15 & 0 & 16\\
0& 0 & 5 &3
\end{pmatrix}.

Puis vous effectuez la normalisation des pivots :

A \sim \begin{pmatrix}
1 & 0 & 0 & -\frac{17}{15}\\
0 & 1 & 0 & -\frac{16}{15}\\
0& 0 & 1 & \frac{9}{15}
\end{pmatrix}.

Ainsi $r_1 = \left(1,0,0,-\dfrac{17}{15}\right)$, $r_2 = \left(0,1,0,-\dfrac{16}{15}\right)$ et $r_3 = \left(0,0,1,\dfrac{3}{5}\right)$.

Les coordonnées pivots de $\vect(\alpha_1,\alpha_2,\alpha_3)$ sont $1$, $2$ et $3$ ce qui signifie que les positions des colonnes pivot de chacun des vecteurs pivots sont bien $1$, $2$ et $3$.

Comme $\alpha = (4,-5,9,-7)$, $\alpha\in \vect(\alpha_1,\alpha_2,\alpha_3)$ si et seulement si $\alpha\in \vect(r_1,r_2,r_3).$ Comme $r_1$, $r_2$ et $r_3$ sont les vecteurs pivots, cette condition est équivalente à $\alpha = 4r_1-5r_2+9r_3.$

Regardez la 4ème coordonnée de $\alpha$ qui vaut $-7$.

Formez la 4ème coordonnée du vecteur $4r_1-5r_2+9r_3.$

Elle est égale à $\dfrac{-17\times 4}{15}+\dfrac{5\times 16}{15}+\dfrac{9\times 9}{15} = \dfrac{-68+80+81}{15}=\dfrac{93}{15}$ donc on n’a pas $\alpha = 4r_1-5r_2+9r_3$ donc $\alpha$ n’est pas une combinaison linéaire des vecteurs $\alpha_1$, $\alpha_2$ et $\alpha_3.$

115. Structure d’un sous-espace vectoriel (2/2)

Tout sous-espace $E$ de $\F^n$ est isomorphe à $\F^r$ où $r\leq n$

Reprenez l’espace vectoriel $E$ de l'article 114 inclus dans $\F^n$ et notez $\{i_1, \dots, i_r\}$ l’ensemble des coordonnées pivots de $E$ dans l’ordre croissant $1\leq i_1 < \dots < i_r \leq n.$

Vous avez vu précédemment que les vecteurs pivots vérifient : $\forall j\in\llbracket 1, r\rrbracket, \exists! x_{i_j}\in E$ tel que $L_{i_j}(x_{i_j}) = 1$ et $\forall k\in\llbracket 1, r\rrbracket, i_k \neq i_j \Longrightarrow L_{i_k}(x_{i_j})=0.$

Considérez l’application liénaire $\varphi$ suivante qui va de $\F^r$ dans $E$, définie par $\varphi(a_1, \dots, a_r) = \sum_{j=1}^r a_j x_{i_j}.$

Montrez que c’est une injection

Il suffit de calculer son noyau.

Soit $(a_1, \dots, a_r)\in\F^r$ tel que $\sum_{j=1}^r a_j x_{i_j} = 0.$

Soit $k$ un entier compris entre $1$ et $r$. Appliquez à cette relation la forme linéaire $L_{i_k}$.

$\sum_{j=1}^r a_j L_{i_k} (x_{i_j}) = 0$. Par construction des vecteurs pivots, $a_k = 0$.

Le noyau de $\varphi$ étant réduit au singleton $\{0\}$, l’application linéaire $\varphi$ est injective.

Montrez que c’est une surjection

Soit $x$ un vecteur de $E$. Considérez le vecteur $y=x-\sum_{j=1}^r L_{i_j}(x) x_{i_j}.$

Remarquez déjà que pour tout $k$ compris entre $1$ et $r$, $L_{i_k}(y) = L_{i_k}(x) -\sum_{j=1}^r L_{i_j}(x) L_{i_k}(x_{i_j}) = L_{i_k}(x)-L_{i_k}(x)=0. $

Le vecteur $y$ s’annule sur toutes les coordonnées pivots de $E$. Si $y$ était non nul, il existerait un nombre $i$ compris entre $1$ et $n$ avec $i\notin\{i_1,\dots,i_r\}$ tel que $L_i(y)\neq 0.$ Posez $z = \dfrac{1}{L_i(y)} y$. Alors $z\in E$ et $L_i(z) = 1.$ Notez $\ell$ le plus petit des entiers $i \in\llbracket 1, n\rrbracket \setminus \{i_1,\dots,i_r\}.$ Alors $L_{\ell}(z)=1$ et $\forall i < \ell L_i(z)=0$ donc $\ell$ est une coordonnée pivot donc $\ell\in \{i_1,\dots,i_r\},$ contradiction. Donc $y=0$ et $\varphi$ est surjective.

Conclusion

L’application $\varphi$ est un isomorphisme d’espaces vectoriels, ce qui prouve le résultat annoncé. Au passage vous retrouvez que $E$ est de dimension finie et que sa dimension est inférieure ou égale à celle de $\F^n.$

Prolongement

Grâce aux vecteurs pivots, il est possible de déterminer une base de tout sous-espace vectoriel $E$ de $\F^n,$ ce qui permet de caractériser complètement $E$ avec des équations et d’obtenir sa dimension.

114. Structure d’un sous-espace vectoriel (1/2)

Soit $n$ un entier naturel non nul et $\F$ un corps.

Pour tout $i\in\llbracket 1,n \rrbracket$ notez $L_i$ la forme linéaire de $\F^n$ dans $\F$ définie par $\forall (x_1,\dots,x_n)\in\F^n, L_i(x_1, \dots, x_n) = x_i.$

Soit $E$ un sous-espace vectoriel de $\F^n$ non réduit au singleton $\{0\}.$

Montrez qu’il existe une première coordonnée pivot

L’ensemble $A_1 = \{i\in\llbracket 1,n \rrbracket, \exists x\in E, L_i(x)\neq 0\}$ est non vide : cela traduit qu’il existe un vecteur non nul appartenant à $E$.

$A_1$ est une partie de $\N$ non vide. Notez $i_1$ son minimum.

Il existe un vecteur $x_1\in E$ tel que $L_{i_1}(x_1)\neq 0$ et $\forall x\in E, \forall i\in\llbracket 1,n \rrbracket, i<i_1 \Longrightarrow L_i(x)=0.$ Par la suite, des implications de ce type seront notées plus simplement : $\forall x\in E, \forall i < i_1, L_i(x)=0.$

Multipliez le vecteur $x_1$ par $\dfrac{1}{L_{i_1}(x_1)}$, vous obtenez un vecteur $y_1 = \dfrac{1}{L_{i_1}(x_1)} x_1$ de $E$ tel que $L_{i_1}(y) = 1$ et $\forall i<i_1, L_i(y)=0.$

$i_1$ désigne le premier numéro de coordonnée pour lequel il existe un vecteur appartenant à $E$ de la forme $(0,\dots,0,1,\times, \dots, \times).$

$i_1$ sera appelé « coordonnée pivot » pour l’espace vectoriel $E$.

Cela conduit à la définition suivante.

Les coordonnées pivot dans le cas général

Pour tout $i\in\llbracket 1,n \rrbracket$ le nombre $i$ est appelé « coordonnée pivot » pour l’espace vectoriel $E$, si et seulement s’il existe un vecteur $x\in E$ tel que $L_i(x)=1$ et $\forall j < i, L_j(x)=0.$

Il existe au plus $n$ coordonnées pivots pour l’espace $E$. En notant $r$ le nombre d’éléments de l’ensemble formé par toutes les coordonnées pivots de $E$, vous pouvez noter $\{i_{1}, \dots, i_r\}$ avec $1\leq i_1<\dots<i_r\leq n$ l’ensemble des coordonnées pivots de $E$.

Par définition des coordonnées pivots, pour tout $j\in\llbracket 1, r\rrbracket$, il existe un vecteur $x_{i_j}\in E$ tel que $L_{i_j}(x_{i_j}) = 1$ et $\forall k < i_j, L_k(x_{i_j})=0.$

On dira qu’un vecteur $x\in E$ est un vecteur pivot de $E$ si et seulement s’il existe un nombre $i$ compris entre $1$ et $n$ tel que $L_i(x)=1$ et $\forall j < i, L_j(x)=0.$

Existence et unicité de vecteurs pivots

Rappelez-vous que $\{i_{1}, \dots, i_r\}$ désigne toutes les coordonnées pivots de $E$. Vous allez montrer un résultat plus fort, l’existence et l’unicité pour chaque $j$ compris entre $1$ et $r$, d’un vecteur pivot $x_{i_j}$ tel que : $L_{i_j}(x_{i_j})=1$, $\forall k\in\llbracket 1, r\rrbracket, i_k \neq i_j \Longrightarrow L_{i_k}(x_{i_j})=0.$

Montrez d’abord l’unicité

$\forall j\in\llbracket 1, r\rrbracket, \exists! x_{i_j}\in E$ tel que $L_{i_j}(x_{i_j}) = 1$ et $\forall k\in\llbracket 1, r\rrbracket, i_k \neq i_j \Longrightarrow L_{i_k}(x_{i_j})=0.$

Soit $j$ appartenant à l’ensemble $\llbracket 1, r\rrbracket.$ Supposez qu’il existe deux vecteurs $x\in E$ et $y\in E$ tels que $L_{i_j}(x) = L_{i_j}(y)=1$ et $\forall k\in\llbracket 1, r\rrbracket, i_k \neq i_j \Longrightarrow L_{i_k}(x)=L_{i_k}(y)=0.$

Alors $\forall k \in \{i_{1}, \dots, i_r\}, L_k(x-y)=0.$ Si le vecteur $x-y$ n’était pas nul, il existerait $p\in\llbracket 1,n \rrbracket$ tel que $L_p(x-y)\neq 0.$ Soit $\ell$ le plus petit entier $p\in\llbracket 1,n \rrbracket$ tel que $L_p(x-y)\neq 0.$ Alors $\forall i<\ell, L_i(x-y)=0.$ Multipliez le vecteur $x-y$ par $\dfrac{1}{L_{\ell}(x-y)}$, pour constater que $z = \dfrac{1}{L_{\ell}(x-y)} (x-y)$ vérifie $L_{\ell}(z)=1$ et $\forall i < \ell, L_{i}(z)=0.$ Il en résulte que $\ell$ est une coordonnée pivot de $E$. Donc $\ell \in \{i_{1}, \dots, i_r\}$ et donc $L_{\ell} (x-y)=0$, ce qui contredit la définition de $\ell$. Ainsi $x=y$ et l’unicité est démontrée.

Montrez ensuite l’existence

C’est la partie la plus délicate. Elle est basée sur le processus de Gauss-Jordan.

Soit $j$ appartenant à l’ensemble $\llbracket 1, r\rrbracket.$ Le nombre $i_j$ est une coordonnée pivot de $E$ donc il existe un vecteur pivot $x\in E$ tel que $L_{i_j}(x) = 1$ et $\forall k < i_j, L_k(x)=0.$

Pour tout entier $s$ compris entre $j+1$ et $r$, vous allez montrer qu’il existe un vecteur $y\in E$ tel que $L_{i_j}(y) = 1$, $\forall k\in \{i_{j+1}, \dots, i_{s}\}, L_k(y)=0$ et $\forall k < i_j, L_k(y)=0.$

Vous procédez par récurrence limitée. Pour tout entier $s$ compris entre $j+1$ et $r$, notez $P(s)$ la propriété : « il existe un vecteur $y\in E$ tel que $L_{i_j}(y) = 1$, $\forall k\in \{i_{j+1}, \dots, i_{s}\}, L_k(y)=0$ et $\forall k < i_j, L_k(y)=0.$ »

Initialisation. $i_{j+1}$ est une coordonnée pivot donc il existe un vecteur $z\in E$ tel que $L_{i_{j+1}}(z)=1$ et $\forall k < i_{j+1}, L_k(z)=0.$ Considérez le vecteur $y=x -L_{i_{j+1}}(x) z.$ Par combinaison linéaire, $y\in E.$ La condition $\forall k < i_j, L_k(y)=0$ est satisfaite puisqu’elle l’est pour $z$ et pour $x$ vu que $i_j < i_{j+1}.$ Vous avez $L_{i_j}(y)=L_{i_j}(x)-L_{i_{j+1}}(x) L_{i_j}(z)$, or $L_{i_j}(z)=0$ donc $L_{i_j}(y)=L_{i_j}(x) = 1.$ D’autre part, $L_{i_{j+1}}(y) =L_{i_{j+1}}(x)-L_{i_{j+1}}(x) L_{i_{j+1}}(z) $ or $L_{i_{j+1}}(z)=1$ donc $L_{i_{j+1}}(y) =L_{i_{j+1}}(x)-L_{i_{j+1}}(x) = 0.$ La propriété $P(j+1)$ est vérifiée.

Hérédité. Soit $s$ un entier compris entre $j+1$ et $r-1$. Supposez $P(s)$.

Il existe donc un vecteur $z\in E$ tel que $L_{i_j}(z) = 1$, $\forall k\in \{i_{j+1}, \dots, i_{s}\}, L_k(z)=0$ et $\forall k < i_j, L_k(z)=0.$

$i_{s+1}$ étant une coordonnée pivot, il existe un vecteur $a\in E$ tel que $L_{i_{s+1}}(a)=1$ et $\forall k < i_{s+1}, L_k(a)=0.$

Considérez le vecteur $y=z -L_{i_{s+1}}(z) a$, alors $y\in E$ et la condition $\forall k < i_j, L_k(y)=0$ est satisfaite. Vous avez $L_{i_j}(y)=L_{i_j}(z)-L_{i_{s+1}}(z) L_{i_j}(a)$, or $L_{i_j}(a) = 0$ donc $L_{i_j}(y)=L_{i_j}(z) = 1.$ Soit $k$ appartenant à $\{i_{j+1}, \dots, i_{s}\}$. $L_k(y) = L_k(z)-L_{i_{s+1}}(z) L_k(a)$, or $L_k(z) = 0$ et $L_k(a) = 0$ donc $L_k(y)=0.$ Pour le dernier calcul, $L_{i_{s+1}}(y)= L_{i_{s+1}}(z)-L_{i_{s+1}}(z) L_{i_{s+1}}(a)$, or $L_{i_{s+1}}(a) = 1$ donc $L_{i_{s+1}}(y)= L_{i_{s+1}}(z)-L_{i_{s+1}}(z) = 0.$ Le vecteur $y$ convient et la propriété $P(s+1)$ est vérifiée.

Par récurrence limitée, la propriété $P(r)$ est satisfaite.

Prolongement

Veillez à lire l'article 115 qui vous expliquera pourquoi les vecteurs pivots constituent, en fait, une base de $E.$

113. Diagonalisation et formules de changements de bases

La relation $D = P^{-1}AP$ traduit l’associativité du produit matriciel.

Pour fixer les idées, soit $E$ un espace vectoriel de dimension finie $n\geq 1$ et $f$ un endomorphisme de $E$.

Considérez $(e_1, \dots, e_n)$, base de $E$ dans laquelle vous disposez de la matrice $A$ de $f$ dans cette base.

Traduisez le lien entre $(e_1\quad \dots\quad e_n)$ et $(f(e_1)\quad \dots\quad f(e_n))$

Soit $i\in\llbracket 1, n\rrbracket$. La colonne numéro $i$ de $A$ est donnée par $\begin{pmatrix}a_{1i}\\ \dots \\ a_{ni} \\ \end{pmatrix}$ les coefficients $a_{ji}$ donnant les coordonnées de la décomposition du vecteur $f(e_i)$ sur la base $(e_1,\dots,e_n)$, ce qui se traduit par le sigma $f(e_i)=\sum_{j=1}^n a_{ji}e_j.$

Il faut bien avouer que cette notation avec un sigma n’est guère pratique.

Il convient d’écrire, par produit matriciel, que $f(e_i) = (e_1\quad \dots\quad e_n)\begin{pmatrix}a_{1i}\\ \dots \\ a_{ni}\end{pmatrix}.$

Vous en déduisez la relation fondamentale, la matrice ligne de vecteurs $(f(e_1)\quad \dots \quad f(e_n))$ est égale au produit matriciel $(e_1\quad \dots \quad e_n) A.$

$\boxed{(f(e_1)\quad \dots \quad f(e_n)) =(e_1\quad \dots \quad e_n) A. }$

Ecrivez le lien entre deux bases de $E$

La base $(e_1\quad\dots\quad e_n)$ étant déjà prise en compte plus haut, considérez une autre base $(f_1\quad\dots\quad f_n)$ de $E$. Appelez $P$ la matrice de passage de $(e_1\quad\dots\quad e_n)$ vers la base $(f_1\quad\dots\quad f_n).$

Pour tout $i\in\llbracket 1, n\rrbracket$, le vecteur $f_i$ se décompose avec un sigma : $f_i=\sum_{j=1}^n p_{ji}e_j$ et les coefficients $p_{ji}$ sont regroupés dans la matrice $P$ qui est définie par :

Comme tout à l’heure, l’écriture avec un sigma est peu agréable aussi, vous pouvez remarquer que $f_i$ s’écrit comme le produit matriciel $f_i = (e_1\quad \dots \quad e_n) \begin{pmatrix}p_{1i}\\\dots\\ p_{ni}\end{pmatrix}.$

La matrice ligne $(f_1\quad\dots\quad f_n)$ s’écrit comme le produit matriciel $(e_1\quad \dots \quad e_n) P.$

En résumé :

$\boxed{(f_1\quad\dots\quad f_n) = (e_1\quad \dots \quad e_n) P.}$

Et la relation de diagonalisation $D = P^{-1}AP$

Supposez que vous ayez trouvé une base de diagonalisation de $f$, autrement dit, il existe $n$ scalaires $\lambda_1$, …, $\lambda_n$ tels que $\forall i\in\llbracket 1, n\rrbracket, f(f_i)=\lambda_i f_i.$

Remarquez que $(f(f_1)\quad\dots\quad f(f_n)) = (\lambda_1 f_1\quad\dots\quad \lambda_n f_n).$

Cette matrice ligne s’écrit comme un produit matriciel en utilisant la matrice $D$ diagonale définie par :

qui vous permet d’écrire successivement :

\begin{align*}
(f(f_1)\quad\dots\quad f(f_n)) &= (\lambda_1 f_1\quad\dots\quad \lambda_n f_n) \\
&= (f_1\quad\dots\quad f_n)D\\
&= [(e_1\quad \dots \quad e_n) P]D\\
&=(e_1\quad \dots \quad e_n) [PD].
\end{align*}

Notez l’utilisation des crochets qui soulignent l’associativité du produit matriciel.

Mais $(f_1\quad\dots\quad f_n) = (e_1\quad \dots \quad e_n) P.$ Comme $f$ est linéaire, vous obtenez $(f(f_1)\quad\dots\quad f(f_n)) = (f(e_1)\quad \dots \quad f(e_n)) P$ ce qui vous donne un autre calcul possible pour la matrice ligne $(f(f_1)\quad\dots\quad f(f_n)).$ Cela donne :

\begin{align*}
(f(f_1)\quad\dots\quad f(f_n)) &= (f(e_1)\quad \dots \quad f(e_n)) P\\
&=[(e_1\quad \dots \quad e_n) A]P\\
&=(e_1\quad \dots \quad e_n) [AP].
\end{align*}

Vous déduisez l’égalité suivante de combinaisons linéaires : $(e_1\quad \dots \quad e_n)PD = (e_1\quad \dots \quad e_n)AP.$

Comme la famille $(e_1, \dots, e_n)$ est une base de $E$, il y a unicité des coefficients et par suite $PD = AP.$

Comme la matrice $P$ est une matrice de passage d’une base vers une autre, elle est inversible et en multipliant à gauche par $P^{-1}$ vous obtenez le résultat annoncé : $\boxed{P^{-1}AP= D.}$

112. Calcul des cosinus de pi/7, 3pi/7 et 5pi/7

Factorisez $X^7+1$ dans $\C[X]$

Remarquez déjà que pour tout nombre complexe $z$, on ne peut avoir l’annulation simultanée du polynôme $X^7+1$ et de son polynôme dérivé. En effet $z^7+1=0$ et $7z^6 = 0$ fournit $z=0$ et la contradiction $1=0.$

Le polynôme $X^7+1$ n’a que des racines simples dans $\C$. Si on pose $\alpha = \e^{\frac{i\pi}{7}}$, vous remarquez que $\alpha$ est annulé par $X^7+1$ étant donné que $\e^{i\pi} = -1$, appelé relation d’Euler.

Ensuite, il s’agit de remarquer que $\alpha^3$ est aussi une racine de $X^7+1.$ En effet, $(\alpha^3)^7+1 = (\alpha^7)^3+1 = (-1)^3+1 = 0.$

Il en est de même pour $\alpha^5$ avec un calcul similaire : $(\alpha^5)^7+1 = (\alpha^7)^5+1 = (-1)^5+1=0.$

Comme $X^7+1$ est à coefficients réels, les trois conjugués $\overline{\alpha}$, $\overline{\alpha}^3$ et $\overline{\alpha}^5$ sont aussi trois racines de $X^7+1$.

Etant donné que $-1$ est aussi une racine de $X^7+1$, vous obtenez la factorisation finale de $X^7+1$ dans $\C[X]$ :

$\boxed{X^7+1 = (X+1)(X-\alpha)(X-\overline{\alpha})\left(X-\alpha^3\right)\left(X-\overline{\alpha}^3\right)\left(X-\alpha^5\right)\left(X-\overline{\alpha}^5\right)}.$

Développez $(X-z)(X-\overline{z})$

Vous obtenez un polynôme à coefficients réels qui est égal à $X^2-(z+\overline{z})X+|z|^2.$

Rappelez-vous que $z+\overline{z}$ vaut deux fois la partie réelle de $z$, qui est un réel.

Factorisez $X^7+1$ dans $\R[X]$

Posez maintenant $\alpha_1 = \cos \left(\frac{\pi}{7}\right)$, $\alpha_3 = \cos \left(\frac{3\pi}{7}\right)$ et $\alpha_5 = \cos \left(\frac{5\pi}{7}\right).$

Vous développez et obtenez successivement :

$(X-\alpha)(X-\overline{\alpha}) = X^2-2\alpha_1 X+1$

$(X-\alpha^3)(X-\overline{\alpha}^3) = X^2-2\alpha_3 X+1$

$(X-\alpha^5)(X-\overline{\alpha}^5) = X^2-2\alpha_5 X+1.$

Vous en déduisez que :

$\boxed{X^7+1 = (X+1)(X^2-2\alpha_1 X+1)(X^2-2\alpha_3 X+1)(X^2-2\alpha_5 X+1)}.$

Déduisez-en un polynôme annulateur de $\alpha_1$, $\alpha_3$ et $\alpha_5$

Notez que pour tout $u\in\{\alpha_1, \alpha_3, \alpha_5\}$, le polynôme $X^2-2uX+1$ divise le polynôme $X^7+1.$

Soit maintenant $u$ fixé appartenant à $\{\alpha_1, \alpha_3, \alpha_5\}.$

Or, quand vous effectuez la division euclidienne de $X^7+1$ par $X^2-2uX+1$ vous avez pour quotient :

$Q(X)=X^5+2uX^4+(4u^2-1)X^3+(8u^3-4u)X^2+(16u^4-12u^2+1)X+(32u^5-32u^3+6u)$

et pour reste :

$R(X) = (64u^6-80u^4+24u^2-1)X+(-32u^5+32u^3-6u+1).$

Le reste étant nul, vous en déduisez que : $64u^6-80u^4+24u^2-1 = 0$ et que $-32u^5+32u^3-6u+1 = 0.$

Multipliez la dernière relation par $2u$ : $-64u^6+64u^4-12u^2+2u = 0.$

Finalement, par addition des deux polynômes en $u$ de degré 6 vous aboutissez à : $-16u^4+12u^2+2u-1=0.$

Or, $-32u^5+32u^3-6u+1 = 0.$ Multipliez par $-2u$ la relation $-16u^4+12u^2+2u-1=0$ pour obtenir $32u^5-24u^3-4u^2+2u=0.$

Par somme des deux polynômes en $u$ de degré 5, vous aboutissez à $8u^3-4u^2-4u+1=0.$

Concluez par la factorisation de $8X^3-4X^2-4X+1$

D’après ce qui précède, les trois nombres $\alpha_1 = \cos \left(\frac{\pi}{7}\right)$, $\alpha_3 = \cos \left(\frac{3\pi}{7}\right)$ et $\alpha_5 = \cos \left(\frac{5\pi}{7}\right)$ sont trois racines (deux à deux distinctes) du polynôme $8X^3-4X^2-4X+1$.

Vous en déduisez la factorisation :

$\boxed{8X^3-4X^2-4X+1 = 8\left(X-\cos \frac{\pi}{7}\right)\left(X-\cos \frac{3\pi}{7}\right)\left(X-\cos \frac{5\pi}{7}\right).}$

Vous cherchez à calculer les cosinus de 2pi/7, 4pi/7 et 6pi/7 ?

Ne traînez plus ! Jetez un coup d'oeil sur l'article 107.

111. Une équation différentielle du premier ordre à connaître

Soit à résoudre l’équation différentielle $y’+y \sin x = \sin(2x).$

Résolvez l’équation homogène $y’+y\sin x = 0$

Procédez à l’analyse du problème

Soit $y$ une fonction définie sur $\R$ et dérivable sur $\R$, telle que $\forall x\in\R, y'(x)+y(x)\sin x = 0.$

Considérez la fonction $f$ définie par $\forall x\in\R, f(x) = y(x)\e^{-\cos x}$.

Par produit de fonctions dérivables sur $\R$, $f$ est dérivable sur $\R$ et, pour tout réel $x$ :

\begin{aligned}
f'(x) &= y'(x) \e^{-\cos x} + y(x)\sin x \e^{-\cos x} \\
&= \left(y'(x)+y(x)\sin x\right)\e^{-\cos x}\\
&= 0\times \e^{-\cos x}\\
&= 0.
\end{aligned}

La fonction $f$ est constante, il existe un réel $A\in\R$ tel que $\forall x\in\R, A = y(x)\e^{-\cos x}$ et $y(x) = A\e^{\cos x}.$

Procédez à la synthèse

Soit $A$ un réel fixé. Pour tout $x\in\R$, posez $y(x) = A\e^{\cos x}$.

$y'(x)+y(x)\sin x = -A \sin x \e^{\cos x}+ A\sin x \e^{\cos x}=0.$

Concluez

L’équation homogène est complètement résolue.

Une fonction $y$ définie et dérivable sur $\R$ vérifie $y’+y\sin x = 0$, si et seulement si, il existe un réel $A$ tel que, pour tout $x\in\R$, $y(x) = A\e^{\cos x}.$

Trouvez une solution particulière de l’équation $y’+y\sin x = \sin(2x)$

Utilisez la méthode de variation des constantes

On entend souvent : utilisez la méthode de variation de la constante. « Faire varier la constante » ? Paradoxale en apparence, cette idée signifie que vous allez chercher une solution de l’équation $y’+y\sin x = \sin (2x)$ sous la forme $y(x) = A(x)\e^{\cos x}$, où $A$ sera une fonction définie et dérivable sur $\R$ dont vous donnerez une expression plus tard.

$y'(x) = A'(x) \e^{\cos x} – A(x) \sin x \e^{\cos x}$ du coup $y'(x) = A'(x)\e^{\cos x} – \sin x y(x)$ et par suite $y'(x)+y(x)\sin x = A'(x)\e^{\cos x}.$

Vous aboutissez à $\sin(2x)=A'(x)\e^{\cos x}$ puis à $A'(x) = \sin(2x)\e^{-\cos x}.$

Pour trouver une fonction $A$ qui satisfait cette condition, vous calculez une intégrale sans borne en effectuant un changement de variable $z=-\cos x$ qui donne $\dz = \sin x \dx$ :

\begin{aligned}
\int \sin(2x)\e^{-\cos x}\dx &= 2 \int \sin x \cos x \e^{-\cos x}\dx\\
&= -2\int z \e^z \dz.
\end{aligned}

Cette dernière intégrale se calcule par une intégration par parties et fait apparaître une constante $C_1$.

\begin{aligned}
\int z \e^z \dz &= z\e^z – \int \e^z\dz\\
&= z\e^z – \e^z + C_1\\
&= (z-1)\e^z+C_1.
\end{aligned}

Vous revenez au calcul de la première intégrale et vous avez une constante $C_2$.

\begin{aligned}
\int \sin(2x)\e^{-\cos x}\dx &=-2 (z-1)\e^z-2C_1 \\
&= (2-2z)\e^z+C_2\\
&=(2+2\cos x)\e^{-\cos x}+C_2.
\end{aligned}

Vous avez besoin d’une solution particulière, vous choisissez $C_2 = 0$ et posez $A(x) = (2+2\cos x)\e^{-\cos x}$ et par suite $y(x) = A(x)\e^{\cos x} = 2+2\cos x$ semble être un très bon candidat de solution particulière.

Vérifiez que votre candidat convient

Pour tout réel $x$, posez $y_T(x) = 2+2\cos x.$

$y_T'(x)+y_T(x)\sin x = -2\sin x + 2\sin x + 2\sin x \cos x = \sin(2x).$

Conclusion : la fonction $y_T$ définie sur $\R$ par $y_T(x) = 2+2\cos x$ est une solution particulière de l’équation différentielle $y’+y\sin x = \sin(2x).$

Concluez en trouvant toutes les solutions de l’équation différentielle $y’+y\sin x = \sin(2x)$

Une fonction $y$ est solution de cette équation, si et seulement si $y-y_T$ est solution de l’équation homogène $y’+y\sin x =0$ qui a déjà été traitée.

Par conséquent, une fonction $y$ définie et dérivable sur $\R$ est solution de l’équation différentielle $y’+y\sin x = \sin(2x)$, si et seulement si, il existe un nombre réel $A$ tel que, pour tout $x\in\R$, $y(x) = 2+2\cos x + A\e^{\cos x}.$

110. Faisceau de droites parallèles coupant une ellipse

Descriptif du faisceau

Tout d’abord, décrivons la partie géométrique, on se donne une ellipse de demi-grand axe $a>0$ et de demi-petit axe $b>0$ qui n’est pas un cercle : $0<b<a.$

On considère des droites $D_1$, $D_2$… toutes parallèles entre elles, coupant ladite ellipse en deux points chacune, ce qui s’appelle un faisceau.

On considère alors les milieux des points d’intersection : la droite $D_1$ coupe l’ellipse en deux points dont on note $I_1$ le milieu, et ainsi de suite, conformément au schéma ci-dessus.

Ce qui est tout à fait remarquable, c’est que l’ensemble de ces milieux est inclus dans droite qui passe par le centre de l’ellipse.

Note : le lecteur qui connaît la notion d’affinité et ses propriétés pourra démontrer très rapidement ce résultat.
Dans cet article, le résultat sera démontré avec une approche qui ne déforme pas l’ellipse.

Première approche pour démontrer ce résultat

Le repère dans lequel l’ellipse a l’équation la plus simple est un repère $(O,\vv{i},\vv{j})$, $O$ étant le centre de l’ellipse, les vecteurs $\vv{i}$ et $\vv{j}$ dirigeant le grand axe et le petit axe de ladite ellipse.

Soient $D_1$ et $D_2$ deux droites du faisceau.

Notez $ux+vy+w=0$ avec $(u,v)\neq(0,0)$ une équation cartésienne de $D_1$, puis $u’x+v’y+w’=0$ avec $(u’,v’)\neq (0,0)$ une équation cartésienne de $D_2$. Comme elles sont parallèles, vous avez l’égalité $uv’ – u’v=0.$

Obtenir les deux points d’intersection de $D_1$ avec l’ellipse, c’est trouver les solutions du système :

$\left\{\begin{align*}\dfrac{x^2}{a^2}+\dfrac{y^2}{b^2}=1 \\ ux+yv+w = 0\end{align*}\right.$

Notez $\left(x_1^{(1)},y_1^{(1)}\right)$ et $\left(x_2^{(1)},y_2^{(1)}\right)$ les coordonnées des deux points obtenus.

Obtenir lesdeux points d’intersection de $D_2$ avec l’ellipse, c’est trouver les solutions du système :

$\left\{\begin{align*}\dfrac{x^2}{a^2}+\dfrac{y^2}{b^2}=1 \\ u’x+y’v+w’ = 0\end{align*}\right.$

Notez $\left(x_1^{(2)},y_1^{(2)}\right)$ et $\left(x_2^{(2)},y_2^{(2)}\right)$ les coordonnées des deux points obtenus.

Il va vous falloir former les deux milieux $\left(\dfrac{x_1^{(1)}+x_2^{(1)}}{2};\dfrac{y_1^{(1)}+y_2^{(1)}}{2}\right)$ et $\left(\dfrac{x_1^{(2)}+x_2^{(2)}}{2};\dfrac{y_1^{(2)}+y_2^{(2)}}{2}\right)$ puis démontrer l’alignement de ces deux points avec l’origine du repère.

Est-ce possible ? Oui, mais ce n’est pas l’approche que l’on va privilégier.

Changez les axes du repère par une rotation

Au lieu de travailler dans un repère orthonormé ayant des axes parallèles à ceux de l’ellipse, il est tout à fait possible de changer de repère par rotation et de considérer que la droite $D_1$ est horizontale, dans le nouveau repère, avec une équation de la forme $Y=k$. Notez $O$ le centre de l’ellipse et $\vv{i}$ et $\vv{j}$ deux vecteurs unitaires orthogonaux dirigés selon les axes de l’ellipse.

Notez $\vv{u}$ et $\vv{v}$ les deux vecteurs obtenus par rotation, d’angle $\alpha$ choisi pour que $\vv{u}$ soit un vecteur qui dirige $D_1$, $D_2$, ce qui change le point de vue conformément au dessin ci-dessous.

Matriciellement, le vecteur $\vv{OM}$ est égal au produit $\begin{pmatrix}x & y \end{pmatrix}\begin{pmatrix} \vv{i}\\ \vv{j}\end{pmatrix}.$ Or, $\begin{pmatrix} \vv{u}\\ \vv{v}\end{pmatrix} = \begin{pmatrix} \cos \alpha & \sin \alpha \\ -\sin\alpha & \cos\alpha \end{pmatrix} \begin{pmatrix} \vv{i}\\ \vv{j}\end{pmatrix}.$

Soit $M$ un point du plan. Notez $(x,y)$ ses coordonnées dans le repère orthonormé $(O,\vv{i},\vv{j})$ et $(X,Y)$ ses coordonnées dans l’autre repère $(O,\vv{u},\vv{v}).$

\begin{align*}
\vv{OM} &= \begin{pmatrix}X & Y \end{pmatrix}\begin{pmatrix} \vv{u}\\ \vv{v}\end{pmatrix}\\
 &=\begin{pmatrix}X & Y \end{pmatrix} \begin{pmatrix} \cos \alpha & \sin \alpha \\ -\sin\alpha & \cos\alpha \end{pmatrix} \begin{pmatrix} \vv{i}\\ \vv{j}\end{pmatrix} \\
&= \begin{pmatrix}X\cos\alpha - Y\sin\alpha & X\sin\alpha+Y\cos\alpha \end{pmatrix}\begin{pmatrix} \vv{i}\\ \vv{j}\end{pmatrix}.
\end{align*}

Il vient donc $\left\{\begin{align*}x &= X\cos\alpha – Y\sin\alpha \\
y &= X\sin\alpha+Y\cos\alpha \end{align*}\right.$

Considérez la matrice $A = \begin{pmatrix} \cos\alpha & -\sin\alpha \\ \sin\alpha & \cos\alpha \end{pmatrix}.$ Elle est orthogonale, puisque $A (^{t}A) = (^{t}A) A = I.$

La relation $\begin{pmatrix}x \\ y \end{pmatrix} = A \begin{pmatrix}X \\ Y \end{pmatrix} $ est équivalente à $\begin{pmatrix}X \\ Y \end{pmatrix} = (^{t}A) \begin{pmatrix}x \\ y \end{pmatrix}.$

Obtenez la nouvelle équation de l’ellipse

Quel que soit $(x,y,X,Y)\in\R^4$ vérifiant $\left\{\begin{align*}x &= X\cos\alpha – Y\sin\alpha \\
y &= X\sin\alpha+Y\cos\alpha \end{align*}\right.$

vous observez l’équivalence :

\begin{align*}
\dfrac{x^2}{a^2}+\dfrac{y^2}{b^2}=1 &\Longleftrightarrow \dfrac{(X\cos\alpha - Y\sin\alpha)^2}{a^2}+\dfrac{(X\sin\alpha+Y\cos\alpha)^2}{b^2}=1 \\
&\Longleftrightarrow \dfrac{(\cos^2\alpha) X^2+(\sin^2\alpha) Y^2-\sin(2\alpha)XY}{a^2}+\dfrac{(\sin^2\alpha) X^2+(\cos^2\alpha)Y^2+\sin(2\alpha)XY}{b^2}=1\\
&\Longleftrightarrow \left(\dfrac{\cos^2\alpha}{a^2}+\dfrac{\sin^2\alpha}{b^2}\right)X^2+\left(\dfrac{\sin^2\alpha}{a^2}+\dfrac{\cos^2\alpha}{b^2}\right)Y^2+\left(\dfrac{1}{b^2}-\dfrac{1}{a^2}\right)\sin(2\alpha)XY = 1.
\end{align*}

Dans le repère $(O,\vv{u},\vv{v})$ l’ellipse a pour équation :

\left(\dfrac{\cos^2\alpha}{a^2}+\dfrac{\sin^2\alpha}{b^2}\right)X^2+\left(\dfrac{\sin^2\alpha}{a^2}+\dfrac{\cos^2\alpha}{b^2}\right)Y^2+\left(\dfrac{1}{b^2}-\dfrac{1}{a^2}\right)\sin(2\alpha)XY = 1.

Calculez les coordonnées d’un des milieux

Soit $D$ la droite horizontale d’équation $Y=k$. On suppose que $D$ coupe l’ellipseen deux points distincts. Vous noterez $(X_1,k)$ et $(X_2,k)$ les coordonnées de ces deux points.

Alors $X_1$ et $X_2$ sont les deux solutions de l’équation de degré 2 :

\left(\dfrac{\cos^2\alpha}{a^2}+\dfrac{\sin^2\alpha}{b^2}\right)X^2+k\left(\dfrac{1}{b^2}-\dfrac{1}{a^2}\right)\sin(2\alpha)X+\left(\dfrac{\sin^2\alpha}{a^2}+\dfrac{\cos^2\alpha}{b^2}\right)k^2 -1 =0.

Vous noterez que le coefficient dominant est non nul. En effet, si, par l’absurde, vous aviez $\dfrac{\cos^2\alpha}{a^2}+\dfrac{\sin^2\alpha}{b^2}=0$, alors les deux carrés $\dfrac{\cos^2\alpha}{a^2}$ et $\dfrac{\sin^2\alpha}{b^2}$ seraient nuls et donc $\cos\alpha = \sin\alpha = 0$, ce qui contredit l’équation fondamentale $\cos^2\alpha + \sin^2\alpha = 1.$

En utilisant la formule qui donne la somme des deux racines en fonction des coefficients d’une équation polynomiale de degré 2, vous obtenez :

X_1+X_2 = \dfrac{k\sin(2\alpha)\left(\dfrac{1}{a^2}-\dfrac{1}{b^2}\right)}{\dfrac{\cos^2 \alpha}{a^2}+\dfrac{\sin^2\alpha}{b^2}}.

Pour plus de lisibilité, posez $m =\left(\dfrac{1}{a^2}-\dfrac{1}{b^2}\right) \dfrac{\sin(2\alpha)}{\dfrac{2\cos^2 \alpha}{a^2}+\dfrac{2\sin^2\alpha}{b^2}}$. Le milieu des deux points d’intersection de $D$ avec l’ellipse a pour coordonnées $(km; k)$, il est donc situé sur la droite d’équation $mY = X$ qui est passe par l’origine $O$ du repère qui est aussi le centre de l’ellipse, ce qui démontre le résultat annoncé.

Prolongement

Partant d’une ellipse déjà dessinée, avec une règle et un compas :

  • pourriez-vous construire le centre de cette ellipse ?
  • pourriez-vous retrouver son grand axe et son petit axe ?

109. Trouvez le polynôme minimal d’un nombre algébrique

Calculez les puissances successives de $\alpha = \sqrt{2}+\sqrt{3}$

Pour calculer $\alpha^2$, vous utilisez l’identité remarquable $(a+b)^2=a^2+2ab+b^2.$

$\alpha^2 = 5+2\sqrt{6}$

Pour calculer $\alpha^3$, vous développez le produit $\alpha\times \alpha^2.$

\begin{aligned}
\alpha^3 &= 5\sqrt{2}+5\sqrt{3}+4\sqrt{3}+6\sqrt{2}\\
&=11\sqrt{2}+9\sqrt{3}.
\end{aligned}

Pour calculer $\alpha^4$, il est plus rapide d’élever au carré $\alpha^2$, avec l’identité remarquable affichée précédemment.

\begin{aligned}
\alpha^4 &= 25+24+20\sqrt{6}\\
&=49+20\sqrt{6}.
\end{aligned}

Eliminez $\sqrt{6}$ dans $\alpha^4$ et $\alpha^2$

Multipliez par 10 la relation $\alpha^2 = 5+2\sqrt{6}$ pour obtenir $10\alpha^2 = 50+20\sqrt{6}$.

Comme $\alpha^4 = 49+20\sqrt{6}$, par soustraction membre à membre, il vient $10\alpha^2-\alpha^4=1$ et par suite vous en déduisez que $\alpha$ est annulé par le polynôme $\boxed{P(X) = X^4-10X^2+1}$ à coefficients dans $\Z[X].$

Le nombre $\alpha$ est dit algébrique.

Prolongement : est-il possible d’annuler $\alpha$ avec un polynôme non nul $Q\in\Z[X]$ de degré inférieur ou égal à 3 ?

Participez et faites-moi part de vos contributions par courrier électronique ou sur les réseaux sociaux.