Votre navigateur n'accepte pas le Javascript.La navigation sur ce site risque de ne pas fonctionner correctement.

386. Existence et unicité de la signature pour les permutations

Soit $E$ un ensemble fini contenant au moins deux éléments. La notation $\mathfrak{S}_E$ désigne l’ensemble des permutations de $E$ muni de la composition.

Unicité de la signature

Supposez qu’il existe une application $\varepsilon$ qui va de $\mathfrak{S}_E$ dans $\{-1,1\}$ et telle que :

\left\{\begin{align*}
&\forall (\sigma_1, \sigma_2)\in (\mathfrak{S}_E)^2, \quad \varepsilon(\sigma_1 \sigma_2) =  \varepsilon(\sigma_1) \varepsilon(\sigma_2)\\
&\exists \sigma_0 \in \mathfrak{S}_E, \quad  \varepsilon(\sigma_0) \neq 1. 
\end{align*}
\right.

L’existence de la permutation $\sigma_0$ permet d’affirmer que $\varepsilon(\sigma_0) = -1.$

Montrez qu’il existe une transposition $\tau_0$ telle que $\varepsilon(\tau_0) = -1$

Vous raisonnez par l’absurde et vous supposez que, pour toute transposition $\tau \in \mathfrak{S}_E$ vous avez $\varepsilon(\tau) = 1.$

Si $\sigma_0$ est l’application identité de $E$ vous avez $\sigma_0 = \tau \tau$ et donc $\varepsilon(\sigma_0) = \varepsilon(\tau)\varepsilon(\tau) = 1\times 1 = 1$ ce qui est impossible.

Donc la permutation $\sigma_0$ n’est pas l’application identité. Elle s’écrit donc comme un produit non vide de cycles à supports disjoints. Or, tout cycle s’écrit comme un produit de transpositions. En effet, si $c$ est un cycle, il existe un entier $r\geq 2$ et $(e_1,\dots, e_r)\in E^r$ tels que $c = (e_1 \cdots e_r).$ Vous avez alors $c = \prod_{k=1}^{r-1} (e_k\ e_{k+1}).$ Du coup, $\varepsilon(c) = \prod_{k=1}^{r-1} \varepsilon((e_k\ e_{k+1})) = \prod_{k=1}^{r-1} 1 =1.$ Or, il existe un entier $m\geq 1$ et des cycles $c_1,\dots,c_m$ tels que $\sigma_0 = \prod_{k=1}^m c_k.$ Il vient $\varepsilon(\sigma_0) = \prod_{k=1}^m \varepsilon(c_k) = \prod_{k=1}^m 1 = 1$ ce qui est absurde.

Donc il existe une transposition $\tau_0$ telle que $\varepsilon(\tau_0) = -1.$

Montrez que pour toute transposition $\tau$ vous avez $\varepsilon(\tau) = -1$

Le support de $\tau_0$ contient exactement deux éléments distincts de $E.$ Vous les notez $a$ et $b$ et donc $\tau_0 = (a\ b).$

Soit maintenant $\tau\in \mathfrak{S}_E$ une transposition. Le support de $\tau$ contient exactement deux éléments distincts de $E$ que vous notez $i$ et $j$ de sorte que $\tau = (i\ j).$

Comme $E\setminus \{a, b\}$ et $E\setminus \{i, j\}$ ont exactement le même nombre d’éléments, il existe une bijection $f$ qui va de $E\setminus \{a, b\}$ vers $E\setminus \{i, j\}.$

Vous définissez maintenant une application $\sigma$ qui va de $E$ dans $E$ par :

\left\{
\begin{align*}
&\sigma(a) = i\\
&\sigma(b) = j\\
&\forall x\in E\setminus \{a, b\}, \sigma(x) = f(x).
\end{align*}
\right.

Montrez tout d’abord que $\sigma$ est une permutation de $E.$

Comme $\sigma$ est une application qui va de $E$ dans $E$ (avec $E$ qui est un ensemble fini), elle est bijective, si et seulement si, elle est surjective.

Soit maintenant $y$ un élément de $E.$ Si $y\in\{i, j\}$ alors soit $y = \sigma(a)$ soit $y = \sigma(b)$ donc $y$ admet au moins un antécédent par $\sigma.$ Si $y\notin \{i, j\}$ alors $y\in E\setminus \{i, j\}.$ Or $f$ est une bijection de $E\setminus \{a, b\}$ vers $E\setminus \{i, j\}$ en particulier $f$ est surjective donc il existe $x\in E\setminus \{a, b\}$ tel que $y = f(x).$ Comme $x\in E\setminus \{a, b\}$ vous avez $\sigma(x) = f(x)$ donc $y = \sigma(x)$ et $y$ admet au moins un antécédent par la fonction $\sigma$ puisque $x\in E.$

De cette analyse, $\sigma$ est surjective, donc bijective.

Vous allez maintenant montrer que $\sigma^{-1 }\tau \sigma = \tau_0.$

Soit $x\in E.$ Trois cas se présentent.

Si $x= a$ alors :

\begin{align*}
(\sigma^{-1 }\tau \sigma)(a) &= (\sigma^{-1 }\tau)(\sigma(a)) \\
&= (\sigma^{-1 }\tau)(i) \\
&= \sigma^{-1 }(\tau (i)) \\
&= \sigma^{-1 }(j) \\
&= b\\
&= \tau_0(a).
\end{align*}

Si $x=b$ alors :

\begin{align*}
(\sigma^{-1 }\tau \sigma)(b) &= (\sigma^{-1 }\tau)(\sigma(b)) \\
&= (\sigma^{-1 }\tau)(j) \\
&= \sigma^{-1 }(\tau (j)) \\
&= \sigma^{-1 }(i) \\
&= a\\
&= \tau_0(b).
\end{align*}

Si $x\notin \{a, b\}$ alors :

\begin{align*}
(\sigma^{-1 }\tau \sigma)(x) &= (\sigma^{-1 }\tau)(\sigma(x)) \\
&= \sigma^{-1 }(\tau (\sigma(x)))\\
&= \sigma^{-1 }(\tau (f(x))).

\end{align*}

Or, $f(x) \in E\setminus \{i, j\}.$ Donc $f(x)$ n’appartient pas au support de $\tau$ donc $\tau ( f(x) ) = f(x).$ Ainsi :

\begin{align*}
(\sigma^{-1 }\tau \sigma)(x) &= \sigma^{-1 }(\tau (f(x))) \\
&=  \sigma^{-1 }( \sigma(x)) \\
&= x.
\end{align*}

Vous remarquez que $x$ n’appartient pas au support de $\tau_0$ donc $\tau_0(x) = x.$ Du coup :

(\sigma^{-1 }\tau \sigma)(x) = \tau_0(x).

Il a été démontré que :

\sigma^{-1 }\tau \sigma = \tau_0.

En appliquant $\varepsilon$ vous déduisez :

\varepsilon(\sigma^{-1}) \varepsilon(\tau) \varepsilon(\sigma) = \varepsilon(\tau_0) = -1.

Or en notant $Id$ l’application identité de $E$ vous avez :

\begin{align*}
\varepsilon(Id) &= \varepsilon(Id\ Id)\\
&= \varepsilon(Id) \varepsilon(Id)\\
&= (\varepsilon(Id) )^2.
\end{align*}

Comme $\varepsilon(Id) \neq 0$ vous déduisez :

\varepsilon(Id) = 1.

Du coup :

\begin{align*}
\varepsilon(\sigma^{-1}) \varepsilon(\sigma) &= \varepsilon(Id) = 1.
\end{align*}

Et vous concluez :

\begin{align*}
\varepsilon(\tau) &= \varepsilon(\tau) \times 1 \\
&= \varepsilon(\tau)   \varepsilon(\sigma^{-1}) \varepsilon(\sigma) \\
&= \varepsilon(\sigma^{-1}) \varepsilon(\tau) \varepsilon(\sigma) \\
&= \varepsilon(\tau_0) \\
&= -1.
\end{align*}

Ainsi, pour toute transposition $\tau$ vous avez $\varepsilon(\tau) = -1.$

Déduisez-en une expression de $\varepsilon$

Cas d’une permutation qui n’est pas l’identité

Soit $\sigma \in \mathfrak{S}_E$ une permutation de $E$ différente de l’identité.

Il existe un entier $k\geq 1$ et des cycles à supports disjoints $c_1,\dots,c_k$ tels que $\sigma = \prod_{i=1}^{k} c_i.$

Pour tout $i\in\llbracket 1, k\rrbracket$ notez $\ell_i$ la longueur du cycle $i.$ Par définition d’un cycle, vous avez $\ell_i \geq 2.$ Il a été vu plus haut que $c_i$ s’écrit comme un produit de $\ell_i-1$ transpositions.

Vous en déduisez que $\sigma$ s’écrit comme un produit de $\sum_{i=1}^{k} (\ell_i-1)$ transpositions. Comme la signature de chaque transposition est égale à $-1$ il s’ensuit que la signature de $\sigma$ est égale à :

\varepsilon(\sigma) = (-1)^{\sum_{i=1}^{k} (\ell_i-1)}.

Notez $\vert E \vert$ le nombre d’éléments de l’ensemble $E.$ Le support de $\sigma$ possède exactement $\sum_{i=1}^{k} \ell_i$ éléments. Si $m$ désigne le nombre de points fixes de $\sigma$ alors $\sum_{i=1}^{k} \ell_i + m = \vert E \vert$ d’où :

\begin{align*}
\sum_{i=1}^{k} (\ell_i-1) &= \left(\sum_{i=1}^{k} \ell_i\right)-k \\
&=  \vert E \vert - m-k.
\end{align*}

Or, comme la décomposition de $\sigma$ en produit de cycles à supports disjoints est unique à l’ordre près des facteurs, le nombre $k$ ne dépend que de $\sigma$ ce qui donne :

\varepsilon(\sigma) = (-1)^{\vert E \vert - m-k}.

Cas de l’identité

Quand $\sigma$ est l’identité, on convient de l’écrire comme un produit vide de cycles à supports disjoints. Ainsi $k=0.$ Le nombre de points fixes de l’identité est $m = \vert E \vert.$ Ainsi $(-1)^{\vert E \vert – m-k} = 1 = \varepsilon(Id).$

Concluez

Vous avez donc établi le résultat suivant. Pour toute permutation $\sigma$ notez $k\in\N$ le nombre de cycles à supports disjoints intervenant dans sa décomposition et $m$ le nombre de points fixes de $\sigma.$ Alors :

\boxed{\varepsilon(\sigma) = (-1)^{\vert E \vert - m-k}.}

Existence de la signature

Pour toute permutation $\sigma \in \mathfrak{S}_E$ vous notez $m$ le nombre de points fixes de $\sigma$ et $k\in\N$ son nombre de cycles à supports disjoints.

Vous définissez l’application $\varepsilon$ qui va de $ \mathfrak{S}_E$ dans $\{-1,1\}$ en posant :

\varepsilon(\sigma) = (-1)^{\vert E \vert - m-k}.

Soit $\tau$ une transposition. Celle-ci est composée d’un seul cycle donc $k=1$ et d’autre part son nombre de points fixes est $m = \vert E \vert – 2$ ce qui fournit $\vert E \vert – m=2.$ Ainsi :

\begin{align*}
\varepsilon(\tau) &= (-1)^{\vert E \vert - m-k} \\
&=  (-1)^{2-k}\\
& = (-1)^{k}\\
& = (-1)^{1}\\
&=-1.
\end{align*}

Toutes les transpositions ont une image égale à $-1$ par l’application $\varepsilon.$

Comme $E$ possède au moins deux éléments distincts $a$ et $b$ vous considérez la transposition $\tau_0 = (a\ b)$ et vous avez bien $\exists \tau_0\in\mathfrak{S}_E, \varepsilon(\tau_0)\neq 1.$

Soit maintenant $\tau$ une transposition et $\sigma$ une permutation. Vous notez $m$ le nombre de points fixes de $\sigma$ et $k\in\N$ son nombre de cycles à supports disjoints.

Si $k=0$ alors $\sigma$ est l’identité. Il vient :

\begin{align*}
\varepsilon(\tau \sigma) &= \varepsilon(\tau\ Id) \\
&= \varepsilon(\tau) \\
&= -1\\
&=-1\times 1\\
&= \varepsilon(\tau)\varepsilon(Id)\\
&= \varepsilon(\tau)\varepsilon(\sigma).
\end{align*}

Si $k\geq 1$ alors $\sigma$ s’écrit comme un produit non vide de $k$ cycles à supports disjoints. Vous notez $m’$ le nombre de points fixes de $\tau \sigma$ et $k’$ le nombre de cycles de $\tau \sigma$ dans sa décomposition de cycles à supports disjoints. Or, dans le contenu rédigé dans l'article 385 il a été vu que plusieurs cas se présentent :

  • supports totalement disjoints et commutation : les supports de $\tau$ et de $\sigma$ sont disjoints. Ainsi $m’ = m-2$ et $k’ = k+1.$ Du coup $\varepsilon(\tau \sigma) = (-1)^{\vert E \vert – m’-k’} = (-1)^{\vert E \vert – m-k-3} = – \varepsilon(\sigma).$ Or $\varepsilon(\tau) = -1$ d’où $\varepsilon(\tau \sigma) = \varepsilon(\tau)\varepsilon(\sigma).$
  • fusion : deux cycles de $\sigma$ fusionnent et dans ce cas $m’ = m$ et $k’ = k-1$ et ainsi $\varepsilon(\tau \sigma) = (-1)^{\vert E \vert – m’-k’} = (-1)^{\vert E \vert – m-k+1} = – \varepsilon(\sigma) = \varepsilon(\tau)\varepsilon(\sigma).$
  • insertion : il se peut qu’un élément de $\tau$ soit inséré dans un des cycles de $\sigma.$ Dans ce cas $m’ = m-1$ et $k’=k$ et donc $\varepsilon(\tau \sigma) = (-1)^{\vert E \vert – m’-k’} = (-1)^{\vert E \vert – m-k-1} = – \varepsilon(\sigma) = \varepsilon(\tau)\varepsilon(\sigma).$
  • rupture de cycle : les deux éléments de $\tau$ appartiennent au support de l’un des cycles de $\sigma.$ Dans ce cas, $m’=m$ et $k’ = k+1.$ D’où $\varepsilon(\tau \sigma) = (-1)^{\vert E \vert – m’-k’} = (-1)^{\vert E \vert – m-k-1} = – \varepsilon(\sigma) = \varepsilon(\tau)\varepsilon(\sigma).$

Vous venez de démontrer que, pour toute transposition $\tau$ et pour toute permutation $\sigma$, $\varepsilon(\tau \sigma) = \varepsilon(\tau)\varepsilon(\sigma).$

Soient maintenant $\sigma$ et $\sigma’$ deux permutations quelconques. $\sigma’$ peut toujours s’écrire comme un produit non vide de transpositions. Il existe $s\geq 1$ et des transpositions $\tau_1,\dots,\tau_s$ telles que $\sigma’ = \tau_1\cdots \tau_s.$ En vertu de ce qui précède :

\begin{align*}
\varepsilon(\sigma' \sigma) &= \varepsilon\left( \tau_1\left( \left[\prod_{i=2}^s\tau_i\right] \sigma\right) \right)\\
&=  \varepsilon(\tau_1)\varepsilon\left(  \left[\prod_{i=2}^s\tau_i\right] \sigma\right)\\
&=\dots \\
&=\varepsilon(\tau_1)\cdots \varepsilon(\tau_s)\varepsilon(\sigma).
\end{align*}

Or :

\begin{align*}
\varepsilon(\sigma')\varepsilon(\sigma) &= \varepsilon\left( \left[\prod_{i=1}^s\tau_i\right] \right)\varepsilon(\sigma)\\
&=  \varepsilon(\tau_1)\varepsilon\left(  \left[\prod_{i=2}^s\tau_i\right] \right) \varepsilon(\sigma)\\
&=\dots \\
&=\varepsilon(\tau_1)\cdots \varepsilon(\tau_s)\varepsilon(\sigma).
\end{align*}

Note. On convient qu’un produit vide d’éléments de $\mathfrak{S}_E)$ est égal à l’application identité de $E.$

Note. Les pointillés devraient être rédigés en utilisant des récurrences limitées. Pour des raisons de longueur, il a été choisi d’omettre les détails correspondants.

Il a été démontré que :

\boxed{\forall (\sigma', \sigma)\in (\mathfrak{S}_E)^2, \quad \varepsilon(\sigma' \sigma) =  \varepsilon(\sigma') \varepsilon(\sigma).}

Concluez

Il existe exactement deux morphismes de groupes qui vont de $\mathfrak{S}_E$ muni de la composition dans $\{-1,1\}$ muni de la multiplication. Ce sont la signature $\varepsilon$ précédemment définie et l’application constante égale à $1$ sur toutes les permutations de $E.$

On dit aussi que la signature est l’unique morphisme de groupes non trivial de $\mathfrak{S}_E$ dans $\{-1,1\}.$

385. Effet d’une transposition sur la décomposition en cycles d’une permutation

Dans l’intégralité de cet article, vous travaillez sur des permutations d’un ensemble fini $E$ qui contient au moins deux éléments.

Comment décomposer une permutation en produit de transpositions ?

Soit $\sigma$ la permutation suivante de l’ensemble $E=\llbracket 1, 9\rrbracket$ :

\sigma = \begin{pmatrix} 
1 & 2 & 3 & 4 & 5 & 6 & 7 & 8 & 9\\
2 & 4 & 7 & 5 & 8 & 6 & 9 & 1 & 3
\end{pmatrix}.

Décomposez d’abord la permutation en produit de cycles à supports disjoints

Vous constatez que $\sigma$ envoie $1$ sur $2$ puis $2$ sur $4$ puis $4$ sur $5$ puis $5$ sur $8$ et $8$ sur $1$ cela forme le premier cycle noté $(1\ 2\ 4\ 5\ 8).$

Ensuite, $\sigma$ envoie $3$ sur $7$ puis $7$ sur $9$ et $9$ sur $3$ ce qui forme un second cycle $(3\ 7\ 9).$

Vous constatez que $6$ est le seul élément fixé par $\sigma$ puisque $\sigma(6)=6.$

Vous déduisez de cette analyse que :

\boxed{\sigma = (1\ 2\ 4\ 5\ 8)(3\ 7\ 9).}

Décomposez chaque cycle en produit de transpositions

D’une part :

(1\ 2\ 4\ 5\ 8) = (1\ 2)(2\ 4)(4\ 5)(5\ 8).

D’autre part :

(3\ 7\ 9) = (3\ 7)(7\ 9).

Vous déduisez que $\sigma$ peut s’écrire comme un produit de six transpositions :

\boxed{\sigma =  (1\ 2)(2\ 4)(4\ 5)(5\ 8)(3\ 7)(7\ 9).}

Sur les effets de la multiplication à gauche d’une permutation par une transposition

Dans le cas général, une permutation s’écrit comme un produit de cycles à supports disjoints.

Note. Dans le cas de l’identité, elle est écrite comme un produit vide de cycles à supports disjoints.

Soit $r$ un entier naturel et soient $c_1, \dots, c_r$ des cycles à supports disjoints et $\tau$ une transposition. Vous vous intéressez à déterminer une écriture en produit de cycles à supports disjoints de la permutation $\sigma = \tau c_1\cdots c_r.$

Note. Dans le cas où $r=0$ le produit $c_1\cdots c_r$ est vide et il est égal à l’identité.

Cas n°1 : supports totalement disjoints et commutation

Vous supposez que, pour tout $i\in\llbracket 1, r\rrbracket$ le support de $\tau$ n’a aucun élément en commun le support du cycle $c_i.$ Alors, pour tout $i\in\llbracket 1, r\rrbracket$ la transposition $\tau$ commute avec $c_i.$ Le produit $\sigma = \tau c_1\cdots c_r$ est déjà un produit de cycles à supports disjoints, la transposition $\tau$ étant un cycle de longueur $2.$

Cas n°2 : fusion/insertion ou rupture de cycle

Supposez qu’il existe un entier $i\in\llbracket 1, r\rrbracket$ tel que le support de $\tau$ et le cycle $c_i$ aient au moins un élément en commun.

Premier cas : fusion. Le support de $\tau$ a exactement un élément $a\in E$ en commun avec le cycle $c_i.$ Il existe un élément $b$ de $E$ distinct de $a$ tel que $\tau = (a\ b).$ Le cycle $c_i$ peut s’écrire en commençant par $a$ et son support ne contient pas $b.$ En notant $p$ la longueur du cycle $c_i$ il existe $(d_1,\dots, d_{p-1})\in E^{p-1}$ tel que $c_i = (a\ d_1 \cdots d_{p-1}).$

Comme les supports des cycles $c_1,\dots,c_r$ sont deux à deux disjoints, deux sous-cas peuvent se présenter.

Premier sous-cas (fusion) : il existe un unique entier $j\neq i$ compris entre $1$ et $r$ tel que l’élément $b$ appartienne au support du cycle $c_j.$ Le cycle $c_j$ peut s’écrire en commençant par $b$ et son support ne contient pas $a.$ En notant $q$ la longueur du cycle $c_j$ il existe $(e_1,\dots,e_{q-1})\in E^{q-1}$ tel que $c_j = (b\ e_1 \cdots e_{q-1}).$

Vous passez au calcul de $\tau \sigma$ en utilisant la commutation des cycles $c_i$ et $c_j$ avec les autres, ce qui fournit :

\begin{align*}
\tau \sigma &= \tau c_1 \cdots c_r \\
&= \tau c_i c_j \prod_{k\notin \{i, j\}} c_k\\
&= (a\ b) (a\ d_1 \cdots d_{p-1}) (b\ e_1 \cdots e_{q-1})  \prod_{k\notin \{i, j\}} c_k\\
&= (b\ a)(a\ d_1 \cdots d_{p-1}) (b\ e_1 \cdots e_{q-1})  \prod_{k\notin \{i, j\}} c_k\\
&= (b\ a\ d_1 \cdots d_{p-1}) (b\ e_1 \cdots e_{q-1})  \prod_{k\notin \{i, j\}} c_k\\
&= (a\ d_1 \cdots d_{p-1}\ b) (b\ e_1 \cdots e_{q-1})  \prod_{k\notin \{i, j\}} c_k\\
&= (a\ d_1 \cdots d_{p-1}\ b\ e_1 \cdots e_{q-1})  \prod_{k\notin \{i, j\}} c_k\\
\end{align*}

Les cycles $c_i$ et $c_j$ ont fusionné et l’écriture obtenue de $\tau\sigma$ est bien un produit de cycles à supports disjoints.

Second sous-cas (insertion) : pour tout entier $j\neq i$ compris appartenant à $\llbracket 1, r\rrbracket$ l’élément $b$ n’appartient pas au support du cycle $c_j.$

Vous procédez au calcul de $\sigma\tau$ comme précédemment. Cette fois-ci, vous allez commuter $c_i$ avec les autres cycles et le positionner à droite de la transposition $\tau$ ce qui donne :

\begin{align*}
\tau \sigma &= \tau c_1 \cdots c_r \\
&= \tau c_i  \prod_{j\neq i} c_j\\
&= (a\ b) (a\ d_1 \cdots d_{p-1}) \prod_{j\neq i} c_j\\
&= (b\ a) (a\ d_1 \cdots d_{p-1}) \prod_{j\neq i} c_j\\
&= (b\ a\ d_1 \cdots d_{p-1}) \prod_{j\neq i} c_j.
\end{align*}

L’élément $b$ a été inséré dans le cycle $c_i$ et l’écriture obtenue de $\sigma\tau$ est bien un produit de cycles à supports disjoints.

Second cas : rupture de cycle. Le support de $\tau$ a exactement deux éléments en commun avec le cycle $c_i.$ Vous effectuez la commutation du cycle $c_i$ avec les autres cycles et positionnez $c_i$ immédiatement à droite de la transposition $\tau.$

\begin{align*}
\tau \sigma &= \tau c_1 \cdots c_r \\
&= \tau c_i  \prod_{j\neq i} c_j.
\end{align*}

Il existe deux entiers naturels $p$ et $q$ de sorte qu’il existe $p+q$ éléments de $E$ notés $d_1,\cdots, d_p, e_1, \dots, e_q$ qui vérifient $c_i = (a\ d_1\ \cdots d_p\ b\ e_1\ \cdots e_q)$ et ainsi :

\begin{align*}
\tau \sigma &= \tau c_1 \cdots c_r \\
&= \tau c_i  \prod_{j\neq i} c_j\\
&= (a\ b)(a\ d_1\ \cdots d_p\ b\ e_1\ \cdots e_q) \prod_{j\neq i} c_j\\
&= (a\ b)(a\ d_1\ \cdots d_p\ b)(b\ e_1\ \cdots e_q) \prod_{j\neq i} c_j\\
&= (a\ b)(b\ a\ d_1\ \cdots d_p)(b\ e_1\ \cdots e_q) \prod_{j\neq i} c_j\\
&= (a\ b)(b\ a)(a\ d_1\ \cdots d_p)(b\ e_1\ \cdots e_q) \prod_{j\neq i} c_j\\
&= (a\ b)(a\ b)(a\ d_1\ \cdots d_p)(b\ e_1\ \cdots e_q) \prod_{j\neq i} c_j\\
&=(a\ d_1\ \cdots d_p)(b\ e_1\ \cdots e_q) \prod_{j\neq i} c_j.
\end{align*}

Il y a eu rupture du cycle $c_i$ et l’écriture obtenue de $\tau\sigma$ est encore un produit de cycles à supports disjoints.

Comment, à partir d’un produit de transpositions, obtenir une écriture en produit de cycles à supports disjoints ?

Vous partez de la droite et vous multipliez à gauche par les transpositions qui apparaissent, en traitant les cas de fusion ou de rupture.

Soit $\sigma = (1\ 4)(3\ 1)(4\ 3)(5\ 3)(6\ 1)(8\ 4)(3\ 9).$

Le produit des trois transpositions $(6\ 1)(8\ 4)(3\ 9)$ est un produit de cycles à supports disjoints.

Cependant, le produit $(5\ 3)(6\ 1)(8\ 4)(3\ 9)$ ne l’est pas puisque $3$ apparaît deux fois. Vous êtes dans le cas ici d’une fusion. En effet :

\begin{align*}
(5\ 3)(6\ 1)(8\ 4)(3\ 9) &= (5\ 3)(6\ 1)(3\ 9)(8\ 4)\\
&= (5\ 3)(3\ 9)(6\ 1)(8\ 4)\\
&= (5\ 3\ 9)(6\ 1)(8\ 4).
\end{align*}

La permutation $(5\ 3\ 9)(6\ 1)(8\ 4)$ est un produit de cycles à supports disjoints mais $(4\ 3)(5\ 3\ 9)(6\ 1)(8\ 4)$ ne l’est pas puisque $3$ et $4$ sont répétés. Vous êtes encore dans un cas de fusion. En effet :

\begin{align*}
(4\ 3)(5\ 3\ 9)(6\ 1)(8\ 4) &= (4\ 3)(5\ 3\ 9)(8\ 4)(6\ 1) \\
 &= (4\ 3)(3\ 9\ 5)(4\ 8)(6\ 1) \\
&= (4\ 3\ 9\ 5)(4\ 8)(6\ 1) \\
&= (3\ 9\ 5\ 4)(4\ 8)(6\ 1) \\
&= (3\ 9\ 5\ 4\ 8)(6\ 1).
\end{align*}

La permutation $(3\ 9\ 5\ 4\ 8)(6\ 1)$ est un produit de cycles à supports disjoints mais $(3\ 1)(3\ 9\ 5\ 4\ 8)(6\ 1)$ ne l’est pas puisque $3$ et $1$ sont répétés. Vous êtes dans un cas de fusion. En effet :

\begin{align*}
(3\ 1)(3\ 9\ 5\ 4\ 8)(6\ 1) &= (3\ 1)(3\ 9\ 5\ 4\ 8)(1\ 6) \\
&= (1\ 3)(3\ 9\ 5\ 4\ 8)(1\ 6) \\
&= (1\ 3\ 9\ 5\ 4\ 8)(1\ 6) \\
&= (3\ 9\ 5\ 4\ 8\ 1)(1\ 6) \\
&= (3\ 9\ 5\ 4\ 8\ 1\ 6).
\end{align*}

Enfin, la permutation $(3\ 9\ 5\ 4\ 8\ 1\ 6)$ est bien considérée comme un produit de cycles à supports disjoints (avec un seul cycle) mais $ (1\ 4)(3\ 9\ 5\ 4\ 8\ 1\ 6)$ ne l’est pas puisque $1$ et $4$ sont répétés. Cette fois, vous êtes dans un cas de rupture de cycle :

\begin{align*}
(1\ 4)(3\ 9\ 5\ 4\ 8\ 1\ 6) &= (1\ 4)(4\ 8\ 1\ 6\ 3\ 9\ 5) \\
&= (1\ 4)(4\ 8\ 1)(1\ 6\ 3\ 9\ 5) \\
&= (1\ 4)(1\ 4\ 8)(1\ 6\ 3\ 9\ 5) \\
&= (1\ 4)(1\ 4)(4\ 8)(1\ 6\ 3\ 9\ 5) \\
&= (4\ 8)(1\ 6\ 3\ 9\ 5).
\end{align*}

Finalement vous obtenez $\sigma$ en produit de cycles à supports disjoints :

\boxed{\sigma = (1\ 4)(3\ 1)(4\ 3)(5\ 3)(6\ 1)(8\ 4)(3\ 9) =  (4\ 8)(1\ 6\ 3\ 9\ 5).}

Prolongement

Vous souhaitez voir comment l’effet de la multiplication à gauche par une transposition sur une permutation quelconque permet de trouver une définition de la signature d’une permutation, puis de montrer que la signature est un morphisme de groupes allant de l’ensemble des permutations de $E$ (muni de la composition) vers l’ensemble $\{-1,1\}$ muni de la multiplication dans les entiers relatifs ? Allez lire le contenu rédigé dans l'article 386.

384. La théorie des déterminants d’ordre 1 à 4 (partie 3/3)

Ce document s’inscrit dans la continuité des contenus rédigés dans l'article 382 et dans l'article 383, les mêmes notations y sont reprises.

Les déterminants d’ordre 4

Quels que soient $(a_{11}, a_{12}, a_{13}, a_{14})\in \A^4$ puis $(a_{21}, a_{22}, a_{23}, a_{24})\in \A^4$ puis $(a_{31}, a_{32}, a_{33}, a_{34})\in \A^4$ et $(a_{41}, a_{42}, a_{43}, a_{44})\in \A^4$ vous définissez un déterminant d’ordre $4$ par le développement de la première ligne avec les déterminants d’ordre $3$ précédemment définis comme suit :

\begin{vmatrix}
a_{11} & a_{12} & a_{13} & a_{14}\\
a_{21} & a_{22} & a_{23} & a_{24} \\
a_{31} & a_{32} & a_{33} & a_{34}\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix} = 
a_{11}
\begin{vmatrix}
a_{22} & a_{23} & a_{24}\\
a_{32} & a_{33} & a_{34}\\
a_{42} & a_{43} & a_{44}\\
\end{vmatrix}
- a_{12}
\begin{vmatrix}
a_{21} & a_{23} & a_{24}\\
a_{31} & a_{33} & a_{34}\\
a_{41} & a_{43} & a_{44}\\
\end{vmatrix}
+a_{13}
\begin{vmatrix}
a_{21} & a_{22} & a_{24}\\
a_{31} & a_{32} & a_{34}\\
a_{41} & a_{42} & a_{44}\\
\end{vmatrix}
-a_{14}
\begin{vmatrix}
a_{21} & a_{22} & a_{23}\\
a_{31} & a_{32} & a_{33}\\
a_{41} & a_{42} & a_{43}\\
\end{vmatrix}.

Montrez que vous avez défini une forme $4$-linéaire sur les lignes

Pour la première ligne

Soient $(a_{11}, a_{12}, a_{13}, a_{14})\in \A^4$ puis $(a_{21}, a_{22}, a_{23}, a_{24})\in \A^4$ puis $(a_{31}, a_{32}, a_{33}, a_{34})\in \A^4$ puis $(a_{41}, a_{42}, a_{43}, a_{44})\in \A^4$ puis $(b_{11}, b_{12}, b_{13}, b_{14})\in \A^4$ et $\lambda\in\A.$

Vous développez le déterminant ci-dessous par rapport à sa première ligne et constatez le caractère linéaire.

\begin{align*}

\begin{vmatrix}
a_{11} +\lambda b_{11} & a_{12} +\lambda b_{12} & a_{13} +\lambda b_{13} & a_{14} +\lambda b_{14}\\
a_{21} & a_{22} & a_{23} & a_{24} \\
a_{31} & a_{32} & a_{33} & a_{34}\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix}
&= 
(a_{11} +\lambda b_{11})
\begin{vmatrix}
a_{22} & a_{23} & a_{24}\\
a_{32} & a_{33} & a_{34}\\
a_{42} & a_{43} & a_{44}\\
\end{vmatrix}
- (a_{12} +\lambda b_{12})
\begin{vmatrix}
a_{21} & a_{23} & a_{24}\\
a_{31} & a_{33} & a_{34}\\
a_{41} & a_{43} & a_{44}\\
\end{vmatrix}
\\
&\quad
+(a_{13} +\lambda b_{13} )
\begin{vmatrix}
a_{21} & a_{22} & a_{24}\\
a_{31} & a_{32} & a_{34}\\
a_{41} & a_{42} & a_{44}\\
\end{vmatrix}
-(a_{14} +\lambda b_{14})
\begin{vmatrix}
a_{21} & a_{22} & a_{23}\\
a_{31} & a_{32} & a_{33}\\
a_{41} & a_{42} & a_{43}\\
\end{vmatrix}
\\
&=
a_{11}
\begin{vmatrix}
a_{22} & a_{23} & a_{24}\\
a_{32} & a_{33} & a_{34}\\
a_{42} & a_{43} & a_{44}\\
\end{vmatrix}
- a_{12}
\begin{vmatrix}
a_{21} & a_{23} & a_{24}\\
a_{31} & a_{33} & a_{34}\\
a_{41} & a_{43} & a_{44}\\
\end{vmatrix}
\\
&\quad 
+a_{13}
\begin{vmatrix}
a_{21} & a_{22} & a_{24}\\
a_{31} & a_{32} & a_{34}\\
a_{41} & a_{42} & a_{44}\\
\end{vmatrix}
-a_{14}
\begin{vmatrix}
a_{21} & a_{22} & a_{23}\\
a_{31} & a_{32} & a_{33}\\
a_{41} & a_{42} & a_{43}\\
\end{vmatrix}
\\
&\quad
+\lambda\left(

b_{11}
\begin{vmatrix}
a_{22} & a_{23} & a_{24}\\
a_{32} & a_{33} & a_{34}\\
a_{42} & a_{43} & a_{44}\\
\end{vmatrix}
- b_{12}
\begin{vmatrix}
a_{21} & a_{23} & a_{24}\\
a_{31} & a_{33} & a_{34}\\
a_{41} & a_{43} & a_{44}\\
\end{vmatrix}
\right.
\\
&\quad
\left.
+b_{13}
\begin{vmatrix}
a_{21} & a_{22} & a_{24}\\
a_{31} & a_{32} & a_{34}\\
a_{41} & a_{42} & a_{44}\\
\end{vmatrix}
-b_{14}
\begin{vmatrix}
a_{21} & a_{22} & a_{23}\\
a_{31} & a_{32} & a_{33}\\
a_{41} & a_{42} & a_{43}\\
\end{vmatrix}
\right)
\\
&=
\begin{vmatrix}
a_{11} & a_{12} & a_{13} & a_{14}\\
a_{21} & a_{22} & a_{23} & a_{24} \\
a_{31} & a_{32} & a_{33} & a_{34}\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix}
+\lambda
\begin{vmatrix}
b_{11} & b_{12} & b_{13} & b_{14}\\
a_{21} & a_{22} & a_{23} & a_{24} \\
a_{31} & a_{32} & a_{33} & a_{34}\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix}.
\end{align*}

Pour la deuxième ligne

Soient $(a_{11}, a_{12}, a_{13}, a_{14})\in \A^4$ puis $(a_{21}, a_{22}, a_{23}, a_{24})\in \A^4$ puis $(a_{31}, a_{32}, a_{33}, a_{34})\in \A^4$ puis $(a_{41}, a_{42}, a_{43}, a_{44})\in \A^4$ puis $(b_{21}, b_{22}, b_{23}, b_{24})\in \A^4$ et $\lambda\in\A.$

Cette fois-ci, le développement du déterminant $D$ d’ordre $4$ par rapport à sa première ligne ne permet pas immédiatement de constater le caractère linéaire, comme le montre le calcul suivant :

\begin{align*}
D &= \begin{vmatrix}
a_{11}  & a_{12} & a_{13} & a_{14} \\
a_{21} +\lambda b_{21} & a_{22}  +\lambda b_{22} & a_{23} +\lambda b_{23} & a_{24} +\lambda b_{24} \\
a_{31} & a_{32} & a_{33} & a_{34}\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix}
\\
&= 
a_{11}
\begin{vmatrix}
a_{22} +\lambda b_{22} & a_{23} +\lambda b_{23} & a_{24} +\lambda b_{24} \\
a_{32} & a_{33} & a_{34}\\
a_{42} & a_{43} & a_{44}\\
\end{vmatrix}
- a_{12}
\begin{vmatrix}
a_{21} +\lambda b_{21}  & a_{23} +\lambda b_{23} & a_{24} +\lambda b_{24} \\
a_{31} & a_{33} & a_{34}\\
a_{41} & a_{43} & a_{44}\\
\end{vmatrix}
\\
&\quad
+a_{13}
\begin{vmatrix}
a_{21}+\lambda b_{21} & a_{22} +\lambda b_{22}& a_{24}+\lambda b_{24}\\
a_{31} & a_{32} & a_{34}\\
a_{41} & a_{42} & a_{44}\\
\end{vmatrix}
-a_{14}
\begin{vmatrix}
a_{21} +\lambda b_{21} & a_{22} +\lambda b_{22} & a_{23} +\lambda b_{23}\\
a_{31} & a_{32} & a_{33}\\
a_{41} & a_{42} & a_{43}\\
\end{vmatrix}.
\end{align*}

Vous utilisez maintenant le fait que les déterminants d’ordre $3$ ci-dessus sont linéaires par rapport à leur première ligne.

\begin{align*}
D
&= 
a_{11}
\left(
\begin{vmatrix}
a_{22}  & a_{23}  & a_{24}  \\
a_{32} & a_{33} & a_{34}\\
a_{42} & a_{43} & a_{44}\\
\end{vmatrix}
+\lambda
\begin{vmatrix}
b_{22}  & b_{23}  & b_{24} \\
a_{32} & a_{33} & a_{34}\\
a_{42} & a_{43} & a_{44}\\
\end{vmatrix}
\right)
- a_{12}
\left(
\begin{vmatrix}
a_{21}  & a_{23} & a_{24} \\
a_{31} & a_{33} & a_{34}\\
a_{41} & a_{43} & a_{44}\\
\end{vmatrix}
+\lambda
\begin{vmatrix}
b_{21} & b_{23} & b_{24} \\
a_{31} & a_{33} & a_{34}\\
a_{41} & a_{43} & a_{44}\\
\end{vmatrix}
\right)
\\
&\quad
+a_{13}
\left(
\begin{vmatrix}
a_{21} & a_{22} & a_{24}\\
a_{31} & a_{32} & a_{34}\\
a_{41} & a_{42} & a_{44}\\
\end{vmatrix}
+\lambda
\begin{vmatrix}
b_{21} & b_{22} & b_{24}\\
a_{31} & a_{32} & a_{34}\\
a_{41} & a_{42} & a_{44}\\
\end{vmatrix}
\right)
-a_{14}
\left(
\begin{vmatrix}
a_{21}  & a_{22}  & a_{23} \\
a_{31} & a_{32} & a_{33}\\
a_{41} & a_{42} & a_{43}\\
\end{vmatrix}
+\lambda
\begin{vmatrix}
b_{21}  & b_{22} & b_{23}\\
a_{31} & a_{32} & a_{33}\\
a_{41} & a_{42} & a_{43}\\
\end{vmatrix}
\right).
\end{align*}

Vous développez et factorisez par $\lambda.$

\begin{align*}
D &= a_{11}
\begin{vmatrix}
a_{22} & a_{23} & a_{24}\\
a_{32} & a_{33} & a_{34}\\
a_{42} & a_{43} & a_{44}\\
\end{vmatrix}
- a_{12}
\begin{vmatrix}
a_{21} & a_{23} & a_{24}\\
a_{31} & a_{33} & a_{34}\\
a_{41} & a_{43} & a_{44}\\
\end{vmatrix}
+a_{13}
\begin{vmatrix}
a_{21} & a_{22} & a_{24}\\
a_{31} & a_{32} & a_{34}\\
a_{41} & a_{42} & a_{44}\\
\end{vmatrix}
-a_{14}
\begin{vmatrix}
a_{21} & a_{22} & a_{23}\\
a_{31} & a_{32} & a_{33}\\
a_{41} & a_{42} & a_{43}\\
\end{vmatrix}
\\
&\quad
+\lambda\left(
a_{11}
\begin{vmatrix}
b_{22} & b_{23} & b_{24}\\
a_{32} & a_{33} & a_{34}\\
a_{42} & a_{43} & a_{44}\\
\end{vmatrix}
- a_{12}
\begin{vmatrix}
b_{21} & b_{23} & b_{24}\\
a_{31} & a_{33} & a_{34}\\
a_{41} & a_{43} & a_{44}\\
\end{vmatrix}
+a_{13}
\begin{vmatrix}
b_{21} & b_{22} & b_{24}\\
a_{31} & a_{32} & a_{34}\\
a_{41} & a_{42} & a_{44}\\
\end{vmatrix}
-a_{14}
\begin{vmatrix}
b_{21} & b_{22} & b_{23}\\
a_{31} & a_{32} & a_{33}\\
a_{41} & a_{42} & a_{43}\\
\end{vmatrix}
\right)
\end{align*}

Ainsi :

\begin{vmatrix}
a_{11}  & a_{12} & a_{13} & a_{14} \\
a_{21} +\lambda b_{21} & a_{22}  +\lambda b_{22} & a_{23} +\lambda b_{23} & a_{24} +\lambda b_{24} \\
a_{31} & a_{32} & a_{33} & a_{34}\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix} =  D
=
\begin{vmatrix}
a_{11} & a_{12} & a_{13} & a_{14}\\
a_{21} & a_{22} & a_{23} & a_{24} \\
a_{31} & a_{32} & a_{33} & a_{34}\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix} + \lambda \begin{vmatrix}
a_{11} & a_{12} & a_{13} & a_{14}\\
b_{21} & b_{22} & b_{23} & b_{24} \\
a_{31} & a_{32} & a_{33} & a_{34}\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix}.

Pour la troisième ligne et la quatrième ligne

Vous utilisez un raisonnement similaire à celui présenté pour la deuxième ligne. Pour des raisons de longueur, le choix d’omettre les détails a été adopté.

Démontrez que le déterminant d’ordre $4$ se développe par rapport à sa deuxième ligne

Par définition, le déterminant d’ordre $4$ se développe déjà par rapport à sa première ligne. Vous allez démontrer que cela reste vrai pour les autres lignes, mais des résultats préliminaires sont requis.

Les cas particuliers pour la deuxième ligne

Soient $(a_{11}, a_{12}, a_{13}, a_{14})\in \A^4$ puis $(a_{31}, a_{32}, a_{33}, a_{34})\in \A^4$ et $(a_{41}, a_{42}, a_{43}, a_{44})\in \A^4.$ Par définition, vous avez :

\begin{vmatrix}
a_{11} & a_{12} & a_{13} & a_{14}\\
1 & 0 & 0 & 0 \\
a_{31} & a_{32} & a_{33} & a_{34}\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix}=
a_{11}
\begin{vmatrix}
0 & 0 & 0\\
a_{32} & a_{33} & a_{34}\\
a_{42} & a_{43} & a_{44}\\
\end{vmatrix}
- a_{12}
\begin{vmatrix}
1 & 0 & 0\\
a_{31} & a_{33} & a_{34}\\
a_{41} & a_{43} & a_{44}\\
\end{vmatrix}
+a_{13}
\begin{vmatrix}
1 & 0 & 0\\
a_{31} & a_{32} & a_{34}\\
a_{41} & a_{42} & a_{44}\\
\end{vmatrix}
-a_{14}
\begin{vmatrix}
1 & 0 & 0\\
a_{31} & a_{32} & a_{33}\\
a_{41} & a_{42} & a_{43}\\
\end{vmatrix}.

Chaque déterminant d’ordre $3$ est alors développé par rapport à sa première ligne, si bien que :

\begin{align*}
\begin{vmatrix}
a_{11} & a_{12} & a_{13} & a_{14}\\
1 & 0 & 0 & 0 \\
a_{31} & a_{32} & a_{33} & a_{34}\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix}&=
a_{11}\times 0
- a_{12}
\begin{vmatrix}
 a_{33} & a_{34}\\
  a_{43} & a_{44}\\
\end{vmatrix}
+a_{13}
\begin{vmatrix}
 a_{32} & a_{34}\\
 a_{42} & a_{44}\\
\end{vmatrix}
-a_{14}
\begin{vmatrix}
 a_{32} & a_{33}\\
 a_{42} & a_{43}\\
\end{vmatrix}
\\
&=-\left(
a_{12}
\begin{vmatrix}
 a_{33} & a_{34}\\
  a_{43} & a_{44}\\
\end{vmatrix}
-a_{13}
\begin{vmatrix}
 a_{32} & a_{34}\\
 a_{42} & a_{44}\\
\end{vmatrix}
+a_{14}
\begin{vmatrix}
 a_{32} & a_{33}\\
 a_{42} & a_{43}\\
\end{vmatrix}
\right).
\end{align*}

Vous reconnaissez le développement d’un déterminant d’ordre $3$ par rapport à sa première ligne. Donc :

\begin{vmatrix}
a_{11} & a_{12} & a_{13} & a_{14}\\
1 & 0 & 0 & 0 \\
a_{31} & a_{32} & a_{33} & a_{34}\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix}
=
-\begin{vmatrix}
  a_{12} & a_{13} & a_{14}\\
 a_{32} & a_{33} & a_{34}\\
 a_{42} & a_{43} & a_{44}\\
\end{vmatrix}.

Pour les positions restantes, vous effectuez la même démarche.

Soient $(a_{11}, a_{12}, a_{13}, a_{14})\in \A^4$ puis $(a_{31}, a_{32}, a_{33}, a_{34})\in \A^4$ et $(a_{41}, a_{42}, a_{43}, a_{44})\in \A^4.$ Ainsi :

\begin{align*}
\begin{vmatrix}
a_{11} & a_{12} & a_{13} & a_{14}\\
0 & 1 & 0 & 0 \\
a_{31} & a_{32} & a_{33} & a_{34}\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix}&=
a_{11}
\begin{vmatrix}
1 & 0 & 0\\
a_{32} & a_{33} & a_{34}\\
a_{42} & a_{43} & a_{44}\\
\end{vmatrix}
- a_{12}
\begin{vmatrix}
0 & 0 & 0\\
a_{31} & a_{33} & a_{34}\\
a_{41} & a_{43} & a_{44}\\
\end{vmatrix}
+a_{13}
\begin{vmatrix}
0 & 1 & 0\\
a_{31} & a_{32} & a_{34}\\
a_{41} & a_{42} & a_{44}\\
\end{vmatrix}
-a_{14}
\begin{vmatrix}
0 & 1 & 0\\
a_{31} & a_{32} & a_{33}\\
a_{41} & a_{42} & a_{43}\\
\end{vmatrix}
\\
&=
a_{11}
\begin{vmatrix}
 a_{33} & a_{34}\\
 a_{43} & a_{44}\\
\end{vmatrix}
+a_{13}\left(-
\begin{vmatrix}
a_{31}  & a_{34}\\
a_{41}  & a_{44}\\
\end{vmatrix}
\right)
-a_{14}\left(-
\begin{vmatrix}
a_{31} & a_{33}\\
a_{41} & a_{43}\\
\end{vmatrix}
\right)
\\
&=
a_{11}
\begin{vmatrix}
 a_{33} & a_{34}\\
 a_{43} & a_{44}\\
\end{vmatrix}
-a_{13}
\begin{vmatrix}
a_{31}  & a_{34}\\
a_{41}  & a_{44}\\
\end{vmatrix}
+a_{14}
\begin{vmatrix}
a_{31} & a_{33}\\
a_{41} & a_{43}\\
\end{vmatrix}
\\
&=
\begin{vmatrix}
a_{11} & a_{13} & a_{14}\\
a_{31} & a_{33} & a_{34}\\
a_{41} & a_{43} & a_{44}\\
\end{vmatrix}.
\end{align*}
\begin{align*}
\begin{vmatrix}
a_{11} & a_{12} & a_{13} & a_{14}\\
0 & 0 & 1 & 0 \\
a_{31} & a_{32} & a_{33} & a_{34}\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix}&=
a_{11}
\begin{vmatrix}
0 & 1 & 0\\
a_{32} & a_{33} & a_{34}\\
a_{42} & a_{43} & a_{44}\\
\end{vmatrix}
- a_{12}
\begin{vmatrix}
0 & 1 & 0\\
a_{31} & a_{33} & a_{34}\\
a_{41} & a_{43} & a_{44}\\
\end{vmatrix}
+a_{13}
\begin{vmatrix}
0 & 0 & 0\\
a_{31} & a_{32} & a_{34}\\
a_{41} & a_{42} & a_{44}\\
\end{vmatrix}
-a_{14}
\begin{vmatrix}
0 & 0 & 1\\
a_{31} & a_{32} & a_{33}\\
a_{41} & a_{42} & a_{43}\\
\end{vmatrix}
\\

&=
a_{11}\left(-
\begin{vmatrix}
 a_{32} & a_{34}\\
 a_{42} & a_{44}\\
\end{vmatrix}
\right)
-a_{12}\left(-
\begin{vmatrix}
a_{31}  & a_{34}\\
a_{41}  & a_{44}\\
\end{vmatrix}
\right)
+a_{14}
\begin{vmatrix}
a_{31} & a_{32}\\
a_{41} & a_{42}\\
\end{vmatrix}
\\
&=
-\left(
a_{11}
\begin{vmatrix}
 a_{32} & a_{34}\\
 a_{42} & a_{44}\\
\end{vmatrix}
-a_{12}
\begin{vmatrix}
a_{31}  & a_{34}\\
a_{41}  & a_{44}\\
\end{vmatrix}
-a_{14}
\begin{vmatrix}
a_{31} & a_{32}\\
a_{41} & a_{42}\\
\end{vmatrix}
\right)
\\
&=
-\begin{vmatrix}
a_{11} & a_{12} & a_{14}\\
a_{31} & a_{32} & a_{34}\\
a_{41} & a_{42} & a_{44}\\
\end{vmatrix}.
\end{align*}
\begin{align*}
\begin{vmatrix}
a_{11} & a_{12} & a_{13} & a_{14}\\
0 & 0 & 0 & 1 \\
a_{31} & a_{32} & a_{33} & a_{34}\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix}&=
a_{11}
\begin{vmatrix}
0 & 0 & 1\\
a_{32} & a_{33} & a_{34}\\
a_{42} & a_{43} & a_{44}\\
\end{vmatrix}
- a_{12}
\begin{vmatrix}
0 & 0 & 1\\
a_{31} & a_{33} & a_{34}\\
a_{41} & a_{43} & a_{44}\\
\end{vmatrix}
+a_{13}
\begin{vmatrix}
0 & 0 & 1\\
a_{31} & a_{32} & a_{34}\\
a_{41} & a_{42} & a_{44}\\
\end{vmatrix}
-a_{14}
\begin{vmatrix}
0 & 0 & 0\\
a_{31} & a_{32} & a_{33}\\
a_{41} & a_{42} & a_{43}\\
\end{vmatrix}
\\

&=
a_{11}\
\begin{vmatrix}
 a_{32} & a_{33}\\
 a_{42} & a_{43}\\
\end{vmatrix}
-a_{12}
\begin{vmatrix}
a_{31}  & a_{33}\\
a_{41}  & a_{43}\\
\end{vmatrix}
+a_{13}
\begin{vmatrix}
a_{31} & a_{32}\\
a_{41} & a_{42}\\
\end{vmatrix}
\\
&=
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
a_{31} & a_{32} & a_{33}\\
a_{41} & a_{42} & a_{43}\\
\end{vmatrix}.
\end{align*}

Et la linéarité par rapport à la deuxième ligne

Soient $(a_{11}, a_{12}, a_{13}, a_{14})\in \A^4$ puis $(a_{21}, a_{22}, a_{23}, a_{24})\in \A^4$ puis $(a_{31}, a_{32}, a_{33}, a_{34})\in \A^4$ et $(a_{41}, a_{42}, a_{43}, a_{44})\in \A^4.$

\begin{align*}
\begin{vmatrix}
a_{11} & a_{12} & a_{13} & a_{14}\\
a_{21}  & a_{22} & a_{23}  & a_{24}\\
a_{31} & a_{32} & a_{33} & a_{34}\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix} &=a_{21}
\begin{vmatrix}
a_{11} & a_{12} & a_{13} & a_{14}\\
1  & 0 & 0  & 0\\
a_{31} & a_{32} & a_{33} & a_{34}\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix} 
+a_{22}
\begin{vmatrix}
a_{11} & a_{12} & a_{13} & a_{14}\\
0  & 1 & 0  & 0\\
a_{31} & a_{32} & a_{33} & a_{34}\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix} 
\\
&\quad
+a_{23}
\begin{vmatrix}
a_{11} & a_{12} & a_{13} & a_{14}\\
0  & 0 & 1  & 0\\
a_{31} & a_{32} & a_{33} & a_{34}\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix} 
+a_{24}
\begin{vmatrix}
a_{11} & a_{12} & a_{13} & a_{14}\\
0  & 0 & 0  & 1\\
a_{31} & a_{32} & a_{33} & a_{34}\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix} 
\\
&=a_{21}
\left(
-\begin{vmatrix}
  a_{12} & a_{13} & a_{14}\\
 a_{32} & a_{33} & a_{34}\\
 a_{42} & a_{43} & a_{44}\\
\end{vmatrix}
\right)
+a_{22}
\begin{vmatrix}
a_{11} & a_{13} & a_{14}\\
a_{31} & a_{33} & a_{34}\\
a_{41} & a_{43} & a_{44}\\
\end{vmatrix}
\\
&\quad
+a_{23}
\left(
-\begin{vmatrix}
a_{11} & a_{12} & a_{14}\\
a_{31} & a_{32} & a_{34}\\
a_{41} & a_{42} & a_{44}\\
\end{vmatrix}
\right)
+a_{24}
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
a_{31} & a_{32} & a_{33}\\
a_{41} & a_{42} & a_{43}\\
\end{vmatrix}
\\
&=
-a_{21}
\begin{vmatrix}
  a_{12} & a_{13} & a_{14}\\
 a_{32} & a_{33} & a_{34}\\
 a_{42} & a_{43} & a_{44}\\
\end{vmatrix}
+a_{22}
\begin{vmatrix}
a_{11} & a_{13} & a_{14}\\
a_{31} & a_{33} & a_{34}\\
a_{41} & a_{43} & a_{44}\\
\end{vmatrix}
\\
&\quad
-a_{23}
\begin{vmatrix}
a_{11} & a_{12} & a_{14}\\
a_{31} & a_{32} & a_{34}\\
a_{41} & a_{42} & a_{44}\\
\end{vmatrix}
+a_{24}
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
a_{31} & a_{32} & a_{33}\\
a_{41} & a_{42} & a_{43}\\
\end{vmatrix}.
\end{align*}

Démontrez que le déterminant d’ordre $4$ se développe par rapport à sa troisième ligne

Les propriétés de développement des déterminants d’ordre $3$ sont utilisées. La méthode décrite reprend la même démarche que celle exposée précédemment.

Les cas particuliers pour la troisième ligne

Vous développez les déterminants proposés en utilisant la définition, puis vous utilisez le fait que les déterminants d’ordre $3$ se développent par rapport à leur deuxième ligne.

Soient $(a_{11}, a_{12}, a_{13}, a_{14})\in \A^4$ puis $(a_{21}, a_{22}, a_{23}, a_{24})\in \A^4$ et $(a_{41}, a_{42}, a_{43}, a_{44})\in \A^4.$

\begin{align*}
\begin{vmatrix}
a_{11} & a_{12} & a_{13} & a_{14}\\
a_{21} & a_{22} & a_{23} & a_{24} \\
1 & 0 & 0 & 0\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix} &= 
a_{11}
\begin{vmatrix}
a_{22} & a_{23} & a_{24}\\
0 & 0 & 0\\
a_{42} & a_{43} & a_{44}\\
\end{vmatrix}
- a_{12}
\begin{vmatrix}
a_{21} & a_{23} & a_{24}\\
1 & 0 & 0\\
a_{41} & a_{43} & a_{44}\\
\end{vmatrix}
+a_{13}
\begin{vmatrix}
a_{21} & a_{22} & a_{24}\\
1 & 0 & 0\\
a_{41} & a_{42} & a_{44}\\
\end{vmatrix}
-a_{14}
\begin{vmatrix}
a_{21} & a_{22} & a_{23}\\
1 & 0 & 0\\
a_{41} & a_{42} & a_{43}\\
\end{vmatrix}
\\
&= -a_{12}\left(
- \begin{vmatrix}
 a_{23} & a_{24}\\
 a_{43} & a_{44}\\
\end{vmatrix}
\right)
+a_{13}\left(
-\begin{vmatrix}
 a_{22} & a_{24}\\
 a_{42} & a_{44}\\
\end{vmatrix}
\right)
-a_{14} \left(
- \begin{vmatrix}
a_{22} & a_{23}\\
a_{42} & a_{43}\\
\end{vmatrix}
\right)
\\
&=
 a_{12}
 \begin{vmatrix}
 a_{23} & a_{24}\\
 a_{43} & a_{44}\\
\end{vmatrix}
-a_{13}
\begin{vmatrix}
 a_{22} & a_{24}\\
 a_{42} & a_{44}\\
\end{vmatrix}
+a_{14} 
\begin{vmatrix}
a_{22} & a_{23}\\
a_{42} & a_{43}\\
\end{vmatrix}
\\
&=
\begin{vmatrix}
 a_{12} & a_{13} & a_{14}\\
 a_{22} & a_{23} & a_{24} \\
  a_{42} & a_{43} & a_{44}\\
\end{vmatrix}.
\end{align*}
\begin{align*}
\begin{vmatrix}
a_{11} & a_{12} & a_{13} & a_{14}\\
a_{21} & a_{22} & a_{23} & a_{24} \\
0 & 1 & 0 & 0\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix} &= 
a_{11}
\begin{vmatrix}
a_{22} & a_{23} & a_{24}\\
1 & 0 & 0\\
a_{42} & a_{43} & a_{44}\\
\end{vmatrix}
- a_{12}
\begin{vmatrix}
a_{21} & a_{23} & a_{24}\\
0 & 0 & 0\\
a_{41} & a_{43} & a_{44}\\
\end{vmatrix}
+a_{13}
\begin{vmatrix}
a_{21} & a_{22} & a_{24}\\
0 & 1 & 0\\
a_{41} & a_{42} & a_{44}\\
\end{vmatrix}
-a_{14}
\begin{vmatrix}
a_{21} & a_{22} & a_{23}\\
0 & 1 & 0\\
a_{41} & a_{42} & a_{43}\\
\end{vmatrix}
\\
&= a_{11}
\left(-
 \begin{vmatrix}
 a_{23} & a_{24}\\
 a_{43} & a_{44}\\
\end{vmatrix}
\right)
+a_{13}
\begin{vmatrix}
 a_{21} & a_{24}\\
 a_{41} & a_{44}\\
\end{vmatrix}
-a_{14} 
 \begin{vmatrix}
a_{21} & a_{23}\\
a_{41} & a_{43}\\
\end{vmatrix}
\\
&=
-\left(
 a_{11}
 \begin{vmatrix}
 a_{23} & a_{24}\\
 a_{43} & a_{44}\\
\end{vmatrix}
-a_{13}
\begin{vmatrix}
 a_{21} & a_{24}\\
 a_{41} & a_{44}\\
\end{vmatrix}
+a_{14} 
\begin{vmatrix}
a_{21} & a_{23}\\
a_{41} & a_{43}\\
\end{vmatrix}
\right)
\\
&=
-\begin{vmatrix}
 a_{11} & a_{13} & a_{14}\\
 a_{21} & a_{23} & a_{24} \\
  a_{41} & a_{43} & a_{44}\\
\end{vmatrix}.
\end{align*}
\begin{align*}
\begin{vmatrix}
a_{11} & a_{12} & a_{13} & a_{14}\\
a_{21} & a_{22} & a_{23} & a_{24} \\
0 & 0 & 1 & 0\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix} &= 
a_{11}
\begin{vmatrix}
a_{22} & a_{23} & a_{24}\\
0 & 1 & 0\\
a_{42} & a_{43} & a_{44}\\
\end{vmatrix}
- a_{12}
\begin{vmatrix}
a_{21} & a_{23} & a_{24}\\
0 & 1 & 0\\
a_{41} & a_{43} & a_{44}\\
\end{vmatrix}
+a_{13}
\begin{vmatrix}
a_{21} & a_{22} & a_{24}\\
0 & 0 & 0\\
a_{41} & a_{42} & a_{44}\\
\end{vmatrix}
-a_{14}
\begin{vmatrix}
a_{21} & a_{22} & a_{23}\\
0 & 0 & 1\\
a_{41} & a_{42} & a_{43}\\
\end{vmatrix}
\\

&= a_{11}
 \begin{vmatrix}
 a_{22} & a_{24}\\
 a_{42} & a_{44}\\
\end{vmatrix}

-a_{12}
\begin{vmatrix}
 a_{21} & a_{24}\\
 a_{41} & a_{44}\\
\end{vmatrix}
-a_{14}
\left(
- \begin{vmatrix}
a_{21} & a_{22}\\
a_{41} & a_{42}\\
\end{vmatrix}
\right)
\\
&=
a_{11}
 \begin{vmatrix}
 a_{22} & a_{24}\\
 a_{42} & a_{44}\\
\end{vmatrix}

-a_{12}
\begin{vmatrix}
 a_{21} & a_{24}\\
 a_{41} & a_{44}\\
\end{vmatrix}
+a_{14}
 \begin{vmatrix}
a_{21} & a_{22}\\
a_{41} & a_{42}\\
\end{vmatrix}
\\
&=
\begin{vmatrix}
 a_{11} & a_{12} & a_{14}\\
 a_{21} & a_{22} & a_{24} \\
  a_{41} & a_{42} & a_{44}\\
\end{vmatrix}.
\end{align*}
\begin{align*}
\begin{vmatrix}
a_{11} & a_{12} & a_{13} & a_{14}\\
a_{21} & a_{22} & a_{23} & a_{24} \\
0 & 0 & 0 & 1\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix} &= 
a_{11}
\begin{vmatrix}
a_{22} & a_{23} & a_{24}\\
0 & 0 & 1\\
a_{42} & a_{43} & a_{44}\\
\end{vmatrix}
- a_{12}
\begin{vmatrix}
a_{21} & a_{23} & a_{24}\\
0 & 0 & 1\\
a_{41} & a_{43} & a_{44}\\
\end{vmatrix}
+a_{13}
\begin{vmatrix}
a_{21} & a_{22} & a_{24}\\
0 & 0 & 1\\
a_{41} & a_{42} & a_{44}\\
\end{vmatrix}
-a_{14}
\begin{vmatrix}
a_{21} & a_{22} & a_{23}\\
0 & 0 & 0\\
a_{41} & a_{42} & a_{43}\\
\end{vmatrix}
\\
&= a_{11}
\left(
-
 \begin{vmatrix}
 a_{22} & a_{23}\\
 a_{42} & a_{43}\\
\end{vmatrix}
\right)
-a_{12}
\left(
-
\begin{vmatrix}
 a_{21} & a_{23}\\
 a_{41} & a_{43}\\
\end{vmatrix}
\right)
+a_{13}
\left(
- \begin{vmatrix}
a_{21} & a_{22}\\
a_{41} & a_{42}\\
\end{vmatrix}
\right)
\\
&=
-\left(
 a_{11}
 \begin{vmatrix}
 a_{22} & a_{23}\\
 a_{42} & a_{43}\\
\end{vmatrix}
-a_{12}
\begin{vmatrix}
 a_{21} & a_{23}\\
 a_{41} & a_{43}\\
\end{vmatrix}
+a_{13}
 \begin{vmatrix}
a_{21} & a_{22}\\
a_{41} & a_{42}\\
\end{vmatrix}
\right)

\\
&=
-\begin{vmatrix}
 a_{11} & a_{12} & a_{13}\\
 a_{21} & a_{22} & a_{23} \\
  a_{41} & a_{42} & a_{43}\\
\end{vmatrix}.
\end{align*}

Et la linéarité par rapport à la troisième ligne

Soient $(a_{11}, a_{12}, a_{13}, a_{14})\in \A^4$ puis $(a_{21}, a_{22}, a_{23}, a_{24})\in \A^4$ puis $(a_{31}, a_{32}, a_{33}, a_{34})\in \A^4$ et $(a_{41}, a_{42}, a_{43}, a_{44})\in \A^4.$

\begin{align*}
\begin{vmatrix}
a_{11} & a_{12} & a_{13} & a_{14}\\
a_{21}  & a_{22} & a_{23}  & a_{24}\\
a_{31} & a_{32} & a_{33} & a_{34}\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix} &=a_{31}
\begin{vmatrix}
a_{11} & a_{12} & a_{13} & a_{14}\\
a_{21}  & a_{22} & a_{23}  & a_{24}\\
1  & 0 & 0  & 0\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix} 
+a_{32}
\begin{vmatrix}
a_{11} & a_{12} & a_{13} & a_{14}\\
a_{21}  & a_{22} & a_{23}  & a_{24}\\
0  & 1 & 0  & 0\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix} 
\\
&\quad
+a_{33}
\begin{vmatrix}
a_{11} & a_{12} & a_{13} & a_{14}\\
a_{21}  & a_{22} & a_{23}  & a_{24}\\
0  & 0 & 1  & 0\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix} 
+a_{34}
\begin{vmatrix}
a_{11} & a_{12} & a_{13} & a_{14}\\
a_{21}  & a_{22} & a_{23}  & a_{24}\\
0  & 0 & 0  & 1\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix} 
\\

&=a_{31}
\begin{vmatrix}
  a_{12} & a_{13} & a_{14}\\
 a_{22} & a_{23} & a_{24}\\
 a_{42} & a_{43} & a_{44}\\
\end{vmatrix}
+a_{32}
\left(
-
\begin{vmatrix}
a_{11} & a_{13} & a_{14}\\
a_{21} & a_{23} & a_{24}\\
a_{41} & a_{43} & a_{44}\\
\end{vmatrix}
\right)
\\
&\quad
+a_{33}
\begin{vmatrix}
a_{11} & a_{12} & a_{14}\\
a_{21} & a_{22} & a_{24}\\
a_{41} & a_{42} & a_{44}\\
\end{vmatrix}
+a_{34}
\left(
-
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
a_{41} & a_{42} & a_{43}\\
\end{vmatrix}
\right)
\\
&=
a_{31}
\begin{vmatrix}
  a_{12} & a_{13} & a_{14}\\
 a_{22} & a_{23} & a_{24}\\
 a_{42} & a_{43} & a_{44}\\
\end{vmatrix}
-a_{32}
\begin{vmatrix}
a_{11} & a_{13} & a_{14}\\
a_{21} & a_{23} & a_{24}\\
a_{41} & a_{43} & a_{44}\\
\end{vmatrix}
\\
&\quad
+a_{33}
\begin{vmatrix}
a_{11} & a_{12} & a_{14}\\
a_{21} & a_{22} & a_{24}\\
a_{41} & a_{42} & a_{44}\\
\end{vmatrix}
-a_{34}
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
a_{41} & a_{42} & a_{43}\\
\end{vmatrix}.
\end{align*}

Démontrez que le déterminant d’ordre $4$ se développe par rapport à sa quatrième ligne

Vous utilisez un raisonnement similaire à celui présenté pour la troisième ligne. Pour des raisons de longueur, le choix d’omettre les détails a été adopté.

Démontrez que le déterminant d’ordre $4$ est alterné sur les lignes

Soit $(a_{11}, a_{12}, a_{13}, a_{14})\in \A^4$ puis $(a_{21}, a_{22}, a_{23}, a_{24})\in \A^4$ puis $(a_{31}, a_{32}, a_{33}, a_{34})\in \A^4$ et $(a_{41}, a_{42}, a_{43}, a_{44})\in \A^4$ et $D$ le déterminant suivant :

D=\begin{vmatrix}
a_{11} & a_{12} & a_{13} & a_{14}\\
a_{21} & a_{22} & a_{23} & a_{24} \\
a_{31} & a_{32} & a_{33} & a_{34}\\
a_{41} & a_{42} & a_{43} & a_{44}\\
\end{vmatrix}.

Supposez que le déterminant $D$ possède deux lignes identiques. Il existe un couple $(i,j)\in \llbracket 1, 4\rrbracket^2$ avec $i\neq j$ tel que les lignes $L_i$ et $L_j$ soient identiques.

Il existe alors un élément $k$ appartenant à l’ensemble $\llbracket 1, 4\rrbracket\setminus \{i, j\}.$

Vous développez le déterminant $D$ par rapport à la ligne $k$ ce qui est possible puisque $D$ est développable sur ses lignes peu importe laquelle. Il apparaît 4 déterminants d’ordre $3$ qui possèdent chacun deux lignes identiquement nulles. Comme il a été vu que les déterminants d’ordre $3$ sont alternés, vous en déduisez qu’ils sont tous nuls.

Vous déduisez donc par développement que $D = 0.$

Le déterminant d’ordre $4$ est ainsi alterné.

Démontrez que le déterminant d’ordre $4$ vaut $1$ sur l’identité

Le développement du déterminant d’ordre $4$ par rapport à la première ligne fait apparaître le déterminant d’ordre $3$ sur l’identité qui vaut $1.$ Précisément :

\begin{align*}
\begin{vmatrix}
1 & 0 & 0 & 0\\
0 & 1 & 0 & 0\\
0 & 0 & 1 & 0\\
0 & 0 & 0 & 1\\
\end{vmatrix} 
&=1 \begin{vmatrix}
 1 & 0 & 0 \\
0  & 1 & 0\\
0  & 0 & 1\\
\end{vmatrix}
-0
 \begin{vmatrix}
 0 & 0 & 0 \\
 0 & 1 & 0\\
0  & 0 & 1\\
\end{vmatrix}
+0
\begin{vmatrix}
 0 & 1 & 0\\
 0 & 0 & 0 \\
0 & 0 & 1 \\
\end{vmatrix}
-0
\begin{vmatrix}
 0 & 1 & 0 \\
0 & 0 & 1 \\
0 & 0 & 0 \\
\end{vmatrix}
\\
&=\begin{vmatrix}
 1 & 0 & 0 \\
0  & 1 & 0\\
0  & 0 & 1\\
\end{vmatrix}
\\
&=1.
\end{align*}

Concluez

Le déterminant d’ordre $4$ est une forme $4$-linéaire alternée sur les lignes, qui vaut $1$ sur l’identité. De plus, il se développe par rapport à n’importe laquelle de ses lignes.

Prolongement

Pourriez-vous utiliser des notations adaptées pour démontrer que la méthode utilisée pour les déterminants d’ordre $2$ puis $3$ et $4$ se généralise aux déterminants d’ordre $n$ dès que $n$ est un entier supérieur ou égal à $2$ ?

383. La théorie des déterminants d’ordre 1 à 4 (partie 2/3)

Ce document est le prolongement du contenu rédigé dans l'article 382, il en reprend les mêmes notations.

Les déterminants d’ordre 3

Quel que soit $(a_{11}, a_{12}, a_{13}, a_{21}, a_{22}, a_{23}, a_{31}, a_{32}, a_{33})\in\A^9$ vous définissez un déterminant d’ordre $3$ par le développement de la première ligne avec les déterminants d’ordre $2$ ce qui fournit :

\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
a_{31} & a_{32} & a_{33}\\
\end{vmatrix} = 
a_{11} 
\begin{vmatrix}
 a_{22} & a_{23}\\
 a_{32} & a_{33}\\
\end{vmatrix} 
-a_{12}
\begin{vmatrix}
 a_{21} & a_{23}\\
 a_{31} & a_{33}\\
\end{vmatrix} 
+a_{13}
\begin{vmatrix}
 a_{21} & a_{22}\\
 a_{31} & a_{32}\\
\end{vmatrix}.

Montrez que vous avez défini une forme $3$-linéaire sur les lignes

Pour la première ligne

Soit $(a_{11}, a_{12}, a_{13}, a_{21}, a_{22}, a_{23}, a_{31}, a_{32}, a_{33})\in\A^9$ et soit $(b_{11}, b_{12}, b_{13}, \lambda)\in\A^4.$

Vous développez le déterminant ci-dessous par rapport à sa première ligne et constatez le caractère linéaire.

\begin{align*}
\begin{vmatrix}
a_{11} + \lambda b_{11} & a_{12} + \lambda b_{12} & a_{13} + \lambda b_{13}\\
a_{21} & a_{22} & a_{23}\\
a_{31} & a_{32} & a_{33}\\
\end{vmatrix} 

&= 

(a_{11} + \lambda b_{11}) 
\begin{vmatrix}
 a_{22} & a_{23}\\
 a_{32} & a_{33}\\
\end{vmatrix} 
-(a_{12} + \lambda b_{12})
\begin{vmatrix}
 a_{21} & a_{23}\\
 a_{31} & a_{33}\\
\end{vmatrix} 
+(a_{13} + \lambda b_{13})
\begin{vmatrix}
 a_{21} & a_{22}\\
 a_{31} & a_{32}\\
\end{vmatrix}
\\
&=

a_{11}
\begin{vmatrix}
 a_{22} & a_{23}\\
 a_{32} & a_{33}\\
\end{vmatrix} 
-a_{12} 
\begin{vmatrix}
 a_{21} & a_{23}\\
 a_{31} & a_{33}\\
\end{vmatrix} 
+a_{13} 
\begin{vmatrix}
 a_{21} & a_{22}\\
 a_{31} & a_{32}\\
\end{vmatrix}
\\
&\quad + \lambda \left(

b_{11}
\begin{vmatrix}
 a_{22} & a_{23}\\
 a_{32} & a_{33}\\
\end{vmatrix} 
-b_{12} 
\begin{vmatrix}
 a_{21} & a_{23}\\
 a_{31} & a_{33}\\
\end{vmatrix} 
+b_{13} 
\begin{vmatrix}
 a_{21} & a_{22}\\
 a_{31} & a_{32}\\
\end{vmatrix}

\right)

\\

&=
\begin{vmatrix}
a_{11}  & a_{12}  & a_{13} \\
a_{21} & a_{22} & a_{23}\\
a_{31} & a_{32} & a_{33}\\
\end{vmatrix} 

+\lambda 
\begin{vmatrix}
b_{11}  & b_{12}  & b_{13} \\
a_{21} & a_{22} & a_{23}\\
a_{31} & a_{32} & a_{33}\\
\end{vmatrix}.
\end{align*}

Pour la deuxième ligne

Soit $(a_{11}, a_{12}, a_{13}, a_{21}, a_{22}, a_{23}, a_{31}, a_{32}, a_{33})\in\A^9$ et soit $(b_{21}, b_{22}, b_{23}, \lambda)\in\A^4.$

Cette fois-ci, le développement du déterminant d’ordre $3$ par rapport à sa première ligne ne permet pas immédiatement de constater le caractère linéaire. Ce dernier provient du fait que tous les déterminants d’ordre $2$ apparaissant dans le calcul sont des formes $2$-linéaires, comme le montre le calcul suivant :

\begin{align*}
\begin{vmatrix}
a_{11}  & a_{12}  & a_{13} \\
a_{21}+ \lambda b_{21} & a_{22} + \lambda b_{22} & a_{23} + \lambda b_{23} \\
a_{31} & a_{32} & a_{33}\\
\end{vmatrix} 

&=

a_{11} 
\begin{vmatrix}
 a_{22} + \lambda b_{22} & a_{23} + \lambda b_{23}\\
 a_{32} & a_{33}\\
\end{vmatrix} 
-a_{12}
\begin{vmatrix}
 a_{21} + \lambda b_{21} & a_{23} + \lambda b_{23}\\
 a_{31} & a_{33}\\
\end{vmatrix}
\\ 
&\quad
+a_{13} 
\begin{vmatrix}
 a_{21} + \lambda b_{21} & a_{22} + \lambda b_{22}\\
 a_{31} & a_{32}\\
\end{vmatrix}

\\
&=
a_{11} \left(
\begin{vmatrix}
 a_{22} & a_{23} \\
 a_{32} & a_{33}\\
\end{vmatrix} 
+\lambda
\begin{vmatrix}
  b_{22} & b_{23}\\
 a_{32} & a_{33}\\
\end{vmatrix} 
\right)

-a_{12}
\left(
\begin{vmatrix}
 a_{21}  & a_{23} \\
 a_{31} & a_{33}\\
\end{vmatrix}
+\lambda
\begin{vmatrix}
b_{21} &  b_{23}\\
 a_{31} & a_{33}\\
\end{vmatrix}
\right)
\\
&\quad 
+a_{13}
\left(
\begin{vmatrix}
 a_{21}  & a_{22} \\
 a_{31} & a_{32}\\
\end{vmatrix}
+\lambda
\begin{vmatrix}
 b_{21}  & b_{22} \\
 a_{31} & a_{32}\\
\end{vmatrix}
\right)

\\
&=

a_{11} 
\begin{vmatrix}
 a_{22} & a_{23}\\
 a_{32} & a_{33}\\
\end{vmatrix} 
-a_{12}
\begin{vmatrix}
 a_{21} & a_{23}\\
 a_{31} & a_{33}\\
\end{vmatrix} 
+a_{13}
\begin{vmatrix}
 a_{21} & a_{22}\\
 a_{31} & a_{32}\\
\end{vmatrix}
\\ 
&\quad
+\lambda
\left(
a_{11} 
\begin{vmatrix}
 b_{22} &b_{23}\\
 a_{32} & a_{33}\\
\end{vmatrix} 
-a_{12}
\begin{vmatrix}
 b_{21} & b_{23}\\
 a_{31} & a_{33}\\
\end{vmatrix} 
+a_{13}
\begin{vmatrix}
 b_{21} & b_{22}\\
 a_{31} & a_{32}\\
\end{vmatrix}
\right)
\\
&=
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
a_{31} & a_{32} & a_{33}\\
\end{vmatrix}
+\lambda
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
b_{21} & b_{22} & b_{23}\\
a_{31} & a_{32} & a_{33}\\
\end{vmatrix}.
\end{align*}

Pour la troisième ligne

La méthode utilisée pour la deuxième ligne s’applique de façon similaire pour la troisième.

Soit $(a_{11}, a_{12}, a_{13}, a_{21}, a_{22}, a_{23}, a_{31}, a_{32}, a_{33})\in\A^9$ et soit $(b_{31}, b_{32}, b_{33}, \lambda)\in\A^4.$

\begin{align*}
\begin{vmatrix}
a_{11}  & a_{12}  & a_{13} \\
a_{21} & a_{22}  & a_{23}  \\
a_{31}+ \lambda b_{31} & a_{32} + \lambda b_{32} & a_{33}+ \lambda b_{33}\\
\end{vmatrix}

&=

a_{11}
\begin{vmatrix}
 a_{22}  & a_{23} \\
 a_{32} + \lambda b_{32} & a_{33}+ \lambda b_{33} \\
\end{vmatrix} 
-a_{12}
\begin{vmatrix}
 a_{21}  & a_{23} \\
 a_{31} + \lambda b_{31} & a_{33}+ \lambda b_{33} \\
\end{vmatrix} 
\\ 
&\quad
+ a_{13}
\begin{vmatrix}
 a_{21}  & a_{22} \\
 a_{31} + \lambda b_{31} & a_{32}+ \lambda b_{32} \\
\end{vmatrix} 
\\

&=
a_{11}
\left(
\begin{vmatrix}
 a_{22}  & a_{23} \\
 a_{32}  & a_{33}\\
\end{vmatrix} 
+\lambda
\begin{vmatrix}
 a_{22}  & a_{23} \\
 b_{32} & b_{33} \\
\end{vmatrix} 
\right)
-a_{12}
\left(
\begin{vmatrix}
 a_{21}  & a_{23} \\
 a_{31}  & a_{33} \\
\end{vmatrix} 
+\lambda
\begin{vmatrix}
 a_{21}  & a_{23} \\
b_{31} &  b_{33} \\
\end{vmatrix} 
\right)
\\
&\quad 
+a_{13}
\left(
\begin{vmatrix}
 a_{21}  & a_{22} \\
 a_{31}  & a_{32} \\
\end{vmatrix} 
+\lambda
\begin{vmatrix}
 a_{21}  & a_{22} \\
 b_{31} &  b_{32} \\
\end{vmatrix} 
\right)
\\
&=
a_{11}
\begin{vmatrix}
 a_{22} & a_{23}\\
 a_{32} & a_{33}\\
\end{vmatrix} 
-a_{12} 
\begin{vmatrix}
 a_{21} & a_{23}\\
 a_{31} & a_{33}\\
\end{vmatrix} 
+a_{13} 
\begin{vmatrix}
 a_{21} & a_{22}\\
 a_{31} & a_{32}\\
\end{vmatrix}
\\
&\quad +\lambda
\left(
a_{11}
\begin{vmatrix}
 a_{22} & a_{23}\\
 b_{32} & b_{33}\\
\end{vmatrix} 
-a_{12} 
\begin{vmatrix}
 a_{21} & a_{23}\\
 b_{31} & b_{33}\\
\end{vmatrix} 
+a_{13} 
\begin{vmatrix}
 a_{21} & a_{22}\\
 b_{31} & b_{32}\\
\end{vmatrix}
\right)
\\
&=
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
a_{31} & a_{32} & a_{33}\\
\end{vmatrix}
+\lambda
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
b_{31} & b_{32} & b_{33}\\
\end{vmatrix}.
\end{align*}

Démontrez que le déterminant d’ordre $3$ se développe par rapport à sa deuxième ligne

Par définition, le déterminant d’ordre $3$ se développe déjà par rapport à sa première ligne. Vous allez démontrer que cela reste vrai pour les autres lignes, mais des résultats préliminaires sont requis.

Les cas particuliers pour la deuxième ligne

Soit $(a_{11}, a_{12}, a_{13}, a_{31}, a_{32}, a_{33})\in\A^6.$ Par définition du déterminant d’ordre $3$ vous avez :

\begin{align*}
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
1 & 0 & 0\\
a_{31} & a_{32} & a_{33}\\
\end{vmatrix}
&= 
a_{11}
\begin{vmatrix}
 0  & 0 \\
 a_{32} & a_{33} \\
\end{vmatrix} 
-a_{12}
\begin{vmatrix}
 1  & 0 \\
 a_{31} & a_{33} \\
\end{vmatrix} 
+a_{13}
\begin{vmatrix}
 1  & 0 \\
 a_{31} & a_{32} \\
\end{vmatrix} 
\\
&=
a_{11}(0\times a_{33} - 0\times a_{32})-a_{12}(1\times a_{33} - 0\times a_{31})+a_{13}(1\times a_{32}-0\times a_{31})\\
&= a_{11}\times 0-a_{12}a_{33}+a_{13}a_{32}\\
&= - (a_{12}a_{33}- a_{13}a_{32}) \\
&= 
- \begin{vmatrix}
 a_{12} & a_{13} \\
 a_{32} & a_{33} \\
\end{vmatrix}.
\end{align*}

De même :

\begin{align*}
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
0 & 1 & 0\\
a_{31} & a_{32} & a_{33}\\
\end{vmatrix}
&= 
a_{11}
\begin{vmatrix}
 1  & 0 \\
 a_{32} & a_{33} \\
\end{vmatrix} 
-a_{12}
\begin{vmatrix}
 0  & 0 \\
 a_{31} & a_{33} \\
\end{vmatrix} 
+a_{13}
\begin{vmatrix}
 0  & 1 \\
 a_{31} & a_{32} \\
\end{vmatrix} 
\\
&= a_{11}a_{33}-a_{12}\times 0+a_{13}\times (-a_{31})\\
&= a_{11}a_{33} - a_{13}a_{31}\\
&= 
 \begin{vmatrix}
 a_{11} & a_{13} \\
 a_{31} & a_{33} \\
\end{vmatrix}.
\end{align*}
\begin{align*}
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
0 & 0 & 1\\
a_{31} & a_{32} & a_{33}\\
\end{vmatrix}
&= 
a_{11}
\begin{vmatrix}
 0  & 1 \\
 a_{32} & a_{33} \\
\end{vmatrix} 
-a_{12}
\begin{vmatrix}
 0  & 1 \\
 a_{31} & a_{33} \\
\end{vmatrix} 
+a_{13}
\begin{vmatrix}
 0  & 0 \\
 a_{31} & a_{32} \\
\end{vmatrix} 
\\
&= a_{11}\times (-a_{32}) -a_{12}\times (-a_{31})+a_{13}\times 0\\
&= a_{12}a_{31} - a_{11}a_{32}\\
&= - (a_{11}a_{32} - a_{12}a_{31})   \\
&= 
- \begin{vmatrix}
 a_{11} & a_{12} \\
 a_{31} & a_{32} \\
\end{vmatrix}.
\end{align*}

Et la linéarité par rapport à la deuxième ligne

$(a_{11}, a_{12}, a_{13}, a_{21}, a_{22}, a_{23}, a_{31}, a_{32}, a_{33})\in\A^9.$

Vous utilisez la linéarité du déterminant par rapport à sa deuxième ligne :

\begin{align*}
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
a_{31} & a_{32} & a_{33}\\
\end{vmatrix} 
&= 
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
a_{21} & 0 & 0\\
a_{31} & a_{32} & a_{33}\\
\end{vmatrix} +
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
0 & a_{22} & 0\\
a_{31} & a_{32} & a_{33}\\
\end{vmatrix} 
+
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
0 & 0 & a_{23}\\
a_{31} & a_{32} & a_{33}\\
\end{vmatrix} 
\\
&=
a_{21}\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
1 & 0 & 0\\
a_{31} & a_{32} & a_{33}\\
\end{vmatrix} +
a_{22}
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
0 & 1 & 0\\
a_{31} & a_{32} & a_{33}\\
\end{vmatrix} 
+
a_{23}
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
0 & 0 & 1\\
a_{31} & a_{32} & a_{33}\\
\end{vmatrix} 
\\
&=
a_{21} \times \left(- \begin{vmatrix}
 a_{12} & a_{13} \\
 a_{32} & a_{33} \\
\end{vmatrix}\right)
+a_{22}
 \begin{vmatrix}
 a_{11} & a_{13} \\
 a_{31} & a_{33} \\
\end{vmatrix}
+
a_{23}
\times \left(
- \begin{vmatrix}
 a_{11} & a_{12} \\
 a_{31} & a_{32} \\
\end{vmatrix}
\right)
\\
&=-a_{21} \begin{vmatrix}
 a_{12} & a_{13} \\
 a_{32} & a_{33} \\
\end{vmatrix}
+a_{22}
 \begin{vmatrix}
 a_{11} & a_{13} \\
 a_{31} & a_{33} \\
\end{vmatrix}
-a_{23}
\begin{vmatrix}
 a_{11} & a_{12} \\
 a_{31} & a_{32} \\
\end{vmatrix}.
\end{align*}

Démontrez que le déterminant d’ordre $3$ se développe par rapport à sa troisième ligne

Les cas particuliers pour la troisième ligne

Soit $(a_{11}, a_{12}, a_{13}, a_{21}, a_{22}, a_{23})\in\A^6.$ Par définition du déterminant d’ordre $3$ vous avez :

\begin{align*}
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
1 & 0 & 0\\
\end{vmatrix}
&= 
a_{11}
\begin{vmatrix}
a_{22} & a_{23} \\
 0  & 0 \\
\end{vmatrix} 
-a_{12}
\begin{vmatrix}
 a_{21} & a_{23} \\
 1  & 0 \\
\end{vmatrix} 
+a_{13}
\begin{vmatrix}
 a_{21} & a_{22} \\
 1  & 0 \\
\end{vmatrix} 
\\
&=
a_{11}\times 0 -a_{12}(- a_{23})+a_{13}(- a_{22})\\
&=  a_{12}a_{23}-a_{13}a_{22}\\
&= 
 \begin{vmatrix}
 a_{12} & a_{13} \\
 a_{22} & a_{23} \\
\end{vmatrix}.
\end{align*}
\begin{align*}
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
0 & 1 & 0\\
\end{vmatrix}
&= 
a_{11}
\begin{vmatrix}
a_{22} & a_{23} \\
 1  & 0 \\
\end{vmatrix} 
-a_{12}
\begin{vmatrix}
 a_{21} & a_{23} \\
 0  & 0 \\
\end{vmatrix} 
+a_{13}
\begin{vmatrix}
 a_{21} & a_{22} \\
 0  & 1 \\
\end{vmatrix} 
\\
&= a_{11}(-a_{23})-a_{12}\times 0 + a_{13}a_{21}\\
&= a_{13}a_{21}-a_{11}a_{23} \\
&= -(a_{11}a_{23}-a_{13}a_{21})\\
&= - \begin{vmatrix}
 a_{11} & a_{13} \\
 a_{21} & a_{23} \\
\end{vmatrix}.
\end{align*}
\begin{align*}
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
0 & 0 & 1\\
\end{vmatrix}
&= 
a_{11}
\begin{vmatrix}
a_{22} & a_{23} \\
 0  & 1 \\
\end{vmatrix} 
-a_{12}
\begin{vmatrix}
 a_{21} & a_{23} \\
 0  & 1 \\
\end{vmatrix} 
+a_{13}
\begin{vmatrix}
a_{21} & a_{22} \\
 0  & 0 \\
\end{vmatrix} 
\\
&= a_{11}a_{22} -a_{12}a_{21}+a_{13}\times 0\\
&= a_{11}a_{22} - a_{12}a_{21}\\
&= 
 \begin{vmatrix}
 a_{11} & a_{12} \\
 a_{21} & a_{22} \\
\end{vmatrix}.
\end{align*}

Et la linéarité par rapport à la troisième ligne

$(a_{11}, a_{12}, a_{13}, a_{21}, a_{22}, a_{23}, a_{31}, a_{32}, a_{33})\in\A^9.$

Vous utilisez la linéarité du déterminant par rapport à sa troisième ligne :

\begin{align*}
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
a_{31} & a_{32} & a_{33}\\
\end{vmatrix} 
&= 
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
a_{31} & 0 & 0\\
\end{vmatrix} +
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
0 & a_{32} & 0\\
\end{vmatrix} 
+
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
0 & 0 & a_{33}\\
\end{vmatrix} 
\\
&=
a_{31}\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
1 & 0 & 0\\
\end{vmatrix} +
a_{32}
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
0 & 1 & 0\\
\end{vmatrix} 
+
a_{33}
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
0 & 0 & 1\\
\end{vmatrix} 
\\
&=a_{31} \begin{vmatrix}
 a_{12} & a_{13} \\
 a_{22} & a_{23} \\
\end{vmatrix}
-a_{32}
 \begin{vmatrix}
 a_{11} & a_{13} \\
 a_{21} & a_{23} \\
\end{vmatrix}
+a_{33}
\begin{vmatrix}
 a_{11} & a_{12} \\
 a_{21} & a_{22} \\
\end{vmatrix}.
\end{align*}

Démontrez que le déterminant d’ordre $3$ est alterné sur les lignes

Cas où les lignes $2$ et $3$ sont identiques

Soit $(a_{11}, a_{12}, a_{13}, a_{21}, a_{22}, a_{23})\in\A^6.$

Le développement par rapport à la première ligne et le caractère alterné des déterminants d’ordre $2$ permet de conclure.

En effet :

\begin{align*}
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
a_{21} & a_{22} & a_{23}\\
\end{vmatrix}
&=
a_{11}
\begin{vmatrix}
 a_{22} & a_{23}\\
 a_{22} & a_{23}\\
\end{vmatrix} 
-a_{12} 
\begin{vmatrix}
 a_{21} & a_{23}\\
 a_{21} & a_{23}\\
\end{vmatrix} 
+a_{13} 
\begin{vmatrix}
 a_{21} & a_{22}\\
 a_{21} & a_{22}\\
\end{vmatrix}
\\
&= a_{11}\times 0+a_{12}\times 0+a_{13}\times 0\\
&=0.
\end{align*}

Cas où les lignes $1$ et $3$ sont identiques

Dans ce cas, le développement par rapport à la première ligne ne permet plus de conclure en utilisant le même argument, parce que les déterminants d’ordre $2$ obtenus ne possèdent plus 2 lignes identiques.

Il a été démontré ci-dessus que le déterminant le développe par rapport à sa deuxième ligne, ce qui permet alors de conclure.

Soit $(a_{11}, a_{12}, a_{13}, a_{21}, a_{22}, a_{23})\in\A^6.$ Vous avez des déterminants d’ordre $2$ dont les lignes sont toutes identiques :

\begin{align*}
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
a_{11} & a_{12} & a_{13}\\
\end{vmatrix} 
&=
-a_{21} \begin{vmatrix}
 a_{12} & a_{13} \\
 a_{12} & a_{13} \\
\end{vmatrix}
+a_{22}
 \begin{vmatrix}
 a_{11} & a_{13} \\
 a_{11} & a_{13} \\
\end{vmatrix}
-a_{23}
\begin{vmatrix}
 a_{11} & a_{12} \\
 a_{11} & a_{12} \\
\end{vmatrix}
\\
&=
-a_{21}\times 0 + a_{22}\times 0 - a_{23}\times 0\\
&=0.
\end{align*}

Cas où les lignes $1$ et $2$ sont identiques

Vous développez le déterminant par rapport à sa troisième ligne.

Soit $(a_{11}, a_{12}, a_{13}, a_{31}, a_{32}, a_{33})\in\A^6.$ Vous avez :

\begin{align*}
\begin{vmatrix}
a_{11} & a_{12} & a_{13}\\
a_{11} & a_{12} & a_{13}\\
a_{31} & a_{32} & a_{33}\\
\end{vmatrix} 
&=a_{31} \begin{vmatrix}
 a_{12} & a_{13} \\
 a_{12} & a_{13} \\
\end{vmatrix}
-a_{32}
 \begin{vmatrix}
 a_{11} & a_{13} \\
 a_{11} & a_{13} \\
\end{vmatrix}
+a_{33}
\begin{vmatrix}
 a_{11} & a_{12} \\
 a_{11} & a_{12} \\
\end{vmatrix}
\\
&=a_{31}\times 0 - a_{32}\times 0 + a_{33}\times 0\\
&=0.
\end{align*}

Démontrez que le déterminant d’ordre $3$ vaut $1$ sur l’identité

Le développement du déterminant d’ordre $3$ par rapport à la première ligne fait apparaître le déterminant d’ordre $2$ sur l’identité qui vaut $1.$ Précisément :

\begin{align*}
\begin{vmatrix}
1 & 0 & 0\\
0 & 1 & 0\\
0 & 0 & 1\\
\end{vmatrix} 
&=1 \begin{vmatrix}
 1 & 0 \\
0  & 1 \\
\end{vmatrix}
-0
 \begin{vmatrix}
 0 & 0 \\
 0 & 1 \\
\end{vmatrix}
+0
\begin{vmatrix}
 0 & 1 \\
 0 & 0 \\
\end{vmatrix}
\\
&= \begin{vmatrix}
 1 & 0 \\
0  & 1 \\
\end{vmatrix}
\\
&=1.
\end{align*}

Concluez

Le déterminant d’ordre $3$ est une forme $3$-linéaire alternée sur les lignes, qui vaut $1$ sur l’identité. De plus, il se développe par rapport à n’importe laquelle de ses lignes.

Prolongement

Vous souhaitez savoir comment les déterminants d’ordre $3$ permettent de construire les déterminants d’ordre $4$ ? Allez lire le contenu dans l'article 384.

382. La théorie des déterminants d’ordre 1 à 4 (partie 1/3)

Le but de cette série de trois articles est de démontrer que l’on peut définir de façon récursive le déterminant par son développement selon la première ligne en utilisant des déterminants d’ordre inférieur, tout en établissant ses propriétés fondamentales.

Vous démontrerez ainsi qu’un déterminant d’ordre $n$, pour $n$ compris entre $1$ et $4$ est une forme $n$-linéaire alternée sur les lignes, qui prend la valeur $1$ sur l’identité. Vous démontrerez aussi que de tels déterminants se développent par rapport à n’importe laquelle de leur ligne.

Dans toute la suite, vous supposez que les déterminants considérés prennent leurs valeurs dans un anneau commutatif unitaire noté $\A.$

Les déterminants d’ordre 1

Pour tout $a\in\A$ vous posez :

\begin{vmatrix}
a
\end{vmatrix} = a.

Cette application définit bien une forme $1$-linéaire sur sa ligne et qui prend la valeur $1$ sur l’identité.

Les déterminants d’ordre 2

Suivant la définition récursive, vous posez :

\forall (a_{11},a_{12},a_{21},a_{22})\in\A^4, \quad
\begin{vmatrix}
a_{11} & a_{12}\\
a_{21} & a_{22}
\end{vmatrix} = a_{11} \begin{vmatrix}
a_{22}
\end{vmatrix} -a_{12}\begin{vmatrix}
a_{21}
\end{vmatrix}.

Compte tenu de la définition du déterminant d’ordre $1$ vous avez :

\forall (a_{11},a_{12},a_{21},a_{22})\in\A^4, \quad
\begin{vmatrix}
a_{11} & a_{12}\\
a_{21} & a_{22}
\end{vmatrix} = a_{11}a_{22}-a_{12}a_{21}.

Note. Remarquez que :

\forall (a_{11},a_{12},a_{21},a_{22})\in\A^4, \quad-a_{21}  \begin{vmatrix}
a_{12}
\end{vmatrix} +a_{22}\begin{vmatrix}
a_{11}
\end{vmatrix} = a_{11}a_{22}-a_{12}a_{21} = \begin{vmatrix}
a_{11} & a_{12}\\
a_{21} & a_{22}
\end{vmatrix}.

Le déterminant d’ordre $2$ peut être développé par rapport à sa seconde ligne.

Montrez que vous avez défini une forme $2$-linéaire sur les lignes

Pour la première ligne

Soit $(a_{11},a_{12},a_{21},a_{22}, b_{11}, b_{12}, \lambda )\in\A^7.$

\begin{align*}
\begin{vmatrix}
a_{11} + \lambda b_{11} & a_{12}+\lambda b_{12}\\
a_{21} & a_{22}
\end{vmatrix} &= (a_{11} + \lambda b_{11}) a_{22} - (a_{12}+\lambda b_{12} )a_{21}\\
&=(a_{11}a_{22}-a_{12}a_{21})+\lambda(b_{11}a_{22}-b_{12}a_{21})\\
&= \begin{vmatrix}
a_{11}  & a_{12}\\
a_{21} & a_{22}
\end{vmatrix}
+\lambda \begin{vmatrix}
 b_{11} &  b_{12}\\
a_{21} & a_{22}
\end{vmatrix}.
\end{align*}

La linéarité par rapport à la première ligne est démontrée.

Pour la deuxième ligne

Soit $(a_{11},a_{12},a_{21},a_{22}, b_{21}, b_{22}, \lambda) \in\A^7.$

\begin{align*}
\begin{vmatrix}
a_{11}  & a_{12}\\
a_{21} + \lambda b_{21} & a_{22} + \lambda b_{22}
\end{vmatrix} &= a_{11} ( a_{22} + \lambda b_{22}) - a_{12} (a_{21} + \lambda b_{21})\\
&=(a_{11}a_{22}-a_{12}a_{21})+\lambda(a_{11}b_{22}-a_{12}b_{21})\\
&= \begin{vmatrix}
a_{11}  & a_{12}\\
a_{21} & a_{22}
\end{vmatrix}
+\lambda \begin{vmatrix}
 a_{11} &  a_{12}\\
b_{21} & b_{22}
\end{vmatrix}.
\end{align*}

La linéarité par rapport à la deuxième ligne est démontrée.

Montrez que vous avez défini une forme alternée sur les lignes

Il est rappelé qu’une forme est dite alternée sur les lignes, si et seulement si, elle vaut $0$ dès que deux lignes sont identiques.

Soit $(a,b) \in\A^2.$ Comme l’anneau $\A$ est commutatif, vous avez :

\begin{vmatrix}
a & b\\
a & b
\end{vmatrix} = ab-ba = 0.

Montrez que vous avez défini une forme alternée qui vaut $1$ sur l’identité

Vous effectuez le calcul directement :

\begin{vmatrix}
1 & 0\\
0 & 1
\end{vmatrix} = 1\times 1 - 0\times 0 = 1.

Concluez

Le déterminant d’ordre $2$ est une application $2$-linéaire alternée sur ses lignes, prenant la valeur $1$ sur l’identité. De plus, il se développe par rapport à n’importe laquelle de ses lignes.

Prolongement

Vous souhaitez voir comment cela se poursuit à l’ordre $3$ ? Allez lire le contenu rédigé dans l'article 383.

381. Une formule due à Machin avec la fraction 1/239

Le but de cet article est de démontrer, en utilisant les nombres complexes, que :

\frac{\pi}{4} = 4\arctan \frac{1}{5}-\arctan\frac{1}{239}.

Cette formule est attribuée à Machin.

Introduisez deux nombres complexes

Vous posez :

\left\{\begin{align*}
a &= 5+i\\
b&= 239+i.
\end{align*} 
\right.

Mettez $a$ sous forme trigonométrique

Tour d’abord :

\begin{align*}
\vert a \vert^2 &= 5^2+1^2\\
&=25+1\\
&=26.
\end{align*}

Ainsi vous avez :

a= \sqrt{26}\left(\frac{5}{\sqrt{26}}+i\frac{1}{\sqrt{26}}\right).

D’autre part, comme $\left(\frac{5}{\sqrt{26}}\right)^2+\left(\frac{1}{\sqrt{26}}\right)^2 = \frac{1}{26}+\frac{5}{26}=1$ vous déduisez qu’il existe un unique $\alpha\in]-\pi, \pi]$ tel que :

\left\{\begin{align*}
\cos \alpha &= \frac{5}{\sqrt{26}}\\
\sin \alpha &= \frac{1}{\sqrt{26}}.
\end{align*}\right.

De cette égalité vous déduisez :

\boxed{a = \sqrt{26}\,\e^{i\alpha}.}

Comme le sinus et le cosinus du nombre réel $\alpha$ sont strictement positifs, vous avez même $\alpha\in]0, \pi/2[.$

En calculant la tangente de $\alpha$ vous obtenez:

\begin{align*}
\tan \alpha &= \frac{\sin \alpha}{\cos \alpha}\\
&= \frac{\frac{1}{\sqrt{26}}}{\frac{5}{\sqrt{26}}}\\
&= \frac{1}{\sqrt{26}} \times \frac{\sqrt{26}}{5}\\
&= \frac{1}{5}.
\end{align*}

Comme $\alpha \in ]-\pi/2, \pi/2[$ vous déduisez:

\boxed{\alpha = \arctan \frac{1}{5}.}

Mettez $b$ sous forme trigonométrique

De même, vous trouvez que:

\begin{align*}
\vert b \vert^2 &= 239^2+1^2\\
&=57121+1\\
&=57122\\
&=2\times 28561\\
&= 2\times 169^2.
\end{align*}

En posant $\boxed{\beta = \arctan \frac{1}{239}}$, vous trouvez que la forme trigonométrique de $b$ est:

\boxed{b = 169\sqrt{2}\,\e^{i\beta}.}

Déterminez la forme trigonométrique d’un quotient

Le nombre $4\arctan \frac{1}{5}-\arctan\frac{1}{239} = 4\alpha – \beta$ n’est autre que l’argument du nombre complexe $\frac{a^4}{b}$ dont vous trouvez la forme trigonométrique:

\begin{align*}
\frac{a^4}{b} & = \frac{(\sqrt{26}\,\e^{i\alpha})^4}{169\sqrt{2}\,\e^{i\beta}}\\
&=\frac{26^2\,\e^{i4\alpha}}{169\sqrt{2}\,\e^{i\beta}}\\
&=\frac{676 }{169\sqrt{2} }\,\e^{i(4\alpha-\beta)}\\
&=\frac{4\times 169 }{169\sqrt{2} }\,\e^{i(4\alpha-\beta)}\\
&=\frac{4}{\sqrt{2} }\,\e^{i(4\alpha-\beta)}\\
&=\frac{4\sqrt{2}}{(\sqrt{2})^2 }\,\e^{i(4\alpha-\beta)}\\
&=2 \sqrt{2}\,\e^{i(4\alpha-\beta)}.
\end{align*}

Déterminez la forme algébrique du même quotient

Partant de $a = 5+i$ vous avez tout d’abord:

\begin{align*}
a^2 &= 25-1+10i\\
&= 24+10i.
\end{align*} 

Ensuite:

\begin{align*}
a^4 &= (a^2)^2\\
&= (24+10i)^2\\
&= 576-100+480i\\
&= 476+480i.
\end{align*}

Ainsi:

\begin{align*}
\frac{a^4}{b} &= \frac{476+480i}{239+i}\\
&= \frac{(476+480i)(239-i)}{239^2+1^2}\\
&=\frac{4(119+120i)(239-i)}{57122}\\
&=\frac{4\left[(119\times 239+120)+i(-119+120\times 239)\right]}{2\times 28561}\\
&=\frac{4(28561+28561i)}{2\times 28561}\\
&=\frac{4\times 28561(1+i)}{2\times 28561}\\
&=2(1+i)\\
&=2\sqrt{2} \, \e^{i\pi/4}.
\end{align*}

Note. Il peut sembler surprenant que les nombres $119\times 239+120$ et $-119+120\times 239$ soient égaux. Cela peut être remarqué de la façon suivante :

\begin{align*}
-119+120\times 239 &= -119+(119+1)\times 239\\
 &= -119+239 + 119\times 239\\
&= 120 + 119\times 239.
\end{align*}

Note. Pour voir que $119\times 239+120 =28561$ on peut écrire ce qui suit :

\begin{align*}
119\times 239+120 &= 119\times 239+119 + 1\\
&= 119\times 240 + 1\\
&= (120-1)\times 240 + 1\\
&= 120\times 240 -  240 + 1\\
&= 120\times 120\times 2 -  240 + 1\\
&= 14400\times 2 -  240 + 1\\
&= 28800-  240 + 1\\
&= 28560 + 1\\
&= 28561.
\end{align*}

Concluez

Vous avez établi ce qui suit :

\frac{a^4}{b} = 2\sqrt{2} \, \e^{i\pi/4} = 2 \sqrt{2}\,\e^{i(4\alpha-\beta)}.

Donc il existe un entier relatif $k\in \Z$ tel que :

\frac{\pi}{4} = 4\alpha-\beta+2k\pi.

Pour montrer que $k = 0$ vous allez montrer que $4\alpha – \beta$ appartient à l’intervalle $[0, 2\pi/3].$

D’une part :

4\alpha -\beta = 3\alpha+(\alpha-\beta).

Comme $1/5$ est positif, $\alpha = \arctan \frac{1}{5}$ est positif aussi.

Il convient de constater aussi que $\frac{1}{5}\geq \frac{1}{239}.$ En appliquant la croissance de la fonction arctangente sur $\R$ vous déduisez que $\alpha \geq \beta.$ Donc $\alpha-\beta$ est positif.

Par somme, le réel $4\alpha-\beta$ est positif.

D’autre part, $\tan \frac{\pi}{6} = \frac{\sqrt{3}}{3}$ avec $\pi/6$ appartenant à l’intervalle $]-\pi/2, \pi/2[$ si bien que $\frac{\pi}{6} = \arctan \frac{\sqrt{3}}{3}.$

Or:

\begin{align*}
75\geq 9\\
25\times 3\geq 9\\
5\sqrt{3}\geq 3\\
\frac{\sqrt{3}}{3}\geq\frac{1}{5}.
\end{align*}

En appliquant la croissance de la fonction arctangente sur $\R$ vous déduisez que $\frac{\pi}{6}\geq \alpha.$

Donc $4\alpha \leq \frac{2\pi}{3}.$ Comme $\beta$ est positif:

4\alpha-\beta\leq 4\alpha\leq \frac{2\pi}{3}.

Ainsi:

4\alpha-\beta \in \left[0, \frac{2\pi}{3}\right].

Or, vous avez aussi :

\frac{\pi}{4} \in \left[0, \frac{2\pi}{3}\right].

Du coup :

\begin{align*}
\left\vert \frac{\pi}{4}-(4\alpha-\beta) \right\vert \leq \frac{2\pi}{3}\\
2\vert k \vert \pi \leq \frac{2\pi}{3}\\
\vert k \vert \leq \frac{1}{3}.
\end{align*}

Comme $k$ est un nombre entier, vous avez $k=0$ et donc $\frac{\pi}{4} = 4\alpha-\beta.$

La formule de Machin est ainsi établie :

\boxed{\frac{\pi}{4} = 4\arctan \frac{1}{5}-\arctan\frac{1}{239}.}

Prolongements

Pourriez-vous démontrer la formule de Machin précitée en utilisant les formules d’addition de la fonction tangente ?

Vous souhaitez voir une autre formule attribuée à Machin qui se base sur cette technique ? Rendez-vous dans le contenu rédigé dans l'article 035.

380. Calculez le cosinus de l’angle triple avec les nombres complexes

Soit $\theta$ un nombre réel, vous souhaitez calculer $\cos 3\theta$ en fonction de $\cos \theta.$

Utilisez l’exponentielle complexe

Soit $a$ un nombre complexe.

D’une part :

\e^{ia} = \cos a+ i\sin a.

D’autre part :

\e^{-ia}=\cos a-i\sin a.

Par somme, il vient :

\e^{ia}+\e^{-ia} = 2 \cos a.

Ainsi :

\boxed{\forall a\in\C, \e^{ia}+\e^{-ia} = 2 \cos a.}

Mettez au cube

En prenant $a=\theta$ vous déduisez :

\e^{i\theta}+\e^{-i\theta} =2\cos \theta.

L’égalité précédente est élevée au cube :

(\e^{i\theta}+\e^{-i\theta})^3 = 8\cos^3 \theta.

Vous utilisez la formule du binôme, à savoir :

\forall (u,v)\in\C^2, (u+v)^3=u^3+3u^2 v+3u v^2+v^3.

Avec $u= \e^{i\theta}$ et $v = \e^{-i\theta}$ vous obtenez :

\begin{align*}
8\cos^3 \theta &= (\e^{i\theta})^3+3(\e^{i\theta})^2\e^{-i\theta}+3\e^{i\theta}(\e^{-i\theta})^2+(\e^{-i\theta})^3\\
&=\e^{i\ 3\theta}+3\e^{i\ 2\theta}\e^{-i\theta}+3\e^{i\theta} \e^{-i\ 2\theta}+\e^{-i\ 3\theta}\\
&=\e^{i\ 3\theta}+3\e^{i\theta}+3\e^{-i\theta} +\e^{-i\ 3\theta}.
\end{align*} 

Or, en prenant $a = 3\theta$ vous avez :

\e^{i\ 3\theta}+\e^{-i\ 3\theta} =2\cos 3\theta.

Du coup :

\begin{align*}
8\cos^3 \theta &= 2\cos 3\theta + 3(\e^{i\theta}+\e^{-i\theta})\\
&= 2\cos 3\theta + 6 \cos \theta.
\end{align*} 

En divisant par $2$ vous avez :

4\cos^3 \theta = \cos 3\theta + 3\cos \theta.

Concluez

Il a été démontré que :

\boxed{\forall \theta\in\R, \cos 3\theta = 4\cos^3\theta-3\cos\theta.}

379. Déterminez si une matrice est inversible ou non inversible avec des opérations élémentaires sur ses lignes

Dans tout ce contenu, les matrices considérées auront des coefficients appartenant à un corps $\K.$

L’objectif est d’expliciter le comportement des matrices inversibles et non inversibles avec des opérations élémentaires sur les lignes uniquement. Il est ainsi possible de déterminer si une matrice est inversible ou non, sans faire appel explicitement à la notion de rang.

Rappelez vous de la définition d’une matrice inversible

Soit $n$ un entier naturel non nul.

Une matrice carrée $A$ d’ordre $n$ est dite inversible, si et seulement si, il existe une matrice carrée $B$ d’ordre $n$ telle que $AB=BA=I_n$ où $I_n$ désigne la matrice identité d’ordre $n.$

Utilisez une récurrence

Pour tout entier naturel $n$ non nul, vous notez $\mathscr{P}(n)$ la propriété suivante : « Si une matrice $A$ d’ordre $n$ est inversible, alors il existe un nombre fini d’opérations élémentaires sur les lignes de $A$ permettant d’arriver à la matrice identité $I_n$. Si une matrice $A$ d’ordre $n$ n’est pas inversible, alors il existe un nombre fini d’opérations élémentaires sur les lignes de $A$ permettant d’arriver à une matrice possédant au moins une ligne entièrement nulle. »

Initialisation

Pour $n=1.$ Soit $A$ une matrice d’ordre $1$ qui soit inversible.

Il existe un coefficient $a\in\K$ tel que $A = (a).$ Puisque $A$ est inversible, il existe une matrice $B$ telle que $AB=BA=(1).$

D’autre part, il existe $b\in\K$ tel que $B = (b).$ Le produit matriciel $AB$ est égal à $(ab)$ et donc $ab=1.$ Donc $a$ ne peut être nul.

En effectuant l’opération élémentaire $L_1\leftarrow \frac{1}{a}L_1$ à partir de la matrice $A$, vous tombez sur la matrice identité $I_1.$

Soit maintenant $A$ une matrice d’ordre $1$ qui ne soit pas inversible. Il existe un coefficient $a\in\K$ tel que $A = (a).$ Si $a$ est non nul, vous posez $B = (1/a)$ de sorte que $AB=BA=I_1$ donc $A$ est inversible ce qui est absurde. Donc $a=0.$ L’opération élémentaire $L_1\leftarrow L_1$ effectuée à partir de la matrice $A$ fournit la matrice $(0)$ dont la ligne $1$ est entièrement nulle.

Vous en déduisez que $\mathscr{P}(1)$ est vérifiée.

Hérédité

Soit $n$ un entier naturel non nul tel que $\mathscr{P(n)}$ soit vraie.

Cas où la matrice de départ est inversible

Soit $A_{n+1}$ une matrice carrée d’ordre $n+1$ qui soit inversible. Supposez que la première colonne de cette matrice soit entièrement nulle. Alors, pour toute matrice $M$ carrée d’ordre $n+1$, le produit $MA_{n+1}$ est une matrice dont la première colonne est encore entièrement nulle. Donc $MA_{n+1}$ ne peut être égal à la matrice identité $I_{n+1}$ donc $A_{n+1}$ n’est pas inversible, ce qui est absurde.

Donc il existe un coefficient de la première colonne de $A_{n+1}$ qui est non nul. En notant $r$ son numéro de ligne et en notant $a$ ce coefficient, vous effectuez l’opération élémentaire $L_1 \leftrightarrow L_r$ à partir de la matrice $A$, suivie de $L_1\leftarrow \frac{1}{a}L_1.$ La matrice obtenue possède un $1$ en haut à gauche :

A_{n+1}\xrightarrow[L_1 \leftrightarrow L_r]{} 

\begin{pmatrix}
a & \ast & \cdots & \ast \\
\ast  &\ast & \cdots & \ast \\ 
\vdots & \vdots &  \cdots  &\vdots\\
\ast  &\ast & \cdots & \ast
\end{pmatrix}

 \xrightarrow[L_1\leftarrow \frac{1}{a}L_1]{}
\begin{pmatrix}
1 & \ast & \cdots & \ast \\
\ast  &\ast & \cdots & \ast \\ 
\vdots & \vdots &  \cdots  &\vdots\\
\ast  &\ast & \cdots & \ast
\end{pmatrix} = A^{(2)}_{n+1}.

Vous notez maintenant $a’_{1}, \dots, b’_{n}$ les coefficients se trouvant dans la première colonne de la matrice obtenue $A^{(2)}_{n+1}.$

A^{(2)}_{n+1}
=
\begin{pmatrix}
1 & \ast & \cdots & \ast \\
a'_1  &\ast & \cdots & \ast \\ 
\vdots & \vdots &  \cdots  &\vdots\\
a'_n  &\ast & \cdots & \ast
\end{pmatrix}.

Vous effectuez maintenant les $n$ opérations élémentaires suivantes sur la matrice $A^{(2)}_{n+1}$, à savoir $L_2 \leftarrow L_2-a’_1L_1, \dots, L_{n+1} \leftarrow L_{n+1}-a’_nL_1.$

La matrice obtenue est celle-ci, elle est carrée d’ordre $n+1$, comme suit :

\begin{pmatrix}
1 & \ast & \cdots & \ast \\
0  &\ast & \cdots & \ast \\ 
\vdots & \vdots &  \cdots  &\vdots\\
0  &\ast & \cdots & \ast
\end{pmatrix} = A^{(n+2)}_{n+1}.

En rayant la première ligne et la première colonne de cette matrice, vous obtenez une matrice $B^{(n+2)}_{n}$ carrée d’ordre $n.$ Si vous écrivez la matrice $A^{(n+2)}_{n+1}$ par blocs, cela fournit :

 A^{(n+2)}_{n+1} = \begin{pmatrix}
1 & \boldsymbol{\ast}  \\
\mathbf{0}  & B^{(n+2)}_n 
\end{pmatrix}.

Raisonnez maintenant par l’absurde. Si la matrice $B^{(n+2)}_n$ n’est pas inversible, par hypothèse de récurrence, il existe une suite finie de $m$ opérations élémentaires amenant la matrice $B^{(n+2)}_n$ a être transformée en une matrice $C^{(n+2+m)}_n$ qui possède au moins une ligne entièrement nulle.

Pour chaque opération élémentaire effectuée sur les lignes de $B^{(n+2)}_n$ vous effectuez simultanément une autre opération élémentaire sur les lignes de $A^{(n+2)}_{n+1}$, c’est-à-dire :

  • si l’opération élémentaire effectuée sur $B^{(n+2)}_n$ est $L_i\leftrightarrow L_j$ vous effectuez l’opération élémentaire $L_{i+1}\leftrightarrow L_{j+1}$ sur la matrice $A^{(n+2)}_{n+1};$
  • si l’opération élémentaire effectuée sur $B^{(n+2)}_n$ est $L_i\leftarrow k L_i$ avec $k\in\K^{*}$ vous effectuez l’opération élémentaire $L_{i+1}\leftrightarrow k L_{i+1}$ sur la matrice $A^{(n+2)}_{n+1};$
  • si l’opération élémentaire effectuée sur $B^{(n+2)}_n$ est $L_i\leftarrow L_i + k L_j$ avec $i\neq j$ et $k\in\K$ vous effectuez l’opération élémentaire $L_{i+1}\leftrightarrow L_{i+1}+k L_{j+1}$ sur la matrice $A^{(n+2)}_{n+1}.$

Comme la colonne $1$ de la matrice $A^{(n+2)}_{n+1}$ ne possède que des zéros de la ligne $2$ à la ligne $n+1$ les $m$ opérations élémentaires effectuées sur la matrice $A^{(n+2)}_{n+1}$ vont la transformer en la matrice suivante dont la représentation par blocs est :

 A^{(n+2+m)}_{n+1} = \begin{pmatrix}
1 & \boldsymbol{\ast}  \\
\mathbf{0}  & C^{(n+2+m)}_n 
\end{pmatrix}.

Comme la matrice $C^{(n+2+m)}_n$ possède au moins une ligne entièrement nulle, il en est de même pour la matrice $A^{(n+2+m)}_{n+1}.$

Notez $s$ le numéro de la première ligne de la matrice $A^{(n+2+m)}_{n+1}$ qui est entièrement nulle.

Pour toute matrice carrée $M$ d’ordre $n+1$ le produit $A^{(n+2+m)}_{n+1} M$ aura la ligne numéro $s$ entièrement nulle aussi. Donc il n’existe aucune matrice $M$ d’ordre $n+1$ telle que le produit $A^{(n+2+m)}_{n+1} M$ soit égal à la matrice identité $I_{n+1}.$ Donc $A^{(n+2+m)}_{n+1}$ n’est pas inversible.

Or, il existe $n+2+m$ matrices élémentaires $E_1, \dots, E_{n+2+m}$ de permutation, transvection ou dilatation telles que :

E_{n+2+m}\cdots E_1A_{n+1} = A^{(n+2+m)}_{n+1}.

Or, pour tout $i\in\llbracket 1, n+2+m\rrbracket$ les matrices $E_i$ sont toutes inversibles : pour tout $i\in\llbracket 1, n+2+m\rrbracket$ il existe une matrice $E_i^{-1}$ telle que $E_i E_i^{-1} = E_i^{-1}E_i = I_{n+1}.$

Comme $A_{n+1}$ est inversible, il existe une matrice $B$ telle que $A_{n+1}B = BA_{n+1} = I_{n+1}.$ Posez $C = BE_1^{-1}\cdots E_{n+2+m}^{-1}.$

Alors :

\begin{align*}
A^{(n+2+m)}_{n+1}C &= (E_{n+2+m}\cdots E_1A_{n+1} )(BE_1^{-1}\cdots E_{n+2+m}^{-1}) \\
&=   E_{n+2+m}\cdots E_1(A_{n+1} B ) E_1^{-1}\cdots E_{n+2+m}^{-1}\\
&= E_{n+2+m}\cdots E_1 E_1^{-1}\cdots E_{n+2+m}^{-1}\\
&= I_{n+1}.
\end{align*} 
\begin{align*}
CA^{(n+2+m)}_{n+1} &= (BE_1^{-1}\cdots E_{n+2+m}^{-1})  (E_{n+2+m}\cdots E_1A_{n+1} )\\
&=  BA_{n+1} \\
&= I_{n+1}.
\end{align*} 

Du coup la matrice $A^{(n+2+m)}_{n+1}$ est inversible, contradiction.

Il en résulte que la matrice $B^{(n+2)}_n$ est inversible. Par hypothèse de récurrence, il existe une suite finie de $p$ opérations élémentaires amenant la matrice $B^{(n+2)}_n$ a être transformée en la matrice identité $I_n.$ Comme précédemment, à chaque opération élémentaire effectuée à partir de la matrice $B^{(n+2)}_n$ vous effectuez une opération élémentaire à partir de la matrice $A^{(n+2)}_{n+1}.$ Vous aboutissez à la matrice suivante, par blocs :

 A^{(n+2+p)}_{n+1} = \begin{pmatrix}
1 & \boldsymbol{\ast}  \\
\mathbf{0}  & I_n 
\end{pmatrix}.

Notez alors $d_1,\dots, d_n$ les coefficients supplémentaires de la première ligne de cette matrice :

\begin{pmatrix}
1 & d_1& \cdots & d_n \\
0  &1 & \cdots & 0 \\ 
\vdots & \vdots &  \cdots  &\vdots\\
0  &0 & \cdots & 1
\end{pmatrix} = A^{(n+2+p)}_{n+1}.

Vous effectuez alors les $n$ opérations élémentaires $L_1\leftarrow L_1-d_1L_2, \dots, L_1\leftarrow L_1-d_nL_{n+1}$ et vous arrivez à la matrice identité $I_{n+1}.$

Cas où la matrice de départ n’est pas inversible

Soit $A_{n+1}$ une matrice carrée d’ordre $n+1$ qui soit non inversible.

Premier cas. La première colonne de cette matrice est entièrement nulle. Ecrivant cette matrice par blocs, il existe une matrice carrée $B_n$ telle que :

A_{n+1} = \begin{pmatrix}
0 & \boldsymbol{\ast}  \\
\mathbf{0}  &B_n
\end{pmatrix}.

Si $B_n$ n’est pas inversible, il existe une suite finie de $m$ opérations élémentaires qui transforment la matrice $B_n$ en une matrice $B^{(m)}_n$ qui possède une ligne entièrement nulle. Effectuant les opérations élémentaires transposées sur la matrice $A_{n+1}$, vous arrivez en $m$ opérations élémentaires à transformer la matrice $A_{n+1}$ en la matrice $A^{(m)}_{n+1}$ suivante :

A^{(m)}_{n+1} = \begin{pmatrix}
0 & \boldsymbol{\ast}  \\
\mathbf{0}  &B^{(m)}_n
\end{pmatrix}.

Comme $B^{(m)}_n$ possède une ligne entièrement nulle, il en est de même de $A^{(m)}_{n+1}.$

Si $B_n$ est inversible, il existe une suite finie de $p$ opérations élémentaires qui transforment la matrice $B_n$ en la matrice identité $I_n.$ Du coup, en $p$ opérations élémentaires, la matrice $A_{n+1}$ est transformée en la matrice $A^{(p)}_{n+1}$ suivante :

A^{(p)}_{n+1} = \begin{pmatrix}
0 & \boldsymbol{\ast}  \\
\mathbf{0}  &I_n
\end{pmatrix}.

Notez alors $d_1,\dots, d_n$ les coefficients supplémentaires de la première ligne de cette matrice :

A^{(p)}_{n+1} = \begin{pmatrix}
0 & d_1& \cdots & d_n \\
0  &1 & \cdots & 0 \\ 
\vdots & \vdots &  \cdots  &\vdots\\
0  &0 & \cdots & 1
\end{pmatrix} .

Vous effectuez alors les $n$ opérations élémentaires $L_1\leftarrow L_1-d_1L_2, \dots, L_1\leftarrow L_1-d_nL_{n+1}$ et vous arrivez à la matrice suivante :

A^{(p+n)}_{n+1} = \begin{pmatrix}
0 & 0& \cdots & 0 \\
0  &1 & \cdots & 0 \\ 
\vdots & \vdots &  \cdots  &\vdots\\
0  &0 & \cdots & 1
\end{pmatrix}.

Vous arrivez bien à une matrice possédant une ligne entièrement nulle.

Second cas. La première colonne de la matrice $A_{n+1}$ possède un coefficient non nul noté $u$ situé à la ligne numéro $r.$

Vous effectuez les deux opérations élémentaires suivantes $L_1\leftrightarrow L_r$ puis $L_1 \leftarrow \frac{1}{u} L_1.$ La matrice obtenue est :

A^{(2)}_{n+1} =  \begin{pmatrix}
1 & \ast & \cdots & \ast  \\
\ast   &\ast  & \cdots & \ast  \\ 
\vdots & \vdots &  \cdots  &\vdots\\
\ast   &\ast  & \cdots & \ast 
\end{pmatrix}.

Vous notez $v_1,\dots,v_n$ les coefficients de la première colonne de cette matrice, en surplus du premier coefficient $1$ de la ligne $1.$

A^{(2)}_{n+1} =  \begin{pmatrix}
1 & \ast & \cdots & \ast  \\
v_1   &\ast  & \cdots & \ast  \\ 
\vdots & \vdots &  \cdots  &\vdots\\
v_n   &\ast  & \cdots & \ast 
\end{pmatrix}.

Vous effectuez alors $n$ opérations élémentaires $L_2\leftarrow L_2-v_1L_1, \dots, L_{n+1}\leftarrow L_{n+1}-v_nL_1$ ce qui fournit la matrice suivante :

A^{(2+n)}_{n+1} =  \begin{pmatrix}
1 & \ast & \cdots & \ast  \\
0   &\ast  & \cdots & \ast  \\ 
\vdots & \vdots &  \cdots  &\vdots\\
0   &\ast  & \cdots & \ast 
\end{pmatrix}.

Vous rayez la première ligne et la première colonne de $A^{(2+n)}_{n+1}$ et notez $B^{(2+n)}_n$ la matrice obtenue. En écrivant l’ensemble par blocs, il vient :

A^{(2+n)}_{n+1} =  \begin{pmatrix}
1 &  \boldsymbol{\ast}  \\
\mathbf{0}   & B^{(2+n)}_n 
\end{pmatrix}.

Raisonnez par l’absurde. Si la matrice $B^{(2+n)}_n$ est inversible, il est possible de la transformer en la matrice identité $I_n$ par un nombre fini de $m$ opérations élémentaires sur ses lignes. Il en résulte que, par $m$ opérations élémentaires sur les lignes, la matrice $A^{(2+n)}_{n+1}$ peut être transformée en la matrice suivante :

A^{(2+n+m)}_{n+1} =  \begin{pmatrix}
1 &  \boldsymbol{\ast}  \\
\mathbf{0}   & I_n 
\end{pmatrix}.

Notez alors $d_1,\dots, d_n$ les coefficients supplémentaires de la première ligne de cette matrice :

A^{(2+n+m)}_{n+1} = \begin{pmatrix}
1 & d_1& \cdots & d_n \\
0  &1 & \cdots & 0 \\ 
\vdots & \vdots &  \cdots  &\vdots\\
0  &0 & \cdots & 1
\end{pmatrix}.

Vous effectuez alors les $n$ opérations élémentaires $L_1\leftarrow L_1-d_1L_2, \dots, L_1\leftarrow L_1-d_nL_{n+1}$ et vous arrivez à la matrice identité $I_{n+1}.$

Ainsi, il existe $2+2n+m$ opérations élémentaires qui permettent de transformer la matrice $A_{n+1}$ en la matrice identité. Cela signifie qu’il existe $E_1,\dots,E_{2+2n+m}$ matrices élémentaires de permutation, transvection ou dilatation telles que :

E_{2+2n+m}\cdots E_1 A_{n+1}= I_{n+1}.

Or, pour tout $i\in\llbracket 1, 2+2n+m\rrbracket$ les matrices $E_i$ sont toutes inversibles : pour tout $i\in\llbracket 1, 2+2n+m\rrbracket$ il existe une matrice $E_i^{-1}$ telle que $E_i E_i^{-1} = E_i^{-1}E_i = I_{n+1}.$

Par suite, vous déduisez :

A_{n+1} = E_1^{-1}\cdots E_{2+2n+m}^{-1}.

En notant $B = E_{2+2n+m}\cdots E_1$ vous avez $AB = BA = I_{n+1}$ donc $A_{n+1}$ est inversible, ce qui contredit l’hypothèse de départ.

Donc la matrice $B^{(2+n)}_n$ n’est pas inversible. Pour rappel :

A^{(2+n)}_{n+1} =  \begin{pmatrix}
1 &  \boldsymbol{\ast}  \\
\mathbf{0}   & B^{(2+n)}_n 
\end{pmatrix}.

D’après l’hypothèse de récurrence, il existe $p$ opérations élémentaires sur les lignes de $B^{(2+n)}_n$ qui permettent d’obtenir une matrice $B^{(2+n+p)}_n$ qui possède une ligne entièrement nulle.

Partant de la matrice $A^{(2+n)}_{n+1}$ vous déduisez qu’il existe $p$ opérations élémentaires sur ses lignes qui la transforment en une matrice $A^{(2+n+p)}_{n+1}$ telle que :

A^{(2+n+p)}_{n+1} =  \begin{pmatrix}
1 &  \boldsymbol{\ast}  \\
\mathbf{0}   & B^{(2+n+p)}_n 
\end{pmatrix}.

En notant $s$ le premier numéro de ligne correspondant à une ligne nulle de la matrice $B^{(2+n+p)}_n$ il s’ensuit que la ligne numérotée $s+1$ est entièrement nulle pour la matrice $A^{(2+n+p)}_{n+1}.$

Ainsi, $\mathscr{P}(n+1)$ est vraie.

Par récurrence, il a été montré que, pour tout entier naturel $n$ non nul, $\mathscr{P}(n)$ est vraie.

Concluez

Pour tout entier naturel $n$ non nul et pour toute matrice $A$ carrée d’ordre $n$ à coefficients dans un corps $\K$ vous avez ce qui suit :

  • si la matrice $A$ est inversible, alors il existe un nombre fini d’opérations élémentaires sur les lignes de $A$ permettant d’arriver à la matrice identité $I_n;$
  • si la matrice $A$ n’est pas inversible, alors il existe un nombre fini d’opérations élémentaires sur les lignes de $A$ permettant d’arriver à une matrice possédant au moins une ligne entièrement nulle.

Prolongement

Dans les deux propositions précitées, démontrez que les conditions sont nécessaires et suffisantes, ce qui revient à prouver ce qui suit.

Pour tout entier naturel $n$ non nul et pour toute matrice $A$ carrée d’ordre $n$ à coefficients dans un corps $\K$, deux cas exclusifs se présentent :

  • la matrice $A$ est inversible, si et seulement si, il existe un nombre fini d’opérations élémentaires sur les lignes de $A$ permettant d’arriver à la matrice identité $I_n;$
  • la matrice $A$ n’est pas inversible, si et seulement si, il existe un nombre fini d’opérations élémentaires sur les lignes de $A$ permettant d’arriver à une matrice possédant au moins une ligne entièrement nulle.

378. Dans un espace vectoriel normé de dimension finie, toutes les normes sont équivalentes (partie 2/2)

Ce contenu s’inscrit dans la suite du contenu rédigé dans l'article 377. Les mêmes notations y sont reprises.

Il s’agit de démontrer :

  • que la norme $\lVert \quad\rVert$ est plus fine que la norme $\lVert \quad\rVert_1$ puis ;
  • que deux normes quelconques sur $E$ sont équivalentes.

Dans un premier temps, vous cherchez à démontrer que :

\exists R>0, \forall v \in E, \lVert v \rVert_1 \leq R\lVert v \rVert.

Raisonnez par l’absurde

Supposez que la proposition précédente ne soit pas satisfaite. Alors :

\forall R >0, \exists v\in E,  \lVert v \rVert_1 > R\lVert v \rVert.

Pour tout entier naturel $m$ non nul, $m$ est un réel strictement positif. Vous en déduisez que :

\forall m\in\NN, \exists v_m\in E,  \lVert v_m \rVert_1 > m\lVert v_m \rVert.

Cela définit une suite $(v_m)_{m\in\NN}.$

L’objectif étant d’obtenir une majoration par une quantité petite, à savoir $1/m$, vous écrivez que :

\forall m\in\NN, \lVert v_m \rVert <  \frac{1}{m}\lVert v_m \rVert_1.

S’il existait un entier $p\in\NN$ tel que $v_p$ était nul, alors $\lVert v_p \rVert_1$ serait nul, et l’inégalité $\frac{1}{p}\lVert v_p \rVert_1 > \lVert v_p \rVert$ donnerait $0> \lVert v_p \rVert$ ce qui est absurde.

Donc $\boxed{\forall m\in\NN, v_m\neq 0}$ et par suite $\lVert v_m \rVert_1 > 0.$

Pour tout $m\in\NN$ vous divisez l’inégalité $\lVert v_m \rVert < \frac{1}{m}\lVert v_m \rVert_1$ par $\lVert v_m \rVert_1.$ Cela fournit, pour tout $m\in\NN$ :

\begin{align*}
 \frac{1}{\lVert v_m \rVert_1} \lVert v_m \rVert < \frac{1}{m} \\
\left\lVert \frac{1}{\lVert v_m \rVert_1} v_m \right\rVert  < \frac{1}{m}.
\end{align*}

Pour tout $m\in\NN$ vous posez $x_m = \frac{1}{\lVert v_m \rVert_1} v_m.$ Vous avez obtenu ce qui suit :

\boxed{\forall m\in\NN, \lVert  x_m \rVert < \frac{1}{m}.}

Intuitivement, quand $m$ augmente, les normes $\lVert x_m \rVert$ deviennent de plus en plus petites.

Cependant, vous avez aussi, pour la norme 1, et pour tout $n\in\NN$ :

\begin{align*}
 \lVert  x_m \rVert_1 &= \left\lVert  \frac{1}{\lVert v_m \rVert_1} v_m \right\rVert_1 \\
&= \frac{1}{\lVert v_m \rVert_1}  \left\lVert v_m \right\rVert_1\\
&= 1.
\end{align*}

Vous obtenez le fait suivant :

\boxed{\forall m\in\NN, \lVert  x_m \rVert_1 = 1.}

Pour tout entier naturel $m$ non nul, les vecteurs $x_m$ appartiennent à la sphère unité de la norme 1.

Utilisez des suites extraites

Les deux conditions obtenues précédemment vont aboutir à une contradiction parce que $E$ est un espace vectoriel de dimension finie.

Vous allez utiliser la base $(e_1,\cdots, e_n)$ de $E.$

Pour tout entier naturel $m$ non nul, il existe $(\lambda_m^{(1)},\cdots,\lambda_m^{(n)})\in\R^n$ tel que :

\begin{align*}
x_m &= \sum_{i=1}^n \lambda_m^{(i)}e_i\\
\lVert x_m \rVert_1 &= \sum_{i=1}^n \vert \lambda_m^{(i)}\vert.
\end{align*}

Comme $\forall m\in\NN, \lVert x_m \rVert_1 = 1$ vous déduisez que, pour tout $u\in\llbracket 1, n\rrbracket$ et pour tout $m\in\NN, \vert \lambda_m^{(u)}\vert \leq 1.$

Du coup, la suite $\left(\lambda_m^{(1)}\right)_{m\in\NN}$ est réelle et bornée. D’après le théorème de Bolzano-Weierstrass, on peut en extraire une suite convergente. Il existe un réel $\lambda^{(1)}$ et une fonction $\varphi_1$ strictement croissante qui va de $\NN$ dans lui-même telle que :

\lambda_{\varphi_1(m)}^{(1)} \xrightarrow[m\to +\infty]{} \lambda^{(1)}.

Soit maintenant $i\in\llbracket 1, n-1\rrbracket.$ Supposez que vous ayez construit des fonctions strictement croissantes $\varphi_1,\dots,\varphi_i$ de $\NN$ dans lui-même et des réels $\lambda^{(1)}, \dots, \lambda^{(i)}$ tels que :

\forall j\in\llbracket 1, i\rrbracket, \lambda_{(\varphi_1\circ\cdots\circ\varphi_i)(m)}^{(j)} \xrightarrow[m\to +\infty]{} \lambda^{(j)}.

Or, pour tout $u\in\llbracket 1, n\rrbracket$ et pour tout $m\in\NN$ vous avez $\vert \lambda_m^{(u)}\vert \leq 1.$ En particulier, vous avez $\forall m\in\NN, \left\vert \lambda_{(\varphi_1\circ\cdots\circ\varphi_i)(m)}^{(i+1)} \right\vert\leq 1.$

La suite $\left(\lambda_{(\varphi_1\circ\cdots\circ\varphi_i)(m)}^{(i+1)}\right)_{m\in\NN}$ est réelle et bornée, il existe, d’après le théorème de Bolzano-Weierstrass, un réel $\lambda^{(i+1)}$ et une fonction $\varphi_{i+1}$ strictement croissante de $\NN$ dans lui-même, telle que :

\begin{align*}
&\lambda_{(\varphi_1\circ\cdots\circ\varphi_i)(\varphi_{i+1}(m))}^{(i+1)} \xrightarrow[m\to +\infty]{} \lambda^{(i+1)}\\
&\lambda_{(\varphi_1\circ\cdots\circ\varphi_i\circ \varphi_{i+1})(m)}^{(i+1)} \xrightarrow[m\to +\infty]{} \lambda^{(i+1)}.
\end{align*}

Pour tout $j\in\llbracket 1, i\rrbracket$ la suite $\left(\lambda_{(\varphi_1\circ\cdots\circ\varphi_i)(\varphi_{(i+1)}(m))}^{(j)}\right)_{m\in\NN}$ est une suite extraite de la suite $\left(\lambda_{(\varphi_1\circ\cdots\circ\varphi_i)(m)}^{(j)}\right)_{m\in\NN}$ ce qui permet d’écrire que, pour tout $j\in\llbracket 1, i\rrbracket$ :

\begin{align*}
&\lambda_{(\varphi_1\circ\cdots\circ\varphi_i)(\varphi_{i+1}(m))}^{(j)} \xrightarrow[m\to +\infty]{} \lambda^{(j)}\\
&\lambda_{(\varphi_1\circ\cdots\circ\varphi_i\circ \varphi_{i+1})(m)}^{(j)} \xrightarrow[m\to +\infty]{} \lambda^{(j)}.
\end{align*}

Ainsi pour tout $j\in\llbracket 1, i+1\rrbracket$ vous avez :

\lambda_{(\varphi_1\circ\cdots\circ\varphi_i\circ \varphi_{i+1})(m)}^{(j)} \xrightarrow[m\to +\infty]{} \lambda^{(j)}.

Vous avez ainsi montré par récurrence limitée qu’il existe $(\lambda^{(1)}, \dots, \lambda^{(n)})\in\R^n$ et des fonctions $\varphi_1, \dots, \varphi_n$ strictement croissantes de $\NN$ dans lui-même telles que :

\forall j\in\llbracket1, n\rrbracket, \lambda_{(\varphi_1\circ\cdots\circ\varphi_n)(m)}^{(j)} \xrightarrow[m\to +\infty]{} \lambda^{(j)}.

Et maintenant aboutissez à une contradiction

Afin d’alléger les notations, vous posez $\varphi = \varphi_1\circ\cdots\circ\varphi_n.$ Comme composée de fonctions strictement croissantes de $\NN$ dans lui-même, la fonction $\varphi$ est strictement croissante de $\NN$ dans lui-même.

Vous avez établi que :

\forall j\in\llbracket1, n\rrbracket, \lambda_{\varphi(m)}^{(j)} \xrightarrow[m\to +\infty]{} \lambda^{(j)}.

Ainsi, pour tout $m\in\NN$ il vient :

x_{\varphi(m)} = \sum_{i=1}^n \lambda_{\varphi(m)}^{(i)}e_i.

Posez maintenant ce qui suit :

x = \sum_{i=1}^n \lambda^{(i)}e_i.

Vous effectuez la majoration suivante :

\begin{align*}
\lVert  x_{\varphi(m)}-x\rVert &\leq \left\lVert  \sum_{i=1}^n \lambda_{\varphi(m)}^{(i)}e_i -   \sum_{i=1}^n \lambda^{(i)}e_i\\ \right\rVert \\
&\leq \left\lVert  \sum_{i=1}^n (\lambda_{\varphi(m)}^{(i)}-\lambda^{(i)} )e_i \right\rVert \\
&\leq \sum_{i=1}^n \left\lVert   (\lambda_{\varphi(m)}^{(i)}-\lambda^{(i)} )e_i \right\rVert \\
&\leq \sum_{i=1}^n   \left\vert \lambda_{\varphi(m)}^{(i)}-\lambda^{(i)} ) \right\vert \left\lVert  e_i \right\rVert.
\end{align*}

Vous notez encore $M = \max \{\lVert e_i \rVert, i\in\llbracket 1, n\rrbracket \}.$

Vous obtenez alors :

\begin{align*}
\lVert  x_{\varphi(m)}-x\rVert
&\leq \sum_{i=1}^n   \left\vert \lambda_{\varphi(m)}^{(i)}-\lambda^{(i)} ) \right\vert \cdot  M\\
&\leq M\cdot\sum_{i=1}^n   \left\vert \lambda_{\varphi(m)}^{(i)}-\lambda^{(i)} ) \right\vert.
\end{align*}

Comme :

\forall j\in\llbracket1, n\rrbracket, \lambda_{\varphi(m)}^{(j)} \xrightarrow[m\to +\infty]{} \lambda^{(j)}.

Vous déduisez, la somme étant finie, que :

\begin{align*}
&\lVert  x_{\varphi(m)}-x\rVert\xrightarrow[m\to +\infty]{} 0\\
&\lVert  x-x_{\varphi(m)}\rVert\xrightarrow[m\to +\infty]{} 0.
\end{align*}

Pour tout $m\in\NN$ vous avez, par inégalité triangulaire :

\begin{align*}
\lVert x\rVert &\leq \lVert x-x_{\varphi(m)}+x_{\varphi(m)}\rVert \\
&\leq \lVert x-x_{\varphi(m)}\rVert +\lVert x_{\varphi(m)}\rVert \\
&\leq \lVert x-x_{\varphi(m)}\rVert +\frac{1}{\varphi(m)}.
\end{align*}

Comme $\varphi$ est strictement croissante, vous avez $\forall m\in\NN, \varphi(m) \geq m$ d’où :

\forall m\in\NN, \lVert x\rVert \leq \lVert x-x_{\varphi(m)}\rVert +\frac{1}{m}.

En faisant tendre $m$ vers $+\infty$ dans cette inégalité, vous avez $\lVert x \rVert \leq 0$ d’où $\lVert x \rVert = 0$ par positivité de la norme et donc $x=0.$

Or, quel que soit $m\in\NN, \lVert x_{\varphi(m)} \rVert_1 =1$ donc :

\forall m\in\NN,  \sum_{i=1}^n \left\vert \lambda_{\varphi(m)}^{(i)} \right\vert = 1.

En faisant tendre $m$ vers $+\infty$, vous obtenez :

\sum_{i=1}^n \left\vert \lambda^{(i)} \right\vert = 1.

Du coup :

\lVert x\rVert_1 = 1.

Puisque $x$ est nul, vous avez $\lVert x\rVert_1 = 0$ ce qui contredit l’égalité précédente. D’où une contradiction, comme annoncé.

Déduisez-en que toutes les normes de $E$ sont équivalentes

D’après ce qui a été effectué, la norme $\lVert \quad\rVert$ est plus fine que la norme $\lVert \quad\rVert_1.$ Dans le contenu rédigé dans l'article 377 il a été établi que la norme $\lVert \quad\rVert_1 $ est plus fine que la norme $\lVert \quad\rVert.$

Ainsi :

\exists R>0, \forall v \in E, \lVert v \rVert_1 \leq R\lVert v \rVert \\
\exists M>0, \forall v \in E, \lVert v \rVert \leq M\lVert v \rVert_1.

Vous en déduisez ce qui suit :

\exists (R, M)\in\R_{+}^{*}, \forall v \in E, \frac{1}{R}  \lVert v \rVert_1\leq  \lVert v \rVert \leq M  \lVert v \rVert_1

Autrement dit, les normes $\lVert \quad\rVert$ et $\lVert \quad\rVert_1$ sont équivalentes.

Soit maintenant $\lVert \quad\rVert’$ une autre norme de $E.$ En reprenant le raisonnement effectué, cette norme est aussi équivalente à $\lVert \quad\rVert_1$ donc :

\exists (R', M')\in(\R_{+}^{*})^2, \forall v \in E, \frac{1}{R'}  \lVert v \rVert_1\leq  \lVert v \rVert' \leq M'  \lVert v \rVert_1.

Soit maintenant $v\in E.$

D’une part :

\begin{align*}
\lVert v \rVert'  \leq M'  \lVert v \rVert_1 \leq M'R  \lVert v \rVert.
\end{align*}

D’autre part :

 \lVert v \rVert \leq M  \lVert v \rVert_1 \leq MR'  \lVert v \rVert'.

Ainsi :

\forall v\in E, \frac{1}{MR'} \lVert v \rVert \leq \lVert v \rVert' \leq M'R  \lVert v \rVert.

En posant $\alpha = \frac{1}{MR’}$ et $\beta = M’R$ vous avez $(\alpha, \beta)\in (\R_{+}^{*})^2$ et :

\boxed{\forall v\in E,\quad  \alpha \lVert v \rVert \leq \lVert v \rVert' \leq \beta  \lVert v \rVert.}

Ainsi, deux normes quelconques de $E$ sont équivalentes.

377. Dans un espace vectoriel normé de dimension finie, toutes les normes sont équivalentes (partie 1/2)

Dans ce contenu, vous notez $E$ un $\R$-espace vectoriel de dimension finie $n$ où $n$ est un entier naturel non nul. Soit $\lVert\quad \rVert$ une norme sur $E.$

Fixez une base $(e_1,\dots,e_n)$ de $E.$ Vous allez, à partir de cette base, définir une nouvelle norme dite « norme 1 » sur $E$ notée $\lVert \quad\rVert_1$ et montrer que les deux normes $\lVert\quad \rVert$ et $\lVert\quad \rVert_1$ sont équivalentes.

Construisez une norme $\lVert\quad \rVert_1$

Tout vecteur $v$ appartenant à $E$ s’écrit de façon unique en utilisant ses coordonnées dans la base $(e_1,\dots,e_n).$ Autrement dit, quel que soit $v\in E$ il existe un unique $n$-uplet $(\lambda_1,\dots,\lambda_n)\in\R^n$ tel que :

v = \sum_{i=1}^n \lambda_i e_i.

A partir de cette écriture vous posez :

\lVert  v \rVert_1 = \sum_{i=1}^n \vert \lambda_i \vert.

Il s’agit maintenant de démontrer que $\lVert\quad \rVert_1$ est une norme sur $E.$

Montrez la séparation en partant d’un vecteur $v\in E$ tel que $\lVert v \rVert_1 = 0$

Soit $v$ un vecteur de $E$ tel que $\lVert v \rVert_1 = 0.$

Il existe $(\lambda_1,\dots,\lambda_n)\in\R^n$ tel que $v = \sum_{i=1}^n \lambda_i e_i$ et $\sum_{i=1}^n \vert \lambda_i \vert = 0.$ La dernière somme est nulle et elle est formée de termes positifs ou nuls. Donc pour tout $i$ compris entre $1$ et $n$ vous avez $\lambda_i = 0.$

Par suite, $v=0.$ L’implication suivante est acquise :

\boxed{\forall v\in E ,\,\lVert v \rVert_1 = 0 \implies v=0.}

Montrez l’homogénéïté

Soit $v\in E$ et soit $k$ un nombre réel.

Il existe $(\lambda_1,\dots,\lambda_n)\in\R^n$ tel que $v = \sum_{i=1}^n \lambda_i e_i$ et $\lVert v\rVert_1 = \sum_{i=1}^n \vert \lambda_i \vert.$

En développant, il vient $kv = k \left( \sum_{i=1}^n \lambda_i e_i\right) = \sum_{i=1}^n k \lambda_i e_i.$

Du coup :

\begin{align*}
\lVert kv\rVert_1 &= \sum_{i=1}^n \vert k \lambda_i\vert \\
&= \sum_{i=1}^n  \vert k \vert \cdot \vert  \lambda_i\vert \\
&= \vert k \vert \sum_{i=1} ^n \vert  \lambda_i\vert \\
&=  \vert k \vert \cdot\lVert v\rVert_1.
\end{align*}

L’égalité suivante est acquise :

\boxed{\forall v\in E, \forall k\in\R,  \lVert kv\rVert_1 = \vert k \vert \cdot \lVert v\rVert_1.}

Montrez l’inégalité triangulaire

Soient $v$ et $w$ deux vecteurs de $E.$ Il existe $(\lambda_1,\dots,\lambda_n)\in \R^n$ et il existe $(\mu_1,\dots, \mu_n)\in\R^n$ tels que :

\left\{\begin{align*}
v &= \sum_{i=1}^n \lambda_i e_i\\
w &= \sum_{i=1}^n \mu_i e_i\\
\lVert v\rVert_1 &= \sum_{i=1}^n \vert \lambda_i \vert \\
\lVert w\rVert_1 &= \sum_{i=1}^n \vert \mu_i \vert.
\end{align*}\right.

Par somme, il vient :

\begin{align*}
v+w &=  \sum_{i=1}^n \lambda_i e_i +  \sum_{i=1}^n \mu_i e_i\\
& = \sum_{i=1}^n (\lambda_i e_i +  \mu_i e_i )\\
& = \sum_{i=1}^n (\lambda_i +  \mu_i  )e_i.
\end{align*} 

Du coup $\lVert v+w\rVert_1 = \sum_{i=1}^n \vert \lambda_i +\mu_i\vert$ et par suite :

\begin{align*}
\lVert v+w\rVert_1 &\leq \sum_{i=1}^n \vert \lambda_i +\mu_i\vert \\
&\leq \sum_{i=1}^n (\vert \lambda_i\vert + \vert \mu_i\vert) \\
&\leq \sum_{i=1}^n \vert \lambda_i\vert +  \sum_{i=1}^n \vert \mu_i\vert \\
&\leq \lVert v\rVert_1 + \lVert w\rVert_1.
\end{align*}

L’inégalité triangulaire est bien vérifiée :

\boxed{\forall v\in E, \forall w\in E,  \lVert v+w\rVert_1 \leq  \lVert v\rVert_1 \cdot \lVert w\rVert_1.}

Concluez

Il a été démontré que $\lVert \quad\rVert_1$ est une norme sur $E.$

Montrez que la norme $\lVert \quad\rVert_1$ est plus fine que la norme $\lVert \quad\rVert$

Soit $v$ un vecteur de $E.$

Il existe $(\lambda_1,\dots,\lambda_n)\in\R^n$ tel que $v = \sum_{i=1}^n \lambda_i e_i$ et $\lVert v\rVert_1 = \sum_{i=1}^n \vert \lambda_i \vert.$

Utilisant l’inégalité triangulaire de la norme $\lVert \quad\rVert$ vous obtenez :

\begin{align*}
\lVert v \rVert &\leq \left\lVert \sum_{i=1}^n \lambda_i e_i \right\rVert\\
&\leq \sum_{i=1}^n \left\lVert  \lambda_i e_i \right\rVert \\
&\leq \sum_{i=1}^n\vert  \lambda_i \vert \cdot \left \lVert   e_i \right\rVert.
\end{align*}

Comme l’ensemble $\{\lVert e_i \rVert, i\in\llbracket 1, n\rrbracket \}$ est fini, il admet un maximum. Notez $M$ ce maximum, qui correspond à la plus grande norme des vecteurs de la base $(e_1,\cdots,e_n).$ Vous avez donc :

\forall i\in\llbracket 1, n \rrbracket, \lVert   e_i \rVert\leq M.

De plus, il existe un entier $p$ compris entre $1$ et $n$ tel que $M = \lVert e_p \rVert.$ Comme $e_p$ est un vecteur non nul, le réel $M$ est strictement positif.

Les majorations se poursuivent :

\begin{align*}
\lVert v \rVert &\leq \sum_{i=1}^n\vert  \lambda_i \vert \cdot \left \lVert   e_i \right\rVert \\
&\leq \sum_{i=1}^n\vert  \lambda_i \vert  M \\
&\leq  M \cdot \sum_{i=1}^n\vert  \lambda_i \vert\\
&\leq M \lVert v \rVert_1.
\end{align*}

Il a été démontré qu’il existe un réel $M$ strictement positif tel que :

\boxed{\forall v\in E,    \lVert v \rVert\leq M \lVert v \rVert_1.}

Cela démontre le fait que la norme $\lVert \quad\rVert_1$ est plus fine que la norme $\lVert \quad\rVert.$

Prolongement

Vous souhaitez comprendre pourquoi le norme $\lVert \quad\rVert$ est plus fine que la norme $\lVert \quad\rVert_1$ ? Etablir ce résultat est plus difficile, il fait l’objet du contenu rédigé dans l'article 378.