Votre navigateur n'accepte pas le Javascript.La navigation sur ce site risque de ne pas fonctionner correctement.

377. Dans un espace vectoriel normé de dimension finie, toutes les normes sont équivalentes (partie 1/2)

Dans ce contenu, vous notez $E$ un $\R$-espace vectoriel de dimension finie $n$ où $n$ est un entier naturel non nul. Soit $\lVert\quad \rVert$ une norme sur $E.$

Fixez une base $(e_1,\dots,e_n)$ de $E.$ Vous allez, à partir de cette base, définir une nouvelle norme dite « norme 1 » sur $E$ notée $\lVert \quad\rVert_1$ et montrer que les deux normes $\lVert\quad \rVert$ et $\lVert\quad \rVert_1$ sont équivalentes.

Construisez une norme $\lVert\quad \rVert_1$

Tout vecteur $v$ appartenant à $E$ s’écrit de façon unique en utilisant ses coordonnées dans la base $(e_1,\dots,e_n).$ Autrement dit, quel que soit $v\in E$ il existe un unique $n$-uplet $(\lambda_1,\dots,\lambda_n)\in\R^n$ tel que :

v = \sum_{i=1}^n \lambda_i e_i.

A partir de cette écriture vous posez :

\lVert  v \rVert_1 = \sum_{i=1}^n \vert \lambda_i \vert.

Il s’agit maintenant de démontrer que $\lVert\quad \rVert_1$ est une norme sur $E.$

Montrez la séparation en partant d’un vecteur $v\in E$ tel que $\lVert v \rVert_1 = 0$

Soit $v$ un vecteur de $E$ tel que $\lVert v \rVert_1 = 0.$

Il existe $(\lambda_1,\dots,\lambda_n)\in\R^n$ tel que $v = \sum_{i=1}^n \lambda_i e_i$ et $\sum_{i=1}^n \vert \lambda_i \vert = 0.$ La dernière somme est nulle et elle est formée de termes positifs ou nuls. Donc pour tout $i$ compris entre $1$ et $n$ vous avez $\lambda_i = 0.$

Par suite, $v=0.$ L’implication suivante est acquise :

\boxed{\forall v\in E ,\,\lVert v \rVert_1 = 0 \implies v=0.}

Montrez l’homogénéïté

Soit $v\in E$ et soit $k$ un nombre réel.

Il existe $(\lambda_1,\dots,\lambda_n)\in\R^n$ tel que $v = \sum_{i=1}^n \lambda_i e_i$ et $\lVert v\rVert_1 = \sum_{i=1}^n \vert \lambda_i \vert.$

En développant, il vient $kv = k \left( \sum_{i=1}^n \lambda_i e_i\right) = \sum_{i=1}^n k \lambda_i e_i.$

Du coup :

\begin{align*}
\lVert kv\rVert_1 &= \sum_{i=1}^n \vert k \lambda_i\vert \\
&= \sum_{i=1}^n  \vert k \vert \cdot \vert  \lambda_i\vert \\
&= \vert k \vert \sum_{i=1} ^n \vert  \lambda_i\vert \\
&=  \vert k \vert \cdot\lVert v\rVert_1.
\end{align*}

L’égalité suivante est acquise :

\boxed{\forall v\in E, \forall k\in\R,  \lVert kv\rVert_1 = \vert k \vert \cdot \lVert v\rVert_1.}

Montrez l’inégalité triangulaire

Soient $v$ et $w$ deux vecteurs de $E.$ Il existe $(\lambda_1,\dots,\lambda_n)\in \R^n$ et il existe $(\mu_1,\dots, \mu_n)\in\R^n$ tels que :

\left\{\begin{align*}
v &= \sum_{i=1}^n \lambda_i e_i\\
w &= \sum_{i=1}^n \mu_i e_i\\
\lVert v\rVert_1 &= \sum_{i=1}^n \vert \lambda_i \vert \\
\lVert w\rVert_1 &= \sum_{i=1}^n \vert \mu_i \vert.
\end{align*}\right.

Par somme, il vient :

\begin{align*}
v+w &=  \sum_{i=1}^n \lambda_i e_i +  \sum_{i=1}^n \mu_i e_i\\
& = \sum_{i=1}^n (\lambda_i e_i +  \mu_i e_i )\\
& = \sum_{i=1}^n (\lambda_i +  \mu_i  )e_i.
\end{align*} 

Du coup $\lVert v+w\rVert_1 = \sum_{i=1}^n \vert \lambda_i +\mu_i\vert$ et par suite :

\begin{align*}
\lVert v+w\rVert_1 &\leq \sum_{i=1}^n \vert \lambda_i +\mu_i\vert \\
&\leq \sum_{i=1}^n (\vert \lambda_i\vert + \vert \mu_i\vert) \\
&\leq \sum_{i=1}^n \vert \lambda_i\vert +  \sum_{i=1}^n \vert \mu_i\vert \\
&\leq \lVert v\rVert_1 + \lVert w\rVert_1.
\end{align*}

L’inégalité triangulaire est bien vérifiée :

\boxed{\forall v\in E, \forall w\in E,  \lVert v+w\rVert_1 \leq  \lVert v\rVert_1 \cdot \lVert w\rVert_1.}

Concluez

Il a été démontré que $\lVert \quad\rVert_1$ est une norme sur $E.$

Montrez que la norme $\lVert \quad\rVert_1$ est plus fine que la norme $\lVert \quad\rVert$

Soit $v$ un vecteur de $E.$

Il existe $(\lambda_1,\dots,\lambda_n)\in\R^n$ tel que $v = \sum_{i=1}^n \lambda_i e_i$ et $\lVert v\rVert_1 = \sum_{i=1}^n \vert \lambda_i \vert.$

Utilisant l’inégalité triangulaire de la norme $\lVert \quad\rVert$ vous obtenez :

\begin{align*}
\lVert v \rVert &\leq \left\lVert \sum_{i=1}^n \lambda_i e_i \right\rVert\\
&\leq \sum_{i=1}^n \left\lVert  \lambda_i e_i \right\rVert \\
&\leq \sum_{i=1}^n\vert  \lambda_i \vert \cdot \left \lVert   e_i \right\rVert.
\end{align*}

Comme l’ensemble $\{\lVert e_i \rVert, i\in\llbracket 1, n\rrbracket \}$ est fini, il admet un maximum. Notez $M$ ce maximum, qui correspond à la plus grande norme des vecteurs de la base $(e_1,\cdots,e_n).$ Vous avez donc :

\forall i\in\llbracket 1, n \rrbracket, \lVert   e_i \rVert\leq M.

De plus, il existe un entier $p$ compris entre $1$ et $n$ tel que $M = \lVert e_p \rVert.$ Comme $e_p$ est un vecteur non nul, le réel $M$ est strictement positif.

Les majorations se poursuivent :

\begin{align*}
\lVert v \rVert &\leq \sum_{i=1}^n\vert  \lambda_i \vert \cdot \left \lVert   e_i \right\rVert \\
&\leq \sum_{i=1}^n\vert  \lambda_i \vert  M \\
&\leq  M \cdot \sum_{i=1}^n\vert  \lambda_i \vert\\
&\leq M \lVert v \rVert_1.
\end{align*}

Il a été démontré qu’il existe un réel $M$ strictement positif tel que :

\boxed{\forall v\in E,    \lVert v \rVert\leq M \lVert v \rVert_1.}

Cela démontre le fait que la norme $\lVert \quad\rVert_1$ est plus fine que la norme $\lVert \quad\rVert.$

Prolongement

Vous souhaitez comprendre pourquoi le norme $\lVert \quad\rVert$ est plus fine que la norme $\lVert \quad\rVert_1$ ? Etablir ce résultat est plus difficile, il fait l’objet du contenu rédigé dans l'article 378.

Partagez maintenant !

Aidez vos amis à découvrir cet article et à mieux comprendre le sujet.

Aidez-moi sur Facebook !

Vous appréciez cet article et souhaitez témoigner du temps que j'y ai passé pour le mettre en œuvre. C'est rapide à faire pour vous et c'est important pour moi, déposez un j'aime sur ma page Facebook. Je vous en remercie par avance.

Lisez d'autres articles !

Parcourez tous les articles qui ont été rédigés. Vous en trouverez sûrement un qui vous plaira !