Eclats de vers : Matemat : Normes
Table des matières
\( \newenvironment{Eqts} { \begin{equation*} \begin{gathered} } { \end{gathered} \end{equation*} } \newenvironment{Matrix} {\left[ \begin{array}} {\end{array} \right]} \)
\label{chap:norme}
1. Dépendances
- Chapitre \ref{chap:distance} : Les distances
- Chapitre \ref{chap:vecteur} : Les espaces vectoriels
2. Définition
Soit un corps \(\corps\) muni d'un ordre \(\le\) et \(E\) un espace vectoriel sur \(\corps\). Une norme \(\norme{.} : E \to \setR\) est intuitivement la « grandeur » d'un vecteur \(u \in E\). Cette grandeur correspond à la distance séparant le vecteur nul de \(u\) :
\[\norme{u} \equiv \distance(u,0)\]
Soit \(u,v,w \in E\).
Comme \(\distance(u,0) \ge 0\), on impose par analogie que :
\[\norme{u} \ge 0\]
De plus, le seul vecteur \(u\) de \(E\) vérifiant :
\[\norme{u} = 0\]
implique que notre distance équivalente \(\distance(u,0) = 0\) soit nulle, ce qui n'est possible que si \(u = 0\). Lorsqu'on fait référence à ces conditions, on dit que la norme est strictement définie positive.
Considérons à présent l'inégalité triangulaire :
\[\distance(0 , u + v) \le \distance(0,u) + \distance(u , u + v)\]
Comment faire correspondre \(\distance(u , u + v)\) à une norme ? En demandant simplement que notre distance particulière soit invariante sous translation de \(u\) :
\[\distance(u , u + v) = \distance(u - u , u + v - u) = \distance(0,v) \equiv \norme{v}\]
On impose donc l'inégalité triangulaire :
\[\distance(0 , u + v) \le \distance(0,u) + \distance(0 , v)\]
qui devient :
\[\norme{u + v} \le \norme{u} + \norme{v}\]
Par ailleurs, lorsqu'on allonge ou réduit un vecteur \(u\) d'un facteur \(\alpha \in \corps\), la distance parcourue sur \(u\) devra être allongée ou réduite par la valeur absolue de \(\alpha\) :
\[\norme{\alpha \cdot u} = \abs{\alpha} \cdot \norme{u}\]
La liste des propriétés d’une norme s’écrit donc :
\[ \norme{u} \ge 0 \]
\[ \norme{u} = 0 \quad \Rightarrow \quad u = 0 \]
\[\norme{u + v} \le \norme{u} + \norme{v}\]
\[\norme{\alpha \cdot u} = \abs{\alpha} \cdot \norme{u}\]
3. Borne inférieure
On déduit de la définition que :
\[\norme{-x} = \norme{(-1) \cdot x} = \abs{-1} \cdot \norme{x} = \norme{x}\]
En posant \(z = x + y\), on a :
\[\norme{z} \le \norme{x} + \norme{y} = \norme{x} + \norme{z-x}\]
c'est-à-dire :
\[\norme{z - x} \ge \norme{z} - \norme{x}\]
Mais comme \(\norme{z-x} = \norme{(-1) \cdot (z-x)} = \norme{x-z}\), la propriété vaut également en interchangeant \(z\) et \(x\), et on obtient :
\[\norme{z - x} \ge \max\{ \norme{z} - \norme{x}, \norme{x} -\norme{z} \}\]
4. Distance associée
On peut associer une distance \(\distance\) à une norme \(\norme{.}\) en posant :
\[\distance(x,y) = \norme{x - y}\]
En effet :
- \(\distance(x,x) = \norme{x - x} = \norme{0} = 0\)
- si \(\distance(x,y) = 0 = \norme{x-y}\), on a forcément \(x - y = 0\) et donc \(x = y\)
- \(\distance(x,y) = \norme{x-y} = \norme{y-x} = \distance(y,x)\)
- \(\distance(x,y) + \distance(y,z) = \norme{x-y} + \norme{y-z} \ge \norme{x-y+y-z} = \norme{x-z} = \distance(x,z)\)
5. Normalisation
On peut toujours normaliser un vecteur \(w \ne 0\) pour obtenir un vecteur \(u\) de norme \(1\). Comme \(\norme{w} \ne 0\), on peut écrire :
\[u = \frac{w}{\norme{w}}\]
On a alors :
\[\norme{u} = \norme{ \frac{w}{\norme{w}} } = \unsur{\norme{w}} \cdot \norme{w} = 1\]