Eclats de vers : Matemat : Développements d’Hadamard

Index mathématique

Retour à l’accueil

Table des matières

\( \newenvironment{Eqts} { \begin{equation*} \begin{gathered} } { \end{gathered} \end{equation*} } \newenvironment{Matrix} {\left[ \begin{array}} {\end{array} \right]} \)

\label{chap:fonda}

1. Dépendances

  • Chapitre \ref{chap:differ} : Les différentielles
  • Chapitre \ref{chap:integral} : Les intégrales

2. Lemme de Hadamard

Soit la fonction \(f : \setR^m \to \setR^n\) et les vecteurs \(u,v \in \setR^m\). On définit la fonction \(\lambda : [0,1] \mapsto \setR^m\) associée au segment \([u,v] \subseteq \setR^m\) par :

\[\lambda(s) = u + s \cdot (v - u)\]

pour tout \(s \in [0,1]\). On a bien entendu \(\lambda(0) = u\) et \(\lambda(1) = v\). On définit également la fonction \(\varphi = f \circ \lambda\) qui vérifie :

\[\varphi(s) = (f \circ \lambda)(s) = f(u + s \cdot (v - u))\]

pour tout \(t \in [0,1]\). On voit que \(\varphi(0) = f(u)\) et \(\varphi(1) = f(v)\). Donc, en termes de composantes dans \(\setR^n\), on a :

\[f_i(v) - f_i(u) = \varphi_i(1) - \varphi_i(0) = \int_0^1 \OD{\varphi_i}{s}(s) \ ds\]

où \(i \in \{1,2,...,n\}\).

Voyons quelle est la forme de la dérivée :

\begin{align} \OD{\varphi_i}{s}(s) &= \sum_j \partial_j f_i(u + s \cdot (v - u)) \cdot \partial \lambda_j(s) \) \( &= \sum_j \partial_j f_i(u + s \cdot (v - u)) \cdot (v_j - u_j) \end{align}

où \(j \in \{1,2,...,m\}\). Si nous définissons :

\[G_{ij}(u,v) = \int_0^1 \partial_j f_i(u + s \cdot (v - u)) \ ds\]

nous obtenons alors l'expression de la variation :

\[f_i(v) - f_i(u) = \sum_j G_{ij}(u,v) \cdot (v_j - u_j)\]

En termes matriciels :

$$G(u,v) = \big[Gij(u,v)\big]i,j = \left[ \int_0^1 \partial_j f_i(u + s \cdot (v - u)) \ ds \right]i,j

est donc l'intégrale de la Jacobienne :

\[G(u,v) = \int_0^1 \partial f(u + s \cdot (v - u)) \ ds\]

et :

\[f(v) - f(u) = G(u,v) \cdot (v - u)\]

3. Développement du second ordre

Soit la fonction \(f \in \continue^2(\setR^n,\setR)\) et les vecteurs \(a,h \in \setR^n\). On définit la fonction \(\lambda : [0,1] \mapsto \setR^n\) associée au segment \([a, a + h]\) :

\[\lambda(s) = a + s \cdot h\]

pour tout \(s \in [0,1]\). Le lemme de Hadamard nous dit que :

\[f(a + h) - f(a) = \int_0^1 \partial f(a + s \cdot h) \cdot h \ ds\]

Par définition de la dérivée seconde, on a :

\[\partial_i f(a + s \cdot h) = \partial_i f(a) + \sum_j \partial_{ji}^2 f(a) \cdot h_j \cdot s + e_i(s \cdot h)\]

où l'erreur \(e\) vérifie :

\[\lim_{h \to 0} \frac{ \norme{e(h)} }{ \norme{h} } = 0\]

L'intégrale s'écrit alors :

\[f(a + h) - f(a) = \sum_i \int_0^1 \left[ \partial_i f(a) + \sum_j \partial_{ji}^2 f(a) \cdot h_j \cdot s + e_i(s \cdot h) \right] \cdot h_i \ ds\]

La grandeur \(\partial_i f(a) \cdot h_i\) ne dépendant pas de \(s\), on a :

\[\int_0^1 \partial_i f(a) \cdot h_i \ ds = \partial_i f(a) \cdot h_i \cdot (1 - 0) = \partial_i f(a) \cdot h_i\]

D'un autre coté, comme \(s^2/2\) est une primitive de \(s\), on a :

\[\int_0^1 s \ ds = \unsur{2} \cdot (1^2 - 0^2) = \unsur{2}\]

et donc :

\[\int_0^1 \partial_{ji}^2 f(a) \cdot h_j \cdot h_i \cdot s \ ds = \unsur{2} \partial_{ji}^2 f(a) \cdot h_j \cdot h_i\]

Posons :

\[\mathcal{E}_2(h) = \sum_i \int_0^1 e_i(s \cdot h) \cdot h_i \ ds\]

On a alors :

\[f(a + h) - f(a) = \sum_i \partial_i f(a) \cdot h_i + \unsur{2} \sum_{i,j} h_j \cdot \partial_{ji}^2 f(a) \cdot h_i + \mathcal{E}_2(h)\]

En termes matriciels, cette expression fait intervenir la Jacobienne et la Hessienne :

\[f(a + h) - f(a) = \partial f(a) \cdot h + \unsur{2} \ h^\dual \cdot \partial^2 f(a) \cdot h + \mathcal{E}_2(h)\]

3.1. Comportement de l'erreur

Nous savons que, pour toute précision \(\epsilon \strictsuperieur 0\), nous pouvons trouver un \(\delta \strictsuperieur 0\) tel que :

\[\frac{\norme{e(h)}}{\norme{h}} \le \epsilon\]

pour tout \(h\) vérifiant \(\norme{h} \le \delta\). Comme \(\abs{e_i} \le \norme{e}\) et \(\abs{h_i} \le \norme{h}\), on a alors :

\begin{align} \abs{\mathcal{E}_2(h)} &\le \sum_i \abs{\int_0^1 e_i(s \cdot h) \cdot h_i \ ds} \) \( &\le n \cdot \epsilon \cdot \norme{h}^2 \end{align}

L'erreur décroît donc plus vite que \(\norme{h}^2\) :

\[\lim_{h \to 0} \frac{ \abs{\mathcal{E}_2(h)} }{ \norme{h}^2 } = 0\]

3.2. Dérivées ordinaires

Lorsque \(n = 1\), le développement est simplement :

\[f(a + h) = f(a) + \OD{f}{x}(a) \cdot h + \OOD{f}{x}(a) \cdot \frac{h^2}{2} + \mathcal{E}_2(h)\]

On constate qu'il est analogue au développement de Taylor d'ordre deux autour de \(a\).

4. Développement du troisième ordre

Soit la fonction \(f \in \continue^3(\setR^n,\setR)\) et les vecteurs \(a,h \in \setR^n\). En évaluant le développement du second ordre de chaque \(\partial_i f\), on a :

\[\partial_i f(a + s \cdot h) = \partial_i f(a) + \sum_j \partial_{ji} f(a) \cdot h_j \cdot s + \sum_{j,k} h_k \cdot \partial_{kji}^3 f(a) \cdot h_j \cdot \frac{s^2}{2} + e_i(h)\]

où \(e \sim \petito{h^2}\). En intégrant, nous obtenons une estimation de la variation de \(f\) :

\[f(a + h) - f(a) = \sum_i \int_0^1 \partial_i f(a + s \cdot h) \cdot h_i \ ds\]

Posons :

\begin{align} I_1(h) &= \sum_i \int_0^1 \partial_i f(a) \cdot h_i \ ds \) \( I_2(h) &= \sum_{i,j} \int_0^1 h_j \cdot \partial_{ji} f(a) \cdot h_i \cdot s \ ds \) \( I_3(h) &= \unsur{2} \sum_{i,j,k} \int_0^1 h_k \cdot \partial_{kji}^3 f(a) \cdot h_j \cdot h_i \cdot s^2 \ ds \) \( \mathcal{E}_3(h) &= \sum_i \int_0^1 e_i(h) \cdot h_i \ ds \end{align}

Comme \(s^3/3\) est une primitive de \(s^2\), on a :

\[\int_0^1 s^2 \ ds = \unsur{3} \cdot (1^3 - 0^3) = \unsur{3}\]

Les intégrales s'écrivent donc :

\begin{align} I_1(h) &= \sum_i \partial_i f(a) \cdot h_i \) \( I_2(h) &= \unsur{2} \sum_{i,j} h_i \cdot \partial_{ji} f(a) \cdot h_j \) \( I_3(h) &= \unsur{6} \sum_{i,j,k} \partial_{kji}^3 f(a) \cdot h_i \cdot h_j \cdot h_k \end{align}

et la variation de \(f\) est donnée par :

\[f(a + h) - f(a) = I_1(h) + I_2(h) + I_3(h) + \mathcal{E}_3(h)\]

En terme de notations tensorielles, on peut l'écrire symboliquement :

\[f(a + h) - f(a) = \partial f(a) \cdot h + \unsur{2} h^\dual \cdot \partial^2 f(a) \cdot h + \unsur{6} \contraction{\partial^3 f(a)}{3}{h \otimes h \otimes h}\]

4.1. Comportement de l'erreur

Nous savons que, pour toute précision \(\epsilon \strictsuperieur 0\), nous pouvons trouver un \(\delta \strictsuperieur 0\) tel que :

\[\frac{\norme{e(h)}}{\norme{h}^2} \le \epsilon\]

pour tout \(h\) vérifiant \(\norme{h} \le \delta\). Comme \(\abs{e_i(h)} \le \norme{e(h)}\) et \(\abs{h_i} \le \norme{h}\), on a :

\begin{align} \abs{\mathcal{E}_3(h)} &\le \sum_i \abs{\int_0^1 e_i(h) \cdot h_i \ ds} \) \( &\le n \cdot \epsilon \cdot \norme{h}^3 \end{align}

L'erreur \(\abs{\mathcal{E}_3(h)}\) est donc en \(\petito{h^3}\).

4.2. Dérivées ordinaires

Lorsque \(n = 1\), le développement est simplement :

\[f(a + h) = f(a) + \OD{f}{x}(a) \cdot h + \OOD{f}{x}(a) \cdot \frac{h^2}{2} + \NOD{f}{x}{3} \cdot \frac{h^3}{6} + \mathcal{E}_3(h)\]

On constate qu'il est analogue au développement de Taylor d'ordre trois autour de \(a\).

Auteur: chimay

Created: 2025-11-30 dim 13:45

Validate