Eclats de vers : Matemat : Produit scalaire

Index des Grimoires

Retour à l’accueil

Table des matières

\( \newcommand{\parentheses}[1]{\left(#1\right)} \newcommand{\crochets}[1]{\left[#1\right]} \newcommand{\accolades}[1]{\left\{#1\right\}} \newcommand{\ensemble}[1]{\left\{#1\right\}} \newcommand{\identite}{\mathrm{Id}} \newcommand{\indicatrice}{\boldsymbol{\delta}} \newcommand{\dirac}{\delta} \newcommand{\moinsun}{{-1}} \newcommand{\inverse}{\ddagger} \newcommand{\pinverse}{\dagger} \newcommand{\topologie}{\mathfrak{T}} \newcommand{\ferme}{\mathfrak{F}} \newcommand{\img}{\mathbf{i}} \newcommand{\binome}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\canonique}{\mathfrak{c}} \newcommand{\tenseuridentite}{\boldsymbol{\mathcal{I}}} \newcommand{\permutation}{\boldsymbol{\epsilon}} \newcommand{\matriceZero}{\mathfrak{0}} \newcommand{\matriceUn}{\mathfrak{1}} \newcommand{\christoffel}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\lagrangien}{\mathfrak{L}} \newcommand{\sousens}{\mathfrak{P}} \newcommand{\partition}{\mathrm{Partition}} \newcommand{\tribu}{\mathrm{Tribu}} \newcommand{\topologies}{\mathrm{Topo}} \newcommand{\setB}{\mathbb{B}} \newcommand{\setN}{\mathbb{N}} \newcommand{\setZ}{\mathbb{Z}} \newcommand{\setQ}{\mathbb{Q}} \newcommand{\setR}{\mathbb{R}} \newcommand{\setC}{\mathbb{C}} \newcommand{\corps}{\mathbb{K}} \newcommand{\boule}{\mathfrak{B}} \newcommand{\intervalleouvert}[2]{\left] #1 , #2 \right[} \newcommand{\intervallesemiouvertgauche}[2]{ \left] #1 , #2 \right]} \newcommand{\intervallesemiouvertdroite}[2]{\left[ #1 , #2 \right[ } \newcommand{\fonction}{\mathbb{F}} \newcommand{\bijection}{\mathrm{Bij}} \newcommand{\polynome}{\mathrm{Poly}} \newcommand{\lineaire}{\mathrm{Lin}} \newcommand{\continue}{\mathrm{Cont}} \newcommand{\homeomorphisme}{\mathrm{Hom}} \newcommand{\etagee}{\mathrm{Etagee}} \newcommand{\lebesgue}{\mathrm{Leb}} \newcommand{\lipschitz}{\mathrm{Lip}} \newcommand{\suitek}{\mathrm{Suite}} \newcommand{\matrice}{\mathbb{M}} \newcommand{\krylov}{\mathrm{Krylov}} \newcommand{\tenseur}{\mathbb{T}} \newcommand{\essentiel}{\mathfrak{E}} \newcommand{\relation}{\mathrm{Rel}} \DeclareMathOperator*{\strictinferieur}{\ < \ } \DeclareMathOperator*{\strictsuperieur}{\ > \ } \DeclareMathOperator*{\ensinferieur}{\eqslantless} \DeclareMathOperator*{\enssuperieur}{\eqslantgtr} \DeclareMathOperator*{\esssuperieur}{\gtrsim} \DeclareMathOperator*{\essinferieur}{\lesssim} \newcommand{\essegal}{\eqsim} \newcommand{\union}{\ \cup \ } \newcommand{\intersection}{\ \cap \ } \newcommand{\opera}{\divideontimes} \newcommand{\autreaddition}{\boxplus} \newcommand{\autremultiplication}{\circledast} \newcommand{\commutateur}[2]{\left[ #1 , #2 \right]} \newcommand{\convolution}{\circledcirc} \newcommand{\correlation}{\ \natural \ } \newcommand{\diventiere}{\div} \newcommand{\modulo}{\bmod} \DeclareMathOperator*{\pgcd}{pgcd} \DeclareMathOperator*{\ppcm}{ppcm} \newcommand{\produitscalaire}[2]{\left\langle #1 \vert #2 \right\rangle} \newcommand{\scalaire}[2]{\left\langle #1 \| #2 \right\rangle} \newcommand{\braket}[3]{\left\langle #1 \vert #2 \vert #3 \right\rangle} \newcommand{\orthogonal}{\bot} \newcommand{\forme}[2]{\left\langle #1 , #2 \right\rangle} \newcommand{\biforme}[3]{\left\langle #1 , #2 , #3 \right\rangle} \newcommand{\contraction}[3]{\left\langle #1 \odot #3 \right\rangle_{#2}} \newcommand{\dblecont}[5]{\left\langle #1 \vert #3 \vert #5 \right\rangle_{#2,#4}} \DeclareMathOperator*{\major}{major} \DeclareMathOperator*{\minor}{minor} \DeclareMathOperator*{\maxim}{maxim} \DeclareMathOperator*{\minim}{minim} \DeclareMathOperator*{\argument}{arg} \DeclareMathOperator*{\argmin}{arg\ min} \DeclareMathOperator*{\argmax}{arg\ max} \DeclareMathOperator*{\supessentiel}{ess\ sup} \DeclareMathOperator*{\infessentiel}{ess\ inf} \newcommand{\dual}{\star} \newcommand{\distance}{\mathfrak{dist}} \newcommand{\norme}[1]{\left\| #1 \right\|} \newcommand{\normetrois}[1]{\left|\left\| #1 \right\|\right|} \DeclareMathOperator*{\adh}{adh} \DeclareMathOperator*{\interieur}{int} \newcommand{\frontiere}{\partial} \DeclareMathOperator*{\image}{im} \DeclareMathOperator*{\domaine}{dom} \DeclareMathOperator*{\noyau}{ker} \DeclareMathOperator*{\support}{supp} \DeclareMathOperator*{\signe}{sign} \newcommand{\abs}[1]{\left| #1 \right|} \newcommand{\unsur}[1]{\frac{1}{#1}} \newcommand{\arrondisup}[1]{\lceil #1 \rceil} \newcommand{\arrondiinf}[1]{\lfloor #1 \rfloor} \DeclareMathOperator*{\conjugue}{conj} \newcommand{\conjaccent}[1]{\overline{#1}} \DeclareMathOperator*{\division}{division} \newcommand{\difference}{\boldsymbol{\Delta}} \newcommand{\differentielle}[2]{\mathfrak{D}^{#1}_{#2}} \newcommand{\OD}[2]{\frac{d #1}{d #2}} \newcommand{\OOD}[2]{\frac{d^2 #1}{d #2^2}} \newcommand{\NOD}[3]{\frac{d^{#3} #1}{d #2^{#3}}} \newcommand{\deriveepartielle}[2]{\frac{\partial #1}{\partial #2}} \newcommand{\PD}[2]{\frac{\partial #1}{\partial #2}} \newcommand{\dblederiveepartielle}[2]{\frac{\partial^2 #1}{\partial #2 \partial #2}} \newcommand{\dfdxdy}[3]{\frac{\partial^2 #1}{\partial #2 \partial #3}} \newcommand{\dfdxdx}[2]{\frac{\partial^2 #1}{\partial #2^2}} \newcommand{\gradient}{\mathbf{\nabla}} \newcommand{\combilin}[1]{\mathrm{span}\{ #1 \}} \DeclareMathOperator*{\trace}{tr} \newcommand{\proba}{\mathbb{P}} \newcommand{\probaof}[1]{\mathbb{P}\left[#1\right]} \newcommand{\esperof}[1]{\mathbb{E}\left[#1\right]} \newcommand{\cov}[2]{\mathrm{cov} \left( #1 , #2 \right) } \newcommand{\var}[1]{\mathrm{var} \left( #1 \right) } \newcommand{\rand}{\mathrm{rand}} \newcommand{\variation}[1]{\left\langle #1 \right\rangle} \DeclareMathOperator*{\composante}{comp} \DeclareMathOperator*{\bloc}{bloc} \DeclareMathOperator*{\ligne}{ligne} \DeclareMathOperator*{\colonne}{colonne} \DeclareMathOperator*{\diagonale}{diag} \newcommand{\matelementaire}{\mathrm{Elem}} \DeclareMathOperator*{\matpermutation}{permut} \newcommand{\matunitaire}{\mathrm{Unitaire}} \newcommand{\gaussjordan}{\mathrm{GaussJordan}} \newcommand{\householder}{\mathrm{Householder}} \DeclareMathOperator*{\rang}{rang} \newcommand{\schur}{\mathrm{Schur}} \newcommand{\singuliere}{\mathrm{DVS}} \newcommand{\convexe}{\mathrm{Convexe}} \newcommand{\petito}[1]{o\left(#1\right)} \newcommand{\grando}[1]{O\left(#1\right)} \)

\( \newenvironment{Eqts} { \begin{equation*} \begin{gathered} } { \end{gathered} \end{equation*} } \newenvironment{Matrix} {\left[ \begin{array}} {\end{array} \right]} \)

\label{chap:ps}

1. Dépendances

  • Chapitre \ref{chap:vecteur} : Les espaces vectoriels
  • Chapitre \ref{chap:norme} : Les normes

2. Introduction

Soit \(E\) un espace vectoriel sur \(\corps\) et une famille de fonctions linéaires \(\phi_u \in E^\dual\) où \(u \in E\) est un paramètre vectoriel. Nous pouvons écrire :

\[\phi_u(v) = \forme{\phi_u}{v}\]

pour tout \(u,v \in E\). Cette expression introduit implicitement le produit dérivé \(\scalaire{}{} : E \times E \mapsto \corps\) défini par :

\[\scalaire{u}{v} = \forme{\phi_u}{v}\]

pour tout \(u,v \in E\). Ce produit hérite bien entendu la linéarité à droite de la forme associée :

\[\scalaire{u}{\alpha \cdot v + \beta \cdot w} = \alpha \cdot \scalaire{u}{v} + \beta \cdot \scalaire{u}{w}\]

pour tout \(u,v,w \in E\) et pour tout \(\alpha,\beta \in \corps\).

Les produits scalaires sont des cas particuliers de ce type de produit.

2.1. Notation

On note aussi le produit scalaire sous forme de point :

\[u \cdot v = \scalaire{u}{v}\]

3. Produit scalaire réel

Considérons le cas particulier où \(\corps = \setR\). et un produit linéaire à droite \(\scalaire{}{} : E \times E \mapsto \setR\). Nous voudrions en plus que la valeur de \(\scalaire{u}{u}\) en chaque \(u \in E\) puisse représenter la norme de \(u\). Nous imposons donc la positivité :

\[\scalaire{u}{u} \ge 0\]

Pour compléter le caractère strictement défini positif, on impose également que le seul élément \(u \in E\) vérifiant :

\[\scalaire{u}{u} = 0\]

soit le vecteur nul \(u = 0\). Ce qui revient à dire que :

\[\scalaire{u}{u} > 0\]

pour tout \(u \in E \setminus \{ 0 \}\).

Si on peut également interchanger n'importe quels \(u,v \in E\) sans changer le résultat :

\[\scalaire{u}{v} = \scalaire{v}{u}\]

on dit que \(\scalaire{}{}\) est un produit scalaire réel sur \(E\).

Nous déduisons directement de la linéarité à droite et de la symétrie que :

\[\scalaire{\alpha \cdot u + \beta \cdot v}{w} = \alpha \cdot \scalaire{u}{w} + \beta \cdot \scalaire{v}{w}\]

pour tout \(\alpha,\beta \in \setR\) et \(u,v,w \in E\). Le produit scalaire réel est bilinéaire.

4. Produit scalaire complexe

Examinons à présent le cas \(\corps = \setC\). On demande qu'un produit scalaire \(\scalaire{}{} : E \times E \mapsto \setC\) soit strictement défini positif. Pour cela, les valeurs de \(\scalaire{u}{u}\) doivent être réelles et positives :

\( \scalaire{u}{u} \in \setR \)

\( \scalaire{u}{u} \ge 0 \)

pour tout \(u \in E\). Ensuite, il faut également que le seul élément \(u \in E\) vérifiant :

\[\scalaire{u}{u} = 0\]

soit le vecteur nul \(u = 0\).

Le caractère réel de \(\scalaire{u}{u}\) implique que :

\[\scalaire{u}{u} = \conjaccent{\scalaire{u}{u}}\]

où la barre supérieure désigne comme d'habitude le complexe conjugué. Cette constatation nous mène à une variante de la symétrie. On impose :

\[\scalaire{u}{v} = \conjaccent{\scalaire{v}{u}}\]

pour tout \(u,v \in E\). On dit que le produit scalaire complexe est hermitien.

La linéarité à droite s'exprime simplement par :

\[\scalaire{u}{\alpha \cdot v + \beta \cdot w} = \alpha \cdot \scalaire{u}{v} + \beta \cdot \scalaire{u}{w}\]

pour tout \(u,v,w \in E\) et pour tout \(\alpha,\beta \in \setC\). On déduit de la linéarité et du caractère hermitien du produit scalaire complexe que :

\begin{align} \scalaire{\alpha \cdot u + \beta \cdot v}{w} &= \conjaccent{\scalaire{w}{\alpha \cdot u + \beta \cdot v}} \\ &= \conjaccent{\alpha} \cdot \conjaccent{\scalaire{w}{u}} + \conjaccent{\beta} \cdot \conjaccent{\scalaire{w}{v}} \end{align}

et finalement :

\[\scalaire{\alpha \cdot u + \beta \cdot v}{w} = \conjaccent{\alpha} \cdot \scalaire{u}{w} + \conjaccent{\beta} \cdot \scalaire{v}{w}\]

On dit que le produit scalaire est antilinéaire à gauche.

4.1. Corollaire

En particulier, si \(u,v,w,x\) sont des vecteurs de \(E\) et si \(\alpha = \scalaire{u}{v} \in \setC\), on a :

\( \scalaire{w}{\alpha \cdot x} = \scalaire{w}{ \scalaire{u}{v} \cdot x} = \scalaire{u}{v} \cdot \scalaire{w}{x} \)

\( \scalaire{\alpha \cdot w}{x} = \scalaire{ \scalaire{u}{v} \cdot w}{x} = \scalaire{v}{u} \cdot \scalaire{w}{x} \)

4.2. Cas particulier

Comme \(\conjaccent{x} = x\) pour tout \(x \in \setR \subseteq \setC\), on peut considérer le produit scalaire réel comme un cas particulier de produit scalaire complexe.

5. Espace orthogonal

5.1. A un vecteur

Soit \(x \in H\). On définit l'ensemble \(x^\orthogonal\) par :

\[x^\orthogonal = \{ z \in E : \scalaire{x}{z} = 0 \}\]

On dit des vecteurs de \(x^\orthogonal\) qu'ils sont orthogonaux à \(x\).

5.2. A un ensemble

Pour tout sous-ensemble \(V \subseteq E\), l'ensemble orthogonal à \(V\) est l'ensemble des vecteurs qui sont orthogonaux à tous les éléments de \(V\) :

\[V^\orthogonal = \bigcap_{x \in V} x^\orthogonal\]

Pour tout \(z \in V^\orthogonal\), on a donc \(\scalaire{x}{z} = 0\) quel que soit \(x \in V\).

Nous allons vérifier que \(V^\orthogonal\) est un sous-espace vectoriel. Soit \(z \in V\). Comme \(\scalaire{z}{0} = 0\), on a \(0 \in V^\orthogonal\). Soit \(x,y \in V^\orthogonal\), \(\alpha,\beta \in \corps\). On a :

\[\scalaire{z}{\alpha \cdot x + \beta \cdot y} = \alpha \cdot \scalaire{z}{x} + \beta \cdot \scalaire{z}{y} = 0 + 0 = 0\]

ce qui montre que \(\alpha \cdot x + \beta \cdot y \in V^\orthogonal\).

6. Egalité

Si \(u,v \in E\) sont tels que :

\[\scalaire{u}{w} = \scalaire{v}{w}\]

pour tout \(w \in E\), on a :

\[\scalaire{u - v}{w} = 0\]

Le choix \(w = u - v \in E\) nous donne alors :

\[\scalaire{u - v}{u - v} = 0\]

ce qui implique \(u - v = 0\) et donc \(u = v\).

7. Base orthonormée

Une base \((e_1,...,e_n)\) de \(E\) est dite orthonormée si le produit scalaire de deux vecteurs \(e_i \ne e_j\) s'annule, tandis que le produit scalaire d'un \(e_i\) avec lui-même donne l'unité :

\[\scalaire{e_i}{e_j} = \indicatrice_{ij}\]

7.1. Coordonnées

Soit \(u \in E\) de coordonnée \(u_i \in \corps\) :

\[u = \sum_{i = 1}^n u_i \cdot e_i\]

En effectuant le produit scalaire de \(u\) avec \(e_k\), on arrive à  :

\( \scalaire{e_k}{u} = \sum_{i = 1}^n u_i \cdot \scalaire{e_k}{e_i} \)

\( \scalaire{e_k}{u} = \sum_{i = 1}^n u_i \cdot \indicatrice_{ik} \)

Tous les termes de cette dernière somme s'annulent sauf lorsque \(i = k\), et on a :

\[\scalaire{e_k}{u} = u_k\]

On peut donc écrire :

\[y = \sum_{i = 1}^n \scalaire{e_i}{u} \cdot e_i\]

7.2. Indépendance linéaire

On peut voir que si une suite de vecteurs \(e_i\) est orthonormée, (ils ne forment pas forcément une base) ils sont toujours linéairement indépendant. En effet si les scalaires \(a_i\), sont tels que :

\[\sum_{i=1}^n a_i \cdot e_i = 0\]

on a alors :

\[a_i = \scalaire{e_i}{0} = 0\]

8. Produit scalaire et coordonnées

Soit \((e_1,...,e_n)\) une base de \(E\) et \(u,v \in E\). On a :

\( u = \sum_i u_i \cdot e_i \)

\( v = \sum_i v_i \cdot e_i \)

pour certains \(u_i,v_i \in \corps\). Posons :

\[g_{ij} = \scalaire{e_i}{e_j}\]

où \(\scalaire{}{} : E \times E \mapsto \setC\) est un produit scalaire complexe. Nous pouvons faire sortir les sommes en utilisant les propriétés du produit scalaire, ce qui nous donne :

\[\scalaire{u}{v} = \sum_{i,j} \conjaccent{u}_i \cdot g_{ij} \cdot v_j\]

8.1. Réel

Dans les cas d'un produit scalaire réel, on a \(\conjaccent{u}_i = u_i\) et l'expression devient :

\[\scalaire{u}{v} = \sum_{i,j} u_i \cdot g_{ij} \cdot v_j\]

8.2. Base orthonormée

Si la base \((e_1,...,e_n)\) est orthonormée, l'expression du produit scalaire se simplifie en :

\[\scalaire{u}{v} = \sum_i \conjaccent{u}_i \cdot v_i\]

9. Application définie positive

Soit une application linéaire \(A : E \mapsto E\). Si le produit scalaire de \(u\) avec \(A(u)\) est un réel positif :

\[\scalaire{u}{A(u)} = \scalaire{A(u)}{u} \ge 0\]

pour tout \(u \in E\), on dit que \(A\) est définie positive.

10. Produit scalaire sur \(\setR^n\)

Soit \(x,y \in \setR^n\) tels que :

\( x = (x_1,x_2,...,x_n) \)

\( y = (y_1,y_2,...,y_n) \)

pour certains \(x_i,y_i \in \setR\).

Le produit scalaire usuel sur \(\setR^n\) est défini par :

\[\scalaire{x}{y} = \sum_{i = 1}^n x_i y_i\]

11. Produit scalaire sur \(\setC^n\)

Soit \(x,y \in \setC^n\) tels que :

\( x = (x_1,x_2,...,x_n) \)

\( y = (y_1,y_2,...,y_n) \)

pour certains \(x_i,y_i \in \setC\).

Le produit scalaire usuel est défini par :

\[\scalaire{x}{y} = \sum_{i=1}^n \conjaccent{x}_i y_i\]

12. Base orthonormée sur \(\corps^n\)

Soit \(\corps \in \{ \setR , \setC \}\). Il est clair que la base canonique de \(\corps^n\) :

\[e_i = ( \indicatrice_{ij} )_{i,j}\]

vérifie :

\[\scalaire{e_i}{e_j} = \indicatrice_{ij}\]

pour le produit scalaire usuel sur \(\corps^n\). La suite \((e_1,...,e_n)\) forme une base orthonormée.

13. Représentation matricielle

Soit \(x = (x_1,..,x_n) , y = (y_1,...,y_n) \in \setC^n\). On définit les vecteurs colonne associé :

\[ x = \begin{Matrix}{c} x_1 \\ x_2 \\ \vdots \\ x_n \end{Matrix} \qquad \qquad y = \begin{Matrix}{c} y_1 \\ y_2 \\ \vdots \\ y_n \end{Matrix} \]

L'équivalence entre \(\setC^n\) et \(\matrice(\setC,n,1)\) nous amène à :

\[\scalaire{x}{y} = \sum_i \conjaccent{x}_i \cdot y_i\]

Le membre de droite n'est rien d'autre que le produit « matriciel » \(\conjaccent{x^T} \cdot y\) et on a donc :

\[\scalaire{x}{y} = \conjaccent{x^T} \cdot y\]

On vérifie que la base \((e_1,...,e_n)\) est orthonormée pour ce produit scalaire :

\[e_i^T \cdot e_j = \indicatrice_{ij}\]

14. Application linéaire

Soit les espaces vectoriels \(E,F\) sur \(\corps\) et une application linéaire \(\mathcal{A} : E \mapsto F\). On prend une base \((e_1,..,e_n)\) de \(E\) et une base orthonormée \((f_1,...,f_m)\) de \(F\). Comme les composantes de la matrice associée \(A\) sont les coordonnées de \(\mathcal{A}(e_j)\) dans la base des \(f_i\), on a :

\[\composante_{ij} A = \scalaire{f_i}{\mathcal{A}(e_j)}\]

15. Matrice de produit scalaire

Soit un espace vectoriel \(E\) sur \(\corps\) et un produit scalaire \(\scalaire{}{}\) quelconque défini sur \(E\). Soit \((e_1,...,e_n)\) une base quelconque de \(E\) (nous ne supposons pas qu'elle soit orthonormée). Si \(\hat{x},\hat{y} \in E\), on a :

\( \hat{x} = \sum_i x_i \cdot e_i \)

\( \hat{y} = \sum_i y_i \cdot e_i \)

pour certains \(x_i,y_i \in S\). Or, nous avons vu que :

\[\scalaire{\hat{x}}{\hat{y}} = \sum_{i,j} \conjaccent{x}_i \scalaire{e_i}{e_j} y_j\]

Si nous définissons la matrice des produits scalaires \(A \in \matrice(\corps,m,n)\) par :

\[\composante_{ij} A = \scalaire{e_i}{e_j}\]

nous pouvons réécrire le produit scalaire sous la forme :

\[\scalaire{\hat{x}}{\hat{y}} = \conjaccent{x^T} \cdot A \cdot y\]

où \(x,y\) sont les vecteurs colonne associés à \(\hat{x},\hat{y}\) :

\( x = [x_1 \ x_2 \ ... \ x_n]^T \)

\( y = [y_1 \ y_2 \ ... \ y_n]^T \)

Cette matrice possède d'importantes propriétés issues du produit scalaire. On a \(\conjaccent{x^T} \cdot A \cdot x > 0\) pour tout \(x \ne 0\). On dit que \(A\) est une matrice définie positive. Le caractère hermitien du produit scalaire nous donne aussi \(\conjaccent{A^T} = A\). On dit que \(A\) est une matrice hermitienne, ou auto-adjointe.

15.1. Réciproque

Si \(A\) est une matrice carrée définie positive et hermitienne, l'application définie par :

\[\scalaire{x}{y} = \conjaccent{x^T} \cdot A \cdot y\]

est bien un produit scalaire. En effet, la définie positivité de la matrice est équivalente à celle du produit ainsi défini. Pour le caractére hermitien, on a :

\begin{align} \scalaire{x}{y} &= \sum_{i,j} \conjaccent{x}_i \cdot A_{ij} \cdot y_j = \sum_{i,j} \conjaccent{x}_i \cdot \conjaccent{A}_{ji} \cdot y_j \) \( &= \sum_{i,j} y_j \cdot \conjaccent{A}_{ji} \cdot \conjaccent{x}_i = \conjugue \sum_{i,j} \conjaccent{y}_j \cdot A_{ji} \cdot x_i \) \( &= \conjugue \scalaire{y}{x} \end{align}

16. Bases de vecteurs matriciels

Un cas particulier important survient lorsque les vecteurs sont des vecteurs matriciels. Soit une suite de vecteurs linéairement indépendants \(u_1,u_2,...,u_m \in \matrice(\corps,n,1)\). Soit des \(x_i,y_i \in \corps\) et les vecteurs :

\( X = \sum_{i = 1}^m x_i \cdot u_i \)

\( Y = \sum_{i = 1}^m y_i \cdot u_i \)

Si nous considérons les vecteurs \(x,y \in \matrice(\corps,m,1)\) associés :

\( x = [x_1 \ x_2 \ ... \ x_m]^T \)

\( y = [y_1 \ y_2 \ ... \ y_m]^T \)

ainsi que la matrice \(U \in \matrice(\corps,n,m)\) rassemblant les \(u_i\) :

\[U = [u_1 \ u_2 \ ... \ u_m]\]

on peut réécrire la définition de \(x,y\) sous la forme :

\( X = U \cdot x \)

\( Y = U \cdot y \)

On a alors :

\[\scalaire{X}{Y} = \conjaccent{X^T} \cdot Y = \conjaccent{x^T} \cdot \conjaccent{U^T} \cdot U \cdot y\]

On en conclut que la matrice \(A = \conjaccent{U^T} \cdot U \in \matrice(\corps,m,m)\) est une matrice de produit scalaire

16.1. Réciproque

Soit \(U \in \matrice(\corps,n,m)\) telle que \(\noyau U = \{0\}\). La matrice \(A = \conjaccent{U^T} \cdot U \in \matrice(\corps,m,m)\) est une matrice de produit scalaire. En effet :

\[\conjaccent{x^T} \cdot A \cdot x = \conjaccent{x^T} \cdot \conjaccent{U^T} \cdot U \cdot x = \conjugue(U \cdot x)^T \cdot (U \cdot x) \ge 0\]

Si \(x \ne 0\), on a de plus \(U \cdot x \ne 0\) et \(\conjaccent{x}^T \cdot A \cdot x \strictsuperieur 0\). Par ailleurs, on a évidemment :

\[\conjaccent{A^T} = \conjaccent{(\conjaccent{U^T} \cdot U)^T} = \conjaccent{U^T} \cdot U = A\]

17. Noyau

Soit \(l_i = \ligne_i A\) et \(x \in \noyau A\). On a alors :

\[0 = \composante_i (A \cdot x) = l_i \cdot x\]

On en conclut que les lignes de \(A\) sont orthogonales aux \(\conjaccent{l}_i\). Il en va de même pour toute combinaison linéaire de ces lignes, et :

\[\noyau A = \combilin{\conjaccent{l}_1,...,\conjaccent{l}_m}^\orthogonal\]

Auteur: chimay

Created: 2025-10-21 mar 15:53

Validate