Eclats de vers : Matemat : Produit scalaire
Table des matières
- 1. Dépendances
- 2. Introduction
- 3. Produit scalaire réel
- 4. Produit scalaire complexe
- 5. Espace orthogonal
- 6. Egalité
- 7. Base orthonormée
- 8. Produit scalaire et coordonnées
- 9. Application définie positive
- 10. Produit scalaire sur \(\setR^n\)
- 11. Produit scalaire sur \(\setC^n\)
- 12. Base orthonormée sur \(\corps^n\)
- 13. Représentation matricielle
- 14. Application linéaire
- 15. Matrice de produit scalaire
- 16. Bases de vecteurs matriciels
- 17. Noyau
\( \newcommand{\parentheses}[1]{\left(#1\right)} \newcommand{\crochets}[1]{\left[#1\right]} \newcommand{\accolades}[1]{\left\{#1\right\}} \newcommand{\ensemble}[1]{\left\{#1\right\}} \newcommand{\identite}{\mathrm{Id}} \newcommand{\indicatrice}{\boldsymbol{\delta}} \newcommand{\dirac}{\delta} \newcommand{\moinsun}{{-1}} \newcommand{\inverse}{\ddagger} \newcommand{\pinverse}{\dagger} \newcommand{\topologie}{\mathfrak{T}} \newcommand{\ferme}{\mathfrak{F}} \newcommand{\img}{\mathbf{i}} \newcommand{\binome}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\canonique}{\mathfrak{c}} \newcommand{\tenseuridentite}{\boldsymbol{\mathcal{I}}} \newcommand{\permutation}{\boldsymbol{\epsilon}} \newcommand{\matriceZero}{\mathfrak{0}} \newcommand{\matriceUn}{\mathfrak{1}} \newcommand{\christoffel}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\lagrangien}{\mathfrak{L}} \newcommand{\sousens}{\mathfrak{P}} \newcommand{\partition}{\mathrm{Partition}} \newcommand{\tribu}{\mathrm{Tribu}} \newcommand{\topologies}{\mathrm{Topo}} \newcommand{\setB}{\mathbb{B}} \newcommand{\setN}{\mathbb{N}} \newcommand{\setZ}{\mathbb{Z}} \newcommand{\setQ}{\mathbb{Q}} \newcommand{\setR}{\mathbb{R}} \newcommand{\setC}{\mathbb{C}} \newcommand{\corps}{\mathbb{K}} \newcommand{\boule}{\mathfrak{B}} \newcommand{\intervalleouvert}[2]{\left] #1 , #2 \right[} \newcommand{\intervallesemiouvertgauche}[2]{ \left] #1 , #2 \right]} \newcommand{\intervallesemiouvertdroite}[2]{\left[ #1 , #2 \right[ } \newcommand{\fonction}{\mathbb{F}} \newcommand{\bijection}{\mathrm{Bij}} \newcommand{\polynome}{\mathrm{Poly}} \newcommand{\lineaire}{\mathrm{Lin}} \newcommand{\continue}{\mathrm{Cont}} \newcommand{\homeomorphisme}{\mathrm{Hom}} \newcommand{\etagee}{\mathrm{Etagee}} \newcommand{\lebesgue}{\mathrm{Leb}} \newcommand{\lipschitz}{\mathrm{Lip}} \newcommand{\suitek}{\mathrm{Suite}} \newcommand{\matrice}{\mathbb{M}} \newcommand{\krylov}{\mathrm{Krylov}} \newcommand{\tenseur}{\mathbb{T}} \newcommand{\essentiel}{\mathfrak{E}} \newcommand{\relation}{\mathrm{Rel}} \DeclareMathOperator*{\strictinferieur}{\ < \ } \DeclareMathOperator*{\strictsuperieur}{\ > \ } \DeclareMathOperator*{\ensinferieur}{\eqslantless} \DeclareMathOperator*{\enssuperieur}{\eqslantgtr} \DeclareMathOperator*{\esssuperieur}{\gtrsim} \DeclareMathOperator*{\essinferieur}{\lesssim} \newcommand{\essegal}{\eqsim} \newcommand{\union}{\ \cup \ } \newcommand{\intersection}{\ \cap \ } \newcommand{\opera}{\divideontimes} \newcommand{\autreaddition}{\boxplus} \newcommand{\autremultiplication}{\circledast} \newcommand{\commutateur}[2]{\left[ #1 , #2 \right]} \newcommand{\convolution}{\circledcirc} \newcommand{\correlation}{\ \natural \ } \newcommand{\diventiere}{\div} \newcommand{\modulo}{\bmod} \DeclareMathOperator*{\pgcd}{pgcd} \DeclareMathOperator*{\ppcm}{ppcm} \newcommand{\produitscalaire}[2]{\left\langle #1 \vert #2 \right\rangle} \newcommand{\scalaire}[2]{\left\langle #1 \| #2 \right\rangle} \newcommand{\braket}[3]{\left\langle #1 \vert #2 \vert #3 \right\rangle} \newcommand{\orthogonal}{\bot} \newcommand{\forme}[2]{\left\langle #1 , #2 \right\rangle} \newcommand{\biforme}[3]{\left\langle #1 , #2 , #3 \right\rangle} \newcommand{\contraction}[3]{\left\langle #1 \odot #3 \right\rangle_{#2}} \newcommand{\dblecont}[5]{\left\langle #1 \vert #3 \vert #5 \right\rangle_{#2,#4}} \DeclareMathOperator*{\major}{major} \DeclareMathOperator*{\minor}{minor} \DeclareMathOperator*{\maxim}{maxim} \DeclareMathOperator*{\minim}{minim} \DeclareMathOperator*{\argument}{arg} \DeclareMathOperator*{\argmin}{arg\ min} \DeclareMathOperator*{\argmax}{arg\ max} \DeclareMathOperator*{\supessentiel}{ess\ sup} \DeclareMathOperator*{\infessentiel}{ess\ inf} \newcommand{\dual}{\star} \newcommand{\distance}{\mathfrak{dist}} \newcommand{\norme}[1]{\left\| #1 \right\|} \newcommand{\normetrois}[1]{\left|\left\| #1 \right\|\right|} \DeclareMathOperator*{\adh}{adh} \DeclareMathOperator*{\interieur}{int} \newcommand{\frontiere}{\partial} \DeclareMathOperator*{\image}{im} \DeclareMathOperator*{\domaine}{dom} \DeclareMathOperator*{\noyau}{ker} \DeclareMathOperator*{\support}{supp} \DeclareMathOperator*{\signe}{sign} \newcommand{\abs}[1]{\left| #1 \right|} \newcommand{\unsur}[1]{\frac{1}{#1}} \newcommand{\arrondisup}[1]{\lceil #1 \rceil} \newcommand{\arrondiinf}[1]{\lfloor #1 \rfloor} \DeclareMathOperator*{\conjugue}{conj} \newcommand{\conjaccent}[1]{\overline{#1}} \DeclareMathOperator*{\division}{division} \newcommand{\difference}{\boldsymbol{\Delta}} \newcommand{\differentielle}[2]{\mathfrak{D}^{#1}_{#2}} \newcommand{\OD}[2]{\frac{d #1}{d #2}} \newcommand{\OOD}[2]{\frac{d^2 #1}{d #2^2}} \newcommand{\NOD}[3]{\frac{d^{#3} #1}{d #2^{#3}}} \newcommand{\deriveepartielle}[2]{\frac{\partial #1}{\partial #2}} \newcommand{\PD}[2]{\frac{\partial #1}{\partial #2}} \newcommand{\dblederiveepartielle}[2]{\frac{\partial^2 #1}{\partial #2 \partial #2}} \newcommand{\dfdxdy}[3]{\frac{\partial^2 #1}{\partial #2 \partial #3}} \newcommand{\dfdxdx}[2]{\frac{\partial^2 #1}{\partial #2^2}} \newcommand{\gradient}{\mathbf{\nabla}} \newcommand{\combilin}[1]{\mathrm{span}\{ #1 \}} \DeclareMathOperator*{\trace}{tr} \newcommand{\proba}{\mathbb{P}} \newcommand{\probaof}[1]{\mathbb{P}\left[#1\right]} \newcommand{\esperof}[1]{\mathbb{E}\left[#1\right]} \newcommand{\cov}[2]{\mathrm{cov} \left( #1 , #2 \right) } \newcommand{\var}[1]{\mathrm{var} \left( #1 \right) } \newcommand{\rand}{\mathrm{rand}} \newcommand{\variation}[1]{\left\langle #1 \right\rangle} \DeclareMathOperator*{\composante}{comp} \DeclareMathOperator*{\bloc}{bloc} \DeclareMathOperator*{\ligne}{ligne} \DeclareMathOperator*{\colonne}{colonne} \DeclareMathOperator*{\diagonale}{diag} \newcommand{\matelementaire}{\mathrm{Elem}} \DeclareMathOperator*{\matpermutation}{permut} \newcommand{\matunitaire}{\mathrm{Unitaire}} \newcommand{\gaussjordan}{\mathrm{GaussJordan}} \newcommand{\householder}{\mathrm{Householder}} \DeclareMathOperator*{\rang}{rang} \newcommand{\schur}{\mathrm{Schur}} \newcommand{\singuliere}{\mathrm{DVS}} \newcommand{\convexe}{\mathrm{Convexe}} \newcommand{\petito}[1]{o\left(#1\right)} \newcommand{\grando}[1]{O\left(#1\right)} \)
\( \newenvironment{Eqts} { \begin{equation*} \begin{gathered} } { \end{gathered} \end{equation*} } \newenvironment{Matrix} {\left[ \begin{array}} {\end{array} \right]} \)
\label{chap:ps}
1. Dépendances
- Chapitre \ref{chap:vecteur} : Les espaces vectoriels
- Chapitre \ref{chap:norme} : Les normes
2. Introduction
Soit \(E\) un espace vectoriel sur \(\corps\) et une famille de fonctions linéaires \(\phi_u \in E^\dual\) où \(u \in E\) est un paramètre vectoriel. Nous pouvons écrire :
\[\phi_u(v) = \forme{\phi_u}{v}\]
pour tout \(u,v \in E\). Cette expression introduit implicitement le produit dérivé \(\scalaire{}{} : E \times E \mapsto \corps\) défini par :
\[\scalaire{u}{v} = \forme{\phi_u}{v}\]
pour tout \(u,v \in E\). Ce produit hérite bien entendu la linéarité à droite de la forme associée :
\[\scalaire{u}{\alpha \cdot v + \beta \cdot w} = \alpha \cdot \scalaire{u}{v} + \beta \cdot \scalaire{u}{w}\]
pour tout \(u,v,w \in E\) et pour tout \(\alpha,\beta \in \corps\).
Les produits scalaires sont des cas particuliers de ce type de produit.
2.1. Notation
On note aussi le produit scalaire sous forme de point :
\[u \cdot v = \scalaire{u}{v}\]
3. Produit scalaire réel
Considérons le cas particulier où \(\corps = \setR\). et un produit linéaire à droite \(\scalaire{}{} : E \times E \mapsto \setR\). Nous voudrions en plus que la valeur de \(\scalaire{u}{u}\) en chaque \(u \in E\) puisse représenter la norme de \(u\). Nous imposons donc la positivité :
\[\scalaire{u}{u} \ge 0\]
Pour compléter le caractère strictement défini positif, on impose également que le seul élément \(u \in E\) vérifiant :
\[\scalaire{u}{u} = 0\]
soit le vecteur nul \(u = 0\). Ce qui revient à dire que :
\[\scalaire{u}{u} > 0\]
pour tout \(u \in E \setminus \{ 0 \}\).
Si on peut également interchanger n'importe quels \(u,v \in E\) sans changer le résultat :
\[\scalaire{u}{v} = \scalaire{v}{u}\]
on dit que \(\scalaire{}{}\) est un produit scalaire réel sur \(E\).
Nous déduisons directement de la linéarité à droite et de la symétrie que :
\[\scalaire{\alpha \cdot u + \beta \cdot v}{w} = \alpha \cdot \scalaire{u}{w} + \beta \cdot \scalaire{v}{w}\]
pour tout \(\alpha,\beta \in \setR\) et \(u,v,w \in E\). Le produit scalaire réel est bilinéaire.
4. Produit scalaire complexe
Examinons à présent le cas \(\corps = \setC\). On demande qu'un produit scalaire \(\scalaire{}{} : E \times E \mapsto \setC\) soit strictement défini positif. Pour cela, les valeurs de \(\scalaire{u}{u}\) doivent être réelles et positives :
\( \scalaire{u}{u} \in \setR \)
\( \scalaire{u}{u} \ge 0 \)
pour tout \(u \in E\). Ensuite, il faut également que le seul élément \(u \in E\) vérifiant :
\[\scalaire{u}{u} = 0\]
soit le vecteur nul \(u = 0\).
Le caractère réel de \(\scalaire{u}{u}\) implique que :
\[\scalaire{u}{u} = \conjaccent{\scalaire{u}{u}}\]
où la barre supérieure désigne comme d'habitude le complexe conjugué. Cette constatation nous mène à une variante de la symétrie. On impose :
\[\scalaire{u}{v} = \conjaccent{\scalaire{v}{u}}\]
pour tout \(u,v \in E\). On dit que le produit scalaire complexe est hermitien.
La linéarité à droite s'exprime simplement par :
\[\scalaire{u}{\alpha \cdot v + \beta \cdot w} = \alpha \cdot \scalaire{u}{v} + \beta \cdot \scalaire{u}{w}\]
pour tout \(u,v,w \in E\) et pour tout \(\alpha,\beta \in \setC\). On déduit de la linéarité et du caractère hermitien du produit scalaire complexe que :
\begin{align} \scalaire{\alpha \cdot u + \beta \cdot v}{w} &= \conjaccent{\scalaire{w}{\alpha \cdot u + \beta \cdot v}} \\ &= \conjaccent{\alpha} \cdot \conjaccent{\scalaire{w}{u}} + \conjaccent{\beta} \cdot \conjaccent{\scalaire{w}{v}} \end{align}et finalement :
\[\scalaire{\alpha \cdot u + \beta \cdot v}{w} = \conjaccent{\alpha} \cdot \scalaire{u}{w} + \conjaccent{\beta} \cdot \scalaire{v}{w}\]
On dit que le produit scalaire est antilinéaire à gauche.
4.1. Corollaire
En particulier, si \(u,v,w,x\) sont des vecteurs de \(E\) et si \(\alpha = \scalaire{u}{v} \in \setC\), on a :
\( \scalaire{w}{\alpha \cdot x} = \scalaire{w}{ \scalaire{u}{v} \cdot x} = \scalaire{u}{v} \cdot \scalaire{w}{x} \)
\( \scalaire{\alpha \cdot w}{x} = \scalaire{ \scalaire{u}{v} \cdot w}{x} = \scalaire{v}{u} \cdot \scalaire{w}{x} \)
4.2. Cas particulier
Comme \(\conjaccent{x} = x\) pour tout \(x \in \setR \subseteq \setC\), on peut considérer le produit scalaire réel comme un cas particulier de produit scalaire complexe.
5. Espace orthogonal
5.1. A un vecteur
Soit \(x \in H\). On définit l'ensemble \(x^\orthogonal\) par :
\[x^\orthogonal = \{ z \in E : \scalaire{x}{z} = 0 \}\]
On dit des vecteurs de \(x^\orthogonal\) qu'ils sont orthogonaux à \(x\).
5.2. A un ensemble
Pour tout sous-ensemble \(V \subseteq E\), l'ensemble orthogonal à \(V\) est l'ensemble des vecteurs qui sont orthogonaux à tous les éléments de \(V\) :
\[V^\orthogonal = \bigcap_{x \in V} x^\orthogonal\]
Pour tout \(z \in V^\orthogonal\), on a donc \(\scalaire{x}{z} = 0\) quel que soit \(x \in V\).
Nous allons vérifier que \(V^\orthogonal\) est un sous-espace vectoriel. Soit \(z \in V\). Comme \(\scalaire{z}{0} = 0\), on a \(0 \in V^\orthogonal\). Soit \(x,y \in V^\orthogonal\), \(\alpha,\beta \in \corps\). On a :
\[\scalaire{z}{\alpha \cdot x + \beta \cdot y} = \alpha \cdot \scalaire{z}{x} + \beta \cdot \scalaire{z}{y} = 0 + 0 = 0\]
ce qui montre que \(\alpha \cdot x + \beta \cdot y \in V^\orthogonal\).
6. Egalité
Si \(u,v \in E\) sont tels que :
\[\scalaire{u}{w} = \scalaire{v}{w}\]
pour tout \(w \in E\), on a :
\[\scalaire{u - v}{w} = 0\]
Le choix \(w = u - v \in E\) nous donne alors :
\[\scalaire{u - v}{u - v} = 0\]
ce qui implique \(u - v = 0\) et donc \(u = v\).
7. Base orthonormée
Une base \((e_1,...,e_n)\) de \(E\) est dite orthonormée si le produit scalaire de deux vecteurs \(e_i \ne e_j\) s'annule, tandis que le produit scalaire d'un \(e_i\) avec lui-même donne l'unité :
\[\scalaire{e_i}{e_j} = \indicatrice_{ij}\]
7.1. Coordonnées
Soit \(u \in E\) de coordonnée \(u_i \in \corps\) :
\[u = \sum_{i = 1}^n u_i \cdot e_i\]
En effectuant le produit scalaire de \(u\) avec \(e_k\), on arrive à :
\( \scalaire{e_k}{u} = \sum_{i = 1}^n u_i \cdot \scalaire{e_k}{e_i} \)
\( \scalaire{e_k}{u} = \sum_{i = 1}^n u_i \cdot \indicatrice_{ik} \)
Tous les termes de cette dernière somme s'annulent sauf lorsque \(i = k\), et on a :
\[\scalaire{e_k}{u} = u_k\]
On peut donc écrire :
\[y = \sum_{i = 1}^n \scalaire{e_i}{u} \cdot e_i\]
7.2. Indépendance linéaire
On peut voir que si une suite de vecteurs \(e_i\) est orthonormée, (ils ne forment pas forcément une base) ils sont toujours linéairement indépendant. En effet si les scalaires \(a_i\), sont tels que :
\[\sum_{i=1}^n a_i \cdot e_i = 0\]
on a alors :
\[a_i = \scalaire{e_i}{0} = 0\]
8. Produit scalaire et coordonnées
Soit \((e_1,...,e_n)\) une base de \(E\) et \(u,v \in E\). On a :
\( u = \sum_i u_i \cdot e_i \)
\( v = \sum_i v_i \cdot e_i \)
pour certains \(u_i,v_i \in \corps\). Posons :
\[g_{ij} = \scalaire{e_i}{e_j}\]
où \(\scalaire{}{} : E \times E \mapsto \setC\) est un produit scalaire complexe. Nous pouvons faire sortir les sommes en utilisant les propriétés du produit scalaire, ce qui nous donne :
\[\scalaire{u}{v} = \sum_{i,j} \conjaccent{u}_i \cdot g_{ij} \cdot v_j\]
8.1. Réel
Dans les cas d'un produit scalaire réel, on a \(\conjaccent{u}_i = u_i\) et l'expression devient :
\[\scalaire{u}{v} = \sum_{i,j} u_i \cdot g_{ij} \cdot v_j\]
8.2. Base orthonormée
Si la base \((e_1,...,e_n)\) est orthonormée, l'expression du produit scalaire se simplifie en :
\[\scalaire{u}{v} = \sum_i \conjaccent{u}_i \cdot v_i\]
9. Application définie positive
Soit une application linéaire \(A : E \mapsto E\). Si le produit scalaire de \(u\) avec \(A(u)\) est un réel positif :
\[\scalaire{u}{A(u)} = \scalaire{A(u)}{u} \ge 0\]
pour tout \(u \in E\), on dit que \(A\) est définie positive.
10. Produit scalaire sur \(\setR^n\)
Soit \(x,y \in \setR^n\) tels que :
\( x = (x_1,x_2,...,x_n) \)
\( y = (y_1,y_2,...,y_n) \)
pour certains \(x_i,y_i \in \setR\).
Le produit scalaire usuel sur \(\setR^n\) est défini par :
\[\scalaire{x}{y} = \sum_{i = 1}^n x_i y_i\]
11. Produit scalaire sur \(\setC^n\)
Soit \(x,y \in \setC^n\) tels que :
\( x = (x_1,x_2,...,x_n) \)
\( y = (y_1,y_2,...,y_n) \)
pour certains \(x_i,y_i \in \setC\).
Le produit scalaire usuel est défini par :
\[\scalaire{x}{y} = \sum_{i=1}^n \conjaccent{x}_i y_i\]
12. Base orthonormée sur \(\corps^n\)
Soit \(\corps \in \{ \setR , \setC \}\). Il est clair que la base canonique de \(\corps^n\) :
\[e_i = ( \indicatrice_{ij} )_{i,j}\]
vérifie :
\[\scalaire{e_i}{e_j} = \indicatrice_{ij}\]
pour le produit scalaire usuel sur \(\corps^n\). La suite \((e_1,...,e_n)\) forme une base orthonormée.
13. Représentation matricielle
Soit \(x = (x_1,..,x_n) , y = (y_1,...,y_n) \in \setC^n\). On définit les vecteurs colonne associé :
\[ x = \begin{Matrix}{c} x_1 \\ x_2 \\ \vdots \\ x_n \end{Matrix} \qquad \qquad y = \begin{Matrix}{c} y_1 \\ y_2 \\ \vdots \\ y_n \end{Matrix} \]
L'équivalence entre \(\setC^n\) et \(\matrice(\setC,n,1)\) nous amène à :
\[\scalaire{x}{y} = \sum_i \conjaccent{x}_i \cdot y_i\]
Le membre de droite n'est rien d'autre que le produit « matriciel » \(\conjaccent{x^T} \cdot y\) et on a donc :
\[\scalaire{x}{y} = \conjaccent{x^T} \cdot y\]
On vérifie que la base \((e_1,...,e_n)\) est orthonormée pour ce produit scalaire :
\[e_i^T \cdot e_j = \indicatrice_{ij}\]
14. Application linéaire
Soit les espaces vectoriels \(E,F\) sur \(\corps\) et une application linéaire \(\mathcal{A} : E \mapsto F\). On prend une base \((e_1,..,e_n)\) de \(E\) et une base orthonormée \((f_1,...,f_m)\) de \(F\). Comme les composantes de la matrice associée \(A\) sont les coordonnées de \(\mathcal{A}(e_j)\) dans la base des \(f_i\), on a :
\[\composante_{ij} A = \scalaire{f_i}{\mathcal{A}(e_j)}\]
15. Matrice de produit scalaire
Soit un espace vectoriel \(E\) sur \(\corps\) et un produit scalaire \(\scalaire{}{}\) quelconque défini sur \(E\). Soit \((e_1,...,e_n)\) une base quelconque de \(E\) (nous ne supposons pas qu'elle soit orthonormée). Si \(\hat{x},\hat{y} \in E\), on a :
\( \hat{x} = \sum_i x_i \cdot e_i \)
\( \hat{y} = \sum_i y_i \cdot e_i \)
pour certains \(x_i,y_i \in S\). Or, nous avons vu que :
\[\scalaire{\hat{x}}{\hat{y}} = \sum_{i,j} \conjaccent{x}_i \scalaire{e_i}{e_j} y_j\]
Si nous définissons la matrice des produits scalaires \(A \in \matrice(\corps,m,n)\) par :
\[\composante_{ij} A = \scalaire{e_i}{e_j}\]
nous pouvons réécrire le produit scalaire sous la forme :
\[\scalaire{\hat{x}}{\hat{y}} = \conjaccent{x^T} \cdot A \cdot y\]
où \(x,y\) sont les vecteurs colonne associés à \(\hat{x},\hat{y}\) :
\( x = [x_1 \ x_2 \ ... \ x_n]^T \)
\( y = [y_1 \ y_2 \ ... \ y_n]^T \)
Cette matrice possède d'importantes propriétés issues du produit scalaire. On a \(\conjaccent{x^T} \cdot A \cdot x > 0\) pour tout \(x \ne 0\). On dit que \(A\) est une matrice définie positive. Le caractère hermitien du produit scalaire nous donne aussi \(\conjaccent{A^T} = A\). On dit que \(A\) est une matrice hermitienne, ou auto-adjointe.
15.1. Réciproque
Si \(A\) est une matrice carrée définie positive et hermitienne, l'application définie par :
\[\scalaire{x}{y} = \conjaccent{x^T} \cdot A \cdot y\]
est bien un produit scalaire. En effet, la définie positivité de la matrice est équivalente à celle du produit ainsi défini. Pour le caractére hermitien, on a :
\begin{align} \scalaire{x}{y} &= \sum_{i,j} \conjaccent{x}_i \cdot A_{ij} \cdot y_j = \sum_{i,j} \conjaccent{x}_i \cdot \conjaccent{A}_{ji} \cdot y_j \) \( &= \sum_{i,j} y_j \cdot \conjaccent{A}_{ji} \cdot \conjaccent{x}_i = \conjugue \sum_{i,j} \conjaccent{y}_j \cdot A_{ji} \cdot x_i \) \( &= \conjugue \scalaire{y}{x} \end{align}16. Bases de vecteurs matriciels
Un cas particulier important survient lorsque les vecteurs sont des vecteurs matriciels. Soit une suite de vecteurs linéairement indépendants \(u_1,u_2,...,u_m \in \matrice(\corps,n,1)\). Soit des \(x_i,y_i \in \corps\) et les vecteurs :
\( X = \sum_{i = 1}^m x_i \cdot u_i \)
\( Y = \sum_{i = 1}^m y_i \cdot u_i \)
Si nous considérons les vecteurs \(x,y \in \matrice(\corps,m,1)\) associés :
\( x = [x_1 \ x_2 \ ... \ x_m]^T \)
\( y = [y_1 \ y_2 \ ... \ y_m]^T \)
ainsi que la matrice \(U \in \matrice(\corps,n,m)\) rassemblant les \(u_i\) :
\[U = [u_1 \ u_2 \ ... \ u_m]\]
on peut réécrire la définition de \(x,y\) sous la forme :
\( X = U \cdot x \)
\( Y = U \cdot y \)
On a alors :
\[\scalaire{X}{Y} = \conjaccent{X^T} \cdot Y = \conjaccent{x^T} \cdot \conjaccent{U^T} \cdot U \cdot y\]
On en conclut que la matrice \(A = \conjaccent{U^T} \cdot U \in \matrice(\corps,m,m)\) est une matrice de produit scalaire
16.1. Réciproque
Soit \(U \in \matrice(\corps,n,m)\) telle que \(\noyau U = \{0\}\). La matrice \(A = \conjaccent{U^T} \cdot U \in \matrice(\corps,m,m)\) est une matrice de produit scalaire. En effet :
\[\conjaccent{x^T} \cdot A \cdot x = \conjaccent{x^T} \cdot \conjaccent{U^T} \cdot U \cdot x = \conjugue(U \cdot x)^T \cdot (U \cdot x) \ge 0\]
Si \(x \ne 0\), on a de plus \(U \cdot x \ne 0\) et \(\conjaccent{x}^T \cdot A \cdot x \strictsuperieur 0\). Par ailleurs, on a évidemment :
\[\conjaccent{A^T} = \conjaccent{(\conjaccent{U^T} \cdot U)^T} = \conjaccent{U^T} \cdot U = A\]
17. Noyau
Soit \(l_i = \ligne_i A\) et \(x \in \noyau A\). On a alors :
\[0 = \composante_i (A \cdot x) = l_i \cdot x\]
On en conclut que les lignes de \(A\) sont orthogonales aux \(\conjaccent{l}_i\). Il en va de même pour toute combinaison linéaire de ces lignes, et :
\[\noyau A = \combilin{\conjaccent{l}_1,...,\conjaccent{l}_m}^\orthogonal\]