Matrice définie positive

Matrice définie positive

En algèbre linéaire, la notion de matrice définie positive est analogue à celle de nombre réel strictement positif : une matrice définie positive est une matrice positive inversible (la réciproque est fausse).

On introduit tout d'abord les notations suivantes ; si a est une matrice à éléments réels ou complexes :

On rappelle que :

Sommaire

Matrice symétrique réelle définie positive

Soit M une matrice symétrique réelle d'ordre n. Elle est dite définie positive si elle vérifie l'une des 3 propriétés équivalentes suivantes :

1. Pour toute matrice colonne non nulle \ \textbf{x} à n éléments réels, on a
{}^t \! \textbf{x} M \textbf{x} > 0.

(autrement dit, la forme quadratique définie par \,M est strictement positive pour \,\mathbf{x}\not=0)

2. Toutes les valeurs propres de M sont strictement positives, c'est-à-dire :
\ \mathrm{sp}(M)  \subset\, ]0,\, +\infty[\,.
3. La forme bilinéaire symétrique définie par la relation
\langle \textbf{x},\textbf{y}\rangle_M = {}^t \! \textbf{x} M \textbf{y}

est un produit scalaire sur \mathbb{R}^n (identifié ici à l'espace vectoriel des matrices colonnes à n éléments réels).

Une matrice symétrique réelle est dite définie négative si son opposée (symétrique elle aussi) est définie positive.

La propriété 1 signifie que M définit sur \mathbb{R}^n une forme quadratique définie positive, la propriété 2 que sur \mathbb{R}^n, vu comme espace euclidien avec le produit scalaire \langle x,y \rangle =\sum_{i=1}^nx_iy_i, M définit un opérateur auto-adjoint positif. L'équivalence entre 1 et 2 vient de cette double interprétation, à la lumière de la réduction de Gauss et du théorème spectral. Si 1 est vraie, sachant que les valeurs propres d'une matrice symétrique réelle sont réelles, on voit en appliquant 1 aux vecteurs propres que les valeurs propres sont strictement positives. Si 2 est vraie, il existe une matrice orthogonale \,Q telle que \,QAQ^{-1} soit diagonale (parce que \,A est symétrique réelle) à coefficients diagonaux strictement positifs (c'est l'hypothèse 2 sur les valeurs propres). Mais comme Q − 1 = tQ, la matrice \,A est aussi congrue à la matrice diagonale en question, donc la forme quadratique {}^t \! \textbf{x} M \textbf{x} est définie positive.

Exemple de base

Pour toute matrice réelle \,A, les matrices symétriques \,{}^tAA et \,A{}^tA sont positives ; elles sont définies positives si et seulement si \,A est inversible. Les matrices de Gram donnent un exemple de cette situation.

Plus précisément, c'est un exemple générique, puisque:

Une matrice M \in \mathcal{M}_n( \R ) est définie positive si et seulement si on peut trouver une matrice A \in \mathcal{M}_n( \R ) inversible telle que M = tAA, c'est-à-dire si et seulement si elle est congruente à la matrice identité.

La matrice A n'est pas unique. Elle l'est si on impose qu'elle soit elle-même définie positive.

Si M = tAA, alors \forall x \in \R^n, {}^{t}xMx = {}^{t}(Ax)(Ax)  = \| Ax \|^2 \geqslant 0, et si ce terme est nul, alors Ax=0~, et si l'on suppose A inversible, alors x est nul.

Inversement, si M est définie positive, elle est diagonalisable avec une matrice de passage P orthogonale (puisque symétrique réelle), la matrice D = tPMP ayant des valeurs propres λi strictement positives. Il suffit de définir la matrice \Delta~ comme étant la matrice diagonale dont les termes diagonaux sont les \sqrt \lambda_i, et de poser A =\Delta {}^{t}P ~, car alors tAA = M. Si l'on veut une matrice définie positive, il suffit de poser plutôt A =P \Delta {}^{t}P ~.

Exemple : matrice de Hilbert

Article détaillé : Matrice de Hilbert.

On appelle matrice de Hilbert la matrice (symétrique d'ordre n) H = (h_{i,\, j}), telle que h_{i,\, j} = \frac{1}{i + j  - 1}. Elle est définie positive.

En effet, soit une matrice colonne quelconque \ \textbf{x} à n éléments réels x_1, \dots, x_n.
On remarque que \forall\, i,\, \forall\, j,\, h_{i,\,j} = \int_0^1 t^{i + j - 2}\,\mathrm{d}t. Alors, par linéarité de l'intégrale :
{}^t \! \textbf{x} H \textbf{x} = \sum_{i = 1}^n \sum_{j = 1}^n h_{i,\, j}\, x_i\, x_j = \int_0^1 \sum_{i = 1}^n \sum_{j = 1}^n t^{i + j - 2}\, x_i\, x_j\,\mathrm{d}t =
\int_0^1 \sum_{i = 1}^n \sum_{j = 1}^n \left(t^{i - 1}\, x_i\right)\,  \left(t^{j - 1}\,  x_j\right)\,\mathrm{d}t  = \int_0^1 \left(\sum_{i = 1}^n t^{i - 1}\, x_i\right)\, \left(\sum_{j = 1}^n t^{j - 1}\,  x_j\right)\,\mathrm{d}t,
d'où enfin : {}^t \! \textbf{x} H \textbf{x} = \int_0^1 \left(\sum_{i = 1}^nx_i\,  t^{i - 1}\right)^2\, \mathrm{d}t.
Dans cette dernière intégrale, l'intégrande est continu et à valeurs positives. Par conséquent :
  • {}^t \!\textbf{x} H \textbf{x} \geqslant 0 ;
  • si {}^t \! \textbf{x} H \textbf{x} = 0, alors pour tout t \in\, [0,\, 1],\, \left(\sum_{i = 1}^nx_i\,  t^{i - 1}\right)^2 = 0.
Donc pour tout t \in\, [0,\, 1],\, \sum_{i = 1}^nx_i\,  t^{i - 1} = 0.
Il en résulte que les \ x_i, coefficients d'un polynôme admettant une infinité de racines, sont tous nuls, c'est-à-dire \ \textbf{x} = 0.
Ceci prouve que {}^t \! \textbf{x} H \textbf{x} > 0 pour toute matrice colonne non nulle \ \textbf{x} à n éléments réels.

Nota : ceci est un cas particulier d'une propriété des matrices de Gram. La matrice de Gram d'une famille de n vecteurs d'un espace préhilbertien (réel ou complexe) est définie positive si et seulement si la famille est libre.

Intérêt des matrices définies positives

  • Les problèmes de résolution de systèmes linéaires les plus faciles à traiter numériquement sont ceux dont les matrices sont symétriques définies positives[1].
  • Toute matrice symétrique réelle positive est limite d'une suite de matrices symétriques réelles définies positives, ce qui est à la base de nombreux raisonnements par densité[2].

Matrice hermitienne définie positive

On étend les propriétés et définitions précédentes aux matrices complexes hermitiennes.

Soit M une matrice hermitienne d'ordre n. Elle est dite définie positive si elle vérifie l'une des 3 propriétés équivalentes suivantes :

1. Pour toute matrice colonne non nulle \ \textbf{z} à n éléments complexes, on a
\textbf{z}^{*} M \textbf{z} > 0.
2. Toutes les valeurs propres de M sont strictement positives, c'est-à-dire :
\ \mathrm{sp}(M)  \subset\, ]0,\, +\infty[\,.
3. La forme hermitienne définie par la relation
\langle \textbf{x},\textbf{y}\rangle_M = \textbf{x}^{*} M \textbf{y}

est un produit scalaire sur \mathbb{C}^n (identifié ici à l'espace vectoriel des matrices colonnes à n éléments complexes).

Une matrice hermitienne est dite définie négative si son opposée (hermitienne elle aussi) est définie positive.

Propriétés

Les propriétés suivantes sont communes aux matrices symétriques réelles et aux matrices complexes hermitiennes.

  1. Toute matrice définie positive est inversible (à déterminant réel strictement positif), et son inverse est elle aussi définie positive.
  2. Si M est définie positive et r est un nombre réel strictement positif, alors rM est définie positive.
  3. Si M et N sont définies positives, alors M + N est définie positive.
  4. Si M et N sont définies positives, et si MN = NM (on dit qu'elles commutent), alors MN est définie positive.
  5. Une matrice M est définie positive si et seulement s'il existe une matrice définie positive A telle que A2 = M ; dans ce cas, la matrice définie positive A est unique, et on peut la noter A = M1 / 2 (voir l'article racine carrée d'une matrice).

Cette propriété est utilisée pour la décomposition polaire.

Critère de Sylvester

Pour qu'une matrice A=\big(a_{ij}\big)_{1\leqslant i,j\leqslant n}, réelle symétrique ou complexe hermitienne, soit définie positive, il faut et suffit que les n matrices A_p=\big(a_{ij}\big)_{1\leqslant i,j\leqslant p}, {1\leqslant p\leqslant n} aient leur déterminant strictement positif, autrement dit que les n mineurs principaux dominants soient strictement positifs.

Remarque 1. Pour n=2, le critère de Sylvester est essentiellement le critère de positivité du trinôme du second degré.

Remarque 2. Plus généralement, l'indice d'une matrice symétrique réelle est égal au nombre de changements de signes dans la suite de ses n + 1 mineurs principaux (en incluant det(A0) = 1), sous réserve que tous soient non nuls.

Remarque 3. En fait sur un corps (commutatif) quelconque, cette condition de non-nullité des mineurs principaux est une condition nécessaire et suffisante pour qu'il existe une matrice Q triangulaire supérieure telle que tQAQ soit diagonale et de rang maximum (il suffit d'adapter la démonstration qui suit).

Preuve. Notons q la forme quadratique associée à A, définie par q(\mathbf{x})=\sum_{1\leqslant i,j,\leqslant n}a_{ij}x_ix_j.

La condition est nécessaire. On remarque d'abord que si q est définie positive, alors \,\det A>0. En effet, par rapport à une base orthogonale pour cette forme quadratique (il en existe, d'après la réduction de Gauss), la matrice de q s'écrit \,\mathrm{diag}(c_1,...,c_n) les \,c_i étant tous strictement positifs. Alors \,c_1...c_n=(\det A)(\det Q)^2 (Q étant la matrice de passage), donc \,\det A>0. Le résultat s'ensuit, en appliquant le même raisonnement à la restriction de q aux sous-espaces \,\R^k\times\{0\}^{n-k}, pour \,1\leqslant k\leqslant n-1.

Montrons maintenant que la condition est suffisante. On procède par récurrence sur la dimension. Pour n=0 c'est évident puisqu'en dimension 0 l'ensemble des vecteurs non nuls est vide. Supposons la propriété vraie pour n-1 et notons \,E=\R^{n-1}\times\{0\}. Par hypothèse de récurrence, \,q_{\vert E} est définie positive. De plus, q est est non dégénérée (parce que \,\det A\not=0) donc

\,\R^n=E\oplus E^{\perp} \quad \textrm{avec} \quad \dim E^{\perp}=1

Soient e un vecteur non nul de E^{\perp} et a = q(e). Alors \,\det A et \,a\det A_{n-1} ont même signe d'après le même argument que dans la première partie (qui met implicitement en jeu le discriminant), or par hypothèse \,\det A et \,\det A_{n-1} sont strictement positifs. Donc a>0, si bien que la restriction de q à E^{\perp} est, elle aussi, définie positive, ce qui montre que q est définie positive.

Dans le cas complexe, la preuve est analogue, en considérant la forme hermitienne définie par la matrice.

Voir aussi

Notes et références

  1. Philippe G. Ciarlet, Introduction à l'analyse numérique matricielle et à l'optimisation, éd. Dunod, Paris, 1998, p.26
  2. Jean Voedts, Cours de mathématiques, MP-MP* éd. Ellipses, Paris, 2002, p.634

Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Matrice définie positive de Wikipédia en français (auteurs)

Игры ⚽ Поможем решить контрольную работу

Regardez d'autres dictionnaires:

  • Matrice Définie Positive — En algèbre linéaire, la notion de matrice définie positive est analogue à celle de nombre réel strictement positif. On introduit tout d abord les notations suivantes ; si a est une matrice à éléments réels ou complexes : aT désigne la… …   Wikipédia en Français

  • Matrice definie positive — Matrice définie positive En algèbre linéaire, la notion de matrice définie positive est analogue à celle de nombre réel strictement positif. On introduit tout d abord les notations suivantes ; si a est une matrice à éléments réels ou… …   Wikipédia en Français

  • Matrice Semi-Définie Positive — En algèbre linéaire, la notion de matrice semi définie positive (on dit aussi : matrice positive) est analogue à celle de nombre réel positif ou nul. La notion de matrice semi définie positive est très proche de celle de matrice définie… …   Wikipédia en Français

  • Matrice semi-definie positive — Matrice semi définie positive En algèbre linéaire, la notion de matrice semi définie positive (on dit aussi : matrice positive) est analogue à celle de nombre réel positif ou nul. La notion de matrice semi définie positive est très proche de …   Wikipédia en Français

  • Matrice semi-définie positive — En algèbre linéaire, la notion de matrice semi définie positive (on dit aussi : matrice positive) est analogue à celle de nombre réel positif ou nul. La notion de matrice semi définie positive est très proche de celle de matrice définie… …   Wikipédia en Français

  • Matrice symétrique — En algèbre linéaire et bilinéaire, une matrice symétrique est une matrice carrée qui est égale à sa propre transposée. Sommaire 1 Exemples 2 Propriétés 3 Matrices symétriques réelles …   Wikipédia en Français

  • Matrice hermitienne — Hermitien Plusieurs entités mathématiques sont qualifiées d hermitiennes en référence au mathématicien Charles Hermite. Sommaire 1 Espace hermitien 2 Produit scalaire hermitien 3 Opérateur hermitien …   Wikipédia en Français

  • Matrice hermitique — Hermitien Plusieurs entités mathématiques sont qualifiées d hermitiennes en référence au mathématicien Charles Hermite. Sommaire 1 Espace hermitien 2 Produit scalaire hermitien 3 Opérateur hermitien …   Wikipédia en Français

  • Matrice de Gram — Déterminant de Gram En géométrie euclidienne ou hilbertienne, le déterminant de Gram permet de calculer des volumes et de tester l indépendance linéaire d une famille de vecteurs. Il associe des calculs de produits scalaires et d un déterminant.… …   Wikipédia en Français

  • Matrice antisymétrique — En mathématiques, et plus précisément en algèbre linéaire, une matrice antisymétrique est une matrice carrée opposée à sa transposée. Sommaire 1 Définition 2 Exemples 3 Propriétés …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”