Vérifier que la matrice suivante est orthogonale:
Quelles sont les matrices orthogonales triangulaires supérieures?
Solution
Les matrices diagonales avec coefficients diagonaux égaux à 1 ou . Le résultat s’obtient en étudiant les colonnes de la première à la dernière, en exploitant qu’elles sont unitaires et deux à deux orthogonales.
Trouver toutes les matrices de diagonalisables.
On suppose que est une matrice orthogonale.
Que peut-on dire de la comatrice de ?
Solution
On sait et
On en déduit
car .
Calculer
Solution
Les colonnes d’une matrice orthogonale sont unitaires. Une matrice orthogonale à coefficients entiers ne peut avoir que des colonnes égales ou opposées à des colonnes élémentaires. De plus, ces colonnes élémentaires doivent être distinctes car une matrice orthogonale est inversible et donc chacune colonne élémentaire apparaît une fois et une seule (avec un éventuel signe). Inversement, une telle matrice est solution. En choisissant l’ordre des colonnes élémentaires et le signe attribué à chaque,
Soit avec . Déterminer les matrices de dont tous les coefficients sont positifs ou nuls.
Soit .
Montrer
Montrer
Soit une matrice réelle orthogonale. Montrer que
Solution
Pour , on vérifie
Or donc par l’inégalité de Cauchy-Schwarz,
Or et car donc
(Matrice de Householder)
Soit . On considère définie par
Montrer que la matrice est symétrique et orthogonale.
À quelle transformation géométrique correspond la matrice ?
Solution
On remarque que correspond à une matrice carrée de taille .
La matrice est symétrique car
Par combinaison linéaire, la matrice est symétrique.
Par développement du carré de la somme de deux matrices qui commutent
Or
donc
Ainsi, la matrice est orthogonale.
Puisque , la matrice figure une symétrie.
Aussi, pour , en écrivant
et, pour ,
On en déduit que est la symétrie orthogonale par rapport à l’espace .
Soient et dans telle que appartienne à . Que dire de et ?
Solution
Puisque est un groupe multiplicatif, on a
avec . Pour unitaire,
Mais aussi
Il y a donc égalité dans l’inégalité triangulaire et, par conséquent, il existe vérifiant
En considérant à nouveau la norme, on obtient puis . Cela valant pour tout , on conclut puis .
Soit . On suppose que n’est pas valeur propre de .
Étudier la convergence de
lorsque .
La suite est-elle convergente?
Solution
Posons
Par télescopage,
et donc
car, pour la norme euclidienne;
Ainsi,
Puisque , la matrice est inversible et donc
Par l’absurde, supposons que la suite converge vers une matrice . Pour toute colonne , on a ce qui donne à la limite . Or et donc . Puisque cela vaut pour toute colonne , .
Or ne tend pas vers quand tend vers l’infini. C’est absurde.
La suite est divergente.
(Décomposition d’une matrice inversible)
Soit .
Montrer qu’il existe une matrice orthogonale et une matrice triangulaire supérieure à coefficients diagonaux strictement positifs telles que .
Montrer l’unicité de cette écriture.
Soit la matrice de dont tous les coefficients sont égaux à .
Quelles sont les de telles que soit inversible?
Solution
n’est pas inversible si, et seulement si, il existe une colonne non nulle vérifiant .
Puisque la matrice est orthogonale, on a et donc
avec une réciproque immédiate.
Le polynôme caractéristique de étant
on obtient le critère
est inversible si, et seulement si, . |
(Transformation de Cayley)
Soit vérifiant .
Déterminer les valeurs propres réelles possibles de la matrice .
En déduire que les matrices et sont inversibles.
Montrer que la matrice est orthogonale.
Calculer .
Solution
Soient et tels que .
En multipliant par à gauche, on obtient
en introduisant la norme euclidienne canonique sur .
Parallèlement, on a aussi
On en déduit
Si est valeur propre de , on peut déterminer une colonne non nulle telle que et la relation ci-dessus oblige alors . Ainsi, seule peut être valeur propre réelle de la matrice .
Les réels ne sont pas valeurs propres de , les matrices et sont donc inversibles.
La matrice proposée est correctement définie et
Sachant
on poursuit
Enfin, les matrices et commutent car ce sont des polynômes en et l’on peut simplifier
La matrice est orthogonale.
On remarque
On en déduit .
(Transformation de Cayley)
Si est une matrice antisymétrique réelle, que peut-on dire des valeurs propres complexes de ?
Soit
Montrer que réalise une bijection de sur
Solution
Soit une valeur propre complexe de et une colonne propre associée.
D’une part,
D’autre part,
Puisque , on obtient donc .
Pour tout , est bien définie car .
or et commutent donc .
De plus, si alors (car et commutent) et donc .
Ainsi, l’application est bien définie.
Si alors
En développant et en simplifiant, on obtient et l’application est donc injective.
Enfin, soit telle que .
Posons qui est bien définie car .
On a
et .
Finalement, est bijective.
Soit .
Montrer qu’il existe une matrice orthogonale et une matrice triangulaire supérieure telles que .
On pourra commencer par le cas où la matrice est inversible.
La fonction numpy.linalg.qr de Python donne une telle décomposition.
On pose
Montrer que admet un minimum et un maximum sur .
Utilisation de Python.
Écrire une fonction randO(n) qui génère une matrice aléatoire et qui renvoie la matrice orthogonale de la question précédente.
Écrire une fonction de la variable matricielle qui renvoie . On pourra utiliser les fonctions numpy.sum et numpy.abs.
Écrire une fonction test(n) qui, sur tests, renvoie le minimum et le maximum des valeurs de pour des matrices orthogonales aléatoires.
Déterminer la valeur de . Pour quelles matrices, ce minimum est-il atteint?
Montrer qu’il y a un nombre fini de telles matrices.
Montrer que et que .
Solution
Cas: inversible. La matrice est la matrice de passage de la base canonique de à une base . Par le procédé de Schmidt, on orthonormalise (pour le produit scalaire canonique) cette base en une base . La matrice de passage de à est triangulaire supérieure et la matrice de passage de la base canonique à est orthogonale. Par formule de changement de base,
ce qui conduit à l’identité voulue.
Cas général: On introduit . Pour assez grand, est inversible et l’on peut écrire avec orthogonale et triangulaire supérieure. La suite évolue dans un compact: il existe une extraction de limite . Puisque est de limite et évolue dans le fermé des matrices triangulaires supérieures, on peut conclure à l’écriture .
La fonction est une fonction continue, à valeurs réelles définie sur le compact non vide : elle admet un minimum et un maximum.
import random as rnd import numpy as np import numpy.linalg def randO(n): A = np.zeros((n,n)) for i in range(n): for j in range(n): A[i,j] = 2 * rnd.random() - 1 q,r = numpy.linalg.qr(A) return q def N1(A): S = 0 N,M = np.shape(A) for i in range(N): for j in range(M): S = S + np.abs(A[i,j]) return S def test(n): A = randO(n) m = N1(A) M = N1(A) for t in range(1000): A = randO(n) N = N1(A) if N < m: m = N if N > M: M = N return m,M
Si , on a donc puis
car les lignes d’une matrice orthogonale sont unitaires. De plus, pour , on a . On en déduit .
Une matrice de vérifiant doit satisfaire et donc . De plus, les rangées étant unitaires, ils ne peut figurer qu’un coefficient non nul par rangée et celui-ci est alors un ou un . La réciproque est immédiate.
Ces matrices sont évidemment en nombre fini, précisément, il y en a (il y a matrice de permutation et choix de signe pour chaque coefficient 1).
Par l’inégalité de Cauchy-Schwarz
Pour qu’il y ait égalité, il faut qu’il y ait égalité dans chaque inégalité de Cauchy-Schwarz. Ceci entraîne que chaque ligne est colinéaire à et donc
La ligne étant de plus unitaire, les sont égaux à .
Lorsque , les coefficients de sont égaux à . Cependant, il n’est pas possible de construire des rangées orthogonales avec de tels coefficients: le cas d’égalité est impossible quand .
Soient , , et la matrice
Montrer
Montrer
Montrer que est élément de si, et seulement si, , et sont les trois racines d’un polynôme de la forme avec .
Soit une matrice orthogonale de taille que l’on écrit par blocs
Montrer
Soit . Si , on dira que a la propriété si, et seulement si, il existe une matrice telle que soit la sous-matrice de obtenue en supprimant les dernières ligne et colonne de et que soit une matrice orthogonale, soit encore si, et seulement si, il existe tels que
Ici
est une matrice diagonale. Déterminer une condition nécessaire et suffisante portant sur les pour que ait la propriété .
Ici . Déterminer une condition nécessaire et suffisante pour que ait la propriété .
Si , montrer qu’il existe et telles que .
On admettra qu’une telle décomposition existe encore si n’est pas inversible.
Déterminer une condition nécessaire et suffisante pour que quelconque ait la propriété .
Cette condition portera sur .
Montrer le résultat admis dans la question c).
Énoncé fourni par le CENTRALE-SUPELEC (CC)-BY-NC-SA
Solution
Si possède la propriété alors les colonnes de la matrice introduites doivent être unitaires donc
et elles doivent être deux à deux orthogonales donc
Cette dernière condition ne permet qu’au plus un non nul et alors tandis que pour , .
Inversement, si tous les vérifient sauf peut-être un vérifiant , alors on peut construire une matrice affirmant que la matrice possède la propriété en posant
La matrice est orthogonalement diagonalisable, on peut donc écrire
Considérons alors la matrice
Si la matrice possède la propriété alors on peut introduire prolongeant et alors
ce qui entraîne que les valeurs propres de sont toutes égales à sauf peut être une élément de .
La réciproque est immédiate.
La matrice est symétrique définie positive. On peut donc en diagonalisant orthogonalement celle-ci déterminer une matrice symétrique définie positive telle que
On pose alors et l’on vérifie par le calcul de .
Supposons que la matrice possède la propriété . En multipliant par la matrice
on démontre que la matrice possède aussi la propriété .
Puisque les valeurs propres de sont les racines des valeurs propres de , on obtient la condition nécessaire suivante: les valeurs propres de doivent être égales à 1 sauf peut-être une dans (ces valeurs propres sont nécessairement positives).
La réciproque est immédiate.
Soit . Pour assez grand, la matrice
est assurément inversible ce qui permet d’écrire avec orthogonale et symétrique réelle.
La suite évolue dans le compact , elle possède une valeur d’adhérence et la matrice est symétrique réelle en tant que limite d’une suite de matrices symétriques réelles.
On peut donc conclure.
(Réflexion de Householder)
On pose et, pour ,
Montrer que, si , est la matrice de la réflexion par rapport au plan .
Montrer que toute réflexion est un pour un certain .
Programmer avec Python la fonction .
Si et , montrer que .
On pourra observer que .
Montrer que, pour , il existe , et tels que
Montrer que, pour tout , il existe et triangulaire supérieure telles que .
Montrer que, pour toute matrice ,
Solution
On remarque
et pour tout ,
L’endomorphisme canoniquement associé à est donc la réflexion d’hyperplan .
Si est une réflexion d’hyperplan alors avec un vecteur normal de .
import numpy as np def H(u): n = len(u) H = np.eye(n) norme = u.T @ u for i in range(n): for j in range(n): H[i, j] -= 2 * u[i] * u[j] / norme return H
On a donc
Or
et donc .
Notons la première colonne de . Si , choisir convient. Sinon, on pose et l’on a avec . La matrice est alors de la forme voulue.
On raisonne par récurrence sur .
Pour , il n’y a rien à démontrer.
Supposons la propriété vraie au rang .
Soit . Par ce qui précède, il existe tel que soit de la forme avec . Par hypothèse de récurrence, avec et . Considérons alors
La matrice est orthogonale en tant que produit de matrices orthogonales et l’on a
On obtient alors avec orthogonale et triangulaire supérieure.
La récurrence est établie.
On reprend l’écriture précédente triangulaire supérieure et . Pour ,
Par l’inégalité de Cauchy-Schwarz,
On en déduit
En renommant les indices et en considérant la transposée de plutôt que , on obtient la comparaison voulue.
[<] Matrices orthogonales[>] Isométries du plan
Soit . Montrer que
Solution
Il suffit de prendre .
Par polarisation, pour tous ,
Or et donc
Soit une isométrie vectorielle d’un espace euclidien de produit scalaire .
Quelles sont les valeurs propres réelles possibles de ?
Vérifier que les espaces propres associés sont orthogonaux.
On suppose que et sont deux sous-espaces vectoriels orthogonaux de . Que dire des espaces images et ?
Soit une isométrie diagonalisable d’un espace euclidien . Montrer que est une symétrie orthogonale.
Solution
Soit valeur propre de . Pour vecteur propre, on a avec d’où . Une diagonalisation de est alors réalisée avec des et des sur la diagonale, c’est une symétrie par rapport à parallèlement à . Les espaces et sont supplémentaires et orthogonaux car, pour et ,
L’endomorphisme est donc une symétrie orthogonale.
Soient une isométrie vectorielle d’un espace euclidien et un sous-espace vectoriel de . Montrer
Soient une isométrie vectorielle d’un espace vectoriel euclidien et . Montrer
Solution
Soit . Il existe tel que . On a alors
Par suite, .
De plus, conserve les dimensions car c’est un automorphisme. Il y a donc égalité.
Soient et un sous-espace vectoriel de .
Montrer que:
Solution
Si est stable pour alors et puisque est un automorphisme . Soient et
car donc puis stable par .
Si stable par alors aussi
Soit un espace euclidien. Déterminer les endomorphismes de tels que, pour tout sous-espace vectoriel de ,
Soient un espace vectoriel euclidien, non nul, . On note la réflexion d’hyperplan . Décrire la transformation .
Solution
On a
et, vecteur tel que ,
Ainsi, est la réflexion d’hyperplan .
Soient un espace vectoriel euclidien et une application telle que
En observant que l’image par d’une base orthonormée est une base orthonormée montrer que est linéaire.
Solution
transforme une base orthonormée en une base orthonormée . Pour tout ,
d’où la linéarité de .
Soient un espace euclidien et un endomorphisme de conservant l’orthogonalité, c’est-à-dire:
Calculer pour vecteurs unitaires.
Établir qu’il existe vérifiant
Conclure qu’il existe vérifiant
Solution
Soit unitaires.
Soient et des vecteurs unitaires de .
Les vecteurs et sont orthogonaux donc et le sont aussi. Or, par linéarité,
de sorte que l’orthogonalité de ces deux vecteurs entraîne
Ainsi, les vecteurs unitaires de sont envoyés par sur des vecteurs ayant tous la même norme. Notons la norme commune des images des vecteurs unitaires. Montrons que
Soit .
Cas: . On a donc .
Cas: . En introduisant le vecteur unitaire , on a puis
Si alors et n’importe quel convient.
Si alors introduisons l’endomorphisme
La relation obtenue au-dessus assure que conserve la norme et donc . On peut alors conclure.
Soient un espace euclidien de dimension et une fonction de vers vérifiant
Montrer que pour tout de .
Établir pour tous et de .
En introduisant une base orthonormale de , établir que l’application est linéaire.
Dans un espace euclidien , soit . Montrer que deux des trois propriétés suivantes entraînent la troisième:
est une isométrie vectorielle;
;
est orthogonal à pour tout .
Solution
Supposons (i) et (ii).
Pour , on a
et donc
Supposons (ii) et (iii).
Le vecteur et son image par sont orthogonaux donc
puis . Ainsi est une isométrie.
Supposons (i) et (iii).
Pour tous vecteurs et
Or
donc
Puisque est surjective, .
Soient un vecteur unitaire d’un espace vectoriel euclidien , un réel et l’application définie par
Montrer que est stable pour le produit de composition et observer que et commutent.
Calculer pour .
Montrer que est inversible si, et seulement si, . Quelle est la nature de ?
Montrer
Quelle est la nature de ?
Solution
On a
Par récurrence
Si alors .
est la projection orthogonale sur .
Si alors satisfait à la propriété donc inversible.
Si alors .
Si alors est la réflexion par rapport à .
Dans les deux cas .
Si alors puis
et donc .
Soient une isométrie d’un espace euclidien , et la projection orthogonale sur .
Montrer l’égalité .
Montrer11 1 On dit qu’une suite de vecteurs de tend vers un vecteur lorsque tend vers quand croît vers l’infini. que pour tout ,
Soit un endomorphisme d’un espace euclidien .
Montrer que est une homothétie si, et seulement si, commute avec toute isométrie de .
Solution
Si est une homothétie, c’est-à-dire un endomorphisme de la forme , l’endomorphisme avec tout endomorphisme de et en particulier avec les isométries.
Inversement, soit un endomorphisme commutant avec toutes les isométries de . Notons la matrice de dans une base orthonormale . La matrice commute avec toute matrice orthogonale. En particulier, pour , la matrice commute avec la matrice
Par le produit , la -ème ligne de est transformée en son opposé. Par le produit , c’est la -ème colonne de qui est transformée en son opposé. Les matrices et étant égales, les coefficients de la -ème ligne et de la -ème colonne sont assurément nuls à l’exception du coefficient diagonal. La matrice est donc diagonale.
De plus, pour , la matrice
est orthogonale et l’égalité assure que les coefficients diagonaux d’indices et de sont égaux. Finalement, la matrice est une matrice scalaire et l’endomorphisme figuré par est une homothétie.
Soit . On note l’espace vectoriel réel . On pose
Montrer que est un produit scalaire.
Donner une condition nécessaire et suffisante sur pour que soit -orthogonale.
Solution
On reconnaît le produit scalaire canonique sur .
Posons . .
est -orthogonale si, et seulement si, pour tout , c’est-à-dire pour tout , c’est-à-dire .
Ainsi est -orthogonale si, et seulement si, l’est.
Soit un espace euclidien de dimension (avec ) et de produit scalaire . On introduit et deux sous-espaces vectoriels de chacun de dimension et tels que . On note et les projections respectivement sur et et parallèlement à et . Soit une isométrie de telle que . Enfin, on étudie
Démontrer , , et .
On suppose que
Démontrer que est un automorphisme orthogonal.
Établir la réciproque.
Solution
L’application linéaire est injective et par conséquent conserve la dimension. Par inclusion et égalité des dimensions, .
Pour , et donc . Pour , le calcul est semblable. Par égalité d’applications linéaires sur des espaces supplémentaires, .
On a vu au-dessus et cette inclusion se transforme en égalité par les dimensions car est une application linéaire injective. On acquiert de même .
Vérifions que conserve la norme. Soit que l’on écrit avec et . On a
La conversation du produit scalaire par et la propriété supposée entraîne
On en déduit que est un automorphisme orthogonal.
Si est un automorphisme orthogonal, il conserve le produit scalaire et donc
En particulier, pour et on obtient la relation voulue.
Soit un espace euclidien.
Pour , on note et .
Si , désigne la symétrie orthogonale par rapport à l’hyperplan .
Soit . Montrer que .
Si est libre, montrer:
On suppose libre. Soient tels que
Montrer que est libre.
Solution
Soient et .
et il existe tel que .
On a alors
car .
Ainsi, et sont orthogonaux et par la formule du rang
donne
Par récurrence sur .
Pour : la propriété est immédiate.
Supposons la propriété vraie au rang .
Soient une famille libre et . Étudions .
Soit . La relation donne
puis
Or et par hypothèse de récurrence .
Puisque la famille est libre, on obtient
Ainsi, est point fixe de et de et donc
Par suite,
L’autre inclusion étant immédiate, on obtient
puis
Récurrence établie.
Posons
Par l’étude qui précède
De façon immédiate
En passant à l’orthogonal
Puisque la famille est supposé libre, un argument de dimension permet d’affirmer que la famille l’est aussi.
Soit un espace euclidien. On note le groupe des endomorphismes orthogonaux de et l’on définit l’ensemble
Montrer que est une partie convexe de qui contient .
Soit tel qu’il existe vérifiant
Montrer que .
Soit un automorphisme de . Montrer qu’il existe et un endomorphisme symétrique de de valeurs propres positives tels que .
On admet que ce résultat reste valable si l’on ne suppose plus bijectif.
Soit qui n’est pas un endomorphisme orthogonal.
Montrer qu’il existe tels que
Démontrer le résultat admis à la question (c). [Énoncé fourni par le concours CENTRALE-SUPELEC (CC)-BY-NC-SA]
Solution
Soient et . Pour tout ,
donc .
Pour , on a
et donc .
Puisque , il existe un vecteur vérifiant .
Si ou alors
et donc .
Si et alors la condition entraîne
car il y a égalité dans l’inégalité triangulaire euclidienne si, et seulement si, les vecteurs sont positivement liés.
On en déduit que dans ce cas aussi et donc .
Soit la matrice de dans une base orthonormale de . La matrice est symétrique à valeurs propres strictement positives donc orthogonalement semblable à une matrice diagonale de coefficients diagonaux strictement positifs. On peut alors former une matrice symétrique de valeurs propres strictement positives telles que . Considérons l’endomorphisme figuré par dans la base et . Matriciellement, on vérifie et est l’écriture voulue.
Soit . On peut écrire avec et endomorphisme symétrique de valeurs propres positives. Puisque
on a et donc les valeurs propres de sont éléments de . Dans une base orthonormée de diagonalisation, la matrice de est de la forme
Si les sont tous égaux à 1 alors et ce qui est exclu. Il y a donc au moins un différent de 1. Considérons alors l’endomorphisme dont la matrice dans la base orthonormée précédente est
On peut écrire
avec , et car les coefficients diagonaux précédents sont inférieurs à en valeur absolue.
On en déduit
avec et .
Soit . Pour assez grand
car ne possède qu’un nombre fini de valeurs propres.
On peut alors écrire
Puisque est compact, il existe une suite extraite qui converge . On a alors
En posant , on a car est fermé et donc donne l’écriture voulue.
[<] Isométries vectorielles[>] Mesures angulaires
Soit un plan euclidien orienté.
Montrer que la composée de deux réflexions du plan est une rotation.
Justifier que toute rotation peut s’écrire comme le produit de deux réflexions dont l’une peut être choisie arbitrairement.
Soient une rotation et une réflexion d’un plan euclidien orienté .
Simplifier les composées et .
Dans un plan euclidien orienté, à quelle condition peut-on affirmer qu’une rotation et qu’une réflexion commutent?
Soient et deux vecteurs de même norme du plan euclidien orienté .
Déterminer les isométries envoyant sur .
[<] Isométries du plan[>] Réduction des isométries vectorielles
On définit l’écart angulaire entre deux vecteurs non nuls et d’un espace préhilbertien de produit scalaire comme étant l’unique11 1 Le réel existe et unique car l’inégalité de Cauchy-Schwarz donne . appartenant à tel que .
Que dire d’une famille de trois vecteurs ayant deux à deux entre eux un écart angulaire égal à ?
Soient et deux réflexions de droites et d’un plan euclidien orienté . On introduit et des vecteurs directeurs des droites et et l’on pose une mesure de l’angle orienté de à . Préciser la composée .
On définit l’écart angulaire entre deux vecteurs non nuls et d’un espace préhilbertien de produit scalaire comme étant l’unique11 1 Le réel existe et unique car l’inégalité de Cauchy-Schwarz donne . appartenant à tel que .
Soient trois vecteurs unitaires d’un espace euclidien de dimension . On introduit les
En projetant sur un plan contenant et , montrer que .
Solution
Notons le projeté de sur un plan contenant et .
Orientons , de sorte que .
Notons et .
On
avec donc puis .
De même, on établit .
Par des considérations d’angles orientés,
Cas: . et .
Cas: . .
Cas: . idem.
Cas: . et .
[<] Mesures angulaires[>] Isométries de l'espace de dimension 3
Déterminer les applications vérifiant
Solution
Il existe une base orthonormale de dans laquelle la matrice de est diagonale par blocs de blocs diagonaux
Pour que , il faut et il suffit qu’il n’y ait que des blocs ce qui correspond au cas où .
Trouver toutes les matrices de diagonalisables sur .
Montrer que toutes les matrices de sont diagonalisables sur .
Soit une matrice orthogonale.
Soit une valeur propre complexe de et vérifiant
En calculant de deux façons
établir que est de module 1.
Solution
D’une part
et d’autre part
Puisque est un réel non nul, on en déduit .
Soit .
Montrer que si est une valeur propre complexe de alors .
Soit une valeur propre complexe non réelle de que l’on écrit avec . Soit un vecteur propre associé à . On pose et
Montrer que est stable par .
Montrer que les colonnes et ont alors la même norme et sont orthogonales.
Quelle est la nature de l’endomorphisme induit par la matrice sur l’espace ?
Solution
Soient une valeur propre complexe de et un vecteur propre associé.
On a . Par conjugaison, donc
On a aussi
Puisque , on obtient .
L’identité donne par identification des parties réelles et imaginaires
Il est alors immédiat de vérifier que est stable par .
On a
Or et . On en déduit
Or donc puis
Quitte à multiplier les colonnes et par un même scalaire unitaire, on peut affirmer que la famille est une base orthonormée du plan . En orientant ce plan par cette base, l’endomorphisme induit apparaît comme étant une rotation d’angle .
Soient .
Montrer que et sont semblables si, et seulement si, .
Solution
Deux matrices semblables ont assurément le même polynôme caractéristique. La réciproque est fausse en général mais nous allons ici l’établir du fait que les matrices et sont orthogonales.
Supposons . Puisque la matrice est orthogonale, le théorème de réduction des isométries assure que la matrice est orthogonalement semblable à une matrice réduite diagonale par blocs avec des blocs diagonaux de la forme
Le polynôme caractéristique de est alors un produit de facteurs
L’égalité assure alors que, à l’ordre près des blocs diagonaux, les matrices réduites auxquelles sont semblables et sont identiques. Puisque réorganiser les blocs diagonaux revient à remplacer une matrice par une matrice semblable, on peut affirmer que les matrices et sont semblables.
[<] Réduction des isométries vectorielles[>] Endomorphismes autoadjoints
Soient et
Pour quels , a-t-on ?
Vérifier qu’alors et préciser la transformation réalisée par l’endomorphisme de canoniquement associé à la matrice .
Solution
Par orthogonalité et unitarité des colonnes
Ainsi,
Puisque la matrice est symétrique, il vient
L’endomorphisme est donc une symétrie. Plus précisément,
Cas: et . .
Cas: et . .
Cas: et . est la réflexion par rapport au plan d’équation .
Cas: et . est l’opposée à la transformation précédente, c’est la symétrie par rapport à la droite dirigée par (vecteur normal au plan précédent).
Montrer que la matrice
est orthogonale.
Calculer . Qu’en déduire d’un point de vue géométrique?
Donner les caractéristiques géométriques de .
Solution
Les colonnes de sont unitaires et deux à deux orthogonales, c’est donc une matrice orthogonale.
En développant selon une rangée .
Puisque la matrice est de surcroît symétrique, c’est une matrice de réflexion par rapport à un plan. Ce plan est celui de vecteur normal .
Soit un espace vectoriel euclidien orienté muni d’une base orthonormée directe .
Soit dont la matrice dans la base est
Former une base orthonormée directe telle que .
Former la matrice de dans et reconnaître .
Solution
Les vecteurs suivants conviennent
donc est le quart de tour direct autour de la droite dirigée et orientée par .
Soient un espace euclidien orienté de dimension , une rotation de et une symétrie orthogonale de . Caractériser l’application .
Soit une rotation d’un espace euclidien orienté de dimension .
On suppose qu’il existe tel que . Montrer que est une symétrie orthogonale par rapport à une droite11 1 Une symétrie orthogonale par rapport à une droite se nomme un retournement. orthogonale à .
En déduire que toute rotation peut s’écrire comme la composée de deux retournements.
Dans un espace euclidien orienté de dimension , on considère une réflexion et une rotation d’axe dirigé et orienté par un vecteur unitaire et d’angle .
Montrer que et commutent si, et seulement si, est orthogonale au plan de réflexion de ou bien est incluse dans ce plan et est un retournement.
Solution
Supposons que et commutent.
L’égalité donne . On en déduit que la vecteur est colinéaire à car élément de . Aussi, le vecteur est de même norme que et donc ou .
Cas: . La réflexion opère par rapport à plan .
Cas: . Le vecteur appartient au plan de réflexion . Aussi, si est un vecteur de ce plan qui est orthogonal à alors et donc est aussi un vecteur de ce plan . Or ce ne peut être et c’est donc . Par suite, est valeur propre de et donc est un retournement.
Inversement, par considération des matrices de et dans une base orthonormée adaptée, on établit que et commutent.
Soient et deux rotations d’un espace euclidien orienté de dimension .
À quelle(s) condition(s) a-t-on ?
[<] Isométries de l'espace de dimension 3[>] Théorème spectral vectoriel
Montrer que le noyau et l’image d’un endomorphisme autoadjoint d’un espace euclidien sont supplémentaires et orthogonaux.
Montrer que les sous-espaces propres d’un endomorphisme autoadjoint d’un espace euclidien sont deux à deux orthogonaux.
Soit un espace euclidien. Montrer que, si un sous-espace vectoriel de est stable par un endomorphisme autoadjoint , alors est aussi stable par .
Déterminer les isométries d’un espace euclidien qui sont aussi des endomorphismes autoadjoints.
Soit une projection d’un espace vectoriel euclidien . Montrer que la projection est orthogonale si, et seulement si, l’endomorphisme est autoadjoint.
Solution
Si est une projection orthogonale alors
Ainsi, l’endomorphisme est autoadjoint.
Inversement, si est autoadjoint alors et donc est une projection orthogonale.
Soient et deux endomorphismes autoadjoints d’un espace vectoriel euclidien .
Montrer que est autoadjoint si, et seulement si, .
Solution
Soit une base orthonormée de .
Notons et les matrices de et dans la base .
Ces matrices sont symétriques et
Ainsi,
Soient un espace euclidien de dimension de produit scalaire , un vecteur unitaire de et un réel.
Montrer que l’on définit un endomorphisme autoadjoint de en posant
Déterminer les éléments propres de .
Soient , un vecteur unitaire de euclidien.
Montrer que l’application définie par
est un endomorphisme de .
Montrer qu’il existe un unique vérifiant
Donner la nature de (on pourra s’intéresser à ).
Montrer que est un endomorphisme autoadjoint et déterminer ses éléments propres.
Solution
L’application est évidemment linéaire de dans .
Si conserve la norme alors, en particulier, c’est-à-dire .
La seule valeur non nulle est alors .
Inversement, se reconnaît comme la réflexion d’hyperplan et conserve donc la norme.
On vérifie aisément par le calcul
On en déduit que est un endomorphisme autoadjoint.
Pour , on a et pour , .
On en déduit que et sont valeurs propres de avec
Il n’y a pas d’autres valeurs propres (plus assez de place dans ).
On munit du produit scalaire défini par
Montrer que l’endomorphisme de déterminé par
est autoadjoint.
On pose muni du produit scalaire défini par
Montrer que la relation
définit un endomorphisme de l’espace .
Vérifier que l’endomorphisme est autoadjoint.
Calculer la trace de .
Solution
En développant
Ceci assure la bonne définition de l’application et permet aussi de vérifier sa linéarité.
Pour ,
et par le théorème de Fubini
ce qui se relit
Les coefficients diagonaux de la matrice de dans la base canonique sont les
La trace de est donc donnée par
Vérifier que l’on définit un produit scalaire sur par:
Pour quelle(s) valeur(s) de l’endomorphisme canoniquement représenté par
est-il autoadjoint?
Solution
L’application est évidemment une forme bilinéaire symétrique.
Puisque
cette forme bilinéaire symétrique est aussi définie positive et c’est donc un produit scalaire.
De façon immédiate
Si l’endomorphisme est autoadjoint alors et donc
et donc .
Inversement, si alors les vecteurs et sont orthogonaux et l’on peut diagonaliser dans une base orthonormée.
Soit un espace euclidien dont on note le produit scalaire.
Soit la projection orthogonale sur un sous-espace vectoriel de .
Montrer que
Montrer que
Montrer que
Que peut-on en déduire?
Soient , et des sous-espaces vectoriels de . On note , et les projections orthogonales sur ces sous-espaces vectoriels.
On suppose . Montrer que puis que .
Inversement, on suppose . Montrer qu’il existe un sous-espace vectoriel de tel que .
Solution
Soit . On écrit avec et . Par la formule de Pythagore,
Par conséquent,
Avec les notations qui précèdent,
donc .
Soient . On écrit et avec et . Par bilinéarité du produit scalaire,
et
Ainsi, . Cela signifie que l’endomorphisme est autoadjoint (et donc diagonalisable en base orthonormée, mais cela pouvait s’acquérir plus immédiatement en considérant une base orthonormée adaptée à ).
Soit . On a et donc . Par conséquent, .
Inversement, soit . On a donc . Par conséquent,
Puisque les membres extrêmes sont égaux, les inégalités intermédiaires sont des égalités
On en déduit et . Ainsi, .
Au surplus, est un endomorphisme autoadjoint donc
Posons .
Pour , .
Pour , on peut écrire avec et . On alors et donc .
Les applications linéaires et sont égales sur deux espaces supplémentaires donc égales sur .
(Pseudo inverse)
Soit une application linéaire d’un espace euclidien vers un espace euclidien .
Montrer qu’il existe une unique application linéaire de vers vérifiant:
et sont des endomorphismes autoadjoints;
et .
L’application linéaire est appelée pseudo-inverse11 1 Lorsque l’on veut résoudre l’équation linéaire , ni l’existence, ni l’unicité d’une solution ne sont assurées. Introduire le pseudo-inverse permet de déterminer le vecteur qui est le vecteur de norme minimale tel que soit le plus proche possible de . de .
[<] Endomorphismes autoadjoints[>] Orthodiagonalisation de matrices symétriques
Soit un endomorphisme autoadjoint de vérifiant
Déterminer .
Solution
Si est valeur propre de et si est vecteur propre associé alors donne . Sachant que est diagonalisable car autoadjoint et que , on peut conclure est l’endomorphisme identiquement nul.
Soit un endomorphisme autoadjoint d’un espace euclidien de dimension et de produit scalaire noté . On pose
Montrer que pour tout vecteur de ,
Soit un endomorphisme autoadjoint d’un espace euclidien non réduit au vecteur nul. Montrer11 1 Précisément, la borne supérieure porte sur les vecteurs de de norme .
Soient un espace vectoriel euclidien de dimension et sa sphère unité
Pour , on note l’ensemble des sous-espaces vectoriels de de dimension .
Soit un endomorphisme autoadjoint de de valeurs propres comptées avec multiplicité. Établir
Solution
Soit une base orthonormée de formée de vecteurs vérifiant
Soit . Établissons
On a
Considérons . On a et donc n’est pas réduit au vecteur nul.
Pour , on a
et donc
Par suite,
Pour , on a
donc
puis
et finalement l’égalité.
Soit un endomorphisme autoadjoint d’un espace euclidien de dimension non nulle.
On pose
Énoncer une condition nécessaire et suffisante portant sur le spectre de pour qu’il existe un vecteur unitaire élément de .
Solution
Si et , en introduisant une base orthonormée diagonalisant , on montre
Pour qu’il existe un vecteur unitaire appartenant à , il est nécessaire que .
Inversement, supposons que soit élément de .
Si , il est immédiat de conclure.
Supposons désormais . On introduit un vecteur propre unitaire associé à et un vecteur propre unitaire associé à . Considérons enfin
Puisque les vecteurs et sont unitaires et orthogonaux, on vérifie . Considérons ensuite la fonction déterminée par . La fonction est continue, et . Par le théorème des valeurs intermédiaires, il existe vérifiant .
(Théorème de Courant-Fischer)
Soit un endomorphisme autoadjoint d’un espace euclidien de dimension dont le produit scalaire est noté .
On note les valeurs propres de comptées avec multiplicité, la sphère unité de et, pour tout , l’ensemble de tous les sous-espaces vectoriels de dimension .
Soit . Établir
Soient et des projections orthogonales d’un espace euclidien de dimension .
Montrer que est diagonalisable.
Déterminer .
En déduire que est diagonalisable.
Établir que les valeurs propres de sont comprises entre et .
[<] Théorème spectral vectoriel[>] Théorème spectral matriciel
Soit la matrice de dont tous les coefficient sont égaux à 1. Trouver et diagonale telles que .
Solution
, et .
Les matrices
et
conviennent.
Les colonnes d’indices 2 à de la matrice sont formées de coefficients de de somme nulle et de somme de carrés égale à 1.
On considère la matrice
Déterminer et diagonale telle que .
Justifier que
est diagonalisable et trouver telle que soit diagonale.
Solution
La matrice est symétrique réelle donc diagonalisable.
Après calculs,
Le sous-espace propre associé à la valeur propre 3 est le plan d’équation
Les sous-espaces propres d’une matrice symétrique réelle étant deux à deux orthogonaux, on peut affirmer que le sous-espace propre associé à la valeur propre est la droite . On en déduit une base orthonormée de diagonalisation puis une matrice convenable
On considère la matrice
Justifiez que la matrice est diagonalisable.
Déterminer et dans telles que , est diagonale et .
Solution
La matrice est symétrique réelle donc diagonalisable.
Après calculs,
Le sous-espace propre associé à la valeur propre est le plan d’équation
Les sous-espaces propres d’une matrice symétrique réelle étant deux à deux orthogonaux, on peut affirmer que le sous-espace propre associé à la valeur propre est la droite
On en déduit une base orthonormée de diagonalisation puis une matrice orthogonale convenable
pour
[<] Orthodiagonalisation de matrices symétriques[>] Équations matricielles avec transposition
Soit symétrique.
On suppose . Déterminer .
Solution
est diagonalisable car symétrique réelle et ses valeurs propres sont nulles car racines de . On en déduit que est semblable à la matrice nulle et donc égale à la matrice nulle.
Si vérifie avec , que vaut ?
Solution
est diagonalisable et ses valeurs propres sont réelles et racines de , elles ne peuvent donc qu’être ou . Par suite, .
Énoncer le théorème spectral.
Soit une matrice symétrique réelle. Prouver que ses sous-espaces propres sont orthogonaux deux à deux.
Soit une matrice carrée réelle telle que est nilpotente. Prouver que est antisymétrique.
Solution
Dans un espace euclidien, tout endomorphisme symétrique est diagonalisable dans une base orthonormale.
Soient deux valeurs propres distinctes de et des colonnes éléments des sous-espaces propres et . On a
et
On en déduit car .
La matrice est symétrique réelle donc diagonalisable. La matrice est aussi nilpotente et admet pour seule valeur propre. On en déduit que la matrice est semblable à la matrice nulle et est donc antisymétrique.
Soit de valeurs propres . Établir
Soit . Établir qu’il existe une famille de réels et une famille orthonormée d’éléments de telles que
Solution
Par le théorème spectral, la matrice est orthogonalement diagonalisable. Il existe donc et tel que
Notons la famille des coefficients diagonaux de et la famille orthonormée des colonnes de . En introduisant les matrices élémentaires de , on écrit
puis
avec
Cela produit l’écriture voulue.
Soit .
Justifier que la matrice est diagonalisable.
On munit du produit scalaire canonique.
Justifier qu’il existe une base orthonormée de telle que la famille soit orthogonale.
En déduire qu’il existe deux matrices orthogonales telles que avec une matrice diagonale à coefficients diagonaux positifs.
Solution
La matrice est symétrique réelle donc orthogonalement diagonalisable.
Il existe alors une base orthonormale de diagonalisant l’endomorphisme canoniquement associé.
Pour distincts,
Puisque le vecteur est colinéaire à , le produit scalaire précédent est nul.
La famille est constituée de vecteurs deux à deux orthogonaux. De plus, celle-ci est constituée de vecteurs non nuls car la matrice est inversible. La famille est donc libre. De plus, elle est formée de vecteurs de , c’est une base de .
Notons la matrice de la famille dans la base orthonormale . Par formule de changement de base, la matrice s’écrit avec la matrice de passage de la base canonique à la base . Cette matrice est orthogonale car il s’agit de la matrice de passage entre deux bases orthonormales. Considérons ensuite la matrice diagonale de coefficients diagonaux les pour . Puisque la matrice est inversible, les réels sont non nuls et la matrice est inversible. Par construction, les colonnes de la matrice sont unitaires mais aussi deux à deux orthogonales. La matrice est donc orthogonale et l’on peut écrire
avec et matrices orthogonales par calcul dans le groupe orthogonal.
Montrer que le rang de est égal au nombre de valeurs propres non nulles (comptées avec leur ordre de multiplicité) de .
Solution
Par comparaison de noyau, il est facile d’obtenir: .
La matrice étant symétrique réelle, elle est diagonalisable et donc son rang est égal au nombre de ses valeurs propres non nulles comptées avec multiplicité.
Soit une matrice réelle carrée d’ordre .
Montrer que
Montrer que les matrices et sont semblables.
Solution
Pour inversible,
donc puisque .
Les applications et étant continues et coïncidant sur la partie dense , on peut affirmer qu’elles sont égales sur .
est une matrice symétrique réelle donc diagonalisable. Ses valeurs propres sont les racines de et la dimension des espaces propres correspondent à la multiplicité des racines respectives de . Puisque l’on a la même affirmation pour , on peut affirmer que et sont semblables car toutes deux semblables à une même matrice diagonale.
Soit . On note et les plus petite et plus grande valeurs propres de la matrice déterminée par
Soit . Comparer et .
Montrer que pour toute colonne ,
En déduire que les valeurs propres de sont comprises entre et .
Soit une matrice symétrique.
Justifier que le spectre de est une partie finie non vide de .
On pose
Montrer
Solution
La matrice est symétrique réelle donc orthogonalement diagonalisable et par conséquent possède des valeurs propres toutes réelles. Bien entendu ces valeurs propres sont en nombre fini.
Notons les valeurs propres comptées avec multiplicité de la matrice . Puisque la matrice est orthogonalement diagonalisable, il existe une matrice telle que
Pour tout colonne , en posant , on a
Or
avec
On en déduit
En prenant la colonne élémentaire , on obtient
Soient et deux matrices de . On note et les plus grandes valeurs propres des matrices et .
Montrer que les valeurs propres de vérifient .
Soient , , deux colonnes non colinéaires dans et .
Justifier que est diagonalisable.
Déterminer en fonction de et .
Déterminer le spectre de et décrire les sous-espaces propres associés.
Solution
La matrice est symétrique réelle donc diagonalisable.
Pour , on a . Les colonnes et n’étant pas colinéaires
On en déduit
Par la formule du rang, on obtient .
On complète la base de par une base de et l’on obtient que la matrice est semblable à la matrice
L’étude des valeurs propres de cette matrice, donne
Pour la valeur propre , le sous-espace propre associé est
Pour la valeur propre , le sous-espace propre associé est
et enfin, pour ,
Soit vérifiant
Montrer que les matrices et commutent.
Solution
La matrice est symétrique réelle et donc diagonalisable. Sa trace est alors égale à la somme de ses valeurs propres. Or
car . Puisque toutes les valeurs propres sont positives, on en déduit qu’elles sont toutes nulles et donc est la matrice nulle car diagonalisable de seule valeur propre 0.
Soit vérifiant . Établir
Solution
Par l’inégalité de Cauchy-Schwarz
Or la matrice est orthogonalement semblable à une matrice de diagonale . On peut donc écrire avec et alors
Puisque annule le polynôme , les valeurs propres de ne peuvent qu’être égales à 0 ou 1 et donc
et l’on obtient la relation proposée.
Soient et deux matrices de .
On suppose que pour toutes colonnes et de . Montrer que les matrices et sont égales.
On suppose que pour toute colonne de . Les matrices et sont-elles nécessairement égales?
On suppose de plus que les matrices et sont symétriques. Montrer que celles-ci sont alors égales.
Soit
vérifiant pour tout .
Montrer qu’il existe une matrice diagonale inversible vérifiant
En déduire que est diagonalisable.
Solution
Posons .
En notant le coefficient d’indice de la matrice , le coefficient d’indice de est
La matrice est alors symétrique si, et seulement si, ses coefficients d’indices et sont égaux c’est-à-dire
soit encore
En choisissant non nul quelconque et en posant
on forme une matrice convenable.
est symétrique réelle donc diagonalisable et puisque est semblable à une matrice diagonalisable, elle l’est aussi.
Soient et . On suppose que . Montrer que .
Solution
Soit . On a de façon immédiate
Or la matrice est diagonalisable donc
Puisque les sont deux à deux distincts quand les varient et puisque les sous-espaces propres de sont en somme directe, on peut affirmer que les inclusions précédentes sont en fait des égalités.
Ainsi,
Puisque l’on a la même affirmation pour , on obtient
Sachant que les matrices et sont diagonalisables et ont les mêmes sous-espaces propres, on peut conclure .
Soient symétrique. On pose
Montrer que est un polynôme en .
Solution
La matrice est diagonalisable semblable à
Posons . En montrant que est un polynôme en c’est-à-dire on vérifie par similitude que est un polynôme en à savoir .
On a
On vérifie aisément que la fonction est injective sur . Ainsi, les égaux correspondent aux égaux et inversement ce qui permet de considérer un polynôme interpolateur construit de sorte que
On vérifie alors et l’on conclut.
Soient symétrique à valeurs propres positives. On pose
Montrer que est un polynôme en .
Solution
La matrice est diagonalisable semblable à
Posons . En montrant que est un polynôme en c’est-à-dire on vérifie par similitude que est un polynôme en à savoir .
On a
On vérifie aisément que la fonction est injective sur . Ainsi, les égaux correspondent aux égaux et inversement ce qui permet de considérer un polynôme interpolateur construit de sorte que
On vérifie alors et l’on conclut.
Soient et dans telles que et .
La matrice est-elle diagonalisable?
Encadrer les valeurs propres de .
Solution
Notons que les matrices et sont des matrices de projections orthogonales car symétriques et idempotentes.
Les cas et sont immédiats. De même, pour les cas et .
On suppose dans la suite ces cas exclus et l’on travaille donc sous l’hypothèse supplémentaires
Si alors est donc est diagonalisable.
Si alors en passant à l’orthogonal .
Les droites et étant distinctes dans le plan, elles sont supplémentaires.
Considérons une base adaptée à la supplémentarité de et .
donc on peut écrire car .
car .
Ainsi la base diagonalise la matrice .
Il s’agit ici essentiellement d’encadrer la valeur introduite dans l’étude précédente quand .
On a
Puisque , on peut écrire et alors
Puisque est symétrique
Puisque
Enfin en procédant de façon semblable
Au final
Or correspond à une projection orthogonale donc et l’on peut affirmer
Pour , on pose
Vérifier que, pour toute colonne ,
Montrer que l’application définit une norme sur .
Solution
Soit . Notons les valeurs propres de comptées avec multiplicité. Il existe telle que
Pour , on a avec . On vérifie car et, en introduisant les coefficients de la colonne
On en déduit
L’application est correctement définie.
Soient et .
Si alors est la seule valeur propre de . Puisque est diagonalisable, est semblable à la matrice nulle et donc égale à la matrice nulle.
Puisque , on vérifie immédiatement .
Soit une colonne vecteur propre unitaire de associé à la valeur pour laquelle . On a
mais aussi
Sachant , on simplifie pour obtenir
Finalement, détermine une norme sur .
Le but de l’exercice est de montrer que toute matrice réelle de trace nulle est orthogonalement semblable à une matrice dont les éléments diagonaux sont tous nuls.
Soit
Déterminer telle que soit à éléments diagonaux nuls.
Soient un espace euclidien muni d’un produit scalaire noté et un endomorphisme de . On suppose que admet deux valeurs propres et telles que . On considère et deux vecteurs propres de , unitaires, orthogonaux et respectivement associés à et .
Montrer qu’il existe unitaire tel que et .
Montrer le résultat souhaité pour une matrice symétrique réelle.
Montrer le résultat souhaité pour toute matrice de .
Solution
Notons les vecteurs de la base canonique de et l’endomorphisme canoniquement associé à la matrice . Le plan est stable par . Déterminons une base orthonormée de ce plan dans laquelle la matrice de a des coefficients diagonaux tous nuls. Pour , on a . Pour et , le vecteur vérifie . Posons alors
La famille est une base orthonormée convenable et la matrice de passage
répond à la question11 1 Mais la matrice obtenue n’est pas remarquablement sympactique hormis qu’elle a ses coefficients diagonaux tous nuls.
Pour , posons . L’application est continue sur et prend les valeurs en et en . Puisque , le théorème des valeurs intermédiaires assure que cette application s’annule. Il existe donc tel que . Au surplus et par construction, le vecteur est unitaire et élément du plan .
Soit symétrique de trace nulle. L’endomorphisme canoniquement associé est autoadjoint pour le produit scalaire canonique sur . Si toutes les valeurs propres de sont nulles, la matrice est nulle ce qui répond à la question. Sinon, il existe deux valeurs propres et avec car la somme des valeurs propres de comptées avec multiplicité est nulle puisque égale à la trace de . Par ce qui précède et parce que les sous-espaces propres de sont deux à deux orthogonaux, il existe un vecteur unitaire tel que . On complète ce vecteur en une base orthonormée et l’on considère la matrice de passage de la base canonique à cette base orthonormée. La matrice est orthogonale et est une matrice symétrique dont le coefficient d’indice est nul. La sous-matrice constituée des premières lignes et colonnes est symétrique réelle de trace nulle. En raisonnant par récurrence, il existe telle que soit à diagonale nulle. Considérons alors la matrice étendue
La matrice est orthogonale et l’on vérifie par produit par blocs que est à coefficients diagonaux tous nuls.
Au final, la matrice est orthogonalement semblable à une matrice aux coefficients diagonaux tous nuls.
Soit de trace nulle. On écrit avec symétrique et antisymétrique. Les coefficients diagonaux de étant tous nuls, la trace de est nulle. Par ce qui précède, il existe telle que est à coefficients diagonaux tous nuls. Or est une matrice antisymétrique car l’est et est orthogonale. Les coefficients diagonaux de sont donc tous nuls et par conséquent est à coefficients diagonaux tous nuls.
Soient et dans telles que .
Montrer qu’il existe une matrice telle que .
Solution
La résolution est immédiate si est inversible puisque la matrice convient. En effet, c’est une matrice orthogonale car
Passons au cas général. Pour , on sait
et donc, par la formule du rang,
En appliquant ce résultat à , il vient
Au surplus, et donc
Considérons une base orthonormée de adaptée à l’écriture
Considérons aussi une base orthonormée de adaptée à l’écriture
Par formule de changement de base orthonormée (au départ et à l’arrivée), on peut écrire
De même, en introduisant une base orthonormée adaptée à l’écriture
on parvient à
L’égalité entraîne alors . On peut donc introduire telle que . On considère ensuite
et l’on observe
On en déduit
puis
Soient avec et à coefficients tous positifs.
On veut montrer que admet un vecteur propre à coordonnées toutes positives, associé à une valeur propre positive.
Trouver les valeurs propres de
Montrer que si a des valeurs propres toutes positives, ses coefficients ne sont pas forcément tous positifs.
Montrer que
existe et est valeur propre de .
En considérant la valeur absolue d’un vecteur à définir, établir la propriété voulue.
Cette propriété reste-t-elle vraie si la matrice n’est pas symétrique ?
Solution
C’est un calcul classique
Les valeurs propres de sont et .
Pour et , la matrice précédente produit un contre-exemple.
La matrice est symétrique réelle donc diagonalisable dans une base orthonormée. En décomposant, une colonne unitaire dans cette base et en notant ses coordonnées, on a
avec les valeurs propres de .
On en déduit que est la plus grande valeur propre de .
Soient un vecteur propre unitaire associé à la plus grande valeur propre de et la colonne (unitaire) formée par les valeurs absolues des coefficients de . On a
et donc . En décomposant le vecteur sur la base orthonormée de vecteurs propres précédente, on obtient que est combinaison linéaire des vecteurs propres associés à la plus grande valeur propre de (il peut y en avoir plusieurs). Le vecteur est donc vecteur propre de à coefficients positifs.
Oui, c’est le théorème de Perron-Frobenius. Cependant cela n’a rien d’immédiat…
et
À quelles conditions nécessaires et suffisantes sur existe-t-il telle que ?
À quelles conditions nécessaires et suffisantes sur existe-t-il et tels que ?
À quelles conditions nécessaires et suffisantes sur existe-t-il et tels que ?
et
À quelles conditions nécessaires et suffisantes sur existe-t-il telle que ?
À quelles conditions nécessaires et suffisantes sur existe-t-il et tels que ?
À quelles conditions nécessaires et suffisantes sur existe-t-il et tels que ?
Si , justifier l’existence de
Calculer ce maximum si et .
Si ,
est-il fini en général? (Si oui, le montrer, si non, donner un contre-exemple).
De manière générale, si déterminer
[Énoncé fourni par le concours CENTRALE-SUPELEC (CC)-BY-NC-SA]
Solution
Si et sont orthogonalement semblables, ces deux matrices sont semblables et ont donc même trace et même déterminant. On en tire les conditions nécessaires et
Inversement, si et alors et ont le même polynôme caractéristique de racines 1 et 3. Les matrices et étant symétriques réelles, elles sont toutes les deux orthogonalement semblables à et donc et sont orthogonalement semblables.
Pour fixé, on trouvera et convenables si, et seulement si, on peut trouver tel que d’où la condition nécessaire et suffisante .
Par symétrie, pour fixé, on obtient la condition .
Le raisonnement est analogue au précédent en parlant seulement de matrices semblables et l’on obtient la condition double et .
Pour fixé, il existe toujours tels que et soient semblables: il suffit de prendre et et de sorte que .
Pour fixé: idem.
La fonction est continue, à valeurs réelles et définie sur le compact non vide , elle y admet donc un maximum.
Après réduction, la matrice symétrique réelle est orthogonalement semblable à la matrice ce qui permet d’écrire avec . On a alors
avec parcourant . La matrice est de la forme
et donc
est maximal pour .
Finalement,
Non, prenons par exemple
La matrice
est semblable à et peut donc s’écrire avec . Pour , on obtient
de déterminant
En remplaçant par une matrice orthosemblable, on peut supposer de la forme
et donc écrire
Une matrice orthogonale peut s’écrire sous la forme
et alors dans les deux cas
En posant
on peut écrire
et après calcul
Pour maximiser le déterminant, il suffit de savoir minimiser la fonction donnée par
On peut interpréter dans le plan complexe
Quitte à réordonner les matrices , on peut supposer
Cas: . On peut montrer que la fonction s’annule: c’est assez facile si car alors , c’est aussi vrai si en établissant que le système suivant possède une solution
que l’on obtient avec
Dans ce cas le maximum de vaut .
Cas: .
La fonction ne peut s’annuler car
et, en passant au module, on obtient alors .
La fonction est de classe et admet donc un minimum sur le compact qui est un point critique. Si est un point critique alors
ce qui donne
Ici car on est dans le cas où la fonction ne s’annule pas. On obtient alors
Les points du cercles trigonométriques repérés par les angles et sont alors confondus ou diamétralement opposés. Cela permet d’écrire pour chaque indice
avec et un angle fixé. On a alors
et donc
et alors la borne supérieure cherchée vaut
Cette quantité peut aussi s’interpréter comme égale à
avec la quantité la plus proche de que l’on parvient à obtenir en sommant valeurs chacune choisies parmi les deux valeurs propres possibles de chaque matrice .
Cette résolution m’a pris des heures…elle me semble bien compliquée et n’exploite pas la positivité des matrices ! Néanmoins l’expression compliquée de la solution et, notamment la discussion, ne me semble pas pouvoir être évitée!
[<] Théorème spectral matriciel[>] Matrice de Gram
On étudie l’équation d’inconnue .
Montrer qu’une solution est une matrice symétrique.
En déduire les solutions de l’équation étudiée.
Solution
Soit solution. On a et aussi .
Ainsi l’inverse de la matrice est égale à et à . On en déduit .
Soit solution. La matrice est donc symétrique et vérifie .
Puisque est annulateur de , 1 est sa seule valeur propre réelle.
Puisque est symétrique réelle, est diagonalisable dans .
Au final est semblable à donc .
Réciproque immédiate.
Soit telle que .
Montrer que et que est orthogonale.
Soit l’endomorphisme canoniquement associé à la matrice .
Montrer que le noyau de est de dimension paire et en déduire la forme de la matrice de dans une base bien choisie.
Solution
donne aussi . Or est inversible donc .
Enfin et donc est orthogonale.
L’endomorphisme induit par sur le noyau de est représentable par une matrice vérifiant . Cette matrice est diagonalisable dans avec les deux valeurs propres complexes et . Celles-ci ont même multiplicité et donc est un entier pair. De plus, est alors semblable dans à une matrice diagonale avec des blocs diagonaux . Or la matrice de rotation
est aussi semblable à la matrice dans .
En raisonnant par blocs, on obtient que la matrice est semblable dans à une matrice diagonale par blocs de blocs diagonaux . Or ces deux matrices sont réelles et il est « bien connu » que deux matrices réelles semblables sur le sont aussi sur .
Enfin, par le lemme de décomposition des noyaux
et dans une base adaptée à cette décomposition, on obtient que peut être représenté par une matrice de la forme
Trouver les de telles que et que n’ait aucune valeur propre réelle.
Solution
Soit solution. donc est annulateur de et puisque 0 et 1 ne sont pas valeurs propres de , puis sont annulateurs de .
Ainsi, on peut affirmer (ainsi ) et .
Pour , est un plan (car il n’y a pas de valeurs propres réelles) stable par (car ). La restriction de à ce plan est un automorphisme orthogonal sans valeur propre, c’est donc une rotation et celle-ci est d’angle car . De plus, ce plan est aussi stable par donc est stable par ce qui permet de reprendre le raisonnement à partir d’un . Au final, est orthogonalement semblable à une matrice diagonale par blocs et aux blocs diagonaux égaux à
La réciproque est immédiate.
Soit vérifiant
Montrer que la matrice est diagonalisable sur .
Solution
On a
puis
Ainsi, annule .
Ce polynôme n’est pas à racines simples, mais en montrant
on pourra affirmer que le polynôme annule aussi et, ce dernier étant scindé à racines simples sur , cela sera décisif pour conclure.
Evidemment . Inversement, soit . On a
donc
et par conséquent . Alors
et donc . Ainsi, puis l’égalité.
[<] Équations matricielles avec transposition[>] Adjoint
Soient trois vecteurs de et
Montrer que diagonalisable, de valeurs propres positives et .
Solution
La matrice est symétrique réelle et donc diagonalisable.
Soit une valeur propre de de colonne propre associé .
On a
et
Par conséquent, et car est le produit des valeurs propres comptées avec multiplicité.
En fait, si est la matrice dont les colonnes sont les coordonnées des vecteurs dans une base orthonormale, on observe que ce qui permet de retrouver les résultats précédents.
Soit une famille de vecteurs d’un espace préhilbertien . On introduit sa matrice de Gram
Montrer .
Solution
Introduisons l’espace et une base orthonormée de . Considérons la matrice des coordonnées des vecteurs dans la base orthonormée . On observe
Ainsi, puis
Notons que l’égalité se justifie en observant .
Soient un espace vectoriel euclidien de dimension de produit scalaire et une base orthonormale de .
On appelle matrice de Gram11 1 On trouvera une autre application classique des matrices de Gram dans le sujet 1599. d’une famille de vecteurs de , la matrice de coefficient général .
On note la matrice figurant la famille dans la base . Exprimer en fonction des matrices et .
Soit . À quelle(s) condition(s) existe-t-il une famille de vecteurs de telle que ?
Application : On suppose . Pour quelles valeurs de réelles existe-t-il une famille de vecteurs unitaires de vérifiant pour tous les indices et distincts?
Soient un espace euclidien et .
On dit que est la matrice de Gram du système .
On considère une base orthonormée de .
On note la matrice de dans la base . Montrer que et que .
Soit et . Montrer que si, et seulement si, il existe un espace euclidien et une famille de vecteurs de tels que .
Solution
Notons les vecteurs constituant la base orthonormée . Pour ,
donc
Coefficient par coefficient, on obtient .
En établissant par double inclusion , il vient
Supposons . Par le théorème spectral, on écrit avec et à coefficients diagonaux positifs. On peut écrire avec diagonale et l’on a alors pour . On peut alors introduire un espace euclidien de dimension muni d’une base orthonormée et la famille figurée par la matrice dans une base orthonormée de répond au problème.
Supposons . La matrice est symétrique et l’on a
Ainsi,
On appelle matrice de Gram d’une famille de vecteurs d’un espace euclidien , la matrice carrée
Montrer que est une matrice symétrique à valeurs propres positives.
Montrer que la matrice est inversible si, et seulement si, la famille est libre.
Solution
La matrice est symétrique car pour tout couple .
Soient et tels que . Avec des notations entendues, on observe
Aussi, avec . On en déduit .
Supposons la famille libre. Pour , on a et les calculs qui précèdent donnent avec . Par liberté de la famille , il vient et donc . On conclut que la matrice est inversible.
Supposons inversible. Puisque est symétrique à valeurs propres strictement positives, on peut introduire une matrice symétrique et à valeurs propres strictement positives telle que . Soit tel que . En considérant la colonne , on observe
Ainsi, . Or la matrice est inversible et donc .
On peut aussi résoudre ces questions en observant avec matrice des coordonnées des vecteurs dans une base orthonormale.
sont deux entiers strictement positifs. deux matrices de telles que .
Comparer et .
Soit (respectivement ) l’application linéaire de dans de matrice (respectivement ) dans les bases canoniques de et . On munit de sa structure euclidienne canonique. Montrer que
Soient et deux bases d’un espace euclidien de dimension vérifiant
Montrer qu’il existe une application orthogonale de telle que
Montrer qu’il existe tel que .
[Énoncé fourni par le concours CENTRALE-SUPELEC (CC)-BY-NC-SA]
Solution
Soit . On a donc . Or et donc . Ainsi, et même par une démarche symétrique.
En notant les colonnes des coordonnées de et
et
d’où la conclusion.
Considèrons l’application linéaire déterminée par
Il s’agit de montrer que est orthogonale, par exemple en observant que conserve la norme.
Soit . On peut écrire
On a alors
Soit un sous-espace vectoriel supplémentaire de dans .
Introduisons une base de et posons et les familles données par
En vertu du b), on peut affirmer
Introduisons une base orthonormée de l’orthogonal de l’image de et une base orthonormée de l’orthogonal de l’image de . On vérifie alors
On peut alors introduire une application orthogonale vérifiant
On a alors l’égalité d’application linéaire
car celle-ci vaut sur les donc sur et vaut aussi évidement sur .
En introduisant matrice de dans la base canonique de , on obtient
Soit un espace euclidien de dimension de produit scalaire noté .
On appelle matrice de Gram d’une famille de vecteurs de , la matrice de coefficient général .
Montrer que la famille et la matrice ont le même rang.
Soient et deux familles de vecteurs de telles que . Montrer qu’il existe une isométrie de vérifiant pour tout indice .
Soit un espace euclidien de dimension .
Soient une base orthonormée de , et dans . On introduit
Déterminer les coefficients de la matrice .
Soit une base de . Montrer qu’il existe une unique famille de telle que
Montrer que est une base de et exprimer la matrice de passage de la base à la base à l’aide de la matrice
On considère dans la suite une famille de vérifiant
et
Montrer que la famille est une base de .
On pose et .
Montrer que est diagonalisable et que .
Montrer que les coefficients de sont positifs.
Soit déduit de comme dans b). Montrer
Solution
On a , donc
La condition étudiée sera remplie si, et seulement si, . Il existe donc une unique famille solution et celle-ci est déterminée par
La matrice étant inversible, la famille est une base et
ce qui donne car .
Supposons . Notons et . On a
donc
Or, dans les termes sommés, et donc
On en déduit
En faisant le produit scalaire avec un vecteur comme dans l’énoncé, on obtient
avec et pour tout . On en déduit .
Un raisonnement analogue fournit aussi
et l’on conclut que la famille est libre. C’est donc une base puisqu’elle est de longueur .
On a et la matrice est diagonalisable car symétrique réelle. Pour étudier ses valeurs propres, commençons par étudier celles de . Soit une valeur propre de et vecteur propre associé. On a donc
avec et (car est inversible) donc .
Aussi
avec les coefficients de .
Par l’inégalité de Cauchy-Schwarz,
et l’on peut même affirmer qu’il n’y a pas égalité car ne peut être colinéaires aux transposées de chaque ligne de . On a alors
car les colonnes de la matrice sont unitaires puisque .
On en déduit et finalement
En conséquence,
On écrit avec diagonale à coefficients diagonaux dans . On a
Or
avec convergence de la série matricielle. On en déduit
La matrice est à coefficients positifs, ses puissances aussi et donc est à coefficients positifs.
En reprenant les notations précédentes,
[<] Matrice de Gram[>] Endomorphismes normaux
On munit l’espace du produit scalaire canonique donné par
Soient et donné par .
Déterminer l’endomorphisme adjoint de .
À quelle condition l’endomorphisme est-il autoadjoint? À quelle condition l’endomorphisme est-il une isométrie.
Solution
Pour ,
Considérons alors donné par .
Par ce qui précède,
L’endomorphisme adjoint de est donc .
Pour , on remarque11 1 Il suffit de considérer .
On en déduit que l’endomorphisme est autoadjoint si, et seulement si est symétrique.
Aussi, l’endomorphisme est une isométrie si, et seulement si, c’est-à-dire si, et seulement si, . L’endomorphisme est donc une isométrie si, et seulement si, est orthogonale.
Soit un endomorphisme d’un espace euclidien .
Montrer que .
Solution
Soit une base orthonormée de . On sait
Par égalité du déterminant d’une matrice et de sa transposée, on peut conclure.
Soit un endomorphisme d’un espace vectoriel euclidien . On note l’adjoint de . Montrer
Solution
Soit . Pour tout , on peut écrire et l’on a
Ainsi, .
Soit . Pour tout ,
et donc . Ainsi, .
Par double inclusion, on a donc l’égalité
Puisque , on a aussi d’où .
Soit un endomorphisme d’un espace euclidien .
Comparer les espaces et .
Comparer les espaces et .
Solution
D’une part, on sait .
D’autre part, si alors donc
ce qui donne .
Ainsi, par double inclusion, .
Par la formule du rang, il vient alors . Or et donc, par inclusion et égalité des dimensions,
Soit un endomorphisme d’un espace euclidien .
Exprimer et en fonction de .
Solution
On a immédiatement
Inversement, si alors
et donc .
Par double inclusion, on obtient
Soient et . On peut écrire avec et alors
On en déduit
Or
et
donc, par inclusion et égalité des dimensions,
Soit un endomorphisme d’un espace euclidien . Montrer
Solution
D’une part, on sait .
D’autre part, si alors donc
ce qui donne .
Ainsi, par double inclusion, . Par la formule du rang, il vient alors .
Enfin,
Soient un -espace vectoriel euclidien et dans . On note l’endomorphisme adjoint de .
Montrer que et .
On suppose . Montrer
On suppose toujours . Établir
Solution
Soit . Pour tout , on peut écrire et l’on a
Ainsi, .
Soit . Pour tout ,
et donc car est orthogonal à tout vecteur. Ainsi, .
Par double inclusion, on a donc l’égalité
Puisque , on a aussi d’où .
On a immédiatement
Inversement, soit . On a
Or et, puisque , . Par suite, et donc
On en déduit .
Finalement,
puis l’égalité.
Supposons inversible. On a
Par suite,
puis
Or et donc . Ainsi et puisque , on peut conclure .
Supposons .
L’endomorphisme est donc injectif puis bijectif.
Soit avec espace vectoriel euclidien.
Montrer
On suppose . Établir
Solution
Soit . Pour tout , on peut écrire et l’on a
Ainsi, .
Soit . Pour tout ,
et donc . Ainsi, .
Par double inclusion, on a donc l’égalité
Puisque , on a aussi d’où .
L’hypothèse s’exprime aussi .
Supposons inversible.
Soit . On a donc . Par suite, . Cela entraîne
puis
Par suite, .
Supposons . Soit . On a .
Or et donc .
Par suite, et donc .
On conclut que l’endomorphisme est injectif et donc bijectif.
Soient un espace vectoriel euclidien et vérifiant .
Établir
Solution
Immédiatement,
Inversement, soit . On a donc puis
On a donc puis aussi et donc .
Par double inclusion, on a l’égalité demandée.
Soit un espace euclidien et tel que . Montrer
Solution
L’hypothèse s’exprime aussi .
Supposons inversible.
Soit . On a donc . Par suite, . Cela entraîne
puis
Par suite, .
Supposons . Soit . On a .
Or et donc .
Par suite, et donc .
On conclut que l’endomorphisme est injectif et donc bijectif.
Soient un espace vectoriel euclidien et .
On suppose que pour tout , .
Montrer que .
Solution
Soit . Par l’inégalité de Cauchy-Schwarz,
On en déduit que ou non.
Soient un espace euclidien et vérifiant
Montrer que si alors .
.
Solution
Soit . Par l’inégalité de Cauchy-Schwarz,
On en déduit que ou non.
Supposons de plus . On a alors
et donc .
Soit . On a (donc ) et il existe vérifiant .
Par adjonction,
Par suite,
Enfin, par le théorème du rang,
ce qui permet de conclure
Soit un endomorphisme d’un espace euclidien de norme .
On note la norme d’opérateur sur subordonnée à .
Établir .
Solution
Pour , l’inégalité de Cauchy-Schwarz donne
On en déduit puis, par sous-multiplicativité,
Que , ou non, on obtient
Enfin, par l’identité , on obtient l’inégalité inverse et donc l’égalité.
Soit un projecteur d’un espace euclidien .
Montrer que est un projecteur orthogonal si, et seulement si, est autoadjoint.
Montrer que est un projecteur orthogonal si, et seulement si,
Application : Soient et deux projecteurs orthogonaux de l’espace euclidien . Montrer que est un projecteur si, et seulement si, .
Solution
Supposons que soit la projection orthogonale sur un sous-espace vectoriel . Pour tous ,
car et . Ainsi, . Par un calcul symétrique, et donc . L’endomorphisme est autoadjoint.
Supposons que soit un endomorphisme autoadjoint. Pour et , on écrit avec et l’on a
Les espaces et sont orthogonaux: la projection est une projection orthogonale.
Supposons que soit une projection orthogonale sur un sous-espace vectoriel . Pour tout , on écrit avec et . On a et, par le théorème de Pythagore, donc .
Supposons pour tout . Soient . On considère pour . L’inégalité donne
donc
Pour au voisinage de , l’expression change de signe sauf si . On a donc nécessairement . Les espaces et sont orthogonaux: la projection est une projection orthogonale.
Si alors donc est un projecteur.
Si est un projecteur, celui-ci est un projecteur orthogonal car
C’est donc un projecteur autoadjoint et par conséquent
Soit un endomorphisme d’un espace euclidien de norme .
On note la norme d’opérateur sur subordonnée à .
Comparer et .
Si , comparer et .
Si , montrer .
Solution
Pour , l’inégalité de Cauchy-Schwarz donne
On en déduit puis, par sous-multiplicativité,
Que , ou non, on obtient
Enfin, par l’identité , on obtient l’inégalité inverse et donc l’égalité.
Soit .
car . Ainsi, et . On peut conclure puis l’égalité par symétrie.
Soit . Il existe tel que . L’égalité donne puis
qui conduit à
Ainsi, . De plus, donc .
Soit un espace euclidien non réduit au vecteur nul dont on note le produit scalaire et la norme euclidienne associée.
Pour endomorphisme de , on note la norme d’opérateur définie par
Pour , établir
Application : Montrer
Solution
D’une part, l’inégalité de Cauchy-Schwarz donne
donc
D’autre part, puisque est un endomorphisme autoadjoint positif, il existe une base orthonormée de dans laquelle la matrice de s’écrit
Pour tout tel que de coordonnées dans , on a
donc
Par double inégalité,
Soit . On vérifie aisément donc
Par sous-multiplicativité de la norme triple,
Que la quantité soit nulle ou non, on obtient
En appliquant ce résultat à au lieu de , on peut aussi affirmer
Par double inégalité, on conclut .
désigne un espace euclidien de dimension et de produit scalaire noté .
On fixe deux vecteurs non nuls et dans .
Pour tout vecteur de , on pose .
Justifier que est un endomorphisme de et donner son rang.
Déterminer les éléments propres de . L’endomorphisme est-il diagonalisable?
Calculer et retrouver le résultat de diagonalisabilité de la question précédente.
Sot un endomorphisme de . On note son adjoint.
Montrer que commute avec si, et seulement si, il existe tel que et .
Solution
L’application est définie de vers .
Par linéarité du produit scalaire en sa deuxième variable, l’application est linéaire.
On remarque et car . On en déduit . En particulier, l’application est de rang .
Par la formule du rang, . On en déduit que est valeur propre de de multiplicité au moins .
Aussi, . Distinguons alors deux cas:
Cas: . Le réel est aussi valeur propre de . Celle-ci est alors nécessairement simple et il n’y a pas d’autres valeurs propres. L’endomorphisme est diagonalisable car la somme des dimensions des sous-espaces propres vaut .
Cas: . Il n’y a pas d’autres valeurs propres que car un vecteur propre associé à une valeur propre non nulle est nécessairement dans l’image de donc colinéaire à . Puisque , l’endomorphisme n’est pas diagonalisable.
Pour ,
On remarque avec .
Le polynôme est annulateur de .
Cas: . L’endomorphisme annule un polynôme simplement scindé, il est diagonalisable.
Cas: . est la seule valeur propre de . Pour que cet endomorphisme soit diagonalisable, il faut et il suffit qu’il soit égal à l’endomorphisme nul. Ce n’est pas le cas.
Supposons que commute avec .
Pour tout ,
soit encore
Pour , on obtient
Injectée dans la relation précédente, cela donne
et donc
Puisque le vecteur est non nul et que la relation doit valoir pour tout , on obtient .
Si et alors, pour tout ,
Les endomorphismes et commutent.
Soit un espace euclidien. Montrer l’équivalence des assertions suivantes:
;
est un projecteur orthogonal;
est un projecteur orthogonal;
.
Solution
Rappelons les propriétés classiques suivantes utiles pour la suite:
(i)(ii) Supposons . On a alors
donc est un projecteur.
De plus, . Le projecteur est donc autoadjoint et par conséquent c’est un projecteur orthogonal.
(ii)(iii) Supposons projecteur orthogonal. On a donc puis
Par suite, l’endomorphisme prend ses valeurs dans . Or il prend aussi ses valeurs dans , c’est donc l’endomorphisme nul. On en déduit que est un projecteur. On vérifie aussi qu’il est autoadjoint et c’est donc un projecteur orthogonal.
(iii)(iv) Supposons projecteur orthogonal.
Puisque et puisque , on a
Ainsi, est la projection orthogonale sur .
Soit .
Inversement, supposons .
Par les calculs qui précédent, on obtient . On peut écrire avec et . L’égalité donne puis et donc .
Ainsi, .
(iv)(i) Supposons
Puisque est stable par , est stable par .
L’endomorphisme induit par sur est un endomorphisme autoadjoint positif.
Si est valeur propre de alors il existe vérifiant et alors
donc .
L’endomorphisme est diagonalisable sur le sous-espace vectoriel stable et sa seule valeur propre possible est , c’est donc l’identité sur cet espace.
Puisque l’endomorphisme est nul sur et égal à l’identité sur , on peut affirmer que les endomorphismes et sont égaux car ils coïncident sur les deux espaces supplémentaires et .
Soient et deux endomorphismes d’un espace euclidien non réduit à .
On suppose que les endomorphismes et commutent et qu’ils sont nilpotents.
Montrer qu’il existe un vecteur de non nul vérifiant
On suppose que les endomorphismes et commutent et qu’ils possèdent un vecteur propre en commun.
Montrer que les endomorphismes adjoints et possèdent aussi un vecteur propre en commun.
Solution
Puisque l’endomorphisme est nilpotent, il est non injectif et son noyau n’est pas réduit à . De plus, ce noyau est stable par car et commutent. Tout comme , l’endomorphisme induit par sur est nilpotent et donc non injectif. Cela assure l’existence d’un vecteur non nul dans .
Soient et les valeurs propres associés à un vecteur propre commun à et .
Le polynôme caractéristique de est de la forme
Le sous-espace vectoriel est stable par et aussi par car et commutent.
Puisque le polynôme est annulateur de et aussi de , on peut affirmer que
et donc
On en déduit que l’endomorphisme induit par sur est nilpotent.
De façon analogue, on peut écrire le polynôme caractéristique de sous la forme
et affirmer que le sous-espace vectoriel est stable par et et que de plus, l’endomorphisme induit par sur est nilpotent.
Considérons alors l’espace
Cet espace vectoriel est stable par les endomorphismes et et ceux-ci y induisent des endomorphismes nilpotents.
Pour conclure, il suffit maintenant de montrer que l’espace est non nul car on peut alors appliquer pour conclure le résultat de la question précédente aux endomorphismes commutant et nilpotents induits par et sur .
Par la propriété , on obtient
et donc
Rappelons que nous avons noté un vecteur propre tel que
Si par l’absurde, , on peut écrire
On a alors
avec
et ainsi
On a encore en appliquant l’endomorphisme à cette relation
car et commutent.
Or et . C’est absurde.
On peut donc conclure que donc puis .
[<] Adjoint[>] Matrices commutant avec leur transposée
Soit un endomorphisme d’un espace euclidien . On suppose .
Montrer que les endomorphismes et ont les mêmes sous-espaces propres.
Montrer que les sous-espaces propres de sont deux à deux orthogonaux.
Solution
Soient et .
Puisque et commutent, l’espace est stable par .
Considérons alors les endomorphismes et restrictions de et à l’espace . Puisque
on a en particulier
et donc . Or donc . Ainsi, . Un raisonnement symétrique donne l’autre inclusion ce qui assure l’égalité.
Soient deux valeurs propres distinctes de .
Soient et . D’une part,
D’autre part;
Puisque , on obtient .
Les espaces et sont donc orthogonaux.
Soit un endomorphisme diagonalisable d’un espace euclidien .
On suppose que les endomorphismes et commutent. Montrer que l’endomorphisme est autoadjoint.
Solution
Notons les sous-espaces propres de l’endomorphisme . Puisqu’il est diagonalisable, on peut écrire
Nous allons montrer que les espaces de cette décomposition sont deux à deux orthogonaux.
Soit une valeur propre de . L’espace
est un supplémentaire de . Puisque, les endomorphismes et commutent, chaque espace propre est stable et donc est stable par . On en déduit que est stable par . Puisque l’endomorphisme induit par sur est diagonalisable, il existe une base de formé de vecteurs propres de . Or aucun de ces vecteurs propres ne peut être élément de . On en déduit l’inclusion puis l’égalité par un argument de dimensions.
Ainsi, les sous-espaces propres de sont deux à deux orthogonaux. En introduisant une base orthonormée de chaque sous-espace propre, on forme alors une base orthonormée de diagonalisant . L’endomorphisme est donc autoadjoint car représenté par une matrice symétrique en base orthonormée.
Soit un endomorphisme d’un espace euclidien . Montrer
Solution
Supposons . Pour tout , on obtient par propriété d’adjonction
Ainsi, .
Supposons pour tout . Soient . On a par développement
On en déduit
Par adjonction, on a encore
ce qui se réorganise en
Le vecteur est orthogonal à tout vecteur de , c’est le vecteur nul. Cela vaut pour tout et donc .
[<] Endomorphismes normaux[>] Endomorphismes autoadjoints positifs
Soit une matrice inversible vérifiant
Montrer que la matrice est orthogonale.
Solution
On a
Or et commutent donc
Soit telle que . On suppose qu’il existe tel que .
Montrer que .
En déduire que .
Solution
Puisque et commutent, on a et donc est nilpotente.
D’autre part, la matrice est symétrique réelle donc diagonalisable. Étant nilpotente, sa seule valeur propre possible est 0 et donc est nulle car semblable à la matrice nulle.
En exploitant le produit scalaire canonique sur on a
et donc
On dit qu’une matrice est unipotente lorsque l’on peut écrire avec matrice nilpotente. Quelles sont les matrices unipotentes orthogonales?
Solution
Soit une matrice unipotente orthogonale. L’égalité donne . Aussi, l’égalité donne . On en déduit que les matrices et commutent. Puisque est nilpotente, on peut affirmer par commutation que est aussi nilpotente. Or cette matrice est symétrique réelle et donc diagonalisable, c’est alors la matrice nulle. En particulier, ce qui donne . Finalement, . La réciproque est entendue.
Résoudre dans le système
Solution
Soit solution, est diagonalisable sur avec pour valeurs propres et .
Puisque est réel, les valeurs propres et ont même multiplicité. Par suite, est pair, .
Nous allons montrer, en raisonnant par récurrence sur qu’il existe une matrice orthogonale tel que
avec
Pour : .
Si alors est symétrique donc diagonalisable sur ce qui n’est pas le cas.
Il reste et donc .
Ainsi et la relation donne
puis
ce qui permet de conclure (car le cas est à exclure).
Supposons la propriété établie au rang et étudions le rang .
Soit une matrice solution.
La matrice est symétrique et donc il existe tel que .
On observe alors que l’espace est stable par et par . Par suite, est aussi stable par et . On peut alors appliquer l’étude menée pour à l’action de sur et l’hypothèse de récurrence à celle sur .
Cela établit la récurrence. Il ne reste plus qu’à souligner que les matrices ainsi obtenues sont bien solutions.
Soit vérifiant11 1 On dit que est une matrice normale. . Montrer que est orthogonalement semblable22 2 C’est-à-dire semblable par l’intermédiaire d’une matrice de passage orthogonale. à une matrice diagonale par blocs dont les blocs diagonaux sont de taille et/ou de taille de la forme33 3 La matrice étant diagonalisable dans , on peut affirmer que toute matrice commutant avec sa transposée est diagonalisable sur .
On admettra qu’un endomorphisme d’un espace réel de dimension finie non nulle admet au moins une droite ou un plan stable44 4 Voir le sujet 5157..
Soient et .
Montrer qu’il existe un unique couple tel que
Montrer que et commutent si, et seulement si, et commutent.
Soit telle que . On suppose que est inversible. Montrer que est pair et qu’il existe et tels que où est une matrice diagonale par blocs avec des blocs où
Énoncer et prouver un théorème de réduction pour les matrices normales de , c’est-à-dire les matrices telles que .
Solution
Unicité:
Si avec et comme voulues, on a et donc
Existence:
Les matrices et proposées ci-dessus conviennent.
Si et commutent, il en est de même des matrices et fournies par les expressions précédentes. Inversement, si et commutent, il en est de même de et .
donne et donc . On en déduit que est pair lorsque .
La matrice est symétrique réelle et possède donc une valeur propre . Soit un vecteur propre associé et . On a
On en déduit que et sont orthogonaux. Posons alors
et complétons la famille en une base orthonomale. L’endomorphisme canoniquement associé à est alors figuré dans cette base par une matrice de la forme
Les matrices et sont orthogonalement semblables et donc est antisymétrique. On en déduit , les étoiles sont nulles et est antisymétrique ce qui permet de propager une récurrence.
Lorsque la matrice antisymétrique n’est pas inversible, le résultat qui précède est étendu en autorisant des blocs nuls en plus des .
Supposons . Par commutation, les sous-espaces propres de sont stables par ce qui permet de mener le raisonnement précédent en choisisssant vecteur propre commun à et . En notant que sera alors vecteur propre de pour la même valeur propre que , on obtient que est orthogonalement semblable à une matrice diagonale par blocs avec des blocs diagonaux de la forme
[<] Matrices commutant avec leur transposée[>] Matrices symétriques positives
Soient et . Montrer que .
Solution
D’une part,
donc .
D’autre part, pour
Ainsi, est un endomorphisme autoadjoint positif.
Soit un endomorphisme d’un espace vectoriel euclidien .
Montrer que est diagonalisable et que ses valeurs propres sont positives ou nulles.
Établir puis .
Solution
donc est autoadjoint et par conséquent diagonalisable (dans une base orthonormée).
Si est valeur propre de et vecteur propre associé
donc .
On a de manière immédiate.
Soit . On a ce qui donne donc .
Ainsi, .
Soit , on peut écrire avec et alors
donc . Enfin,
et l’on peut conclure par inclusion et égalité des dimensions que .
Soit est un endomorphisme autoadjoint d’un espace euclidien . Retrouver le résultat du cours
Solution
Supposons pour tout .
Soient une valeur propre de et un vecteur propre associé. On a avec . L’inégalité donne alors et donc car .
Supposons . Puisque l’endomorphisme est autoadjoint, il est diagonalisable en base orthonormée. Il existe base orthonormée de formée de vecteurs propres de . On note la valeur propre associée au vecteur propre , on sait . Pour , on introduit les coordonnées de dans et l’on a
donc
Soit un espace euclidien de dimension . On considère un endomorphisme autoadjoint positif et l’on note sa matrice dans une base orthonormée .
Soient et . Exprimer à l’aide des coefficients de .
On suppose qu’il existe tel que . Montrer que la -ème ligne et la -ème colonne de sont nulles.
Soient et deux endomorphismes autoadjoints positifs de tels que . Montrer que .
Solution
Pour , est la -ème coordonnée de l’image du -ème vecteur de la base: .
En développant,
Si alors la positivité de entraîne
Nécessairement . Ainsi, la -ème ligne de est nulle. Par symétrie, la -ème colonne l’est aussi.
L’endomorphisme n’est pas inversible. Il existe tel que . On a alors . Par nullité d’une somme de termes positifs,
Dans une base orthonormée dont le premier vecteur est colinéaire à , le coefficient d’indice des matrices de et est nul. Par ce qui précède, la première colonne de chaque matrice est nul: le vecteur est commun aux noyaux de et .
Soit un endomorphisme autoadjoint à valeurs propres positives d’un espace vectoriel euclidien .
Montrer qu’il existe un endomorphisme autoadjoint à valeurs propres positives tel que .
Établir l’unicité de en étudiant l’endomorphisme induit par sur les sous-espaces propres de .
Solution
est diagonalisable de valeurs propres positives. est la somme directe orthogonale des sous-espaces propres , notons les projecteurs orthogonaux associés à cette décomposition.
On a et en posant , on a avec endomorphisme autoadjoint à valeurs propres positives. On peut aussi proposer une résolution matricielle via représentation dans une base orthonormée
Soit solution. Pour tout , est stable par car et commutent. et donc via diagonalisation de , on obtient . Ceci détermine de manière unique sur chaque sous-espace propre de et puisque ceux-ci sont en somme directe égale à , on peut conclure à l’unicité de .
Soit un endomorphisme autoadjoint d’un espace euclidien de dimension .
Soit un entier impair.
Montrer qu’il existe un endomorphisme autoadjoint de tel que .
Justifier que cet endomorphisme est unique.
On suppose désormais que l’entier est pair.
Donner une condition nécessaire et suffisante pour qu’il existe un endomorphisme autoadjoint de tel que .
Lorsqu’il existe, l’endomorphisme solution est-il unique?
Solution
L’endomorphisme est autoadajoint donc diagonalisable en base orthonormée. Soit une telle base et
Considérons alors l’endomorphisme de déterminé par
L’endomorphisme est autoadajoint car représenté par une matrice symétrique en base orthonormée et l’endomorphisme vérifie, par construction, : il est solution.
Soit un endomorphisme autoadajoint solution. L’endomorphisme commute avec car . Les sous-espaces propres de sont alors stables par . Soit un tel sous-espace propre. L’endomorphisme induit par sur ce sous-espace propre est diagonalisable car c’est un endomorphisme induit par un endomorphisme diagonalisable. Considérons une base de diagonalisation de cet endomorphisme induit. La matrice de l’endomorphisme induit par dans cette base est diagonale et sa puissance -ième est égale à car . On en déduit que l’endomorphisme induit par sur l’espace n’est autre que . Cela détermine entièrement sur chaque sous-espace propre de . Or ces derniers forment une décomposition en somme directe de , l’endomorphisme est donc entièrement déterminé.
Si est un endomorphisme autoadajoint, il est diagonalisable et les valeurs propres de sont les avec valeur propre de . En particulier, les valeurs propres de sont toutes positives car est un entier pair. Par conséquent, s’il existe autoadjoint vérifiant , les valeurs propres sont toutes positives. Inversement, si les valeurs propres de sont positives, on peut adapter la résolution de la première question et établir qu’il existe un endomorphisme autoadjoint solution de l’équation . Si est pair et que possède une valeur propre négative, l’endomorphisme n’existe pas.
Si est pair et positif alors on peut à nouveau établir l’existence mais l’unicité n’est plus vraie car on peut changer les signes des valeurs propres de tout en conservant la propriété .
Soient un espace euclidien et symétrique à valeurs propres strictement positives.
Montrer que, pour tout ,
Donner une condition nécessaire et suffisante pour qu’il y ait égalité.
Solution
Puisque les valeurs propres de sont strictement positives, on montre par orthodiagonalisation
Soit .
Si , l’inégalité demandée est évidente et c’est même une égalité.
Si , considérons . On a
donc en développant
Or , par suite, le discriminant
est négatif ou nul car sinon le trinôme en précédent posséderait deux racines et ne serait donc pas de signe constant.
On en déduit l’inégalité proposée.
De plus, il y a égalité si, et seulement si, il existe vérifiant c’est-à-dire si, et seulement si, est vecteur propre de .
[<] Endomorphismes autoadjoints positifs[>] Endomorphismes autoadjoints définis positifs
Soit . Montrer
Solution
Supposons
Pour vecteur propre associé à la valeur propre , on obtient
et donc .
Supposons .
Par le théorème spectral, on peut écrire avec et diagonale. De plus, les coefficients diagonaux de sont les valeurs propres de . Pour toute colonne , on a alors
puis
Soit .
Soit . Montrer que si, et seulement si, .
Montrer que les valeurs complexes des matrices éléments de sont de parties réelles positives.
Solution
Commençons par remarquer que la matrice est assurément symétrique.
De plus, pour , on constate par transposition d’un réel
Par conséquent,
et donc si, et seulement si, .
Soient une valeur propre complexe d’une matrice et un vecteur propre associé. En écrivant avec colonnes réelles et avec , l’égalité donne
et
En considérant la partie réelle, il vient
avec car la colonne complexe est non nulle.
On en déduit .
Soit à valeurs propres positives. Établir
Solution
Notons les valeurs propres de . On a
L’inégalité de convexité
est bien connue, c’est la comparaison des moyennes géométrique et arithmétique qui s’obtient par la convexité de l’exponentielle appliquée aux réels lorsque .
Soit .
Justifier que la matrice est diagonalisable.
Montrer que les valeurs propres de sont toutes positives.
Soient et .
Montrer que les valeurs propres de sont positives.
Soit une famille orthonormée de colonnes telle que la famille soit orthogonale.
Montrer que les sont des vecteurs propres de .
Solution
Soient une valeur propre de et un vecteur propre associé. On a .
D’une part
D’autre part
donc
Pour , on a
donc
et par conséquent est vecteurs propres de .
Soit une matrice symétrique réelle à valeurs propres positives. Pour , on pose
Étudier la limite de
Solution
La matrice est diagonalisable. Notons les valeurs propres de comptées avec multiplicité et rangées en ordre croissant. Pour tout ,
Les valeurs propres étant positives,
puis
Par théorème d’encadrement,
La suite converge vers la plus grande valeur propre de .
Soit .
Montrer que pour tout , .
Observer que si alors, pour tout , .
Solution
Pour colonne élémentaire,
Pour avec ,
Si , l’expression précédente se simplifie et l’on obtient
Cela oblige car sinon il y a changement de signe au voisinage de .
Soit . On note le plus grand coefficient diagonal de .
Établir
Solution
Notons que les coefficients diagonaux de sont assurément positifs car
Il est alors immédiat que
Pour , introduisons avec . On a
Si alors on a nécessairement et donc .
Si alors puis que le trinôme du second degré est de signe constant, on a
puis
d’où .
Soient avec et . On suppose
Montrer .
Solution
Cas: diagonale. On écrit avec . On a
et donc
Si alors et donc puis .
Sinon, on a encore .
Ainsi, puis aussi .
Cas général: Par le théorème spectral, on peut écrire avec diagonale à coefficients diagonaux positifs et .
La relation donne alors avec . Comme au dessus, on obtient puis
Soient . Montrer
Solution
Puisque symétrique réelle positive, la matrice est orthogonalement semblable à une matrice diagonale à coefficients positifs ce qui permet décrire
avec , , pour .
On a alors
avec . On vérifie aisément que est symétrique positive car l’est et alors ses coefficients diagonaux sont positifs puisque
On a alors
Soient . Montrer .
Solution
Puisque la matrice est symétrique réelle positive, elle est orthogonalement semblable à une matrice diagonale à coefficients positifs. On peut donc écrire
On a alors
avec qui est encore une matrice symétrique réelle positive.
On a alors
car les scalaires et les coefficients sont positifs.
Puisque deux matrices semblables ont même trace, on parvient à l’inégalité voulue.
Soit une matrice symétrique à valeurs propres toutes positives.
Montrer
Solution
Si est diagonale égale à avec alors
Or les coefficients d’une matrice orthogonale appartiennent à donc
Plus généralement, si est symétrique réelle à valeurs propres positives, on peut écrire avec orthogonale et où . On a alors
avec orthogonale. On a alors
Soit . Montrer que et .
Inversement, pour telle que , établir qu’il existe telle que .
Solution
Si alors pour toute colonne
et donc .
Inversement, pour telle que , il existe telle que avec et .
Posons alors avec . On a et ce qui fournit .
On note l’ensemble des matrices symétriques de de valeurs propres positives. Soit .
Montrer qu’il existe une matrice qui est un polynôme en vérifiant
Soit vérifiant . Montrer que commute avec puis que .
Solution
Il existe , vérifiant avec , . Considérons alors un polynôme , construit par interpolation de Lagrange vérifiant
Posons ensuite . est un polynôme en , est symétrique réelle et
Les valeurs propres de sont positives donc . Enfin, puisque
on a .
Soit vérifiant . On a donc commute avec et donc avec qui est un polynôme en . Puisque et sont diagonalisables et qu’elle commutent toutes deux, elles sont codiagonalisables. Ainsi, il existe une matrice de passage vérifiant
Or donc puis car
Finalement,
On note l’ensemble des matrices symétriques de dont les valeurs propres sont toutes positives. Soit . On souhaite établir qu’il existe une unique matrice telle que .
Montrer l’existence d’une telle matrice.
Soit vérifiant . Établir que pour tout ,
Justifier l’unicité d’une matrice solution.
(Inégalité de Hadamard)
Soit .
On rappelle l’inégalité arithmético-géométrique: pour tous réels positifs ,
Montrer
Soient , et .
Vérifier que et exprimer .
On suppose inversible. Vérifier que les coefficients diagonaux de sont strictement positifs et, en introduisant des réels pertinemment choisis, établir
Justifier que l’inégalité précédente est encore vraie lorsque n’est pas inversible.
Solution
En introduisant les valeurs propres de comptées avec multiplicité, on a
car est semblable à .
L’inégalité voulue est alors une conséquence directe de l’inégalité arithmético-géométrique sachant que les réels sont tous positifs.
On vérifie immédiatement que est symétrique en calculant .
Pour toute colonne ,
La matrice est donc symétrique positive.
Aussi, pour tout ,
et donc
Puisque est symétrique positive inversible, est définie positive. En notant la colonne élémentaire d’indice , on a
Posons de sorte que . L’inégalité de la première question donne . Or
On en déduit
Si n’est pas inversible alors . Parallèlement, pour . L’inégalité précédente est donc encore vraie.
Soit . Montrer qu’il existe des matrices telles que soit diagonale à coefficients diagonaux positifs.
Solution
Si est diagonale à coefficients diagonaux positifs avec , on remarque . Cela permet d’initier la démarche qui suit.
Cas: inversible.
Considérons . La matrice est symétrique puisque et définie positive car
Par le théorème spectral, on peut écrire avec où et .
Posons alors , et . On vérifie
On en déduit et l’on obtient l’écriture comme voulu.
Cas: non inversible.
Par densité de dans , on peut introduire une suite de matrices inversibles de limite . Pour tout , il existe telles que soit une matrice diagonale à coefficients diagonaux positifs. Par produit de parties compactes, est une partie compacte et l’on peut introduire strictement croissante telle que la suite converge vers un couple formé de matrices orthogonales. Par opérations sur les limites admet une limite qui est nécessairement une matrice diagonale à coefficients diagonaux positifs car l’ensemble des matrices de ce type est une partie fermée.
Soient et deux matrices de à valeurs propres toutes positives.
Montrer qu’il existe une matrice symétrique telle que .
Établir
On pourra commencer par étudier le cas où .
Solution
La matrice est symétrique réelle donc orthogonalement diagonalisable: il existe une matrice telle que avec
Les réels sont les valeurs propres comptées avec multiplicité de la matrice et celles-ci sont supposées positives ce qui permet d’introduire
On vérifie et la matrice résout alors le problème posé puisque
Supposons et introduisons les valeurs propres de comptées avec multiplicité. Les valeurs propres de sont alors les pour et l’inégalité se relit
Or cette dernière est évidente car, lorsque l’on développe , on obtient les termes et ainsi que d’autres, tous positifs puisque les valeurs propres sont supposées positives. Ainsi, la propriété est établie lorsque est la matrice .
Méthode: Lorsque la matrice est inversible, on emploie la matrice de la question précédente pour se ramener au cas qui vient d’être résolu.
Cas: est inversible. On introduit une matrice symétrique de carré . Celle-ci est inversible car l’est et, en multipliant11 1 Peu importe le signe de , les deux multiplications conservent le sens de l’inégalité. Cependant, si la matrice est définie comme à la question précédente, elle est de déterminant strictement positif. par à droite et à gauche, on remarque
La matrice est symétrique car
Il reste à vérifier que ses valeurs propres sont toutes positives.
Méthode: On sait22 2 Voir le sujet 5312. qu’une matrice symétrique est à valeurs propres positives si, et seulement si, pour toute colonne .
La matrice étant symétrique à valeurs propres positives, on a
Or
et donc
On en déduit que les valeurs propres de sont toutes positives et l’on peut affirmer que la comparaison est vraie.
Cas: non inversible.
Méthode: On généralise l’étude qui précède par un passage à la limite.
Pour , on introduit . La matrice est symétrique et ses valeurs propres se déduisent de celles de par l’ajout de : elles sont strictement positives. Par l’étude du cas précédent, on sait alors
En passant à la limite quand tend vers , on conclut par continuité du déterminant
On munit du produit scalaire canonique. On note l’ensemble des matrices antisymétriques de et l’ensemble des matrices symétriques à valeurs propres positives.
Soit telle que pour tout , .
Déterminer le supplémentaire orthogonal de .
Soit . Montrer que pour tout , .
Montrer que .
Étudier la réciproque.
Montrer que pour toute matrice il existe et telles que .
Solution
Le produit scalaire canonique sur est donné par
L’espace solution est . En effet, les espaces et sont orthogonaux car pour on a
et
donc .
Les espaces étant orthogonaux, ils sont donc en somme directe. Puisque de plus on peut écrire n’importe quelle matrice sous la forme avec
les espaces et sont supplémentaires orthogonaux et donc chacun est l’orthogonale de l’autre.
car ces espaces sont évidemment orthogonaux et supplémentaires.
On a
Or et commutent donc
La fonction dérivable admet un maximum en 0 donc ce qui donne pour tout . Ainsi, est une matrice symétrique car dans l’orthogonal de l’espace des matrices antisymétrique.
Par le théorème spectrale, on peut écrire avec et .
Posons avec et .
Considérons alors .
et
La propriété entraîne pour tout .
La matrice est alors symétrique positive.
Supposons . On peut écrire avec , et . Pour tout , avec .
On a alors
car .
L’application réelle est continue sur le compact , elle y admet donc un maximum en un certain . On a alors pour tout ,
Posons alors . Pour tout ,
donc et ainsi avec et .
Soit une matrice symétrique réelle positive de taille .
Pour , on note
Le but est de montrer la formule:
Démontrer la formule dans le cas .
Montrer que toute matrice symétrique réelle positive peut s’écrire avec matrice carrée de taille .
Démontrer la formule.
Le résultat est-il encore vrai si ?
Le résultat reste-t-il vrai si n’est que symétrique réelle?
Solution
Soit . La matrice est diagonalisable de valeurs propres avec et l’on a
. Par l’inégalité arithmético-géométrique
et donc
avec égalité si .
Par orthodiagonalisation de la matrice , on peut écrire
Les valeurs propres de étant positives, on peut poser et vérifier .
On peut écrire
avec matrice symétrique de déterminant .
Par l’étude qui précède avec , on obtient
Cependant, lorsque parcourt , on n’est pas assuré que parcourt l’intégralité . Cela est néanmoins le cas lorsque la matrice est inversible car alors la matrice l’est aussi. L’inégalité précédente est alors une égalité pour
Lorsque la matrice n’est pas inversible, c’est qu’au moins l’une de ses valeurs propres est nulle. Sans perte de généralité, supposons que ce soit la premier de la séquence
Considérons alors pour
La matrice est élément de et
Ceci valant pour tout , on obtient
Soit telle que . Via diagonalisation de avec des valeurs propres positives, on peut affirmer pour tout . Par ce qui précède,
Par continuité, quand , on obtient
et, bien évidemment, il y a égalité si .
Le résultat est donc encore vrai si .
Le résultat n’a plus de sens si est symétrique réelle de déterminant négatif avec pair.
Soient et .
Établir l’existence de et telles que la matrice vérifie:
Solution
Cas: .
Analyse: Supposons qu’il existe telles que soit une matrice diagonale . On remarque que
On veut donc que soit orthogonalement semblable à une matrice diagonale à coefficients positifs.
Synthèse: On sait que la matrice est symétrique réelle à valeurs propres strictement positives. Il existe donc telle que
avec une matrice diagonale. Posons alors . On remarque
La matrice est orthogonale et permet d’écrire avec diagonale.
Cas général:
Soit l’application linéaire de vers canoniquement représentée par .
Posons et . La matrice de dans une base orthonormée adaptée à la décomposition au départ et dans une base orthonormée adaptée à la décomposition à l’arrivée est de la forme
L’étude qui précède permet de transformer en une matrice diagonale via produit par des matrices orthogonales et :
En introduisant les matrices orthogonales
on obtient en opérant par blocs
Enfin, par une formule de changement de bases orthonormées, il existe orthogonales telles que
et l’on peut alors conclure.
Soit une matrice symétrique réelle de taille dont toutes les valeurs propres sont strictement positives.
Montrer que définit un produit scalaire sur .
En déduire qu’il existe une matrice triangulaire supérieure telle que .
(Décomposition de Cholesky)
Soit . Montrer qu’il existe telle que .
Solution
On raisonne par récurrence sur .
Pour , avec donc convient.
Supposons la propriété établie au rang .
On écrit
On observe
Il s’agit de faire se correspondre et .
Pour , la relation oblige .
Cas: . En exploitant avec pour , on obtient .
De plus, il est immédiat qu’alors et en prenant , et tel que on conclut.
Cas: . On pose et . Il reste à déterminer tel que .
Posons et montrons ce qui permettra de conclure via l’hypothèse de récurrence.
Pour tout , donne et pour on obtient ce qui donne . On peut alors conclure
La récurrence est établie.
Soit une matrice symétrique positive dont tous les coefficients sont non nuls. On note la matrice de dont les coefficients sont les inverses des coefficients respectifs de .
Montrer
Solution
Supposons .
Pour tout , les sous-matrices
sont symétriques et positives car sous-matrices de matrices symétriques positives. Ces matrices sont donc de déterminants positifs. Ainsi,
On en déduit
Ainsi, toutes les matrices de taille extraites de sont non inversibles et donc .
Puisque les coefficients de sont tous non nuls, on peut aussi affirmer et conclure
Inversement, supposons . Toutes les colonnes de sont colinéaires entre elles ce qui perme d’écrire
La relation
donne alors
En posant ,
ce qui permet d’affirmer que la matrice symétrique est positive.
[<] Matrices symétriques positives[>] Matrices symétriques définies positives
Soient et . Montrer que .
Solution
D’une part,
donc .
D’autre part, pour
Ainsi, est un endomorphisme autoadjoint défini positif.
Soit autoadjoint défini positif.
Montrer qu’il existe un endomorphisme autoadjoint défini positif vérifiant .
Soit un endomorphisme autoadjoint de . Établir que est diagonalisable.
Solution
Soit une base orthonormée diagonalisant
L’endomorphisme déterminé par
vérifie et puisque sa matrice dans une base orthonormée est symétrique, c’est endomorphisme est autoadjoint. Enfin donc est défini positif.
On a
L’endomorphisme est autoadjoint donc diagonalisable puis l’endomorphisme semblable est aussi diagonalisable.
Soit un automorphisme d’un espace euclidien .
Montrer que est autoadjoint défini positif.
Montrer qu’il existe autoadjoint positif tel que , et orthogonal tel que .
Montrer que cette décomposition de est unique.
Comment interpréter ces résultats de façon matricielle?
Solution
et et car .
Il existe une base orthonormée dans laquelle la matrice de est de la forme avec . L’endomorphisme dont la matrice dans est convient. Notons que cet endomorphisme est autoadjoint car représenté par une matrice symétrique dans une base orthonormée.
On pose ensuite et l’on vérifie sans peine donc .
Si alors . Nous allons établir l’unicité de . est diagonalisable donc est somme des sous-espaces propres avec . Comme et commutent, ces sous-espaces sont stables par . Or est diagonalisable donc l’endomorphisme induit par sur aussi et puisque les valeurs propres de sont positives, il est nécessaire que l’endomorphisme induit par sur soit . Cela détermine de manière unique et, puisque , aussi est unique.
C’est la décomposition de Cartan.
Soit une base d’un espace euclidien de dimension dont le produit scalaire est noté .
Montrer que l’endomorphisme défini par
est autoadjoint et à valeurs propres strictement positives.
Montrer qu’il existe un endomorphisme autoadjoint de tel que .
Établir que la famille est une base orthonormale de .
Soit un endomorphisme autoadjoint d’un espace euclidien de dimension non nulle.
On pose
Énoncer une condition nécessaire et suffisante portant sur le spectre de pour qu’il existe un vecteur unitaire élément de .
Soit un endomorphisme autoadjoint défini positif.
Trouver une condition nécessaire et suffisante portant sur le spectre de pour que .
Solution
Si et , on montre en introduisant une base orthonormée diagonalisant que
Pour qu’il existe un vecteur unitaire appartenant à , il est nécessaire que .
Inversement, supposons .
Si , c’est immédiat.
Supposons désormais . On introduit vecteur propre unitaire associé à et vecteur propre unitaire associé à . Considérons enfin
Puisque et sont unitaires et orthogonaux, on vérifie . Considérons ensuite . La fonction est continue, et dont, en vertu du théorème des valeurs intermédiaires, il existe vérifiant .
Considérons le produit scalaire défini par
On observe
L’endomorphisme est autoadjoint pour le produit scalaire et l’étude du a) adaptée au contexte en cours, assure qu’il existe vérifiant
si, et seulement si, est compris entre
Soient un espace euclidien et .
Démontrer l’existence d’une base orthonormée de transformée par en une base orthogonale.
Soit . Démontrer l’existence de deux matrices orthogonales et telles que soit diagonale.
Même question avec non inversible.
Application
Solution
Considérons l’endomorphisme . Par le théorème spectral, il existe une base orthonormée dans laquelle la matrice de est diagonale
On a alors pour tout ,
Ainsi, l’endomorphisme transforme la base en une famille orthogonale.
est la matrice dans la base canonique de d’un certain automorphisme . Par ce qui précède, il existe une base orthonormée de dont l’image par est une famille orthogonale. Celle-ci ne comporte pas le vecteur nul car est un automorphisme et donc, en posant,
on forme une base orthonormée telle que la matrice de l’application linéaire dans les bases et est la matrice diagonale
Par formule de changement de bases orthonormées, on obtient
avec matrices orthogonales
Si n’est pas inversible, ce qui précède peut être repris en posant
quand et en choisissant les autres dans une base orthonormée de pour former une base orthonormée satisfaisante.
On a
Une base orthonormée diagonalisant est formée des vecteurs
et puisque
on prend
et l’on obtient
avec
Soient un espace euclidien et un endomorphisme symétrique défini positif de . On pose
Montrer que est un produit scalaire.
Soit un endomorphisme autoadjoint de .
Montrer que est diagonalisable.
Si est un endomorphisme diagonalisable de , on note (resp. ) sa plus petite (resp. grande) valeur propre.
Montrer que l’image de par
n’est autre que le segment d’extrémités et .
Montrer que
Solution
donc et par suite est un produit scalaire sur .
On a
L’endomorphisme est autoadjoint dans donc diagonalisable.
On a
En introduisant une base orthonormée de formée de vecteurs propres de , on peut écrire pour ,
en notant les valeurs propres de . Il est clair que cette quantité est comprise entre et . De plus, ces deux valeurs propres sont valeurs prise par
en vecteur propre associé. Enfin, est connexe par arcs et l’image d’un connexe par arcs par une application continue est un connexe par arcs. On peut donc conclure que les valeurs prises par
sur constituent le segment
On a et donc
Or
donc
et la conclusion est dès lors facile.
[<] Endomorphismes autoadjoints définis positifs[>] Réduction simultanée
Établir que est dense dans .
Solution
Soit . On a
et l’on vérifie pour tout car les valeurs propres de sont celles de auxquelles on ajoute : elles sont strictement positives.
Montrer que est une partie fermée de .
Déterminer l’adhérence de .
Solution
Méthode: Les matrices de sont non seulement les matrices symétriques réelles de valeurs propres positives (comme le souligne la notation de l’ensemble) mais ce sont aussi les matrices symétriques réelles vérifiant pour toute colonne .
Soit une suite convergente d’éléments de . Notons sa limite.
Pour tout , . Par continuité de la transposition11 1 Il s’agit d’une application linéaire au départ d’un espace de dimension finie., il vient .
Aussi, pour toute colonne , . Par passage à la limite dans une inégalité large, . On en déduit que .
La partie contient les limites de ses suites convergentes, c’est donc une partie fermée.
On sait et donc, par croissance du passage à l’adhérence,
Établissons l’inclusion réciproque.
Soit . Pour , posons
de sorte que par simple opérations sur les limites
Pour tout , la matrice est symétrique réelle et l’on vérifie22 2 L’affirmation se justifie par exemple en étudiant l’équation aux éléments propres.
Puisque , il vient .
Ainsi, est limite d’une suite d’éléments de , c’est donc un élément adhérent à .
Par double inclusion, on conclut
Montrer que est une partie convexe.
Solution
Méthode: Les matrices de sont non seulement les matrices symétriques réelles de valeurs propres strictement positives mais ce sont aussi les matrices symétriques réelles vérifiant pour toute colonne non nulle.
Pour établir que est convexe, on montre pour toutes matrices .
Soient et . Étudions .
La matrice est évidemment symétrique et pour colonne non nulle,
Puisque les facteurs et sont positifs sans être tous deux nuls,
Ainsi, . On peut alors conclure : l’ensemble est convexe.
Soit . Justifier .
Solution
Puisque est symétrique réelle, on peut écrire avec et . On a alors avec . La matrice est orthogonalement semblable à une matrice diagonale aux valeurs propres strictement positives, c’est donc une matrice symétrique définie positive.
Soit . Montrer que la comatrice de est symétrique.
Même question avec puis .
Solution
Le coefficient d’indice de la comatrice de est
avec le mineur d’indice de la matrice c’est-à-dire le déterminant de la matrice obtenue en supprimant la -ème ligne et la -ème colonne de . Or le déterminant d’une matrice est aussi celui de sa transposée et puisque la matrice est symétrique, le mineur d’indice est égal à celui d’indice . On en déduit que la comatrice de est symétrique.
Si alors
Puisque est définie positive, son inverse l’est aussi et donc est définie positive.
Si alors pour tout ,
puis
et donc
Soit .
Montrer que définit un produit scalaire sur .
En déduire que pour tout
Solution
L’application est clairement une forme bilinéaire, symétrique. De plus, puisque est définie positive, le produit scalaire est aussi défini positif.
Notons les colonnes élémentaires de .
Soit avec . On remarque
Par l’inégalité de Cauchy-Schwarz,
De plus, il y a égalité dans l’inégalité de Cauchy-Schwarz seulement lorsqu’il y a colinéarité. Ici, les colonnes et ne sont pas colinéaires et donc l’inégalité est stricte.
Soient et .
Montrer que la matrice est inversible.
Solution
On peut écrire
La matrice est symétrique réelle et vérifie
On en déduit que est inversible car élément de . Par produit dans le groupe des matrices inversibles, .
Soient . Montrer
Solution
Par l’absurde, supposons .
On a alors
et, en développant,
En multipliant à droite par la matrice , on obtient
Pour non nul, on obtient
avec
Cela est absurde.
(Matrice de Hilbert)
Soit
Montrer que est diagonalisable à valeurs propres strictement positives.
Solution
La matrice est symétrique réelle donc diagonalisable.
Pour ,
Par linéarité,
Par intégration d’une fonction positive, .
De plus, si alors, par intégration d’une fonction continue et positive,
Le polynôme possède une infinité de racines, c’est donc le polynôme nul ce qui entraîne .
La matrice est donc symétrique définie positive.
Soient et deux à deux distincts.
Justifier que la matrice
est symétrique définie positive.
Solution
La matrice est bien évidemment symétrique. Il s’agit de vérifier
Notons l’espace des fonctions continues de dans et de carrés intégrables sur .
On définit un produit scalaire sur par
Pour , posons élément de .
Pour , on remarque
Ainsi, . De plus, si alors
Ainsi, pour tout .
En multipliant par , on obtient
En posant , on obtient l’équation .
En dérivant la relation et en multipliant par , on obtient
En posant , on obtient l’équation .
En reprenant ce principe, on obtient
Le multiplet est alors solution d’un système linéaire homogène à équations qui est un système de Cramer car son déterminant est un déterminant de Vandermonde non nul puisque les sont deux à deux distincts.
Par suite, et ainsi
Finalement, est une matrice symétrique définie positive.
Soit
Montrer que la matrice est symétrique définie positive.
Solution
La matrice est évidemment symétrique. Posons
On remarque
On en déduit que pour tout
avec égalité si, et seulement si, ce qui donne .
Soit .
Montrer que est symétrique positive si, et seulement si, il existe telle que .
Montrer que est symétrique définie positive si, et seulement si, il existe telle que .
Solution
Si alors il est facile d’établir que est symétrique positive (voire définie positive si est inversible).
Inversement, si est symétrique positive alors par le théorème spectral, on peut écrire avec , et pour (voire si est définie positive). Pour avec , on dispose d’une matrice solution (inversible dans le cas où est définie positive).
Soient des matrices symétriques à valeurs propres toutes strictement positives.
Montrer qu’il existe une matrice inversible vérifiant .
Justifier que est diagonalisable à valeurs propres positives.
En déduire
Solution
La matrice est symétrique dont orthogonalement diagonalisable. Il existe donc telle que
Les réels sont strictement positifs car ce sont les valeurs propres de . On peut donc introduire
On vérifie , et . La matrice est solution.
La matrice est inversible car la matrice l’est. Puisque est symétrique, son inverse l’est aussi. On remarque alors
La matrice est symétrique réelle donc diagonalisable.
Soient une valeur propre de et un vecteur propre associé:
Il existe une matrice telle que et alors
En multipliant par à gauche,
et donc
Avec les écritures qui précèdent
En notant les valeurs propres de ,
donc
Soient et .
Montrer l’existence de telle que .
On pose . Montrer que
Montrer que
Solution
Par le théorème spectral, la matrice symétrique réelle est orthogonalement diagonalisable. De plus, étant définie positive, ses valeurs propres sont strictement positive. On peut donc écrire
La matrice avec convient.
On vérifie et donc . On peut alors écrire
Par similitude, l’inégalité voulue revient à
Si l’un des est nul, l’inégalité est entendue. Supposons désormais les tous non nuls.
Pour l’obtenir l’inégalité, on introduit la fonction . Celle-ci est convexe car de dérivée seconde positive. Par l’inégalité de Jensen
En choisissant , on obtient
puis l’inégalité voulue.
On a
avec
La comparaison
fournit alors l’inégalité proposée.
Soit . On suppose
Établir .
Soit . Montrer qu’il existe une matrice inversible vérifiant .
Soient dans vérifiant
Montrer
Solution
Soient une valeur propre de et un vecteur propre associé. L’hypothèse donne
On en déduit . La matrice étant diagonalisable, son déterminant est le produit de ses valeurs propres comptées avec multiplicité. Ces dernières étant toutes supérieures à , on obtient .
La matrice est symétrique réelle donc orthogonalement diagonalisable. Ses valeurs propres étant strictement positives, on peut écrire
avec , , .
On peut alors poser
On vérifie que est symétrique (car et ) et . La matrice étant inversible, la matrice est aussi inversible.
Considérons .
La matrice est symétrique et, pour tout ,
L’hypothèse donne
On en déduit avec . Sachant , on conclut
Déterminer le sous-espace vectoriel de engendré par .
Soient des éléments de et des réels. On pose
Montrer que, pour ,
En déduire
Solution
notamment parce qu’une matrice symétrique peut s’écrire comme différence de deux matrices symétriques définies positives via diagonalisation.
Pour ,
avec donc
Cas: . La matrice est diagonalisable et, pour tout , assure que les valeurs propres de vérifient . On a donc .
Cas général: Si les sont tous nuls, c’est immédiat. Sinon, . On peut alors écrire avec . Considérons ensuite . Pour tout ,
Par l’étude précédente, donc
Soient et une colonne non nulle. On considère la suite d’éléments de donnée par
où désigne la norme euclidienne canonique sur .
Établir que la suite converge vers un vecteur propre de .
Solution
Notons les valeurs propres de . Puisque la matrice est symétrique réelle, le théorème spectral donne
et l’on sait que les sous-espaces propres sont deux à deux orthogonaux. On peut alors décomposer la colonne en écrivant
Pour tout , on a alors
et, par le théorème de Pythagore,
Considérons le plus grand tel que (celui-ci existe car la colonne n’est pas nulle). Les valeurs propres étant par ordre strictement croissant
et donc
avec
Par opérations sur les limites,
avec vecteur propre de .
Établir que est une partie ouverte de l’espace .
Solution
Introduisons la norme euclidienne canonique sur et la norme d’opérateur associée
On munit l’espace de cette norme .
L’ensemble est une partie de . Vérifions que celle-ci est voisinage de chacun de ses points.
Soit . Par définition,
Considérons la fonction définie sur par
La fonction est continue sur le compact non vide et prend uniquement des valeurs strictement positives. Par le théorème des bornes atteintes, il existe11 1 Par réduction dans une base orthonormée, on peut aussi établir que convient tel que
On a alors
Or, lorsque la comparaison précédente est vérifiée pour , elle l’est aussi pour et ce quel que soit . On en déduit
Soit telle que . Pour tout ,
et donc, par l’inégalité de Cauchy-Schwarz,
On vérifie alors
On en déduit
et donc .
(Décomposition de Cartan)
Soit .
Établir que .
Montrer qu’il existe une matrice telle que .
Conclure
Établir l’unicité de cette écriture.
Solution
La matrice est évidemment symétrique.
Pour valeur propre de et vecteur propre associé, on a
et
Ainsi,
car est inversible.
Par le théorème spectral, il existe tel que avec .
La matrice
est alors solution.
Posons . On a et
donc et .
Si alors .
Pour ,
Or par le lemme de décomposition des noyaux,
car . Or
car . Ainsi, pour tout ,
ce qui suffit à établir l’unicité de car
(Mineurs de Gauss)
Pour , on pose pour tout
On suppose que la matrice est définie positive.
Justifier que .
On suppose encore la matrice définie positive.
Établir que pour tout , .
Justifier la réciproque en raisonnant par récurrence sur .
Solution
Si est définie positive alors . De plus, est symétrique réelle donc diagonalisable et est le produit des valeurs propres de comptées avec multiplicité. Par suite, .
et pour tout , avec la colonne obtenue en poursuivant la colonne de coefficients nuls. On en déduit que si alors puis .
La propriété est immédiate au rang .
Supposons la propriété acquise au rang .
Soit vérifiant pour tout , .
Par blocs, est de la forme
Par application de l’hypothèse de récurrence, . Il existe donc vérifiant avec pour .
Considérons alors
Par produit par blocs,
avec .
En choisissant , on obtient
Enfin car et .
Finalement, est symétrique définie positive car ses valeurs propres sont toutes strictement positives.
La récurrence est établie.
Soit . Pour , on écrit
Montrer que les valeurs propres de sont toutes strictement positives si, et seulement si,
On suppose dans la suite que vérifie cette propriété que l’on notera .
Montrer que pour tout .
Montrer que et en déduire que
On pourra écrire sous la forme
et montrer que, si et alors .
Solution
C’est du cours.
Pour prolongé en un élément avec des coefficients nuls,
On a donc . La matrice symétrique réelle est diagonalisable et ses valeurs propres sont strictement positives donc .
Soient avec .
Par diagonalisation, il existe tel que avec . On pose alors . On vérifie et . On écrit alors
En diagonalisant , on établit
Il en découle .
Notons que l’inégalité est aussi vraie si les valeurs propres de sont positives au sens large (ce que l’on notera ).
On écrit
ce qui est possible car, à l’instar de , on peut affirmer donc inversible. On relit l’égalité
On en déduit
La matrice est symétrique et, puisque et inversible,
Ainsi, et donc . Aussi, et l’on en déduit . On peut alors employer la comparaison de déterminants précédemment acquise et affirmer
On en déduit
La conséquence s’en déduit par une récurrence facile.
Soit et .
Montrer qu’il existe vérifiant .
En déduire que la matrice est diagonalisable.
Solution
La matrice est symétrique réelle. On peut écrire avec et . La matrice est aussi définie positive et donc . La matrice avec convient: elle est symétrique, à valeurs propres strictement positives et vérifie .
La matrice est inversible et l’on remarque que est symétrique réelle car
La matrice est donc diagonalisable. La matrice qui lui est semblable l’est aussi.
Soient et .
Montrer que l’on définit un produit scalaire sur en posant
En déduire que est diagonalisable.
Solution
n’est pas valeur propre de , cela assure que est inversible. L’application est donc correctement définie de vers . Il est immédiat de vérifier que cette application est bilinéaire. Puisque est symétrique, est aussi symétrique et donc est symétrique. Enfin, les valeurs propres de sont les inverses des valeurs propres de , elles sont toutes strictement positives et donc . On en déduit
Ainsi, est un produit scalaire.
Pour ,
et
On a donc
L’endomorphisme est donc autoadjoint pour le produit scalaire , il est diagonalisable (dans une base orthonormée pour le produit scalaire ).
[<] Matrices symétriques définies positives[>] Matrices antisymétriques
Soient et .
Montrer qu’il existe tel que .
Établir qu’il existe une matrice et une matrice vérifiant
Application : Établir que le polynôme est scindé sur .
Solution
Par le théorème spectral, on peut écrire
où sont les valeurs propres strictement positives de la matrice . Posons alors avec . On remarque et donc
Au surplus, la matrice est symétrique car
Enfin, les valeurs propres de sont strictement positives car ce sont les coefficients diagonaux de la matrice à laquelle est semblable puisque .
On peut écrire avec . Posons . Cette matrice est symétrique car on vérifie sans peine . Par le théorème spectral, on peut écrire avec et . On obtient alors avec . La matrice est inversible car produit de deux matrices inversibles. Parallèlement, .
Avec l’écriture qui précède
en notant les coefficients diagonaux de la matrice .
Soient et .
Montrer qu’il existe et diagonale à coefficients diagonaux strictement positifs telles que
Montrer que
Montrer que l’inégalité précédente subsiste pour .
Solution
La matrice est symétrique définie positive donc orthogonalement semblable à une matrice diagonale à coefficients diagonaux strictement positifs. On peut donc écrire
avec et une matrice diagonale à coefficients diagonaux non nuls. À ce stade, on pourrait croire avoir déterminé la matrice mais on peut aussi remarquer que n’importe quelle matrice avec marche aussi. Nous allons employer ce degré de liberté pour écrire sous la forme souhaitée.
Considérons la matrice . Celle-ci est symétrique donc orthogonalement diagonalisable. Cela permet d’écrire
avec et à coefficients diagonaux positifs. On en déduit
On remarque aussi
Notons les valeurs diagonales de .
On a , et
Les étant positifs, on vérifie par développement
donc
Toute matrice symétrique réelle positive peut être diagonalisée via une matrice orthogonale en une matrice diagonale à coefficients diagonaux positifs. Cette dernière peut se voir comme limite d’une suite de matrices diagonales à coefficients diagonaux strictement positifs. Par suite, est dense . Par continuité du déterminant et densité, la relation précédente s’étend à .
Soient .
On suppose que est définie positive. Montrer qu’il existe et diagonale à coefficients positifs telles que
Établir
Solution
La matrice est symétrique définie positive donc orthogonalement semblable à une matrice diagonale à coefficients diagonaux strictement positifs. On peut donc écrire
avec et une matrice diagonale à coefficients diagonaux non nuls. À ce stade, on pourrait croire avoir déterminé la matrice mais on peut aussi remarquer que n’importe quelle matrice avec marche aussi. Nous allons employer ce degré de liberté pour écrire sous la forme souhaitée.
Considérons la matrice . Celle-ci est symétrique donc orthogonalement diagonalisable. Cela permet d’écrire
avec et à coefficients diagonaux positifs. On en déduit
On remarque aussi
Cas: La matrice est définie positive.
Par le résultat précédent, il suffit d’établir avec matrice diagonale à coefficients diagonaux positifs. On souhaite donc établir,
Or pour tout , .
En effet pour , la propriété est immédiate et pour , celle-ci équivaut à
qui découle de la concavité du logarithme.
On peut donc conclure en multipliant les comparaisons .
Cas: La matrice est positive.
La matrice est définie positive et donc
En passant à la limite quand , on obtient
(avec ici si n’est pas définie positive).
[<] Réduction simultanée[>] Endomorphismes antisymétriques
Soit
Calculer . La matrice est-elle diagonalisable?
Les matrices antisymétriques complexes sont-elles toujours diagonalisables?
Solution
. Seule 0 est valeur propre de et si est diagonalisable alors . Ce n’est visiblement pas le cas…
La matrice est antisymétrique complexe mais pas diagonalisable. C’est donc un contre-exemple.
Il est en revanche remarquable que les matrices antisymétriques réelles sont diagonalisables (dans ).
Soit vérifiant . Établir
Solution
Soit . On a et il existe tel que . En considérant la norme euclidienne canonique,
On en déduit . Ainsi, . Parallèlement, par la formule du rang,
On en déduit
Soit . Montrer que la matrice est antisymétrique si, et seulement si, pour toute matrice , la diagonale de est nulle.
Solution
Si la matrice est antisymétrique alors, pour toute matrice , la matrice est antisymétrique. En effet,
En particulier, la diagonale de est nulle.
Supposons que pour toute matrice , la diagonale de est nulle. On écrit avec matrice symétrique et antisymétrique. Par le théorème spectral, on peut aussi écrire avec et diagonale. On a alors . La diagonale de la matrice étant nulle par hypothèse et celle de aussi car il s’agit d’une matrice antisymétrique, la matrice diagonale est nécessairement la matrice nulle. On en déduit que la matrice est nulle puis que est une matrice antisymétrique.
Soit telle que .
Montrer que si est impair alors n’est pas inversible.
Montrer que si est pair, . Sous quelle condition l’inégalité est-elle stricte?
Solution
donne donc si est impair.
Si est valeur propre réelle de alors on peut écrire pour une certaine colonne non nulle. On a alors mais aussi . On en déduit que la seule valeur propre réelle de possible est la valeur nulle.
Par l’absurde, si alors le théorème des valeurs intermédiaires assure que le polynôme caractéristique de s’annule ailleurs qu’en 0. C’est contraire à l’affirmation qui précède.
Ainsi, avec inégalité stricte si, et seulement si, est inversible.
Soit une matrice antisymétrique.
Quelles sont les valeurs propres réelles possibles de ?
En déduire que le déterminant de est un réel positif ou nul.
Montrer que les valeurs propres complexes de sont imaginaires pures.
Montrer que toute matrice antisymétrique réelle est de rang pair.
Montrer que antisymétrique réelle d’ordre est semblable à
où est une matrice inversible de taille paire.
Solution
Soit . On peut écrire pour une certaine colonne .
On a
et donc .En sus,
et donc les espaces et sont supplémentaires. Puisque l’espace est évidemment stable, on obtient que la matrice est semblable à une matrice de la forme
Le rang de la matrice est égale par similitude au rang de la matrice mais aussi par construction à la taille de . On en déduit que la matrice est inversible (On peut aussi établir que les espaces et sont orthogonaux et, en considérant des bases orthonormées, observer que la matrice est orthogonalement semblable à avec un bloc antisymétrique).
Enfin, si est valeur propre réelle de de vecteur propre on a
On en déduit que seule 0 peut être valeur propre réelle de . La matrice n’a donc pas d’autre valeur propre que 0, or elle est inversible, elle n’admet donc pas de valeur propre. Elle est alors nécessairement de taille paire.
Soit une matrice antisymétrique.
Montrer que, par le biais d’une matrice de passage orthogonale, la matrice est semblable11 1 Ce résultat de réduction des matrices antisymétriques résout le sujet 373 et le sujet 4272. à une matrice diagonale par blocs avec sur la diagonale des zéros et/ou différents blocs de la forme
On note l’espace vectoriel , , muni de sa structure euclidienne canonique. Le produit scalaire est noté .
On dit qu’une application est antisymétrique si
Montrer qu’une application antisymétrique de est linéaire.
Que dire de sa matrice dans la base canonique de ?
Montrer que l’ensemble des endomorphismes antisymétriques de est un sous-espace vectoriel de et donner sa dimension.
Solution
Pour tout vecteur de ,
Ainsi,
Or cela valant pour tout , on peut affirmer
(par exemple, parce que le vecteur différence est orthogonal à tout vecteur de et donc nul)
L’application est donc linéaire.
Notons la matrice de dans la base canonique de .
Puisque correspond à la -ème coordonnée de l’image du -ème vecteur, on a
car la base canonique est orthonormée. L’antisymétrie de donne alors
et la matrice est donc antisymétrique.
Les endomorphismes antisymétriques sont, par représentation matricielle, en correspondance avec les matrices antisymétriques. L’ensemble des matrices antisymétriques est un sous-espace vectoriel de dimension , donc, par l’isomorphisme de représentation matricielle, l’ensemble des endomorphismes antisymétriques est un sous-espace vectoriel de dimension
Soient un espace euclidien dont le produit scalaire est noté et un endomorphisme de vérifiant
Montrer que .
Montrer que l’image et le noyau de sont supplémentaires.
Montrer que le rang de est pair.
Solution
La propriété
donne après calculs
On en déduit .
et donc et sont supplémentaires et orthogonaux.
L’image de est stable par et l’on peut donc considérer l’endomorphisme induit sur .
Puisque on a aussi . En passant au déterminant
De plus,
et est donc un automorphisme ce qui donne .
On en déduit et le rang de est donc pair.
Un endomorphisme d’un espace euclidien est dit antisymétrique si
Soit un endomorphisme antisymétrique.
Quelles sont les seules valeurs propres possibles pour ?
À quelle condition un endomorphisme antisymétrique est-il diagonalisable?
Établir que, pour tous ,
En déduire que la matrice dans une base orthonormée d’un endomorphisme antisymétrique est elle-même antisymétrique.
Soient une matrice antisymétrique réelle, une valeur propre complexe de la matrice et un vecteur propre associé.
En étudiant , établir que .
Solution
Si est valeur propre de de vecteur propre alors la relation donne qui entraîne .
Seul peut être valeur propre de . Par suite, un endomorphisme antisymétrique est diagonalisable si, et seulement si, il est nul.
L’égalité avec donne le premier résultat. On en déduit . Puisque la matrice de en base orthonormée est la transposée de la matrice de , celle-ci est antisymétrique.
D’une part,
D’autre part,
Or, en notant les éléments de la colonne , on a
car .
On en déduit et donc .
Soit un endomorphisme bijectif d’un espace euclidien vérifiant:
Montrer que pour tout vecteur de , les vecteurs et sont orthogonaux.
Vérifier que l’endomorphisme est autoadjoint.
Soient l’une des valeurs propres de et le sous-espace propre associé.
Soit . Montrer que et en déduire que .
On considère toujours .
Montrer que les espaces et sont stables par et que l’endomorphisme induit par sur a une matrice de la forme
dans une base orthonormée bien choisie. On précisera en fonction de .
Conclure que l’espace est de dimension paire.
Solution
On a donc . Les vecteurs et sont orthogonaux et ce, quel que soit dans .
Pour tous
L’endomorphisme est autoadjoint.
Ici donc puis
On a aussi comme vu ci-dessus
Puisque et (car est bijective), on en déduit .
On a immédiatement et aussi . L’image par d’une combinaison linéaire de et est élément de : l’espace est stable par .
Pour ,
On a donc . L’espace est donc aussi stable par .
Posons
La famille est assurément une base orthonormée de .
On a
Aussi,
La matrice de l’endomorphisme induit par sur dans la base orthonormée est
Par les outils qui précèdent, on parvient par récurrence, à décomposer l’espace en somme directe orthogonale de plans stables par , l’espace est donc de dimension paire.
Édité le 09-06-2025
Bootstrap 3
-
LaTeXML
-
Powered by MathJax