[<] Orthodiagonalisation de matrices symétriques [>] Équations matricielles avec transposition
Soit symétrique.
On suppose . Déterminer .
Solution
est diagonalisable car symétrique réelle et ses valeurs propres sont nulles car racines de . On en déduit que est semblable à la matrice nulle et donc égale à la matrice nulle.
Si vérifie avec , que vaut ?
Solution
est diagonalisable et ses valeurs propres sont réelles et racines de , elles ne peuvent donc qu’être ou . Par suite, .
Énoncer le théorème spectral.
Soit une matrice symétrique réelle. Prouver que ses sous-espaces propres sont orthogonaux deux à deux.
Soit une matrice carrée réelle telle que est nilpotente. Prouver que est antisymétrique.
Solution
Dans un espace euclidien, tout endomorphisme symétrique est diagonalisable dans une base orthonormale.
Soient deux valeurs propres distinctes de et des colonnes éléments des sous-espaces propres et . On a
et
On en déduit car .
La matrice est symétrique réelle donc diagonalisable. La matrice est aussi nilpotente et admet pour seule valeur propre. On en déduit que la matrice est semblable à la matrice nulle et est donc antisymétrique.
Soit de valeurs propres . Établir
Soit . Établir qu’il existe une famille de réels et une famille orthonormée d’éléments de telles que
Solution
Par le théorème spectral, la matrice est orthogonalement diagonalisable. Il existe donc et tel que
Notons la famille des coefficients diagonaux de et la famille orthonormée des colonnes de . En introduisant les matrices élémentaires de , on écrit
puis
avec
Cela produit l’écriture voulue.
Soit .
Justifier que la matrice est diagonalisable.
On munit du produit scalaire canonique.
Justifier qu’il existe une base orthonormée de telle que la famille soit orthogonale.
En déduire qu’il existe deux matrices orthogonales telles que avec une matrice diagonale à coefficients diagonaux positifs.
Solution
La matrice est symétrique réelle donc orthogonalement diagonalisable.
Il existe alors une base orthonormale de diagonalisant l’endomorphisme canoniquement associé.
Pour distincts,
Puisque le vecteur est colinéaire à , le produit scalaire précédent est nul.
La famille est constituée de vecteurs deux à deux orthogonaux. De plus, celle-ci est constituée de vecteurs non nuls car la matrice est inversible. La famille est donc libre. De plus, elle est formée de vecteurs de , c’est une base de .
Notons la matrice de la famille dans la base orthonormale . Par formule de changement de base, la matrice s’écrit avec la matrice de passage de la base canonique à la base . Cette matrice est orthogonale car il s’agit de la matrice de passage entre deux bases orthonormales. Considérons ensuite la matrice diagonale de coefficients diagonaux les pour . Puisque la matrice est inversible, les réels sont non nuls et la matrice est inversible. Par construction, les colonnes de la matrice sont unitaires mais aussi deux à deux orthogonales. La matrice est donc orthogonale et l’on peut écrire
avec et matrices orthogonales par calcul dans le groupe orthogonal.
Montrer que le rang de est égal au nombre de valeurs propres non nulles (comptées avec leur ordre de multiplicité) de .
Solution
Par comparaison de noyau, il est facile d’obtenir: .
La matrice étant symétrique réelle, elle est diagonalisable et donc son rang est égal au nombre de ses valeurs propres non nulles comptées avec multiplicité.
Soit une matrice réelle carrée d’ordre .
Montrer que
Montrer que les matrices et sont semblables.
Solution
Pour inversible,
donc puisque .
Les applications et étant continues et coïncidant sur la partie dense , on peut affirmer qu’elles sont égales sur .
est une matrice symétrique réelle donc diagonalisable. Ses valeurs propres sont les racines de et la dimension des espaces propres correspondent à la multiplicité des racines respectives de . Puisque l’on a la même affirmation pour , on peut affirmer que et sont semblables car toutes deux semblables à une même matrice diagonale.
Soit . On note et les plus petite et plus grande valeurs propres de la matrice déterminée par
Soit . Comparer et .
Montrer que pour toute colonne ,
En déduire que les valeurs propres de sont comprises entre et .
Soit une matrice symétrique.
Justifier que le spectre de est une partie finie non vide de .
On pose
Montrer
Solution
La matrice est symétrique réelle donc orthogonalement diagonalisable et par conséquent possède des valeurs propres toutes réelles. Bien entendu ces valeurs propres sont en nombre fini.
Notons les valeurs propres comptées avec multiplicité de la matrice . Puisque la matrice est orthogonalement diagonalisable, il existe une matrice telle que
Pour tout colonne , en posant , on a
Or
avec
On en déduit
En prenant la colonne élémentaire , on obtient
Soient et deux matrices de . On note et les plus grandes valeurs propres des matrices et .
Montrer que les valeurs propres de vérifient .
Soient , , deux colonnes non colinéaires dans et .
Justifier que est diagonalisable.
Déterminer en fonction de et .
Déterminer le spectre de et décrire les sous-espaces propres associés.
Solution
La matrice est symétrique réelle donc diagonalisable.
Pour , on a . Les colonnes et n’étant pas colinéaires
On en déduit
Par la formule du rang, on obtient .
On complète la base de par une base de et l’on obtient que la matrice est semblable à la matrice
L’étude des valeurs propres de cette matrice, donne
Pour la valeur propre , le sous-espace propre associé est
Pour la valeur propre , le sous-espace propre associé est
et enfin, pour ,
Soit vérifiant
Montrer que les matrices et commutent.
Solution
La matrice est symétrique réelle et donc diagonalisable. Sa trace est alors égale à la somme de ses valeurs propres. Or
car . Puisque toutes les valeurs propres sont positives, on en déduit qu’elles sont toutes nulles et donc est la matrice nulle car diagonalisable de seule valeur propre 0.
Soit vérifiant . Établir
Solution
Par l’inégalité de Cauchy-Schwarz
Or la matrice est orthogonalement semblable à une matrice de diagonale . On peut donc écrire avec et alors
Puisque annule le polynôme , les valeurs propres de ne peuvent qu’être égales à 0 ou 1 et donc
et l’on obtient la relation proposée.
Soient et deux matrices de .
On suppose que pour toutes colonnes et de . Montrer que les matrices et sont égales.
On suppose que pour toute colonne de . Les matrices et sont-elles nécessairement égales?
On suppose de plus que les matrices et sont symétriques. Montrer que celles-ci sont alors égales.
Soit
vérifiant pour tout .
Montrer qu’il existe une matrice diagonale inversible vérifiant
En déduire que est diagonalisable.
Solution
Posons .
En notant le coefficient d’indice de la matrice , le coefficient d’indice de est
La matrice est alors symétrique si, et seulement si, ses coefficients d’indices et sont égaux c’est-à-dire
soit encore
En choisissant non nul quelconque et en posant
on forme une matrice convenable.
est symétrique réelle donc diagonalisable et puisque est semblable à une matrice diagonalisable, elle l’est aussi.
Soient et . On suppose que . Montrer que .
Solution
Soit . On a de façon immédiate
Or la matrice est diagonalisable donc
Puisque les sont deux à deux distincts quand les varient et puisque les sous-espaces propres de sont en somme directe, on peut affirmer que les inclusions précédentes sont en fait des égalités.
Ainsi,
Puisque l’on a la même affirmation pour , on obtient
Sachant que les matrices et sont diagonalisables et ont les mêmes sous-espaces propres, on peut conclure .
Soient symétrique. On pose
Montrer que est un polynôme en .
Solution
La matrice est diagonalisable semblable à
Posons . En montrant que est un polynôme en c’est-à-dire on vérifie par similitude que est un polynôme en à savoir .
On a
On vérifie aisément que la fonction est injective sur . Ainsi, les égaux correspondent aux égaux et inversement ce qui permet de considérer un polynôme interpolateur construit de sorte que
On vérifie alors et l’on conclut.
Soient symétrique à valeurs propres positives. On pose
Montrer que est un polynôme en .
Solution
La matrice est diagonalisable semblable à
Posons . En montrant que est un polynôme en c’est-à-dire on vérifie par similitude que est un polynôme en à savoir .
On a
On vérifie aisément que la fonction est injective sur . Ainsi, les égaux correspondent aux égaux et inversement ce qui permet de considérer un polynôme interpolateur construit de sorte que
On vérifie alors et l’on conclut.
Soient et dans telles que et .
La matrice est-elle diagonalisable?
Encadrer les valeurs propres de .
Solution
Notons que les matrices et sont des matrices de projections orthogonales car symétriques et idempotentes.
Les cas et sont immédiats. De même, pour les cas et .
On suppose dans la suite ces cas exclus et l’on travaille donc sous l’hypothèse supplémentaires
Si alors est donc est diagonalisable.
Si alors en passant à l’orthogonal .
Les droites et étant distinctes dans le plan, elles sont supplémentaires.
Considérons une base adaptée à la supplémentarité de et .
donc on peut écrire car .
car .
Ainsi la base diagonalise la matrice .
Il s’agit ici essentiellement d’encadrer la valeur introduite dans l’étude précédente quand .
On a
Puisque , on peut écrire et alors
Puisque est symétrique
Puisque
Enfin en procédant de façon semblable
Au final
Or correspond à une projection orthogonale donc et l’on peut affirmer
Pour , on pose
Vérifier que, pour toute colonne ,
Montrer que l’application définit une norme sur .
Solution
Soit . Notons les valeurs propres de comptées avec multiplicité. Il existe telle que
Pour , on a avec . On vérifie car et, en introduisant les coefficients de la colonne
On en déduit
L’application est correctement définie.
Soient et .
Si alors est la seule valeur propre de . Puisque est diagonalisable, est semblable à la matrice nulle et donc égale à la matrice nulle.
Puisque , on vérifie immédiatement .
Soit une colonne vecteur propre unitaire de associé à la valeur pour laquelle . On a
mais aussi
Sachant , on simplifie pour obtenir
Finalement, détermine une norme sur .
Soient et dans telles que .
Montrer qu’il existe une matrice telle que .
Solution
La résolution est immédiate si est inversible puisque la matrice convient. En effet, c’est une matrice orthogonale car
Passons au cas général. Pour , on sait
et donc, par la formule du rang,
En appliquant ce résultat à , il vient
Au surplus, et donc
Considérons une base orthonormée de adaptée à l’écriture
Considérons aussi une base orthonormée de adaptée à l’écriture
Par formule de changement de base orthonormée (au départ et à l’arrivée), on peut écrire
De même, en introduisant une base orthonormée adaptée à l’écriture
on parvient à
L’égalité entraîne alors . On peut donc introduire telle que . On considère ensuite
et l’on observe
On en déduit
puis
Soient avec et à coefficients tous positifs.
On veut montrer que admet un vecteur propre à coordonnées toutes positives, associé à une valeur propre positive.
Trouver les valeurs propres de
Montrer que si a des valeurs propres toutes positives, ses coefficients ne sont pas forcément tous positifs.
Montrer que
existe et est valeur propre de .
En considérant la valeur absolue d’un vecteur à définir, établir la propriété voulue.
Cette propriété reste-t-elle vraie si la matrice n’est pas symétrique ?
Solution
C’est un calcul classique
Les valeurs propres de sont et .
Pour et , la matrice précédente produit un contre-exemple.
La matrice est symétrique réelle donc diagonalisable dans une base orthonormée. En décomposant, une colonne unitaire dans cette base et en notant ses coordonnées, on a
avec les valeurs propres de .
On en déduit que est la plus grande valeur propre de .
Soient un vecteur propre unitaire associé à la plus grande valeur propre de et la colonne (unitaire) formée par les valeurs absolues des coefficients de . On a
et donc . En décomposant le vecteur sur la base orthonormée de vecteurs propres précédente, on obtient que est combinaison linéaire des vecteurs propres associés à la plus grande valeur propre de (il peut y en avoir plusieurs). Le vecteur est donc vecteur propre de à coefficients positifs.
Oui, c’est le théorème de Perron-Frobenius. Cependant cela n’a rien d’immédiat…
et
À quelles conditions nécessaires et suffisantes sur existe-t-il telle que ?
À quelles conditions nécessaires et suffisantes sur existe-t-il et tels que ?
À quelles conditions nécessaires et suffisantes sur existe-t-il et tels que ?
et
À quelles conditions nécessaires et suffisantes sur existe-t-il telle que ?
À quelles conditions nécessaires et suffisantes sur existe-t-il et tels que ?
À quelles conditions nécessaires et suffisantes sur existe-t-il et tels que ?
Si , justifier l’existence de
Calculer ce maximum si et .
Si ,
est-il fini en général? (Si oui, le montrer, si non, donner un contre-exemple).
De manière générale, si déterminer
[Énoncé fourni par le concours CENTRALE-SUPELEC (CC)-BY-NC-SA]
Solution
Si et sont orthogonalement semblables, ces deux matrices sont semblables et ont donc même trace et même déterminant. On en tire les conditions nécessaires et
Inversement, si et alors et ont le même polynôme caractéristique de racines 1 et 3. Les matrices et étant symétriques réelles, elles sont toutes les deux orthogonalement semblables à et donc et sont orthogonalement semblables.
Pour fixé, on trouvera et convenables si, et seulement si, on peut trouver tel que d’où la condition nécessaire et suffisante .
Par symétrie, pour fixé, on obtient la condition .
Le raisonnement est analogue au précédent en parlant seulement de matrices semblables et l’on obtient la condition double et .
Pour fixé, il existe toujours tels que et soient semblables: il suffit de prendre et et de sorte que .
Pour fixé: idem.
La fonction est continue, à valeurs réelles et définie sur le compact non vide , elle y admet donc un maximum.
Après réduction, la matrice symétrique réelle est orthogonalement semblable à la matrice ce qui permet d’écrire avec . On a alors
avec parcourant . La matrice est de la forme
et donc
est maximal pour .
Finalement,
Non, prenons par exemple
La matrice
est semblable à et peut donc s’écrire avec . Pour , on obtient
de déterminant
En remplaçant par une matrice orthosemblable, on peut supposer de la forme
et donc écrire
Une matrice orthogonale peut s’écrire sous la forme
et alors dans les deux cas
En posant
on peut écrire
et après calcul
Pour maximiser le déterminant, il suffit de savoir minimiser la fonction donnée par
On peut interpréter dans le plan complexe
Quitte à réordonner les matrices , on peut supposer
Cas: . On peut montrer que la fonction s’annule: c’est assez facile si car alors , c’est aussi vrai si en établissant que le système suivant possède une solution
que l’on obtient avec
Dans ce cas le maximum de vaut .
Cas: .
La fonction ne peut s’annuler car
et, en passant au module, on obtient alors .
La fonction est de classe et admet donc un minimum sur le compact qui est un point critique. Si est un point critique alors
ce qui donne
Ici car on est dans le cas où la fonction ne s’annule pas. On obtient alors
Les points du cercles trigonométriques repérés par les angles et sont alors confondus ou diamétralement opposés. Cela permet d’écrire pour chaque indice
avec et un angle fixé. On a alors
et donc
et alors la borne supérieure cherchée vaut
Cette quantité peut aussi s’interpréter comme égale à
avec la quantité la plus proche de que l’on parvient à obtenir en sommant valeurs chacune choisies parmi les deux valeurs propres possibles de chaque matrice .
Cette résolution m’a pris des heures…elle me semble bien compliquée et n’exploite pas la positivité des matrices ! Néanmoins l’expression compliquée de la solution et, notamment la discussion, ne me semble pas pouvoir être évitée!
[<] Orthodiagonalisation de matrices symétriques [>] Équations matricielles avec transposition
Édité le 29-08-2023
Bootstrap 3 - LaTeXML - Powered by MathJax