Sauter au contenu
Logo image

Algèbre linéaire: Intuition et rigueur

Section 6.1 Vecteurs et valeurs propres

Aller aux exercices 6.1.4 de la section.
On considère la matrice
\begin{equation} A=\begin{pmatrix} 10 & 2 \\ 6 & 11 \end{pmatrix}\text{.}\tag{6.1.1} \end{equation}
On peut observer l’effet géométrique de cette transformation sur le carré unité à la figure 6.1.1. À priori, il n’est pas évident de voir comment décrire la transformation dans des termes géométriques. Est-ce une rotation, une réflexion, un étirement, un cisaillement ou même une combinaison de tout cela? Par contre, si l’on regarde son effet sur le parallélogramme engendré par les vecteurs \(\vec{u}=(1,2),\vec{v}=(2,-3)\text{,}\) son effet devient clair. La figure 6.1.2 permet de voir cet effet.
Figure 6.1.1. Une transformation difficile à cerner
Figure 6.1.2. La même transformation sous un autre angle
Il semble que la matrice \(A\) représente un étirement d’un certain facteur dans la direction \((1,2)\) et un étirement d’un autre facteur dans la direction \((2,-3)\text{.}\) En principe, on dévie légèrement de la définition donnée à l’exercice 2.3.6.13, mais cela ne cause pas de problème en pratique.
Dans cette section, on verra comment trouver les bonnes directions pour comprendre la géométrie d’une transformation linéaire. Ces directions sont appelées les vecteurs propres et possèdent des nombres associés appelés valeurs propres. On définit la notion de multiplicité algébrique et multiplicité géométrique.

Sous-section 6.1.1 Vecteurs et valeurs propres

On considère les matrices carrées de format \(2\times 2\text{.}\) Inspiré par la matrice de l’introduction, on se demande s’il existe des vecteurs dont l’image est un multiple du vecteur initial. Mathématiquement, on cherche des vecteurs \(\vec{v}_1,\vec{v}_2\) et des nombres réels \(\lambda_1,\lambda_2\) tels que
\begin{align*} A\vec{v}_1&=\lambda_1\vec{v}_1 & A\vec{v}_2&=\lambda_2\vec{v}_2\text{,} \end{align*}
\(A\) est une matrice \(2\times 2\) quelconque. On regarde l’exemple d’introduction afin de déterminer les nombres \(\lambda_1,\lambda_2\) à partir des directions invariantes. La prochaine sous-section expliquera comment obtenir à la fois les \(\lambda\) et les directions invariantes.

Exemple 6.1.3. Un premier calcul avec les directions invariantes.

On cherche les deux nombres \(\lambda_1,\lambda_2\) associés aux directions invariantes de la matrice
\begin{equation*} A=\begin{pmatrix} 10 & 2 \\ 6 & 11 \end{pmatrix}\text{.} \end{equation*}
Ces directions sont \(\vec{v}_1=(1,2)\) et \(\vec{v}_2=(2,-3)\text{.}\)
Solution.
Parce que les directions sont données, il suffit de calculer l’image de chacune de ces directions et de déduire le facteur associé. Pour la direction \((1,2)\text{,}\) on a
\begin{equation*} A=\begin{pmatrix} 10 & 2 \\ 6 & 11 \end{pmatrix}\begin{pmatrix} 1\\ 2\end{pmatrix}=\begin{pmatrix}14 \\ 28 \end{pmatrix}=14\begin{pmatrix} 1\\ 2\end{pmatrix} \end{equation*}
et pour la direction \((2,-3)\text{,}\) on a
\begin{equation*} A=\begin{pmatrix} 10 & 2 \\ 6 & 11 \end{pmatrix}\begin{pmatrix} 2\\ -3\end{pmatrix}=\begin{pmatrix}14 \\ -21\end{pmatrix}=7\begin{pmatrix} 2\\ -3\end{pmatrix}\text{.} \end{equation*}
La matrice \(A\) représente alors un étirement de facteur \(14\) dans la direction du vecteur \((1,2)\) et un étirement de facteur \(7\) dans la direction \((2,-3)\text{.}\)
Parce que les matrices peuvent aussi représenter des transformations linéaires d’espaces vectoriels quelconques, on définit les directions invariantes (et leur facteur associé) par un terme qui s’éloigne un peu de la géométrie.

Définition 6.1.4. Vecteurs et valeurs propres.

Soit \(A\text{,}\) une matrice carrée représentant une transformation linéaire d’un espace \(V\) vers ce même espace. On dit que \(\vec{v}\in V\) est un vecteur propre si \(\vec{v}\neq \vec{0}\) et s’il existe un scalaire \(\lambda\) pour lequel
\begin{equation} A\vec{v}=\lambda \vec{v}\text{.}\tag{6.1.2} \end{equation}
Le scalaire \(\lambda\) est alors appelé la valeur propre associée à \(\vec{v}\text{.}\)
Si l’on regarde l’équation (6.1.2) du point de vue d’un système d’équations, on se retrouve avec \(n\) inconnues pour le vecteur \(\vec{v}\) et une supplémentaire provenant de la valeur propre \(\lambda\text{.}\) Le fait que cette valeur propre multiplie les composantes du vecteur fait en sorte que ce système d’équations n’est même pas linéaire. Heureusement, les notions du Chapitre 4 et du Chapitre 5 fournissent une méthode efficace pour trouver les vecteurs et les valeurs propres. Dans un premier temps par contre, on considère certaines questions et l’on tente d’y répondre en s’appuyant sur des arguments géométriques.
Une première remarque est qu’un vecteur propre ne peut pas être nul, par définition. Puisque le vecteur nul n’a pas de direction et que les vecteurs propres correspondent géométriquement aux directions invariantes de la transformation linéaire, ce choix prend son sens. D’un autre point de vue, puisque n’importe quelle valeur de \(\lambda\) rendrait l’équation (6.1.2) si \(\vec{v}=\vec{0}\text{,}\) on n’aurait plus l’unicité de la valeur propre. Par contre, rien n’empêche \(\lambda\) d’être nul. Géométriquement, cela signifie qu’une direction est envoyée sur le vecteur nul. Si l’on pense à une projection orthogonale dans \(\mathbb{R}^2\) sur un vecteur \(\vec{v}\text{,}\) on sait que \(P(\vec{v})=\vec{v}\) et \(P(\vec{v}_{\perp})=\vec{0}\text{.}\) Cela donne donc directement deux vecteurs propres, \(\vec{v},\vec{v}_{\perp}\) et leur valeur propre associée, \(1,0\text{.}\)
Est-ce qu’une transformation linéaire a toujours des directions invariantes? En regardant l’effet d’une rotation et le fait que le vecteur nul ne peut pas être un vecteur propre, on comprend qu’il est possible qu’il n’y ait pas de vecteurs propres pour une transformation donnée. (Si l’on se permet de sortir du cadre des nombres réels, cela sera alors possible. On explore cette particularité dans l’annexe [provisional cross-reference: nombrescomplexes].) Y a-t-il un nombre maximum de directions invariantes? Si l’on pense à la matrice identité, toutes les directions sont invariantes. Dans le cas des vecteurs propres, dès qu’il y en a un, il y a une infinité de vecteurs propres.

Démonstration.

La figure interactive suivante permet d’explorer différentes transformations géométriques et demande de déterminer les vecteurs et valeurs propres associés.

Instructions.

Cliquer sur l’une des quatre transformations à étudier. Déterminer ensuite les valeurs et vecteurs propres en bougeant le vecteur \(\vec{u}\) et en observant sa transformation. Écrire les réponses dans les cases appropriées, en prenant soin de mettre la plus petite des valeurs propres et un vecteur propre associé dans la ligne du haut. Cliquer ensuite sur valider les réponses afin de vérifier. Un clic sur un autre type de transformation va générer un nouveau problème.
Figure 6.1.6. Vecteurs et valeurs propres géométriques
On termine avec des commandes Sage en lien avec la sous-section.

Calcul 6.1.7. Vecteurs et valeurs propres sur Sage.

En anglais, les mots pour vecteur propre et valeur propre sont respectivement “eigenvector” et “eigenvalue”, qui sont eux-mêmes dérivés du mot allemand “eigen”, qui signifie propre, caractéristique ou encore particulier. Sans surprise donc, la commande sur Sage pour trouver les valeurs propres est A.eigenvalues(). Pour les vecteurs propres, Sage doit aussi savoir si l’on veut un vecteur propre à droite (ce que l’on veut) ou à gauche (car il pourrait aussi exister un vecteur \(\vec{v}\) et un scalaire \(\lambda\) tels que \(\vec{v}A=\lambda\vec{v}\)). La commande est donc A.eigenvectors_right(). Sage retourne alors un triplet composé, dans l’ordre, de la valeur propre, d’un vecteur propre associé à celle-ci et d’un troisième nombre, appelé la multiplicité, qui sera considéré dans la sous-section suivante. Voici les valeurs et vecteurs propres de la matrice \(A\) de l’introduction.
On vérifie que, pour une matrice de réflexion quelconque, on a toujours \(1\) et \(-1\) comme valeurs propres et que les vecteurs propres associés sont la direction de l’axe de réflexion et son perpendiculaire.
En multipliant le second vecteur par \(\cos(\theta)\) et le premier par \(-\sin(\theta)\text{,}\) on retrouve les directions voulues.
Une particularité que l’on peut remarquer tient au fait que, dans la commande du vecteur propre, celui-ci est donné dans une liste qui ne contient que ce vecteur. En fait, pour une valeur explicite de \(\lambda\text{,}\) il est possible d’avoir plus d’une direction invariante associée à cette valeur. Il s’avère que l’espace engendré par les vecteurs propres associés à un scalaire \(\lambda\) est un sous-espace vectoriel. On peut donc parler d’espace invariant ou espace propre. Ce concept sera exploré dans la sous-section suivante. En attendant, voici les vecteurs et valeurs propres d’une réflexion dans \(\mathbb{R}^3\text{.}\)
On remarque que la valeur propre \(1\) apparait deux fois dans l’exécution de la commande eigenvalues et que le vecteur propre qui lui est associé est en fait deux vecteurs. On remarque aussi que le troisième élément de la liste est \(2\text{,}\) qu’il y a deux vecteurs et que la valeur propre apparaissait deux fois. Coïncidence?

Sous-section 6.1.2 Polynôme caractéristique et espace propre

L’objectif principal de cette sous-section est de déterminer une manière d’obtenir les valeurs et les vecteurs propres. On a expliqué plus haut que le système d’équations découlant de l’équation matricielle (6.1.2) n’est pas linéaire par rapport à la variable \(\lambda\text{,}\) ce qui peut poser problème, spécifiquement en pensant aux méthodes du Chapitre 3. On regarde donc à nouveau cette équation. On peut réécrire
\begin{align*} A\vec{v}&=\lambda \vec{v}\\ A\vec{v}-\lambda \vec{v}&=\vec{0}\\ (A-\lambda I)\vec{v}&=\vec{0}\text{.} \end{align*}
De cette nouvelle équation, on peut conclure qu’un vecteur propre doit être dans l’espace nul de la matrice \(A-\lambda I\text{.}\) De plus, puisque la définition d’un vecteur propre exige que le vecteur soit non nul, il faut que l’espace nul de cette matrice soit de dimension plus grande ou égale à \(1\text{.}\) Les valeurs propres possibles pour une matrice \(A\) sont donc les valeurs de \(\lambda\) qui font en sorte que l’espace nul de la matrice \(A-\lambda I\) n’est pas réduit à \(\{\vec{0}\}\text{.}\) Selon le Théorème de la matrice inverse, cinquième version, ceci se produit lorsque la matrice \(A-\lambda I\) n’est pas inversible.
La manière classique de déterminer les valeurs propres d’une matrice \(A\) est de considérer les valeurs de \(\lambda\) qui font que le déterminant de la matrice \(A-\lambda I\) est nul. Le déterminant de cette matrice est un polynôme en \(\lambda\text{,}\) dont les zéros sont précisément les valeurs propres.

Définition 6.1.8. Polynôme caractéristique d’une matrice.

Soit \(A\text{,}\) une matrice carrée. On appelle le polynôme caractéristique de la matrice \(A\) le polynôme résultant du calcul de \(\text{det}(A-\lambda I)\text{.}\)
En réunissant les informations ci-dessus, on obtient la proposition suivante.

Démonstration.

Pour que \(\lambda\) soit une valeur propre de la matrice \(A\text{,}\) il faut qu’il existe un vecteur non nul \(\vec{v}\) tel que \(A\vec{v}=\lambda \vec{v}\text{.}\) Soit \(\lambda\text{,}\) un zéro du polynôme caractéristique. Puisque \(\text{det}(A-\lambda I)=0\text{,}\) l’espace nul de cette matrice est de dimension supérieure ou égale à \(1\text{.}\) Soit \(\vec{v}\in \mathcal{N}(A-\lambda I)\text{,}\) un vecteur non nul de cet espace nul. On a alors
\begin{align*} (A-\lambda I)\vec{v}&=\vec{0} &&\text{par définition de l'espace nul}\\ A\vec{v}-\lambda \vec{v}&=\vec{0} &&\text{par distributivité}\\ A\vec{v}&=\lambda \vec{v}\text{.} \end{align*}
Ainsi, \(\lambda\) est une valeur propre de la matrice \(A\text{.}\)

Exemple 6.1.10. Calcul des valeurs propres de la matrice d’introduction.

On calcule les valeurs propres de la matrice
\begin{equation*} A=\begin{pmatrix} 10 & 2 \\ 6 & 11 \end{pmatrix}\text{.} \end{equation*}
À l’exemple 6.1.3, on a déjà calculé ces valeurs propres, mais c’était en connaissant les vecteurs propres qui leur étaient associés.
Solution.
On calcule le polynôme caractéristique de la matrice \(A\) en calculant le déterminant de \(A-\lambda I\text{:}\)
\begin{align*} \lvert A-\lambda I\rvert&=\left\lvert \begin{pmatrix} 10 & 2 \\ 6 & 11 \end{pmatrix}-\lambda \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}\right \rvert\\ &= \begin{vmatrix} 10-\lambda & 2 \\ 6 & 11-\lambda \end{vmatrix}\\ &=(10-\lambda)(11-\lambda)-12\\ &=\lambda^2-21\lambda+98\text{.} \end{align*}
Ce polynôme se factorise en \((\lambda-7)(\lambda-14)\text{,}\) ce qui donne les valeurs propres connues \(\lambda_1=7\) et \(\lambda_2=14\text{.}\)
On se tourne vers les transformations linéaires géométriques de l’exemple 2.1.13. On peut déduire les valeurs propres de plusieurs de ces transformations en s’appuyant seulement sur le contexte géométrique, mais le calcul du polynôme caractéristique permettra de voir si l’on en oublie.

Exemple 6.1.11. Valeurs propres des transformations géométriques de \(\mathbb{R}^2\text{.}\).

Pour chacune des transformations de la liste 2.1.14, déterminer les valeurs propres réelles. (Rappel: les matrices de ces transformations linéaires ont été trouvées à l’exemple 2.1.23.)
Solution 1.
La transformation identité garde tous les vecteurs en place. On a donc \(I\vec{v}=\vec{v}\) pour tous vecteurs de \(\mathbb{R}^2\text{.}\) Il s’ensuit que \(\lambda=1\) est une valeur propre. Le polynôme caractéristique de la matrice est
\begin{equation*} \begin{vmatrix}1-\lambda & 0\\ 0& 1-\lambda \end{vmatrix}=(1-\lambda)^2\text{.} \end{equation*}
Ce polynôme s’annule seulement lorsque \(\lambda=1\text{,}\) c’est donc la seule valeur propre possible.
Solution 2.
La réflexion par rapport à l’axe des \(x\) laisse tout vecteur parallèle à \((1,0)\) inchangé et tout vecteur perpendiculaire à \((1,0)\) est envoyé sur son opposé. Les valeurs propres devraient donc être \(\lambda_1=1\) et \(\lambda_2=-1\text{.}\) En effet, le polynôme caractéristique donne
\begin{equation*} \begin{vmatrix}1-\lambda & 0\\ 0& -1-\lambda \end{vmatrix}=(1-\lambda)(-1-\lambda)\text{.} \end{equation*}
Comme ce polynôme s’annule uniquement en \(\lambda_1=-1\) et \(\lambda_2=1\text{,}\) ce sont les seules valeurs propres possibles.
Solution 3.
Une rotation ne laisse aucun vecteur en place, sauf le vecteur nul qui ne peut pas être un vecteur propre. Il ne devrait donc pas y avoir de valeurs propres. Le polynôme caractéristique est
\begin{equation*} \begin{vmatrix}-\lambda & 1\\ -1& -\lambda \end{vmatrix}=\lambda^2+1\text{.} \end{equation*}
Ce polynôme n’a en effet pas de solution dans les réels.
Solution 4.
Les étirements ont dans leur définition une direction qui est inchangée. Une valeur propre est très certainement le facteur d’étirement \(r\text{.}\) Dans l’exercice 2.2.3.8, on a toutefois mentionné qu’un vecteur dont la direction est perpendiculaire à la direction étirée ne changeait pas. La valeur \(\lambda=1\) semble donc aussi être une valeur propre. Dans le cas de l’étirement horizontal, on a
\begin{equation*} \begin{vmatrix}r-\lambda & 0\\ 0& 1-\lambda \end{vmatrix}=(r-\lambda)(1-\lambda)\text{,} \end{equation*}
qui s’annule bel et bien en \(\lambda_1=r\) et \(\lambda_2=1\text{.}\)
Solution 5.
Une homothétie étant un étirement dans les deux directions, il semble plausible de considérer que le facteur \(r\) sera la seule valeur propre. En effet, on a
\begin{equation*} \begin{vmatrix}r-\lambda & 0\\ 0& r-\lambda \end{vmatrix}=(r-\lambda)^2\text{,} \end{equation*}
qui s’annule seulement lorsque \(\lambda=r\text{.}\)
Solution 6.
Il est peut-être difficile de voir quelles seront les valeurs propres en pensant seulement à la permutation des composantes. On peut toutefois remarquer que la permutation dans \(\mathbb{R}^2\) est aussi une réflexion de direction \(\pi/4\text{.}\) On peut probablement conclure que les valeurs propres seront \(1\) et \(-1\text{,}\) comme pour les valeurs propres d’une réflexion selon l’axe des abscisses. En effet,
\begin{equation*} \begin{vmatrix}-\lambda & 1\\ 1& 0-\lambda \end{vmatrix}=\lambda^2-1 \end{equation*}
s’annule lorsque \(\lambda_1=-1\) et \(\lambda_2=1\text{.}\) Ce sont donc les valeurs propres.
Solution 7.
Pour une projection orthogonale, le vecteur sur lequel on projette demeure inchangé et le vecteur perpendiculaire s’écrase à \(\vec{0}\text{.}\) On peut donc penser que les valeurs propres seront \(\lambda_1=1\) et \(\lambda_2=0\text{.}\) On a,
\begin{align*} \begin{vmatrix}\frac{w_1^2}{\norm{\vec{w}}^2}-\lambda & \frac{w_1w_2}{\norm{\vec{w}}^2}\\ \frac{w_1w_2}{\norm{\vec{w}}^2}& \frac{w_2^2}{\norm{\vec{w}}^2}-\lambda \end{vmatrix}&=\left(\frac{w_1^2}{\norm{\vec{w}}^2}-\lambda\right)\left(\frac{w_2^2}{\norm{\vec{w}}^2}-\lambda \right)-w_1^2w_2^2\\ &=\left(\lambda^2 -\frac{(w_1^2+w_2^2)}{\norm{\vec{w}}^2}\lambda\right)\\ &=\left(\lambda^2 -\frac{\norm{\vec{w}}^2}{\norm{\vec{w}}^2}\lambda\right)\\ &=\lambda^2-\lambda\\ &=\lambda(\lambda-1)\text{.} \end{align*}
On voit que peu importe les composantes du vecteur \((w_1,w_2)\text{,}\) les valeurs propres seront toujours \(\lambda_1=0\) et \(\lambda_2=1\text{.}\)
Pour ensuite trouver les vecteurs propres d’une matrice \(A\text{,}\) on peut regarder l’espace nul de \(A-\lambda I\) pour chaque valeur de \(\lambda\) faisant en sorte que le polynôme caractéristique s’annule. Bien qu’ils soient relativement facile de les déterminer géométriquement, on l’a, en quelque sorte, fait à l’exemple 6.1.11, l’exercice 6.1.4.1 déterminera les vecteurs propres des transformations linéaires de la liste 2.1.14, en regardant l’espace propre approprié. Pour le moment, on va regarder les vecteurs propres de la matrice d’introduction.

Exemple 6.1.12. Calcul des vecteurs propres de la matrice d’introduction.

On calcule les vecteurs propres de la matrice
\begin{equation*} A=\begin{pmatrix} 10 & 2 \\ 6 & 11 \end{pmatrix}\text{.} \end{equation*}
On sait que ces vecteurs propres devraient être \(\vec{u}=(1,2),\vec{v}=(2,-3)\text{,}\) selon la figure 6.1.1 .
Solution.
À l’exemple 6.1.10, on a réussi à trouver que les valeurs propres de la matrice sont \(\lambda_1=7\) et \(\lambda_2=14\text{.}\) En caractérisant l’espace propre des matrices \(A-7I\) et \(A-14I\text{,}\) on pourra trouver des vecteurs propres associés à chacune des valeurs propres.
Dans un premier temps, on a
\begin{align*} A-7I&=\begin{pmatrix} 3 & 2 \\ 6 & 4 \end{pmatrix}\\ &\stackrel{L2-2L_1\to L_2}{\sim}\begin{pmatrix} 3 & 2 \\ 0 & 0 \end{pmatrix}\\ &\stackrel{\frac{L_1}{3}\to L_1}{\sim}\begin{pmatrix} 1 & 2/3 \\ 0 & 0 \end{pmatrix}\text{.} \end{align*}
On peut lire une base de l’espace nul de cette matrice de sa forme échelonnée réduite qui est \(\vec{u}_1=\left(-\frac{2}{3},1\right)\text{.}\) En multipliant par \(-3\) ce vecteur, on retrouve le vecteur \(\vec{v}=(2,-3)\) de l’énoncé.
De même, avec la seconde valeur propre, on a
\begin{align*} A-14I&=\begin{pmatrix} -4 & 2 \\ 6 & -3 \end{pmatrix}\\ &\stackrel{\frac{L_1}{-4}\to L_1}{\sim}\begin{pmatrix} 1 & -1/2 \\ 6 & -3 \end{pmatrix}\\ &\stackrel{L_2-6L_1\to L2}{\sim}\begin{pmatrix} 1 & -1/2 \\ 0 & 0 \end{pmatrix}\text{.} \end{align*}
On peut lire une base de l’espace nul de cette matrice de sa forme échelonnée réduite qui est \(\vec{v}_1=\left(\frac{1}{2},1\right)\text{.}\) En multipliant par \(2\) ce vecteur, on retrouve le vecteur \(\vec{v}=(1,2)\) de l’énoncé.
On constate que, pour trouver un vecteur propre, il faut regarder l’espace nul de la matrice \(A-\lambda I\) et que n’importe quel vecteur de ce sous-espace pourra jouer le rôle de vecteur propre. En particulier, une base de cet espace peut entièrement décrire l’espace des vecteurs propres associés à une valeur propre spécifique d’une matrice \(A\text{.}\) On appelle \(\mathcal{N}(A-\lambda I)\) l’espace propre de la matrice \(A\) associé à \(\lambda\text{.}\)
On regarde d’autres exemples de calculs de valeurs et vecteurs propres. À partir de ceux-ci, on fera quelques observations qui guideront la suite.

Exemple 6.1.13. Des calculs de vecteurs et valeurs propres.

On cherche les valeurs et vecteurs propres des matrices suivantes:
\begin{align*} A&=\begin{pmatrix} 3&1\\ -2&0 \end{pmatrix}\\ B&=\begin{pmatrix} 1&-3\\ 3&-5 \end{pmatrix}\\ C&=\begin{pmatrix} -2 & 2 & 0 \\ 0 & 2 & 0 \\ 2 & -1 & 0 \end{pmatrix}\\ E&=\begin{pmatrix} 1 & 1 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 2 \end{pmatrix}\\ F&=\begin{pmatrix} -1 & 1 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}\text{.} \end{align*}
Solution 1.
On commence par trouver les valeurs propres en calculant le déterminant de \(A-\lambda I\text{.}\) On obtient
\begin{align*} \lvert A-\lambda I\rvert &=\lvert \begin{pmatrix} 3&1\\ -2&0 \end{pmatrix}-\begin{pmatrix} \lambda&0\\ 0&\lambda \end{pmatrix}\rvert\\ &=\begin{vmatrix} 3-\lambda&1\\ -2&-\lambda \end{vmatrix}\\ &=(3-\lambda)(-\lambda)+2\\ &=\lambda^2-3\lambda+2\\ &=(\lambda-1)(\lambda-2)\text{.} \end{align*}
Les valeurs propres sont les valeurs de \(\lambda\) qui annulent ce déterminant, soit \(\lambda_1=1\) et \(\lambda_2=2\text{.}\)
On trouve le premier vecteur propre en regardant l’espace nul de \(A-I=\begin{pmatrix} 2&1\\ -2&-1 \end{pmatrix}\text{.}\) En effectuant l’opération élémentaire \(L_2+L_1\to L_2\) et ensuite l’opération élémentaire \(L_1/2\to L_1\text{,}\) on obtient la matrice échelonnée réduite
\begin{equation*} rref(A-I)=\begin{pmatrix} 1&1/2\\ 0&0 \end{pmatrix}\text{.} \end{equation*}
Celle-ci donne le vecteur propre \(\vec{u}_1=(-1/2,1)\text{,}\) ou son multiple \(\vec{v}_1=(-1,2)\text{.}\) Un calcul rapide montre qu’on a bel et bien \(A\vec{v}_1=\vec{v}_1\text{.}\)
Pour le second vecteur propre, on procède de manière similaire. On regarde l’espace propre associé à \(\lambda_2=2\text{.}\) On a alors
\begin{align*} A-2I&=\begin{pmatrix} 1&1\\ -2&1 \end{pmatrix}\\ &\stackrel{L2+2L_1\to L_1}{\sim}\begin{pmatrix}1&1\\ 0&0\end{pmatrix}\text{.} \end{align*}
Une base de cet espace, donc un vecteur propre, est le vecteur \(\vec{v}_2=(-1,1)\text{.}\) Encore une fois, un calcul rapide permet d’observer que
\begin{equation*} \begin{pmatrix} 3&1\\ -2&0 \end{pmatrix}\begin{pmatrix}-1\\ 1\end{pmatrix}=-\begin{pmatrix}3\\-2 \end{pmatrix}+\begin{pmatrix}1\\0 \end{pmatrix}=\begin{pmatrix}-2\\2\end{pmatrix}=2\begin{pmatrix}-1\\ 1\end{pmatrix}\text{.} \end{equation*}
Solution 2.
On procède de la même manière. On a
\begin{align*} \lvert B-\lambda I\rvert&=\lvert\begin{pmatrix} 1&-3\\ 3&-5 \end{pmatrix}-\begin{pmatrix} \lambda&0\\ 0&0 \end{pmatrix} \rvert\\ &=\begin{vmatrix} 1-\lambda&-3\\ 3&-5-\lambda \end{vmatrix}\\ &=(1-\lambda)(-5-\lambda)+9\\ &=\lambda^2+4\lambda+4\\ &=(\lambda+2)^2\text{.} \end{align*}
On ne trouve ici qu’une seule valeur propre égale à \(\lambda=-2\text{.}\) Pour l’espace propre, on regarde l’espace nul de la matrice \(B+2I=\begin{pmatrix} 3&-3\\ 3&-3 \end{pmatrix}\text{,}\) dont la forme échelonnée réduite est \(rref(B+2I)=\begin{pmatrix} 1&-1\\ 0&0 \end{pmatrix}\text{.}\) Un vecteur propre est donc \(\vec{v}=(1,1)\text{.}\) Encore une fois, un calcul permet de vérifier que
\begin{equation*} \begin{pmatrix} 1&-3\\ 3&-5 \end{pmatrix}\begin{pmatrix} 1\\ 1\end{pmatrix}=\begin{pmatrix}1-3 \\ 3-5 \end{pmatrix}=\begin{pmatrix}-2\\ -2 \end{pmatrix}=-2\begin{pmatrix} 1\\ 1\end{pmatrix}\text{.} \end{equation*}
Solution 3.
On calcule le déterminant de la matrice \(C-\lambda I\) afin de déterminer les valeurs propres. On a
\begin{align*} \lvert C-\lambda I\rvert&= \begin{vmatrix} -2-\lambda & 2 & 0 \\ 0 & 2-\lambda & 0 \\ 2 & -1 & -\lambda \end{vmatrix}\\ \end{align*}

En se basant sur la proposition 4.3.8, on développe selon la deuxième ligne:

\begin{align*} &=(2-\lambda)\begin{vmatrix} -2-\lambda & 0 \\ 2 & -\lambda \end{vmatrix}\\ &=(2-\lambda)(-2-\lambda)(-\lambda)\text{.} \end{align*}
Les valeurs propres sont donc \(\lambda_1=2,\lambda_2=-2\) et \(\lambda_3=0\text{.}\)
Pour la recherche des vecteurs propres associés, il faut regarder les espaces nuls des matrices \(C-\lambda I\) pour chaque valeur \(\lambda\) trouvée. Pour \(\lambda=2\text{,}\) on trouve
\begin{align*} \begin{pmatrix} -4 & 2 & 0 \\ 0 & 0 & 0 \\ 2 & -1 & -2 \end{pmatrix}&=\stackrel{L_2\leftrightarrow L_3}{\sim}\begin{pmatrix} -4 & 2 & 0 \\ 2 & -1 & -2 \\ 0 & 0 & 0 \\ \end{pmatrix}\\ &\stackrel{L_2+L_1/2\to L_2}{\sim}\begin{pmatrix} -4 & 2 & 0 \\ 0 & 0 & -2 \\ 0 & 0 & 0 \\ \end{pmatrix}\\ &\stackrel{\stackrel{L_1/(-4)\to L_1}{L_2/(-2)\to L_2}}{\sim}\begin{pmatrix} 1 & -1/2 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \\ \end{pmatrix}\text{.} \end{align*}
Il n’y a qu’une seule variable libre, la deuxième. Une base de l’espace nul est donc \(\vec{u}_1=(1/2,1,0)\text{,}\) qui constitue un vecteur propre. Plus simplement, on peut le multiplier par \(2\) pour avoir \(\vec{v}_1=(1,2,0)\text{.}\) Un calcul simple montre que l’on a bel et bien \(C\vec{v}_1=2\vec{v}_1\text{.}\)
Pour le deuxième vecteur propre associé à la valeur propre \(\lambda_2=-2\text{,}\) on procède de la même manière. On a
\begin{align*} C+2 I&= \begin{pmatrix} 0 & 2 & 0 \\ 0 & 4 & 0 \\ 2 & -1 & 2 \end{pmatrix}\\ &\stackrel{\stackrel{L_2-2L_1\to L_2}{L_3+L_1/2\to L_3}}{\sim}\begin{pmatrix} 0 & 2 & 0 \\ 0 & 0 & 0 \\ 2 & 0 & 2 \end{pmatrix}\\ &\stackrel{\stackrel{L_1/2\to L_1}{L_3/2\to L_3}}{\sim}\begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 0 \\ 1 & 0 & 1 \end{pmatrix}\\ &\stackrel{L_3\leftrightarrow L_1}{\sim}\begin{pmatrix} 1 & 0 & 1 \\ 0 & 1 & 0 \\ 0 & 0 & 0 \end{pmatrix}\text{.} \end{align*}
Encore une fois, on ne retrouve qu’une variable libre, cette fois en \(z\text{,}\) qui amène comme vecteur propre le vecteur \(\vec{v}_2=(-1,0,1)\text{.}\) On vérifie à nouveau que l’on a bien \(C\vec{v}_2=-2\vec{v}_2\) par un calcul de produit matrice vecteur.
Finalement, avec la dernière valeur propre \(\lambda_3=0\text{,}\) on a
\begin{align*} C&=\begin{pmatrix} -2 & 2 & 0 \\ 0 & 2 & 0 \\ 2 & -1 & 0 \end{pmatrix}\\ &\stackrel{\stackrel{L_1/(-2)\to L_1}{L_2/2\to L_2}}{\sim}\begin{pmatrix} 1 & -1 & 0 \\ 0 & 1 & 0 \\ 2 & -1 & 0 \end{pmatrix}\\ &\stackrel{L_3-2L_1\to L_3}{\sim}\begin{pmatrix} 1 & -1 & 0 \\ 0 & 1 & 0 \\ 0 & 1 & 0 \end{pmatrix}\\ &\stackrel{L_3-L_2\to L_3}{\sim}\begin{pmatrix} 1 & -1 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 0 \end{pmatrix}\text{.} \end{align*}
Le dernier vecteur propre est \(\vec{v}_3=(0,0,1)\text{.}\)
Solution 4.
On se permet de faire les calculs sur Sage pour les deux prochaines matrices. On n’utilisera pas les fonctions eigenvalues et eigenvectors_right, car on veut pour l’instant être en mesure de comprendre comment obtenir les valeurs et vecteurs propres à partir des définitions et résultats, mais on laisse Sage faire les calculs de ces déterminants et l’échelonnage des matrices. Pour les valeurs propres:
Cette fois, les valeurs propres sont \(\lambda_1=1\) et \(\lambda_2=2\text{.}\) On remarque qu’il n’y a encore une fois que deux valeurs propres.
Un premier vecteur propre est obtenu en regardant l’espace propre associé à \(\lambda_1\text{.}\)
Le vecteur propre est \(\vec{v}_1=(1,0,0)\text{.}\) Pour la seconde valeur propre :
Le second vecteur propre est \(\vec{v}_2=(0,0,1)\text{.}\)
On remarque dans ce cas-ci que chaque valeur propre n’a qu’une direction propre associée.
Solution 5.
On répète la démarche précédente avec la matrice \(F\) et Sage.
D’abord, pour les valeurs propres, on calcule le déterminant de la matrice \(F-\lambda I\) et l’on demande à Sage de factoriser le tout pour pouvoir y lire facilement les zéros. À noter qu’on utilise \(x\) plutôt que \(\lambda\text{,}\) car le mot lambda est protégé en python.
Il n’y a que deux valeurs propres distinctes, \(\lambda_1=-1\) et \(\lambda_2=1\text{.}\) Pour trouver les vecteurs propres, on trouve une base pour les espaces nuls des deux matrices \(D+I\) et \(D-I\text{.}\)
Un vecteur propre associé à \(\lambda=-1\) est donc \(\vec{v}_1=(1,0,0)\text{.}\) On vérifie facilement que \(F\vec{v}_1=-\vec{v}_1\text{,}\) puisque ce produit donne la première colonne de la matrice \(F\text{.}\) Pour \(\lambda_2=1\text{,}\) on regarde ce que Sage donne comme espace propre.
On constate qu’il y a ici deux vecteurs propres associés à la valeur propre \(\lambda_2=1\text{.}\) Le vecteur \(\vec{v}_2=(1,2,0)\) (après multiplication par \(2\)) et le vecteur \(\vec{v}_3=(0,0,1)\text{,}\) dont on peut dire que
\begin{align*} F\vec{v}_2&=\vec{v}_2 & F\vec{v}_3=\vec{v}_3\text{.} \end{align*}
L’exemple précédent montre que plusieurs situations peuvent survenir lors du calcul des valeurs et vecteurs propres. Est-ce que le déterminant d’une matrice \(A-\lambda I\text{,}\)\(A\) est une matrice \(n\times n\text{,}\) est toujours un polynôme de degré \(n\text{?}\) Cela semble évident, mais il faudrait le démontrer (voir l’exercice [provisional cross-reference: exo-detvalpropredegre]). Parfois, pour une valeur propre, il peut y avoir plus d’une direction invariante et donc, plus d’un vecteur propre indépendant. En fait, la véritable question est de savoir quelle peut être la dimension de l’espace propre associée à une valeur propre? La matrice \(D\) de l’exemple précédent avait deux valeurs propres, l’une dont l’espace propre était de dimension \(1\) et l’autre de dimension \(2\text{.}\) La matrice \(E\text{,}\) quant à elle, avait aussi deux valeurs propres, mais avec chacun leur espace propre respectif de dimension \(1\text{.}\) Ceci conduit à la définition suivante.

Définition 6.1.14. Multiplicité algébrique et géométrique.

Soit \(A\text{,}\) une matrice, \(\lambda_0\text{,}\) une valeur propre de cette matrice et \(k\in \mathbb{N}\text{,}\) la plus grande valeur telle que le facteur \((\lambda-\lambda_0)^k\) divise le polynôme caractéristique. On dit que \(k\) est la multiplicité algébrique de la valeur propre.
Soit \(r=\text{dim}(\mathcal{N}(A-\lambda_0 I))\text{,}\) la dimension de l’espace nul de la matrice \(A-\lambda_0 I\text{.}\) On dit que \(r\) est la multiplicité géométrique de la valeur propre.
La valeur propre \(\lambda_2=1\) pour la matrice \(D\) de l’exemple 6.1.13 a une multiplicité algébrique de \(2\) puisque le déterminant de \(D-\lambda I\) est \((\lambda+1)(\lambda-1)^2\text{.}\) Puisque l’espace propre associé à cette valeur propre était donné par \(\vspan((1,2,0),(0,0,1))\text{.}\) Ces vecteurs étant indépendants, la dimension du sous-espace est \(2\text{,}\) qui est donc la dimension géométrique de \(\lambda_2=1\text{.}\) Par contre, avec la matrice \(E\text{,}\) toujours avec la valeur propre valant \(1\text{,}\) on avait encore une dimension algébrique égale à \(2\text{,}\) mais comme l’espace nul de \(E-\lambda I\) est engendré par \((1,0,0)\text{,}\) la dimension géométrique est de \(1\text{.}\) Sur Sage, lorsqu’on utilise la commande eigenvectors_right, le troisième argument d’un triplet de réponse représente la multiplicité algébrique de la valeur propre. La multiplicité géométrique doit être déduite du nombre de vecteurs propres retournés.
On termine avec des commandes Sage en lien avec la sous-section.

Calcul 6.1.15. Polynôme caractéristique et Sage.

Bien que Sage soit capable de calculer directement les vecteurs et les valeurs propres, il peut aussi simplement donner le polynôme caractéristique d’une matrice \(A\text{.}\) Il suffit d’utiliser la commande characteristic_polynomial() ou son équivalent plus court charpoly(). À noter que Sage utilise une version légèrement différente du polynôme caractéristique. Il considère plutôt le déterminant de \(\lambda I-A\text{.}\) Le polynôme retourné par Sage sera le même que celui de la définition 6.1.8 lorsque \(A\) est une matrice de taille \(n\times n\)\(n\) est pair et diffèrera d’un facteur \(-1\) lorsque \(n\) est impair.
On peut ensuite demander à Sage de factoriser ce polynôme caractéristique, mais pour qu’il puisse accomplir le travail, il faudra peut-être préciser l’espace sous-jacent aux entrées de la matrice. (Par défaut, Sage considère qu’une matrice dont toutes les entrées sont des entiers comme une matrice dans un espace d’entiers, et va factoriser en conséquence.)
En terminant, un retour sur la commande eigenvectors_right en lien avec les multiplicités.
Cette matrice correspond à la matrice \(E\) de l’exemple 6.1.13, où l’on avait trouvé que la valeur propre \(\lambda=1\) n’avait qu’un vecteur propre. Elle apparait toutefois avec une multiplicité algébrique de \(2\text{.}\)

Sous-section 6.1.3 Quelques résultats

Dans cette section, on obtient quelques résultats théoriques en lien avec les valeurs et vecteurs propres. Plus particulièrement, on obtiendra la sixième version du théorème de la matrice inverse en ajoutant une équivalence sur les valeurs propres. Que peut-on dire d’une matrice inversible et de ses valeurs propres? Puisque les valeurs et vecteurs propres satisfont l’équation \(A\vec{v}=\lambda \vec{v}\) et qu’un vecteur propre ne peut pas être le vecteur nul, quelque chose de particulierse produit si la valeur propre est nulle. Cela entraine qu’il y a des vecteurs non nuls dans l’espace nul de la matrice. Une telle matrice ne peut donc pas être inversible.

Démonstration.

Il faut seulement démontrer l’équivalence entre le dernier énoncé et l’un des autres. Dans un premier temps, si \(A\) est inversible, alors son espace nul est de dimension \(0\text{.}\) Il n’existe donc pas d’autres vecteurs que \(\vec{0}\) tels que \(A\vec{v}=\vec{0}\text{.}\) Il en découle que \(\lambda=0\) ne peut être une valeur propre.
À l’inverse, si \(A\) est une matrice dont toutes les valeurs propres sont différentes de zéro, cela implique qu’aucun vecteur non nul ne possède la propriété que \(A\vec{v}=0\vec{v}=\vec{0}\text{.}\) Donc, le seul élément dans l’espace nul de \(A\) est le vecteur nul, ce qui signifie que l’espace nul est de dimension \(0\text{.}\) Ainsi, une matrice est inversible si et seulement si aucune de ses valeurs propres n’est nulle.
Le prochain résultat sera utile dans la section suivante. Il porte sur les vecteurs propres et leur indépendance.

Démonstration.

Si \(k=1\text{,}\) il n’y a qu’un seul vecteur propre. Celui-ci étant non nul, il est par défaut indépendant. S’il y a plus de deux vecteurs, on procède par contradiction. On suppose que l’ensemble de ces vecteurs propres est dépendant. On peut alors affirmer qu’il existe un entier \(p\) tel que \(\{\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_p\}\) est un ensemble indépendant, mais que \(\{\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_{p+1}\}\) est dépendant. Bien entendu, \(p\neq k\) puisqu’on suppose que l’ensemble de tous ces vecteurs est dépendant. On cherche donc le premier vecteur qui, combiné aux précédents vecteurs indépendants, rend l’ensemble dépendant. Si \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_{p+1}\) est dépendant, il existe une combinaison linéaire des \(p\) premiers vecteurs qui donne le vecteur \(\vec{v}_{p+1}\) :
\begin{gather} a_1\vec{v}_1+a_2\vec{v}_2+\ldots + a_p\vec{v}_p=\vec{v}_{p+1}\text{.}\tag{✶} \end{gather}
On multiplie les deux côtés de cette équation par \(A\text{.}\) On obtient alors
\begin{align*} A(a_1\vec{v}_1+a_2\vec{v}_2+\ldots + a_p\vec{v}_p)&=A\vec{v}_{p+1}\\ Aa_1\vec{v}_1+Aa_2\vec{v}_2+\ldots + Aa_p\vec{v}_p=A\vec{v}_{p+1}\\ a_1A\vec{v}_1+a_2A\vec{v}_2+\ldots + a_pA\vec{v}_p=A\vec{v}_{p+1}\\ a_1\lambda_1\vec{v}_1+a_2\lambda_2\vec{v}_2+\ldots + a_p\lambda_p\vec{v}_p=\lambda_{p+1}\vec{v}_{p+1}\text{.} \end{align*}
D’un autre côté, on multiplie l’équation (✶) par \(\lambda_{p+1}\) pour obtenir
\begin{equation*} a_1\lambda_{p+1}\vec{v}_1+a_2\lambda_{p+1}\vec{v}_2+\ldots + a_p\lambda_{p+1}\vec{v}_p=\lambda_{p+1}\vec{v}_{p+1}\text{.} \end{equation*}
On obtient
\begin{equation*} a_1\lambda_{p+1}\vec{v}_1+a_2\lambda_{p+1}\vec{v}_2+\ldots + a_p\lambda_{p+1}\vec{v}_p=a_1\lambda_1\vec{v}_1+a_2\lambda_2\vec{v}_2+\ldots + a_p\lambda_p\vec{v}_p \end{equation*}
qui se réécrit sous la forme
\begin{equation*} a_1(\lambda_1-\lambda_{p+1})\vec{v}_1+a_2(\lambda_2-\lambda_{p+1})\vec{v}_2+\ldots + a_p(\lambda_p-\lambda_{p+1})\vec{v}_p=\vec{0}\text{.} \end{equation*}
Comme les vecteurs \(\{\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_p\}\) sont linéairement indépendants, il faut que les coefficients de cette combinaison linéaire soient nuls, mais on a également que les valeurs propres sont distinctes. Cela entraine que \(a_1=a_2=\cdots =a_p=0\text{.}\) Par contre, si cela était vrai, l’équation (✶) impliquerait que \(\vec{v}_{p+1}=\vec{0}\text{,}\) ce qui est impossible. On ne peut en conséquence trouver une valeur de \(p\) telle que l’ensemble \(\{\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_p\}\) est indépendant, mais l’ensemble \(\{\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_{p+1}\}\) est dépendant. On conclut que \(\{\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k\}\) est forcément indépendant, ce qui termine la preuve.
Le prochain résultat est en lien avec les valeurs propres d’une matrice \(A\) et les valeurs propres de matrices obtenues à partir d’opérations algébriques et matricielles comme la multiplication par un scalaire ou l’inverse de \(A\text{.}\)

Démonstration.

Soit \(\vec{v}\text{,}\) un vecteur propre associé à \(\lambda\) pour la matrice \(A\text{.}\) On a
\begin{align*} (rA)\vec{v}&=r(A\vec{v}) && \text{associativité du produit scalaire matrice }\\ &=r\lambda \vec{v}\text{.} \end{align*}
Ainsi, puisque \((rA)\vec{v}=(r\lambda)\vec{v}\text{,}\) une valeur propre de \(rA\) est \(r\lambda\text{.}\) De plus, le vecteur \(\vec{v}\) demeure un vecteur propre.

Démonstration.

Démonstration.

Si \(A\) est une matrice inversible, alors selon le Théorème de la matrice inverse, sixième version, la valeur propre n’est pas nulle. Soit \(\vec{v}\text{,}\) un vecteur propre associé à \(\lambda\text{.}\) On peut alors écrire
\begin{align*} A^{-1}\vec{v}&= A^{-1}\frac{\lambda \vec{v}}{\lambda}\\ &=A^{-1}\frac{A\vec{v}}{\lambda} && \text{ car } A\vec{v}=\lambda\vec{v}\\ &=A^{-1}A \frac{1}{\lambda}\vec{v}\\ &=\frac{1}{\lambda}\vec{v}\text{.} \end{align*}
Le scalaire \(\frac{1}{\lambda}\) est donc bel et bien une valeur propre de \(A^{-1}\text{.}\)

Démonstration.

Il n’était pas question du produit de deux matrices dans la proposition précédente. Qu’en est-il des valeurs propres d’une matrice \(AB\text{?}\) À première vue, on pourrait penser que si \(\alpha\) était une valeur propre de \(A\) et \(\beta\) une valeur propre de \(B\text{,}\) alors \(\alpha \beta\) serait une valeur propre du produit puisque
\begin{equation*} AB\vec{v}=A\beta \vec{v}=\beta A\vec{v}=\beta \alpha \vec{v}\text{,} \end{equation*}
mais il y a un problème avec ce raisonnement. Rien ne garantit que \(A\) et \(B\) ont les mêmes vecteurs propres. Si c’est toutefois le cas, c’est-à-dire si \(\vec{v}\) est un vecteur propre de \(A\) associé à la valeur propre \(\alpha\) et un vecteur propre de \(B\) associé à la valeur propre \(\beta\text{,}\) alors \(\vec{v}\) est un vecteur propre de \(AB\) associé à la valeur propre \(\alpha \beta\text{.}\) En fait, on a même davantage, puisque \(\vec{v}\) est aussi un vecteur propre de la matrice \(BA\text{,}\) aussi associé à la valeur propre \(\alpha \beta\text{.}\) La question du partage des vecteurs propres entre deux matrices sera étudiée plus spécifiquement à la prochaine section.
Un type de matrice pour lequel il est facile de trouver les valeurs propres est lorsque la matrice est triangulaire. Dans ce cas, les valeurs propres se trouvent toujours sur la diagonale.

Démonstration.

C’est une conséquence directe du fait que les matrices \(L-\lambda I\) et \(U-\lambda I\) sont triangulaires et de la proposition 4.2.20 qui stipule que le déterminant d’une matrice triangulaire est le produit des entrées sur la diagonale principale. On voit que le polynôme caractéristique est déjà factorisé et s’annule précisément aux entrées de la diagonale de \(L\) ou \(U\text{.}\)
Les points importants de cette section sont:
De plus, avec Sage, on a vu les commandes eigenvalues, eigenvectors_right et characteristic_polynomial (ou charpoly) permettant respectivement de déterminer les valeurs propres, vecteurs propres et le polynôme caractéristique d’une matrice.

Exercices 6.1.4 Exercices

1.

Déterminer les vecteurs propres de chacune des transformations linéaires de la liste 2.1.14 en considérant l’espace propre associé à chaque valeur propre. On rappelle que les valeurs propres ont été trouvées à l’exemple 6.1.11.
Réponse.
Dans la plupart des cas, on donne une base de l’espace propre associé à chaque valeur propre.
  1. Tous les vecteurs de \(\mathbb{R}^2\) sont des vecteurs propres pour la matrice identité.
  2. Le vecteur \((1,0)\) est un vecteur propre pour la valeur propre \(\lambda_1=1\) et le vecteur \((-1,0)\) est un vecteur propre associé à la valeur propre \(\lambda_2=-1\text{.}\)
  3. Aucun vecteur propre réel.
  4. Pour l’étirement horizontal, le vecteur \((1,0)\) est un vecteur propre associé à \(\lambda_1=r\) et le vecteur \((0,1)\) est un vecteur propre associé à \(\lambda_2=1\text{.}\)
    Pour un étirement vertical, les rôles sont renversés. Le vecteur \((1,0)\) est un vecteur propre associé à \(\lambda_1=1\) et le vecteur \((0,1)\) un vecteur propre pour \(\lambda_2=r\text{.}\)
  5. Tous les vecteurs de \(\mathbb{R}^2\) sont des vecteurs propres.
  6. Le vecteur \((-1,1)\) est un vecteur propre associé à \(\lambda_1=-1\) et le vecteur \((1,1)\) est un vecteur propre associé à \(\lambda_2=1\text{.}\)
  7. Le vecteur \((-w_2,w_1)\) est un vecteur propre associé à \(\lambda_1=0\) et le vecteur \((w_1,w_2)\) est un vecteur propre associé à \(\lambda_2=1\text{.}\)
Solution.
Pour chaque transformation, on regarde l’espace propre associé à chacune des valeurs propres trouvées à l’exemple 6.1.11.
  1. Pour la seule valeur propre \(\lambda=1\text{,}\) on a \(I-I=O\text{,}\) la matrice nulle. Tous les vecteurs sont dans l’espace nul de cette matrice. N’importe quel vecteur de \(\mathbb{R}^2\) est donc un vecteur propre.
    1. Pour la valeur propre \(\lambda_1=1\text{,}\) la matrice \(S_x-I\) devient \(\begin{pmatrix}0& -1\\0 & -1 \end{pmatrix}\text{,}\) qui est équivalente à la matrice \(\begin{pmatrix} 0&1\\ 0& 0\end{pmatrix}\) après réduction. L’espace nul de cette matrice est engendré par le vecteur \((1,0)\text{.}\) N’importe quel multiple de ce vecteur est donc un vecteur propre.
    2. Pour la valeur propre \(\lambda_1=-1\text{,}\) la matrice \(S_x+I\) devient \(\begin{pmatrix}2& 0\\0 & 0 \end{pmatrix}\text{,}\) qui est équivalente à la matrice \(\begin{pmatrix} 1&0\\ 0& 0\end{pmatrix}\) après réduction. L’espace nul de cette matrice est engendré par le vecteur \((0,1)\text{.}\) N’importe quel multiple de ce vecteur est donc un vecteur propre.
  2. Comme il n’y avait pas de valeurs propres réelles, il ne peut pas y avoir de vecteurs propres réels non plus.
  3. D’abord, l’étirement horizontal:
    1. Pour la valeur propre \(r\text{,}\) la matrice \(E_{r,h}-rI\) devient \(\begin{pmatrix} 0&0\\ 0 &1-r\end{pmatrix}\text{,}\) qui est équivalente à la matrice \(m>\begin{pmatrix} 0&1\\ 0 &0\end{pmatrix}\) après réduction (si \(r\neq 1)\text{.}\) L’espace nul de cette matrice est engendré par \((1,0)\text{.}\) Toutefois, si l’on avait \(r=1\text{,}\) alors la transformation serait en fait l’identité. On réfère à la partie précédente;
    2. Pour la valeur propre \(1\text{,}\) la matrice \(E_{r,h}-I\) devient \(\begin{pmatrix} r-1&0\\ 0 &0\end{pmatrix}\text{,}\) qui est équivalente à la matrice \(m>\begin{pmatrix} 1&0\\ 0 &0\end{pmatrix}\) après réduction (si \(r\neq 1)\text{.}\) L’espace nul de cette matrice est engendré par \((0,1)\text{.}\) Toutefois, si l’on avait \(r=1\text{,}\) alors la transformation serait en fait l’identité. On réfère à la partie précédente.
    Pour ce qui est de l’étirement vertical, la même démarche s’applique, mais les rôles sont inversés.
    1. Pour la valeur propre \(r\text{,}\) la matrice \(E_{r,v}-rI\) devient \(\begin{pmatrix} 1-r&0\\ 0 &0\end{pmatrix}\text{,}\) qui est équivalente à la matrice \(m>\begin{pmatrix} 1&0\\ 0 &0\end{pmatrix}\) après réduction (si \(r\neq 1)\text{.}\) L’espace nul de cette matrice est engendré par \((0,1)\text{.}\) Toutefois, si l’on avait \(r=1\text{,}\) alors la transformation serait en fait l’identité. On réfère à la partie précédente.
    2. Pour la valeur propre \(1\text{,}\) la matrice \(E_{r,v}-I\) devient \(\begin{pmatrix} 0&0\\ 0 &r-1\end{pmatrix}\text{,}\) qui est équivalente à la matrice \(m>\begin{pmatrix} 0&1\\ 0 &0\end{pmatrix}\) après réduction (si \(r\neq 1)\text{.}\) L’espace nul de cette matrice est engendré par \((1,0)\text{.}\) Toutefois, si l’on avait \(r=1\text{,}\) alors la transformation serait en fait l’identité. On réfère à la partie précédente.
  4. De manière semblable à la transformation identité, la matrice \(H_r-I\) donne la matrice nulle. Tous les vecteurs de \(\mathbb{R}^2\) sont des vecteurs propres.
    1. Pour la valeur propre \(\lambda_1=-1\text{,}\) la matrice \(P+I\) devient \(\begin{pmatrix}1& 1\\ 1&1\end{pmatrix}\text{,}\) qui est équivalente à la matrice \(\begin{pmatrix}1& 1\\ 0 & 0\end{pmatrix}\) après réduction. L’espace propre de cette matrice est engendré par \((-1,1)\text{,}\) ce qui fait de tout multiple de ce vecteur un vecteur propre de la matrice \(P\) associé à \(\lambda=-1\text{.}\)
    2. Pour la valeur propre \(\lambda_1=1\text{,}\) la matrice \(P-I\) devient \(\begin{pmatrix}-1& 1\\ 1&-1\end{pmatrix}\text{,}\) qui est équivalente à la matrice \(\begin{pmatrix}1& -1\\ 0 & 0\end{pmatrix}\) après réduction. L’espace propre de cette matrice est engendré par \((1,1)\text{,}\) ce qui fait de tout multiple de ce vecteur un vecteur propre de la matrice \(P\) associé à \(\lambda=1\text{.}\)
    1. Pour la valeur propre \(\lambda_1=0\text{,}\) la matrice à analyser est \(\frac{1}{\norm{\vec{w}}^2}\begin{pmatrix}w_1^2 & w_1w_2 \\ w_1w_2 & w_2^2 \end{pmatrix}\text{.}\) On fait d’abord l’hypothèse que \(w_1\neq 0\text{.}\) Par conséquent, la matrice est équivalente après réduction à \(\frac{1}{\norm{\vec{w}}^2}\begin{pmatrix}1 & \frac{w_2}{w_1} \\ 0 & 0 \end{pmatrix}\text{.}\) Dans ce cas, l’espace nul est engendré par \(\left(-\frac{w_2}{w_1},1\right)\text{,}\) ou encore \((-w_2,w_1)\text{.}\) Toutefois, si \(w_1=0\text{,}\) alors, puisqu’on ne peut projeter sur le vecteur nul, on doit avoir \(w_2\neq 0\text{.}\) La matrice est alors équivalente à \(\frac{1}{\norm{\vec{w}}^2}\begin{pmatrix}0 & 1 \\ 0 & 0 \end{pmatrix}\) après réduction, et a pour générateur de son espace nul le vecteur \((1,0)\text{,}\) ou encore son multiple \((-w_2,0)=(-w_2,w_1)\text{.}\) Dans tous les cas, une base de l’espace propre peut s’écrire comme \((-w_2,w_1)\text{.}\)
    2. Pour la valeur propre \(\lambda_1=0\text{,}\) la matrice à analyser est
      \begin{equation*} \begin{pmatrix}\frac{w_1^2}{\norm{\vec{w}}^2}-1 & \frac{w_1w_2}{\norm{\vec{w}}^2} \\ \frac{w_1w_2}{\norm{\vec{w}}^2} &\frac{w_2^2 }{\norm{\vec{w}}^2} -1\end{pmatrix}=\begin{pmatrix}\frac{-w_2^2}{\norm{\vec{w}}^2} & \frac{w_1w_2}{\norm{\vec{w}}^2} \\ \frac{w_1w_2}{\norm{\vec{w}}^2} &\frac{-w_1^2 }{\norm{\vec{w}}^2}\end{pmatrix}=\frac{1}{\norm{\vec{w}}^2}\begin{pmatrix}-w_2^2 & w_1w_2 \\ w_1w_2 &-w_1^2 \end{pmatrix}\text{.} \end{equation*}
      Sous l’hypothèse cette fois que \(w_2\neq 0\text{,}\) on peut montrer que cette matrice est équivalente après réduction à la matrice \(\frac{1}{\norm{\vec{w}}^2}\begin{pmatrix}1 & -\frac{w_1}{w_2} \\ 0 & 0 \end{pmatrix}\) Dans ce cas, l’espace nul est engendré par \(\left(\frac{w_1}{w_2},1\right)\) ou son multiple \((w_1,w_2)\text{.}\) Toutefois, si \(w_2=0\text{,}\) alors comme précédemment, on ne peut avoir aussi \(w_1=0\text{,}\) ce qui fait que la matrice après réduction est équivalente à \(\frac{1}{\norm{\vec{w}}^2}\begin{pmatrix}0 & 1 \\ 0 & 0 \end{pmatrix}\text{.}\) L’espace nul est engendré par le vecteur \((1,0)\text{,}\) ou encore son multiple \((w_1,0)=(w_1,w_2)\text{.}\) Dans tous les cas, une base de l’espace propre peut s’écrire comme \((w_1,w_2)\text{.}\)

2.

Pour chacune des matrices suivantes, déterminer les valeurs propres et une base de l’espace propre associé à chaque valeur propre.
(a)
\(A_1=\begin{pmatrix} 1& 0\\ -1& 6\end{pmatrix}\)
Réponse.
\(\lambda_1=1,\lambda_2=6\) avec \(Ep(1)=\vspan(5,1)\) et \(Ep(6)=\vspan(0,1)\)
Solution.
Pour les valeurs propres, on calcule d’abord le déterminant de \(A_1-\lambda I\text{:}\)
\begin{align*} \lvert A_1 -\lambda I\rvert &=\begin{vmatrix} 1-\lambda& 0\\ -1& 6-\lambda\end{vmatrix}\\ &=(1-\lambda)(6-\lambda)\text{.} \end{align*}
Ceci donne deux valeurs propres, la première \(\lambda_1=1\) et la seconde \(\lambda_2=6\text{.}\)
On regarde l’espace propre associé à \(\lambda_1\text{.}\) La matrice devient
\begin{equation*} A_1-I=\begin{pmatrix} 0& 0\\ -1& 5\end{pmatrix}\stackrel{-L_2\to L_2}{\sim} \begin{pmatrix} 0& 0\\ 1& -5\end{pmatrix}\text{,} \end{equation*}
qui a comme base de son espace propre le vecteur \((1,1/5)\text{,}\) parallèle à \((5,1)\text{.}\)
On regarde ensuite l’espace propre associé à \(\lambda_2\text{.}\) La matrice devient
\begin{align*} A_1-6I&=\begin{pmatrix} -5& 0\\ -1& 0\end{pmatrix}\\ &\stackrel{L_1/(-5)\to L_1}{\sim} \begin{pmatrix} 1& 0\\ -1& 0\end{pmatrix}\\ \stackrel{L_2+L_1\to L_2}{\sim} \begin{pmatrix} 1& 0\\ 0& 0\end{pmatrix}\text{,} \end{align*}
qui a comme base de son espace propre le vecteur \((0,1)\text{.}\)
(b)
\(A_2=\begin{pmatrix}-9&3\\ 0& -5 \end{pmatrix}\)
Réponse.
\(\lambda_1=-5,\lambda_2=-9\) avec \(Ep(-5)=\vspan((1, 4/3))=\vspan(3,4)\) et \(Ep(-9)=\vspan(1,0)\)
Solution.
Pour les valeurs propres, on calcule d’abord le déterminant de \(A_2-\lambda I\text{:}\)
\begin{align*} \lvert A_2 -\lambda I\rvert &=\begin{vmatrix} -9-\lambda& 3\\ 0& -5-\lambda\end{vmatrix}\\ &=(-9-\lambda)(-5-\lambda)\text{.} \end{align*}
Ceci donne deux valeurs propres, la première \(\lambda_1=-5\) et la seconde \(\lambda_2=-9\text{.}\)
On regarde l’espace propre associé à \(\lambda_1\text{.}\) La matrice devient
\begin{equation*} A_2+5I=\begin{pmatrix} -4& 3\\ 0& 0\end{pmatrix}\stackrel{L_1/(-4)\to L_1}{\sim} \begin{pmatrix} 1& -3/4\\ 0& 0\end{pmatrix}\text{,} \end{equation*}
qui a comme base de son espace propre le vecteur \((3/4,1)\text{,}\) parallèle à \((3,4)\text{.}\)
On regarde ensuite l’espace propre associé à \(\lambda_2\text{.}\) La matrice devient
\begin{align*} A_2+9I&=\begin{pmatrix} 0& 3\\ 0& 4\end{pmatrix}\\ &\stackrel{L_1/(5)\to L_1}{\sim} \begin{pmatrix} 0& 1\\ 0& 4\end{pmatrix}\\ \stackrel{L_2-4L_1\to L_2}{\sim} \begin{pmatrix} 0& 1\\ 0& 0\end{pmatrix}\text{,} \end{align*}
qui a comme base de son espace propre le vecteur \((1,0)\text{.}\)
(c)
\(A_3=\begin{pmatrix} -8& -8\\ -8& -8\end{pmatrix}\)
Réponse.
\(\lambda_1=0,\lambda_2=-16\) avec \(Ep(0)=\vspan(-1, 1)\) et \(Ep(-16)=\vspan(1, 1)\text{.}\)
Solution.
Pour les valeurs propres, on calcule d’abord le déterminant de \(A_3-\lambda I\text{:}\)
\begin{align*} \lvert A_3 -\lambda I\rvert &=\begin{vmatrix} -8-\lambda& -8\\ -8& -8-\lambda\end{vmatrix}\\ &=(-8-\lambda)^2-64\\ &=(-8-\lambda-8)(-8-\lambda+8)\\ &=(-16-\lambda)\lambda\text{.} \end{align*}
Ceci donne deux valeurs propres, la première \(\lambda_1=0\) et la seconde \(\lambda_2=-16\text{.}\)
On regarde l’espace propre associé à \(\lambda_1\text{.}\) La matrice devient
\begin{equation*} A_3=\begin{pmatrix} -8& -8\\ -8& -8\end{pmatrix}\stackrel{L_2-L_1\to L_2}{\sim} \begin{pmatrix} -8& -8\\ 0& 0\end{pmatrix}=\stackrel{L_1/(-8)\to L_1}{\sim}\begin{pmatrix} 1& 1\\ 0& 0\end{pmatrix}\text{,} \end{equation*}
qui a comme base de son espace propre le vecteur \((-1,1)\text{.}\)
On regarde ensuite l’espace propre associé à \(\lambda_2\text{.}\) La matrice devient
\begin{align*} A+16I&=\begin{pmatrix} 8& -8\\ -8& 8\end{pmatrix}\\ &\stackrel{L_1/8\to L_1}{\sim} \begin{pmatrix} 1& -1\\ -8& 8\end{pmatrix}\\ \stackrel{L_2+8L_1\to L_2}{\sim} \begin{pmatrix} 1& -1\\ 0& 0\end{pmatrix}\text{,} \end{align*}
qui a comme base de son espace propre le vecteur \((1,1)\text{.}\)
(d)
\(A_4=\begin{pmatrix} 3& 7 \\ 5& 5 \end{pmatrix}\)
Réponse.
\(\lambda_1=10,\lambda_2=-2\) avec \(Ep(10)=\vspan(1, 1)\) et \(Ep(-2)=\vspan(-7, 5)\text{.}\)
Solution.
Pour les valeurs propres, on calcule d’abord le déterminant de \(A_4-\lambda I\text{:}\)
\begin{align*} \lvert A_4 -\lambda I\rvert &=\begin{vmatrix} 3-\lambda& 7\\ 5& 5-\lambda\end{vmatrix}\\ &=(3-\lambda)(5-\lambda)-35\\ &=\lambda^2-8\lambda+15-35\\ &=(\lambda-10)(\lambda+2)\text{.} \end{align*}
Ceci donne deux valeurs propres, la première \(\lambda_1=10\) et la seconde \(\lambda_2=-2\text{.}\)
On regarde l’espace propre associé à \(\lambda_1\text{.}\) La matrice devient
\begin{equation*} A_4-10I=\begin{pmatrix} -7& -7\\ 5& -5\end{pmatrix}\stackrel{L_1/(-7)\to L_1}{\sim} \begin{pmatrix} 1& -1\\ 5& -5\end{pmatrix}=\stackrel{L_2-5L_1\to L_1}{\sim}\begin{pmatrix} 1& -1\\ 0& 0\end{pmatrix}\text{,} \end{equation*}
qui a comme base de son espace propre le vecteur \((1,1)\text{.}\)
On regarde ensuite l’espace propre associé à \(\lambda_2\text{.}\) La matrice devient
\begin{align*} A+2I&=\begin{pmatrix} 5& 7\\ 5& 7\end{pmatrix}\\ &\stackrel{L_2-L_1\to L_2}{\sim} \begin{pmatrix} 5& 7\\ 0& 0\end{pmatrix}\\ \stackrel{L_1/5\to L_1}{\sim} \begin{pmatrix} 1& 7/5\\ 0& 0\end{pmatrix}\text{,} \end{align*}
qui a comme base de son espace propre le vecteur \((-7/5,1)\text{,}\) parallèle à \((-7,5)\text{.}\)
(e)
\(A_5=\begin{pmatrix} 7& -1 \\ 0& 7\end{pmatrix}\)
Réponse.
\(\lambda_1=7\) et \(Ep(7)=\vspan(1,0)\text{.}\)
Solution.
Pour les valeurs propres, on calcule d’abord le déterminant de \(A_5-\lambda I\text{:}\)
\begin{align*} \lvert A_5 -\lambda I\rvert &=\begin{vmatrix} 7-\lambda& -1\\ 0& 7-\lambda\end{vmatrix}\\ &=(7-\lambda)^2\text{.} \end{align*}
Ceci donne une seule valeur propre,\(\lambda_1=7\text{.}\)
On regarde l’espace propre associé à cette valeur propre. La matrice devient
\begin{equation*} A_5-7I=\begin{pmatrix} 0& -1\\ 0& 0\end{pmatrix}\text{,} \end{equation*}
qui a comme base de son espace propre le vecteur \((1,0)\text{.}\)
(f)
\(A_6=\begin{pmatrix}-1 & 1 & 0 \\ -7 & 3 & 1 \\ -10 & 2 & 3 \end{pmatrix}\)
Réponse.
\(\lambda_1=1,\lambda_2=2\) avec \(Ep(1)=\vspan(1,2,3)\) et \(Ep(2)=\vspan(1,3,4)\text{.}\)
Solution.
Pour les valeurs propres, on commence par calculer le déterminant de \(A_6-\lambda I\text{:}\)
\begin{align*} \lvert A_6-\lambda I\rvert&=\begin{vmatrix}-1-\lambda & 1 & 0 \\ -7 & 3-\lambda & 1 \\ -10 & 2 & 3-\lambda \end{vmatrix}\\ &=(-1-\lambda)\begin{vmatrix} 3-\lambda & 1 \\ 2 & 3-\lambda \end{vmatrix}-\begin{pmatrix}\\ -7 & 1 \\ -10 & 3-\lambda \end{pmatrix}\\ &=(-1-\lambda)((3-\lambda)^2-2)-(-7(3-\lambda)+10)\\ &=(-1-\lambda)(\lambda^2-6\lambda+7)-(7\lambda-11)\\ &=(-\lambda^3+5\lambda^2-\lambda-7)-7\lambda+11\\ &=-\lambda^3+5\lambda^2-8\lambda+4\\ \end{align*}

On utilise Sage pour la factorisation, ce qui donne

\begin{align*} &=-(x - 1)*(x - 2)^2\text{,} \end{align*}
qui s’annule lorsque \(\lambda_1=1\) et \(\lambda_2=2\text{.}\)
Pour le premier espace propre, on regarde la matrice \(A-I\) et l’on détermine une base de son espace nul. On utilise Sage pour effectuer la réduction.
On remarque que la troisième variable est libre. Une base de l’espace nul serait le vecteur \((1/3,2/3,1)\text{,}\) parallèle au vecteur \((1,2,3)\text{.}\)
De même, pour le second espace propre, on obtient avec Sage un système ayant lui aussi une seule variable libre, dont une base est donnée par le vecteur
\begin{align*} \vec{v}_1&=(1/4,3/4,1)\text{,} \end{align*}
parallèle au vecteur \((1,3,4)\text{.}\)
(g)
\(A_7=\begin{pmatrix}1 & 0 & 0 \\ 5 & -3 & 1 \\ 4 & -5 & 3 \end{pmatrix}\)
Réponse.
\(\lambda_1=-2,\lambda_2=1\) et \(\lambda_3=2\) avec \(Ep(-2)=\vspan(0,1,1)\text{,}\)\(Ep(1)=\vspan(1,2,3)\) et \(Ep(2)=\vspan(0,1,5)\text{.}\)
Solution.
On commence par déterminer les valeurs propres en considérant le déterminant de \(A_7-\lambda I\text{:}\)
\begin{align*} \lvert A_7-\lambda I\rvert &=\begin{vmatrix}1-\lambda & 0 & 0 \\ 5 & -3-\lambda & 1 \\ 4 & -5 & 3-\lambda \end{vmatrix}\\ &=(1-\lambda)\begin{vmatrix} -3-\lambda & 1 \\ -5 & 3-\lambda \end{vmatrix}\\ &=(1-\lambda)((-3-\lambda)(3-\lambda)+5)\\ &=(1-\lambda)(\lambda^2-4)\\ &=(1-\lambda)(\lambda-2)(\lambda+2)\text{,} \end{align*}
ce qui donne comme valeur propre \(\lambda_1=-2,\lambda_2=1\) et \(\lambda_3=2\text{.}\)
On détermine les espaces propres en échelonnant les matrices appropriées avec Sage.
Pour l’espace propre associé à \(\lambda_1=-2\text{,}\) on voit une variable libre en \(z\text{.}\) Une base de cet espace propre est donnée par \(\vec{v}_1=(0,1,1)\text{.}\) Pour le deuxième espace propre, on a aussi une seule direction invariante donnée par \(\vec{u}_2=(1/3,2/3,1)\text{,}\) parallèle à \(\vec{v}_2=(1,2,3)\text{.}\) Enfin, pour le dernier espace propre, on trouve le vecteur \(\vec{v}_3=(0,1,5)\) après ajustement.
(h)
\(A_8=\begin{pmatrix} 1 & 1 & -2 \\ 0 & 3 & 0 \\ -2 & 1 & 1\end{pmatrix}\)
Réponse.
\(\lambda_1=-1,\lambda_2=3\) avec \(Ep(-1)=\vspan(1,0,1)\text{,}\)\(Ep(3)=\vspan((-1,0,1),(1,2,0))\text{.}\)
Solution.
Encore une fois, on commence par les valeurs propres. On a
\begin{align*} \lvert A_8-\lambda I\rvert &=\begin{vmatrix} 1-\lambda & 1 & -2 \\ 0 & 3-\lambda & 0 \\ -2 & 1 & 1-\lambda\end{vmatrix}\\ \end{align*}

On interchange les lignes 1 et 2, ce qui a pour effet de changer le signe du déterminant.

\begin{align*} &=-\begin{vmatrix} 0 & 3-\lambda & 0 \\ 1-\lambda & 1 & -2 \\ -2 & 1 & 1-\lambda\end{vmatrix}\\ &=(3-\lambda)\begin{vmatrix} 1-\lambda & -2 \\ -2 & 1-\lambda\end{vmatrix}\\ &=(3-\lambda)((1-\lambda)^2-4)\\ &=(3-\lambda)(1-\lambda-2)(1-\lambda+2)\\ &=(3-\lambda)(-1-\lambda)(3-\lambda)\text{,} \end{align*}
qui offre comme valeurs propres \(\lambda_1=-1\) et \(\lambda_2=3\text{.}\)
Pour les espaces propres, on se tourne une fois de plus vers Sage afin d’échelonner la matrice.
Pour la première valeur propre, on trouve un vecteur propre associé qui est \(\vec{v}_1=(1,0,1)\text{.}\) Pour la seconde valeur propre, il y a deux variables libres et donc, deux directions invariantes associées à cette valeur propre. On trouve \(\vec{u}_1=(1/2,1,0)\text{,}\) parallèle à \(\vec{v}_1=(1,2,0)\) et \(\vec{v}_2=(-1,0,1)\text{.}\)

3.

Soit \(A\text{,}\) une matrice carrée, \(\lambda\text{,}\) une valeur propre et \(\vec{v}\text{,}\) un vecteur propre associé à \(\lambda\text{.}\) Montrer que pour tout \(k\in\mathbb{R}\) non nul, le vecteur \(k\vec{v}\) est aussi un vecteur propre associé à \(\lambda\text{.}\)
Solution.
Cela découle directement du fait que les vecteurs propres sont des directions invariantes et que \(\vec{v}\) et \(k\vec{v}\) ont la même direction. Un calcul montre que
\begin{align*} A(k\vec{v})&=k(A\vec{v}) && \text{propriété du produit matrice vecteur et de la multiplication par un scalaire}\\ &=k(\lambda \vec{v}) && \text{car } \vec{v} \text{ est un vecteur propre associé à } \lambda\\ &=\lambda (k\vec{v}) && \text{commutativité de la multiplication}\text{.} \end{align*}
Le vecteur \(k\vec{v}\) est donc bel et bien un vecteur propre.

4.

Compléter la preuve de la proposition 6.1.18 en démontrant que le scalaire \(r\lambda\) est une valeur propre de la matrice \(rA\) et que la valeur propre \(\lambda\) est aussi une valeur propre de la transposée \(A^T\text{.}\)
Solution.
On commence par le nombre \(r\lambda\) et l’on montre que c’est une valeur propre de \(rA\text{.}\) Il semble plausible que si \(\vec{v}\) est un vecteur propre de \(A\text{,}\) ce soit aussi un vecteur propre de \(rA\text{.}\) On s’en assure en effectuant le calcul.
\begin{align*} (rA)\vec{v}&=r(A\vec{v}) && \text{propriété de la multiplication matricielle par un scalaire}\\ &=r(\lambda\vec{v}) && \text{car } \vec{v} \text{ est un vecteur propre associé à } \lambda\\ &= (r\lambda)\vec{v} && \text{ associativité de la multiplication par un scalaire dans un espace vectoriel}\text{.} \end{align*}
On trouve qu’en effet, \(\vec{v}\) est aussi un vecteur propre de \(rA\) et l’on obtient en même temps la valeur propre \(r\lambda\text{.}\)
Pour le fait que \(\lambda\) est aussi une valeur propre de \(A^T\text{,}\) on ne peut pas procéder de la même manière, car rien ne garantit que le vecteur \(\vec{v}\) sera aussi un vecteur propre de la matrice \(A^T\text{.}\) De toute évidence, on ne connait pas l’effet de \(A^T\) sur \(\vec{v}\text{.}\) On se tourne donc vers la définition.
\begin{align*} \text{det}(A^T-\lambda I)&=\text{det}((A^T-\lambda I)^T) && \text{selon la propriété des déterminants} \knowl{./knowl/xref/thm-detprop.html}{\text{4.2.16}}\\ &=\text{det}((A^T)^T-(\lambda I)^T) &&\text{selon la propriété de la transposée } \knowl{./knowl/xref/prop-transposeeprop.html}{\text{3.4.3}}\\ &=\text{det}(A-\lambda I) &&\text{selon les propriétés de la transposée } \knowl{./knowl/xref/prop-transposeeprop.html}{\text{3.4.3}} \text{et le fait que } I^T=I\text{.} \end{align*}
Puisque le déterminant de \(A^T-\lambda I\) est le même que celui de \(A-\lambda I\text{,}\) il s’ensuit que les valeurs propres seront les mêmes.

5.

Déterminer les valeurs propres de la matrice \(A+I\) en fonction de celles de la matrice \(A\text{.}\)
Indice.
On peut procéder de deux manières. Pour l’une d’elles, peut-on deviner un vecteur propre de \(A+I\text{?}\)
Solution.
On calcule le déterminant approprié. On utilise \(\mu\) comme variable du polynôme caractéristique, laissant \(\lambda\) pour les valeurs propres de \(A\text{.}\)
\begin{align*} \text{det}(A+I-\mu I)&=\text{det}(A+(1-\mu)I)\\ &\text{det}(A-(\mu-1)I)\text{.} \end{align*}
On sait que le membre de droite de cette dernière équation a des solutions lorsque \(\mu-1\) correspond aux valeurs propres de \(A\text{.}\) En posant \(\mu-1=\lambda\) et en isolant \(\mu=\lambda+1\text{,}\) on découvre que les valeurs propres de \(A+I\) sont un de plus que les valeurs propres de \(A\text{.}\)
On aurait aussi pu déduire les valeurs propres en essayant de voir si un vecteur propre de \(A\) est aussi un vecteur propre de \(A+I\text{.}\) On aurait alors eu
\begin{align*} (A+I)\vec{v}&=A\vec{v}+I\vec{v}\\ &=\lambda \vec{v}+\vec{v}\\ &=(\lambda+1)\vec{v}\text{.} \end{align*}
On ne peut, par contre, pas toujours se fier au fait que les vecteurs propres seront les mêmes après une opération sur la matrice (comme la transposée), c’est pourquoi il est bon de trouver des preuves qui ne les utilisent pas.

6.

Soit \(A,B\text{,}\) des matrices carrées et \(\lambda,\mu\text{,}\) une de leurs valeurs propres respectives. On tente de généraliser l’exercice précédent. Pour chaque énoncé suivant, démontrer s’il est vrai et donner un contrexemple s’il est faux.
(a)
Le scalaire \(\lambda+k\) est une valeur propre de a matrice \(A+kI\text{.}\)
Réponse.
C’est vrai.
Solution.
C’est vrai, il suffit de refaire l’une des preuves de l’exercice précédent. Par exemple, en supposant qu’un vecteur propre de \(A\) devrait encore être un vecteur propre de \(A+kI\text{,}\) on trouve
\begin{align*} (A+kI)\vec{v}&=A\vec{v}+kI\vec{v}\\ &=\lambda \vec{v}+k\vec{v}\\ &=(\lambda+k)\vec{v}\text{.} \end{align*}
(b)
Le scalaire \(\lambda+\mu\) est une valeur propre de la matrice \(A+B\text{.}\)
Réponse.
C’est faux
Solution.
En général, ce sera faux, car on ne sait pas si le même vecteur propre est associé à \(\lambda\) et \(\mu\text{.}\) À titre d’exemple, la matrice \(A=\begin{pmatrix}1&0\\ 0 & -1 \end{pmatrix}\) a pour valeur propre \(\lambda_1=1,\lambda_2=-1\text{,}\) la matrice \(B=\begin{pmatrix}1&1\\ 1 & 1 \end{pmatrix}\) a pour valeur propre \(\mu_1=2,\mu_2=0\text{,}\) mais la matrice \(A+B=\begin{pmatrix}2&1\\ 1 & 0 \end{pmatrix}\) a pour valeurs deux nombres irrationnels. En effet
\begin{align*} \lvert B-\mu I\rvert&=\begin{vmatrix}1-\mu&1\\ 1 & 1-\mu \end{vmatrix}\\ &=(1-\mu)^2-1\\ &=(1-\mu-1)(1-\mu+1)\\ &-\mu(2-\mu)\text{,} \end{align*}
mais
\begin{align*} \lvert A+B-\delta I\rvert&=\begin{vmatrix}2-\delta&1\\ 1 & -\delta \end{vmatrix}\\ &=-(2-\delta)\delta-1\\ &=\delta^2-2\delta-1\text{,} \end{align*}
qui s’annule lorsque \(\delta=\frac{2\pm\sqrt{8}}{2}\text{.}\) Les valeurs propres de la somme ne sont donc pas la somme des valeurs propres.
(c)
Si \(\vec{v}\) est tel que \(A\vec{v}=\lambda \vec{v}\) et \(B\vec{v}=\mu \vec{v}\text{,}\) alors \(\lambda+\mu\) est une valeur propre de \(A+B\text{.}\)
Réponse.
C’est vrai
Solution.
Cette fois, un vecteur propre est partagé. On peut penser que ce vecteur propre sera aussi un vecteur propre de la matrice \(A+B\text{.}\) En effet, on a
\begin{align*} (A+B)\vec{v}&=A\vec{v}+B\vec{v}\\ &=\lambda \vec{v}+\mu\vec{v}\\ &(\lambda+\mu)\vec{v}\text{.} \end{align*}
On obtient un vecteur propre associé à \(\lambda+\mu\text{.}\)

7.

Montrer que si \(A\) est une matrice carrée telle que \(A\vec{u}=\lambda \vec{u}\) et \(A^T\vec{v}=\mu \vec{v}\) et que \(\lambda\neq \mu\text{,}\) alors \(\vec{u}\cdot \vec{v}=0\text{.}\) En d’autres mots, les vecteurs propres d’une matrice et ceux de sa transposée sont perpendiculaires s’ils ne sont pas associés à la même valeur propre.
Indice 1.
L’exercice 3.4.3.3 pourrait être utile.
Indice 2.
Montrer que \((A\vec{u})\cdot \vec{v}=\lambda (\vec{u}\cdot \vec{v})\) et \((A\vec{u})\cdot \vec{v}=\mu (\vec{u}\cdot \vec{v})\text{.}\) Conclure que, puisque \(\lambda\neq \mu\text{,}\) on doit avoir \(\vec{u}\cdot\vec{v}=0\text{.}\)
Solution.
On considère le produit scalaire \((A\vec{u})\cdot \vec{v}\text{.}\) Puisque \(\vec{u}\) est un vecteur propre de la matrice \(A\text{,}\) on a alors
\begin{equation*} (A\vec{u})\cdot \vec{v}=\lambda (\vec{u}\cdot \vec{v})\text{.} \end{equation*}
D’un autre côté, avec l’exercice 3.4.3.3, on a que
\begin{equation*} (A\vec{u})\cdot \vec{v}=\vec{u}\cdot(A^T\vec{v})\text{,} \end{equation*}
qui, parce que \(\vec{v}\) est vecteur propre de \(A^T\text{,}\) devient
\begin{equation*} \vec{u}\cdot(A^T\vec{v})=\vec{u}\cdot \mu\vec{v}=\mu (\vec{u}\cdot\vec{v})\text{.} \end{equation*}
On a donc
\begin{align*} \lambda (\vec{u}\cdot \vec{v})&=\mu (\vec{u}\cdot \vec{v})\\ (\lambda-\mu)\vec{u}\cdot\vec{v}&=0 \end{align*}
et puisque \(\lambda\neq \mu\text{,}\) on doit avoir \(\vec{u}\cdot \vec{v}=0\text{.}\)

8.

Soit \(A\text{,}\) une matrice de taille \(2\times 2\) possédant des valeurs propres \(\lambda_1,\lambda_2\text{.}\) Montrer que
\begin{equation*} \lambda_1\lambda_2=\text{det}(A) \end{equation*}
et
\begin{equation*} \lambda_1+\lambda_2=\text{tr}(A) \end{equation*}
\(\text{tr}(A)\) est la trace de la matrice définie à l’exercice 5.4.3.16 comme la somme des éléments sur la diagonale de la matrice \(A\text{.}\)
Solution.
On pose \(A=\begin{pmatrix} a& c\\ b& d \end{pmatrix}\text{.}\) On calcule le polynôme caractéristique et l’on trouve une correspondance entre les valeurs propres et celui-ci.
\begin{align*} \lvert A-\lambda I\rvert&=\begin{vmatrix} a-\lambda& c\\ b& d-\lambda \end{vmatrix}\\ &(a-\lambda)(d-\lambda)-bc\\ &\lambda^2-(a+d)\lambda+(ad-bc)\text{.} \end{align*}
D’un autre côté, si \(\lambda_1,\lambda_2\) sont les valeurs propres, alors le polynôme caractéristique peut s’écrire comme
\begin{align*} k(\lambda-\lambda_1)(\lambda-\lambda_2)&=k\lambda^2-k(\lambda_1+\lambda_2)+k\lambda_1\lambda_2\text{.} \end{align*}
En comparant les deux manières d’écrire le polynôme, on trouve que le facteur \(k=1\) et que \(\lambda_1+\lambda_2=a+d=\text{tr}(A)\) et \(\lambda_1\lambda_2=(ad-bc)=\text{det}(A)\text{.}\)

9.

Soit \(M\text{,}\) une matrice carrée dont toutes les entrées sont supérieures ou égales à \(0\) avec la propriété additionnelle que la somme des entrées de chaque ligne donne \(1\text{.}\) Déterminer un vecteur et une valeur propre de \(M\text{.}\)
Solution.
On cherche une solution à l’équation \(M\vec{v}=\lambda \vec{v}\text{.}\) Le produit \(M\vec{v}\) a, dans chaque entrée, le produit scalaire des lignes de \(M\) avec le vecteur \(\vec{v}\text{.}\) Afin d’utiliser l’information sur la somme des lignes, on pose \(\vec{v}=(1,1,\ldots , 1)\text{.}\) On obtient \(M\vec{v}=\vec{v}\text{,}\) un vecteur propre dont la valeur propre est \(\lambda=1\text{.}\)

10.

Soit \(A,B\text{,}\) des matrices \(n\times n\text{.}\) Dans cet exercice, on s’intéresse aux valeurs propres des produits \(AB\) et \(BA\text{.}\)
(a)
Montrer que \(\lambda=0\) est une valeur propre de \(AB\) si et seulement si c’est aussi une valeur propre de \(BA\text{.}\)
Indice.
Si \(\lambda=0\text{,}\) alors \(\det(AB-0 I)=\text{det}(AB)\text{.}\)
Solution.
Si \(\lambda=0\) est une valeur propre de \(AB\text{,}\) alors \(\det(AB-0I)=\det(AB)=0\text{.}\) Or comme
\begin{align*} \text{det}(BA-0I)&=\text{det}(BA)\\\ &=\text{det}(B)\text{det}(A) && \text{ selon } \knowl{./knowl/xref/thm-detprop.html}{\text{4.2.16}}\\ &=\text{det}(A)\text{det}(B) && \text{ commutativité } \\ &=\text{det}(AB) && \text{ selon } \knowl{./knowl/xref/thm-detprop.html}{\text{4.2.16}}\\ &=0&& \text{par hypothèse}\text{,} \end{align*}
l’implication est vraie d’un côté. En échangeant le rôle de \(A,B\) dans la preuve ci-dessus, on montre que si \(0\) est une valeur propre de \(BA\text{,}\) c’est aussi une valeur propre de \(AB\text{.}\)
(b)
Montrer que si \(\lambda\neq 0\) et que \(\vec{v}\) est un vecteur propre de \(AB\) associé à \(\lambda\text{,}\) alors le vecteur \(B\vec{v}\) est non nul. Expliquer pourquoi il est nécessaire de supposer que \(\lambda\neq 0\text{.}\)
Solution.
On procède par contradiction en supposant que \(B\vec{v}=\vec{0}\text{.}\) Puisque \(\vec{v}\) est un vecteur propre de \(AB\text{,}\) on doit avoir
\begin{align*} \lambda \vec{v}&=AB\vec{v}\\ &=A(B\vec{v})&& \text{par associativité}\\ &=A\vec{0}&& \text{ par hypothèse additionnelle}\\ &=\vec{0}&& \text{toujours vraie}\text{.} \end{align*}
On se retrouve dans la situation où \(\lambda \vec{v}=\vec{0}\text{.}\) En vertu de la propriété sur les espaces vectoriels, on doit avoir \(\lambda=0\) ou \(\vec{0}\text{.}\) La première possibilité est impossible par hypothèse du problème et la seconde est impossible par définition d’un vecteur propre. Il est donc impossible d’avoir le vecteur \(B\vec{v}=\vec{0}\text{.}\)
Il était nécessaire d’avoir l’hypothèse \(\lambda\neq 0\) pour forcer la contradiction sur le vecteur propre qui est nul. Ainsi, dans une situation où la valeur propre est \(0\text{,}\) il est possible que \(B\vec{v}=\vec{0}\text{.}\)
(c)
Montrer que si \(\lambda\neq 0\) est une valeur propre de \(AB\) et que \(\vec{v}\) est un vecteur propre associé, alors \(B\vec{v}\) est un vecteur propre de \(BA\text{.}\) Conclure que \(\lambda\) est aussi une valeur propre de \(BA\text{.}\)
Solution.
Soit \(\vec{v}\text{,}\) un vecteur propre de \(AB\) associé à la valeur propre \(\lambda\text{.}\) On prétend que \(B\vec{v}\) est un vecteur propre de \(BA\text{.}\) On vérifie en calculant
\begin{align*} BA(B\vec{v})&=B(AB\vec{v}) && \text{par associativité}\\ &=B\lambda\vec{v} && \text{ puisque } \vec{v} \text{est un vecteur propre de } AB\\ &=\lambda (B\vec{v})\text{.} \end{align*}
Ainsi, le vecteur est un vecteur propre, si celui-ci est non nul. La partie précédente a montré que dans le cas \(\lambda \neq 0\text{,}\) le vecteur \(B\vec{v}\) est bel et bien non nul.
(d)
Montrer que si \(\lambda\neq 0\) et que \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k\) sont des vecteurs formant une base de \(E_{\lambda}(AB)\) (donc des vecteurs propres de \(AB\)), alors les vecteurs \(B\vec{v}_1,B\vec{v}_2,\ldots , B\vec{v}_k\) sont indépendants. Expliquer pourquoi il est nécessaire de supposer que \(\lambda\neq 0\text{.}\)
Solution.
Soit \(c_1,c_2,\ldots c_k\text{,}\) des nombres tels que
\begin{equation*} c_1B\vec{v}_1+c_2B\vec{v}_2,\ldots + c_kB\vec{v}_k=\vec{0}\text{.} \end{equation*}
En multipliant par \(A\) cette équation, on a
\begin{align*} \vec{0}&=A\vec{0}\\ &=A(c_1B\vec{v}_1+c_2B\vec{v}_2,\ldots + c_kB\vec{v}_k)\\ &=AB(c_1\vec{v}_1+c_2\vec{v}_2,\ldots + c_k\vec{v}_k)\\ >&=\lambda(c_1\vec{v}_1+c_2\vec{v}_2,\ldots + c_k\vec{v}_k) && \text{ car les vecteurs forment une base de l'espace propre}\text{.} \end{align*}
Puisque \(\lambda\) est non nul, il faut que le vecteur \(c_1\vec{v}_1+c_2\vec{v}_2,\ldots + c_k\vec{v}_k\) le soit, or, comme les vecteurs \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k\) sont indépendants, on doit avoir \(c_1=c_2=\cdots c_k=0\text{,}\) ce qui montre que les vecteurs \(B\vec{v}_1,B\vec{v}_2,\ldots , B\vec{v}_k\) sont aussi indépendants.
Si \(\lambda\) avait pu être nul, on n’aurait pas été en mesure de conclure qui de \(\lambda\) ou du vecteur \(c_1\vec{v}_1+c_2\vec{v}_2,\ldots + c_k\vec{v}_k\) aurait contribué à faire du produit le vecteur nul.
(e)
Conclure de la partie précédente que \(\text{dim}(E_{\lambda}(AB))\leq \text{dim}(E_{\lambda}(BA)) \) et que la multiplicité géométrique de \(\lambda\) pour \(AB\) est inférieure ou égale à celle pour \(BA\text{.}\)
Solution.
La dimension de l’espace \(E_{\lambda}(BA)\) correspond au nombre de vecteurs dans une base. Ces vecteurs seront indépendants. Puisque les vecteurs \(B\vec{v}_1,B\vec{v}_2,\ldots , B\vec{v}_k\) sont eux-mêmes indépendants, la dimension doit être au moins égale à \(k\text{,}\) car si elle était inférieure, cela contredirait la proposition 5.2.26. Comme il y a \(k\) vecteurs dans une base de \(E_{\lambda}(AB)\text{,}\) on a \(\text{dim}(E_{\lambda}(AB))\leq \text{dim}(E_{\lambda}(BA)) \)
(f)
Montrer que \(\text{dim}(E_{\lambda}(BA))\leq \text{dim}(E_{\lambda}(AB))\text{.}\) Que peut-on conclure?
Indice.
Il suffit d’interchanger les rôles de \(A\) et \(B\) dans les parties précédentes.
Solution.
En inversant le rôle de \(A\) et de \(B\text{,}\) l’exercice 6.1.4.10.b permet aussi de conclure que \(A\vec{v}\) est non nul si \(\vec{v}\) est un vecteur propre de \(BA\text{.}\) De plus, la partie 6.1.4.10.c permet de conclure que \(A\vec{v}\) est un vecteur propre de \(AB\) associé à \(\lambda\text{.}\) On peut ensuite utiliser le reste de l’exercice pour montrer que \(\text{dim}(E_{\lambda}(BA))\leq \text{dim}(E_{\lambda}(AB))\text{.}\)
En combinant les deux inégalités, on montre que \(\text{dim}(E_{\lambda}(AB))= \text{dim}(E_{\lambda}(BA))\) et que les multiplicités géométriques sont égales.
Ceci montre que les matrices \(AB\) et \(BA\) ont les mêmes valeurs propres, mais on ne sait rien sur leur multiplicité algébrique respective. Il est possible, mais plus difficile, de montrer qu’en fait, les matrices \(AB\) et \(BA\) ont le même polynôme caractéristique et que leurs valeurs propres ont les mêmes multiplicités algébriques. On a toutefois montré que les multiplicités géométriques sont les mêmes.

11.

On s’intéresse aux vecteurs et valeurs propres d’un cisaillement défini à l’exercice 2.3.6.10. Déterminer les valeurs propres d’un cisaillement ainsi qu’une base de l’espace propre pour chaque valeur propre trouvée.
Réponse.
Autant dans le cas horizontal que dans le cas vertical, la seule valeur propre est \(\lambda=1\text{.}\) Pour le cisaillement horizontal, l’espace propre est engendré par le vecteur \((1,0)\) et pour le cisaillement vertical, c’est plutôt par le vecteur \((0,1)\)
Solution.
Comme les matrices de cisaillement horizontal et vertical sont triangulaires, on peut utiliser la proposition 6.1.19 afin de trouver que, dans les deux cas, la seule valeur propre est \(\lambda=1\text{.}\) Pour l’espace propre d’un étirement horizontal, on trouve \(Ch_k-I=\begin{pmatrix} 0&k\\ 0 & 0 \end{pmatrix} \text{.}\) Si \(k=0\text{,}\) la transformation est l’identité et tous les vecteurs sont invariants. Dans le cas contraire, on peut diviser par \(k\) la dernière ligne de la matrice et obtenir que l’espace propre est engendré par le vecteur \((1,0)\text{.}\) Dans le cas du cisaillement vertical, on a plutôt \(Cv_k-I=\begin{pmatrix} 0&0\\ k & 0 \end{pmatrix} \text{,}\) qui, sous la même condition que \(k\neq 0\text{,}\) a comme générateur de son espace nul le vecteur \((0,1)\text{.}\)

12.

Répondre aux questions suivantes sans déterminer la matrice \(A\text{.}\)
(a)
Trouver \(A\vec{x}\) si \(\vec{x}=(2,3)\) et que \(\vec{v}_1=(1,1)\) et \(\vec{v}_2=(-2,3)\) sont des vecteurs propres de \(A\) associés respectivement aux valeurs propres \(\lambda_1=5\) et \(\lambda_2=-5\text{.}\)
Réponse.
\(A\vec{x}=(22,-3)\)
Solution.
On écrit le vecteur \(\vec{x}\) comme une combinaison linéaire des vecteurs propres. On doit donc résoudre le système
\begin{equation*} \vecd{2}{3}=a\vecd{1}{1}+b\vecd{-2}{3}\text{.} \end{equation*}
On trouve \(a=\frac{12}{5}\) et \(\frac{1}{5}\) en utilisant n’importe quelle méthode. Pour trouver \(A\vec{x}\text{,}\) on a alors
\begin{align*} A\vec{x}&=A\left(\frac{12}{5}\vecd{1}{1}+\frac{1}{5}\vecd{-2}{3}\right)\\ &=\frac{12}{5}A\vecd{1}{1}+\frac{1}{5}A\vecd{-2}{3}\\ &=\frac{12}{5}5\vecd{1}{1}+\frac{1}{5}(-5)\vecd{-2}{3}\\ &=\vecd{12}{12}-\vecd{-10}{15}\\ &=\vecd{22}{-3}\text{.} \end{align*}
(b)
Trouver \(B^{-1}\vec{y}\) si \(\vec{y}=(4,3)\) et si \(\vec{v}_1=(2,5)\) et \(\vec{v}_2=(5,2)\) sont des vecteurs propres de \(B\) associés respectivement aux valeurs propres \(\lambda_1=\frac{1}{3}\) et \(\lambda_2=\frac{1}{9}\text{.}\)
Réponse.
\(B^{-1}\vec{y}=(32,17)\)
Solution.
Selon la proposition 6.1.18, les vecteurs propres d’une matrice inverse sont les mêmes que la matrice originale, avec les valeurs propres inversées. En trouvant une combinaison linéaire des vecteurs propres donnant \(\vec{y}\text{,}\) on aura toutes les informations nécessaires pour trouver \(B^{-1}\vec{y}\text{.}\) On doit donc trouver \(a,b\) tels que
\begin{equation*} \begin{pmatrix}4\\ 3\end{pmatrix}=a\begin{pmatrix}2\\ 5\end{pmatrix}+b\begin{pmatrix}5\\ 2\end{pmatrix}\text{.} \end{equation*}
La solution de ce système est \(a=\frac{1}{3}\text{,}\)\(b={2}{3}\text{.}\) On a ainsi pour le vecteur \(B^{-1}\vec{y}\)
\begin{align*} B^{-1}\vec{y}&=B^{-1}\left(\frac{1}{3}\vecd{2}{5}+\frac{2}{3}\vecd{5}{2}\right)\\ &=\frac{1}{3}B^{-1}\vecd{2}{5}+\frac{2}{3}B^{-1}\vecd{5}{2}\\ &=\frac{1}{3}3\vecd{2}{5}+\frac{2}{3}9\vecd{5}{2} &&\text{ selon} \knowl{./knowl/xref/prop-effetvalpropre.html}{\text{6.1.18}}\\ &=\vecd{2}{5}+\vecd{30}{12}\\ &=\vecd{32}{17}\text{.} \end{align*}

13.

Soit \(A\text{,}\) une matrice et \(\vec{u},\vec{v}\) deux vecteurs non nuls tels que
\begin{align*} A\vec{u}&=\vec{v} & A\vec{v}&=\vec{u}\text{.} \end{align*}
Montrer qu’une des valeurs propres de \(A\) est nécessairement \(1\) ou \(-1\text{.}\)
Indice.
Considérer \(A(\vec{u}+\vec{v})\text{.}\)
Solution.
On cherche un vecteur \(\vec{w}\) tel que \(A\vec{w}=\lambda\) avec \(\lambda\in\{-1,1\}\text{.}\) Puisque \(A\vec{u}=\vec{v}\text{,}\) \(A\vec{v}=\vec{u}\) et que \(A\) est une transformation linéaire, on peut prendre la somme de ces deux équations pour obtenir
\begin{align*} A\vec{u}+A\vec{v}&=\vec{v}+\vec{u}\\ A(\vec{u}+\vec{v})&=\vec{u}+\vec{v} && \text{par linéarité à gauche et commutativité à droite}\text{.} \end{align*}
On a donc trouvé un vecteur \(\vec{w}=\vec{u}+\vec{v}\) pour lequel \(A\vec{w}=\vec{w}\text{.}\) Si ce vecteur est non nul, c’est un vecteur propre associé à la valeur propre \(1\text{.}\)
Toutefois, si \(\vec{w}=\vec{0}\text{,}\) alors ce ne peut pas être un vecteur propre. Mais dans ce cas, \(\vec{v}=-\vec{u}\) et l’équation
\begin{equation*} A\vec{u}=\vec{v}=-\vec{u} \end{equation*}
montre que \(\vec{u}\) est un vecteur propre associé à \(-1\text{.}\)

14.

Montrer que si \(\vec{u},\vec{v}\) sont des vecteurs propres tels que \(\vec{u}+\vec{v}\) est aussi un vecteur propre, alors \(\vec{u},\vec{v}\) sont associés à la même valeur propre.
Solution.
Si \(\vec{u}\) et \(\vec{v}\) sont parallèles, ils ont nécessairement la même valeur propre, selon l’exercice 6.1.4.3. Soit \(\lambda_{\vec{u}},\lambda_{\vec{v}}\text{,}\) les valeurs propres associées respectivement à \(\vec{u},\vec{v}\text{.}\) Puisque \(\vec{u}+\vec{v}\) est un vecteur propre, il existe un \(\lambda\) pour lequel
\begin{equation*} A(\vec{u}+\vec{v})=\lambda(\vec{u}+\vec{v})\text{.} \end{equation*}
En développant les deux côtés, on trouve
\begin{align*} A\vec{u}+A\vec{v}&=\lambda\vec{u}+\lambda \vec{v}\\ \lambda_{\vec{u}}\vec{u}+\lambda_{\vec{v}}\vec{v}&=\lambda\vec{u}+\lambda \vec{v}\\ (\lambda_{\vec{u}}-\lambda)\vec{u}+(\lambda_{\vec{v}}-\lambda)\vec{v}&=\vec{0}\text{.} \end{align*}
Puisque les vecteurs sont non parallèles, ils sont indépendants. On doit donc avoir \(\lambda_{\vec{u}}-\lambda=0\) et \(\lambda_{\vec{v}}-\lambda=0\text{,}\) entrainant que \(\lambda_{\vec{u}}=\lambda_{\vec{v}}=\lambda\text{.}\)

15.

Considérer la matrice triangulaire suivante:
\begin{equation*} A=\begin{pmatrix} 1&2&3&4\\ 0&3&x&7\\ 0&0&1&-1\\ 0&0&0&2 \end{pmatrix}\text{.} \end{equation*}
Décrire les dimensions possibles pour \(Ep_{1}(A)\) en fonction de \(x\text{.}\) (Pourquoi sait-on que \(\lambda=1\) est une valeur propre?)
Solution.
On échelonne la matrice \(A-I\) afin de déterminer une base de l’espace propre. On a alors
\begin{align*} A-I&=\begin{pmatrix} 0&2&3&4\\ 0&2&x&7\\ 0&0&0&-1\\ 0&0&0&1 \end{pmatrix}\\ &\begin{array}{l} L_1-4L_4\to L_1\\ L_2-7L_4\to L_2 \\ L_3+L_4\to L+3\\ \sim\end{array}\begin{pmatrix} 0&2&3&0\\ 0&2&x&0\\ 0&0&0&0\\ 0&0&0&1 \end{pmatrix}\\ &\begin{array}{l} L_2-L_1\to L_2\\ L_3\leftrightarrow L_4 \sim \end{array}\begin{pmatrix} 0&2&3&0\\ 0&0&x-3&0\\ 0&0&0&1\\ 0&0&0&0 \end{pmatrix}\text{.} \end{align*}
Comme prévu, l’espace nul est au moins à dimension \(1\) avec la première variable libre. La deuxième et la quatrième sont toujours pivots, indépendamment de la valeur de \(x\text{.}\) Pour la troisième variable, elle sera pivot si \(x\neq 3\) et libre dans les autres cas. L’espace propre est donc à deux dimensions si \(x=3\) et à une dimension autrement.

16.

Une matrice \(A\) est dite nilpotente s’il existe un entier \(k\) pour lequel \(A^k=O\text{.}\) La plus petite valeur de \(k\) pour laquelle \(A^k=O\) est appelé l’indice de nilpotence. On dit aussi que \(A\) est nilpotente d’ordre \(k\text{.}\)
(a)
Montrer que \(A=\begin{pmatrix}6&-9\\ 4& -6\end{pmatrix}\) est nilpotente et donner l’indice.
Réponse.
L’indice de nilpotence est \(2\text{.}\)
Solution.
On commence par calculer les puissances de la matrice \(A\text{,}\) afin de voir si l’on obtient la matrice nulle. Puisque
\begin{equation*} A^2=\begin{pmatrix}6\cdot 6-9\cdot 4& -6\cdot 9+9\cdot 6 \\ 4\cdot 6-6\cdot 4& -4\cdot 9+6\cdot 6 \end{pmatrix}=\begin{pmatrix}0& 0\\ 0& 0 \end{pmatrix}\text{,} \end{equation*}
la matrice est nilpotente et l’indice de nilpotence est \(2\text{.}\)
(b)
Montrer que \(B=\begin{pmatrix} 2& 2& -2 \\ 5& 1& -3 \\ 1 & 5& -3\end{pmatrix}\) est nilpotente d’ordre \(3\text{.}\)
Solution.
On calcule la troisième puissance de la matrice. On utilise Sage.
La matrice est bien nilpotente d’ordre 3.
(c)
Montrer que \(C=\begin{pmatrix} 1& 2& 3 \\ 1& 2& 3 \\ -1 & -2& -3\end{pmatrix}\) est nilpotente d’ordre \(2\text{.}\)
Solution.
On calcule la deuxième puissance de la matrice. On utilise Sage.
La matrice est bien nilpotente d’ordre 2.
(d)
Montrer que si \(A\) est nilpotente, la seule valeur propre de \(A\) est \(\lambda=0\text{.}\)
Solution.
Soit \(\lambda\text{,}\) une valeur propre de \(A\) et \(k\text{,}\) l’indice de nilpotence. Selon la proposition 6.1.18, le nombre \(\lambda^k\) est une valeur propre de \(A^k\text{.}\) Comme \(A\) est nilpotente d’ordre \(k\text{,}\) la matrice \(A^k=O\) et toutes ses valeurs propres sont nulles. On a donc \(\lambda^k=0\text{,}\) ce qui implique que \(\lambda=0\text{.}\)

17.

Soit \(\begin{pmatrix}a& c\\ b& d\end{pmatrix}\text{,}\) une matrice telle que \(a+c=b+d\text{.}\) Déterminer les valeurs et vecteurs propres.
(a)
Montrer que \(\vec{v}=(1,1)\) est un vecteur propre de \(A\) et déterminer la valeur propre associée.
Réponse.
\(\lambda_1=a+c\)
Solution.
On calcule le produit matrice vecteur:
\begin{align*} \begin{pmatrix}a & c\\ b & d \end{pmatrix}\begin{pmatrix}1 \\ 1\end{pmatrix}&=\begin{pmatrix} a+c \\ b+d\end{pmatrix}\\ &=\begin{pmatrix} a+c \\ a+c\end{pmatrix} &&\text{par hypothèse}\\ &=(a+c)\begin{pmatrix}1 \\ 1\end{pmatrix}\text{.} \end{align*}
Le vecteur est donc effectivement un vecteur propre et la valeur propre associée est \(a+c\text{.}\)
(b)
Trouver l’autre valeur propre et un vecteur propre lui étant associé.
Solution.
Selon l’exercice 6.1.4.8, la somme des valeurs propres doit être égale à la trace de la matrice, soit la somme des éléments sur la diagonale principale (\(a+d\)). On a donc
\begin{align*} \lambda_1+\lambda_2&=a+d\\ a+c+\lambda_2&=a+d\\ \lambda_2=d-c\text{.} \end{align*}
Avec la seconde valeur propre, on peut trouver un vecteur propre associé en regardant l’espace nul de la matrice \(A-(d-c)I\text{:}\)
\begin{align*} A-(d-c)I &=\begin{pmatrix}a-(d-c)& c\\ b& d-(d-c)\end{pmatrix}\\ &=\begin{pmatrix}a+c-d& c\\ b& c\end{pmatrix}\\ &=\begin{pmatrix} b+d-d& c\\ b& c\end{pmatrix}\\ &=\begin{pmatrix} b& c\\ b& c\end{pmatrix}&&\text{par hypothèse}\\ &\stackrel{L_2-L_1\to L_2}{\sim}\begin{pmatrix} b& c\\ 0& 0\end{pmatrix}\text{.} \end{align*}
Un vecteur propre est donc \(\left(-\frac{c}{b},1\right)=(-c,b)\) si \(b\neq 0\) et \((1,0)\) si \(b=0\) et \(c\neq 0\text{.}\) Dans l’éventualité où \(b=c=0\text{,}\) on doit alors avoir par hypothèse \(a=d\text{,}\) la matrice est un multiple de la matrice identité et tous les vecteurs sont des directions invariantes.

18.

Soit \(\vec{u},\vec{v}\in \mathbb{R}^n\) et \(A=\vec{u}\vec{v}^T\text{,}\) tel que défini à l’exercice 3.2.3.16.
(a)
Montrer que \(\vec{u}\) est un vecteur propre de la matrice \(A\text{.}\) Quelle est la valeur propre associée?
Réponse.
\(\lambda=\vec{v}\cdot\vec{u}\)
Solution.
On a
\begin{align*} A\vec{u}&=(u\vec{v}^T)\vec{u}\\ &=\vec{u}(\vec{v}^T\vec{u}) && \text{associativité du produit matriciel}\\ &\vec{u}(\vec{v}\cdot \vec{u})&&\text{selon l'exercice } \knowl{./knowl/xref/exo-vectranspose.html}{\text{3.2.3.16}}\\ &(\vec{v}\cdot \vec{u})\vec{u}\text{.} \end{align*}
Le vecteur \(\vec{u}\) est donc un vecteur propre associé à la valeur propre \(\vec{v}\cdot \vec{u}\text{.}\)
(b)
Dans le cas où les vecteurs sont dans \(\mathbb{R}^2\text{,}\) déterminer une autre valeur propre de \(A\text{.}\)
Indice.
Quel est le rang de \(A\text{?}\)
Réponse.
\(\lambda_2=0\)
Solution.
Puisque \(A\) est de rang \(1\) selon l’exercice 3.2.3.16, la matrice n’est pas inversible selon le théorème de la matrice inverse. Toujours selon ce théorème, l’une des valeurs propres de \(A\) doit être nulle.
Cela se vérifié également en utilisant l’exercice 6.1.4.8. On pose \(\vec{u}=\begin{pmatrix} u_1\\ u_2\end{pmatrix}\) et \(\vec{v}=\begin{pmatrix} v_1\\ v_2\end{pmatrix}\text{.}\) On a alors
\begin{equation*} \vec{u}\vec{v}^T=\begin{pmatrix} u_1v_1 &u_1v_2\\ u_2v_1& u_2v_2\end{pmatrix} \end{equation*}
Si \(\lambda_1=\vec{v}\cdot \vec{u}=(v_1u_1+v_2u_2)\) et que l’on doit avoir \(\lambda_1+\lambda_2=\text{tr}(A)=u_1v_1+u_2v_2\text{,}\) on voit qu’on doit avoir \(\lambda_2=0\text{.}\)

19. Fibonacci.

La suite de Fibonacci est bien connue en mathématiques. C’est une suite définie par \(f_0=0,f_1=1\) et \(f_n=f_{n-1}+f_{n-2}\text{.}\) Les \(n+1\) premiers nombres peuvent être obtenus par Sage à l’aide de la fonction suivante.
L’objectif de cet exercice est d’apporter une perspective d’algèbre linéaire à cette suite et de déterminer une formule pour \(f_n\) sans avoir à calculer les nombres précédents.
(a)
On pose \(\vec{x}_n=\begin{pmatrix} f_{n}\\ f_{n-1}\end{pmatrix}\) pour \(n\geq 1\) et \(\vec{x}_0=(0,1)\text{.}\) Déterminer une matrice \(A\in \mathcal{M}_{2\times 2}\) qui permet d’avoir
\begin{equation*} \vec{x}_{n+1}=A\vec{x}_n\text{.} \end{equation*}
On aurait pu commencer par le vecteur \(\vec{x}_1=(1,0)=(f_1,f_0)\text{,}\) qui aurait contenu les deux premiers termes de la suite. On peut toutefois argumenter que \(f_{-1}=1\) en travaillant avec l’équation à l’envers. C’est un choix arbitraire qui fera l’affaire pour la suite.
Réponse.
\(A=\begin{pmatrix} 1&1 \\ 1& 0 \end{pmatrix}\)
Solution.
Le vecteur \(\vec{x}_{n+1}\) contient \(f_{n+1}\) et \(f_{n}\text{.}\) On peut poser
\begin{align*} f_{n+1}&=f_{n-1}+f_{n}\\ f_n&=f_n \end{align*}
pour avoir un “système” à deux équations et deux inconnues. On peut réécrire sous la forme
\begin{equation*} \vecd{f_{n+1}}{f_n}=\begin{pmatrix} 1&1 \\ 1& 0 \end{pmatrix}\vecd{f_n}{f_{n-1}}\text{.} \end{equation*}
La matrice est donc \(A=\begin{pmatrix} 1&1 \\ 1& 0 \end{pmatrix}.\)
(b)
Calculer \(\vec{x}_1=A\vec{x}_0\text{,}\)\(\vec{x}_2=A\vec{x}_1=A^2\vec{x}_0\) et \(\vec{x}_3\text{.}\) Donner une formule en fonction de \(A\) et \(x_0\) pour \(f_n\text{.}\)
Réponse.
\(\vec{x}_1=(1,0)\text{,}\)\(\vec{x}_2=(1,1)\text{,}\)\(\vec{x}_3=(2,1)\text{.}\) En général, \(f_n\) est la première composante de \(A^n\vec{x}_0\text{.}\)
(c)
Trouver \(f_{100}\) à l’aide de cette matrice et de Sage. Vérifier la réponse à l’aide de la fonction fibo définie dans l’introduction.
Réponse.
\(f_{100}=354224848179261915075\)
Solution.
A=matrix([[1,1],[1,0]])
x0=vector([0,1])
show(A^100*x0[0])
Bloc de code 6.1.20. Le code de la solution
(d)
Pour la suite, il pourra être pratique d’utiliser le fait que si \(x=\frac{1+\sqrt{5}}{2},y=\frac{1-\sqrt{5}}{2}\text{,}\) alors
\begin{equation*} \frac{1}{x}=-y \end{equation*}
et donc
\begin{equation*} \frac{1}{y}=-x\text{.} \end{equation*}
Démontrer ce fait
Solution.
Il suffit de calculer \(1/x\)
\begin{align*} \frac{1}{x}&=\frac{2}{1+\sqrt{5}}\\ &=\frac{2}{1+\sqrt{5}}\frac{1-\sqrt{5}}{1-\sqrt{5}}\\ &=\frac{2(1-\sqrt{5})}{1-5}\\ &=\frac{2(1-\sqrt{5})}{-4}\\ &=-\frac{1-\sqrt{5}}{2}\\ &=-\frac{1}{y}\text{.} \end{align*}
(e)
Trouver les valeurs propres de la matrice \(A\) et le vecteur propre de chacune.
Réponse.
La première valeur propre est \(\lambda_1=\frac{1-\sqrt{5}}{2}\) avec son vecteur propre \(\vec{v}_1=(\lambda_1,1)\) et la deuxième valeur propre est \(\lambda_2=\frac{1+\sqrt{5}}{2}\) avec son vecteur propre \(\vec{v}_1=(\lambda_2,1)\text{.}\)
Solution.
On a
\begin{align*} \text{det}(A-\lambda I)&=\begin{vmatrix}1-\lambda&1 \\ 1& -\lambda\end{vmatrix}\\ &=(1-\lambda)(-\lambda)-1\\ &=\lambda^2-\lambda-1\text{.} \end{align*}
Ce polynôme s’annule lorsque \(\lambda_1=\frac{1-\sqrt{5}}{2}\) et \(\lambda_2=\frac{1+\sqrt{5}}{2}\text{.}\) On remarque que ces deux valeurs sont les nombres de la partie 6.1.4.19.d. Pour les espaces propres, on a d’abord pour \(\lambda_1\)
\begin{align*} \begin{pmatrix}1-\frac{1-\sqrt{5}}{2}&1 \\ 1& -\frac{1-\sqrt{5}}{2}\end{pmatrix}&=\begin{pmatrix}\frac{1+\sqrt{5}}{2}&1 \\ 1& -\lambda_1\end{pmatrix}\\ &=\begin{pmatrix}\lambda_2&1 \\ 1& -\lambda_1\end{pmatrix}\\ &\begin{array}{l}L_2-\frac{1}{\lambda_2}L_1\to L_2\\ \sim\end{array}\begin{pmatrix}\lambda_2&1 \\ 0& -\lambda_1-\frac{1}{\lambda_2}\end{pmatrix}\\ &=\begin{pmatrix}\lambda_2&1 \\ 0& 0\end{pmatrix}&& \text{ car } -\lambda_1-\frac{1}{\lambda_2}=0\\ &\begin{array}{l}L_1/\lambda_2\to L_2\\ \sim\end{array}\begin{pmatrix}1&1/\lambda_2 \\ 0& 0\end{pmatrix}\\ &=\begin{pmatrix}1&-\lambda_1 \\ 0& 0\end{pmatrix}&& \text{ car } \frac{1}{\lambda_2}=-\lambda_1\text{.} \end{align*}
On trouve donc un vecteur propre \(\vec{v}_1=(\lambda_1,1)\text{.}\)
De la même manière, on trouve
\begin{align*} \begin{pmatrix}1-\frac{1+\sqrt{5}}{2}&1 \\ 1& -\frac{1+\sqrt{5}}{2}\end{pmatrix}&=\begin{pmatrix}\frac{1-\sqrt{5}}{2}&1 \\ 1& -\lambda_2\end{pmatrix}\\ &=\begin{pmatrix}\lambda_1&1 \\ 1& -\lambda_2\end{pmatrix}\\ &\begin{array}{l}L_2-\frac{1}{\lambda_1}L_1\to L_2\\ \sim\end{array}\begin{pmatrix}\lambda_1&1 \\ 0& -\lambda_2-\frac{1}{\lambda_1}\end{pmatrix}\\ &=\begin{pmatrix}\lambda_1&1 \\ 0& 0\end{pmatrix}&& \text{ car } -\lambda_2-\frac{1}{\lambda_1}=0\\ &\begin{array}{l}L_1/\lambda_1\to L_2\\ \sim\end{array}\begin{pmatrix}1&1/\lambda_1 \\ 0& 0\end{pmatrix}\\ &=\begin{pmatrix}1&-\lambda_2 \\ 0& 0\end{pmatrix}&& \text{ car } \frac{1}{\lambda_1}=-\lambda_2\text{,} \end{align*}
donnant le vecteur \(\vec{v}_2=(\lambda_2,1)\) associé à \(\lambda_2\text{.}\)
(f)
Écrire le vecteur \(\vec{x}_0\) comme une combinaison linéaire des vecteurs propres de \(A\text{.}\)
Réponse.
\(\vecd{0}{1}=\frac{\sqrt{5}(1+\sqrt{5})}{10}\vec{v}_1+\frac{\sqrt{5}(1-\sqrt{5})}{10}\vec{v}_2\)
Solution.
Il faut trouver \(a,b\) tels que
\begin{equation*} \vecd{0}{1}=a\vecd{\lambda_1}{1}+b\vecd{\lambda_2}{1}\text{.} \end{equation*}
Sous forme matricielle, on cherche à résoudre la matrice augmentée
\begin{equation*} \left(\begin{array}{cc|c} \lambda_1 & \lambda_2 & 0\\ 1&1&1\end{array}\right)\text{.} \end{equation*}
On a
\begin{align*} \left(\begin{array}{cc|c} \lambda_1 & \lambda_2 & 0\\ 1&1&1\end{array}\right)&\begin{array}{l}L_2-L_1/\lambda_1\to L_2\\ \sim \end{array} \left(\begin{array}{cc|c}\lambda_1 & \lambda_2 & 0\\ 0& 1-\lambda_2/\lambda_1 &1 \end{array}\right)\\ &=\left(\begin{array}{cc|c}\lambda_1 & \lambda_2 & 0\\ 0& 1+\lambda_2^2 &1 \end{array}\right) && \text{ selon } \frac{1}{\lambda_1}=-\lambda_2\\ &\begin{array}{l}L2/(1+\lambda_2^2)\to L_2 \\ \sim\end{array}\left(\begin{array}{cc|c}\lambda_1 & \lambda_2 & 0\\ 0& 1 &\frac{1}{1+\lambda_2^2} \end{array}\right)\\ &\begin{array}{l}L1-\lambda_2L_2\to L_1 \\ \sim\end{array}\left(\begin{array}{cc|c}\lambda_1 & \lambda_2 & -\frac{\lambda_2}{1+\lambda_2^2}\\ 0& 1 &\frac{1}{1+\lambda_2^2} \end{array}\right)\\ &\begin{array}{l}L_1/\lambda_1\to L_1 \\ \sim \end{array}\left(\begin{array}{cc|c}1 & \lambda_2/\lambda_1 & -\frac{\lambda_2}{\lambda_1(1+\lambda_2^2)}\\ 0& 1 &\frac{1}{1+\lambda_2^2} \end{array}\right)\\ &=\left(\begin{array}{cc|c}1 & -\lambda_2^2 & \frac{\lambda_2^2}{1+\lambda_2^2}\\ 0& 1 &\frac{1}{1+\lambda_2^2} \end{array}\right)&& \text{ car } \frac{1}{\lambda_1}=-\lambda_2\text{.} \end{align*}
Un peu de simplification est de mise. On peut montrer que \(\frac{1}{1+\lambda_2^2}=-\frac{\sqrt{5}(1-\sqrt{5})}{10}=-\frac{\sqrt{5}\lambda_1}{5}\) et que \(\frac{\lambda_2^2}{1+\lambda_2^2}=\frac{\sqrt{5}(1+\sqrt{5})}{10}=\frac{\sqrt{5}\lambda_2}{5}\text{.}\) On a donc
\begin{equation*} \vecd{0}{1}=\frac{\sqrt{5}\lambda_2}{5}\vec{v}_1-\frac{\sqrt{5}\lambda_1}{5}\vec{v}_2\text{.} \end{equation*}
(g)
Décrire comment obtenir \(f_n\) sans calculer les précédents et sans calculer de produit matrice vecteur.
Solution.
On sait que \(\vec{x}_n=A^n\vec{x}_0\text{.}\) En utilisant la décomposition en fonction des vecteurs propres, on trouve
\begin{align*} \vec{x}_n&=A^n\vec{x}_0\\ &=A^n\vecd{0}{1}\\ &=A^n\left(\frac{\sqrt{5}\lambda_2}{5}\vec{v}_1-\frac{\sqrt{5}\lambda_1}{5}\vec{v}_2\right)\\ &=\frac{\sqrt{5}\lambda_2}{5}A^n\vec{v}_1-\frac{\sqrt{5}\lambda_1}{5}A^n\vec{v}_2\\\ &=\frac{\sqrt{5}\lambda_2}{5}\lambda_1^n\vec{v}_1-\frac{\sqrt{5}\lambda_1}{5}\lambda_2^n\vec{v}_2\text{.} \end{align*}
Le nombre \(f_n\) se retrouve dans la première composante de ce vecteur et donc
\begin{align*} f_n&=\frac{\sqrt{5}\lambda_2}{5}\lambda_1^{n+1}-\frac{\sqrt{5}\lambda_1}{5}\lambda_2^{n+1}\\ &=\frac{\sqrt{5}}{5}\lambda_1\lambda_2(\lambda_1^n-\lambda_2^n)\\ &=-\frac{\sqrt{5}}{5}(\lambda_1^n-\lambda_2^n) && \text{ car } \lambda_1\lambda_2=-1\\ &=\frac{\sqrt{5}}{5}(\lambda_2^n-\lambda_1^n)\text{.} \end{align*}
(h)
Utiliser Sage pour calculer
\begin{equation*} \lim_{n\to\infty}\frac{f_{n+1}}{f_n}\text{.} \end{equation*}
Réponse.
\(\lim_{n\to\infty}\frac{f_{n+1}}{f_n}=\lambda_1\)
Solution.
En utilisant la formule trouvée, on trouve avec Sage que cette limite vaut \(\frac{1+\sqrt{5}}{2}=\lambda_1\text{.}\)
Le nombre \(\lambda_1=\frac{1+\sqrt{5}}{2}\) est appelé le nombre d’or. On le note souvent par \(\phi\) et il apparait à de nombreux endroits.

Exercices Sage.

Les exercices qui suivent sont conçus pour être résolus avec Sage. Des cellules vides sont disponibles pour écrire les réponses. Évidemment, il y a plusieurs manières d’arriver aux réponses.
20.
Pour chaque matrice, utiliser les commandes Sage eigenvalues ou eigenvectors_right pour caractériser les valeurs et vecteurs propres. Donner aussi les multiplicités des valeurs propres.
(a)
\(A=\begin{pmatrix}21 & 18 & 35 & -1 \\ -16 & -13 & -29 & 1 \\ -41 & -39 & -74 & 2 \\ -1381 & -1311 & -2552 & 72\end{pmatrix}\)
Réponse.
Les valeurs propres et les vecteurs propres associés à chacune sont \(\lambda_1=3,\vec{v}_1=(1, -4, 1, -19), \lambda_2=-1,\vec{v}_2=(0, 1, -1, -17),\lambda_3=2, \vec{v}_3=(1, 0, -1/2, 3/2),\vec{v}_4=(0, 1, -1/2, 1/2)\text{.}\) Il y a deux valeurs propres de multiplicité algébrique et géométrique égales à \(1\) et une valeur propre de multiplicité algébrique et géométrique égales à \(2\text{.}\)
Solution.
A=matrix([[21, 18, 35, -1],
[-16, -13, -29, 1],
[-41, -39, -74, 2],
[-1381, -1311, -2552, 72]])
show(A.eigenvectors_right())
Bloc de code 6.1.21. Le code de la solution
(b)
\(B=\begin{pmatrix}4 & -6 & 6 & 6 \\ -6 & -4 & 6 & 2 \\ -2 & -14 & 16 & 12 \\ -4 & 12 & -12 & -12 \end{pmatrix}\)
Réponse.
Les valeurs propres et les vecteurs propres associés sont \(\lambda_1=4,\vec{v}_1=(1, -1, 0, -1), \lambda_2=2,\vec{v}_2=(0, 1, 1, 0),\lambda_3=0,\vec{v}_3=(0, 1, 1/2, 1/2),\lambda_4=-2,\vec{v}_4=(1, -1, 2, -4)\text{.}\) Toutes les valeurs propres ont les multiplicités algébrique et géométrique égales à \(1\text{.}\)
Solution.
B=matrix([[4, -6, 6, 6],
[-6, -4, 6, 2],
[-2, -14, 16, 12],
[-4, 12, -12, -12]])
show(B.eigenvectors_right())
Bloc de code 6.1.22. Le code de la solution
(c)
\(C=\begin{pmatrix}-14 & -1 & 6 & -5 \\ -9 & 0 & 4 & -3 \\ -27 & -1 & 11 & -9 \\ 12 & 2 & -6 & 5\end{pmatrix}\)
Réponse.
Les valeurs propres et les vecteurs propres associés sont \(\lambda_1=-1,\vec{v}_1=(1, 0, 3, 1),\lambda_2=1,\vec{v}_2=(1, 0, 0, -3),\vec{v}_3=(0, 1, 1, 1) \text{.}\) La valeur propre \(-1\) est de multiplicité algébrique et géométrique \(1\text{.}\) La valeur propre \(1\) a pour multiplicité algébrique \(3\text{,}\) mais seulement \(2\) comme multiplicité géométrique.
Solution.
C=matrix([[-14, -1, 6, -5],
[-9, 0, 4, -3],
[-27, -1, 11, -9],
[12, 2, -6, 5],])
show(C.eigenvectors_right())
Bloc de code 6.1.23. Le code de la solution
(d)
\(D=\begin{pmatrix}3 & -5 & 15 & 14 \\ 1 & -3 & 14 & 13 \\ -6 & 5 & -58 & -54 \\ 6 & -5 & 60 & 56\end{pmatrix}\)
Réponse.
Les valeurs propres et les vecteurs propres associés sont \(\lambda_1=2,\vec{v}_2=(1, 0, -1, 1),\lambda_2=-3,\vec{v}_2=(1, 1, -1, 1)\text{.}\) Les deux valeurs propres ont comme multiplicité algébrique \(2\text{,}\) mais une multiplicité géométrique seulement égale à \(1\text{.}\)
Solution.
D=matrix([[3, -5, 15, 14],
[1, -3, 14, 13],
[-6, 5, -58, -54],
[6, -5, 60, 56]])
show(D.eigenvectors_right())
Bloc de code 6.1.24. Le code de la solution
21.
Cet exercice est un exemple semblable à l’exercice 6.1.4.19 qui introduit une autre suite fameuse en mathématiques. Les nombres de Lucas sont définis par la suite \(L_0=2,L_1=1\) et \(L_n=L_{n-1}+L_{n-2}\text{.}\) C’est donc la même suite que Fibonacci, mais avec des termes initiaux différents. Voici les dix premiers termes de cette suite.
(a)
La matrice qui sera utilisée pour ce problème est la même que celle de l’exercice 6.1.4.19. Utiliser la matrice inverse pour déterminer le vecteur initial à partir du vecteur \(\vec{x}_1=(1,2)\text{.}\)
Réponse.
\(\vec{x}_0=(2,-1)\text{.}\)
Solution.
A=matrix([[1,1],[1,0]])
Ainv=A.inverse()
x1=vector([1,2])
x0=Ainv*x1
show(x0)
Bloc de code 6.1.25. Le code solution
(b)
Déterminer une combinaison linéaire des vecteurs propres \(\vec{v}_1=(\lambda_1,1)\) et \(\vec{v}_2=(\lambda_2,1)\) exprimant \(\vec{x}_0\text{.}\)
Réponse.
\(\vec{x}_0= -\lambda_2\vec{v}_1-\lambda_1\vec{v}_2\text{.}\)
\begin{equation*} a= \end{equation*}
Solution.
l1=(1-sqrt(5))/2
l2=(1+sqrt(5))/2
T=column_matrix([[l1,1],[l2,1]])
x0=vector([2,-1])
rep=T.solve_right(x0)
show(rep)
#### Ce que c'est n'est pas tout à fait clair, mais on peut forcer Sage à simplifier###
maxima_calculus('algebraic: true;')
rep[0].simplify_rational()
rep[1].simplify_rational()
Bloc de code 6.1.26. Le code solution
(c)
Montrer que
\begin{equation*} L_n=\lambda_1^n+\lambda_2^n\text{.} \end{equation*}