Sauter au contenu
Logo image

Algèbre linéaire: Intuition et rigueur

Section 6.2 Diagonalisation

Aller aux exercices 6.2.4 de la section.
Dans la section précédente, on a vu que certaines matrices ont des directions invariantes associées à des valeurs propres. Si les bonnes conditions sont respectées, il y a suffisamment de vecteurs propres pour obtenir une base de l’espace. Dans ce cas, ces vecteurs permettront d’offrir une perspective géométrique intéressante sur la transformation linéaire associée à la matrice. Il y aura aussi d’importantes conséquences algébriques qui découleront de cette perspective.
Dans cette section, on introduit la diagonalisation d’une matrice et la notion de changement de base.

Sous-section 6.2.1 Diagonalisation

À la section 5.2, on a défini le concept de base ordonnée à partir d’un ensemble de vecteurs et des composantes d’un vecteur selon cette base. Ainsi, le vecteur \((1,9)\text{,}\) tel que représenté dans la base standard, s’écrit plutôt \((3,-1)_{\mathcal{B}}\) dans la base \(\mathcal{B}=\langle (1,2),(2,-3)\rangle\) puisque
\begin{equation*} 3(1,2)-(2,-3)=(1,9)\text{.} \end{equation*}
De plus, selon les notions de la sous-section La forme matricielle d’une transformation linéaire, une matrice contient dans chaque colonne l’image des vecteurs \(\vec{e}_1,\vec{e}_2,\ldots , \vec{e}_n\text{.}\) Spontanément, on peut se demander s’il est possible d’exprimer une matrice dans une autre base. À titre d’exemple, la matrice \(A\) de l’équation (6.1.1), à l’introduction de la section précédente, peut aussi s’écrire selon la base \(\mathcal{B}\) comme \(A=\begin{pmatrix} 14& 0\\ 0& 7\end{pmatrix}_{\mathcal{B}}\text{,}\) puisque l’exemple 6.1.3 a montré que c’était un étirement de facteur \(14\) dans la direction du vecteur \((1,2)\) et un étirement de facteur \(7\) dans la direction du vecteur \((2,-3)\text{.}\)
Il y a un lien intéressant entre la matrice \(A_{\mathcal{B}}\) et la matrice \(D=\begin{pmatrix} 14& 0\\ 0& 7\end{pmatrix}\text{.}\) En regardant seulement ses entrées, il semble que ce soit la même matrice, mais comme \(A_{\mathcal{B}}\) est exprimée dans une autre base, les deux transformations représentent des transformations différentes. La matrice \(A_{\mathcal{B}}\) est un étirement de facteur \(14\) dans la direction du vecteur \((1,2)\) et un étirement de facteur \(7\) dans la direction du vecteur \((2,-3)\text{,}\) alors que \(D\) est un étirement horizontal et vertical de ces mêmes facteurs. On note \(P=\begin{pmatrix} 1& 2\\ 2& -3 \end{pmatrix}\) la matrice contenant les vecteurs propres en colonne. Justement, parce que ce sont des vecteurs propres, l’effet de \(A\) sur \(P\) est
\begin{align*} AP&=\begin{pmatrix} 14\cdot 1& 14\cdot 2\\ 7\cdot 2& 7\cdot (-3) \end{pmatrix}\\ &=\begin{pmatrix} 1& 2\\ 2& -3 \end{pmatrix}\begin{pmatrix} 14& 0\\ 0& 7 \end{pmatrix}\\ &=PD\text{.} \end{align*}
En particulier, on peut isoler \(A\) pour obtenir
\begin{equation*} A=PDP^{-1}\text{.} \end{equation*}
La proposition 6.1.17 garantit ici que la matrice \(P\) est inversible puisque ses colonnes sont indépendantes. En général, ce pourrait ne pas être le cas. On introduit le concept de matrice diagonalisable.

Définition 6.2.1. Matrice diagonalisable.

Soit \(A\text{,}\) une matrice carrée. Si la matrice \(A\) possède \(n\) vecteurs propres indépendants, alors il existe des matrices \(P,D\) avec \(D\) une matrice diagonale telles que
\begin{equation*} A=PDP^{-1}\text{.} \end{equation*}
On dit alors que \(A\) est diagonalisable.
La matrice \(P\) contient dans ses colonnes les \(n\) vecteurs propres et la matrice \(D\) a pour éléments de sa diagonale les valeurs propres associées aux vecteurs propres, dans le même ordre que ceux-ci apparaissent dans \(P\text{.}\)
La matrice \(A=\begin{pmatrix} 10& 2\\ 6& 11 \end{pmatrix}\) est diagonalisable avec \(P=\begin{pmatrix} 1& 2\\ 2& -3 \end{pmatrix}\) et \(D=\begin{pmatrix} 14& 0\\ 0& 7 \end{pmatrix}\) comme l’a montré le calcul ci-dessus. On regarde d’autres exemples.

Exemple 6.2.2. Diagonalisation de matrices.

On reprend les matrices de l’exemple 6.1.13. Parmi celles-ci, les matrices \(A,C,F\) avaient un nombre suffisant de vecteurs propres pour former une base. On s’intéresse donc à diagonaliser ces matrices.
Solution 1.
La matrice \(A=\begin{pmatrix} 3&1\\ -2&0 \end{pmatrix}\) a pour valeurs propres \(\lambda_1=1\) et \(\lambda_2=2\) et comme vecteurs propres associés à ces valeurs propres \(\vec{v}_1=(-1,2)\) et\(\vec{v}_2=(-1,1)\text{.}\) On pose donc \(P=\begin{pmatrix} -1&-1\\ 2&1 \end{pmatrix}\) et \(D=\begin{pmatrix} 1&0\\ 0&2 \end{pmatrix}\text{.}\) De cela, on devrait obtenir
\begin{equation*} A=PDP^{-1}\text{.} \end{equation*}
On vérifie avec Sage.
Solution 2.
La matrice \(C=\begin{vmatrix} -2 & 2 & 0 \\ 0 & 2 & 0 \\ 2 & -1 & 0 \end{vmatrix}\) a pour valeurs propres \(\lambda_1=2,\lambda_2=-2\) et \(\lambda_3=0\) et comme vecteurs propres associés à ces valeurs propres \(\vec{v}_1=(1,2,0)\text{,}\)\(\vec{v}_2=(-1,0,1))\) et \(\vec{v}_3=(0,0,1)\text{.}\) On pose donc \(P=\begin{pmatrix} 1&-1&0\\ 2&0&0\\ 0&1& 1 \end{pmatrix}\) et \(D=\begin{pmatrix} 2&0& 0\\ 0&-2& 0\\ 0& 0& 0 \end{pmatrix}\text{.}\) De cela, on devrait obtenir
\begin{equation*} C=PDP^{-1}\text{.} \end{equation*}
On vérifie avec Sage.
Solution 3.
La matrice \(F=\begin{pmatrix} -1 & 1 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}\) a pour valeurs propres \(\lambda_1=-1\) et \(\lambda_2=1\text{.}\) Pour la valeur propre \(\lambda_1\text{,}\) on a trouvé \(\vec{v}_1=(1,0,0)\text{,}\) alors que pour la valeur propre \(\lambda_2\text{,}\) on a trouvé deux vecteurs propres indépendants en \(\vec{v}_2=(1,2,0)\) et \(\vec{v}_3=(0,0,1)\text{.}\) On pose donc \(P=\begin{pmatrix} 1&1&0\\ 0&2&0\\ 0&0& 1 \end{pmatrix}\) et \(D=\begin{pmatrix} -1&0& 0\\ 0&1& 0\\ 0& 0& 1 \end{pmatrix}\text{.}\) De cela, on devrait obtenir
\begin{equation*} F=PDP^{-1}\text{.} \end{equation*}
On vérifie avec Sage.
La diagonalisation permet de voir la matrice sous un autre œil en permettant de la décrire par des transformations simples comme les étirements et les réflexions. Par exemple, la matrice \(A\) de l’exemple 6.1.13 semble être un étirement de facteur \(2\) dans la direction \((-1,1)\) avec une direction inchangée en \((-1,2)\text{.}\) La figure suivante illustre un parallélogramme engendré par ces vecteurs et son image.
Un parallélogramme engendré par les deux vecteurs propres de la matrices A est illustré avec son image, qui est un étirement de facteur deux dans la direction de l’un des vecteurs propres, l’autre direction étant inchangée.
Figure 6.2.3. La transformation \(A\)
De même, la matrice \(C\) peut être vue comme un étirement de facteur \(2\) dans la direction \((1,2,0)\text{,}\) un étirement aussi de facteur \(2\text{,}\) ainsi qu’une réflexion dans la direction \((-1,0,1)\text{.}\) Il y a aussi une projection sur le plan engendré par ces deux premiers vecteurs, mais c’est plus difficile à décrire puisque les projections générales n’ont pas encore été abordées. On les verra à la section [provisional cross-reference: sec-projections]. On peut toutefois en observer l’effet sur la figure suivante.
Figure 6.2.4. La transformation \(A\)
Finalement, la matrice \(F\) peut être vue comme une réflexion selon le plan perpendiculaire à \(x=0\) laissant les directions \((1,2,1)\) et \((0,0,1)\) fixes. La figure ci-dessous illustre la transformation sur le parallélépipède engendré par ces trois directions.
Figure 6.2.5. La transformation \(A\)
L’un des principaux avantages de la diagonalisation est de calculer rapidement les puissances d’une matrice \(A\text{.}\) En général, calculer \(A^n\) pour une grande valeur de \(n\) peut être un exercice laborieux ou encore un procédé couteux pour un ordinateur, mais si \(A\) est diagonalisable, alors on peut écrire
\begin{align*} A^n&=(PDP^{-1})^n\\ &=\underbrace{PD\overbrace{P^{-1}P}^ID\overbrace{P^{-1}P}^IDP^{-1}\cdots PDP^{-1}}_{n \text{ fois}}\\ &=PD^nP^{-1}\text{.} \end{align*}
Lorsqu’une matrice est diagonale, le calcul de ses puissances est beaucoup plus simple, il suffit en effet de mettre chaque entrée sur la diagonale à la puissance \(n\text{.}\) Pour obtenir \(A^n\text{,}\) il suffit donc de multiplier \(D^n\) à gauche par \(P\) et à droite par \(P^{-1}\text{.}\)

Exemple 6.2.6. Puissances de matrices.

Pour chacune des matrices diagonalisables de l’exemple 6.1.13, on souhaite calculer la dixième puissance. On rappelle que la diagonalisation a été trouvée à l’exemple 6.2.2.
Solution 1.
Pour première matrice, on a
\begin{equation*} A=\begin{pmatrix} -1&-1\\ 2&1 \end{pmatrix}\begin{pmatrix} 1&0\\ 0&2 \end{pmatrix}\begin{pmatrix} 1&1\\ -2&-1 \end{pmatrix} \end{equation*}
et donc
\begin{align*} A^{10}&=\begin{pmatrix} -1&-1\\ 2&1 \end{pmatrix}\begin{pmatrix} 1^{10}&0\\ 0&2^{10} \end{pmatrix}\begin{pmatrix} 1&1\\ -2&-1 \end{pmatrix}\\ &=\begin{pmatrix} -1&-2^{10}\\ 2&2^{10} \end{pmatrix}\begin{pmatrix} 1&1\\ -2&-1 \end{pmatrix}\\ &=\begin{pmatrix} -1+2^{11}&-1+2^{10}\\ 2-2^{11}&2-2^{10} \end{pmatrix}\\ &=\begin{pmatrix}2047 & 1023 \\ -2046 & -1022 \end{pmatrix} \end{align*}
Solution 2.
Pour la deuxième matrice, on a
\begin{equation*} C=\begin{pmatrix} 1&-1&0\\ 2&0&0\\ 0&1& 1 \end{pmatrix}\begin{pmatrix} 2&0& 0\\ 0&-2& 0\\ 0& 0& 0 \end{pmatrix}\begin{pmatrix}0 & \frac{1}{2} & 0 \\ -1 & \frac{1}{2} & 0 \\ 1 & -\frac{1}{2} & 1\end{pmatrix} \end{equation*}
où l’inverse a été calculé par Sage. On a alors
\begin{align*} C^{10}&=\begin{pmatrix} 1&-1&0\\ 2&0&0\\ 0&1& 1 \end{pmatrix}\begin{pmatrix} 2^{10}&0& 0\\ 0&(-2)^{10}& 0\\ 0& 0& 0 \end{pmatrix}\begin{pmatrix}0 & \frac{1}{2} & 0 \\ -1 & \frac{1}{2} & 0 \\ 1 & -\frac{1}{2} & 1\end{pmatrix}\\ &=\begin{pmatrix} 2^{10} & -2^{10} & 0 \\ 2^{11} & 0 & 0 \\ 0 & 2^{10} & 0\end{pmatrix}\begin{pmatrix}0 & \frac{1}{2} & 0 \\ -1 & \frac{1}{2} & 0 \\ 1 & -\frac{1}{2} & 1\end{pmatrix}\\ &=\begin{pmatrix}2^{10} & 0 & 0 \\ 0 & 2^{10} & 0 \\ -2^{10} & 2^9 & 0\end{pmatrix}\\ &=\begin{pmatrix}1024 & 0 & 0 \\ 0 & 1024 & 0 \\ -1024 & 512 & 0\end{pmatrix}\text{.} \end{align*}
Solution 3.
Enfin, pour la dernière matrice, on a
\begin{equation*} F=\begin{pmatrix} 1&1&0\\ 0&2&0\\ 0&0& 1 \end{pmatrix}\begin{pmatrix} -1&0& 0\\ 0&1& 0\\ 0& 0& 1 \end{pmatrix}\begin{pmatrix} 1 & -\frac{1}{2} & 0 \\ 0 & \frac{1}{2} & 0 \\ 0 & 0 & 1\end{pmatrix} \end{equation*}
où l’inverse a été calculé par Sage. On a alors
\begin{align*} F^{10}&=\begin{pmatrix} 1&1&0\\ 0&2&0\\ 0&0& 1 \end{pmatrix}\begin{pmatrix} (-1)^n&0& 0\\ 0&1^n& 0\\ 0& 0& 1^n \end{pmatrix}\begin{pmatrix} 1 & -\frac{1}{2} & 0 \\ 0 & \frac{1}{2} & 0 \\ 0 & 0 & 1\end{pmatrix}\\ &=\begin{pmatrix} 1&1&0\\ 0&2&0\\ 0&0& 1 \end{pmatrix}\begin{pmatrix} 1 & -\frac{1}{2} & 0 \\ 0 & \frac{1}{2} & 0 \\ 0 & 0 & 1\end{pmatrix}\\ &=\begin{pmatrix}1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1\end{pmatrix}\text{.} \end{align*}
En réfléchissant sur la nature géométrique de la matrice \(F\text{,}\) on aurait pu trouver encore plus facilement la dixième puissance. En effet, puisqu’elle consiste en une réflexion selon le plan perpendiculaire à \(x=0\) et laisse les directions \((1,2,1)\) et \((0,0,1)\) fixes, les puissances de \(F\) devraient alterner entre \(F\) et l’identité \(I\text{.}\)
On termine avec des commandes Sage en lien avec la sous-section.

Calcul 6.2.7. La diagonalisation sur Sage.

Sage a une commande appelée eigenmatrix_right qui retourne une paire de matrices, les matrices \(D\) et \(P\text{,}\) lorsque la matrice est diagonalisable. On peut aussi vérifier si une matrice est diagonalisable avec la commande \(is_diagonalizable()\text{,}\) qui fonctionne si l’on ajoute l’option QQ à la matrice (ou RR,RDF). On regarde les matrices de l’exemple 6.1.13 et lorsque diagonalisable, on fait sortir les deux matrices afin de comparer avec celles que l’on a obtenues à l’exemple 6.2.2.
On remarque que lorsque la matrice n’est pas diagonalisable, la commande eigenmatrix_right retourne quand même la matrice \(D\) des valeurs propres et une matrice contenant des vecteurs propres indépendants et des colonnes de zéros pour la compléter.

Sous-section 6.2.2 Changement de base

L’écriture d’une matrice \(A=PBP^{-1}\) n’est pas réservée au cas où la matrice \(B=D\) est diagonale. En fait, deux matrices qui sont reliées par une telle correspondance sont dites semblables.

Définition 6.2.8. Matrices semblables.

Soit \(A\) et \(B\text{,}\) deux matrices pour lesquelles il existe une matrice inversible \(P\) telle que \(A=PBP^{-1} \text{.}\) On dit que \(A\) et \(B\) sont semblables.

Exemple 6.2.9. Déterminer si des matrices sont semblables.

On cherche à savoir si la matrice \(A=\begin{pmatrix} 1& 2\\ 3& 4\end{pmatrix}\) est semblable à l’une des matrices \(B=\begin{pmatrix}5 & 1 \\ 2 & 0\end{pmatrix}\) ou \(C=\begin{pmatrix} -1& 0\\ 3&2\end{pmatrix}\text{.}\)
Solution 1.
Pour la matrice \(B\text{,}\) on cherche une matrice inversible \(P\) telle que \(A=PBP^{-1}\text{.}\) On pose \(P=\begin{pmatrix}a&c\\ b&d\end{pmatrix}\) et l’on réécrit
\begin{align*} A&=PBP^{-1}\\ AP=PB\\ \begin{pmatrix} 1& 2\\ 3& 4\end{pmatrix}\begin{pmatrix}a&c\\ b&d\end{pmatrix}&=\begin{pmatrix}a&c\\ b&d\end{pmatrix}\begin{pmatrix}5 & 1 \\ 2 & 0\end{pmatrix}\\ \begin{pmatrix}a + 2 \, b & c + 2 \, d \\ 3 \, a + 4 \, b & 3 \, c + 4 \, d \end{pmatrix}&=\begin{pmatrix} 5 \, a + 2 \, c & a \\ 5 \, b + 2 \, d & b\end{pmatrix}\text{.} \end{align*}
On trouve, à partir de cette égalité matricielle, un système à quatre équations et quatre inconnues:
\begin{align*} 4a-2b+2c&=0\\ 3a-b-2d&=0\\ a-c-2d&=0\\ b-3c-4d&=0\text{.} \end{align*}
On résout ce système avec Sage.
Ce système contient deux variables libres en \(c,d\text{.}\) Il y a donc une infinité de solutions. On doit seulement s’assurer que \(P\) est inversible, alors il faut que \(ad-bc\neq 0\text{.}\) En prenant \(c,d=1\text{,}\) on trouve \(P=\begin{pmatrix} 3&1 \\ 7& 1 \end{pmatrix}\text{,}\) qui est effectivement inversible et donc,\(A\) et \(B\) sont semblables.
Solution 2.
Pour la matrice \(C\text{,}\) on cherche aussi une matrice inversible \(P\) telle que \(A=PCP^{-1}\text{.}\) On pose \(P=\begin{pmatrix}a&c\\ b&d\end{pmatrix}\) et l’on réécrit
\begin{align*} A&PCP^{-1}\\ AP=PC\\ \begin{pmatrix} 1& 2\\ 3& 4\end{pmatrix}\begin{pmatrix}a&c\\ b&d\end{pmatrix}&=\begin{pmatrix}a&c\\ b&d\end{pmatrix}\begin{pmatrix} -1& 0\\ 3&2\end{pmatrix}\\ \begin{pmatrix}a + 2 \, b & c + 2 \, d \\ 3 \, a + 4 \, b & 3 \, c + 4 \, d \end{pmatrix}&=-a + 3 \, c & 2 \, c \\ -b + 3 \, d & 2 \, d\text{.} \end{align*}
On trouve, à partir de cette égalité matricielle, un système à quatre équations et quatre inconnues:
\begin{align*} 2a+2b+-3c&=0\\ 3a+5b-3d&=0\\ -c+2d&=0\\ 3c+2d&=0\text{.} \end{align*}
On résout ce système avec Sage.
Il n’y a qu’une solution à ce système, soit lorsque \(a=b=c=d=0\text{.}\) Cette solution ne peut toutefois pas être valide puisque la matrice \(P\) ne serait pas inversible. Les matrices ne sont donc pas semblables.
Une interprétation de cette définition est possible dans le contexte du changement de base pour l’écriture d’une matrice. En effet, si \(A\) représente une matrice dans la base usuelle et \(A_{\mathcal{B}}\) sa représentation dans la base ordonnée \(\mathcal{B}\text{,}\) alors les deux matrices sont semblables. Ceci n’est peut-être pas surprenant, mais c’est néanmoins pratique d’un point de vue calculatoire. La proposition suivante résume ce propos.

Démonstration.

On analyse les colonnes de chacun des produits \(AP\) et \(PA_{\mathcal{B}}\text{.}\) Pour \(AP\text{,}\) chaque colonne \(j\) est donnée par le produit de la matrice \(A\) avec les vecteurs de la base \(\mathcal{B}\text{,}\) soit les colonnes de \(P\text{.}\) Ces colonnes sont donc les images des vecteurs de la base \(\mathcal{B}\) par \(A\) représentées dans la base usuelle. On peut certainement convertir ces vecteurs dans la base \(\mathcal{B}\text{,}\) c’est-à-dire qu’il existe \(c_1,c_2,\ldots , c_n\) tels que
\begin{equation*} A\vec{v}_{j}=c_1\vec{v}_{1}+c_2\vec{v}_2+\cdots +c_n\vec{v}_n=(c_1,c_2,\ldots , c_n)_\mathcal{B}\text{.} \end{equation*}
D’un autre côté, la colonne \(j\) de la matrice \(A_{\mathcal{B}}\) est précisément l’image du vecteur \(\vec{v}_j\) et est donc \((c_1,c_2,\ldots , c_n)\) (cette fois dans la base usuelle). On a alors
\begin{equation*} P\begin{pmatrix} c_1\\ c_2\\ \vdots \\ c_n\end{pmatrix}=c_1\vec{v}_{1}+c_2\vec{v}_2+\cdots +c_n\vec{v}_n\text{.} \end{equation*}
Ainsi, les colonnes de \(AP\) sont les mêmes que les colonnes de \(PA_{\mathcal{B}}\text{.}\)
On regarde des exemples artificiels de changement de base avant de considérer un exemple plus concret.

Exemple 6.2.11. De la base standard à une base \(\mathcal{B}\).

On veut convertir la matrice \(A=\begin{pmatrix} 1& 4& 7\\ 2& 5& 8\\ 3& 6& 9\end{pmatrix}\) dans la base \(\mathcal{B}= \langle (1,0,1),(-1,2,-3),(2,2,1)\rangle\text{.}\)
Solution.
On pose \(P=\begin{pmatrix} 1&-1&2 \\0&2&2\\ 1&-3&1 \end{pmatrix}\text{.}\) Selon la proposition 6.2.10, la formule pour écrire \(A\) dans la base \(\mathcal{B}\) est
\begin{equation*} A_{\mathcal{B}}=P^{-1}AP\text{.} \end{equation*}
On utilise Sage pour les calculs.
On a donc
\begin{equation*} A_{\mathcal{B}}=\begin{pmatrix} -29 & 38 & -68 \\ -9 & 12 & -21 \\ 14 & -20 & 32\end{pmatrix}\text{.} \end{equation*}
Les colonnes de \(A_{\mathcal{B}}\) correspondent à l’écriture des vecteurs \((1,2,3),(4,5,6),(7,8,9)\) dans la base \(\mathcal{B}\text{.}\)

Exemple 6.2.12. D’une base \(\mathcal{B}\) à la base standard.

Soit \(C_{\mathcal{B}}=\begin{pmatrix} 1&1&1&3 \\ 1& -1& 2&-3\\ 1& 1& 2&3\\ 1& -1& 1&-3\end{pmatrix}_{\mathcal{B}}\text{,}\)\(\mathcal{B}=\langle (4,3,2,1),(-2,4,-6,8),(0,1,1,0),(3,5,-1,0)\rangle\text{.}\) On cherche la représentation de ces vecteurs dans la base standard.
Solution.
On procède comme dans l’exemple précédent, avec une matrice \(C_{\mathcal{B}}=\begin{pmatrix} 1&1&1&3 \\ 1& -1& 2&-3\\ 1& 1& 2&3\\ 1& -1& 1&-3\end{pmatrix}_{\mathcal{B}}\) et une matrice de passage \(P=\begin{pmatrix}4& -2& 0&3 \\ 3& 4&1 &5\\ 2& -6&1&1\\ 1&8& 0& 0 \end{pmatrix}\text{.}\) Selon la proposition 6.2.10, la formule pour obtenir la matrice \(C\) est
\begin{equation*} C=PC_{\mathcal{B}}P^{-1}\text{.} \end{equation*}
On utilise Sage pour les calculs.
La matrice dans la base usuelle est donc
\begin{equation*} C=\begin{pmatrix} -\frac{5}{7} & \frac{33}{14} & \frac{9}{14} & -\frac{1}{2} \\ -\frac{286}{35} & \frac{321}{70} & \frac{939}{70} & \frac{51}{10} \\ \frac{163}{35} & \frac{41}{35} & -\frac{356}{35} & -\frac{29}{5} \\ -\frac{127}{15} & \frac{107}{30} & \frac{403}{30} & \frac{53}{10}\end{pmatrix}\text{.} \end{equation*}
On revient maintenant sur l’un des exemples du chapitre 2, dans lequel on avait trouvé la matrice d’une rotation autour d’un axe quelconque dans \(\mathbb{R}^3\text{.}\) À ce moment, on avait déplacé l’axe de rotation sur l’axe des \(z\) afin d’utiliser la matrice de rotation connue \(R_{\theta_z}\text{.}\) On peut maintenant procéder autrement avec la formule de changement de base. On aura besoin de la proposition suivante.

Démonstration.

Puisque \(\vec{v}_3\) est l’axe de rotation, on doit avoir pour \(\vec{v}_3=(0,0,1)_{\mathcal{B}}\) que \(R_{\theta_{\vec{v_3}}\mathcal{B}}\,\vec{v}_3=R_{\theta_{\vec{v_3}}\mathcal{B}}\begin{pmatrix}0\\ 0\\ 1\end{pmatrix}_{\mathcal{B}}=\begin{pmatrix}0\\ 0\\ 1\end{pmatrix}_{\mathcal{B}}\) et donc, la troisième colonne de la matrice est déterminée.
Le même dessin que celui de la figure 2.1.30 peut être utilisé pour voir que le vecteur \(\vec{v}_1=(1,0,0)_\mathcal{B}\) sera déplacé à \((\cos(\theta),\sin(\theta),0)_{\mathcal{B}}\) et que \(\vec{v}_2=(0,1,0)_{\mathcal{B}}\) sera envoyé sur \((-\sin(\theta),\cos(\theta),0)_{\mathcal{B}}\text{.}\) On obtient alors les deux premières colonnes.
Il est mentionné que la base formée des vecteurs \(\vec{v}_1,\vec{v}_2,\vec{v}_3\) doit être orientée positivement pour que la formule soit correcte. En effet, puisqu’une rotation est par défaut dans le sens antihoraire, il faut que dans le repère, on puisse aller de \(\vec{v}_2\) vers \(\vec{v}_2\) avec une rotation antihoraire de \(90^\circ\text{.}\) Il est aussi important que \(\vec{v}_1\) et \(\vec{v}_2\) soient perpendiculaire afin que \(\vec{v}_2=(0,1,0)_{\mathcal{B}}\) corresponde avec l’angle \(\theta\) et le rapport d’un quart de tour. Finalement, on demande la norme égale à \(1\text{,}\) puisque les vecteurs \((\cos(\theta),\sin(\theta),0)\) et \((-\sin(\theta),\cos(\theta),0)\) sont unitaires. L’importance des bases orthonormées sera précisée dans la section [provisional cross-reference: sec-orthogonal].

Exemple 6.2.14. Matrice de rotation dans \(\mathbb{R}^3\).

On revient sur l’exemple 2.4.6 dans lequel on a trouvé la matrice représentant une rotation autour de l’axe \((-1,1,2)\) de \(60^\circ\text{.}\) On veut utiliser une matrice de changement de base afin de retrouve l’expression de cette transformation (dans la base standard).
Solution.
On doit trouver une base \(\mathcal{B}\) qui va satisfaire les conditions de la proposition 6.2.13. On prend \(\vec{v}_3=(-1,1,2)\text{,}\) l’axe de rotation. Pour avoir un vecteur perpendiculaire, il suffit de prendre un vecteur qui satisfait l’équation \(-x+y+2z=0\text{.}\) On opte pour \(\vec{v}_1=(1,1,0)\text{.}\) Pour le second vecteur, on doit s’assurer qu’il sera perpendiculaire à \(\vec{v}_1\) et à \(\vec{v}_3\) et que le repère sera orienté positivement. On sait que \(\langle \vec{v}_1,\vec{v}_3,\vec{v}_1\times \vec{v}_3 \rangle\) serait orienté positivement selon l’exercice [provisional cross-reference: exo-produitvectorielorientation]. On aurait donc que le repère \(\langle \vec{v}_1,\vec{v}_1\times \vec{v}_3,\vec{v}_3 \rangle\) serait orienté négativement et finalement, que \(\langle \vec{v}_1,-\vec{v}_1\times \vec{v}_3,\vec{v}_3 \rangle\text{.}\) On pose donc \(\vec{v}_2=-\vec{v}_1\times \vec{v}_3\text{.}\)
En fait, ces vecteurs ne sont pas de norme \(1\text{,}\) alors on doit les normaliser avant de pouvoir utiliser la formule (6.2.1). On utilise ensuite la matrice de passage formé des vecteurs unitaires pour déterminer la matrice \(A\) dans la base usuelle.
Dans certains cas, il pourrait être utile de trouver la représentation d’une matrice dans une base \(\mathcal{C}\) à partir de sa représentation dans une base \(\mathcal{B}\text{.}\) Puisqu’on sait comment passer d’une base quelconque à la base standard et de la base standard à une base usuelle, on devrait pouvoir trouver une manière de passer directement entre les bases non standards.

Démonstration.

Exemple 6.2.16. Changement de base générale.

Soit \(\mathcal{B}=\langle (1,1),(1,-1)\rangle\) et \(\mathcal{C}=\langle (-2,1),(3,2)\rangle\text{,}\) deux bases de \(\mathbb{R}^2\) et
\begin{equation*} A_{\mathbb{B}}=\begin{pmatrix}3&-2\\ -1& -4 \end{pmatrix}_{\mathcal{B}} \end{equation*}
la matrice d’une transformation linéaire représentée en base \(\mathcal{B}\text{.}\) On cherche la représentation de \(A\) en base \(\mathcal{C}\text{.}\)
Solution.
On pose \(P=\begin{pmatrix}1&1\\ 1& -1 \end{pmatrix}\) et \(Q=\begin{pmatrix}-2&3\\ 1& 2 \end{pmatrix}\text{.}\) On a alors
\begin{align*} Q^{-1}&=-\frac{1}{7}\begin{pmatrix}2&-3\\ -1& -2 \end{pmatrix}\text{,} \end{align*}
Ce qui donne comme matrice de passage
\begin{align*} P_{\mathcal{B}\to\mathcal{C}}&=Q^{-1}P\\ &=-\frac{1}{7}\begin{pmatrix}2&-3\\ -1& -2 \end{pmatrix}\begin{pmatrix}1&1\\ 1& -1 \end{pmatrix}\\ &=-\frac{1}{7}\begin{pmatrix}1&-5\\ 3& -1 \end{pmatrix}\text{.} \end{align*}
L’inverse de cette matrice est
\begin{align*} P_{\mathcal{B}\to\mathcal{C}}^{-1}&=\left(-\frac{1}{7}\begin{pmatrix}1&-5\\ 3& -1 \end{pmatrix}\right)^{-1}\\ &=-7\begin{pmatrix}1&-5\\ 3& -1 \end{pmatrix}^{-1}&& \text{ selon } \knowl{./knowl/xref/prop-invdematscalaire.html}{\text{2.3.20}}\\ &=-7\frac{1}{14}\begin{pmatrix}-1&5\\ -3& 1 \end{pmatrix}\\ &=-\frac{1}{2}\begin{pmatrix}-1&5\\ -3& 1 \end{pmatrix}\text{.} \end{align*}
En utilisant la formule de changement de base de la proposition 6.2.15, on obtient finalement
\begin{align*} A_{\mathcal{C}}&=P_{\mathcal{B}\to \mathcal{C}}A_{\mathcal{B}}P_{\mathcal{B}\to \mathcal{C}}^{-1}\\ &=-\frac{1}{7}\begin{pmatrix}1&-5\\ 3& -1 \end{pmatrix}\begin{pmatrix}3&-2\\ -1& -4 \end{pmatrix}_{\mathcal{B}}-\frac{1}{2}\begin{pmatrix}-1&5\\ -3& 1 \end{pmatrix}\\ &=-\frac{1}{14}\begin{pmatrix}1&-5\\ 3& -1 \end{pmatrix}\begin{pmatrix}3&13\\ 13& -9 \end{pmatrix}\\ &=-\frac{1}{14}\begin{pmatrix}-62 & 58 \\ -4 & 48 \end{pmatrix}\text{.} \end{align*}
On pourrait aussi parler de changement de bases pour des matrices rectangulaires, et même entre des espaces vectoriels plus généraux. On verra quelques exemples dans les exercices.

Sous-section 6.2.3 Quelques résultats

On termine cette section avec quelques résultats plus théoriques sur la diagonalisation et le changement de base. Lorsque deux matrices sont semblables, elles ont le même polynôme caractéristique. En particulier, elles ont les mêmes valeurs propres.

Démonstration.

Comme deuxième résultat, une condition suffisante, mais non nécessaire pour qu’une matrice carrée soit diagonalisable.

Démonstration.

Selon la proposition 6.1.17, les vecteurs propres associés à des valeurs propres distinctes sont indépendants. Dans ce cas, la matrice \(P\) existe et est inversible. Dans la base \(\mathcal{B}\) des vecteurs propres, la matrice \(A\) est égale à une matrice diagonale \(D_{\mathcal{B}}\) où les entrées sont les valeurs propres. On a donc
\begin{equation*} A=PDP^{^1} \end{equation*}
selon la formule du changement de base.
Bien sûr, il existe des matrices diagonalisables qui n’ont pas \(n\) valeurs propres distinctes, c’est la raison pour laquelle on affirme que la condition est suffisante (au sens où cette condition est suffisante pour garantir), mais non nécessaire (on peut être diagonalisable sans avoir les valeurs propres distinctes). En fait, une condition qui est nécessaire et suffisante concerne la relation entre la multiplicité algébrique et la multiplicité géométrique des valeurs propres. On se souvient que, pour être diagonalisable, il faut que la matrice possède \(n\) vecteurs propres indépendants. Pour chaque valeur propre, on veut donc produire suffisamment de vecteurs propres pour que le nombre total donne \(n\text{.}\) On aura besoin des deux résultats suivants pour démontrer la condition.

Démonstration.

Par définition, la multiplicité géométrique est la dimension de l’espace propre et celui-ci contient au moins un vecteur non nul, donc \(1\leq g\text{.}\) Soit \(\vec{v}_1,\vec{v}_2,\ldots ,\vec{v}_g\text{,}\) une base de cet espace propre. Il est toujours possible d’étendre cette base en ajoutant des vecteurs indépendants pour former une base de \(\mathbb{R}^n\text{.}\) Soit \(\mathcal{B}=\langle \vec{v}_1,\vec{v}_2,\ldots ,\vec{v}_g,\vec{v}_{g+1},\ldots , \vec{v}_n \rangle\text{,}\) une base possible. À quoi ressemble la matrice \(A\) dans la base \(\mathcal{B}\text{?}\)
Les \(g\) premières colonnes correspondent aux vecteurs propres associés à \(\lambda_0\text{,}\) qui sont les premiers vecteurs de la base. En base \(\mathcal{B}\text{,}\) l’écriture d’un vecteur\(\vec{v}_i\) est équivalente à celle du vecteur \(\vec{e}_i\) si \(1\leq i\leq g\) et \(A_{\mathcal{B}}\vec{v}_i=\lambda_0\vec{e}_i=\text{,}\) signifiant que la première partie de \(A_{\mathcal{B}}\) est équivalente à la première partie de \(\lambda_0 I\text{.}\) Pour le reste, on ne sait pas en quoi consiste la matrice, mais on peut l’écrire de la manière suivante
\begin{equation*} A_{\mathcal{B}}=\begin{pmatrix} \lambda_0 I & \hspace{-1in}|\hspace{-1in} & B \\ \hline O & \hspace{-1in}|\hspace{-1in} & C \end{pmatrix}\text{,} \end{equation*}
\(B\) est une matrice \(g\times (n-g)\) quelconque, la matrice nulle \(O\) est de taille \((n-g)\times g\) et \(C\) est une matrice carrée \((n-g)\times (n-g)\text{.}\) Selon la proposition 6.2.4.9, les matrices \(A\) et \(A_{\mathcal{B}}\) ont le même polynôme caractéristique puisqu’elles sont semblables. En développant avec les cofacteurs la matrice \(A_{\mathcal{B}}-\lambda I\text{,}\) on trouve
\begin{align*} \text{det}(A_{\mathcal{B}}-\lambda I)&=\begin{pmatrix} \lambda_0 I-\lambda I & \hspace{-1in}|\hspace{-1in} & B \\ \hline O & \hspace{-1in}|\hspace{-1in} & C-\lambda I \end{pmatrix}\\ &=(\lambda_0-\lambda)^d\text{det}(C-\lambda I)\text{.} \end{align*}
On voit donc que la multiplicité algébrique de \(\lambda_0\) est d’au moins \(g\text{,}\) puisque le facteur \((\lambda_0-\lambda)^g\) apparait dans le polynôme caractéristique. On a donc \(g\leq a\text{.}\)

Démonstration.

On suppose qu’il y a des vecteurs non nuls. On peut simplement éliminer tous les vecteurs nuls de l’équation et obtenir une équation similaire, alors on suppose simplement qu’on a un ensemble de \(p\) vecteurs non nuls
\begin{equation*} \vec{v}_1+\vec{v}_2+\ldots + \vec{v}_p=\vec{0} \end{equation*}
où chaque vecteur \(\vec{v}_i\) est un des vecteurs dans \(\{\vec{u}_1,\ldots , \vec{u}_k\}\text{.}\) Si ces vecteurs sont non nuls et dans un espace propre, ce sont donc des vecteurs propres. Selon la proposition 6.1.17, on ne peut pas avoir une combinaison linéaire de vecteurs propres associés à des valeurs propres différentes qui donne le vecteur nul, car ces vecteurs devraient être indépendants. Les vecteurs \(\vec{v}\) ne peuvent donc pas être non nuls. On conclut alors que tous les vecteurs \(\vec{u}\) sont en effet nuls.
Avec ces résultats, on est en mesure de démontrer qu’une matrice est diagonalisable si et seulement si les multiplicités algébriques et géométriques sont égales.

Démonstration.

On suppose, dans un premier temps, que \(g_i=a_i\) pour toutes les valeurs propres et que la somme de ces multiplicités donne \(n\text{.}\) Pour chaque valeur propre, il existe une base \(\mathcal{B}_i=\langle \vec{v}_{i,1}\vec{v}_{i,2}\ldots \vec{v}_{i,g_i} \rangle\) de \(g_i\) vecteurs propres indépendants. On considère l’ensemble \(\mathcal{B}=\mathcal{B}_1\cup \mathcal{B}_2\cup\cdots \cup \mathcal{B}_k\text{.}\) Cet ensemble contient \(g_1+g_2+\cdot +g_k=n\) vecteurs propres.
On suppose qu’on a une combinaison linéaire de tous ces vecteurs qui donne le vecteur nul. On peut écrire cette combinaison de la manière suivante:
\begin{align*} \vec{0}&=a_{1,1}\vec{v}_{1,1}+a_{1,2}\vec{v}_{1,2}+\cdots a_{1,g_1}\vec{v}_{1,g_1}\\ &\phantom{=}+a_{2,1}\vec{v}_{2,1}+a_{2,2}\vec{v}_{2,2}+\cdots a_{2,g_1}\vec{v}_{2,g_2}\\ &\phantom{=}+a_{3,1}\vec{v}_{3,1}+a_{3,2}\vec{v}_{3,2}+\cdots a_{3,g_1}\vec{v}_{3,g_3}\\ & \phantom{=} \phantom{a_{3,1}\vec{v}_{3,1}}\vdots\\ &\phantom{=}+a_{k,1}\vec{v}_{k,1}+a_{k,2}\vec{v}_{k,2}+\cdots a_{k,g_1}\vec{v}_{k,g_k}\text{.} \end{align*}
Pour chaque \(1\leq i\leq k\text{,}\) on pose
\begin{equation*} \vec{u}_i=a_{i,1}\vec{v}_{i,1}+a_{i,2}\vec{v}_{i,2}+\cdots a_{i,g_1}\vec{v}_{i,g_i}\text{.} \end{equation*}
Chacun de ces vecteurs appartient à l’espace propre de \(\lambda_i\text{.}\) La combinaison linéaire des vecteurs dans \(\mathcal{B}\) devient donc
\begin{equation*} \vec{u}+1+\vec{u}_2+\cdots \vec{u}_k=\vec{0}\text{.} \end{equation*}
En vertu du lemme 6.2.20, on doit avoir \(\vec{u}_i=\vec{0}\) pour tous les \(i\text{.}\) Ceci entraine à son tour que tous les coefficients \(a_{i,1},a_{i,2},\ldots , a_{i,g_i}\) sont nuls car les vecteurs \(\vec{v}_{i,1}\vec{v}_{i,2}\ldots \vec{v}_{i,g_i}\) forment une base. Ainsi, l’ensemble \(\mathcal{B}\) est indépendant et, puisqu’il est composé de \(n\) vecteurs dans un espace de dimension \(n\text{,}\) il forme une base. En posant \(P\) la matrice contenant ces vecteurs dans ses colonnes et \(D\) la matrice des valeurs propres associées, dans le même ordre d’apparition que les vecteurs dans \(P\text{,}\) on a bel et bien
\begin{equation*} AP=PD\text{.} \end{equation*}
Ainsi, \(A=PDP^{-1}\) est diagonalisable.
Dans un deuxième temps, on suppose que \(A\) est diagonalisable. On veut montrer que les multiplicités géométriques et algébriques concordent et somment à \(1\text{.}\)
Soit \(\mathcal{B}\text{,}\) une base de vecteurs propres pour l’espace vectoriel. On note \(\mathcal{B}_i=\mathcal{B}\cap Ep(\lambda_i)\) l’intersection de cette base avec l’espace propre associé à \(\lambda_i\text{.}\) Soit \(n_i\text{,}\) le nombre de vecteurs dans \(\mathcal{B}_i\text{.}\) On a alors \(n_i\leq g_i\) puisque \(Ep(\lambda_i)\) est de dimension \(g_i\) et que les vecteurs dans \(\mathcal{B}\) sont indépendants (on ne peut avoir plus de vecteurs indépendants que la dimension du sous-espace, selon la proposition 5.2.26). De plus, selon le lemme 6.2.19, on a \(g_i\leq m_i\text{.}\) Comme il y a \(n\) vecteurs dans \(\mathcal{B}\) et que \(A\) est diagonalisable, il faut que \(n_1+n_2+\cdots n_k=n\text{.}\) De même, on peut écrire le polynôme caractéristique de \(A\) comme
\begin{equation*} \text{det}(A-\lambda I)=(\lambda_1-\lambda)^{m_1}(\lambda_2-\lambda)^{m_2}\cdots(\lambda_k-\lambda)^{m_k}\text{.} \end{equation*}
De plus, comme ce polynôme doit être de degré \(n\text{,}\) on obtient que \(m_1+m_2+\cdots m_k=n\text{.}\) En combinant le tout, on a
\begin{align*} n&\leq n_1+n_2+\cdots n_k\\ &\leq g_1+g_2+\cdots g_k\\ &=\leq m_1+m_2+\cdots m_k\\ &\leq n\text{.} \end{align*}
Ainsi, \(n_1+n_2+\cdots n_k=g_1+g_2+\cdots g_k=m_1+m_2+\cdots m_k=n\text{.}\) En particulier, on a
\begin{equation*} (a_1-g_1)+(a_2-g_2)+\cdots (a_k-g_k)=0 \end{equation*}
et comme chacun de ces termes est plus grand que \(0\text{,}\) on conclut que \(a_i=g_i\) pour tout \(1\leq i\leq k\) et que les multiplicités concordent.
*Bruit de soupir*
En se rappelant les matrices \(E,F\) de l’exemple 6.1.13, on constate que la valeur propre \(\lambda_1=1\) avait comme multiplicité algébrique \(2\text{,}\) mais une multiplicité géométrique de \(1\) pour la matrice \(E\text{,}\) alors que dans le cas de la matrice \(F\text{,}\) on avait les multiplicités algébrique et géométrique égales à \(2\) pour \(\lambda_1=1\text{.}\) On peut donc conclure que \(F\) est diagonalisable, mais pas \(E\text{.}\)
On constate en effet que la matrice \(P\) donnée par Sage n’est pas inversible et donc que \(E\) n’est pas diagonalisable.
Les points importants de cette section sont:
De plus, avec Sage, on a vu la commande eigenmatrix_right permettant de diagonaliser une matrice lorsque c’est possible.

Exercices 6.2.4 Exercices

1.

Pour chaque matrice de l’exercice 6.1.4.2, dire si la matrice est diagonalisable. Le cas échéant, calculer la cinquième puissance de la matrice.
Solution 1.
La matrice \(A_1\) est diagonalisable avec
\begin{equation*} A_1=\begin{pmatrix}5 &0 \\ 1 &1\end{pmatrix}\begin{pmatrix}1 &0 \\ 0 &6\end{pmatrix}\begin{pmatrix}1/5 &0 \\ -1/5 & 1\end{pmatrix}\text{.} \end{equation*}
Pour la cinquième puissance, on trouve
\begin{align*} A_1^5&=\left( \begin{pmatrix}5 &0 \\ 1 &1\end{pmatrix}\begin{pmatrix}1 &0 \\ 0 &6\end{pmatrix}\begin{pmatrix}1/5 &0 \\ -1/5 & 1\end{pmatrix}\right)^5\\ &=\begin{pmatrix}5 &0 \\ 1 &1\end{pmatrix}\begin{pmatrix}1 &0 \\ 0 &6\end{pmatrix}^5\begin{pmatrix}1/5 &0 \\ -1/5 & 1\end{pmatrix}\\ &=\begin{pmatrix}5 &0 \\ 1 &1\end{pmatrix}\begin{pmatrix}1 &0 \\ 0 &6^5\end{pmatrix}\begin{pmatrix}1/5 &0 \\ -1/5 & 1\end{pmatrix}\\ &=\begin{pmatrix}1 &0 \\ -1555 & 7776\end{pmatrix}\text{.} \end{align*}
Solution 2.
La matrice \(A_2\) est diagonalisable avec
\begin{equation*} A_2=\begin{pmatrix}3 &1 \\ 4 &0\end{pmatrix}\begin{pmatrix}-5 &0 \\ 0 &-9\end{pmatrix}\begin{pmatrix}0 & 1/4 \\ 1 & -3/4\end{pmatrix}\text{.} \end{equation*}
Pour la cinquième puissance, on trouve
\begin{align*} A_2^5&=\left( \begin{pmatrix}3 &1 \\ 4 &0\end{pmatrix}\begin{pmatrix}-5 &0 \\ 0 &-9\end{pmatrix}\begin{pmatrix}0 & 1/4 \\ 1 & -3/4\end{pmatrix}\right)^5\\ &=\begin{pmatrix}3 &1 \\ 4 &0\end{pmatrix}\begin{pmatrix}-5 &0 \\ 0 &-9\end{pmatrix}^5\begin{pmatrix}0 & 1/4 \\ 1 & -3/4\end{pmatrix}\\ &=\begin{pmatrix}3 &1 \\ 4 &0\end{pmatrix}\begin{pmatrix}(-5)^5 &0 \\ 0 &(-9)^5\end{pmatrix}\begin{pmatrix}0 & 1/4 \\ 1 & -3/4\end{pmatrix}\\ &=\begin{pmatrix}-59049 & 41943 \\ 0 & -3125\end{pmatrix}\text{.} \end{align*}
Solution 3.
La matrice \(A_3\) est diagonalisable avec
\begin{equation*} A_3=\begin{pmatrix}-1 &1 \\ 1 &1\end{pmatrix}\begin{pmatrix}0 &0 \\ 0 &-16\end{pmatrix}\begin{pmatrix}-1/2 &1/2 \\ 1/2 &1/2\end{pmatrix}\text{.} \end{equation*}
Pour la cinquième puissance, on trouve
\begin{align*} A_3^5&=\left( \begin{pmatrix}-1 &1 \\ 1 &1\end{pmatrix}\begin{pmatrix}0 &0 \\ 0 &-16\end{pmatrix}\begin{pmatrix}-1/2 &1/2 \\ 1/2 &1/2\end{pmatrix}\right)^5\\ &=\begin{pmatrix}-1 &1 \\ 1 &1\end{pmatrix}\begin{pmatrix}0 &0 \\ 0 &-16\end{pmatrix}^5\begin{pmatrix}-1/2 &1/2 \\ 1/2 &1/2\end{pmatrix}\\ &=\begin{pmatrix}-1 &1 \\ 1 &1\end{pmatrix}\begin{pmatrix}0 &0 \\ 0 &(-16)^5\end{pmatrix}\begin{pmatrix}-1/2 &1/2 \\ 1/2 &1/2\end{pmatrix}\\ &=\begin{pmatrix}-524288 & -524288 \\ -524288 & -524288\end{pmatrix}\text{.} \end{align*}
Solution 4.
La matrice \(A_4\) est diagonalisable avec
\begin{equation*} A_4=\begin{pmatrix}1 &-7 \\ 1 &5\end{pmatrix}\begin{pmatrix}10 &0 \\ 0 &-2\end{pmatrix}\begin{pmatrix}5/12& -1/12 \\ 7/12& 1/12\end{pmatrix}\text{.} \end{equation*}
Pour la cinquième puissance, on trouve
\begin{align*} A_4^5&=\left( \begin{pmatrix}1 &-7 \\ 1 &5\end{pmatrix}\begin{pmatrix}10 &0 \\ 0 &-2\end{pmatrix}\begin{pmatrix}5/12& -1/12 \\ 7/12& 1/12\end{pmatrix}\right)^5\\ &=\begin{pmatrix}1 &-7 \\ 1 &5\end{pmatrix}\begin{pmatrix}10 &0 \\ 0 &-2\end{pmatrix}^5\begin{pmatrix}5/12& -1/12 \\ 7/12& 1/12\end{pmatrix}\\ &=\begin{pmatrix}1 &-7 \\ 1 &5\end{pmatrix}\begin{pmatrix}10^5 &0 \\ 0 &(-2)^5\end{pmatrix}\begin{pmatrix}5/12& -1/12 \\ 7/12& 1/12\end{pmatrix}\\ &=\begin{pmatrix}41648& 58352 \\ 41680& 583208\end{pmatrix}\text{.} \end{align*}
Solution 5.
La matrice \(A_5\) n’est pas diagonalisable.
Solution 6.
La matrice \(A_6\) n’est pas diagonalisable.
Solution 7.
La matrice \(A_7\) est diagonalisable avec
\begin{equation*} A_7=\begin{pmatrix}0 &1 & 0 \\ 1 &2& 1\\ 1& 3& 5\end{pmatrix}\begin{pmatrix}-2 &0 &0 \\ 0 &1& 0\\ 0& 0& 2\end{pmatrix}\begin{pmatrix}-\frac{7}{4} & 1 & -\frac{1}{4} \\ \frac{5}{4} && 0 & -\frac{1}{4} \\ -\frac{1}{4} & 0 & \frac{1}{4}\end{pmatrix}\text{.} \end{equation*}
Pour la cinquième puissance, on trouve
\begin{align*} A_7^5&=\left( \begin{pmatrix}0 &1 & 0 \\ 1 &2& 1\\ 1& 3& 5\end{pmatrix}\begin{pmatrix}-2 &0 &0 \\ 0 &1& 0\\ 0& 0& 2\end{pmatrix}\begin{pmatrix}-\frac{7}{4} & 1 & -\frac{1}{4} \\ \frac{5}{4} amp;& 0 & -\frac{1}{4} \\ -\frac{1}{4} & 0 & \frac{1}{4}\end{pmatrix}\right)^5\\ &=\begin{pmatrix}0 &1 & 0 \\ 1 &2& 1\\ 1& 3& 5\end{pmatrix}\begin{pmatrix}-2 &0 &0 \\ 0 &1& 0\\ 0& 0& 2\end{pmatrix}^5\begin{pmatrix}-\frac{7}{4} & 1 & -\frac{1}{4} \\ \frac{5}{4} && 0 & -\frac{1}{4} \\ -\frac{1}{4} & 0 & \frac{1}{4}\end{pmatrix}\\ &=\begin{pmatrix}0 &1 & 0 \\ 1 &2& 1\\ 1& 3& 5\end{pmatrix}\begin{pmatrix}(-2)^5 &0 &0 \\ 0 &1& 0\\ 0& 0& 2^5\end{pmatrix}\begin{pmatrix}-\frac{7}{4} & 1 & -\frac{1}{4} \\ \frac{5}{4} && 0 & -\frac{1}{4} \\ -\frac{1}{4} & 0 & \frac{1}{4}\end{pmatrix}\\ &=\begin{pmatrix}1 & 0 & 0 \\ 50 & -48 & 16 \\ 19 & -80 & 48\end{pmatrix}\text{.} \end{align*}
Solution 8.
La matrice \(A_8\) est diagonalisable avec
\begin{equation*} A_8=\begin{pmatrix}1 &-1 & 1 \\ 0 &0& 2\\ 1& 1& 0\end{pmatrix}\begin{pmatrix}-1 &0 &0 \\ 0 &3& 0\\ 0& 0& 3\end{pmatrix}\begin{pmatrix}\frac{1}{2} & -\frac{1}{2} & 0 \\ -\frac{1}{4} & \frac{1}{4} & \frac{1}{2} \\ \frac{1}{2} & \frac{1}{2} & 0\end{pmatrix}\text{.} \end{equation*}
Pour la cinquième puissance, on trouve
\begin{align*} A_8^5&=\left( \begin{pmatrix}1 &-1 & 1 \\ 0 &0& 2\\ 1& 1& 0\end{pmatrix}\begin{pmatrix}-1 &0 &0 \\ 0 &3& 0\\ 0& 0& 3\end{pmatrix}\begin{pmatrix}\frac{1}{2} & -\frac{1}{2} & 0 \\ -\frac{1}{4} & \frac{1}{4} & \frac{1}{2} \\ \frac{1}{2} & \frac{1}{2} & 0\end{pmatrix}\right)^5\\ &=\begin{pmatrix}1 &-1 & 1 \\ 0 &0& 2\\ 1& 1& 0\end{pmatrix}\begin{pmatrix}-1 &0 &0 \\ 0 &3& 0\\ 0& 0& 3\end{pmatrix}^5\begin{pmatrix}\frac{1}{2} & -\frac{1}{2} & 0 \\ -\frac{1}{4} & \frac{1}{4} & \frac{1}{2} \\ \frac{1}{2} & \frac{1}{2} & 0\end{pmatrix}\\ &=\begin{pmatrix}1 &-1 & 1 \\ 0 &0& 2\\ 1& 1& 0\end{pmatrix}\begin{pmatrix}(-1)^5 &0 &0 \\ 0 &3^5& 0\\ 0& 0& 3^5\end{pmatrix}\begin{pmatrix}\frac{1}{2} & -\frac{1}{2} & 0 \\ -\frac{1}{4} & \frac{1}{4} & \frac{1}{2} \\ \frac{1}{2} & \frac{1}{2} & 0\end{pmatrix}\\ &=\begin{pmatrix}121 & 61 & -122 \\ 0 & 243 & 0 \\ -122 & 61 & 121\end{pmatrix}\text{.} \end{align*}

2.

Pour chaque matrice ci-dessous (donnée dans la base standard), déterminer l’écriture dans la base donnée.
(a)
\(A=\begin{pmatrix} 2 & 2\\ -1 & 3\end{pmatrix}\) avec \(\mathcal{B}=\langle (-1,-2),(3,4) \rangle\)
Réponse.
\(A_{\mathcal{B}}=\frac{1}{2}\begin{pmatrix}-9& 29\\ -7& 19 \end{pmatrix}_\mathcal{B}\)
Solution.
On pose \(P=\begin{pmatrix} -1& 3\\ -2& 4 \end{pmatrix}\text{.}\) On a alors \(P^{-1}=\frac{1}{2}\begin{pmatrix}4& -3\\ 2& -1 \end{pmatrix}\text{.}\) Selon la formule de changement de base, on aura
\begin{align*} A_\mathcal{B}&=P^{-1}AP\\ &=\frac{1}{2}\begin{pmatrix}4& -3\\ 2& -1 \end{pmatrix}\begin{pmatrix} 2 & 2\\ -1 & 3\end{pmatrix}\begin{pmatrix} -1& 3\\ -2& 4 \end{pmatrix}\\ &=\frac{1}{2}\begin{pmatrix}4& -3\\ 2& -1 \end{pmatrix}\begin{pmatrix} -6 & 14\\ -5 & 9\end{pmatrix}\\ &=\frac{1}{2}\begin{pmatrix}-9& 29\\ -7& 19 \end{pmatrix}_{\mathcal{B}}\text{.} \end{align*}
(b)
\(B=\begin{pmatrix} 4 & -5\\ 1 & 0\end{pmatrix}\) avec \(\mathcal{B}=\langle (7,6),(6,5) \rangle\)
Réponse.
\(B_{\mathcal{B}}=\begin{pmatrix}52& 41\\ -61& -48 \end{pmatrix}_\mathcal{B}\)
Solution.
On pose \(P=\begin{pmatrix} 7& 6\\ 6& 5 \end{pmatrix}\text{.}\) On a alors \(P^{-1}=\begin{pmatrix}-5& 6\\ 6& -7 \end{pmatrix}\text{.}\) Selon la formule de changement de base, on aura
\begin{align*} B_\mathcal{B}&=P^{-1}BP\\ &=\begin{pmatrix}-5& 6\\ 6& -7 \end{pmatrix}\begin{pmatrix} 4 & -5\\ 1 & 0\end{pmatrix}\begin{pmatrix} -1& 3\\ -2& 4 \end{pmatrix}\\ &=\begin{pmatrix}-5& 6\\ 6& -7 \end{pmatrix}\begin{pmatrix} 2 & -1\\ 7 & 6\end{pmatrix}\\ &=\begin{pmatrix}52& 41\\ -61& -48 \end{pmatrix}_{\mathcal{B}}\text{.} \end{align*}
(c)
\(C=\begin{pmatrix} -1 & 0& 1\\ 2 & 1& -1\\ 1& 3& 1\end{pmatrix}\) avec \(\mathcal{B}=\langle (1,1,1),(1,0,-1),(0,2,3) \rangle\)
Réponse.
\(C_{\mathcal{B}}=\begin{pmatrix}52& 41\\ -61& -48 \end{pmatrix}_\mathcal{B}\)
Solution.
On pose \(P=\begin{pmatrix} 1&1&0\\ 1& 0&2\\ 1& -1& 3 \end{pmatrix}\text{.}\) On a alors \(P^{-1}=\begin{pmatrix} 2 & -3 & 2 \\ -1 & 3 & -2 \\ -1 & 2 & -1\end{pmatrix}\text{.}\) Selon la formule de changement de base, on aura
\begin{align*} C_\mathcal{B}&=P^{-1}CP\\ &=\begin{pmatrix} 2 & -3 & 2 \\ -1 & 3 & -2 \\ -1 & 2 & -1\end{pmatrix}\begin{pmatrix} -1 & 0& 1\\ 2 & 1& -1\\ 1& 3& 1\end{pmatrix}\begin{pmatrix} 1&1&0\\ 1& 0&2\\ 1& -1& 3 \end{pmatrix}\\ &=\begin{pmatrix} 2 & -3 & 2 \\ -1 & 3 & -2 \\ -1 & 2 & -1\end{pmatrix}\begin{pmatrix} 0 & -2 & 3 \\ 2 & 3 & -1 \\ 5 & 0 & 9\end{pmatrix}\\ &=\begin{pmatrix}4 & -13 & 27 \\ -4 & 11 & -24 \\ -1 & 8 & -14 \end{pmatrix}_{\mathcal{B}}\text{.} \end{align*}

3.

Pour chaque matrice ci-dessous (donnée dans la base \(\mathcal{B}\)), déterminer l’écriture dans la base standard.
(a)
\(A_{\mathcal{B}}=\begin{pmatrix} 2 & 2\\ -1 & 3\end{pmatrix}_{\mathcal{B}}\) avec \(\mathcal{B}=\langle (-1,-2),(3,4) \rangle\)
Réponse.
\(A=\begin{pmatrix}-3 & 4 \\ -8 & 8\end{pmatrix}\)
Solution.
On pose \(P=\begin{pmatrix} -1& 3\\ -2& 4 \end{pmatrix}\text{.}\) On a alors \(P^{-1}=\frac{1}{2}\begin{pmatrix}4& -3\\ 2& -1 \end{pmatrix}\text{.}\) Selon la formule de changement de base, on aura
\begin{align*} A_\mathcal{B}&=PAP^{-1}\\ &=\begin{pmatrix} -1& 3\\ -2& 4 \end{pmatrix}\begin{pmatrix} 2 & 2\\ -1 & 3\end{pmatrix}\frac{1}{2}\begin{pmatrix}4& -3\\ 2& -1 \end{pmatrix}\\ &=\begin{pmatrix}4& -3\\ 2& -1 \end{pmatrix}\begin{pmatrix} 6 & -4 \\ 1 & 0\end{pmatrix}\\ &=\begin{pmatrix}-3 & 4 \\ -8 & 8\end{pmatrix}\text{.} \end{align*}
(b)
\(B_{\mathcal{B}}=\begin{pmatrix} 4 & -5\\ 1 & 0\end{pmatrix}_{\mathcal{B}}\) avec \(\mathcal{B}=\langle (7,6),(6,5) \rangle\)
Réponse.
\(B=\begin{pmatrix}-380 & 449 \\ -325 & 384 \end{pmatrix}\)
Solution.
On pose \(P=\begin{pmatrix} 7& 6\\ 6& 5 \end{pmatrix}\text{.}\) On a alors \(P^{-1}=\begin{pmatrix}-5& 6\\ 6& -7 \end{pmatrix}\text{.}\) Selon la formule de changement de base, on aura
\begin{align*} B&=PBP^{-1}\\ &=\begin{pmatrix} 7& 6\\ 6& 5 \end{pmatrix}\begin{pmatrix} 4 & -5\\ 1 & 0\end{pmatrix}\begin{pmatrix}-5& 6\\ 6& -7 \end{pmatrix}\\ &=\begin{pmatrix}-5& 6\\ 6& -7 \end{pmatrix}\begin{pmatrix} -50 & 59 \\ -5 & 6\end{pmatrix}\\ &=\begin{pmatrix}-380 & 449 \\ -325 & 384 \end{pmatrix}\text{.} \end{align*}
(c)
\(C_{\mathcal{B}}=\begin{pmatrix} -1 & 0& 1\\ 2 & 1& -1\\ 1& 3& 1\end{pmatrix}_{\mathcal{B}}\) avec \(\mathcal{B}=\langle (1,1,1),(1,0,-1),(0,2,3) \rangle\)
Réponse.
\(C=\begin{pmatrix}1 & 0 & 0 \\ -7 & 21 & -13 \\ -13 & 34 & -21 \end{pmatrix}\)
Solution.
On pose \(P=\begin{pmatrix} 1&1&0\\ 1& 0&2\\ 1& -1& 3 \end{pmatrix}\text{.}\) On a alors \(P^{-1}=\begin{pmatrix} 2 & -3 & 2 \\ -1 & 3 & -2 \\ -1 & 2 & -1\end{pmatrix}\text{.}\) Selon la formule de changement de base, on aura
\begin{align*} C&=PAP^{-1}\\ &=\begin{pmatrix} 1&1&0\\ 1& 0&2\\ 1& -1& 3 \end{pmatrix}\begin{pmatrix} -1 & 0& 1\\ 2 & 1& -1\\ 1& 3& 1\end{pmatrix}\begin{pmatrix} 2 & -3 & 2 \\ -1 & 3 & -2 \\ -1 & 2 & -1\end{pmatrix}\\ &=\begin{pmatrix} 2 & -3 & 2 \\ -1 & 3 & -2 \\ -1 & 2 & -1\end{pmatrix}\begin{pmatrix} -3 & 5 & -3 \\ 4 & -5 & 3 \\ -2 & 8 & -5\end{pmatrix}\\ &=\begin{pmatrix}1 & 0 & 0 \\ -7 & 21 & -13 \\ -13 & 34 & -21 \end{pmatrix}\text{.} \end{align*}

4.

On considère un cube dont les sommets sont situés aux points de coordonnées \((\pm 1,\pm 1,\pm 1)\text{,}\) comme celui de la figure 6.2.22. Donner la matrice dans la base standard pour chacune des transformations suivantes.
Instructions.
Cliquer sur l’une des trois symétries pour illustrer l’effet de chaque transformation linéaire sur le cube.
Figure 6.2.22. Des symétries du cube.
(a)
Une rotation de \(90^{\circ}\) autour de l’axe des \(z\text{.}\)
Réponse.
C’est la matrice de rotation usuelle
\begin{equation*} \begin{pmatrix}\cos(\theta)& -\sin(\theta) & 0\\ \sin(\theta)& \cos(\theta)& 0\\ 0& 0& 1 \end{pmatrix}\text{.} \end{equation*}
(b)
Une rotation de \(180^\circ\) autour de l’axe \(\vec{u}=(0,1,-1)\text{.}\)
Réponse.
\(R_{\vec{u}}=\begin{pmatrix} -1 & 0 & 0 \\ 0 & 0 & -1 \\ 0 & -1 & 0\end{pmatrix}\)
Solution.
On veut utiliser la matrice de la proposition 6.2.13 et la formule de changement de base. Pour cela, on doit trouver une base orthonormée. On commence par trouver un ensemble de vecteurs perpendiculaires dont l’orientation est positive. On normalise ensuite les vecteurs. En se basant sur l’exemple 6.2.14, on prend n’importe quel vecteur dans le plan \(y-z=0\text{,}\) par exemple \(\vec{u}_1=(0,1,1)\text{.}\) Afin d’orienter positivement le repère, on pose \(\vec{u}_2=-\vec{u}_1\times \vec{u}=(-2,0,0)\text{.}\) On normalise ensuite le repère pour avoir la base ordonnée
\begin{equation*} \mathcal{B}=\langle (-1,0,0),\left(0,\frac{\sqrt{2}}{2},\frac{\sqrt{2}}{2}\right),\left(0,\frac{\sqrt{2}}{2},-\frac{\sqrt{2}}{2}\right) \rangle\text{.} \end{equation*}
La matrice de cette rotation dans la base \(\mathcal{B}\) est celle de l’équation (6.2.1).
On utilise ensuite la matrice de changement de base afin d’obtenir la représentation dans la base standard en posant \(P=\begin{pmatrix} -1 & 0 & 0 \\ 0 & \frac{1}{2} \, \sqrt{2} & \frac{1}{2} \, \sqrt{2} \\ 0 & \frac{1}{2} \, \sqrt{2} & -\frac{1}{2} \, \sqrt{2}\end{pmatrix}\) et lf’on obtient
\begin{align*} R_{\vec{u}}&=PR_{\vec{u},\mathcal{B}}P^{-1}\\ &=\begin{pmatrix} -1 & 0 & 0 \\ 0 & \frac{1}{2} \, \sqrt{2} & \frac{1}{2} \, \sqrt{2} \\ 0 & \frac{1}{2} \, \sqrt{2} & -\frac{1}{2} \, \sqrt{2}\end{pmatrix}\begin{pmatrix}-1 & 0 & 0 \\ 0 & -1 & 0 \\ 0 & 0 & 1\end{pmatrix}\begin{pmatrix}-1 & 0 & 0 \\ 0 & \frac{1}{2} \, \sqrt{2} & \frac{1}{2} \, \sqrt{2} \\ 0 & \frac{1}{2} \, \sqrt{2} & -\frac{1}{2} \, \sqrt{2}\end{pmatrix}\\ &=\begin{pmatrix} -1 & 0 & 0 \\ 0 & 0 & -1 \\ 0 & -1 & 0\end{pmatrix}\text{.} \end{align*}
(c)
Une rotation de \(120^\circ\) autour de l’axe \(\vec{v}=(1,1,1)\text{.}\)
Solution.
De la même manière, on veut construire une base orthonormée orientée positivement et utiliser la formule du changement de base. Pour le plan perpendiculaire à la rotation, on cherche donc des vecteurs sur \(x+y+z=0\text{.}\) On pose \(\vec{v}_1=(1,-1,0)\) et \(\vec{v}_2=-\vec{v}_1\times \vec{v}=(1,1,-2)\text{.}\) On normalise pour avoir la base ordonnée
\begin{equation*} \mathcal{B}=\left\langle \left(\frac{1}{\sqrt{2}},-\frac{1}{\sqrt{2}},0\right),\left(\frac{1}{\sqrt{6}},\frac{1}{\sqrt{6}},-\frac{2}{\sqrt{6}}\right),\left(\frac{1}{\sqrt{3}},\frac{1}{\sqrt{3}},\frac{1}{\sqrt{3}}\right)\right\rangle\text{.} \end{equation*}
On utilise ensuite la matrice de changement de base afin d’obtenir la représentation dans la base standard en posant \(P=\begin{pmatrix}\frac{\sqrt{2}}{2} \, & \frac{\sqrt{6}}{6} \, & \frac{\sqrt{3}}{3} \, \\ -\frac{\sqrt{2}}{2} & \frac{\sqrt{6}}{6} & \frac{\sqrt{3}}{3} \\ 0 & -\frac{\sqrt{6}}{3} \, & \frac{\sqrt{3}}{3}\end{pmatrix}\) et l’on obtient
\begin{align*} R_{\vec{v}}&=PR_{\vec{u},\mathcal{B}}P^{-1}\\ &=\begin{pmatrix}\frac{\sqrt{2}}{2} & \frac{\sqrt{6}}{6} & \frac{\sqrt{3}}{3} \\ -\frac{\sqrt{2}}{2} & \frac{\sqrt{6}}{6} & \frac{\sqrt{3}}{3} \\ 0 & -\frac{\sqrt{6}}{3} & \frac{\sqrt{3}}{3}\end{pmatrix}\begin{pmatrix}-\frac{1}{2} & -\frac{\sqrt{3}}{2} & 0 \\ \frac{\sqrt{3}}{2} & -\frac{1}{2} & 0 \\ 0 & 0 & 1\end{pmatrix}\begin{pmatrix}\frac{\sqrt{2}}{2} & -\frac{\sqrt{2}}{2} & 0 \\ \frac{\sqrt{6}}{6} & \frac{\sqrt{6}}{6} & -\frac{\sqrt{6}}{3} \\ \frac{\sqrt{3}}{3} & \frac{\sqrt{3}}{3} & \frac{\sqrt{3}}{3}\end{pmatrix}\\ &=\begin{pmatrix} 0 & 0 & 1 \\ 1 & 0 &0 \\ 0 & 1 & 0\end{pmatrix}\text{.} \end{align*}

5.

On considère le sous-espace vectoriel \(V=\{\vec{v}~|~ \vec{v}=a(1,-1,0)+b(1,0,-1) \text{ où } a,b\in \mathbb{R} \}\) de \(\mathbb{R}^3\) correspondant au plan \(x+y+z=0\) ainsi que son complément orthogonal \(V^{\perp}=\{\vec{u}\in \mathbb{R}^3~|~ \vec{u}=c(1,1,1)\}\text{.}\) On note par \(\mathcal{B}_V=\langle (1,-1,0),(1,0,-1)\rangle \) et \(\mathcal{B}_{V^\perp}=\langle(1,1,1)\rangle \text{,}\) des bases de ces deux sous-espaces, et \(\mathcal{B}=\mathcal{B}_V\cup \mathcal{B}_{V^\perp}\text{,}\) une base de \(\mathbb{R}^3\) provenant de ces deux bases.
(a)
On s’intéresse à la projection orthogonale sur la droite correspondant à \(V^{\perp}\text{.}\)
(i)
Quelle est l’écriture de la matrice \(T\) correspondant à cette projection dans la base \(\mathcal{B}\text{?}\)
Réponse.
\(T_\mathcal{B}=\begin{pmatrix} 0& 0& 0\\ 0& 0& 0 \\ 0& 0& 1 \end{pmatrix}\)
Solution.
Puisque \((1,-1,0)\) et \((1,0,-1)\) sont perpendiculaires à la droite, leur projection est nulle, De plus, puisque le vecteur \((1,1,1)\) est sur la droite, sa projection est \((1,1,1)\text{.}\) On a donc
\begin{equation*} T_\mathcal{B}=\begin{pmatrix} 0& 0& 0\\ 0& 0& 0 \\ 0& 0& 1 \end{pmatrix}_\mathcal{B}\text{.} \end{equation*}
(ii)
Donner la représentation de \(T\) dans la base standard.
Réponse.
\(T=\begin{pmatrix}\frac{1}{3} & \frac{1}{3} & \frac{1}{3} \\ \frac{1}{3} & \frac{1}{3} & \frac{1}{3} \\ \frac{1}{3} & \frac{1}{3} & \frac{1}{3}\end{pmatrix}\)
Solution.
On pose \(P=\begin{pmatrix} 1& 1& 1\\ -1& 0& 1\\ 0& -1& 1 \end{pmatrix}\text{.}\) Selon la formule de changement de base, on a
\begin{align*} T&=PT_{\mathcal{B}}P^{-1}\\ &=\begin{pmatrix} 1& 1& 1\\ -1& 0& 1\\ 0& -1& 1 \end{pmatrix}\begin{pmatrix} 0& 0& 0\\ 0& 0& 0 \\ 0& 0& 1 \end{pmatrix}_\mathcal{B}\begin{pmatrix}\frac{1}{3} & -\frac{2}{3} & \frac{1}{3} \\ \frac{1}{3} & \frac{1}{3} & -\frac{2}{3} \\ \frac{1}{3} & \frac{1}{3} & \frac{1}{3}\end{pmatrix}\\ &=\begin{pmatrix} 1& 1& 1\\ -1& 0& 1\\ 0& -1& 1 \end{pmatrix}\begin{pmatrix} 0& 0& 0\\ 0& 0& 0 \\ \frac{1}{3} & \frac{1}{3} & \frac{1}{3} \end{pmatrix}\\ &=\begin{pmatrix}\frac{1}{3} & \frac{1}{3} & \frac{1}{3} \\ \frac{1}{3} & \frac{1}{3} & \frac{1}{3} \\ \frac{1}{3} & \frac{1}{3} & \frac{1}{3}\end{pmatrix}\text{.} \end{align*}
(iii)
On pose \(\vec{u}=(u_1,u_2,u_3)\text{.}\) Vérifier que \(T\begin{pmatrix} 1\\ 1\\ 1 \end{pmatrix}=\begin{pmatrix} 1\\ 1\\ 1 \end{pmatrix}\) et que \(T(\vec{u})=\frac{\vec{u}\cdot (1,1,1)}{3}(1,1,1)\text{,}\) la projection orthogonale d’un vecteur \(\vec{u}\) sur \((1,1,1)\text{.}\)
Solution.
Puisque \(T\begin{pmatrix} 1\\ 1\\ 1 \end{pmatrix}\) correspond à la somme des colonnes, on a bien que \(T\begin{pmatrix} 1\\ 1\\ 1 \end{pmatrix}=\begin{pmatrix} 1\\ 1\\ 1 \end{pmatrix}\text{.}\) Dans le cas général, on a
\begin{align*} T\vec{u}&=u_1\begin{pmatrix} 1/3\\ 1/3\\ 1/3 \end{pmatrix}+u_2\begin{pmatrix} 1/3\\ 1/3\\ 1/3 \end{pmatrix}+u_3\begin{pmatrix} 1/3\\ 1/3\\ 1/3 \end{pmatrix}\\ &=\begin{pmatrix} (u_1+u_2+u_3)/3\\ (u_1+u_2+u_3)/3\\ (u_1+u_2+u_3)/3 \end{pmatrix}\\ &=\frac{u_1+u_2+u_3}{3}\begin{pmatrix} 1\\ 1\\ 1 \end{pmatrix}\\ &=\frac{\vec{u}\cdot (1,1,1)}{3}\vec{u}\text{.} \end{align*}
(b)
On veut maintenant déterminer la matrice de la projection orthogonale sur le plan correspondant au sous-espace \(V\text{.}\)
(i)
Quelle est l’écriture de la matrice \(R\) correspondant à cette projection dans la base \(\mathcal{B}\text{?}\)
Réponse.
\(R_\mathcal{B}=\begin{pmatrix} 1& 0& 0\\ 0& 1& 0 \\ 0& 0& 0 \end{pmatrix}_\mathcal{B}\)
Solution.
Puisque \((1,-1,0)\) et \((1,0,-1)\) sont dans le plan, leur projection respective est eux-mêmes, De plus, puisque le vecteur \((1,1,1)\) est sur la droite perpendiculaire au plan, sa projection est nulle. On a donc
\begin{equation*} R_\mathcal{B}=\begin{pmatrix} 1& 0& 0\\ 0& 1& 0 \\ 0& 0& 0 \end{pmatrix}_\mathcal{B} \end{equation*}
(ii)
Donner la représentation de \(R\) dans la base standard.
Réponse.
\(R=\begin{pmatrix}\frac{2}{3} & -\frac{1}{3} & -\frac{1}{3} \\ -\frac{1}{3} & \frac{2}{3} & -\frac{1}{3} \\ -\frac{1}{3} & -\frac{1}{3} & \frac{2}{3}\end{pmatrix}\)
Solution.
On pose \(P=\begin{pmatrix} 1& 1& 1\\ -1& 0& 1\\ 0& -1& 1 \end{pmatrix}\text{.}\) Selon la formule de changement de base on a
\begin{align*} R&=PR_{\mathcal{B}}P^{-1}\\ &=\begin{pmatrix} 1& 1& 1\\ -1& 0& 1\\ 0& -1& 1 \end{pmatrix}\begin{pmatrix} 1& 0& 0\\ 0& 1& 0 \\ 0& 0& 0 \end{pmatrix}_\mathcal{B}\begin{pmatrix}\frac{1}{3} & -\frac{2}{3} & \frac{1}{3} \\ \frac{1}{3} & \frac{1}{3} & -\frac{2}{3} \\ \frac{1}{3} & \frac{1}{3} & \frac{1}{3}\end{pmatrix}\\ &=\begin{pmatrix} 1& 1& 1\\ -1& 0& 1\\ 0& -1& 1 \end{pmatrix}\begin{pmatrix} \frac{1}{3} & -\frac{2}{3} & \frac{1}{3} \\ \frac{1}{3} & \frac{1}{3} & -\frac{2}{3} \\ 0 & 0 & 0\end{pmatrix}\\ &=\begin{pmatrix}\frac{2}{3} & -\frac{1}{3} & -\frac{1}{3} \\ -\frac{1}{3} & \frac{2}{3} & -\frac{1}{3} \\ -\frac{1}{3} & -\frac{1}{3} & \frac{2}{3}\end{pmatrix}\text{.} \end{align*}
(c)
Finalement, on s’intéresse à la réflexion par rapport au plan.
(i)
Quelle est l’écriture de la matrice \(S\) correspondant à cette réflexion dans la base \(\mathcal{B}\text{?}\)
Réponse.
\(S_\mathcal{B}=\begin{pmatrix} 1& 0& -1\\ 0& 1& -1 \\ 0& 0& -1 \end{pmatrix}_\mathcal{B}\)
Solution.
Puisque \((1,-1,0)\) et \((1,0,-1)\) sont dans le plan, leur réflexion respective est eux-mêmes, De plus, puisque le vecteur \((1,1,1)\) est sur la droite perpendiculaire au plan, sa réflexion correspond à \((-1,-1,-1)\text{.}\) On a donc
\begin{equation*} S_\mathcal{B}=\begin{pmatrix} 1& 0& -1\\ 0& 1& -1 \\ 0& 0& -1 \end{pmatrix}_\mathcal{B} \end{equation*}
(ii)
Donner la représentation de \(S\) dans la base standard.
Solution.
On pose \(P=\begin{pmatrix} 1& 1& 1\\ -1& 0& 1\\ 0& -1& 1 \end{pmatrix}\text{.}\) Selon la formule de changement de base on a
\begin{align*} S&=PS_{\mathcal{B}}P^{-1}\\ &=\begin{pmatrix} 1& 1& 1\\ -1& 0& 1\\ 0& -1& 1 \end{pmatrix}\begin{pmatrix} 1& 0& -1\\ 0& 1& -1 \\ 0& 0& -1 \end{pmatrix}_{\mathcal{B}}\begin{pmatrix}\frac{1}{3} & -\frac{2}{3} & \frac{1}{3} \\ \frac{1}{3} & \frac{1}{3} & -\frac{2}{3} \\ \frac{1}{3} & \frac{1}{3} & \frac{1}{3}\end{pmatrix}\\ &=\begin{pmatrix} 1& 1& 1\\ -1& 0& 1\\ 0& -1& 1 \end{pmatrix}\begin{pmatrix}\frac{1}{3} & -\frac{2}{3} & \frac{1}{3} \\ \frac{1}{3} & \frac{1}{3} & -\frac{2}{3} \\ -\frac{1}{3} & -\frac{1}{3} & -\frac{1}{3}\end{pmatrix}\\ &=\begin{pmatrix}\frac{1}{3} & -\frac{2}{3} & -\frac{2}{3} \\ -\frac{2}{3} & \frac{1}{3} & -\frac{2}{3} \\ -\frac{2}{3} & -\frac{2}{3} & \frac{1}{3}\end{pmatrix}\text{.} \end{align*}

6.

On considère la matrice
\begin{equation*} R=\begin{pmatrix}0 & 0 & 1 \\ -1 & 0 & 0 \\ 0 & -1 & 0 \end{pmatrix}\text{.} \end{equation*}
C’est une matrice de rotation dans \(\mathbb{R}^3\text{.}\) On cherche à déterminer son axe de rotation ainsi que l’angle de la rotation.
(a)
Déterminer un vecteur \(\vec{a}\) tel que \(R\vec{a}=\vec{a}\text{.}\) C’est l’axe de rotation.
Réponse.
\(\vec{a}=(1,-1,1)\)
Solution.
On pose \(\vec{a}=(x,y,z)\text{.}\) Pour trouver \(\vec{a}\text{,}\) on peut procéder de deux manières.
De l’équation \(A\vec{a}=\vec{a}\text{,}\) on tire
\begin{equation*} \begin{pmatrix} z\\ -x \\ -y\end{pmatrix}=\begin{pmatrix} x\\ y\\ z\end{pmatrix}\text{.} \end{equation*}
On doit donc avoir \(x=z,y=-x\) et \(z=-y=x\text{.}\) En prenant \(x=1\text{,}\) on obtient un vecteur \(\vec{a}=(1,-1,1)\text{.}\)
L’équation \(A\vec{a}=\vec{a}\) signifie que le vecteur cherché est un vecteur propre associé à la valeur propre \(1\text{.}\) On peut donc le trouver en regardant l’espace nul de \(A-I\text{.}\) On obtient
\begin{align*} A-I&=\begin{pmatrix}-1 & 0 & 1 \\ -1 & -1 & 0 \\ 0 & -1 & -1 \end{pmatrix}\\ &\begin{array}{l} L_2-L_1\to L_2\\ \sim \end{array}\begin{pmatrix}-1 & 0 & 1 \\ 0 & -1 & -1 \\ 0 & -1 & -1 \end{pmatrix}\\ &\begin{array}{l} L_3-L_2\to L_3\\ -L_1\to L_1\\ \sim \end{array}\begin{pmatrix}1 & 0 & -1 \\ 0 & -1 & -1 \\ 0 & 0 & 0 \end{pmatrix}\\ &\begin{array}{l} -L_2\to L_2\\ \sim\end{array} \begin{pmatrix}1 & 0 & -1 \\ 0 & 1 & 1 \\ 0 & 0 & 0 \end{pmatrix}\text{.} \end{align*}
De ceci, on tire comme vecteur propre \(\vec{a}=(1,-1,1)\text{.}\)
(b)
Trouver une base orthonormée de \(\mathbb{R}^3\) orientée positivement dont le troisième vecteur est \(\vec{a}\) et donner la matrice de rotation dans cette base.
Réponse.
Une base possible est\(\mathcal{B}=\langle\hat{u},\hat{v},\hat{a}\rangle \)\(\vec{u}=(1,1,0),\vec{v}=(1,-1,-2)\) et \(\vec{a}=(1,-1,1)\text{.}\) Dans cette base, la matrice s’écrit
\begin{equation*} R_{\mathcal{B}}=\begin{pmatrix} -\frac{1}{2} & -\frac{\sqrt{3}}{2} & 0 \\ \frac{\sqrt{3}}{2} & -\frac{1}{2} & 0 \\ 0 & 0 & 1\end{pmatrix} \end{equation*}
Solution.
On doit trouver deux vecteurs, perpendiculaires entre eux et perpendiculaires avec \(\vec{a}=(1,-1,1)\text{.}\) La norme des vecteurs doit être égale à \(1\) et le repère doit être orienté positivement. Le premier vecteur choisi est \(\vec{u}=(1,1,0)\text{,}\) que l’on normalisera plus tard. Celui-ci est perpendiculaire à \(\vec{a}\text{.}\) Pour le deuxième vecteur, on pose
\begin{equation*} \vec{v}=-\vec{u}\times \vec{a}=(1,-1,-2)\text{.} \end{equation*}
On pose \(P\text{,}\) la matrice contenant les vecteurs \(\hat{u},\hat{v},\hat{a}\) et l’on trouve son inverse avec Sage. On trouve ensuite l’écriture de \(R\) dans la base \(\langle\hat{u},\hat{v},\hat{a}\rangle \text{.}\)
On obtient donc, après simplification des radicaux
\begin{equation*} _{\mathcal{B}}=\begin{pmatrix} -\frac{1}{2} & -\frac{\sqrt{3}}{2} & 0 \\ \frac{\sqrt{3}}{2} & -\frac{1}{2} & 0 \\ 0 & 0 & 1\end{pmatrix} \end{equation*}
(c)
Déterminer l’angle de la rotation.
Solution.
Selon la proposition 6.2.13, on doit avoir \(\cos(\theta)=-\frac{1}{2}\) et \(\sin(\theta)=\frac{\sqrt{3}}{2}\text{.}\) Le seul point sur le cercle trigonométrique qui possède ces propriétés se trouve en \(\theta=\frac{2\pi}{3}\text{.}\)

7.

On s’intéresse à nouveau à la matrice \(B=\begin{pmatrix} 1 & -3 \\ 3 & -5\end{pmatrix}\) de l’exemple 6.1.13. Comme cette matrice possède une seule valeur propre de multiplicité géométrique égale à \(1\text{,}\) elle n’est pas diagonalisable.
(a)
Calculer \((B+2I)^2\text{.}\)
Réponse.
\((B+2I)^2=O\)
Solution.
On a
\begin{align*} (B+2I)^2&=\begin{pmatrix} 3 & -3 \\ 3 & -3\end{pmatrix}\begin{pmatrix} 3 & -3 \\ 3 & -3\end{pmatrix}\\ &=\begin{pmatrix} 0 & 0 \\ 0 & 0\end{pmatrix}\text{.} \end{align*}
Cette matrice est donc nilpotente d’ordre \(2\text{.}\)
(b)
À l’exercice 5.3.4.12.a, on a montré que l’espace colonne de la matrice \(B\) est inclus dans l’espace nul de la matrice \(A\) si le produit \(AB=O\text{.}\) En appliquant cet exercice au produit \((B+2I)(B+2I)\text{,}\) on peut affirmer que \(\mathcal{C}(B+2I)\subseteq \mathcal{N}(B+2I)\text{.}\) Plus particulièrement, l’équation
\begin{equation*} (B+2I)\vec{x}=\vec{v}_1 \end{equation*}
possède des solutions si \(\vec{v}_1\) est un vecteur propre de \(B\text{.}\) Trouver un vecteur \(\vec{v}_2\) qui satisfait cette équation pour \(\vec{v}_1=(1,1)\text{,}\) le vecteur propre trouvé à l’exemple 6.1.13.
Réponse.
\(\vec{v}_2=(4,3)\)
Solution.
On a
\begin{align*} \left( \begin{array}{cc|c}3 & -3& 1 \\ 3 & -3& 1 \end{array}\right)&\begin{array}{l}L_2-L_1\to L_2 \\ \sim \end{array}\left( \begin{array}{cc|c}3 & -3& 1 \\ 0 & 0& 0 \end{array}\right)\\ &\begin{array}{l}L_1/3\to L_1 \\ \sim \end{array}\left( \begin{array}{cc|c}1 & -1& 1/3 \\ 0 & 0& 0 \end{array}\right)\text{.} \end{align*}
Une solution à ce système est \(\vec{u}=\left(\frac{1}{3},0\right)\text{.}\)
(c)
Donner l’écriture de \(B\) dans la base \(\mathcal{C}=\langle \vec{v}_1,\vec{v}_2 \rangle\text{.}\)
Réponse.
\(B_{\mathcal{B}}=\begin{pmatrix} -2& 1\\ 0& -2 \end{pmatrix}\)
Solution.
On pose \(P=\begin{pmatrix} 1& 1/3\\ 1& 0\end{pmatrix}\text{.}\) On a alors \(P^{-1}=-3\begin{pmatrix} 0& -1/3\\ -1& 1\end{pmatrix}=\begin{pmatrix} 0& 1\\ 3& -3\end{pmatrix}\) et
\begin{equation*} B_{\mathcal{B}}=P^{-1}BP=\begin{pmatrix} -2& 1\\ 0& -2 \end{pmatrix} \end{equation*}
La matrice obtenue dans la dernière partie de cet exercice est appelée la forme de Jordan de \(B\text{.}\) C’est une forme de généralisation des matrices diagonales lorsque le nombre de vecteurs propres est insuffisant pour diagonaliser la matrice.

8.

Démontrer les formules de changement de base dans le cas général de la proposition 6.2.15.
Solution.
Soit \(P\text{,}\) la matrice de changement de base contenant les vecteurs de \(\mathcal{B}\) et \(Q\) la matrice de changement de base contenant les vecteurs de \(\mathcal{C}\text{.}\) Selon la proposition 6.2.10, on obtient la représentation de \(A_{\mathcal{B}}\) dans la base standard à l’aide de l’équation
\begin{equation*} A=PA_{\mathcal{B}}P^{-1}\text{.} \end{equation*}
De plus, toujours selon la propriété 6.2.10, on peut obtenir \(A_{\mathcal{C}}\) à partir de \(A\) à l’aide de la formule
\begin{align*} A_{\mathcal{C}}&=Q^{-1}AQ\\ &=Q^{-1}PA_{\mathcal{B}}P^{-1}Q\text{.} \end{align*}
On pose \(P_{\mathcal{B}\to\mathcal{C}}=Q^{-1}P\text{.}\) On remarque que
\begin{equation*} P_{\mathcal{B}\to\mathcal{C}}^{-1}=(Q^{-1}P)^{-1}=P^{-1}Q \end{equation*}
et donc que
\begin{equation} A_{\mathcal{C}}=Q^{-1}PA_{\mathcal{B}}P^{-1}Q= P_{\mathcal{B}\to\mathcal{C}}A_{\mathcal{B}} P_{\mathcal{B}\to\mathcal{C}}^{-1}\text{.}\tag{6.2.2} \end{equation}
Puisque \(P_{\mathcal{C}\to\mathcal{B}}= P_{\mathcal{B}\to\mathcal{C}}^{-1}\text{,}\) on isole \(A_{\mathcal{B}}\) dans l’équation (6.2.2) pour trouver
\begin{align*} A_{\mathcal{C}}&=P_{\mathcal{B}\to\mathcal{C}}A_{\mathcal{B}} P_{\mathcal{B}\to\mathcal{C}}^{-1}\\ P_{\mathcal{B}\to\mathcal{C}}^{-1}A_{\mathcal{C}}&=A_{\mathcal{B}} P_{\mathcal{B}\to\mathcal{C}}^{-1}\\ P_{\mathcal{B}\to\mathcal{C}}^{-1}A_{\mathcal{C}}P_{\mathcal{B}\to\mathcal{C}}&=P_{\mathcal{B}\to\mathcal{C}}A_{\mathcal{B}} \\ P_{\mathcal{C}\to\mathcal{B}}A_{\mathcal{C}}P_{\mathcal{C}\to\mathcal{B}}^{-1}&=A_{\mathcal{B}} \text{.} \end{align*}

9.

Dans cet exercice, on veut démontrer la proposition 6.2.17
(a)
Montrer que si \(A\) est semblable à \(B\text{,}\) alors \(\det(A)=\det(B)\text{.}\)
Solution.
Soit \(A,B\text{,}\) deux matrices semblables. Il existe donc une matrice \(P\) inversible pour laquelle on a
\begin{equation*} A=PBP^{-1}\text{.} \end{equation*}
On a
\begin{align*} \text{det}(A)&=\text{det}(PBP^{-1})\\ &=\text{det}(P)\text{det}(B)\text{det}(P^{1}) && \text{ selon la propriété du produit} \knowl{./knowl/xref/thm-detprop.html}{\text{4.2.16}} \\ &=\text{det}(P)\text{det}(B)\frac{1}{\text{det}(P)} && \text{ selon la propriété de l'inverse} \knowl{./knowl/xref/thm-detprop.html}{\text{4.2.16}} \\ &=\text{det}(B) &&\text{ car } \text{det}(P)\frac{1}{\text{det}(P)}=1\text{.} \end{align*}
(b)
Montrer que si \(A\) est semblable à \(B\text{,}\) alors \(A-\lambda I\) est semblable à \(B-\lambda I\text{.}\)
Indice.
Utiliser le fait que \(I=PP^{-1}\) pour factoriser \(A-\lambda I\text{.}\)
Solution.
Soit \(A,B\text{,}\) deux matrices semblables. Il existe donc une matrice \(P\) inversible pour laquelle on a
\begin{equation*} A=PBP^{-1}\text{.} \end{equation*}
On peut factoriser \(A-\lambda I\) comme suit:
\begin{align*} A-\lambda I&=PBP^{-1}-\lambda PP^{-1}\\ &=P(B-\lambda I)P^{-1}\text{.} \end{align*}
Les matrices sont donc semblables.
(c)
Démontrer la proposition 6.2.17.
Solution.
Puisque \(A-\lambda I\) est semblable à \(B-\lambda I\) lorsque \(A\) est semblable à \(B\text{,}\) on conclut de la première partie de cet exercice que
\begin{equation*} \text{det}(A-\lambda I)=\text{det}(B-\lambda I)\text{.} \end{equation*}
Ainsi, le polynôme caractéristique de \(A-\lambda I\) est le même que celui de \(B-\lambda I\) et les valeurs propres seront les mêmes.

10.

Déterminer si les énoncés suivants sont vrais ou faux. Lorsque vrais, donner une démonstration et lorsque faux, donner un contrexemple.
(a)
Si \(A\) est semblable à \(B\text{,}\) alors \(A^2\) est semblable à \(B^2\text{.}\)
Réponse.
Vrai
Solution.
Si \(A\) est semblable à \(B\text{,}\) il existe une matrice \(P\) inversible pour laquelle \(A=PBP^{-1}\text{.}\) On a alors
\begin{equation*} A^2=PBP^{-1}PBP^{-1}=PB^2P^{-1}\text{.} \end{equation*}
Les matrices sont donc semblables avec la même matrice \(P\text{.}\)
(b)
Si \(A^2\) est semblable à \(B^2\text{,}\) alors \(A\) est semblable à \(B\text{.}\)
Indice.
La proposition 6.2.17 dit que deux matrices semblables ont les mêmes valeurs propres. La proposition 6.1.18 dit que \(\lambda^2\) est une valeur propre de \(A^2\) si \(\lambda\) est une valeur propre de \(A\text{.}\) Est-il possible de trouver des matrices \(A,B\) telles que les valeurs propres de \(A^2,B^2\) sont les mêmes, mais pas celles de \(A,B\text{?}\)
Réponse.
Faux
Solution.
Inspiré par l’indice, on tente de trouver des matrices avec des valeurs propres différentes, mais qui ont les mêmes valeurs propres lorsque prises à la puissance deux. Puisque \(\lambda^2\) sera une valeur propre de \(A^2\text{,}\) on peut penser à trouver une matrice \(A\) dont l’une des valeurs propres est négative et une matrice \(B\) qui a comme valeur propre la valeur absolue de cette valeur propre et telles que le carré de ces matrices donne la même matrice. On peut penser à une réflexion et une rotation de \(180^\circ\text{.}\) Pour la réflexion, on aura deux valeurs propres, \(-1\) et \(1\) et, pour la rotation, il n’y a qu’une valeur propre double valant \(1\text{.}\) Dans les deux cas, le carré de ces matrices donne l’identité. Ces puissances sont donc semblables. Plus précisément, on pose \(A=\begin{pmatrix} 0& 1\\ 1& 0\end{pmatrix}\) et \(B=\begin{pmatrix} -1& 0\\ 0& -1\end{pmatrix}\) où la réflexion est par rapport à la droite \(y=x\text{.}\) Comme \(A^2=B^2=I\text{,}\) les carrés de ces matrices sont semblables. Soit \(P=\begin{pmatrix} a& c\\ b& d\end{pmatrix}\text{,}\) une matrice inversible. Si \(A\) est semblable à \(B\text{,}\) on doit avoir
\begin{align*} AP&=PB\\ \begin{pmatrix} 0& 1\\ 1& 0\end{pmatrix}\begin{pmatrix} a& c\\ b& d\end{pmatrix}&=\begin{pmatrix} a& c\\ b& d\end{pmatrix}\begin{pmatrix} -1& 0\\ 0& -1\end{pmatrix}\\ \begin{pmatrix} c& a\\ d& b\end{pmatrix}&=\begin{pmatrix} -a& -c\\ -b& -d\end{pmatrix}\text{.} \end{align*}
De cette égalité, on tire que \(c=-a\) et \(d=-b\text{.}\) La matrice \(P\) est donc \(P=\begin{pmatrix} a& -a\\ b& -b\end{pmatrix}\text{.}\) Cette matrice ne peut toutefois pas être inversible, son déterminant étant négatif. Par conséquent, \(A\) et \(B\) ne sont pas semblables.
(c)
Si \(A\) est inversible et semblable à \(B\text{,}\) alors \(B\) est inversible.
Réponse.
Vrai
Solution.
Puisque \(A\) est semblable à \(B\text{,}\) on peut écrire
\begin{equation*} B=P^{-1}AP\text{.} \end{equation*}
Comme \(A,P\) sont inversibles, la proposition 2.3.18 garantit que \(B\) est inversible.

11.

Soit \(A\text{,}\) une matrice telle que \(A^2=A\text{.}\)
(a)
Montrer que les seules valeurs propres possibles pour \(A\) sont \(\lambda=0\) ou \(\lambda=1\text{.}\)
Solution.
On sait, par la proposition 6.1.18, que si \(\lambda\) est une valeur propre de \(A\text{,}\) alors \(\lambda^2\) est une valeur propre de \(A^2\text{.}\) Puisque ces deux matrices sont égales, on doit avoir \(\lambda^2=\lambda\) pour toutes les valeurs propres, ce qui entraine que \(\lambda(\lambda-1)=0\) et que les seules valeurs possibles sont \(0\) ou \(1\text{.}\)
(b)
Montrer que \(A\) est diagonalisable.
Indice.
Utiliser l’exercice 5.3.4.14.
Solution.
À l’exercice 5.3.4.14, on a montré que si \(A^2=A\text{,}\) alors \(\mathcal{C}(A)=\{\vec{v}\in\mathbb{R}^n~|~ A\vec{v}=\vec{v}\}\text{.}\) Ceci correspond donc au vecteur propre associé à la valeur propre \(\lambda=1\text{.}\) De plus, l’espace nul, caractérisé par les vecteurs tels que \(A\vec{v}=\vec{0}\text{,}\) est composé des vecteurs propres associés à la valeur propre \(0\text{.}\) Finalement, toujours à l’exercice 5.3.4.14, on a montré que \(\mathcal{C}(A)+\mathcal{N}(A)=\mathbb{R^n}\text{.}\) Cela signifie qu’il y a \(n\) vecteurs propres indépendants et que \(A\) est diagonalisable.

12.

Soit \(A,B\text{,}\) des matrices de tailles \(n\times n\text{.}\)
(a)
On suppose que \(A\) et \(B\) sont diagonalisables et qu’elles possèdent les mêmes vecteurs propres. Montrer que les matrices commutent, c’est-à-dire que \(AB=BA\text{.}\)
Indice.
Deux matrices diagonales commutent toujours.
Solution.
Puisque \(A\) est diagonalisable, il existe une matrice \(D_1\) telle que
\begin{equation*} A=PD_1P^{-1} \end{equation*}
\(P\) est la matrice contenant les vecteurs propres de \(A\) (et \(B\)) dans ses colonnes. De même, il existe une matrice \(D_2\) pour laquelle
\begin{equation*} B=PD_2P^{-1}\text{.} \end{equation*}
On a alors
\begin{align*} AB&=PD_1P^{-1}PD_2P^{-1}\\ &=PD_1D_2P^{-1}\\ &=PD_2D_1P^{-1} && \text{deux matrices diagonales commutent toujours}\\ &=PD_2P^{-1}PD_1P^{-1}\\ &BA\text{.} \end{align*}
(b)
On suppose maintenant que \(A\) possède \(n\) valeurs propres réelles distinctes et que \(AB=BA\text{.}\) Montrer que \(B\) est diagonalisable.
Indice.
Montrer que tous les vecteurs propres de \(A\) sont des vecteurs propres de \(B\text{.}\) Utiliser le fait que les espaces propres de \(A\) sont de dimension \(1\text{.}\)
Solution.
Soit \(\vec{v}\text{,}\) un vecteur propre de \(A\text{.}\) D’un côté, on a
\begin{align*} A(B\vec{v})&=B(A\vec{v})&&\text{ car } AB=BA\\ &=B\lambda\vec{v}&&\text{ car } \vec{v} \text{ est un vecteur propre de } A\\ &=\lambda (B\vec{v})\text{,} \end{align*}
ce qui signifie que \(B\vec{v}\) est un vecteur propre de \(A\) associé à \(\lambda\text{.}\) Puisque \(A\) possède \(n\) valeurs propres distinctes, les espaces propres associés à chaque valeur propre sont alors de dimension \(1\text{.}\) Il découle de ce fait que \(B\vec{v}\) doit être un multiple de \(\vec{v}\) et que \(B\vec{v}=\mu \vec{v}\text{,}\) faisant de \(\vec{v}\) un vecteur propre de \(B\text{.}\)
Comme \(\vec{v}\) était arbitraire, on conclut que tous les vecteurs propres de \(A\) sont des vecteurs propres de \(B\text{.}\) Comme il y en a \(n\text{,}\) on peut alors affirmer qu’il y a suffisamment de vecteurs propres pour diagonaliser \(B\text{.}\)

13.

Soit \(P\text{,}\) une matrice inversible (de vecteurs propres). On pose
\begin{equation*} V=\{A\in\mathcal{M}_{n\times n}~|~ \text{ il existe une matrice diagonale quelconque} D \text{ telle que } A=PDP^{-1} \} \end{equation*}
l’ensemble des matrices diagonalisable par \(P\text{.}\) Montrer que cet ensemble est un sous-espace vectoriel.
Solution.
Soit \(A,B\in V\) et \(k\in \mathbb{R}\text{.}\) D’un côté, on a
\begin{align*} A+B=&=PD_1P^{-1}+PD_2P^{-1}\\ &=P(D_1+D_2)P^{-1}\\ &=PD_3P^{-1}&& \text{ où } D_3=D_1+D_2 \text{ est diagonale également }\text{.} \end{align*}
Le sous-ensemble \(V\) est donc fermé sous l’addition. De plus,
\begin{align*} kA&=kPD_1P^{-1}\\ P(kD_1)P^{-1}\text{.} \end{align*}
Comme la matrice \(kD_1\) est aussi diagonale, le sous-ensemble \(V\) est fermé pour la multiplication par un scalaire. On a donc un sous-espace vectoriel.

Exercices Sage.

Les exercices qui suivent sont conçus pour être résolus avec Sage. Des cellules vides sont disponibles pour écrire les réponses. Évidemment, il y a plusieurs manières d’arriver aux réponses.
14. Fibonacci, prise 2.
On poursuit l’exploration entamée à l’exercice 6.1.4.19 de la suite de Fibonacci en regardant comment la diagonalisation peut aider à comprendre cette suite.
À la partie 6.1.4.19.g, on a proposé une manière de calculer \(f_n\) en décomposant le vecteur initial comme une combinaison linéaire des vecteurs propres. Ceci avait été fait dans le but d’éviter d’avoir à calculer les grandes puissances de la matrice \(A\text{.}\) Par contre, avec la diagonalisation, le calcul des puissances n’est plus très difficile. Calculer \(D^{100}\) et à partir de celle-ci, \(A^{100}\text{.}\) Vérifier que \(A^{100}\vec{x}_0=f_{100}\text{.}\)
Solution.
l1=(1-sqrt(5))/2
l2=(1+sqrt(5))/2
v1=vector([l1,1])
v2=vector([l2,1])
x0=vector([0,1])
P=column_matrix(RDF,[v1,v2])
Pinv=P.inverse()
D=matrix(RDF,[[l1,0],[0,l2]])
show(D^100)
show(P*D^100*Pinv)
show(P*D^100*Pinv*x0)
Bloc de code 6.2.23. Le code de la solution