Sauter au contenu
Logo image

Algèbre linéaire: Intuition et rigueur

Section 2.4 Transformations linéaires de dimension supérieure

Aller aux exercices 2.4.3 de la section.
On propose maintenant une courte section exploratoire sur les transformations linéaires de plus grandes dimensions . Les concepts géométriques devront être précisés afin d’avoir une signification dans les espaces plus abstraits et des questions, comme quand il s’agit de trouver l’inverse d’une matrice, mettront à l’avant-plan la nécessité de développer les outils techniques du chapitre 3.
On commence la section en terrain familier, soit avec les transformations linéaires de nature géométrique, mais dans \(\R^3\text{.}\) On verra rapidement que le calcul de l’inverse implique un niveau de difficulté supérieur à ce qui a été vu jusqu’ici.
Finalement, on généralise en considérant les matrices de taille \(m\times n\)\(m\) n’est pas nécessairement égal à \(n\text{.}\) On se questionne sur la signification d’un inverse pour ces transformations, présentant par le fait même des concepts qui seront détaillés au chapitre suivant.

Sous-section 2.4.1 Transformations linéaires dans l’espace à trois dimensions

N’importe quel vecteur de \(\R^3\) peut être écrit de manière unique comme une combinaison linéaire 1.3.1 des vecteurs \((1,0,0),(0,1,0)\) et \((0,0,1)\text{.}\) On peut donc décrire une transformation linéaire dans \(\R^3\) par une matrice \(3\times 3\) où chaque colonne représente l’image de ces trois vecteurs. La transformation identité, qui consiste à ne rien faire, est donnée par la matrice
\begin{equation*} I_3=\begin{pmatrix} 1& 0& 0\\ 0& 1& 0\\ 0& 0& 1 \end{pmatrix}\text{.} \end{equation*}
Un étirement de facteurs \(k_1,k_2,k_3\) dans la direction des vecteurs \((1,0,0),(0,1,0)\) et \((0,0,1)\) est un exemple plus élaboré d’une transformation de l’espace.

Exemple 2.4.1. Étirements dans \(\R^3\).

On considère une transformation linéaire qui étire dans la direction des abscisses d’un facteur \(3\text{,}\) dans la direction des ordonnées d’un facteur \(2\) et dans la direction des cotes d’un facteur \(-4\text{.}\) On veut déterminer la matrice de cette transformation.
Solution.
L’image des vecteurs \((1,0,0),(0,1,0)\) et \((0,0,1)\) est respectivement \((3,0,0),(0,2,0)\) et \((0,0,-4)\text{.}\) La matrice est donc
\begin{equation*} A=\begin{pmatrix} 3& 0& 0\\ 0& 2& 0\\ 0& 0& -4 \end{pmatrix}\text{.} \end{equation*}
Une homothétie est un étirement simultané pour lequel \(k_1=k_2=k_3\text{.}\)
On s’intéresse maintenant aux rotations dans \(\R^3\text{.}\) Dans le plan, une rotation s’effectue autour d’un point. Comme on veut que l’origine reste fixe, il n’y a qu’un choix possible: tourner autour du point \((0,0)\text{.}\) Dans \(\R^3\text{,}\) les rotations s’effectuent autour d’une droite, appelée l’axe de rotation. L’angle, lui, se calcule dans le plan perpendiculaire à l’axe de rotation. On commence par déterminer les matrices de rotation par rapport aux axes de coordonnées.

Exemple 2.4.2. Rotation par rapport aux axes de coordonnées.

On note les matrices de rotation par rapport aux axes de coordonnées \(x,y,z\) respectivement \(R_{\theta_x},R_{\theta_y}\) et \(R_{\theta_z}\text{.}\) On cherche à déterminer ces matrices en fonction d’un angle \(\theta\text{.}\) La figure interactive 2.4.3 peut être pratique pour visualiser les situations.
Instructions.
Un clic sur l’un des trois boutons mettra la figure dans la bonne perspective. On pourra ensuite déplacer l’image d’un vecteur selon un angle \(\theta\) afin de visualiser où vont les vecteurs \((1,0,0),(0,1,0)\) et \((0,0,1)\text{.}\)
Figure 2.4.3. Les rotations standards dans \(\R^3\)
Dans chacun des cas, on choisit de mesurer l’angle à partir du raisonnement suivant. On écrit la séquence \(x\to y\to z \to x \to y\text{.}\) On choisit l’axe de rotation et l’on supprime la première occurrence de cet axe dans la séquence. L’angle est mesuré entre les demi-axes positifs selon la première flèche à sa droite. Ainsi, l’angle pour une rotation par rapport à l’axe des \(y\) est mesuré de l’axe des \(z\) vers l’axe des \(x\) positifs.
Solution 1.
On débute avec la rotation selon l’axe des \(z\text{,}\) car c’est celle qui est le plus près de la rotation dans \(\R^2\text{.}\) Dans un premier temps, l’image du vecteur \((0,0,1)\) est \((0,0,1)\) car celui-ci est sur l’axe de rotation. Comme l’angle est mesuré de l’axe des \(x\) vers l’axe des \(y\text{,}\) l’image du vecteur \((1,0,0)\) sera de la forme \((\cos(\theta),\sin(\theta),0)\text{.}\) La figure 2.4.3 illustre l’image du vecteur \((1,0,0)\) si l’on clique sur rotation selon l’axe des \(z\text{.}\)
Comme le vecteur \((0,1,0)\) est perpendiculaire au vecteur \((1,0,0)\) dans le sens antihoraire, son image sera perpendiculaire à \((cos(\theta),\sin(\theta),0)\text{,}\) aussi dans le sens anithoraire et sera aussi dans le plan \(z=0\text{.}\) En suivant un raisonnement similaire à celui de l’exemple 2.1.29, on obtient \(R_{\theta_z}(0,1,0)=(-\sin(\theta),\cos(\theta),0)\text{.}\) La matrice est donc
\begin{equation} R_{\theta_z}=\begin{pmatrix} \cos(\theta) & -\sin(\theta) & 0 \\ \sin(\theta) & \cos(\theta) & 0 \\ 0 & 0 & 1\end{pmatrix}\text{.}\tag{2.4.1} \end{equation}
Solution 2.
On considère maintenant la rotation selon l’axe des \(y\text{.}\) Selon la séquence, l’angle sera mesuré de l’axe des \(z\) positifs vers l’axe des \(x\) positifs. Évidemment, l’image du vecteur \((0,1,0)\) est le vecteur lui-même puisque celui-ci est sur l’axe de rotation.
On commence par trouver l’image du vecteur \((0,0,1)\text{.}\) La figure 2.4.3 peut être pratique pour visualiser les situations. Un clic sur rotation selon l’axe des \(y\) fera apparaitre l’image du vecteur \((0,0,1)\text{.}\) L’image du vecteur \((0,0,1)\) est \((\sin(\theta),0,\cos(\theta))\text{.}\)
Comme le vecteur \((1,0,0)\) est perpendiculaire au vecteur \((0,0,1)\) dans le sens antihoraire, son image sera perpendiculaire à \((\sin(\theta),0,\cos(\theta))\text{,}\) aussi dans le sens antihoraire et sera aussi dans le plan \(y=0\text{.}\) En suivant un raisonnement similaire à celui de l’exemple 2.1.29, on obtient \(R_{\theta_y}(1,0,0)=(\cos(\theta),0,-\sin(\theta))\text{.}\) La matrice est donc
\begin{equation} R_{\theta_y}=\begin{pmatrix} \cos(\theta) & 0 & \sin(\theta) \\ 0 & 1 & 0 \\ -\sin(\theta) & 0 & \cos(\theta)\end{pmatrix}\text{.}\tag{2.4.2} \end{equation}
Solution 3.
La matrice de rotation selon l’axe des \(x\) est obtenue à l’exercice 2.4.3.6.
Les rotations par rapport à des droites quelconques sont un peu plus difficiles à analyser. On explore le sujet dans l’exemple calculatoire 2.4.6 et l’on s’y intéressera davantage dans la section [provisional cross-reference: matrices orthogonales].
On regarde maintenant les réflexions de l’espace. Dans le plan, la réflexion s’effectue selon une droite, mais, dans l’espace, c’est selon un plan que la réflexion s’effectue. On détermine les matrices de réflexion selon les plans \(x=0\text{,}\) \(y=0\) et \(z=0\text{.}\)

Exemple 2.4.4. Réflexion par rapport aux plans \(x=0\text{,}\) \(y=0\) et \(z=0\).

On note par \(S_{yOz}\text{,}\) \(S_{xOz}\text{,}\) \(S_{xOy}\) les matrices de réflexion par rapport aux plans respectifs \(x=0\text{,}\) \(y=0\) et \(z=0\text{.}\)
 1 
Dans \(\R^2\text{,}\) on avait noté \(S_y\) la réflexion par rapport à l’axe des \(y\text{,}\) correspondant à \(x=0\text{.}\) On a choisi la notation \(yOz\) pour faire un parallèle avec cette notation pour décrire la réflexion dans \(\R^3\) par rapport au plan \(x=0: S_{yOz}\text{.}\)
On cherche les matrices \(S_{yOz}\text{,}\) \(S_{xOz}\text{,}\) \(S_{xOy}\text{.}\)
Solution.
On commence par la réflexion \(S_{yOz}\) selon le plan \(x=0\text{.}\) Comme le vecteur \((1,0,0)\) est perpendiculaire au plan (c’est un vecteur normal de ce plan), sa réflexion est donnée par \((-1,0,0)\text{.}\) Les vecteurs \((0,1,0)\) et \((0,0,1)\text{,}\) quant à eux sont, sur le plan et ne sont pas affectés par la réflexion. La matrice est donc
\begin{equation} S_{yOz}=\begin{pmatrix} -1& 0& 0\\ 0& 1 & 0 \\ 0& 0& 1 \end{pmatrix}\text{.}\tag{2.4.3} \end{equation}
De manière similaire, on obtient
\begin{equation} S_{xOz}=\begin{pmatrix} 1& 0& 0\\ 0& -1 & 0 \\ 0& 0& 1 \end{pmatrix}\tag{2.4.4} \end{equation}
et
\begin{equation} S_{xOy}=\begin{pmatrix} 1& 0& 0\\ 0& 1 & 0 \\ 0& 0& -1 \end{pmatrix}\text{.}\tag{2.4.5} \end{equation}
Les réflexions par rapport à des plans quelconques sont plus difficiles à analyser. On explore le sujet dans l’exercice 2.4.3.9 et l’on s’y intéressera davantage dans la section [provisional cross-reference: matrices orthogonales].
En quoi consiste l’inverse des rotations et réflexions dans \(\R^3\text{?}\) Comme c’était le cas dans \(\R^2\text{,}\) l’inverse d’une rotation d’angle \(\theta\) et d’axe de rotation \(\mathcal{D}\) est une rotation d’angle \(-\theta\text{,}\) aussi d’axe \(\mathcal{D}\text{.}\) Pour la réflexion, il suffit de refaire la même réflexion. On vérifie cette intuition avec des rotations et des réflexions simples calculées aux exemples 2.4.2 et 2.4.4.

Exemple 2.4.5. L’inverse de rotations et réflexions simples.

On vérifie que l’inverse des matrices \(R_{\theta_z}\) et \(S_{yOz}\) est respectivement \(R_{-\theta_z}\) et \(S_{yOz}\text{.}\)
Solution.
On commence par l’inverse de la rotation. Il suffit de vérifier que \(R_{\theta_z}R_{-\theta_z}=I\text{.}\) On a
\begin{align*} R_{\theta_z}R_{-\theta_z}&=\begin{pmatrix} \cos(\theta) & -\sin(\theta) & 0 \\ \sin(\theta) & \cos(\theta) & 0 \\ 0 & 0 & 1\end{pmatrix}\begin{pmatrix} \cos(-\theta) & -\sin(-\theta) & 0 \\ \sin(-\theta) & \cos(-\theta) & 0 \\ 0 & 0 & 1\end{pmatrix}\\ &=\begin{pmatrix} \cos(\theta) & -\sin(\theta) & 0 \\ \sin(\theta) & \cos(\theta) & 0 \\ 0 & 0 & 1\end{pmatrix}\begin{pmatrix} \cos(\theta) & \sin(\theta) & 0 \\ -\sin(\theta) & \cos(\theta) & 0 \\ 0 & 0 & 1\end{pmatrix} && \text{grâce aux identités trigonométriques}\\ &=\begin{pmatrix} \lvert & \lvert & \lvert \\ R_{\theta_z}\vecddd{\cos(\theta)}{-\sin(\theta)}{0} & R_{\theta_z}\vecddd{\sin(\theta)}{\cos(\theta)}{0}& R_{\theta_z}\vecddd{0}{0}{1}\\ \lvert & \lvert & \lvert\end{pmatrix} &&\text{ par la définition } \knowl{./knowl/xref/def-matmatprod.html}{\text{2.2.1}}\\ &=\begin{pmatrix} \cos^2(\theta)+\sin^2(\theta)& 0& 0 \\ 0& \sin^2(\theta)+\cos^2(\theta)& 0\\0& 0& 1 \end{pmatrix}\\ &=\begin{pmatrix} 1 & 0& 0 \\ 0 & 1& 0 \\ 0 & 0& 1 \end{pmatrix}\\ &=I\text{.} \end{align*}
Pour la réflexion, on remarque que les deuxième et troisième colonnes de \(S_{yOz}\) (2.4.3) sont respectivement \((0,1,0)\) et \((0,0,1)\text{.}\) Les produits \(S_{yOz}\vecddd{0}{1}{0}\) et \(S_{yOz}\vecddd{0}{0}{1}\) seront donc égaux, respectivement à la deuxième et la troisième colonne de la matrice \(S_{yOz}\text{.}\) De plus, comme le produit \(S_{yOz}\vecddd{-1}{0}{0}\) donne l’opposé de la première colonne, on a
\begin{equation*} S_{yOz}S_{yOz}=\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}=I\text{.} \end{equation*}
En fonction du théorème 2.3.12, on a
\begin{align*} R_{\theta_z}^{-1}&=R_{-\theta_z} \\ S_{yOz}^{-1}&= S_{yOz}\text{.} \end{align*}
On termine avec un exemple Sage en lien avec la sous-section.

Calcul 2.4.6. Les rotations selon une droite passant par l’origine dans \(\R^3\).

Il existe différentes manières de calculer ou d’obtenir la matrice d’une transformation linéaire. La méthode décrite à l’équation (2.3.3) fonctionne si l’on peut trouver l’image d’un nombre suffisant de vecteurs indépendants. L’exemple 2.2.15 montre une autre manière en se ramenant à un cas connu (voir aussi 2.2.14)
On utilise la seconde méthode pour trouver la matrice d’une rotation dans \(\R^3\) dont l’axe de rotation est une droite quelconque, passant par l’origine. L’idée est d’effectuer des rotations connues pour superposer l’axe de rotation sur l’axe des \(x\text{,}\) faire une rotation selon l’axe des \(x\) et défaire les rotations qui ont déplacé l’axe de rotation original. Le processus est illustré en étape dans la figure 2.4.7.
Instructions.
Il est possible de déplacer l’axe de rotation et le vecteur qui fera une rotation autour de l’axe. L’angle de la rotation est fixé à \(135^\circ\text{.}\) Comme il n’y a que la direction qui est importante, les vecteurs sont fixés pour être unitaires.
Figure 2.4.7. Les rotations dans \(\R^3\)
L’animation effectue les étapes suivantes au fil des clics:
  1. On commence par ramener l’axe de rotation dans le plan généré par les vecteurs \((1,0,0)\) et \((0,0,1)\text{.}\) On ramène ensuite l’axe sur l’axe des \(z\text{.}\)
    Pour cela, on calcule l’angle que fait la projection de l’axe de rotation sur le plan \(z=0\) avec l’axe des \(x\text{.}\) On note cet angle \(\theta_x\text{.}\)
    Une rotation par rapport à l’axe des \(z\) d’angle \(-\theta_x\) ramènera l’axe de rotation dans le plan \(y=0\text{.}\)
    On fait subir cette même rotation au vecteur \(\vec{u}\text{.}\)
  2. On veut ensuite ramener le nouvel axe sur l’axe des \(z\text{.}\) Pour cela, on calcule l’angle \(\theta_z\) entre l’axe des \(z\) et le vecteur dans le plan \(y=0\text{.}\)
    Une rotation par rapport à l’axe des \(y\) d’angle \(-\theta_z\) ramènera le vecteur sur l’axe des \(z\text{.}\)
    On fait aussi subir cette rotation au vecteur \(\vec{u}\) précédemment transformé.
  3. Ensuite, on effectue la rotation du vecteur \(\vec{u}\) ayant subi les deux rotations, par rapport à l’axe des \(z\text{.}\) Ceci est équivalent à la rotation par rapport à l’axe original, mais le vecteur \(\vec{u}\) transformé n’est pas au bon endroit.
  4. Finalement, on défait les rotations par rapport à l’axe des \(y\) et à l’axe des \(z\) d’angle \(\theta_z\) et \(\theta_x\) (dans cet ordre) pour remettre en place le vecteur \(\vec{u}\) transformé et l’axe de rotation déplacé.
On fait un exemple concret avec le vecteur \(\vec{u}=(1,2,-1)\) autour de l’axe \((-1,1,2)\) et un angle de \(60^\circ\text{.}\) On effectue les calculs avec Sage.
Dans un premier temps, on veut déterminer l’angle \(\theta_x\) que fait la projection de l’axe de rotation \((-1,1,2)\) sur le plan \(z=0\) avec l’axe des \(x\text{.}\)
On utilise la fonction définie à l’exercice 1.2.4.15 pour calculer l’angle entre deux vecteurs.
On calcule ensuite la rotation de l’axe et du vecteur \(\vec{u}\) autour de l’axe des \(z\) d’un angle \(-\theta_x\text{.}\) Cela amène l’axe de rotation dans le plan \(y=0\text{.}\) On remarque l’application de la fonction .apply_map(lambda x: x.trig_reduce()) pour simplifier les expressions trigonométriques.
La prochaine étape implique de calculer l’angle que fait le vecteur \(\vecl{vrotz}\) avec l’axe des \(z\) afin de le ramener sur celui-ci par une rotation appropriée selon l’axe des \(y\) . On applique aussi cette rotation au vecteur \(\vecl{urotz}\text{.}\)
On remarque que, pour la suite, il n’était pas nécessaire de calculer le vecteur \(\vecl{vroty}\text{,}\) mais qu’il s’agit d’une bonne manière de valider les calculs.
Il reste maintenant à calculer l’image du vecteur \(\vecl{uroty}\) par une rotation selon l’axe des \(z\) d’un angle de \(60\) degrés. Par la suite, on défait les rotations afin de replacer le vecteur au bon endroit.
Pour terminer, on replace le vecteur \(\vecl{urot}\) au bon endroit en lui appliquant les rotations inverses \(R_y^{-1}\) et \(R_z^{-1}\text{,}\) dans cet ordre.

Sous-section 2.4.2 Transformations de dimension quelconque

On considère la matrice
\begin{equation*} A=\begin{pmatrix} 1& 0 \\ 0& 1 \\ 1& 1 \end{pmatrix}\text{.} \end{equation*}
Cet exemple simple est une transformation linéaire qui transforme des vecteurs de \(\R^2\) en les associant à des vecteurs de \(\R^3\) en faisant correspondre les coordonnées \(x,y\) de l’image à celles du domaine et en additionnant les valeurs \(x,y\) pour obtenir la valeur de \(z\text{:}\)
\begin{equation*} A\vecd{x}{y}=\begin{pmatrix} 1& 0 \\ 0& 1 \\ 1& 1 \end{pmatrix}\vecd{x}{y}=\vecddd{x}{y}{x+y}\text{.} \end{equation*}
La question du produit matriciel de deux matrices \(m\times n\) a déjà été considérée à la section 2.2, bien que ces exemples concernaient principalement un contexte géométrique avec des matrices \(2\times 2\) ou \(3\times 3\text{.}\)
Toutefois, la question de l’inverse demeure. Une première question se pose si l’on se souvient de la proposition 2.3.9 qui dit que les transformations inversibles atteignent tous les vecteurs de leur image. Comme la matrice \(A\) est restreinte aux vecteurs tels que \(z=x+y\text{,}\) elle n’atteint pas l’ensemble des vecteurs de \(\R^3\text{.}\) Serait-elle donc non inversible?
Un calcul simple montre pourtant que
\begin{equation*} \begin{pmatrix} 1& 0& 0 \\ 0 & 1 & 0 \end{pmatrix}\begin{pmatrix} 1& 0 \\ 0& 1 \\ 1& 1 \end{pmatrix}=\begin{pmatrix} 1 & 0 \\ 0 & 1\end{pmatrix}\text{.} \end{equation*}
On pourrait alors penser que la matrice \(B=\begin{pmatrix} 1& 0& 0 \\ 0 & 1 & 0 \end{pmatrix}\) est un inverse et que la proposition 2.3.9 n’est vraie que pour les matrices carrées.
Un autre problème survient lorsqu’on regarde si le théorème 2.3.11 est satisfait. Un autre calcul simple montre que
\begin{equation*} \begin{pmatrix} 1& 0 \\ 0& 1 \\ 1& 1 \end{pmatrix}\begin{pmatrix} 1& 0& 0 \\ 0 & 1 & 0 \end{pmatrix}=\begin{pmatrix} 1& 0& 0 \\ 0 & 1 & 0 \\ 1 & 1 & 0 \end{pmatrix}\text{.} \end{equation*}
Comme cela ne coïncide pas avec la matrice identité dans \(\R^3\text{,}\) on conclut que \(A\) n’est pas l’inverse de \(B\text{,}\) au sens de la définition 2.3.1, bien que \(B\) semble être l’inverse de \(A\) selon cette même définition. Afin de distinguer les choses, on propose la définition suivante.

Définition 2.4.8. Les inverses d’une matrice qui n’est pas carrée.

Soit \(A\text{,}\) une matrice \(m\times n\text{.}\) Une matrice \(B\) de taille \(n\times m\) est un inverse à gauche de la matrice \(A\) si \(BA=I_n\text{.}\) De même, une matrice \(C\) de taille \(n\times m\) est un inverse à droite de la matrice \(A\) si \(AC=I_m\text{.}\)

Remarque 2.4.9. La symétrie des inverses à gauche et à droite.

Si \(B\) est un inverse à gauche de \(A\text{,}\) alors on peut aussi dire que \(A\) est un inverse à droite de \(B\text{.}\) De même, si \(C\) est un inverse à droite de \(A\text{,}\) alors on peut aussi dire que \(A\) est un inverse à gauche de \(C\text{.}\) De plus, si \(m=n\text{,}\) alors le théorème 2.3.11 est satisfait et \(B=C\text{.}\)
Un autre malheureux problème se pose lorsque les matrices ne sont pas carrées. Prenons la matrice \(D=\begin{pmatrix} 2& 1& -1 \\ 1& 2& -1 \end{pmatrix}\text{.}\) Un calcul simple montre qu’on a aussi \(DA=I_2\) et pourtant \(D\neq B\text{.}\) L’inverse à gauche d’une matrice n’est donc pas unique. Il en est de même pour l’inverse à droite. La proposition 2.3.17 ne s’applique donc réellement qu’aux matrices carrées.
Est-ce qu’une matrice \(m\times n\) avec \(m\neq n\) peut avoir à la fois un inverse à gauche et un inverse à droite? Comment calculer les inverses lorsqu’ils existent? Ces questions, en apparence simples, s’avèrent complexes et motivent la nécessité de définir des concepts plus abstraits de la théorie matricielle. Avec les outils du chapitre 3, on sera en mesure de démontrer le théorème [provisional cross-reference: thm-invrect], qui stipule que seules les matrices carrées peuvent avoir un inverse à gauche et un inverse à droite et l’on aura une manière de calculer les inverses à gauche ou à droite de matrices arbitraires, lorsque cela s’avère possible.
On propose une démonstration partielle du résultat, qui sera revisité dans la section[provisional cross-reference: rang d'une matrice] . Les deux propositions suivantes seront utiles.

Démonstration.

Si un vecteur \(\vec{u}_1\in \R^n\) existe tel que \(A\vec{u}_1=\vec{v}\text{,}\) alors on a
\begin{align*} A\vec{u}_1 &=\vec{v}\\ BA\vec{u}_1 &=B\vec{v}\\ I_n\vec{u}_1 &=B\vec{v}\\ \vec{u}_1 &=B\vec{v}\text{.} \end{align*}
Ainsi, \(\vec{u}_1\) est obtenu en prenant le produit de l’inverse à gauche de \(A\) par \(\vec{v}\text{.}\) Or l’inverse de \(A\text{,}\) peut ne pas être unique. Si, pour \(C\neq B\) on a également \(CA=I\text{,}\) alors peut-être que \(\vec{u}_2=C\vec{v}\) est aussi une solution puisque
\begin{align*} A\vec{u}_2&=\vec{v}\\ CA\vec{u}_2&=C\vec{v}\\ I_n\vec{u}_2&=C\vec{v}\\ \vec{u}_2&=C\vec{v}\text{.} \end{align*}
Mais dans ce cas,
\begin{align*} \vec{v}&=\vec{v}\\ A\vec{u}_1 &=A\vec{u}_2\\ BA\vec{u}_1&= BA\vec{u}_2\\ \vec{u}_1&=\vec{u}_2 \end{align*}
et donc, la solution est unique.

Démonstration.

Soit \(\vec{v}\text{,}\) un vecteur de l’image. On pose \(\vec{u}=C\vec{v}\text{.}\) Alors
\begin{align*} A\vec{u}&=AC\vec{v}\\ &=I_m\vec{v}\\ &=\vec{v}\text{.} \end{align*}
et donc, il existe au moins un vecteur du domaine atteignant \(\vec{v}\text{.}\)
L’existence d’un inverse à gauche et d’un inverse à droite est réservée uniquement aux matrices carrées. À l’aide des deux propositions précédentes, on arrive à montrer le résultat suivant.

Démonstration.

Soit \(A\text{,}\) une matrice \(m\times n\) avec \(m< n\text{.}\) Pour simplifier, on suppose que \(m=2\text{.}\) On considère l’équation
\begin{equation} A\vec{u}=\vecd{0}{0}\text{.}\tag{2.4.6} \end{equation}
Évidemment, \(\vec{u}=\vec{0}\) est une solution à l’équation. Soit \(\vec{a}_1,\vec{a}_2\) et \(\vec{a_3}\text{,}\) les trois premières colonnes de \(A\) (on se rappelle que \(n> m=2\)). Si deux de ces vecteurs sont parallèles, disons \(\vec{a_1}=k\vec{a_2}\text{,}\) alors en prenant \(\vec{u}=(1,-k,0,\ldots 0)\text{,}\) on obtient une solution à l’équation (2.4.6) différente du vecteur \(\vec{u}=\vec{0}\text{.}\) Si aucun des vecteurs n’est parallèle à un autre, alors l’exercice 1.3.4.13 garantit l’existence d’une combinaison linéaire \(a\vec{a}_1+b\vec{a}_2+c\vec{a}_3=\vec{0}\)\(a,b,c\) ne sont pas tous nuls. En prenant les trois premières composantes de \(\vec{u}\) égales à \(a,b,c\) et en prenant le reste des composantes nulles (si nécessaire) pour que le vecteur soit de dimension \(m\geq 3\text{,}\) on obtient aussi une solution à l’équation (2.4.6) différente du vecteur \(\vec{u}=\vec{0}\text{.}\) Si \(A\) possédait un inverse à gauche, ceci contredirait la proposition 2.4.10.
Maintenant soit \(B\text{,}\) une matrice \(m\times n\) avec \(m> n\text{.}\) Par simplicité, on suppose que \(n=2\text{.}\) On considère l’équation
\begin{equation} B\vecd{x}{y}=\vec{v}\text{.}\tag{2.4.7} \end{equation}
Soit \(\vec{b}_1,\vec{b}_2\text{,}\) les colonnes de la matrice \(B\text{.}\) Alors l’équation (2.4.7) revient à exprimer le vecteur \(\vec{v}\in \R^m\) comme \(\vec{v}=x\vec{b}_1+y\vec{b}_2\text{.}\) C’est donc dire que le vecteur \(\vec{v}\) est dans le plan engendré par les colonnes de \(B\text{.}\) Or, le plan est un objet à deux dimensions et le vecteur \(\vec{v}\) vit dans un espace à \(m> 2\) dimensions. Il y a donc certainement des vecteurs dans \(\R^m\) qui ne peuvent satisfaire l’équation (2.4.7). Si \(B\) possédait un inverse à droite, ceci contredirait la proposition 2.4.11.
Évidemment, cette preuve n’est pas complète et veut seulement donner une idée intuitive de la véracité du résultat. On reviendra sur ce dernier lorsque des notions plus précises auront été présentées dans les chapitres subséquents.
Les points importants de cette section sont:
  • Les rotations selon les trois axes de coordonnées, définies à l’exemple 2.4.2;
  • Les réflexions par rapport aux trois plans standards, définies à l’exemple 2.4.4;
  • Les inverses de ces transformations, obtenus de manière géométrique à l’exemple 2.4.5;
  • Une matrice rectangulaire \((m\neq n)\) peut avoir des inverses à gauche ou des inverses à droite, mais pas les deux.

Exercices 2.4.3 Exercices

1.

(a)
Donner un exemple d’une matrice \(3\times 5\) qui ne possède pas d’inverse à gauche, mais qui possède un inverse à droite.
Réponse.
\begin{equation*} A=\begin{pmatrix}1&0&0&0&0\\0&1&0&0&0\\0&0&1&0&0\end{pmatrix} \end{equation*}
Solution.
La matrice \(A=\begin{pmatrix}1&0&0&0&0\\0&1&0&0&0\\0&0&1&0&0\end{pmatrix}\) possède un inverse à droite. Voici un exemple d’inverse à droite possible: \(B=\begin{pmatrix}1&0&0\\0&1&0\\0&0&1\\0&0&0\\0&0&0\end{pmatrix}\text{.}\) On vérifie qu’effectivement, on a \(AB=I_3\text{:}\)
\begin{align*} AB&=\begin{pmatrix}1&0&0&0&0\\0&1&0&0&0\\0&0&1&0&0\end{pmatrix} \begin{pmatrix}1&0&0\\0&1&0\\0&0&1\\0&0&0\\0&0&0\end{pmatrix}\\ &=\begin{pmatrix}1&0&0\\0&1&0\\0&0&1\end{pmatrix}\\ &=I_3 \end{align*}
Le théorème 2.4.12 garantit qu’il est impossible que cette matrice possède également un inverse à gauche. On a donc terminé.
(b)
Donner un exemple d’une matrice \(4\times 2\) qui ne possède pas d’inverse à droite, mais qui possède un inverse à gauche.
Réponse.
\begin{equation*} A=\begin{pmatrix}1&0\\0&1\\0&0\\0&0\end{pmatrix} \end{equation*}
Solution.
La matrice \(A=\begin{pmatrix}1&0\\0&1\\0&0\\0&0\end{pmatrix}\) possède un inverse à gauche. Voici un exemple d’inverse à gauche possible: \(B=\begin{pmatrix}1&0&0&0\\0&1&0&0\end{pmatrix}\text{.}\) On vérifie qu’effectivement, on a \(BA=I_2\text{:}\)
\begin{align*} BA&=\begin{pmatrix}1&0&0&0\\0&1&0&0\end{pmatrix}\begin{pmatrix}1&0\\0&1\\0&0\\0&0\end{pmatrix}\\ &=\begin{pmatrix}1&0\\0&1\end{pmatrix}\\ &=I_2 \end{align*}
Le théorème 2.4.12 garantit qu’il est impossible que cette matrice possède également un inverse à gauche. On a donc terminé.

2.

(a)
Trouver un inverse à gauche pour la matrice \(A=\begin{pmatrix} 1 & 0 \\ 0 & 2 \\ 1 & 0 \end{pmatrix}\)
Réponse.
\begin{equation*} A^{-1}_{\text{gauche}}=\begin{pmatrix} 2 & 0 & -1 \\ 1 & \frac{1}{2} & -1 \end{pmatrix} \end{equation*}
Solution.
Trouver un inverse juste comme ça, sans avoir une idée claire de la manière de procéder, peut sembler très difficile à première vue. Cependant, la matrice initiale est suffisamment simple et contient beaucoup de zéros, ce qui rend la tâche plus facile, sans être évidente. La façon la plus systématique de procéder est de créer une matrice des bonnes dimensions avec des variables et de les multiplier. On écrit \(A^{-1}_{\text{gauche}}A=I\) et l’on obtient un système d’équations à quatre équations et six inconnues.
\begin{align*} A^{-1}_{\text{gauche}}A&=\begin{pmatrix} a & c & e \\ b & d & f \end{pmatrix}\begin{pmatrix} 1 & 0 \\ 0 & 2 \\ 1 & 0 \end{pmatrix}\\ &=\begin{pmatrix} a+e & 2c \\ b+f & 2d \end{pmatrix}\\ &=\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} \end{align*}
Ainsi,
\begin{equation*} \begin{cases}a+e&=1\\ 2c&=0\\ b+f&=0\\ 2d&=1\end{cases} \Rightarrow \begin{cases}a&=1-e\\ c&=0\\ b&=-f\\ d&=\frac{1}{2}\end{cases} \end{equation*}
En posant \(e=-1\) et \(f=-1\text{,}\) on obtient \(a=2\) et \(b=1\) et la matrice inverse à gauche est:
\begin{equation*} A^{-1}_{\text{gauche}}=\begin{pmatrix} 2 & 0 & -1 \\ 1 & \frac{1}{2} & -1 \end{pmatrix}\text{.} \end{equation*}
(b)
Trouver un inverse à droite pour la matrice \(B=\begin{pmatrix} 0 & 1 & -1 \\ 1 & 0 & 0 \end{pmatrix}\)
Réponse.
\begin{equation*} B^{-1}_{\text{droite}}=\begin{pmatrix} 0 & 1 \\ 2 & 1 \\ 1 & 1 \end{pmatrix} \end{equation*}
Solution.
On procède de façon semblable. Voici la résolution algébrique:
\begin{align*} BB^{-1}_{\text{droite}}&=\begin{pmatrix} 0 & 1 & -1 \\ 1 & 0 & 0 \end{pmatrix}\begin{pmatrix} a & d \\ b & e \\ c & f \end{pmatrix}\\ &=\begin{pmatrix} b-c & e-f \\ a & d \end{pmatrix}\\ &=\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} \end{align*}
Ainsi,
\begin{equation*} \begin{cases}b-c&=1\\ a&=0\\ e-f&=0\\ d&=1\end{cases} \Rightarrow \begin{cases}b&=1+c\\ a&=0\\ e&=f\\ d&=1\end{cases} \end{equation*}
En posant \(c=1\) et \(f=1\text{,}\) on obtient \(b=2\) et \(e=1\) et la matrice inverse à droite est:
\begin{equation*} B^{-1}_{\text{droite}}=\begin{pmatrix} 0 & 1 \\ 2 & 1 \\ 1 & 1 \end{pmatrix}\text{.} \end{equation*}

3.

Soit \(A\text{,}\) une matrice \(m\times n\) et \(B\) un inverse à droite de \(A\text{.}\) Montrer que \(C\) est aussi un inverse à droite pour \(A\) si et seulement si \(A(B-C)=O\) où les matrices sont de formats appropriés.
Solution.
D’abord, soit \(A\text{,}\) une matrice \(m\times n\) et \(B\) un inverse à droite de \(A\text{.}\) Par la définition 2.4.8, on sait que \(AB=I_m\text{.}\) Le format de l’identité (\(m\times m\)) et celui de la matrice \(B_{n \times m}\) sont dictés par la multiplication matricielle.
Si, dans un premier temps, \(A(B-C)=O\text{,}\) on a
\begin{align*} A(B-C)&=O\\ \Leftrightarrow AB-AC&=O\\ \Leftrightarrow I-AC&=O\\ \Leftrightarrow I&=O+AC\\ \Leftrightarrow AC&=I \end{align*}
Cela implique que \(C\) est un inverse à droite de \(A\text{.}\)
Inversement, on n’a qu’à remonter et faire le raisonnement dans l’autre sens puisqu’on a utilisé des équivalences tout au long de la démonstration.

4.

Soit \(A,B,C\text{,}\) des matrices carrées \(n\times n\) telles que
  • \(A, A-AB \) et \(B\) sont inversibles
  • \((A-AB)^{-1}=B^{-1}C\text{.}\)
(a)
Montrer que la matrice \(C\) est inversible
Indice.
On comprend le mot inversible partout dans la question au sens qu’on lui donne dans la définition 2.3.12, qu’il convient de relire avant de commencer.
Solution.
Par la définition 2.3.12 et les hypothèses du problème, les matrices \(A, A-AB \) et \(B\) possèdent des inverses (à droite et à gauche) que l’on note, respectivement \(A^{-1}, (A-AB)^{-1} \) et \(B^{-1}\text{.}\) Pour démontrer que \(C\) est inversible, il faut montrer qu’il existe une matrice \(C^{-1}\) telle que \(CC^{-1}=C^{-1}C=I\text{.}\) En fait, par le théorème 2.3.11, il suffit de montrer un des deux côtés. On part de l’équation donnée et l’on tente d’obtenir la définition de l’inverse :
\begin{align*} (A-AB)^{-1}&=B^{-1}C\\ (A-AB)(A-AB)^{-1}&=(A-AB)B^{-1}C\\ I&=(AB^{-1}-ABB^{-1})C\\ I&=(AB^{-1}-AI)C\\ I&=A(B^{-1}-I)C \end{align*}
On a obtenu une matrice \(C^{-1}=A(B^{-1}-I)\) telle que \(C^{-1}C=I\) et donc \(C\) est inversible.
(b)
Exprimer \(C\) et \(C^{-1}\) en fonction de \(A,B, I\) et leur inverse.
Réponse.
\begin{equation*} C=B(A-AB)^{-1} \text{ et }C^{-1}=A(B^{-1}-I) \end{equation*}
Solution.
On est arrivé assez près de ces matrices dans la preuve précédente. On peut simplement isoler \(C\) de l’équation initiale donnée en multipliant à gauche par \(B\) et l’on avait trouvé une expression pour \(C^{-1}\text{.}\) Celà mène à
\begin{equation*} C=B(A-AB)^{-1} \text{ et }C^{-1}=A(B^{-1}-I)\text{.} \end{equation*}

5.

En utilisant la définition du produit matriciel 2.2.1, déterminer l’inverse des matrices
\begin{align*} A_3=\begin{pmatrix}1& 0& 0\\ 1& 1& 0\\ 1& 1& 1 \end{pmatrix}\\ A_4=\begin{pmatrix}1& 0& 0 & 0\\ 1& 1& 0 & 0\\ 1& 1& 1 & 0\\ 1& 1 & 1 & 1 \end{pmatrix}\text{.} \end{align*}
Quel serait un inverse pour
\begin{equation*} A_n=\begin{pmatrix} 1& 0& 0& \cdots & 0\\ 1& 1& 0 & \cdots & 0\\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 1& 1 & 1 & \cdots & 1\end{pmatrix}\text{?} \end{equation*}
Indice.
Considérer l’équation \(AA^{-1}=I\) et déterminer colonne par colonne les entrées de \(A^{-1}\text{.}\)
Réponse.
\begin{equation*} A^{-1}_3=\begin{pmatrix}1& 0& 0\\ -1& 1& 0\\ 0& -1& 1 \end{pmatrix} \end{equation*}
\begin{equation*} A^{-1}_4=\begin{pmatrix}1& 0& 0&0\\ -1& 1& 0&0\\ 0& -1& 1&0 \\0& 0& -1& 1\end{pmatrix} \end{equation*}
\begin{equation*} A^{-1}_n=\begin{pmatrix} 1&0& 0& 0& \cdots & 0& 0\\ -1& 1& 0 &0& \cdots & 0& 0\\ 0&-1& 1& 0& \cdots & 0& 0\\ \vdots & \vdots & \vdots &\vdots & \ddots & \vdots & \vdots \\ 0& 0 & 0 &0 & \cdots & -1 & 1\end{pmatrix} \end{equation*}
Solution.
On procède comme il est conseillé dans l’indice. On commence par \(A_3\text{.}\) Pour simplifier la notation, on utilise la notation donnée dans la définition 2.2.1 à chaque matrice. Soit \(B_3\text{,}\) la matrice inverse voulue. On sait que
\begin{equation*} A_3B_3=\begin{pmatrix} \lvert & \lvert & \cdots & \lvert \\ A_3\vec{b}_1 & A_3\vec{b}_2 &\cdots & A_3\vec{b}_n \\ \lvert & \lvert & \cdots & \lvert \\ \end{pmatrix}=I_3=\begin{pmatrix} 1&0&0\\ 0&1&0\\ 0&0&1 \end{pmatrix}\text{.} \end{equation*}
Alors, on calcule la première colonne:
\begin{equation*} \begin{pmatrix}1& 0& 0\\ 1& 1& 0\\ 1& 1& 1 \end{pmatrix}\vecddd{a}{b}{c}=\vecddd{1}{0}{0}\text{.} \end{equation*}
On obtient les équations:
\begin{equation*} \begin{cases}a&=1\\a+b&=0\\a+b+c&=0\end{cases}\Rightarrow \begin{cases}a&=1\\b&=-1\\c&=0\end{cases}\Rightarrow \vec{b}_1=\vecddd{1}{-1}{0} \end{equation*}
On calcule ensuite la deuxième colonne de façon semblable et l’on obtient:
\begin{equation*} \vec{b}_2=\vecddd{0}{1}{-1}\text{.} \end{equation*}
Finalement,
\begin{equation*} \vec{b}_3=\vecddd{0}{0}{1}\text{.} \end{equation*}
Ce qui donne
\begin{equation*} A^{-1}_3=B_3=\begin{pmatrix} \lvert & \lvert & \cdots & \lvert \\ \vec{b}_1 & \vec{b}_2 &\cdots & \vec{b}_n \\ \lvert & \lvert & \cdots & \lvert \\ \end{pmatrix}=\begin{pmatrix}1& 0& 0\\ -1& 1& 0\\ 0& -1& 1 \end{pmatrix}\text{.} \end{equation*}
On obtient \(A^{-1}_4\) avec une démarche semblable:
\begin{equation*} A^{-1}_4=\begin{pmatrix}1& 0& 0&0\\ -1& 1& 0&0\\ 0& -1& 1&0 \\0& 0& -1& 1\end{pmatrix}\text{.} \end{equation*}
On remarque la tendance. On peut donc conclure avec confiance que:
\begin{equation*} A^{-1}_n=\begin{pmatrix} 1&0& 0& 0& \cdots & 0& 0\\ -1& 1& 0 &0& \cdots & 0& 0\\ 0&-1& 1& 0& \cdots & 0& 0\\ \vdots & \vdots & \vdots &\vdots & \ddots & \vdots & \vdots \\ 0& 0 & 0 &0 & \cdots & -1 & 1\end{pmatrix}\text{.} \end{equation*}

6.

Déterminer la matrice d’une rotation dans \(\R^3\) autour de l’axe des \(x\text{.}\) Ceci complètera l’exemple 2.4.2. La figure 2.4.3 pourra être utile.
Réponse.
\begin{equation*} R_{\theta_x}=\begin{pmatrix} 1 & 0& 0 \\ 0 & \cos(\theta) & -\sin(\theta) \\ 0&\sin(\theta) & \cos(\theta)\end{pmatrix} \end{equation*}
Solution.
Selon la séquence, l’angle sera mesuré de l’axe des \(y\) positifs vers l’axe des \(z\) positifs. Évidemment, l’image du vecteur \((1,0,0)\) est ce même vecteur puisque celui-ci est sur l’axe de rotation.
On commence par trouver l’image du vecteur \((0,1,0)\text{.}\) La figure 2.4.3 peut être pratique pour visualiser la situation. Un clic sur rotation selon l’axe des \(x\) fera apparaitre l’image du vecteur \((0,1,0)\text{.}\) L’image du vecteur \((0,1,0)\) est \((0,\cos(\theta),\sin(\theta))\text{.}\)
Comme le vecteur \((0,0,1)\) est perpendiculaire au vecteur \((0,1,0)\) dans le sens antihoraire, son image sera perpendiculaire à \((0,\cos(\theta),\sin(\theta))\text{,}\) aussi dans le sens antihoraire et sera aussi dans le plan \(x=0\text{.}\) En suivant un raisonnement semblable à celui de l’exemple 2.1.29, on obtient \(R_{\theta_x}(0,0,1)=(0,-\sin(\theta),\cos(\theta))\text{.}\) La matrice est donc
\begin{equation} R_{\theta_x}=\begin{pmatrix} 1 & 0& 0 \\ 0 & \cos(\theta) & -\sin(\theta) \\ 0&\sin(\theta) & \cos(\theta)\end{pmatrix}\text{.}\tag{2.4.8} \end{equation}

7.

Dans \(\R^2\text{,}\) si \(R_{\theta_1}\) et \(R_{\theta_2}\) sont deux matrices de rotation, alors \(R_{\theta_1}R_{\theta_2}=R_{\theta_2}R_{\theta_1}\text{.}\) Est-ce aussi vrai dans \(\R^3\text{?}\) Si oui, pourquoi, et si non, donner un exemple.
Réponse.
En général, ce ne sera pas commutatif. Par exemple, une rotation de \(\frac{\pi}{2}\) selon l’axe des \(x\) et une rotation de \(\frac{\pi}{2}\) selon l’axe des \(z\text{.}\)
Solution.
Voici une animation qui permet de visualiser les transformations données dans la réponse.
Instructions.
Un clic sur les boutons de rotation les effectuera selon l’ordre spécifié. Le bouton réinitialisé permet de mettre le cube en position initiale sans démarrer d’animation.
Figure 2.4.13. Les rotations dans \(\R^3\) ne sont pas commutatives en général

8.

L’effet d’un cisaillement horizontal ou vertical a été illustré à l’exercice 2.3.6.10. Qu’en est-il des cisaillements dans \(\R^3\text{?}\) Algébriquement, on peut voir l’effet d’un cisaillement selon l’un des axes comme l’ajout d’un multiple d’une coordonnée à l’autre. Ainsi, le cisaillement \(\begin{pmatrix} 1 & 2 \\ 0 &1\end{pmatrix}\) a pour effet d’ajouter à la composante \(1\) deux fois la composante \(2\text{:}\)
\begin{equation*} \begin{pmatrix} 1 & 2 \\ 0 &1\end{pmatrix}\vecd{x}{y}=\vecd{x+2y}{y}\text{.} \end{equation*}
Pour avoir un comportement analogue dans \(\R^3\text{,}\) deux situations sont possibles:
  1. On veut ajouter un multiple d’une seule composante à une autre composante;
  2. On veut ajouter des multiples des autres composantes à une composante.
(a)
Soit \(C_{xy,k},C_{xz,k}\text{,}\) les transformations qui ajoutent à la composante \(x\) respectivement \(k\) fois la composante en \(y\) ou \(z\text{.}\) D’une manière analogue, on définit les transformations \(C_{yx,k}, C_{yz,k}, C_{zx,k}, C_{zy,k}\)
Donner la matrice de chacune de ces six transformations.
Réponse.
\begin{equation*} C_{xy,k}=\begin{pmatrix} 1 & k&0 \\ 0 &1&0\\0 & 0&1\end{pmatrix} \end{equation*}
\begin{equation*} C_{xz,k}=\begin{pmatrix} 1 & 0&k \\ 0 &1&0\\0 & 0&1\end{pmatrix} \end{equation*}
\begin{equation*} C_{yx,k}=\begin{pmatrix} 1 & 0&0 \\ k &1&0\\0 & 0&1\end{pmatrix} \end{equation*}
\begin{equation*} C_{yz,k}=\begin{pmatrix} 1 & 0&0 \\ 0 &1&k\\0 & 0&1\end{pmatrix} \end{equation*}
\begin{equation*} C_{zx,k}=\begin{pmatrix} 1 & 0&0 \\ 0 &1&0\\k & 0&1\end{pmatrix} \end{equation*}
\begin{equation*} C_{zy,k}=\begin{pmatrix} 1 & 0&0 \\ 0 &1&0\\0 & k&1\end{pmatrix} \end{equation*}
Solution.
La transformation \(C_{xy,k}\) est définie ainsi:
\begin{equation*} C_{xy,k}\vecddd{x}{y}{z}=\vecddd{x+ky}{y}{z}\text{.} \end{equation*}
On peut donc inférer facilement, par la multiplication matrice-vecteur en lignes (2.1.6), que la matrice est:
\begin{equation*} C_{xy,k}=\begin{pmatrix} 1 & k&0 \\ 0 &1&0\\0 & 0&1\end{pmatrix}\text{.} \end{equation*}
De façon semblable, on obtient toutes les autres matrices.
\begin{equation*} C_{xz,k}\vecddd{x}{y}{z}=\vecddd{x+kz}{y}{z}\Rightarrow C_{xz,k}=\begin{pmatrix} 1 & 0&k \\ 0 &1&0\\0 & 0&1\end{pmatrix} \end{equation*}
\begin{equation*} C_{yx,k}\vecddd{x}{y}{z}=\vecddd{x}{y+kx}{z}\Rightarrow C_{yx,k}=\begin{pmatrix} 1 & 0&0 \\ k &1&0\\0 & 0&1\end{pmatrix} \end{equation*}
\begin{equation*} C_{yz,k}\vecddd{x}{y}{z}=\vecddd{x}{y+kz}{z}\Rightarrow C_{yz,k}=\begin{pmatrix} 1 & 0&0 \\ 0 &1&k\\0 & 0&1\end{pmatrix} \end{equation*}
\begin{equation*} C_{zx,k}\vecddd{x}{y}{z}=\vecddd{x}{y}{z+kx}\Rightarrow C_{zx,k}=\begin{pmatrix} 1 & 0&0 \\ 0 &1&0\\k & 0&1\end{pmatrix} \end{equation*}
\begin{equation*} C_{zy,k}\vecddd{x}{y}{z}=\vecddd{x}{y}{z+ky}\Rightarrow C_{zy,k}=\begin{pmatrix} 1 & 0&0 \\ 0 &1&0\\0 & k&1\end{pmatrix} \end{equation*}
(b)
On veut maintenant définir trois cisaillements pour lesquels on ajoute à une composante des multiples des deux autres composantes. Quelles seraient une notation appropriée et la matrice de ces transformations?
Réponse.
\begin{equation*} C_{x(y,k_1),(z,k_2)}=\begin{pmatrix} 1 & k_1&k_2 \\ 0 &1&0\\0 & 0&1\end{pmatrix} \end{equation*}
\begin{equation*} C_{y(x,k_1),(z,k_2)}=\begin{pmatrix} 1 & 0&0 \\ k_1 &1&k_2\\0 & 0&1\end{pmatrix} \end{equation*}
\begin{equation*} C_{z(x,k_1),(y,k_2)}=\begin{pmatrix} 1 & 0&0 \\ 0 &1&0\\k_1 & k_2&1\end{pmatrix} \end{equation*}
Solution.
On propose la notation \(C_{x(y,k_1),(z,k_2)}\) pour le cisaillement pour lequel on ajoute à la composante \(x\) un multiple des deux autres composantes. En suivant le raisonnement précédent, il est logique que la matrice de cisaillement soit:
\begin{equation*} C_{x(y,k_1),(z,k_2)}=\begin{pmatrix} 1 & k_1&k_2 \\ 0 &1&0\\0 & 0&1\end{pmatrix}\text{.} \end{equation*}
Les deux autres matrices seront donc:
\begin{equation*} C_{y(x,k_1),(z,k_2)}=\begin{pmatrix} 1 & 0&0 \\ k_1 &1&k_2\\0 & 0&1\end{pmatrix} \end{equation*}
et
\begin{equation*} C_{z(x,k_1),(y,k_2)}=\begin{pmatrix} 1 & 0&0 \\ 0 &1&0\\k_1 & k_2&1\end{pmatrix}\text{.} \end{equation*}
(c)
Pour chacun des cisaillements, déterminer sans calculer l’inverse de la transformation. Justifier.
Réponse.
\begin{equation*} C_{xy,k}^{-1}=\begin{pmatrix} 1 & -k&0 \\ 0 &1&0\\0 & 0&1\end{pmatrix} \end{equation*}
\begin{equation*} C_{xz,k}^{-1}=\begin{pmatrix} 1 & 0&-k \\ 0 &1&0\\0 & 0&1\end{pmatrix} \end{equation*}
\begin{equation*} C_{yx,k}^{-1}=\begin{pmatrix} 1 & 0&0 \\ -k &1&0\\0 & 0&1\end{pmatrix} \end{equation*}
\begin{equation*} C_{yz,k}^{-1}=\begin{pmatrix} 1 & 0&0 \\ 0 &1&-k\\0 & 0&1\end{pmatrix} \end{equation*}
\begin{equation*} C_{zx,k}^{-1}=\begin{pmatrix} 1 & 0&0 \\ 0 &1&0\\-k & 0&1\end{pmatrix} \end{equation*}
\begin{equation*} C_{zy,k}^{-1}=\begin{pmatrix} 1 & 0&0 \\ 0 &1&0\\0 & -k&1\end{pmatrix} \end{equation*}
\begin{equation*} C_{x(y,k_1),(z,k_2)}^{-1}=\begin{pmatrix} 1 & -k_1&-k_2 \\ 0 &1&0\\0 & 0&1\end{pmatrix} \end{equation*}
\begin{equation*} C_{y(x,k_1),(z,k_2)}^{-1}=\begin{pmatrix} 1 & 0&0 \\ -k_1 &1&-k_2\\0 & 0&1\end{pmatrix} \end{equation*}
\begin{equation*} C_{z(x,k_1),(y,k_2)}^{-1}=\begin{pmatrix} 1 & 0&0 \\ 0 &1&0\\-k_1 & -k_2&1\end{pmatrix} \end{equation*}
Solution.
Logiquement, les transformations inverses seront toujours les transformations où, au lieu d’additionner des multiples d’autres composantes, on va soustraire ces multiples pour annuler l’effet. Par exemple, pour le cisaillement
\begin{equation*} C_{xy,k}=\begin{pmatrix} 1 & k&0 \\ 0 &1&0\\0 & 0&1\end{pmatrix}\text{,} \end{equation*}
on propose que la matrice inverse est:
\begin{equation*} C_{xy,k}^{-1}=\begin{pmatrix} 1 & -k&0 \\ 0 &1&0\\0 & 0&1\end{pmatrix}\text{.} \end{equation*}
On vérifie en multipliant les deux matrices et l’on obtient la matrice identité.
\begin{align*} C_{xy,k}C_{xy,k}^{-1}&=\begin{pmatrix} 1 & k&0 \\ 0 &1&0\\0 & 0&1\end{pmatrix} \begin{pmatrix} 1 & -k&0 \\ 0 &1&0\\0 & 0&1\end{pmatrix}\\ &=\begin{pmatrix} 1 & 0&0 \\ 0 &1&0\\0 & 0&1\end{pmatrix} \end{align*}
On donne les autres matrices des transformations inverses.
\begin{equation*} C_{xz,k}^{-1}=\begin{pmatrix} 1 & 0&-k \\ 0 &1&0\\0 & 0&1\end{pmatrix} \end{equation*}
\begin{equation*} C_{yx,k}^{-1}=\begin{pmatrix} 1 & 0&0 \\ -k &1&0\\0 & 0&1\end{pmatrix} \end{equation*}
\begin{equation*} C_{yz,k}^{-1}=\begin{pmatrix} 1 & 0&0 \\ 0 &1&-k\\0 & 0&1\end{pmatrix} \end{equation*}
\begin{equation*} C_{zx,k}^{-1}=\begin{pmatrix} 1 & 0&0 \\ 0 &1&0\\-k & 0&1\end{pmatrix} \end{equation*}
\begin{equation*} C_{zy,k}^{-1}=\begin{pmatrix} 1 & 0&0 \\ 0 &1&0\\0 & -k&1\end{pmatrix} \end{equation*}
\begin{equation*} C_{x(y,k_1),(z,k_2)}^{-1}=\begin{pmatrix} 1 & -k_1&-k_2 \\ 0 &1&0\\0 & 0&1\end{pmatrix} \end{equation*}
\begin{equation*} C_{y(x,k_1),(z,k_2)}^{-1}=\begin{pmatrix} 1 & 0&0 \\ -k_1 &1&-k_2\\0 & 0&1\end{pmatrix} \end{equation*}
\begin{equation*} C_{z(x,k_1),(y,k_2)}^{-1}=\begin{pmatrix} 1 & 0&0 \\ 0 &1&0\\-k_1 & -k_2&1\end{pmatrix} \end{equation*}

Exercices Sage.

Les exercices qui suivent sont conçus pour être résolus avec Sage. Des cellules vides sont disponibles pour écrire les réponses. Évidemment, il y a plusieurs manières d’arriver aux réponses.
9.
On considère le plan d’équation normale \(x+2y-3z=0\text{.}\) On cherche à déterminer la matrice de réflexion autour de ce plan.
(a)
Utiliser le principe derrière l’équation (2.3.3) pour trouver la matrice de la transformation en considérant l’image de trois vecteurs précis.
Indice.
Considérer le vecteur normal et deux vecteurs directeurs quelconques.
Réponse.
\begin{equation*} T=\begin{pmatrix}\frac{6}{7}&-\frac{2}{7}&\frac{3}{7}\\-\frac{2}{7}&\frac{3}{7}&\frac{6}{7}\\ \frac{3}{7}&\frac{6}{7}&-\frac{2}{7}\end{pmatrix} \end{equation*}
Solution.
On considère les trois vecteurs suivants: le vecteur normal \(\vec{n}=(1,2,-3)\) et deux vecteurs directeurs quelconques \(\vec{v}_1=(3,0,1)\) et \(\vec{v}_2=(2,-1,0)\text{.}\) Remarquer que les vecteurs directeurs ont été devinés simplement en cherchant des valeurs de \((x,y,z)\) qui fonctionnent dans l’équation normale. On connait l’effet de cette réflexion sur ces trois vecteurs. En effet, le vecteur normal sera transformé en son vecteur opposé et les vecteurs directeurs ne bougeront pas puisqu’ils sont dans le plan de réflexion. Ainsi,
\begin{equation*} T(\vec{n})=T\vecddd{1}{2}{-3}=\vecddd{-1}{-2}{3}\text{, }T(\vec{v}_1)=T\vecddd{3}{0}{1}=\vecddd{3}{0}{1}\text{, }T(\vec{v}_2)=T\vecddd{2}{-1}{0}=\vecddd{2}{-1}{0} \end{equation*}
On résume tout cela sous forme matricielle où \(U\) est la matrice des vecteurs initiaux et \(V\) celle des vecteurs transformés et l’on isole la matrice de \(T\text{.}\)
\begin{align*} TU&=V\\ T\begin{pmatrix}1&3&2\\2&0&-1\\-3&1&0\end{pmatrix}&=\begin{pmatrix}-1&3&2\\-2&0&-1\\3&1&0\end{pmatrix}\\ T&=\begin{pmatrix}-1&3&2\\-2&0&-1\\3&1&0\end{pmatrix}\begin{pmatrix}1&3&2\\2&0&-1\\-3&1&0\end{pmatrix}^{-1} \end{align*}
Le calcul de l’inverse d’une matrice \(3\times 3\) n’a pas été fait explicitement dans les exemples. On pourrait procéder comme dans l’exemple 2.3.14, mais cela mènerait à résoudre trois systèmes d’équations linéaires à 3 équations et 3 inconnues chacun. On verra, dans le chapitre 3, comment y arriver de façon efficace. Pour l’instant, on a fait les calculs avec Sage.
U=matrix([[1,3,2],[2,0,-1],[-3,1,0]])
V=matrix([[-1,3,2],[-2,0,-1],[3,1,0]])
Uinv=U.inverse()
show("U=",U)
show("V=",V)
show("U^(-1)=",Uinv)
show("T=",V*Uinv)
Bloc de code 2.4.14. Le code solution pour l’exercice
La matrice de \(T\) est donc:
\begin{equation*} T=\begin{pmatrix}\frac{6}{7}&-\frac{2}{7}&\frac{3}{7}\\-\frac{2}{7}&\frac{3}{7}&\frac{6}{7}\\ \frac{3}{7}&\frac{6}{7}&-\frac{2}{7}\end{pmatrix} \end{equation*}
(b)
Déterminer directement la matrice en calculant l’image des vecteurs \((1,0,0),(0,1,0),(0,0,1)\text{.}\) Pour cela, considérer la projection orthogonale de ces vecteurs sur le plan. La figure 1.3.20 peut être utile, en considérant la droite comme le plan vu dans une certaine perspective.
Réponse.
\begin{equation*} T=\begin{pmatrix}\frac{6}{7}&-\frac{2}{7}&\frac{3}{7}\\-\frac{2}{7}&\frac{3}{7}&\frac{6}{7}\\ \frac{3}{7}&\frac{6}{7}&-\frac{2}{7}\end{pmatrix} \end{equation*}
Solution.
La projection orthogonale sur le plan pour chaque vecteur s’obtient en considérant d’abord la projection sur le vecteur normal. En effet, si l’on utilise la lettre \(\mathcal{P}\) pour désigner le plan de réflexion,
\begin{equation*} \vec{u}_{\mathcal{P}}=\vec{u}-\vec{u}_{\vec{n}}\text{.} \end{equation*}
Une fois qu’on a obtenu la projection sur le plan \(\mathcal{P}\text{,}\) le vecteur transformé sera obtenu par
\begin{align*} T(\vec{u})&=-(\vec{u}-\vec{u}_{\mathcal{P}})+\vec{u}_{\mathcal{P}}\\ &=-(\vec{u}-(\vec{u}-\vec{u}_{\vec{n}}))+\vec{u}-\vec{u}_{\vec{n}}\\ &=\vec{u}-2\vec{u}_{\vec{n}} \text{ (en simplifiant)} \end{align*}
La dernière équation porte à croire qu’il aurait été beaucoup plus simple projeter directement sur le vecteur normal plutôt que sur le plan. On effectuera ensuite tous les calculs sur Sage pour trouver les images des trois vecteurs. On rappelle la formule (1.2.5) pour la projection.
i=vector([1,0,0])
j=vector([0,1,0])
k=vector([0,0,1])
n=vector([1,2,-3])
Ti=i-2*((i*n)/(n*n))*n #la réflexion de (1,0,0) sur le plan, qui utilise la projection orthogonale
Tj=j-2*((j*n)/(n*n))*n
Tk=k-2*((k*n)/(n*n))*n
T=column_matrix([Ti,Tj,Tk]) #on met les résultats en colonnes pour obtenir T
show(T)
Bloc de code 2.4.15. Le code solution pour l’exercice
La matrice de \(T\) est donc:
\begin{equation*} T=\begin{pmatrix}\frac{6}{7}&-\frac{2}{7}&\frac{3}{7}\\-\frac{2}{7}&\frac{3}{7}&\frac{6}{7}\\ \frac{3}{7}&\frac{6}{7}&-\frac{2}{7}\end{pmatrix} \end{equation*}
(c)
Répéter les démarches précédentes avec le plan \((x,y,z)=(1,2,-1)+r(-1,2,1)+s(3,0,-4)\text{.}\)
Réponse.
\begin{equation*} T=\begin{pmatrix}-\frac{27}{101}&-\frac{16}{101}&-\frac{96}{101}\\-\frac{16}{101}&\frac{99}{101}&-\frac{12}{101}\\ -\frac{96}{101}&-\frac{12}{101}&\frac{29}{101}\end{pmatrix} \end{equation*}
Solution.
Les démarches seront les mêmes, mais on doit ajouter une étape au début. En effet, notre plan est défini par son équation vectorielle. Il faut trouver un vecteur normal pour effectuer nos projections.
var("x,y,z")
v1=vector([-1,2,1])
v2=vector([3,0,-4])
#Le vecteur voulu n est solution des deux équations suivantes puisqu'il est perpendiculaire aux deux vecteurs directeurs en même temps
sol=solve([v1*vector([x,y,z])==0,v2*vector([x,y,z])==0],x,y,z,solution_dict=True) 
show("n=",sol)
#La procédure suivante permet de remplacer la variable libre par une valeur choisie, disons 6 pour éviter les fractions
l=[] #Liste vide des variables libres
for v in sol[0].keys():  # vérifier ce que sol[0].keys() donne pour comprendre cette étape
    for var in sol[0][v].variables():  #Vérifier aussi cette étape
        if var not in l:   #On ne veut pas que les variables soient la plusieurs fois
            l.append(var)
n=vector([sol[0][x],sol[0][y],sol[0][z]]).subs({l[0]:6})
show("n=",n)
Bloc de code 2.4.16. Le code solution pour trouver le vecteur normal
On considère les trois vecteurs suivants: le vecteur normal \(\vec{n}=(8,1,6)\) et deux vecteurs directeurs quelconques \(\vec{v}_1=(-1,2,1)\) et \(\vec{v}_2=(3,0,-4)\text{.}\) En effet, le vecteur normal sera transformé en son vecteur opposé et les vecteurs directeurs ne bougeront pas puisqu’ils sont dans le plan de réflexion. Ainsi,
\begin{equation*} T(\vec{n})=T\vecddd{8}{1}{6}=\vecddd{-8}{-1}{-6}\text{, }T(\vec{v}_1)=T\vecddd{-1}{2}{1}=\vecddd{-1}{2}{1}\text{, }T(\vec{v}_2)=T\vecddd{3}{0}{-4}=\vecddd{3}{0}{-4} \end{equation*}
On résume tout cela sous forme matricielle où \(U\) est la matrice des vecteurs initiaux et \(V\) celle des vecteurs transformés et l’on isole la matrice de \(T\text{.}\) On a fait les calculs avec Sage.
U=matrix([[8,-1,3],[1,2,0],[6,1,-4]])
V=matrix([[-8,-1,3],[-1,2,0],[-6,1,-4]])
Uinv=U.inverse()
show("U=",U)
show("V=",V)
show("U^(-1)=",Uinv)
show("T=",V*Uinv)
Bloc de code 2.4.17. Le code solution pour l’exercice
La matrice de \(T\) est donc:
\begin{equation*} T=\begin{pmatrix}-\frac{27}{101}&-\frac{16}{101}&-\frac{96}{101}\\-\frac{16}{101}&\frac{99}{101}&-\frac{12}{101}\\ -\frac{96}{101}&-\frac{12}{101}&\frac{29}{101}\end{pmatrix} \end{equation*}
Autrement, la projection orthogonale sur le plan pour chaque vecteur s’obtient en considérant d’abord la projection sur le vecteur normal. On avait obtenu la formule:
\begin{equation*} T(\vec{u})=\vec{u}-2\vec{u}_{\vec{n}} \end{equation*}
On effectue ensuite tous les calculs sur Sage pour trouver les images des trois vecteurs. On rappelle la formule (1.2.5) pour la projection.
i=vector([1,0,0])
j=vector([0,1,0])
k=vector([0,0,1])
n=vector([8,1,6])
Ti=i-2*((i*n)/(n*n))*n #la réflexion de (1,0,0) sur le plan, qui utilise la projection orthogonale
Tj=j-2*((j*n)/(n*n))*n
Tk=k-2*((k*n)/(n*n))*n
T=column_matrix([Ti,Tj,Tk]) #on met les résultats en colonnes pour obtenir T
show(T)
Bloc de code 2.4.18. Le code solution pour l’exercice
La matrice de \(T\) est donc bel et bien:
\begin{equation*} T=T=\begin{pmatrix}-\frac{27}{101}&-\frac{16}{101}&-\frac{96}{101}\\-\frac{16}{101}&\frac{99}{101}&-\frac{12}{101}\\ -\frac{96}{101}&-\frac{12}{101}&\frac{29}{101}\end{pmatrix} \end{equation*}
10.
On s’intéresse à la matrice d’un étirement quelconque dans \(\R^3\text{.}\) Un étirement de direction \(\vec{n}\) et de facteur \(k\) est une transformation linéaire \(E_{\vec{n},k}\) telle que \(E_{\vec{n},k}(\vec{n})=k\vec{n}\) et \(E_{\vec{n},k}(\vec{u})=\vec{u}\) pour tout vecteur \(\vec{u}\) tel que \(\vec{n}\cdot \vec{u}=0\)
(a)
Quels sont les vecteurs qui demeurent inchangés par l’étirement.
Réponse.
Ce sont les vecteurs perpendiculaires à \(\vec{n}\text{,}\) donc ceux qui se retrouvent dans le plan \(\vec{n}\cdot (x,y,z)=0\text{.}\)
(b)
Déterminer la matrice d’un étirement dans la direction \(\vec{n}=(1,3,5)\) de facteur \(k=\frac{1}{2}\text{.}\)
Réponse.
\begin{equation*} T=\begin{pmatrix} \frac{69}{70} & -\frac{3}{70} & -\frac{1}{14} \\ -\frac{3}{70} & \frac{61}{70} & -\frac{3}{14} \\ -\frac{1}{14} & -\frac{3}{14} & \frac{9}{14} \end{pmatrix} \end{equation*}
Solution.
var("x,y,z")
#Recherche de vecteurs perpendiculaires à n
n=vector([1,3,5])
sol=solve(n*vector([x,y,z])==0,x,y,z,solution_dict=True)
l=[] #Liste vide des variables libres
for v in sol[0].keys():  # vérifier ce que sol[0].keys() donne pour comprendre cette étape
    for var in sol[0][v].variables():  #Vérifier aussi cette étape
        if var not in l:   #On ne veut pas que les variables soient la plusieurs fois
            l.append(var)
u=vector([sol[0][x],sol[0][y],sol[0][z]]).subs({l[0]:1,l[1]:0})
v=vector([sol[0][x],sol[0][y],sol[0][z]]).subs({l[0]:0,l[1]:1})  #Ceci crée deux vecteurs non parallèles qui seront nos vecteurs directeurs.
#Recherche de la matrice de transformation
k=1/2
U=column_matrix([n,u,v])
V=column_matrix([k*n,u,v])
T=V*(U.inverse())
show(T)
Bloc de code 2.4.19. Le code solution pour l’exercice
(c)
Adapter la fonction de la partie précédente pour créer une fonction etirR3, similaire à celle qui est développée à l’exercice 2.3.6.16, qui détermine la matrice d’un étirement dans la direction \(\vec{n}=(n1,n2,n3)\) et de facteur \(k\text{.}\) Vérifier la solution avec l’exercice précédent.
Solution.
var("x,y,z,n1,n2,n3,k")
#Recherche de vecteurs perpendiculaires à n
def etirR3(n,k):
    sol=solve(n*vector([x,y,z])==0,x,y,z,solution_dict=True)
    l=[] #Liste vide des variables libres
    for v in sol[0].keys():  # vérifier ce que sol[0].keys() donne pour comprendre cette étape
        for var in sol[0][v].variables():  #Vérifier aussi cette étape
            if var not in l and var not in [n1,n2,n3]:   #On ne veut pas que les variables soient la plusieurs fois
                l.append(var)
    u=vector([sol[0][x],sol[0][y],sol[0][z]]).subs({l[0]:1,l[1]:0})
    v=vector([sol[0][x],sol[0][y],sol[0][z]]).subs({l[0]:0,l[1]:1})  #Ceci crée deux vecteurs non parallèles qui seront nos vecteurs directeurs.
    #Recherche de la matrice de transformation
    U=column_matrix([n,u,v])
    V=column_matrix([k*n,u,v])
    T=V*(U.inverse())
    return T
show(etirR3(vector([1,3,5]),1/2))
show(etirR3(vector([n1,n2,n3]),k).simplify_full())
Bloc de code 2.4.20. Le code solution pour l’exercice
11.
Dans l’esprit de l’exercice 2.4.3.5, vérifier que la réponse donnée correspond bien pour les matrices
\begin{equation*} A=\begin{pmatrix} 1& 0& 0& 0 \\ 1& 1& 0& 0 \\ 1& 1& 1& 0 \\ 1& 1& 1& 1 \end{pmatrix} \end{equation*}
et
\begin{equation*} B=\begin{pmatrix} 1& 0& 0& 0& 0 \\ 1& 1& 0& 0& 0\\ 1& 1& 1& 0& 0\\ 1& 1& 1& 1& 0\\ 1& 1& 1& 1& 1 \end{pmatrix}\text{.} \end{equation*}