Sauter au contenu
Logo image

Algèbre linéaire: Intuition et rigueur

Section 2.3 Transformations inverses

Aller aux exercices 2.3.6 de la section.
Soit \(T_1\) une transformation linéaire, de \(\R^2\) vers \(\R^2\text{.}\) Est-il possible de trouver une transformation \(T_2\) telle que \(T_2(T_1)=I\text{?}\) En d’autres mots, est-il possible d’annuler l’effet de \(T_1\) sur les vecteurs de \(\R^2\) par une transformation? Comme une forme d’inverse, au même sens où, pour défaire une multiplication par \(5\text{,}\) on peut diviser par \(5\text{.}\) Pourrait-on, ainsi, définir la division de transformations linéaires, et par le fait même, de matrices?
Est-il toujours possible de trouver cette transformation inverse? Dans \(\R^2\text{?}\) Qu’en est-il de la situation plus générale d’une transformation de \(\R^n\) vers \(\R^m\text{?}\)
Dans cette section, on se concentre sur l’inverse d’une transformation de \(\R^2\) vers \(\R^2\text{.}\) On verra les conditions d’existence de l’inverse, de même que certaines propriétés. Quelques-unes de ces propriétés se généraliseront plus tard au cas général, mais celui-ci demandera une attention particulière.

Sous-section 2.3.1 L’inverse de transformations géométriques

On commence cette section par une partie intuitive, qui permettra de déterminer l’inverse des transformations de nature géométrique simple, comme celles de la liste 2.1.14. Mais avant, il faut une définition de ce que représente l’inverse d’une transformation.

Définition 2.3.1. La transformation inverse, définition préliminaire.

Soit \(T_1\text{,}\) une transformation linéaire. La transformation inverse de \(T_1\text{,}\) notée \(T_1^{-1}\text{,}\) est une transformation telle que
\begin{equation} T_1^{-1}(T_1(\vec{u}))=\vec{u}\tag{2.3.1} \end{equation}
pour tout \(\vec{u}\) dans le domaine de \(T_1\text{.}\)

Remarque 2.3.2. Une précision sur l’inverse.

Dans la définition, il n’est pas mentionné que la transformation inverse est une transformation linéaire. Comme on peut interpréter l’équation (2.3.1) de manière matricielle, on cherche l’existence d’une matrice \(T_1^{-1}\) telle que \(T_1^{-1}T_1\vec{u}=\vec{u}\) pour tout vecteur \(\vec{u}\) dans le domaine de \(T_1\text{,}\) c’est-à-dire une transformation telle que
\begin{equation*} T_1^{-1}T_1=I\text{.} \end{equation*}
En vertu de la proposition 2.1.26, si une telle matrice existe, alors \(T_1^{-1}\) est une transformation linéaire.

Exemple 2.3.3. L’inverse de transformations géométriques.

On considère les transformations de la liste 2.1.14 et l’on cherche à les inverser, si possible.
Solution 1.
La transformation identité n’a aucun effet sur les vecteurs de \(\R^2\text{.}\) Ainsi, si l’on la compose avec elle-même, on restera avec l’identité. L’inverse de \(I\) est donc \(I\text{.}\)
Solution 2.
Afin de défaire une réflexion par rapport à l’axe des \(x\text{,}\) il semble suffisant d’appliquer à nouveau la réflexion. On aurait donc \(S_x^{-1}=S_x\text{.}\) On vérifie algébriquement que c’est le cas.
\begin{align*} S_xS_x&=\begin{pmatrix} 1 &0 \\ 0 & -1 \end{pmatrix}\begin{pmatrix} 1 &0 \\ 0 & -1 \end{pmatrix}\\ &=\begin{pmatrix} \lvert & \lvert \\ \begin{pmatrix} 1 &0 \\ 0 & -1 \end{pmatrix}\vecd{1}{0} & \begin{pmatrix} 1 &0 \\ 0 & -1 \end{pmatrix}\vecd{0}{-1}\\ \lvert & \lvert \end{pmatrix} && \text{ selon la définition de la multiplication matricielle}\\ \begin{pmatrix} 1&0\\ 0 &1 \end{pmatrix}\text{.} \end{align*}
L’inverse de cette réflexion est donc en effet la réflexion même.
Solution 3.
Pour défaire une rotation de \(90^{\circ}\text{,}\) il semble logique de faire une rotation de \(-90^{\circ}\text{,}\) correspondant en fait à une rotation dans le sens horaire. Selon l’équation (2.1.13), cette matrice serait \(R_{-\frac{\pi}{2}}=R_{\frac{\pi}{2}}^{-1}=\begin{pmatrix}0 & 1\\ -1 & 0\end{pmatrix}\text{.}\) Algébriquement, on a
\begin{align*} R_{-\frac{\pi}{2}}R_{\frac{\pi}{2}}&=\begin{pmatrix}0 & 1\\ -1 & 0\end{pmatrix}\begin{pmatrix}0 & -1\\ 1 & 0\end{pmatrix}\\ &=\begin{pmatrix}(0,1)\cdot (0,1) & (0,1)\cdot (-1,0)\\ (-1,0)\cdot (0,1) & (-1,0)\cdot(-1,0)\end{pmatrix} && \text{ en vertu de la multiplication composante par composante}\\ &=\begin{pmatrix}1 & 0\\ 0 & 1\end{pmatrix}\text{.} \end{align*}
La transformation inverse de la rotation de \(90^{\circ}\) est donc bel et bien une rotation dans le sens opposé. Il est intéressant de remarquer que \(R_{-\frac{\pi}{2}}=R_{\frac{\pi}{2}}^{-1}\) et qu’on a aussi \(R_{\frac{\pi}{2}}=R_{\frac{-\pi}{2}}^{-1}\text{.}\) On vérifiera plus tard si cela se produit toujours.
Solution 4.
Un étirement horizontal multiplie la première composante d’un vecteur par \(r\text{.}\) Pour défaire cette transformation, on devrait diviser cette composante par \(r\text{,}\) ce qui donnerait un étirement de facteur \(\frac{1}{r}\text{.}\) Ici se présente un premier problème dans la recherche d’inverse. En effet, si \(r=0\text{,}\) il est impossible de diviser par \(0\) et donc l’inverse, s’il existe, ne serait pas un étirement de facteur \(\frac{1}{r}\text{.}\) On débute par considérer le cas \(r\neq 0\) avant de réfléchir à ce que représente un étirement de facteur \(0\) et son inverse. Ainsi, si \(r\neq 0\text{,}\) on a
\begin{align*} Eh_{1/r}Eh_{r}&=\begin{pmatrix} \frac{1}{r} & 0\\ 0& 1\end{pmatrix}\begin{pmatrix} r & 0\\ 0& 1\end{pmatrix}\\ &=\begin{pmatrix} 1 & 0\\ 0& 1\end{pmatrix} && \text{On arrive à cette représentation avec l'une ou l'autre des interprétations du produit matriciel}\text{.} \end{align*}
Ainsi, \(Eh_r^{-1}=Eh_{\frac{1}{r}}\) si \(r\neq 0\text{.}\)
On considère maintenant le cas \(r=0\text{.}\) La matrice de l’étirement est
\begin{equation*} Eh_0=\begin{pmatrix} 0& 0\\ 0 &1\end{pmatrix}\text{.} \end{equation*}
On affirme dès le départ qu’il ne peut exister d’inverse pour cette transformation. En effet, soit \(A\text{,}\) la matrice représentant l’inverse. Selon la définition 2.3.1, il faut que \(AEh_0=I\text{.}\) En particulier, il faudrait que \(A\vecd{0}{0}=\vecd{1}{0}\) selon la définition du produit matriciel 2.2.1, puisque \(\vecd{0}{0}\) est la première colonne de \(Eh_0\) et \(\vecd{1}{0}\) la première colonne de la matrice identité. Selon la proposition 2.1.9, l’image du vecteur nul sera toujours le vecteur nul et en conséquence, il est impossible d’avoir \(\vecd{1}{0}\) comme résultat.
Il est cependant possible que l’inverse existe, mais ne soit pas une transformation linéaire. Quand on précisera la définition 2.3.1, cette possibilité sera invalidée.
Solution 5.
La solution pour l’inverse de \(Ev_r\) est donnée à l’exercice [provisional cross-reference: exo-Evrinv].
Solution 6.
Il est évident que, si les composantes d’un vecteur ont été permutées, cette même permutation redonnera le vecteur initial. Ainsi, \(P^{-1}=P\text{.}\) La vérification algébrique est laissée au lecteur.
Solution 7.
On est forcé, une fois de plus, à réfléchir à la signification de l’inverse d’une transformation avec le cas de la projection orthogonale. Si l’on pense aux fonctions réelles traditionnelles et à leur inverse, il en quelque ressort chose de commun. L’inverse de la fonction \(y=ax+b\) est \(y=\frac{(x-b)}{a}\text{,}\) pour autant que \(a\neq 0\text{.}\) La fonction \(f(x)=e^x\) a pour inverse le logarithme naturel, \(g(x)=\ln(x)\text{.}\) Dans chacun de ces cas, on remarque pour chacun des \(x\) dans le domaine, il correspond un seul \(y\) dans l’image tel que \(f(x)=y\text{.}\) Si l’on regarde la fonction \(f(x)=x^2\text{,}\) celle-ci ne respecte pas cette condition. Par exemple, \(f(-2)=f(2)=4\text{.}\)
Lorsqu’on veut inverser la fonction \(x^2\text{,}\) on parle souvent de la racine carrée. Cet inverse ne fonctionne toutefois que pour des valeurs de \(x\geq 0\) (un choix a été fait de considérer cette branche plutôt que l’autre). De même, pour inverser la fonction \(\sin(x)\text{,}\) on ne considère que les valeurs de \(x\in\left[-\frac{\pi}{2},\frac{\pi}{2}\right]\text{.}\) Sur chacune de ces branches, il n’existe qu’une seule paire de nombres \(x,y\) tels que \(f(x)=y\text{.}\) Ainsi, on peut inverser la fonction sans problème.
On revient à la projection. Pour un vecteur \(\vec{v}\) parallèle à \(\vec{w}\text{,}\) il existe une infinité de vecteurs \(\vec{u}\) tels que \(\text{proj}_{\vec{w}}(\vec{u})=\vec{v} \text{.}\) Comment choisir l’inverse de \(\vec{v}\) dans ce cas, parmi l’infinité de possibilités? On préfère ne pas choisir dans ce cas et dire que la projection orthogonale ne possède pas d’inverse.
En approfondissant notre intuition géométrique dans les prochaines sections, on comprendra davantage la raison de l’inexistence de l’inverse de la projection. On peut s’imaginer, en quelque sorte, qu’il y a une perte d’information lorsque la projection est appliquée et qu’il n’est pas possible de revenir en arrière.
L’analogie de l’ombre, souvent utilisée pour les projections orthogonales ou autres, peut aider. En effet, il est facile de réaliser qu’on ne peut pas reconstruire l’objet initial à partir seulement de son ombre. Qui n’a jamais utilisé ses mains pour créer des ombres de monstres effrayants à l’aide d’une lampe de poche?
Le dernier exemple est riche en intuition géométrique et en questionnement. On a pu trouver des inverses sans faire de calculs, sauf pour vérifier que l’intuition était bonne. On a également constaté un cas où, lorsque \(B\) est l’inverse de \(A\text{,}\) \(A\) est aussi l’inverse de \(B\text{.}\) Ce constat, vrai en général pour les matrices carrées, n’est pas aussi évident que cela puisse le paraitre. Également, on a réalisé que l’inverse d’une matrice n’existe pas toujours. On verra bientôt les premiers critères géométriques et algébriques nécessaires pour avoir l’existence d’une transformation inverse.

Sous-section 2.3.2 L’inverse d’une transformation linéaire du plan

Dans cette sous-section, on cherche à établir une formule, mais surtout des critères pour déterminer si une transformation possède une transformation inverse. Avant, on donne un exemple qui motive la recherche de l’inverse.
On sait que les colonnes de la matrice d’une transformation linéaire correspondent aux images des vecteurs \((1,0)\) et \((0,1)\) (dans \(\R^2\text{,}\) le cas général étant semblable, voir la proposition 2.1.26 et le texte qui la suit). Qu’en est-il si l’on connait l’effet d’une transformation \(T\text{,}\) non pas sur ces vecteurs, mais sur deux vecteurs quelconques?
 1 
Il y a une condition à respecter, mais on ne veut pas trop en dire pour le moment.
Concrètement, si \(T(\vec{u}_1)=\vec{v}_1\) et \(T(\vec{u}_2)=\vec{v}_2\text{,}\) alors, selon la définition de la multiplication, on peut écrire
\begin{equation*} T\begin{pmatrix} \lvert & \lvert \\ \vec{u}_1 & \vec{u}_2 \\ \lvert & \lvert \end{pmatrix}=\begin{pmatrix} \lvert & \lvert \\ \vec{v}_1 & \vec{v}_2 \\ \lvert & \lvert \end{pmatrix}\text{.} \end{equation*}
Pour simplifier, on écrit \(TU=V\text{.}\) Si l’on était capable d’inverser la matrice \(U\text{,}\) on pourrait isoler la matrice de la transformation linéaire \(T\text{:}\)
\begin{align} TU&=V\notag\\ TUU^{-1}&=VU^{-1} & & \text{multiplication à droite de part et d'autre par } U^{-1}\notag\\ TI&=VU^{-1} && \text{ car } UU^{-1}=I \text{ par définition de l'inverse}\tag{2.3.2}\\ T&=VU^{-1}\text{.}\tag{2.3.3} \end{align}
En principe, l’équation (2.3.2) suppose que l’inverse à droite \(U^{-1}\) sera le même que l’inverse à gauche (la définition 2.3.1 parle seulement d’inverse à gauche). La définition 2.3.12 qui suivra permettra de lever l’ambigüité. On accepte l’incohérence temporaire puisque le but n’est que de donner un exemple de l’utilisation de la matrice inverse.
On commence l’exploration de l’inverse d’une matrice quelconque par le calcul d’un tel inverse pour une matrice qui n’a pas d’interprétation géométrique claire.

Exemple 2.3.4. Un premier calcul de matrice inverse.

On considère la matrice \(A=\begin{pmatrix} 1& 1\\ 4& 5 \end{pmatrix}\text{.}\) On cherche l’inverse de cette transformation, dans l’hypothèse que l’inverse existe.
Solution.
On cherche une matrice \(A^{-1}\) telle que
\begin{equation*} A^{-1}\begin{pmatrix} 1& 1\\ 4& 5 \end{pmatrix}=\begin{pmatrix} 1& 0\\ 0& 1 \end{pmatrix}\text{.} \end{equation*}
En appliquant la définition de la multiplication, on trouve deux équations vectorielles \(A^{-1}\vecd{1}{4}=\vecd{1}{0}\) et \(A^{-1}\vecd{1}{5}=\vecd{0}{1}\text{.}\) Si l’on pose \(A^{-1}=\begin{pmatrix} x&z\\ y&w \end{pmatrix}\text{,}\) on obtient une paire de systèmes à deux équations deux inconnues. D’une part,
\begin{align} A^{-1}\vecd{1}{4}&=\vecd{1}{0} \notag\\ \vecd{x+4z}{y+4w}&=\vecd{1}{0} \tag{2.3.4} \end{align}
et d’autre part
\begin{align} A^{-1}\vecd{1}{5}&=\vecd{0}{1} \notag\\ \vecd{x+5z}{y+5w}&=\vecd{0}{1} \text{.}\tag{2.3.5} \end{align}
En prenant la première composante des équations (2.3.4) et (2.3.5), qui ne contiennent que les variables \(x\) et \(z\text{,}\) on obtient
\begin{align*} x+4z&=1 \\ x+5z&=0\text{.} \end{align*}
La seconde de ces équations permet d’obtenir \(x=-5z\text{,}\) puis en substituant dans la première, on détermine \(z=-1\text{.}\) On a alors \(x=5\text{.}\)
En prenant la deuxième composante des équations (2.3.4) et (2.3.5), qui ne contiennent que les variables \(y\) et \(w\text{,}\) on obtient
\begin{align*} y+4w&=0 \\ y+5w&=1\text{.} \end{align*}
La première de ces équations permet d’obtenir \(y=-4z\text{,}\) puis en substituant dans la seconde, on détermine \(w=1\text{.}\) On a alors \(y=-4\text{.}\)
Ainsi, la matrice inverse doit être \(A^{-1}=\begin{pmatrix} 5 & -1 \\ -4 & 1 \end{pmatrix}\text{.}\) Une vérification ne fait jamais de tort:
\begin{align*} A^{-1}A&=\begin{pmatrix} 5 & -1 \\ -4 & 1 \end{pmatrix}\begin{pmatrix} 1 & 1 \\ 4 & 5 \end{pmatrix}\\ &=\begin{pmatrix} (5,-1)\cdot (1,4) & (5,-1)\cdot (1,5) \\ (-4,1)\cdot (1,4) & (-4,1)\cdot (1,5) \end{pmatrix}\\ &=\begin{pmatrix} 1& 0\\ 0&1\end{pmatrix}\\ &=I\text{.} \end{align*}
On considère maintenant une matrice \(A=\begin{pmatrix} a& c\\ b & d \end{pmatrix}\) quelconque et l’on cherche l’inverse. En se basant sur les calculs faits à l’exemple 2.3.4, on peut retrouver deux systèmes d’équations analogues. D’abord,
\begin{align*} A^{-1}\vecd{a}{b}&= \vecd{1}{0}\\ \vecd{ax+bz}{ay+bw}&= \vecd{1}{0} \end{align*}
et ensuite
\begin{align*} A^{-1}\vecd{c}{d}&= \vecd{0}{1}\\ \vecd{cx+dz}{cy+dw}&= \vecd{0}{1}\text{.} \end{align*}
Rappelons ici que \(a,b,c,d\) sont les coefficients de la matrice \(A\) et qu’ils sont en général connus. On cherche donc à résoudre ces systèmes en fonction des inconnues \(x,y,z,w\text{.}\) En couplant les premières composantes ensemble et les secondes composantes ensemble, on obtient deux systèmes à deux équations et deux inconnues. Le premier de ces systèmes est
\begin{align*} ax+bz&=1 \\ cx+dz&=0 \end{align*}
et le second
\begin{align*} ay+bw&=0 \\ cy+dw&=1\text{.} \end{align*}
Comme on veut éviter de restreindre le plus possible les valeurs de \(a,b,c,d\text{,}\) on ne peut pas isoler \(x\) ou \(z\) dans la seconde équation du premier système. Cela supposerait que \(c\neq 0\) ou \(d\neq 0\text{.}\) Pour contourner ce problème, on multiplie la première équation par \(c\) et la seconde par \(a\text{.}\) On obtient
\begin{align} acx+bcz&=c \tag{2.3.6}\\ acx+adz&=0\text{.}\tag{2.3.7} \end{align}
En soustrayant l’équation (2.3.6) de l’équation (2.3.7), on obtient
\begin{equation*} (ad-bc)z=-c\text{.} \end{equation*}
On ne peut plus éviter la division et donc, en faisant la supposition que \(ad-bc\neq 0\text{,}\) on obtient \(z=\frac{-c}{ad-bc}\text{.}\)
En multipliant maintenant la première équation du premier système par \(d\) et la seconde par \(b\text{,}\) on obtient
\begin{align} adx+bdz&=d \tag{2.3.8}\\ cbx+bdz&=0\text{.}\tag{2.3.9} \end{align}
En soustrayant cette fois l’équation (2.3.9) de l’équation (2.3.8), on obtient
\begin{equation*} (ad-bc)x=d\text{.} \end{equation*}
La supposition que \(ad-bc\neq 0\) ayant déjà été faite, on trouve \(x=\frac{d}{ad-bc}\text{.}\)
Dans l’exercice 2.3.6.1, il est montré que \(y=\frac{-b}{ad-bc}\) et \(w=\frac{a}{ad-bc}\text{.}\)
En sortant le facteur \(ad-bc\) commun à chacun des termes, on obtient finalement la matrice inverse
\begin{equation} \begin{pmatrix}a\amp c \\ b\amp d \end{pmatrix}^{-1}=\frac{1}{ad-bc}\begin{pmatrix} d \amp -c \\ -b \amp a \end{pmatrix}\text{.}\tag{2.3.10} \end{equation}

Exemple 2.3.5. Calcul de l’inverse avec la formule.

On reprend la matrice de l’exemple 2.3.4 et l’on détermine son inverse avec la formule (2.3.10). On obtient
\begin{align*} A^{-1}&=\frac{1}{1*5-4*1}\begin{pmatrix} 5 \amp -1 \\ -4 \amp 1 \end{pmatrix} \\ &=\begin{pmatrix} 5 \amp -1 \\ -4 \amp 1 \end{pmatrix}\text{,} \end{align*}
qui correspond à ce qui a été obtenu plus tôt.
Il semble qu’un critère pour déterminer si une matrice (ou une transformation) est inversible soit que \(ad-bc\neq 0\text{.}\) On réfléchit maintenant à ce que cela signifie si \(ad-bc=0\) et pourquoi une transformation ayant cette propriété ne peut être inversible.
Dans un premier temps, si \(ad-bc=0\text{,}\) alors \(ad=bc\text{.}\) On a aussi
\begin{align*} c(a,b)&=(ac,bc)\\ &=(ac,ad)\\ &=a(c,d)\text{.} \end{align*}
Les vecteurs \((a,b)\) et \((c,d)\) semblent donc parallèles. En fait, il faut distinguer certains cas problématiques, ce que l’on fera un peu plus tard. D’abord, on montre que des vecteurs parallèles sont suffisants pour faire en sorte qu’une matrice \(2\times 2\) ne soit pas inversible.
En effet, si \((a,b)=k(c,d)\text{,}\) alors
\begin{align*} a&=kc\\ ad&=kcd\\ ad&=kdc\\ ad&=bc\\ ad-bc&=0\text{.} \end{align*}
Le seul problème avec cet argument est que si \((a,b)=(0,0)\) ou \((c,d)=(0,0)\text{,}\) les vecteurs ne sont pas considérés comme parallèles (voir la définition 1.1.20 et la note de bas de page l’accompagnant). Or, de manière évidente, si \((a,b)=(0,0)\) ou \((c,d)=(0,0)\) (ou les deux), alors \(ad-bc=0\text{.}\) Dans tous les cas, la situation géométrique est analogue à une projection. La transformation associée à une matrice \(2\times 2\) telle que \(ad-bc=0\) envoie le plan \(\R^2\) sur une droite (ou un point si \(a=b=c=d=0\)). Comme mentionné à l’exemple 2.3.3, il y a perte d’information qui fait qu’on ne peut défaire la transformation.
On termine avec des commandes Sage en lien avec la sous-section.

Calcul 2.3.6. Les matrices inverses sur Sage.

Sur Sage, on peut calculer facilement l’inverse d’une matrice \(2\times 2\) \(A\) en utilisant la commande A.inverse(). On pourra bien entendu vérifer avec la multiplication matricielle que le calcul est bon.
Si l’inverse n’existe pas, Sage retourne une erreur, comme le montre le code suivant
On fait maintenant un exemple en référence à l’équation (2.3.3), qui stipule que si l’on connait l’effet d’une transformation \(T\) sur deux vecteurs, alors on peut déterminer la matrice associée à la transformation sans calculer directement l’image des vecteurs \((1,0)\) et \((0,1)\) (pour le cas \(2\times 2\)).
On considère donc une transformation linéaire \(T\) telle que \(T(2,4)=(-3,1)\) et \(T(1,-4)=(-2,-5)\text{.}\) On cherche la matrice représentant \(T\text{.}\) Avec Sage et l’équation (2.3.3), on a
Afin de vérifier, on peut calculer les images des vecteurs \((2,4)\) et \((1,-4)\text{.}\)
Évidemment, on aurait pu calculer \(TU\) et vérifier que l’on obtient \(V\text{,}\) mais on s’est permis ici de rappeler la commande U.column() qui permet d’accéder aux colonnes d’une matrice. Il est pratique de travailler de cette manière plutôt que, par exemple, définir manuellement u1=vector([2,4]). L’idée est que si, pour une raison quelconque, on décidait de changer la matrice \(U\text{,}\) il suffirait de changer seulement la ligne où \(U\) est définie. Ceci est résumé dans le conseil 2.3.7 ci-dessous.

Conseil 2.3.7. Utilisation efficace de l’informatique.

L’un des buts de utilisation de l’informatique est de lui déléguer certains calculs, afin de se concentrer davantage sur les concepts. Il faut toutefois être efficace dans son utilisation afin de bénéficier de sa flexibilité et de toute sa puissance. On illustre avec un exemple.
Soit \(A=\begin{pmatrix} 1\amp 3\\ -2\amp 6 \end{pmatrix}\text{.}\) On cherche à calculer la quantité \(ad-bc\) pour cette matrice. Si ce nombre n’est pas zéro, on veut calculer \(A^{-1}\vecd{2}{3}\text{.}\) Voici une première option.
Présentée ainsi, la séquence d’instructions ressemble à ce qui serait fait sur une feuille, les commandes étant effectuées dans l’ordre où l’on se pose les questions pertinentes lors de la résolution. Maintenant si l’on pose les mêmes questions pour la matrice \(B=\begin{pmatrix} -1\amp 2\\ 4\amp -3 \end{pmatrix}\text{,}\) on s’imagine recopier le code et corriger les lignes 2-5 et la ligne 8.
Voici une deuxième option pour répondre aux questions initiales.
Maintenant, pour répondre aux questions avec la matrice \(B\text{,}\) seule la ligne 2 doit être éditée.

Sous-section 2.3.3 Définition formelle de l’inverse d’une matrice carrée

Dans cette sous-section, on étudie les propriétés de la matrice inverse. On précise également la définition de l’inverse. Bien que, pour le moment, on ne connaisse que l’inverse d’une transformation de \(\R^2\) vers \(\R^2\text{,}\) les propriétés étudiées ici sont valides pour toute matrice carrée possédant un inverse. On verra dans le chapitre 3 comment obtenir l’inverse d’une matrice carrée de taille plus grande que \(2\text{.}\)
La première étape de notre démarche est de valider l’hypothèse que si \(A^{-1}A=I\text{,}\) alors \(AA^{-1}=I\) également. Cela parait sans doute plus simple que ce ne l’est vraiment. En effet, rien ne garantit à priori que si \(A\) possède un inverse, alors cet inverse possède lui-même un inverse.
Il est par contre assez intuitif que l’inverse de l’inverse de \(A\) doit être \(A\text{.}\) Les prochains résultats visent à mettre un peu d’ordre et de rigueur derrière l’intuition.

Remarque 2.3.8. Le domaine et l’image d’une transformation linéaire.

Les prochains résultats concernent le domaine et l’image d’une transformation linéaire. On rappelle que selon la proposition 2.1.26, une matrice \(m\times n\) est une transformation linéaire de \(\R^n\) vers \(\R^m\text{.}\) Le chapitre 3 explore en profondeur domaine, image et zéros d’une transformation linéaire.
Pour ce qui suit, on s’intéresse seulement aux matrices carrées \(n\times n\text{.}\)
On cherche d’abord à démontrer que si \(A\) est une matrice pour laquelle il existe \(A^{-1}\) telle que \(A^{-1}A=I\text{,}\) alors il existe également une matrice \(B\) telle que \(AB=I\text{.}\) En d’autres mots, si \(A\) possède un inverse selon la définition 2.3.1 et la remarque 2.3.2, alors \(A\) est aussi l’inverse d’une matrice.
Par la suite, on montre que \(B=A^{-1}\text{.}\)

Démonstration.

Soit \(\vec{v}\in \R^n\text{,}\) un vecteur de l’image de \(A\text{.}\) On cherche \(\vec{u}\) tel que \(A\vec{u}=\vec{v}\text{.}\) Puisque \(A\) possède un inverse \(A^{-1}\text{,}\) on a
\begin{align*} A\vec{u}&=\vec{v}\\ A^{-1}A\vec{u}&=A^{-1}\vec{v} && \text{ En multipliant à gauche de chaque côté par } A^{-1}\text{. Le côté droit de l'égalité est bien défini, car l'inverse est une transformation dont le domaine est } \R^n\text{.}\\ I\vec{u}&=A^{-1}\vec{v} && \text{ car } A^{-1} \text{ est l'inverse de } A\text{.}\\ \vec{u}&=A^{-1}\vec{v} && \text{par }\knowl{./knowl/xref/def-matid.html}{\text{définition 2.2.7}} \text{ de la transformation identité.}\text{.} \end{align*}
Ainsi, il existe \(\vec{u}\) tel que \(A\vec{u}=\vec{v}\) et l’on peut explicitement le calculer à l’aide de l’inverse.
L’unicité est une conséquence du fait que la matrice inverse est unique, ce qui sera démontré à la proposition 2.3.17. Ainsi, si \(\vec{w}\) était tel que \(A\vec{w}=\vec{v}\text{,}\) on aurait aussi \(\vec{w}=A^{-1}\vec{v}\text{.}\) L’unicité de l’inverse assure que \(\vec{w}=\vec{u}\text{.}\)

Démonstration.

Soit \(\vec{e}_1=(1,0,\cdots , 0),\vec{e}_2=(0,1,0,\ldots , 0),\ldots, \vec{e}_n=(0,\ldots ,0 ,1)\text{,}\) les vecteurs colonnes de la matrice identité. Par hypothèse sur \(A\text{,}\) il existe des vecteurs \(\vec{b}_1,\vec{b}_2,\ldots , \vec{b}_n\) tels que \(A\vec{b}_k=\vec{e}_k\) pour chacun des \(k=1,\ldots , n\text{.}\)
On pose
\begin{equation*} B=\begin{pmatrix} \lvert \amp \lvert \amp \cdots \amp \lvert \\ \vec{b}_1\amp \vec{b}_2\amp \cdots \amp \vec{b}_n \\ \lvert \amp \lvert \amp \cdots \amp \lvert \\ \end{pmatrix}\text{.} \end{equation*}
On a alors \(AB=I\) puisque la colonne \(k\) de \(AB\) est donnée par \(A\vec{b_k}=\vec{e}_k\text{.}\)
On peut finalement montrer, en utilisant les deux propositions précédentes, que l’inverse d’une matrice fonctionne des deux côtés. Cela va permettre de préciser la définition 2.3.1.

Démonstration.

Puisque \(A\) possède un inverse au sens de la définition 2.3.1, la proposition 2.3.9 dit que chaque valeur de son image est atteinte par une valeur de son domaine.
De plus, la proposition 2.3.10 affirme qu’il existe une matrice \(B\) telle que \(AB=I\text{,}\) c’est-à-dire que \(A\) est l’inverse d’une matrice \(B\) au sens de la définition 2.3.1. On a alors
\begin{align*} B&= A^{-1}AB && \text{car } A^{-1}A=I\\ &= A^{-1}(AB) && \text{ par associativité de la multiplication matricielle}\\ &=A^{-1} && \text{ car } AB=I\text{.} \end{align*}
Ainsi l’inverse de l’inverse de \(A\) est \(A\text{.}\) On dira aussi que l’inverse à gauche de \(A\) est le même que son inverse à droite.
Ce résultat, qui n’est peut-être pas surprenant, est néanmoins primordial dans l’étude de l’algèbre linéaire. D’autant plus qu’on sait qu’en général, le produit matriciel ne commute pas. Toutefois, c’est le cas lorsqu’il est question de l’inverse. La définition suivante raffine la définition 2.3.1. Elle servira de référence à partir de maintenant pour l’inverse d’une transformation linéaire de \(\R^n\) vers \(\R^n\) ou de façon équivalente, d’une matrice carrée.

Définition 2.3.12. L’inverse d’une matrice carrée.

Soit \(A\text{,}\) une matrice carrée. On dit que \(A\) est inversible s’il existe une matrice \(A^{-1}\) telle que
\begin{equation*} A^{-1}A=AA^{-1}=I\text{.} \end{equation*}
En ce qui concerne les transformations linéaires, on dit que la transformation \(T\) de \(\R^n\) vers \(\R^n\) est inversible s’il existe une transformation linéaire \(T^{-1}\) de \(\R^n\) vers \(\R^n\) telle que
\begin{equation*} T^{-1}(T(\vec{u}))=T(T^{-1}(\vec{u}))=\vec{u} \end{equation*}
pour tout vecteur \(\vec{u}\in\R^n\text{.}\)

Remarque 2.3.13. Obtenir l’inverse d’une matrice.

Ensemble, les propositions 2.3.9 et 2.3.10, combinées à la définition 2.3.12 donnent un critère pour déterminer si une matrice carrée \(A\) possède un inverse. Il faut que l’équation \(A\vec{u}=\vec{v}\) possède une solution pour tout \(\vec{v}\in \R^n\text{.}\) L’exercice 2.3.6.2 montre qu’en fait, il est suffisant d’avoir une solution pour les vecteurs
\begin{align*} \vec{e}_1&= (1,0,\ldots ,0)\\ \vec{e}_2&= (0,1,0,\ldots,0) \\ \vdots &= \vdots \\ \vec{e}_n&= (0,\ldots ,0,1) \text{.} \end{align*}
De plus, la proposition 2.3.10 donne une démarche explicite pour obtenir l’inverse. Pour chaque vecteur \(\vec{e}_k\text{,}\) on cherche un vecteur \(\vec{b}_k\) tel que \(A\vec{b}_k=\vec{e}_k\text{.}\) La matrice inverse est alors
\begin{equation} A^{-1}=\begin{pmatrix} \lvert \amp \lvert \amp \cdots \amp \lvert \\ \vec{b}_1\amp \vec{b}_2\amp \cdots \amp \vec{b}_n \\ \lvert \amp \lvert \amp \cdots \amp \lvert \\ \end{pmatrix}\text{.}\tag{2.3.11} \end{equation}
On utilise cette méthode pour calculer à nouveau l’inverse de la matrice de l’exemple 2.3.4.

Exemple 2.3.14. Calcul d’une matrice inverse.

On considère la matrice \(A=\begin{pmatrix} 1\amp 1 \\ 4\amp 5 \end{pmatrix}\) de l’exemple 2.3.4. On calcule son inverse à l’aide de la méthode de la proposition 2.3.10, en tenant compte de la précision faite à la remarque 2.3.13.
Il est intéressant de s’attarder à la différence entre la méthode explicitée à l’exemple 2.3.4, et dans le paragraphe qui suit cet exemple, et la méthode effectuée ci-dessous basée sur la remarque 2.3.13.
Bien entendu, pour une matrice \(2\times 2\text{,}\) la formule (2.3.10) permet d’obtenir l’inverse sans faire beaucoup de calculs, mais on verra qu’avec une matrice de taille plus grande, il est plus difficile de trouver une formule générale et il est plus simple de rechercher les vecteurs colonnes de l’inverse.
Solution.
On cherche un vecteur \(\vec{b}_1=\vecd{b_{1,1}}{b_{2,1}}\) tel que \(A\vec{b}_1=\vecd{1}{0}\) et un vecteur \(\vec{b}_2=\vecd{b_{1,2}}{b_{2,2}}\) tel que \(A\vec{b}_2=\vecd{0}{1}\text{.}\) On a
\begin{align} A\vec{b}_1&=\vecd{1}{0}\notag\\ \begin{pmatrix} 1\amp 1 \\ 4\amp 5 \end{pmatrix}\vecd{b_{1,1}}{b_{2,1}}&=\vecd{1}{0}\tag{2.3.12}\\ \vecd{b_{1,1}+b_{2,1}}{4b_{1,1}+5b_{2,1}}&=\vecd{1}{0}\tag{2.3.13} \end{align}
et
\begin{align*} A\vec{b}_2&=\vecd{0}{1}\\ \begin{pmatrix} 1\amp 1 \\ 4\amp 5 \end{pmatrix}\vecd{b_{1,2}}{b_{2,2}}&=\vecd{0}{1}\\ \vecd{b_{1,2}+b_{2,2}}{4b_{1,2}+5b_{2,2}}&=\vecd{0}{1}\text{.} \end{align*}
Pour le premier système, on trouve en comparant les deuxièmes composantes des vecteurs de l’équation (2.3.13) que \(b_{2,1}=-\frac{4}{5}b_{1,1}\text{.}\) En remplaçant dans l’équation (2.3.12), on trouve \(b_{1,1}-\frac{4}{5}b_{1,1}=1\text{,}\) ce qui donne \(b_{1,1}=5\text{.}\) On déduit alors \(b_{2,1}=-4\)
Pour le second système, en suivant une méthode similaire, on trouve \(b_{1,2}=-1\) et \(b_{2,2}=1\text{.}\) Cela correspond évidemment à ce qui avait été trouvé aux exemples 2.3.4 et 2.3.5.
On obtient ici la première version du théorème de la matrice inverse 2.3.15. Ce théorème sera construit au fur et à mesure que des résultats sur la matrice inverse vont apparaitre et donnera une panoplie d’affirmations équivalentes visant à déterminer si une matrice carrée est inversible ou non.

Démonstration.

Le fait que la matrice inverse implique l’existence d’une solution unique à l’équation \(A\vec{u}=\vec{v}\) est le résultat de la proposition 2.3.9.
Le fait qu’une solution unique à l’équation \(A\vec{u}=\vec{v}\) implique que la matrice \(A\) soit inversible est le résultat de la proposition 2.3.10.
Dans le chapitre 3, on aura une méthode efficace pour trouver les vecteurs colonnes de l’inverse d’une matrice carrée de taille \(n\text{.}\) Pour le moment, on utilisera Sage ou l’on donnera simplement l’inverse en cas de besoin.
On termine avec un exemple Sage en lien avec la sous-section.

Calcul 2.3.16. Retour sur les matrices inverses sur Sage.

Avec l’aide de la définition 2.3.12, on regarde à nouveau des calculs de matrices inverses sur Sage. Plus précisément, on compare la multiplication à gauche et à droite par l’inverse afin de vérifier l’égalité avec la matrice identité.
Il peut être utile aussi de savoir que, pour calculer l’inverse, on peut utiliser A^(-1), qui se rapproche davantage de la notation mathématique usuelle.

Sous-section 2.3.4 Propriétés de la matrice inverse

Dans cette sous-section, on est intéressé par les propriétés de la matrice inverse. En particulier, on énonce une première version du [provisional cross-reference: thm-delamatriceinverse], qui donne plusieurs critères équivalents pour déterminer si une matrice carrée possède un inverse.
Depuis le début de cette section, on parle de l’inverse d’une matrice. On ne s’est toutefois jamais posé la question à savoir si cet inverse est unique. On a déjà fait une remarque similaire dans la section 1.3 au sujet des vecteurs directeurs des droites et des plans. Ceux-ci ne sont pas uniques. Dans le cas d’une matrice inverse par contre, l’unicité se vérifie.

Démonstration.

L’égalité suit des propriétés de la multiplication matricielle et du fait que si \(CA=I\text{,}\) alors \(AC=I\) (théorème 2.3.11).
\begin{align*} B&=BAC && \text{ car } AC=I\\ &=(BA)C&& \text{ associativité de la multiplication matricielle}\\ &=C && \text{car} BA=I\text{.} \end{align*}
En plus d’être unique, l’inverse possède la propriété importante suivante.

Démonstration.

On commence en supposant que les matrices \(A,B\) sont inversibles. Avant de s’embarquer dans des manipulations algébriques abstraites, on réfléchit un instant sur la signification de la proposition. Si deux transformations sont inversibles et qu’on les compose, c’est-à-dire qu’on les fait l’une après l’autre, il n’y a alors pas de raison apparente qui ferait en sorte que cette composition ne soit pas inversible. De plus, il semble que pour revenir sur le vecteur original, il suffit de faire les transformations inverses dans l’ordre inverse. Il paraît donc assez intuitif que
\begin{equation*} (AB)^{-1}=B^{-1}A^{-1} \end{equation*}
D’un point de vue algébrique, on vérifie facilement que \((B^{-1}A^{-1})(AB)=B^{-1}A^{-1}AB=B^{-1}IB=B^{-1}B=I\text{.}\) Il ne reste donc qu’à vérifier l’existence de l’inverse.
Soit \(\vec{v}\in \R^n\) un vecteur de l’image de \(AB\text{.}\) On cherche \(\vec{u}\) telle que \(AB\vec{u}=\vec{v}\text{.}\) En vertu de la proposition 2.3.10, si \(\vec{u}\) existe, la matrice \(AB\) est inversible. On construit \(\vec{u}\) en inversant successivement les matrices \(A\) et \(B\text{.}\) Tel qu’attendu
\begin{align*} AB\vec{u}&=\vec{v}\\ B\vec{u}&=A^{-1}\vec{v}\\ \vec{u}&=B^{-1}A^{-1}\vec{v}\text{.} \end{align*}
Comme les matrices \(A^{-1}\) et \(B^{-1}\) existent, le vecteur \(\vec{u}\) existe. Ainsi, la matrice \(AB\) possède toujours un inverse.
On suppose maintenant que \(A\) et \(B\) sont deux matrices telles que leur produit \(AB\) est inversible. Il existe alors une matrice \(C\) telle que \(CAB=I\) selon la définition 2.3.12. Selon l’associativité du produit matriciel, on peut écrire \((CA)B=I\) ce qui donne, toujours selon la définition 2.3.12, que la matrice \(B\) est inversible.
La preuve que \(A\) possède un inverse est laissée à l’exercice 2.3.6.3.
Avec les nombres réels, on dit souvent par exemple que \(\frac{1}{2}\) est l’inverse multiplicatif de \(2\text{,}\) car \(2*\frac{1}{2}=1\text{.}\) De même, on peut aussi dire que \(2\) est l’inverse multiplicatif de \(\frac{1}{2}\text{.}\) Est-ce que ce résultat est aussi vrai pour les matrices? C’est ce que la proposition permet d’affirmer.

Démonstration.

Cela découle directement du théorème 2.3.11.
Parfois, une discussion sur les propriétés en est aussi une sur les "non propriétés". Par exemple, l’inverse de la somme de deux matrices n’est pas la somme des inverses de ces matrices. En fait, il est même possible que la somme de deux matrices inversibles ne soit pas inversible (contrairement au produit). Pour un exemple simple, on prend une matrice inversible \(A\) et l’on considère la matrice \(A+(-A)\text{.}\) On obtient la matrice nulle, qui n’est pas inversible. En effet, si \(\vec{v}\neq \vec{0}\) est un vecteur de l’image de \(A-A\text{,}\) aucun vecteur \(\vec{u}\) n’est envoyé sur \(\vec{v}\text{,}\) car \((A-A)\vec{u}=\vec{0}\text{.}\) En vertu de la proposition 2.3.9, la matrice nulle ne peut être inversible.

Démonstration.

La preuve est laissée au lecteur à l’exercice 2.3.6.7.

Sous-section 2.3.5 Algèbre matricielle

Dans cette section, on illustre l’utilisation de l’algèbre matricielle, qui diffère de l’algèbre usuelle principalement par le fait que la multiplication n’est pas commutative.

Exemple 2.3.21. Algèbre matricielle.

Soit \(A,B,C\) et \(X\text{,}\) des matrices. On cherche à isoler \(X\) dans l’équation
\begin{equation*} AX+B=C\text{.} \end{equation*}
Quelles sont les conditions sur les matrices \(A,B,C\) pour qu’il soit possible d’isoler \(X\text{.}\)
Solution.
On isole \(X\text{,}\) sans se soucier des conditions sur les matrices. On les déterminera après avoir effectué les opérations algébriques. On a donc
\begin{align*} AX+B&=C\\ AX&=C-B\\ X&=A^{-1}(C-B)\text{.} \end{align*}
Il faut donc que \(B\) et \(C\) soient de même format, puisqu’on les soustrait. De plus, on utilise l’inverse de \(A\text{.}\) Il faut donc que \(A\) soit une matrice carrée.
 2 
Techniquement, ce n’est pas vrai, \(A\) pourrait posséder un inverse à droite si elle est rectangulaire. Voir la section [provisional cross-reference: sec-matmn].
Si \(A\) est une matrice \(n\times n\text{,}\) il faut que \(C-B\) ait \(n\) lignes. Sans obligation sur le nombre de colonnes, on peut supposer qu’il y en a \(m\text{.}\) Les matrices \(B,C\) sont donc de format \(n\times m\text{.}\)
Le produit \(A^{-1}(C-B)\) sera une matrice \(n\times m\) et donc, le format de \(X\) sera \(n\times m\text{.}\) C’est également compatible avec l’équation initiale puisque \(AX\) est de format \(n\times m\) et qu’on additionne à ce produit la matrice \(B\) (\(n\times m\)) pour avoir la matrice \(C\) (aussi \(n\times m\)).
Dans tous les exemples qui suivent, on suppose que les matrices ont un format approprié pour que les opérations soient définies et que les matrices qui ont à être inversées sont carrées. L’exercice 2.3.6.12 servira à déterminer dans chaque cas les conditions sur les matrices.

Exemple 2.3.22. Algèbre matricielle, deuxième partie.

Pour chaque équation ci-dessous, isoler la matrice \(X\text{,}\) en supposant que les formats sont appropriés et que les matrices devant être inversées sont inversibles.
  1. \(\displaystyle XA+B=C\)
  2. \(\displaystyle AX+B=X\)
  3. \(\displaystyle AXB=D\)
  4. \(\displaystyle AX^{-1}+B=C\)
Solution 1.
Similairement à l’exemple 2.3.21, on a
\begin{align*} XA+B&=C\\ XA&=C-B\\ X&=(C-B)A^{-1}\text{.} \end{align*}
Solution 2.
On commence par regrouper les termes ayant la matrice \(X\) d’un côté. On obtient alors
\begin{align*} AX-X&=-B\\ (A-I)X&=-B\\ X&=(A-I)^{-1}(-B)\\ X&=-(A-I)^{-1}B\text{.} \end{align*}
Solution 3.
On a
\begin{align*} AXB&=D\\ AX&=DB^{-1}\\ X&=A^{-1}DB^{-1}\text{.} \end{align*}
Solution 4.
On commence par poser \(Y=X^{-1}\text{.}\) L’expression devient \(AY+B=C\text{,}\) équivalente à celle de l’exemple 2.3.21. On a donc
\begin{equation*} Y=A^{-1}(C-B)\text{.} \end{equation*}
Puisque \(X=Y^{-1}=(X^{-1})^{-1}\text{,}\) on a
\begin{align*} X&=\left(A^{-1}(C-B)\right)^{-1}\\ X&=(C-B)^{-1}(A^{-1})^{-1}\\ X&=(C-B)^{-1}A\text{.} \end{align*}
On termine avec un exemple Sage en lien avec la sous-section.

Calcul 2.3.23. L’algèbre matricielle avec Sage.

Parfois, il est pratique de travailler avec des matrices génériques, de manière purement algébrique, sans se soucier des entrées spécifiques des matrices. Malheureusement, Sage ne permet pas (encore) l’utilisation de variables pour des matrices comme on l’a fait dans les exemples 2.3.21 et 2.3.22. On fait un compromis en se créant une matrice arbitraire de taille fixe. Les calculs faits ainsi ne pourront donc pas être considérés comme des preuves des identités, mais au moins une vérification qui est plus générale qu’un exemple précis.
On doit, dans un premier temps, créer une matrice dont les entrées seront arbitraires, par exemple \(A=\begin{pmatrix} a_{1,1} & a_{1,2} & a_{1,3} \\ a_{2,1} & a_{2,2} & a_{2,3} \\ a_{3,1} & a_{3,2} & a_{3,3} \end{pmatrix}\text{.}\)
Pour cela, on se sert du constructeur de matrices à partir d’une liste. Par exemple, pour créer une matrice dont les entrées seraient les nombres de \(1\) à \(9\text{,}\) enumérées ligne par ligne, on peut utiliser la suite d’instructions suivante.
On veut donc créer une fonction Sage qui, étant donné des dimensions \(m,n\) et un paramètre alphabétique, retournera une matrice de taille \(m\times n\) dont les entrées seront dénotées par la lettre choisie indicée de la position, comme à l’équation (2.1.4). Voici une manière d’y arriver, avec commentaire dans le code.
On appelle maintenant le code pour créer deux matrices \(2\times 2\) avec des indices respectifs \(a\) et \(b\text{.}\)
On remarque que les fonctions sage utilisées ne permettent pas d’écrire \(a_{1,2}\text{.}\) Les entrées pourraient porter à confusion si la taille était supérieure à \(9\text{.}\)
On peut ensuite "vérifier" l’équation de l’exemple 2.3.21 de la manière suivante.
On a choisi \(4\times 4\) pour la taille des matrices, mais on aurait pu choisir d’autres valeurs, respectant les conditions énumérées dans l’exemple 2.3.21. Un rappel s’impose aussi sur sage. Si l’expression avec le == renvoie true, alors on a l’assurance que c’est vrai. Par contre, un false ne signifie pas que l’expression est fausse, mais que sage est incapable de la vérifier.
Les points importants de cette section sont:
  • L’inverse d’une matrice ou d’une transformation n’existe pas toujours;
  • Lorsqu’il existe, l’inverse d’une matrice \(\begin{pmatrix}a&c\\ b& d\end{pmatrix}\) est donné par l’équation (2.3.10);
  • La définition 2.3.12 de l’inverse d’une matrice carrée et le fait qu’un inverse à gauche est un inverse à droite;
  • L’inverse d’un produit 2.3.18 est le produit des inverses, mais l’ordre est renversé;
  • L’algèbre matricielle se comporte essentiellement comme l’algèbre usuelle, avec la restriction que la multiplication n’est pas commutative et que la division est remplacée par la multiplication par l’inverse d’une matrice.
De plus avec Sage, on peut calculer l’inverse d’une matrice \(A\) avec la commande A.inverse() ou A^(-1).

Exercices 2.3.6 Exercices

1.

Dans la section, on a déterminé une formule pour l’inverse d’une matrice \(2\times 2\) quelconque qui n’est valide que si \(ad-bc\neq 0\text{.}\) On a toutefois laissé à compléter les détails de la résolution du système d’équations
\begin{align*} ay+bw&=0 \\ cy+dw&=1\text{.} \end{align*}
Montrer que la solution à ce système est \(y=\frac{-b}{ad-bc}\) et \(w=\frac{a}{ad-bc}\text{.}\)
Indice.
S’inspirer de la résolution du système dans le texte.
Solution.
On multiplie la première équation par \(c\) et la seconde par \(a\text{.}\) On obtient
\begin{align} acy+bcw&=0 \tag{2.3.14}\\ acy+adw&=a\text{.}\tag{2.3.15} \end{align}
En soustrayant l’équation (2.3.14) de l’équation (2.3.15), on obtient
\begin{equation*} (ad-bc)w=a\text{.} \end{equation*}
Toujours dans l’hypothèse que \(ad-bc\neq 0\text{,}\) on obtient \(w=\frac{a}{ad-bc}\text{.}\)
En multipliant maintenant la première équation du premier système par \(d\) et la seconde par \(b\text{,}\) on obtient
\begin{align} ady+bdw&=0 \tag{2.3.16}\\ cby+bdw&=b\text{.}\tag{2.3.17} \end{align}
En soustrayant cette fois l’équation (2.3.16) de l’équation (2.3.17), on obtient
\begin{equation*} (ad-bc)y=-b\text{.} \end{equation*}
On trouve \(y=\frac{-b}{ad-bc}\text{.}\)

2.

Dans la remarque 2.3.13, il est mentionné qu’une matrice \(A\) possède un inverse si pour tous les \(\vec{v}\) dans \(\R^n\text{,}\) il existe un vecteur \(\vec{u}\) tel que \(A\vec{u}=\vec{v}\text{.}\) Montrer qu’en fait, il suffit que les équations
\begin{align*} A\vec{u}&=(1,0,\ldots, 0)\\ A\vec{u}&=(0,1,0,\ldots, 0)\\ \vdots&=\vdots\\ A\vec{u}&=(0,\ldots, 0,1) \end{align*}
possèdent des solutions.
Indice.
Essayer de montrer que si des solutions existent pour ces équations, alors une solution existe pour n’importe quel \(\vec{v}\text{.}\)
Solution.
En suivant l’indication, on cherche à démontrer que si une solution \(\vec{u}\) existe pour chacune de ces équations, il découle qu’une solution existe pour \(A\vec{u}=\vec{v}\text{,}\) peu importe le vecteur \(\vec{v}\text{.}\)
Soit \(\vec{v}=(v_1,v_2,\dots,v_n)\in\R^n\text{,}\) un vecteur quelconque de dimension \(n\text{.}\) Alors, si les équations données dans la question possèdent des solutions, on peut écrire:
\begin{align*} A\vec{u}_1&=(1,0,\ldots, 0)\\ A\vec{u}_2&=(0,1,0,\ldots, 0)\\ \vdots&=\vdots\\ A\vec{u}_n&=(0,\ldots, 0,1) \end{align*}
où les \(\vec{u}_i\) sont ces solutions. Alors,
\begin{align*} \vec{v}&=(v_1,v_2,\dots,v_n)\\ &=(v_1,0,\dots,0)+(0,v_2,\dots,0)+\cdots+(0,0,\dots,v_n)\\ &=v_1(1,0,\ldots, 0)+v_2(0,1,0,\ldots, 0)+\cdots+v_n(0,\ldots, 0,1)\\ &=v_1A\vec{u}_1+v_2A\vec{u}_2+\cdots+v_nA\vec{u}_n\\ &=A(v_1\vec{u}_1)+A(v_2\vec{u}_2)+\cdots+A(v_n\vec{u}_n)\\ &=A(v_1\vec{u}_1+v_2\vec{u}_2+\cdots+v_n\vec{u}_n)\\ &=A\vec{u}' \end{align*}
Cela implique donc qu’il existe un vecteur \(\vec{u}'\) solution à l’équation \(A\vec{u}'=\vec{v}\) pour la matrice \(A\) et un vecteur quelconque \(\vec{v}\text{.}\) \(A\) possède donc un inverse.

3.

Soit \(A,B\text{,}\) deux matrices carrées telles que \(AB\) est inversible. Compléter la preuve de la proposition 2.3.18 en montrant que \(A\) est inversible.
Solution.
Puisque \(AB\) est inversible, il existe une matrice \(C\) telle que \(CAB=ABC=I\text{,}\) selon la définition 2.3.12. On peut alors écrire à l’aide de l’associativité de la multiplication matricielle \(A(BC)=I\text{.}\) Toujours selon la définition 2.3.12, la matrice \(A\) est inversible.

4.

Généraliser la proposition 2.3.18 à trois matrices. Est-il possible de généraliser davantage?
Solution.
On énonce la proposition 2.3.18 à trois matrices:
Soit \(A\text{,}\) \(B\) et \(C\text{,}\) trois matrices carrées d’ordre \(n\text{.}\) Le produit \(ABC\) est inversible si et seulement si les matrices \(A,B,C\) sont inversibles. De plus, on a \((ABC)^{-1}=C^{-1}B^{-1}A^{-1}\text{.}\)
On commence en supposant que les matrices \(A,B,C\) sont inversibles. Il est assez intuitif que
\begin{equation*} (ABC)^{-1}=C^{-1}B^{-1}A^{-1} \end{equation*}
On le vérifie algébriquement:
\begin{equation*} (C^{-1}B^{-1}A^{-1})(ABC)=C^{-1}B^{-1}A^{-1}ABC=C^{-1}B^{-1}IBC=C^{-1}B^{-1}BC=C^{-1}IC=C^{-1}C=I\text{.} \end{equation*}
Il ne reste donc qu’à vérifier l’existence de l’inverse.
Soit \(\vec{v}\in \R^n\) un vecteur de l’image de \(ABC\text{.}\) On cherche \(\vec{u}\) tel que \(ABC\vec{u}=\vec{v}\text{.}\) En vertu de la proposition 2.3.10, si \(\vec{u}\) existe, la matrice \(ABC\) est inversible. On construit \(\vec{u}\) en inversant successivement les matrices \(A\text{,}\) \(B\) et \(C\text{.}\) Tel qu’attendu,
\begin{align*} ABC\vec{u}&=\vec{v}\\ BC\vec{u}&=A^{-1}\vec{v}\\ C\vec{u}&=B^{-1}A^{-1}\vec{v}\\ \vec{u}&=C^{-1}B^{-1}A^{-1}\vec{v}\text{.} \end{align*}
Comme les matrices \(A^{-1}\text{,}\) \(B^{-1}\) et \(C^{-1}\) existent, le vecteur \(\vec{u}\) existe. Ainsi, la matrice \(ABC\) possède toujours un inverse.
On suppose maintenant que \(A\text{,}\) \(B\) et \(C\) sont trois matrices telles que leur produit \(ABC\) est inversible. On a alors existence d’une matrice \(D\) telle que \(D(ABC)=I\) selon la définition 2.3.12. Selon l’associativité du produit matriciel, on peut écrire \((DAB)C=I\) et donc, toujours selon la définition 2.3.12, la matrice \(C\) est inversible.
De façon semblable, si \(A\text{,}\) \(B\) et \(C\) sont trois matrices telles que leur produit \(ABC\) est inversible, on a alors existence d’une matrice \(D\) telle que \((ABC)D=I\) selon la définition 2.3.12. Selon l’associativité du produit matriciel, on peut écrire \(A(BCD)=I\) et donc, toujours selon la définition 2.3.12, la matrice \(A\) est inversible.
Finalement, en regroupant les matrices \(AB=D\text{,}\) on a que \(ABC=DC\) qu’on suppose inversible. Par la proposition 2.3.18 à deux matrices, cela implique que \(D\) et \(C\) sont inversibles. Si \(D=AB\) est inversible, cela implique, encore par le même proposition, que \(A\) et \(B\) sont inversibles.
On voit clairement que, bien que cela prenne de plus en plus de temps, on pourrait continuer de généraliser la proposition à l’infini en multipliant simplement plus de fois.

5.

Expliquer pourquoi une projection orthogonale sur un vecteur \(\vec{u}\) est une transformation linéaire non inversible.
Solution.
La proposition 2.3.9 dit qu’une transformation inversible doit atteindre tous les vecteurs de son image. Comme la projection envoie les vecteurs sur une droite, elle ne peut atteindre tous les vecteurs. Elle est donc non inversible.

6.

Soit \(A\text{,}\) une matrice \(m\times n\) qui n’est pas nécessairement carrée et \(O\text{,}\) la matrice nulle de dimension appropriée. Montrer que
(a)
\(AO=O\)
Solution.
Si la matrice \(A\) est de format \(m\times n\text{,}\) alors la première matrice \(O\) doit être de format \(n\times p\) et la seconde de format \(m\times p\text{.}\) La matrice nulle est la matrice de transformation linéaire qui amène tous les vecteurs au vecteur nul, toujours de formats appropriés. On démontre que la transformation \(AO\) amène tous les vecteurs à l’origine. On précise les dimensions des matrices et des vecteurs. Soit un vecteur \(\vec{u}_p\in\R^p\text{.}\) Alors,
\begin{align*} A_{m\times n}O_{n\times p}\vec{u}_p&=A_{m\times n}(O_{n\times p}\vec{u}_p)\\ &=A_{m\times n}(\vec{0}_n)\\ &=\vec{0}_m \end{align*}
Donc, puisque la matrice \(AO\) amène tous les vecteurs à l’origine, c’est donc la matrice nulle. Ainsi, \(AO=O\text{.}\)
(b)
\(OA=O\)
Solution.
On procède de façon semblable. Soit un vecteur \(\vec{u}_n\in\R^n\text{.}\) Alors,
\begin{align*} O_{p\times m}A_{m\times n}\vec{u}_n&=O_{p\times m}(A_{m\times n}\vec{u}_n)\\ &=O_{p\times m}\vec{u}'_m\\ &=\vec{0}_p \end{align*}
Donc, puisque la matrice \(OA\) amène tous les vecteurs à l’origine, c’est donc la matrice nulle. Ainsi, \(OA=O\text{.}\)

7.

Considérer la matrice \(A\) inversible et le nombre réel non nul \(k\text{.}\) Démontrer que \((kA)^{-1}=\frac{1}{k}A^{-1}\text{.}\) Noter que cet exercice est la démonstration de la propriété 2.3.20.
Indice.
Pour démontrer qu’une matrice \(B\) est l’inverse d’une matrice \(A\text{,}\) il faut démontrer que \(AB=I\text{.}\)
Solution.
Tel que suggéré dans l’indication, on montre que \(\frac{1}{k}A^{-1}\) est bel et bien l’inverse de \(kA\) en les multipliant. Si le résultat donne la matrice identité, on aura démontré que \((kA)^{-1}=\frac{1}{k}A^{-1}\text{.}\)
\begin{align*} (kA)\left(\frac{1}{k}A^{-1}\right)&=(k*\frac{1}{k})AA^{-1} &&\text{ par } \knowl{./knowl/xref/li-assoscalprodmat.html}{\text{2.2.13:3}}\text{ et }\knowl{./knowl/xref/li-assoprodmat.html}{\text{2.2.13:4}}\\ &=1I\\ &=I \end{align*}

8.

Pour chacun des énoncés suivants, les matrices sont censées être carrées, de format approprié et inversibles lorsque nécessaire. Donner une preuve si l’énoncé est vrai, ou donner un contrexemple si l’énoncé est faux.
(a)
\((A+B)^{-1}=A^{-1}+B^{-1}\)
Solution.
Cet énoncé est faux, en général. On en donne un contrexemple. Pour se simplifier la tâche, on utilise des matrices \(2\times 2\text{.}\) Soit \(A=\begin{pmatrix}0&-1\\ 1&0\end{pmatrix}\) et \(B=\begin{pmatrix}1&-1\\ 0&1\end{pmatrix}\text{,}\) alors
\begin{align*} (A+B)^{-1}&=\left(\begin{pmatrix}0&-1\\ 1&0\end{pmatrix}+\begin{pmatrix}1&-1\\ 0&1\end{pmatrix}\right)^{-1}\\ &=\begin{pmatrix}1&-2\\ 1&1\end{pmatrix}^{-1}\\ &=\begin{pmatrix}\frac{1}{3}&\frac{2}{3}\\ -\frac{1}{3}&\frac{1}{3}\end{pmatrix} &&\text{ par } \knowl{./knowl/xref/eq-matinverse2x2.html}{\text{(2.3.10)}}\\ &\neq\begin{pmatrix}1&-2\\ 1&1\end{pmatrix}\\ &=\begin{pmatrix}0&1\\ -1&0\end{pmatrix}+\begin{pmatrix}1&1\\ 0&1\end{pmatrix}\\ &=\begin{pmatrix}0&-1\\ 1&0\end{pmatrix}^{-1}+\begin{pmatrix}1&-1\\ 0&1\end{pmatrix}^{-1}\\ &=A^{-1}+B^{-1} \end{align*}
(b)
Si \(A\) est inversible et que \(AB=AC\text{,}\) alors \(B=C\text{.}\)
Solution.
Cet énoncé est vrai. En effet,
\begin{align*} AB&=AC\\ \Leftrightarrow A^{-1}AB&=A^{-1}AC\\ \Leftrightarrow IB&=IC\\ \Leftrightarrow B&=C \end{align*}
(c)
Si \(A\) n’est pas inversible et que \(AB=AC\text{,}\) alors \(B=C\text{.}\)
Solution.
Cet énoncé est faux. On donne un contrexemple avec des matrices \(2\times 2\text{.}\) Soit \(A=\begin{pmatrix}1&1\\ 0&0\end{pmatrix}\text{,}\) \(B=\begin{pmatrix}1&0\\ 0&1\end{pmatrix}\) et \(C=\begin{pmatrix}0&1\\ 1&0\end{pmatrix}\text{,}\) alors
\begin{align*} AB&=\begin{pmatrix}1&1\\ 0&0\end{pmatrix}\begin{pmatrix}1&0\\ 0&1\end{pmatrix}\\ &=\begin{pmatrix}1&1\\ 0&0\end{pmatrix}\\ &=\begin{pmatrix}1&1\\ 0&0\end{pmatrix}\begin{pmatrix}0&1\\ 1&0\end{pmatrix}\\ &=AC \end{align*}
Mais,
\begin{equation*} B=\begin{pmatrix}1&0\\ 0&1\end{pmatrix}\neq\begin{pmatrix}0&1\\ 1&0\end{pmatrix}=C\text{.} \end{equation*}
(d)
Si \(A\) est inversible et qu’on interchange deux colonnes (ou deux lignes) pour obtenir la matrice \(B\text{,}\) alors \(B\) est inversible.
Indice.
Trouver une matrice \(P\) telle que \(PA=B\) ou \(AP=B\) et utiliser la proposition 2.3.18.
Solution.
Cet énoncé est vrai. On considère que si une matrice est carrée, alors elle est inversible. Soit \(A\text{,}\) une matrice carrée inversible d’ordre \(n\text{.}\) On définit \(P\text{,}\) une matrice qui permet de permuter ou d’interchanger deux colonnes. La démarche serait très semblable pour les lignes en multipliant \(PA\) au lieu de \(AP\text{.}\) Pour les matrices \(2\times 2\text{,}\) cette matrice est toujours : \(P=\begin{pmatrix}0&1\\ 1&0\end{pmatrix}\text{,}\) puisque l’on n’a qu’une seule option. En effet, pour \(A=\begin{pmatrix}a&c\\ b&d\end{pmatrix}\text{,}\) on voit que:
\begin{equation*} AP=\begin{pmatrix}a&c\\ b&d\end{pmatrix}\begin{pmatrix}0&1\\ 1&0\end{pmatrix}=\begin{pmatrix}c&a\\ d&b\end{pmatrix}\text{.} \end{equation*}
Cette matrice est toujours inversible et est même sa propre inverse, puisqu’en réfléchissant en termes de transformations linéaires, comment fait-on pour ramener les colonnes permutées à leur emplacement initial? On les permute à nouveau et de la même manière. C’est toujours une matrice de symétrie que l’on construit. Lorsqu’on trouve une telle matrice pour effectuer les permutations, on montre immédiatement que \(B=AP\) est inversible. En effet,
\begin{equation*} B^{-1}=(AP)^{-1}=P^{-1}A^{-1}\text{.} \end{equation*}
Bref, afin de généraliser cette situation, il ne nous reste qu’à fournir une matrice de permutation qui permet d’échanger la colonne \(i\) avec la colonne \(j\text{.}\) Cette matrice est simplement la matrice identité où l’on a interchangé les colonnes \(i\) et \(j\text{.}\) Bref,
\begin{equation*} Pcol_{i\leftrightarrow j}=\begin{pmatrix} \lvert & \lvert & \cdots & \lvert & \cdots & \lvert & \cdots & \lvert \\ \vec{e}_1 & \vec{e}_2 &\cdots & \vec{e}_j &\cdots & \vec{e}_i & \cdots & \vec{e}_n \\ \lvert & \lvert & \cdots & \lvert & \cdots & \lvert & \cdots & \lvert \\ \end{pmatrix}\text{.} \end{equation*}
Par exemple, dans \(\R^4\text{,}\) la matrice de permutation des colonnes \(2\) et \(4\) est:
\begin{equation*} Pcol_{2\leftrightarrow 4}=\begin{pmatrix} 1 & 0 & 0 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 1 & 0 \\ 0 & 1 & 0 & 0 \\ \end{pmatrix}\text{.} \end{equation*}
On remarque finalement que, puisque permuter deux colonnes de la matrice identité ou deux lignes de la matrice identité donne exactement la même matrice, les matrices de permutation de lignes et de colonnes sont les mêmes. La permutation des lignes ou des colonnes d’une matrice \(A\) se produira selon si l’on multiplie à droite ou à gauche. On pourrait en dire beaucoup plus long, mais on s’arrête ici!
(e)
Si \(A\) possède une ligne de zéros, alors \(A\) n’est pas inversible.
Indice.
Utiliser la propriété 2.3.9.
Solution.
Cet énoncé est vrai. Comme suggéré dans l’indication, on utilise la propriété 2.3.9. Il faut trouver un vecteur \(\vec{v}\) pour lequel il est impossible de trouver un vecteur \(\vec{u}\) tel que \(A\vec{u}=\vec{v}\text{.}\) Un exemple simple est un vecteur qui ne possède que des zéros, sauf à la position correspondant à la ligne de zéros de la matrice. Ce vecteur est en fait \(\vec{v}=\vec{e}_i\) où la i-ème ligne de la matrice \(A\) est nulle. Sans perdre trop de généralité, si la première ligne de \(A\) est nulle, on écrit
\begin{equation*} A=\begin{pmatrix} \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{0} &\hspace{-0.2cm} \rule[.5ex]{2.5ex}{0.5pt} \\ \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{r}_2 &\hspace{-0.2cm} \rule[.5ex]{2.5ex}{0.5pt} \\ \vdots & \vdots & \vdots \\ \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{r}_m &\hspace{-0.2cm} \rule[.5ex]{2.5ex}{0.5pt} \end{pmatrix} \end{equation*}
Quand on multiplie cette matrice par \(\vec{u}\text{,}\) par l’équation (2.1.6), on peut faire
\begin{equation*} A\vec{u}=\begin{pmatrix} \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{0} &\hspace{-0.2cm} \rule[.5ex]{2.5ex}{0.5pt} \\ \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{r}_2 &\hspace{-0.2cm} \rule[.5ex]{2.5ex}{0.5pt} \\ \vdots & \vdots & \vdots \\ \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{r}_m &\hspace{-0.2cm} \rule[.5ex]{2.5ex}{0.5pt} \end{pmatrix}\vec{u}= \begin{pmatrix} \vec{0}\cdot\vec{u} \\ \vec{r}_2\cdot\vec{u} \\ \vdots \\ \vec{r}_m\cdot\vec{u} \end{pmatrix}= \begin{pmatrix} 0 \\ \vec{r}_2\cdot\vec{u} \\ \vdots\\ \vec{r}_m\cdot\vec{u} \end{pmatrix}\neq \begin{pmatrix}1\\ 0\\ \vdots\\ 0 \end{pmatrix}\text{,} \end{equation*}
peu importe le vecteur \(\vec{u}\) choisi. La preuve serait semblable si l’on choisissait une autre ligne nulle dans la matrice \(A\text{.}\)
(f)
Si \(B=(A^2)^{-1}\text{,}\) alors \(A^{-1}=AB\text{.}\)
Solution.
Cet énoncé est vrai. On le démontre en multipliant \(AB\) avec \(A\) pour obtenir la matrice identité et ainsi démontrer que \(AB\) est bien l’inverse de \(A\text{.}\)
\begin{align*} (AB)A&=ABA && \text{ par } \knowl{./knowl/xref/li-assoprodmat.html}{\text{2.2.13:4}}\\ &=A(A^2)^{-1}A\\ &=A(AA)^{-1}A\\ &=AA^{-1}A^{-1}A && \text{ par } \knowl{./knowl/xref/prop-inverseproduit.html}{\text{2.3.18}}\\ &=II\\ &=I \end{align*}

9.

En utilisant, lorsque c’est possible, le fait que \(A\vec{u}=\vec{v}\) peut s’écrire sous la forme \(\vec{u}=A^{-1}\vec{v}\text{,}\) répondre aux questions suivantes:
(a)
Trouver un vecteur \(\vec{u}\) tel que \(\begin{pmatrix}1\amp 2\\ -1 \amp 4 \end{pmatrix}\vec{u}=\vecd{3}{1}\text{.}\)
Réponse.
\begin{equation*} \vec{u}=\vecd{\frac{5}{3}}{\frac{2}{3}} \end{equation*}
Solution.
On calcule simplement la matrice \(A^{-1}\) à l’aide de la formule (2.3.10) et on la multiplie à gauche par le vecteur \(\vec{v}\text{.}\)
\begin{equation*} A^{-1}=\begin{pmatrix}1\amp 2\\ -1 \amp 4 \end{pmatrix}^{-1}=\frac{1}{1*4-2*(-1)}\begin{pmatrix}4\amp -2\\ 1 \amp 1 \end{pmatrix} =\begin{pmatrix}\frac{2}{3}\amp -\frac{1}{3}\\ \frac{1}{6} \amp \frac{1}{6} \end{pmatrix} \end{equation*}
Puis, on fait la multiplication.
\begin{equation*} \vec{u}=A^{-1}\vec{v}=\begin{pmatrix}\frac{2}{3}\amp -\frac{1}{3}\\ \frac{1}{6} \amp \frac{1}{6} \end{pmatrix}\vecd{3}{1}=\vecd{\frac{5}{3}}{\frac{2}{3}} \end{equation*}
(b)
Trouver un vecteur \(\vec{u}\) tel que \(\begin{pmatrix}1\amp 2\\ 0 \amp 1 \end{pmatrix}\vec{u}=\vecd{-1}{5}\text{.}\)
Réponse.
\begin{equation*} \vec{u}=\vecd{-11}{5} \end{equation*}
Solution.
On calcule simplement la matrice \(A^{-1}\) à l’aide de la formule (2.3.10) et on la multiplie à gauche par le vecteur \(\vec{v}\text{.}\)
\begin{equation*} A^{-1}=\begin{pmatrix}1\amp 2\\ 0 \amp 1 \end{pmatrix}^{-1}=\frac{1}{1*1-2*0}\begin{pmatrix}1\amp -2\\ 0 \amp 1 \end{pmatrix} =\begin{pmatrix}1\amp -2\\ 0 \amp 1 \end{pmatrix} \end{equation*}
Puis, on fait la multiplication.
\begin{equation*} \vec{u}=A^{-1}\vec{v}=\begin{pmatrix}1\amp -2\\ 0 \amp 1 \end{pmatrix}\vecd{-1}{5}=\vecd{-11}{5} \end{equation*}
(c)
Trouver un vecteur \(\vec{u}\in \R^2\) tel que son image par une rotation de \(30^{\circ}\) est le vecteur \((2,-3)\text{.}\)
Réponse.
\begin{equation*} \vec{u}=\vecd{\sqrt{3}-\frac{3}{2}}{-\frac{3\sqrt{3}}{2}-1} \end{equation*}
Solution.
C’est essentiellement la même question, mais la matrice \(A\) est une matrice de rotation de \(30^{\circ}\text{.}\)
\begin{equation*} A=R_{30^{\circ}}= \begin{pmatrix} \cos(30^{\circ}) & -\sin(30^{\circ})\\ \sin(30^{\circ}) & \cos(30^{\circ}) \end{pmatrix} =\begin{pmatrix} \frac{\sqrt{3}}{2} & -\frac{1}{2}\\ \frac{1}{2} & \frac{\sqrt{3}}{2} \end{pmatrix} \end{equation*}
On pourrait simplement utiliser la formule (2.3.10) pour obtenir l’inverse. Cependant, en réfléchissant, on réalise que l’inverse d’une rotation de \(30^{\circ}\) est une rotation de \(-30^{\circ}\text{.}\) Ainsi,
\begin{equation*} A^{-1}=R_{-30^{\circ}}= \begin{pmatrix} \cos(-30^{\circ}) & -\sin(-30^{\circ})\\ \sin(-30^{\circ}) & \cos(-30^{\circ}) \end{pmatrix} =\begin{pmatrix} \frac{\sqrt{3}}{2} & \frac{1}{2}\\ -\frac{1}{2} & \frac{\sqrt{3}}{2} \end{pmatrix} \end{equation*}
Et donc, on calcule le vecteur \(\vec{u}\text{:}\)
\begin{equation*} \vec{u}=A^{-1}\vec{v}=\begin{pmatrix} \frac{\sqrt{3}}{2} & \frac{1}{2}\\ -\frac{1}{2} & \frac{\sqrt{3}}{2} \end{pmatrix}\vecd{2}{-3}=\vecd{\sqrt{3}-\frac{3}{2}}{-\frac{3\sqrt{3}}{2}-1} \end{equation*}
(d)
Trouver deux vecteurs \(\vec{u}_1,\vec{u}_2\) tels que \(\begin{pmatrix}-3\amp 1\\ 2 \amp -1 \end{pmatrix}\vec{u}_1=\vecd{1}{0}\) et \(\begin{pmatrix}-3\amp 1\\ 2 \amp -1\end{pmatrix}\vec{u}_2=\vecd{0}{1}\text{.}\)
Réponse.
\begin{equation*} \vec{u}_1=\vecd{-1}{-2} \end{equation*}
et
\begin{equation*} \vec{u}_2=\vecd{-1}{-3} \end{equation*}
Solution.
On effectue d’abord l’inversion de matrice suivie de la multiplication de cet inverse par les vecteurs voulus pour calculer \(\vec{u}_1\) et \(\vec{u}_2\text{.}\)
\begin{equation*} A^{-1}=\begin{pmatrix}-3\amp 1\\ 2 \amp -1 \end{pmatrix}^{-1}=\frac{1}{(-3)*(-1)-2*1}\begin{pmatrix}-1\amp -1\\ -2 \amp -3 \end{pmatrix} =\begin{pmatrix}-1\amp -1\\ -2 \amp -3 \end{pmatrix} \end{equation*}
Ainsi,
\begin{equation*} \vec{u}_1=A^{-1}\vec{v}_1=\begin{pmatrix}-1\amp -1\\ -2 \amp -3 \end{pmatrix}\vecd{1}{0}=\vecd{-1}{-2} \end{equation*}
et
\begin{equation*} \vec{u}_2=A^{-1}\vec{v}_2=\begin{pmatrix}-1\amp -1\\ -2 \amp -3 \end{pmatrix}\vecd{0}{1}=\vecd{-1}{-3} \end{equation*}
(e)
Trouver un vecteur \(\vec{u}\) tel que \(\begin{pmatrix}1\amp 0\\ 0 \amp 3 \end{pmatrix}\vec{u}=\vecd{2}{6}\text{,}\) sans calculer la matrice inverse.
Réponse.
\begin{equation*} \vec{u}=\vecd{2}{2} \end{equation*}
Solution.
Cette transformation linéaire est un étirement vertical de facteur \(3\text{,}\) selon l’équation (2.1.11). Ainsi, la question est de savoir quel vecteur, si on l’étire verticalement de facteur \(3\text{,}\) donnera le vecteur \(\vec{v}=\vecd{2}{6}\text{.}\) Puisque l’étirement n’affecte pas la coordonnée en \(x\text{,}\) on sait que la première composante du vecteur cherchée est \(2\text{.}\) Pour la seconde, il faut simplement diviser par \(3\text{,}\) ce qui donne aussi \(2\text{.}\) Bref, le vecteur est \(\vec{u}=\vecd{2}{2}\text{.}\) Vérifions que c’est la bonne réponse.
\begin{equation*} A\vec{u}=\begin{pmatrix}1\amp 0\\ 0 \amp 3 \end{pmatrix}\vecd{2}{2}=\vecd{2}{6} \end{equation*}

10.

Du point de vue géométrique, une matrice de la forme \(Ch_k=\begin{pmatrix}1\amp k\\ 0 \amp 1 \end{pmatrix}\) ou \(Cv_k=\begin{pmatrix}1\amp 0\\ k \amp 1 \end{pmatrix}\) est une matrice de cisaillement, dont l’effet est illustré à l’activité interactive 2.3.24. Donner l’effet algébrique d’un cisaillement et son inverse, en justifiant géométriquement et algébriquement.
Instructions.
La valeur de \(k\) est initialisée à \(0\text{,}\) ce qui donne la transformation identité. Décrire la transformation en changeant cette valeur. La figure bleue représente le cisaillement horizontal \(Ch_k\) et la figure rouge le cisaillement vertical \(Cv_k\text{.}\)
Figure 2.3.24. Les transformations "cisaillement"
Indice.
Pour la partie algébrique, multiplier les matrices par un vecteur \(\vecd{x}{y}\) quelconque et analyser l’effet.
Solution.
Géométriquement, on peut observer qu’un cisaillement horizontal, par exemple, prend le carré original et déplace son côté supérieur vers la droite créant ainsi un parallélogramme de côtés supérieurs et inférieurs égaux aux côtés du carré original. Cependant, les côtés verticaux deviennent beaucoup plus longs. Essentiellement, si l’on regarde l’effet sur les vecteurs de base, on voit, dans les colonnes de la matrice, que \(T\vecd{1}{0}=\vecd{1}{0}\) et n’est donc pas déplacé. Pour l’autre colonne, on apprend que \(T\vecd{0}{1}=\vecd{k}{1}\text{.}\) Géométriquement, c’est un déplacement du vecteur\(\vecd{0}{1}\) vers la droite. Il conserve sa coordonnée en \(y\text{,}\) mais on lui ajoute une coordonnée en \(x\) de valeur \(k\text{.}\) En résumé,
\begin{equation*} Ch_k\vecd{1}{0}=\vecd{1}{0} \text{ et } Ch_k\vecd{0}{1}=\vecd{0}{1}+k\vecd{1}{0}\text{.} \end{equation*}
Ainsi, pour un vecteur quelconque \(\vecd{x}{y}\text{,}\) on a:
\begin{equation*} Ch_k\vecd{x}{y}=\begin{pmatrix}1\amp k\\ 0 \amp 1 \end{pmatrix}\vecd{x}{y}=\vecd{x+ky}{y}\text{.} \end{equation*}
Dans cette dernière équation, on voit ce que le mot horizontal signifie dans l’expression cisaillement horizontal. C’est la coordonnée qui changera (\(x\)), de façon proportionnelle à la coordonnée \(y\text{.}\) Une analogie pour ce genre de cisaillement est celle du vent. On s’imagine un vent se dirigeant vers la droite sur la figure. Si le carré est fait d’un matériau assez souple, mais qu’il est bien ancré dans le sol (axe des \(x\)), alors il se déplacera selon le cisaillement horizontal illustré en bleu. Plus la valeur \(k\) est grande, plus le vent est fort!
Pour ce qui est de l’inverse, on peut intuitivement penser que, pour défaire un cisaillement, on doit avoir le déplacement en sens inverse. Ainsi, on a:
\begin{equation*} Ch_k^{-1}\vecd{x}{y}=\begin{pmatrix}1\amp -k\\ 0 \amp 1 \end{pmatrix}\vecd{x}{y}=\vecd{x-ky}{y}\text{.} \end{equation*}
Le cisaillement vertical est défini de façon semblable. On le résume ainsi:
\begin{equation*} Cv_k\vecd{1}{0}=\vecd{1}{0}+k\vecd{0}{1} \text{ et } Cv_k\vecd{0}{1}=\vecd{0}{1} \end{equation*}
ou bien ainsi:
\begin{equation*} Cv_k\vecd{x}{y}=\begin{pmatrix}1\amp 0\\ k \amp 1 \end{pmatrix}\vecd{x}{y}=\vecd{x}{y+kx}\text{.} \end{equation*}
Son inverse sera:
\begin{equation*} Cv_k\vecd{x}{y}^{-1}=\begin{pmatrix}1\amp 0\\ -k \amp 1 \end{pmatrix}\vecd{x}{y}=\vecd{x}{y-kx}\text{.} \end{equation*}

11.

La figure 2.3.25 montre un vecteur \(\vec{u}\text{,}\) de même que son effet par une transformation \(T_1\) et la composition des transformations \(T_1(T_2)\text{.}\) On cherche à déterminer la matrice de la transformation \(T_2\text{.}\)
Instructions.
Déplacer le point bleu afin de voir l’effet de \(T_1\) et de \(T_1(T_2(x,y))\) sur le vecteur \(\vec{u}\text{.}\) Dans les champs de texte \(a,b,c,d\text{,}\) entrer les valeurs pour
\begin{equation*} T_2=\begin{pmatrix} a&c\\ b&d \end{pmatrix} \end{equation*}
et appuyer sur "Vérifier la réponse" pour valider la solution. Si désiré, un nouveau problème peut être généré en cliquant sur "Nouveau problème".
Figure 2.3.25. La transformation intérieure d’une composition, géométriquement
Répondre aux questions suivantes:
(a)
Expliquer comment trouver la transformation \(T_2\) à partir des informations données.
Solution.
On peut procéder de diverses façons, mais généralement, on veut trouver l’effet de \(T_2\) sur les vecteurs \(\vecd{1}{0}\) et \(\vecd{0}{1}\text{.}\) Cependant, pour y arriver, il faudra d’abord trouver la matrice \(T_1\text{.}\) En plaçant en premier lieu le vecteur \(\vec{u}\) sur \(\vecd{1}{0}\text{,}\) on obtient \(T_1\vecd{1}{0}\text{,}\) qui sera la première colonne de \(T_1\text{.}\) Ensuite, en déplaçant le vecteur \(\vec{u}\) sur \(\vecd{0}{1}\text{,}\) on obtient \(T_1\vecd{0}{1}\text{,}\) qui sera la deuxième colonne de \(T_1\text{.}\) Maintenant que nous avons la matrice \(T_1\text{,}\) si l’on observe attentivement l’autre information fournie, on réalise qu’en multipliant à gauche par \(T_1^{-1}\text{,}\) il est possible d’obtenir \(T_2\vec{u}\) et donc \(T_2\vecd{1}{0}\) ainsi que \(T_2\vecd{0}{1}\text{,}\) en repositionnant \(\vec{u}\) aux endroits voulus.
(b)
Comparer cet exercice à l’exemple 2.2.3. Pourquoi à ce moment n’a-t-on pas demandé de trouver \(T_2\) sachant l’effet de \(T_1\) et de la composition \(T_1\circ T_2\text{.}\)
Solution.
La réponse est simple: nous ne connaissions pas l’inversion matricielle. C’était donc impossible à ce moment-là!

12.

Déterminer les dimensions possibles de chaque matrice de l’exemple 2.3.22.
Solution.
  1. Pour l’équation \(XA+B=C\text{,}\) on avait obtenu \(X=(C-B)A^{-1}\text{.}\) La matrice \(A\) doit être carrée (disons \(n\times n\)) puisqu’on calcule son inverse. Les matrices \(B\) et \(C\) doivent être de même format et, puisqu’on les multiplie à gauche par \(A^{-1}\text{,}\) leur format sera \(m\times n\text{.}\) Finalement, \(X\) sera également de format \(m\times n\text{.}\)
  2. Pour l’équation \(AX+B=X\text{,}\) on avait obtenu \(X=-(A-I)^{-1}B\text{.}\) Les matrices \(A\) et \(I\) sont de même format et elles sont carrées, disons \(m\times m\text{.}\) La matrice \(B\) doit donc être de format \(m\times n\) pour être compatible. Finalement, \(X\) sera également de format \(m\times n\text{.}\)
  3. Pour l’équation \(AXB=D\text{,}\) on avait obtenu \(X=A^{-1}DB^{-1}\text{.}\) Les matrices \(A\) et \(B\) sont inversées, elles doivent donc être carrées, par exemple \(m\times m\) et \(n\times n\) respectivement. Pour être compatible, la matrice \(D\) doit donc être de format \(m\times n\text{.}\) Finalement, \(X\) sera également de format \(m\times n\text{.}\)
  4. Pour l’équation \(AX^{-1}+B=C\text{,}\) on avait obtenu \(X=(C-B)^{-1}A\text{.}\) Les matrices \(B\) et \(C\) étant soustraites puis inversées, elles se doivent d’être de même format et carrées, par exemple \(m\times m\text{.}\) La matrice \(A\) doit donc être de format \(m\times n\) pour être compatible. Finalement, \(X\) doit être carrée puisqu’on l’inverse dans l’équation de départ. Son format devrait être de \(m\times n\text{,}\) mais puisqu’elle doit être carrée, elle devra être de \(m\times m\text{.}\) La conséquence est que \(A\) doit être de format \(m\times m\) pour être compatible. Bref, toutes les matrices doivent être carrées et de même format (\(m\times m\)).

13. Un étirement quelconque dans \(\R^2\).

Dans \(\R^2\text{,}\) un étirement de direction \(\vec{u}\) et de facteur \(k\) est une transformation linéaire \(E_{\vec{u},k}\) telle que \(E_{\vec{u},k}(\vec{u})=k\vec{u}\) et \(E_{\vec{u},k}(\vec{u}_{\perp})=\vec{u}_{\perp}\text{.}\) Autrement dit, la transformation étire la direction \(\vec{u}\) d’un facteur \(k\) et laisse la direction perpendiculaire inchangée.
On considère un étirement dans la direction \(\vec{u}=(1,2)\) et de facteur \(k=3\text{.}\) Déterminer la matrice de cette transformation en utilisant la formule (2.3.3).
Réponse.
\begin{equation*} A=\begin{pmatrix}\frac{7}{5}&\frac{4}{5}\\ \frac{4}{5}& \frac{13}{5}\end{pmatrix} \end{equation*}
Solution.
On Commençe par énoncer l’effet de notre transformation sur les vecteurs \(\vec{u}\) et \(\vec{u}_{\perp}\text{.}\) Si \(A\) est la matrice de transformation de l’étirement \(E_{(1,2),3}\text{,}\) alors
\begin{equation*} A\vec{u}=A\vecd{1}{2}=3\vecd{1}{2}=\vecd{3}{6} \text{ et }A\vec{u}_{\perp}=A\vecd{-2}{1}=\vecd{-2}{1}\text{.} \end{equation*}
On écrit ces résultats sous forme matricielle en incluant les deux vecteurs.
\begin{equation*} A\begin{pmatrix}1&-2\\ 2& 1\end{pmatrix}=\begin{pmatrix}3&-2\\ 6& 1\end{pmatrix} \end{equation*}
Il ne reste qu’à isoler \(A\text{.}\)
\begin{align*} A&=\begin{pmatrix}3&-2\\ 6& 1\end{pmatrix}\begin{pmatrix}1&-2\\ 2& 1\end{pmatrix}^{-1}&&\text{ par } \knowl{./knowl/xref/eq-matparvecteursuv.html}{\text{(2.3.3)}}\\ &=\begin{pmatrix}3&-2\\ 6& 1\end{pmatrix}\frac{1}{1*1-(-2)*2}\begin{pmatrix}1&2\\ -2& 1\end{pmatrix}&&\text{ par } \knowl{./knowl/xref/eq-matinverse2x2.html}{\text{(2.3.10)}}\\ &=\begin{pmatrix}3&-2\\ 6& 1\end{pmatrix}\begin{pmatrix}\frac{1}{5}&\frac{2}{5}\\ -\frac{2}{5}& \frac{1}{5}\end{pmatrix}\\ &=\begin{pmatrix}\frac{7}{5}&\frac{4}{5}\\ \frac{4}{5}& \frac{13}{5}\end{pmatrix} \end{align*}
Donc, on obtient
\begin{equation*} A=\begin{pmatrix}\frac{7}{5}&\frac{4}{5}\\ \frac{4}{5}& \frac{13}{5}\end{pmatrix}\text{.} \end{equation*}

Exercices Sage.

Les exercices qui suivent sont conçus pour être résolus avec Sage. Des cellules vides sont disponibles pour écrire les réponses. Évidemment, il y a plusieurs manières d’arriver aux réponses.
14.
Donner l’inverse des matrices suivantes. Vérifier en effectuant la multiplication pour obtenir l’identité.
\begin{align*} A=\begin{pmatrix} 3 \amp -1 \\ 0 \amp -3 \end{pmatrix}\\ B=\begin{pmatrix} 2 \amp -2 \amp 1 \\ -1 \amp 5 \amp 1 \\ 2 \amp 1 \amp 3 \end{pmatrix}\\ C=\begin{pmatrix} \frac{1}{2} \amp -1 \amp -2 \\ 2 \amp 0 \amp \frac{1}{5} \\ \frac{1}{3} \amp 3 \amp \frac{4}{3}\end{pmatrix} \end{align*}
Solution.
A=matrix([[3,-1],[0,-3]])
Ainv=A.inverse()
show("A=",A)
show("A^(-1)=",Ainv)
show("AA^(-1)=",A*Ainv)
Bloc de code 2.3.26. Le code solution pour la matrice A de l’exercice
On peut simplement remplacer la matrice initiale et exécuter le code à nouveau pour calculer l’inverse de B, puis de C.
15.
Considérer les matrices \(B\) et \(C\) de l’exercice 2.3.6.14. Vérifier que \((BC)^{-1}=C^{-1}B^{-1}\) à l’aide de Sage (équation 2.3.18). Il est possible de calculer les résultats ou simplement de comparer en utilisant la double égalité ==.
Solution.
B=matrix([[2,-2,1],[-1,5,1],[2,1,3]])
Binv=B.inverse()
show("B=",B)
show("B^(-1)=",Binv) 
C=matrix([[1/2,-1,-2],[2,0,1/5],[1/3,3,4/3]])
Cinv=C.inverse()
show("C=",C)
show("C^(-1)=",Cinv)
BC=B*C
BCinv=BC.inverse()
show("C^(-1)B^(-1)=",Cinv*Binv)
show("(BC)^(-1)",BCinv)
show(Cinv*Binv==BCinv)
Bloc de code 2.3.27. Le code solution pour l’exercice
On a vérifié l’équation des deux façons proposées.
16. Les étirements quelconques.
En se basant sur l’exercice 2.3.6.13, on souhaite trouver la formule d’un étirement dans \(\R^2\) de direction \(\vec{u}=(u_1,u_2)\neq \vec{0}\) et de facteur \(k\in \R \text{.}\)
Utiliser Sage pour déterminer la matrice. Essayer de le faire en créant une fonction etirR2(u,k) qui retournera la matrice.
Réponse.
\begin{equation*} \left(\begin{array}{rr} \frac{k u_{1}^{2} + u_{2}^{2}}{u_{1}^{2} + u_{2}^{2}} \amp \frac{{\left(k - 1\right)} u_{1} u_{2}}{u_{1}^{2} + u_{2}^{2}} \\ \frac{{\left(k - 1\right)} u_{1} u_{2}}{u_{1}^{2} + u_{2}^{2}} \amp \frac{k u_{2}^{2} + u_{1}^{2}}{u_{1}^{2} + u_{2}^{2}} \end{array}\right) \end{equation*}
Solution.
u1,u2,k =var('u1,u2,k')
def etirR2(u,k):
    uperp=vector([-u[1],u[0]]) #Le vecteur u perpendiculaire
    U=column_matrix([u,uperp]) #La matrice U
    V=column_matrix([k*u,uperp]) #La matrice V
    T=V*(U.inverse()) #La transformation
    return T
show(etirR2(vector([u1,u2]),k).simplify_full())
Bloc de code 2.3.28. Le code solution pour l’exercice
Remarquer qu’on a utilisé la commande simplify_full() afin d’avoir une forme plus compacte.
17.
On s’intéresse à la matrice inverse des matrices de permutation.
(a)
À l’aide du code de l’exercice 2.2.3.12, déterminer combien de matrices de permutation \(4\times 4\) sont leur propre inverse. Faire une liste des matrices de permutation \(4\times 4\) qui sont leur propre inverse et une autre liste des matrices qui ne le sont pas.
Solution.
def perm_matrix(n):
    Id=identity_matrix(n)
    col=Id.columns()
    p=Permutations(n).list()
    L=list()
    for perm in p:
        colperm=list()
        for j in range(len(perm)):
            colperm.append(col[perm[j]-1])
        P=column_matrix(colperm)
        L.append(P)
    return L
P4=perm_matrix(4)
P4propreinverse=list() #Nouvelle liste vide 
for M in P4:
    if M*M==identity_matrix(4): #Si la matrice de permutation au carrée donne l'identité, alors ...
        P4propreinverse.append(M) #... on l'ajoute à la liste.
P4propreinverse
P4autreinverse=P4.copy() #Voir la remarque en bas sur la création de copies
for M in P4propreinverse: #Si la matrice se trouve dans la liste des matrices qui sont leur propre inverse, alors...
    P4autreinverse.remove(M) #... on la retire de la liste complète copiée.
show("Le nombre de matrices de permutation 4x4 est de ", len(P4))
show("Voici ces matrices de permutation 4x4 :",P4)
show("Le nombre de matrices de permutation 4x4 qui sont leur propre inverse est de ", len(P4propreinverse))
show("Voici ces matrices qui sont leur propre inverse :", P4propreinverse)
show("Le nombre de matrices de permutation 4x4 qui ne sont pas leur propre inverse est de ", len(P4autreinverse))
show("Celles-ci ne sont pas leur propre inverse :",P4autreinverse)
Bloc de code 2.3.29. Le code solution pour l’exercice
L1=[1,2,3,4,5] 
L2=L1 #On veut créer une copie de travail de la liste L1
L2.remove(4)
show(L1) #Malheureusement, on a altéré L1 en voulant uniquement modifier L2.
L3=L1.copy() #Cette commande permet d'éviter que les deux listes deviennent liées.
L3.remove(3)
show(L1)
show(L2)
show(L3)
Bloc de code 2.3.30. Une remarque concernant les copies créées simplement avec "="
(b)
Qu’est-ce qui caractérise une matrice de permutation qui est son propre inverse?
Solution.
La principale caractéristique des matrices de permutation qui sont leur propre inverse est que les permutations ne se font que deux à deux. Par exemple, considérer les matrices
\begin{align*} P_1=\begin{pmatrix} \amp0 \amp 1\amp 0\amp 0\\ \amp1 \amp 0\amp 0\amp 0\\ \amp0 \amp 0\amp 1\amp 0\\ \amp0 \amp 0\amp 0\amp 1 \end{pmatrix}\\ P_2=\begin{pmatrix} \amp0 \amp 1\amp 0\amp 0\\ \amp1 \amp 0\amp 0\amp 0\\ \amp0 \amp 0\amp 0\amp 1\\ \amp0 \amp 0\amp 1\amp 0 \end{pmatrix}\\ P_3=\begin{pmatrix} \amp0 \amp 0\amp 1\amp 0\\ \amp1 \amp 0\amp 0\amp 0\\ \amp0 \amp 1\amp 0\amp 0\\ \amp0 \amp 0\amp 0\amp 1 \end{pmatrix}\text{.} \end{align*}
On regarde l’effet de ces matrices dans Sage sur un vecteur \(\vec{v}=(x_1,x_2,x_3,x_4)\text{.}\)
On voit que les matrices \(P_1\text{ et }P_2\) permutent les composantes \(x_1\) et \(x_2\) du vecteur \(\vec{v}\) entre elles, avec \(P_2\) qui permute également \(x_3\) avec \(x_4\text{.}\) Par contre, \(P_3\) envoie \(x_1\) à la position de \(x_2\text{,}\) \(x_2\) à la position de \(x_3\) et \(x_3\) à la position de \(x_1\text{.}\)
 3 
Le lecteur intéressé d’en apprendre plus peut se renseigner sur les cycles d’une permutation.
On applique une seconde fois les matrices \(P_1,P_2,P_3\) au vecteur \(\vec{v}\text{.}\) Peut-on prédire ce qui va se passer?
Puisque dans \(P_1\) et \(P_2\) les entrées permutent en paires, une application double de la permutation revient à ne rien faire. Par contre, pour \(P_3\text{,}\) les entrées \(x_1,x_2,x_3\) permutent selon un cycle de longueur trois. On a donc besoin d’une troisième application pour revenir à l’identité.
18.
On souhaite utiliser Sage pour vérifier certaines des égalités de l’exemple 2.3.22, en utilisant des matrices compatibles d’une taille "arbitraire", un peu comme on l’a fait dans l’exemple 2.3.23.
Pour chaque énoncé de l’exemple 2.3.22, utiliser Sage pour "vérifier" l’égalité. Les dimensions des matrices ont été trouvées à l’exercice 2.3.6.12.
Solution.
On recopie la définition de la fonction de l’exemple 2.3.23 que l’on utilisera pour chaque équation. On doit donc la recopier au début du code. On conseille de réutiliser le même code chaque fois et de modifier uniquement les matrices et l’équation à vérifier. Attention: l’exécution du code peut prendre un certain temps, surtout si l’on choisit des matrices de grands formats. Noter qu’on n’a pas à définir la matrice \(X\) puisqu’elle est créée par l’équation où on l’a isolée.
def matquelc(m,n,lettre):
    a=str(lettre)   #On s'assure que lettre est un caractère de la forme "a"
    liste=[] #Création d'une liste vide
    for i in range(m):
        for j in range(n):     #On itère sur les lignes (i de 0 à m-1) et les colonnes (j de 0 à n-1)
            liste.append('%s_%d%d'%(a,i+1,j+1))   #On ajoute à la fin de la liste (append) la chaine a_i+1j+1 , les +1 paliant au fait que range(k) va de 0 à k-1
    M=matrix(SR,m,n,liste)  #On crée une matrice mxn à partir de liste (Le SR dit à sage que la matrice est symbolique. Il n'est pas nécessaire de comprendre son rôle)
    return M  #La fonction retourne la matrice M
Bloc de code 2.3.31. Le code où l’on définit la fonction matquelc
  1. Pour l’équation \(XA+B=C\text{,}\) on avait obtenu \(X=(C-B)A^{-1}\text{.}\) Les dimensions des matrices sont \(A_{n\times n}\text{,}\) \(B_{m\times n}\) et \(C_{m\times n}\text{.}\) On choisit donc \(A_{3\times 3}\text{,}\) \(B_{2\times 3}\) et \(C_{2\times 3}\text{.}\)
    #Ne pas oublier de recopier la définition de la fonction matquelc donnée plus haut.
    A=matquelc(3,3,'a')
    B=matquelc(2,3,'b')
    C=matquelc(2,3,'c')
    X=(C-B)*(A^(-1))
    X*A+B==C
    
    Bloc de code 2.3.32. Le code solution pour l’exercice
  2. Pour l’équation \(AX+B=X\text{,}\) on avait obtenu \(X=-(A-I)^{-1}B\text{.}\) Les dimensions des matrices sont \(A_{m\times m}\text{,}\) \(I_{m\times m}\) et \(B_{m\times n}\text{.}\) On choisit donc \(A_{2\times 2}\text{,}\) \(I_{2\times 2}\) et \(B_{2\times 3}\text{.}\)
    A=matquelc(2,2,'a')
    B=matquelc(2,3,'b')
    I=I3=identity_matrix(2)
    X=-((A-I)^(-1))*B
    A*X+B==X
    
    Bloc de code 2.3.33. Le code solution pour l’exercice
  3. Pour l’équation \(AXB=D\text{,}\) on avait obtenu \(X=A^{-1}DB^{-1}\text{.}\) Les dimensions des matrices sont \(A_{m\times m}\text{,}\) \(B_{n\times n}\) et \(D_{m\times n}\text{.}\) On choisit donc \(A_{3\times 3}\text{,}\) \(B_{2\times 2}\) et \(D_{3\times 2}\text{.}\)
    A=matquelc(3,3,'a')
    B=matquelc(2,2,'b')
    D=matquelc(3,2,'d')
    X=(A^(-1))*D*(B^(-1))
    A*X*B==D
    
    Bloc de code 2.3.34. Le code solution pour l’exercice
  4. Pour l’équation \(AX^{-1}+B=C\text{,}\) on avait obtenu \(X=(C-B)^{-1}A\text{.}\) Les dimensions des matrices sont \(A_{m\times m}\text{,}\) \(B_{m\times m}\) et \(C_{m\times m}\text{.}\) On choisit donc \(A_{2\times 2}\text{,}\) \(B_{2\times 2}\) et \(C_{2\times 2}\text{.}\)
    A=matquelc(2,2,'a')
    B=matquelc(2,2,'b')
    C=matquelc(2,2,'c')
    X=((C-B)^(-1))*A
    A*(X^(-1))+B==C
    
    Bloc de code 2.3.35. Le code solution pour l’exercice
19. Une fonction pour trouver l’inverse.
Dans cet exercice, on cherche à créer une fonction qui donne automatiquement la réponse à un exemple de la figure interactive 2.3.25 en fonction des informations données. On appellera la fonction inversecompo(T11,T12,C1,C2)\(T11,T12\) sont respectivement les première et deuxième colonnes de la matrice de la transformation \(T1\) et \(C1,C2\) sont respectivement les première et deuxième colonnes de la matrice de la transformation \(T1(T_2)\text{.}\)
Créer cette fonction et utiliser la figure 2.3.25 pour la tester.
Solution.
def inversecompo(T11,T12,C1,C2):
    T1=column_matrix([T11,T12])
    T1inv=T1.inverse()
    C=column_matrix([C1,C2])
    T2=T1inv*C
    return T2
Bloc de code 2.3.36. Le code solution pour l’exercice