Sauter au contenu
Logo image

Algèbre linéaire: Intuition et rigueur

Section 5.3 Retour sur les quatre sous-espaces fondamentaux

Aller aux exercices 5.3.4 de la section.
Dans la section 3.4, on définit les quatre sous-espaces fondamentaux 3.4.8 d’une matrice. À la sous-section 5.1.2, on a ensuite montré que ces ensembles sont des sous-espaces vectoriels et qu’il existe une relation de complément orthogonal entre certains de ces ensembles pris deux à deux.
Dans cette section, on cherche à établir une base et la dimension de chacun de ces sous-espaces. On donne une marche à suivre pour trouver une base pour les quatre sous-espaces d’une matrice. On définit également une importante relation entre la dimension des sous-espaces fondamentaux qui sont compléments orthogonaux.

Sous-section 5.3.1 Une base pour les sous-espaces fondamentaux

On débute cette section avec la recherche d’une base pour les quatre espaces fondamentaux. À partir de là, on pourra obtenir la dimension de chaque espace directement en comptant le nombre de vecteurs dans la base trouvée.

Démonstration.

Les lignes de \(R\) sont nécessairement indépendantes, puisqu’en regardant les positions pivots, la seule manière d’obtenir le vecteur nul avec une combinaison linéaire est de prendre zéro fois chaque ligne. Puisque les lignes nulles de \(R\) ne contribuent pas à \(\mathcal{L}(R)\text{,}\) on a que \(\mathcal{L}(R)\) est égal au span des lignes non nulles de \(R\text{.}\) Comme elles sont indépendantes, elles forment une base en vertu de la proposition 5.2.26.
De plus, puisqu’on obtient \(R\) à partir de \(A\) par une suite d’opérations élémentaires, toutes réversibles, les lignes de \(A\) peuvent s’écrire comme une combinaison linéaire des lignes de \(R\text{.}\) Ceci entraine que \(\mathcal{L}(A)=\mathcal{L}(R)\text{.}\) Les lignes de \(R\) forment donc une base pour l’espace ligne de \(A\text{.}\)

Démonstration.

Tout vecteur dans \(\mathcal{N}(A)\) peut bien sûr s’écrire comme une combinaison linéaire des solutions de base par construction de celles-ci. Ainsi, elles engendrent \(\mathcal{N}(A)\text{.}\) De plus, l’exercice 5.2.4.7 montre que les solutions de bases sont indépendantes. Elles forment donc bel et bien une base de l’espace nul.
Afin de déterminer si un ensemble de \(k\) vecteurs est indépendant ou non, on sait déjà qu’on pouvait utiliser le rang 5.2.8. Si jamais les vecteurs ne sont pas indépendants, la proposition 5.3.1 permet de trouver une base de leur espace engendré.

Exemple 5.3.2. Base de l’espace ligne.

On considère la matrice
\begin{equation*} A=\left(\begin{array}{rrrrr} 2 & 0 & -1 & 2 & 0 \\ 0 & 1 & 1 & 0 & -1 \\ 0 & 0 & -1 & 0 & 8 \\ -1 & 3 & 2 & -1 & 1 \\ 0 & -1 & 2 & 0 & 1 \\ -1 & 1 & 1 & -1 & 0 \end{array}\right) \end{equation*}
et l’on cherche une base de son espace ligne. On cherche aussi la dimension de l’espace ligne.
Solution.
On utilise Sage pour échelonner la matrice et trouver la base.
Une base pour \(\mathcal{L}(A)\) est \(\mathcal{B}=\langle (1,0,0,1,0),(0,1,0,0,0),(0,0,1,0,0),(0,0,0,0,1) \rangle\text{.}\) La dimension de l’espace ligne est \(4\) et c’est un sous-espace vectoriel de \(\R^5\text{.}\)
Puisque \(\mathcal{C}(A)=\mathcal{L}(A^T)\) et que l’espace nul gauche est défini avec la transposée, on pourrait appliquer le résultat de la proposition 5.3.1 pour obtenir une base de ces espaces. On propose toutefois une alternative directe avec la matrice \(A\text{.}\) On aura besoin du résultat suivant, qui sera démontré dans les exercices.

Démonstration.

Démonstration.

Soit \(j_1,j_2,\ldots , j_r\text{,}\) l’indice des colonnes de \(R\) contenant un pivot, avec \(j_1< j_2< \cdots < j_r\text{.}\) Soit \(\vec{a}_{j_{1}},\vec{a}_{j_{2}},\ldots ,\vec{a}_{j_{r}}\text{,}\) les colonnes de \(A\) correspondant à ces positions. On veut montrer que ces colonnes forment une base de \(\mathcal{C}(A)\text{.}\)
D’abord la question de l’indépendance. Soit \(c_1,c_2,\ldots ,c_r\in \R\) tels que
\begin{equation*} c_1\vec{a}_{j_{1}}+c_2\vec{a}_{j_{2}}+\ldots +c_r\vec{a}_{j_{r}}=\vec{0}\text{.} \end{equation*}
On pose \(\vec{v}\text{,}\) le vecteur qui a une valeur \(0\) en position \(i\) si \(i\notin \{j_1,j_2,\ldots , j_r\}\) et qui vaut \(c_{j_{i}}\) aux positions \(j_1,j_2,\ldots , j_r\text{.}\) Le vecteur \(\vec{v}\) est donc une solution à l’équation \(A\vec{x}=\vec{0}\text{.}\) Par le fait même, on a \(R\vec{v}=\vec{0}\text{.}\) Ceci entraine que
\begin{equation*} c_1\vec{a^{'}}_{j_{1}}+c_2\vec{a^{'}}_{j_{2}}+\ldots +c_r\vec{a^{'}}_{j_{r}}=\vec{0}\text{,} \end{equation*}
\(\vec{a^{'}}_{j_{k}}\) est la \(k\)-ème colonne de \(R\text{.}\) Puisque, par définition, celles-ci sont pivots, ces colonnes ne contiennent qu’un \(1\) et des zéros partout ailleurs. On conclut que \(c_1=c_2=c_r=0\) et que les colonnes de \(A\) qui correspondent aux positions pivots de \(R\) sont indépendantes.
Il reste à montrer que ces colonnes engendrent \(\mathcal{C}(A)\text{.}\) Évidemment, \(\mathcal{C}(A)=\vspan(\vec{a}_1,\vec{a}_2,\ldots ,\vec{a}_n)\text{.}\) Si l’on montre que les colonnes qui ne sont pas pivots peuvent s’écrire comme une combinaison linéaire des colonnes pivots, alors on pourra les retirer du \(\vspan\) et il ne restera dans celui-ci que les colonnes pivots.
Dans la matrice \(R\text{,}\) on a vu comment lire les solutions de base à partir des colonnes qui ne sont pas pivots. Ces solutions de base offrent une solution à l’équation \(R\vec{x}=\vec{0}\text{.}\) Elles donnent une combinaison linéaire de la colonne libre ainsi que des colonnes pivots à sa gauche donnant le vecteur nul. Puisque l’équation \(A\vec{x}=\vec{0}\) possède les mêmes solutions que l’équation \(R\vec{x}=\vec{0}\text{,}\) on obtient aussi une combinaison linéaire des colonnes correspondantes dans \(A\) qui donne le vecteur nul. En isolant la colonne correspondant à la colonne libre, on voit qu’elle s’écrit comme une combinaison linéaire des colonnes pivots.
On a donc bel et bien que \(\mathcal{C}(A)=\vspan(\vec{a}_{j_{1}},\vec{a}_{j_{2}},\ldots ,\vec{a}_{j_{r}})\text{,}\) les colonnes pivots de \(A\text{.}\)

Démonstration.

Finalement, on veut montrer que les lignes de \(E\) qui sont aux mêmes positions que les lignes nulles de \(R\) forment une base pour l’espace nul gauche. La matrice \(E\) est la matrice obtenue en multipliant chaque matrice élémentaire transformant \(A\) en \(R\text{.}\) Chaque matrice élémentaire étant inversible, leur produit l’est aussi, comme indiqué à la proposition 2.3.18 (sa généralisation). Les lignes de \(E\) sont donc indépendantes, plus particulièrement celles qui correspondent aux lignes nulles de \(R\text{.}\) Il reste à montrer que ces lignes engendrent l’espace nul gauche.
L’espace nul gauche est consistué de l’ensemble des vecteurs \(\vec{x}\) tels que \(A^{T}\vec{x}=\vec{0}\text{.}\) Puisque \(EA=R\text{,}\) on réécrit \(A^T=(E^{-1}R)^T=R^T(E^T)^{-1}\) en vertu des propriétés de la transposée 3.4.3. On a donc
\begin{align*} \vec{0}&=A^{T}\vec{x}\\ &=R^T(E^T)^{-1}\vec{x}\\ \end{align*}

On pose \(\vec{y}=(E^T)^{-1}\vec{x}\)

\begin{align*} &=R^T\vec{y}\text{.} \end{align*}
On conclut que \(\vec{y}\in \mathcal{N}(R^T)\text{.}\) Selon le lemme 5.3.3, l’espace nul de \(R^T\) est engendré par les \(m-r\) derniers vecteurs de la base standard de \(R^m\text{,}\)\(r\) est le rang de \(A\text{.}\) Le vecteur \(\vec{y}\) est donc une combinaison linéaire de ces vecteurs. Si l’on isole \(\vec{x}\) dans l’équation \(\vec{y}=(E^T)^{-1}\vec{x}\text{,}\) on obtient \(\vec{x}=E^T\vec{y}\text{.}\) Puisque \(\vec{y}\) est une combinaison linéaire des \(m-r\) derniers vecteurs de la base standard, le vecteur \(\vec{x}\) est une combinaison linéaire des \(m-r\) dernières colonnes de \(E^T\) et donc, aux \(m-r\) lignes de \(E\text{.}\) Ce sont exactement ces lignes qui correspondent aux lignes nulles de \(R\text{.}\) Ceci montre que les \(m-r\) lignes de \(E\) forment une base pour \(\mathcal{N}(A^T)\text{.}\)
Dans la pratique, il est souvent plus simple de déterminer une base de l’espace nul gauche de \(A\) en considérant directement l’espace nul de sa transposée, mais la proposition 5.3.4 donne une manière différente à partir de \(A\) et de son processus d’échelonnage. On montre tout de même un exemple complet utilisant les propositions 5.3.1 et 5.3.4.

Exemple 5.3.5. Une base des quatre espaces fondamentaux d’une matrice.

On considère la matrice
\begin{equation*} A=\begin{pmatrix} 1& 2& 9& 7& -7\\ 0& 1& 3& 2& -2\\ 0& -2& -6& -3& 2\\ 2& 0& 6& 7& -8\\ \end{pmatrix}\text{.} \end{equation*}
On cherche une base pour les quatre espaces fondamentaux.
Solution.
On commence par échelonner la matrice en gardant bien en vue les opérations élémentaires effectuées dans le but de créer la matrice \(E\text{.}\)
\begin{align*} \begin{pmatrix} 1& 2& 9& 7& -7\\ 0& 1& 3& 2& -2\\ 0& -2& -6& -3& 2\\ 2& 0& 6& 7& -8\\ \end{pmatrix}&\matsimilc{1}{-2}{4}\begin{pmatrix} 1& 2& 9& 7& -7\\ 0& 1& 3& 2& -2\\ 0& -2& -6& -3& 2\\ 0& -4& -12& 7& 6\\ \end{pmatrix}\\ &\matsimilc{2}{2}{3}\begin{pmatrix} 1& 2& 9& 7& -7\\ 0& 1& 3& 2& -2\\ 0& 0& 0& 1& -2\\ 0& -4& -12& 7& 6\\ \end{pmatrix}\\ &\matsimilc{2}{4}{4}\begin{pmatrix} 1& 2& 9& 7& -7\\ 0& 1& 3& 2& -2\\ 0& 0& 0& 1& -2\\ 0& 0& 0& 1& -2\\ \end{pmatrix}\\ &\matsimilc{3}{-}{4}\begin{pmatrix} 1& 2& 9& 7& -7\\ 0& 1& 3& 2& -2\\ 0& 0& 0& 1& -2\\ 0& 0& 0& 0& 0\\ \end{pmatrix}\\ &\matsimilc{3}{-2}{2}\begin{pmatrix} 1& 2& 9& 7& -7\\ 0& 1& 3& 0& 2\\ 0& 0& 0& 1& -2\\ 0& 0& 0& 0& 0\\ \end{pmatrix}\\ &\matsimilc{3}{-7}{1}\begin{pmatrix} 1& 2& 9& 0& 7\\ 0& 1& 3& 0& 2\\ 0& 0& 0& 1& -2\\ 0& 0& 0& 0& 0\\ \end{pmatrix}\\ &\matsimilc{2}{-2}{1}\begin{pmatrix} 1& 0& 3& 0& 3\\ 0& 1& 3& 0& 2\\ 0& 0& 0& 1& -2\\ 0& 0& 0& 0& 0\\ \end{pmatrix}\\ &=R\text{.} \end{align*}
À chaque opération élémentaire correspond une matrice élémentaire. On a
\begin{align*} E_1&=\begin{pmatrix} 1&0 &0 &0 \\ 0& 1&0 & 0\\ 0& 0& 1&0 \\ -2&0 &0 &1\end{pmatrix} \\ E_2&=\begin{pmatrix} 1&0 &0 &0 \\ 0& 1&0 &0 \\ 0& 2& 1&0 \\ 0&0 &0&1\end{pmatrix} \\ E_3&=\begin{pmatrix} 1&0 &0 &0 \\ 0& 1&0 &0 \\ 0& 0& 1&0 \\ 0& 4&0 &1\end{pmatrix} \\ E_4&=\begin{pmatrix} 1& 0& 0&0 \\ 0& 1& 0&0 \\ 0 & 0& 1& 0\\ 0& 0& -1&1\end{pmatrix} \\ E_5&=\begin{pmatrix} 1&0 &0 &0 \\ 0& 1& -2&0 \\ 0&0 & 1&0 \\ 0&0 &0 &1\end{pmatrix} \\ E_6&=\begin{pmatrix} 1&0 & -7&0 \\ 0& 1&0 &0 \\ 0& 0&1 &0 \\ 0& 0& 0&1\end{pmatrix} \\ E_7&=\begin{pmatrix}1 &-2 &0 &0 \\ 0& 1& 0&0 \\ 0& 0& 1&0 \\ 0& 0& 0&1\end{pmatrix} \text{.} \end{align*}
Finalement, \(E=E_7E_6E_5E_4E_3E_2E_1\text{,}\) que l’on calcule avec Sage.
Selon la proposition 5.3.1, l’espace ligne est engendré par les lignes non nulles de \(R\text{.}\) On a donc \(\mathcal{L}(A)=\vspan((1,0,3,0,3),(0,1,3,0,2),(0,0,0,1,-2))\text{.}\) Toujours selon cette proposition, l’espace nul est engendré par les solutions de base à l’équation \(A\vec{x}=\vec{0}\) qui se trouvent à même la matrice \(R\text{,}\) comme indiqué à l’exemple 3.3.6. On a donc \(\mathcal{N}(A)=\vspan((-3,-3,1,0,0),(-3,-2,0,2,1))\text{.}\)
Selon la proposition 5.3.4, l’espace colonne est engendré par les colonnes de \(A\) qui correspondent aux colonnes pivots de sa forme échelonnée réduite \(R\text{.}\) On a donc \(\mathcal{C}(A)=\vspan((1,0,0,2),(2,1,-2,0),(7,2,-3,7))\text{.}\) Toujours selon cette proposition, l’espace nul gauche est engendré par les lignes de la matrice \(E\) qui correspondent aux lignes nulles de la matrice \(R\text{.}\) On a donc \(\mathcal{N}(A^T)=\vspan((-2,2,-1,1))\text{.}\)
On a déjà observé la relation de complément orthogonal des sous-espaces fondamentaux à la proposition 5.1.18. Toutefois, les sous-espaces fondamentaux gagnent en importance par le lien entre leur dimension et l’espace dans lequel ils vivent.

Démonstration.

Pour les espaces ligne et colonne, le nombre de vecteurs dans la base correspond respectivement au nombre de lignes non nulles de la forme échelonnée réduite de la matrice \(A\) et au nombre de colonnes pivots de cette même matrice échelonnée réduite. Dans les deux cas, ce nombre est égal au rang de la matrice. La dimension est donc égale au rang, soit \(r\text{.}\)
Pour l’espace nul, le nombre de vecteurs dans la base correspond au nombre de solutions de base. Celles-ci sont aussi nombreuses qu’il y a de variables libres, soit \(n-r\) (\(n\) variables moins les \(r\) qui sont pivots).
Finalement pour l’espace nul gauche, le nombre de vecteurs dans la base correspond au nombre de lignes nulles dans la forme échelonnée réduite. Celles-ci sont en nombre de \(m-r\) (\(m\) lignes moins les \(r\) qui contiennent un pivot).
Ensemble, les propositions 5.1.18 et 5.3.6 donnent le théorème fondamental de l’algèbre linéaire.
 1 
L’adjectif ‘fondamental’ de ce théorème n’est pas aussi répandu que son homologue en calcul différentiel et intégral. Il a été caractérisé ainsi pour la première fois par Gilbert Strang, professeur au MIT.

Démonstration.

Le résultat découle des propositions 5.1.18 et 5.3.6.
La figure ci-dessous illustre le concept du théorème fondamental de l’algèbre linéaire. Les espaces fondamentaux y sont dessinés comme des plans, mais peuvent bien entendu être d’une dimension quelconque.
À gauche, deux rectangles sont dessinés, se touchant en un coin à quatre-vingt-dix degrés. Sur le rectangle supérieur, on peut lire "dimension r" et "espace ligne". Sur le rectangle inférieur, on peut lire "espace nul" et "dimension n moins r". À droite un dessin similaire est présent, avec sur le rectangle supérieur les mots "dimension r" et "espace colonne" alors que sur le rectangle inférieur on peut lire les mots "espace nul gauche" et "dimension m moins r".
Figure 5.3.8. Une image du théorème fondamental de l’algèbre linéaire
Pour voir une application concrète de ce théorème, on considère le problème familier suivant dans \(\mathbb{R}^3\text{.}\) On a un plan dans l’espace et un point \(P\) qui n’appartient pas au plan. On aimerait connaitre le point \(Q\) sur le plan qui est le plus près de \(P\text{.}\) Ce point \(Q\) est le même que celui à la figure 1.3.20. On peut déjà le trouver grâce à la projection orthogonale. Si l’on voulait toutefois résoudre le même problème, mais pour un sous-espace de dimension 5 dans \(\mathbb{R}^7\text{,}\) la méthode de la projection orthogonale ne fonctionnerait pas parce qu’il y aurait plus qu’une direction perpendiculaire. On regarde donc ce problème à nouveau avec les concepts des espaces fondamentaux.

Exemple 5.3.9. Le point le plus proche.

On considère le plan engendré par les vecteurs \(\vec{u}=(-1,2,1)\) et \(\vec{v}=(-5,4,-3)\) ainsi que le point \(P(-3,-7,0)\text{.}\) On cherche le point \(Q\) sur le plan qui est le plus près de \(P\text{.}\)
Solution.
On commence par former la matrice dont les colonnes sont les vecteurs directeurs du plan:
\begin{equation*} A=\begin{pmatrix} -1&-5\\ 2&4\\ 1&-3 \end{pmatrix}\text{.} \end{equation*}
Puisque le point \(Q\) sur le plan le plus proche du point \(P\) est un point pour lequel le vecteur \(\vecl{QP}\) est perpendiculaire au plan, on peut déduire du théorème 5.3.7 que ce vecteur est dans l’espace nul gauche de la matrice \(A\text{,}\) pour laquelle le plan représente l’espace colonne. Il faut donc que \(\vecl{QP}=\vecl{OP}-\vecl{OQ}\) soit dans l’espace nul gauche ou, de façon équivalente, il faut que
\begin{equation*} A^T(\vecl{OP}-\vecl{OQ})=\vec{0}\text{.} \end{equation*}
Pour progresser, on remarque que, comme le point \(Q\) est sur le plan, il doit nécessairement exister un vecteur \(\vec{x}\) tel que \(A\vec{x}=\vecl{OQ}\text{.}\) Ainsi,
\begin{align*} A^T(\vecl{OP}-\vecl{OQ})&=\vec{0}\\ A^T(\vecl{OP}-A\vec{x})&=\vec{0}\\ A^T\vecl{OP}-A^TA\vec{x}&=\vec{0}\\ A^T\vecl{OP}&=A^TA\vec{x}\text{.} \end{align*}
Concrètement, on peut calculer toutes ces matrices et obtenir un système simple à résoudre. On utilise Sage pour faire ces calculs.
Le point \(Q\) est donc obtenu en trouvant la valeur du vecteur \(\vec{x}\) pour lequel
\begin{equation*} \begin{pmatrix} 6&10\\ 10&50 \end{pmatrix}\vec{x}=\vecd{-11}{-13}\text{.} \end{equation*}
Ce système se résout facilement à l’aide de n’importe quelle méthode des chapitres précédents. Avec Sage:
Le point \(Q\) est finalement obtenu en utilisant ce vecteur \(\vec{x}=\left(-\frac{21}{10},\frac{4}{25}\right)\) et la matrice \(A\text{:}\)
\begin{align*} \vecl{OQ}&=A\vec{x}\\ &=\begin{pmatrix} -1&-5\\ 2&4\\ 1&-3 \end{pmatrix}\vecd{-\frac{21}{10}}{\frac{4}{25}}\\ &=\vecddd{\frac{13}{10}}{-\frac{89}{25}}{-\frac{129}{50}}\text{.} \end{align*}
Ce dernier exemple peut sembler long et fastidieux, surtout que les outils de la section 1.3 permettaient une résolution beaucoup plus rapide. En regardant attentivement la démarche de l’exemple 5.3.9, on peut déduire une méthode générale pour ce genre de problème qui est fondamentale en statistique et en informatique (apprentissage profond et intelligence artificielle): la méthode des moindres carrés. Elle sera présentée plus en détail dans le chapitre 7.
On termine avec des commandes Sage en lien avec la sous-section.

Calcul 5.3.10. Base des quatre espaces sur Sage.

Dans la section 3.4, on a introduit des commandes permettant de trouver une base des espaces fondamentaux sans avoir défini au préalable la notion de base. Ceci a été fait à l’exemple calculatoire 3.4.12. On reprend ici ces commandes avec la notion de base maintenant bien définie.
Les commandes pour les espaces ligne, colonne, nul et nul gauche sont respectivement row_space().basis(),column_space().basis(),right_kernel(basis="pivot").basis(),left_kernel(basis="pivot").basis(). On les utilise pour retrouver la base de chacun des quatre espaces de l’exemple 5.3.5.
À noter que pour l’espace colonne, Sage ne retourne pas la base prescrite par la proposition 5.3.4. En fait, il préfère trouver une base de l’espace ligne de \(A^T\text{.}\) On peut toutefois créer une fonction retournant la base suggérée par la proposition 5.3.4 grâce à la fonction pivots(). C’est l’objet de l’exercice [provisional cross-reference: sageexo-baseespcol].

Sous-section 5.3.2 Quelques résultats supplémentaires

À la proposition 5.2.19, on a montré que si \(V\) est un sous-espace vectoriel, alors \((V^{\perp})^{\perp}=V\text{.}\) On peut se demander si la relation entre les dimensions d’un sous-espace quelconque et son complément orthogonal est aussi complémentaire à l’espace sous-jacent.

Démonstration.

Si \(V=\vspan{\vec{0}}\text{,}\) alors \(k=0\) et le complément orthogonal de \(V\) est \(\R^n\text{.}\) La dimension est bien \(n-0=n\text{.}\)
Si \(k>0\text{,}\) alors selon la proposition 5.2.18, on peut trouver une base \(\langle \vec{v}_1,\vec{v}_2,\ldots, \vec{v}_k \rangle\) engendrant \(V\text{.}\) On crée une matrice ligne avec ces \(k\) vecteurs. Par construction, l’espace ligne de la matrice correspond à \(V\) et est de dimension \(k\text{,}\) puisque les vecteurs sont indépendants. Selon le théorème 5.3.7, l’espace nul de \(A\) (qui est le complément de \(V=\mathcal{L}(A)\)) est de dimension \(n-k\text{.}\)
Dans l’espace à deux dimensions, les seuls sous-espaces non triviaux sont les droites passant par l’origine. Dans le cas d’une de ces droites, avec vecteur directeur \(\vec{u}\text{,}\) son complément orthogonal est aussi une droite passant par l’origine avec vecteur directeur \(\vec{v}\) qui lui est perpendiculaire (\(\vec{u}\cdot\vec{v}=0)\text{.}\) N’importe quel vecteur de \(\R^2\) peut s’écrire comme une combinaison linéaire de \(\vec{u}\) et \(\vec{v}\text{.}\) Dans l’espace à trois dimensions, on peut ajouter les plans passant par l’origine comme sous-espace non trivial. Puisque le complément orthogonal d’un plan est la droite ayant comme vecteur directeur le vecteur normal du plan, et que les deux vecteurs directeurs du plan et ce vecteur normal forment une base, il s’avère que l’on peut écrire n’importe quel vecteur de \(\R^3\) comme la somme d’un vecteur du plan et de son complément orthogonal. Ce résultat est aussi valide pour les autres espaces vectoriels. Il est illustré à la figure 5.3.12 et est l’objet de la prochaine proposition.
Figure 5.3.12. Décomposition d’un vecteur selon un sous-espace et son complément orthogonal

Démonstration.

Si la dimension de \(V\) est \(0\text{,}\) alors son complément orthogonal est \(\R^n\) et il s’ensuit que tout vecteur \(\vec{u}\in\mathbb{R}^n\) peut s’écrire comme \(\vec{u}+\vec{0}\text{.}\) La situation est similaire si \(\text{dim}(V)=n\text{.}\)
Soit \(0<k<n\text{,}\) la dimension de \(V\text{.}\) Selon le théorème 5.3.7, la dimension de \(V^{\perp}\) est \(n-k\text{.}\) Pour chacun de ces sous-espaces vectoriels, on peut trouver une base. Soit \(\langle \vec{v}_1,\vec{v}_2,\ldots ,\vec{v}_k \rangle\text{,}\) une base pour \(V\) et \(\langle \vec{v}_{k+1},\vec{v}_{k+2},\ldots , \vec{v}_n \rangle\text{,}\) une base pour \(V^{\perp}\text{.}\) On souhaite montrer que ces vecteurs génèrent \(\mathbb{R}^n\text{.}\) Cela entrainera que tout vecteur peut s’écrire comme une combinaison linéaire de cet ensemble. La partie de la combinaison linéaire avec les \(k\) premiers vecteurs sera dans \(V\) et l’autre partie dans \(V^{\perp}\text{.}\) Pour l’unicité, cela découle du fait que les vecteurs forment une base, puisqu’on aura \(n\) vecteurs indépendants dans \(\mathbb{R}^n\text{.}\)
Pour montrer l’indépendance des \(n\) vecteurs, on suppose que l’on connait une combinaison linéaire donnant le vecteur nul:
\begin{equation*} c_1\vec{v}_1+c_2\vec{v}_2+\ldots +c_k\vec{v}_k+c_{k+1}\vec{v}_{k+1}+c_{k+2}\vec{v}_{k+2},\ldots + c_n\vec{v}_n=\vec{0}\text{.} \end{equation*}
On peut réécrire cette équation en séparant les vecteurs dans \(V\) et \(V^{\perp}\) pour avoir
\begin{equation*} c_1\vec{v}_1+c_2\vec{v}_2+\ldots +c_k\vec{v}_k=-(c_{k+1}\vec{v}_{k+1}+c_{k+2}\vec{v}_{k+2},\ldots + c_n\vec{v}_n)\text{.} \end{equation*}
Comme le membre de droite s’écrit comme une combinaison linéaire de vecteurs dans \(V\) et que \(V\) est un sous-espace vectoriel, il faut que le membre de droite soit aussi dans \(V\text{.}\) Par contre, le membre de droite est une combinaison linéaire de vecteurs dans \(V^{\perp}\) et doit donc être dans \(V^{\perp}\text{.}\) Le seul vecteur commun à \(V\) et \(V^{\perp}\) est le vecteur nul. On obtient ainsi
\begin{align*} c_1\vec{v}_1+c_2\vec{v}_2+\ldots +c_k\vec{v}_k&=\vec{0}\\ \end{align*}

et

\begin{align*} -(c_{k+1}\vec{v}_{k+1}+c_{k+2}\vec{v}_{k+2},\ldots + c_n\vec{v}_n)=&0\text{.} \end{align*}
Comme les vecteurs \(\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_k\) forment une base de \(V\text{,}\) il faut que les coefficients \(c_1,c_2,\ldots ,c_n\) soient tous égaux à zéro. De même, les vecteurs \(\vec{v}_{k+1},\vec{v}_{k+2},\ldots, \vec{v}_n\) formant une base de \(V^{\perp}\text{,}\) les coefficients \(c_{k+1},c_{k+2},\ldots, c_n\) sont aussi nuls.

Remarque 5.3.14. Un commentaire additionnel.

La proposition dit que deux sous-espaces orthogonaux "décomposent" l’espace en deux parties. Cela ne signifie toutefois pas que tous les vecteurs de \(\mathbb{R}^n\) sont soit dans \(V\) ou soit dans \(V^{\perp}\text{.}\) En effet, si, par exemple, on prend un vecteur \(\vec{v}\in V\) et \(\vec{w}\in V^{\perp}\text{,}\) alors le vecteur \(\vec{u}=\vec{v}+\vec{w}\) n’est ni dans \(V\text{,}\) ni dans \(V^{\perp}\text{.}\) La figure 5.3.16 illustre ceci avec les quatre sous-espaces fondamentaux.

Exemple 5.3.15. Décomposition d’un vecteur selon des sous-espaces orthogonaux.

Afin d’illustrer la proposition 5.3.13, on décompose le vecteur \(\vec{u}=(9,16,21,24)\) en une composante provenant de \(V=\vspan{(5,6,7,8),(0,-1,-2,-3)}\) et son complément orthogonal.
Solution.
On commence par trouver une base pour le complément orthogonal. Si l’on pose
\begin{equation*} A=\begin{pmatrix} 5&6&7&8\\ 0&-1&-2&-3 \end{pmatrix}\text{,} \end{equation*}
alors \(V\) correspond à l’espace ligne de cette matrice et son complément orthogonal est l’espace nul. On peut y trouver une base avec Sage.
Donc, \(V^{\perp}=\vspan((1, -2, 1, 0),(2, -3, 0, 1))\text{.}\) Pour exprimer le vecteur \(\vec{u}\) en fonction de la base générée par \(V,V^{\perp}\text{,}\) on met les quatre vecteurs dans une matrice colonne et l’on utilise Sage à nouveau pour échelonner la matrice augmentée du vecteur \(\vec{u}\text{.}\)
Ainsi, le vecteur \(\vec{u}\) peut s’écrire comme
\begin{equation*} \vec{u}=2\vec{v}_1-3\vec{v}_2+\vec{v}_3-\vec{v}_4\text{.} \end{equation*}
La composante de \(\vec{u}\) qui fait partie du sous-espace \(V\) est donc \(2\vec{v}_1-3\vec{v}_2=(10, 15, 20, 25)\) et la composante faisant partie du complément orthogonal est \(\vec{v}_3-\vec{v}_4=(-1, 1, 1, -1)\text{.}\)
Avec les quatre espaces fondamentaux, la décomposition est particulièrement intéressante. On considère une matrice \(A\) de taille \(m\times n\) quelconque. Tout vecteur \(\vec{x}\in\mathbb{R}^n\) peut s’écrire comme une somme
\begin{equation} \vec{x}=\vec{x}_l+\vec{x}_n\tag{5.3.1} \end{equation}
avec \(\vec{x}_l\in\mathcal{L}(A)\) et \(\vec{x}_n\in\mathcal{N}(A)\text{,}\) en vertu de la proposition 5.3.13. Quel est l’effet de la matrice \(A\) sur le vecteur \(\vec{x}\text{?}\) La décomposition combinée à la linéarité de la multiplication matrice vecteur donne la réponse. La composante de \(\vec{x}\) provenant de l’espace nul est envoyée sur le vecteur nul et la composante provenant de l’espace ligne est envoyée dans l’espace colonne. Cela signifie que, bien que le domaine de la transformation linéaire soit \(\mathbb{R}^n\) au complet, il est seulement utile de connaitre l’image de l’espace ligne pour connaitre l’image de la transformation. On bonifie l’image de la figure 5.3.8 afin d’illustrer l’effet d’une matrice comme fonction de \(\mathbb{R}^n\) vers \(\mathbb{R}^m\text{.}\)
Une reproduction des quatre espaces fondamentaux est faite comme celle d’une image précédente. Sur celle-ci est ajouté un point à gauche, décomposé en deux morceaux, l’un sur le rectangle représentant l’espace ligne et l’autre sur le rectangle représentant l’espace nul. Des flèches représentant l’effet d’une matrice A sur ces morceaux sont tracés. Le vecteur x et celui dans l’espace ligne sont envoyés dans le rectangle de l’espace colonne à droite alors que celui dans l’espace nul est envoyé à l’intersection des rectangles à droite.
Figure 5.3.16. Décomposition orthogonale et quatre espaces fondamentaux
Avec ces nouvelles notions, on peut augmenter une fois de plus les conditions équivalentes du théorème de la matrice inverse, qui découle du théorème fondamental de l’algèbre linéaire.

Sous-section 5.3.3 La géométrie de la transposée et un retour sur l’inverse à gauche et à droite

Lorsqu’on a introduit la transposée à la section 3.4, on l’a fait par besoin algébrique pour la suite, sans avoir tous les outils nécessaires à la compréhension de sa géométrie. Une matrice \(A\) de taille \(m\times n\) est une fonction de \(\mathbb{R}^n\) vers \(\mathbb{R}^m\text{.}\) Le Théorème fondamental de l’algèbre linéaire et la proposition 5.3.13 disent que la matrice décompose le domaine et l’ensemble d’arrivée en deux sous-espaces dont les dimensions sont complémentaires et que chaque vecteur de l’espace peut-être écrit comme la somme de vecteurs dans chacun de ces sous-espaces. On considère les deux transformations linéaires \(A:\mathbb{R}^n\to \mathbb{R}^m\) et \(A^T:\mathbb{R}^m\to \mathbb{R}^n\text{.}\) La matrice \(A\) envoie tous les vecteurs de \(\mathcal{N}(A)\) (son espace nul) sur le vecteur \(\vec{0}\in\mathbb{R}^m\) et la matrice \(A^T\) envoie tous les vecteurs de \(\mathcal{N}(A^T)\) (aussi son espace nul) sur le vecteur \(\vec{0}\in \mathbb{R}^n\text{.}\) Qui plus est, la dimension des espaces colonnes et lignes de la matrice est la même et l’on a bien sûr que \(\mathcal{L}(A)=\mathcal{C}(A^T)\) et \(\mathcal{C}(A)=\mathcal{L}(A^T)\text{.}\) Tout ceci suggère que \(A\) envoie son espace ligne sur l’espace colonne et \(A^T\) envoie l’espace colonne de \(A\) sur son espace ligne. On pourrait (à tort) penser que la transposée doit alors être l’inverse de la matrice \(A\text{.}\) En se rappelant la remarque 5.3.14, il peut exister des vecteurs en dehors de l’espace ligne ou de l’espace nul, mais qui s’écrivent comme combinaison linéaire de vecteurs dans ces espaces. Comme le montre la figure 5.3.16, deux vecteurs peuvent être envoyés sur le même vecteur \(\vec{b}\) dans l’espace colonne. En général, la transposée ne retournera même pas le vecteur \(\vec{b}\) sur la composante provenant de l’espace ligne. On a toutefois le résultat suivant.

Démonstration.

Soit \(r\text{,}\) la dimension de l’espace ligne et de l’espace colonne et soit \(\langle\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_r\rangle\text{,}\) une base de l’espace ligne. Dans ce cas, les vecteurs \(A\vec{v}_1,A\vec{v}_2,\ldots , A\vec{v}_r\) sont tous dans \(\mathcal{C}(A)\text{.}\) Si l’on montre qu’ils sont indépendants, ils formeront alors une base de \(\mathcal{C}(A)\text{.}\) On considère une combinaison linéaire de ces vecteurs donnant le vecteur nul:
\begin{equation*} c_1A\vec{v}_1+c_2A\vec{v}_2+\ldots + c_rA\vec{v}_r=\vec{0}\text{.} \end{equation*}
En mettant la matrice \(A\) en évidence, on obtient que \(A(c_1\vec{v}_1+c_2\vec{v}_2+\ldots + c_r\vec{v}_r)=\vec{0}\) et que la combinaison linéaire \(c_1\vec{v}_1+c_2\vec{v}_2+\ldots + c_r\vec{v}_r\) est dans l’espace nul de la matrice \(A\text{.}\) Or comme les vecteurs \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_r\) sont une base pour l’espace ligne et que celui-ci est un sous-espace vectoriel, la combinaison linéaire \(c_1\vec{v}_1+c_2\vec{v}_2+\ldots + c_r\vec{v}_r\) est aussi dans l’espace ligne. Le seul vecteur qui est à la fois dans l’espace ligne et l’espace nul étant le vecteur nul, on conclut que
\begin{equation*} c_1\vec{v}_1+c_2\vec{v}_2+\ldots + c_r\vec{v}_r=\vec{0}\text{.} \end{equation*}
Ceci entraine à son tour que les coefficients \(c_1,c_2,\ldots, c_r\) sont tous nuls, puisque les vecteurs \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_r\) sont indépendants. Ainsi, la seule combinaison linéaire des vecteurs \(A\vec{v}_1,A\vec{v}_2,\ldots , A\vec{v}_r\) donnant le vecteur nul étant celle où tous les coefficients sont nuls, on peut conclure que ces \(r\) vecteurs sont aussi indépendants et, puisque la dimension de l’espace colonne est \(r\text{,}\) ils forment une base de cet espace.
On considère maintenant un vecteur \(\vec{b}\in\mathcal{C}(A)\text{.}\) Puisque \(A\vec{v}_1,A\vec{v}_2,\ldots , A\vec{v}_r\) forment une base de l’espace colonne, il existe une unique manière d’écrire \(\vec{b}\) comme une combinaison linéaire de ces vecteurs:
\begin{align*} \vec{b}&=c_1A\vec{v}_1+c_2A\vec{v}_2+\ldots + c_rA\vec{v}_r\\ &=A(c_1\vec{v}_1+c_2\vec{v}_2+\ldots + c_r\vec{v}_r)\\ &=A\vec{x}_0\text{,} \end{align*}
\(\vec{x}_0=c_1\vec{v}_1+c_2\vec{v}_2+\ldots + c_r\vec{v}_r\text{.}\) La preuve que ce vecteur est unique est faite dans l’exercice 5.3.4.15.
Lorsque la matrice est carrée, on connait une multitude d’équivalences pour déterminer si la matrice est inversible ou non. Celles-ci sont répertoriées dans le théorème 5.3.17. À la section 2.4, on a brièvement mentionné la notion d’inverse à gauche et d’inverse à droite pour les matrices rectangulaires, notamment au théorème 2.4.12. Le théorème fondamental de l’algèbre linéaire permet d’apporter un autre point de vue sur la non-existence des inverses. En effet, si une matrice est de taille \(m\times n\) avec \(m< n\text{,}\) alors l’espace nul gauche de la matrice \(A\) est de dimension supérieure ou égale à \(1\text{.}\) Cela entraine que l’équation \(A\vec{x}=\vec{b}\) peut ne pas avoir de solution si le vecteur \(\vec{b}\) se trouve dans l’espace nul gauche. On ne peut donc pas inverser à gauche la matrice \(A\) et écrire \(\vec{x}=A^{-1}\vec{b}\text{.}\) De la même manière, si la matrice est de taille \(m\times n\) avec \(m> n\) et possède un inverse à droite \(B\text{,}\) alors \(B^T\) est un inverse à gauche pour \(A^T\text{,}\) puisque
\begin{equation} I=I^T=(AB)^T=B^TA^T\text{.}\tag{5.3.2} \end{equation}
Le même argument appliqué à la matrice \(A\) signifie que, parce que l’espace nul de \(A\) est de dimension plus grande ou égale à \(1\text{,}\) l’équation \(A^T\vec{x}=\vec{b}\) peut ne pas avoir de solution si le vecteur \(b\) se trouve dans l’espace colonne de \(A^T\text{,}\) ou de façon équivalente dans l’espace ligne de \(A\text{.}\)
On a des conditions pour la non-existence des inverses des matrices rectangulaires, mais qu’en est-il pour leur existence? Tout est basé sur le rang, le nombre de pivots ou encore la dimension des espaces lignes et colonne. Une matrice de taille \(m\times n\) peut avoir pour rang maximal la valeur minimale entre \(m\) et \(n\text{.}\) Il ne peut pas y avoir plus de pivots qu’il y a de lignes ou de colonnes, la plus petite de ces dimensions. Pour trouver un inverse à droite, il faut une matrice \(B\) de taille \(n\times m\) telle que \(AB=I_m\text{.}\) La matrice \(A\) multiplie chaque colonne de \(B\) pour avoir l’identité. Il faut donc que les colonnes de l’identité soient dans l’espace colonne. Si le rang de la matrice est \(m\text{,}\) alors \(\text{dim}(\mathcal{C}(A))=m=\text{dim}(\mathbb{R}^m)\text{.}\) Si, au contraire, on cherche un inverse à gauche, c’est-à-dire une matrice \(B\) de taille \(n\times m\) telle que \(BA=I_n\text{,}\) alors un argument utilisant l’équation (5.3.2) et l’idée ci-dessus montre que si le rang de la matrice \(A\) est \(n\text{,}\) c’est-à-dire maximal pour les colonnes, on aura une solution.
Ces idées sont résumées dans la proposition ci-dessous.

Démonstration.

Dans le cas où le rang est égal au nombre de lignes, on peut trouver \(m\) colonnes pivots qui sont indépendantes et génèrent \(\mathbb{R}^m\text{.}\) On voit qu’il y a toujours une solution à l’équation \(A\vec{x}=\vec{b}\text{,}\) puisque l’espace colonne est \(\mathbb{R}^m\) au complet. On peut donc trouver une matrice inverse en résolvant les équations matrices vecteurs
\begin{align*} A\vec{x}_1&=\vec{e}_1\\ A\vec{x}_2&=\vec{e}_2\\ \vdots &=\vdots\\ A\vec{x}_m&=\vec{e}_m \end{align*}
et placer ces vecteurs dans les colonnes d’une matrice \(B\text{.}\)
Dans le cas où le rang est égal au nombre de colonnes, la dimension de l’espace ligne est donc égale à \(n\text{.}\) En regardant la transposée de la matrice \(A\text{,}\) on déduit que celle-ci possède un inverse à droite. L’équation (5.3.2) dit alors que celui-ci est un inverse à gauche pour la matrice \(A\text{.}\)

Remarque 5.3.20. Quelques précisions sur les inverses.

Il faut noter que, contrairement à l’inverse d’une matrice carrée, qui est unique, une matrice rectangulaire peut, si elle en a, avoir plusieurs inverses à gauche et à droite. De plus, l’équation \(A\vec{x}=\vec{b}\) est liée à la notion d’inverse lorsque la matrice est carrée. Si la matrice est inversible, alors il existe une solution unique donnée par \(\vec{x}=A^{-1}\vec{b}\text{.}\) Dans le cas d’une matrice rectangulaire, l’existence d’un inverse à droite implique qu’une solution existe toujours. En effet, puisque \(AA^{-1}_{\text{droite}}=I\text{,}\) on a que \(AA^{-1}_{\text{droite}}\vec{b}=\vec{b}\text{.}\) Ainsi \(\vec{x}=A^{-1}_{\text{droite}}\vec{b}\) est une solution. Par contre, cette solution n’est peut-être pas unique. Si un autre inverse existe, il pourrait mener à une solution différente. Si la matrice possède plutôt un inverse à gauche, alors là la solution, si elle existe, sera unique. D’une part, si \(B\) est un inverse à gauche, alors \(B\vec{b}\) est une solution puisque \(BA=I\) et donc \(BA\vec{x}=B\vec{b}\text{.}\) De plus, si \(C\) est un inverse à gauche différent de \(B\text{,}\) alors par le même raisonnement, \(C\vec{b}\) est aussi une solution. Or on a
\begin{align*} B\vec{b}&=BA\vec{x}\\ &=I\vec{x}\\ &=CA\vec{x}\\ &=C\vec{x}\text{.} \end{align*}
Il est toutefois possible que le vecteur \(\vec{b}\) ne soit pas dans l’espace colonne et qu’il n’y ait pas de solution.
En résumé, pour une matrice \(m\times n\) de rang \(m\text{,}\) l’équation \(A\vec{x}=\vec{b}\) possède \(1\) ou une infinité de solutions, alors que pour une matrice de rang \(n\text{,}\) elle en possède \(0\) ou une. Lorsque \(m=n\) (et que le rang est maximal), la solution ne peut être qu’unique.
Les points importants de cette section sont:

Exercices 5.3.4 Exercices

1.

Pour chaque matrice ci-dessous, déterminer une base pour les quatre espaces fondamentaux.
(a)
\(A=\begin{pmatrix} 1& -2\\ 3& -6 \end{pmatrix}\)
Réponse.
Les réponses peuvent varier.
  • \(\displaystyle \mathcal{L}(A)=\vspan((1,-2))\)
  • \(\displaystyle \mathcal{C}(A)=\vspan((1,3))\)
  • \(\displaystyle \mathcal{N}(A)=\vspan((2,1))\)
  • \(\displaystyle \mathcal{N}(A^T)=\vspan((-3,1))\)
Solution.
On peut remarquer que les deux lignes de la matrice sont parallèles. Ceci signifie que l’espace ligne et l’espace colonne seront de dimension \(1\text{.}\) De même, la dimension de l’espace nul et de l’espace nul gauche sera aussi 1. Pour l’espace ligne, on peut prendre n’importe quelle ligne de la matrice : \(\mathcal{L}(A)=\vspan((1,-2))\text{.}\) Similairement, l’espace colonne est engendré par le vecteur \((1,3)\text{.}\) Pour l’espace nul, on utilise le fait que celui-ci est orthogonal à l’espace ligne. Le vecteur \((2,1)\) engendre l’espace nul. De même, l’espace nul gauche est orthogonal à l’espace colonne. Il sera engendré par \((-3,1)\text{.}\)
(b)
\(B=\begin{pmatrix} 1& -2\\ 4& -6 \end{pmatrix}\)
Réponse.
Les réponses peuvent varier.
  • \(\displaystyle \mathcal{L}(B)=\vspan((1,0),(0,1))\)
  • \(\displaystyle \mathcal{C}(B)=\vspan((1,0),(0,1))\)
  • \(\mathcal{N}(B)\text{:}\) Aucune base.
  • \(\mathcal{N}(B^T)\text{:}\) Aucune base.
Solution.
On remarque (par exemple avec le déterminant) que la matrice est inversible. Cela signifie que l’espace nul sera composé du vecteur nul uniquement et que les espaces ligne et colonne seront de dimension \(2\) et seront \(\R^2\) au complet. On a alors \(\mathcal{L}(A)=\vspan((1,0),(0,1))\) et \(\mathcal{C}(A)=\vspan((1,0),(0,1))\text{.}\) Il n’existe pas de base pour le sous-espace ne contenant que le vecteur nul.
(c)
\(C=\begin{pmatrix} 1& -2& 2\\ 3& -6& 6 \\ -1& 2& -2 \end{pmatrix}\)
Réponse.
Les réponses peuvent varier.
  • \(\displaystyle \mathcal{L}(C)=\vspan((1,-2,2))\)
  • \(\displaystyle \mathcal{C}(C)=\vspan((1,3,-1))\)
  • \(\displaystyle \mathcal{N}(C)=\vspan((2,1,0),(-2,0,1))\)
  • \(\displaystyle \mathcal{N}(C^T)=\vspan((1,0,1),(0,1,3))\)
Solution.
On utilise Sage pour échelonner la matrice et déterminer les bases à l’aide des propositions 5.3.1 et 5.3.4. On utilise la commande echelon_form(transformation=True), car celle-ci retourne la matrice \(E\) obtenue de la multiplication des matrices élémentaires \(EC=R\text{.}\)
L’espace ligne est engendré par \((1,-2,2)\text{,}\) l’espace nul par les vecteurs obtenus des solutions de base: \((2,1,0),(-2,0,1)\text{.}\) L’espace colonne est engendré par \((1,3,-1)\) et l’espace nul gauche par \((1,0,1)\) et \((0,1,3)\text{.}\)
(d)
\(D=\begin{pmatrix} 1& 0& 1\\ 3& 1& 6 \\ -1& 3& 8 \end{pmatrix}\)
Réponse.
Les réponses peuvent varier.
  • \(\displaystyle \mathcal{L}(D)=\vspan((1,0,1),(0,1,3))\)
  • \(\displaystyle \mathcal{C}(D)=\vspan((1,3,-1),(0,1,3))\)
  • \(\displaystyle \mathcal{N}(D)=\vspan((-1,-3,1))\)
  • \(\displaystyle \mathcal{N}(D^T)=\vspan((10,-3,1))\)
Solution.
On utilise Sage pour échelonner la matrice et déterminer les bases à l’aide des propositions 5.3.1 et 5.3.4. On utilise la commande echelon_form(transformation=True), car celle-ci retourne la matrice \(E\) obtenue de la multiplication des matrices élémentaires \(ED=R\text{.}\)
L’espace ligne est engendré par \((1,0,1)\) et \((0,1,3)\text{,}\) l’espace nul par le vecteur obtenu des solutions de base: \((-1,-3,1)\text{.}\) L’espace colonne est engendré par \((1,3,-1)\) et \((0,1,3)\) et l’espace nul gauche par \((10,-3,1)\text{.}\)
(e)
\(F=\begin{pmatrix} 5 & -4 & -4 & 4 \\ -15 & 12 & 12 & -12 \\ 25 & -20 & -20 & 20 \\ 15 & -12 & -12 & 12 \end{pmatrix}\)
Réponse.
Les réponses peuvent varier.
  • \(\displaystyle \mathcal{L}(F)=\vspan((5,-4,-4,4))\)
  • \(\displaystyle \mathcal{C}(F)=\vspan((5,-15,25,15))\)
  • \(\displaystyle \mathcal{N}(F)=\vspan((4/5,1,0,0),(4/5,0,1,0),(-4/5,0,0,1))\)
  • \(\displaystyle \mathcal{N}(F^T)=\vspan((1,0,1,-2),(0,1,0,1),(0,0,3,-5))\)
Solution.
On utilise Sage pour échelonner la matrice et déterminer les bases à l’aide des propositions 5.3.1 et 5.3.4. On utilise la commande echelon_form(transformation=True), car celle-ci retourne la matrice \(E\) obtenue de la multiplication des matrices élémentaires \(EC=R\text{.}\) À noter que cette commande n’échelonne pas jusqu’au bout, elle n’utilise pas de divisions. On peut aussi faire apparaitre la forme échelonnée réduite.
L’espace ligne est engendré par \((5,-4,-4,4)\text{,}\) l’espace nul par les vecteurs obtenus des solutions de base: \((4/5,1,0,0),(4/5,0,1,0),(-4/5,0,0,1)\text{.}\) L’espace colonne est engendré par \((5,-15,25,15)\) et l’espace nul gauche par \((1,0,1,-2),(0,1,0,1)\) et \((0,0,3,-5)\text{.}\)
(f)
\(G=\begin{pmatrix} -5 & 6 & -3 & 9 \\ 3 & 3 & 5 & -8 \\ \end{pmatrix}\)
Réponse.
Les réponses peuvent varier.
  • \(\displaystyle \mathcal{L}(G)=\vspan((1,12,7,-7),(0,33,16,-13))\)
  • \(\displaystyle \mathcal{C}(G)=\vspan((-5,3),(6,3))\)
  • \(\displaystyle \mathcal{N}(G)=\vspan((-13/11,-16/33,1,0),(25/11,13/33,0,1))\)
  • \(\mathcal{N}(G^T)=\{\vec{0}\}\text{,}\) aucune base.
Solution.
On utilise Sage pour échelonner la matrice et déterminer les bases à l’aide des propositions 5.3.1 et 5.3.4. On utilise la commande echelon_form(transformation=True), car celle-ci retourne la matrice \(E\) obtenue de la multiplication des matrices élémentaires \(EC=R\text{.}\) À noter que cette commande n’échelonne pas jusqu’au bout, elle n’utilise pas de divisions. On peut aussi faire apparaitre la forme échelonnée réduite.
L’espace ligne est engendré par \((1,12,7,-7),(0,33,16,-13)\) et l’espace nul par les vecteurs obtenus des solutions de base: \((-13/11,-16/33,1,0),(25/11,13/33,0,1)\text{.}\) L’espace colonne est engendré par \((-5,3),(6,3)\) et l’espace nul gauche n’est composé que du vecteur nul et ne possède pas de base.
(g)
\(H=\begin{pmatrix} 0 & 5 \\ 0 & -4 \\ 0 & 6 \\ 0 & 0 \end{pmatrix}\)
Réponse.
Les réponses peuvent varier.
  • \(\displaystyle \mathcal{L}(H)=\vspan((0,1))\)
  • \(\displaystyle \mathcal{C}(H)=\vspan((5,-4,6,0))\)
  • \(\displaystyle \mathcal{N}(H)=\vspan((1,0))\)
  • \(\displaystyle \mathcal{N}(H^T)=\vspan((2,1,-1,0),(0,3,2,0),(0,0,0,1))\)
Solution.
On utilise Sage pour échelonner la matrice et déterminer les bases à l’aide des propositions 5.3.1 et 5.3.4. On utilise la commande echelon_form(transformation=True), car celle-ci retourne la matrice \(E\) obtenue de la multiplication des matrices élémentaires \(EC=R\text{.}\) À noter que cette commande n’échelonne pas jusqu’au bout, elle n’utilise pas de divisions. On peut aussi faire apparaitre la forme échelonnée réduite.
L’espace ligne est engendré par \((0,1)\) et l’espace nul par le vecteur obtenu des solutions de base: \((1,0)\text{.}\) L’espace colonne est engendré par \((5,-4,6,0)\) et l’espace nul gauche est engendré par \((2,1,-1,0),(0,3,2,0),(0,0,0,1)\text{.}\)
(h)
\(J=\begin{pmatrix} 0 & -13 & -10 \\ 0 & -10 & -25 \\ 0 & -7 & 5 \\ 0 & -2 & -5 \end{pmatrix}\)
Réponse.
Les réponses peuvent varier.
  • \(\displaystyle \mathcal{L}(J)=\vspan((0,1,0),(0,0,1))\)
  • \(\displaystyle \mathcal{C}(J)=\vspan((-13,-10,-7,-2),(-10,-25,5,-5))\)
  • \(\displaystyle \mathcal{N}(J)=\vspan((1,-1,-1))\)
  • \(\displaystyle \mathcal{N}(J^T)=\vspan((1,0,-1,-3),(0,1,0,-5))\)
Solution.
On utilise Sage pour échelonner la matrice et déterminer les bases à l’aide des propositions 5.3.1 et 5.3.4. On utilise la commande echelon_form(transformation=True), car celle-ci retourne la matrice \(E\) obtenue de la multiplication des matrices élémentaires \(EC=R\text{.}\) À noter que cette commande n’échelonne pas jusqu’au bout, elle n’utilise pas de divisions. On peut aussi faire apparaitre la forme échelonnée réduite.
L’espace ligne est engendré par \((0,1,0),(0,0,1)\) et l’espace nul par le vecteur obtenu des solutions de base: \((1,-1,-1)\text{.}\) L’espace colonne est engendré par \((-13,-10,-7,-2),(-10,-25,5,-5)\) et l’espace nul gauche est engendré par \((1,0,-1,-3),(0,1,0,-5)\text{.}\)
(i)
\(K=\begin{pmatrix} 10 & 12 & -19 & 4 \\ -10 & -4 & -9 & -8 \\ 0 & 5 & -3 & 1 \\ 10 & 3 & -2 & 5 \end{pmatrix}\)
Réponse.
Les réponses peuvent varier.
  • \(\displaystyle \mathcal{L}(K)=\vspan((1,0,23/10,10/23),(0,1,11,3),(0,0,1,7/29))\)
  • \(\displaystyle \mathcal{C}(K)=\vspan((10,-10,0,10),(12,-4,5,3),(-19,-9,-3,-2))\)
  • \(\displaystyle \mathcal{N}(K)=\vspan((-129/200,-10/29,-7/29,1))\)
  • \(\displaystyle \mathcal{N}(K^T)=\vspan((1,-1,-2,-2))\)
Solution.
On utilise Sage pour échelonner la matrice et déterminer les bases à l’aide des propositions 5.3.1 et 5.3.4. On utilise la commande echelon_form(transformation=True), car celle-ci retourne la matrice \(E\) obtenue de la multiplication des matrices élémentaires \(EK=R\text{.}\) À noter que cette commande n’échelonne pas jusqu’au bout, elle n’utilise pas de divisions. On peut aussi faire apparaitre la forme échelonnée réduite.
L’espace ligne est engendré par \((1,0,23/10,10/23)\text{,}\)\((0,1,11,3)\) et \((0,0,1,7/29)\text{,}\) l’espace nul par le vecteur obtenu des solutions de base: \((-129/200,-10/29,-7/29,1)\text{.}\) L’espace colonne est engendré par \((10,-10,0,10)\text{,}\)\((12,-4,5,3)\) et \((-19,-9,-3,-2)\) et l’espace nul gauche par \((1,-1,-2,-2)\text{.}\)

2.

Donner la dimension des quatre espaces fondamentaux d’une matrice ayant les caractéristiques suivantes, ou dire pourquoi une dimension ne peut être donnée.
(a)
La matrice \(A\) est de taille \(4\times 7\) et son rang est \(2\text{;}\)
Réponse.
  • \(\displaystyle \text{dim}(\mathcal{L}(A))=2\)
  • \(\displaystyle \text{dim}(\mathcal{C}(A))=2\)
  • \(\displaystyle \text{dim}(\mathcal{N}(A))=5\)
  • \(\displaystyle \text{dim}(\mathcal{N}(A^T))=2\)
Solution.
Selon le Théorème fondamental de l’algèbre linéaire, les dimensions de l’espace ligne et de l’espace nul s’additionnent pour donner le nombre de colonnes de la matrice et les dimensions de l’espace colonne et de l’espace nul gauche s’additionnent pour donner le nombre de lignes de la matrice. La dimension de l’espace ligne et celle de l’espace colonne correspondent toujours au rang de la matrice. On a donc
  • \(\text{dim}(\mathcal{L}(A))=2\text{;}\)
  • \(\text{dim}(\mathcal{C}(A))=2\text{;}\)
  • \(\text{dim}(\mathcal{N}(A))=7-2=5\text{;}\)
  • \(\text{dim}(\mathcal{N}(A^T))=4-2=2\text{.}\)
(b)
La matrice \(B\) est de taille \(5\times 5\) et est inversible;
Réponse.
  • \(\displaystyle \text{dim}(\mathcal{L}(B))=5\)
  • \(\displaystyle \text{dim}(\mathcal{C}(B))=5\)
  • \(\displaystyle \text{dim}(\mathcal{N}(B))=0\)
  • \(\displaystyle \text{dim}(\mathcal{N}(B^T))=0\)
Solution.
Selon le Théorème fondamental de l’algèbre linéaire, les dimensions de l’espace ligne et de l’espace nul s’additionnent pour donner le nombre de colonnes de la matrice et les dimensions de l’espace colonne et de l’espace nul gauche s’additionnent pour donner le nombre de lignes de la matrice. De plus, selon le théorème 5.3.17, une matrice inversible est de rang maximal. La dimension de l’espace ligne et celle de l’espace colonne correspondent toujours au rang de la matrice. On a donc
  • \(\text{dim}(\mathcal{L}(B))=5\text{;}\)
  • \(\text{dim}(\mathcal{C}(B))=5\text{;}\)
  • \(\text{dim}(\mathcal{N}(B))=5-5=0\text{;}\)
  • \(\text{dim}(\mathcal{N}(B^T))=5-5=0\text{.}\)
(c)
La matrice \(C\) est de taille \(3\times 5\text{.}\) Les trois premières colonnes sont, dans l’ordre, les vecteurs \((1,0,0),(0,1,0),(0,0,1)\) et les deux dernières colonnes sont nulles.
Réponse.
  • \(\displaystyle \text{dim}(\mathcal{L}(C))=3\)
  • \(\displaystyle \text{dim}(\mathcal{C}(C))=3\)
  • \(\displaystyle \text{dim}(\mathcal{N}(C))=0\)
  • \(\displaystyle \text{dim}(\mathcal{N}(C^T))=2\)
Solution.
Selon le Théorème fondamental de l’algèbre linéaire, les dimensions de l’espace ligne et de l’espace nul s’additionnent pour donner le nombre de colonnes de la matrice et les dimensions de l’espace colonne et de l’espace nul gauche s’additionnent pour donner le nombre de lignes de la matrice. La dimension de l’espace ligne et celle de l’espace colonne correspondent toujours au rang de la matrice. Comme chaque ligne contient un pivot, la matrice est de rang 3. On a donc
  • \(\text{dim}(\mathcal{L}(C))=3\text{;}\)
  • \(\text{dim}(\mathcal{C}(C))=3\text{;}\)
  • \(\text{dim}(\mathcal{N}(C))=3-3=0\text{;}\)
  • \(\text{dim}(\mathcal{N}(C^T))=5-3=2\text{.}\)
(d)
La matrice \(D\) est de taille \(5\times 6\text{.}\) Les trois premières colonnes sont, dans l’ordre, les vecteurs \((1,0,0,0,0),(0,1,0,0,0),(0,0,1,0,0)\) et les trois dernières colonnes une copie des trois premières, dans le même ordre.
Réponse.
  • \(\displaystyle \text{dim}(\mathcal{L}(D))=3\)
  • \(\displaystyle \text{dim}(\mathcal{C}(D))=3\)
  • \(\displaystyle \text{dim}(\mathcal{N}(D))=2\)
  • \(\displaystyle \text{dim}(\mathcal{N}(D^T))=3\)
Solution.
Selon le Théorème fondamental de l’algèbre linéaire, les dimensions de l’espace ligne et de l’espace nul s’additionnent pour donner le nombre de colonnes de la matrice et les dimensions de l’espace colonne et de l’espace nul gauche s’additionnent pour donner le nombre de lignes de la matrice. La dimension de l’espace ligne et celle de l’espace colonne correspondent toujours au rang de la matrice. Comme les trois premières lignes contiennent un pivot, la matrice est de rang 3. On a donc
  • \(\text{dim}(\mathcal{L}(D))=3\text{;}\)
  • \(\text{dim}(\mathcal{C}(D))=3\text{;}\)
  • \(\text{dim}(\mathcal{N}(D))=5-3=0\text{;}\)
  • \(\text{dim}(\mathcal{N}(D^T))=6-3=2\text{.}\)
(e)
La matrice \(E\) est de taille \(3\times 3\) et toutes les solutions à l’équation \(A\vec{x}=\vec{0}\)sont parallèles au vecteur \(\vec{u}=\vec{1,2,3}\text{.}\)
Réponse.
  • \(\displaystyle \text{dim}(\mathcal{L}(E))=2\)
  • \(\displaystyle \text{dim}(\mathcal{C}(E))=2\)
  • \(\displaystyle \text{dim}(\mathcal{N}(E))=1\)
  • \(\displaystyle \text{dim}(\mathcal{N}(E^T))=1\)
Solution.
Selon le Théorème fondamental de l’algèbre linéaire, les dimensions de l’espace ligne et de l’espace nul s’additionnent pour donner le nombre de colonnes de la matrice et les dimensions de l’espace colonne et de l’espace nul gauche s’additionnent pour donner le nombre de lignes de la matrice. De plus, la dimension de l’espace ligne est toujours la même que celle de l’espace colonne. Comme les solutions à l’espace nul sont sur une ligne, la dimension de l’espace nul est \(1\text{.}\)
  • \(\text{dim}(\mathcal{L}(E))=3-1\text{;}\)
  • \(\text{dim}(\mathcal{C}(E))=2\text{;}\)
  • \(\text{dim}(\mathcal{N}(E))=1\text{;}\)
  • \(\text{dim}(\mathcal{N}(E^T))=3-2=1\text{.}\)

3.

On considère la matrice
\begin{equation*} A=\begin{pmatrix}1& 1& 0& -1\\ 1& -2&1& -1\\ 0&1&-1&3 \end{pmatrix}\text{.} \end{equation*}
Pour chaque situation ci-dessous, donner une matrice de format demandé respectant la condition ou dire pourquoi une telle matrice n’existe pas.
(a)
Donner une matrice \(B\) de taille \(4\times 5\) telle que \(\mathcal{C}(B)=\mathcal{L}(A)\text{.}\)
Réponse.
Les réponses peuvent varier. Voici une solution: \(B=\begin{pmatrix} 1&0&0&1&0\\ 0&1&0&1&1\\ 0&0&1&0&1\\ \frac{1}{2}&-\frac{3}{2}&-\frac{9}{2}&-1&-6 \end{pmatrix}\)
Solution.
On commence par déterminer l’espace ligne de la matrice \(A\) en l’échelonnant.
L’espace ligne est donc à trois dimensions et engendré par les vecteurs \((1,0,0,1/2),(0,1,0,-3/2),(0,0,1,-9/2)\text{.}\) Pour avoir une matrice de format \(4\times 5\) qui produira un espace colonne égal à l’espace ligne de \(A\text{,}\) on peut prendre une matrice \(B\) dont trois des colonnes sont les vecteurs ci-dessus et les deux autres colonnes sont des combinaisons linéaires de ces mêmes vecteurs. Voici un exemple:
\begin{equation*} B=\begin{pmatrix} 1&0&0&1&0\\ 0&1&0&1&1\\ 0&0&1&0&1\\ \frac{1}{2}&-\frac{3}{2}&-\frac{9}{2}&-1&-6 \end{pmatrix}\text{.} \end{equation*}
(b)
Donner une matrice \(C\) de taille \(2\times 4\) telle que \(\mathcal{L}(C)=\mathcal{L}(A)\text{.}\)
Réponse.
Impossible
Solution.
C’est impossible, puisque l’espace ligne de la matrice \(A\) est de dimension \(3\text{.}\) La dimension de l’espace ligne d’une telle matrice \(C\) pourrait être au maximum \(2\text{.}\)
(c)
Donner une matrice \(D\) de taille \(4\times 3\) telle que \(\mathcal{L}(D)=\mathcal{C}(A)\text{.}\)
Réponse.
\(D=\begin{pmatrix} 1&1&0\\ 1&-2&1\\ 0&1&-1\\ 2&0&0 \end{pmatrix}\)
Solution.
En regardant les calculs Sage faits précédemment, on constate que l’espace colonne de la matrice \(A\) est généré par les trois premières colonnes. Pour créer la matrice \(D\) demandée, il suffit de mettre les trois premières colonnes de \(A\) comme lignes d’une matrice et d’ajouter une ligne qui est une combinaison linéaire de ces trois premières lignes. Voici un exemple:
\begin{equation*} D=\begin{pmatrix} 1&1&0\\ 1&-2&1\\ 0&1&-1\\ 2&0&0 \end{pmatrix}\text{.} \end{equation*}
(d)
Donner une matrice \(E\) de taille \(5\times 5\) telle que \(\mathcal{L}(E)=\mathcal{C}(A)\text{.}\)
Réponse.
Impossible
Solution.
L’espace colonne de la matrice \(A\) est un sous-espace vectoriel de \(\mathbb{R}^3\text{.}\) On ne peut l’obtenir à partir de vecteurs dans \(\mathbb{R}^5\text{.}\)
(e)
Donner une matrice \(F\) de taille \(4\times 3\) telle que \(\mathcal{C}(F)=\mathcal{N}(A)\text{.}\)
Réponse.
\(F=\begin{pmatrix} -\frac{1}{2}&-\frac{1}{2}&-\frac{1}{2}\\ \frac{3}{2}&\frac{3}{2}&\frac{3}{2}\\ \frac{9}{2}&\frac{9}{2}&\frac{9}{2}\\ 1&1&1\\ \end{pmatrix}\)
Solution.
Toujours selon les calculs Sage précédents, le rang de la matrice \(A\) est \(3\text{.}\) Cela signifie que la dimension de l’espace nul sera égale à \(1\) selon le Théorème fondamental de l’algèbre linéaire. On peut trouver une base de l’espace nul en regardant la solution de base telle que définie à la section 3.3. On trouve le vecteur \(\left(-\frac{1}{2}, \frac{3}{2}, \frac{9}{2},1 \right)\) comme générateur de l’espace nul. Pour satisfaire les conditions de taille de la matrice \(F\text{,}\) il suffit de copier ce vecteur ou l’un de ses multiples dans les trois colonnes d’une matrice \(4\times 3\text{.}\) Ainsi,
\begin{equation*} F=\begin{pmatrix} -\frac{1}{2}&-\frac{1}{2}&-\frac{1}{2}\\ \frac{3}{2}&\frac{3}{2}&\frac{3}{2}\\ \frac{9}{2}&\frac{9}{2}&\frac{9}{2}\\ 1&1&1\\ \end{pmatrix} \end{equation*}
fait l’affaire.
(f)
Donner une matrice \(G\) de taille \(4\times 4\) telle que \(\mathcal{L}(G)=\mathcal{N}(A)\text{.}\)
Réponse.
\(G=\begin{pmatrix} -\frac{1}{2}&\frac{3}{2}&\frac{9}{2}&1\\ -\frac{1}{2}&\frac{3}{2}&\frac{9}{2}&1\\ -\frac{1}{2}&\frac{3}{2}&\frac{9}{2}&1\\ -\frac{1}{2}&\frac{3}{2}&\frac{9}{2}&1\\ \end{pmatrix}\)
Solution.
L’espace nul de la matrice \(A\) est engendré par le vecteur \(\left(-\frac{1}{2}, \frac{3}{2}, \frac{9}{2},1 \right)\text{.}\) Pour obtenir une matrice \(G\) dont l’espace ligne sera engendré par ce vecteur, il suffit de le placer comme les quatre lignes d’une matrice. La matrice
\begin{equation*} G=\begin{pmatrix} -\frac{1}{2}&\frac{3}{2}&\frac{9}{2}&1\\ -\frac{1}{2}&\frac{3}{2}&\frac{9}{2}&1\\ -\frac{1}{2}&\frac{3}{2}&\frac{9}{2}&1\\ -\frac{1}{2}&\frac{3}{2}&\frac{9}{2}&1\\ \end{pmatrix} \end{equation*}
est un exemple.

4.

Donner une base pour le complément orthogonal de chacun des ensembles de vecteurs suivants.
(a)
\(V_1=\vspan((5,-2,1,4),(3,-1,-1,2))\text{.}\)
Réponse.
Les réponses peuvent varier. Voici une possibilité: \(\mathcal{B}=\langle(3,8,1,0),(0,2,0,1)\rangle\text{.}\)
Solution.
On utilise le fait que les espaces ligne et nul sont orthogonaux et qu’on peut trouver assez facilement une base de ces espaces. En plaçant les deux vecteurs engendrant \(V_1\) dans les lignes d’une matrice, on pourra trouver une base de l’espace nul de cette matrice qui sera une base pour du complément orthogonal de \(V_1\text{.}\)
À partir de ce calcul, on peut trouver les solutions de base pour engendrer l’espace nul. On pose \(\vec{u}_1=(3,8,1,0),\vec{u}_2=(0,2,0,1)\text{.}\) Ces vecteurs forment une base de \(V_1^{\perp}\text{.}\)
(b)
\(V_2=\{\vec{x}\in \mathbb{R}^5~|~ x_1+x_3+x_5=0 \text{ et } x_2+x_4=0\}\text{.}\)
Réponse.
\(V_2^{\perp}=\vspan((1,0,1,0,1),(0,1,0,1,0))\)
Solution.
Soit
\begin{equation*} B=\begin{pmatrix} 1&0&1&0&1\\ 0&1&0&1&0 \end{pmatrix}\text{,} \end{equation*}
la matrice pour laquelle le système \(B\vec{x}=\vec{0}\) correspond aux conditions caractéristiques du sous-espace \(V_2\text{.}\) Par définition, les solutions à ce système correspondent à l’espace nul de la matrice \(B\) et donc, le sous-espace \(V_2\) est équivalent à l’espace nul de la matrice \(B\text{.}\) Le complément orthogonal de l’espace nul étant l’espace ligne, on conclut que \(V_2^{\perp}=\vspan((1,0,1,0,1),(0,1,0,1,0))\text{,}\) puisque la matrice \(B\) est déjà échelonnée réduite.

5.

À la proposition 5.2.18, on a montré que tout espace vectoriel de dimension plus grande à \(0\) possédait une base. Voici un processus qui permet de compléter un ensemble de vecteurs indépendants afin de trouver une base d’un espace vectoriel de dimension connue.
(a)
On considère les vecteurs de \(\mathbb{R}^5\) suivants:
\begin{equation*} \vec{v}_1=\begin{pmatrix} 0\\ 1\\ 2\\ 3\\ 4 \end{pmatrix} \qquad \vec{v}_2=\begin{pmatrix} 5\\ 6\\ 7\\ 8\\ 9 \end{pmatrix} \qquad \vec{v}_3=\begin{pmatrix} -1\\ 2\\ -3\\ 4\\ -5 \end{pmatrix} \text{.} \end{equation*}
L’idée est de créer une matrice dont l’espace colonne sera \(\mathbb{R}^5\) et dont les colonnes pivots donneront une base qui contiendra les vecteurs \(\vec{v}_1,\vec{v}_2,\vec{v}_3\text{.}\) Pour cela, on considère la matrice
\begin{equation*} \begin{pmatrix} 0& 5& -1& 1&0&0&0&0\\ 1& 6& 2& 0&1&0&0&0\\ 2& 7& -3& 0&0&1&0&0\\ 3& 8& 4& 0&0&0&1&0\\ 4& 9& -5& 0&0&0&0&1\\ \end{pmatrix}\text{.} \end{equation*}
Donner une base de \(\mathbb{R}^5\) contenant les vecteurs \(\vec{v}_1,\vec{v}_2,\vec{v}_3\text{.}\)
Réponse.
\(\mathcal{B}=\langle (0, 1, 2, 3, 4), (5, 6, 7, 8, 9),(-1, 2, -3, 4, -5),(1,0,0,0,0),(0,1,0,0,0)\rangle\)
Solution.
Il faut échelonner la matrice afin de déterminer les colonnes pivots. On utilise Sage.
En ajoutant les vecteurs \((1,0,0,0,0),(0,1,0,0,0)\) aux vecteurs \(\vec{v}_1,\vec{v}_2,\vec{v}_3\text{,}\) on obtient une base de \(\mathbb{R}^5\text{.}\)
(b)
Répéter avec les vecteurs
\begin{equation*} \vec{w}_1=\begin{pmatrix} 5\\ 4\\ 3\\ 2\\ 1 \end{pmatrix} \qquad \vec{w}_2=\begin{pmatrix} 6\\ 8\\ 9\\ 4\\ 2 \end{pmatrix} \qquad \vec{w}_3=\begin{pmatrix} -11\\ -12\\ -13\\ -6\\ -3 \end{pmatrix} \text{.} \end{equation*}
Solution.
Il faut échelonner la matrice contenant ces trois vecteurs dans les premières colonnes et augmentée de l’identité afin de déterminer les colonnes pivots. On utilise Sage.
En ajoutant les vecteurs \((0,1,0,0,0)(0,0,0,1,0)\) aux vecteurs \(\vec{w}_1,\vec{w}_2,\vec{w}_3\text{,}\) on obtient une base de \(\mathbb{R}^5\text{.}\)
(c)
Expliquer pourquoi ce processus fonctionne pour former une base à partir de \(k\) vecteurs indépendants de \(\mathbb{R}^n\text{.}\)
Solution.
En plaçant une copie de la matrice identité dans la matrice créée, on garantit que l’espace colonne de la matrice sera \(\mathbb{R}^n\text{.}\) Puisque les \(k\) vecteurs sont indépendants, on s’assure qu’ils seront des pivots dans la matrice en les plaçant au début de \(A\text{.}\)

6.

Démontrer le lemme 5.3.3.
Solution.
Si la matrice \(R\) est de rang \(r\text{,}\) alors l’espace nul gauche est de dimension \(m-r\text{.}\) Il faut donc trouver \(m-r\) vecteurs indépendants qui font partie de l’espace nul gauche pour produire une base, en vertu de la proposition 5.2.26. Les vecteurs \(\vec{e}_{r+1},\vec{e}_{r+2},\ldots , \vec{e}_m\) sont indépendants puisqu’ils font partie de la base standard de \(\mathbb{R}^m\text{.}\) Si l’on vérifie qu’ils sont dans l’espace nul gauche de \(R\text{,}\) alors il sera démontré qu’ils forment une base. On considère le produit matrice vecteur \(R^T\vec{e}_i\) pour des valeurs de \(i\) allant de \(r+1\) à \(m\text{.}\) Puisque, par définition, \(R\) est une matrice échelonnée réduite de rang \(r\text{,}\) ses \(m-r\) dernières lignes sont nulles. Cela signifie que les \(m-r\) dernières colonnes de \(R^T\) sont aussi nulles. Or lorsqu’on multiplie une matrice par un vecteur de la forme \(\vec{e}_i\text{,}\) on obtient la colonne \(i\) de la matrice. Ainsi, tous les produits matrice vecteur \(R^T\vec{e}_i\) pour des valeurs de \(i\) allant de \(r+1\) à \(m\) valent \(\vec{0}\text{.}\) Ces vecteurs sont tous dans l’espace nul gauche.

7.

À l’exercice 3.4.3.9, on a montré qu’une matrice \(A\) de rang \(1\) peut s’écrire comme \(A=\vec{u}\vec{v}^T\text{.}\) À quoi correspondent les quatre espaces fondamentaux d’une telle matrice en fonction des vecteurs \(\vec{u},\vec{v}\text{?}\)
Solution.
Selon la démonstration de l’exercice 3.4.3.9, on a construit le vecteur \(\vec{v}\) afin qu’il représente la première ligne non nulle de la matrice \(A\text{.}\) Puisque \(A\) est de rang \(1\text{,}\) toutes les lignes sont parallèles à \(\vec{v}\text{.}\) On peut alors conclure que \(\mathcal{L}(A)=\vspan(\vec{v})\text{.}\)
En regardant l’équation (3.4.4), on constate que les colonnes de \(A\) sont toutes un multiple du vecteur \(\vec{u}\text{.}\) Il s’ensuit alors que \(\mathcal{C}(A)=\vspan{u}\text{.}\)
En vertu du théorème 5.3.7, on conclut que \(\mathcal{N}(A)=(\vspan(\vec{v}))^T\) et que \(\mathcal{N}(A^T)=(\vspan(\vec{u}))^T\text{.}\)

8.

Soit \(A=\begin{pmatrix} 1&0& 1\\ -1&1& 0\end{pmatrix}\text{.}\) Selon la proposition 5.3.13, il est possible de décomposer tout vecteur de \(\mathbb{R}^3\) comme la somme d’un vecteur de \(\mathcal{L}(A)\) et d’un vecteur de \(\mathcal{N}(A)\text{.}\)
(a)
Décomposer le vecteur \((0,1,1)\) de cette manière.
Réponse.
\((0,1,1)=(0,1,1)+(0,0,0)\)
Solution.
Le vecteur \((0,1,1)\) est déjà dans l’espace ligne puisque \((1,0,1)+(-1,1,0)=(0,1,1)\text{.}\) On prend donc ce vecteur dans l’espace ligne et le vecteur nul dans l’espace nul.
(b)
Décomposer le vecteur \(\vec{w}=(1,0,1)\times (-1,1,0)\) de cette manière.
Réponse.
\(\vec{w}=(0,0,0)+(-1, -1, 1)\)
Solution.
Dans un premier temps, on calcule le vecteur \(\vec{w}\text{.}\) Selon l’équation (4.1.2), le produit vectoriel des lignes de \(A\) est
\begin{equation*} \vec{x}=\left(\begin{vmatrix} 0& 1\\ 1&0 \end{vmatrix},-\begin{vmatrix} 1& -1\\ 1&0 \end{vmatrix},\begin{vmatrix} 1& -1\\ 0&1 \end{vmatrix}\right)=(-1,-1,1)\text{.} \end{equation*}
Puisque ce vecteur est perpendiculaire aux lignes de \(A\) (par définition du produit vectoriel), on conclut que le vecteur \((-1,-1,1)\) est dans l’espace nul de \(A\text{.}\) On prend donc le vecteur nul comme élément de l’espace ligne pour écrire \((-1,-1,1)=(0,0,0)+(-1,-1,1)\)
(c)
Décomposer le vecteur \((1,1,1)\) de cette manière.
Réponse.
\((1,1,1)=\frac{2}{3}(1,1,2)-\frac{1}{3}(-1,-1,1)\)
Solution.
La question est équivalente à décomposer le vecteur \((1,1,1)\) dans la base de \(\mathbb{R}^3\) donnée par les vecteurs \((1,0,1),(-1,1,0)\) (les lignes de la matrice \(A\)) et le vecteur \((-1,-1,1)\) (le produit vectoriel des deux premiers vecteurs) et de combiner les contributions des vecteurs de l’espace ligne. On place ces trois vecteurs dans une matrice colonne afin de résoudre le système.
On peut donc écrire
\begin{equation*} (1,1,1)=\frac{4}{3}(1,0,1)+\frac{2}{3}(-1,1,0)-\frac{1}{3}(-1,-1,1)\text{.} \end{equation*}
En combinant les deux premiers vecteurs, on a
\begin{equation*} (1,1,1)=\frac{2}{3}(1,1,2)-\frac{1}{3}(-1,-1,1) \end{equation*}
avec le vecteur \(\frac{2}{3}(1,1,2)\in \mathcal{L}(A)\) et le vecteur \(-\frac{2}{3}(-1,-1,1)\in \mathcal{N}(A)\text{.}\)
(d)
Décomposer le vecteur \((x,y,z)\) de cette manière.
Solution.
On utilise la même idée qu’au problème précédent. On ajuste les calculs avec Sage en vertu des remarques de l’exemple 3.3.27.
On peut donc écrire
\begin{equation*} (x,y,z)=\frac{(x+y+2z)}{3}(1,0,1)+\frac{-x+2y+z}{3}(-1,1,0)+\frac{-x-y+z}{3}(-1,-1,1)\text{.} \end{equation*}
En combinant les deux premiers vecteurs, on a
\begin{equation*} (x,y,z)=\frac{1}{3}(4x-5y-z,-3x+6y+3z,x-y-z)+\frac{x+y+2z}{3}(-1,-1,1) \end{equation*}
avec le vecteur \(\frac{1}{3}(4x-5y-z,-3x+6y+3z,x-y-z)\in \mathcal{L}(A)\) et le vecteur \(\frac{x+y+2z}{3}(-1,-1,1)\in \mathcal{N}(A)\text{.}\)

9.

Soit \(B=\begin{pmatrix}1& 1& 0&0\\ 0& 0&1& -1 \end{pmatrix}\text{.}\)
(a)
Décomposer n’importe quel vecteur de \(\mathbb{R}^4\) comme la somme d’un vecteur dans l’espace ligne et d’un vecteur dans l’espace nul.
Réponse.
\((x,y,z,w)=\left(\frac{1}{2} x + \frac{1}{2} y,\,\frac{1}{2} x + \frac{1}{2} y,\,\frac{1}{2} z - \frac{1}{2} w,\,-\frac{1}{2} z + \frac{1}{2} w\right) +\left(\frac{1}{2} x - \frac{1}{2} y,\,-\frac{1}{2} x + \frac{1}{2} y,\,\frac{1}{2} z + \frac{1}{2} w,\,\frac{1}{2} z + \frac{1}{2} w\right) \text{.}\)
Solution.
On se base sur l’exercice précédent. Les deux lignes de la matrice sont indépendantes. L’espace ligne étant de dimension \(2\text{,}\) l’espace nul le sera aussi. Comme la matrice est déjà sous une forme échelonnée réduite, les solutions de base peuvent s’obtenir directement afin de compléter la base requise. On pose \(\vec{v}_3=(-1,1,0,0),\vec{v}_4=(0,0,1,1)\) Avec les lignes \(\vec{v}_1=(1,1,0,0),\vec{v}_2=(0,0,1,-1)\text{,}\) on pourra écrire n’importe quel vecteur de \(\mathbb{R}^4\) comme la somme d’un vecteur de l’espace ligne et d’un vecteur de l’espace nul.
La solution à ce système est
\begin{equation*} (x,y,z,w)=\underbrace{\frac{1}{2}(x+y)\vec{v}_1+\frac{1}{2}(z-w)\vec{v}_2}_{\mathcal{L}(B)}+\underbrace{\frac{1}{2}(-x+y)\vec{v}_3+\frac{1}{2}(z+w)\vec{v}_4}_{\mathcal{N}(B)}\text{.} \end{equation*}
En combinant les vecteurs \(\vec{v}_1,\vec{v}_2\) et les vecteurs \(\vec{v}_3,\vec{v}_4\text{,}\) on obtient une décomposition de \((x,y,z,w)\) comme la somme d’un vecteur de l’espace ligne et d’un vecteur de l’espace nul.
(b)
Soit \(\vec{u}=(1,1)\text{.}\) Trouver un vecteur \(\vec{x}\) dans \(\mathcal{L}(B)\) tel que \(B\vec{x}=(1,1)\text{.}\)
Réponse.
\(\vec{x}=\left(\frac{1}{2},\frac{1}{2},\frac{1}{2},-\frac{1}{2}\right)\)
Solution.
Ceci revient à trouver quelles valeurs de \(x,y\) satisfont l’équation matricielle
\begin{equation*} B\left(x\begin{pmatrix} 1\\ 1\\ 0\\ 0\end{pmatrix}+y\begin{pmatrix} 0\\ 0\\ 1\\ -1\end{pmatrix}\right)=\begin{pmatrix} 1\\1\end{pmatrix}\text{.} \end{equation*}
En distribuant la matrice \(B\text{,}\) cela revient à trouver comment écrire le vecteur \((1,1)\) en fonction des vecteurs images de chaque ligne. Puisque \(B\vec{l}_1=\vecd{2}{0}\) et \(B\vec{l}_2=\vecd{0}{2}\text{,}\) on trouve rapidement \(x=y=\frac{1}{2}\text{.}\) Le vecteur
\begin{equation*} \vec{x}=\frac{1}{2}(1,1,0,0)+\frac{1}{2}(0,0,1,-1)=\left(\frac{1}{2},\frac{1}{2},\frac{1}{2},-\frac{1}{2}\right) \end{equation*}
est la solution cherchée.
(c)
Trouver trois vecteurs de \(\mathbb{R}^4\) différents de celui trouvé à la partie précédente pour lesquels le produit par la matrice \(B\) donne aussi \((1,1)\text{.}\)
Réponse.
\begin{align*} x_1&=\left(-\frac{1}{2},\frac{3}{2},\frac{1}{2},-\frac{1}{2}\right)\\ x_2&=\left(\frac{1}{2},\frac{1}{2},\frac{3}{2},\frac{1}{2}\right)\\ x_3&=\left(-\frac{1}{2},\frac{3}{2},\frac{3}{2},\frac{1}{2}\right)\\ x_4&=\left(-\frac{1}{2},\frac{3}{2},-\frac{1}{2},-\frac{3}{2}\right) \end{align*}
Solution.
Il suffit d’ajouter au vecteur \(\vec{x}=\left(\frac{1}{2},\frac{1}{2},\frac{1}{2},-\frac{1}{2}\right)\) n’importe quel vecteur de l’espace nul, en vertu de l’équation (5.3.1). Puisque l’espace nul est engendré par les vecteurs \(\vec{v}_3=(-1,1,0,0),\vec{v}_4=(0,0,1,1)\text{,}\) on, a par exemple,
\begin{align*} \vec{x}_1&=\left(\frac{1}{2},\frac{1}{2},\frac{1}{2},-\frac{1}{2}\right)+(-1,1,0,0)\\ &=\left(-\frac{1}{2},\frac{3}{2},\frac{1}{2},-\frac{1}{2}\right)\text{;} \end{align*}
\begin{align*} \vec{x}_2&=\left(\frac{1}{2},\frac{1}{2},\frac{1}{2},-\frac{1}{2}\right)+(0,0,1,1)\\ &=\left(\frac{1}{2},\frac{1}{2},\frac{3}{2},\frac{1}{2}\right)\text{;} \end{align*}
\begin{align*} \vec{x}_1&=\left(\frac{1}{2},\frac{1}{2},\frac{1}{2},-\frac{1}{2}\right)+(-1,1,0,0)+(0,0,1,1)\\ &=\left(-\frac{1}{2},\frac{3}{2},\frac{3}{2},\frac{1}{2}\right) \end{align*}
et
\begin{align*} \vec{x}_1&=\left(\frac{1}{2},\frac{1}{2},\frac{1}{2},-\frac{1}{2}\right)+(-1,1,0,0)-(0,0,1,1)\\ &=\left(-\frac{1}{2},\frac{3}{2},-\frac{1}{2},-\frac{3}{2}\right)\text{.} \end{align*}

10.

Soit \(A\text{,}\) une matrice \(m\times n\) et \(B\text{,}\) une matrice \(n\times p\text{.}\)
(a)
Montrer que l’espace nul de \(B\) est contenu dans l’espace nul du produit \(AB\text{,}\) c’est-à-dire \(\mathcal{N}(B)\subseteq \mathcal{N}(AB)\text{.}\)
Solution.
Soit \(\vec{x}\text{,}\) un vecteur de l’espace nul de la matrice \(B\text{.}\) On a alors \(B\vec{x}=\vec{0}\text{.}\) On doit montrer que ce vecteur est dans l’espace nul de \(AB\text{.}\) On a
\begin{align*} AB\vec{x}&=A(B\vec{x}) & \text{ par associativité du produit matriciel}\\ &=A\vec{0} \text{ par hypothèse}\\ &=\vec{0} \end{align*}
puisque le vecteur nul est toujours envoyé sur le vecteur nul.
(b)
Montrer que \(\mathcal{N}(B)=\mathcal{N}(AB)\) si \(A\) est une matrice carrée inversible.
Solution.
On sait déjà que \(\mathcal{N}(B)\subseteq \mathcal{N}(AB)\text{.}\) Si l’on montre la relation inverse, c’est-à-dire \(\mathcal{N}(B)\supseteq \mathcal{N}(AB)\text{,}\) on aura démontré le résultat. On a l’hypothèse additionnelle que \(A\) est une matrice carrée inversible.
On commence avec un vecteur \(\vec{x}\in \mathcal{N}(AB)\text{.}\) On veut montrer que ce vecteur est aussi dans l’espace nul de la matrice \(B\text{.}\) Le fait que \(\vec{x}\) soit dans l’espace nul du produit \(AB\) signifie que \(AB\vec{x}=\vec{0}\text{.}\) Puisque \(A\) est inversible, on peut alors écrire \(B\vec{x}=A^{-1}\vec{0}=\vec{0}\text{,}\) car le vecteur nul ne peut être envoyé que sur le vecteur nul par la matrice \(A\text{.}\) Ainsi, on conclut que \(\vec{x}\) est dans l’espace nul de la matrice \(B\text{.}\)
(c)
Montrer que l’espace colonne du produit \(AB\) est contenu dans l’espace colonne de \(A\text{,}\) c’est-à-dire \(\mathcal{C}(AB)\subseteq \mathcal{C}(A)\text{.}\)
Solution.
On prend un vecteur \(\vec{c}\) dans l’espace colonne de la matrice \(AB\text{.}\) On veut montrer que ce vecteur est aussi dans l’espace colonne de la matrice \(A\text{,}\) c’est-à-dire qu’il existe \(\vec{x}\in\mathbb{R}^n\) tel que \(A\vec{x}=\vec{c}\text{.}\) Si \(\vec{c}\) est dans l’espace colonne de la matrice \(AB\text{,}\) alors il existe \(\vec{y}\in \mathbb{R}^p\) pour lequel \(AB\vec{y}=\vec{c}\text{.}\) On pose \(\vec{x}=B\vec{y}\text{.}\) Alors \(\vec{x}\) est un vecteur de \(\mathbb{R}^n\text{,}\) car \(B\) est une matrice \(n\times p\text{.}\) De plus, on a l’équation \(\vec{c}=AB\vec{y}=A\vec{x}\text{,}\) ce qui montre que \(\vec{c}\in\mathcal{C}(A)\text{.}\)
(d)
Montrer que \(\mathcal{C}(AB)=\mathcal{C}(A)\) si \(B\) est une matrice carrée inversible.
Solution.
On sait déjà que \(\mathcal{C}(AB)\subseteq \mathcal{C}(A)\text{.}\) Si l’on montre la relation inverse, c’est-à-dire \(\mathcal{C}(AB)\supseteq \mathcal{C}(A)\text{,}\) on aura démontré le résultat. On a l’hypothèse additionnelle que \(B\) est une matrice carrée et inversible.
On commence avec un vecteur \(\vec{c}\in\mathcal{A}\) et l’on veut montrer que ce vecteur est aussi dans l’espace colonne du produit \(AB\text{.}\) Il existe donc \(\vec{y}\in\mathbb{R}^n\) tel que \(A\vec{y}=\vec{c}\text{.}\) On considère ce vecteur \(\vec{y}\) et l’équation \(B\vec{x}=\vec{y}\text{.}\) Puisque \(B\) est une matrice inversible, on sait qu’il existe une solution unique à cette équation. On pose \(\vec{x}=B^{-1}\vec{y}\text{.}\) On a alors
\begin{align*} AB\vec{x}&=ABB^{-1}\vec{x}\\ &=AI\vec{x}\\ &= A\vec{x}\\ &=\vec{c}\text{.} \end{align*}
Ainsi, le vecteur \(c\) est dans l’espace colonne du produit \(AB\text{.}\)

11.

Soit \(A\text{,}\) une matrice \(m\times n\) et \(B\text{,}\) une matrice \(n\times p\text{.}\) On s’intéresse maintenant au rang du produit \(AB\) en lien avec les rangs de \(A\) et de \(B\text{.}\)
(a)
Montrer que \(rg(AB)\leq rg(B)\) en utilisant les espaces fondamentaux. On note qu’on a démontré ce résultat à l’exercice
Indice.
Utiliser le résultat de l’exercice 5.3.4.10.a et la proposition 5.2.27.
Solution.
Soit \(r\text{,}\) le rang de la matrice \(B\text{.}\) Selon l’exercice 5.3.4.10.a, on a \(\mathcal{N}(B)\subseteq \mathcal{N}(AB)\text{.}\) La dimension de l’espace nul est \(p-r\text{.}\) Selon la proposition 5.2.27, on a alors \(p-r\leq \text{dim}(\mathcal{N}(AB))\text{.}\) Puisque la dimension de \(\mathcal{N}(AB)\) est égale à \(p-\mathcal{L}(AB)=p-rg(AB)\text{,}\) on a
\begin{equation*} p-r\leq p-rg(AB)\text{,} \end{equation*}
qui, en réarrangeant et en utilisant \(r=rg(B)\text{,}\) devient \(rg(AB)\leq rg(B)\text{.}\)
(b)
Montrer que si \(A\) est une matrice carrée inversible, alors \(rg(AB)=rg(B)\text{.}\)
Indice.
Utiliser l’exercice 5.3.4.10.b.
Solution.
Selon l’exercice 5.3.4.10.b, si la matrice \(A\) est inversible, alors \(\mathcal{N}(B)=\mathcal{N}(AB)\text{.}\) On a donc \(\text{dim}(\mathcal{N}(B))=\text{dim}(\mathcal{N}(AB))\text{.}\) À la manière de l’exercice précédent, on obtient \(p-rg(B)=p-rg(AB)\text{,}\) qui devient, en simplifiant, \(rg(AB)=rg(B)\text{.}\)
(c)
Montrer que \(rg(AB)\leq rg(A)\text{.}\) Conclure que \(rg(AB)\leq \min(rg(A),rg(B))\text{.}\)
Indice.
Utiliser l’exercice 5.3.4.10.c et la proposition 5.2.27.
Solution.
Soit \(r\text{,}\) le rang de la matrice \(A\text{.}\) Selon l’exercice 5.3.4.10.c, on a \(\mathcal{C}(AB)\subseteq \mathcal{C}(A)\text{.}\) Comme le rang correspond à la dimension de l’espace colonne, on obtient selon la proposition 5.2.27 \(rg(AB)\leq r=rg(A)\text{.}\) Puisque \(rg(AB)\leq rg(A)\) et \(rg(AB)\leq rg(B)\text{,}\) on doit avoir \(rg(AB)\leq \min(rg(A),rg(B))\text{.}\)
(d)
Montrer que si \(B\) est une matrice carrée inversible, alors \(rg(AB)=rg(A)\text{.}\)
Indice.
Utiliser l’exercice 5.3.4.10.d.
Solution.
Selon l’exercice 5.3.4.10.d, si la matrice \(B\) est inversible, alors \(\mathcal{C}(AB)=\mathcal{C}(A)\text{.}\) Il s’ensuit donc de cet exercice que dans ce cas, \(rg(AB)=rg(A)\text{.}\)

12.

À l’exercice 2.2.3.4, on a montré que si \(AB=O\text{,}\) alors il n’est pas nécessaire que \(A\) ou \(B\) soit la matrice nulle (contrairement aux nombres réels). Dans cet exercice, on donne une condition nécessaire et suffisante sur les matrices \(A,B\) pour avoir un produit nul.
(a)
Soit \(A,B\text{,}\) des matrices de formats appropriés. Montrer que \(AB=O\) si et seulement si \(\mathcal{C}(B)\subseteq \mathcal{N}(A)\text{.}\)
Solution.
On doit montrer les deux directions de cette double implication. On commence par montrer que si \(\mathcal{C}(B)\subseteq \mathcal{N}(A)\text{,}\) alors \(AB=O\text{.}\) Intuitivement, cela signifie que si l’image de la matrice \(B\) est inclus dans l’espace nul de la matrice \(A\text{,}\) alors le produit sera nul. En fait, ce sont seulement les colonnes de \(B\) qui doivent faire partie de l’espace nul de \(A\text{,}\) puisque le produit \(AB\) peut être vu comme une matrice dont les colonnes sont données par les produits matrice vecteur pour chaque colonne de la matrice \(B\) (voir la définition 2.2.1).
Plus concrètement, si l’on a des matrices \(A,B\) telles que \(\mathcal{C}(B)\subseteq \mathcal{N}(A)\text{,}\) alors, en vertu de la définition 2.2.1, on a
\begin{align*} AB&=\begin{pmatrix} \lvert & \lvert & \cdots & \lvert \\ A\vec{b}_1 & A\vec{b}_2 &\cdots & A\vec{b}_n \\ \lvert & \lvert & \cdots & \lvert \\ \end{pmatrix}\\ &=\begin{pmatrix} \lvert & \lvert & \cdots & \lvert \\ \vec{0} & \vec{0} &\cdots & \vec{0} \\ \lvert & \lvert & \cdots & \lvert \\ \end{pmatrix}\\ &=O\text{.} \end{align*}
À l’inverse, si l’on commence avec une matrice dont le produit \(AB=O\text{,}\) on souhaite montrer que l’espace colonne de \(B\) est inclus dans l’espace nul de \(A\text{.}\) Puisque \(O=AB=\begin{pmatrix} \lvert & \lvert & \cdots & \lvert \\ A\vec{b}_1 & A\vec{b}_2 &\cdots & A\vec{b}_n \\ \lvert & \lvert & \cdots & \lvert \\ \end{pmatrix}\text{,}\) on conclut que, pour chaque colonne du produit, on a \(A\vec{b}_j=\vec{0}\text{.}\) Cela signifie que toutes les colonnes de la matrice \(B\) sont dans l’espace nul de la matrice \(A\text{.}\) Puisque \(\mathcal{C}(B)=\vspan(\vec{b}_1,\vec{b}_2,\ldots ,\vec{b}_p)\) et que le produit matrice vecteur est linéaire, toute combinaison linéaire des colonnes de \(B\) sera aussi dans l’espace nul de \(A\text{.}\) On a donc \(\mathcal{C}(B)\subseteq \mathcal{N}(A)\text{.}\)
(b)
Si \(A,B\) sont deux matrices de taille \(3\times 3\) et de rang \(2\text{,}\) est-ce qu’il est possible que \(AB=O\text{?}\)
Réponse.
Non
Solution.
Si la matrice \(B\) est de rang \(2\text{,}\) alors son espace colonne est de dimension \(2\text{.}\) Si la matrice \(A\) est aussi de rang \(2\text{,}\) alors son espace nul est de dimension \(3-2=1\text{.}\) Comme on ne peut avoir un espace de dimension \(2\) inclus dans un espace de dimension \(1\text{,}\) on ne peut avoir \(\mathcal{C}(B)\subseteq \mathcal{N}(A)\text{,}\) qui est équivalent au produit \(AB=O\text{.}\)
(c)
Si \(A,B\) sont deux matrices de taille \(5\times 5\) et de rang \(2\text{,}\) est-ce qu’il est possible que \(AB=O\text{?}\)
Réponse.
Oui
Solution.
Si la matrice \(B\) est de rang \(2\text{,}\) alors son espace colonne est de dimension \(2\text{.}\) Si la matrice \(A\) est aussi de rang \(2\text{,}\) alors son espace nul est de dimension \(5-2=3\text{.}\) Comme on peut avoir un espace de dimension \(2\) inclus dans un espace de dimension \(3\text{,}\) il est possible que \(\mathcal{C}(B)\subseteq \mathcal{N}(A)\text{,}\) qui est équivalent au produit \(AB=O\text{.}\)
(d)
Donner deux matrices \(3\times 3\) de rang \(1\) pour lesquelles \(AB=O\text{.}\)
Réponse.
Plusieurs réponses sont possibles.
Solution.
Pour que le produit soit \(O\text{,}\) il faut que l’espace colonne de \(B\) soit inclus dans l’espace nul de la matrice \(A\text{.}\) On commence avec une matrice \(A\) de rang \(1\) arbitraire. Pour cela, il suffit que les lignes soient parallèles. On pose
\begin{equation*} A=\begin{pmatrix} 1& 1&1\\ 1& 1&1\\ 1& 1&1\\ \end{pmatrix}\text{.} \end{equation*}
Géométriquement, l’espace ligne de cette matrice est une droite de vecteur directeur \((1,1,1)\text{.}\) L’espace nul est donc un plan de vecteur normal \((1,1,1)\text{.}\) Pour que l’espace colonne de la matrice \(B\) soit inclus dans cet espace nul, il suffit de prendre comme colonne un vecteur du plan \(x+y+z=0\text{.}\) Le vecteur \((1,-1,0)\) fera l’affaire. On pose alors
\begin{equation*} \begin{pmatrix} 1&1&1\\ -1&-1&-1&\\ 0&0&0 \end{pmatrix}\text{.} \end{equation*}
On vérifie avec Sage que le produit de ces matrices donne bien la matrice nulle et qu’elles sont de rang 1.

13.

Soit \(A\text{,}\) une matrice quelconque de taille \(m\times n\text{.}\)
(a)
Montrer que \(\mathcal{N}(A^TA)=\mathcal{N}(A)\text{.}\)
Indice.
Une partie du travail est accompli par l’exercice 5.3.4.10.a, pour l’autre partie, montrer que \(A\vec{x}\) est à la fois dans \(\mathcal{C}(A)\) et \(\mathcal{N}(A^T)\text{.}\) Qu’est-ce que cela signifie?
Solution.
En vertu de l’exercice 5.3.4.10.a, on sait déjà que \(\mathcal{N}(A^TA)\supseteq\mathcal{N}(A)\text{.}\) Comme la matrice \(A\) n’est pas nécessairement carrée et inversible, on ne peut pas utiliser l’exercice 5.3.4.10.d pour conclure. Il faut montrer que si l’on a un vecteur dans \(\mathcal{N}(A^TA)\text{,}\) alors ce vecteur est aussi dans \(\mathcal{N}(A)\text{.}\)
On prend donc un vecteur \(\vec{x}\) dans \(\mathcal{N}(A^TA)\) et l’on s’intéresse au produit \(A\vec{x}\text{.}\) Par définition, le vecteur \(A\vec{x}\) est dans l’espace colonne de la matrice \(A\text{.}\) De plus, puisque \(\vec{x}\in \mathcal{N}(A^TA)\text{,}\) on a \(\vec{0}=A^TA\vec{x}=A^T(A\vec{x})\text{.}\) Ceci signifie que le vecteur \(A\vec{x}\) est dans l’espace nul de la matrice \(A^T\text{.}\) Comme l’espace nul de la matrice \(A^T\) est par définition l’espace nul gauche de la matrice \(A\text{,}\) on conclut que le vecteur \(A\vec{x}\) est à la fois dans l’espace colonne de \(A\) et dans son espace nul gauche. Puisque ces deux espaces sont orthogonaux selon le Théorème fondamental de l’algèbre linéaire, le seul vecteur qui peut être simultanément dans ces deux espaces est le vecteur nul. On a donc \(A\vec{x}=\vec{0}\text{,}\) ce qui signifie que \(\vec{x}\in\mathcal{N}(A)\text{.}\)
(b)
Montrer que \(rg(A^TA)=rg(A)\text{.}\)
Solution.
Soit \(r\text{,}\) le rang de \(A\) et \(n-r\text{,}\) la dimension de l’espace nul de \(A\text{.}\) En vertu de la partie précédente, c’est aussi la dimension de \(\mathcal{N}(A^TA)\text{.}\) On note que la matrice \(A^TA\) est de taille \(n\times n\) Selon le théorème fondamental, la dimension de l’espace ligne de la matrice \(A^TA\) sera aussi de \(r\) puisqu’on doit avoir \(\text{dim}(\mathcal{L}(A^TA))+\text{dim}(\mathcal{N}(A^TA))=n\text{.}\) Ainsi, le rang de \(A^TA\) est égal à celui de \(A\text{.}\)
(c)
Montrer que \(\mathcal{C}(A^TA)=\mathcal{C}(A^T)\text{.}\)
Solution.
Dans un premier temps, l’espace nul de la matrice \(A\) correspond à l’espace nul gauche de la transposée \(A^T\text{.}\) On a donc \((\mathcal{N}(A))^{\perp}=\mathcal{C}(A^T)\) De plus, puisque la matrice \(A^TA\) est symétrique (voir l’exercice 3.4.3.6, en particulier la deuxième partie) et que \((A^TA)^T=A^TA\text{,}\) on a que l’espace nul gauche et l’espace nul de \(A^TA\) sont égaux. Cela entraine que \(\mathcal{L}(A^TA)=\mathcal{C}(A^TA)\text{.}\) Selon la première partie de cet exercice, \(\mathcal{N}(A^TA)=\mathcal{N}(A)\text{,}\) ce qui entraine par le théorème fondamental que \(\mathcal{L}(A^TA)=\mathcal{L}(A)\text{.}\) En vertu des remarques précédentes, on a
\begin{align*} \mathcal{C}(A^TA)&=(\mathcal{L}(A^TA))\\ &=(\mathcal{L}(A))\\ &=(\mathcal{C}(A^T)) &\text{ par définition}\text{.} \end{align*}

14.

On considère une matrice carrée \(A\) de taille \(n\times n\) telle que \(A^2=A\text{.}\)
(a)
Montrer que \(\mathcal{C}(A)=\{\vec{v}\in\mathbb{R}^n~|~ A\vec{v}=\vec{v}\}\text{.}\)
Solution.
Par définition, l’espace colonne est l’ensemble des vecteurs \(\vec{v}\in\mathbb{R}^n\) pour lesquels il existe un vecteur \(\vec{u}\in\mathbb{R}^n\) tel que
\begin{equation*} A\vec{u}=\vec{v}\text{.} \end{equation*}
En multipliant chaque côté de cette équation par \(A\text{,}\) on trouve \(A^2\vec{u}=A\vec{v}\text{,}\) mais comme \(A^2=A\text{,}\) l’équation devient \(A\vec{u}=A\vec{v}\text{.}\) Puisque \(A\vec{u}=\vec{v}\) par hypothèse, on a \(\vec{v}=A\vec{v}\text{.}\) Tous les vecteurs dans l’espace colonne doivent donc satisfaire cette propriété.
(b)
Montrer que \(\mathcal{N}(A)=\mathcal{C}(I-A)\text{.}\)
Solution.
On montre l’égalité entre ces deux ensembles en utilisant un argument d’inclusion. D’une part, si \(\vec{v}\in \mathcal{N}(A)\text{,}\) alors \(A\vec{v}=\vec{0}\text{.}\) On a
\begin{align*} (I-A)\vec{v}&=I\vec{v}-A\vec{v}\\ &=\vec{v}-\vec{0}\\ &=\vec{v}\text{.} \end{align*}
Donc \(\vec{v}\) est bien l’image d’un vecteur par la matrice \(I-A\) et ainsi, \(\mathcal{N}(A)\subseteq\mathcal{C}(I-A)\text{.}\)
D’un autre côté, si \(\vec{v}\in\mathcal{C}(I-A)\text{,}\) alors il existe \(\vec{u}\in\mathbb{R}^n\) pour lequel \((I-A)\vec{u}=\vec{v}\text{.}\) On a
\begin{align*} A\vec{v}&=A(I-A)\vec{u}\\ &=(A-A^2)\vec{u}\\ &=(A-A)\vec{u}&&\text{ car } A^2=A\\ &=O\vec{u}\\ &=\vec{0}\text{.} \end{align*}
On a donc \(\mathcal{C}(I-A)\subseteq \mathcal{N}(A)\) et en combinant les deux arguments, on obtient l’égalité.
(c)
Montrer que \(\mathcal{N}(A)\cap\mathcal{C}(A)=\{\vec{0}\}\text{.}\)
Solution.
Soit \(\vec{v}\in\mathcal{N}(A)\cap\mathcal{C}(A)\text{.}\) Alors par la première partie de cet exercice, \(A\vec{v}=\vec{v}\) et comme \(\vec{v}\) est dans l’espace nul, on a \(A\vec{v}=\vec{0}\text{.}\) On obtient alors \(\vec{0}=\vec{v}\text{.}\)
(d)
Montrer que tout vecteur dans \(\mathbb{R}^n\) peut s’écrire comme la somme d’un vecteur dans \(\mathcal{N}(A)\) et d’un vecteur dans \(\mathcal{C}(A)\text{.}\)
Solution.
Soit \(\vec{u}\text{,}\) un vecteur quelconque de \(\mathbb{R}^n\text{.}\) On peut toujours écrire
\begin{equation*} \vec{u}=\vec{u}-A\vec{u}+A\vec{u}\text{.} \end{equation*}
On pose \(\vec{v}=\vec{u}-A\vec{u}\) et \(\vec{w}=A\vec{u}\text{.}\) Selon la partie 5.3.4.14.b, le vecteur \(\vec{v}\) est dans l’espace nul de \(A\text{,}\) car il est dans l’espace colonne de \(I-A\text{.}\) De plus, comme \(A\vec{w}=A^2\vec{u}=A\vec{u}=\vec{w}\text{,}\) ce vecteur est dans l’espace colonne de \(A\text{.}\) On a donc décomposé tout vecteur comme la somme d’un vecteur de l’espace nul et d’un vecteur de l’espace colonne.

15.

Montrer que le vecteur \(\vec{x}_0\) de la proposition 5.3.18 est unique.
Solution.
Soit \(\vec{x}_0,\vec{x}_1\text{,}\) deux vecteurs de l’espace ligne tels que \(A\vec{x}_0=\vec{b}\) et \(A\vec{x}_1=\vec{b}\text{.}\) Alors, puisque \(\mathcal{L}(A)\) est un sous-espace vectoriel, le vecteur \(\vec{x}_1-\vec{x}_0\) est aussi dans l’espace ligne. D’un autre côté, on a \(A(\vec{x}_1-\vec{x}_0)=A\vec{x}_1-A\vec{x}_0=\vec{b}-\vec{b}=\vec{0}\text{.}\) Le vecteur \(\vec{x}_1-\vec{x}_0\) est donc aussi dans l’espace nul. Le seul vecteur qui puisse être à la fois dans l’espace nul et dans l’espace ligne est le vecteur nul. Ainsi \(\vec{x}_1-\vec{x}_0=\vec{0}\text{,}\) ce qui entraine l’égalité entre \(\vec{x}_0\) et \(\vec{x}_1\text{.}\)

16.

Dans cet exercice, on s’intéresse à la situation où la transposée est l’inverse. Ce type de matrice sera l’objet central du chapitre [provisional cross-reference: chap-orthogonal].
(a)
Soit \(A\text{,}\) une matrice \(m\times n\) telle que \(A^TA=I_n\text{.}\) Montrer que les colonnes de \(A\) sont des vecteurs deux à deux orthogonaux et de norme \(1\text{.}\)
Solution.
On interprète le produit \(A^TA\) comme une série de produits scalaires. L’entrée en position \(i,j\) du produit est donnée par le produit scalaire de la ligne \(i\) de la matrice \(A^T\) et de la colonne \(j\) de la matrice \(A\text{.}\) Comme le produit de ces deux matrices est l’identité, on déduit que si \(i\neq j\text{,}\) le produit est \(0\text{.}\) De plus, comme la ligne \(i\) de \(A^T\) est aussi la colonne \(i\) de la matrice \(A\text{,}\) on conclut que les colonnes sont orthogonales, leur produit scalaire donnant \(0\text{.}\) Lorsque \(i=j\text{,}\) on se retrouve avec le produit scalaire d’une colonne avec elle-même, ce qui donne la norme du vecteur élevée au carré. Comme le résultat est l’entrée \(1\) de la matrice identité, on obtient que la norme des colonnes est \(1\text{.}\)
(b)
Soit \(A\text{,}\) une matrice \(m\times n\) telle que ses colonnes sont un ensemble de vecteurs deux à deux orthogonaux. Montrer que \(A^TA=I_n\text{.}\)
Solution.
Il suffit de faire le calcul inverse de la preuve précédente. On interprète le calcul de \(A^TA\) comme une série de produits scalaires. Si l’on cherche l’entrée en position \(i,j\text{,}\) alors on fait le produit scalaire de la ligne \(i\) de \(A^T\) avec la ligne \(j\) de \(A\text{.}\) Puisqu’une ligne de \(A^T\) est aussi une colonne de \(A\text{,}\) on obtient que si \(i\neq j\text{,}\) alors le produit scalaire est nul et si \(i=j\text{,}\) alors le produit scalaire donne \(1\text{,}\) puisque par hypothèse, les vecteurs sont unitaires.
(c)
Énoncer une condition sur \(A\) pour que \(AA^T=I_m\text{.}\)
Solution.
Une matrice \(A\) est telle que \(AA^T=I\) si et seulement si ses lignes sont des vecteurs deux à deux orthogonaux et unitaires. Il suffit d’échanger le rôle de \(A\) et \(A^T\) dans les parties précédentes.
Des matrices qui ont cette propriété sont dites orthogonales. Elles sont la généralisation des rotations et réflexions dans \(\mathbb{R}^n\text{.}\)

17.

Dans cet exercice, on donne deux formules pratiques pour obtenir un inverse à gauche ou un inverse à droite, selon ce qui est prescrit par la proposition 5.3.19.
(a)
Soit \(A\text{,}\) une matrice quelconque de taille \(m\times n\text{.}\) Montrer que si \(A\) est de rang \(m\text{,}\) alors la matrice \(A^TA\) est inversible.
Indice.
Utiliser l’exercice 5.3.4.13.b.
Solution.
Selon l’exercice 5.3.4.13.b, le rang de la matrice \(A^TA\) est égal au rang de la matrice \(A\text{,}\) soit \(m\text{.}\) Puisque la matrice \(A^TA\) est de taille \(m\times m\text{,}\) le théorème de la matrice inverse 5.3.17 implique qu’elle est inversible.
(b)
Soit \(A\text{,}\) une matrice quelconque de taille \(m\times n\text{.}\) Montrer que si \(A\) est de rang \(n\text{,}\) alors la matrice \(AA^T\) est inversible.
Indice.
Utiliser l’exercice 5.3.4.13.b en interchangeant les rôles de \(A\) et \(A^T\text{.}\)
Solution.
On sait que \(A\) et \(A^T\) ont le même rang. Selon l’exercice 5.3.4.13.b, le rang de la matrice \(AA^T\) est égal au rang de la matrice \(A^T\text{,}\) soit \(n\text{.}\) Puisque la matrice \(AA^T\) est de taille \(n\times n\text{,}\) le théorème de la matrice inverse 5.3.17 implique qu’elle est inversible.
(c)
Expliquer pourquoi on ne peut toutefois pas écrire \((A^TA)^{-1}=A^{-1}(A^T)^{-1}\) ou \((AA^T)^{-1}=(A^T)^{-1}A^{-1}\text{.}\)
Indice.
Quelles sont les dimensions de la matrice \(A\text{?}\)
Solution.
La proposition 2.3.18 stipule que le produit de deux matrices carrées est inversible si et seulement si chacune des matrices l’est. Toutefois ici, la matrice \(A\) et sa transposée ne sont peut-être pas carrées. Dans ce cas, les matrices \(A^{-1}\) et \((A^T)^{-1}\) ne sont même pas définies.
(d)
Si \(A\) est une matrice de taille \(m\times n\) et de rang \(m\text{,}\) montrer que \(A^{-1}_{\text{droite}}=A^T(AA^T)^{-1}\) est un inverse à droite.
Solution.
Il suffit de calculer le produit \(AA^{-1}_{\text{droite}}\text{:}\)
\begin{align*} AA^{-1}_{\text{droite}}&=AA^T(AA^T)^{-1}\\ &=(AA^T)(AA^T)^{-1}& \text{ par associativité}\\ &=I\text{.} \end{align*}
(e)
Si \(A\) est une matrice de taille \(m\times n\) et de rang \(n\text{,}\) montrer que \(A^{-1}_{\text{gauche}}=(A^TA)^{-1}A^T\) est un inverse à gauche.
Solution.
Il suffit de calculer le produit \((A^TA)^{-1}A^T A\text{:}\)
\begin{align*} A^{-1}_{\text{gauche}}A&=(A^TA)^{-1}A^T A\\ &=(A^TA)^{-1}(A^T A)& \text{ par associativité}\\ &=I\text{.} \end{align*}

Exercices Sage.

Les exercices qui suivent sont conçus pour être résolus avec Sage. Des cellules vides sont disponibles pour écrire les réponses. Évidemment, il y a plusieurs manières d’arriver aux réponses.
18.
Pour déterminer une base de l’espace colonne, la proposition 5.3.4 dit qu’on doit prendre les colonnes de la matrice initiale qui correspondent aux positions pivots de sa forme échelonnée réduite. À l’exemple 3.4.12, on a utilisé la commande A.column_space().basis() pour obtenir une base de l’espace colonne de la matrice \(A\text{,}\) mais ce n’est pas la base donnée par la proposition 5.3.4. On peut construire une fonction qui retourne cette base grâce à la fonction A.pivots() qui retourne la position des colonnes pivots (si l’on avait voulu les lignes pivots, on aurait utilisé la commande A.pivots_rows()).
Construire une fonction colbase qui prend comme entrée une matrice et retourne la base de son espace colonne telle que donnée par la proposition 5.3.4. Tester avec les matrices de l’exercice 5.3.4.1.
Solution.
def colbase(A):
    L=A.pivots()
    B=[]
    for i in L:
        B.append(A.column(i))
    return B
Bloc de code 5.3.21. La solution pour l’exercice
19.
En utilisant les formules de l’exercice 5.3.4.17, déterminer un inverse à gauche ou un inverse à droite des matrices suivantes. Dans le cas d’une matrice carrée, calculer les deux inverses et vérifier qu’ils correspondent à l’inverse traditionnel. Toutes les matrices sont de rang maximal.
(a)
\(A=\begin{pmatrix} 5 & 2 & -2 & 1 & 1 \\ 1 & 1 & 0 & 2 & 0 \\ -1 & -1 & 0 & -11 & -1 \end{pmatrix}\)
Réponse.
\(A^{-1}_{\text{droite}}=\begin{pmatrix} \frac{47}{313} & \frac{5}{939} & \frac{5}{313} \\ -\frac{37}{313} & \frac{995}{939} & \frac{56}{313} \\ -\frac{56}{313} & \frac{220}{313} & \frac{34}{313} \\ -\frac{5}{313} & -\frac{61}{1878} & -\frac{61}{626} \\ \frac{45}{313} & -\frac{443}{626} & -\frac{77}{626} \end{pmatrix}\)
Solution.
Puisque \(m\leq n\text{,}\) la matrice ne peut posséder qu’un inverse à droite.
(b)
\(B=\begin{pmatrix} 5 & -1 & 2 \\ 8 & -1 & 0 \\ -1 & 13 & 3 \\ 0 & -1 & -1 \\ -5 & 1 & 1 \\ -16 & -5 & 1 \end{pmatrix}\)
Réponse.
\(B^{-1}_{gauche}=\begin{pmatrix} \frac{5049}{155645} & \frac{4339}{155645} & -\frac{2539}{311290} & -\frac{227}{44470} & -\frac{3441}{311290} & -\frac{10727}{311290} \\ -\frac{276}{4447} & -\frac{113}{4447} & \frac{257}{4447} & \frac{54}{4447} & -\frac{9}{4447} & -\frac{156}{4447} \\ \frac{6343}{22235} & \frac{1743}{22235} & \frac{5119}{88940} & -\frac{8251}{88940} & \frac{5081}{88940} & \frac{9507}{88940} \end{pmatrix}\)
Solution.
Cette fois, \(n\leq m\) et la matrice ne peut posséder qu’un inverse à gauche.
(c)
\(C=\begin{pmatrix} 5 & 4 \\ -1 & 1 \end{pmatrix}\)
Réponse.
\(C^{-1}_{\text{gauche}}=C^{-1}_{\text{droite}}=C^{-1}=\begin{pmatrix} \frac{1}{9} & -\frac{4}{9} \\ \frac{1}{9} & \frac{5}{9} \end{pmatrix}\)
Solution.
La matrice est carrée et, par hypothèse du problème de rang 2, donc inversible. On calcule les inverses à gauche, à droite et au sens usuel du terme et l’on vérifie que les trois sont égaux.
(d)
\(D=\begin{pmatrix} 0 & 0 & -41 & -11 & -32 & -3 \\ 0 & 0 & -1 & -3 & -1 & -1 \\ -2 & 1 & 1 & 0 & 2 & 27 \end{pmatrix}\)
Réponse.
\(D^{-1}_{\text{droite}}=\begin{pmatrix} \frac{2076}{14610509} & -\frac{129552}{14610509} & -\frac{44278}{14610509} \\ -\frac{1038}{14610509} & \frac{64776}{14610509} & \frac{22139}{14610509} \\ -\frac{252755}{14610509} & \frac{1078118}{14610509} & -\frac{79}{14610509} \\ \frac{137265}{14610509} & -\frac{5356726}{14610509} & -\frac{182910}{14610509} \\ -\frac{182081}{14610509} & \frac{468155}{14610509} & \frac{12718}{14610509} \\ \frac{23041}{14610509} & -\frac{86604}{14610509} & \frac{536091}{14610509} \end{pmatrix}\)
Solution.
Puisque \(m\leq n\text{,}\) la matrice ne peut posséder qu’un inverse à droite.
(e)
\(E=\begin{pmatrix} 3 & 1 & -1 \\ -1 & 2 & -1 \\ 2 & -1 & 20 \\ 8 & -2 & -2 \\ -8 & -1 & 3 \\ 0 & -3 & -1 \end{pmatrix}\)
Réponse.
\(E^{-1}_{\text{gauche}}=\begin{pmatrix} \frac{13724}{547859} & -\frac{303}{547859} & \frac{8178}{547859} & \frac{27843}{547859} & -\frac{66821}{1095718} & -\frac{889}{84286} \\ \frac{33849}{547859} & \frac{55819}{547859} & \frac{1408}{547859} & -\frac{46656}{547859} & -\frac{40588}{547859} & -\frac{6920}{42143} \\ \frac{295}{547859} & \frac{1231}{547859} & \frac{26443}{547859} & -\frac{4631}{547859} & \frac{3873}{1095718} & -\frac{839}{84286} \end{pmatrix}\)
Solution.
Puisque \(n\leq m\text{,}\) la matrice ne peut posséder qu’un inverse à gauche.
20.
Créer une fonction qui prend comme argument une matrice. La fonction retourne
  1. Son inverse à gauche telle que donnée par la formule de l’exercice 5.3.4.17 s’il existe, ainsi que la mention “c’est un inverse à gauche”;
  2. Son inverse à droite telle que donnée par la formule de l’exercice 5.3.4.17 s’il existe, ainsi que la mention “c’est un inverse à droite”;
  3. Son inverse si la matrice est carrée et inversible;
  4. La chaine de caractère La matrice ne possède pas d'inverse dans les autres cas.
Solution.
def matinverse(A):
    m=len(A.rows())
    n=len(A.columns())
    r=A.rank()
    if r!=min(m,n):
        print("La matrice ne possède pas d'inverse")
    elif m==n:
        print("La matrice est inversible")
        return A.inverse()
    elif m<n:
        print("C'est un inverse à droite")
        AT=A.transpose()
        AATinv=(A*AT).inverse()
        return AT*AATinv
    elif n<m:
        print("C'est un inverse à gauche")
        AT=A.transpose()
        ATAinv=(AT*A).inverse()
        return ATAinv*AT
Bloc de code 5.3.22. Le code solution de l’exercice