Sauter au contenu
Logo image

Algèbre linéaire: Intuition et rigueur

Section 3.4 La transposée d’une matrice

Aller aux exercices 3.4.3 de la section.
Dans la section 3.3, on a vu une proposition 3.3.17 avançant que les lignes d’une matrice \(A\) sont perpendiculaires aux zéros de la transformation linéaire associée à \(A\text{.}\) On peut se demander si les colonnes d’une matrice sont aussi perpendiculaires à un ensemble de vecteurs spécifiques.
Dans cette section, on introduit la notion de matrice transposée. On y définit aussi les quatre (sous) espaces dits fondamentaux en lien avec une matrice, soit l’espace ligne, l’espace colonne, l’espace nul et l’espace nul gauche.

Sous-section 3.4.1 La transposée d’une matrice

Pour répondre à la question en introduction, on s’imagine que les colonnes de la matrice sont les lignes d’une autre matrice. Alors ces colonnes sont perpendiculaires aux zéros de cette nouvelle transformation linéaire. Ceci motive la définition suivante.

Définition 3.4.1.

Soit \(A=\begin{pmatrix} a_{1\, 1}&a_{1\, 2}&\cdots & a_{1\, n}\\ a_{2\, 1}&a_{2\, 2}&\cdots & a_{2\, n}\\ \vdots & \vdots & \ddots & \vdots \\ a_{m\, 1}&a_{m\, 2}&\cdots & a_{m\, n}\\ \end{pmatrix}\text{,}\) une matrice de taille \(m\times n\text{.}\) La transposée de la matrice \(A\text{,}\) notée \(A^T\text{,}\) est la matrice
\begin{equation*} A^T=\begin{pmatrix} a_{1\, 1}&a_{2\, 1}&\cdots & a_{m\, 1}\\ a_{1\, 2}&a_{2\, 2}&\cdots & a_{m\, 2}\\ \vdots & \vdots & \ddots & \vdots \\ a_{1\, n}&a_{2\, n}&\cdots & a_{m\, n}\\ \end{pmatrix} \end{equation*}
où les lignes sont devenues des colonnes et les colonnes sont devenues des lignes. On a donc
\begin{equation*} (a^T_{i\, j})=a_{j\, i}\text{.} \end{equation*}
On regarde quelques exemples de matrices et de leur transposée.

Exemple 3.4.2. La transposée de certaines matrices.

Soit
  1. \(\displaystyle A=\matcold{1}{2}{-1}{1}\)
  2. \(\displaystyle B=\matcolt{1}{4}{0}{-1}{1}{-2}{3}{5}{6}\)
  3. \(C=\begin{pmatrix} 1 &2 \\ 3& 4\\ 5 & 6 \\ 7& 8\\ 9& 0 \end{pmatrix}\text{.}\)
On cherche la transposée de ces matrices.
Solution 1.
On procède en convertissant les colonnes en lignes. Soit \(\vec{a}_1=\vecd{1}{2}\) et \(\vec{a}_2=\vecd{-1}{1}\text{.}\) On a alors
\begin{equation*} A=\begin{pmatrix} \lvert& \lvert \\ \vec{a}_1 & \vec{a}_2 \\ \lvert& \lvert \end{pmatrix}\text{.} \end{equation*}
La matrice transposée est la matrice
\begin{align*} A^T&=\begin{pmatrix}\rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{a}_1 & \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm}\\ \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{a}_2 & \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm}\end{pmatrix}\\ &=\matcold{1}{-1}{2}{1} \text{.} \end{align*}
Solution 2.
Cette fois, on convertit les lignes en colonnes. Soit \(\vec{b}_1=(1,-1,3)\text{,}\) \(\vec{b}_2=(4,1,5)\) et \(\vec{b}_3=(0,-2,6)\text{.}\) On a alors
\begin{equation*} B=\begin{pmatrix}\rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{b}_1 & \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm}\\ \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{b}_2 & \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm}\\ \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{b}_3 & \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm}\end{pmatrix}\text{.} \end{equation*}
La matrice transposée est la matrice
\begin{align*} B^T&=\begin{pmatrix} \lvert& \lvert & \lvert \\ \vec{b}_1 & \vec{b}_2 & \vec{b}_3\\ \lvert& \lvert & \lvert \end{pmatrix}\\ &=\matcolt{1}{-1}{3}{4}{1}{5}{0}{-2}{6}\text{.} \end{align*}
Solution 3.
Qu’on transforme les lignes en colonnes ou les colonnes en lignes, le résultat sera le même. Tant que la correspondance \(\vec{l}_i\leftrightarrow \vec{c}_i\) est respectée, soit que la ligne \(i\) devienne la colonne \(i\) et vice-versa, on obtient la transposée. Pour la matrice \(C\text{,}\) la transposée est
\begin{equation*} C^T=\begin{pmatrix} 1& 3& 5&7&9 \\ 2& 4& 6&8&0 \end{pmatrix}\text{.} \end{equation*}
La transposée possède les propriétés suivantes.

Démonstration.

Les lignes de \(A^T\) sont les colonnes de \(A\text{.}\) Si l’on transpose à nouveau, ces lignes redeviendront des colonnes. On aura alors la matrice \(A\text{.}\)

Démonstration.

Selon la définition 2.1.34 du produit d’une matrice par un scalaire, chaque entrée de la matrice \(A\) est multipliée par \(k\text{.}\) Lorsqu’on transpose, on peut mettre en évidence le nombre \(k\) de chaque entrée de la matrice pour retrouver \(cA^T\text{.}\)

Démonstration.

De manière similaire, la somme de deux matrices se fait entrée par entrée avec les entrées correspondantes. Que l’on transpose avant ou après la somme ne change pas le résultat final.

Démonstration.

D’abord, une analyse des dimensions. Le produit \(AC\) est le produit d’une matrice \(m\times n\) par une matrice \(n\times p\text{.}\) Le résultat sera donc une matrice \(m\times p\text{.}\) Une fois transposée, on aura une matrice \(p\times m\text{.}\) De l’autre côté, les matrices \(C^T\) et \(A^T\) sont respectivement des matrices de taille \(p\times n\) et \(n\times m\text{.}\) Leur produit sera donc lui aussi de taille \(p\times m\text{.}\)
On note par \(\vec{a}_j\) les lignes de la matrice \(A\) et par \(\vec{c}_i\) les colonnes de la matrice \(C\text{.}\) Selon la définition 2.2.1 du produit matriciel, la matrice \((AC)^T\) s’écrit
\begin{align*} (AC)^T&=\begin{pmatrix} \lvert & \lvert & \cdots & \lvert \\ A\vec{c}_1 & A\vec{c}_2 &\cdots & A\vec{c}_p \\ \lvert & \lvert & \cdots & \lvert \\ \end{pmatrix}^T\\ &=\begin{pmatrix}\rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & A\vec{c}_1 & \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} \\ \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & A\vec{c}_2 & \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} \\ & \vdots & \\ \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & A\vec{c}_p & \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} \end{pmatrix}\text{.} \end{align*}
Ainsi, l’entrée en position \(i,j\) de la matrice \((AC)^T\) est donnée par le produit scalaire des vecteurs \(\vec{a}_j\) et \(\vec{c}_i\text{,}\) c’est-à-dire \((AC)^T_{i\,j}=\vec{a}_j\cdot \vec{c}_i\text{.}\)
De l’autre côté, la matrice \(C^TA^T\) s’écrit
\begin{equation*} C^TA^T=\begin{pmatrix} \lvert & \lvert & \cdots & \lvert \\ C^T\vec{a}_1 & C^T\vec{a}_2 &\cdots & C^T\vec{a}_m \\ \lvert & \lvert & \cdots & \lvert \\ \end{pmatrix}\text{,} \end{equation*}
car les colonnes de \(A^T\) sont les lignes de la matrice \(A\text{.}\) De plus, comme les lignes de \(C^T\) sont les colonnes de \(C\text{,}\) on sait que l’entrée en position \(i, j\) de la matrice \(C^TA^t\) est égale au produit scalaire entre les vecteurs \(\vec{c}_i\) et \(\vec{a}_j\text{,}\) c’est-à-dire \((C^TA^T)_{i\, j}= \vec{c}_i\cdot \vec{a}_j\text{.}\) Comme le produit scalaire est commutatif, l’égalité est démontrée.

Démonstration.

D’abord, on remarque que \(I^T=I\) si \(I\) est la matrice identité. Puisque \(A\) est inversible, on a \(AA{-1}=I\text{.}\) En transposant cette égalité, on obtient \((AA^{-1})^T=I\) et en utilisant la propriété \((AC)^T=C^TA^T\text{,}\) on obtient que \((A^{-1})^TA^T=I\text{.}\) La matrice \(A^T\) est donc inversible et, comme l’inverse d’une matrice est unique, on a
\begin{equation*} (A^{-1})^T=(A^T)^{-1}\text{.} \end{equation*}
Il faut attendre encore un peu avant de voir l’utilité géométrique de la matrice transposée. On peut toutefois donner un aperçu de la section [provisional cross-reference: Section sur les projections] avec l’exemple suivant.

Exemple 3.4.4. La projection orthogonale.

À l’exercice 3.2.3.16, on avait introduit la notion de transposée, mais avec les vecteurs. En considérant par défaut un vecteur \(\vec{u}\) comme étant debout
 1 
Bien qu’on les écrive souvent couchés, on préfère considérer les vecteurs comme des colonnes essentiellement à cause du produit matrice vecteur représentant l’image du vecteur par la transformation linéaire.
, on note par \(v^T\) la matrice \(1\times n\) qui consiste en ce vecteur \(\vec{v}\) couché.
En particulier, on a étudié la transformation \(uv^T\) et constaté que le rang de cette transformation était égal à \(1\text{.}\) On s’intéresse au cas où \(\vec{u}=\vec{v}\) et à la transformation associée à la matrice \(\vec{u}\vec{u}^T\text{.}\)
Solution.
On pose \(A=\vec{u}\vec{u}^T\text{.}\) On a
\begin{align*} A\vec{x}&=(\vec{u}\vec{u}^T)\vec{x}\\ &=\vec{u}(\vec{u}^T\vec{x}) & &\text{En voyant les vecteurs comme des matrices, on utilise l'associativité}\\ &=\vec{u}(\pscal{u}{x}) & & \text{selon l'exercice }\knowl{./knowl/xref/exo-vectranspose.html}{\text{3.2.3.16}}\\ &=(\pscal{u}{x}) \vec{u} && \text{selon la propriété} \knowl{./knowl/xref/li-propprodscal-multscal.html}{\text{1.2.7:2}}\text{.} \end{align*}
La dernière ligne rappelle la projection orthogonale (1.2.5) du vecteur \(\vec{x}\) sur le vecteur \(\vec{u}\text{.}\) Il manque cependant la division par \(\vec{u}\cdot \vec{u}=\norm{\vec{u}}^2\text{.}\) Si, toutefois, \(\vec{u}\) est unitaire, alors la matrice \(A\vec{x}=(\vec{u}\vec{u}^T)\vec{x}=\text{proj}_{\vec{u}}(\vec{x})=\vec{x}_{\vec{u}}\text{.}\) Dans le cas général, on ajuste la formule pour avoir
\begin{equation} \text{proj}_{\vec{u}} (\vec{x})= \frac{\vec{u}\vec{u}^T}{\norm{\vec{u}}^2} \vec{x}\text{.}\tag{3.4.1} \end{equation}
Une formule semblable à celle-ci apparaitra dans la section [provisional cross-reference: section sur les projections].
L’exemple 3.4.4 motive la définition suivante.

Définition 3.4.5. La matrice d’une projection orthogonale.

Soit \(\vec{u}\text{,}\) un vecteur quelconque et soit \(\hat{u}\text{,}\) un vecteur unitaire dans la même direction que \(\vec{u}\text{.}\) La projection orthogonale sur \(\vec{u}\) peut être représentée par la matrice
\begin{equation} P_{\vec{u}}=\hat{u}\hat{u}^T\text{.}\tag{3.4.2} \end{equation}
On appelle la matrice de l’équation (3.4.2) la matrice standard de la projection.
On termine avec des commandes Sage en lien avec la sous-section.

Calcul 3.4.6. La transposée sur Sage.

Évidemment, Sage possède une fonction pour obtenir la transposée d’une matrice. La commande A.transpose() permet d’obtenir la matrice \(A^T\text{.}\) La commande s’utilise aussi sous la forme transpose(A).
Pour utiliser la forme transposée d’un vecteur, il faut d’abord le redéfinir comme une matrice.

Sous-section 3.4.2 Quatre ensembles particuliers de vecteurs

Dans la section 3.3, on a défini les zéros et l’image d’une transformation linéaire. On a aussi remarqué que les lignes de la matrice sont toujours perpendiculaires aux zéros de la transformation linéaire. On commence cette sous-section en cherchant un ensemble de vecteurs qui seraient perpendiculaires aux colonnes d’une matrice, si un tel ensemble existe.
L’idée est de passer par la transposée. Comme les colonnes de la matrice \(A\) deviennent des lignes dans la matrice \(A^T\text{,}\) il semble que celles-ci devraient être perpendiculaires aux zéros de la transformation linéaire associée à la matrice \(A^T\text{.}\)

Exemple 3.4.7. La relation entre les lignes, colonnes et zéros d’une matrice.

Soit \(A=\begin{pmatrix} 1& 1& -1\\ 4& 4 &-4 \end{pmatrix}\text{,}\) une matrice. On pose \(\vec{l}_1\text{,}\)\(\vec{l}_2\text{,}\) respectivement les lignes de la matrice \(A\text{,}\) et \(\vec{c}_1\text{,}\)\(\vec{c}_2\) et \(\vec{c}_3\text{,}\) respectivement les colonnes de la matrice \(A\text{.}\) On cherche tous les vecteurs qui sont perpendiculaires à la fois à \(\vec{l}_1\) et \(\vec{l}_2\) et tous les vecteurs qui sont perpendiculaires à la fois à \(\vec{c}_1\text{,}\)\(\vec{c}_2\) et \(\vec{c}_3\text{.}\)
Solution.
On sait que les lignes sont perpendiculaires aux zéros de la matrice \(A\text{.}\) Il suffit donc de trouver les solutions de base à l’équation \(A\vec{x}=\vec{0}\) et de prendre toutes les combinaisons linéaires de ceux-ci. On utilise Sage pour faire les calculs.
La première variable est pivot et les deux autres sont libres. On a donc deux solutions de base qui sont
\begin{align*} \vec{s}_1&=\vecddd{-1}{1}{0}\\ \vec{s}_2&=\vecddd{1}{0}{1}\text{.} \end{align*}
Tout vecteur s’écrivant sous la forme \(a\vec{s}_1+b\vec{s}_2\) est donc perpendiculaire aux lignes de la matrice \(A\text{.}\) Pour les colonnes, on regarde les solutions de base à l’équation \(A^T\vec{x}=\vec{0}\text{.}\)
La première variable est pivot et la seconde est libre. Il y a donc une solution de base qui est
\begin{equation*} \vec{r}=\vecd{-4}{1}\text{.} \end{equation*}
Tout vecteur s’écrivant comme un multiple de \(\vec{r}\) est donc perpendiculaire aux lignes de la matrice \(A^T\) et par conséquent, aux colonnes de \(A\text{.}\)
On définit maintenant quatre sous-espaces associés à la matrice \(A\text{.}\) Pour l’instant, on peut interpréter le mot sous-espace comme désignant des sous-ensembles de \(\R^m\) et \(\R^n\text{.}\) Dans le chapitre [provisional cross-reference: chapitre espace vectoriel], on formalisera ces notions.

Définition 3.4.8. Les sous-espaces fondamentaux d’une matrice.

Soit \(A\text{,}\) une matrice de taille \(m\times n\text{.}\) On définit
L’espace nul
L’espace nul est formé de l’ensemble de tous les vecteurs qui satisfont l’équation \(A\vec{x}=\vec{0}\text{.}\) Ces vecteurs sont les zéros de la transformation associée à \(A\text{.}\) C’est un sous-espace de \(\R^n\text{.}\) Il est formé de toutes les combinaisons linéaires des solutions de base de la matrice \(A\) et du vecteur nul. On le note \(\mathcal{N}(A)\text{.}\)
On appelle parfois l’espace nul le noyau (en anglais, on dit « kernel »).
L’espace colonne
L’espace colonne est formé de l’ensemble des combinaisons linéaires des colonnes de la matrice \(A\text{.}\) C’est un sous-espace de \(\R^m\text{.}\) On le note \(\mathcal{C}(A)\text{.}\)
L’espace ligne
L’espace ligne est formé par les combinaisons linéaires des lignes de la matrice \(A\text{.}\) Il correspond à l’espace colonne de la matrice \(A^T\text{.}\) C’est donc l’ensemble des vecteurs dans l’image de la transformation associée à la transposée de la matrice \(A\text{.}\) C’est un sous-espace de \(R^n\text{.}\) On le note \(\mathcal{L}(A)\) ou \(\mathcal{C}(A^T)\text{.}\)
L’espace nul gauche
L’espace nul gauche est simplement l’espace nul de la transposée. On le note \(\mathcal{N}(A^T)\text{.}\) C’est un sous-espace de \(R^m\text{.}\)
Géométriquement, on a dit que l’espace nul correspond aux zéros de la transformation linéaire. L’espace colonne, lui, correspond aux vecteurs dans l’image qui sont atteints par la transformation linéaire.

Démonstration.

On commence par supposer que \(\vec{b}\) est dans l’espace colonne. Si l’on écrit \(\vec{a}_1,\vec{a}_2,\ldots ,\vec{a}_n\) pour les colonnes de \(A\text{,}\) cela signifie qu’il existe des coefficients \(c_1,c_2,\ldots , c_n\) tels que
\begin{equation*} \vec{b}=c_1\vec{a}_1+c_2\vec{a}_2+\cdots +c_n\vec{a}_n\text{.} \end{equation*}
Le vecteur \(\vec{x}=(c_1,c_2,\ldots , c_n)\) est donc une solution à l’équation \(A\vec{x}=\vec{b}\text{,}\) en vertu de l’équation
Ces quatre sous-espaces sont en étroite relation. Certaines d’entre elles ont déjà été constatées. On en explore quelques-unes dans les exemples qui suivent. D’autres seront formulées au chapitre [provisional cross-reference: chapitre espace vectoriel].

Exemple 3.4.10. Les quatre espaces de certaines matrices.

On considère les matrices
\begin{align*} A=\begin{pmatrix} 1 & 1 \\ -1&0 \\ 0& 1 \end{pmatrix}\\ B=\matcolt{1}{-1}{3}{3}{-5}{-1}{2}{-2}{6}\\ C=\begin{pmatrix} 1& 1&1& 1\\ 2& -2&-1& 1\end{pmatrix}\text{.} \end{align*}
On cherche à déterminer les quatre sous-espaces fondamentaux de ces matrices.
Solution 1.
Les vecteurs de l’espace nul sont les combinaisons linéaires des solutions spéciales de la matrice \(A\text{.}\)
En utilisant Sage, on trouve que toutes les variables sont pivots. Il n’y a pas de solutions spéciales, l’espace nul est constitué du vecteur nul seulement. Ainsi \(\mathcal{N}(A)=\{(0,0)\}\text{.}\)
L’espace colonne est composé des combinaisons linéaires des colonnes de la matrice \(A\text{.}\) C’est donc l’ensemble des points dans \(\R^3\) tels que \((x,y,z)=a(1,-1,0)+b(1,0,1)\text{.}\) On reconnait un plan avec comme vecteurs directeurs les colonnes de \(A\text{.}\) On aurait aussi pu procéder avec un vecteur \(\vec{b}\) et échelonner la matrice \((A|\vec{b})\text{.}\) On utilise Sage pour effectuer ce calcul.
On trouve \(-b_1-b_2+b_3=0\text{,}\) ce qui fait de l’image un plan de vecteur normal \(\vec{n}=(-1,-1,1)\text{.}\) À noter que ce vecteur est bel et bien perpendiculaire aux vecteurs colonnes de la matrice. On parle donc en effet du même plan.
L’espace ligne est composé des combinaisons linéaires des lignes de la matrices. C’est donc l’ensemble des vecteurs qui s’écrivent comme \(a(1,1)+b(-1,0)+c(0,1)\text{.}\) Or, ces vecteurs sont dans \(\R^2\text{,}\) un plan. Deux vecteurs devraient être suffisants pour le générer. En effet, puisque \((1,1)=-(-1,0)+(0,1)\text{,}\) on peut simplement dire que l’espace ligne est constitué des vecteurs \(b(-1,0)+c(0,1)\text{.}\) Ces vecteurs sont en fait \(\R^2\) au complet.
Finalement, l’espace nul gauche. Celui-ci est fait des solutions à l’équation \(A^T\vec{x}=\vec{0}\text{.}\) Toujours avec Sage, on obtient
une seule variable libre, la troisième. La solution de base est \(\vec{s}=(-1,-1,1)\text{.}\) On remarque que ce vecteur est le même que le vecteur normal du plan de l’espace colonne de la matrice \(A\text{.}\) Cela est dû au fait que les vecteurs de l’espace nul d’une matrice sont perpendiculaires aux lignes de la matrice et que \(\mathcal{C}(A)=\mathcal{L}(A^T)\text{.}\)
Solution 2.
Dans la solution précédente, il a été nécessaire d’augmenter la matrice \(A\) du vecteur \(\vec{b}\) et de calculer la forme échelonnée réduite des matrices \(A\) et \(A^T\) pour caractériser les quatre sous-espaces. On effectue donc ces calculs immédiatement avec Sage pour ensuite aller chercher l’information nécessaire sur les espaces.
Le rang de la matrice \(B\) est deux. Il y a donc une variable libre. L’espace nul est donc composé des multiples du vecteur \(\vec{s}=(-2,0,1)\text{.}\) L’espace colonne est généré par les colonnes de la matrice \(A\text{.}\) Ce sont donc l’ensemble des vecteurs \((x,y,z)\) tels que \((x,y,z)=a(1,-1,3)+b(3,-5,-1)+c(2,-2,6)\text{.}\) Avec la forme augmentée, on remarque que l’image correspond au plan d’équation \(-8x-5y+z=0\text{.}\) Comme le plan est à deux dimensions et qu’il y a trois colonnes, on comprend que l’une d’entre elles est inutile dans les combinaisons linéaires. De fait, on peut facilement constater que la troisième colonne est égale à deux fois la première. On peut alors écrire l’espace colonne sous forme paramétrique comme étant l’ensemble des combinaisons linéaires des deux premières colonnes de la matrice \(B\text{:}\) \((x,y,z)=a(1,-1,3)+b(3,-5,-1)\text{.}\)
L’espace ligne est, quant à lui, composé des combinaisons linéaires des lignes de \(B\text{:}\) \((x,y,z)=a(1,3,2)+b(-1,-5,-2)+c(3,-1,6)\text{.}\) L’espace nul gauche est obtenu à partir de la matrice transposée. Celle-ci, sous forme échelonnée, possède une variable libre. L’espace nul gauche est donc composé de tous les multiples du vecteur \(\vec{r}=(-8,-5,1)\text{.}\) On reconnait encore une fois le vecteur normal du plan de l’image (espace colonne).
L’espace colonne est un plan, un espace à deux dimensions et l’espace nul gauche est une droite, un espace à une dimension. Ensemble, les dimensions de ces deux espaces totalisent trois, la dimension de \(\R^m=\R^3\text{.}\) L’espace ligne, quant à lui, possède trois vecteurs et l’espace nul est une droite. Si l’on additionne ces dimensions, on obtient quatre. Comme l’une des colonnes n’était pas nécessaire dans les combinaisons linéaires pour l’espace colonne, on se doute que quelque chose de similaire pourrait se produire avec les lignes. La dernière ligne de la forme échelonnée réduite de \(B\) est nulle. On peut avoir une bonne idée des opérations qui ont été faites pour arriver à cette ligne en regardant la colonne augmentée en \(\vec{b}\text{.}\) La dernière entrée est \(-8b_1-5b_2+b_3\text{.}\) Il semble donc que, pour éliminer la ligne trois, on a ajouté \(-8\) fois la ligne un et \(-5\) fois la ligne deux. On aurait donc \(L_3=8L_1+5L_2\text{.}\) On vérifie facilement que c’est le cas avec Sage.
Avec cette remarque, on peut voir l’espace ligne comme étant les combinaisons linéaires des deux premières lignes de la matrice \(B\text{:}\) \((x,y,z)=a(1,3,2)+b(-1,-5,-2)\text{.}\) Encore une fois, la dimension de l’espace ligne (\(2\)) additionnée à la dimension de l’espace nul (\(1\)) donne la dimension de \(R^n=R^3\text{.}\)
Cette relation s’avère toujours exacte et sera démontrée plus spécifiquement à la section [provisional cross-reference: section sur les bases].
Solution 3.
On utilise la même stratégie que pour la matrice \(B\text{.}\)
Le rang de la matrice \(C\) est égal à \(2\text{.}\) Il y a deux variables libres, \(x_3\) et \(x_4\text{.}\) Les solutions spéciales sont \(\vec{s}_1=(-\frac{1}{4},-\frac{3}{4},1,0)\) et \(\vec{s}_2=(-\frac{3}{4},-\frac{1}{4},0,1)\text{.}\) L’espace nul est donc le plan de \(\R^n=\R^4\) engendré par ces deux vecteurs.
Selon la forme échelonnée réduite de la matrice augmentée, il n’y a aucune restriction sur les vecteurs de l’image de la transformation associée à \(C\text{.}\) L’image est donc \(\R^m=\R^2\text{.}\) Comme il y a quatre colonnes dans la matrice \(C\text{,}\) on se doute que deux d’entre elles sont inutiles pour les combinaisons linéaires. Pour l’instant, on se contente de remarquer que deux vecteurs non parallèles de \(\R^2\) suffisent pour engendrer le plan qu’est \(\R^2\text{.}\) L’espace colonne est donc \(\R^2\) au complet.
L’espace ligne est composé des vecteurs formés des combinaisons linéaires des lignes de la matrice \(C\text{:}\) \((x_1,x_2,x_3,x_4)=a(1,1,1,1)+b(2,-1,-1,1)\text{.}\) C’est aussi un plan dans \(\R^n=\R^4\text{.}\) On remarque une, fois de plus, que la somme de la dimension de l’espace nul (\(2\))et de la dimension de l’espace ligne (\(2\)) est égale à la dimension de l’espace \(\R^n=\R^4\text{.}\) De plus, les vecteurs \(\vec{s}_1,\vec{s_2}\) sont perpendiculaires aux lignes de la matrice \(C\text{.}\)
Finalement, on se tourne vers la transposée pour analyser l’espace nul gauche. Comme il n’y a aucune variable libre, le seul élément de l’espace nul est le vecteur \((0,0)\text{.}\) C’est un espace de dimension \(0\) (un point). Additionnée à la dimension de l’espace colonne (\(2\)), on obtient la dimension de l’espace complet \(\R^m=\R^2\text{.}\)
On énonce de manière informelle les relations entre les quatre sous-espaces. On formalisera le tout lors de l’énoncé du théorème [provisional cross-reference: thm-fondlinalg].

Démonstration.

On reporte la démonstration au théorème [provisional cross-reference: thm-fondlinalg].
On termine avec des commandes Sage en lien avec la sous-section.

Calcul 3.4.12. Les quatre espaces avec Sage.

Il est possible avec Sage de déterminer les espaces fondamentaux d’une matrice. Dans la section 3.3, on a créé une fonction solbase qui fait essentiellement ce travail pour l’espace nul. On peut maintenant utiliser la commande A.right_kernel(basis="pivot") pour effectuer cette opération. On utilise right_kernel pour le noyau de droite, car Sage a une préférence pour les lignes et son noyau est par défaut le noyau de gauche (l’espace nul gauche). L’argument basis="pivot" permet d’obtenir ce qu’on a appelé les solutions de base.
On reprend les trois matrices de l’exemple 3.4.10. On note que, pour des raisons techniques, il faut ajouter QQ dans la définition de la matrice.
Ce qu’on obtient de Sage est un peu étrange. D’abord, le terme Rowspan_Q signifie l’espace engendré par les lignes de la matrice qui vient après. On comprend que les solutions de base sont retournées dans une matrice. Si l’on préfère obtenir uniquement les solutions de base, on ajoute l’option .basis().
Lorsque la base est vide, comme pour la matrice \(A\text{,}\) il faut comprendre qu’il n’y a pas de solution de base. Il ne faut toutefois pas oublier que le vecteur nul fait toujours partie de l’espace nul.
On procède de manière similaire pour l’espace colonne. On remarquera toutefois que les vecteurs obtenus ne sont pas nécessairement les mêmes que ceux de l’exemple 3.4.10. Dans la section 5.3, on verra une procédure systématique pour choisir les vecteurs qui génèrent l’espace colonne. En attendant, on fait confiance à Sage.
Une commande similaire pour l’espace ligne, avec la même remarque que précédemment sur la différence entre les vecteurs obtenus lors de l’exemple 3.4.10 et ceux obtenus par Sage.
Finalement, l’espace nul gauche.
Les éléments importants de cette section sont:
De même, avec Sage, on a vu la commande transpose() pour obtenir la transposée d’une matrice. De plus, les commandes right_kernel(basis="pivot").basis(),column_space().basis(),row_space().basis() et left_kernel(basis="pivot").basis() permettent d’obtenir respectivement une base des espaces nul, colonne, ligne et nul gauche. La notion de base d’un espace sera précisée dans la section [provisional cross-reference: section sur les bases].

Exercices 3.4.3 Exercices

1.

Soit \(A=\matcold{1}{3}{-2}{-1},B=\matcold{3}{1}{2}{5},C=\begin{pmatrix} 2& -2&3 \\ 0& 2&1 \end{pmatrix}\) et \(D=\begin{pmatrix} 7 &-1\\ 2& 4\\ 1&0 \end{pmatrix}\text{.}\) Calculer, si possible, les expressions suivantes ou expliquer pourquoi le calcul est impossible.
(a)
\(A^T \)
Réponse.
\(\matcold{1}{-2}{3}{-1}\)
(b)
\(4A-5B^T \)
Réponse.
\(\begin{pmatrix} -11 & -13 \\ 2 & -29 \end{pmatrix}\)
Solution.
La matrice \(4A=\left(\begin{array}{rr} 4 & -8 \\ 12 & -4 \end{array}\right)\) et la matrice \(5B^T=\left(\begin{array}{rr} 15 & 5 \\ 10 & 25 \end{array}\right)\text{.}\) Ces matrices sont de formats compatibles pour l’addition, donc
\begin{equation*} 4A-5B^T=\begin{pmatrix} -11 & -13 \\ 2 & -29 \end{pmatrix}\text{.} \end{equation*}
(c)
\(C^T\)
Réponse.
\(\left(\begin{array}{rr} 2 & 0 \\ -2 & 2 \\ 3 & 1 \end{array}\right)\)
(d)
\(C^T+D\)
Réponse.
\(\left(\begin{array}{rr} 9 & -1 \\ 0 & 6 \\ 4 & 1 \end{array}\right)\)
Solution.
La matrice \(C^T=\left(\begin{array}{rr} 2 & 0 \\ -2 & 2 \\ 3 & 1 \end{array}\right)\) est une matrice de taille \(3\times 2\) et la matrice \(D\) est aussi une matrice de taille \(3\times 2\text{,}\) qui sont ainsi compatibles pour l’addition. On a alors
\begin{equation*} C^T+D=\left(\begin{array}{rr} 9 & -1 \\ 0 & 6 \\ 4 & 1 \end{array}\right)\text{.} \end{equation*}
(e)
\(A^TC \)
Réponse.
\(\left(\begin{array}{rrr} 2 & 4 & 6 \\ -4 & 2 & -7 \end{array}\right)\)
Solution.
La matrice \(A^T\) est une matrice de taille \(2\times 2\) et la matrice \(C\) est une matrice de taille \(2\times 3\text{.}\) Ces formats sont compatibles pour la multiplication \(A^TC\text{,}\) on a alors
\begin{align*} A^TC&=\matcold{1}{-2}{3}{-1}\begin{pmatrix} 2& -2&3 \\ 0& 2&1 \end{pmatrix}\\ &=\left(\begin{array}{rrr} 2 & 4 & 6 \\ -4 & 2 & -7 \end{array}\right)\text{.} \end{align*}
(f)
\(AC^T\)
Réponse.
C’est impossible.
Solution.
La matrice \(A\) est de format \(2\times 2\) et la matrice \(C^T\) est de format \(3\times 2\text{.}\) Ces formats ne sont pas compatibles dans l’ordre \(AC^T\text{.}\)
(g)
\(C^TB^T \)
Réponse.
\(\left(\begin{array}{rr} 6 & 2 \\ -2 & 8 \\ 11 & 8 \end{array}\right)\)
Solution.
La matrice \(C^T\) est de format \(3\times 2\) et la matrice \(B^T\) est de format \(2\times 2\text{.}\) Ces formats sont compatibles pour la multiplication \(C^TB^T\text{.}\) On a
\begin{align*} C^TB^T&=\left(\begin{array}{rr} 2 & 0 \\ -2 & 2 \\ 3 & 1 \end{array}\right)\left(\begin{array}{rr} 3 & 1 \\ 2 & 5 \end{array}\right)\\ &=\left(\begin{array}{rr} 6 & 2 \\ -2 & 8 \\ 11 & 8 \end{array}\right)\text{.} \end{align*}
(h)
\(BD\)
Réponse.
C’est impossible.
Solution.
Les formats des matrices \(B\) et \(D\) ne sont pas compatibles pour la multiplication.
(i)
\(BD^T\)
Réponse.
\(\left(\begin{array}{rrr} 19 & 14 & 3 \\ 2 & 22 & 1 \end{array}\right)\)
Solution.
Les matrices \(B=\matcold{3}{1}{2}{5}\) et \(D^T=\left(\begin{array}{rrr} 7 & 2 & 1 \\ -1 & 4 & 0 \end{array}\right)\) sont compatibles pour la multiplication. On a alors
\begin{equation*} BD^T=\matcold{3}{1}{2}{5}\left(\begin{array}{rrr} 7 & 2 & 1 \\ -1 & 4 & 0 \end{array}\right)=\left(\begin{array}{rrr} 19 & 14 & 3 \\ 2 & 22 & 1 \end{array}\right)\text{.} \end{equation*}
(j)
\(DB\)
Réponse.
\(\left(\begin{array}{rr} 20 & 9 \\ 10 & 24 \\ 3 & 2 \end{array}\right)\)
Solution.
Les matrices \(D\) et \(B\) sont compatibles pour la multiplication. On a
\begin{equation*} DB=\left(\begin{array}{rr} 20 & 9 \\ 10 & 24 \\ 3 & 2 \end{array}\right)\text{.} \end{equation*}
(k)
\(D^TB\)
Réponse.
C’est impossible
Solution.
Les matrices \(D^T\text{,}\) de format \(2\times 3\) et \(B\text{,}\) de format \(2\times 2\) ne sont pas compatibles pour la multiplication.
(l)
\(CC^T \)
Réponse.
\(\left(\begin{array}{rr} 17 & -1 \\ -1 & 5 \end{array}\right)\)
Solution.
Une matrice est toujours compatible avec la multiplication par sa transposée. On a
\begin{align*} CC^T&=\begin{pmatrix} 2& -2&3 \\ 0& 2&1 \end{pmatrix}\left(\begin{array}{rr} 2 & 0 \\ -2 & 2 \\ 3 & 1 \end{array}\right)\\ &=\left(\begin{array}{rr} 17 & -1 \\ -1 & 5 \end{array}\right)\text{.} \end{align*}
(m)
\(C^TC\)
Réponse.
\(\left(\begin{array}{rrr} 4 & -4 & 6 \\ -4 & 8 & -4 \\ 6 & -4 & 10 \end{array}\right)\)
Solution.
Une matrice est toujours compatible avec la multiplication par sa transposée. On a
\begin{align*} C^TC&=\left(\begin{array}{rr} 2 & 0 \\ -2 & 2 \\ 3 & 1 \end{array}\right)\begin{pmatrix} 2& -2&3 \\ 0& 2&1 \end{pmatrix}\\ &=\left(\begin{array}{rrr} 4 & -4 & 6 \\ -4 & 8 & -4 \\ 6 & -4 & 10 \end{array}\right)\text{.} \end{align*}
(n)
\(CD \)
Réponse.
\(\left(\begin{array}{rr} 13 & -10 \\ 5 & 8 \end{array}\right)\)
Solution.
La matrice \(C\) est de taille \(2\times 3\) et la matrice \(D\) est de taille \(3\times 2\text{.}\) Elles sont compatibles pour la multiplication. Ainsi
\begin{equation*} CD=\left(\begin{array}{rr} 13 & -10 \\ 5 & 8 \end{array}\right)\text{.} \end{equation*}
(o)
\(C^TD^T\)
Réponse.
\(\left(\begin{array}{rrr} 14 & 4 & 2 \\ -16 & 4 & -2 \\ 20 & 10 & 3 \end{array}\right)\)
Solution.
La matrice \(C^T\) est de format \(3\times 2\) et la matrice \(D^T\) est de taille \(2\times 3\text{.}\) Elles sont compatibles pour la multiplication. Ainsi,
\begin{align*} C^TD^T&=\left(\begin{array}{rr} 2 & 0 \\ -2 & 2 \\ 3 & 1 \end{array}\right)\left(\begin{array}{rrr} 7 & 2 & 1 \\ -1 & 4 & 0 \end{array}\right)\\ &=\left(\begin{array}{rrr} 14 & 4 & 2 \\ -16 & 4 & -2 \\ 20 & 10 & 3 \end{array}\right)\text{.} \end{align*}
(p)
\(DC \)
Réponse.
\(\left(\begin{array}{rrr} 14 & -16 & 20 \\ 4 & 4 & 10 \\ 2 & -2 & 3 \end{array}\right)\)
Solution.
Les matrices \(D\) et \(C\) sont compatibles pour la multiplication, donc
\begin{equation*} DC= \left(\begin{array}{rrr} 14 & -16 & 20 \\ 4 & 4 & 10 \\ 2 & -2 & 3 \end{array}\right)\text{.} \end{equation*}
(q)
\(D^TC^T \)
Réponse.
\(\left(\begin{array}{rr} 13 & 5 \\ -10 & 8 \end{array}\right)\)
Solution.
La matrice \(D^T\) est de format \(2\times 3\) et la matrice \(C^T\) est de format \(3\times 2\text{.}\) Le produit \(D^TC^T\) est donc compatible pour la multiplication. Ainsi
\begin{align*} D^TC^T&=\left(\begin{array}{rrr} 7 & 2 & 1 \\ -1 & 4 & 0 \end{array}\right)\left(\begin{array}{rr} 2 & 0 \\ -2 & 2 \\ 3 & 1 \end{array}\right)\\ &=\left(\begin{array}{rr} 13 & 5 \\ -10 & 8 \end{array}\right)\text{.} \end{align*}

2.

Montrer que si \(A\) est une matrice quelconque de taille \(m\times n\text{,}\) alors \(B=AA^T\) et \(C=A^TA\) sont définies. Donner aussi la taille des matrices \(B\) et \(C\text{.}\)
Solution.
Puisque \(A\) est de taille \(m\times n\text{,}\) sa transposée est de taille \(n\times m\text{.}\) Le produit \(A_{m,n}A^T_{n,m}\) est donc bien défini pour la multiplication et donnera une matrice \(B\) de taille \(m\times m\text{.}\) À l’inverse, le produit \(A_{n,m}^TA_{m,n}\text{,}\) aussi bien défini, donnera une matrice \(C\) de taille \(n\times n\text{.}\)

3.

Soit \(A\text{,}\) une matrice \(m\times n\text{.}\) On considère l’équation
\begin{equation} A\vec{x}\cdot \vec{y}=\vec{x}\cdot A^T\vec{y}\text{.}\tag{3.4.3} \end{equation}
(a)
Quelles doivent être les dimensions des vecteurs \(\vec{x},\vec{y}\) pour que l’équation (3.4.3) soit bien définie?
Indice.
Pour la démonstration, utiliser l’exercice 3.2.3.16.
Réponse.
Le vecteur \(\vec{x}\) doit être dans \(\R^n\text{.}\) Le produit \(A\vec{x}\) est un vecteur de \(\R^m\) et donc \(\vec{y}\in\R^m\text{.}\)
(b)
Démontrer l’équation (3.4.3).
Solution.
Avec les vecteurs de format approprié, on réécrit le produit scalaire comme suit:
\begin{align*} A\vec{x}\cdot\vec{y}&=(A\vec{x})^T\vec{y}& &\text{ selon } \knowl{./knowl/xref/exo-vectranspose.html}{\text{3.2.3.16}}\\ \end{align*}

On a utilisé le fait que \(\vec{u}\cdot\vec{v}=u^T\vec{v}\) avec \(\vec{u}=A\vec{x}\text{.}\)

\begin{align*} &=(\vec{x}^TA^T)\vec{y} & & \text{ selon } \knowl{./knowl/xref/prop-transposeeprop.html}{\text{3.4.3}}\\ &=\vec{x}^T(A^T\vec{y}) &&\text{ selon l'associativité }\\ &=\vec{x}\cdot A^T\vec{y} && \text{ en utilisant à nouveau } \knowl{./knowl/xref/exo-vectranspose.html}{\text{3.2.3.16}} \\ \text{.} \end{align*}

4.

On considère des matrices \(A,B\) telles que \(A\vec{u}\cdot\vec{v}=\vec{u}\cdot (B\vec{v})\) pour tous les vecteurs \(\vec{u},\vec{v}\) de taille compatible. Montrer que \(B=A^T\)
Indice.
Utiliser les exercices 2.1.4.16 et 3.4.3.3.
Solution.
On réécrit l’équation pour avoir
\begin{align*} A\vec{u}\cdot\vec{v}&=(B^T\vec{u})\cdot \vec{v}&& \text{ selon l'exercice } \knowl{./knowl/xref/exo-prodscaltransposee.html}{\text{3.4.3.3}}\text{.} \end{align*}
Selon l’exercice 2.1.4.16, la matrice \(B^T=A\text{,}\) car l’égalité tient pour tous les vecteurs de taille compatible. Ainsi, \(B=(B^T)^T=A^T\text{.}\)

5.

Pour chaque vecteur ci-dessous, déterminer la matrice standard de la projection orthogonale sur ce vecteur.
(a)
\(\vec{u}_1=\left(\frac{\sqrt{2}}{2},-\frac{\sqrt{2}}{2}\right)\)
Réponse.
\(\begin{pmatrix} \frac{1}{2}& -\frac{1}{2}\\ -\frac{1}{2}& \frac{1}{2} \end{pmatrix}\)
Solution.
Le vecteur \(\vec{u}_1\) est unitaire. La matrice standard de projection orthogonale sur \(\vec{u}_1\) est
\begin{align*} \vec{u}_1\vec{u}_1^T&=\vecd{\frac{\sqrt{2}}{2}}{-\frac{\sqrt{2}}{2}}\left(\frac{\sqrt{2}}{2}\,\,-\frac{\sqrt{2}}{2}\right)\\ &=\begin{pmatrix} \frac{1}{2}& -\frac{1}{2}\\ -\frac{1}{2}& \frac{1}{2} \end{pmatrix}\text{.} \end{align*}
(b)
\(\vec{u}_2=(\frac{1}{2},\frac{\sqrt{3}}{2})\)
Réponse.
\(\left(\begin{array}{rr} \frac{1}{4} & \frac{1}{4} \, \sqrt{3} \\ \frac{1}{4} \, \sqrt{3} & \frac{3}{4} \end{array}\right)\)
Solution.
Le vecteur \(\vec{u}_2\) est unitaire. La matrice standard de projection orthogonale sur \(\vec{u}_2\) est
\begin{align*} \vec{u}_2\vec{u}^T&=\vecd{\frac{1}{2}}{\frac{\sqrt{3}}{2}}\begin{pmatrix}\frac{1}{2} & \frac{\sqrt{3}}{2}\end{pmatrix}\\ &=\left(\begin{array}{rr} \frac{1}{4} & \frac{1}{4} \, \sqrt{3} \\ \frac{1}{4} \, \sqrt{3} & \frac{3}{4} \end{array}\right) \end{align*}
(c)
\(\vec{u}_3=(3,-4)\)
Réponse.
\(\left(\begin{array}{rr} \frac{9}{25} & -\frac{12}{25} \\ -\frac{12}{25} & \frac{16}{25} \end{array}\right)\)
Solution.
Ici, le vecteur \(\vec{u}_3\) n’est pas unitaire, on doit commencer par calculer \(\hat{u}_3=\left(\frac{3}{5},\,-\frac{4}{5}\right)\text{.}\) La matrice standard de projection orthogonale sur \(\vec{u}_3\) est
\begin{align*} \hat{u}_3\hat{u}_3^T&=\vecd{\frac{3}{5}}{-\frac{4}{5}}\begin{pmatrix}\frac{3}{5} & -\frac{4}{5}\end{pmatrix}\\ &=\left(\begin{array}{rr} \frac{9}{25} & -\frac{12}{25} \\ -\frac{12}{25} & \frac{16}{25} \end{array}\right) \end{align*}
(d)
\(\vec{u}_4=(\cos(\theta),\sin(\theta))\)
Réponse.
\(\begin{pmatrix} \cos^2(\theta) &\cos(\theta)\sin(\theta)\\ \cos(\theta)\sin(\theta)& \sin^2(\theta)\end{pmatrix}\)
Solution.
Le vecteur est unitaire. La matrice que l’on obtiendra représente la projection orthogonale dans la direction \(\theta\text{.}\) Elle est égale à
\begin{align*} \vec{u}_4\vec{u}_4^T&=\vecd{\cos(\theta)}{\sin(\theta)}\begin{pmatrix} \cos(\theta)& \sin(\theta)\end{pmatrix}\\ &=\begin{pmatrix} \cos^2(\theta) &\cos(\theta)\sin(\theta)\\ \cos(\theta)\sin(\theta)& \sin^2(\theta)\end{pmatrix} \end{align*}
(e)
\(\vec{u}_5=\left(\frac{4}{9},\frac{4}{9},\frac{7}{9}\right)\)
Réponse.
\(\left(\begin{array}{rrr} \frac{16}{81} & \frac{16}{81} & \frac{28}{81} \\ \frac{16}{81} & \frac{16}{81} & \frac{28}{81} \\ \frac{28}{81} & \frac{28}{81} & \frac{49}{81} \end{array}\right)\)
Solution.
Le vecteur \(\vec{u}_5\) est unitaire. C’est un vecteur de \(\R^3\text{,}\) mais la définition 3.4.5 fonctionne indépendamment de la dimension des vecteurs. On a donc
\begin{align*} \vec{u}_5\vec{u}_5^T&=\vecddd{\frac{4}{9}}{\frac{4}{9}}{\frac{7}{9}}\begin{pmatrix}\frac{4}{9}&\frac{4}{9}&\frac{7}{9} \end{pmatrix}\\ &=\left(\begin{array}{rrr} \frac{16}{81} & \frac{16}{81} & \frac{28}{81} \\ \frac{16}{81} & \frac{16}{81} & \frac{28}{81} \\ \frac{28}{81} & \frac{28}{81} & \frac{49}{81} \end{array}\right) \end{align*}

6. Les matrices symétriques.

Soit \(S\text{,}\) une matrice carrée \(n\times n\text{.}\) On dit que la matrice \(S\) est symétrique si
\begin{equation*} S=S^T\text{.} \end{equation*}
(a)
Donner deux exemples de matrices symétriques de taille \(2\times 2\) et un exemple de taille \(3\times 3\text{.}\)
Solution.
Plusieurs réponses sont possibles. Pour que \(S=S^T\text{,}\) il faut que l’entrée en position \(i,j\) soit égale à l’entrée en position \(j,i\text{.}\) Dans le cas \(2\times 2\text{,}\) n’importe quelle matrice \(S=\begin{pmatrix} a&b \\ b& d \end{pmatrix}\) fera l’affaire, avec \(a,b,d\in \R\text{.}\) Par exemple,
\begin{align*} S_1&=\begin{pmatrix} 1&2 \\ 2& 3 \end{pmatrix}\\ S_2&=\begin{pmatrix} 0&-3 \\ -3& 1 \end{pmatrix} \end{align*}
sont des matrices symétriques. La même règle s’applique pour une matrice \(3\times 3\) et donc, toute matrice de la forme \(\begin{pmatrix} a& b& c\\ b&e & f\\ c& f& i \end{pmatrix}\) sera symétrique. Par exemple,
\begin{align*} S_3&=\begin{pmatrix} 3& -1& 2\\ -1&0 & 4\\ 2& 4& 5 \end{pmatrix} \end{align*}
est une matrice symétrique.
(b)
Soit \(A\text{,}\) une matrice quelconque. Montrer que \(S=AA^T\) est une matrice symétrique.
Solution.
En utilisant la définition, on calcule
\begin{align*} S^T&=(AA^T)^T\\ &=(A^T)^TA^T&&\text{ selon } \knowl{./knowl/xref/prop-transposeeprop.html}{\text{3.4.3}}\\ &=AA^T &&\text{ toujours selon} \knowl{./knowl/xref/prop-transposeeprop.html}{\text{3.4.3}}\\ &=S\text{.} \end{align*}
Ainsi, la matrice \(S\) est symétrique.
(c)
Une matrice carrée \(X\) est antisymétrique si \(X^T=-X\text{.}\)
(i)
Donner deux exemples de matrices antisymétriques de taille \(2\times 2\) et un exemple de taille \(3\times 3\text{.}\)
Solution.
Encore une fois ici, plusieurs réponses sont possibles. Pour que \(X\) soit antisymétrique, il faut que l’entrée en position \(i,j\) soit égale à l’entrée en position \(j,i\text{,}\) mais avec le signe opposé.
En particulier, \(x_{i,i}=-x_{i,i}\text{,}\) ce qui fait que la diagonale doit nécessairement être nulle.
Pour les matrices \(2\times 2\text{,}\) toute matrice de la forme \(\begin{pmatrix} 0& -b\\b& 0\end{pmatrix}\) est antisymétrique. Par exemple, les matrices
\begin{align*} X_1&=\begin{pmatrix} 0& -3\\ 3& 0\end{pmatrix}\\ X_2&=\begin{pmatrix} 0& 5\\ -5& 0\end{pmatrix} \end{align*}
sont antisymétriques.
La même règle s’applique pour une matrice \(3\times 3\text{,}\) en ce sens, toute matrice de la forme \(\begin{pmatrix} 0& -b& -c\\ b&0 & -f\\ c& f& 0 \end{pmatrix}\) sera antisymétrique. Par exemple,
\begin{align*} S_3&=\begin{pmatrix} 0& -1& 2\\ 1&0 & 4\\ -2& -4& 0 \end{pmatrix} \end{align*}
est une matrice antisymétrique.
(ii)
Que doivent valoir les éléments sur la diagonale d’une matrice antisymétrique? Pourquoi?
Réponse.
\(0\)
Solution.
Les entrées doivent être nulles. car on veut que \(x_{i,j}=-x_{j,i}\text{.}\) Lorsque \(i=j\text{,}\) on obtient \(x_{i,i}=-x_{i,i}\text{,}\) qui n’est possible que lorsque \(x_{i,i}=0\text{.}\)
(iii)
Soit \(A\text{,}\) une matrice quelconque. On pose \(S=A+A^T\) et \(X=A-A^T\text{.}\)
(A)
Montrer que \(S\) est une matrice symétrique.
Solution.
On applique la définition de matrice symétrique. On a
\begin{align*} S^T&=(A+A^T)^T\\ &=A^T+(A^T)^T&&\text{ selon } \knowl{./knowl/xref/prop-transposeeprop.html}{\text{3.4.3}}\\ &=A^T+A&& \text{ toujours selon } \knowl{./knowl/xref/prop-transposeeprop.html}{\text{3.4.3}}\\ &=A+A^T&& \text{ commutativité de l'addition}\\ &=S\text{.} \end{align*}
La matrice \(S\) est donc symétrique.
(B)
Montrer que \(X\) est une matrice antisymétrique.
Solution.
On applique la définition de matrice symétrique. On détermine
\begin{align*} X^T&=(A-A^T)^T\\ &=A^T-(A^T)^T&&\text{ selon } \knowl{./knowl/xref/prop-transposeeprop.html}{\text{3.4.3}}\\ &=A^T-A&& \text{ toujours selon } \knowl{./knowl/xref/prop-transposeeprop.html}{\text{3.4.3}}\\ &=-A+A^T&& \text{ commutativité de l'addition}\\ &=-(A-A^T)\\ &=-X\text{.} \end{align*}
La matrice \(x\) est donc antisymétrique.
(C)
Montrer que toute matrice \(A\) peut s’écrire comme la somme d’une matrice symétrique et d’une matrice antisymétrique.
Solution.
Il suffit de remarquer que \(A=\frac{A+A^T}{2}+\frac{A-A^T}{2}=\frac{S}{2}+\frac{X}{2}\text{.}\)

7.

Soit \(A,B\text{,}\) deux matrices symétriques. Montrer que \(AB\) est symétrique si et seulement si \(AB=BA\text{.}\)
Solution.
La preuve se fait en deux parties. Dans un premier temps, on suppose que \(AB\) est symétrique. On veut montrer que \(AB=BA\text{.}\) On a
\begin{align*} AB&=(AB)^T &&\text{ car } AB \text{ est symétrique}\\ &=B^TA^T &&\text{ selon la propriété de la transposée d'un produit}\\ &=BA && \text{ car } A \text{ et } B \text{ sont symétriques}\text{.} \end{align*}
Ceci complète la première partie de la preuve.
On suppose maintenant qu’en plus d’être symétriques, les matrices \(A,B\) sont telles que \(AB=BA\text{.}\) On veut montrer que le produit est aussi symétrique. On a
\begin{align*} (AB)^T&=B^TA^T &&\text{ selon la propriété de la transposée du produit}\\ &=BA&& \text{ car } A \text{ et } B \text{ sont symétriques}\\ &=AB &&\text{ par hypothèse, } AB=BA\text{.} \end{align*}
Le produit \(AB\) est donc symétrique.

8.

On s’intéresse aux matrices \(A\) telles que les colonnes sont composées de vecteurs orthogonaux entre eux.
(a)
Soit \(\vec{u}=(1,2)\) et \(\vec{u}_{\perp}\text{,}\) son vecteur perpendiculaire. On considère la matrice \(A\) dont les colonnes sont \(\vec{u}\) et \(\vec{u}_{\perp}\text{.}\) Calculer \(A^TA\text{.}\) Qu’y a-t-il de particulier?
Réponse.
\(\left(\begin{array}{rr} 5 & 0 \\ 0 & 5 \end{array}\right)\)
Solution.
La matrice \(A=\left(\begin{array}{rr} 1 & -2 \\ 2 & 1 \end{array}\right)\) et sa transposée est \(A^T=\left(\begin{array}{rr} 1 & 2 \\ -2 & 1 \end{array}\right)\text{.}\) Leur produit donne \(\left(\begin{array}{rr} 5 & 0 \\ 0 & 5 \end{array}\right)\text{,}\) une matrice diagonale. C’est aussi une matrice symétrique.
(b)
Répéter la partie précédente avec \(\vec{u}=(a,b)\text{.}\)
Réponse.
\(\left(\begin{array}{rr} a^{2} + b^{2} & 0 \\ 0 & a^{2} + b^{2} \end{array}\right)\)
Solution.
La matrice \(A=\left(\begin{array}{rr} a & -b \\ b & a \end{array}\right)\) et sa transposée est \(A^T=\left(\begin{array}{rr} a & b \\ -b & a \end{array}\right)\text{.}\) Leur produit donne \(\left(\begin{array}{rr} a^{2} + b^{2} & 0 \\ 0 & a^{2} + b^{2} \end{array}\right)\text{,}\) une matrice diagonale. C’est aussi une matrice symétrique.
(c)
Soit \(A\text{,}\) une matrice \(n\times n\) telle que ses colonnes sont orthogonales entre elles. Montrer que \(A^TA\) est une matrice dont les seules entrées non nulles se situent sur la diagonale principale. Que valent les entrées non nulles?
Solution.
On utilise la définition du produit matriciel. La colonne \(j\) du produit \(A^TA\) est donnée par le produit matrice vecteur \(A^T\vec{a}_j\)\(\vec{a}_j\) représente la colonne \(j\) de la matrice \(A\text{.}\) Les entrées de ce produit matrice vecteur correspondent à l’entrée \(i,j\) du produit \(A^TA\text{.}\) On les calcule en prenant le produit scalaire des lignes de \(A^T\) avec le vecteur \(\vec{a}_j\text{.}\) Comme les lignes de \(A^T\) sont les colonnes de \(A\text{,}\) on a \(a_{i,j}=\vec{a}_i\cdot\vec{a}_j\text{.}\) Par définition, les colonnes de la matrice \(A\) sont orthogonales entre elles, ce produit scalaire vaut donc \(0\text{,}\) sauf, évidemment, lorsque \(i=j\text{.}\) Dans ce cas, les seules entrées non nulles de \(A^TA\) sont sur la diagonale. Elles sont égales à \(\vec{a}_i\cdot \vec{a}_i=\norm{\vec{a}_i}^2\text{.}\)

9.

Montrer que si \(A \) est une matrice de rang \(1\) de taille \(m\times n\text{,}\) alors il existe des vecteurs non nuls \(\vec{u}\in\mathbb{R}^m,\vec{v}\in\mathbb{R}^n\) tels que \(A=\vec{u}\vec{v}^T\text{.}\)
On a utilisé cette propriété à l’exercice 3.2.3.15.b.
Indice.
À quoi ressemblent les lignes d’une matrice de la forme \(\vec{u}\vec{v}^T\text{?}\)
Solution.
On pose \(\vec{v}^T=(a_{1,1},a_{1,2},\ldots , a_{1,n})\text{,}\) la première ligne non nulle de \(A\text{.}\) Par simplicité, on suppose que c’est la première ligne. Soit \(\vec{a}_1,\vec{a}_2,\ldots \vec{a}_m\text{,}\) les lignes de la matrice \(A\text{.}\) Si la matrice \(A\) est de rang \(1\text{,}\) alors toutes ses lignes sont parallèles. Il existe donc \(c_2,c_3,\ldots ,c_m\) tels que \(\vec{a}_2=c_2\vec{a_1},\vec{a}_3=c_3\vec{a_1},\ldots ,\vec{a}_m=c_m\vec{a_1}\text{.}\) On pose \(\vec{u}=(1,c_2,c_3,\ldots, c_m)\text{.}\) On a alors
\begin{align} \vec{u}\vec{v}^T&\begin{pmatrix}1\\c_2\\ \vdots \\ c_m\end{pmatrix}(a_{1,1},a_{1,2},\ldots , a_{1,n})\notag\\ &=\begin{pmatrix} a_{1,1}&a_{1,2}&\ldots & a_{1,n}\\ c_2a_{1,1}&c_2a_{1,2}&\ldots & c_2a_{1,n}\\ \vdots & \vdots & \ddots & \vdots\\ c_ma_{1,1}&c_ma_{1,2}&\ldots & c_ma_{1,n} \end{pmatrix}\tag{3.4.4}\\ &=\begin{pmatrix} \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{a}_1 &\hspace{-0.2cm} \rule[.5ex]{2.5ex}{0.5pt} \\ \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{a}_2 &\hspace{-0.2cm} \rule[.5ex]{2.5ex}{0.5pt} \\ \vdots & \vdots & \vdots \\ \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{a}_m &\hspace{-0.2cm} \rule[.5ex]{2.5ex}{0.5pt} \end{pmatrix}\notag\\ &=A\notag \end{align}

10.

On considère les matrices de permutation définies à l’exercice 2.2.3.5.
(a)
Montrer que si \(P\) est une matrice de permutation \(2\times 2\text{,}\) alors \(P^T=P^{-1}\text{.}\)
Solution.
Il y a deux cas à vérifier. Le premier est \(P_1=\begin{pmatrix} 1&0\\0&1\end{pmatrix}\text{,}\) la matrice identité. On vérifie facilement que \(P_1^T=P_1=P_1^{-1}\text{.}\) Le deuxième cas est \(P_2=\begin{pmatrix}0& 1\\ 1&0\end{pmatrix}\text{.}\) On sait que c’est une matrice qui est son propre inverse, on remarque aussi qu’elle est symétrique. On a donc bel et bien \(P_2^T=P_2=P_2 ^{-1}\text{.}\)
(b)
Utiliser le code de l’exercice 2.2.3.12 pour montrer que les matrices de permutation \(P\) de taille \(3\times 3\) et \(4\times 4\) ont cette propriété.
Solution.
On inclut une cellule vide pour recopier le code de l’exercice.
La vérification peut se faire de la manière suivante (S’assurer d’avoir copié le code de l’exercice 2.2.3.12 et exécuter la cellule ci-dessus).
(c)
On veut montrer que, pour une matrice de permutation \(P\text{,}\) on a \(P^T=P^{-1}\text{.}\)
(i)
Montrer que les matrices élémentaires de type \(L_i\leftrightarrow L_j\) ont cette propriété.
Solution.
On considère une matrice élémentaire \(E\) de type \(L_i\leftrightarrow L_j\text{.}\) Cette matrice est obtenue de l’identité en échangeant la ligne \(i\) et la ligne \(j\) ou, de manière équivalente, la colonne \(i\) avec la colonne \(j\text{.}\) Les colonnes sont orthogonales entre elles et donc, selon l’exercice 3.4.3.8.c, le produit \(E^TE=D\text{,}\)\(D\) est une matrice diagonale. Comme les colonnes sont des vecteurs dont la norme vaut \(1\text{,}\) le même exercice permet de déduire que \(D=I\text{.}\) On a donc \(E^T=E^{-1}\text{.}\)
(ii)
Utiliser l’exercice 3.1.4.3 pour montrer qu’une matrice de permutation \(P\) quelconque possède la propriété \(P^T=P^{-1}\text{.}\)
 2 
Une matrice pour laquelle la transposée est son inverse est dite orthogonale. Ces matrices seront très importantes dans le chapitre [provisional cross-reference: chapitre orthogonal].
Solution.
Soit \(P\text{,}\) une matrice de permutation quelconque. Selon l’exercice 3.1.4.3, il existe des matrices élémentaires telles que \(P=E_1E_2\cdots E_k\text{.}\) On a
\begin{align*} P^T&=(E_1E_2\cdots E_k)^T\\ &=E_k^T\cdots E_2^TE_1^T &&\text{ selon la propriété de la transposée d'un produit }\\ &=E_k^{-1}\cdots E_2^{-1}E_1^{-1} && \text{ selon la partie précédente }\\ &=(E_1E_2\cdots E_k)^{-1} &&\text{ car le produit d'inverses est égale à l'inverse du produit}\\ &=P^{-1}\text{.} \end{align*}

11.

Soit \(A\text{,}\) une matrice carrée et \(\vec{b}\text{,}\) un vecteur qui n’est pas une combinaison linéaire des lignes de \(A\text{.}\) Montrer que l’équation
\begin{equation*} A^T\vec{x}=\vec{b} \end{equation*}
ne possède pas de solutions.
Solution.
Puisqu’on peut interpréter une solution à l’équation \(A^T\vec{x}=\vec{b}\) comme étant \(x_1\vec{a}_1+x_2\vec{a}_2+\cdots +x_n\vec{a}_n=\vec{b} \text{,}\) où les vecteurs \(\vec{a}_1,\vec{a}_2,\ldots ,\vec{a}_n\) sont les colonnes de la matrice \(A^T\text{,}\) on a que, si une solution existe, alors \(\vec{b}\) est une combinaison linéaire des colonnes de \(A^T\text{.}\) Or, les colonnes de \(A^T\) sont égales aux lignes de \(A\) et l’on sait que \(\vec{b}\) n’est pas une combinaison linéaire de ces lignes. Ainsi l’équation n’a pas de solutions.

12.

Dans cet exercice, on veut donner un sens au mot « gauche » dans l’expression espace nul gauche.
(a)
On considère la matrice \(A=\matcolt{1}{2}{3}{-1}{-2}{-3}{2}{4}{6}\text{.}\) Déterminer tous les vecteurs dans l’espace nul gauche.
Réponse.
\(\text{span}((-2,1,0),(-3,0,1))\)
Solution.
L’espace nul gauche consiste en l’ensemble des vecteurs \(\vec{x}\) tel que \(A^T\vec{x}=\vec{0}\text{.}\) On échelonne la matrice transposée pour arriver aux solutions.
\begin{align*} A^T&=\begin{pmatrix}1& 2&3\\ -1&-2&-3\\2&4&6 \end{pmatrix}\\ &\matsimilc{1}{}{2}\begin{pmatrix}1& 2&3\\ 0&0&0\\2&4&6 \end{pmatrix}\\ &\matsimilc{1}{-2}{3}\begin{pmatrix}1& 2&3\\ 0&0&0\\0&0&0 \end{pmatrix}\text{.} \end{align*}
Il y a une variable pivot et deux variables libres. Les solutions spéciales sont \(\vec{s}_1=(-2,1,0),\vec{s}_2=(-3,0,1)\text{.}\) L’espace nul gauche est l’ensemble des combinaisons linéaires de ces vecteurs, soit le plan \((x,y,z)=a\vec{s}_1+b\vec{s}_2\text{.}\)
(b)
Soit \(\vec{u}=\vecddd{x}{y}{z}\text{.}\) Montrer que les vecteurs de l’espace nul gauche satisfont l’équation
\begin{equation} \vec{u}^TA=\vec{0}^T\text{.}\tag{3.4.5} \end{equation}
Solution.
On commence par vérifier que les vecteurs \(\vec{s}_1,\vec{s}_2\) satisfont l’équation. D’une part, on a
\begin{equation*} \vec{s}_1^TA=\begin{pmatrix} -2& 1& 0 \end{pmatrix}\matcolt{1}{2}{3}{-1}{-2}{-3}{2}{4}{6}=\begin{pmatrix} 0&0&0 \end{pmatrix} \end{equation*}
et d’autre part, pour \(\vec{s}_2\text{,}\) on a
\begin{equation*} \vec{s}_2^TA=\begin{pmatrix} -3& 0& 1 \end{pmatrix}\matcolt{1}{2}{3}{-1}{-2}{-3}{2}{4}{6}=\begin{pmatrix} 0&0&0 \end{pmatrix}\text{.} \end{equation*}
Soit \(\vec{u}\text{,}\) un vecteur de l’espace nul gauche. Alors, il existe \(a,b\) tels que \(\vec{u}=a\vec{s}_1+b\vec{s}_2\text{.}\) Ainsi,
\begin{align*} \vec{u}^TA&=(a\vec{s}_1+b\vec{s}_2)^TA\\ &=(a\vec{s}_1^T+b\vec{s}_2^T)A&& \text{propriété de la transposée d'une somme}\\ &=a\vec{s}_1^TA+b\vec{s}_2^TA\\ &=a(\vec{s}_1^TA)+b(\vec{s}_2^TA) &&\text{associativité du produit matriciel}\\ &=0+0\\ &=0\text{.} \end{align*}
(c)
Soit \(A\text{,}\) une matrice \(m\times n\) quelconque et \(\vec{u}\) une vecteur, dans l’espace nul de \(A\text{.}\) Montrer que \(\vec{u}\) satisfait l’équation (3.4.5).
Indice.
Considérer la proposition 3.3.17.
Solution.
Selon la proposition 3.3.17, les solutions à l’équation \(A^T\vec{u}=\vec{0}\) formant l’espace nul gauche sont perpendiculaires aux lignes de \(A^T\text{,}\) qui elles, sont les colonnes de \(A\text{.}\) Dans le produit \(u^TA\text{,}\) on fait le produit scalaire de vecteur \(\vec{u}\) avec les colonnes de la matrice \(A\) et donc, le résultat est le vecteur nul.

13.

Pour chaque matrice ci-dessous, trouver tous les vecteurs qui sont perpendiculaires aux lignes et tous les vecteurs qui sont perpendiculaires aux colonnes.
(a)
\(A_1=\left(\begin{array}{rrrr} 1 & -3 & -4 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0 \end{array}\right)\)
Solution.
Pour déterminer les vecteurs perpendiculaires aux lignes, il faut, selon la proposition 3.3.17, résoudre l’équation \(A\vec{x}=\vec{0}\text{.}\) La matrice \(A_1\) est échelonnée réduite. Il y a deux variables pivots et deux variables libres. Les solutions spéciales sont \(\vec{s}_1=(3,1,0,0),\vec{s}_2=(4,0,1,0)\text{.}\) Ainsi, tout vecteur de la forme \(a\vec{s}_1+b\vec{s}_2\) sera perpendiculaire aux lignes.
Pour trouver les vecteurs qui sont perpendiculaires aux colonnes, on transpose la matrice afin d’utiliser à nouveau la proposition 3.3.17. Cette fois, il faut échelonner la matrice \(A^T\text{.}\) On a
\begin{align*} \begin{pmatrix} 1&0 & 0\\ -3& 0& 0\\ -4& 0& 0\\ 0&1&0 \end{pmatrix}&\matsimilc{1}{3}{2}\begin{pmatrix} 1&0 & 0\\ 0& 0& 0\\ -4& 0& 0\\ 0&1&0 \end{pmatrix}\\ &\matsimilc{1}{4}{3}\begin{pmatrix} 1&0 & 0\\ 0& 0& 0\\ 0& 0& 0\\ 0&1&0 \end{pmatrix}\\ &=\matsimile{2}{4}\begin{pmatrix} 1&0 & 0\\ 0& 1& 0\\ 0& 0& 0\\ 0&0&0 \end{pmatrix}\text{.} \end{align*}
On a une variable libre et deux variables pivots. La solution spéciale est \(\vec{t}=(0,0,1)\text{.}\) Tous les vecteurs de la forme \((0,0,k)\) sont perpendiculaires aux lignes de \(A_1^T\) et donc, aux colonnes de \(A_1\text{.}\)
(b)
\(A_2=\left(\begin{array}{rrrr} 1 & 0 & 0 & -1 \\ 0 & 1 & 0 & 3 \\ 0 & 0 & 1 & -4 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \end{array}\right)\)
Solution.
La matrice \(A_2\) est échelonnée. Il y a une variable libre et donc, une solution spéciale \(\vec{s}=(1,-3,4,1)\text{.}\) Tout multiple de ce vecteur sera perpendiculaire aux lignes de \(A_2\text{.}\)
Pour les colonnes, on échelonne la matrice \(A_2^T\) :
\begin{align*} \begin{pmatrix} 1&0&0&0&0\\ 0&1&0&0&0\\ 0&0&1&0&0\\ -1&3&-4&0&0 \end{pmatrix}&\matsimilc{1}{}{4}\begin{pmatrix} 1&0&0&0&0\\ 0&1&0&0&0\\ 0&0&1&0&0\\ 0&3&-4&0&0 \end{pmatrix}\\ &\matsimilc{2}{-3}{4}\begin{pmatrix} 1&0&0&0&0\\ 0&1&0&0&0\\ 0&0&1&0&0\\ 0&0&-4&0&0 \end{pmatrix}\\ &\matsimilc{1}{4}{4}\begin{pmatrix} 1&0&0&0&0\\ 0&1&0&0&0\\ 0&0&1&0&0\\ 0&0&0&0&0 \end{pmatrix}\text{.} \end{align*}
On a deux variables libres et trois pivots. Les solutions spéciales sont \(\vec{t}_1=(0,0,0,1,0),\vec{t}_2=(0,0,0,0,1)\text{.}\) Tout vecteur s’écrivant comme une combinaison linéaire de ces deux solutions sera perpendiculaire aux lignes de \(A_2^T\) et donc, aux colonnes de \(A_2\text{.}\)
(c)
\(A_3=\left(\begin{array}{rrrr} 1 & 4 & 0 & 1 \\ 0 & 0 & 1 & -2 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \end{array}\right)\)
Solution.
La matrice \(A_3\) est échelonnée réduite. Il y a deux variables libres et deux pivots. Les solutions spéciales sont \(\vec{s}_1=(-4,1,0,0),\vec{s}_2=(-1,0,2,1)\text{.}\) Tout vecteur s’écrivant comme une combinaison linéaire de ces solutions est perpendiculaire aux lignes de \(A_3\text{.}\)
Pour les colonnes, on échelonne la matrice \(A^T\text{:}\)
\begin{align*} \begin{pmatrix} 1& 0&0&0\\ 4& 0 &0&0\\ 0&1&0&0\\ 1&-2&0&0\end{pmatrix}\matsimilc{1}{-4}{2}\begin{pmatrix} 1& 0&0&0\\ 0& 0 &0&0\\ 0&1&0&0\\ 1&-2&0&0\end{pmatrix}\\ \matsimilc{1}{-}{4}\begin{pmatrix} 1& 0&0&0\\ 0& 0 &0&0\\ 0&1&0&0\\ 0&-2&0&0\end{pmatrix}\\ \matsimile{2}{3}\begin{pmatrix} 1& 0&0&0\\ 0& 1 &0&0\\ 0&0&0&0\\ 0&-2&0&0\end{pmatrix}\\ \matsimilc{2}{2}{4}\begin{pmatrix} 1& 0&0&0\\ 0& 1 &0&0\\ 0&0&0&0\\ 0&0&0&0\end{pmatrix}\text{.} \end{align*}
Il y a deux variables libres et deux variables pivots. Les solutions spéciales sont \(\vec{t}_1=(0,0,1,0),\vec{t}_2=(0,0,0,1)\text{.}\) Tout vecteur s’écrivant comme une combinaison linéaire de ces deux solutions sera perpendiculaire aux lignes de \(A_3^T\) et donc, aux colonnes de \(A_3\text{.}\)

14.

Pour chaque description ci-dessous, donner une matrice qui la satisfait.
(a)
La matrice est \(m\times n\) avec \(m\leq n\text{,}\) elle ne contient aucune entrée égale à zéro et possède comme espace colonne que les vecteurs parallèles à \(\vec{u}=\vecd{-1}{2}\text{.}\)
Solution.
La manière la plus simple est de mettre le vecteur \(\vec{u}\) dans les colonnes d’une matrice jusqu’à ce que \(2=m\leq n\text{.}\) Un exemple est donc \(\matcold{-1}{2}{-1}{2}\text{.}\) L’espace colonne étant l’ensemble des combinaisons linéaires des colonnes de la matrice, cette matrice respecte la condition que son espace colonne ne contient que les vecteurs parallèles à \(\vec{u}\text{,}\) puisque les colonnes sont toutes égales à \(\vec{u}\text{.}\) De manière générale, on aurait pu avoir n’importe quelle matrice de la forme
\begin{equation*} \begin{pmatrix} -k_1& -k_2& \cdots &-k_n\\ 2k_1& 2k_2& \cdots &2k_n\\\end{pmatrix} \end{equation*}
\(k_1,k_2,\ldots , k_n\in \R\backslash\{0\}\) et \(n\geq 2\text{.}\)
(b)
La matrice ne contient aucune entrée égale à zéro et possède comme espace nul que les vecteurs parallèles à \(\vec{u}=\vecd{-1}{2}\text{.}\)
Solution.
En d’autres mots, on veut que la solution spéciale à l’équation \(A\vec{x}=\vec{0}\) soit un multiple du vecteur \(\vec{u}\text{.}\) Le vecteur \(\vec{s}=\left(-\frac{1}{2},1\right)\) satisfait cette contrainte. La matrice échelonnée réduite la plus simple qui correspond à cette situation serait \(\begin{pmatrix} 1& \frac{1}{2}\\ 0& 0 \end{pmatrix}\text{.}\) Pour respecter la condition de n’avoir aucune entrée égale à zéro, il suffit de prendre un multiple de la ligne un et de l’ajouter à la ligne deux. L’exemple le plus simple serait de copier la ligne un à la ligne deux
\begin{equation*} \begin{pmatrix} 1& \frac{1}{2}\\1& \frac{1}{2} \end{pmatrix} \end{equation*}
. De manière générale, toute matrice de la forme \(\begin{pmatrix} k_1& \frac{k_1}{2}\\k_2& \frac{k_2}{2} \end{pmatrix}\) ferait l’affaire.
(c)
La matrice \(m\times n\) avec \(m=n+2\) ne contient aucune entrée égale à zéro et possède comme espace ligne que les vecteurs parallèles à \(\vec{u}=\vecd{-3}{1}\text{.}\)
Solution.
Il doit y avoir deux colonnes, car l’espace ligne est dans \(\R^2\text{.}\) Il y aura donc quatre lignes pour satisfaire \(m=n+2=2+2\text{.}\) La manière la plus simple est de copier le vecteur \(\vec{u}\) aux quatre lignes de la matrice. De manière générale, toute matrice de la forme
\begin{equation*} \begin{pmatrix} -3k_1& 1k_1\\ -3k_2& 1k_2\\ -3k_3& 1k_3\\ -4k_4& 1k_4\\ \end{pmatrix} \end{equation*}
\(k_1,k_2,k_3,k_4\in \mathbb{R}\backslash\{0\} \) fera l’affaire.
(d)
La matrice ne contient aucune entrée égale à zéro et possède comme espace nul gauche que les vecteurs parallèles à \(\vec{u}=\vecd{-3}{1}\text{.}\)
Solution.
De manière semblable à la matrice trouvée pour que l’espace nul soit composé uniquement des multiples de \((-1,2)\text{,}\) on montre que la matrice \(\begin{pmatrix} 1 & 3\\ 0& 0 \end{pmatrix}\) aura comme espace nul les multiples du vecteur \(\vec{u}=(-3,1)\text{.}\) On ajoute à la ligne deux un multiple de la ligne un pour avoir en général
\begin{equation*} A=\begin{pmatrix} k_1& 3k_1\\k_2& 3k_2 \end{pmatrix}\text{.} \end{equation*}
Puisque l’espace nul gauche est \(\mathcal{N}(A^T)\text{,}\) si l’on prend comme matrice \(B=A^T\text{,}\) son espace nul gauche va correspondre à l’espace nul de \((A^T)^T=A\) et aura les conditions requises. Toute matrice de la forme \(\begin{pmatrix} k_1& k_2\\3k_1& 3k_2 \end{pmatrix}\) fera l’affaire.
(e)
La matrice \(3\times 2\) ne contient aucune entrée égale à zéro et possède comme espace colonne que les vecteurs parallèles à \(\vec{u}=\vecddd{-1}{2}{1}\text{.}\)
Solution.
L’idée est la même que précédemment, toute matrice de la forme \(\begin{pmatrix} -k_1& -k_2\\ 2k_1& 2k_2 \\ k_1& k_2\end{pmatrix}\) fera l’affaire.
(f)
La matrice est carrée, ne contient aucune entrée égale à zéro, les lignes ne sont pas parallèles entre elles et possède comme espace nul que les vecteurs parallèles à \(\vec{u}=\vecddd{-1}{2}{1}\text{.}\)
Solution.
Encore ici, on cherche une matrice dont la forme échelonnée n’aura qu’une solution de base. La matrice échelonnée réduite
\begin{equation*} \begin{pmatrix} 1&0&1\\ 0&1&-2\\ 0&0&0 \end{pmatrix} \end{equation*}
a pour seule solution spéciale le vecteur \(\vec{u}\text{.}\) Pour éliminer les zéros, on fait des opérations élémentaires sur les lignes. Par exemple,
\begin{align*} \begin{pmatrix} 1&0&1\\ 0&1&-2\\ 0&0&0 \end{pmatrix}&\matsimilc{2}{}{1}\begin{pmatrix} 1&1&-1\\ 0&1&-2\\ 0&0&0 \end{pmatrix}\\ &\matsimilc{1}{}{2}\begin{pmatrix} 1&1&-1\\ 1&2&-3\\ 0&0&0 \end{pmatrix}\\ &\matsimilc{1}{}{3}\begin{pmatrix} 1&1&-1\\ 1&2&-3\\ 1&1&-1 \end{pmatrix}\\ \end{align*}

Une étape de plus est requise pour ne pas avoir la troisième ligne parallèle à la première.

\begin{align*} &\matsimilc{2}{}{3}\begin{pmatrix} 1&1&-1\\ 1&2&-3\\ 2&3&-4 \end{pmatrix}\text{.} \end{align*}
Évidemment, d’autres choix de facteurs auraient pu être faits pour les opérations élémentaires.
(g)
La matrice ne contient aucune entrée égale à zéro et possède comme espace colonne que les vecteurs qui sont des combinaisons linéaires des vecteurs \(\vec{u}=\vecddd{-1}{2}{1}, \vec{v}=\vecddd{2}{1}{2}\text{.}\)
Solution.
Le plus simple consiste à mettre les deux vecteurs comme des colonnes d’une matrice. Ainsi, \(\begin{pmatrix}-1& 2\\ 2&1 \\ 1& 2 \end{pmatrix}\) fait l’affaire.
(h)
La matrice carrée ne contient aucune entrée égale à zéro, aucune fraction et possède comme espace nul que les vecteurs qui sont des combinaisons linéaires des vecteurs \(\vec{u}=\vecddd{-1}{2}{1}, \vec{v}=\vecddd{2}{1}{2}\text{.}\)
Solution.
Les vecteurs \(\vec{u},\vec{v}\) n’ont pas la forme de solutions de base. Le fait qu’il faut deux vecteurs pour générer l’espace nul signifie qu’il doit y avoir deux variables libres. Si l’on suppose que \(y,z\) sont les variables libres, il faudrait que les vecteurs soit de la forme \(\vec{u}^{'}=(u_1,1,0),\vec{v}^{'}=(v_1,0,1)\) pour respecter la forme des solutions de base. On cherche donc comment, à partir de \(\vec{u},\vec{v}\text{,}\) on peut obtenir ces vecteurs. On veut
\begin{equation*} \vecddd{u_1}{1}{0}=a\vecddd{-1}{2}{1}+b\vecddd{2}{1}{2}\text{.} \end{equation*}
Comme on ne se soucie pas de la première composante, on a que \(1=2a+b\) et \(0=a+2b\text{.}\) Pour le vecteur \(\vec{v}^{'}\text{,}\) on obtient de manière similaire les équations \(0=2a+b\) et \(1=a+2b\text{.}\) On peut résoudre simultanément ces systèmes en échelonnant la matrice augmentée
\begin{align*} \left(\begin{array}{rr|rr} 2& 1& 1 &0\\ 1&2&0 &1 \end{array}\right)&\matsimile{1}{2}\left(\begin{array}{rr|rr} 1& 2& 0&1\\ 2&1&1&0 \end{array}\right)\\ &\matsimilc{1}{-2}{2}\left(\begin{array}{rr|rr} 1& 2& 0&1\\ 0&-3&1&-2 \end{array}\right)\\ &\matsimils{2}{-\frac{1}{3}}\left(\begin{array}{rr|rr} 1& 2& 0&1\\ 0&1&-\frac{1}{3}&\frac{2}{3} \end{array}\right)\\ &\matsimilc{2}{-2}{1}\left(\begin{array}{rr|rr} 1& 0& \frac{2}{3}&-\frac{1}{3}\\ 0&1&-\frac{1}{3}&\frac{2}{3} \end{array}\right)\text{.} \end{align*}
Le premier vecteur est \(\vec{u}^{'}=\frac{2}{3}\vecddd{-1}{2}{1}-\frac{1}{3}\vecddd{2}{1}{2}=\vecddd{-\frac{4}{3}}{1}{0}\) et le deuxième vecteur est \(\vec{v}^{'}=-\frac{1}{3}\vecddd{-1}{2}{1}+\frac{2}{3}\vecddd{2}{1}{2}=\vecddd{\frac{5}{3}}{0}{1}\) .
Une matrice échelonnée réduite ayant ces deux vecteurs comme solutions de base serait \(\begin{pmatrix} 1& \frac{4}{3}& -\frac{5}{3}\\ 0& 0& 0 \\ 0&0&0 \end{pmatrix}\text{.}\) Pour satisfaire les conditions d’entrées non nulles et d’absence de fractions, on peut multiplier la première ligne par trois et recopier cette ligne dans les deux autres. On a donc
\begin{equation*} \begin{pmatrix} 3& 4& -5\\ 3& 4& -5 \\ 3&4&-5 \end{pmatrix} \end{equation*}
(i)
La matrice carrée ne contient aucune ligne parallèle, aucune entrée égale à zéro et possède comme espace ligne que les vecteurs qui sont des combinaisons linéaires des vecteurs \(\vec{u}=\vecddd{1}{0}{3},\vec{v}=\vecddd{1}{1}{0}\text{.}\)
Solution.
La réponse la plus simple consiste à inscrire les vecteurs dans les deux premières lignes d’une matrice dont la troisième sera nulle et d’utiliser les opérations élémentaires pour éliminer les zéros. On a donc
\begin{align*} \begin{pmatrix} 1& 0& 3\\ 1& 1& 0\\ 0&0&0 \end{pmatrix}&\matsimilc{2}{}{1}\begin{pmatrix} 2& 1& 3\\ 1& 1& 0\\ 0&0&0 \end{pmatrix}\\ \matsimilc{1}{}{2}\begin{pmatrix} 2& 1& 3\\ 3& 2& 3\\ 0&0&0 \end{pmatrix}\\ \matsimilc{1}{}{3}\begin{pmatrix} 2& 1& 3\\ 3& 2& 3\\ 2&1&3 \end{pmatrix}\\ \matsimilc{2}{}{3}\begin{pmatrix} 2& 1& 3\\ 3& 2& 3\\ 5&3&6 \end{pmatrix}\text{,} \end{align*}
la dernière étape étant nécessaire pour respecter la condition que les lignes ne soient pas parallèles.
(j)
La matrice ne contient aucune entrée égale à zéro et possède comme espace nul gauche que les vecteurs qui sont des combinaisons linéaires des vecteurs \(\vec{u}=\vecddd{1}{1}{0}{0},\vec{v}=\vecddd{1}{0}{1}{1}\text{.}\)
Solution.
On cherche une matrice telle que la transposée aura deux solutions de base. On commence par construire la transposée. Les vecteurs \(\vec{u},\vec{v}\) ont la forme de solution de base si les variables \(x_2,x_4\) sont libres. On construit donc une matrice échelonnée réduite qui aura ces vecteurs comme solution de base:
\begin{equation*} \begin{pmatrix} 1&-1&0&-1\\ 0&0&1&-1\\ \end{pmatrix}\text{.} \end{equation*}
On peut ensuite appliquer des opérations élémentaires sur les lignes afin d’éliminer les zéros. On pourrait avoir, par exemple,
\begin{align*} \begin{pmatrix} 1&-1&0&-1\\ 0&0&1&-1\\ \end{pmatrix}&\matsimilc{1}{}{2}\begin{pmatrix} 1&-1&0&-1\\ 1&-1&1&-2\\ \end{pmatrix}\\ &\matsimilc{2}{}{1}\begin{pmatrix} 2&-2&1&-3\\ 1&-1&1&-2\\ \end{pmatrix}\text{.} \end{align*}
Finalement, pour que la matrice ait comme espace nul gauche l’espace engendré par les vecteurs \(\vec{u},\vec{v}\text{,}\) on prend la transposée de la matrice ci-dessus :
\begin{equation*} \begin{pmatrix} 2&1\\ -2& -1\\ 1& 1\\ -3&-2 \end{pmatrix}\text{.} \end{equation*}

Exercices Sage.

Les exercices qui suivent sont conçus pour être résolus avec Sage. Des cellules vides sont disponibles pour écrire les réponses. Évidemment, il y a plusieurs manières possibles d’arriver aux réponses.
15.
Utiliser la fonction matquelc de l’exemple calculatoire 2.3.23 pour vérifier les égalités suivantes. Recopier le code de la fonction matquelc ci-dessous dans un premier temps et exécuter ensuite la cellule.
(a)
Une matrice de taille \(5\times 4\) multipliée par sa transposée est une matrice symétrique. (La commande A.is_symmetric() permet de vérifier si la matrice \(A\) est symétrique ou non.
Solution.
A=matquelc(5,4,'a')
show("A=",A)
show("A^T=",A.transpose())
(A*(A.transpose())).is_symmetric()
Bloc de code 3.4.13. Le code de la solution
(b)
Soit \(A\text{,}\) une matrice \(5\times 5\text{.}\) La matrice \(A+A^T\) est symétrique.
Solution.
A=matquelc(5,5,'a')
show("A=",A)
show("A^T=",A.transpose())
(A+(A.transpose())).is_symmetric()
Bloc de code 3.4.14. Le code de la solution
(c)
Soit \(A\text{,}\) une matrice \(7\times 7\text{.}\) La matrice \(A-A^T\) est antisymétrique (La commande pour antisymétrique sur Sage est A.is_skew_symmetric().
Solution.
A=matquelc(7,7,'a')
show("A=",A)
show("A^T=",A.transpose())
(A*(A.transpose())).is_skew_symmetric()
Bloc de code 3.4.15. Le code de la solution
(d)
Vérifier les quatre premières propriétés de la proposition 3.4.3 avec \(m=4,n=5\) et \(p=6\text{.}\)
Solution.
A=matquelc(4,5,'a')
B=matquelc(4,5,'b')
C=matquelc(5,6,'c')
var("k")
show("La propriété 1 est ",(A.transpose()).transpose()==A)
show("La propriété 2 est ",(k*A).transpose()==k*(A.transpose()))
show("La propriété 3 est ",(A+B).transpose()==A.transpose()+B.transpose())
show("La propriété 4 est ",(A*C).transpose()==(C.transpose())*(A.transpose()))
Bloc de code 3.4.16. Le code de la solution
16.
Refaire les cas possibles de l’exercice 3.4.3.1.
Solution.
A=matrix([[1,-2],[3,1]])
B=matrix([[3,2],[1,5]])
C=matrix([[2,-2,3],[0,2,1]])
D=matrix([[7,-1],[2,4],[1,0]])
show("A^T=",A.transpose())
show("4A-5B^T=",4*A-5*B.transpose())
show("C^T=",C.transpose())
show("C^T+D",C.transpose()+D)
show("A^TC",A.transpose()*C)
show("AC^T n'est pas possible")
show("C^TB^T=",(C.transpose())*(B.transpose()))
show("BD n'est pas possible")
show("BD^T=",B*(D.transpose()))
show("DB=",D*B)
show("D^TB n'est pas possible")
show("CC^T=",C*(C.transpose()))
show("C^TC=",C.transpose()*C)
show("CD=",C*D)
show("C^TD^T=",C.transpose()*D.transpose())
show("DC=",D*C)
show("D^TC^T=",D.transpose()*C.transpose())
Bloc de code 3.4.17. Le code de la solution
17.
Déterminer, à la manière de l’exemple calculatoire 3.4.12, les espaces fondamentaux des matrices de l’exercice 3.4.3.13 .
Solution.
A1=matrix(QQ,[[1,-3,-4,0],[0,0,0,1],[0,0,0,0]])
A2=matrix(QQ,[[1,0,0,-1],[0,1,0,3],[0,0,1,-4],[0,0,0,0],[0,0,0,0]])
A3=matrix(QQ,[[1,4,0,1],[0,0,1,-2],[0,0,0,0],[0,0,0,0]])
####Pour la matrice A1####
show("Pour la matrice A1")
###Pour son espace nul
show("Une base de l'espace nul est")
show(A1.right_kernel(basis="pivot").basis())
###Pour son espace ligne
show("Une base de l'espace ligne est")
show(A1.row_space().basis())
###Pour son espace colonne
show("Une base de l'espace colonne est")
show(A1.column_space().basis())
###Pour son espace nul gauche
show("Une base de l'espace nul gauche est")
show(A1.left_kernel(basis="pivot").basis())
##########################################
####Pour la matrice A1####
show("Pour la matrice A2")
###Pour son espace nul
show("Une base de l'espace nul est")
show(A2.right_kernel(basis="pivot").basis())
###Pour son espace ligne
show("Une base de l'espace ligne est")
show(A2.row_space().basis())
###Pour son espace colonne
show("Une base de l'espace colonne est")
show(A2.column_space().basis())
###Pour son espace nul gauche
show("Une base de l'espace nul gauche est")
show(A2.left_kernel(basis="pivot").basis())
##############################################
####Pour la matrice A1####
show("Pour la matrice A3")
###Pour son espace nul
show("Une base de l'espace nul est")
show(A3.right_kernel(basis="pivot").basis())
###Pour son espace ligne
show("Une base de l'espace ligne est")
show(A3.row_space().basis())
###Pour son espace colonne
show("Une base de l'espace colonne est")
show(A3.column_space().basis())
###Pour son espace nul gauche
show("Une base de l'espace nul gauche est")
show(A3.left_kernel(basis="pivot").basis())sub
Bloc de code 3.4.18. Le code de la solution