Sauter au contenu
Logo image

Algèbre linéaire: Intuition et rigueur

Section 5.1 Sous-espaces vectoriels

Aller aux exercices 5.1.3 de la section.
On considère deux vecteurs sur un plan. Si l’on additionne ces deux vecteurs, le résultat est-il encore sur le plan? Qu’en est-il d’un multiple d’un vecteur du plan, est-il aussi dans le plan? Si oui, un objet qui possède ces propriétés est dit fermé par rapport à l’addition et à la multiplication.
Un sous-espace est un espace à l’intérieur d’un autre espace. C’est une partie en général plus petite que l’espace dans lequel elle se situe, mais qui possède la même structure.
Dans cette section, on définit la notion de sous-espace vectoriel. On considère des exemples géométriques et algébriques et l’on explore les quatre sous-espaces fondamentaux en lien avec ces nouveaux concepts.

Sous-section 5.1.1 Sous-espace

On revient à la question d’introduction en considérant les plans
\begin{align*} \mathcal{P}_1:& &x+y+z&=0\\ \mathcal{P}_2:& & x-2y+z&=6\text{.} \end{align*}
Les vecteurs dans le plan \(\mathcal{P}_1\) sont de la forme \((x,y,-x-y)\) et les vecteurs dans le plan \(\mathcal{P}_2\) sont de la forme \((x,y,6+2y-x)\text{.}\)
Si l’on prend deux vecteurs de \(\mathcal{P}_1\text{,}\) on peut montrer que leur somme est aussi dans le plan, car
\begin{align*} (x_1,y_1,-x_1-y_1)+(x_2,y_2,-x_2-y_2)&=(x_1+x_2,y_1+y_2,-x_1-x_2-y_1-y_2)\\ &=(x_1+x_2,y_1+y_2,-(x_1+x_2)-(y_1+y_2))\text{.} \end{align*}
Un multiple d’un vecteur de ce plan y demeure aussi, puisque \(k(x,y,-x-y)=(kx,ky,k(-x-y)=(kx,ky,-kx-ky)\text{.}\)
Par contre, le plan \(\mathcal{P}_2\) ne possède pas ces propriétés. On peut prendre un exemple spécifique ou encore faire le cas général. Dans le cas de la somme quelconque, on a
\begin{align*} (x_1,y_1,6+2y_1-x_1)+(x_2,y_2,6+2y_2-x_2)&=(x_1+x_2,y_1+y_2,6+2y_1-x_1+6+2y_2-x_2)\\ &=(x_1+x_2,y_1+y_2,12+2(y_1+y_2)-(x_1+x_2))\text{,} \end{align*}
alors que pour un cas spécifique avec un multiple, il suffit de prendre zéro fois le vecteur \((1,1,2)\in \mathcal{P}_2\) et de constater que \((0,0,0)\notin \mathcal{P}_2\text{.}\)
Ceci motive la définition suivante.

Définition 5.1.1. Sous-espace vectoriel.

Soit \(V\text{,}\) un ensemble non vide de vecteurs (possiblement tous) de \(\R^n\text{,}\) de sorte que \(V\subseteq \R^n\text{.}\) On dit que \(V\) est un sous-espace vectoriel si les vecteurs dans \(V\) satisfont les propriétés suivantes:
Liste 5.1.2. Propriétés à satisfaire
  1. Si deux vecteurs sont dans \(V\text{,}\) alors leur somme est aussi dans \(V\text{,}\) c’est-à-dire si \(\vec{u},\vec{v}\in V\text{,}\) alors \(\vec{u}+\vec{v}\in V\text{.}\)
  2. Si un vecteur est dans \(V\) et qu’on le multiplie par un scalaire, alors le multiple est aussi dans \(V\text{,}\) c’est-à-dire si \(k\in \R,\vec{v}\in V\text{,}\) alors \(k\vec{v}\in V\text{.}\)
On dit que l’ensemble \(V\) est fermé par rapport à l’addition et à la multiplication par un scalaire.
On débute avec des exemples de sous-espaces vectoriels.

Exemple 5.1.3. Des sous-espaces vectoriels.

On considère les ensembles vecteurs suivants, vus comme des sous-ensembles de \(\R^n\) pour \(n\) approprié:
  1. Le plan \(\mathcal{P}_1\) du début de section;
  2. Les vecteurs de la forme \((x,x)\text{;}\)
  3. L’ensemble ne contenant que le vecteur nul : \(\{\vec{0}\}\text{;}\)
  4. L’espace \(\R^n\) au complet;
  5. Une droite \(\mathcal{D}\) dans \(\R^n\text{,}\) passant par l’origine;
  6. Un plan \(\mathcal{P}\) dans \(\R^n\text{,}\) passant par l’origine;
  7. Un hyperplan dans \(\R^n\text{,}\) passant par l’origine.
Solution 1.
La démonstration est faite à même le texte en début de section.
Solution 2.
On considère deux vecteurs \(\vec{u}=(x_1,x_1),\vec{v}=(x_2,x_2)\) et un scalaire \(k\in \R\) quelconque. On doit montrer que \(\vec{u}+\vec{v}\) a la même composante en \(y\) qu’en \(x\) et que \(k\vec{u}\) a lui aussi cette propriété. Pour la somme, on a
\begin{align*} \vec{u}+\vec{v}&=(x_1+x_2,x_1+x_2)\text{,} \end{align*}
qui est dans \(V\text{.}\) Pour la multiplication par un scalaire, on a
\begin{align*} k\vec{u}&=k(x_1,x_1)\\ &=(kx_1,kx_1)\text{,} \end{align*}
qui est également dans \(V\text{.}\)
Solution 3.
Puisque le vecteur nul est le seul vecteur de l’espace, on ne peut que considérer la somme \(\vec{0}+\vec{0}=\vec{0}\in V\text{.}\) De même, puisque \(k\vec{0}=\vec{0}\in V\text{,}\) l’ensemble \(\{\vec{0}\}\) est un espace vectoriel. On l’appelle souvent l’espace vectoriel trivial.
Solution 4.
À priori, cette question semble évidente, puisqu’on a défini l’addition de vecteurs et la multiplication par un scalaire composante par composante, ce qui fait qu’un vecteur de \(\R^n\) additionné à un autre restera un vecteur de \(\R^n\) et de même pour la multiplication par un scalaire. On verra à la section [provisional cross-reference: sec-espvec] que la situation pourrait être plus complexe.
Solution 5.
Une droite passant par l’origine est caractérisée par l’ensemble des multiples d’un vecteur directeur \(\vec{u}\neq \vec{0}\text{.}\) Un vecteur sur la droite s’écrit comme \(\vec{v}=t\vec{u}\) pour un certain \(t\in \R\text{.}\) Afin de montrer que la somme de deux vecteurs sur la droite est aussi sur la droite et qu’un multiple d’un vecteur sur la droite l’est également, on prend \(\vec{v}_1=t_1\vec{u}, \vec{v}_2=t_2\vec{u}\) et \(k\in \R\text{.}\) Il faut montrer que la somme de \(\vec{v}_1\) et \(\vec{v}_2\) s’écrit comme un multiple réel de \(\vec{u}\text{.}\) La même idée s’appliquera pour la multiplication du vecteur \(\vec{v}_1\) par \(k\text{.}\)
Dans un premier temps, on a
\begin{align*} \vec{v}_1+\vec{v}_2&=t_1\vec{u}+t_2\vec{u}\\ &=(t_1+t_2)\vec{u}\text{.} \end{align*}
Comme \((t_1+t_2)\in \R\text{,}\) il s’ensuit que la somme des vecteurs est sur la droite.
Pour la multiplication par le scalaire, on a
\begin{align*} k\vec{v}_1&=k(t_1\vec{u})\\ &=(kt_1)\vec{u} \end{align*}
et, puisque \(kt_1\in \R\text{,}\) la multiplication est aussi sur la droite.
Solution 6.
Voir l’exercice 5.1.3.3.
Solution 7.
Un hyperplan peut être écrit comme le produit scalaire d’un vecteur \(\vec{n}\) avec le vecteur \(\vec{x}=(x_1,x_2,\ldots , x_n)\text{,}\) c’est-à-dire
\begin{equation*} \vec{n}\cdot \vec{x}=d \end{equation*}
\(d\in \R\text{.}\) Si l’hyperplan passe par l’origine, alors \(d=0\text{.}\) Les vecteurs dans l’hyperplan sont donc l’ensemble des vecteurs \(\vec{x}\) tels que \(\vec{n}\cdot \vec{x}=0\text{.}\) Soit \(\vec{u},\vec{v}\text{,}\) des vecteurs de \(\R^n\) sur l’hyperplan, c’est-à-dire des vecteurs tels que \(\vec{n}\cdot \vec{u}=0, \vec{n}\cdot \vec{v}=0\) et soit \(k\in \R\text{,}\) un scalaire. On a
\begin{align*} \vec{n}\cdot (\vec{u}+\vec{v})&=\vec{n}\cdot \vec{u}+\vec{n}\cdot\vec{v}&&\text{selon la distributivité du produit scalaire}\\ &=0+0 && \text{ car les vecteurs } \vec{u},\vec{v} \text{ sont sur l'hyperplan}\\ &=0\text{.} \end{align*}
Le vecteur \(\vec{u}+\vec{v}\) est donc aussi sur l’hyperplan. Pour la multiplication par un scalaire, on a
\begin{align*} \vec{n}\cdot(k\vec{u})&=k(\vec{n}\cdot\vec{u}) && \text{ selon } \knowl{./knowl/xref/li-propprodscal.html}{\text{1.2.7}}\\ &=k(0)\\ &=0\text{.} \end{align*}
La multiplication par le scalaire est aussi sur l’hyperplan.
Afin de bien comprendre que tout sous-ensemble de vecteurs n’est pas un sous-espace vectoriel, on regarde maintenant quelques contrexemples.

Exemple 5.1.4. Des ensembles qui ne sont pas des sous-espaces vectoriels.

Les ensembles suivants ne sont pas des sous-espaces vectoriels de \(\R^n\text{:}\)
  1. Le plan \(\mathcal{P}_2\) du début de la présente sous-section;
  2. Les vecteurs pour lesquels au moins une des composantes est nulle. Ce sont les vecteurs sur les axes de coordonnées;
  3. Une droite ne passant pas par l’origine.
Solution 1.
La solution est faite à même le texte en début de sous-section.
Solution 2.
Pour des fins de simplicité, on considère l’espace comme étant \(\R^2\text{.}\) Si l’on prend les vecteurs \(\vec{u}=(1,0)\) et \(\vec{v}=(0,1)\text{,}\) alors la somme \(\vec{u}+\vec{v}=(1,1)\) ne possède pas au moins l’une de ses composantes nulles. Elle n’est donc pas dans le sous-ensemble, ce qui fait que ce n’est pas un espace vectoriel.
Il convient de rappeler ici le conseil 2.1.12.
Solution 3.
Si la droite ne passe pas par l’origine, alors le vecteur \(\vec{0}\) n’est pas sur la droite. Soit \(\vec{v}\text{,}\) un vecteur sur la droite. Si l’on considère la multiplication par le scalaire \(0\text{,}\) alors le résultat \(0\vec{u}=\vec{0}\) n’est pas sur la droite. Ce n’est donc pas un espace vectoriel.
Des exemples importants de sous-espaces vectoriels sont les ensembles solutions à un système d’équations linéaires homogènes, correspondant aux zéros de la transformation linéaire associée.

Démonstration.

En fait, cette proposition est une reformulation de la proposition 3.3.3
Un résultat en apparence évident, mais qui aura son utilité à plus d’une reprise, est obtenu en considérant l’ensemble de toutes les combinaisons linéaires obtenues à partir d’un ensemble de vecteurs. Dans la section 1.3, on a appelé ce concept le \(\vspan\) des vecteurs. Cet ensemble est un sous-espace vectoriel.

Démonstration.

On vérifie directement, à l’aide de la définition, les propriétés. Soit \(\vec{v}_1,\vec{v}_2\text{,}\) des vecteurs dans l’espace engendré \(\vspan(\vec{u}_1,\vec{u}_2,\ldots , \vec{u}_n)\text{.}\) Puisque \(\vec{v}_1,\vec{v}_2\) sont une combinaison linéaire de vecteurs dans l’espace engendré, on peut écrire
\begin{align*} \vec{v}_1&=a_1\vec{u}_1+a_2\vec{u}_2+\cdots + a_n\vec{u}_n\\ \vec{v}_2&=b_1\vec{u}_1+b_2\vec{u}_2+\cdots + b_n\vec{u}_n\text{.} \end{align*}
On a donc
\begin{align*} \vec{v}_1+\vec{v}_2&=a_1\vec{u}_1+a_2\vec{u}_2+\cdots + a_n\vec{u}_n+b_1\vec{u}_1+b_2\vec{u}_2+\cdots + b_n\vec{u}_n\\ &=(a_1+b_1)\vec{u}_1+(a_2+b_2)\vec{u}_2+\cdots + (a_n+b_n)\vec{u}_n \end{align*}
qui est aussi une combinaison linéaire des vecteurs \(\vec{u}_1,\vec{u}_2,\ldots , \vec{u}_n\text{.}\) Ainsi, \(\vec{v}_1+\vec{v}_2\) est dans \(\vspan(\vec{u}_1,\vec{u}_2,\ldots , \vec{u}_n)\text{.}\)
De même, si \(c\in \R\text{,}\) alors
\begin{align*} c\vec{v}_1&=c(a_1\vec{u}_1+a_2\vec{u}_2+\cdots + a_n\vec{u}_n)\\ &=ca_1\vec{u}_1+ca_2\vec{u}_2+\cdots + ca_n\vec{u}_n\text{,} \end{align*}
qui est également combinaison linéaire et donc dans l’espace engendré.
En combinant les propositions précédentes, on peut arriver à caractériser les sous-espaces d’une manière géométrique. Puisque tout espace engendré par un ensemble de vecteurs est un sous-espace, il s’ensuit que les droites, plans et en général hyperplans passant par l’origine sont des sous-espaces vectoriels. On verra aussi à la prochaine section que, mis à part le sous-espace composé uniquement du vecteur nul, tout sous-espace peut être vu comme l’espace engendré par un certain nombre de vecteurs. Les sous-espaces ne sont donc qu’un autre terme utilisé pour décrire droites, plans et hyperplans.
 1 
En fait, on verra plus tard qu’on peut considérer des espaces plus arbitraires que \(\R^n\) et que les mots droites et plans n’auront plus de sens dans ces espaces.
Les sous-espaces vectoriels possèdent certaines propriétés communes. La plus importante est certainement la présence du vecteur nul.

Démonstration.

On prend un vecteur \(\vec{v}\) quelconque dans \(V\) (Le fait que l’ensemble \(V\) est un sous-espace implique qu’il est non vide). Puisque \(V\) est un sous-espace, la propriété 5.1.2:2 dit que les multiples de \(\vec{v}\) sont aussi dans le sous-espace. Il suffit alors de considérer le multiple \(0\vec{v}=\vec{0}\text{.}\)
D’autres propriétés seront explorées dans les exercices.
On termine avec une définition importante pour la suite et qui introduit le concept de complément orthogonal.

Définition 5.1.8. Le complément orthogonal.

Soit \(V\text{,}\) un sous-ensemble de \(\R^n\text{.}\) On définit le complément orthogonal de \(V\) comme étant l’ensemble des vecteurs \(\vec{u}\) dans \(\R^n\) tels que \(\vec{u}\) est orthogonal à tous les vecteurs de \(V\text{.}\) On le note
\begin{equation*} V^{\perp}=\{\vec{u}\in\R^n ~|~ \vec{u}\cdot\vec{v}=0 \text{ pour tout } \vec{v}\in V\}\text{.} \end{equation*}
On regarde des exemples géométriques de compléments orthogonaux.

Exemple 5.1.9. Compléments orthogonaux de droites et plans.

On considère les ensembles suivants:
\begin{align*} \mathcal{D}_1&: & (x,y)&=c(2,1)\\ \mathcal{D}_2&: &(x,y,z)&=t(1,2,-3)\\ \mathcal{P}&: & (x,y,z)&=a(1,2,-1)+b(-1,3,1)\text{.} \end{align*}
On cherche le complément orthogonal de chacun de ces ensembles de points.
Solution 1.
Les points sur \(\mathcal{D}_1\) ont comme caractéristiques d’être des multiples du vecteur directeur de la droite, soit \(\vec{v}=(2,1)\text{.}\) Dans \(\R^2\text{,}\) tout vecteur perpendiculaire à un de ces multiples sera de la forme \(k(-1,2)\text{.}\) Le complément orthogonal de la droite est donc aussi une droite, perpendiculaire à \(\mathcal{D}_1\text{.}\) Son équation vectorielle est \((x,y)=k(-1,2)\text{.}\)
Solution 2.
Les points sur \(\mathcal{D}_2\) ont comme caractéristiques d’être des multiples du vecteur directeur de la droite, soit \(\vec{v}=(1,2,-3)\text{.}\) Dans \(\R^3\text{,}\) tout vecteur perpendiculaire à un de ces multiples sera sur le plan d’équation normale \(x+2y-3z=0\text{,}\) dont le vecteur normal est le vecteur directeur de \(\mathcal{D}_2\text{.}\)
Solution 3.
Les points sur le plan \(\mathcal{P}\) sont tous perpendiculaires aux points sur la droite ayant comme vecteur directeur le vecteur normal du plan. On peut calculer ce vecteur en utilisant le produit vectoriel:
\begin{equation*} \vec{n}=\left(\begin{vmatrix}2&3\\-1&1 \end{vmatrix},-\begin{vmatrix}1&-1\\-1&1 \end{vmatrix},\begin{vmatrix}1&-1\\2& 3 \end{vmatrix}\right)=(5,0,5)\text{.} \end{equation*}
Le complément orthogonal du plan \(\mathcal{P}\) est donc la droite \(\mathcal{D}: (x,y,z)=r(5,0,5)\text{.}\)

Remarque 5.1.10. Le complément orthogonal n’est pas réservé aux sous-espaces vectoriels.

On peut déterminer le complément orthogonal de n’importe quel ensemble de vecteurs, non pas uniquement des ensembles qui sont des sous-espaces vectoriels. Par exemple, si l’on considère la droite
\begin{equation*} \mathcal{D}: (x,y)=c(2,1)+(1,1)\text{,} \end{equation*}
ce n’est pas un sous-espace vectoriel, car la droite ne passe pas par l’origine. On peut toutefois trouver son complément orthogonal en raisonnant géométriquement. On pourrait penser que les vecteurs se trouveront sur la droite perpendiculaire à \(\mathcal{D}\) et passant par le point \((1,1)\text{,}\) mais la situation réelle est plus complexe. Puisque chaque valeur de \(c\) apporte une direction différente (dû à l’addition du point \((1,1)\)), il y a en fait une infinité de droites qui composent le complément orthogonal. Comme on va principalement se concentrer sur les sous-espaces vectoriels dans le cadre de ces notes, on s’arrête à cette remarque.
On a déjà rencontré des sous-espaces orthogonalement complémentaires à la section 3.4. On y revient dans la prochaine sous-section. Pour le moment, on regarde les propriétés du complément orthogonal lorsque l’ensemble \(V\) est un sous-espace vectoriel.

Démonstration.

Soit \(\vec{u}_1,\vec{u}_2\text{,}\) des vecteurs de \(V^{\perp}\text{.}\) Alors pour tous les vecteurs \(\vec{v}\in V\)
\begin{align*} (\vec{u}_1+\vec{u}_2)\cdot \vec{v}&=\vec{u}_1\cdot\vec{v}+\vec{u}_2\cdot\vec{v}&& \text{ par la distributivité du produit scalaire }\\ &=0+0 &&\text{ car } \vec{u}_1,\vec{u}_2\in V^{\perp}\\ &=0\text{.} \end{align*}
De même, si \(c\in\R\text{,}\) alors
\begin{align*} (c\vec{u}_1)\cdot\vec{v}&=c(\vec{u}_1\cdot\vec{v}) && \text{selon } \knowl{./knowl/xref/prop-propprodscal.html}{\text{1.2.6}}\\ &=c(0)&&\text{ car } \vec{u}_1\in V^{\perp}\\ &=0\text{.} \end{align*}
Ainsi, le complément orthogonal est un sous-espace vectoriel.
On regarde deux autres propriétés du complément orthogonal qui seront utiles dans la sous-section suivante.

Démonstration.

Par définition, le complément orthogonal de \(W\) consiste à l’ensemble de tous les vecteurs \(\vec{u}\in \R^n\) pour lesquels \(\vec{u}\cdot\vec{w}=0\) avec \(\vec{w}\in W\text{.}\) Puisque les vecteurs dans \(V\) ont cette propriété par hypothèse, ces vecteurs sont certainement aussi dans \(W^{\perp}\text{.}\)
Cela dit, étant donnés deux ensembles \(V\) et \(W\) qui possèdent cette propriété, peut-on dire que \(V=W^{\perp}\text{?}\) L’exercice 5.1.3.12 permettra réfléchir à cette question.

Démonstration.

On veut montrer que tout vecteur \(\vec{u}\) dans \(W^{\perp}\) est aussi dans \(V^{\perp}\text{.}\) Or, si \(\vec{u}\) est dans \(W^{\perp}\text{,}\) cela signifie que \(\vec{u}\) est perpendiculaire à tous les vecteurs dans \(W\text{.}\) Comme \(V\) est inclus dans \(W\text{,}\) le vecteur \(\vec{u}\) est aussi perpendiculaire à tous les vecteurs dans \(V\text{.}\) On peut donc affirmer que \(\vec{u}\) est dans \(V^{\perp}\text{.}\) Ainsi \(W^{\perp}\subseteq V^{\perp}\text{.}\)

Démonstration.

Puisque pour tout vecteur \(\vec{v}\in\R^n\) on a \(\vec{v}\cdot\vec{0}=0\text{,}\) tous les vecteurs de \(\R^n\) sont dans le complément orthogonal.

Sous-section 5.1.2 Les quatre sous-espaces vectoriels

À la section 3.4, on a défini la notion des quatre sous-espaces fondamentaux d’une matrice. Ces quatre sous-ensembles sont aussi des sous-espaces vectoriels.

Démonstration.

On débute avec l’espace nul. C’est un sous-espace vectoriel selon la proposition 5.1.5. Comme l’espace nul gauche est équivalent à l’espace nul de la transposée, la même proposition confirme que c’est aussi un sous-espace vectoriel.
L’espace colonne (ligne) est défini comme étant l’ensemble des combinaisons linéaires des colonnes (lignes). On peut ainsi le voir comme le \(\vspan\) de ces colonnes (lignes), ce qui en fait donc un sous-espace vectoriel en vertu de la proposition 5.1.6.
On regarde un exemple des espaces colonne et nul sous l’œil des sous-espaces vectoriels.

Exemple 5.1.16. Les sous-espaces fondamentaux comme sous-espaces vectoriels.

On considère la matrice
\begin{equation*} A=\left(\begin{array}{rrrr} 1 & -1 & 2 & -3 \\ 2 & 0 & 4 & -8 \\ -1 &-1 & -2 & 5 \end{array}\right)\text{.} \end{equation*}
L’espace nul est un sous-espace de \(\R^4\) et l’espace colonne est un sous-espace de \(\R^3\text{.}\) On cherche à les caractériser en tant que sous-espaces vectoriels.
Solution.
La forme échelonnée réduite de \(A\) est
\begin{equation*} R=\left(\begin{array}{rrrr} 1 & 0 & 2 & -4 \\ 0 & 1 & 0 & -1 \\ 0 & 0 & 0 & 0 \end{array}\right)\text{.} \end{equation*}
De cette matrice \(R\text{,}\) on peut déduire les solutions de base
\begin{align*} \vec{s}_1&=(-2,0,1,0)\\ \vec{s}_2&=(4,1,0,1)\text{.} \end{align*}
Les solutions à l’équation \(A\vec{x}=\vec{0}\) s’écrivent donc comme \(\vspan(\vec{s}_1,\vec{s}_2)\text{.}\) C’est un sous-espace vectoriel qui consiste en un plan de \(\R^4\) de vecteurs directeurs \(\vec{s}_1,\vec{s}_2\text{.}\)
L’espace colonne s’écrit évidemment comme \(\vspan((1,2,-1),(-1,0,-1),(2,4,-2),(-3,-8,5))\text{.}\) La proposition 3.4.9 donne toutefois une autre manière de trouver l’espace colonne. Les calculs suivants sur Sage
permettent d’obtenir la matrice
\begin{equation*} (R|\vec{b})=\left(\begin{array}{rrrr|r} 1 & 0 & 2 & -4 & \frac{1}{2} b_{2} \\ 0 & 1 & 0 & -1 & -b_{1} + \frac{1}{2} b_{2} \\ 0 & 0 & 0 & 0 & -b_{1} + b_{2} + b_{3} \end{array}\right)\text{.} \end{equation*}
Afin d’être compatible, la dernière ligne doit être nulle et le vecteur \(\vec{b}\) doit satisfaire l’équation \(-b_{1} + b_{2} + b_{3}=0\text{.}\) On reconnait ici l’équation normale d’un plan. L’espace colonne peut aussi être vu comme un plan dans \(\R^3\text{.}\)
Intuitivement, on devrait ainsi être en mesure de réduire le nombre de vecteurs qui génèrent le \(\vspan\) de quatre à deux, puisque la dimension d’un plan est deux. La prochaine section précisera quels vecteurs choisir et garder pour décrire de manière efficace les espaces colonne et ligne.
On regarde un autre exemple qui va permettre de contextualiser une partie de la preuve de la proposition 5.1.18. C’est un exemple semblable au dernier, mais avec plus d’une ligne nulle.

Exemple 5.1.17. L’espace colonne vu comme un espace nul.

Soit \(A\text{,}\) une matrice \(4\times 3\) et \(\vec{b}=(b_1,b_2,b_3,b_4)\text{,}\) un vecteur de l’image. On donne la forme échelonnée réduite de la matrice \(A\) augmentée du vecteur \(\vec{b}\) :
\begin{equation*} rref((A|\vec{b}))= \left(\begin{array}{rrr|r} 1 & 0 & -4 & \frac{1}{2} b_{2} \\ 0 & 1 & \frac{1}{2} & \frac{1}{2} b_{1} - \frac{1}{4} b_{2} \\ 0 & 0 & 0 & -b_{1} + b_{2} + b_{3} \\ 0 & 0 & 0 & b_{1} + b_{4} \end{array}\right)\text{.} \end{equation*}
On pose \(\vec{c}_1=(-1,1,1,0)\) et \(\vec{c}_2=(1,0,0,1)\text{.}\) Les vecteurs de l’image sont donc caractérisés par les vecteurs \(\vec{b}\in \R^4\) tels que
\begin{align*} \vec{c}_1\cdot\vec{b}&=0\\ \vec{c}_2\cdot\vec{b}&=0\text{.} \end{align*}
Si l’on réécrit ces équations sous forme matricielle, on a
\begin{equation*} C\vec{b}=\vec{0} \end{equation*}
\(C=\begin{pmatrix} -1& 1& 1&0 \\ 1& 0& 0& 1\end{pmatrix}\text{.}\) Les vecteurs \(\vec{b}\) dans l’image de \(A\) sont donc les mêmes vecteurs que ceux qui se retrouvent dans l’espace nul de \(C\text{.}\)
On effectue maintenant une première étape vers le théorème fondamental de l’algèbre linéaire, cité pour la première fois à la proposition 3.4.11. On peut reformuler deux des énoncés en utilisant le complément orthogonal.

Démonstration.

On veut montrer que le complément orthogonal de l’espace ligne correspond à l’espace nul. On sait déjà que les vecteurs de l’espace nul sont orthogonaux avec les lignes de \(A\text{.}\) En vertu de la proposition (généralisée) 1.3.16, il s’ensuit que l’espace nul est un sous-ensemble du complément orthogonal de l’espace ligne.
Soit \(\vec{v}\in \mathcal{L}(A)^{\perp}\text{,}\) un vecteur du complément orthogonal de l’espace ligne de \(A\text{.}\) Ce vecteur est perpendiculaire à toutes les combinaisons linéaires des lignes de \(A\) et plus particulièrement, il est perpendiculaire aux lignes de \(A\text{.}\) Cela signifie que \(A\vec{v}=\vec{0}\text{,}\) selon la définition du produit matrice vecteur et que le vecteur \(\vec{v}\) est dans l’espace nul. Le complément orthogonal est ainsi un sous-ensemble de l’espace nul.
En combinant les deux arguments précédents, on a que \(\mathcal{L}(A)^{\perp}=\mathcal{N}(A)\)

Démonstration.

Il suffit de remplacer \(A\) par \(A^T\) dans la preuve de la propriété précédente.

Démonstration.

Puisque les vecteurs dans \(\mathcal{C}(A)\) sont perpendiculaires aux vecteurs dans \(\mathcal{N}(A^T)\) (selon la proposition 3.3.17), on sait que l’espace colonne est un sous-ensemble du complément orthogonal de l’espace nul gauche, selon la proposition 5.1.12. On a par conséquent \(\mathcal{C}(A)\subset \mathcal{N}(A^T)^{\perp}\text{.}\)
Il faut donc montrer que les vecteurs dans le complément orthogonal de l’espace nul gauche sont dans l’espace colonne.
Soit \(r\text{,}\) le rang de \(A\text{.}\) Si \(r=m\text{,}\) alors il n’y a pas de ligne nulle et l’espace colonne est \(\R^m\) au complet. Le seul vecteur perpendiculaire à tout \(\R^m\) est le vecteur nul. Ainsi, \(\mathcal{N}(A^T)=\{\vec{0}\}\text{,}\) entrainant par la proposition 5.1.14 que \(\mathcal{N}(A^T)^{\perp}=\R^m=C(A)\text{.}\) Si toutefois \(r< m\text{,}\) alors il y a \(k=m-r\) lignes nulles.
À la manière de l’exemple 5.1.17, on peut définir \(\vec{c}_1,\vec{c}_2,\ldots, \vec{c}_k\) des vecteurs et une matrice \(C\) tels que l’espace colonne de \(A\) corresponde à l’espace nul de \(C\text{.}\) Selon la première partie de cette proposition, \(\mathcal{L}(C)^{\perp}=\mathcal{N}(C)=\mathcal{C}(A)\text{.}\) De plus, les lignes de \(C\) sont perpendiculaires à l’image de \(A\) (le vecteur \(\vec{b}\)), et \(\mathcal{L}(C)\perp \mathcal{C}(A)\text{.}\) Ceci revient à dire que \(\mathcal{L}(C)\subseteq \mathcal{C}(A)^{\perp}=\mathcal{N}(A^T)\text{.}\) À partir de la propriété 5.1.13, on peut conclure que \(\mathcal{N}(A^T)^{\perp}\subseteq C(A)\text{.}\)
En combinant les deux arguments, on conclut que \(\mathcal{C}(A)=\mathcal{N}(A^T)^{\perp}\text{.}\)

Démonstration.

On remplace \(A^T\) par \(A\) dans l’argument précédent.

Conseil 5.1.19. Égalité de deux ensembles.

Lorsqu’on veut montrer que deux ensembles \(V,W\) sont égaux, une manière efficace de le faire est de montrer que tous les éléments de \(V\) sont aussi dans \(W\text{,}\) signifiant que \(V\subseteq W\text{,}\) et que tous les éléments de \(W\) sont dans \(V\text{,}\) entrainant que \(W\subseteq V\text{.}\) La seule conclusion est alors que \(V=W\text{.}\) C’est ce principe qui est utilisé dans la preuve de la proposition 5.1.18.
Le même principe est aussi utilisé pour démontrer l’égalité de deux nombres \(x,y\text{.}\) On peut, dans un premier temps, montrer que \(x\leq y\) et ensuite que \(y\leq x\text{,}\) ce qui entraine l’égalité.
On termine avec des commandes Sage en lien avec la sous-section.

Calcul 5.1.20. Les espaces fondamentaux et le complément orthogonal.

À l’exemple 3.4.12, on a vu comment déterminer des vecteurs dont le \(\vspan\) sera un des quatre espaces fondamentaux d’une matrice \(A\text{.}\) Ces vecteurs sont ce que l’on appelle une base de ces espaces. Les bases seront le principal sujet de la prochaine section. Pour l’instant, on s’intéresse à vérifier l’orthogonalité des espaces fondamentaux comme indiqué à la proposition 5.1.18.
On commence par définir la matrice \(B\) de l’exemple 3.4.12 et les éléments qui génèrent chacun de ses quatre espaces fondamentaux.
On fait ensuite le produit scalaire de toutes les combinaisons possibles d’un vecteur de l’espace nul avec un vecteur de l’espace ligne.
Même chose ci-dessous, mais avec les vecteurs de l’espace nul gauche et les vecteurs de l’espace colonne.
Le produit scalaire entre les générateurs étant nul, le produit scalaire de chaque élément des espaces nul et ligne et chaque élément des espaces nul gauche et colonne sera aussi nul, comme le garantit la proposition 1.3.16.
Les éléments importants de cette section sont

Exercices 5.1.3 Exercices

1.

Montrer que chacun des sous-ensembles ci-dessous est un sous-espace vectoriel en utilisant la définition 5.1.1.
(a)
\(\{(x,y)~|~ x=-3y\}\)
Solution.
On considère deux vecteurs \(\vec{u}=(-3y_1,y_1),\vec{v}=(-3y_2,y_2)\) et un scalaire \(k\in \R\) quelconque. On doit montrer que \(\vec{u}+\vec{v}\) a la même forme que les vecteurs initiaux, de même pour \(k\vec{u}\text{.}\) Pour la somme, on a
\begin{align*} \vec{u}+\vec{v}&=(-3y_1,y_1)+(-3y_2,y_2)\\ &=(-3y_1-3y_2,y_1+y_2)\\ &=(-3(y_1+y_2),y_1+y_2)\text{,} \end{align*}
qui est dans \(\{(x,y)~|~ x=-3y\}\text{.}\)
Pour la multiplication par un scalaire, on a aussi
\begin{align*} k\vec{u}&=k(-3y_1,y_1)\\ &=(k(-3y_1),ky_1)\\ &=(-3(ky_1),ky_1)\text{,} \end{align*}
également dans \(\{(x,y)~|~ x=-3y\}\text{.}\)
(b)
\(\{(x,y,z)~|~ x=y\}\)
Solution.
On considère deux vecteurs \(\vec{u}=(y_1,y_1,z_1),\vec{v}=(y_2,y_2,z_2)\) et un scalaire \(k\in \R\) quelconque. On doit montrer que \(\vec{u}+\vec{v}\) a la même composante en \(x\) qu’en \(y\) et que \(k\vec{u}\) a aussi cette propriété. Pour la somme, on a
\begin{align*} \vec{u}+\vec{v}&=(y_1,y_1,z_1)+(y_2,y_2,z_2)\\ &=(y_1+y_2,y_1+y_2,z_1+z_2)\text{,} \end{align*}
qui est dans \(\{(x,y,z)~|~ x=y\}\text{.}\)
Pour la multiplication par un scalaire, on a
\begin{align*} k\vec{u}&=k(y_1,y_1,z_1)\\ &=(ky_1,ky_1,kz_1)\text{,} \end{align*}
également dans \(\{(x,y,z)~|~ x=y\}\text{.}\)
(c)
\(\{(x,y,z)~|~ x=y \text{ et } z=-y\}\)
Solution.
On considère deux vecteurs \(\vec{u}=(y_1,y_1,-y_1),\vec{v}=(y_2,y_2,-y_2)\) et un scalaire \(k\in \R\) quelconque. On doit montrer que \(\vec{u}+\vec{v}\) a la même forme que les vecteurs initiaux, de même pour \(k\vec{u}\text{.}\) Pour la somme, on a
\begin{align*} \vec{u}+\vec{v}&=(y_1,y_1,-y_1)+(y_2,y_2,-y_2)\\ &=(y_1+y_2,y_1+y_2,-y_1-y_2)\\ &=(y_1+y_2,y_1+y_2,-(y_1+y_2))\text{,} \end{align*}
qui est dans \(\{(x,y,z)~|~ x=y \text{ et } z=-y\}\text{.}\)
Pour la multiplication par un scalaire, on a
\begin{align*} k\vec{u}&=k(y_1,y_1,-y_1)\\ &=(ky_1,ky_1,k(-y_1))\\ &=(ky_1,ky_1,-ky_1)\text{,} \end{align*}
également dans \(\{(x,y,z)~|~ x=y \text{ et } z=-y\}\text{.}\)
(d)
\(\{(x_1,x_2,x_3,x_4)~|~ x_1+x_2+x_3+x_4=0\}\)
Solution.
Pour ce sous-espace, on choisit d’exprimer différemment l’appartenance à l’ensemble. Soit deux vecteurs \(\vec{u}=(u_1,u_2,u_3,u_4),\vec{v}=(v_1,v_2,v_3,v_4)\) dans \(\{(x_1,x_2,x_3,x_4)~|~ x_1+x_2+x_3+x_4=0\}\) et un scalaire \(k\in \R\) quelconque. On peut affirmer que ces vecteurs respectent la condition de l’espace et que
\begin{equation*} u_1+u_2+u_3+u_4=0 \text{ et } v_1+v_2+v_3+v_4=0\text{.} \end{equation*}
On doit montrer que \(\vec{u}+\vec{v}\) et \(k\vec{u}\) respectent également la condition de l’espace. Pour la somme, on a
\begin{align*} \vec{u}+\vec{v}&=(u_1,u_2,u_3,u_4)+(v_1,v_2,v_3,v_4)\\ &=(u_1+v_1,u_2+v_2,u_3+v_3,u_4+v_4)\text{,} \end{align*}
pour lequel il faut vérifier la condition.
\begin{align*} x_1+x_2+x_3+x_4&=(u_1+v_1)+(u_2+v_2)+(u_3+v_3)+(u_4+v_4)\\ &=u_1+v_1+u_2+v_2+u_3+v_3+u_4+v_4\\ &=u_1+u_2+u_3+u_4+v_1+v_2+v_3+v_4\\ &=(u_1+u_2+u_3+u_4)+(v_1+v_2+v_3+v_4)\\ &=0+0 && \text{ par hypothèse }\\ &=0 \end{align*}
Cela confirme que le vecteur \(\vec{u}+\vec{v}\) est également dans \(\{(x_1,x_2,x_3,x_4)~|~ x_1+x_2+x_3+x_4=0\}\text{.}\)
Pour la multiplication par un scalaire, on a aussi
\begin{align*} k\vec{u}&=k(u_1,u_2,u_3,u_4)\\ &=(ku_1,ku_2,ku_3,ku_4)\text{,} \end{align*}
pour lequel il faut également vérifier la condition.
\begin{align*} x_1+x_2+x_3+x_4&=ku_1+ku_2+ku_3+ku_4\\ &=k(u_1+u_2+u_3+u_4)\\ &=k(0) && \text{ par hypothèse }\\ &=0 \end{align*}
Cela confirme que le vecteur \(k\vec{u}\) est lui aussi dans \(\{(x_1,x_2,x_3,x_4)~|~ x_1+x_2+x_3+x_4=0\}\text{.}\)
(e)
\(\{(x,y,z)~|~ x^2+y^2+z^2=0\}\)
Solution.
Pour ce sous-espace, on choisit d’exprimer l’appartenance à l’ensemble comme à la question précédente. Soit \(\vec{u}=(x_1,y_1,z_1),\vec{v}=(x_2,y_2,z_2)\text{,}\) deux vecteurs dans \(\{(x,y,z)~|~ x^2+y^2+z^2=0\}\) et \(k\in \R\text{,}\) un scalaire quelconque. On peut affirmer que ces vecteurs respectent la condition de l’espace et que
\begin{equation*} x_1^2+y_1^2+z_1^2=0 \text{ et } x_2^2+y_2^2+z_2^2=0\text{.} \end{equation*}
On doit montrer que \(\vec{u}+\vec{v}\) et \(k\vec{u}\) respectent également la condition de l’espace. Pour la somme, on a
\begin{align*} \vec{u}+\vec{v}&=(x_1,y_1,z_1)+(x_2,y_2,z_2)\\ &=(x_1+x_2,y_1+y_2,z_1+z_2)\text{,} \end{align*}
pour lequel il faut vérifier la condition.
\begin{align*} x^2+y^2+z^2&=(x_1+x_2)^2+(y_1+y_2)^2+(z_1+z_2)^2\\ &=x_1^2+2x_1x_2+x_2^2+y_1^2+2y_1y_2+y_2^2+z_1^2+2z_1z_2+z_2^2\\ &=x_1^2+y_1^2+z_1^2+2(x_1x_2+y_1y_2+z_1z_2)+x_2^2+y_2^2+z_2^2\\ &=0+2(x_1x_2+y_1y_2+z_1z_2)+0 && \text{ par hypothèse }\\ &=2(x_1x_2+y_1y_2+z_1z_2) \end{align*}
Contrairement à tous les exercices précédents, on n’arrive pas à la condition de façon algébrique. Il faut donc réfléchir un peu plus puisqu’on a dit qu’il s’agit d’un sous-espace vectoriel. En regardant de plus près à la condition, on réalise que le seul vecteur qui peut satisfaire la condition \(x^2+y^2+z^2=0\) est le vecteur nul. Bref, on travaille inutilement puisqu’on a déjà montré que l’ensemble formé uniquement du vecteur nul est un sous-espace vectoriel à l’exemple 5.1.3.
Pour la multiplication par un scalaire, on peut cependant le montrer algébriquement.
\begin{align*} k\vec{u}&=k(x_1,y_1,z_1)\\ &=(kx_1,ky_1,kz_1) \end{align*}
On vérifie la condition.
\begin{align*} x^2+y^2+z^2&=(kx_1)^2+(ky_1)^2+(kz_1)^2\\ &=k^2x_1^2+k^2y_1^2+k^2z_1^2\\ &=k^2(x_1^2+y_1^2+z_1^2) \\ &=k^2(0) && \text{ par hypothèse }\\ &=0 \end{align*}
Cela confirme que le vecteur \(k\vec{u}\) est également dans \(\{(x,y,z)~|~ x^2+y^2+z^2=0\}\text{,}\) ce que l’on savait déjà puisque \(k\vec{0}=\vec{0}\text{.}\)

2.

Montrer que chacun des sous-ensembles ci-dessous n’est pas un sous-espace vectoriel en utilisant la définition 5.1.1.
(a)
\(\{(x,y)~|~ xy=1\}\)
Solution.
Il faut trouver un contrexemple pour l’une ou l’autre des propriétés de la définition 5.1.1. Ici, on choisit d’utiliser la propriété 5.1.2:2.
Soit \(\vec{u}=\left(2,\frac{1}{2}\right)\text{,}\) qui est dans l’ensemble \(\{(x,y)~|~ xy=1\}\text{,}\) puisque \(2*\frac{1}{2}=1\text{.}\) Alors,
\begin{equation*} k\vec{u}=k\left(2,\frac{1}{2}\right)=\left(2k,\frac{k}{2}\right) \end{equation*}
et
\begin{equation*} xy=2k*\frac{k}{2}=k^2\neq 1 , \forall k\neq \pm 1\text{.} \end{equation*}
On aurait donc pu choisir une valeur de \(k\) spécifique dans ce contrexemple, mais on a choisit de garder l’ensemble des valeurs possibles. Cela confirme que la multiplication d’un vecteur par un scalaire peut donner un vecteur à l’extérieur de cet ensemble et qu’il ne s’agit pas d’un sous-espace.
(b)
\(\{(x,y,z)~|~ x^2+y^2-z^2=0\}\)
Solution.
Il faut trouver un contrexemple pour l’une ou l’autre des propriétés de la définition 5.1.1. Ici, on choisit d’utiliser la propriété 5.1.2:1.
Soit \(\vec{u}=(1,0,1),\vec{v}=(0,1,1)\text{,}\) qui sont dans l’ensemble \(\{(x,y,z)~|~ x^2+y^2-z^2=0\}\text{,}\) puisque \(1^2+0^2-1^2=0\) et \(0^2+1^2-1^2=0\text{.}\) Alors,
\begin{equation*} \vec{u}+\vec{v}=(1,0,1)+(0,1,1)=(1,1,2) \end{equation*}
et
\begin{equation*} x^2+y^2-z^2=1^2+1^2-2^2=-2 \neq 0\text{.} \end{equation*}
Cela confirme que la somme de ces vecteurs donne un vecteur à l’extérieur de cet ensemble et qu’il ne s’agit pas d’un sous-espace.
(c)
\(\{(x,y,z)~|~ x^2+y^2+z^2=1\}\)
Solution.
Il faut trouver un contrexemple pour l’une ou l’autre des propriétés de la définition 5.1.1. Ici, on choisi d’utiliser la propriété 5.1.2:1.
Soit \(\vec{u}=(1,0,0),\vec{v}=(0,1,0)\text{,}\) qui sont dans l’ensemble \(\{(x,y,z)~|~ x^2+y^2+z^2=1\}\text{,}\) puisque \(1^2+0^2+0^2=1\) et \(0^2+1^2+0^2=1\text{.}\) Alors,
\begin{equation*} \vec{u}+\vec{v}=(1,0,0)+(0,1,0)=(1,1,0) \end{equation*}
et
\begin{equation*} x^2+y^2+z^2=1^2+1^2+0^2=2 \neq 1\text{.} \end{equation*}
Cela confirme que la somme de ces vecteurs donne un vecteur à l’extérieur de cet ensemble et qu’il ne s’agit pas d’un sous-espace.
(d)
\(\{(x,y,z)~|~ x=y \text{ et } z\geq y+x\}\)
Solution.
Il faut trouver un contrexemple pour l’une ou l’autre des propriétés de la définition 5.1.1. Ici, on choisit d’utiliser la propriété 5.1.2:2.
Soit \(\vec{u}=(1,1,3)\text{,}\) qui est dans l’ensemble \(\{(x,y,z)~|~ x=y \text{ et } z\geq y+x\}\text{,}\) puisque \(z=3\geq 2=1+1=y+x\text{.}\) Alors, si l’on choisit \(k=-1\text{,}\) on a
\begin{equation*} k\vec{u}=-(1,1,3)=(-1,-1,-3) \end{equation*}
et
\begin{equation*} z=-3\ngeq -2=-1+(-1)=y+x\text{.} \end{equation*}
Cela confirme que la multiplication d’un vecteur par un scalaire peut donner un vecteur à l’extérieur de cet ensemble et qu’il ne s’agit pas d’un sous-espace.

3.

Compléter la preuve de l’exemple 5.1.3 en montrant qu’un plan passant par l’origine est un sous-espace vectoriel, en utilisant la définition.
Solution.
Un plan passant par l’origine est caractérisé par l’ensemble des combinaisons linéaires de deux vecteurs directeurs \(\vec{u},\vec{v}\neq \vec{0}\text{.}\) Un vecteur sur le plan s’écrit \(\vec{w}=t\vec{u}+s\vec{v}\) pour certains \(t,s\in \R\text{.}\)
Afin de montrer que la somme de deux vecteurs sur le plan est aussi sur le plan et qu’un multiple d’un vecteur sur le plan l’est aussi, on prend \(\vec{w}_1=t_1\vec{u}+s_1\vec{v}, \vec{w}_2=t_2\vec{u}+s_2\vec{v}\) et \(k\in \R\text{.}\) Il faut montrer que la somme de \(\vec{w}_1\) et \(\vec{w}_2\) s’écrit comme une combinaison linéaire de \(\vec{u},\vec{v}\text{.}\) La même idée s’appliquera pour la multiplication du vecteur \(\vec{w}_1\) par \(k\text{.}\)
Dans un premier temps, on a
\begin{align*} \vec{w}_1+\vec{w}_2&=t_1\vec{u}+s_1\vec{v}+t_2\vec{u}+s_2\vec{v}\\ &=(t_1+t_2)\vec{u}+(s_1+s_2)\vec{v}\text{.} \end{align*}
Comme \((t_1+t_2)\in \R\) et \((s_1+s_2)\in \R\text{,}\) il s’ensuit que la somme des vecteurs est sur le plan.
Pour la multiplication par le scalaire, on a
\begin{align*} k\vec{w}_1&=k(t_1\vec{u}+s_1\vec{v})\\ &=(kt_1)\vec{u}+(ks_1)\vec{v} \end{align*}
et, puisque \(kt_1,ks_1\in \R\text{,}\) la multiplication est aussi sur le plan.

4.

Soit \(a\vec{u}+b\vec{v}+\vecl{OA}\text{,}\) un plan. Si \(A \neq O\) (n’est pas l’origine), ce plan peut-il être un espace vectoriel? Et pourquoi?
Réponse.
Oui.
Solution.
Ce sera un espace vectoriel à une condition. Par la proposition 5.1.7, tout sous-espace doit impérativement contenir le vecteur nul. Ainsi, ce plan peut être un sous-espace à la condition qu’il passe par l’origine. Autrement dit, il faut qu’il existe des valeurs \(a,b\in\R\) telles que \(\vec{0}=a\vec{u}+b\vec{v}+\vecl{OA}\text{.}\) On rappelle donc par cet exercice qu’il est important de comprendre qu’une équation vectorielle de tout objet géométrique n’est pas nécessairement dans sa plus simple expression. En effet, il suffit d’un point de départ qui peut être n’importe où sur l’objet.

5.

Soit \(U,V\text{,}\) des sous-espaces vectoriels de \(\R^n\text{.}\) Montrer que les ensembles suivants sont aussi des sous-espaces vectoriels.
(a)
L’ensemble des vecteurs qui sont à la fois dans \(U\) et dans \(V\text{,}\) noté
\begin{equation*} U\cap V=\{\vec{w}\in \R^n~|~ \vec{w}\in U \text{ et } \vec{w}\in V\}\text{.} \end{equation*}
Donner un exemple géométrique de sous-espaces vectoriels \(U,V\) et \(U\cap V\) dans \(\R^3\text{.}\)
Solution.
Pour ce sous-espace, on doit exprimer l’appartenance à l’ensemble sous la forme des conditions énoncées. On ne peut donc pas constater l’appartenance algébriquement, ce qui rend la preuve plus difficile conceptuellement. Soit \(\vec{u},\vec{v}\text{,}\) deux vecteurs dans \(U\cap V\) et \(k\in \R\text{,}\) un scalaire quelconque. On peut affirmer que ces vecteurs respectent les conditions de l’espace et que
\begin{equation*} \vec{u}\in U \text{ et } \vec{u}\in V \end{equation*}
et aussi que
\begin{equation*} \vec{v}\in U \text{ et } \vec{v}\in V\text{.} \end{equation*}
On doit montrer que \(\vec{u}+\vec{v}\) et \(k\vec{u}\) respectent également les conditions de l’espace. Pour la somme, on a \(\vec{u}+\vec{v}\in U\text{,}\) car \(U\) est lui-même un sous-espace respectant la condition 5.1.2:1. De même, on sait que \(\vec{u}+\vec{v}\in V\text{,}\) car \(V\) est lui-même un sous-espace respectant la condition 5.1.2:1. Dès lors, puisque \(\vec{u}+\vec{v}\) respecte ces deux conditions, on sait que \(\vec{u}+\vec{v} \in U\cap V\text{.}\)
Pour la multiplication par un scalaire, on a \(k\vec{u}\in U\text{,}\) car \(U\) est lui-même un sous-espace respectant la condition 5.1.2:2. De même, on sait que \(k\vec{u}\in V\text{,}\) car \(V\) est lui-même un sous-espace respectant la condition 5.1.2:2. Par conséquent, puisque \(k\vec{u}\) respecte ces deux conditions, on sait que \(k\vec{u} \in U\cap V\text{.}\) Cela montre que les deux propriétés des sous-espaces sont respectées par l’ensemble
\begin{equation*} U\cap V=\{\vec{w}\in \R^n~|~ \vec{w}\in U \text{ et } \vec{w}\in V\} \end{equation*}
et qu’il s’agit bien d’un sous-espace vectoriel.
Un exemple géométrique simple de cet ensemble est l’intersection de deux plans passant par l’origine dans \(\R^3\text{.}\) En effet, on a montré à l’exercice 5.1.3.3 qu’un plan passant par l’origine est un sous-espace vectoriel de \(\R^n\text{,}\) ce qui s’applique à \(\R^3\text{.}\) L’intersection de ces deux plans est une droite dans \(\R^3\) passant aussi par l’origine. On a montré également à l’exemple 5.1.3 qu’une telle droite est un sous-espace de \(\R^n\text{,}\) ce qui s’applique aussi à \(\R^3\text{.}\)
(b)
L’ensemble des vecteurs qui s’écrivent comme la somme d’un vecteur dans \(U\) et d’un vecteur dans \(V\text{,}\) noté
\begin{equation*} U+V=\{\vec{w}\in \R^n~|~ \vec{w}=\vec{u}+\vec{v} \text{ avec }\vec{u}\in U \text{ et } \vec{v}\in V\}\text{.} \end{equation*}
Donner un exemple géométrique de sous-espaces vectoriels \(U,V\) et \(U+ V\) dans \(\R^3\text{.}\)
Solution.
Pour ce sous-espace, on doit exprimer l’appartenance à l’ensemble sous la forme des conditions énoncées. On ne peut donc pas constater l’appartenance algébriquement, ce qui rend la preuve plus difficile conceptuellement. Soit \(\vec{w}_1,\vec{w}_2\text{,}\) deux vecteurs dans \(U+V\) et \(k\in \R\text{,}\) un scalaire quelconque. On peut affirmer que ces vecteurs respectent les conditions de l’espace, que
\begin{equation*} \vec{w}_1=\vec{u}_1+\vec{v}_1 \text{ pour deux vecteurs }\vec{u}_1\in U \text{ et } \vec{v}_1\in V \end{equation*}
et que
\begin{equation*} \vec{w}_2=\vec{u}_2+\vec{v}_2 \text{ pour deux vecteurs }\vec{u}_2\in U \text{ et } \vec{v}_2\in V\text{.} \end{equation*}
On doit montrer que \(\vec{w}_1+\vec{w}_2\) et \(k\vec{w}_1\) respectent également les conditions de l’espace. Pour la somme, on a
\begin{align*} \vec{w}_1+\vec{w}_2&=(\vec{u}_1+\vec{v}_1)+(\vec{u}_2+\vec{v}_2)\\ &=(\vec{u}_1+\vec{u}_2)+(\vec{v}_1+\vec{v}_2)\\ &=\vec{u}'+\vec{v}' \end{align*}
On a que \(\vec{u}'\in U\text{,}\) car \(U\) est lui-même un sous-espace respectant la condition 5.1.2:1. De même, on sait que \(\vec{v}'\in V\text{,}\) car \(V\) est lui-même un sous-espace respectant la condition 5.1.2:1. Donc, puisque \(\vec{w}_1+\vec{w}_2\) est l’addition de deux vecteurs, l’un appartenant à \(U\) et l’autre à \(V\text{,}\) on sait que \(\vec{w}_1+\vec{w}_2 \in U+V\text{.}\)
Pour la multiplication par un scalaire, on a
\begin{align*} k\vec{w}_1&=k(\vec{u}_1+\vec{v}_1)\\ &=k\vec{u}_1+k\vec{v}_1\\ &=\vec{u}'+\vec{v}' \end{align*}
On a que \(\vec{u}'\in U\text{,}\) car \(U\) est lui-même un sous-espace respectant la condition 5.1.2:2. De même, on sait que \(\vec{v}'\in V\text{,}\) car \(V\) est lui-même un sous-espace respectant la condition 5.1.2:2. Donc, puisque \(k\vec{w}_1\) est l’addition de deux vecteurs,l’un appartenant à \(U\) et l’autre à \(V\text{,}\) on sait que \(k\vec{w}_1 \in U+V\text{.}\)
Un exemple géométrique simple de cet ensemble est l’addition de deux droites passant par l’origine dans \(\R^3\text{.}\) En effet, on a montré à l’exercice 5.1.3 qu’une droite passant par l’origine est un sous-espace vectoriel de \(\R^n\text{,}\) ce qui s’applique à \(\R^3\text{.}\) L’addition de ces deux droites est un plan dans \(\R^3\) passant aussi par l’origine. On a montré également à l’exemple 5.1.3.3 qu’un tel plan est un sous-espace de \(\R^n\text{,}\) ce qui s’applique aussi à \(\R^3\text{.}\) Il peut sembler difficile à visualiser que l’addition de deux droites telle que définie dans cet exercice forme un plan. Cependant, lorsqu’on réalise que l’addition vectorielle de toute paire de vecteurs provenant de deux droites non parallèles est en réalité l’ensemble des combinaisons linéaires possibles des vecteurs directeurs de ces droites, cela devient évident.

6.

Soit \(U,V\text{,}\) des sous-espaces vectoriels de \(\R^n\text{.}\) On définit l’union de \(U\) et \(V\) comme l’ensemble des vecteurs qui sont soit dans \(U\text{,}\) soit dans \(V\) (potentiellement les deux), noté
\begin{equation*} U\cup V=\{\vec{v}\in \R^n~|~ \vec{v}\in U \text{ ou } \vec{v}\in V\}\text{.} \end{equation*}
(a)
Est-ce que \(U\cup V\) est un sous-espace vectoriel? Si oui, démontrer et si non, donner un exemple de sous-espaces \(U,V\) tels que l’union n’en est pas un.
Réponse.
Non. Par exemple, deux droites non parallèles dans \(\R^2\) passant par l’origine.
Solution.
Non, il ne s’agit pas d’un sous-espace vectoriel. Il sera possible de trouver un contrexemple où l’on additionnera deux vecteurs provenant l’un de \(U\) et l’autre de \(V\text{,}\) de telle sorte qu’ils sont tous les deux dans \(U\cup V\text{,}\) pour obtenir un vecteur qui ne sera ni dans \(U\) ni dans \(V\) et non plus pas dans \(U\cup V\text{.}\) Cela sera donc un contrexemple à la propriété 5.1.2:1 des sous-espaces vectoriels.
On suggère comme contrexemple deux droites non parallèles dans \(\R^2\) passant par l’origine. Spécifiquement, on pose
\begin{equation*} U=\mathcal{D}_1:(x,y)=t(1,0) \text{ pour } t\in\R \end{equation*}
et
\begin{equation*} V=\mathcal{D}_2:(x,y)=s(0,1) \text{ pour } s\in\R\text{.} \end{equation*}
Pour \(\vec{u}=(1,0)\in U\) et \(\vec{v}=(0,1)\in V\text{,}\) ces deux vecteurs sont tous les deux dans \(U\cup V\text{.}\) On calcule \(\vec{u}+\vec{v}=(1,0)+(0,1)=(1,1)\) qui n’est ni dans \(U\) ni dans \(V\) et non plus pas non plus dans \(U\cup V\text{.}\)
(b)
Peu importe la réponse à la partie précédente, donner des exemples de sous-espaces vectoriels \(U,V\) dans \(\R^3\) tels que \(U\cup V\) est aussi un sous-espace vectoriel.
Solution.
Afin de trouver des exemples, il faut réfléchir à ce qui ferait en sorte que cela devienne un sous-espace vectoriel. Il est clair que si \(U \subseteq V\) ou bien si \(U \supseteq V\text{,}\) alors respectivement \(U\cup V=V\) ou bien \(U\cup V=U\text{.}\) Par exemple, si \(U\) est une droite dans \(\R^3\) et \(V\) est un plan qui contient cette droite, tous les deux passant par l’origine, alors les deux espaces sont des sous-espaces vectoriels de \(\R^3\) tels que \(U\cup V\) est aussi un sous-espace vectoriel, puisqu’il est égal à \(V\text{.}\) On a un autre exemple si \(U=\{\vec{0}\}\) et \(V\) est une droite ou même un plan passant par l’origine, puisque le même principe s’applique.

7.

Soit \(A\text{,}\) une matrice carrée.
(a)
Montrer que les solutions à l’équation \(A\vec{x}=\vec{x}\) forment un sous-espace vectoriel.
Indice.
Reformuler afin d’écrire l’ensemble solution comme l’espace nul d’une matrice.
Solution.
On suit l’indice et l’on transforme l’équation matricielle ainsi:
\begin{align*} && A\vec{x}&=\vec{x}\\ \Leftrightarrow &&A\vec{x}-\vec{x}&=\vec{0}\\ \Leftrightarrow &&A\vec{x}-I\vec{x}&=\vec{0}\\ \Leftrightarrow &&(A-I)\vec{x}&=\vec{0}\text{.} \end{align*}
Par la proposition 5.1.5, on peut conclure que ces solutions sont un sous-espace vectoriel puisqu’ils sont les zéros de la transformation linéaire de la matrice \(A-I\text{.}\)
(b)
Soit \(\lambda\in \R\text{,}\) un nombre réel. Montrer que les solutions à l’équation \(A\vec{x}=\lambda\vec{x}\) forment un espace vectoriel.
Solution.
De façon semblable, on transforme l’équation matricielle ainsi:
\begin{align*} && A\vec{x}&=\lambda\vec{x}\\ \Leftrightarrow &&A\vec{x}-\lambda\vec{x}&=\vec{0}\\ \Leftrightarrow &&A\vec{x}-\lambda I\vec{x}&=\vec{0}\\ \Leftrightarrow &&(A-\lambda I)\vec{x}&=\vec{0}\text{.} \end{align*}
Par la proposition 5.1.5, on peut conclure que ces solutions sont un sous-espace vectoriel puisqu’ils sont les zéros de la transformation linéaire de la matrice \(A-\lambda I\text{.}\)

8.

Soit \(A,B\text{,}\) deux matrices \(m\times n\text{.}\) Montrer que l’ensemble solution à l’équation
\begin{equation*} A\vec{x}=B\vec{x} \end{equation*}
est un sous-espace vectoriel.
Solution.
On transforme l’équation matricielle ainsi:
\begin{align*} && A\vec{x}&=B\vec{x}\\ \Leftrightarrow &&A\vec{x}-B\vec{x}&=\vec{0}\\ \Leftrightarrow &&(A-B)\vec{x}&=\vec{0}\text{.} \end{align*}
Par la proposition 5.1.5, on peut conclure que ces solutions sont un sous-espace vectoriel puisqu’ils sont les zéros de la transformation linéaire de la matrice \(A-B\text{.}\)

9.

Soit \(A\text{,}\) une matrice \(m\times n\) et soit \(V\subseteq \R^n, W\subseteq \R^m\text{,}\) des sous-espaces vectoriels.
(a)
Montrer que l’ensemble
\begin{equation*} \{\vec{v}\in \R^n ~|~ A\vec{v}\in W\} \end{equation*}
est un sous-espace vectoriel de \(\R^n\text{.}\)
Cela implique qu’un sous-espace vectoriel dans l’image provient d’un sous-espace vectoriel dans le domaine.
Solution.
Pour ce sous-espace, on doit exprimer l’appartenance à l’ensemble sous la forme de la condition énoncée. Soit \(\vec{u}_1,\vec{u}_2\text{,}\) deux vecteurs dans \(\{\vec{v}\in \R^n ~|~ A\vec{v}\in W\}\) et \(k\in \R\text{,}\) un scalaire quelconque. On peut affirmer que ces vecteurs respectent la condition de l’espace et que
\begin{equation*} A\vec{u}_1\in W \text{ et } A\vec{u}_2\in W\text{.} \end{equation*}
On doit montrer que \(\vec{u}_1+\vec{u}_2\) et \(k\vec{u}_1\) sont également tels que leur transformation par \(A\) est dans \(W\text{.}\) Pour la somme, on a que
\begin{equation*} A(\vec{u}_1+\vec{u}_2)=A\vec{u}_1+A\vec{u}_2 \in W\text{,} \end{equation*}
car \(W\) étant lui-même un sous-espace, l’addition de deux éléments de \(W\) donne un vecteur dans \(W\text{.}\) L’espace \(\{\vec{v}\in \R^n ~|~ A\vec{v}\in W\}\) respecte donc la condition 5.1.2:1.
Pour la multiplication par un scalaire, on a
\begin{equation*} A(k\vec{u}_1)=k\big(A\vec{u}_1\big) \in W\text{,} \end{equation*}
car \(W\) étant lui-même un sous-espace, la multiplication par un scalaire d’un vecteur de \(W\) donne un vecteur dans \(W\text{.}\)
L’espace \(\{\vec{v}\in \R^n ~|~ A\vec{v}\in W\}\) respecte donc la condition 5.1.2:2. Il s’agit bien d’un sous-espace vectoriel.
(b)
Montrer que l’ensemble
\begin{equation*} \{\vec{w}\in R^m~|~ A\vec{v}=\vec{w} \text{ pour un certain } \vec{v}\in V\} \end{equation*}
est un sous-espace vectoriel.
Cela implique que l’image d’un sous-espace vectoriel par une transformation linéaire est un sous-espace vectoriel.
Solution.
Pour ce sous-espace, on doit exprimer l’appartenance à l’ensemble sous la forme de la condition énoncée. Soit \(\vec{u}_1,\vec{u}_2\text{,}\) deux vecteurs dans \(\{\vec{w}\in R^m~|~ A\vec{v}=\vec{w} \text{ pour un certain } \vec{v}\in V\}\) et \(k\in \R\text{,}\) un scalaire quelconque. On peut affirmer que ces vecteurs respectent la condition de l’espace et que
\begin{equation*} A\vec{v}_1=\vec{u}_1 \text{ et } A\vec{v}_2=\vec{u}_2 \text{ pour certains } \vec{v}_1,\vec{v}_2 \in V\text{.} \end{equation*}
On doit montrer que \(\vec{u}_1+\vec{u}_2\) et \(k\vec{u}_1\) sont également tels qu’il existe un vecteur de \(V\) qu’on peut transformer par \(A\) pour les obtenir. Pour la somme, on a que
\begin{equation*} \vec{u}_1+\vec{u}_2=A\vec{v}_1+A\vec{v}_2=A(\vec{v}_1+\vec{v}_2)=A\vec{v}'\text{.} \end{equation*}
Le vecteur \(\vec{v}'\) est dans \(V\text{,}\) puisqu’il est l’addition de deux vecteurs de ce sous-espace. Ainsi, le vecteur \(\vec{u}_1+\vec{u}_2\) est dans \(\{\vec{w}\in R^m~|~ A\vec{v}=\vec{w} \text{ pour un certain } \vec{v}\in V\}\) et dans ce cas, cet espace respecte la condition 5.1.2:1.
Pour la multiplication par un scalaire, on a
\begin{equation*} k\vec{u}_1=k(A\vec{v}_1)=A(k\vec{v}_1)=A\vec{v}''\text{.} \end{equation*}
Le vecteur \(\vec{v}''\) est dans \(V\) puisqu’il est la multiplication par un scalaire d’un vecteur de ce sous-espace. Le vecteur \(k\vec{u}_1\) est donc dans \(\{\vec{w}\in R^m~|~ A\vec{v}=\vec{w} \text{ pour un certain } \vec{v}\in V\}\) et cet espace respecte donc la condition 5.1.2:2. Conséquemment, il est lui-même un sous-espace vectoriel.

10.

Soit \(V\text{,}\) un sous-espace vectoriel de \(\R^n\text{.}\) Quel est le seul vecteur qui est à la fois dans \(V\) et dans son complément orthogonal?
Réponse.
Le vecteur nul.
Solution.
Par la définition 5.1.8, on sait que pour faire partie du complément orthogonal de \(V\text{,}\) il faut qu’un vecteur \(\vec{u}\) soit orthogonal à tous les vecteurs de \(V\text{.}\) En particulier, si un vecteur \(\vec{u}\) est à la fois dans \(V\) et dans son complément orthogonal, il doit être orthogonal à lui-même. Ainsi, on obtient que
\begin{align*} &&\vec{u}\cdot \vec{u}&=0\\ \Leftrightarrow && \norm{\vec{u}}^2&=0\\ \Leftrightarrow && \norm{\vec{u}}&=0\\ \Leftrightarrow && \vec{u}&=\vec{0}\text{,} \end{align*}
car le vecteur nul est le seul vecteur de norme égale à zéro.

11.

Soit \(V\text{,}\) un sous-espace vectoriel de \(\R^n\text{.}\) Montrer que \(V\subseteq(V^{\perp})^{\perp}\text{.}\)
En fait, on a que \(V=(V^{\perp})^{\perp}\text{,}\) mais l’autre inclusion est plus difficile à démontrer. On le fera avec les outils de la section 5.2.
Solution.
Soit \(\vec{v}\in V\text{.}\) Il faut montrer que ce vecteur fait partie de \((V^{\perp})^{\perp}\text{.}\) Autrement dit, il faut que \(\vec{v}\cdot \vec{u}=0\) pour tout vecteur \(\vec{u}\in V^{\perp}\text{,}\) selon la définition 5.1.8. Mais, on sait qu’un vecteur de \(\vec{u}\in V^{\perp}\) est tel que \(\vec{u}\cdot \vec{w}=0\) pour tout vecteur \(\vec{w}\in V\text{,}\) toujours selon la définition 5.1.8. Cela est vrai en particulier pour le vecteur \(\vec{v}\) énoncé au début de la preuve. Ainsi, on sait que \(\vec{v}\in (V^{\perp})^{\perp}\) et que \(V\subseteq(V^{\perp})^{\perp}\text{.}\)

12.

Dans cet exercice, on s’intéresse à deux sous-espaces \(V,W\) tels que \(\vec{v}\cdot \vec{w}=0\) pour tout \(\vec{v}\in V, \vec{w}\in W\text{.}\)
Donner un exemple de sous-espaces \(V,W\) possédant cette propriété, mais tels que \(V\neq W^{\perp}\) et \(V\neq \{\vec{0}\}\neq W\text{.}\)
Indice.
Penser à \(\R^3\text{.}\) Un plan et une droite ayant comme vecteur directeur le vecteur normal du plan ont cette propriété, mais sont des compléments orthogonaux. Il faut penser un peu plus petit que le plan.
Solution.
On doit prendre comme sous-espaces \(V,W\) deux droites dans \(\R^3\) passant par l’origine qui sont perpendiculaires l’une à l’autre. Par exemple, on prend spécifiquement les droites:
\begin{equation*} V=\mathcal{D}_1:\vecddd{x}{y}{z}=t\vecddd{1}{0}{0} \text{ pour } t\in\R \end{equation*}
et
\begin{equation*} W=\mathcal{D}_2:\vecddd{x}{y}{z}=s\vecddd{0}{1}{0} \text{ pour } s\in\R\text{.} \end{equation*}
Alors, on a que
\begin{equation*} \vec{v}\cdot \vec{w}=t\vecddd{1}{0}{0}\cdot s\vecddd{0}{1}{0}=(t*s)\vecddd{1}{0}{0}\cdot \vecddd{0}{1}{0}=(t*s)0=0 \end{equation*}
pour tout \(\vec{v}\in V, \vec{w}\in W\text{.}\) On a également qu’ils ne sont pas les compléments l’un de l’autre, comme on l’énonce dans l’indication, car le complément orthogonal d’une droite est un plan dans \(\R^3\text{.}\) Finalement, ils ne sont de toute évidence pas égaux au sous-espace vectoriel trivial.

13.

Soit \(A\text{,}\) une matrice carrée symétrique et \(V\text{,}\) un sous-espace vectoriel tels que \(A\vec{v}\in V\) pour tout \(\vec{v}\in V\text{.}\) Montrer que \(A\vec{u}\in V^{\perp}\) pour tout vecteur \(\vec{u}\in V^{\perp}\text{.}\)
Indice.
Utiliser l’exercice 3.4.3.3.
Solution.
Soit \(\vec{u}\in V^{\perp},\vec{v}\in V\) et soit \(\vec{w}=A\vec{v}\text{.}\) On note que \(\vec{w}\in V\) par hypothèse. Afin de vérifier que \(A\vec{u}\) est aussi dans \(V^{\perp}\text{,}\) on calcule le produit scalaire entre \(A\vec{u}\) et \(\vec{v}\text{.}\) On a alors
\begin{align*} A\vec{u}\cdot \vec{v}&=\vec{u}\cdot A^T\vec{v} &&\text{ selon l'exercice } \knowl{./knowl/xref/exo-prodscaltransposee.html}{\text{3.4.3.3}} \\ &=\vec{u}\cdot A\vec{v} &&\text{car } A \text{ est symétrique}\\ &=\vec{u}\cdot\vec{w}\\ &=0 && \text{ car } \vec{w} \text{ est dans } V\text{.} \end{align*}
Ainsi, le vecteur \(A\vec{u}\) est perpendiculaire à tous les vecteurs dans \(V\) et en conséquence, \(A\vec{u}\in V^{\perp}\text{.}\)

14.

Soit \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_n\text{,}\) un ensemble de vecteurs et \(\vec{u}\text{,}\) un vecteur différent des vecteurs \(\vec{v}_i\text{.}\) On cherche à caractériser l’effet de l’ajout du vecteur \(\vec{u}\) au \(\vspan(\vec{v}_1,\vec{v}_2,\ldots, \vec{v}_n)\text{.}\)
(a)
On considère les vecteurs \(\vec{v}_1=(1,2,1),\vec{v}_2=(-1,3,1)\) ainsi que les vecteurs \(\vec{u}_1=(2,4,2),\vec{u}_2=(3,1,1),\vec{u}_3=(3,1,2)\text{.}\)
(i)
Comparer \(\vspan(\vec{v}_1)\) avec \(\vspan(\vec{v}_1,\vec{u}_1)\text{.}\) Sont-ils égaux, différents, l’un inclus dans l’autre?
Réponse.
Égaux.
Solution.
Ces espaces engendrés étant l’ensemble des combinaisons linéaires des vecteurs donnés, on réalise rapidement que le vecteur \(\vec{u}_1\) n’ajoute rien à l’espace puisqu’il est parallèle à \(\vec{v}_1\text{.}\) En effet, on a:
\begin{equation*} \vec{u}_1=(2,4,2)=2(1,2,1)=2\vec{v}_1\text{.} \end{equation*}
Ainsi, les combinaisons linéaires de \(\vec{v}_1,\vec{u}_1\) s’écrivent comme des combinaisons linéaires utilisant uniquement \(\vec{v}_1\text{.}\)
\begin{equation*} a\vec{v}_1+b\vec{u}_1=a\vec{v}_1+b(2\vec{v}_1)=(a+2b)\vec{v}_1 \text{ pour } a,b\in \R \end{equation*}
Ces deux espaces sont donc égaux.
(ii)
Comparer \(\vspan(\vec{v}_1,\vec{v}_2)\) avec \(\vspan(\vec{v}_1,\vec{v}_2,\vec{u}_1)\text{.}\) Sont-ils égaux, différents, l’un inclus dans l’autre?
Réponse.
Égaux.
Solution.
Ces espaces engendrés étant l’ensemble des combinaisons linéaires des vecteurs donnés, on réalise rapidement que le vecteur \(\vec{u}_1\) n’ajoute rien à l’espace puisqu’il est parallèle à \(\vec{v}_1\text{.}\) En effet, on a:
\begin{equation*} \vec{u}_1=(2,4,2)=2(1,2,1)=2\vec{v}_1\text{.} \end{equation*}
Ainsi, les combinaisons linéaires de \(\vec{v}_1,\vec{v}_2,\vec{u}_1\) s’écrivent comme des combinaisons linéaires utilisant uniquement \(\vec{v}_1,\vec{v}_2\text{.}\)
\begin{equation*} a\vec{v}_1+b\vec{v}_2+c\vec{u}_1=a\vec{v}_1+b\vec{v}_2+c(2\vec{v}_1)=(a+2c)\vec{v}_1+b\vec{v}_2\text{ pour } a,b,c\in \R \end{equation*}
Ces deux espaces sont donc égaux.
(iii)
Comparer \(\vspan(\vec{v}_1)\) avec \(\vspan(\vec{v}_1,\vec{u}_2)\text{.}\) Sont-ils égaux, différents, l’un inclus dans l’autre?
Réponse.
Différents, \(\vspan(\vec{v}_1) \subset \vspan(\vec{v}_1,\vec{u}_2)\)
Solution.
Ces espaces engendrés étant l’ensemble des combinaisons linéaires des vecteurs donnés, on réalise rapidement que le vecteur \(\vec{u}_2\) ajoute une nouvelle dimension à l’espace puisqu’il n’est pas parallèle à \(\vec{v}_1\text{.}\) En effet, on a:
\begin{equation*} \vec{u}_2=(3,1,1)\neq k(1,2,1)=k\vec{v}_1, \forall k\in\R\text{.} \end{equation*}
Ainsi, les combinaisons linéaires de \(\vec{v}_1,\vec{u}_2\) ne peuvent s’écrire comme des combinaisons linéaires utilisant uniquement \(\vec{v}_1\text{.}\) Ces deux espaces sont donc différents et \(\vspan(\vec{v}_1) \subset \vspan(\vec{v}_1,\vec{u}_2)\text{.}\) Géométriquement, \(\vspan(\vec{v}_1)\) est une droite et \(\vspan(\vec{v}_1,\vec{u}_2)\) un plan contenant cette droite.
(iv)
Comparer \(\vspan(\vec{v}_1,\vec{v}_2)\) avec \(\vspan(\vec{v}_1,\vec{v}_2,\vec{u}_2)\text{.}\) Sont-ils égaux, différents, l’un inclus dans l’autre?
Réponse.
Égaux.
Solution.
Ces espaces engendrés étant l’ensemble des combinaisons linéaires des vecteurs donnés, on réalise, en travaillant un peu, que le vecteur \(\vec{u}_2\) n’ajoute rien à l’espace puisqu’il est une combinaison linéaire des vecteurs \(\vec{v}_1,\vec{v}_2\text{.}\) En effet, on a:
\begin{equation*} \vec{u}_2=(3,1,1)=2(1,2,1)-(-1,3,1)=2\vec{v}_1-\vec{v}_2\text{.} \end{equation*}
Ainsi, les combinaisons linéaires de \(\vec{v}_1,\vec{v}_2,\vec{u}_2\) s’écrivent comme des combinaisons linéaires utilisant uniquement \(\vec{v}_1,\vec{v}_2\text{.}\)
\begin{equation*} a\vec{v}_1+b\vec{v}_2+c\vec{u}_2=a\vec{v}_1+b\vec{v}_2+c(2\vec{v}_1-\vec{v}_2)=(a+2c)\vec{v}_1+(b-c)\vec{v}_2\text{ pour } a,b,c\in \R \end{equation*}
Ces deux espaces sont donc égaux.
(v)
Comparer \(\vspan(\vec{v}_1)\) avec \(\vspan(\vec{v}_1,\vec{u}_3)\text{.}\) Sont-ils égaux, différents, l’un inclus dans l’autre?
Réponse.
Différents, \(\vspan(\vec{v}_1) \subset \vspan(\vec{v}_1,\vec{u}_3)\)
Solution.
Ces espaces engendrés étant l’ensemble des combinaisons linéaires des vecteurs donnés, on réalise rapidement que le vecteur \(\vec{u}_3\) ajoute une nouvelle dimension à l’espace puisqu’il n’est pas parallèle à \(\vec{v}_1\text{.}\) En effet, on a:
\begin{equation*} \vec{u}_3=(3,1,2)\neq k(1,2,1)=k\vec{v}_1, \forall k\in\R\text{.} \end{equation*}
Ainsi, les combinaisons linéaires de \(\vec{v}_1,\vec{u}_3\) ne peuvent s’écrire comme des combinaisons linéaires utilisant uniquement \(\vec{v}_1\text{.}\) Ces deux espaces sont donc différents et \(\vspan(\vec{v}_1) \subset \vspan(\vec{v}_1,\vec{u}_3)\text{.}\) Géométriquement, \(\vspan(\vec{v}_1)\) est une droite et \(\vspan(\vec{v}_1,\vec{u}_3)\) un plan contenant cette droite.
(vi)
Comparer \(\vspan(\vec{v}_1,\vec{v}_2)\) avec \(\vspan(\vec{v}_1,\vec{v}_2,\vec{u}_3)\text{.}\) Sont-ils égaux, différents, l’un inclus dans l’autre?
Réponse.
Différents, \(\vspan(\vec{v}_1,\vec{v}_2) \subset \vspan(\vec{v}_1,\vec{v}_2,\vec{u}_3)\)
Solution.
Ces espaces engendrés étant l’ensemble des combinaisons linéaires des vecteurs donnés, on réalise, en travaillant un peu, que le vecteur \(\vec{u}_3\) ajoute une nouvelle dimension à l’espace puisqu’il n’est pas une combinaison linéaire des vecteurs \(\vec{v}_1,\vec{v}_2\text{.}\) En effet, on a:
\begin{equation*} a\vec{v}_1+b\vec{v}_2=\vec{u}_3 \Rightarrow a\vecddd{1}{2}{1}+b\vecddd{-1}{3}{1}=\vecddd{3}{1}{2} \end{equation*}
\begin{equation*} \Rightarrow \begin{cases} a-b&=3\\ 2a+3b&=1\\ a+b&=2 \end{cases} \Rightarrow \left(\begin{array}{rr|r} 1 & -1& 3\\ 2&3&1\\ 1&1&2\end{array}\right) \end{equation*}
\begin{equation*} \substack{\cdots \sim} \left(\begin{array}{rr|r} 1 & 0& 0\\ 0&1&0\\ 0&0&1\end{array}\right)\text{,} \end{equation*}
qui n’a aucune solution. Ainsi, les combinaisons linéaires de \(\vec{v}_1,\vec{v}_2,\vec{u}_3\) ne peuvent s’écrire comme des combinaisons linéaires utilisant uniquement \(\vec{v}_1,\vec{v}_2\text{.}\) Ces deux espaces sont donc différents et \(\vspan(\vec{v}_1,\vec{v}_2) \subset \vspan(\vec{v}_1,\vec{v}_2,\vec{u}_3)\text{.}\) Géométriquement, \(\vspan(\vec{v}_1,\vec{v}_2)\) est un plan et \(\vspan(\vec{v}_1,\vec{v}_2,\vec{u}_3)\) l’espace \(\R^3\) au complet. On verra dans la section 5.2 comment catégoriser ces différents sous-espaces en termes de dimensions.
(b)
Montrer que \(\vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_n)=\vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_n,\vec{u})\) si et seulement si \(\vec{u}\in\vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_n)\text{.}\)
Solution.
On construit la preuve en deux temps puisqu’il s’agit d’une équivalence.
Tout d’abord, si \(\vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_n)=\vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_n,\vec{u})\text{,}\) on doit montrer que \(\vec{u}\in\vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_n)\text{.}\) Puisque les deux espaces initiaux sont égaux, il est clair que le vecteur supplémentaire dans le second espace, \(\vec{u}\) n’ajoute rien à cet espace. Il est donc nécessairement une combinaison linéaire des autres vecteurs, ce qui revient à dire que \(\vec{u}\in\vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_n)\text{.}\)
Dans l’autre direction, si \(\vec{u}\in\vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_n)\text{,}\) alors on peut écrire
\begin{equation*} \vec{u}=k_1\vec{v}_1+k_2\vec{v}_2+\cdots + k_n\vec{v}_n\text{.} \end{equation*}
Ainsi, tout vecteur \(\vec{v}\in \vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_n,\vec{u})\) peut s’écrire:
\begin{align*} \vec{v}&=a_1\vec{v}_1+a_2\vec{v}_2+\cdots +a_n\vec{v}_n+b\vec{u}\\ &=a_1\vec{v}_1+a_2\vec{v}_2+\cdots +a_n\vec{v}_n+b(k_1\vec{v}_1+k_2\vec{v}_2+\cdots + k_n\vec{v}_n)\\ &=(a_1+bk_1)\vec{v}_1+(a_2+bk_2)\vec{v}_2+\cdots +(a_n+bk_n)\vec{v}_n \end{align*}
ce qui est également dans \(\vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_n)\) également. Ces deux espaces sont donc égaux, ce qui complète la preuve.

15.

Soit \(A\) et \(B\text{,}\) deux matrices équivalentes par une suite d’opérations élémentaires.
(a)
Montrer que \(\mathcal{L}(A)=\mathcal{L}(B)\text{.}\)
Indice.
La généralisation de l’exercice 1.4.4.4 peut être utile.
Solution.
Si \(A\) et \(B\) sont équivalentes, cela implique que l’on peut obtenir \(B\) de \(A\) avec une suite d’opérations élémentaires. On sait que l’espace ligne \(\mathcal{L}(A)\) est l’ensemble des combinaisons linéaires des lignes de \(A\) (span). Par la généralisation à plusieurs vecteurs de l’exercice 1.4.4.4, on sait que le span de combinaisons linéaires des vecteurs d’un espace donnera le même espace. Ainsi, les lignes de la matrice \(B\) pouvant être obtenues des lignes de \(A\) en faisant des combinaisons linéaires (opérations élémentaires), le span des lignes de \(B\) sera égal à celui des lignes de \(A\text{.}\) Autrement dit, \(\mathcal{L}(A)=\mathcal{L}(B)\text{.}\)
(b)
Montrer que \(\mathcal{N}(A)=\mathcal{N}(B)\text{.}\)
Indice.
Il est possible d’utiliser la partie précédente et la proposition 5.1.18.
Solution.
Par la proposition 5.1.18, on a que
\begin{align*} \mathcal{N}(A)&=\mathcal{L}(A)^{\perp} &&\text{ par } \knowl{./knowl/xref/prop-espfondcomportho.html}{\text{5.1.18}}\\ &=\mathcal{L}(B)^{\perp} &&\text{ par la partie précédente} \\ &=\mathcal{N}(B) &&\text{ par } \knowl{./knowl/xref/prop-espfondcomportho.html}{\text{5.1.18}}\text{.} \end{align*}
(c)
Est-ce que \(\mathcal{C}(A)=\mathcal{C}(B)\text{?}\)
Réponse.
Non.
Solution.
Ce n’est pas le cas. Les opérations élémentaires changent l’espace colonne. On utilise un contrexemple simple pour s’en convaincre. Soit \(A=\begin{pmatrix}1&2\\ 1 &2\end{pmatrix}\) et \(B=\begin{pmatrix}1&2\\ 0 &0\end{pmatrix}\text{.}\) On peut montrer rapidement que \(A\) est équivalente à \(B\) en utilisant l’opération élémentaire \(-L_1+L_2\rightarrow L_2\text{.}\) Cependant, on voit que
\begin{equation*} \mathcal{C}(A)=\vspan((1,1))\neq \vspan((1,0))=\mathcal{C}(B)\text{.} \end{equation*}

16.

Pour chacune des matrices \(A\) ci-dessous, déterminer une matrice \(C\) telle que \(\mathcal{C}(A)=\mathcal{N}(C)\text{,}\) à la manière de l’exemple 5.1.17.
(a)
\(\left(\begin{array}{rrr} -1 & 4 & 1 \\ 1 & -4 & -4 \\ -1 & 4 & 6 \\ 1 & -4 & -3 \end{array}\right)\)
Réponse.
\begin{equation*} C=\begin{pmatrix} \frac{2}{3}& \frac{5}{3}& 1&0 \\ \frac{1}{3}& -\frac{2}{3}& 0& 1\end{pmatrix} \end{equation*}
Solution.
Si \(A=\left(\begin{array}{rrr} -1 & 4 & 1 \\ 1 & -4 & -4 \\ -1 & 4 & 6 \\ 1 & -4 & -3 \end{array}\right)\) est une matrice \(4\times 3\) et \(\vec{b}=(b_1,b_2,b_3,b_4)\) est un vecteur de l’image de \(A\text{,}\) alors la forme échelonnée réduite (on s’épargne les calculs) de la matrice \(A\) augmentée du vecteur \(\vec{b}\) est:
\begin{equation*} rref((A|\vec{b}))= \left(\begin{array}{rrr|r} 1 & -4 & 0 & -\frac{4}{3} b_{1} -\frac{1}{3} b_{2} \\ 0 & 0 & 1 & -\frac{1}{3} b_{1}-\frac{1}{3} b_{2} \\ 0 & 0 & 0 & \frac{2}{3} b_{1}+ \frac{5}{3} b_{2} + b_{3} \\ 0 & 0 & 0 & \frac{1}{3} b_{1}- \frac{2}{3} b_{2} + b_{4} \end{array}\right)\text{.} \end{equation*}
Les conditions sur l’image sont donc \(\frac{2}{3} b_{1}+ \frac{5}{3} b_{2} + b_{3}=0\) et \(\frac{1}{3} b_{1}- \frac{2}{3} b_{2} + b_{4}=0\text{.}\) On pose \(\vec{c}_1=\left(\frac{2}{3}, \frac{5}{3}, 1,0\right)\) et \(\vec{c}_2=\left(\frac{1}{3},-\frac{2}{3},0,1\right)\text{.}\) Les vecteurs de l’image sont donc caractérisés par les vecteurs \(\vec{b}\in \R^4\) tels que
\begin{align*} \vec{c}_1\cdot\vec{b}&=0\\ \vec{c}_2\cdot\vec{b}&=0\text{.} \end{align*}
Si l’on réécrit ces équations sous forme matricielle, on a
\begin{equation*} C\vec{b}=\vec{0} \end{equation*}
\(C=\begin{pmatrix} \frac{2}{3}& \frac{5}{3}& 1&0 \\ \frac{1}{3}& -\frac{2}{3}& 0& 1\end{pmatrix}\text{.}\) Les vecteurs \(\vec{b}\) dans l’image de \(A\) sont donc les mêmes vecteurs que ceux qui se retrouvent dans l’espace nul de \(C\text{.}\)
(b)
\(\left(\begin{array}{rrr} 1 & -3 & 7 \\ -1 & 4 & -9 \\ 2 & -3 & 8 \\ 0 & 3 & -6 \end{array}\right)\)
Réponse.
\begin{equation*} C=\begin{pmatrix} -5&-3& 1&0 \\ -3& -3& 0& 1\end{pmatrix} \end{equation*}
Solution.
Si \(A=\left(\begin{array}{rrr} 1 & -3 & 7 \\ -1 & 4 & -9 \\ 2 & -3 & 8 \\ 0 & 3 & -6 \end{array}\right)\) est une matrice \(4\times 3\) et \(\vec{b}=(b_1,b_2,b_3,b_4)\) est un vecteur de l’image de \(A\text{,}\) alors la forme échelonnée réduite (on s’épargne les calculs) de la matrice \(A\) augmentée du vecteur \(\vec{b}\) est:
\begin{equation*} rref((A|\vec{b}))= \left(\begin{array}{rrr|r} 1 & 0 & 1 & 4 b_{1} +3 b_{2} \\ 0 & 1 & -2 & b_{1}+ b_{2} \\ 0 & 0 & 0 & -5 b_{1}-3 b_{2} + b_{3} \\ 0 & 0 & 0 & -3 b_{1}- 3 b_{2} + b_{4} \end{array}\right)\text{.} \end{equation*}
Les conditions sur l’image sont donc \(-5 b_{1}-3 b_{2} + b_{3}=0\) et \(-3 b_{1}- 3 b_{2} + b_{4}=0\text{.}\) On pose \(\vec{c}_1=\left(-5 ,-3 , 1,0\right)\) et \(\vec{c}_2=\left(-3 ,- 3 ,0,1\right)\text{.}\) Les vecteurs de l’image sont donc caractérisés par les vecteurs \(\vec{b}\in \R^4\) tels que
\begin{align*} \vec{c}_1\cdot\vec{b}&=0\\ \vec{c}_2\cdot\vec{b}&=0\text{.} \end{align*}
Si l’on réécrit ces équations sous forme matricielle, on a
\begin{equation*} C\vec{b}=\vec{0} \end{equation*}
\(C=\begin{pmatrix} -5&-3& 1&0 \\ -3& -3& 0& 1\end{pmatrix}\text{.}\) Les vecteurs \(\vec{b}\) dans l’image de \(A\) sont donc les mêmes vecteurs que ceux qui se retrouvent dans l’espace nul de \(C\text{.}\)
(c)
\(\left(\begin{array}{rrrr} 1 & 1 & -2 & 3 \\ -3 & -2 & 5 & -8 \\ 3 & 2 & -5 & 8 \end{array}\right)\)
Réponse.
\begin{equation*} C=\begin{pmatrix} 0& 1&1 \end{pmatrix} \end{equation*}
Solution.
Si \(A=\left(\begin{array}{rrrr} 1 & 1 & -2 & 3 \\ -3 & -2 & 5 & -8 \\ 3 & 2 & -5 & 8 \end{array}\right)\) est une matrice \(3\times 4\) et \(\vec{b}=(b_1,b_2,b_3)\) est un vecteur de l’image de \(A\text{,}\) alors la forme échelonnée réduite (on s’épargne les calculs) de la matrice \(A\) augmentée du vecteur \(\vec{b}\) est:
\begin{equation*} rref((A|\vec{b}))= \left(\begin{array}{rrrr|r} 1 & 0 & -1 &2 & -2 b_{1} - b_{2} \\ 0 & 1 & -1 &1 & 3 b_{1}+ b_{2} \\ 0 & 0 & 0 &0 & b_{2} + b_{3} \end{array}\right)\text{.} \end{equation*}
La condition sur l’image est donc \(b_{2} + b_{3}=0\text{.}\) On pose \(\vec{c}=\left(0,1,1\right)\text{.}\) Ainsi, les vecteurs de l’image sont caractérisés par les vecteurs \(\vec{b}\in \R^3\) tels que
\begin{align*} \vec{c}\cdot\vec{b}&=0\text{.} \end{align*}
Si l’on réécrit cette équation sous forme matricielle, on a
\begin{equation*} C\vec{b}=\vec{0} \end{equation*}
\(C=\begin{pmatrix} 0& 1&1 \end{pmatrix}\text{.}\) Les vecteurs \(\vec{b}\) dans l’image de \(A\) sont donc les mêmes vecteurs que ceux que l’on retrouve dans l’espace nul de \(C\text{.}\)
(d)
\(\left(\begin{array}{rrrr} 7 & -8 & -2 & 7 \\ -3 & 1 & -4 & -3 \\ 4 & 0 & 8 & 4 \\ 3 & -4 & -2 & 3 \end{array}\right)\)
Réponse.
\begin{equation*} C=\begin{pmatrix} \frac{4}{17}&\frac{32}{17}& 1&0 \\ -\frac{9}{17}& -\frac{4}{17} & 0& 1\end{pmatrix} \end{equation*}
Solution.
Si \(A=\left(\begin{array}{rrrr} 7 & -8 & -2 & 7 \\ -3 & 1 & -4 & -3 \\ 4 & 0 & 8 & 4 \\ 3 & -4 & -2 & 3 \end{array}\right)\) est une matrice \(4\times 4\) et \(\vec{b}=(b_1,b_2,b_3,b_4)\) est un vecteur de l’image de \(A\text{,}\) alors la forme échelonnée réduite (on s’épargne les calculs) de la matrice \(A\) augmentée du vecteur \(\vec{b}\) est:
\begin{equation*} rref((A|\vec{b}))= \left(\begin{array}{rrrr|r} 1 & 0 & 2 & 1 & -\frac{1}{17} b_{1} -\frac{8}{17} b_{2} \\ 0 & 1 & 2 & 0 & -\frac{3}{17} b_{1}-\frac{7}{17} b_{2} \\ 0 & 0 & 0 & 0 & \frac{4}{17} b_{1}+ \frac{32}{17} b_{2} + b_{3} \\ 0 & 0 & 0 & 0 & -\frac{9}{17} b_{1}- \frac{4}{17} b_{2} + b_{4} \end{array}\right)\text{.} \end{equation*}
Les conditions sur l’image sont donc \(\frac{4}{17} b_{1}+ \frac{32}{17} b_{2} + b_{3}=0\) et \(-\frac{9}{17} b_{1} -\frac{4}{17} b_{2} + b_{4}=0\text{.}\) On pose \(\vec{c}_1=\left(\frac{4}{17}, \frac{32}{17}, 1,0\right)\) et \(\vec{c}_2=\left(-\frac{9}{17}, -\frac{4}{17},0,1\right)\text{.}\) Les vecteurs de l’image sont donc caractérisés par les vecteurs \(\vec{b}\in \R^4\) tels que
\begin{align*} \vec{c}_1\cdot\vec{b}&=0\\ \vec{c}_2\cdot\vec{b}&=0\text{.} \end{align*}
Si l’on réécrit ces équations sous forme matricielle, on a
\begin{equation*} C\vec{b}=\vec{0} \end{equation*}
\(C=\begin{pmatrix} \frac{4}{17}&\frac{32}{17}& 1&0 \\ -\frac{9}{17}& -\frac{4}{17} & 0& 1\end{pmatrix}\text{.}\) Les vecteurs \(\vec{b}\) dans l’image de \(A\) sont donc les mêmes vecteurs que ceux que l’on retrouve dans l’espace nul de \(C\text{.}\)

17.

Que peut-on dire des quatre espaces fondamentaux d’une matrice symétrique?
Réponse.
\begin{equation*} \mathcal{L}(A)=\mathcal{C}(A) \text{ et } \mathcal{N}(A^T)=\mathcal{N}(A) \end{equation*}
Solution.
On peut dire plusieurs choses qui découlent toutes du fait qu’une matrice symétrique \(A\) est telle que \(A=A^T\text{.}\) On peut comprendre de cette équation que les lignes et les colonnes de la matrice \(A\) sont identiques. Conséquemment, on aura:
\begin{equation*} \mathcal{L}(A)=\mathcal{C}(A) \text{ et } \mathcal{N}(A^T)=\mathcal{N}(A) \end{equation*}

18.

Soit \(A,B\text{,}\) deux matrices compatibles pour le produit \(AB\text{.}\)
(a)
Montrer que \(\mathcal{N}(B)\subseteq \mathcal{N}(AB)\text{.}\)
Solution.
Soit \(\vec{x}\in \mathcal{N}(B)\text{,}\) un vecteur qui est tel que \(B\vec{x}=\vec{0}\text{,}\) par définition de l’espace nul. Alors, on a
\begin{equation*} AB\vec{x}=A(B\vec{x})=A(\vec{0})=\vec{0}\text{.} \end{equation*}
Ainsi, ce même vecteur est nécessairement dans l’espace nul de \(AB\text{.}\) Il s’ensuit donc que \(\mathcal{N}(B)\subseteq \mathcal{N}(AB)\text{.}\)
(b)
Montrer que \(\mathcal{C}(AB)\subseteq\mathcal{C}(A)\text{.}\)
Solution.
Soit \(\vec{y}\in \mathcal{C}(AB)\text{,}\) un vecteur qu’il est possible d’exprimer comme une combinaison linéaire des colonnes de \(AB\text{.}\) Cependant, par la définition du produit matriciel, on sait que chaque colonne de \(AB\) peut s’exprimer comme un produit matrice vecteur \(A\vec{b}_i\) où les \(\vec{b}_i\) sont les colonnes de \(B\text{.}\) Ainsi, si la matrice \(A\) est de format \(m\times n\) et la matrice \(B\) de format \(n\times p\text{,}\) on peut écrire :
\begin{align*} \vec{y}&=k_1(A\vec{b}_1)+k_2(A\vec{b}_2)+ \cdots +k_p(A\vec{b}_p)\\ &=A(k_1\vec{b}_1+k_2\vec{b}_2+ \cdots +k_p\vec{b}_p)\\ &=A\vec{u} & & \text{ en simplifiant l'écriture de ce vecteur}\\ &=\begin{pmatrix} \lvert & \lvert & \cdots & \lvert \\ \vec{c}_1 & \vec{c}_2 & \cdots & \vec{c}_n \\ \lvert & \lvert & \cdots & \lvert \end{pmatrix}\begin{pmatrix}u_1\\ u_2\\ \vdots\\ u_n \end{pmatrix} & & \text{ en écrivant la matrice en colonnes}\\ &=u_1\vec{c}_1+u_2\vec{c}_2+\cdots +u_n\vec{c}_n & & \text{ par } \knowl{./knowl/xref/eq-matvecprodgen.html}{\text{(2.1.7)}}\text{.} \end{align*}
Le vecteur \(\vec{y}\) est donc une combinaison linéaire des colonnes de \(A\text{,}\) ce qui signifie qu’il est dans son espace colonne et que \(\mathcal{C}(AB)\subseteq\mathcal{C}(A)\text{.}\)
(c)
Montrer que \(\mathcal{N}(B)= \mathcal{N}(AB)\) lorsque \(A\) est une matrice carrée inversible.
Solution.
On a déjà montré plus haut que \(\mathcal{N}(B)\subseteq \mathcal{N}(AB)\text{.}\) Il reste à montrer que \(\mathcal{N}(AB)\subseteq \mathcal{N}(B)\) pour compléter l’égalité.
Soit \(\vec{x}\in \mathcal{N}(AB)\text{,}\) un vecteur qui est tel que \(AB\vec{x}=\vec{0}\text{,}\) par définition de l’espace nul. On a alors
\begin{align*} AB\vec{x}&=\vec{0}\\ A^{-1}AB\vec{x}&=A^{-1}\vec{0}\\ IB\vec{x}&=\vec{0}\\ B\vec{x}&=\vec{0}\text{.} \end{align*}
Cela implique que \(\vec{x}\) fait aussi partie de l’espace nul de \(B\text{.}\) On a \(\mathcal{N}(AB)\subseteq \mathcal{N}(B)\) et finalement \(\mathcal{N}(B)= \mathcal{N}(AB)\text{.}\)