Jusqu’à maintenant, on a fait plusieurs suppositions, naturelles peut-être, mais qu’il convient de clarifier. Par exemple, quand on écrit un vecteur \(\vec{v}=(2,3)\text{,}\) que signifient les nombres \(2,3\) ? On a vu qu’ils font implicitement référence aux vecteurs \(\vec{e}_1=(1,0),\vec{e}_2=(0,1)\text{,}\) au sens où \(\vec{v}=2\vec{e}_1+3\vec{e}_2\text{.}\) Des questions demeurent. Pourquoi ces vecteurs? Est-ce que la manière d’écrire \(\vec{v}\) comme une combinaison linéaire de \(\vec{e}_1,\vec{e}_2\) est unique?
Étant donné un sous-espace vectoriel égal au \(\vspan\) d’un certain nombre de vecteurs, est-ce que tous les vecteurs sont nécessaires pour engendrer le sous-espace? On a déjà vu la réponse à cette question quand on a parlé des espaces ligne et colonne. S’il y a trois lignes à une matrice, son espace ligne peut s’écrire de manière évidente comme le \(\vspan\) des trois lignes, mais on a aussi remarqué que parfois, une seule ligne suffit, parfois deux. Alors, comment décrire un sous-espace vectoriel comme un \(\vspan\) de manière efficace?
On a aussi souvent parlé de dimension en s’appuyant beaucoup sur la géométrie. Une droite est un objet à une dimension, un plan est un objet à deux dimensions et ainsi de suite. Ces descriptions sont intuitives, mais, lorsqu’on parle de sous-espace quelconque, peut-on définir sa dimension sans avoir accès à sa géométrie?
Dans cette section, on introduit la notion d’indépendance linéaire, la notion de base d’un (sous) espace et la notion de dimension. On revient aussi aux quatre espaces afin de déterminer une manière de décrire ceux-ci efficacement.
Sous-section 5.2.1 Indépendance linéaire
Étant donné un ensemble de vecteurs
\(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k\) de
\(\R^n\) et un vecteur
\(\vec{u}\) lui aussi dans
\(\R^n\text{,}\) peut-on écrire
\(\vec{u}\) comme une combinaison linéaire des vecteurs
\(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_n\text{?}\) Si oui, est-ce qu’il n’y a qu’une seule manière? On reconnait ici une question à laquelle on peut répondre avec les techniques du chapitre
3.
Exemple 5.2.1. Combinaisons linéaires et unicité.
On considère les vecteurs \(\vec{v}_1=(1,1,-3),\vec{v}_2=(3,-5,2),\vec{v}_3=(-1,7,-8)\) ainsi que les vecteurs \(\vec{u}_1=(2,2,2),\vec{u}_2=(-2,6,-5)\text{.}\) Est-ce que les vecteurs \(\vec{u}_1,\vec{u}_2\) s’écrivent comme une combinaison linéaire des vecteurs \(\vec{v}_1=(1,1,-3),\vec{v}_2=(3,-5,2),\vec{v}_3=(-1,7,-8)\text{?}\) De manière unique?
Solution.
On recherche l’existence de constantes \(a,b,c\) telles que
\begin{equation*}
\vecddd{2}{2}{2}=a\vecddd{1}{1}{-3}+b\vecddd{3}{-5}{2}+c\vecddd{-1}{7}{-8}
\end{equation*}
et de constantes \(x,y,z\) telles que
\begin{equation*}
\vecddd{-2}{6}{-5}=x\vecddd{1}{1}{-3}+y\vecddd{3}{-5}{2}+z\vecddd{-1}{7}{-8}\text{.}
\end{equation*}
Sous forme matricielle, avec \(A=\begin{pmatrix}1&3&-1\\1&-5& 7\\ -3&2&-8\end{pmatrix}\text{,}\) les systèmes d’équations linéaires sont équivalents à la matrice augmentée \((A|\vec{u}_1 ~ \vec{u}_2)\text{.}\) Avec Sage,
on trouve la solution à ces systèmes en échelonnant la matrice :
\begin{equation*}
(A|\vec{u}_1 ~ \vec{u}_2)=\left(\begin{array}{rrr|rr}
1 & 0 & 2 & 0 & 1 \\
0 & 1 & -1 & 0 & -1 \\
0 & 0 & 0 & 1 & 0
\end{array}\right)\text{.}
\end{equation*}
Le vecteur \(\vec{u}_1\) ne s’écrit pas comme une combinaison linéaire des vecteurs \(\vec{v}_1,\vec{v}_2,\vec{v}_3\text{.}\) Il n’est donc pas dans l’espace colonne de la matrice \(A\text{.}\) Par contre, le vecteur \(\vec{u}_2\text{,}\) lui, en fait partie. Il y a même une infinité de manières de l’écrire. Par exemple, on a \(\vec{u}_2=\vec{v}_1-\vec{v}_2\text{,}\) mais aussi \(\vec{u}_2=3\vec{v}_1-2\vec{v}_2-\vec{v}_3\text{.}\)
En observant la matrice augmentée (ou l’expression de la solution), on peut arriver à la conclusion que si le troisième vecteur n’était pas là, on pourrait quand même écrire le vecteur \(\vec{u}_2\) et, qui plus est, la solution serait unique.
La première question à laquelle on veut répondre concerne l’unicité de l’écriture. Étant donné un ensemble de vecteurs \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_n\) et un vecteur \(\vec{u}\in \vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_n)\text{,}\) quand peut-on être assuré de l’unicité de la combinaison linéaire des vecteurs \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k\) qui produit \(\vec{u}\text{.}\) Il s’avère que pour répondre à cette question, il suffit de regarder la réponse avec le vecteur nul. On sait que le vecteur nul peut toujours s’écrire comme \(\vec{0}=0\vec{v}_1+0\vec{v}_2+\cdots+ 0 \vec{v}_k\text{.}\) Si c’est la seule manière, alors les autres vecteurs s’écriront aussi de manière unique.
Proposition 5.2.2. Unicité des combinaisons linéaires dans le \(\vspan\).
Soit \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k\text{,}\) des vecteurs de \(\R^n\text{.}\) Si la seule combinaison linéaire de ces vecteurs qui produit le vecteur nul est la combinaison triviale, alors tous les vecteurs dans \(\vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k)\) s’écrivent de manière unique comme une combinaison linéaire des vecteurs \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k\text{.}\) Mathématiquement, si la seule solution à l’équation
\begin{equation*}
c_1\vec{v}_1+c_2\vec{v}_2+\ldots + c_k\vec{v}_k=\vec{0}
\end{equation*}
est la solution où \(c_1=c_2=\cdots = c_k=0\text{,}\) alors l’écriture \(\vec{u}=d_1\vec{v}_1+d_2\vec{v}_2+\cdots + d_k\vec{v}_k\) est unique pour tout vecteur \(\vec{u}\in \vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k).\)
Démonstration.
On suppose qu’il existe \(d_1,d_2,\ldots , d_k\) et \(d^{'}_1,d^{'}_2,\ldots , d^{'}_k\) telles que
\begin{equation*}
\vec{u}=d_1\vec{v}_1+d_2\vec{v}_2+\cdots + d_k\vec{v}_k
\end{equation*}
et
\begin{equation*}
\vec{u}=d^{'}_1\vec{v}_1+d^{'}_2\vec{v}_2+\cdots + d^{'}_k\vec{v}_k\text{.}
\end{equation*}
On peut alors écrire le vecteur nul comme
\begin{align*}
\vec{0}&=\vec{u}-\vec{u}\\
&=d_1\vec{v}_1+d_2\vec{v}_2+\cdots + d_k\vec{v}_k-(d^{'}_1\vec{v}_1+d^{'}_2\vec{v}_2+\cdots + d^{'}_k\vec{v}_k)\\
&=(d_1-d^{'}_1)\vec{v}_1+(d_2-d^{'}_2)\vec{v}_2+\cdots + (d_k-d^{'}_k)\vec{v}_k\text{.}
\end{align*}
Comme l’écriture du vecteur nul est unique par hypothèse, il s’ensuit que \(d_1=d_1^{'}, d_2=d^{'}_2,\ldots , d_k=d^{'}_k\) et que l’écriture de \(\vec{u}\) est aussi unique.
En particulier, si chaque écriture est unique, aucun des vecteurs \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k\) ne peut être écrit comme une combinaison linéaire des autres, puisque l’écriture \(\vec{v}_i=\vec{v}_i\) doit être unique. Cette observation motive la définition importante d’indépendance linéaire, mais d’abord, un exemple concret de cette observation.
Exemple 5.2.3. Écriture unique et vecteur nul.
On reprend les vecteurs
\(\vec{v}_1=(1,1,-3),\vec{v}_2=(3,-5,2),\vec{v}_3=(-1,7,-8)\text{.}\) On détermine les solutions à l’équation
\(c_1\vec{v}_1+c_2\vec{v}_2+c_3\vec{v}_3=\vec{0}\text{.}\) On s’attend évidemment à avoir une infinité de solutions puisque l’écriture du vecteur
\(\vec{u}_2\) de l’exemple
5.2.1 n’était pas unique.
Solution.
Pour résoudre le problème, on peut échelonner la matrice
\(A=\begin{pmatrix}1&3&-1\\1&-5& 7\\ -3&2&-8\end{pmatrix}\text{,}\) travail qui a déjà été fait à l’exemple
5.2.1. On obtient
\(\left(\begin{array}{rrr}
1 & 0 & 2 \\
0 & 1 & -1 \\
0 & 0 & 0
\end{array}\right)\text{.}\) Comme attendu, on a une infinité de solutions, car il y a des variables libres. En particulier, le vecteur nul peut s’écrire comme
\(-2\vec{v}_1+\vec{v}_2+\vec{v}_3=\vec{0}\text{.}\)
L’importance de l’unicité de l’écriture motive la définition d’indépendance linéaire.
Définition 5.2.4. Indépendance linéaire.
Soit \(\vec{v}_1,\vec{v}_2,\ldots \vec{v}_k\text{,}\) un ensemble de vecteurs de \(\R^n\text{.}\) L’ensemble est dit linéairement indépendant (on dit parfois aussi que les vecteurs sont linéairement indépendants) si la seule solution à l’équation
\begin{equation*}
c_1\vec{v}_1+c_2\vec{v}_2+\ldots + c_k\vec{v}_k=\vec{0}
\end{equation*}
est la solution triviale où \(c_1=c_2=\cdots =c_k=0\text{.}\)
Dans le cas contraire, on dit que l’ensemble de vecteurs est linéairement dépendant (on dit parfois aussi que les vecteurs sont linéairement dépendants).
Exemple 5.2.6. L’indépendance linéaire de deux vecteurs spécifiques.
On considère deux des trois vecteurs de l’exemple
5.2.1, à savoir les vecteurs
\(\vec{v}_1=(1,1,-3),\vec{v}_2=(3,-5,2)\text{.}\) On montre que ces vecteurs sont linéairement indépendants.
Solution.
Pour résoudre l’équation \(c_1\vec{v}_1+c_2\vec{v}_2=\vec{0}\text{,}\) on utilise la forme échelonnée réduite de la matrice \(A=\begin{pmatrix}1&3\\1&-5\\ -3&2\end{pmatrix}\text{.}\) On obtient alors \(\left(\begin{array}{rr|r}
1 & 0 & 0 \\
0 & 1 & 0 \\
0 & 0 & 0
\end{array}\right)\text{,}\) qui donne comme unique solution \(c_1=c_2=0\text{.}\) Les vecteurs sont donc linéairement indépendants.
On poursuit avec un exemple plus théorique qui permet d’obtenir d’autres ensembles de vecteurs à partir d’un ensemble donné.
Exemple 5.2.7. Combinaisons linéaires de vecteurs linéairement indépendants.
Soit \(\vec{u},\vec{v}\text{,}\) deux vecteurs formant un ensemble linéairement indépendant. On montre que l’ensemble formé des vecteurs \(\vec{w}_1=\vec{u}+\vec{v},\vec{w}_2=\vec{u}-\vec{v}\) est aussi linéairement indépendant.
Solution.
On tente d’écrire le vecteur nul comme une combinaison linéaire des vecteurs \(\vec{w}_1,\vec{w}_2\text{.}\) On a
\begin{align*}
\vec{0}&=c_1\vec{w}_1+c_2\vec{w}_2\\
&=c_1(\vec{u}+\vec{v})+c_2(\vec{u}-\vec{v})\\
&=c_1\vec{u}+c_1\vec{v}+c_2\vec{u}-c_2\vec{v}\\
&=(c_1+c_2)\vec{u}+(c_1-c_2)\vec{v}\text{.}
\end{align*}
Parce que \(\vec{u},\vec{v}\) forment un ensemble indépendant, on peut conclure que \(c_1+c_2=0\) et \(c_1-c_2=0\text{,}\) car la seule combinaison linéaire de ces vecteurs qui donne le vecteur nul est la combinaison triviale. De ces nouvelles contraintes, on déduit que \(c_1=-c_2\) et \(c_1=c_2\text{,}\) ce qui n’est possible que lorsque \(c_1=c_2=0\text{.}\) Ainsi, l’ensemble composé des vecteurs \(\vec{w}_1,\vec{w}_2\) est linéairement indépendant.
On peut décrire l’équation représentant l’indépendance linéaire sous forme matricielle. On obtient alors une proposition utilisant le rang d’une matrice.
Proposition 5.2.8. Indépendance linéaire et rang.
Soit \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k\text{,}\) un ensemble de vecteurs de \(\R^n\) et soit \(V\text{,}\) la matrice contenant les vecteurs \(\vec{v}_i\) dans ses colonnes. Alors l’ensemble des vecteurs \(\vec{v}_i\) est linéairement indépendant si et seulement si \(rg(V)=k\text{.}\)
Démonstration.
On commence avec l’implication que si \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k\) est un ensemble de vecteurs linéairement indépendant, alors le rang de la matrice \(V\) vaut \(k\text{.}\)
Puisque l’équation \(c_1\vec{v}_1+c_2\vec{v}_2+\ldots + c_k\vec{v}_k=\vec{0}\) possède une solution unique, cela signifie que toutes les colonnes sont pivots dans la forme échelonnée réduite de la matrice \(V\text{,}\) car il ne peut pas y avoir de variables libres. Ainsi \(rg(V)=k\text{.}\)
On regarde maintenant l’implication du rang égal à \(k\) sur l’indépendance des vecteurs \(\vec{v}_i\text{.}\)
À l’inverse de l’argument précédent, si le rang de la matrice est égal à \(k\text{,}\) alors toutes les colonnes sont pivots. Dans l’équation matricielle \(V\vec{x}=\vec{0}\text{,}\) il n’y aura pas de variables libres, la solution sera unique et sera celle où \(\vec{x}=\vec{0}\text{.}\) Ainsi, la seule combinaison linéaire des vecteurs \(\vec{v}_i\) donnant le vecteur nul est la combinaison linéaire triviale, \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k\) est donc un ensemble linéairement indépendant.
On regarde maintenant la géométrie d’ensembles linéairement indépendants simples, afin de simplifier le critère d’indépendance pour ces cas.
Proposition 5.2.9. Indépendance linéaire pour deux ou trois vecteurs.
Soit \(\vec{u},\vec{v},\vec{w}\text{,}\) des vecteurs de \(\R^n\text{.}\) Alors
Les vecteurs \(\vec{u},\vec{v}\) sont linéairement indépendants si et seulement s’ils ne sont pas parallèles;
Les vecteurs \(\vec{u},\vec{v},\vec{w}\) sont linéairement indépendants si et seulement s’ils ne sont pas sur un même plan.
Ceci permet aisément de tester l’indépendance de deux ou trois vecteurs, en particulier, on pourra utiliser le
déterminant à cet effet.
Démonstration.
On commence avec des vecteurs linéairement indépendants et l’on tente de montrer que les vecteurs ne peuvent pas être parallèles.
Soit \(\vec{u},\vec{v}\text{,}\) des vecteurs linéairement indépendants. Si les vecteurs étaient parallèles, par exemple \(\vec{u}=k\vec{v}\text{,}\) alors on pourrait écrire \(\vec{u}-k\vec{v}=\vec{0}\text{,}\) ce qui donnerait une combinaison non triviale des vecteurs \(\vec{u},\vec{v}\) donnant le vecteur nul. Comme les vecteurs sont indépendants par hypothèse, c’est impossible.
On poursuit maintenant avec deux vecteurs non parallèles et l’on montre qu’ils doivent être indépendants.
Soit \(\vec{u},\vec{v}\text{,}\) des vecteurs non parallèles. Si ces vecteurs étaient linéairement dépendants, alors il existerait des constantes \(c_1,c_2\) qui ne sont pas toutes les deux nulles telles que \(c_1\vec{u}+c_2\vec{v}=\vec{0}\text{.}\) On suppose que \(c_1\neq 0\text{,}\) l’argument est le même si \(c_1=0\text{,}\) mais que \(c_2\neq 0\text{,}\) en inversant le rôle de \(\vec{u}\) et \(\vec{v}\text{.}\) On peut donc écrire \(\vec{u}=-\frac{c_2}{c_1}\vec{v}\text{,}\) ce qui entraine que les vecteurs sont parallèles, contredisant l’hypothèse initiale. Il faut donc que les vecteurs soient indépendants.
Démonstration.
On commence avec trois vecteurs indépendants et l’on montre que ces vecteurs ne sont pas sur un même plan. De la même manière qu’à la partie précédente, on suppose que les vecteurs sont sur un même plan. On peut, dans un premier temps, supposer qu’aucune paire de vecteurs n’est parallèle, car la partie précédente entraine que les vecteurs seraient dépendants. Comme aucun vecteur n’est parallèle, on peut prendre les vecteurs \(\vec{u},\vec{v}\) comme vecteurs directeurs du plan. Il existe donc \(c_1,c_2\) tels que \(\vec{w}=c_1\vec{u}+c_2\vec{v}\text{,}\) car \(\vec{w}\) est dans le plan de ces vecteurs. Or en écrivant \(c_1\vec{u}+c_2\vec{v}-\vec{w}=\vec{0}\text{,}\) on obtient une combinaison linéaire non triviale des vecteurs \(\vec{u},\vec{v},\vec{w}\) donnant le vecteur nul, ce qui est impossible, car les vecteurs sont indépendants par hypothèse.
En contrepartie, si l’on suppose que les vecteurs ne sont pas sur un même plan et que l’on considère une combinaison linéaire des vecteurs \(\vec{u},\vec{v},\vec{w}\) donnant le vecteur nul, par exemple \(c_1\vec{u}+c_2\vec{v}+c_3\vec{w}=\vec{0}\text{.}\)
On sait qu’au moins l’une de ces constantes est non nulle. On suppose que \(c_1\) est non nulle, l’argument sera similaire dans les autres cas. On peut alors isoler \(\vec{u}=-\frac{c_2}{c_1}\vec{v}-\frac{c_3}{c_1}\vec{w}\text{.}\) Or ceci signifie que \(\vec{u}\) est une combinaison linéaire des vecteurs \(\vec{v},\vec{w}\) et serait dans le même plan que ces vecteurs, ce qui contredit l’hypothèse initiale. Ainsi, les vecteurs sont indépendants.
La généralisation naturelle de ces situations est donnée dans la proposition suivante.
Proposition 5.2.10. Indépendance linéaire et espace engendré.
Soit \(\vec{v}_1,\vec{v}_2,\ldots ,\vec{v}_k\in \R^n\text{,}\) des vecteurs formant un ensemble linéairement indépendant et soit \(\vec{v}\in \R^n\text{.}\) Alors l’ensemble \(\vec{v}_1,\vec{v}_2,\ldots ,\vec{v}_k,\vec{v}\) est linéairement indépendant si et seulement si \(\vec{v}\notin \vspan(\vec{v}_1,\vec{v}_2,\ldots ,\vec{v}_k)\text{.}\)
Si \(\vec{v}\notin \vspan(\vec{v}_1,\vec{v}_2,\ldots ,\vec{v}_k)\text{,}\) cela signifie en particulier que les espaces engendrés par \(\vec{v}_1,\vec{v}_2,\ldots ,\vec{v}_k\) et par \(\vec{v}_1,\vec{v}_2,\ldots ,\vec{v}_k,\vec{v}\) sont différents.
Démonstration.
Voir l’exercice [provisional cross-reference: exo-indepspan]
.
On termine avec des commandes Sage en lien avec la sous-section.
Calcul 5.2.11. Sage et l’indépendance linéaire.
Pour vérifier si un ensemble de vecteurs est linéairement indépendant, il existe plusieurs options. La première consiste à utiliser la
définition. On peut alors résoudre l’équation
\(c_1\vec{v}_1+c_2\vec{v}_2+\ldots + c_k\vec{v}_k=0\) en utilisant les techniques du chapitre
3 et valider avec la définition
5.2.4.
On peut aussi utiliser la proposition
5.2.8 et simplement calculer le rang de la matrice
\(A\) dans la cellule Sage précédente.
Puisque ce rang correspond au nombre de vecteurs, les vecteurs sont linéairement indépendants.
Une autre manière, un peu plus complexe, consiste à utiliser la commande .linear_dependance
. Elle nécessite toutefois la création d’un espace vectoriel sous-jacent, concept qui sera défini dans la prochaine section. On en montre toutefois un exemple et les premières lignes seront clarifiées dans la section suivante.
Le résultat est un ensemble vide, ce qui signifie qu’il n’y a pas de dépendance linéaire. Afin de comparer avec un exemple où il y aurait dépendance, on ajoute deux vecteurs supplémentaires à la liste L.
Le résultat est une possible combinaison linéaire des vecteurs \(\vec{v}_1,\vec{v}_2,\vec{v}_3,\vec{v}_4\) donnant le vecteur nul. Dans ce cas-ci, on a \(\vec{v}_1+2\vec{v}_2-\vec{v}_3=\vec{0}\text{,}\) puisque \(\vec{v}_3=\vec{v}_1+\vec{v}_2\) a été défini ainsi.
Finalement, on peut utiliser la proposition
5.2.10. Les commandes utilisent également des concepts de la section suivante.
Sous-section 5.2.2 Base d’un sous-espace vectoriel
On sait maintenant comment garantir l’unicité de l’écriture d’un vecteur en termes des combinaisons linéaires d’un ensemble de vecteurs. Si ces vecteurs forment un ensemble linéairement indépendant, alors il y a unicité. Cette propriété est attrayante, car lorsque l’ensemble de vecteurs est clair, il n’y a qu’une représentation possible pour écrire les autres vecteurs en fonction de cet ensemble. Bien entendu, on ne peut pas toujours écrire un vecteur comme une combinaison linéaire des vecteurs dans l’ensemble. Il faut qu’il soit dans le \(\vspan\) pour que ce soit possible. On arrive donc à la définition de base d’un sous-espace vectoriel.
Définition 5.2.12. Base d’un sous-espace vectoriel.
Soit \(V\text{,}\) un sous-espace vectoriel et soit \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k\text{,}\) un ensemble de vecteurs dans \(V\text{.}\) On dit que ces vecteurs forment une base de \(V\) si
les vecteurs génèrent \(V\text{,}\) c’est-à-dire \(\vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k)=V\text{;}\)
les vecteurs forment un ensemble linéairement indépendant.
On commence avec quelques exemples de sous-espaces vectoriels et des bases de ces sous-espaces.
Exemple 5.2.13. Base de sous-espaces vectoriels.
On considère quelques-uns des sous-espaces vectoriels de l’exemple
5.1.3, soit
Le plan \(\mathcal{P}_1: x+y+z=0\) du début de section;
Les vecteurs de la forme \((x,x)\text{;}\)
L’ensemble ne contenant que le vecteur nul : \(\{\vec{0}\}\text{;}\)
Ĺ’espace \(\R^n\) au complet.
On cherche à déterminer une base pour chacun de ces exemples.
Solution 1.
On sait que, pour générer un plan, on doit avoir deux vecteurs non parallèles (et donc indépendants!). En isolant \(x\) dans l’équation normale du plan \(x=-y-z\text{,}\) on peut écrire les points du plan comme les points
\begin{align*}
\vecddd{x}{y}{z}&=\vecddd{-y-z}{y}{z}\\
&=\vecddd{-y}{y}{0}+\vecddd{-z}{0}{z}\\
&=y\vecddd{-1}{1}{0}+z\vecddd{-1}{0}{1}\text{.}
\end{align*}
On obtient deux vecteurs
\(\vec{u}=(-1,1,0)\) et
\(\vec{v}=(-1,0,1)\) tels que
\(\vspan(\vec{u},\vec{v})=\mathcal{P}_1\text{.}\) Puisque les vecteurs sont non parallèles, ils sont indépendants (proposition
5.2.9). Ces vecteurs forment donc une base du plan
\(\mathcal{P}_1\text{.}\)
Solution 2.
Les vecteurs de la forme
\((x,x)\) peuvent tous s’écrire comme un multiple de
\((1,1)\text{.}\) Ainsi, ce vecteur génère le sous-espace vectoriel. Comme la seule combinaison linéaire de ce vecteur donnant le vecteur nul est
\(0(1,1)=(0,0)\text{,}\) ce vecteur est linéairement indépendant (est-ce qu’un vecteur seul est toujours linéairement indépendant? Voir l’exercice
5.2.4.4). Il forme donc une base de ce sous-espace.
Solution 3.
Le vecteur nul engendre par défaut le vecteur nul, puisque \(k\vec{0}=\vec{0}\) pour tout scalaire \(k\text{.}\) Par contre, pour la même raison, il n’est pas linéairement indépendant. Ce n’est donc pas une base. En fait, le sous-espace vectoriel \(\{\vec{0}\}\) est le seul sous-espace qui ne possède pas de base.
Solution 4.
On sait qu’on peut décomposer un vecteur de \(\R^n\) comme une combinaison linéaire des vecteurs \(\vec{e}_1=(1,0,\ldots ,0),\vec{e}_2=(0,1,\ldots ,0),\ldots ,\vec{e}_n=(0,0,\ldots ,1)\text{.}\) Ces vecteurs engendrent donc \(\R^n\text{.}\) De plus, si l’on les place dans les colonnes d’une matrice, on obtient la matrice identité, de rang \(n\text{.}\) Les vecteurs sont alors linéairement indépendants et forment ainsi une base de \(\R^n\text{.}\)
Un sous-espace peut avoir plusieurs bases. Par exemple, un plan peut être décrit par une infinité de vecteurs directeurs. Selon la base utilisée, un même vecteur peut être décrit différemment.
Exemple 5.2.14. Plusieurs bases d’un sous-espace.
On reprend certains des sous-espaces vectoriels possédant une base de l’exemple précédent et l’on trouve des bases alternatives pour ces espaces:
Le plan \(\mathcal{P}_1: x+y+z=0\) du début de section;
Les vecteurs de la forme \((x,x)\text{.}\)
Solution 1.
La base révélée à l’exemple
5.2.13 a été trouvée selon la méthode prescrite par le chapitre
3 (en isolant
\(x\) pour en faire une variable pivot). Il suffit toutefois de trouver n’importe quel ensemble de vecteurs linéairement indépendants qui génère le plan. Plusieurs autres options sont possibles. Par exemple, en isolant
\(y\) ou
\(z\) dans l’équation normale du plan, on a
\begin{align*}
\vecddd{x}{y}{z}&=\vecddd{x}{-x-z}{z}\\
&=\vecddd{x}{-x}{0}+\vecddd{0}{-z}{z}\\
&=x\vecddd{1}{-1}{0}+z\vecddd{0}{-1}{1}
\end{align*}
ou encore
\begin{align*}
\vecddd{x}{y}{z}&=\vecddd{x}{y}{-x-y}\\
&=\vecddd{x}{0}{-x}+\vecddd{0}{y}{-y}\\
&=x\vecddd{1}{0}{-1}+y\vecddd{0}{1}{-1}\text{.}
\end{align*}
Dans chacun des cas, les vecteurs sont linéairement indépendants et engendrent le plan.
Pour avoir un autre exemple, on prend des vecteurs indépendants qui satisfont l’équation \(x+y+z=0\) jusqu’à l’obtention d’un ensemble qui génère le plan. Par exemple, si l’on prend \(\vec{u}=(1,1,-2)\text{,}\) ce vecteur est sur le plan. Par lui-même, il engendre une droite et il faut donc en ajouter un autre pour obtenir le plan. Une possibilité est \(\vec{v}=(3,-1,-2)\text{,}\) qui est indépendant de \(\vec{u}\text{.}\) Ensemble, ils engendrent le plan. Par exemple, on peut montrer que
\begin{equation*}
(-1,1,0)=\frac{1}{2}(1,1,-2)-\frac{1}{2}(3,-1,-2)
\end{equation*}
et
\begin{equation*}
(-1,0,1)=-\frac{1}{4}(1,1,-2)-\frac{1}{4}(3,-1,-2)\text{,}
\end{equation*}
la base originale du plan est alors dans \(\vspan((1,1,-2),(3,-1,-2))\text{.}\) De même, on a
\begin{equation*}
(1,1,-2)=(-1,1,0)-2(-1,0,1)
\end{equation*}
et
\begin{equation*}
(3,-1,-2)=-(-1,1,0)-2(-1,0,1)
\end{equation*}
et donc, la base formée des vecteurs \((1,1,-2)\) et \((3,-1,-2)\) est dans le sous-espace engendré par la base originale. Ces bases engendrent ainsi bel et bien le même espace.
Solution 2.
Le sous-espace formé des vecteurs de la forme \((x,x)\) peut avoir comme base n’importe quel vecteur non nul parallèle à \((1,1)\text{.}\) Un tel vecteur va, bien entendu, générer la droite représentant ce sous-espace. En fait, un vecteur non nul par lui-même est toujours indépendant.
L’existence de plusieurs bases pour décrire un même espace doit se traduire par une manière concrète de parler des éléments de l’espace par rapport à une base donnée. On introduit donc le concept de composantes d’un vecteur, relatif à une base (ordonnée).
Définition 5.2.15. Composantes d’un vecteur relatives à une base.
Soit \(\vec{v}_1,\vec{v}_2,\ldots ,\vec{v}_k\text{,}\) une base d’un sous-espace \(V\text{.}\) On note par \(\mathcal{B}=\langle \vec{v}_1,\vec{v}_2,\ldots ,\vec{v}_k\rangle\) la base ordonnée de ces vecteurs, c’est-à-dire la base où l’ordre des vecteurs est important. Soit \(\vec{u}\in V\text{,}\) un vecteur du sous-espace peut-être égal à l’un des vecteurs de \(\mathcal{B}\text{.}\) Parce que \(\mathcal{B}\) est une base de \(V\text{,}\) il existe \(c_1,c_2,\ldots ,c_k\in \R\) tels que \(\vec{u}=c_1\vec{v}_1+c_2\vec{v}_2+\cdots c_k\vec{v}_k\text{.}\) Les nombres \(c_1,c_2,\ldots, c_k\) sont appelés les composantes de \(\vec{u}\) dans la base ordonnée \(\mathcal{B}\) et l’on écrit
\begin{equation*}
\vec{u}=(c_1,c_2,\ldots c_k)_{\mathcal{B}}\text{.}
\end{equation*}
Tel que mentionné précédemment, le concept de vecteur algébrique fait déjà explicitement référence à la notion de composantes. Pour cela, on considère comme standard l’écriture d’un vecteur en fonction des vecteurs \(\vec{e}_1,\vec{e}_2,\ldots, \vec{e}_n\text{.}\) Ces vecteurs forment ce qu’on pourrait appeler la base canonique de \(\R^n\text{.}\) De ce fait, lorsque cette base est utilisée, on omet l’indice \(\mathcal{B}\) dans l’écriture des composantes du vecteur. Ainsi, si l’on écrit \(\vec{u}=(1,2,3)\text{,}\) il est sous-entendu que la base est \(\mathcal{B}=\langle (1,0,0),(0,1,0),(0,0,1)\rangle\text{.}\)
On regarde maintenant des exemples d’écritures de vecteurs d’un espace avec différentes bases.
Exemple 5.2.16. Bases et composantes de vecteurs.
On considère les vecteurs
\(\vec{v}_1=(1,1,-3),\vec{v}_2=(3,-5,2),\vec{v}_4=(1,-3,2)\) tirés de l’exemple calculatoire
5.2.11. Ces trois vecteurs forment une base de
\(\R^3\text{.}\) On considère aussi le vecteur
\(\vec{v}_5=\vec{v}_1\times \vec{v}_2=(-13,-11,-8)\text{.}\) On définit les trois bases ordonnées
\begin{align*}
\mathcal{B}_1&=\langle \vec{v}_1,\vec{v}_2,\vec{v}_4 \rangle\\
\mathcal{B}_2&=\langle \vec{v}_4,\vec{v}_1,\vec{v}_2\rangle\\
\mathcal{B}_3&=\langle \vec{v}_2,\vec{v}_5,\vec{v}_1 \rangle\text{.}
\end{align*}
On cherche à écrire le vecteur \(\vec{u}=(-1,2,4)\) dans chacune de ces trois bases.
Solution 1.
On cherche la combinaison linéaire des vecteurs \(\vec{v}_1,\vec{v}_2\) et \(\vec{v}_4\) qui donne le vecteur \(\vec{u}\text{.}\) On peut faire ce calcul facilement avec Sage.
Ainsi, on peut écrire
\begin{equation*}
\vec{u}=\left(-5,\frac{19}{4},-\frac{-41}{4}\right)_{\mathcal{B}_1}\text{.}
\end{equation*}
Solution 2.
La seule différence entre la base ordonnée \(\mathcal{B}_2\) et la base ordonnée \(\mathcal{B}_1\) est l’ordre des vecteurs. On devrait donc avoir
\begin{equation*}
\vec{u}=\left(-\frac{41}{4},-5,\frac{19}{4}\right)_{\mathcal{B}_2}\text{.}
\end{equation*}
Solution 3.
On procède comme pour la première méthode. Toujours avec Sage, on trouve que
\begin{equation*}
\vec{u}=\left(-\frac{143}{354},\,-\frac{41}{354},\,-\frac{229}{177}\right)_{\mathcal{B}_3}
\end{equation*}
Lorsqu’on se restreint à un sous-espace de \(\R^n\text{,}\) la description d’un vecteur par ses composantes relatives à la base du sous-espace pourrait ne pas contenir le même nombre de composantes que celle qui est relative à l’espace au complet. Cela est dû au nombre de vecteurs dans la base du sous-espace qui est potentiellement différent du nombre de vecteurs nécessaire pour engendrer \(\R^n\text{.}\)
Exemple 5.2.17. Composantes d’un vecteur dans un sous-espace.
On considère le plan dans
\(\R^3\) engendré par les vecteurs
\(\vec{v}_1=(1,1,-3),\vec{v}_2=(3,-5,2)\) de l’exemple
5.2.11. On considère également le vecteur
\(\vec{v}_3=\vec{v}_1+2\vec{v}_2=(7,-9,1)\text{,}\) qui est donc dans le plan. Si l’on ne s’intéresse qu’au sous-espace vectoriel, on peut alors décrire
\(\vec{v}_3\) dans la base
\(\mathcal{B}=\langle\vec{v}_1,\vec{v}_2\rangle\) comme étant
\(\vec{v}_3=(1,2)_{\mathcal{B}}\text{.}\) Même si la description ne comporte que deux composantes, on comprend que ce vecteur est toujours dans
\(\R^3\text{,}\) puisque les vecteurs de
\(\mathcal{B}\) sont dans
\(\R^3\text{.}\)
On s’attarde maintenant à démontrer quelques résultats sur les bases d’un sous-espace vectoriel. Ultimement, on veut en arriver à affirmer que toutes les bases d’un sous-espace vectoriel contiennent le même nombre de vecteurs. Ceci va permettre de définir concrètement la notion de dimension d’un sous-espace, déjà utilisée de manière informelle, principalement lorsqu’on parle de droite et plan. D’abord, un résultat sur l’existence d’une base pour un sous-espace vectoriel.
Proposition 5.2.18. (Presque) tous les sous-espaces ont une base.
Soit \(V\neq \{\vec{0}\}\text{,}\) un sous-espace vectoriel de \(\R^n\) différent du sous-espace nul. Alors, il existe une base pour \(V\text{.}\)
Ce résultat implique donc que tous les sous-espaces possèdent une base, sauf le sous-espace trivial qui ne contient que le vecteur nul. La raison est que le vecteur nul n’est pas indépendant de lui-même. La discussion a été menée à l’exemple
5.2.13.
Démonstration.
L’idée est de construire séquentiellement une base pour
\(V\text{.}\) On commence en choisissant un vecteur non nul dans
\(V\text{,}\) qu’on nomme
\(\vec{v}_1\text{.}\) Si
\(\vspan(\vec{v}_1)=V\text{,}\) alors c’est terminé, car
\(\vec{v}_1\) est indépendant et génère
\(V\text{.}\) Il forme donc une base. Si
\(\vspan(\vec{v}_1)\neq V\text{,}\) on prend alors un vecteur
\(\vec{v}_2\notin \vspan(\vec{v}_1)\) du sous-espace
\(V\text{.}\) En vertu de la proposition
5.2.10, l’ensemble
\(\vec{v}_1,\vec{v}_2\) est linéairement indépendant. Si
\(\vspan{\vec{v}_1,\vec{v}_2}\text{,}\) alors on a terminé, sinon on poursuit ce processus avec un vecteur
\(\vec{v}_3\notin\vspan(\vec{v}_1,\vec{v}_2)\text{.}\) Pour les mêmes raisons, le nouvel ensemble
\(\vec{v}_1,\vec{v}_2,\vec{v}_3\) sera indépendant.
Après un maximum de
\(n\) étapes, on est assuré d’avoir trouvé une base. En effet, si l’on a
\(n\) vecteurs
\(\vec{v}_1,\vec{v}_2,\ldots ,\vec{v}_n\) de
\(\R^n\) linéairement indépendants, alors tout autre vecteur différent de ces
\(n\) vecteurs doit appartenir à
\(\vspan(\vec{v}_1,\vec{v}_2,\ldots ,\vec{v}_n)\text{.}\) Ceci découle de la proposition
5.2.8. Comme il est impossible pour une matrice
\(n\times (n+1)\) d’avoir un rang égal à
\(n+1\text{,}\) la dépendance est forcée. Si tous les vecteurs additionnels sont dans
\(\vspan(\vec{v}_1,\vec{v}_2,\ldots ,\vec{v}_n)\text{,}\) on peut alors conclure que
\(\vspan(\vec{v}_1,\vec{v}_2,\ldots ,\vec{v}_n)=V\text{.}\)
Maintenant qu’il est établi que chaque sous-espace contient une base, on est en mesure de généraliser la proposition
5.1.18 sur le complément orthogonal du complément orthogonal.
Proposition 5.2.19. Le complément orthogonal du complément orthogonal.
Soit \(V\subseteq \R^n\text{,}\) un sous-espace vectoriel. Alors \((V^{\perp})^{\perp}=V\text{.}\)
Démonstration.
Dans un premier temps, on sépare en deux cas. D’abord, si
\(V=\{\vec{0}\}\text{,}\) alors pour tout vecteur
\(\vec{v}\) dans
\(\R^n\) on a
\(\vec{v}\cdot \vec{0}=0\text{,}\) comme il est remarqué à la proposition
5.1.14. Dans ce cas, quel est le complément orthogonal de
\(\R^n\text{?}\) On y revient dans la seconde partie.
Soit
\(V\text{,}\) un sous-espace vectoriel différent de
\(\{\vec{0}\}\text{.}\) Soit
\(\vec{v}_1,\vec{v}_2,\ldots, \vec{v}_k\text{,}\) une base de ce sous-espace dont l’existence est garantie par la proposition
5.2.18. On place ces vecteurs dans les colonnes d’une matrice
\(A\) de taille
\(n\times k\text{.}\) Par construction, on a
\(V=\mathcal{C}(A)\text{.}\) Selon la proposition
5.1.18, on a
\(V^{\perp}=(\mathcal{C}(A))^{\perp}=\mathcal{N}(A^T)\) et
\((V^{\perp})^{\perp}=(\mathcal{N}(A^T))^{\perp}=\mathcal{C}(A)=V\text{.}\)
Plus particulièrement, si \(V=\R^n\text{,}\) on peut prendre les vecteurs \(\vec{e}_1,\vec{e}_2,\ldots , \vec{e}_n\) comme base et la matrice \(A=I\text{.}\) Dans ce cas, on a \(V^{\perp}=\mathcal{N}(A^T)=\{\vec{0}\}\text{,}\) puisque \(rg(A^T)=n\text{.}\) On a donc aussi \((\R^n)^{\perp}=\{\vec{0}\}\text{,}\) ce qui complète la preuve.
Dans la prochaine sous-section, on s’attarde à montrer que toutes les bases d’un sous-espace vectoriel vont contenir le même nombre de vecteurs. Ceci va définir de manière formelle la dimension du sous-espace.
On termine avec des commandes Sage en lien avec la sous-section.
Calcul 5.2.20. Les bases et Sage.
Avec Sage, on peut facilement déterminer une base d’un sous-espace vectoriel. La méthode la plus simple consiste à créer le \(\vspan\) d’un certain nombre de vecteurs et ensuite de demander une base à Sage. Comme il existe plusieurs bases, Sage en choisit une selon l’algorithme qui a été programmé.
Pour tester, on reprend les vecteurs de l’exemple
5.2.11 et l’on cherche une base aux sous-espaces créés par les différents
\(\vspan\)
Sous-section 5.2.3 La dimension d’un sous-espace vectoriel
La proposition
5.2.18 dit que chaque sous-espace possède une base. En réalité, il existe une infinité de bases pour chaque sous-espace vectoriel en possédant au moins une. Ceci pourrait être vu comme un désavantage, mais heureusement, toutes ces bases ont un point commun: elles possèdent le même nombre de vecteurs. On commence par démontrer que si un ensemble de vecteurs d’un sous-espace contient plus de vecteurs qu’une base de ce même sous-espace, alors l’ensemble est nécessairement dépendant.
Proposition 5.2.21. Dépendance linéaire et nombre de vecteurs.
Soit \(V\subseteq \R^n\text{,}\) un sous-espace vectoriel et soit \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k\text{,}\) une base de ce sous-espace. On considère un ensemble de vecteurs du sous-espace \(\vec{w}_1,\vec{w}_2,\ldots \vec{w}_l\text{.}\) Si \(l> k\text{,}\) alors les vecteurs \(\vec{w}_1,\vec{w}_2,\ldots, \vec{w}_l\) sont linéairement dépendants.
Démonstration.
On écrit les vecteurs \(\vec{w}_j\) comme des combinaisons linéaires des vecteurs \(\vec{v}_i\text{,}\) cela étant possible en vertu du fait que les vecteurs \(\vec{v}_i\) forment une base. On a donc
\begin{align*}
\vec{w}_1&=a_{1,1}\vec{v}_1+a_{2,1}\vec{v_2}+\cdots +a_{k,1}\vec{v}_k\\
\vec{w}_2&=a_{1,2}\vec{v}_1+a_{2,2}\vec{v_2}+\cdots +a_{k,2}\vec{v}_k\\
&\vdots\\
\vec{w}_l&=a_{1,l}\vec{v}_1+a_{2,l}\vec{v_2}+\cdots +a_{k,l}\vec{v}_k
\end{align*}
et l’on note par \(A\) la matrice dont les colonnes correspondent aux composantes des vecteurs \(\vec{w}_j\) dans la base ordonnée \(\langle \vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k\rangle\text{.}\) On note aussi par \(W\) la matrice des vecteurs \(\vec{w}_j\) en colonne dans leur écriture initiale. Finalement, on fait la même chose avec les vecteurs \(\vec{v}_i\) en les mettant en colonne dans une matrice \(B\text{.}\)
On peut alors écrire \(W=BA\text{,}\) en vertu de la définition du produit matriciel.
Si l’on montre que l’équation \(W\vec{x}=\vec{0}\) possède des solutions autres que le vecteur nul, cela implique qu’il existe une combinaison linéaire des colonnes de \(W\) et donc, des vecteurs \(\vec{w}_j\text{,}\) qui donne le vecteur nul. Les vecteurs seraient alors dépendants.
Puisque \(l> k\) et que la matrice \(A\) est de taille \(k\times l\text{,}\) il ne peut pas y avoir de pivot dans toutes les colonnes de la forme échelonnée réduite de \(A\text{.}\) L’équation matricielle \(A\vec{x}=\vec{0}\) possède donc une infinité de solutions, car il y a au moins une variable libre. On note par \(\vec{c}=(c_1,c_2,\ldots ,c_l)\) une solution non triviale à cette équation. On a alors
\begin{align*}
W\vec{c}&=BA\vec{c}\\
W\vec{c}&=B(A\vec{c})\\
W\vec{c}&=B\vec{0}\\
W\vec{c}&=\vec{0}\text{.}
\end{align*}
Ainsi, le vecteur \(\vec{c}\) offre une combinaison linéaire non triviale des vecteurs \(\vec{w}_j\) donnant le vecteur nul. Les vecteurs sont donc dépendants.
On obtient alors, grâce à cette proposition, le résultat principal de cette sous-section
Proposition 5.2.23. Nombre de vecteurs dans une base d’un sous-espace.
Soit \(V\subseteq \R^n\text{,}\) un sous-espace vectoriel et soit \(\vec{v}_1,\vec{v}_2,\ldots, \vec{v}_k\) et \(\vec{w}_1,\vec{w}_2,\ldots ,\vec{w}_l\text{,}\) deux bases de ce sous-espace. Alors \(k=l\text{.}\)
Démonstration.
La preuve est une application de la proposition
5.2.21 qui va comme suit. Dans un premier temps, parce que les vecteurs
\(\vec{v}_i\) forment une base, on peut dire que ces vecteurs sont linéairement indépendants. De plus, parce que les vecteurs
\(\vec{w}_j\) forment aussi une base, on doit conclure que
\(k\leq l\text{,}\) sinon la proposition
5.2.21 entrainerait que les vecteurs
\(\vec{v}_i\) sont dépendants.
On utilise le même argument, mais en renversant le rôle des vecteurs \(\vec{v}_i\) et \(\vec{w}_j\text{:}\)
Parce que les vecteurs
\(\vec{w}_j\) forment une base, on peut dire que ces vecteurs sont linéairement indépendants. De plus, parce que les vecteurs
\(\vec{v}_i\) forment aussi une base, on doit conclure que
\(l\leq k\text{,}\) sinon la proposition
5.2.21 entrainerait que les vecteurs
\(\vec{w}_j\) sont dépendants.
Finalement, on obtient que \(l\leq k\) et \(k\leq l\text{,}\) ce qui force à avoir \(k=l\text{.}\)
La conséquence immédiate de la proposition précédente est que toutes les bases auront le même nombre de vecteurs. On donne un nom à ce nombre.
Définition 5.2.24. La dimension d’un sous-espace vectoriel.
Soit \(V\neq \{\vec{0}\}\text{,}\) un sous-espace vectoriel. On appelle la dimension de \(V\text{,}\) noté \(\text{dim}(V)\text{,}\) le nombre de vecteurs dans une base de \(V\text{.}\)
Afin d’uniformiser les résultats qui suivent, on prend comme convention que \(\text{dim}(\{\vec{0}\})=0\text{.}\)
Exemple 5.2.25. La dimension de sous-espaces vectoriels.
On reprend les sous-espaces de l’exemple
5.1.3 et l’on détermine leur dimension.
Solution 1.
À l’exemple
5.2.13, on a trouvé comme base du plan
\(\mathcal{P}_1\) les vecteurs
\(\vec{u}=(-1,1,0)\) et
\(\vec{v}=(-1,0,1)\text{.}\) Sans surprise, la dimension de l’espace est
\(2\text{.}\)
Solution 2.
Toujours à l’exemple
5.2.13, on a trouvé que le vecteur
\((1,1)\) forme une base de ce sous-espace. La dimension est ainsi égale à
\(1\text{.}\)
Solution 3.
Par définition, le sous-espace composé uniquement du vecteur nul a pour dimension \(0\text{.}\)
Solution 4.
Encore à l’exemple
5.2.13, on a établi que les vecteurs
\(\vec{e}_1,\vec{e}_2,\ldots \vec{e}_n\) formaient une base de
\(\R^n\) et donc, la dimension de
\(\R^n\) est égale à
\(n\text{.}\)
Solution 5.
On sait qu’une droite qui passe par l’origine peut être engendrée par un vecteur. Un vecteur seul étant indépendant, il forme une base de la droite. La dimension d’une droite est donc égale à \(1\text{,}\) comme on pouvait s’y attendre.
Solution 6.
Un plan peut être engendré par deux vecteurs non parallèles et donc qui sont indépendants. Ces deux vecteurs forment alors une base. Ainsi, la dimension d’un plan est égale à \(2\text{,}\) comme attendu.
Solution 7.
Un hyperplan passant par l’origine dans \(\R^n\) est caractérisé par l’équation \(a_1x_1+a_2x_2+\cdots +a_nx_n=0\text{.}\) En considérant cette équation d’un point de vue matriciel, la matrice \(1\times n\) associée à cette équation n’aura qu’un pivot et \(n-1\) variables libres. Ces variables libres amèneront \(n-1\) solutions de base, donnant ainsi un sous-espace à \(n-1\) dimension.
L’exemple précédent fait allusion aux solutions de base d’un système d’équations linéaires. On est maintenant en mesure de comprendre l’utilisation du terme « de base ». Les solutions à l’équation
\(A\vec{x}=\vec{0}\) forment un sous-espace vectoriel, l’espace nul. Cet espace est engendré par les vecteurs solutions de base définis à la section
3.3. Les solutions de base sont toujours indépendantes (voir l’exercice
5.2.4.7) et forment bel et bien une base de l’espace nul. On reviendra aux quatre espaces fondamentaux dans la prochaine section.
On regarde à présent quelques propriétés de la dimension de sous-espaces vectoriels. La première sert à caractériser un ensemble de vecteurs par rapport à la dimension du sous-espace auquel ils appartiennent.
Proposition 5.2.26. Ensemble de vecteurs et dimension.
Soit \(V\text{,}\) un sous-espace vectoriel de dimension \(k\) et soit \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_l\text{,}\) un ensemble de vecteurs dans \(V\text{.}\)
Si \(l< k\text{,}\) alors \(\vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_l)\neq V\text{;}\)
Si \(l> k\text{,}\) alors les vecteurs sont dépendants;
Si \(l=k\text{:}\)
et si \(\vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_l)= V\text{,}\) alors les vecteurs \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_l\) sont aussi indépendants et forment donc une base;
et si \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_l\) sont indépendants, alors \(\vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_l)= V\) et ces vecteurs forment une base.
Démonstration.
On suppose que les vecteurs sont indépendants. Si ce n’est pas le cas, l’argument ci-dessous fonctionne avec \(l^{'}< l\) vecteurs indépendants parmi les vecteurs \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_l\) tels que le \(\vspan\) de ces \(l^{'}\) vecteurs est égal au \(\vspan\) des \(l\) vecteurs originaux.
On pose \(W=\vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_l)\text{.}\) Comme les vecteurs \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_l\) sont indépendants, ils forment une base de \(W\) et ce sous-ensemble est de dimension \(l\text{.}\) Si \(V=W\text{,}\) on aurait \(k=l\text{,}\) ce qui est impossible dans ce cas.
Démonstration.
C’est exactement le contenu de la proposition
5.2.21.
Démonstration.
On démontre chacune des deux affirmations lorsque \(k=l\) ci-dessous.
Dans un premier temps, on suppose que
\(\vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_l)=V\text{.}\) Si l’ensemble
\(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_l\) était linéairement dépendant, alors au moins un des vecteurs pourrait s’écrire comme une combinaison linéaire des autres vecteurs. On suppose par simplicité que c’est
\(\vec{v}_1\text{.}\) Cela signifie aussi que
\(\vspan(\vec{v}_2,\ldots , \vec{v}_l)=\vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_l)=V\text{.}\) Selon l’exercice
5.2.4.16, en lien avec la remarque
5.2.22,tout ensemble de plus de
\(l-1=k-1\) devrait être dépendant. Comme
\(\text{dim}(V)=k\text{,}\) une base va nécessairement contenir
\(k\) vecteurs indépendants. Il est donc impossible que les vecteurs
\(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_l\) soient dépendants.
Pour l’autre énoncé, on place les vecteurs dans les lignes d’une matrice
\(A\text{.}\) Si
\(\vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_l)\neq V\text{,}\) il existe alors un vecteur
\(\vec{u}\in V\) tel que
\(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_l,\vec{u}\) est indépendant selon la proposition
5.2.10. On obtient donc
\(l+1=k+1\) vecteurs indépendants, ce qui contredit la proposition
5.2.21.
Maintenant, un résultat assez intuitif sur la dimension d’un sous-ensemble.
Proposition 5.2.27. Dimension et inclusion.
Soit \(V,W\text{,}\) des sous-espaces vectoriels de \(\R^n\) tels que \(V\subseteq W\text{.}\) Alors \(\text{dim}(V)\leq\text{dim}(W)\) et si \(\text{dim}(V)=\text{dim}(W)\text{,}\) alors \(V=W\text{.}\)
Démonstration.
Soit
\(k\text{,}\) la dimension de
\(V\) et
\(l\text{,}\) la dimension de
\(W\text{.}\) Soit
\(\mathcal{B}\text{,}\) un ensemble de
\(k\) vecteurs formant une base pour
\(V\text{.}\) Si
\(k> l\text{,}\) alors
\(\mathcal{B}\) est un ensemble de
\(k> l\) vecteurs dans un ensemble (
\(W\text{,}\) car
\(V\subseteq W\)) de taille plus grande que la dimension, ce qui signifie selon la proposition
5.2.26 que
\(\mathcal{B}\) est linéairement dépendant, contredisant le fait que c’est une base pour
\(W\text{.}\) Ainsi, on doit avoir
\(l\leq k\text{.}\)
On suppose que la
\(\text{dim}(V)=\text{dim}(W)=k\text{.}\) Soit
\(\vec{w}_1,\vec{w}_2,\ldots , \vec{w}_k\text{,}\) une base de
\(W\text{.}\) Si
\(W\neq V\text{,}\) il existe un vecteur
\(\vec{v}\in V\) qui n’est pas dans
\(W\text{.}\) On considère l’ensemble
\(\vec{w}_1,\vec{w}_2,\ldots , \vec{w}_k,\vec{v}\text{.}\) Selon la proposition
5.2.10, cet ensemble est linéairement indépendant. Par contre, puisque la dimension de
\(V\) est aussi
\(k\text{,}\) la proposition
5.2.21 affirme qu’un ensemble de
\(l> k\) vecteurs est dépendant. Ceci contredit la propostion
5.2.10, on conclut donc qu’il n’existe pas de vecteur
\(\vec{v}\in V\) qui ne soit pas aussi dans
\(W\text{.}\) On a donc
\(V\subseteq W\text{.}\) Combiné à l’hypothèse que
\(W\subseteq V\text{,}\) on conclut que
\(V=W\text{.}\)
On regarde comment à partir d’un ensemble de vecteurs on peut trouver une base pour l’espace engendré par ces vecteurs.
Exemple 5.2.28. Base à l’intérieur du span.
On considère les vecteurs \(\vec{v}_1=(1,-2,3),\vec{v}_2=(2,-4,1),\vec{v}_3=(4,-8,-3),\vec{v}_4=(-3,6,1)\) et l’on note \(V=\vspan(\vec{v}_1,\vec{v}_2,\vec{v}_3,\vec{v}_4)\text{.}\) On cherche une base pour \(V\text{.}\)
Les quatre vecteurs ne peuvent pas former une base, puisque
\(V\subseteq \R^3\text{,}\) qui est de dimension
\(3\text{.}\) Ceci contredirait les propositions
5.2.26 et
5.2.27. Ces vecteurs sont donc dépendants. On regarde les solutions à l’équation
\(c_1\vec{v}_1+c_2\vec{v}_2+c_3\vec{v}_3+c_4\vec{v}_4=\vec{0}\text{.}\) Ceci permettra de trouver quelle(s) combinaison(s) linéaire(s) des quatre vecteurs donne le vecteur nul. On utilise Sage pour résoudre le système.
On trouve deux variables libres, donc deux solutions de bases: \(\vec{s}_1=(2,-3,1,0),\vec{s}_2=(-1,2,0,1)\text{.}\) Ainsi, on peut conclure que \(2\vec{v}_1-3\vec{v}_2+\vec{v}_3=\vec{0}\) de même que \(-\vec{v}_1+2\vec{v}_2+\vec{v}_4=\vec{0}\text{.}\) On peut alors écrire \(\vec{v}_3,\vec{v}_4\) comme une combinaison linéaire de \(\vec{v}_1\) et \(\vec{v}_2\text{.}\) On a alors \(V=\vspan(\vec{v}_1,\vec{v}_2,\vec{v}_3,\vec{v}_4)=\vspan(\vec{v}_1,\vec{v}_2)\text{.}\) De plus, les vecteurs \(\vec{v}_1,\vec{v}_2\) sont indépendants, car ils ne sont pas parallèles. Ils forment donc une base de \(V\text{.}\)
Plus généralement, on va montrer dans la prochaine section qu’on peut obtenir une base pour \(\mathcal{C}(A)\) en prenant les colonnes (de la matrice \(A\)) qui sont pivots (dans la forme \(rref(A)\)).
On termine avec des commandes Sage en lien avec la sous-section.
Calcul 5.2.29. Les bases et Sage.
Avec Sage, on peut aussi automatiquement obtenir la dimension d’un sous-espace vectoriel.
Pour tester, on reprend encore les vecteurs de l’exemple
5.2.11 et l’on calcule la dimension à l’aide de la commande
dimension
.
Exercices 5.2.4 Exercices
1.
Déterminer si les vecteurs suivants sont linéairement dépendants ou linéairement indépendants.
(a)
\(\vec{v}_1=(1,3),\vec{v}_2=(-2,-6)\)
Réponse.
Solution.
On peut se servir de la définition
5.2.4 ou de la proposition
5.2.9. On peut également utiliser la proposition
5.2.8. Au fil des solutions, on utilisera ces différentes options, mais il est possible de toujours procéder de la même manière.
Ici, on voit rapidement que \(\vec{v}_1=k\vec{v}_2\) avec \(k=-\frac{1}{2}\text{.}\) En effet, on a
\begin{equation*}
\vec{v}_1=(1,3)=-\frac{1}{2}(-2,-6)=-\frac{1}{2}\vec{v}_2\text{.}
\end{equation*}
Ainsi, par la proposition
5.2.9, ils sont linéairement dépendants, car ils sont parallèles.
(b)
\(\vec{v}_1=(-1,2),\vec{v}_2=(2,3)\)
Réponse.
Linéairement indépendants
Solution.
On voit rapidement que ces vecteurs ne sont pas parallèles. Par la proposition
5.2.9, ils sont donc linéairement indépendants. On choisit tout de même de le montrer avec la définition
5.2.4 pour varier les approches. Par cette définition, si ces vecteurs sont indépendants, alors la seule façon d’écrire le vecteur nul comme combinaison linéaire de
\(\vec{v}_1,\vec{v}_2\) sera la combinaison triviale.
\begin{align*}
\vec{0}&=c_1\vec{v}_1+c_2\vec{v}_2\\
&=c_1(-1,2)+c_2(2,3)\\
&=(-c_1+2c_2,2c_1+3c_2)\\
\Rightarrow &\begin{cases}0&=-c_1+2c_2\\ 0&=2c_1+3c_2\end{cases}\\
\Rightarrow 0&=2*(2c_2)+3c_2\\
\Rightarrow 0&=7c_2\\
\Rightarrow 0&=c_2=c_1
\end{align*}
Donc, les vecteurs sont bel et bien linéairement indépendants.
(c)
\(\vec{v}_1=(1,1),\vec{v}_2=(2,1),\vec{v}_3=(-1,1)\)
Réponse.
Solution.
On décide d’utiliser la proposition
5.2.8. La matrice des vecteurs en colonnes est :
\begin{equation*}
A=\begin{pmatrix}1& 2& -1\\ 1& 1& 1\end{pmatrix}
\end{equation*}
et sa forme échelonnée réduite est :
\begin{equation*}
A=\begin{pmatrix}1& 0& 3\\ 0& 1& -2\end{pmatrix}\text{.}
\end{equation*}
Cette matrice étant de rang
\(2\text{,}\) ce qui n’est pas égal au nombre de vecteurs donnés, ils sont donc linéairement dépendants. On remarque qu’on aurait pu arriver directement à cette conclusion grâce à la proposition
5.2.21. En effet, trois vecteurs dans
\(\R^2\text{,}\) qui est clairement de dimension
\(2\text{,}\) n’ont pas d’autre choix que d’être dépendants.
(d)
\(\vec{v}_1=(1,3,1),\vec{v}_2=(-2,-6,-2)\)
Réponse.
Solution.
On voit rapidement que \(\vec{v}_1=k\vec{v}_2\) avec \(k=-\frac{1}{2}\text{.}\) En effet, on a
\begin{equation*}
\vec{v}_1=(1,3,1)=-\frac{1}{2}(-2,-6,-2)=-\frac{1}{2}\vec{v}_2\text{.}
\end{equation*}
Ainsi, par la proposition
5.2.9, ils sont linéairement dépendants, car ils sont parallèles.
(e)
\(\vec{v}_1=(1,3,1),\vec{v}_2=(2,3,1),\vec{v}_3=(7,12,4)\)
Réponse.
Solution.
On choisit de procéder avec la définition
5.2.4 pour varier les approches. Par cette définition, si ces vecteurs sont indépendants, alors la seule façon d’écrire le vecteur nul comme combinaison linéaire de
\(\vec{v}_1,\vec{v}_2,\vec{v}_3\) sera la combinaison triviale.
\begin{align*}
\vec{0}&=c_1\vec{v}_1+c_2\vec{v}_2+c_3\vec{v}_3\\
&=c_1(1,3,1)+c_2(2,3,1)+c_3(7,12,4)\\
&=(c_1+2c_2+7c_3,3c_1+3c_2+12c_3,c_1+c_2+4c_3)\\
\Rightarrow &\begin{cases}0&=c_1+2c_2+7c_3\\ 0&=3c_1+3c_2+12c_3\\ 0&=c_1+c_2+4c_3\end{cases}
\end{align*}
Ce SEL correspond à l’équation matricielle \(C\vec{x}=\vec{0}\) où le vecteur inconnu est \(\vec{x}=(c_1,c_2,c_3)\) et la matrice des coefficients:
\begin{equation*}
C=\begin{pmatrix}1& 2& 7\\ 3& 3& 12 \\ 1& 1& 4 \end{pmatrix}\text{.}
\end{equation*}
La forme échelonnée réduite de cette matrice est :
\begin{equation*}
C=\begin{pmatrix}1& 0& 1\\ 0& 1& 3 \\ 0& 0& 0 \end{pmatrix}\text{.}
\end{equation*}
Ce système ayant une infinité de solutions, on conclut donc qu’il existe d’autres solutions que la solution triviale. En conclusion, ces vecteurs sont linéairement dépendants.
Remarquons qu’il aurait été beaucoup plus rapide d’utiliser la proposition
5.2.8 et d’échelonner directement la matrice de ces vecteurs en colonnes.
(f)
\(\vec{v}_1=(1,3,1),\vec{v}_2=(-2,-6,-2),\vec{v}_3=(-5,2,1)\)
Réponse.
Solution.
On choisit de procéder avec la définition
5.2.4 puisqu’il est possible de voir une combinaison linéaire non triviale directement. Par cette définition, si ces vecteurs sont indépendants, alors la seule façon d’écrire le vecteur nul comme combinaison linéaire de
\(\vec{v}_1,\vec{v}_2,\vec{v}_3\) sera la combinaison triviale. Par contre, on peut écrire:
\begin{align*}
\vec{0}&=c_1\vec{v}_1+c_2\vec{v}_2+c_3\vec{v}_3\\
&=c_1(1,3,1)+c_2(-2,-6,-2)+c_3(-5,2,1)\\
&=2(1,3,1)+(-2,-6,-2)+0(-5,2,1)\text{.}
\end{align*}
La combinaison linéaire non triviale \(c_1=2, c_2=1, c_3=0\) permet d’écrire le vecteur nul en fonction de ces trois vecteurs. Ils sont donc linéairement dépendants. On remarque que même si \(c_3=0\text{,}\) cette solution n’est pas la solution triviale où TOUS les coefficients doivent être nuls.
(g)
\(\vec{v}_1=(1,3,1,0),\vec{v}_2=(-2,0,1,0),\vec{v}_3=(1,2,-1,3)\)
Réponse.
Linéairement indépendants
Solution.
On décide d’utiliser la proposition
5.2.8. La matrice des vecteurs en colonnes est :
\begin{equation*}
A=\begin{pmatrix}1& -2& 1\\ 3& 0& 2\\ 1& 1& -1\\ 0& 0& 3\end{pmatrix}
\end{equation*}
et sa forme échelonnée réduite est :
\begin{equation*}
A=\begin{pmatrix}1& 0& 0\\ 0& 1& 0 \\ 0& 0& 1 \\ 0& 0& 0\end{pmatrix}\text{.}
\end{equation*}
Cette matrice étant de rang \(3\text{,}\) ce qui est égal au nombre de vecteurs donnés, ces vecteurs sont linéairement indépendants.
2.
Considérer le parallélépipède de la figure
1.1.62 et répondre aux questions suivantes.
(a)
Pour chaque ensemble de vecteurs ci-dessous, déterminer s’il est dépendant ou indépendant.
(i)
\(\vecl{AB},\vecl{GH}\)
Réponse.
Solution.
On peut se servir de la définition
5.2.4 ou de la proposition
5.2.9. Bien que l’on n’ait pas les expressions algébriques des vecteurs, on peut déterminer les conditions pour l’indépendance ou la dépendance à l’aide de la figure.
Ici, on voit que
\(\vecl{AB}=k\vecl{GH}\) avec
\(k=-1\text{.}\) Par la proposition
5.2.9, ils sont linéairement dépendants, car ils sont parallèles. On voit leur parallélisme dans la figure directement.
(ii)
\(\vecl{DB},\vecl{GE}\)
Réponse.
Linéairement indépendants
Solution.
On voit que
\(\vecl{DB}\neq k\vecl{GE}\) peu importe la valeur de
\(k\text{.}\) On le voit sur la figure puisqu’ils ne sont pas parallèles. Par la proposition
5.2.9, ils sont linéairement indépendants, car ils ne sont pas parallèles.
(iii)
\(\vecl{FG},\vecl{BA},\vecl{DH}\)
Réponse.
Linéairement indépendants
Solution.
On voit sur la figure que les trois vecteurs mentionnés ne sont pas dans un même plan. Une façon de s’en convaincre est de remarquer que
\(\vecl{FG}=\vecl{BC}\) et
\(\vecl{DH}=\vecl{BF}\text{.}\) En exprimant ainsi ces trois vecteurs à partir de
\(B\text{,}\) on voit que
\(\vecl{BC},\vecl{BA}\) et
\(\vecl{BF}\) ne sont pas sur un même plan. Par la proposition
5.2.9, ils sont linéairement indépendants.
(iv)
\(\vecl{FH},\vecl{CB},\vecl{DA}\)
Réponse.
Solution.
On choisit de procéder avec la définition
5.2.4 puisqu’il est possible de voir une combinaison linéaire non triviale directement. Par cette définition, si ces vecteurs sont indépendants, alors la seule façon d’écrire le vecteur nul (déplacement nul) comme combinaison linéaire de
\(\vecl{FH},\vecl{CB},\vecl{DA}\) sera la combinaison triviale. En remarquant sur la figure que
\(\vecl{CB}=\vecl{DA}\text{,}\) on peut écrire:
\begin{align*}
\vec{0}&=c_1\vecl{FH}+c_2\vecl{CB}+c_3\vecl{DA}\\
&=0\vecl{FH}+\vecl{CB}-\vecl{DA}\text{.}
\end{align*}
La combinaison linéaire non triviale \(c_1=0, c_2=1, c_3=-1\) permet d’écrire le vecteur nul en termes de ces trois vecteurs. Ils sont donc linéairement dépendants. On remarque que même si \(c_3=0\text{,}\) cette solution n’est pas la solution triviale où TOUS les coefficients doivent être nuls.
(v)
\(\vecl{AH},\vecl{BD},\vecl{CH}\)
Réponse.
Linéairement indépendants
Solution.
On voit sur la figure que les trois vecteurs mentionnés ne sont pas dans un même plan. Une façon de s’en convaincre est de remarquer que
\(\vecl{AH}=\vecl{BG}\) et
\(\vecl{CH}=\vecl{BE}\text{.}\) En exprimant ainsi ces trois vecteurs à partir de
\(B\text{,}\) on voit que
\(\vecl{BG},\vecl{BD}\) et
\(\vecl{BE}\) ne sont pas sur un même plan. Par la proposition
5.2.9, ils sont linéairement indépendants.
(vi)
\(\vecl{AB},\vecl{CD},\vecl{EF},\vecl{GH}\)
Réponse.
Solution.
On peut directement conclure à la dépendance grâce à la proposition
5.2.21. En effet, quatre vecteurs dans
\(\R^3\text{,}\) qui est clairement de dimension
\(3\text{,}\) n’ont pas d’autre choix que d’être dépendants.
(b)
Pour chaque ensemble dépendant de la partie précédente, donner une combinaison linéaire non triviale des vecteurs qui donne le vecteur nul.
Réponse.
\begin{equation*}
\vec{0}=\vecl{AB}+\vecl{GH}
\end{equation*}
\begin{equation*}
\vec{0}=0\vecl{FH}+\vecl{CB}-\vecl{DA}
\end{equation*}
\begin{equation*}
\vec{0}=\vecl{AB}+\vecl{CD}+\vecl{EF}+\vecl{GH}
\end{equation*}
Solution.
On a déjà établi que \(\vecl{AB}=-\vecl{GH}\text{.}\) Ainsi, on obtient la combinaison non triviale
\begin{equation*}
\vec{0}=\vecl{AB}+\vecl{GH}\text{.}
\end{equation*}
On a aussi établi pour un autre ensemble dépendant que
\begin{equation*}
\vec{0}=0\vecl{FH}+\vecl{CB}-\vecl{DA}\text{.}
\end{equation*}
Finalement, pour l’ensemble dépendant \(\vecl{AB},\vecl{CD},\vecl{EF},\vecl{GH}\text{,}\) on doit faire le travail puisqu’on avait utilisé une approche indirecte pour montrer la dépendance. Cependant, en observant que \(\vecl{AB}=-\vecl{CD}=\vecl{EF}=-\vecl{GH}\text{,}\) plusieurs options rapides s’offrent à nous. Comme exemple simple, on donne:
\begin{equation*}
\vec{0}=\vecl{AB}+\vecl{CD}+\vecl{EF}+\vecl{GH}\text{.}
\end{equation*}
(c)
Exprimer les vecteurs \(\vecl{AB},\vecl{DG},\vecl{CE}\) et \(\vecl{AH}\) dans la base \(\mathcal{B}=\langle \vecl{FE},\vecl{FG},\vecl{FB} \rangle\text{.}\)
Réponse.
\begin{equation*}
\vecl{AB}=(-1,0,0)_\mathcal{B}
\end{equation*}
\begin{equation*}
\vecl{DG}=(-1,0,-1)_\mathcal{B}
\end{equation*}
\begin{equation*}
\vecl{CE}=(1,-1,-1)_\mathcal{B}
\end{equation*}
\begin{equation*}
\vecl{AH}=(0,1,-1)_\mathcal{B}
\end{equation*}
Solution.
On exprime chaque vecteur comme une combinaison linéaire des vecteurs de \(\mathcal{B}\text{.}\) On le fait en quelques étapes en partant du vecteur initial et en le décomposant, puis en remplaçant par des vecteurs égaux dans \(\mathcal{B}\text{.}\)
\begin{align*}
\vecl{AB}&=-\vecl{BA}\\
&=-\vecl{FE}\\
&=(-1,0,0)_\mathcal{B}
\end{align*}
\begin{align*}
\vecl{DG}&=\vecl{DC}+\vecl{CG}\\
&=-\vecl{CD}-\vecl{GC}\\
&=-\vecl{FE}-\vecl{FB}\\
&=(-1,0,-1)_\mathcal{B}
\end{align*}
\begin{align*}
\vecl{CE}&=\vecl{CB}+\vecl{BF}+\vecl{FE}\\
&=-\vecl{BC}-\vecl{FB}+\vecl{FE}\\
&=-\vecl{FG}-\vecl{FB}+\vecl{FE}\\
&=\vecl{FE}-\vecl{FG}-\vecl{FB}\\
&=(1,-1,-1)_\mathcal{B}
\end{align*}
\begin{align*}
\vecl{AH}&=\vecl{AE}+\vecl{EH}\\
&=-\vecl{EA}+\vecl{EH}\\
&=-\vecl{FB}+\vecl{FG}\\
&=\vecl{FG}-\vecl{FB}\\
&=(0,1,-1)_\mathcal{B}
\end{align*}
3.
Pour chaque ensemble de vecteurs ci-dessous, montrer que les vecteurs \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k\) sont linéairement indépendants et forment une base de \(\vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k)\text{.}\) Exprimer ensuite le vecteur \(\vec{u}\) dans les composantes de la base \(\mathcal{B}=\langle \vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k\rangle\text{.}\)
(a)
\(\vec{v}_1=(7,3),\vec{v}_2=(-8,1)\) et \(\vec{u}=(19,17)\)
Réponse.
\begin{equation*}
\vec{u}=(5,2)_\mathcal{B}
\end{equation*}
Solution.
Comme à l’exercice
5.2.4.1, on peut se servir de la définition
5.2.4 ou de la proposition
5.2.9. On peut également utiliser la proposition
5.2.8. Au fil des solutions, on utilisera ces différentes options, mais il est possible de toujours procéder de la même manière.
Ici, on voit rapidement que \(\vec{v}_1\neq k\vec{v}_2\text{,}\) peu importe la valeur de \(k\text{.}\) En effet, on a
\begin{equation*}
(7,3)=k(-8,1) \Rightarrow \begin{cases}7=-8k \Rightarrow k=-\frac{7}{8}\\ 3=k \Rightarrow k=3\end{cases}\text{.}
\end{equation*}
Ainsi, par la proposition
5.2.9, ils sont linéairement indépendants, car ils ne sont pas parallèles.
On exprime \(\vec{u}\) dans la base \(\mathcal{B}=\langle \vec{v}_1,\vec{v}_2\rangle\text{.}\)
\begin{align*}
\vec{u}&=k_1\vec{v}_1+k_2\vec{v}_2\\
(19,17)&=k_1(7,3)+k_2(-8,1)\\
\Rightarrow &\begin{cases}19&=7k_1-8k_2\\ 17&=3k_1+k_2\end{cases}\\
\Rightarrow &\begin{cases}k_1&=5\\ k_2&=2\end{cases}
\end{align*}
Donc, on obtient
\begin{equation*}
\vec{u}=5\vec{v}_1+2\vec{v}_2=(5,2)_\mathcal{B}\text{.}
\end{equation*}
(b)
\(\vec{v}_1=(-1,4,4),\vec{v}_2=(2,-1,3),\vec{v}_3=(3,-4,1)\) et \(\vec{u}=(2,-2,1)\)
Réponse.
\begin{equation*}
\vec{u}=(-1,2,-1)_\mathcal{B}
\end{equation*}
Solution.
On décide d’utiliser la proposition
5.2.8. La matrice des vecteurs en colonnes est :
\begin{equation*}
A=\begin{pmatrix}-1& 2& 3\\ 4& -1& -4\\ 4& 3& 1\end{pmatrix}
\end{equation*}
et sa forme échelonnée réduite est :
\begin{equation*}
A=\begin{pmatrix}1& 0& 0\\ 0& 1& 0 \\ 0& 0& 1 \end{pmatrix}\text{.}
\end{equation*}
Cette matrice étant de rang \(3\text{,}\) ce qui est égal au nombre de vecteurs donnés, ces vecteurs sont linéairement indépendants.
On exprime \(\vec{u}\) dans la base \(\mathcal{B}=\langle \vec{v}_1,\vec{v}_2,\vec{v}_3\rangle\text{.}\)
\begin{align*}
\vec{u}&=k_1\vec{v}_1+k_2\vec{v}_2+k_3\vec{v}_3\\
\vecddd{2}{-2}{1}&=k_1\vecddd{-1}{4}{4}+k_2\vecddd{2}{-1}{3}+k_3\vecddd{3}{-4}{1}\\
\vecddd{2}{-2}{1}&=\begin{pmatrix}-1& 2& 3\\ 4& -1& -4\\ 4& 3& 1\end{pmatrix}\vecddd{k_1}{k_2}{k_3}
\end{align*}
On résoud ce SEL avec la méthode de Gauss-Jordan.
\begin{equation*}
\left(\begin{array}{rrr|r}
-1& 2& 3 & 2 \\
4& -1& -4 & -2 \\
4& 3& 1 & 1
\end{array}\right)\substack{\sim \\ \cdots}\left(\begin{array}{rrr|r}
1& 0& 0 & -1\\
0& 1& 0 & 2 \\
0& 0& 1 & -1
\end{array}\right)
\end{equation*}
Donc, \(\vecddd{k_1}{k_2}{k_3}=\vecddd{-1}{2}{-1}\) et l’on obtient
\begin{equation*}
\vec{u}=-\vec{v}_1+2\vec{v}_2-\vec{v}_3=(-1,2,-1)_\mathcal{B}\text{.}
\end{equation*}
On remarque que la matrice que l’on a d’abord échelonnée pour montrer l’indépendance est la même que pour trouver la combinaison linéaire. On aurait donc pu montrer l’indépendance en même temps que l’on aurait pu trouver la combinaison linéaire. Pour plus de clarté, on continue à séparer les deux étapes dans les prochaines solutions.
(c)
\(\vec{v}_1=(3,-1,2),\vec{v}_2=(0,1,-1),\vec{v}_3=(0,2,0)\) et \(\vec{u}=(-15,9,-14)\)
Réponse.
\begin{equation*}
\vec{u}=(-5,4,0)_\mathcal{B}
\end{equation*}
Solution.
On décide d’utiliser la proposition
5.2.8. La matrice des vecteurs en colonnes est :
\begin{equation*}
A=\begin{pmatrix}3& 0& 0\\ -1& 1& 2\\ 2& -1& 0\end{pmatrix}
\end{equation*}
et sa forme échelonnée réduite est :
\begin{equation*}
A=\begin{pmatrix}1& 0& 0\\ 0& 1& 0 \\ 0& 0& 1 \end{pmatrix}\text{.}
\end{equation*}
Cette matrice étant de rang \(3\text{,}\) ce qui est égal au nombre de vecteurs donnés, ces vecteurs sont linéairement indépendants.
On exprime \(\vec{u}\) dans la base \(\mathcal{B}=\langle \vec{v}_1,\vec{v}_2,\vec{v}_3\rangle\text{.}\)
\begin{align*}
\vec{u}&=k_1\vec{v}_1+k_2\vec{v}_2+k_3\vec{v}_3\\
\vecddd{-15}{9}{-14}&=k_1\vecddd{3}{-1}{2}+k_2\vecddd{0}{1}{-1}+k_3\vecddd{0}{2}{0}\\
\vecddd{-15}{9}{-14}&=\begin{pmatrix}3& 0& 0\\ -1& 1& 2\\ 2& -1& 0\end{pmatrix}\vecddd{k_1}{k_2}{k_3}
\end{align*}
On solutionne ce SEL avec la méthode de Gauss-Jordan.
\begin{equation*}
\left(\begin{array}{rrr|r}
3& 0& 0 & -15\\ -1& 1& 2 & 9\\ 2& -1& 0 & -14
\end{array}\right)\substack{\sim \\ \cdots}\left(\begin{array}{rrr|r}
1& 0& 0 & -5\\
0& 1& 0 & 4 \\
0& 0& 1 & 0
\end{array}\right)
\end{equation*}
Donc, \(\vecddd{k_1}{k_2}{k_3}=\vecddd{-5}{4}{0}\) et on obtient
\begin{equation*}
\vec{u}=-5\vec{v}_1+4\vec{v}_2+0\vec{v}_3=(-5,4,0)_\mathcal{B}\text{.}
\end{equation*}
(d)
\(\vec{v}_1=(2,3,-5),\vec{v}_2=(7,11,-9)\) et \(\vec{u}=(1,2,6)\)
Réponse.
\begin{equation*}
\vec{u}=(-3,1)_\mathcal{B}
\end{equation*}
Solution.
On décide d’utiliser la proposition
5.2.8. La matrice des vecteurs en colonnes est :
\begin{equation*}
A=\begin{pmatrix}2& 7\\ 3& 11 \\ -5& -9 \end{pmatrix}
\end{equation*}
et sa forme échelonnée réduite est :
\begin{equation*}
A=\begin{pmatrix}1& 0\\ 0& 1 \\ 0& 0 \end{pmatrix}\text{.}
\end{equation*}
Cette matrice étant de rang \(2\text{,}\) ce qui est égal au nombre de vecteurs donnés, ces vecteurs sont linéairement indépendants.
On exprime \(\vec{u}\) dans la base \(\mathcal{B}=\langle \vec{v}_1,\vec{v}_2\rangle\text{.}\)
\begin{align*}
\vec{u}&=k_1\vec{v}_1+k_2\vec{v}_2\\
\vecddd{1}{2}{6}&=k_1\vecddd{2}{3}{-5}+k_2\vecddd{7}{11}{-9}\\
\vecddd{1}{2}{6}&=\begin{pmatrix}2& 7\\ 3& 11 \\ -5& -9 \end{pmatrix}\vecd{k_1}{k_2}
\end{align*}
On solutionne ce SEL avec la méthode de Gauss-Jordan.
\begin{equation*}
\left(\begin{array}{rr|r}
2& 7 & 1 \\ 3& 11 & 2 \\ -5& -9 & 6
\end{array}\right)\substack{\sim \\ \cdots}\left(\begin{array}{rr|r}
1& 0& -3 \\
0& 1& 1 \\
0& 0& 0
\end{array}\right)
\end{equation*}
Donc, \(\vecd{k_1}{k_2}=\vecd{-3}{1}\) et on obtient
\begin{equation*}
\vec{u}=-3\vec{v}_1+\vec{v}_2=(-3,1)_\mathcal{B}\text{.}
\end{equation*}
(e)
\(\vec{v}_1=(2,3,-4,1),\vec{v}_2=(1,0,0,3),\vec{v}_3=(-2,0,1,0),\vec{v}_4=(0,0,1,-3)\) et \(\vec{u}=(2,6,-11,14)\)
Réponse.
\begin{equation*}
\vec{u}=(2,1,0,-4)_\mathcal{B}
\end{equation*}
Solution.
On décide d’utiliser la proposition
5.2.8. La matrice des vecteurs en colonnes est :
\begin{equation*}
A=\begin{pmatrix}2& 1& -2& 0\\ 3& 0& 0& 0\\ -4& 0& 1& 1 \\ 1& 3& 0& -3\end{pmatrix}
\end{equation*}
et sa forme échelonnée réduite est :
\begin{equation*}
A=\begin{pmatrix}1& 0& 0 & 0\\ 0& 1& 0 & 0 \\ 0& 0& 1 & 0 \\ 0& 0& 0 & 1\end{pmatrix}\text{.}
\end{equation*}
Cette matrice étant de rang \(4\text{,}\) ce qui est égal au nombre de vecteurs donnés, ces vecteurs sont linéairement indépendants.
On exprime \(\vec{u}\) dans la base \(\mathcal{B}=\langle \vec{v}_1,\vec{v}_2,\vec{v}_3,\vec{v}_4\rangle\text{.}\)
\begin{align*}
\vec{u}&=k_1\vec{v}_1+k_2\vec{v}_2+k_3\vec{v}_3+k_4\vec{v}_4\\
\begin{pmatrix}2\\6\\-11\\14\end{pmatrix}&=k_1\begin{pmatrix}2\\3\\-4\\1\end{pmatrix}
+k_2\begin{pmatrix}1\\0\\0\\3\end{pmatrix}+k_3\begin{pmatrix}-2\\0\\1\\0\end{pmatrix}+k_4\begin{pmatrix}0\\0\\1\\-3\end{pmatrix}\\
\begin{pmatrix}2\\6\\-11\\14\end{pmatrix}&=\begin{pmatrix}2& 1& -2& 0\\ 3& 0& 0& 0
\\ -4& 0& 1& 1 \\ 1& 3& 0& -3\end{pmatrix}\begin{pmatrix}k_1\\k_2\\k_3\\k_4\end{pmatrix}
\end{align*}
On solutionne ce SEL avec la méthode de Gauss-Jordan.
\begin{equation*}
\left(\begin{array}{rrrr|r}
2& 1& -2& 0 & 2\\ 3& 0& 0& 0 & 6 \\ -4& 0& 1& 1 & -11 \\ 1& 3& 0& -3 & 14
\end{array}\right)\substack{\sim \\ \cdots}\left(\begin{array}{rrrr|r}
1& 0& 0 & 0 & 2 \\ 0& 1& 0 & 0 & 0 \\ 0& 0& 1 & 0 & 1 \\ 0& 0& 0 & 1 & -4
\end{array}\right)
\end{equation*}
Donc, \(\begin{pmatrix}k_1\\k_2\\k_3\\k_4\end{pmatrix}=\begin{pmatrix}2\\0\\1\\-4\end{pmatrix}\) et on obtient
\begin{equation*}
\vec{u}=2\vec{v}_1+0\vec{v}_2+\vec{v}_3-4\vec{v}_4=(2,1,0,-4)_\mathcal{B}\text{.}
\end{equation*}
(f)
\(\vec{v}_1=(1,1,1,1),\vec{v}_2=(1,2,-1,-2)\) et \(\vec{u}=(1,-1,5,7)\)
Réponse.
\begin{equation*}
\vec{u}=(3,-2)_\mathcal{B}
\end{equation*}
Solution.
On décide d’utiliser la proposition
5.2.8. La matrice des vecteurs en colonnes est :
\begin{equation*}
A=\begin{pmatrix}1&1 \\ 1&2\\ 1& -1\\ 1&-2 \end{pmatrix}
\end{equation*}
et sa forme échelonnée réduite est :
\begin{equation*}
A=\begin{pmatrix}1& 0\\ 0& 1 \\ 0& 0 \\ 0& 0\end{pmatrix}\text{.}
\end{equation*}
Cette matrice étant de rang \(2\text{,}\) ce qui est égal au nombre de vecteurs donnés, ces vecteurs sont linéairement indépendants.
On exprime \(\vec{u}\) dans la base \(\mathcal{B}=\langle \vec{v}_1,\vec{v}_2\rangle\text{.}\)
\begin{align*}
\vec{u}&=k_1\vec{v}_1+k_2\vec{v}_2\\
\begin{pmatrix}1\\-1\\5\\7\end{pmatrix}&=k_1\begin{pmatrix}1\\1\\1\\1\end{pmatrix}+k_2\begin{pmatrix}1\\2\\-1\\-2\end{pmatrix}\\
\begin{pmatrix}1\\-1\\5\\7\end{pmatrix}&=\begin{pmatrix}1&1 \\ 1&2\\ 1& -1\\ 1&-2 \end{pmatrix}\begin{pmatrix}k_1\\k_2\end{pmatrix}
\end{align*}
On solutionne ce SEL avec la méthode de Gauss-Jordan.
\begin{equation*}
\left(\begin{array}{rr|r}
1&1 & 1\\ 1&2 &-1\\ 1& -1 &5\\ 1&-2 &7
\end{array}\right)\substack{\sim \\ \cdots}\left(\begin{array}{rr|r}
1&0 & 3\\ 0&1 &-2\\ 0& 0 &0\\ 0&0 &0
\end{array}\right)
\end{equation*}
Donc, \(\begin{pmatrix}k_1\\k_2\end{pmatrix}=\begin{pmatrix}3\\-2\end{pmatrix}\) et on obtient
\begin{equation*}
\vec{u}=3\vec{v}_1-2\vec{v}_2=(3,-2)_\mathcal{B}\text{.}
\end{equation*}
4.
Montrer qu’un vecteur seul \(\vec{v}\in\R^n\) est linéairement indépendant si et seulement si \(\vec{v}\neq \vec{0}\text{.}\)
Solution.
Soit \(c\) tel que \(c\vec{v}=\vec{0}\text{.}\) On suppose dans un premier temps que \(\vec{v}\) est linéairement indépendant. Cela signifie que \(c=0\) est la seule valeur pour laquelle \(c\vec{v}=\vec{0}\text{.}\) Plus particulièrement, si \(\vec{v}=\vec{0}\text{,}\) tout \(c\in \R\) donnerait le vecteur nul lorsque multiplié par \(\vec{v}\text{,}\) on doit donc avoir \(\vec{v}\neq \vec{0}\text{.}\)
On suppose maintenant que \(\vec{v}\neq \vec{0}\text{.}\) Cette fois, le seul multiple de ce vecteur non nul qui peut donner le vecteur \(\vec{0}\) est lorsque \(c=0\text{.}\) On a donc indépendance linéaire du vecteur avec lui-même.
5.
On considère une base \(\mathcal{B}=\langle \vec{u},\vec{v} \rangle\) d’un sous-espace quelconque et un vecteur \(\vec{w}=(-2,5)_{\mathcal{B}}\text{.}\) Pour chaque ensemble \(\vec{B}\) ci-dessous, déterminer s’il forme aussi une base. Si oui, donner les composantes du vecteur \(\vec{w}\) dans cette base et si non, expliquer pourquoi.
(a)
\(\mathcal{B}_1=\langle -\vec{u},\vec{v} \rangle\)
Réponse.
Oui, \(\vec{w}=(2,5)_{\mathcal{B}_1}\text{.}\)
Solution.
On rappelle que, par la définition
5.2.12, les conditions pour qu’un ensemble de vecteurs soit une base sont qu’ils génèrent le sous-espace et qu’ils soient linéairement indépendants. Cependant, par la proposition
5.2.26, il est possible de ne vérifier que l’une de ces deux conditions si l’on a le bon nombre de vecteurs. En effet, puisqu’on sait que
\(\mathcal{B}=\langle \vec{u},\vec{v} \rangle\) est une base et qu’elle ne compte que deux vecteurs, tout autre ensemble contenant exactement deux vecteurs a le potentiel d’être une base. À l’opposé, si un ensemble ne contient pas exactement deux vecteurs, on sait immédiatement que ce n’est pas une base.
Ici, on a deux vecteurs. On montre rapidement que \(\vspan(\vec{u},\vec{v})=\vspan(-\vec{u},\vec{v})\text{.}\) En effet,
\begin{align*}
a\vec{u}+b\vec{v}&=-a(-\vec{u})+b\vec{v}\\
&=a'(-\vec{u})+b\vec{v} \text{ pour } a',b\in\R
\end{align*}
ainsi, les combinaisons linéaires des vecteurs de \(\mathcal{B}\) sont exprimables en fonction des vecteurs de \(\mathcal{B}_1\text{.}\)
On exprime donc \(\vec{w}=(-2,5)_{\mathcal{B}}\) dans cette base en changeant le signe de sa première composante: \(\vec{w}=(2,5)_{\mathcal{B}_1}\text{.}\)
(b)
\(\mathcal{B}_2=\langle \vec{v},\vec{u} \rangle\)
Réponse.
Oui, \(\vec{w}=(5,-2)_{\mathcal{B}_2}\text{.}\)
Solution.
On a deux vecteurs. On montre rapidement que \(\vspan(\vec{u},\vec{v})=\vspan(\vec{v},\vec{u})\text{.}\) En effet,
\begin{align*}
a\vec{u}+b\vec{v}&=b\vec{v}+a\vec{u}\\
&=a'\vec{v}+b'\vec{u} \text{ pour } a',b' \in\R
\end{align*}
ainsi, les combinaisons linéaires des vecteurs de
\(\mathcal{B}\) sont exprimables en fonction des vecteurs de
\(\mathcal{B}_2\text{.}\) Par la proposition
5.2.26, ils forment une base.
On exprime donc \(\vec{w}=(-2,5)_{\mathcal{B}}\) dans cette base en changeant l’ordre des composantes : \(\vec{w}=(5,-2)_{\mathcal{B}_2}\text{.}\)
(c)
\(\mathcal{B}_3=\langle 2\vec{u},-10\vec{v} \rangle\)
Réponse.
Oui, \(\vec{w}=\left(-1,-\frac{1}{2}\right)_{\mathcal{B}_3}\text{.}\)
Solution.
On a deux vecteurs. On montre rapidement que \(\vspan(\vec{u},\vec{v})=\vspan(2\vec{u},-10\vec{v})\text{.}\) En effet,
\begin{align*}
a\vec{u}+b\vec{v}&=\frac{a}{2}(2\vec{u})-\frac{b}{10}(-10\vec{v})\\
&=a'(2\vec{u})+b'(-10\vec{v}) \text{ pour } a',b' \in\R
\end{align*}
ainsi, les combinaisons linéaires des vecteurs de
\(\mathcal{B}\) sont exprimables en fonction des vecteurs de
\(\mathcal{B}_3\text{.}\) Par la proposition
5.2.26, ils forment une base.
On exprime donc \(\vec{w}=(-2,5)_{\mathcal{B}}\) dans cette base en calculant les nouvelles composantes ainsi:
\begin{align*}
\vec{w}&=-2\vec{u}+5\vec{v}\\
&=-\frac{2}{2}(2\vec{u})-\frac{5}{10}(-10\vec{v})\\
&=-(2\vec{u})-\frac{1}{2}(-10\vec{v})\\
&=\left(-1,-\frac{1}{2}\right)_{\mathcal{B}_3}\text{.}
\end{align*}
(d)
\(\mathcal{B}_4=\langle \vec{u},3\vec{u} \rangle\)
Réponse.
Solution.
On a deux vecteurs. Cependant, on voit rapidement qu’ils sont linéairement dépendants, car ils sont parallèles. Par la définition
5.2.12, ils ne forment pas une base.
(e)
\(\mathcal{B}_5=\langle \vec{u}-\vec{v},\vec{v} \rangle\)
Réponse.
Oui, \(\vec{w}=(-2,3)_{\mathcal{B}_5}\text{.}\)
Solution.
On a deux vecteurs. On montre qu’ils ne sont pas parallèles.
\begin{equation*}
\vec{u}-\vec{v}=k\vec{v}\Rightarrow \vec{u}=(k+1)\vec{v}
\end{equation*}
Cette dernière équation impliquerait que les vecteurs de la base originale sont parallèles, ce qui contredirait la condition qu’ils sont linéairement indépendants. Ainsi,
\(\vec{u}-\vec{v}\neq k\vec{v}\) et les deux vecteurs de la base
\(\mathcal{B}_5\) sont indépendants. Par la proposition
5.2.26, ils forment une base.
On exprime donc \(\vec{w}=(-2,5)_{\mathcal{B}}\) dans cette base en calculant les nouvelles composantes ainsi:
\begin{align*}
\vec{w}&=-2\vec{u}+5\vec{v}\\
&=-2\vec{u}+2\vec{v}+3\vec{v}\\
&=-2(\vec{u}-\vec{v})+3\vec{v}\\
&=(-2,3)_{\mathcal{B}_5}\text{.}
\end{align*}
(f)
\(\mathcal{B}_6=\langle \vec{u},\vec{v},\vec{u}+\vec{v} \rangle\)
Réponse.
Solution.
On a trois vecteurs. Par la proposition
5.2.26, ils ne forment pas une base, puisque l’on sait que la dimension de cet espace est de deux étant donné que c’est le nombre de vecteurs dans la base donnée initialement. Ces vecteurs sont donc dépendants, ce qui contrevient à une des conditions pour qu’ils forment une base.
(g)
\(\mathcal{B}_7=\langle \vec{u}+\vec{v},\vec{u}-\vec{v} \rangle\)
Réponse.
Oui, \(\vec{w}=\left(\frac{3}{2},-\frac{7}{2}\right)_{\mathcal{B}_7}\text{.}\)
Solution.
On a deux vecteurs. On montre qu’ils ne sont pas parallèles.
\begin{equation*}
\vec{u}+\vec{v}=k(\vec{u}-\vec{v})\Rightarrow (k-1)\vec{u}=(k+1)\vec{v} \Rightarrow \vec{u}=\left(\frac{k+1}{k-1}\right)\vec{v}
\end{equation*}
Cette dernière équation impliquerait que les vecteurs de la base originale sont parallèles, ce qui contredirait la condition qu’ils sont linéairement indépendants. Ainsi,
\(\vec{u}+\vec{v}\neq k(\vec{u}-\vec{v})\) et les deux vecteurs de la base
\(\mathcal{B}_7\) sont indépendants. Par la proposition
5.2.26, ils forment une base.
On exprime donc \(\vec{w}=(-2,5)_{\mathcal{B}}\) dans cette base en calculant les nouvelles composantes ainsi:
\begin{align*}
\vec{w}&=-2\vec{u}+5\vec{v}\\
&=k_1(\vec{u}+\vec{v})+k_2(\vec{u}-\vec{v})\\
&=(k_1+k_2)\vec{u}+(k_1-k_2)\vec{v}\\
\Rightarrow &\begin{cases}-2&=k_1+k_2\\ 5&=k_1-k_2\end{cases}\\
\Rightarrow & \begin{cases}k_1&=\frac{3}{2}\\k_2&=-\frac{7}{2}\end{cases}\\
\Rightarrow \vec{w}&=\left(\frac{3}{2},-\frac{7}{2}\right)_{\mathcal{B}_7}\text{.}
\end{align*}
(h)
\(\mathcal{B}_8=\langle -2\vec{u}+5\vec{v} \rangle\)
Réponse.
Solution.
On a un seul vecteur. Par la proposition
5.2.26, ils ne forment pas une base, puisque l’on sait que la dimension de cet espace est de deux étant donné que c’est le nombre de vecteurs dans la base donnée initialement. Il n’y a donc pas suffisamment de vecteurs pour générer l’espace
\(\mathcal{B}_8\text{,}\) celui-ci ne peut en conséquence être une base.
(i)
\(\mathcal{B}_9=\langle -2\vec{u}+5\vec{v},\vec{u} \rangle\)
Réponse.
Oui, \(\vec{w}=(1,0)_{\mathcal{B}_9}\text{.}\)
Solution.
On a deux vecteurs. On montre qu’ils ne sont pas parallèles.
\begin{equation*}
-2\vec{u}+5\vec{v}=k\vec{u}\Rightarrow (k+2)\vec{u}=5\vec{v} \Rightarrow \vec{u}=\left(\frac{5}{k+2}\right)\vec{v}
\end{equation*}
Cette dernière équation impliquerait que les vecteurs de la base originale sont parallèles, ce qui contredirait la condition qu’ils sont linéairement indépendants. Ainsi,
\(-2\vec{u}+5\vec{v}\neq k\vec{u}\) et les deux vecteurs de la base
\(\mathcal{B}_9\) sont indépendants. Par la proposition
5.2.26, ils forment une base.
On exprime donc \(\vec{w}=(-2,5)_{\mathcal{B}}\) dans cette base en calculant les nouvelles composantes ainsi:
\begin{align*}
\vec{w}&=-2\vec{u}+5\vec{v}\\
&=1*(-2\vec{u}+5\vec{v})+0\vec{u}\\
&=(1,0)_{\mathcal{B}_9}\text{.}
\end{align*}
(j)
\(\mathcal{B}_{10}=\langle -2\vec{u}+5\vec{v},\vec{v} \rangle\)
Réponse.
Oui, \(\vec{w}=(1,0)_{\mathcal{B}_{10}}\text{.}\)
Solution.
On a deux vecteurs. On montre qu’ils ne sont pas parallèles.
\begin{equation*}
-2\vec{u}+5\vec{v}=k\vec{v}\Rightarrow 2\vec{u}=(5-k)\vec{v} \Rightarrow \vec{u}=\left(\frac{5-k}{2}\right)\vec{v}
\end{equation*}
Cette dernière équation impliquerait que les vecteurs de la base originale sont parallèles, ce qui contredirait la condition qu’ils sont linéairement indépendants. Ainsi,
\(-2\vec{u}+5\vec{v}\neq k\vec{v}\) et les deux vecteurs de la base
\(\mathcal{B}_{10}\) sont indépendants. Par la proposition
5.2.26, ils forment une base.
On exprime donc \(\vec{w}=(-2,5)_{\mathcal{B}}\) dans cette base en calculant les nouvelles composantes ainsi:
\begin{align*}
\vec{w}&=-2\vec{u}+5\vec{v}\\
&=1*(-2\vec{u}+5\vec{v})+0\vec{v}\\
&=(1,0)_{\mathcal{B}_{10}}\text{.}
\end{align*}
(k)
\(\mathcal{B}_{11}=\langle 5\vec{u}-2\vec{v},\vec{u} \rangle\)
Réponse.
Oui, \(\vec{w}=\left(-\frac{5}{2},\frac{21}{2}\right)_{\mathcal{B}_{11}}\text{.}\)
Solution.
On a deux vecteurs. On montre qu’ils ne sont pas parallèles.
\begin{equation*}
5\vec{u}-2\vec{v}=k\vec{u}\Rightarrow (5-k)\vec{u}=2\vec{v} \Rightarrow \vec{u}=\left(\frac{2}{5-k}\right)\vec{v}
\end{equation*}
Cette dernière équation impliquerait que les vecteurs de la base originale sont parallèles, ce qui contredirait la condition qu’ils sont linéairement indépendants. Ainsi,
\(5\vec{u}-2\vec{v}\neq k\vec{u}\) et les deux vecteurs de la base
\(\mathcal{B}_{11}\) sont indépendants. Par la proposition
5.2.26, ils forment une base.
On exprime donc \(\vec{w}=(-2,5)_{\mathcal{B}}\) dans cette base en calculant les nouvelles composantes ainsi:
\begin{align*}
\vec{w}&=-2\vec{u}+5\vec{v}\\
&=-\frac{5}{2}(5\vec{u}-2\vec{v})+\frac{21}{2}\vec{u}\\
&=\left(-\frac{5}{2},\frac{21}{2}\right)_{\mathcal{B}_{11}}\text{.}
\end{align*}
(l)
\(\mathcal{B}_{12}=\langle 5\vec{u}-2\vec{v},\vec{v} \rangle\)
Réponse.
Oui, \(\vec{w}=\left(-\frac{2}{5},\frac{21}{5}\right)_{\mathcal{B}_{12}}\text{.}\)
Solution.
On a deux vecteurs. On montre qu’ils ne sont pas parallèles.
\begin{equation*}
5\vec{u}-2\vec{v}=k\vec{v}\Rightarrow 5\vec{u}=(2+k)\vec{v} \Rightarrow \vec{u}=\left(\frac{2+k}{5}\right)\vec{v}
\end{equation*}
Cette dernière équation impliquerait que les vecteurs de la base originale sont parallèles, ce qui contredirait la condition qu’ils sont linéairement indépendants. Ainsi,
\(5\vec{u}-2\vec{v}\neq k\vec{v}\) et les deux vecteurs de la base
\(\mathcal{B}_{12}\) sont indépendants. Par la proposition
5.2.26, ils forment une base.
On exprime donc \(\vec{w}=(-2,5)_{\mathcal{B}}\) dans cette base en calculant les nouvelles composantes ainsi:
\begin{align*}
\vec{w}&=-2\vec{u}+5\vec{v}\\
&=-\frac{2}{5}(5\vec{u}-2\vec{v})+\frac{21}{5}\vec{v}\\
&=\left(-\frac{2}{5},\frac{21}{5}\right)_{\mathcal{B}_{12}}\text{.}
\end{align*}
(m)
\(\mathcal{B}_{13}=\langle \vec{0},\vec{u}+\vec{v} \rangle\)
Réponse.
Solution.
Bien qu’on ait deux vecteurs, plusieurs conditions ne sont pas satisfaites pour qu’ils forment une base. D’abord, il est impossible que cet ensemble génère un espace de dimension deux puisque le seul vecteur pour lequel les combinaisons linéaires permettront un réel déplacement est \(\vec{u}+\vec{v}\text{.}\) Autrement dit, \(\vspan(\vec{0},\vec{u}+\vec{v})=\vspan(\vec{u}+\vec{v})\text{.}\)
De plus, ces vecteurs ne peuvent être linéairement indépendants puisque le vecteur nul est par définition toujours dépendant. En effet, on peut créer une combinaison non triviale en le multipliant par n’importe quelle constante et obtenir un déplacement nul.
6.
Dans cet exercice, on s’intéresse à l’indépendance linéaire de vecteurs perpendiculaires.
(a)
Soit \(\vec{u},\vec{u}_{\perp}\text{,}\) un vecteur non nul de \(\R^2\) et son perpendiculaire. Montrer qu’ils sont linéairement indépendants.
Solution.
Selon la proposition
5.2.9, deux vecteurs non parallèles sont indépendants.
(b)
Soit \(\vec{u},\vec{v}\text{,}\) deux vecteurs non nuls de \(\R^3\) tels que \(\vec{u}\cdot \vec{v}=0\text{.}\) Montrer que \(\vec{u}\) et \(\vec{v}\) sont linéairement indépendants. Est-ce que la preuve serait différente si les vecteurs étaient dans \(\R^n\text{?}\)
Solution.
Du fait que les deux vecteurs sont perpendiculaires (et non nuls), on peut conclure qu’ils sont non parallèles. Toujours selon la proposition
5.2.9, les vecteurs sont indépendants.
Le fait qu’ils soient dans \(\R^3\) ou dans \(\R^n\) ne change pas l’argument précédent.
(c)
Soit \(\vec{v}_1,\vec{v}_2,\vec{v}_3\text{,}\) des vecteurs non nuls de \(\R^n\) tels que \(\vec{v}_i\cdot \vec{v}_j=0\) dès que \(i\neq j\text{,}\) c’est-à-dire des vecteurs perpendiculaires deux à deux. Montrer que l’ensemble \(\vec{v}_1,\vec{v}_2,\vec{v}_3\) est linéairement indépendant.
Indice.
Considérer une combinaison linéaire de ces vecteurs qui donne le vecteur nul et faire le produit scalaire avec chacun des vecteurs \(\vec{v}_1,\vec{v}_2\) et \(\vec{v}_3\text{.}\)
Solution.
Soit \(c_1\vec{v}_1+c_2\vec{v}_2+c_3\vec{v}_3=\vec{0}\text{,}\) une combinaison linéaire de ces trois vecteurs qui donne le vecteur nul.
On considère le produit scalaire de cette combinaison linéaire avec \(\vec{v}_1\text{:}\)
\begin{align*}
\vec{v}_1\cdot\vec{0}&=\vec{v}_1\cdot (c_1\vec{v}_1+c_2\vec{v}_2+c_3\vec{v}_3)\\
&=\vec{v}_1\cdot(c_1\vec{v}_1)+\vec{v}_1\cdot(c_2\vec{v}_2)+\vec{v}_1\cdot(c_3\vec{v}_3) && \text{distributivité du produit scalaire}\\
&=c_1(\vec{v}_1\cdot\vec{v}_1)+c_2(\vec{v}_1\cdot\vec{v}_2)+c_3(\vec{v}_1\cdot\vec{v}_3) &&\text{ditributivité de la multiplication par une constante}\\
&=c_1(\vec{v}_1\cdot\vec{v}_1)+c_2(0)+c_3(0)&& \text{ car } \vec{v}_1\cdot\vec{v}_2=0 \text{ et } \vec{v}_1\cdot\vec{v}_3=0\\
&=c_1\norm{\vec{v}_1}^2\text{.}
\end{align*}
Comme \(\vec{v}_1\neq \vec{0}\text{,}\) on conclut que si \(0=c_1\norm{\vec{v}_1}^2\text{,}\) c’est que \(c_1=0\text{.}\)
On considère maintenant le produit scalaire de cette combinaison linéaire avec \(\vec{v}_2\text{:}\)
\begin{align*}
\vec{v}_2\cdot\vec{0}&=\vec{v}_2\cdot (c_1\vec{v}_1+c_2\vec{v}_2+c_3\vec{v}_3)\\
&=\vec{v}_2\cdot(c_1\vec{v}_1)+\vec{v}_2\cdot(c_2\vec{v}_2)+\vec{v}_2\cdot(c_3\vec{v}_3) && \text{distributivité du produit scalaire}\\
&=c_1(\vec{v}_2\cdot\vec{v}_1)+c_2(\vec{v}_2\cdot\vec{v}_2)+c_3(\vec{v}_2\cdot\vec{v}_3) &&\text{ditributivité de la multiplication par une constante}\\
&=c_1(0)+c_2(\vec{v}_2\cdot \vec{v}_2)+c_3(0)&& \text{ car } \vec{v}_2\cdot\vec{v}_1=0 \text{ et } \vec{v}_2\cdot\vec{v}_3=0\\
&=c_2\norm{\vec{v}_2}^2\text{.}
\end{align*}
Comme \(\vec{v}_2\neq \vec{0}\text{,}\) on conclut que si \(0=c_2\norm{\vec{v}_2}^2\text{,}\) c’est que \(c_2=0\text{.}\)
Finalement, on considère maintenant le produit scalaire de cette combinaison linéaire avec \(\vec{v}_3\text{:}\)
\begin{align*}
\vec{v}_3\cdot\vec{0}&=\vec{v}_3\cdot (c_1\vec{v}_1+c_2\vec{v}_2+c_3\vec{v}_3)\\
&=\vec{v}_3\cdot(c_1\vec{v}_1)+\vec{v}_3\cdot(c_2\vec{v}_2)+\vec{v}_3\cdot(c_3\vec{v}_3) && \text{distributivité du produit scalaire}\\
&=c_1(\vec{v}_3\cdot\vec{v}_1)+c_2(\vec{v}_3\cdot\vec{v}_2)+c_3(\vec{v}_3\cdot\vec{v}_3) &&\text{ditributivité de la multiplication par une constante}\\
&=c_1(0)+c_2(0)+c_3(\vec{v}_3\cdot \vec{v}_3)&& \text{ car } \vec{v}_3\cdot\vec{v}_1=0 \text{ et } \vec{v}_3\cdot\vec{v}_2=0\\
&=c_3\norm{\vec{v}_3}^2\text{.}
\end{align*}
Comme \(\vec{v}_3\neq \vec{0}\text{,}\) on conclut que si \(0=c_3\norm{\vec{v}_3}^2\text{,}\) c’est que \(c_3=0\text{.}\)
La seule combinaison linéaire des vecteurs qui donne le vecteur nul est donc la combinaison triviale.
(d)
Finalement, soit \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k\) des vecteurs non nuls de \(\R^n\) tels que \(\vec{v}_i\cdot \vec{v}_j=0\) dès que \(i\neq j\text{,}\) c’est-à-dire des vecteurs perpendiculaires deux à deux. Montrer que l’ensemble \(\vec{v}_1,\vec{v}_2,\ldots ,\vec{v}_k\) est linéairement indépendant.
Solution.
On utilise le même argument que dans la partie précédente. Pour \(1\leq i\leq k\text{,}\) on a
\begin{align*}
\vec{v}_i\cdot\vec{0}&=\vec{v}_i\cdot (c_1\vec{v}_1+c_2\vec{v}_2+\cdots +c_k\vec{v}_3k)\\
&=\vec{v}_i\cdot(c_1\vec{v}_1)+\vec{v}_i\cdot(c_2\vec{v}_2)+\cdots +\vec{v}_i\cdot(c_3\vec{v}_3) && \text{distributivité du produit scalaire}\\
&=c_1(\vec{v}_i\cdot\vec{v}_1)+c_2(\vec{v}_i\cdot\vec{v}_2)+\cdots +c_3(\vec{v}_i\cdot\vec{v}_3) &&\text{ditributivité de la multiplication par une constante}\\
&=c_1(0)+c_2(0)+\cdots +c_i(\vec{v}_i\cdot \vec{v}_i)+\cdots +c_k(0)&& \text{ car } \vec{v}_i\cdot\vec{v}_j=0 \text{ si } i\neq j\\
&=c_i\norm{\vec{v}_i}^2\text{.}
\end{align*}
Comme \(\vec{v}_i\neq \vec{0}\text{,}\) on conclut que si \(0=c_i\norm{\vec{v}_i}^2\text{,}\) c’est que \(c_i=0\text{.}\)
La seule combinaison linéaire des vecteurs qui donne le vecteur nul est donc la combinaison triviale.
(e)
Montrer que \(n\) vecteurs perpendiculaires deux à deux dans \(\R^n\) forment une base de \(\R^n\text{.}\)
Solution.
On sait déjà, par la partie précédente, que ces vecteurs sont indépendants. En vertu de la proposition
5.2.26, ces
\(n\) vecteurs indépendants forment une base.
7.
Soit \(A\text{,}\) une matrice telle que l’équation \(A\vec{x}=\vec{0}\) possède des solutions non triviales et soit \(\vec{s}_1,\vec{s}_2,\ldots , \vec{s}_k\) les solutions de base à cette équation. Montrer que les vecteurs \(\vec{s}_1,\vec{s}_2,\ldots , \vec{s}_k\) sont linéairement indépendants.
Solution.
Soit
\(c_1\vec{s}_1+c_2\vec{s}_2+\ldots + c_k\vec{s}_k=\vec{0}\text{,}\) une combinaison linéaire des solutions de base donnant le vecteur nul. Soit
\(i_1\text{,}\) l’indice de la variable libre correspondant à la solution
\(\vec{s}_1\text{.}\) Par
définition, l’entrée
\(i_1\) de
\(\vec{s}_1\) vaut
\(1\) et l’entrée
\(i_1\) des autres vecteurs
\(\vec{s}\) est
\(0\text{.}\) La seule manière d’obtenir que la composante
\(i_1\) de la combinaison linéaire soit égale à
\(0 \) est de prendre
\(c_1=0\text{.}\)
Par un argument similaire, on montre qu’on doit avoir \(c_2=c_3=\cdots =c_k=0\text{.}\) Les vecteurs sont donc indépendants.
8.
Soit \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_n\text{,}\) des vecteurs non nuls perpendiculaires deux à deux de \(\R^n\) et soit \(\vec{u}\in \R^n\) un vecteur quelconque.
(a)
En considérant d’abord les vecteurs \(\vec{e}_1,\vec{e}_2,\ldots , \vec{e}_n\text{,}\) décrire en mots comment obtenir les composantes de \(\vec{u}\text{.}\)
Indice.
Commencer par réfléchir au cas \(\R^2\) et faire un dessin.
Réponse.
On devrait obtenir que la composante \(k\) corresponde dans une certaine mesure à la projection orthogonale du vecteur \(\vec{u}\) sur le vecteur \(\vec{v}_k\text{.}\)
(b)
Montrer que les composantes de \(\vec{u}\) dans la base \(\langle \vec{v}_1,\vec{v}_2,\ldots , \vec{v}_n\rangle\) sont ce qui a été déterminé dans la partie précédente.
Indice.
Puisque les vecteurs \(\vec{v}\) sont perpendiculaires, utiliser le produit scalaire avec l’écriture de \(\vec{u}\) dans la base \(\vec{v}\) pour déterminer les coefficients de la combinaison linéaire.
Réponse.
Le coefficient \(c_k\) de la combinaison linéaire vaut \(\frac{\vec{u}\cdot \vec{v}_k}{\norm{\vec{v}_k}^2}\)
Solution.
Soit \(c_1\vec{v}_1+c_2\vec{v}_2+\cdots +c_n\vec{v}_n\text{,}\) l’écriture de \(\vec{u}\) dans la base des vecteurs \(\vec{v}\text{.}\) On considère le produit scalaire de \(\vec{u}\) dans cette écriture avec le vecteur \(\vec{v}_1\text{.}\) On a
\begin{align*}
\vec{v}_1\cdot \vec{u}&=\vec{v}_1\cdot(c_1\vec{v}_1+c_2\vec{v}_2+\cdots +c_n\vec{v}_n)\\
&=\vec{v}_1\cdot(c_1\vec{v}_1)+\vec{v}_1\cdot(c_2\vec{v}_2)+\cdots +\vec{v}_1\cdot(c_n\vec{v}_n) && \text{distributivité du produit scalaire}\\
&=c_1(\vec{v}_1\cdot\vec{v}_1)+c_2(\vec{v}_1\cdot\vec{v}_2)+\cdots +c_n(\vec{v}_1\cdot\vec{v}_n) && \text{multiplication par un scalaire}\\
&=c_1(\vec{v}_1\cdot\vec{v}_1)+c_2(0)+\cdots +c_n(0) && \text{ car les vecteurs sont orthogonaux}\\
&=c_1\norm{\vec{v}_1}^2\text{.}
\end{align*}
On a donc \(\vec{v}_1\cdot \vec{u}=c_1\norm{\vec{v}_1}^2\text{.}\) Puisque \(\vec{v}_1\neq \vec{0}\text{,}\) on peut isoler le coefficient \(c_1\) pour avoir
\begin{equation*}
c_1=\frac{\vec{v}_1\cdot \vec{u}}{\norm{\vec{v}_1}^2}=\frac{\vec{u}\cdot \vec{v}_1}{\norm{\vec{v}_1}^2}\text{.}
\end{equation*}
Ce facteur correspond au coefficient devant le vecteur \(\vec{v}_1\) lorsqu’on fait la projection orthogonale de \(\vec{u}\) sur \(\vec{v}_1\text{.}\)
De la même manière, on obtient \(c_k=\frac{\vec{u}\cdot \vec{v}_k}{\norm{\vec{v}_k}^2}\text{.}\)
9.
Soit \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_n\text{,}\) une base de \(\R^n\) et soit \(A\text{,}\) la matrice d’une transformation linéaire.
(a)
Donner un exemple de vecteurs et de matrice pour lesquels \(A\vec{v}_1,A\vec{v}_2,\ldots , A\vec{v}_n\) n’est pas une base.
Indice.
Un exemple dans \(\R^2\) à partir des vecteurs \((1,0),(0,1)\) suffit.
Solution.
On prend \(\vec{v}_1=(1,0),\vec{v}_2=(0,1)\) et \(A=\matcold{1}{1}{1}{1}\text{.}\) Comme cette matrice possède des colonnes identiques, on a que les vecteurs \(\vec{v}_1,\vec{v}_2\) sont envoyés sur \((1,1)\text{,}\) ce qui fait que \(A\vec{v}_1\) et \(A\vec{v}_2\) ne peuvent pas être une base de \(\R^2\text{.}\)
(b)
Si \(A\) est une matrice carrée inversible, montrer que l’ensemble \(A\vec{v}_1,A\vec{v}_2,\ldots , A\vec{v}_n\) est une base de \(\R^n\text{.}\)
Solution.
Comme il y a
\(n\) vecteurs, il suffit de montrer qu’ils sont linéairement indépendants et d’utiliser la proposition
5.2.26. Soit
\begin{equation*}
c_1A\vec{v}_1+c_2A\vec{v}_2+\cdots +c_nA\vec{v}_n=\vec{0}\text{,}
\end{equation*}
une combinaison linéaire des vecteurs transformés qui donne le vecteur nul. On peut mettre la matrice \(A\) en évidence pour avoir
\begin{equation*}
A(c_1\vec{v}_1+c_2\vec{v}_2+\cdots +c_n\vec{v})_n=\vec{0}\text{.}
\end{equation*}
Par hypothèse, la matrice \(A\) est inversible, l’unique solution à cette équation matricielle est donc
\begin{equation*}
c_1\vec{v}_1+c_2\vec{v}_2+\cdots +c_n\vec{v}=\vec{0}\text{.}
\end{equation*}
De plus, comme les vecteurs \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_n\) sont une base de \(\R^n\text{,}\) ils sont indépendants ainsi, la seule combinaison de ces vecteurs qui donne le vecteur nul est la combinaison triviale. On a donc \(c_1=c_2=\cdots =c_n=0\) et l’on conclut que les vecteurs \(A\vec{v}_1,A\vec{v}_2,\ldots , A\vec{v}_n\) forment aussi une base de \(\R^n\text{.}\)
10.
Soit \(A\text{,}\) une matrice \(m\times n\text{.}\) Montrer que si \(A\vec{v}_1,A\vec{v}_2,\ldots , A\vec{v}_k\) est un ensemble indépendant, alors \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k\) est aussi indépendant.
Solution.
Soit \(c_1\vec{v}_1+c_2\vec{v}_2+\cdots +c_k\vec{v}_k=\vec{0}\text{,}\) une combinaison linéaire donnant le vecteur nul. On multiplie chaque côté de cette équation par la matrice \(A\text{.}\) On obtient
\begin{align*}
A(c_1\vec{v}_1+c_2\vec{v}_2+\cdots +c_k\vec{v}_k)&=A\vec{0}\\
Ac_1\vec{v}_1+Ac_2\vec{v}_2+\cdots +Ac_k\vec{v}_k)&=A\vec{0} &&\text{distributivité d'une matrice sur la somme}\\
c_1(A\vec{v}_1)+c_2(A\vec{v}_2)+\cdots +c_k(A\vec{v}_k)&=A\vec{0} && \text{associativité de la multiplication par une scalaire}\\
c_1(A\vec{v}_1)+c_2(A\vec{v}_2)+\cdots +c_k(A\vec{v}_k)&=\vec{0} && \text{produit d'une matrice par le vecteur nul}\text{.}
\end{align*}
Puisque les vecteurs \(A\vec{v}_1,A\vec{v}_2,\ldots , A\vec{v}_k\) sont indépendants par hypothèse, on doit avoir que \(c_1=c_2=\cdots =c_k=0\text{.}\) Les vecteurs \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k\) sont donc aussi indépendants.
11.
Soit \(A\text{,}\) une matrice \(m\times n\) de rang \(n\) et soit \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k\text{,}\) des vecteurs linéairement indépendants. Montrer que les vecteurs \(A\vec{v}_1,A\vec{v}_2,\ldots , A\vec{v}_k\) sont aussi linéairement indépendants. Expliquer en quoi le rang \(n\) est nécessaire.
Solution.
Soit \(c_1A\vec{v}_1+c_2A\vec{v}_2+\cdots +c_kA\vec{v}_k=\vec{0}\text{,}\) une combinaison linéaire donnant le vecteur nul. On met la matrice \(A\) en évidence
\begin{equation*}
A(c_1\vec{v}_1+c_2\vec{v}_2+\cdots +c_k\vec{v}_k)=\vec{0}\text{.}
\end{equation*}
Puisque le rang de la matrice est \(n\text{,}\) toutes les variables sont pivots. Il y a donc une solution unique à cette équation, qui doit être le vecteur nul. On a donc
\begin{equation*}
c_1\vec{v}_1+c_2\vec{v}_2+\cdots +c_k\vec{v}_k=\vec{0}\text{.}
\end{equation*}
Comme les vecteurs \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k\) sont indépendants, la seule combinaison linéaire donnant le vecteur nul est celle où \(c_1=c_2=\cdots = c_k=0\text{.}\) Les vecteurs \(A\vec{v}_1,A\vec{v}_2,\ldots , A\vec{v}_k\) sont aussi linéairement indépendants.
12.
Soit \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k\in \R^n\text{,}\) un ensemble de vecteurs linéairement dépendants et soit \(\vec{u}\in \vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k)\text{.}\) Montrer que \(\vec{u}\) peut s’écrire d’une infinité de manières comme combinaison linéaire des vecteurs \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k\text{.}\)
Solution.
Soit
\(A\text{,}\) la matrice de taille
\(n\times k\) qui contient les vecteurs
\(\vec{v}\) en colonne. On cherche le nombre de solutions à l’équation
\(A\vec{x}=\vec{u}\text{,}\) puisque cette équation représente les combinaisons linéaires des colonnes de la matrice
\(A\text{.}\) Selon la proposition
5.2.8, la matrice
\(A\) n’est pas de rang
\(k\text{,}\) car ses colonnes sont des vecteurs dépendants. Ainsi, il y a au moins une variable libre dans la forme échelonnée réduite de la matrice
\(A\text{.}\) Puisque
\(\vec{u}\in\vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k)\text{,}\) on sait qu’il doit exister des solutions à l’équation
\(A\vec{x}=\vec{u}\text{.}\) Le fait que le rang ne soit pas égal à
\(k\) confirme qu’il y en a une infinité.
13.
Soit \(V\text{,}\) un ensemble de \(k\) vecteurs linéairement indépendants et soit \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_l\text{,}\) des vecteurs de cet ensemble, où \(1\leq l< k\text{.}\) Montrer que les vecteurs \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_l\) sont aussi linéairement indépendants.
Solution.
Soit \(c_1\vec{v}_1+c_2\vec{v}_2+\cdots +c_l\vec{v}_l=\vec{0}\text{,}\) une combinaison linéaire de ces vecteurs qui donnent le vecteur nul. Soit \(\vec{u}_1,\vec{u}_2,\ldots , \vec{u}_{k-l}\in V\text{,}\) les vecteurs dans l’ensemble \(V\) qui ne sont pas dans le sous-ensemble \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_l\text{.}\) On peut alors écrire
\begin{align*}
\vec{0}&=c_1\vec{v}_1+c_2\vec{v}_2+\cdots +c_l\vec{v}_l\\
&=c_1\vec{v}_1+c_2\vec{v}_2+\cdots +c_l\vec{v}_l+0\vec{u}_1+0\vec{u}_2+0\cdots +0 \vec{u}_{k-l}\text{.}
\end{align*}
On a alors une combinaison linéaire de tous les vecteurs de \(V\) qui donne le vecteur nul. Comme l’ensemble \(V\) est un ensemble linéairement indépendant, il s’ensuit que les coefficients \(c_1,c_2,\ldots c_l\) sont tous nuls.
14.
Déterminer la dimension des sous-espaces suivants.
(a)
\(\vspan((1,-1,1),(2,3,-1),(4,5,-4),(1,0,3)) \)
Réponse.
Solution.
On considère l’équation matricielle \(A\vec{x}=\vec{0}\) afin de déterminer si des vecteurs s’écrivent comme une combinaison linéaire des autres vecteurs. On utilise Sage pour réduire le système.
Il y a une variable libre et donc, une solution de base, qui est \(\vec{s}=(-1,-2,1,1)\text{.}\) Cela signifie que \(-\vec{v}_1-2\vec{v}_2+\vec{v}_3+\vec{v}_4=\vec{0}\text{.}\) En isolant par exemple \(\vec{v}_4=+\vec{v}_1+2\vec{v}_2-\vec{v}_3\text{,}\) on a que \(\vspan((1,-1,1),(2,3,-1),(4,5,-4),(1,0,3))=\vspan((1,-1,1),(2,3,-1),(4,5,-4))\) et que ces trois vecteurs sont indépendants. La dimension est donc égale à \(3\text{.}\)
(b)
\(\{\vec{x}\in \R^5 ~|~ x_1-x_2+x_3=0, x_4+3x_5=0,x_1-2x_4+x_5=0\} \)
Réponse.
Solution.
On convertit le système d’équations linéaires
\begin{alignat*}{6}
x_1&{}-{}&x_2&{}+{}&x_3&&&&&{}={}&0&\\
&&&&&&x_4&{}+{}&3x_5&{}={}&0&\\
x_1&&&&&{}-{}&2x_4&{}+{}&x_5&{}={}&0&
\end{alignat*}
sous la forme matricielle. Le sous-espace vectoriel correspondant aux solutions de l’équation \(B\vec{x}=\vec{0}\) est le sous-espace de l’énoncé. On utilise Sage pour réduire la matrice.
Cette fois, il y a deux solutions de base. Comme ici on cherche la dimension des solutions à l’équation \(A\vec{x}=\vec{0}\text{,}\) on obtient \(2\text{.}\)
(c)
\((\vspan((1,4,2),(2,-1,1)))^{\perp} \)
Indice.
On peut réfléchir géométriquement dans ce cas.
Réponse.
Solution.
Les vecteurs \((1,4,2),(2,-1,1)\) sont non parallèles et forment un plan dans \(\R^3\text{.}\) Géométriquement, on sait que le complément orthogonal d’un plan dans \(\R^3\) est une droite dont le vecteur directeur correspond au vecteur normal du plan. La dimension de ce sous-espace est donc de \(1\text{.}\)
(d)
\((\vspan((1,4,2,1),(1,2,-1,1)))^{\perp} \)
Réponse.
Solution.
Cette fois, on ne peut pas (encore du moins) s’appuyer sur la géométrie pour répondre à la question. Soit \(\vec{v}=(x_1,x_2,x_3,x_4)\text{,}\) un vecteur dans le complément orthogonal de l’ensemble \(\vspan((1,4,2,1),(1,2,-1,1))\text{.}\) On a alors
\begin{alignat*}{5}
x_1&{}+{}&4x_2&{}+{}&2x_3&{}+{}&x_4&{}={}&0&\\
x_1&{}+{}&2x_2&{}-{}&x_3&{}+{}&x_4&{}={}&0&\text{.}
\end{alignat*}
Toujours avec Sage, on échelonne la matrice associée à ce système.
Deux variables libres, ce qui signifie que la dimension de l’espace solution à ces équations est égale à \(2\text{.}\)
15.
Donner une preuve alternative de la proposition
5.2.2 en utilisant la proposition
3.3.30.
Solution.
Soit
\(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k\text{,}\) des vecteurs linéairement indépendants et soit
\(\vec{u}\text{,}\) un vecteur dans
\(\vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k)\text{.}\) On s’intéresse au nombre de solutions à l’équation
\(x_1\vec{v}_1+x_2\vec{v}_2+\ldots + x_k\vec{v}_k=\vec{u}\text{.}\) On peut décortiquer toutes les solutions à cette équation comme
\(\vec{x}_g=\vec{x}_p+\vec{x}_h\) selon la proposition
3.3.30, où
\(x_p\) est une solution correspondant à une écriture possible du vecteur
\(\vec{u}\) dans la base des vecteurs
\(\vec{v}\text{,}\) et
\(\vec{x}_h\) est l’ensemble de toutes les solutions à l’équation homogène
\(x_1\vec{v}_1+x_2\vec{v}_2+\ldots + x_k\vec{v}_k=\vec{u}\text{.}\)
Puisque par hypothèse \(x_h=\vec{0}\text{,}\) on conclut que toute solution est égale à \(\vec{x}_p\) et que la solution est unique.
16.
Soit \(V\text{,}\) un sous-espace vectoriel et \(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k\) des vecteurs tels que \(\vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k)=V\text{.}\) Montrer que tout ensemble contenant \(l> k\) vecteurs de \(V\) sera linéairement dépendant.
Solution.
Soit \(\vec{w}_1,\vec{w}_2,\ldots ,\vec{w}_l\text{,}\) des vecteurs dans \(V\text{.}\) Puisque \(V=\vspan(\vec{v}_1,\vec{v}_2,\ldots , \vec{v}_k)\text{,}\) on peut écrire chaque vecteur \(\vec{w}\) comme une combinaison linéaire des vecteurs \(\vec{v}\text{.}\) Ainsi, on a
\begin{gather}
\vec{w}_j=a_{1,j}\vec{v}_1+a_{2,j}\vec{v}_2+\cdots +a_{k,j}\vec{v}_k=\sum_{i=1}^k a_{i,j}\vec{v}_i\tag{✶}
\end{gather}
pour chaque vecteur \(\vec{w}_j\) avec \(1\leq j\leq l\text{.}\)
On a donc une liste de \(k\times l\) coefficients. Soit \(A\text{,}\) la matrice de ces coefficients. Puisque \(k< l\text{,}\) l’équation matricielle \(A\vec{x}=\vec{0}\) possède une infinité de solutions. Soit \(\vec{c}=(c_1,c_2,\ldots , c_l)\text{,}\) une de ces solutions différentes de \(\vec{c}=\vec{0}\text{.}\) On montre que ce vecteur fournit les coefficients nécessaires pour avoir une combinaison linéaire non triviale des vecteurs \(\vec{w}\) qui donne le vecteur nul.
En effet, on a
\begin{align*}
c_1\vec{w}_1+c_2\vec{w}_2+\cdots+c_l\vec{w}_l&=\sum_{j=1}^l c_j\vec{w}_j\\
&=\sum_{j=1}^l c_j\sum_{i=1}^k a_{i,j}\vec{v}_i &&\text{selon } \knowl{./knowl/xref/eq-depnbreq1.html}{\text{(✶)}}\\
&=\sum_{j=1}^l\sum_{i=1}^k c_ja_{i,j}\vec{v}_i &&\text{distributivité de la multiplication par un scalaire sur l'addition}\\
&=\sum_{i=1}^k\sum_{j=1}^l c_ja_{i,j}\vec{v}_i &&\text{commutativité de l'addition}\\
&=\sum_{i=1}^k\sum_{j=1}^l a_{i,j}c_j\vec{v}_i &&\text{commutativité de la multiplication}\\
&=\sum_{i=1}^k\left(\sum_{j=1}^l a_{i,j}c_j\right)\vec{v}_i &&\text{mise en évidence du vecteur } \vec{v}_i\\
&=\sum_{i=1}^k\left(A\vec{c}\right)\vec{v}_i &&\text{Définition du produit matrice vecteur}\\
&=\sum_{i=1}^k 0\vec{v}_i &&\text{Le vecteur } \vec{c} \text{ est une solution à l'équation} A\vec{x}=\vec{0}\\
&=\sum_{i=1}^k 0\\
&=0\text{.}
\end{align*}
Ainsi, on a une combinaison linéaire non triviale qui donne le vecteur nul. Les vecteurs sont dépendants.