Sauter au contenu
Logo image

Algèbre linéaire: Intuition et rigueur

Section 5.4 Espaces vectoriels

Aller aux exercices 5.4.3 de la section.
Dans ce chapitre, on a vu que chaque sous-espace vectoriel de dimension \(k\) dans \(\mathbb{R}^n\) se comporte de manière équivalente à une copie de \(\mathbb{R}^k\text{.}\) Ainsi, un plan, peu importe l’espace dans lequel il se trouve, se comporte essentiellement comme \(\mathbb{R}^2\text{.}\) La structure d’addition et de multiplication par un scalaire obéit à des règles précises qui font en sorte que des éléments d’un sous-espace demeurent dans le sous-espace lorsqu’ils sont combinés par ces opérations. On s’intéresse maintenant à généraliser cette structure et l’on cherche à voir si ces règles s’appliquent en dehors du contexte des vecteurs et des nombres. On peut penser aux fonctions, qui demeurent des fonctions lorsqu’additionnées ou multipliées par des nombres réels, ou encore plus simplement aux polynômes. Si l’on pouvait montrer une forme d’équivalence entre ce que l’on a fait avec \(\mathbb{R}^n\) et ses sous-espaces et d’autres objets mathématiques ayant des opérations similaires, on pourrait utiliser plusieurs des résultats démontrés précédemment et les appliquer dans ces nouveaux contextes.
Dans cette section, on introduit la notion d’espace vectoriel et l’on généralise certaines notions pour des espaces plus abstraits. On donne aussi quelques exemples et leurs applications.

Sous-section 5.4.1 Espace vectoriel

Les espaces dans lesquels vivent les vecteurs étudiés jusqu’ici sont tous similaires. Ils sont composés de nombres réels, d’une opération addition et d’une opération multiplication. Ces opérations satisfont certaines propriétés naturelles et classiques. On cherche maintenant à généraliser ce concept. Dans un premier temps, on peut changer les objets, ce qui constitue les vecteurs. On peut également changer les opérations d’addition et de multiplication. Ces deux changements, individuellement ou ensemble, apportent un nouveau regard sur les notions de sous-espaces, base, etc. On commence par la définition d’un espace vectoriel.

Définition 5.4.1. Espace vectoriel.

Un espace vectoriel sur les réels est un ensemble \(V\) munis de deux opérations, une opération d’addition, notée \(\oplus\text{,}\) et une opération de multiplication par un scalaire réel, notée \(\otimes\text{,}\) qui satisfont les propriétés suivantes. Pour chaque \(\vec{u},\vec{v},\vec{w}\in V\) et pour tout \(r,s\in \mathbb{R}\text{,}\) on a
Liste 5.4.2. Condition à respecter pour être un espace vectoriel
  1. \(\vec{u}\oplus \vec{v}\in V\) (fermeture par rapport à l’addition);
  2. \(\vec{u}\oplus \vec{v}=\vec{v}\oplus \vec{u}\) (commutativité de l’addition vectorielle);
  3. \(\vec{u}\oplus (\vec{v}\oplus \vec{w})=(\vec{u}\oplus \vec{v})\oplus \vec{w}\) (associativité de l’addition vectorielle);
  4. \(\vec{u}\oplus \vec{0}=\vec{u}\) (neutre additif);
  5. \(\vec{u}\oplus (-\vec{u})=\vec{0}\) (inverse additif);
  6. \(r\otimes\vec{u}\in V\) (fermeture par rapport à la multiplication par un scalaire);
  7. \((rs)\otimes\vec{u}=r\otimes(s\otimes\vec{u})\) (associativité de la multiplication par un scalaire);
  8. \(r\otimes(\vec{u}\oplus \vec{v})=r\otimes\vec{u}\oplus r\otimes\vec{v}\) (distributivité sur l’addition vectorielle);
  9. \((r+ s)\otimes\vec{u}=r\otimes\vec{u}\oplus s\otimes\vec{u}\) (distributivité de l’addition des scalaires);
  10. \(1\otimes\vec{u}=\vec{u}\) (neutre multiplicatif).
Pour toute valeur de \(n\text{,}\) l’espace \(\mathbb{R}^n\) muni des opérations usuelles d’addition et de multiplication est un espace vectoriel. On regarde des exemples un peu moins standards.

Exemple 5.4.3. Des espaces vectoriels.

Les espaces suivants sont des espaces vectoriels:
  1. L’ensemble des matrices de taille \(m\times n\text{,}\) noté \(\mathcal{M}_{m\times n}\text{,}\) et muni de l’addition matricielle et de la multiplication par un scalaire, toutes les deux dans leur forme usuelle.
  2. L’ensemble \(\mathscr{P}_2(x)\text{,}\) constitué des polynômes de degré inférieur ou égal à \(2\) à coefficients réels, muni de l’addition et de la multiplication usuelle.
  3. L’ensemble \(\mathbb{R}^{\infty}\) des suites infinies de nombres réels, muni de l’addition et de la multiplication usuelle. Un élément de \(\mathbb{R}^{\infty}\) est de la forme
    \begin{equation*} \vec{x}=(x_1,x_2,x_3,\ldots)\text{.} \end{equation*}
    L’addition et la multiplication se font composante par composante.
  4. L’ensemble \(\mathbb{R}^2\) muni de l’addition et de la multiplication par un scalaire décrites ci-dessous. Pour \(\vec{u}=(u_1,u_2),\vec{v}=(v_1,v_2)\) et \(r,s\in\mathbb{R}\text{,}\)
    \begin{align*} \vec{u}\oplus \vec{v}&=(u_1+v_1+1,u_2+v_2-1)\\ r\otimes \vec{u}&=(ru_1+(r-1),ru_2-(r-1))\text{.} \end{align*}
Solution 1.
C’était l’objet de l’exercice 2.1.4.8. Il ne manque qu’à justifier que l’addition de deux matrices de taille \(m\times n\) est aussi une matrice de taille \(m\times n\text{,}\) et de même pour la multiplication par un scalaire. Comme ces opérations se font composante par composante, c’est bien le cas.
Solution 2.
Un polynôme de degré inférieur ou égal à \(2\) peut s’écrire sous la forme \(p(x)=a+bx+cx^2\)\(a,b,c\in \mathbb{R}\text{.}\) On considère un deuxième polynôme de cette forme \(q(x)=d+ex+fx^2\) et des scalaires réels \(r,s\text{.}\) On démontre certaines des propriétés, laissant les autres à l’exercice [provisional cross-reference: exo-polyespace].
Dans un premier temps, si l’on additionne les polynômes \(p(x)\) et \(q(x)\text{,}\) on obtient
\begin{equation*} p(x)+q(x)=a+bx+cx^2+d+ex+fx^2=a+d+(b+e)x+(c+f)x^2\text{.} \end{equation*}
Puisque \(a+d,b+e,c+f\in \mathbb{R}\text{,}\) l’addition de deux polynômes de degré inférieur ou égal à \(2\) est encore un polynôme de degré inférieur ou égal à \(2\text{.}\)
On montre ensuite la commutativité de l’addition. Puisqu’on peut écrire \(a+d+(b+e)x+(c+f)x^2=d+a+(e+b)x+(f+c)x^2\) et que ceci correspond à l’addition \(q(x)+p(x)\text{,}\) on obtient la commutativité.
Finalement, on montre la distributivité sur l’addition vectorielle. On a
\begin{align*} r(p(x)+q(x))&=r(a+d+(b+e)x+(c+f)x^2)\\ &=ra+rd+r(b+e)x+r(c+f)x^2\\ &=ra+rd+rbx+rex+rcx^2+rfx^2\\ &=ra+rbx+rcx^2+rd+rex+rfx^2\\ &=r(a+bx+cx^2)+r(d+ex+fx^2)\\ &=rp(x)+rq(x)\text{.} \end{align*}
Solution 3.
Cet espace est très similaire à \(\mathbb{R}^n\text{,}\) mais il y a une infinité de composantes aux vecteurs. Puisque l’addition et la multiplication se font composante par composante, l’espace est fermé sous les opérations d’addition et de multiplication par un scalaire. Une simple modification de la solution à l’exercice 2.1.4.8 démontre les autres propriétés.
Solution 4.
Cet exemple est particulier puisque c’est la première apparition d’opérations non usuelles. Puisque tous les nombres sont réels, \(\mathbb{R^2}\) est fermé sous les opérations d’addition et de multiplication par un scalaire. En effet, \((u_1+v_1+1,u_2+v_2-1)\in\mathbb{R}^2\text{,}\) puisque \(u_1+v_1+1,u_2+v_2-1\in \mathbb{R}\text{.}\) De même, \((ru_1+(r-1),ru_2-(r-1))\in\mathbb{R}^2\text{,}\) puisque \(ru_1+(r-1),ru_2-(r-1)\in \mathbb{R}\text{.}\)
Pour les autres propriétés, on doit vérifier. On commence avec la commutativité.
\begin{align*} \vec{u}\oplus \vec{v}&=(u_1+v_1+1,u_2+v_2-1)\\ &=(v_1+u_1+1,v_2+u_2-1)&\text{commutativité de l'addition réelle}\\ &=\vec{v}\oplus \vec{v}\text{.} \end{align*}
Pour l’associativité:
\begin{align*} \vec{u}\oplus (\vec{v}\oplus \vec{w})&=(u_1,u_2)\oplus (v_1+w_1+1,v_2+w_2-1) &\text{définition de l'addition spéciale}\\ &=(u_1+(v_1+w_1+1)+1,u_2+(v_2+w_2-1)-1)&\text{définition de l'addition spéciale}\\ &=((u_1+v_1+1)+w_1+1,(u_2+v_2-1)+w_2-1)&\text{associativité de l'addition usuelle}\\ &=(u_1+v_1+1,u_2+v_2+1)\oplus (w_1,w_2)&\text{définition de l'addition spéciale}\\ &=(\vec{u}\oplus \vec{v})\oplus \vec{w}&\text{définition de l'addition spéciale}\text{.} \end{align*}
Les choses se compliquent un peu lorsqu’on arrive à la propriété du neutre additif. Si l’on essaie naïvement d’additionner le vecteur\((0,0)\) au vecteur \(\vec{u}\text{,}\) on obtient
\begin{equation*} (u_1,u_2)\oplus(0,0)=(u_1+0+1,u_2+0-1)\neq(u_1,u_2)\text{.} \end{equation*}
Cela ne veut toutefois pas dire que la propriété n’est pas respectée. Celle-ci dit qu’il doit exister un vecteur qui ne change rien lors de l’addition, et non pas que ce vecteur doit être \((0,0)\text{.}\) En observant la structure de l’opération \(\oplus\text{,}\) on voit qu’il faut être en mesure d’annuler les contributions du \(+1\) dans la première composante et \(-1\) dans la seconde. On essaie alors avec le vecteur \((-1,1)\text{:}\)
\begin{equation*} (u_1,u_2)\oplus(-1,1)=(u_1-1+1,u_2+1-1)=(u_1,u_2)\text{.} \end{equation*}
Ainsi, dans cet espace, on a \(\vec{0}=(-1,1)\text{.}\)
Pour l’existence d’un inverse additif, il faut se rappeler, dans un premier temps, que l’on cherche à obtenir le vecteur nul de cet espace, soit \((-1,1)\text{.}\) Ainsi, si l’on essaie \(-\vec{u}=(-u_1,-u_2)\text{,}\) on aura
\begin{equation*} (u_1,u_2)\oplus(-u_1,-u_2)=(u_1-u_1+1,u_2-u_2-1)\neq(-1,1)\text{.} \end{equation*}
Il faut donc repenser encore à l’opération pour trouver le bon inverse. On doit annuler la contribution du vecteur \(\vec{u}\) et modifier la constante ajoutée afin qu’elle donne \(-1\) à la première composante et \(1\) à la seconde. En posant \(-\vec{u}=(-u_1-2,-u2+2)\text{,}\) on aura
\begin{align*} \vec{u}\oplus -\vec{u}&=(u_1,u_2)\oplus(-u_1-2,-u_2+2)\\ &=(u_1+(-u_1-2)+1,u_2+(-u_2+2)-1)&\text{définition de l'addition spéciale}\\ &=(u_1-u_1-2+1,u_2-u_2+2-1)\\ &=(-1,1)\\ &=\vec{0}&\text{vecteur nul de cet espace}\text{.} \end{align*}
On termine avec la distributivité de la multiplication par le scalaire sur l’addition. Les propriétés restantes seront faites à l’exercice [provisional cross-reference: exo-propR2speciale]. Donc, pour \(\vec{u},\vec{v}\in\mathbb{R}^2\) et \(r\in \mathbb{R}\text{,}\) on a
\begin{align*} r\otimes(\vec{u}\oplus \vec{v})&r\otimes (u_1+v_1+1,u_2+v_2-1)\\ &=(r(u_1+v_1+1)+(r-1),r(u_1+v_2-1)-(r-1))\\ &=(ru_1+rv_1+r+r-1,ru_1+ru_2-r-r+1)\\ &=(ru_1+rv_1+2r-1,ru_1+ru_2-2r+1)\text{.} \end{align*}
À ce stade-ci, il semble complexe de voir comment se rendre à l’objectif \(r\otimes\vec{u}\oplus r\otimes\vec{v}\text{.}\) Une stratégie courante dans ce cas consiste à commencer avec l’autre côté et de développer. On obtient
\begin{align*} r\otimes\vec{u}\oplus r\otimes\vec{v}&(ru_1+(r-1),ru_2-(r-1))\oplus(rv_1+(r-1),rv_2-(r-1))\\ &=(ru_1+(r-1)+rv_1+(r-1)+1,ru_2-(r-1)+rv_2-(r-1)-1)\\ &=(ru_1+rv_1+2r-1,ru_2+rv_2-2r+1)\text{.} \end{align*}
Comme cette dernière ligne est égale à la dernière ligne du développement précédent, on conclut que \(r\otimes(\vec{u}\oplus \vec{v})=r\otimes\vec{u}\oplus r\otimes\vec{v}\text{.}\)
Évidemment, le dernier exemple avec les opérations spéciales est un peu arbitraire et l’on s’explique mal pourquoi on proposerait une telle définition. La prochaine sous-section donnera un exemple un peu plus concret d’un espace vectoriel muni d’opérations spéciales. Les notions de sous-espaces, dimension, base, etc. sont aussi des concepts qui s’appliquent aux sous-espaces plus abstraits. On revoit les définitions dans leur contexte plus général afin d’avoir un portrait global des espaces vectoriels.

Définition 5.4.4. Sous-espace vectoriel.

Soit \(W\text{,}\) un espace vectoriel. On dit que \(V\neq \emptyset\) est un sous-espace vectoriel de \(W\) si les vecteurs dans \(V\) satisfont les propriétés suivantes:
Liste 5.4.5. Sous-espace vectoriel
  1. Si deux vecteurs sont dans \(V\text{,}\) alors leur somme est aussi dans \(V\text{,}\) c’est-à-dire si \(\vec{u},\vec{v}\in V\text{,}\) alors \(\vec{u}+\vec{v}\in V\text{.}\)
  2. Si un vecteur est dans \(V\) et qu’on le multiplie par un scalaire, alors le multiple est aussi dans \(V\text{,}\) c’est-à-dire si \(k\in \R,\vec{v}\in V\text{,}\) alors \(k\vec{v}\in V\text{.}\)
Cette définition n’est qu’une reformulation de la définition 5.1.1 où l’on a remplacé toute allusion à \(\mathbb{R}^n\) par un espace vectoriel quelconque \(W\text{.}\) Un sous-espace hérite des propriétés de l’espace vectoriel, puisque, par défaut, il est inclus dans ce dernier. Les propriétés des opérations sont automatiquement satisfaites à l’intérieur d’un sous-espace vectoriel. En plus, par définition, un sous-espace vectoriel est fermé par rapport à ces opérations, ce qui fait qu’un sous-espace vectoriel est aussi un espace vectoriel. Il y a toutefois un point plus contentieux, qui pourra être résolu grâce à la proposition suivante.

Démonstration.

On considère deux vecteurs qui ont la propriété d’être un neutre additif. On a alors
\begin{align*} \vec{0}_1&=\vec{0}_1+\vec{0}_2 &\text{car } \vec{0}_2 \text{ est un neutre additif}\\ &=\vec{0}_2 & \text{car } \vec{0}_1 \text{ est un neutre additif}\text{.} \end{align*}
Le vecteur nul est donc unique.

Démonstration.

On débute avec un scalaire \(r\) quelconque et un vecteur \(\vec{u}\in W\) arbitraire. Pour montrer que \(r\otimes \vec{0}=\vec{0}\text{,}\) on peut montrer que \(r\otimes\vec{u}\oplus r\otimes \vec{0}=r\otimes\vec{u}\text{.}\) En vertu de l’unicité du vecteur nul, ceci montrera que \(r\otimes\vec{0}=\vec{0}\text{.}\) On a
\begin{align*} r\otimes\vec{u}\oplus r\otimes \vec{0}&=r\otimes(\vec{u}\oplus \vec{0}) &\text{selon la distributivité sur l'addition vectorielle}\\ &=r\otimes \vec{u} &\text{addition du vecteur nul}\text{.} \end{align*}
Ainsi, \(r\otimes\vec{0}=\vec{0}\text{.}\)

Démonstration.

De manière similaire à la propriété précédente, on veut montrer que \(0\otimes \vec{u}=\vec{0}\) en montrant que ce vecteur possède la propriété de neutre additif. L’unicité permettra de conclure que c’est le vecteur nul de l’espace. En utilisant une idée similaire, on a
\begin{align*} \vec{u}+0\otimes \vec{u}&=(0+1)\otimes \vec{u} &\text{selon la distributivité de l'addition des scalaires}\\ &=1\otimes \vec{u} & \text{ car } 1+0=1\\ &=\vec{u} \text{ car neutre multiplicatif}\text{.} \end{align*}
Ainsi \(0\otimes \vec{u}=\vec{0}\text{.}\)

Démonstration.

Pour démontrer cette affirmation, on fait une hypothèse additionnelle sur \(r\text{.}\) En effet, soit \(r=0\text{,}\) soit \(r\neq 0\text{.}\) Dans le cas où \(r=0\text{,}\) la preuve est terminée puisque c’est ce qu’on voulait montrer. Maintenant, si \(r\neq 0\text{,}\) on doit montrer que \(\vec{u}=\vec{0}\text{.}\) On a
\begin{align*} \vec{u}&=1\otimes \vec{u} &\text{ neutre multiplicatif}\\ &=\frac{r}{r}\otimes \vec{u}&=\text{ puisque } r\neq 0\\ &=\frac{1}{r}\otimes (r\otimes \vec{u})& \text{ selon l'associativité de la multiplication par un scalaire}\\ &=\frac{1}{r}\otimes \vec{0} &\text{ par hypothèse}\\ &=\vec{0} & \text{ selon } \knowl{./knowl/xref/li-propespaces1.html}{\text{5.4.7:2}}\text{.} \end{align*}
Ainsi, si \(r\neq 0\text{,}\) le vecteur \(\vec{u}\) doit être nul.

Démonstration.

La proposition précédente peut sembler anodine, mais on doit se souvenir que les opérations \(\oplus,\otimes\) peuvent être définies de manière un peu arbitraire. On a aussi pu voir à l’exemple 5.4.3 que le vecteur nul et l’inverse additif n’étaient pas toujours aussi naturels qu’on aurait pu le croire. Il est donc utile de savoir que l’on peut déterminer ces éléments uniquement en utilisant la multiplication.

Exemple 5.4.8. Retour sur l’espace vectoriel avec opérations spéciales.

On considère à nouveau l’espace \(\mathbb{R}^2\) muni de l’addition et de la multiplication
\begin{align*} \vec{u}\oplus \vec{v}&=(u_1+v_1+1,u_2+v_2-1)\\ r\otimes \vec{u}&=(ru_1+(r-1),ru_2-(r-1))\text{.} \end{align*}
On cherche à déterminer le vecteur nul et l’inverse additif en utilisant la proposition 5.4.6.
Solution.
Soit \(\vec{u}\text{,}\) un vecteur quelconque de \(\mathbb{R}^2\text{.}\) En vertu de la propriété 5.4.7:3, on a
\begin{align*} \vec{0}&=0\otimes (u_1,u_2)\\ &=(0u_1+(0-1),0u_2-(0-1))\\ &=(1,-1)\text{,} \end{align*}
ce qui correspond au vecteur nul trouvé à l’exemple 5.4.3.
De même, en vertu de la propriété 5.4.7:5, on a
\begin{align*} -\vec{u}&=(-1)\otimes (u_1,u_2)\\ &=(-u_1+(-1-1),-u_2-(-1-1))\\ &=(-u_1-2,-u_2+2)\text{,} \end{align*}
correspondant aussi à l’inverse trouvé à l’exemple 5.4.3.

Démonstration.

Les deux propriétés de fermeture découlent directement de la définition d’un sous-espace vectoriel 5.4.4. Pour les propriétés plus algébriques, elles sont satisfaites en vertu du fait que, pour des vecteurs \(\vec{u},\vec{v},\vec{w}\) dans \(V\text{,}\) ces vecteurs sont aussi dans \(W\) et devaient donc naturellement satisfaire aux propriétés de la définition 5.4.1.
Le seul point à vérifier est que le vecteur nul appartient au sous-espace et que l’inverse additif d’un vecteur du sous-espace est aussi dans le sous-espace, car à priori, rien ne garantit cela.
Pour le vecteur nul, il suffit de constater qu’en prenant n’importe quel vecteur \(\vec{v}\) de \(V\text{,}\) la propriété de fermeture par rapport à la multiplication par un scalaire combiné avec la multiplication par le scalaire \(0\) font en sorte que \(0\otimes \vec{v}\) est dans le sous-espace. La propriété 5.4.7:3 montre que \(0\otimes \vec{v}=\vec{0}\text{.}\)
Pour l’inverse additif, la même idée s’applique, puisque \(-\vec{v}=(-1)\otimes \vec{v}\) selon la propriété 5.4.7:5. Comme c’est un multiple d’un vecteur dans le sous-espace, il est aussi dans le sous-espace. Tout ceci entraine qu’un sous-espace possède toutes les propriétés d’un espace et peut donc être vu aussi comme un espace vectoriel.
La stratégie pour montrer qu’un ensemble \(V\) est un sous-espace d’un espace \(W\) demeure la même que celle qui est utilisée à la section 5.1. Les objets ont changé, mais les idées sont les mêmes.

Exemple 5.4.10. Des sous-espaces vectoriels.

Les ensembles suivants sont des sous-espaces vectoriels des espaces vectoriels indiqués.
  1. L’ensemble \(\mathcal{D}_n\) des matrices dont toutes les entrées sont \(0\) sauf sur la diagonale principale est un sous-espace vectoriel de l’espace des matrices de taille \(n\times n\) muni des opérations usuelles.
  2. L’ensemble \(\mathcal{Z}_n\) des polynômes de degré inférieur ou égal à \(n\) tels que \(p(0)=0\) est un sous-espace vectoriel de l’espace des polynômes de degré inférieur ou égal à \(n\text{,}\) \(\mathcal{P}_n\text{.}\)
  3. L’ensemble des suites infinies qui sont éventuellement \(0\) est un sous-espace de \(\mathbb{R}^{\infty}\) muni des opérations usuelles.
Solution 1.
Soit \(D_1\) et \(D_2\text{,}\) deux matrices diagonales et \(r\in\mathbb{R}\text{,}\) un scalaire. Parce que l’addition matricielle se fait entrée par entrée et que les entrées autres que celles qui sont sur la diagonale sont nulles, la somme des matrices \(D_1\) et \(D_2\) n’a aussi des zéros que sur les entrées différentes de la diagonale. Elle est donc également une matrice diagonale, ce qui montre que l’ensemble est fermé par rapport à l’addition.
De même, en multipliant \(D_1\) par \(r\text{,}\) il n’y a que les entrées sur la diagonale qui sont potentiellement modifiées, les autres étant nulles. Le produit \(rD_1\) est aussi une matrice diagonale, ce qui montre que l’ensemble est fermé par rapport à la multiplication par un scalaire. L’ensemble \(\mathcal{D}_n\) est donc un sous-espace vectoriel de l’espace des matrices carrées.
Solution 2.
On considère deux polynômes \(p(x),q(x)\) de degré inférieur ou égal à \(n\) ayant la propriété que \(p(0)=q(0)=0\text{.}\) On pose \(s(x)=p(x)+q(x)\text{.}\) Alors
\begin{align*} s(0)&=p(0)+q(0)\\ &=0+0\\ &=0\text{.} \end{align*}
Cet ensemble est donc fermé par rapport à l’addition. De même
\begin{equation*} rs(0)=r(0)=0\text{,} \end{equation*}
montrant que l’ensemble est aussi fermé par rapport à la multiplication par un scalaire.
Solution 3.
Soit \(a=(a_1,a_2,\ldots a_{n-1},0,0,0,\ldots)\) et \(b=(b_1,b_2,\ldots , b_{m-1},0,0,\ldots)\text{,}\) deux suites qui sont éventuellement nulles passé un certain indice. Lorsqu’on les additionne, les entrées seront toujours nulles au-delà de l’indice \(\max(m,n)\text{.}\) L’ensemble est donc fermé par rapport à l’addition.
De même, si l’on multiplie les éléments de \(a\) par un scalaire quelconque, toutes les entrées au-delà de l’indice \(n\) sont encore nulles. L’ensemble est donc aussi fermé par rapport à la multiplication par un scalaire. C’est un sous-espace vectoriel de \(\mathbb{R}^{\infty}\text{.}\)
On écrit maintenant la définition de plusieurs concepts déjà connus, mais reformulés dans les termes plus généraux d’un espace vectoriel quelconque.

Définition 5.4.11. Span, indépendance linéaire, base et dimension.

Soit \(V\text{,}\) un espace vectoriel et soit \(\vec{v}_1,\vec{v}_2,\ldots ,\vec{v}_n\text{,}\) des éléments de \(V\text{.}\) On définit l’espace engendré par ces vecteurs comme l’ensemble de leurs combinaisons linéaires:
\begin{equation*} \vspan(\vec{v}_1,\vec{v}_2,\ldots ,\vec{v}_n)=\left\{c_1\vec{v}_1+c_2\vec{v}_2,\ldots +c_n\vec{v}_n ~|~ c_1,c_2,\ldots c_n\in \mathbb{R}\right\}\text{.} \end{equation*}
On dit que l’ensemble \(\left\{\vec{v}_1,\vec{v}_2,\ldots ,\vec{v}_n\right\}\) est linéairement indépendant si
\begin{equation*} c_1\vec{v}_1+c_2\vec{v}_2,\ldots +c_n\vec{v}_n=0 \end{equation*}
uniquement lorsque \(c_1=c_2=\cdots =c_n=0\text{.}\) Dans le cas contraire, on dit que l’ensemble est dépendant.
On dit que l’ensemble \(\left\{\vec{v}_1,\vec{v}_2,\ldots ,\vec{v}_n\right\}\) est une base de \(V\) si
  1. Les vecteurs génèrent \(V\text{,}\) c’est-à-dire si \(\vspan(\vec{v}_1,\vec{v}_2,\ldots ,\vec{v}_n)=V\)
  2. et si les vecteurs \(\vec{v}_1,\vec{v}_2,\ldots ,\vec{v}_n\) sont linéairement indépendants.
Encore une fois, les techniques et stratégies utilisées dans le cas des espaces vectoriels quelconques sont similaires à celles qui sont utilisées avec les espaces \(\mathbb{R}^n\text{.}\)

Exemple 5.4.12. Base d’un espace de polynômes.

On considère à nouveau l’espace \(\mathcal{P}_2(x)\) des polynômes de degré inférieur ou égal à \(2\) et l’on considère les polynômes \(p_1(x)=x,p_2(x)=x^2-1\) et \(>p_3(x)=x^2+1\text{.}\) On souhaite montrer que
  1. l’ensemble \(\{p_1,p_2,p_3\}\) est linéairement indépendant et
  2. engendre l’espace \(\mathcal{P}_2(x)\text{,}\)
faisant de cet ensemble une base pour \(\mathcal{P}_2(x)\text{.}\)
Solution 1.
On commence avec une combinaison linéaire des polynômes \(p_1,p_2,p_3\) donnant le vecteur nul:
\begin{equation*} c_1x+c_2(x^2-1)+c_3(x^2+1)=0\text{.} \end{equation*}
Deux stratégies sont possibles ici. L’équation précédente peut être développée et réécrite en regroupant les puissances de \(x\text{:}\)
\begin{equation*} (c_3-c_2)x^0+c_1x+(c_2+c_3)x^2=0x^0+0x+0x^2\text{.} \end{equation*}
Ceci donne un système à trois équations et trois inconnues que l’on peut résoudre avec les techniques usuelles.
On voit donc qu’il faut que chaque coefficient soit nul pour satisfaire l’équation. Les polynômes sont donc indépendants.
Une autre stratégie consiste à réaliser que l’équation \(c_1x+c_2(x^2-1)+c_3(x^2+1)=0\) doit être satisfaite pour toutes les valeurs de \(x\text{.}\) En prenant des valeurs spécifiques de \(x\text{,}\) on peut se créer un autre système d’équations à résoudre. Par exemple, en prenant respectivement \(x=0,x=1,x=-1\text{,}\) on obtient les équations
\begin{align*} &-c_2&+c_3&=0\\ c_1&&+2c_3&=0\\ -c_1&&+2c_3&=0\text{.} \end{align*}
Les deux dernières équations demandent à avoir \(c_1=-2c_3\) et \(c_1=2c_3\text{,}\) ce qui n’est possible que lorsque \(c_1=c_3=0\text{.}\) La première équation complète finalement la preuve avec \(c_2=c_3=0\text{.}\)
Selon le contexte, ces deux méthodes peuvent s’avérer efficaces, parfois l’une plus que l’autre.
Solution 2.
Pour montrer que les trois polynômes engendrent \(\mathcal{P}_2(x)\text{,}\) il faut prendre un élément quelconque de l’espace et montrer qu’il peut s’écrire comme une combinaison linéaire des trois polynômes. On obtient donc
\begin{equation*} a+bx+cx^2=c_1x+c_2(x^2-1)+c_3(x^2+1)\text{.} \end{equation*}
Encore une fois, on peut développer ou utiliser des valeurs spécifiques de \(x\text{.}\) On propose de reprendre le calcul Sage fait précédemment, mais de résoudre l’équation en fonction du vecteur \((a,b,c)\) plutôt que du vecteur nul.
Puisqu’il est possible d’écrire tout polynôme comme une combinaison linéaire de \(p_1,p_2,p_3\text{,}\) combinés au fait qu’ils sont linéairement indépendants, ces trois polynômes forment une base de \(\mathcal{P}_2(x)\text{.}\)
Les résultats des sections précédentes de ce chapitre s’appliquent et s’obtiennent presque tous sans changement. Tout ce qui a trait à l’existence d’une base (5.2.18), à la dimension, au complément orthogonal et ses résultats associés reste valide. On propose ici une nouvelle définition de dimension s’inspirant de celle qui concerne les espaces \(\mathbb{R}^n\text{,}\) avec une remarque qui apportera peut-être davantage de questions que de réponses.

Définition 5.4.13. La dimension d’un espace vectoriel.

Soit \(V\text{,}\) un espace vectoriel. S’il existe \(k\in\mathbb{N}\) et des vecteurs \(\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_k\) qui engendrent \(V\text{,}\) on dit que \(V\) est de dimension finie et sa dimension est \(k\text{.}\) Dans le cas contraire, on dit que \(V\) est de dimension infinie.
Comme dans beaucoup de domaines mathématiques, l’infini apporte son lot de particularités et qui dépassent le niveau souhaité ici. On aura un aperçu de ces particularités dans la section [provisional cross-reference: sec-unpeuplusloinespace].

Exemple 5.4.14. Quelques espaces et leur dimension.

On cherche à caractériser la dimension des espaces suivants:
  1. L’espace des polynomes de degré inférieur ou égal à \(2\text{;}\)
  2. L’espace des matrices carrées de taille \(2\times 2\text{;}\)
  3. L’espace des suites infinies.
Solution 1.
Puisqu’on a trouvé une base de cet espace à l’exemple 5.4.12, la dimension de cet espace correspond au nombre de vecteurs dans la base, soit \(3\text{.}\)
Solution 2.
Une matrice carrée est de la forme \(A=\begin{pmatrix} a&c\\b&d \end{pmatrix}\text{.}\) Pour engendrer cet espace, on peut utiliser les matrices
\begin{align*} M_1&=\begin{pmatrix} 1&0\\0&0 \end{pmatrix}\\ M_2&=\begin{pmatrix} 0&1\\0&0 \end{pmatrix}\\ M_3&=\begin{pmatrix} 0&0\\1&0 \end{pmatrix}\\ M_4&=\begin{pmatrix} 0&0\\0&1 \end{pmatrix}\text{.} \end{align*}
On voit en effet que toute matrice \(A\) peut s’écrire comme
\begin{equation*} A=aM_1+bM_2+cM_3+dM_4\text{.} \end{equation*}
De plus, la seule manière d’avoir la matrice nulle, correspondant au neutre additif de cet espace, est de prendre \(0M_1+0M_2+0M_3+0M_4\text{.}\) Ces matrices forment donc une base et la dimension est \(4\text{.}\)
Solution 3.
Le nom de l’espace suggère fortement que la dimension de cet espace sera infinie. Il faut montrer qu’il est impossible d’engendrer cette espace avec un nombre fini de vecteurs. Pour montrer que cela est impossible, on procède par contradiction.
On suppose qu’il existe \(k\) suites engendrant \(\mathbb{R}^{\infty}\text{.}\) On considère le sous-espace vectoriel composé des suites dont les éléments valent \(0\) lorsque l’indice est plus grand que \(k+1\text{.}\) Ce sous-espace est, tout compte fait, équivalent à \(R^{k+1}\) puisqu’on peut ignorer les composantes nulles à partir de l’indice \(k+2\text{.}\) Or on sait que la dimension de \(R^{k+1}\) est \(k+1\text{,}\) ce qui signifie qu’il faut \(k+1\) vecteurs pour engendrer ce sous-espace. Ceci entraine que les \(k\) vecteurs en hypothèse ne peuvent engendrer le sous-espace vectoriel, mais comme celui-ci est inclus dans l’espace \(\mathbb{R}^{\infty}\text{,}\) cela contredit le fait que les suites existent.
Comme il ne peut y avoir d’ensemble de taille finie qui engendre cet espace, il est de dimension infinie.

Sous-section 5.4.2 Quelques espaces importants

Au-delà des espaces \(\mathbb{R}^n\text{,}\) il existe plusieurs autres espaces vectoriels qui sont d’un intérêt particulier. Même les fonctions usuelles peuvent être vues comme des espaces vectoriels, bien que ces espaces soient de dimension infinie et donc plus complexe que les espaces \(\mathbb{R}^n\) et autres espaces de dimension finie.

Exemple 5.4.15. Les espaces de fontions.

On considère un intervalle \(I\text{,}\) possiblement \(\mathbb{R}\) en entier. On note par
  1. \(\mathscr{F}(I)\) l’ensemble des fonctions réelles définies sur \(I\text{;}\)
  2. \(\mathscr{C}^{0}(I)\) l’ensemble des fonctions réelles et continues sur \(I\text{;}\)
  3. \(\mathscr{C}^{1}(I)\) l’ensemble des fonctions réelles et continues dont les dérivées sont aussi continues sur \(I\text{;}\)
  4. \(\mathscr{C}^{k}(I)\) l’ensemble des fonctions réelles et continues dont les \(k\) premières dérivées sont aussi continues sur \(I\text{;}\)
  5. \(\mathscr{C}^{\infty}(I)\) l’ensemble des fonctions réelles et continues infiniment dérivables de manière continue sur \(I\text{.}\)
On munit ces espaces de l’addition usuelle des fonctions ainsi que de la multiplication usuelle par un scalaire. Ces espaces sont tous des espaces vectoriels. La preuve utilise le résultat bien connu en calcul différentiel qui stipule que la somme de deux fonctions continues est continue, tout comme le résultat de la multiplication d’une fonction continue par une constante.
À partir de ces espaces, on peut s’intéresser à leurs sous-espaces vectoriels et conclure certains résultats classiques en calcul différentiel et intégral en utilisant les résultats d’algèbre linéaire.

Exemple 5.4.16. Un sous-espace familier.

On considère l’espace vectoriel \(\mathscr{C}^1(\mathbb{R})\) et le sous-espace
\begin{equation*} V=\{f\in\mathscr{C}^1(\mathbb{R})~ |~ f^{'}(x)=f(x) \text{ pour tout } x\in\mathbb{R}\}\text{.} \end{equation*}
Ce sous-espace représente l’ensemble des fonctions qui sont égales à leur dérivée première. On montre dans un premier temps que c’est bel et bien un sous-espace vectoriel et l’on détermine une base de ce sous-espace.
Solution.
Puisque \(f(x)=0\) est un membre de l’ensemble \(V\text{,}\) il y a au moins un élément dans l’ensemble. On considère deux éléments quelconque de \(f,g\in V\) ainsi qu’un scalaire réel \(c\text{.}\) Pour la somme, on a
\begin{align*} (f(x)+g(x))^{'}&=f^{'}(x)+g^{'}(x) & \text{ en vertu de la règle sur la somme des dérivées}\\ &=f(x)+g(x) &\text{par hypothèse}\text{,} \end{align*}
la somme fait donc partie de \(V\text{.}\) De même, on a
\begin{equation*} (cf(x))^{'}=cf^{'}(x)=cf(x) \end{equation*}
en vertu de la règle sur la dérivée d’un multiple d’une fonction. \(V\) est donc un sous-espace vectoriel.
En plus de la fonction nulle, une fonction bien connue qui est égale à sa dérivée est \(f(x)=e^x\text{.}\) Cette fonction constitue, en fait, une base pour ce sous-espace vectoriel, qui est donc de dimension \(1\text{.}\) Puisqu’il n’y a qu’un seul élément, il suffit de montrer que celui-ci génère \(V\text{.}\) On considère un élément quelconque du sous-espace \(g(x)\in V\) et l’on considère la fonction \(h(x)=g(x)f(-x)=g(x)e^{-x}\text{.}\) En dérivant cette fonction, on trouve
\begin{align*} h^{'}(x)&=(g(x)e^{-x})^{'}\\ &=g^{'}(x)e^{-x}-g(x)e^{-x} &\text{ selon la dérivée d'un produit et la dérivation en chaine appliquée à l'exponentielle}\\ &=g^(x)e^{-x}-g(x)e^{-x} &\text{ car la fonction } g\in V\\ &=0\text{.} \end{align*}
Si la fonction \(h(x)\) a pour dérivée \(0\text{,}\) c’est donc qu’elle est constante et ainsi \(g(x)e^{-x}=c\text{,}\) ce qui entraine que \(g(x)=ce^x\text{.}\) Toutes les fonctions dans \(V\) peuvent alors s’écrire comme un multiple de la fonction \(f(x)=e^x\text{,}\) ce qui signifie qu’elle génère le sous-espace.
Il y a beaucoup d’autres liens et d’autres applications à faire entre les espaces vectoriels (ou l’algèbre linéaire en général) et les équations différentielles. On en explore quelques-unes au chapitre [provisional cross-reference: chap-applications].
Le deuxième exemple est en fait l’espace \(\mathbb{R}\text{,}\) mais muni d’une addition et d’une multiplication spéciales. En physique newtonienne, on calcule la vitesse à laquelle deux objets s’approchent l’un de l’autre en additionnant les vitesses de chacun des objets. Lorsqu’on considère de très grandes vitesses (près de la vitesse de la lumière), cette addition n’a plus de sens étant donné que rien ne peut dépasser la vitesse de la lumière. Il se trouve que la véritable manière d’additionner les vitesses en physique repose sur une modification du concept d’addition, qui respecte toutefois les mêmes propriétés que l’addition usuelle. Ceci fait en sorte qu’on peut définir un espace vectoriel.

Exemple 5.4.17. Addition de vitesses en relativité.

L’ensemble \(V=]-1,1[\) muni des opérations suivantes, pour \(x,y \in V\)
\begin{equation*} x\oplus y=\frac{x+y}{1+xy} \end{equation*}
et
\begin{equation*} r\otimes x=\frac{(1+x)^r-(1-x)^r}{(1+x)^r+(1-x)^r} \end{equation*}
est un espace vectoriel sur les réels. Ici, les variables \(x,y\) représentent des fractions de la vitesse de la lumière, les signes positif ou négatif indiquant la direction.
On montre que les propriétés d’un espace vectoriel sont respectées avec ces opérations.
Solution 1.
Soit \(x,y\in V\) et \(r,s\in \mathbb{R}\text{.}\) On veut montrer que la somme de deux éléments dans \(V\) reste dans \(V\text{,}\) c’est-à-dire reste dans l’intervalle \(]-1,1[\text{.}\) Puisque \(y<1\text{,}\) on a \(1-y>0\) avec \(x,y>-1\text{,}\) on a \(xy>-1\) et donc
\begin{align*} &&x&<1 &&\text{hypothèse } x\in V \\ &\Leftrightarrow &x(1-y)&< (1-y) &&\text{ car } 1-y>0\\ &\Leftrightarrow &x+y&<1+xy && \text{ en réarrangeant les termes}\\ &\Leftrightarrow &\frac{x+y}{1+xy}&<1&&\text{ car } 1+xy>0\text{.} \end{align*}
L’argument pour montrer que \(-1<\frac{x+y}{1+xy}\) est similaire et sera explicité à l’exercice 5.4.3.13. On a donc fermeture pour l’addition, car on a montré que \(x\oplus y\in V\text{.}\)
Solution 2.
La commutativité de l’addition usuelle ainsi que de la multiplication usuelle montre que
\begin{align*} x\oplus y&=\frac{x+y}{1+xy}\\ &=\frac{y+x}{1+yx} & \text{commutativité de l'addition et de la multiplication usuelle}\\ &=y\oplus x\text{.} \end{align*}
Solution 3.
L’associativité sera démontrée à l’exercice 5.4.3.13.
Solution 4.
Selon la propriété 5.4.7:3, on peut obtenir le vecteur nul en multipliant un vecteur quelconque par le scalaire \(0\text{.}\) On a donc
\begin{align*} 0\otimes x&=\frac{(1+x)^0-(1-x)^0}{(1+x)^0+(1-x)^0}\\ &=\frac{1-1}{1+1}\\ &=\frac{0}{2}\\ &=0\text{.} \end{align*}
Le vecteur nul est donc simplement \(0\text{.}\) Évidemment, on aurait aussi pu deviner et vérifier que \(x\oplus 0=x\text{.}\)
Solution 5.
Voir l’exercice 5.4.3.13.
Solution 6.
Voir l’exercice 5.4.3.13.
Solution 7.
Soit \(x\in V\) et \(r,s\in \mathbb{R}\text{.}\) On cherche à montrer que \((rs)\otimes\vec{x}=r\otimes(s\otimes\vec{x})\text{.}\) Dans un premier temps, on a
\begin{align*} (rs)\otimes\vec{x}&=\frac{(1+x)^{rs}-(1-x)^{rs}}{(1+x)^{rs}+(1-x)^{rs}}\text{.} \end{align*}
Pour l’autre côté, on commence par calculer \(y=s\otimes x\text{:}\)
\begin{equation*} y=\frac{(1+x)^{s}-(1-x)^{s}}{(1+x)^{s}+(1-x)^{s}}\text{.} \end{equation*}
On fait ensuite \(r\otimes y\text{,}\) ce qui donne
\begin{align*} 1\otimes y&=\frac{(1+y)^{r}-(1-y)^{r}}{(1+y)^{r}+(1-y)^{r}}\text{.} \end{align*}
On calcule séparément \(1+y\) et \(1-y\text{.}\) Pour \(1+y\text{,}\) on a
\begin{align*} 1+y&=1+\frac{(1+x)^{s}-(1-x)^{s}}{(1+x)^{s}+(1-x)^{s}}\\ &=\frac{(1+x)^s+(1-x)^s+(1+x)^s-(1-x)^s}{(1+x)^s+(1-x)^s}\\ &=\frac{2(1+x)^s}{(1+x)^s+(1-x)^s} \end{align*}
alors que pour \(1-y\text{,}\) on obtient
\begin{align*} 1-y&=1-\frac{(1+x)^{s}-(1-x)^{s}}{(1+x)^{s}+(1-x)^{s}}\\ &=\frac{(1+x)^s+(1-x)^s-(1+x)^s-(1-x)^s}{(1+x)^s+(1-x)^s}\\ &=\frac{2(1-x)^s}{(1+x)^s+(1-x)^s} \end{align*}
On pose \(z=(1+x)^s+(1-x)^s\) et l’on revient à \(r\otimes (s\otimes x)\text{.}\) On a
\begin{align*} r\otimes(sx)&=r\otimes y\\ &=\frac{(1+y)^r-(1-y)^r}{(1+y)^r+(1-y)^r}\\ &=\frac{\left(\frac{2(1+x)^s}{z}\right)^r-\left(\frac{2(1-x)^s}{z}\right)^r}{\left(\frac{2(1+x)^s}{z}\right)^r+\left(\frac{2(1-x)^s}{z}\right)^r}\\ &=\frac{\frac{2^r(1+x)^{rs}-2^r(1-x)^{rs}}{z^r}}{\frac{2^r(1+x)^{rs}+2^r(1-x)^{rs}}{z^r}}\\ &=\frac{(1+x)^{rs}-(1-x)^{rs}}{(1+x)^{rs}+(1-x)^{rs}}\text{.} \end{align*}
On a donc égalité entre \((rs)\otimes\vec{x}\) et \(r\otimes(s\otimes\vec{x})\text{.}\)
Solution 8.
Encore un gros exercice de manipulation algébriques. On veut montrer que \(r\otimes(x\oplus y)=r\otimes x\oplus r\otimes y\text{.}\) Dans un premier temps, on a
\begin{align*} r\otimes(x\oplus y)&=r\otimes\left(\frac{x+y}{1+xy}\right)\\ &=\frac{\left(1+\frac{x+y}{1+xy}\right)^r-\left(1-\frac{x+y}{1+xy}\right)^r}{\left(1+\frac{x+y}{1+xy}\right)^r+\left(1-\frac{x+y}{1+xy}\right)^r}\\ &=\frac{\left(1+\frac{x+y}{1+xy}\right)^r-\left(1-\frac{x+y}{1+xy}\right)^r}{\left(1+\frac{x+y}{1+xy}\right)^r+\left(1-\frac{x+y}{1+xy}\right)^r}\frac{(1+xy)^r}{(1+xy)^r}\\ &=\frac{(1+xy)^r\left(1+\frac{x+y}{1+xy}\right)^r-(1+xy)^r\left(1-\frac{x+y}{1+xy}\right)^r}{(1+xy)^r\left(1+\frac{x+y}{1+xy}\right)^r+(1+xy)^r\left(1-\frac{x+y}{1+xy}\right)^r}\\ &=\frac{\left(1+xy+x+y\right)^r-\left(1+xy-x-y\right)^r}{\left(1+xy+x+y\right)^r+\left(1+xy-x-y\right)^r}\\ &=\frac{\left( 1+y \right) ^{r} \left( 1+x \right) ^{r}-\, \left( 1-y \right) ^{r} \left( 1-x \right) ^{r}}{\left( 1+y \right) ^{r} \left( 1+x \right) ^{r}+ \left( 1-y \right) ^{r} \left( 1-x \right) ^{r}}\text{.} \end{align*}
On pose \(A=(1+x)^r+(1-x)^r, B=(1+y)^r+(1-y)^r,C=(1+x)^r-(1-x)^r\) et \(D=(1+y)^r-(1-y)^r\text{.}\) Pour l’autre côté, on a
\begin{align*} r\otimes x\oplus r\otimes y&=\frac{(1+x)^r-(1-x)^r}{(1+x)^r+(1-x)^r}\oplus \frac{(1+y)^r-(1-y)^r}{(1+y)^r+(1-y)^r}\\ &=\frac{\frac{(1+x)^r-(1-x)^r}{(1+x)^r+(1-x)^r}+\frac{(1+y)^r-(1-y)^r}{(1+y)^r+(1-y)^r}}{1+\frac{(1+x)^r-(1-x)^r}{(1+x)^r+(1-x)^r}\frac{(1+y)^r-(1-y)^r}{(1+y)^r+(1-y)^r}}\\ &=\frac{\frac{BC+AD}{AB}}{1+\frac{CD}{AB}}\\ &=\frac{BC+AD}{AB+CD}\text{.} \end{align*}
Puisque
\begin{align*} BC&=((1+y)^r+(1-y)^r)((1+x)^r-(1-x)^r)\\ &=\left( 1+y \right) ^{r} \left( 1+x \right) ^{r}- \left( 1+y \right) ^ {r} \left( 1-x \right) ^{r}+ \left( 1-y \right) ^{r} \left( 1+x \right) ^{r}- \left( 1-y \right) ^{r} \left( 1-x \right) ^{r}\\ \end{align*}

et

\begin{align*} AD&=((1+x)^r+(1-x)^r)((1+y)^r-(1-y)^r)\\ &=\left( 1+y \right) ^{r} \left( 1+x \right) ^{r}- \left( 1-y \right) ^ {r} \left( 1+x \right) ^{r}+ \left( 1+y \right) ^{r} \left( 1-x \right) ^{r}- \left( 1-y \right) ^{r} \left( 1-x \right) ^{r}\\ \end{align*}

on a

\begin{align*} BC+AD&=2(\, \left( 1+y \right) ^{r} \left( 1+x \right) ^{r}-\, \left( 1-y \right) ^{r} \left( 1-x \right) ^{r})\text{.} \end{align*}
D’une manière similaire, on trouve
\begin{equation*} AB+CD=2(\left( 1+y \right) ^{r} \left( 1+x \right) ^{r}+ \left( 1-y \right) ^{r} \left( 1-x \right) ^{r}) \end{equation*}
et donc
\begin{equation*} rx\oplus ry=\frac{\left( 1+y \right) ^{r} \left( 1+x \right) ^{r}-\, \left( 1-y \right) ^{r} \left( 1-x \right) ^{r}}{\left( 1+y \right) ^{r} \left( 1+x \right) ^{r}+ \left( 1-y \right) ^{r} \left( 1-x \right) ^{r}}\text{.} \end{equation*}
La propriété est donc respectée.
Solution 9.
Voir l’exercice 5.4.3.13.
Solution 10.
On a
\begin{align*} 1\otimes x&=\frac{(1+x)^1-(1-x)^1}{(1+x)^1+(1-x)^1}\\ &=\frac{1+x-1+x}{1+x+1-x}\\ &=\frac{2x}{2}\\ &=x\text{.} \end{align*}
Les points importants de cette section sont:
  1. La définition d’un espace vectoriel et les dix propriétés à respecter;
  2. Les propriétés propres à tous les espaces vectoriels.

Exercices 5.4.3 Exercices

1.

L’ensemble des nombres complexes est défini comme l’ensemble
\begin{equation*} \mathbb{C}=\{a+bi~|~a,b,\in \mathbb{R}\} \end{equation*}
et \(i\) est lui-même un nombre complexe ayant la propriété que \(i^2=-1\text{.}\) On munit cet espace de l’addition
\begin{equation*} (a+bi)+(c+di)=a+c+(b+d)i \end{equation*}
et de la multiplication par un scalaire réel
\begin{equation*} r(a+bi)=ra+rbi\text{.} \end{equation*}
Montrer que cet ensemble muni de ces opérations est un espace vectoriel.
Solution.
Soit \(x=a+bi,y=c+di\) et \(z=e+fi\text{,}\) des nombres complexes et \(r,s\text{,}\) des réels.
Pour la propriété 5.4.2:1, on doit montrer que la somme de deux nombres complexes est encore un nombre complexe, c’est-à-dire qu’elle peut s’écrire sous la forme un réel plus un réel fois \(i\text{.}\) On a
\begin{equation*} x+y=a+c+(b+d)i \end{equation*}
en vertu de l’addition sur les complexes. Comme \(a+c\in \mathbb{R}\) de même que \(b+d\in\mathbb{R}\text{,}\) la somme de nombres complexes est encore un nombre complexe.
La commutativité et l’associativité découlent directement des propriétés de l’addition sur les réels, puisque
\begin{equation*} x+y=a+c+(b+d)i=c+a+(d+b)i=y+x \end{equation*}
et que
\begin{align*} x+(y+z)&=a+bi+(c+e+(d+f)i)\\ &a+c+e+(b+d+f)i\\ &=a+c+(b+d)i+e+fi\\ &(x+y)+z\text{.} \end{align*}
Le neutre additif est aussi \(0=0+0i\) dans cet espace, puisque
\begin{equation*} x+0=a+0+(b+0)i=a+bi=x \end{equation*}
et l’inverse additif est simplement \(-x=-a-bi\text{,}\) puisque
\begin{equation*} x+-x=a-b+(b-b)i=0\text{.} \end{equation*}
Pour les propriétés avec la multiplication, elles découlent aussi des propriétés de l’addition et de la multiplication avec les nombres réels. Puisque \(ra\in\mathbb{R}\) et \(rb\in\mathbb{R}\text{,}\) on obtient la fermeture par rapport à la multiplication. L’associativité s’obtient du fait que
\begin{equation*} rs(a+bi)=rsa+rsbi=r(sa+sbi)=r(sx)\text{.} \end{equation*}
De plus,
\begin{align*} r(x+y)&=r(a+c+(b+d)i)\\ &=r(a+c)+r(b+d)i\\ &=ra+rc+rbi+rdi\\ &=r(a+bi)+r(c+di)\\ &=rx+ry \end{align*}
et
\begin{align*} (r+s)x&=(r+s)(a+bi)\\ &=(r+s)a+(r+s)bi\\ &=ra+sa+rbi+sbi\\ &=r(a+bi)+s(a+bi)\\ &=rx+sx\text{.} \end{align*}
Finalement, \(1(a+bi)=a+bi\) et donc, toutes les propriétés sont respectées. C’est un espace vectoriel.

2.

On considère l’ensemble des nombres réels muni de l’addition
\begin{equation*} x\oplus y=x+y^2 \end{equation*}
et de la multiplication par un scalaire usuelle. Cet ensemble n’est pas un espace vectoriel. Déterminer quelle(s) propriété(s) n’est (ne sont) pas satisfaite(s).
Réponse.
Les propriétés \(2,3,4,5,7,8\)
 1 
Voir l’explication dans la solution
ne sont pas respectées.
Solution.
Puisque la somme de nombres réels est aussi un nombre réel et que \(y^2\in\mathbb{R}\text{,}\) la première propriété est respectée. Par contre, la deuxième propriété ne l’est pas. En effet, en général on n’a pas \(x+y^2=x^2+y\text{.}\) En prenant \(x=2,y=1\text{,}\) on a \(x\oplus y=2+1^1=3\text{,}\) mais \(y\oplus x=1+2^2=5\text{.}\) De même, l’associativité n’est pas respectée étant donné que le terme à droite a une particularité qui lui est propre. En effet
\begin{align*} x\oplus (y\oplus z)&=x\oplus (y+z^2)\\ &=x+(y+z^2)^2\\ &=x+y^2+2yz^2+z^4\text{,} \end{align*}
alors que
\begin{align*} (x\oplus y)\oplus z&=(x+y^2)\oplus z\\ &=x+y^2+z^2\text{.} \end{align*}
Dans le premier cas, \(z\) est pris deux fois dans un côté droit de l’opération \(\oplus\text{,}\) il apparait donc avec une puissance quatre, mais dans le second cas, il est seulement affecté d’un exposant deux, conséquence du fait qu’il n’est à droite de l’opération qu’une seule fois.
D’un point de vue technique, l’élément neutre existe, puisque \(x\oplus 0=x\text{.}\) Comme cette addition n’est pas commutative, il faudrait aussi vérifier à gauche aussi. Dans ce cas, on a \(0\oplus y=y^2\text{,}\) ce qui, en général, ne donnera pas \(y\text{.}\) On pourrait donc dire qu’il y a un neutre additif à gauche, mais qu’il n’y en a pas à droite. De même, pour l’inverse additif, on peut prendre \(x=-y^2\) et avoir \(-y^2\oplus y=0\text{,}\) qui correspond au neutre à gauche, mais si \(x\geq 0\text{,}\) aucune valeur de \(y\) ne fera que \(x\oplus y =0\text{.}\)
Comme la multiplication est celle qui est usuelle, la propriété \(rx\in \mathbb{R}\) est respectée, de même que la propriété \((rs)x=r(sx)\) et la propriété du neutre multiplicatif. Pour les propriétés qui combinent multiplication et addition, elles ne sont pas respectées. En effet,
\begin{equation*} r(x\oplus y)=rx+ry^2 \end{equation*}
alors que
\begin{equation*} rx\oplus ry=rx+(ry)^2=rx+r^2y^2\text{.} \end{equation*}
De même, on a
\begin{equation*} (r+s)x=rx+sx\text{,} \end{equation*}
mais
\begin{equation*} rx\oplus sx=rx+s^2x^2\text{.} \end{equation*}
Ces propriétés ne sont donc pas respectées.

3.

On considère les nombres réels strictement positifs munis des opérations suivantes:
\begin{equation*} x\oplus y=xy, r\otimes x=x^r. \end{equation*}
Est-ce que ceci forme un espace vectoriel?
Réponse.
Oui.
Solution.
On note \(V\text{,}\) l’ensemble des nombres réels strictement positifs. Muni de ces opérations, c’est en effet un espace vectoriel. On montre chacune des propriétés. Soit \(x,y,z>0\) et \(r,s\in \mathbb{R}\text{.}\) Puisque le produit de deux nombres strictement positifs est encore positif, il s’ensuit que \(x\oplus y\) est dans \(V\text{.}\) La propriété 5.4.2:1 est satisfaite. De la même manière, puisque la multiplication usuelle de nombres réels est commutative, on a \(x\oplus y=xy=yx=y\oplus x\) et la propriété 5.4.2:2 est satisfaite. La propriété 5.4.2:3 découle aussi des propriétés de la multiplication usuelle, notamment l’associativité. Ainsi, \(x\oplus (y\oplus z)=x(yz)=(xy)z=(x\oplus y)\oplus z\text{.}\)
On doit faire attention au neutre et à l’inverse additif. On peut les deviner ou encore utiliser les propriétés de la proposition 5.4.6. Dans le cas du neutre additif, \(\vec{0}=1\) est le vecteur nul, puisque \(x\oplus 1=1x=x\text{.}\) Du côté de l’inverse additif, c’est \(-x=\frac{1}{x}\) qui fonctionne (\(x>0\)) étant donné que \(x\oplus \frac{1}{x}=x\frac{1}{x}=1=\vec{0}\text{.}\)
Pour les propriétés de la multiplication par un scalaire, on remarque que cette multiplication est en fait le processus d’exponentiation de nombres réels. Puisque l’exponentiation réelle donne toujours un nombre strictement plus grand que zéro, il s’ensuit que \(r\otimes x\in V\text{.}\) De plus, en vertu des propriétés des exposants, on a
\begin{align*} (rs)\otimes x&=x^{rs}\\ &=(x^r)^s\\ &=(r\otimes x)^s\\ &=s\otimes (r\otimes x)\text{.} \end{align*}
La propriété 5.4.2:7 est donc satisfaite.
Pour la propriété 5.4.2:8, on a
\begin{align*} r\otimes(x\oplus y)&=r\otimes (xy)\\ &=(xy)^r\\ &=x^ry^r\\ &=x^r\oplus y^r\\ &=(r\otimes x)\oplus (r\otimes y)\text{,} \end{align*}
ce qui confirme que cette propriété est satisfaite. La propriété 5.4.2:9 est similaire, puisque
\begin{align*} (r+s)\otimes x&=x^{r+s}\\ &=x^rx^s\\ &=x^r\oplus x^s\\ &=(r\otimes x)\oplus (s\otimes x)\text{.} \end{align*}
Finalement, la propriété 5.4.2:10 s’obtient grâce au fait que
\begin{equation*} 1\otimes x=x^1=x\text{.} \end{equation*}
Toutes les propriétés étant respectées, l’ensemble est un espace vectoriel.

4.

Déterminer si chacun des ensembles suivants est linéairement indépendant. Tous les espaces sous-jacents sont munis des opérations d’addition et de multiplication usuelles.
(a)
\(U=\left\{\begin{pmatrix}1&-1\\0&1\end{pmatrix},\begin{pmatrix}0&1\\1&0\end{pmatrix},\begin{pmatrix}1&1\\1&1\end{pmatrix}\right\}\) vu comme un ensemble de \(\mathcal{M}_{2\times 2}\text{.}\)
Réponse.
Oui
Solution.
On regarde deux manières de faire le problème. Dans un premier temps, la définition demande de trouver des coefficients \(c_1,c_2,c_3\) tels que
\begin{equation*} c_1\begin{pmatrix}1&-1\\0&1\end{pmatrix}+c_2\begin{pmatrix}0&1\\1&0\end{pmatrix}+c_3\begin{pmatrix}1&1\\1&1\end{pmatrix}=\begin{pmatrix}0&0\\0&0\end{pmatrix}\text{.} \end{equation*}
Si la seule solution à ce système est celle où \(c_1=c_2=c_3=0\text{,}\) alors l’ensemble est linéairement indépendant. On obtient alors un système à quatre équations et trois inconnues, en regardant composante par composante les entrées des matrices:
\begin{align*} c_1+c_3&=0\\ -c_1+c_2+c_3&=0\\ c_2+c_3&=0\\ c_1+c_3&=0\text{.} \end{align*}
On voit rapidement qu’on doit avoir \(c_1=c_2=-c_3\) et, avec la deuxième équation, on trouve \(c_3-c_3+c_3=0\text{,}\) tous les coefficients doivent donc être nuls.
Dans un second temps, on a établi, à l’exemple 5.4.14, que la dimension de l’espace \(\mathcal{M}_{2\times 2}\) était \(4\) en trouvant une base qui générait cet espace. On peut donc écrire chacune des matrices de l’ensemble \(U\) en fonction de la base ordonnée
\begin{equation*} \left \langle \begin{pmatrix} 1&0\\0&0 \end{pmatrix},\begin{pmatrix} 0&1\\0&0 \end{pmatrix},\begin{pmatrix} 0&0\\1&0 \end{pmatrix},\begin{pmatrix} 0&0\\0&1 \end{pmatrix}\right \rangle\text{.} \end{equation*}
Ainsi, on a
\begin{align*} \begin{pmatrix}1&-1\\0&1\end{pmatrix}&=(1,-1,0,1)_{\mathcal{B}}\\ \begin{pmatrix}0&1\\1&0\end{pmatrix}&=(0,1,1,0)_{\mathcal{B}}\\ \begin{pmatrix}1&1\\1&1\end{pmatrix}&=(1,1,1,1)_{\mathcal{B}}\text{.} \end{align*}
La question dans le contexte matriciel est équivalente à la même question, mais du point de vue vectoriel. On place les vecteurs dans les lignes d’une matrice et l’on regarde la dimension de l’espace ligne afin de déterminer s’ils sont indépendants.
Comme la dimension de l’espace ligne correspond au nombre de vecteurs, ils sont indépendants.
(b)
\(\left\{1,x+1,3-x\right\}\) vu comme un ensemble de l’espace des polynômes de degré inférieur ou égal à \(1\text{.}\)
Réponse.
Non
Solution.
Encore une fois, il y a plusieurs manières de répondre à cette question. À l’exemple 5.4.14, on a montré que la dimension de \(\mathcal{P}_2\) est égale à \(3\text{.}\) En suivant un raisonnement similaire, on peut montrer que la dimension de \(\mathcal{P}_1\) est \(2\text{.}\) Puisqu’il y a trois vecteurs dans l’ensemble et que l’espace est de dimension \(2\text{,}\) les vecteurs sont forcément dépendants.
(c)
\(\{1,\sin^2(x),\cos^2(t)\}\) vu comme un ensemble dans l’espace \(\mathcal{C}^0\text{.}\)
Réponse.
Non
Solution.
Ici, il est plus difficile de procéder avec une base de l’espace, celui-ci étant de dimension infinie. On sait toutefois que \(\sin^2(x)+\cos^2(x)=1\text{,}\) qui se traduit en réécrivant par \(\sin^2(x)+\cos^2(x)-1=0\text{.}\) On a ainsi une combinaison linéaire non triviale qui donne le vecteur nul de l’espace. Les vecteurs sont donc dépendants.

5.

On considère l’espace des matrices \(2\times 2\) muni des opérations usuelles. Déterminer si chacun des ensembles suivants est un sous-espace vectoriel. Le cas échéant, déterminer une base du sous-espace et dans le cas contraire, justifier.
(a)
L’ensemble des matrices \(2\times 2\) de rang \(1\text{.}\)
Réponse.
Non
Solution.
Puisque le vecteur nul doit faire partie de chaque sous-espace et que la matrice \(\begin{pmatrix}0&0\\ 0&0\end{pmatrix}\) est de rang \(0\text{,}\) l’ensemble n’est pas un sous-espace vectoriel.
(b)
L’ensemble des matrices \(2\times 2\) de rang inférieur ou égal à \(1\text{.}\)
Réponse.
Non
Solution.
On ne peut plus utiliser l’argument précédent puisqu’ici, la matrice \(\begin{pmatrix}0&0\\ 0&0\end{pmatrix}\) fait partie de l’ensemble. On essaie de réfléchir à ce qui se produit avec le rang lorsqu’on additionne des matrices ou lorsqu’on multiplie par un scalaire. Comme le rang correspond au nombre de lignes non nulles de la forme échelonnée réduite d’une matrice, le fait de multiplier par une constante non nulle ne devrait pas changer le rang. La deuxième propriété est donc respectée.
On se demande alors si la somme de deux matrices peut ajouter des lignes non nulles. En prenant \(A=\begin{pmatrix}1&0\\ 0&0\end{pmatrix}\) et \(B=\begin{pmatrix}0&0\\ 0&1\end{pmatrix}\text{,}\) deux matrices de rang \(1\text{,}\) on voit bien que la somme donne la matrice identité, de rang \(2\text{.}\) En ce sens, ce n’est pas un sous-espace vectoriel.
(c)
L’ensemble des matrices \(2\times 2\) qui contiennent le vecteur \((1,-1)\) dans leur espace nul.
Réponse.
Oui.
Solution.
Cela découle du fait que si \(A\vec{x}=\vec{0}\) et \(B\vec{x}=\vec{0}\text{,}\) alors
\begin{equation*} (A+B)\vec{x}=A\vec{x}+B\vec{x}=\vec{0}+\vec{0} \end{equation*}
et \(rA\vec{x}=r\vec{0}=\vec{0}\text{.}\) C’est donc un sous-espace vectoriel.
On cherche maintenant une base de ce sous-espace. Dans \(\mathbb{R}^2\) si l’espace nul contient le vecteur \((1,-1)\text{,}\) alors l’espace nul est de dimension \(1\) ou \(2\text{.}\) Cela signifie que l’espace ligne de la matrice est de dimension \(1\) ou \(0\text{.}\) De plus, l’espace ligne doit être perpendiculaire à l’espace nul. Ainsi, si l’espace nul est simplement \(\vspan((1,-1))\text{,}\) alors l’espace ligne est engendré par \((1,1)\text{.}\) Les matrices possédant cet espace ligne sont toutes de la forme
\begin{equation*} \begin{pmatrix} a&a\\ a&a \end{pmatrix} \end{equation*}
pour \(a\neq 0\text{.}\) Si toutefois l’espace nul est \(\mathbb{R}^2\) au complet, alors l’espace nul ne contient que le vecteur nul. Il n’y a que la matrice nulle qui est ainsi. On peut donc dire que toutes les matrices ayant le vecteur \((1,-1)\) dans leur espace nul s’écrivent comme
\begin{equation*} \begin{pmatrix} a&a\\ a&a \end{pmatrix}\text{,} \end{equation*}
sans restriction sur \(a\text{.}\) Le sous-espace est de dimension \(1\) et la matrice \(\begin{pmatrix} 1&1\\ 1&1 \end{pmatrix}\) est une base.
(d)
L’ensemble des matrices \(2\times 2\) qui contiennent le vecteur \((1,-1)\) dans leur espace colonne.
Réponse.
Non.
Solution.
Comme la matrice nulle doit faire partie de l’ensemble pour être un sous-espace vectoriel et que l’espace colonne de la matrice nul ne contient que le vecteur \(\vec{0}\text{,}\) cet ensemble n’est pas un sous-espace.
(e)
L’ensemble des matrices \(2\times 2\) qui sont symétriques. (Rappel: une matrice \(A\) est symétrique si \(A=A^T\text{.}\))
Réponse.
Oui.
Solution.
C’est une conséquence directe des propriétés de la proposition 3.4.3 que ce sous-ensemble est fermé sous l’addition et la multiplication par un scalaire. En effet
\begin{align*} (A+B)^T&=A^T+B^T&&\text{propriété de la transposée}\\ &=A+B&&\text{par hypothèse, les matrices sont symétriques} \end{align*}
et \((rA)^T=rA^T=rA\text{.}\)
Pour trouver une base, on remarque que les matrices symétriques de taille \(2\times 2\) sont de la forme
\begin{equation*} S=\begin{pmatrix} a&b\\ b&c \end{pmatrix}\text{.} \end{equation*}
On peut donc l’engendrer par les matrices indépendantes
\begin{align*} \begin{pmatrix}1&0\\ 0&0\end{pmatrix}\\ \begin{pmatrix}0&1\\ 1&0\end{pmatrix}\\ \begin{pmatrix}0&0\\ 0&1\end{pmatrix}\text{.} \end{align*}

6.

À la proposition 5.4.6, on a montré que le vecteur nul d’un espace vectoriel est unique. Montrer que l’inverse additif est aussi unique.
Solution.
Soit \(\vec{v},\vec{w}\text{,}\) des vecteurs tels que \(\vec{u}\oplus \vec{v}=\vec{0}\) et \(\vec{u}\oplus \vec{w}=\vec{0}\text{.}\) On veut montrer que \(\vec{v}=\vec{w}\text{.}\) On a
\begin{align*} \vec{v}&=\vec{v}\oplus\vec{0}&\text{neutre additif}\\ &=\vec{v}\oplus(\vec{u}\oplus\vec{w})&\text{par hypothèse}\\ &=(\vec{v}\oplus\vec{u})\oplus\vec{w}&\text{associativité de l'addition}\\ &=\vec{0}\oplus\vec{w}&\text{par hypothèse}\\ &=\vec{w}&\text{neutre additif} \text{.} \end{align*}
Ainsi, l’inverse additif est unique.

7.

On considère l’ensemble des polynômes \(p(x)\) de degré inférieur ou égal à \(2\) tels que \(p(1)=0\text{.}\)
(a)
Montrer que cet ensemble est un sous-espace vectoriel de l’espace des polynômes de degré inférieur ou égal à \(2\text{.}\)
Solution.
Soit \(p(x),q(x)\text{,}\) des polynômes de degré inférieur ou égal à \(2\) avec \(p(1)=q(1)=0\text{.}\) On a alors \(p(1)+q(1)=0+0=0\text{,}\) la somme est donc aussi dans l’ensemble. De plus, si \(r\in\mathbb{R}\text{,}\) il s’ensuit que \(rp(1)=r\times 0=0\) et que cet ensemble est un sous-espace vectoriel.
(b)
Déterminer une base de ce sous-espace. Quelle est sa dimension?
Réponse.
La dimension est deux. Une base possible est \(\langle x-1,x^2-1\rangle\text{.}\)
Solution.
Soit \(p(x)=a+bx+cx^2\text{,}\) un polynôme de degré \(2\) avec \(p(1)=0\text{.}\) On a alors
\begin{equation*} a=-b-c\text{,} \end{equation*}
ce qui entraine que
\begin{align*} p(x)&=-b-c+bx+cx^2\\ &=b(x-1)+c(x^2-1)\text{.} \end{align*}
Comme les polynômes \(x-1\) et \(x^2-1\) sont indépendants et que tout polynôme de cet espace peut être obtenu par une combinaison linéaire de ces deux polynômes, la dimension est \(2\) et ils forment une base.

8.

Montrer la propriété 5.4.7:5 de la proposition 5.4.6.
Solution.
On a
\begin{align*} \vec{u}\oplus (-1)\otimes \vec{u}&=(1+(-1))\otimes\vec{u} &\text{selon } \knowl{./knowl/xref/li-espacevectoriel9.html}{\text{5.4.2:9}}\\ &=0\otimes \vec{u}\\ &=\vec{0} &\text{selon} \knowl{./knowl/xref/li-propespaces2.html}{\text{5.4.7:3}}\text{.} \end{align*}
Ainsi, le vecteur \((-1)\vec{u}\) est l’inverse additif, puisqu’en vertu de l’exercice 5.4.3.6, celui-ci est unique.

9.

Dans la preuve de la propriété 5.4.7:4, on a fait l’hypothèse que soit \(r=0\text{,}\) soit \(r\neq 0\) et l’on a démontré l’implication sous cette dichotomie supplémentaire. Faire une preuve alternative où l’hypothèse supplémentaire est plutôt \(\vec{u}=\vec{0}\) ou \(\vec{u}\neq \vec{0}\text{.}\)
Indice.
Débuter avec
\begin{equation*} r\vec{v}=r\otimes\vec{v}\oplus \vec{0} \end{equation*}
et conclure qu’on doit avoir \(\vec{v}=\vec{v}+\vec{u}\) ou \(r=0\text{.}\)
Solution.
Pour démontrer l’affirmation, on fait une hypothèse additionnelle sur \(\vec{u}\text{.}\) En effet, soit \(\vec{u}=\vec{0}\text{,}\) soit \(\vec{u}\neq \vec{0}\text{.}\) Dans le cas où \(\vec{u}=\vec{0}\text{,}\) la preuve est terminée puisque c’est ce qu’on voulait montrer. Maintenant, si \(\vec{u}\neq\vec{0}\text{,}\) on doit montrer que \(r=0\text{.}\) Soit \(\vec{v}\neq \vec{0}\text{,}\) un vecteur quelconque. On a
\begin{align*} r\vec{v}&=r\otimes\vec{v}\oplus \vec{0} &\text{ neutre additif}\\ &=r\otimes\vec{v}\oplus r\otimes\vec{u}&\text{ puisque } r\vec{u}= 0\\ &=r\otimes (\vec{v} \oplus \vec{u})& \text{ selon la distributivité de la multiplication par un scalaire sur l'addition vectorielle}\text{.} \end{align*}
Ceci implique que \(\vec{v}=\vec{v}+\vec{u}\) ou \(r=0\text{.}\) Puisque, par hypothèse, \(\vec{u}\neq \vec{0}\text{,}\) on conclut qu’on doit avoir \(r=0\text{.}\)

10.

Soit \(A\in\mathcal{M}_{n\times n}\text{,}\) une matrice carrée quelconque. On considère l’ensemble des matrices qui commutent avec \(A\text{:}\)
\begin{equation*} V=\{B\in\mathcal{M}{n\times n}~| ~ AB=BA\}\text{.} \end{equation*}
Montrer que \(V\) est un sous-espace vectoriel de \(\mathcal{M}_{n\times n}\) muni des opérations usuelles.
Solution.
Soit \(B,C\in V\) et \(r\in\mathbb{R}\text{.}\) Pour que \(B+C\) soit dans \(V\text{,}\) il faut que \((B+C)A=A(B+C)\text{.}\) On a
\begin{align*} A(B+C)&=AB+AC&\text{distributivité de la multiplication matricielle} \knowl{./knowl/xref/prop-prodmatprop.html}{\text{2.2.12}}\\ &=BA+CA &\text{ par hypothèse}\\ &=(B+C)A&\text{distributivité de la multiplication matricielle} \knowl{./knowl/xref/prop-prodmatprop.html}{\text{2.2.12}}\text{.} \end{align*}
Ainsi, \(B+C\in V\text{.}\)
Pour que \(rB\in V\text{,}\) il faut que \(A(rB)=(rB)A\text{.}\) On a
\begin{align*} A(rB)&=r(AB)&\text{associativité de la multiplication par un scalaire} \knowl{./knowl/xref/prop-prodmatprop.html}{\text{2.2.12}}\\ &=r(BA)&\text{par hypothèse}\\ &=(rB)A&\text{associativité de la multiplication par un scalaire} \knowl{./knowl/xref/prop-prodmatprop.html}{\text{2.2.12}}\text{.} \end{align*}
L’ensemble \(V\) est donc un sous-espace vectoriel de \(\mathcal{M}_{n\times n}.\)

11.

Voici une preuve alternative de la propriété 5.4.7:2. Justifier chacune des étapes.
\begin{align*} r\vec{0}&=\vec{0}+r\vec{0}\\ &=(-(r\vec{0})+r\vec{0})+r\vec{0}\\ &=-(r\vec{0})+(r\vec{0}+r\vec{0})\\ &=-(r\vec{0})+r(\vec{0}+\vec{0})\\ &=-(r\vec{0}+r\vec{0}\\ &=\vec{0}\text{.} \end{align*}
Solution.
Voici la preuve justifiée:
\begin{align*} r\vec{0}&=\vec{0}+r\vec{0}&\text{selon }\knowl{./knowl/xref/li-espacevectoriel4.html}{\text{5.4.2:4}}\\ &=(-(r\vec{0})+r\vec{0})+r\vec{0}&\text{selon }\knowl{./knowl/xref/li-espacevectoriel5.html}{\text{5.4.2:5}}\\ &=-(r\vec{0})+(r\vec{0}+r\vec{0})&\text{selon }\knowl{./knowl/xref/li-espacevectoriel3.html}{\text{5.4.2:3}}\\ &=-(r\vec{0})+r(\vec{0}+\vec{0})&\text{selon }\knowl{./knowl/xref/li-espacevectoriel8.html}{\text{5.4.2:8}}\\ &=-(r\vec{0})+r\vec{0}&\text{selon }\knowl{./knowl/xref/li-espacevectoriel4.html}{\text{5.4.2:4}}\\ &=\vec{0}&\text{selon }\knowl{./knowl/xref/li-espacevectoriel5.html}{\text{5.4.2:5}}\text{.} \end{align*}

12.

Voici une preuve alternative de la propriété 5.4.7:3 s’inspirant de l’exercice précédent. Compléter et justifier chacune des étapes.
\begin{align*} 0\vec{u}&=\vec{0}+0\vec{u}\\ &=\underline{\phantom{(-(0\vec{u})+0\vec{u})}}+0\vec{u}\\ &=\underline{\phantom{(-(0\vec{u})+0\vec{u})}+0\vec{u}}\\ &=\underline{\phantom{(-(0\vec{u})+0\vec{u})}+0\vec{u}}\\ &=-(0\vec{u})+0\vec{u}\\ &=\vec{0}\text{.} \end{align*}
Solution.
Voici la preuve complétée et justifiée:
\begin{align*} 0\vec{u}&=\vec{0}+0\vec{u}&\text{selon }\knowl{./knowl/xref/li-espacevectoriel4.html}{\text{5.4.2:4}} \\ &=(-(0\vec{u})+0\vec{u})+0\vec{u}&\text{selon }\knowl{./knowl/xref/li-espacevectoriel5.html}{\text{5.4.2:5}}\\ &=-(0\vec{u})+(0\vec{u}+0\vec{u})&\text{selon }\knowl{./knowl/xref/li-espacevectoriel3.html}{\text{5.4.2:3}}\\ &=-(0\vec{u})+(0+0)\vec{u}&\text{selon }\knowl{./knowl/xref/li-espacevectoriel9.html}{\text{5.4.2:9}}\\ &=-(0\vec{u})+0\vec{u}&\text{puisque } 0+0=0\\ &=\vec{0}&\text{selon }\knowl{./knowl/xref/li-espacevectoriel5.html}{\text{5.4.2:5}}\text{.} \end{align*}

13.

À l’exemple 5.4.17, on a montré que l’ensemble des nombres réels muni des opérations spéciales
\begin{equation*} x\oplus y=\frac{x+y}{1+xy} \end{equation*}
et
\begin{equation*} r\otimes x=\frac{(1+x)^r-(1-x)^r}{(1+x)^r+(1-x)^r} \end{equation*}
était un espace vectoriel, mais certaines propriétés n’ont pas été démontrées dans l’exemple.
(a)
Montrer que \(x\oplus (y\oplus z)=(x\oplus y)\oplus z\text{.}\)
Solution.
On a
\begin{align*} (x\oplus y)\oplus z&=\frac{x+y}{1+xy}\oplus z\\ &=\frac{\frac{x+y}{1+xy}+z}{1+\frac{x+y}{1+xy}z}\\ &=\frac{\frac{x+y}{1+xy}+z}{1+\frac{x+y}{1+xy}z}\frac{1+xy}{1+xy}\\ &=\frac{x+y+(1+xy)z}{1+xy+(x+y)z}\\ &=\frac{x+y+z+xyz}{1+xy+xz+yz}\\ &=\frac{\left(x+\frac{y+z}{1+yz}\right)(1+yz)}{1+yz+x(y+z)}\\ &=\frac{\left(x+\frac{y+z}{1+yz}\right)(1+yz)}{\left(1+x\frac{y+z}{1+yz}\right)(1+yz)}\\ &=x\oplus \frac{y+z}{1+yz}\\ &=x\oplus (y\oplus z) \end{align*}
(b)
Montrer que, pour chaque \(x\in V\text{,}\) il existe un nombre \(-x\) tel que \(x\oplus (-x)=0\text{.}\)
Solution.
Si l’on prend \(\overrightarrow{-x}=-x\text{,}\) on a
\begin{equation*} x\oplus (-x)=\frac{x+(-x)}{1+x(-x)}=0\text{.} \end{equation*}
(c)
Montrer que \(r\otimes x\in V\text{.}\)
Solution.
Puisque \(x< 1\text{,}\) on a \((1-x)^r >0\text{.}\) Ainsi
\begin{align*} 0&<(1-x)^r\\ 0&<2(1-x)^r+(1+x)^r-(1+x)^r\\ (1+x)^r-(1-x)^r&<(1+x)^r+(1-x)^r\\ \frac{(1+x)^r-(1-x)^r}{(1+x)^r+(1-x)^r}&< 1\\ r\otimes x&< 1\text{.} \end{align*}
De même, \((1+x)^r>0\) et donc
\begin{align*} 0&<(1+x)^r\\ 0&<2(1+x)^r+(1-x)^r-(1-x)^r\\ -(1+x)^r+(1-x)^r&<(1+x)^r+(1-x)^r\\ \frac{-(1+x)^r+(1-x)^r}{(1+x)^r+(1-x)^r}&< 1\\ -\frac{(1+x)^r-(1-x)^r}{(1+x)^r+(1-x)^r}&< 1\\ -r\otimes x&< 1\\ r\otimes x&> -1\text{.} \end{align*}
Ceci signifie que \(r\otimes x\in V\text{.}\)
(d)
Montrer que \((r+s)\otimes x=r\otimes x\oplus s\otimes x\text{.}\)
Solution.
On voit que
\begin{equation*} (r+s)\otimes x=\frac{(1+x)^r(1+x)^s-(1-x)^r(1-x)^s}{(1+x)^r(1-x)^s+(1-x)^r(1-x)^s}\text{.} \end{equation*}
On pose \(A=(1+x)^r+(1-x)^r, B=(1+x)^s+(1-x)^s,C=(1+x)^r-(1-x)^r\) et \(D=(1+x)^s-(1-x)^s\text{.}\) Pour l’autre côté, on a
\begin{align*} r\otimes x\oplus s\otimes x&=\frac{(1+x)^r-(1-x)^r}{(1+x)^r+(1-x)^r}\oplus \frac{(1+x)^s-(1-x)^s}{(1+x)^s+(1-x)^s}\\ &=\frac{\frac{(1+x)^r-(1-x)^r}{(1+x)^r+(1-x)^r}+\frac{(1+x)^s-(1-x)^s}{(1+x)^s+(1-x)^s}}{1+\frac{(1+x)^r-(1-x)^r}{(1+x)^r+(1-x)^r}\frac{(1+x)^s-(1-x)^s}{(1+x)^s+(1-x)^s}}\\ &=\frac{\frac{BC+AD}{AB}}{1+\frac{CD}{AB}}\\ &=\frac{BC+AD}{AB+CD}\text{.} \end{align*}
Puisque
\begin{align*} BC&=((1+x)^s+(1-x)^s)((1+x)^r-(1-x)^r)\\ &=\left( 1+x \right) ^{s} \left( 1+x \right) ^{r}- \left( 1+x \right) ^ {s} \left( 1-x \right) ^{r}+ \left( 1-x \right) ^{s} \left( 1+x \right) ^{r}- \left( 1-x \right) ^{s} \left( 1-x \right) ^{r}\\ \end{align*}

et

\begin{align*} AD&=((1+x)^r+(1-x)^r)((1+x)^s-(1-x)^s)\\ &=\left( 1+x \right) ^{s} \left( 1+x \right) ^{r}- \left( 1-x \right) ^ {s} \left( 1+x \right) ^{r}+ \left( 1+x \right) ^{s} \left( 1-x \right) ^{r}- \left( 1-x \right) ^{s} \left( 1-x \right) ^{r}\\ \end{align*}

on a

\begin{align*} BC+AD&=2(\, \left( 1+x \right) ^{s} \left( 1+x \right) ^{r}-\, \left( 1-x \right) ^{s} \left( 1-x \right) ^{r})\text{.} \end{align*}
D’une manière similaire, on trouve
\begin{equation*} AB+CD=2(\left( 1+x \right) ^{s} \left( 1+x \right) ^{r}+ \left( 1-x \right) ^{s} \left( 1-x \right) ^{r}) \end{equation*}
et donc
\begin{equation*} rx\oplus sy=\frac{\left( 1+x \right) ^{s} \left( 1+x \right) ^{r}-\, \left( 1-x \right) ^{s} \left( 1-x \right) ^{r}}{\left( 1+x \right) ^{s} \left( 1+x \right) ^{r}+ \left( 1-x \right) ^{s} \left( 1-x \right) ^{r}}\text{.} \end{equation*}
La propriété est donc respectée.
(e)
Est-ce que l’ensemble \(W=\left]-\frac{1}{2},\frac{1}{2}\right[\) est un sous-espace vectoriel de \(V\text{?}\)
Indice.
Non. Essayer de trouver deux nombres dont la somme sort de l’intervalle.
Solution.
Si l’on prend \(x=\frac{1}{3}\) et \(y=\frac{1}{3}\text{,}\) alors
\begin{align*} x\oplus y&=\frac{\frac{1}{3}+\frac{1}{3}}{1+\frac{1}{3}\frac{1}{3}}\\ &=\frac{\frac{2}{3}}{1+\frac{1}{9}}\\ &=\frac{\frac{2}{3}}{\frac{10}{9}}\\ &=\frac{3}{5}\\ &\geq \frac{1}{2}\text{.} \end{align*}
Donc, ce n’est pas fermé sous l’addition.
Comment en vient-on à trouver ces nombres? On peut y aller de manière méthodique avec l’addition. Par exemple, si l’on veut que la somme \(x\oplus y\) soit inférieure à \(\frac{1}{2}\text{,}\) alors on cherche des conditions sur \(x,y\) pour que ce soit valide.
\begin{align*} x\oplus y&\leq \frac{1}{2}& \Leftrightarrow\\ \frac{x+y}{1+xy}&\leq \frac{1}{2}& \Leftrightarrow\\ 2x+2y&\leq 1+xy &\Leftrightarrow \\ x(2-y)&\leq 1-2y &\Leftrightarrow \\ x&\leq \frac{1-2y}{2-y}\text{.} \end{align*}
La fonction \(\frac{1-2y}{2-y}\) est décroissante et tend vers \(0\) lorsque \(y\) tend vers \(1/2\text{.}\)
Un graphique illustrant la fonction un moins deux y sur deux moins y. On voit que la fonction est décroissante et tend vers zéro lorsque y s’approche de une demie.
Figure 5.4.18. La fonction \(\frac{1-2y}{2-y}\)
On prend donc une valeur arbitraire de \(y\text{,}\) par exemple \(\frac{1}{3}\text{.}\) L’équation ci-haut force alors \(x\) à être inférieur à \(\frac{1-2\frac{1}{3}}{2-\frac{1}{3}}=\frac{1}{5}\text{.}\) On sait toutefois que dans \(W\text{,}\) le nombre \(x\) peut aller jusqu’à \(\frac{1}{2}\text{.}\) En prenant quelque chose de plus grand que \(\frac{1}{5}\text{,}\) mais toujours sous \(\frac{1}{2}\text{,}\) la somme sortira de \(W\text{.}\)

Le produit scalaire.

Dans cette partie, on cherche à généraliser la notion de produit scalaire à différents espaces. Dans le chapitre 1, le produit scalaire est apparu naturellement comme une opération algébrique dans le contexte du calcul d’angle. On a par la suite généralisé aux espaces \(\mathbb{R}^n\text{.}\) Dans le contexte des espaces algébriques quelconques, il faut réfléchir à ce que représente le produit scalaire afin de le définir, un peu comme on a défini le déterminant au chapitre 4.
Il s’avère que les propriétés de la proposition 1.2.6 sont suffisantes pour généraliser, avec une légère adaptation de la dernière.
Le produit scalaire
Soit \(V\text{,}\) un espace vectoriel sur les réels. On dit que \(V\) a un produit scalaire si pour chaque paire \(\vec{u},\vec{v}\in V\) il existe un nombre réel noté \(\langle \vec{u}~|~\vec{v}\rangle\text{,}\) appelé le produit scalaire, tel que
  1. \(\langle \vec{u}~|~\vec{v}\rangle=\langle \vec{v}~|~\vec{u}\rangle\text{;}\)
  2. \(\langle r\vec{u}~|~\vec{v}\rangle=r\langle \vec{u}~|~\vec{v}\rangle\text{;}\)
  3. \(\langle \vec{u}+\vec{v}~|~\vec{w}\rangle=\langle \vec{u}~|~\vec{w}\rangle+\langle \vec{v}~|~\vec{w}\rangle\text{;}\)
  4. \(\langle \vec{u}~|~\vec{u}\rangle\geq 0\) avec \(\langle \vec{u}~|~\vec{u}\rangle=0\) seulement lorsque \(\vec{u}=\vec{0}\text{.}\)
La quatrième propriété permet de définir la norme dans ce contexte, en ayant \(||\vec{u}||^2=\langle \vec{u}~|~\vec{u}\rangle\text{.}\)
14.
Soit \(\mathcal{P}_2\text{,}\) l’espace des polynômes de degré inférieur ou égal à \(2\) et \(x_0,x_1,x_2\in \mathbb{R}\text{,}\) des points distincts. Soit \(p(x),q(x)\text{,}\) des polynômes. On définit un produit scalaire sur \(\mathcal{P}(x)\) de la manière suivante:
\begin{equation*} \langle p(x)~|~q(x)\rangle=p(t_0)q(t_0)+p(t_1)q(t_1)+p(t_2)q(t_2)\text{.} \end{equation*}
Montrer que ceci définit bel et bien un produit scalaire.
Solution.
On prend trois polynômes quelconques \(p,q,r\) et un scalaire \(c\in\mathbb{R}\text{.}\) Il faut vérifier chacune des quatre propriétés. Pour la première, cela découle directement de la commutativité de la multiplication.
\begin{equation*} \langle p(x)~|~q(x)\rangle=p(t_0)q(t_0)+p(t_1)q(t_1)+p(t_2)q(t_2)=q(t_0)p(t_0)+q(t_1)p(t_1)+q(t_2)p(t_2)=\langle q(x)~|~p(x)\rangle\text{.} \end{equation*}
De manière similaire, la deuxième propriété découle des propriétés de l’addition et de la multiplication:
\begin{equation*} \langle rp(x)~|~q(x)\rangle=rp(t_0)q(t_0)+rp(t_1)q(t_1)+rp(t_2)q(t_2)=r(p(t_0)q(t_0)+p(t_1)q(t_1)+p(t_2)q(t_2))=r\langle rp(x)~|~q(x)\rangle \end{equation*}
alors que la propriété trois est similaire elle aussi
\begin{align*} \langle p(x)+q(x)~|~r(x)\rangle&=(p(t_0)+q(t_0))r(t_0)+(p(t_1)+q(t_1))r(t_1)+(p(t_2)+q(t_2))r(t_2)\\ &=p(t_0)r(t_0)+p(t_0)r(t_0)+p(t_1)r(t_1)+p(t_1)r(t_1)+p(t_2)r(t_2)+p(t_2)r(t_2)\\ &=\langle p(x)~|~r(x)\rangle+\langle q(x)~|~r(x)\rangle\text{.} \end{align*}
La dernière propriété est celle qui demande un peu plus de réflexion. La première partie est relativement simple, si
\begin{equation*} \langle p(x)~|~p(x)\rangle=p(t_0)p(t_0)+p(t_1)p(t_1)+p(t_2)p(t_2)=p(t_0)^2+p(t_1)^2+p(t_2)^2\geq 0\text{.} \end{equation*}
Si \(p(t_0)^2+p(t_1)^2+p(t_2)^2= 0\text{,}\) alors \(p(t_0)=p(t_1)=p(t_2)=0\text{.}\) Comme \(p(x)\) est un polynôme de degré \(2\) ou moins, il ne peut avoir plus de deux zéros. Les points \(t_0,t_1\) et \(t_2\) étant distincts, il s’ensuit que le seul polynôme pour lequel \(\langle p(x)~|~p(x)\rangle=0\) est possible est \(p(x)=0\text{.}\)
15.
Soit \(\mathcal{C}^0([a,b])\text{,}\) l’ensemble des fonctions continues sur \([a,b]\text{.}\) Soit \(f(x),g(x)\in\mathcal{C}^0([a,b])\text{.}\) On considère le produit scalaire définit par
\begin{equation*} \langle f(x)~|~g(x)\rangle=\int_a^b f(x)g(x)dx\text{.} \end{equation*}
Montrer que ceci définit bel et bien un produit scalaire.
Solution.
Les trois premières propriétés découlent aussi des propriétés de l’addition, de la multiplication et également des propriétés de l’intégrale:
\begin{align*} \langle f(x)~|~g(x)\rangle&=\int_a^b f(x)g(x)dx&&=\int_a^b g(x)f(x)dx&&=\langle g(x)~|~f(x)\rangle\\ \langle rf(x)~|~g(x)\rangle&=\int_a^b rf(x)g(x)dx&&=r\int_a^b f(x)g(x)dx&&=r\langle g(x)~|~f(x)\rangle\\ \langle f(x)+g(x)~|~h(x)\rangle&=\int_a^b (f(x)+g(x))h(x)dx&&=\int_a^b f(x)h(x)dx+\int_a^b g(x)h(x)dx&&=\langle f(x)~|~h(x)\rangle+\langle g(x)~|~h(x)\rangle \end{align*}
Pour la dernière propriété, il découle aussi des propriétés de l’intégrale (ou de l’interprétation en ce qui concerne l’aire sous la courbe) que \(\int_a^b f(x)f(x)dx=\int_a^b f(x)^2dx\geq 0\text{.}\) De même, si \(\int_a^b f(x)^2dx=0\text{,}\) puisque la fonction est continue, on doit avoir que \(f(x)=0\text{,}\) sinon il y aurait aire sous la courbe.
16. La trace d’une matrice.
On définit la trace d’une matrice carrée, notée \(\text{tr}(A)\) comme la somme des éléments sur sa diagonale principale:
\begin{equation*} \text{tr}(A)=a_{1\,1}+a_{2\, 2}+\cdots +a_{n\, n}\text{.} \end{equation*}
(a)
Montrer que \(\text{tr}(A+B)=\text{tr}(A)+\text{tr}(B)\text{.}\)
Solution.
Puisque l’addition de matrice se fait entrée par entrée, il s’ensuit que la diagonale de \(A+B\) est formée des valeurs \(a_{i\,i}+b_{i\,i}\text{.}\) La trace est donc
\begin{align*} \text{tr}(A+B)&=a_{1\,1}+b_{1\,1}+a_{2\,2}+b_{2\,2}+\cdots +a_{n\,n}+b_{n\,n}\\ &=a_{1\,1}+a_{2\,2}+\cdots +a_{n\,n}+b_{1\,1}+b_{2\,2}+\cdots +b_{n\,n}\\ &\text{tr}(A)+\text{tr}(B)\text{.} \end{align*}
(b)
Montrer que \(\text{tr}(cA)=c \text{tr}(A)\text{.}\)
Solution.
De même, la multiplication par un scalaire se fait aussi en multipliant chaque entrée par le scalaire. Il s’ensuit que la diagonale est composée des valeurs \(ca_{i\,i}\text{.}\) On a donc
\begin{equation*} \text{tr}(cA)=ca_{1\,1}+ca_{2\,2}+\cdots +ca_{n\,n}=c(a_{1\,1}+a_{2\, 2}+\cdots +a_{n\, n})=c \text{tr}(A) \end{equation*}
(c)
Montrer que \(\text{tr}(A^T)=\text{tr}(A)\text{.}\)
Solution.
Comme les entrées sur la diagonale principale ne changent pas lors du passage à la transposée, la trace est la même.
(d)
Montrer que \(\text{tr}(AB)=\text{tr}(BA)\text{.}\)
Indice.
Montrer qu’un élément sur la diagonale de \(AB\) est de la forme
\begin{equation*} c_{i}=a_{i\,1}b_{1,i}+a_{i\,2}b_{2,i}+\cdots +a_{i\,n}b_{n,i} \end{equation*}
et qu’un élément sur la diagonale de \(BA\) est de la forme
\begin{equation*} d_{i}=a_{1,i}b_{i\,1}+a_{2,i}b_{i\,2}+\cdots +a_{n,i}b_{i\,n}\text{.} \end{equation*}
Solution.
Les entrées sur la diagonale de la matrice \(C=AB\) s’obtiennent en effectuant le produit scalaire de la ligne \(i\) de \(A\) avec la colonne \(i\) de \(B\text{.}\) Donc, pour l’entrée en position \(i\) du produit, on a
\begin{equation*} c_{i}=a_{i\,1}b_{1\,i}+a_{i\,2}b_{2\,i}+\cdots +a_{i\,n}b_{n\,i}\text{.} \end{equation*}
La trace est donnée par la somme des \(c_i\text{.}\) En écrivant chaque entrée sur une ligne, la trace est donnée par la somme de tous les produits \(a_{i,j}b_{j,i}\) ci-dessous:
\begin{alignat*}{4} c_{1}&=a_{1\,1}b_{1,1}&&+a_{1\,2}b_{2,1}&&+\cdots &&+a_{1\,n}b_{n,1}\\ c_{2}&=a_{2\,1}b_{1,2}&&+a_{2\,2}b_{2,2}&&+\cdots &&+a_{2\,n}b_{n,2}\\ \vdots&=\phantom{a_22}\vdots&&+\phantom{a_22}\vdots&&+\ddots&&+\phantom{a_22}\vdots\\ c_{n}&=a_{n\,1}b_{1,i}&&+a_{n\,2}b_{2,n}&&+\cdots &&+a_{n\,n}b_{n,n}\text{.} \end{alignat*}
Pour la matrice \(D=BA\text{,}\) on a plutôt
\begin{equation*} d_{i}=b_{i\,1}a_{1\,i}+b_{i\,2}a_{2\,i}+\cdots +b_{i\,n}a_{n\,i}=a_{1\,i}b_{i\,1}+a_{2\,i}b_{i\,2}+\cdots +a_{n\,i}b_{i\,n}\text{.} \end{equation*}
La trace est la somme de ces valeurs. Dans la liste de tous les \(c_i\text{,}\) cela correspond à faire la somme sur les colonnes en premier plutôt que sur les lignes. Par exemple \(d_1\) se retrouve dans le tableau des \(c_i\) dans la première colonne. Comme l’addition est commutative, faire la somme sur de toutes les lignes ou faire la somme de toutes les colonnes revient à la même chose. On a alors \(\text{tr}(AB)=\text{tr}(BA)\text{.}\)
(e)
On définit sur l’espace des matrices \(\mathcal{M}_{n\times n}\) le produit scalaire suivant:
\begin{equation*} \langle A~ |~ B\rangle=\text{tr}(A^TB) \end{equation*}
(i)
Montrer que le produit scalaire en est bel et bien un en vérifiant les quatre propriétés.
Solution.
Dans un premier temps, on veut montrer que \(\langle A~ |~ B\rangle=\langle B~ |~ A\rangle\text{,}\) c’est-à-dire que \(\text{tr}(A^TB)=\text{tr}(B^TA).\) Puisque \((A^TB)^T=B^TA\text{,}\) il s’ensuit de l’exercice 5.4.3.16.c que ce produit scalaire est commutatif.
Il découle des propriétés de la multiplication matricielle que \(\langle rA~ |~ B\rangle=\langle A~ |~ rB\rangle=r\langle A~ |~ B\rangle\) puisque
\begin{align*} \langle rA~ |~ B\rangle&=\text{tr}((rA)^TB)\\ &=\text{tr}(rA^TB)& \text{selon la deuxième propriété de la proposition } \knowl{./knowl/xref/prop-transposeeprop.html}{\text{3.4.3}}\\ &=\text{tr}(A^TrB)& \text{selon la troisième propriété de la proposition } \knowl{./knowl/xref/prop-prodmatprop.html}{\text{2.2.12}}\\ &=\langle A~ |~ rB\rangle\\ &=\text{tr}(A^TrB)\\ &=r(A^TB)&\text{selon la troisième propriété de la proposition } \knowl{./knowl/xref/prop-prodmatprop.html}{\text{2.2.12}}\\ &=r\langle A~ |~ B\rangle\text{.} \end{align*}
Selon les propriétés de l’addition matricielle, de la transposée et de la trace, on a
\begin{align*} \langle A+B~ |~ C\rangle&=\text{tr}((A+B)^TC)\\ &=\text{tr}((A^T+B^T)C) &\text{ selon la troisième propriété de la proposition} \knowl{./knowl/xref/prop-transposeeprop.html}{\text{3.4.3}}\\ &=\text{tr}(A^TC+B^TC)& \text{ selon la deuxième propriété de la proposition}\knowl{./knowl/xref/prop-prodmatprop.html}{\text{2.2.12}} \\ &=\text{tr}(A^TC)+\text{tr}(B^TC) &\text{ selon l'exercice} \knowl{./knowl/xref/exo-tracesomme.html}{\text{5.4.3.16.a}}\\ &=\langle A~ |~ C\rangle+\langle B~ |~ C\rangle\text{.} \end{align*}
Finalement, pour montrer que \(\langle A~ |~ A\rangle\geq 0\text{,}\) on remarque que l’entrée sur la diagonale en position \(i\) de \(A^TA\) correspond à
\begin{equation*} c_{i}=a_{i\,1}a_{i\,1}+a_{i\,2}a_{i\,2}+\cdots +a_{i\,n}a_{i,n}=a_{i\,1}^2+a_{i\,2}^2+\cdots +a_{i\,n}^2\text{,} \end{equation*}
puisque les colonnes de \(A\) sont les lignes de \(A^T\text{.}\) Il s’ensuit donc que, pour que la somme soit nulle, tous les \(a_{i\,j}\) doivent aussi être nuls et donc, \(A=O\text{.}\)
(ii)
Montrer que, si \(A\) est une matrice symétrique et si \(B\) est une matrice antisymétrique (\(B^T=-B)\text{,}\) alors
\begin{equation*} \langle A~ |~ B\rangle=0\text{.} \end{equation*}
Solution.
Selon les propriétés de la trace et de la transposée, on a
\begin{align*} \langle A~ |~ B\rangle&=\text{tr}(A^TB)\\ &=\text{tr}(AB)&\text{ car } A \text{ est symétrique}\\ &=\text{tr}(B^TA^T) &\text{car la trace d'une matrice est égale à la trace de sa transposée et} (AB)^T=B^TA^T\\ &=\text{tr}((-B)A &\text{car} A \text{ est symétrique et } B \text{est antisymétrique}\\ &=-\text{tr}(BA)&\text{selon l'exercice} \knowl{./knowl/xref/exo-traceconstante.html}{\text{5.4.3.16.b}}\\ &-\langle B ~ |~ A\rangle\\ &-\langle B~| ~\rangle &\text{commutativité du produit scalaire}\text{.} \end{align*}
Comme le seul nombre pour lequel \(\langle A~ |~ B\rangle=-\langle A~ |~ B\rangle\) est zéro, le résultat suit.
Avec la notion de produit scalaire, on peut définir le concept d’angle dans un espace vectoriel quelconque, plus principalement la notion d’orthogonalité. Ainsi, les fonctions \(\sin(x)\) et \(\cos(x)\) sont orthogonales sous le produit scalaire défini par l’intégrale en prenant \([a,b]=[0,2\pi]\text{,}\) puisque \(\int_0^{2\pi}\sin(x)\cos(x)dx=0\text{.}\) Ceci est une propriété importante dans l’espace \(C^{\infty}\) qui permet de créer une base à partir des fonctions trigonométriques. Cela mène ensuite aux séries de Fourier. Les matrices symétriques et antisymétriques sont aussi orthogonales sous le produit scalaire défini à l’aide de la trace.