Sauter au contenu
Logo image

Algèbre linéaire: Intuition et rigueur

Section 4.2 Le déterminant d’une matrice \(n\times n\)

Aller aux exercices 4.2.3 de la section.
Dans \(\R^3\text{,}\) on peut s’intéresser au facteur de changement de volume et ensuite tenter de généraliser la notion de déterminant. Dans \(\R^n\text{,}\) la géométrie est plus difficile à imaginer. Pour ce qui est du signe du déterminant, on peut donner un sens à l’orientation dans \(\R^3\text{,}\) comme on le verra, mais c’est aussi plus difficile dans \(\R^n\text{.}\) On utilise donc les propriétés de la section précédente pour définir la notion de déterminant pour les espaces plus généraux.
Dans cette section, on généralise les idées de la section précédente, d’abord en considérant la géométrie dans \(\R^3\text{,}\) puis en donnant les résultats plus généraux pour une matrice \(n\times n\text{.}\) On introduit la notion de déterminant d’une matrice \(n\times n\) et ses propriétés.

Sous-section 4.2.1 L’espace à trois dimensions

Dans l’espace \(\R^3\text{,}\) une transformation linéaire envoie le cube unité vers l’équivalent tridimensionnel du parallélogramme, appelé le parallélépipède.
Tout comme dans \(\R^2\text{,}\) il arrive que le solide transformé ne soit en fait plus un solide, mais un plan ou aussi une droite. Dans ces cas-là, on dira que le volume est nul.
On regarde le facteur de changement de volume de certaines transformations connues de \(\R^3\text{.}\)

Exemple 4.2.1. Le facteur de changement de volume: dynamique.

On considère les transformations suivantes dans \(\R^3\) et l’on cherche à calculer le facteur de changement de volume.
\begin{align*} A &=\begin{pmatrix}3&0&0\\0&2&0\\0&0&-4\end{pmatrix}\\ R_{\theta_z} &=\begin{pmatrix} \cos(\theta) & -\sin(\theta) & 0 \\ \sin(\theta) & \cos(\theta) & 0 \\ 0 & 0 & 1\end{pmatrix}\\ S_{yOz}&=\begin{pmatrix} -1& 0& 0\\ 0& 1 & 0 \\ 0& 0& 1 \end{pmatrix} \end{align*}
On peut visualiser l’effet des trois transformations à l’aide de la figure interactive suivante.
Instructions.
Instruction pour la figure interactive: Un clic sur l’un des trois boutons montrera l’effet de la transformation associée sur le cube unité.
Figure 4.2.2. Le facteur de changement de volume
Solution.
La matrice \(A\) est celle de l’exemple 2.4.1 et représente un étirement simultané dans les directions \(x,y\) et \(z\) de facteur \(3,2\) et \(-4\text{,}\) respectivement. Géométriquement, le cube unité voit l’une de ses longueurs multipliée par \(3\text{,}\) l’autre par \(2\) et la dernière par \(-4\text{.}\) Il semble donc logique que le volume du parallélépipède obtenu sera de \(3*2*4=24\) unités cubiques. De plus, l’intuition de la section 4.1 laisse entrevoir que le facteur \(-4\) entrainera probablement un changement dans l’orientation, ce qui devrait faire du déterminant de cette matrice \(-24\text{.}\)
La seconde matrice est une matrice de rotation, dont le mouvement s’effectue plus précisément autour de l’axe des \(z\text{,}\) telle qu’elle est définie à l’exemple 2.4.2. Puisqu’une rotation ne change pas le volume, le facteur de changement de volume ici est de \(1\text{.}\)
La matrice \(S_{y0z}\) est une matrice de réflexion autour du plan \(x=0\text{,}\) définie à l’exemple 2.4.4. Une réflexion ne changeant pas le volume, le facteur de changement de volume est \(1\text{.}\) L’exercice 4.1.4.14 laisse toutefois présager un possible changement d’orientation, si la situation dans \(\R^2\) se répète aussi dans \(\R^3\text{.}\)
On ajoute qu’à partir du facteur de changement de volume, correspondant au volume du parallélépipède, on peut aussi calculer le volume de certains solides dans l’espace. La figure interactive 4.2.3 illustre les situations ci-dessous.
  • Un prisme à base triangulaire peut être vu comme la moitié d’un parallélépipède. Ainsi, son volume sera la moitié du facteur de changement de volume associé au parallélépipède.
  • À partir d’un tel prisme, on peut déconstruire en coupant selon un plan pour obtenir un tétraèdre et une pyramide avec comme base un parallélogramme. Cette pyramide se décompose à son tour en deux tétraèdres dont le volume est égal au premier trouvé. On constate alors que le volume de la pyramide est égal au \(2/3\) du prisme, soit le \(1/3\) du parallélépipède.
  • Les tétraèdres, quant à eux, valent le \(1/3\) du prisme, leur volume est donc égal à \(1/6\) de celui du parallélépipède.

Instructions.

Instruction pour la figure interactive: Un parallélogramme est illustré et modifiable à l’aide des trois vecteurs en bleu. Un clic sur le premier bouton décompose ce parallélogramme d’abord en deux prismes. Un clic sur le second bouton rendu disponible permet de décomposer l’un des prismes en pyramide et en tétraèdre. Enfin, un troisième bouton décompose la pyramide en deux tétraèdres.
Figure 4.2.3. Décomposition d’un parallélogramme
On regarde finalement ce que la notion d’orientation signifie dans \(\R^3\text{.}\) On pourra alors donner la définition dans \(\R^3\) du déterminant.

Définition 4.2.4. L’orientation dans \(\R^3\).

Soit \(\vec{u},\vec{v},\vec{w}\in\R^3\text{,}\) des vecteurs non nuls, non parallèles et qui ne sont pas tous dans le même plan. On note \(\mathcal{B}=\langle \vec{u},\vec{v},\vec{w}\rangle\text{,}\) le repère formé dans l’ordre des vecteurs \(\vec{u},\vec{v}\) et \(\vec{w}\text{.}\) On dit que \(\mathcal{B}\) est orienté positivement si le repère \(\mathcal{B}\) satisfait à la règle de la main droite:
  1. On se place dans le plan engendré par les vecteurs \(\vec{u}\) et \(\vec{v}\text{,}\) de sorte que ceux-ci soient orientés positivement si l’on les voit comme des vecteurs de \(\R^2\text{.}\)
  2. On place sa main droite sur le vecteur \(\vec{u}\) de sorte que la paume soit orientée vers le vecteur \(\vec{v}\) et que les doigts pointent vers \(\vec{u}\text{.}\)
  3. Si le vecteur \(\vec{w}\) et le pouce «pointent» vers la même direction, alors l’orientation est positive. Sinon, elle est négative.
L’orientation d’un repère peut être visualisée dans la figure interactive 4.2.5.
Instructions.
Instruction pour la figure interactive: Trois vecteurs \(\vec{u},\vec{v}\) et \(\vec{w}\) sont affichés dans \(\R^3\) et l’on s’intéresse à l’orientation du repère \(\mathcal{B}=\langle \vec{u},\vec{v},\vec{w}\rangle\text{.}\) Déplacer les vecteurs pour avoir une configuration souhaitée et cliquer sur les boutons « Afficher le plan engendré par les vecteurs \(\vec{u},\vec{v}\) » et « Aller dans le plan engendré par les vecteurs \(\vec{u},\vec{v}\) » pour afficher le plan et se positionner dans le point de vue où le repère \(\mathcal{B}_{\vec{u},\vec{v}}=\langle\vec{u},\vec{v}\rangle\) est orienté positivement.
Une fois le plan affiché et l’orientation positionnée, un clic sur « L’orientation est » fait apparaitre l’orientation du repère des trois vecteurs. À noter que le vecteur apparait en pointillé si l’orientation est négative.
Figure 4.2.5. L’orientation et la règle de la main droite
On regarde quelques exemples d’orientation. L’orientation combinée au facteur de changement de volume donnera le déterminant. On préfèrera toutefois la définition axiomatique de la prochaine sous-section, puisque pour \(\R^n\text{,}\) on va définir l’orientation selon le signe du déterminant.

Exemple 4.2.6. L’orientation de certains repères : dynamique.

On considère les vecteurs des figures 4.2.7–4.2.9. On veut déterminer l’orientation des repères
  • \(\mathcal{B}_1=\langle\vec{u},\vec{v},\vec{w} \rangle\text{;}\)
  • \(\mathcal{B}_2=\langle\vec{v},\vec{u},\vec{w} \rangle\text{;}\)
  • \(\mathcal{B}_3=\langle\vec{v},\vec{w},\vec{u} \rangle\text{.}\)
Instructions.
Instruction pour la figure interactive: Trois vecteurs \(\vec{u},\vec{v}\) et \(\vec{w}\) sont affichés dans \(\R^3\) et l’on s’intéresse à l’orientation des repères \(\mathcal{B}_1,\mathcal{B_2}\) et \(\mathcal{B}_3\text{.}\) Un clic sur le bouton « Afficher le plan engendré par les vecteurs \(\vec{u},\vec{v}\) » permet d’afficher le plan engendré par \(\vec{u},\vec{v}\) pour se repérer dans l’espace.
Figure 4.2.7. Premier ensemble de vecteurs
Instructions.
Instruction pour la figure interactive: Trois vecteurs \(\vec{u},\vec{v}\) et \(\vec{w}\) sont affichés dans \(\R^3\) et l’on s’intéresse à l’orientation des repères \(\mathcal{B}_1,\mathcal{B_2}\) et \(\mathcal{B}_3\text{.}\) Un clic sur le bouton « Afficher le plan engendré par les vecteurs \(\vec{u},\vec{v}\) » permet d’afficher le plan engendré par \(\vec{u},\vec{v}\) pour se repérer dans l’espace.
Figure 4.2.8. Deuxième ensemble de vecteurs
Instructions.
Instruction pour la figure interactive: Trois vecteurs \(\vec{u},\vec{v}\) et \(\vec{w}\) sont affichés dans \(\R^3\) et l’on s’intéresse à l’orientation des repères \(\mathcal{B}_1,\mathcal{B_2}\) et \(\mathcal{B}_3\text{.}\) Un clic sur le bouton « Afficher le plan engendré par les vecteurs \(\vec{u},\vec{v}\) » permet d’afficher le plan engendré par \(\vec{u},\vec{v}\) pour se repérer dans l’espace.
Figure 4.2.9. Troisième ensemble de vecteurs
Solution 1.
Pour les vecteurs de la figure 4.2.7, on constate que \(\mathcal{B}_1\) est orienté positivement. Intuitivement, si l’on renverse l’ordre de \(\vec{u}\) et \(\vec{v}\text{,}\) on s’attend à ce que l’orientation change de signe si l’on se fie aux observations faites dans la section 4.1. C’est en effet ce que l’on remarque si l’on manipule la figure pour voir le plan engendré par \(\vec{u},\vec{v}\) avec le repère \(\langle\vec{v},\vec{u}\rangle\) orienté positivement. On voit alors le vecteur \(\vec{w}\) rentrer « dans» l’écran.
Pour le repère \(\mathcal{B}_3\text{,}\) on peut essayer de visualiser le plan engendré par les vecteurs \(\vec{v},\vec{w}\) dans la bonne orientation. On constate alors que \(\mathcal{B}_3\) est orienté positivement. On pourrait aussi partir de \(\mathcal{B}_2\) et voir que, pour avoir \(\mathcal{B}_3\text{,}\) on a échangé la position des vecteurs \(\vec{u}\) et \(\vec{w}\) dans le repère. Selon ce que l’on connait de l’orientation, celle de \(\mathcal{B}_3\) et celle \(\mathcal{B}_2\) devraient être différentes. Cette intuition est bien entendu vérifiée avec la méthode décrite précédemment.
Solution 2.
Pour les vecteurs de la figure 4.2.8, on constate que, cette fois, le repère \(\mathcal{B}_1\) est orienté négativement. Selon les mêmes arguments que pour la première figure, on s’attend à ce que l’orientation de \(\mathcal{B}_2\) soit positive et celle de \(\mathcal{B}_3\) soit négative. Ceci est vérifié en regardant dans la bonne perspective la figure 4.2.8.
Solution 3.
Pour les vecteurs de la figure 4.2.9, on constate que le repère \(\mathcal{B}_1\) est aussi orienté négativement. Selon les mêmes arguments que pour la première figure, on s’attend à ce que l’orientation de \(\mathcal{B}_2\) soit positive et celle de \(\mathcal{B}_3\) soit négative. Ceci est vérifié en regardant dans la bonne perspective la figure 4.2.9.
On pourrait donner une définition du déterminant \(3\times 3\) dans cette sous-section, mais elle serait identique à celle de la sous-section suivante, tout comme les propriétés. On préfère donc passer à la sous-section suivante. On fera la majorité des exemples de la sous-section avec des matrices \(3\times 3\text{.}\)

Sous-section 4.2.2 Le déterminant

On passe maintenant à la définition axiomatique du déterminant pour une matrice \(n\times n\text{.}\) Cette définition généralise la définition 4.1.13 pour le déterminant \(2\times2\text{.}\)

Définition 4.2.10. Le déterminant d’une matrice.

Soit \(A\text{,}\) une matrice de taille \(n\times n\) et \(\vec{a}_1,\vec{a}_2,\ldots , \vec{a}_{n}\text{,}\) ses lignes. Le déterminant de \(A\) est l’unique scalaire, noté
\begin{equation*} \det(A)=\begin{vmatrix} a_{1\, 1}&a_{1\, 2}&\cdots & a_{1\, n}\\ a_{2\, 1}&a_{2\, 2}&\cdots & a_{2\, n}\\ \vdots & \vdots & \ddots & \vdots \\ a_{n\, 1}&a_{n\, 2}&\cdots & a_{n\, n}\\ \end{vmatrix}=\det(\vec{a}_{1},\vec{a}_{2},\ldots , \vec{a}_n)=\Delta(\vec{a}_{1},\vec{a}_{2},\ldots , \vec{a}_n)\text{,} \end{equation*}
qui satisfait les quatre propriétés suivantes:
Liste 4.2.11. Propriétés à satisfaire
  1. Si \(A=I\text{,}\) alors \(\det(A)=\det(I)=1\text{;}\)
  2. Multiplier une ligne par \(r\) multiplie la valeur du déterminant par ce même \(r\text{,}\) c’est-à-dire \(\det(\vec{a}_{1},\ldots,r\vec{a}_{i},\ldots , \vec{a}_n)=r\det(\vec{a}_{1},\ldots ,\vec{a}_{i},\ldots , \vec{a}_n)=r\det(A)\text{;}\)
  3. Échanger la position de deux lignes change le signe du déterminant : \(\det(\vec{a}_{1},\ldots,\vec{a}_{i},\ldots ,\vec{a}_j,\ldots \vec{a}_n)=-\det(\vec{a}_{1},\ldots,\vec{a}_{j},\ldots ,\vec{a}_i,\ldots \vec{a}_n)\text{;}\)
  4. Ajouter à une ligne un multiple d’une autre ligne ne change pas le déterminant : \(\det(\vec{a}_{1},\ldots,\vec{a}_{i}+k\vec{a}_j,\ldots \vec{a}_n)=\det(\vec{a}_{1},\ldots,\vec{a}_{i},\ldots \vec{a}_n)=\det(A)\text{.}\)
Bien que dans la section 4.1 on ait défini ces propriétés selon les colonnes afin de se coller aux transformations linéaires, on fait le choix ici plus standard de prendre la définition en fonction des lignes de la matrice. L’équivalence entre les deux sera montrée à la proposition 4.2.17:6. L’approche par les lignes permettra d’utiliser les opérations élémentaires sur les lignes plutôt que d’avoir à définir des opérations sur les colonnes.
Le reste de cette section va servir à trouver une manière efficace de calculer le déterminant et de démontrer ses propriétés, les mêmes que celles de la section précédente, mais généralisées. Toutefois, on fait une remarque avant de continuer.

Remarque 4.2.12. L’existence et l’unicité du déterminant.

À priori, rien n’indique que le déterminant existe, encore moins qu’il n’y en a qu’un seul pour une matrice donnée. On peut toutefois le démontrer, entre autres, grâce à Gauss-Jordan. Les détails de cette démonstration sont faits dans la section 4.3.
On commence avec un exemple de calcul de déterminant qui n’utilise que les propriétés 4.2.11. On voit que ces propriétés ne sont essentiellement que l’effet sur le déterminant des opérations élémentaires sur les lignes.

Exemple 4.2.13. Un premier calcul de déterminant \(3\times 3\).

On considère la matrice \(A=\matcolt{1}{2}{-1}{3}{2}{0}{1}{-4}{2}\text{,}\) que l’on a échelonnée à l’exemple 3.1.11. On cherche son déterminant.
Solution.
On reproduit ici la démarche de l’exemple 3.1.11, mais cette fois en regardant l’effet sur le déterminant.
\begin{align*} \begin{vmatrix} 1& 3&1\\ 2& 2&-4\\ -1& 0&2 \end{vmatrix}&=\begin{vmatrix} 1& 3&1\\ 0& -4&-6\\ -1& 0&2 \end{vmatrix}&\text{ selon la propriété } \knowl{./knowl/xref/li-detk.html}{\text{4.2.11:4}} \text{ avec l'opération } -2L_1+L_2\rightarrow L_2\\ &=\begin{vmatrix} 1& 3&1\\ 0& -4&-6\\ 0& 3&3 \end{vmatrix} & \text{ selon la propriété } \knowl{./knowl/xref/li-detk.html}{\text{4.2.11:4}} \text{ avec l'opération } L_1+L_3\rightarrow L_3\\ &=-4\begin{vmatrix} 1& 3&1\\ 0& 1&\frac{3}{2}\\ 0& 3&3 \end{vmatrix} & \text{ selon la propriété } \knowl{./knowl/xref/li-detr.html}{\text{4.2.11:2}} \text{ avec l'opération } -\frac{1}{4}L_2\rightarrow L_2\\ &=-4\begin{vmatrix} 1& 3&1\\ 0& 1&\frac{3}{2}\\ 0& 0&-\frac{3}{2} \end{vmatrix} & \text{ selon la propriété } \knowl{./knowl/xref/li-detk.html}{\text{4.2.11:4}} \text{ avec l'opération } -3L_2+L_3\rightarrow L_3\\ &=-4\pfrac{-3}{2}\begin{vmatrix} 1& 3&1\\ 0& 1&\frac{3}{2}\\ 0& 0&1 \end{vmatrix} & \text{ selon la propriété } \knowl{./knowl/xref/li-detr.html}{\text{4.2.11:2}} \text{ avec l'opération } -\frac{2}{3}L_3\rightarrow L_3\\ \end{align*}

Dans la prochaine étape, on se permet de faire deux étapes en une, ce qui permet de réduire l’écriture.

\begin{align*} &=6\begin{vmatrix} 1& 3&0\\ 0& 1&0\\ 0& 0&1 \end{vmatrix} & \text{ selon la propriété } \knowl{./knowl/xref/li-detk.html}{\text{4.2.11:4}} \text{ avec les opérations } -\frac{3}{2}L_3+L_2\rightarrow L_2, -L_3+L_1\rightarrow L_1\\ &=6\begin{vmatrix} 1& 0&0\\ 0& 1&0\\ 0& 0&1 \end{vmatrix} & \text{ selon la propriété } \knowl{./knowl/xref/li-detk.html}{\text{4.2.11:4}} \text{ avec l'opération } -3L_2+L_1\rightarrow L_1\text{.} \end{align*}
Le déterminant de la matrice initiale vaut donc \(6\) fois celui de la matrice identité, qui est \(1\text{.}\) Ainsi \(\det(A)=6\text{.}\) À noter que, lorsqu’on multiplie une ligne par \(r\text{,}\) le déterminant est multiplié par \(r\text{.}\) Si l’on ne veut rien changer au déterminant initial que l’on essaie de calculer, on doit diviser par \(r\text{.}\) C’est pourquoi l’opération \(-\frac{1}{4}L_2\rightarrow L_2\text{,}\) par exemple, donne un facteur \(-4\) devant le déterminant et non pas \(-\frac{1}{4}\text{.}\)
L’algorithme de Gauss-Jordan 3.1.25 fournit donc une manière de calculer un déterminant, mais il faut bien noter l’effet des opérations élémentaires sur le déterminant. Dans le dernier exemple, on n’a pas utilisé la propriété 4.2.11:3. On regarde un autre exemple dans lequel on utilise cette propriété.

Exemple 4.2.14. Un autre calcul de déterminant.

On reprend la matrice \(A=\matcolt{0}{2}{3}{-7}{6}{10}{-5}{4}{-1}\) de l’exemple 3.1.28 et l’on calcule son déterminant.
Solution.
Cette fois, on ne reproduit pas les étapes de l’algorithme de Gauss-Jordan. On se contente de relire la solution à l’exemple 3.1.28 et de noter l’effet de chaque opération sur le déterminant.
  1. La première opération permute les lignes un et deux. On obtient donc un changement de signe. On note cet effet sur le déterminant par \(d_1=-1\)
  2. On divise ensuite la nouvelle ligne un par \(2\) pour avoir le pivot égal à \(1\text{.}\) Pour ne rien changer au déterminant, il faudra multiplier par \(d_2=2\text{.}\)
  3. L’opération suivante est une opération de combinaison linéaire. Elle n’a aucun effet sur le déterminant. On pourrait dire \(d_3=1\text{.}\)
  4. La prochaine opération consiste à échanger les lignes deux et trois. Ceci apporte un nouveau changement de signe, \(d_4=-1\text{.}\)
  5. S’ensuit alors une autre combinaison linéaire, qui ne change pas le déterminant: \(d_5=1\text{.}\)
  6. On divise la ligne trois par \(-54\) afin de rendre le pivot égal à \(1\text{.}\) Pour ne pas changer le déterminant, il faut multiplier par \(d_6=-54\text{.}\)
  7. Toutes les autres opérations sont des opérations de combinaisons linéaires et ne changent pas le déterminant.
La matrice obtenue à la fin est la matrice identité. Le déterminant de \(A\) est donc
\begin{align*} \det(A)&=d_1d_2d_3d_4d_5d_6\det(I)\\ &=-108\text{.} \end{align*}
Dans les derniers exemples, la matrice échelonnée réduite était toujours l’identité. Qu’arrive-t-il au déterminant si ce n’est pas le cas? Si, par exemple, on veut le déterminant de la matrice échelonnée réduite
\begin{equation*} R= \begin{pmatrix} 1& 0& -2\\ 0& 1&3\\ 0&0&0 \end{pmatrix}\text{,} \end{equation*}
aucune des propriétés 4.2.11 ne permet de le faire directement. En s’inspirant des résultats de la section 4.1, il est toutefois plausible de penser que ce déterminant vaudra zéro. En effet, on voit dans la matrice la présence d’une ligne nulle, ce qui fait penser à la propriété 4.1.16. On sait aussi qu’une matrice carrée qui ne s’échelonne pas à l’identité ne peut pas être inversible, rappelant ainsi la propriété 4.1.24. On poursuit cette section dans le but de montrer les propriétés équivalentes à celles démontrées dans le cas d’un déterminant \(2\times 2\text{.}\) Comme on n’a pas de formule générale comme c’était le cas précédemment, il faudra quelques résultats supplémentaires.
Ces résultats portent sur le déterminant des matrices élémentaires et sur le déterminant du produit d’une matrice élémentaire et d’une matrice quelconque.

Démonstration.

On démontre facilement les trois premières propriétés, car celles-ci correspondent à l’application des propriétés 4.2.11:2, 4.2.11:3 et 4.2.11:4 des déterminants sur la matrice identité. Pour la propriété du produit, on note que l’effet de la multiplication à gauche par une matrice élémentaire sur la matrice \(A\) revient à faire l’opération élémentaire sur la matrice. Comme les opérations élémentaires sont les mêmes que les propriétés 4.2.11:2, 4.2.11:3 et 4.2.11:4, le résultat suit.
Avec ces résultats sur le déterminant des matrices élémentaires, on est maintenant en mesure de démontrer les propriétés des déterminants plus généralement. On en fait le résultat du théorème suivant.

Démonstration.

On démontre les deux premières propriétés regroupées. La troisième est laissée à l’exercice 4.2.3.5.
Si deux lignes sont identiques, on applique la propriété 4.2.11:3 sur ces lignes. Puisque cette opération ne change pas la matrice, les lignes étant identiques, on a \(\det(A)=-\det(A)\text{.}\) Ceci entraine que \(2\det(A)=0\) et que le déterminant est nul.
Si une ligne est un multiple d’une autre, alors on applique d’abord 4.2.11:2 pour mettre en évidence le scalaire. On a alors \(\det(\vec{a}_1,\cdots,\vec{a}_i,\cdots, k\vec{a}_i,\cdots ,\vec{a}_n)=k\det(\vec{a}_1,\cdots,\vec{a}_i,\cdots ,\vec{a}_i,\cdots ,\vec{a}_n)=0\) selon la propriété précédente.

Démonstration.

On veut maintenant démontrer que si une ligne est nulle, alors le déterminant est nul. Pour cela, il suffit de « mettre en évidence » un zéro de la ligne nulle pour utiliser la propriété 4.2.11:2 pour avoir \(\det(\vec{a}_1,\cdots,\vec{0},\cdots ,\vec{a}_n)=0\det(\vec{a}_1,\cdots,\vec{0},\cdots ,\vec{a}_n)=0\text{.}\)

Démonstration.

Si \(A\) est inversible, alors \(A\) se réduit à la matrice identité par une chaine de matrices élémentaires, soit
\begin{equation*} I=E_kE_{k-1}\cdots E_2E_1A\text{.} \end{equation*}
On applique à répétition le fait que le déterminant d’une matrice élémentaire est non nul et le déterminant du produit d’une matrice élémentaire avec une matrice \(A\text{,}\) établi à la proposition 4.2.15 pour conclure que \(\det(A)\neq 0\text{.}\)
Pour montrer que \(\det(A^{-1})=\frac{1}{\det(A)}\text{,}\) on utilise la prochaine propriété. Bien qu’elle ne soit pas encore démontrée, sa preuve n’utilise pas la valeur explicite du déterminant de \(A\) et l’argument n’est donc pas circulaire. De plus, puisque \(AA^{-1}=I\text{,}\) on a selon 4.2.17:4 que \(\det(AA^{-1})=\det(A)\det(A^{-1})=\det(I)=1\) et ainsi, \(\det(A^{-1})=\frac{1}{\det(A)}\text{.}\)

Démonstration.

On suppose que \(A\) n’est pas inversible. Alors, selon la proposition 2.3.18, le produit \(AB\) n’est pas inversible non plus. Dans ce cas, \(\det(AB)=\det(A)=0\) ce qui implique à son tour que \(\det(AB)=\det(A)\det(B)\text{.}\)
Si \(A\) est inversible et puisque \(I=E_kE_{k-1}\cdots E_2E_1A\text{,}\) on peut écrire \(A=E_1^{-1}E_{2}^{-1}\cdots E_{k-1}^{-1}E_k^{-1}I=E_1^{-1}E_{2}^{-1}\cdots E_{k-1}^{-1}E_k^{-1}\text{.}\) On applique la propriété 4.2.15 à répétition pour conclure que
\begin{equation*} \det(A)=\det(E_1^{-1})\det(E_{2}^{-1})\cdots \det(E_{k-1}^{-1})\det(E_k^{-1})\text{.} \end{equation*}
De l’autre côté, \(AB=E_1^{-1}E_{2}^{-1}\cdots E_{k-1}^{-1}E_k^{-1}B\) et par le même argument,
\begin{align*} \det(AB)&=\det(E_1^{-1}E_{2}^{-1}\cdots E_{k-1}^{-1}E_k^{-1}B)\\ &=\det(E_1^{-1})\det(E_{2}^{-1})\cdots \det(E_{k-1}^{-1})\det(E_k^{-1})\det(B)\\ &=\det(A)\det(B)\text{.} \end{align*}

Démonstration.

Cette propriété demande un peu plus de travail et de réflexion. Dans un premier temps, on suppose que \(\vec{b}\) est une combinaison linéaire des vecteurs \(\vec{a}_1,\ldots , \vec{a}_n\text{,}\) c’est-à-dire qu’il existe \(k_1,\ldots , k_n\) tel que
\begin{gather} \vec{b}=k_1\vec{a}_1+\cdots +k_n\vec{a}_n\text{.}\tag{✶} \end{gather}
On a alors
\begin{align*} \det(\vec{a}_1,\cdots,\vec{a}_i+\vec{b},\cdots ,\vec{a}_n)&=\det(\vec{a}_1,\cdots,\vec{a}_i+k_1\vec{a}_1+\cdots +\vec{a}_n,\cdots ,\vec{a}_n)\\ \end{align*}

On applique à répétition la propriété 4.2.11:4 pour éliminer tous les facteurs sauf \(k_i\vec{a}_i\text{.}\)

\begin{align*} &=\det(\vec{a}_1,\cdots,\vec{a}_i+k_i\vec{a}_i,\cdots ,\vec{a}_n)\\ &=\det(\vec{a}_1,\cdots,(1+k_i)\vec{a}_i,\cdots ,\vec{a}_n)\\ &=(1+k_i)\det(\vec{a}_1,\cdots,\vec{a}_i,\cdots ,\vec{a}_n) &&\text{selon } \knowl{./knowl/xref/li-detr.html}{\text{4.2.11:2}}\\ &=\det(\vec{a}_1,\cdots,\vec{a}_i,\cdots ,\vec{a}_n)+k_i\det(\vec{a}_1,\cdots,\vec{a}_i,\cdots ,\vec{a}_n)\\ &=\det(\vec{a}_1,\cdots,\vec{a}_i,\cdots ,\vec{a}_n)+\det(\vec{a}_1,\cdots,k_i\vec{a}_i,\cdots ,\vec{a}_n)&&\text{selon } \knowl{./knowl/xref/li-detr.html}{\text{4.2.11:2}}\\ \end{align*}

Dans l’équation (✶), on réarrange les termes pour isoler \(k_i\vec{a}_i\text{.}\) On a alors

\begin{align*} &=\det(\vec{a}_1,\cdots,\vec{a}_i,\cdots ,\vec{a}_n)+\det(\vec{a}_1,\cdots,\vec{b}-(k_1\vec{a}_1+\cdots+k_{i-1}\vec{a}_{i-1}+k_{i+1}\vec{a}_{i+1}+\cdots +k_n\vec{a}_n),\cdots ,\vec{a}_n)\\ \end{align*}

À cette étape, on applique encore une fois à répétition la propriété 4.2.11:2 pour éliminer les termes entre parenthèses dans la ligne \(i\) du déterminant. On a alors

\begin{align*} &=\det(\vec{a}_1,\cdots,\vec{a}_i,\cdots ,\vec{a}_n)+\det(\vec{a}_1,\cdots,\vec{b},\cdots ,\vec{a}_n)\text{.} \end{align*}
On passe maintenant au cas où \(\vec{b}\) n’est pas une combinaison linéaire des lignes de la matrice. Ceci signifie que l’équation
\begin{equation*} A^T\vec{x}=\vec{b} \end{equation*}
ne possède pas de solutions (voir exercice 3.4.3.11). Ainsi, selon le théorème 3.2.3.13.c, la matrice \(A^T\) n’est pas inversible et \(A\) non plus. On conclut avec la propriété 4.2.17:3 que \(\det(A)=0\text{.}\)
Deux choses sont maintenant possibles. Le vecteur \(\vec{a_i}\) peut être une combinaison linéaire des vecteurs \(\vec{a}_1,\vec{a}_2,\ldots, \vec{a}_{i-1},\vec{a}_{i+1},\vec{a}_n\text{,}\) dans ce cas selon le théorème 3.2.3.13.c, on a \(\det(A)=\det(\vec{a}_1,\cdots,\vec{a}_i,\cdots,\vec{a}_n) =0\) et, en utilisant à répétition la propriété 4.2.11:4 pour éliminer le terme \(\vec{a}_i\text{,}\) on a
\begin{align*} \det(\vec{a}_1,\cdots,\vec{a}_i+\vec{b},\cdots ,\vec{a}_n)&=\det(\vec{a}_1,\cdots,\vec{b},\cdots,\vec{a}_n) \text{.} \end{align*}
Si \(\vec{a}_i\) n’est toutefois pas une combinaison linéaire des autres lignes. On remarque d’abord que \(\vec{a}_i\) n’est pas non plus une combinaison linéaire des autres lignes et de \(\vec{b}\text{.}\) Si c’était le cas, on pourrait isoler \(\vec{b}\) dans la combinaison linéaire et l’écrire en fonction des lignes de la matrice. On considère les trois équations
\begin{align*} A^T\vec{x}&=\vec{b}_i\\ B^T\vec{x}&=\vec{a}_i\\ C^T\vec{x}&=2\vec{a}_i+3\vec{b}_i\text{,} \end{align*}
\(B\) est la matrice \(A\) avec la ligne \(i\) remplacée par le vecteur \(\vec{b}\) et \(C\) est la matrice \(A\) avec la ligne \(i\) remplacée par \(\vec{a}_i+\vec{b}\text{.}\) Ces trois équations n’ayant pas de solutions, on conclut par le théorème 3.2.3.13.c que \(A,B,C\) ne sont pas inversibles et donc \(\det(A)=\det(B)=\det(C)=0\) selon 4.2.17:3. En effet, si une solution à ces équations existait, on pourrait écrire les vecteurs respectifs comme une combinaison linéaire des colonnes des matrices transposées, et donc, des lignes de \(A,B\) ou \(C\) (voir exercice [provisional cross-reference: exo-comblinpreuve]). Puisque tous les déterminants sont nuls, la propriété est vraie, car \(0=0+0\text{.}\)

Démonstration.

La propriété 4.2.17:3 et sa preuve permettent d’obtenir une nouvelle version du théorème de la matrice inverse [provisional cross-reference: thm-delamatriceinverse].
Les exemples 4.2.13 et 4.2.14 montrent que, pour calculer un déterminant, on peut faire la réduction à la forme échelonnée réduite en gardant une trace des opérations effectuées. Ces traces sont en fait les déterminants des matrices élémentaires. On peut toutefois éviter de faire l’échelonnage jusqu’au bout, avec un autre résultat. Mais avant, une définition d’un type particulier de matrices.

Définition 4.2.19. Les matrices triangulaires.

Une matrice carrée est triangulaire inférieure si toutes les entrées au-dessus de la diagonale principale sont nulles. Similairement, une matrice carrée est triangulaire supérieure si toutes les entrées sous la diagonale principale sont nulles. On note souvent ces matrices par les lettres \(L\) et \(U\text{,}\) de l’anglais « lower, upper». Ci-dessous se retrouvent des exemples de matrices triangulaires de taille \(4\times 4\text{.}\) Les entrées identifiées par \(*\) peuvent prendre n’importe quelle valeur.
\begin{align*} L&=\begin{pmatrix} *&0&0&0\\ *&*&0&0\\ *&*&*&0\\ *&*&*&* \end{pmatrix} & U&=\begin{pmatrix} *&*&*&*\\ 0&*&*&*\\ 0&0&*&*\\ 0&0&0&* \end{pmatrix} \end{align*}
Le déterminant d’une matrice triangulaire est particulièrement facile à calculer. En particulier, si l’on rend une matrice quelconque \(A\) équivalente à une matrice triangulaire supérieure \(U\text{,}\) on pourra calculer le déterminant plus rapidement qu’en faisant l’algorithme de Gauss-Jordan au complet.

Démonstration.

On suppose que \(T=U\) est une matrice triangulaire supérieure. Puisque \(L=U^T\) est une matrice triangulaire inférieure et que \(\det(A)=\det(A^T)\) selon la propriété 4.2.17:6, il suffit de le montrer pour un des deux types.
Si l’une des entrées sur la diagonale est nulle, alors, en poursuivant les opérations élémentaires pour réduire \(T\text{,}\) on aura éventuellement une ligne de zéros. Selon la propriété 4.2.17:2, le déterminant est égal à zéro. Cela correspond aussi au produit de la diagonale puisqu’un produit contenant un zéro est nul.
On suppose donc qu’aucune entrée \(a_{i,i}\) sur la diagonale est nulle. La matrice
\begin{equation*} U_1=E_{\frac{1}{a_{n,n}}L_n}E_{\frac{1}{a_{n-1,n-1}}L_{n-1}}\cdots E_{\frac{1}{a_{2,2}}L_2}E_{\frac{1}{a_{1,1}}L_1}U \end{equation*}
est une matrice triangulaire supérieure qui ne contient que des \(1\) sur sa diagonale. On peut poursuivre l’algorithme de Gauss-Jordan pour réduire \(U_1\) à l’identité en n’utilisant que l’opération \(rL_i+L_j\text{,}\) qui ne change pas le déterminant. On a donc \(\det(U_1)=1\text{.}\) Puisque \(\det(E_{\frac{1}{a_{i,i}}L_i})=\frac{1}{a_{i,i}}\text{,}\) on isole \(\det(U)\) dans l’équation
\begin{align*} \det(U_1)&=\det(E_{\frac{1}{a_{n,n}}L_n}E_{\frac{1}{a_{n-1,n-1}}L_{n-1}}\cdots E_{\frac{1}{a_{2,2}}L_2}E_{\frac{1}{a_{1,1}}L_1}U)\\ 1&=\det(E_{\frac{1}{a_{n,n}}L_n})\det(E_{\frac{1}{a_{n-1,n-1}}L_{n-1}})\cdots \det(E_{\frac{1}{a_{2,2}}L_2})\det(E_{\frac{1}{a_{1,1}}L_1})\det(U)\\ 1&=\frac{1}{a_{n,n}}\frac{1}{a_{n-1,n-1}}\cdots \frac{1}{a_{2,2}}\frac{1}{a_{1,1}}\det(U)&&\text{selon } \knowl{./knowl/xref/prop-detmatelem.html}{\text{4.2.15}}\\ 1&=a_{1,1}a_{2,2}\cdots a_{n,n}&\det(U)\text{.} \end{align*}
On propose un exemple où l’on échelonne jusqu’à la forme triangulaire supérieure pour calculer le déterminant, sans nécessairement faire en sorte que les pivots soient égaux à \(1\text{.}\) Bien entendu, il faut quand même garder une trace des opérations faites pour s’y rendre.

Exemple 4.2.21. Le calcul d’un déterminant par la méthode triangulaire supérieure.

Soit \(A=\begin{pmatrix} 2& -3&4\\ 4& 1& 5\\ -1& 0&1\end{pmatrix}\text{.}\) On cherche le déterminant de \(A\text{.}\)
Solution.
On réduit la matrice jusqu’à l’apparition d’une forme triangulaire supérieure, sans forcer pour que la valeur des pivots soit \(1\text{.}\) On a
\begin{align*} A&=\begin{pmatrix} 2& -3&4\\ 4& 1& 5\\ -1& 0&1\end{pmatrix}\\ &\sim \begin{pmatrix} 2& -3&4\\ 0& 7& -3\\ -1& 0&1\end{pmatrix} & & \text{ où l'on a fait } -2L_1+L_2\rightarrow L_2\\ &\sim \begin{pmatrix} 2& -3&4\\ 0& 7& -3\\ -2& 0&2\end{pmatrix} & & \text{ où l'on a fait } 2L_3\rightarrow L_3\\ &\sim \begin{pmatrix} 2& -3&4\\ 0& 7& -3\\ 0& -3&6\end{pmatrix} & & \text{ où l'on a fait } L_1+L_3\rightarrow L_3\\ &\sim \begin{pmatrix} 2& -3&4\\ 0& 7& -3\\ 0& 0&\frac{33}{7}\end{pmatrix} & & \text{ où l'on a fait } \frac{3}{7}L_2+L_3\rightarrow L_3\text{.} \end{align*}
Le produit de la diagonale de la dernière matrice est \(66\text{.}\) Puisqu’on a effectué l’opération \(2L_3\rightarrow L_3\text{,}\) ce déterminant est deux fois plus grand que celui de \(A\text{.}\) On a donc \(\det(A)=33\text{.}\)
On termine avec des commandes Sage en lien avec la sous-section.

Calcul 4.2.22. Les déterminants \(n\times n\) et Sage.

La même commande .determinant() sert à calculer le déterminant d’une matrice \(n\times n\text{.}\)
Les points importants de cette section sont:
  1. La notion d’orientation dans \(\R^3\) et la règle de la main droite;
  2. La définition du déterminant;
  3. Le déterminant des matrices élémentaires;
  4. Les propriétés du déterminant et la quatrième version du théorème de la matrice inverse;
  5. La notion de matrice triangulaire et le calcul de son déterminant.
De plus avec Sage, la commande .determinant() permet de calculer le déterminant d’une matrice de taille \(n\times n\text{.}\)

Exercices 4.2.3 Exercices

1.

Étant donné le volume des figures suivantes, déterminer la valeur des déterminants demandés.
(a)
Le parallélépipède engendré par les vecteurs \(\vec{u},\vec{v},\vec{w}\) illustré à la figure 4.2.23 a pour volume \(5\text{u}^3\text{.}\)
Instructions.
Instructions pour la figure interactive: Il est possible de déplacer le solide afin de visualiser les vecteurs \(\vec{u},\vec{v},\vec{w}\) et leur orientation pour être en mesure de calculer les déterminants demandés.
Figure 4.2.23. Un parallélépipède
(i)
Que vaut \(\det(\vec{u},\vec{v},\vec{w})\text{?}\)
Réponse.
\begin{equation*} \det(\vec{u},\vec{v},\vec{w})=-5 \end{equation*}
Solution.
Puisque le volume du parallélépipède engendré par les vecteurs \(\vec{u},\vec{v},\vec{w}\) est de \(5\text{u}^3\text{,}\) on sait que n’importe quel déterminant impliquant ces trois vecteurs vaudra \(5\) ou \(-5\text{.}\) Il faut donc simplement déterminer l’orientation des vecteurs du déterminant.
En utilisant la règle de la main droite, on voit que le vecteur \(\vec{w}\) ne pointe pas dans la direction de notre pouce après avoir positionné nos doigts vers \(\vec{u}\) et notre paume vers \(\vec{v}\text{.}\) L’orientation de ces vecteurs est donc négative, de même pour le déterminant. On a donc \(\det(\vec{u},\vec{v},\vec{w})=-5\text{.}\)
(ii)
Que vaut \(\det(\vec{v},\vec{u},\vec{w})\text{?}\)
Réponse.
\begin{equation*} \det(\vec{v},\vec{u},\vec{w})=5 \end{equation*}
Solution.
En utilisant la règle de la main droite, on voit que le vecteur \(\vec{w}\) pointe dans la direction de notre pouce après avoir positionné nos doigts vers \(\vec{v}\) et notre paume vers \(\vec{u}\text{.}\) L’orientation de ces vecteurs est donc positive, de même pour le déterminant. Sa valeur est le volume du parallélépipède. On a donc \(\det(\vec{v},\vec{u},\vec{w})=5\text{.}\)
(iii)
Que vaut \(\det(\vec{w},\vec{u},\vec{v})\text{?}\)
Réponse.
\begin{equation*} \det(\vec{w},\vec{u},\vec{v})=-5 \end{equation*}
Solution.
En utilisant la règle de la main droite, on voit que le vecteur \(\vec{v}\) ne pointe pas dans la direction de notre pouce après avoir positionné nos doigts vers \(\vec{w}\) et notre paume vers \(\vec{u}\text{.}\) L’orientation de ces vecteurs est donc négative, de même pour le déterminant. Sa valeur est le volume du parallélépipède. On a donc \(\det(\vec{w},\vec{u},\vec{v})=-5\text{.}\)
(b)
Le prisme obtenu du parallélépipède engendré par les vecteurs \(\vec{u},\vec{v},\vec{w}\) illustré à la figure 4.2.24 a pour volume \(8\text{u}^3\text{.}\)
Instructions.
Instructions pour la figure interactive: Il est possible de déplacer le solide afin de visualiser les vecteurs \(\vec{u},\vec{v},\vec{w}\) et leur orientation pour être en mesure de calculer les déterminants demandés.
Figure 4.2.24. Un prisme
(i)
Que vaut \(\det(\vec{u},\vec{v},\vec{w})\text{?}\)
Réponse.
\begin{equation*} \det(\vec{u},\vec{v},\vec{w})=16 \end{equation*}
Solution.
Puisque le volume du prisme engendré par les vecteurs \(\vec{u},\vec{v},\vec{w}\) est de \(8\text{u}^3\text{,}\) on sait que n’importe quel déterminant impliquant ces trois vecteurs vaudra \(2*8=16\) ou \(-16\text{.}\) En effet, comme illustré à la figure 4.2.3, le volume du prisme est égal à la moitié du volume du parallélépipède. Il faut donc simplement déterminer l’orientation des vecteurs du déterminant.
En utilisant la règle de la main droite, on voit que le vecteur \(\vec{w}\) pointe dans la direction de notre pouce après avoir positionné nos doigts vers \(\vec{u}\) et notre paume vers \(\vec{v}\text{.}\) L’orientation de ces vecteurs est donc positive, de même pour le déterminant. On a donc \(\det(\vec{u},\vec{v},\vec{w})=16\text{.}\)
(ii)
Que vaut \(\det(\vec{v},\vec{u},\vec{w})\text{?}\)
Réponse.
\begin{equation*} \det(\vec{v},\vec{u},\vec{w})=-16 \end{equation*}
Solution.
En utilisant la règle de la main droite, on voit que le vecteur \(\vec{w}\) ne pointe pas dans la direction de notre pouce après avoir positionné nos doigts vers \(\vec{v}\) et notre paume vers \(\vec{u}\text{.}\) L’orientation de ces vecteurs est donc négative, de même pour le déterminant. Sa valeur est le double du volume du prisme. On a donc \(\det(\vec{v},\vec{u},\vec{w})=-16\text{.}\)
(iii)
Que vaut \(\det(\vec{w},\vec{u},\vec{v})\text{?}\)
Réponse.
\begin{equation*} \det(\vec{w},\vec{u},\vec{v})=16 \end{equation*}
Solution.
En utilisant la règle de la main droite, on voit que le vecteur \(\vec{v}\) pointe dans la direction de notre pouce après avoir positionné nos doigts vers \(\vec{w}\) et notre paume vers \(\vec{u}\text{.}\) L’orientation de ces vecteurs est donc positive, de même pour le déterminant. Sa valeur est le double du volume du prisme. On a donc \(\det(\vec{w},\vec{u},\vec{v})=16\text{.}\)
(c)
La pyramide obtenue du parallélépipède engendré par les vecteurs \(\vec{u},\vec{v},\vec{w}\) illustré à la figure 4.2.25 a pour volume \(4\text{u}^3\text{.}\)
Instructions.
Instructions pour la figure interactive: Il est possible de déplacer le solide afin de visualiser les vecteurs \(\vec{u},\vec{v},\vec{w}\) et leur orientation pour être en mesure de calculer les déterminants demandés.
Figure 4.2.25. Une pyramide
(i)
Que vaut \(\det(\vec{u},\vec{v},\vec{w})\text{?}\)
Réponse.
\begin{equation*} \det(\vec{u},\vec{v},\vec{w})=-12 \end{equation*}
Solution.
Puisque le volume de la pyramide engendrée par les vecteurs \(\vec{u},\vec{v},\vec{w}\) est de \(4\text{u}^3\text{,}\) on sait que n’importe quel déterminant impliquant ces trois vecteurs vaudra \(3*4=12\) ou \(-12\text{.}\) En effet, comme illustré à la figure 4.2.3, le volume de la pyramide est égal au tiers du volume du parallélépipède. Il faut donc simplement déterminer l’orientation des vecteurs du déterminant.
En utilisant la règle de la main droite, on voit que le vecteur \(\vec{w}\) ne pointe pas dans la direction de notre pouce après avoir positionné nos doigts vers \(\vec{u}\) et notre paume vers \(\vec{v}\text{.}\) L’orientation de ces vecteurs est donc négative, de même pour le déterminant. On a ainsi \(\det(\vec{u},\vec{v},\vec{w})=-12\text{.}\)
(ii)
Que vaut \(\det(\vec{v},\vec{u},\vec{w})\text{?}\)
Réponse.
\begin{equation*} \det(\vec{v},\vec{u},\vec{w})=12 \end{equation*}
Solution.
En utilisant la règle de la main droite, on voit que le vecteur \(\vec{w}\) pointe dans la direction de notre pouce après avoir positionné nos doigts vers \(\vec{v}\) et notre paume vers \(\vec{u}\text{.}\) L’orientation de ces vecteurs est donc positive, de même pour le déterminant. Sa valeur est le triple du volume de la pyramide. On a donc \(\det(\vec{v},\vec{u},\vec{w})=12\text{.}\)
(iii)
Que vaut \(\det(\vec{w},\vec{u},\vec{v})\text{?}\)
Réponse.
\begin{equation*} \det(\vec{w},\vec{u},\vec{v})=-12 \end{equation*}
Solution.
En utilisant la règle de la main droite, on voit que le vecteur \(\vec{v}\) ne pointe pas dans la direction de notre pouce après avoir positionné nos doigts vers \(\vec{w}\) et notre paume vers \(\vec{u}\text{.}\) L’orientation de ces vecteurs est donc négative, de même pour le déterminant. Sa valeur est le triple du volume de la pyramide. On a donc \(\det(\vec{w},\vec{u},\vec{v})=-12\text{.}\)
(d)
Le tétraèdre obtenu du parallélépipède engendré par les vecteurs \(\vec{u},\vec{v},\vec{w}\) illustré à la figure 4.2.26 a pour volume \(10\text{u}^3\text{.}\)
Instructions.
Instructions pour la figure interactive: Il est possible de déplacer le solide afin de visualiser les vecteurs \(\vec{u},\vec{v},\vec{w}\) et leur orientation pour être en mesure de calculer les déterminants demandés.
Figure 4.2.26. Un tétraèdre
(i)
Que vaut \(\det(\vec{u},\vec{v},\vec{w})\text{?}\)
Réponse.
\begin{equation*} \det(\vec{u},\vec{v},\vec{w})=-60 \end{equation*}
Solution.
Puisque le volume du tétraèdre engendré par les vecteurs \(\vec{u},\vec{v},\vec{w}\) est de \(10\text{u}^3\text{,}\) on sait que n’importe quel déterminant impliquant ces trois vecteurs vaudra \(6*10=60\) ou \(-60\text{.}\) En effet, comme illustré à la figure 4.2.3, le volume du tétraèdre est égal au sixième du volume du parallélépipède. Il faut donc simplement déterminer l’orientation des vecteurs du déterminant.
En utilisant la règle de la main droite, on voit que le vecteur \(\vec{w}\) ne pointe pas dans la direction de notre pouce après avoir positionné nos doigts vers \(\vec{u}\) et notre paume vers \(\vec{v}\text{.}\) L’orientation de ces vecteurs est donc négative, de même pour le déterminant. On a ainsi \(\det(\vec{u},\vec{v},\vec{w})=-60\text{.}\)
(ii)
Que vaut \(\det(\vec{v},\vec{u},\vec{w})\text{?}\)
Réponse.
\begin{equation*} \det(\vec{v},\vec{u},\vec{w})=60 \end{equation*}
Solution.
En utilisant la règle de la main droite, on voit que le vecteur \(\vec{w}\) pointe dans la direction de notre pouce après avoir positionné nos doigts vers \(\vec{v}\) et notre paume vers \(\vec{u}\text{.}\) L’orientation de ces vecteurs est donc positive, de même pour le déterminant. Sa valeur est de six fois le volume du tétraèdre. On a ainsi \(\det(\vec{v},\vec{u},\vec{w})=60\text{.}\)
(iii)
Que vaut \(\det(\vec{w},\vec{u},\vec{v})\text{?}\)
Réponse.
\begin{equation*} \det(\vec{w},\vec{u},\vec{v})=-60 \end{equation*}
Solution.
En utilisant la règle de la main droite, on voit que le vecteur \(\vec{v}\) ne pointe pas dans la direction de notre pouce après avoir positionné nos doigts vers \(\vec{w}\) et notre paume vers \(\vec{u}\text{.}\) L’orientation de ces vecteurs est donc négative, de même pour le déterminant. Sa valeur est de six fois le volume du tétraèdre. On a ainsi \(\det(\vec{w},\vec{u},\vec{v})=-60\text{.}\)

2.

Utiliser la figure interactive suivante pour déterminer l’orientation du repère \(\langle \vec{u},\vec{v},\vec{w}\rangle\) dans \(\R^3\) de manière géométrique.
Instructions.
Instructions pour la figure interactive: Déplacer le graphique en trois dimensions afin de visualiser les trois vecteurs \(\vec{u}, \vec{v}, \vec{w}\text{,}\) respectivement en rouge, vert et bleu. Il est possible de faire apparaitre le plan engendré par les vecteurs \(\vec{u}\) et \(\vec{v}\) en appuyant sur le texte. Pour valider la réponse, entrer un nombre positif si l’orientation du repère est positive et un nombre négatif si l’orientation est négative et appuyer sur «Vérifier la réponse ». Un clic sur « Nouveau problème » permet de générer une nouvelle version de l’exercice. Déplacer le séparateur de fenêtres pour mieux voir le plan illustré dans la fenêtre de droite.
Figure 4.2.27. L’orientation de trois vecteurs
Solution.
Il suffit d’appliquer la règle de la main droite en dirigeant nos doigts vers \(\vec{u}\text{,}\) notre paume vers \(\vec{v}\) et en déterminant si notre pouce pointe vers \(\vec{w}\) ou non. Si c’est le cas, le repère est d’orientation positive, il est d’orientation négative autrement. En affichant le plan engendré par \(\vec{u}\) et \(\vec{v}\text{,}\) si notre vue est au-dessus du plan, que \(\vec{u}\) est plus vers la droite et \(\vec{v}\) vers la gauche, il sera facile de déterminer si \(\vec{w}\) pointe vers le pouce puisqu’il sera en pointillé s’il pointe dans une autre direction (sous le plan).

3.

Dans cet exercice, on s’intéresse à l’orientation d’un repère \(\langle \vec{u},\vec{v},\vec{w}\rangle\) et à l’angle entre \(\vec{w}\) et \(\vec{u}\times \vec{v}\text{,}\) le produit vectoriel de \(\vec{u}\) et \(\vec{v}\)
(a)
On considère \(\vec{u}=(1,1,1)\text{,}\) \(\vec{v}=(-1,1,0)\) et \(\vec{w}=(2,3,4)\text{.}\)
(i)
Déterminer l’orientation du repère \(\langle \vec{u},\vec{v},\vec{w}\rangle\text{.}\)
Réponse.
L’orientation du repère \(\langle \vec{u},\vec{v},\vec{w}\rangle\) est positive.
Solution.
Il y a plus d’une façon de procéder, mais on considère que de calculer le déterminant \(\det(\vec{u},\vec{v},\vec{w})\) et de regarder son signe est la meilleure approche. Pour calculer un déterminant, on peut procéder comme dans les exemples 4.2.13 et 4.2.14, mais on préfère l’approche plus rapide de l’exemple 4.2.21. On échelonne donc la matrice
\begin{equation*} A=\begin{pmatrix} 1&1&1\\ -1&1&0\\ 2&3&4 \end{pmatrix} \end{equation*}
obtenue en plaçant les vecteurs en lignes et l’on calcule sa trace. On remarque que l’on aurait aussi pu la construire en colonnes, par 4.2.17:6.
\begin{align*} A&=\begin{pmatrix} 1&1&1\\ -1&1&0\\ 2&3&4 \end{pmatrix}\\ &\sim \begin{pmatrix} 1&1&1\\ 0&2&1\\ 2&3&4 \end{pmatrix} & & \text{ où l'on a fait } L_1+L_2\rightarrow L_2\\ &\sim \begin{pmatrix} 1&1&1\\ 0&2&1\\ 0&1&2 \end{pmatrix} & & \text{ où l'on a fait } -2L_1+L_3\rightarrow L_3\\ &\sim \begin{pmatrix} 1&1&1\\ 0&2&1\\ 0&0&\frac{3}{2} \end{pmatrix} & & \text{ où l'on a fait } -\frac{1}{2}L_2+L_3\rightarrow L_3 \end{align*}
Le produit de la diagonale de la dernière matrice est \(3\text{.}\) Puisqu’on n’a effectué que des opérations du type 4.2.11:4, ce déterminant est le même que celui de \(A\text{.}\) On a donc \(\det(A)=3\text{.}\) Puisqu’il est positif, l’orientation du repère \(\langle \vec{u},\vec{v},\vec{w}\rangle\) est aussi positive.
(ii)
Calculer \(\vec{u}\times\vec{v}\text{.}\)
Réponse.
\begin{equation*} \vec{u}\times\vec{v}=(-1,-1,2) \end{equation*}
Solution.
\begin{align*} \vec{u}\times\vec{v}&=\left(\begin{vmatrix} u_2 & v_2 \\ u_3 & v_3\end{vmatrix}, -\begin{vmatrix} u_1 & v_1 \\ u_3 & v_3\end{vmatrix}, \begin{vmatrix} u_1 & v_1 \\ u_2 & v_2\end{vmatrix}\right) & \text{ par } \knowl{./knowl/xref/eq-prodvecdet2x2.html}{\text{(4.1.2)}}\\ &=\left(\begin{vmatrix} 1 & 1 \\ 1 & 0\end{vmatrix}, -\begin{vmatrix} 1 & -1 \\ 1 & 0\end{vmatrix}, \begin{vmatrix} 1 & -1 \\ 1 & 1\end{vmatrix}\right) \\ &=(-1,-1,2) \end{align*}
(iii)
Calculer l’angle entre \(\vec{w}\) et \(\vec{u}\times\vec{v}\text{.}\)
Réponse.
\begin{equation*} \theta=\arccos\left(\frac{3}{\sqrt{174}}\right) \approx 1.34135 \text{ rad} \approx 76.85^\circ \end{equation*}
Solution.
\begin{align*} \cos(\theta)&=\frac{\vec{w}\cdot (\vec{u}\times\vec{v})}{\norm{\vec{w}}\norm{\vec{u}\times\vec{v}}}\\ \cos(\theta)&=\frac{(2,3,4)\cdot (-1,-1,2)}{\norm{(2,3,4)}\norm{(-1,-1,2)}}\\ \cos(\theta)&=\frac{3}{\sqrt{29}\sqrt{6}}\\ \theta &=\arccos\left(\frac{3}{\sqrt{174}}\right) \approx 1.34135 \text{ rad} \approx 76.85^\circ \end{align*}
(b)
Répéter l’étape 4.2.3.3.a avec les vecteurs \(\vec{u}=(1,-1,1),\vec{v}=(0,1,1)\) et \(\vec{w}=(-1,3,-1)\)
Réponse.
L’orientation du repère \(\langle \vec{u},\vec{v},\vec{w}\rangle\) est négative.
\begin{equation*} \vec{u}\times\vec{v}=(-2,-1,1) \end{equation*}
\begin{equation*} \theta=\arccos\left(\frac{-2}{\sqrt{66}}\right) \approx 1.81954 \text{ rad} \approx 104.25^\circ \end{equation*}
Solution.
Il y a plus d’une façon de procéder, mais on considère que de calculer le déterminant \(\det(\vec{u},\vec{v},\vec{w})\) et de regarder son signe est la meilleure approche. Pour calculer un déterminant, on peut procéder comme dans les exemples 4.2.13 et 4.2.14, mais on préfère l’approche plus rapide de l’exemple 4.2.21. On échelonne donc la matrice
\begin{equation*} A=\begin{pmatrix} 1&-1&1\\ 0&1&1\\ -1&3&-1 \end{pmatrix} \end{equation*}
obtenue en plaçant les vecteurs en lignes et l’on calcule sa trace. On remarque que l’on aurait aussi pu la construire en colonnes, par 4.2.17:6.
\begin{align*} A&=\begin{pmatrix} 1&-1&1\\ 0&1&1\\ -1&3&-1 \end{pmatrix}\\ &\sim \begin{pmatrix} 1&-1&1\\ 0&1&1\\ 0&2&0 \end{pmatrix} & & \text{ où l'on a fait } L_1+L_3\rightarrow L_3\\ &\sim \begin{pmatrix} 1&-1&1\\ 0&1&1\\ 0&0&-2 \end{pmatrix} & & \text{ où l'on a fait } -2L_2+L_3\rightarrow L_3 \end{align*}
Le produit de la diagonale de la dernière matrice est \(-2\text{.}\) Puisqu’on n’a effectué que des opérations du type 4.2.11:4, ce déterminant est le même que celui de \(A\text{.}\) On a donc \(\det(A)=-2\text{.}\) Puisqu’il est négatif, l’orientation du repère \(\langle \vec{u},\vec{v},\vec{w}\rangle\) est aussi négative.
Pour le produit vectoriel, on a
\begin{align*} \vec{u}\times\vec{v}&=\left(\begin{vmatrix} u_2 & v_2 \\ u_3 & v_3\end{vmatrix}, -\begin{vmatrix} u_1 & v_1 \\ u_3 & v_3\end{vmatrix}, \begin{vmatrix} u_1 & v_1 \\ u_2 & v_2\end{vmatrix}\right) & \text{ par } \knowl{./knowl/xref/eq-prodvecdet2x2.html}{\text{(4.1.2)}}\\ &=\left(\begin{vmatrix} -1 & 1 \\ 1 & 1\end{vmatrix}, -\begin{vmatrix} 1 & 0 \\ 1 & 1\end{vmatrix}, \begin{vmatrix} 1 & 0 \\ -1 & 1\end{vmatrix}\right) \\ &=(-2,-1,1) \text{.} \end{align*}
Et finalement pour l’angle,
\begin{align*} \cos(\theta)&=\frac{\vec{w}\cdot (\vec{u}\times\vec{v})}{\norm{\vec{w}}\norm{\vec{u}\times\vec{v}}}\\ \cos(\theta)&=\frac{(-1,3,-1)\cdot (-2,-1,1)}{\norm{(-1,3,-1)}\norm{(-2,-1,1)}}\\ \cos(\theta)&=\frac{-2}{\sqrt{11}\sqrt{6}}\\ \theta &=\arccos\left(\frac{-2}{\sqrt{66}}\right) \approx 1.81954 \text{ rad} \approx 104.25^\circ\text{.} \end{align*}
(c)
Formuler une hypothèse entre la relation du troisième vecteur d’un repère et le produit vectoriel des deux premiers vecteurs de ce repère.
Solution.
Notre hypothèse est que si l’orientation du repère de ces trois vecteurs est positive, alors l’angle entre le produit vectoriel des deux premiers vecteurs et le troisième vecteur sera un angle aigu \(\left(0\leq \theta < \frac{\pi}{2}\right)\text{.}\)
À l’inverse, si l’orientation du repère de ces trois vecteurs est négative, alors l’angle entre le produit vectoriel des deux premiers vecteurs et le troisième vecteur sera un angle obtus \(\left(\frac{\pi}{2} < \theta \leq \pi\right)\text{.}\)
Dans le cas où cet angle serait exactement égal à \(\frac{\pi}{2}\text{,}\) le vecteur \(\vec{w}\) se situe dans le plan engendré par \(\vec{u}\) et \(\vec{v}\text{,}\) le déterminant est égal à zéro et l’orientation du repère n’est pas définie.

4.

Montrer que la propriété 4.2.11:3 peut être déduite à partir des propriétés 4.2.11:2 et 4.2.11:4.
Indice.
Voir l’exercice 3.1.4.7.
Solution.
Suivant l’indice, on utilise les mêmes étapes que dans l’exercice 3.1.4.7.
\begin{align*} \det(\vec{a}_{1},\ldots,\vec{a}_{i},\ldots ,\vec{a}_j,\ldots \vec{a}_n)&=\det(\vec{a}_{1},\ldots,\vec{a}_j+\vec{a}_{i},\ldots ,\vec{a}_j,\ldots \vec{a}_n) & \text{ par } \knowl{./knowl/xref/li-detk.html}{\text{4.2.11:4}}\\ &=\det(\vec{a}_{1},\ldots,\vec{a}_j+\vec{a}_{i},\ldots ,-(\vec{a}_j+\vec{a}_{i})+\vec{a}_j,\ldots \vec{a}_n) & \text{ par } \knowl{./knowl/xref/li-detk.html}{\text{4.2.11:4}}\\ &=\det(\vec{a}_{1},\ldots,\vec{a}_j+\vec{a}_{i},\ldots ,-\vec{a}_{i},\ldots \vec{a}_n) \\ &=\det(\vec{a}_{1},\ldots,(-\vec{a}_{i})+\vec{a}_j+\vec{a}_{i},\ldots ,-\vec{a}_{i},\ldots \vec{a}_n) & \text{ par } \knowl{./knowl/xref/li-detk.html}{\text{4.2.11:4}}\\ &=\det(\vec{a}_{1},\ldots,\vec{a}_j,\ldots ,-\vec{a}_{i},\ldots \vec{a}_n) \\ &=-\det(\vec{a}_{1},\ldots,\vec{a}_j,\ldots ,\vec{a}_{i},\ldots \vec{a}_n) & \text{ par } \knowl{./knowl/xref/li-detr.html}{\text{4.2.11:2}} \end{align*}

5.

Démontrer la propriété 4.2.17:1.c.
Solution.
On applique la propriété 4.2.11:4 à répétition.
\begin{align*} \det(\vec{a}_{1},\ldots,\vec{a}_{i},\ldots \vec{a}_n)&=\det(\vec{a}_{1},\ldots,k_1\vec{a}_1+\cdots +k_{i-1}\vec{a}_{i-1}+k_{i+1}\vec{a}_{i+1}+\cdots k_n\vec{a}_n,\ldots \vec{a}_n)\\ &=\det(\vec{a}_{1},\ldots,-(k_1\vec{a}_1)+k_1\vec{a}_1+\cdots +k_{i-1}\vec{a}_{i-1}+k_{i+1}\vec{a}_{i+1}+\cdots k_n\vec{a}_n,\ldots \vec{a}_n) & \text{ par } \knowl{./knowl/xref/li-detk.html}{\text{4.2.11:4}}\\ &=\det(\vec{a}_{1},\ldots, k_2\vec{a}_2\cdots +k_{i-1}\vec{a}_{i-1}+k_{i+1}\vec{a}_{i+1}+\cdots k_n\vec{a}_n,\ldots \vec{a}_n) \\ & \cdots\\ &=\det(\vec{a}_{1},\ldots,-(k_n\vec{a}_n)+k_n\vec{a}_n,\ldots \vec{a}_n) & \text{ par } \knowl{./knowl/xref/li-detk.html}{\text{4.2.11:4}}\\ &=\det(\vec{a}_{1},\ldots,\vec{0},\ldots \vec{a}_n) \\ &=0 & \text{ par } \knowl{./knowl/xref/li-detvecnul.html}{\text{4.2.17:2}} \end{align*}

6.

Dans cet exercice, on veut montrer que \(\det(A^T)=\det(A)\text{,}\) donnant ainsi une preuve à la propriété 4.2.17:6.
(a)
Montrer que si \(A\) est une matrice élémentaire, alors le résultat est valide.
Solution.
Les opérations élémentaires 3.1.10 sont les suivantes:
  1. Interchanger la position de deux lignes;
  2. Multiplier une ligne par une constante non nulle;
  3. Ajouter à une ligne un multiple d’une autre.
Les matrices élémentaires 3.1.14 sont donc dans ces trois catégories.
  1. Une matrice élémentaire obtenue de la matrice identité en interchangeant deux lignes a comme déterminant \(-1\) par la propriété 4.2.11:3. Lorsqu’on la transpose, on obtient la même matrice. En effet, si les lignes \(i\) et \(j\) de la matrice identité sont interchangées, on obtient exactement la matrice où les colonnes \(i\) et \(j\) sont interchangées. Bref, elles ont le même déterminant.
  2. Une matrice élémentaire obtenue de la matrice identité en multipliant une ligne par une constante non nulle a comme déterminant la valeur de cette constante, par la propriété 4.2.11:2. Cette matrice étant une matrice diagonale, elle est égale à sa transposée qui aura donc le même déterminant.
  3. Une matrice élémentaire obtenue de la matrice identité en ajoutant à une ligne un multiple d’une autre ligne a \(1\) comme déterminant par la propriété 4.2.11:4. La transposée est différente, mais peut être obtenue avec le même type d’opération, en inversant les deux lignes impliquées. Elle a donc le même déterminant, soit \(1\text{.}\)
(b)
Démontrer maintenant la propriété 4.2.17:6.
Indice.
Distinguer le cas inversible du cas non inversible et passer à une décomposition en produit de matrices élémentaires pour le premier cas.
Solution.
D’abord, si \(A\) est inversible alors, par les conclusions de l’exercice 3.1.4.4, on peut écrire
\begin{equation*} A=E_1^{-1}E_2^{-1}\cdots E_k^{-1} \end{equation*}
pour des matrices élémentaires inversibles \(E_1,E_2,\ldots , E_k\text{.}\)
\begin{align*} \det(A)&=\det(E_1^{-1}E_2^{-1}\cdots E_k^{-1})\\ &=\det(E_1^{-1})\det(E_2^{-1})\cdots \det(E_k^{-1}) & \text{ par } \knowl{./knowl/xref/li-detproduit.html}{\text{4.2.17:4}}\\ &=\det((E_1^{-1})^T)\det((E_2^{-1})^T)\cdots \det((E_k^{-1})^T) & \text{ par la lettre précédente} \\ &= \det((E_k^{-1})^T)\cdots\det((E_2^{-1})^T)\det((E_1^{-1})^T) & \text{ par la commutativité de la multiplication des nombres réels} \\ &=\det((E_k^{-1})^T\cdots (E_2^{-1})^T(E_1^{-1})^T) & \text{ par } \knowl{./knowl/xref/li-detproduit.html}{\text{4.2.17:4}} \\ &=\det((E_1^{-1}E_2^{-1}\cdots E_k^{-1})^T) & \text{ par } \knowl{./knowl/xref/prop-transposeeprop.html}{\text{3.4.3}} \\ &=\det(A^T) \end{align*}
Ensuite, si \(A\) est non inversible alors, par le théorème 4.2.18, on sait que la matrice n’est pas de rang maximal et que sa forme échelonnée réduite n’est pas la matrice identité. Elle a donc nécessairement une ligne de zéros et son déterminant est nul. Le déterminant de la matrice \(A\) est donc aussi nul. La transposée de \(A\) sera également de rang non maximal et son déterminant sera également nul.
Il s’ensuit que \(\det(A)=\det(A^T)\text{.}\)

7.

Soit \(A\text{,}\) une matrice \(n\times n\) telle que sa première ligne et sa première colonne sont nulles, sauf pour l’entrée \(a_{1,1}=1\) et soit \(B\text{,}\) la matrice \((n-1)\times (n-1)\) obtenue à partir de \(A\) en enlevant sa première ligne et sa première colonne :
\begin{equation*} A=\begin{pmatrix} 1& 0&\cdots &0\\ 0& & & &\\ \vdots & & B &\\ 0& & & & \end{pmatrix}\text{.} \end{equation*}
Montrer que \(\det(A)=\det(B)\text{.}\)
Indice.
Si \(R\) est la forme échelonnée réduite de \(B\text{,}\) à quoi ressemble la forme échelonnée réduite de \(A\text{?}\)
Solution.
Comme suggéré dans l’indication, on s’attarde aux formes échelonnées réduites de \(A\) et de \(B\text{.}\) Rappelons que l’on peut calculer le déterminant d’une matrice à partir de sa forme échelonnée réduite comme dans l’exemple 4.2.14. Soit \(R\text{,}\) la forme échelonnée réduite de \(B\text{.}\) Deux options sont possibles.
D’abord, si \(R\) n’est pas la matrice identité, alors elle contient une ligne de zéros et son déterminant est nul par la propriété 4.2.17:2. Le déterminant de \(B\) est donc aussi nul, puisqu’on multiplie \(\det(R)\) par des constantes pour le calculer. La forme échelonnée réduite de \(A\) sera la matrice \(R\) augmentée des lignes et colonnes retranchées précédemment, puisque l’on referait l’échelonnage à partir de la deuxième colonne de \(A\text{,}\) la première étant déjà pivot. Il en résulte que la forme échelonnée réduite de \(A\) possèdera aussi une ligne de zéros et son déterminant sera aussi nul.
Ensuite, si \(R\) est la matrice identité, alors \(\det(B)\) est obtenu en multipliant toutes les constantes obtenues des opérations élémentaires de l’échelonnage. L’échelonnage de la matrice \(A\) n’ajoutant aucune opération élémentaire, puisque la première colonne est déjà pivot, on obtient que son déterminant sera égal à \(\det(B)\) sa forme échelonnée réduite étant également l’identité. Il s’ensuit que \(\det(A)=\det(B)\text{.}\)

8.

Dans la section 2.3, on démontre que le produit 2.3.18 \(AB\) est inversible si et seulement si les matrices \(A,B\) sont inversibles. Donner une preuve alternative de ce résultat en utilisant les déterminants.
Solution.
On se sert des propriétés 4.2.17:4 et 4.2.17:3.
\begin{align*} \det((AB)^{-1})&=\frac{1}{\det(AB)}& \text{ par } \knowl{./knowl/xref/li-detinv.html}{\text{4.2.17:3}}\\ &=\frac{1}{\det(A)\det(B)}& \text{ par } \knowl{./knowl/xref/li-detproduit.html}{\text{4.2.17:4}}\\ &=\frac{1}{\det(A)}\frac{1}{\det(B)}\\ &=\det(A^{-1})\det(B^{-1})& \text{ par } \knowl{./knowl/xref/li-detinv.html}{\text{4.2.17:3}} \end{align*}
On a fait ce calcul pour démontrer que l’inverse de \(AB\) existe si et seulement si les inverses de \(A\) et de \(B\) existent. En effet, par le théorème 4.2.18, on sait qu’une matrice est inversible si et seulement si son déterminant est non nul. Le calcul précédent exige que \(\det(AB)\neq 0\) si et seulement si \(\det(A)\neq 0\) et \(\det(B)\neq 0\text{,}\) étant donné que ce sont les conditions pour que l’égalité fonctionne.

9.

Dans l’exercice 4.1.4.9, on utilise le déterminant pour savoir si trois points sont alignés ou si deux vecteurs sont parallèles. On s’intéresse ici à l’équivalent dans \(\R^3\text{.}\)
(a)
Dans quelle(s) circonstance(s) géométrique(s) est-ce qu’un déterminant \(3\times 3\) est nul?
Réponse.
Si les vecteurs sont sur une même droite ou un même plan.
(b)
On vérifie que trois points sont alignés (colinéaires) dans \(\R^2\) en calculant un déterminant. Ce déterminant vaut zéro si les points sont alignés. Pour faire l’équivalent à trois dimensions, on considère quatre points. Que signifie le déterminant nul obtenu à partir de ces quatre points?
Réponse.
Il signifie que les quatre points sont sur un même plan dans \(\R^3\text{.}\) On peut affirmer que ces points sont coplanaires.
(c)
Formuler l’énoncé précédent en termes de vecteurs.
Réponse.
Trois vecteurs \(\vec{u},\vec{v},\vec{w}\in R^3\) se situent dans un même plan si leur déterminant est nul, c’est-à-dire si \(\det(\vec{u},\vec{v},\vec{w})=0\text{.}\) On peut affirmer que ces vecteurs sont coplanaires.

10.

Donner un argument géométrique au fait que le déterminant n’est défini que pour des matrices carrées.
Solution.
Plusieurs réponses sont possibles. On utilise l’argument de l’interprétation géométrique du déterminant comme un facteur de changement (d’aire, de volume, etc.). Si le déterminant représente une constante associée à une transformation linéaire permettant de mesurer l’effet de la transformation linéaire en fonction d’un facteur de changement sur l’aire, le volume ou l’hypervolume, alors il faut absolument que la transformation soit d’un espace vers ce même espace. En effet, comment pourrait-on parler de facteur de changement d’aire si l’on passe de \(\R^2\) vers \(\R^3\text{,}\) par exemple pour une transformation linéaire représentée par une matrice \(3\times 2\text{?}\) Cela n’a pas de sens. Il faut donc absolument avoir une matrice \(n\times n\) pour pouvoir parler d’un déterminant.

11.

Soit \(A(a_1,a_2),B(b_1,b_2)\) et \(C(c_1,c_2)\text{,}\) les coordonnées d’un triangle dans \(\R^2\text{.}\) On sait que l’on peut calculer l’aire du triangle \(ABC\) avec un déterminant \(\det(\vecl{AB},\vecl{AC})\) par exemple en le divisant par deux.
Montrer que l’aire du triangle peut aussi être obtenue à l’aide du déterminant
\begin{equation*} \frac{1}{2}\begin{vmatrix} 1&1&1\\ a_1&b_1&c_1\\ a_2&b_2&c_2 \end{vmatrix}\text{.} \end{equation*}
Solution.
On peut faire une preuve algébrique ou une preuve géométrique qui seraient toutes les deux valables. On choisit ici de faire les deux pour satisfaire les préférences de tous et toutes.
Géométriquement, il faut réfléchir à ce que représente le déterminant
\begin{equation*} \begin{vmatrix} 1&1&1\\ a_1&b_1&c_1\\ a_2&b_2&c_2 \end{vmatrix}\text{.} \end{equation*}
Les vecteurs colonnes de ce déterminant ont tous en commun une composante en \(x\) égale à \(1\text{.}\) Si l’on se positionne pour que l’axe des \(x\) pointe vers nous, ce que l’on observe, c’est un triangle parallèle au plan \(YOZ\) formés par les points \(A(a_1,a_2),B(b_1,b_2)\) et \(C(c_1,c_2)\) positionnés de la même façon qu’ils l’étaient dans \(\R^2\text{.}\) Le prisme droit de hauteur \(1\) a comme volume la même valeur que l’aire du triangle puisqu’on le calcule en multipliant l’aire de la base par sa hauteur, qui est \(1\text{.}\) On a démontré, à la figure 4.2.3, que le volume d’une pyramide triangulaire vaut les deux tiers du volume du prisme dans lequel elle est encastrée. Puisqu’on calcule le volume de la pyramide en divisant le déterminant par trois, on a donc la chaine d’égalités suivantes:
\begin{equation*} \text{Aire triangle ABC }=\text{ Volume prisme droit }=\frac{3}{2}(\text{Volume de la pyramide}) \end{equation*}
\begin{equation*} =\frac{3}{2}\frac{1}{3}\begin{vmatrix} 1&1&1\\ a_1&b_1&c_1\\ a_2&b_2&c_2 \end{vmatrix}=\frac{1}{2}\begin{vmatrix} 1&1&1\\ a_1&b_1&c_1\\ a_2&b_2&c_2 \end{vmatrix}\text{.} \end{equation*}
Algébriquement, on peut simplement développer les deux expressions en présence et observer qu’elles sont égales.
\begin{align*} \frac{1}{2}\det(\vecl{AB},\vecl{AC})&=\frac{1}{2}\det(\vecl{OB}-\vecl{OA},\vecl{OC}-\vecl{OA})\\ &=\frac{1}{2}\det((b_1,b_2)-(a_1,a_2),(c_1,c_2)-(a_1,a_2))\\ &=\frac{1}{2}\det((b_1-a_1,b_2-a_2),(c_1-a_1,c_2-a_2))\\ &=\frac{1}{2}\big((b_1-a_1)(c_2-a_2)-(b_2-a_2)(c_1-a_1)\big)\\ &=\frac{1}{2}\big(b_1c_2-b_1a_2-a_1c_2+a_1a_2-c_1b_2+c_1a_2+a_1b_2-a_1a_2\big)\\ &=\frac{1}{2}\big(b_1c_2-b_1a_2-a_1c_2-c_1b_2+c_1a_2+a_1b_2\big) \end{align*}
Pour développer
\begin{equation*} \begin{vmatrix} 1&1&1\\ a_1&b_1&c_1\\ a_2&b_2&c_2 \end{vmatrix}\text{,} \end{equation*}
il faut échelonner la matrice pour avoir une matrice triangulaire supérieure.
\begin{align*} \begin{pmatrix} 1&1&1\\ a_1&b_1&c_1\\ a_2&b_2&c_2 \end{pmatrix}&\matsimilc{1}{-a_1}{2}\begin{pmatrix} 1&1&1\\ 0&b_1-a_1&c_1-a_1\\ a_2&b_2&c_2 \end{pmatrix}\\ &\matsimilc{1}{-a_2}{3}\begin{pmatrix} 1&1&1\\ 0&b_1-a_1&c_1-a_1\\ 0&b_2-a_2&c_2-a_2 \end{pmatrix}\\ &\matsimilc{2}{-\frac{b_2-a_2}{b_1-a_1}}{3}\begin{pmatrix} 1&1&1\\ 0&b_1-a_1&c_1-a_1\\ 0&0&c_2-a_2-\frac{b_2-a_2}{b_1-a_1}(c_1-a_1) \end{pmatrix} \end{align*}
Puisque les opérations élémentaires effectuées étaient toutes du type 4.2.11:4, on obtient le déterminant en multipliant les éléments de la diagonale.
\begin{align*} \frac{1}{2}\begin{vmatrix} 1&1&1\\ a_1&b_1&c_1\\ a_2&b_2&c_2 \end{vmatrix}&=\frac{1}{2}\left(1*(b_1-a_1)*\left(c_2-a_2-\frac{b_2-a_2}{b_1-a_1}(c_1-a_1)\right)\right)\\ &=\frac{1}{2}\big((b_1-a_1)(c_2-a_2)-(b_2-a_2)(c_1-a_1)\big)\\ &=\frac{1}{2}\big(b_1c_2-b_1a_2-a_1c_2+a_1a_2-c_1b_2+c_1a_2+a_1b_2-a_1a_2\big)\\ &=\frac{1}{2}\big(b_1c_2-b_1a_2-a_1c_2-c_1b_2+c_1a_2+a_1b_2\big) \end{align*}
Noter que l’on aurait pu arrêter les deux calculs deux lignes plus tôt puisqu’on avait déjà obtenu la même expression.

12.

(a)
Montrer que
\begin{equation*} \begin{vmatrix} 1&1&1\\ x& y&z\\ x^2&y^2&z^2 \end{vmatrix}=(y-x)(z-x)(z-y) \end{equation*}
Indice.
Rendre la matrice triangulaire.
Solution.
On suit l’indice et l’on calcule le déterminant en échelonnant pour avoir une matrice triangulaire supérieure.
\begin{align*} \begin{pmatrix} 1&1&1\\ x& y&z\\ x^2&y^2&z^2 \end{pmatrix}&\matsimilc{1}{-x}{2}\begin{pmatrix} 1&1&1\\ 0& y-x&z-x\\ x^2&y^2&z^2 \end{pmatrix}\\ &\matsimilc{1}{-x^2}{3}\begin{pmatrix} 1&1&1\\ 0& y-x&z-x\\ 0&y^2-x^2&z^2-x^2 \end{pmatrix}\\ &\matsimilc{2}{-(y+x)}{3}\begin{pmatrix} 1&1&1\\ 0& y-x&z-x\\ 0&0 &z^2-x^2-(z-x)(y+x) \end{pmatrix} \end{align*}
Puisque les opérations élémentaires effectuées étaient toutes du type 4.2.11:4, on obtient le déterminant en multipliant les éléments de la diagonale.
\begin{align*} \begin{vmatrix} 1&1&1\\ x& y&z\\ x^2&y^2&z^2 \end{vmatrix}&=1*(y-x)*\big(z^2-x^2-(z-x)(y+x)\big)\\ &=(y-x)\big((z-x)(z+x)-(z-x)(y+x)\big)\\ &=(y-x)(z-x)\big((z+x)-(y+x)\big)\\ &=(y-x)(z-x)(z-y) \end{align*}

13.

Une matrice est dite orthogonale si \(QQ^T=I\text{,}\) c’est-à-dire que son inverse est égal à sa transposée.
(a)
Montrer que les matrices de rotation et de réflexion dans \(\R^2\) sont orthogonales.
Solution.
On connait ces matrices. Il suffit de faire le calcul. On commence par la matrice de rotation (2.1.13).
\begin{align*} R_{\theta}R_{\theta}^T&=\begin{pmatrix} \cos(\theta) & -\sin(\theta)\\ \sin(\theta) & \cos(\theta) \end{pmatrix}\begin{pmatrix} \cos(\theta) & -\sin(\theta)\\ \sin(\theta) & \cos(\theta) \end{pmatrix}^T\\ &=\begin{pmatrix} \cos(\theta) & -\sin(\theta)\\ \sin(\theta) & \cos(\theta) \end{pmatrix}\begin{pmatrix} \cos(\theta) & \sin(\theta)\\ -\sin(\theta) & \cos(\theta) \end{pmatrix}\\ &=\begin{pmatrix} \cos^2(\theta)+\sin^2(\theta) & \cos(\theta)\sin(\theta)-\cos(\theta)\sin(\theta)\\ \sin(\theta)\cos(\theta)-\sin(\theta)\cos(\theta) & \sin^2(\theta)+\cos^2(\theta) \end{pmatrix}\\ &=\begin{pmatrix} 1 & 0\\ 0 & 1 \end{pmatrix} \text{ par les identités trigonométriques}\\ &=I \end{align*}
On poursuit avec la matrice de réflexion (2.2.4).
\begin{align*} S_{\theta}S_{\theta}^T&=\begin{pmatrix} \cos(2\theta)& \sin(2\theta)\\ \sin(2\theta) & -\cos(2\theta) \end{pmatrix}\begin{pmatrix} \cos(2\theta)& \sin(2\theta)\\ \sin(2\theta) & -\cos(2\theta) \end{pmatrix}^T\\ &=\begin{pmatrix} \cos(2\theta)& \sin(2\theta)\\ \sin(2\theta) & -\cos(2\theta) \end{pmatrix}\begin{pmatrix} \cos(2\theta)& \sin(2\theta)\\ \sin(2\theta) & -\cos(2\theta) \end{pmatrix}\\ &=\begin{pmatrix} \cos^2(2\theta)+\sin^2(2\theta) & \cos(2\theta)\sin(2\theta)-\cos(2\theta)\sin(2\theta)\\ \sin(2\theta)\cos(2\theta)-\sin(2\theta)\cos(2\theta) & \sin^2(2\theta)+\cos^2(2\theta) \end{pmatrix} \\ &=\begin{pmatrix} 1 & 0\\ 0 & 1 \end{pmatrix} \text{ par les identités trigonométriques}\\ &=I \end{align*}
(b)
Quelles sont les valeurs possibles pour le déterminant d’une matrice orthogonale?
Réponse.
Il peut valoir \(1\) ou \(-1\text{.}\)
Solution.
On utilise la définition précédente. Soit \(Q\text{,}\) une matrice orthogonale. Alors, on sait que \(QQ^T=I\text{.}\) On calcule son déterminant.
\begin{align*} 1&=\det(I)\\ &=\det(QQ^T)\\ &=\det(Q)\det(Q^T) & \text{ par } \knowl{./knowl/xref/li-detproduit.html}{\text{4.2.17:4}}\\ &=\det(Q)\det(Q) & \text{ par l'exercice } \knowl{./knowl/xref/exo-preuvedettranspo.html}{\text{4.2.3.6}}\\ &=(\det(Q))^2 \end{align*}
Si \((\det(Q))^2=1\text{,}\) alors il n’y a que deux options, soit \(\det(Q)=1\) ou \(\det(Q)=-1\text{.}\)

14.

Une matrice antisymétrique est une matrice \(A\) telle que \(A=-A^T\text{.}\) Si \(A\) est une matrice antisymétrique de taille \(n\times n\)\(n\) est impair, montrer que \(\det(A)=0\text{.}\) Pourquoi est-ce impossible dans le cas où \(n\) est pair?
Solution.
Soit \(A\text{,}\) une matrice antisymétrique. On utilise les propriétés des déterminants pour calculer le déterminant de \(-A^T\text{.}\)
\begin{align*} \det(A)&=\det(-A^T) & \text{ par hypothèse}\\ &=(-1)^n\det(A^T) & \text{ par } \knowl{./knowl/xref/li-detr.html}{\text{4.2.11:2}}\\ &=(-1)^n\det(A) & \text{ par l'exercice } \knowl{./knowl/xref/exo-preuvedettranspo.html}{\text{4.2.3.6}}\\ &=(-1)\det(A) & \text{ car } n \text{ est impair} \end{align*}
Et donc, si \(\det(A)=-\det(A)\text{,}\) alors \(2\det(A)=0 \Rightarrow \det(A)=0\text{.}\) On remarque que l’on a utilisé la propriété 4.2.11:2 à la deuxième ligne \(n\) fois, une fois pour chaque ligne.
Il est clair que si \(n\) est pair, tout ce que l’on obtient, c’est que \(\det(A)=\det(A)\text{,}\) ce qui est toujours vrai.

15.

Dans cet exercice, on regarde l’aire, le volume ou l’hypervolume du solide engendré par un ensemble de vecteurs.
(a)
Soit \(\vec{u},\vec{v}\in\R^2\text{.}\) Montrer que l’aire du parallélogramme engendré par ces vecteurs est
\begin{equation*} \sqrt{\begin{vmatrix} \pscal{u}{u} &\pscal{u}{v}\\ \pscal{v}{u} & \pscal{v}{v} \end{vmatrix}}\text{.} \end{equation*}
Indice.
Considérer la matrice
\begin{equation*} A=\begin{pmatrix}\lvert & \lvert \\ \vec{u} & \vec{v} \\ \lvert & \lvert \end{pmatrix} \end{equation*}
et sa transposée
\begin{equation*} A^T=\begin{pmatrix} \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{u} &\hspace{-0.2cm} \rule[.5ex]{2.5ex}{0.5pt} \\ \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{v} &\hspace{-0.2cm} \rule[.5ex]{2.5ex}{0.5pt} \end{pmatrix} \end{equation*}
et remarquer que l’expression dans la racine représente le déterminant de \(A^TA\text{.}\)
Solution.
On suit l’indication en définissant la matrice \(A\) et sa transposée. Le déterminant de \(A\) correspond à l’aire du parallélogramme engendré par \(\vec{u}\) et \(\vec{v}\) (positive ou négative).
\begin{align*} \sqrt{\begin{vmatrix} \pscal{u}{u} &\pscal{u}{v}\\ \pscal{v}{u} & \pscal{v}{v} \end{vmatrix}}&=\sqrt{\det\left(\begin{pmatrix} \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{u} &\hspace{-0.2cm} \rule[.5ex]{2.5ex}{0.5pt} \\ \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{v} &\hspace{-0.2cm} \rule[.5ex]{2.5ex}{0.5pt} \end{pmatrix}\begin{pmatrix}\lvert & \lvert \\ \vec{u} & \vec{v} \\ \lvert & \lvert \end{pmatrix}\right)}& \text{ par } \knowl{./knowl/xref/eq-matvecprodgeneral.html}{\text{(2.1.6)}}\\ &=\sqrt{\det(A^TA)}\\ &=\sqrt{\det(A^T)\det(A)} & \text{ par } \knowl{./knowl/xref/li-detproduit.html}{\text{4.2.17:4}}\\ &=\sqrt{\det(A)\det(A)} & \text{ par } \knowl{./knowl/xref/li-dettransposee.html}{\text{4.2.17:6}}\\ &=\sqrt{\det(A)^2} \\ &=|\det(A)| \\ &=|\det(\vec{u},\vec{v})| \end{align*}
Cette expression est donc l’aire du parallélogramme.
(b)
Soit \(\vec{u},\vec{v}\in\R^3\text{.}\) Montrer que le volume du parallélépipède engendré par ces vecteurs est
\begin{equation*} \sqrt{\begin{vmatrix} \pscal{u}{u} &\pscal{u}{v}& \pscal{u}{w}\\ \pscal{v}{u} & \pscal{v}{v}& \pscal{v}{w}\\ \pscal{w}{u} & \pscal{w}{v}& \pscal{w}{w} \end{vmatrix}}\text{.} \end{equation*}
Solution.
On suit l’indication en définissant la matrice
\begin{equation*} A=\begin{pmatrix}\lvert & \lvert & \lvert \\ \vec{u} & \vec{v} & \vec{w} \\ \lvert & \lvert & \lvert \end{pmatrix} \end{equation*}
et sa transposée. Le déterminant de \(A\) correspond au volume du parallélépipède engendré par \(\vec{u}\text{,}\) \(\vec{v}\) et \(\vec{w}\) (positif ou négatif).
\begin{align*} \sqrt{\begin{vmatrix} \pscal{u}{u} &\pscal{u}{v}& \pscal{u}{w}\\ \pscal{v}{u} & \pscal{v}{v}& \pscal{v}{w}\\ \pscal{w}{u} & \pscal{w}{v}& \pscal{w}{w} \end{vmatrix}}&=\sqrt{\det\left(\begin{pmatrix} \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{u} &\hspace{-0.2cm} \rule[.5ex]{2.5ex}{0.5pt} \\ \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{v} &\hspace{-0.2cm} \rule[.5ex]{2.5ex}{0.5pt}\\ \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{w} &\hspace{-0.2cm} \rule[.5ex]{2.5ex}{0.5pt} \end{pmatrix}\begin{pmatrix}\lvert & \lvert & \lvert \\ \vec{u} & \vec{v} & \vec{w} \\ \lvert & \lvert & \lvert \end{pmatrix}\right)}& \text{ par } \knowl{./knowl/xref/eq-matvecprodgeneral.html}{\text{(2.1.6)}}\\ &=\sqrt{\det(A^TA)}\\ &=\sqrt{\det(A^T)\det(A)} & \text{ par } \knowl{./knowl/xref/li-detproduit.html}{\text{4.2.17:4}}\\ &=\sqrt{\det(A)\det(A)} & \text{ par } \knowl{./knowl/xref/li-dettransposee.html}{\text{4.2.17:6}}\\ &=\sqrt{\det(A)^2} \\ &=|\det(A)| \\ &=|\det(\vec{u},\vec{v},\vec{w})| \end{align*}
Cette expression est donc le volume du parallélépipède.
(c)
Généraliser les résultats précédents pour montrer que
\begin{equation*} \sqrt{\begin{vmatrix} \pscal{u_1}{u_1} &\pscal{u_1}{u_2}&\cdots & \pscal{u_1}{u_n}\\ \pscal{u_2}{u_1} & \pscal{u_2}{u_2}& \cdots &\pscal{u_2}{u_n}\\ \vdots& \vdots& \ddots & \vdots \\ \pscal{u_n}{u_1} & \pscal{u_n}{u_2}&\cdots & \pscal{u_n}{u_n} \end{vmatrix}} \end{equation*}
est égal à l’hypervolume du solide à \(n\) dimensions engendré par les vecteurs \(\vec{u}_1,\vec{u}_2,\ldots , \vec{u}_n\text{.}\)
Solution.
On continue avec la même démarche en définissant la matrice
\begin{equation*} A=\begin{pmatrix}\lvert & \lvert & \cdots &\lvert \\ \vec{u}_1 & \vec{u}_2 & \cdots & \vec{u}_n \\ \lvert & \lvert & \cdots & \lvert \end{pmatrix} \end{equation*}
et sa transposée. Le déterminant de \(A\) correspond à l’hypervolume du solide engendré par \(\vec{u}\text{,}\) \(\vec{v}\) et \(\vec{w}\) (positif ou négatif).
\begin{align*} \sqrt{\begin{vmatrix} \pscal{u_1}{u_1} &\pscal{u_1}{u_2}&\cdots & \pscal{u_1}{u_n}\\ \pscal{u_2}{u_1} & \pscal{u_2}{u_2}& \cdots &\pscal{u_2}{u_n}\\ \vdots& \vdots& \ddots & \vdots \\ \pscal{u_n}{u_1} & \pscal{u_n}{u_2}&\cdots & \pscal{u_n}{u_n} \end{vmatrix}}&=\sqrt{\det\left(\begin{pmatrix} \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{u}_1 &\hspace{-0.2cm} \rule[.5ex]{2.5ex}{0.5pt} \\ \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{u}_2 &\hspace{-0.2cm} \rule[.5ex]{2.5ex}{0.5pt}\\ \vdots & \vdots &\vdots\\ \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{u}_n &\hspace{-0.2cm} \rule[.5ex]{2.5ex}{0.5pt} \end{pmatrix}\begin{pmatrix}\lvert & \lvert & \cdots &\lvert \\ \vec{u}_1 & \vec{u}_2 & \cdots & \vec{u}_n \\ \lvert & \lvert & \cdots & \lvert \end{pmatrix}\right)}& \text{ par } \knowl{./knowl/xref/eq-matvecprodgeneral.html}{\text{(2.1.6)}}\\ &=\sqrt{\det(A^TA)}\\ &=\sqrt{\det(A^T)\det(A)} & \text{ par } \knowl{./knowl/xref/li-detproduit.html}{\text{4.2.17:4}}\\ &=\sqrt{\det(A)\det(A)} & \text{ par } \knowl{./knowl/xref/li-dettransposee.html}{\text{4.2.17:6}}\\ &=\sqrt{\det(A)^2} \\ &=|\det(A)| \\ &=|\det(\vec{u}_1,\vec{u}_2, \cdots , \vec{u}_n)| \text{.} \end{align*}
Cette expression est donc l’hypervolume de l’hyperparallélépipède (défi Scrabble du jour).

16. La méthode de Cramer.

Généraliser les idées de l’exercice 4.1.4.24 pour exprimer la solution à un système d’équations linéaires \(A\vec{x}=\vec{b}\text{,}\)\(A\) est une matrice \(n\times n\text{,}\) en fonction de déterminants.
On note que cette méthode n’est pas très pratique d’un point de vue calculatoire, car elle exige le calcul d’un grand nombre de déterminants. Elle est toutefois efficace dans le cas \(2\times 2\text{.}\)
Solution.
Soit \(A\text{,}\) une matrice de format \(n\times n\text{,}\) \(\vec{b}\in\R^n\text{,}\) un vecteur et soit l’équation \(A\vec{x}=\vec{b}\text{.}\) Cette équation représente le système d’équations linéaires:
\begin{align*} a_{1\,1}x_1+a_{1\,2}x_2+\cdots a_{1\,n}x_n &= b_1\\ a_{2\,1}x_1+a_{2\,2}x_2+\cdots a_{2\,n}x_n &= b_2\\ \vdots \\ a_{n\,1}x_1+a_{n\,2}x_2+\cdots a_{n\,n}x_n &= b_n \text{.} \end{align*}
On pose \(\vec{a}_1=(a_{1\, 1},a_{2\,1},\ldots , a_{n\,1}),\vec{a}_2=(a_{1\, 2},a_{2\,2},\ldots , a_{n\,2}),\ldots,\vec{a}_n=(a_{1\, n},a_{2\,n},\ldots , a_{n\,n})\) et \(\vec{b}=(b_1,b_2,\ldots , b_n)\text{,}\) pour pouvoir énoncer la méthode de Cramer. Alors,
\begin{equation*} A=\begin{pmatrix} \lvert & \lvert & \cdots & \lvert \\ \vec{a}_1 & \vec{a}_2 & \cdots & \vec{a}_n \\ \lvert & \lvert & \cdots & \lvert \end{pmatrix} \end{equation*}
et les valeurs des variables sont données par
\begin{equation*} x_1=\frac{\begin{vmatrix} \lvert & \lvert & \cdots & \lvert \\ \vec{b} & \vec{a}_2 & \cdots & \vec{a}_n \\ \lvert & \lvert & \cdots & \lvert \end{vmatrix}}{\det(A)}, x_2=\frac{\begin{vmatrix} \lvert & \lvert & \cdots & \lvert \\ \vec{a}_1 & \vec{b} & \cdots & \vec{a}_n \\ \lvert & \lvert & \cdots & \lvert \end{vmatrix}}{\det(A)}, \cdots , x_n=\frac{\begin{vmatrix} \lvert & \lvert & \cdots & \lvert \\ \vec{a}_1 & \vec{a}_2 & \cdots & \vec{b} \\ \lvert & \lvert & \cdots & \lvert \end{vmatrix}}{\det(A)}\text{.} \end{equation*}
La preuve serait très longue à faire et suivrait le modèle de l’exercice 4.1.4.24. On choisit de généraliser l’idée sans la démontrer algébriquement.

Exercices Sage.

Les exercices qui suivent sont conçus pour être réalisés avec Sage. Évidemment, il y a plusieurs manières d’arriver aux réponses.
17.
On considère la suite de matrices
\begin{align*} A_1&=(1)\\ A_2&=\begin{pmatrix} 1& 1\\ 1&2 \end{pmatrix}\\ A_3&=\begin{pmatrix} 1& 1& 1\\ 1&2 &2 \\ 1&2 & 3\end{pmatrix}\\ \vdots &= \vdots \\ A_n&=\begin{pmatrix} 1&1&1&\cdots & 1\\ 1&2&2& \cdots & 2\\ 1& 2&3& \cdots & 3\\ \vdots & \vdots &\vdots & \ddots & \vdots\\ 1& 2& 3& \cdots & n \end{pmatrix}\text{.} \end{align*}
Utiliser Sage pour formuler une hypothèse sur la valeur de \(\det(A_n)\) et démontrer ensuite le résultat.
Réponse.
Le déterminant est toujours égal à \(1\text{.}\)
Solution.
Voici une manière d’obtenir l’hypothèse.
def matexo(n):
    L=[] #On se définit une liste vide dans laquelle on va mettre les lignes de la matrice
    for i in range(n):  #On crée chaque ligne de la matrice
        v=[j+1 for j in range(i+1)]  #Les premières entrées de la ligne valent 1,2,3,...
        for j in range(n-(i+1)): #Pour les colonnes restantes, les entrées valent le numéro de la ligne (i+1 car Sage commence à 0)
            v.append(i+1)   
        L.append(v)  #On ajoute la ligne à la liste
    return matrix(L)   #On retourne la matrice
for k in range(6):
    show(matexo(k+1))
    show("det(A_%d)=" % (k+1),matexo(k+1).determinant())
Bloc de code 4.2.28. Le code solution de l’exercice
Pour faire la démonstration, on peut procéder par induction ou par calcul direct.
Si \(n=1\text{,}\) alors, de manière évidente, on a \(\det((1))=1\text{.}\) On suppose que \(\det(A_{n-1})=1\text{.}\) En utilisant l’opération \(-L_1+L_i\rightarrow L_i\) sur chaque ligne sous la première, on obtient
\begin{equation*} \begin{pmatrix} 1&1&1&\cdots & 1\\ 1&2&2& \cdots & 2\\ 1& 2&3& \cdots & 3\\ \vdots & \vdots &\vdots & \ddots & \vdots\\ 1& 2& 3& \cdots & n \end{pmatrix}= \begin{pmatrix} 1&1&1&\cdots & 1\\ 0&1&1& \cdots & 1\\ 0& 1&2& \cdots & 2\\ \vdots & \vdots &\vdots & \ddots & \vdots\\ 0& 1& 2& \cdots & n-1 \end{pmatrix}\text{.} \end{equation*}
En utilisant l’opération \(-L_2+L_1\rightarrow L_1\text{,}\) on obtient maintenant
\begin{align*} \begin{pmatrix} 1&1&1&\cdots & 1\\ 0&1&1& \cdots & 1\\ 0& 1&2& \cdots & 2\\ \vdots & \vdots &\vdots & \ddots & \vdots\\ 0& 1& 2& \cdots & n-1 \end{pmatrix} &=\begin{pmatrix} 1&0&0&\cdots & 0\\ 0&1&1& \cdots & 1\\ 0& 1&2& \cdots & 2\\ \vdots & \vdots &\vdots & \ddots & \vdots\\ 0& 1& 2& \cdots & n-1 \end{pmatrix}\\ &=\begin{pmatrix} 1&0&0&\cdots & 1\\ 0&&& & \\ 0& && A_n & \\ \vdots & \vdots &\vdots & \ddots & \vdots\\ 0& & & & \end{pmatrix}\text{.} \end{align*}
Puisque les opérations élémentaires de type \(kL_j+L_i\rightarrow L_i\) ne changent pas le déterminant, en utilisant l’exercice 4.2.3.7 on a \(\det(A_n)=\det(A_{n-1})=1\text{,}\) selon l’hypothèse d’induction.
18.
On considère la suite de matrices
\begin{align*} B_1&=(0)\\ B_2&=\begin{pmatrix} 0& 1\\ 1&0 \end{pmatrix}\\ B_3&=\begin{pmatrix} 0& 1& 1\\ 1&0 &1 \\ 1&1 & 0\end{pmatrix}\\ \vdots &= \vdots \\ B_n&=\begin{pmatrix} 0&1&1&\cdots & 1\\ 1&0&1& \cdots &1\\ 1& 1&0& \cdots &1\\ \vdots & \vdots &\vdots & \ddots &\vdots\\ 1& 1& 1& \cdots & 0 \end{pmatrix}\text{.} \end{align*}
Utiliser Sage pour formuler une hypothèse sur la valeur de \(\det(B_n)\text{.}\)
Réponse.
Le déterminant est \(\det(A_n)=(-1)^{n-1}(n-1)\text{.}\)
Solution.
Voici une fonction permettant de créer les matrices \(B_n\text{.}\) Elle utilise la méthode de construction par une fonction intermédiaire lambda. Voir [provisional cross-reference: Exemples sur les fonctions lambda].
def diag0autres1(i,j):
    if i==j:
        return 0
    else:
        return 1   
A=matrix(ZZ,5,lambda i,j: diag0autres1(i,j))
for i in range(10):
    show("det(A_%d)=" %(i+1), matrix(ZZ,i+1,lambda i,j: diag0autres1(i,j)).determinant())
Bloc de code 4.2.29. Le code solution pour l’exercice