Sauter au contenu
Logo image

Algèbre linéaire: Intuition et rigueur

Section 3.1 Les systèmes d’équations linéaires et la méthode de Gauss-Jordan

Aller aux exercices 3.1.4 de la section.
Un système d’équations linéaires (SEL) est un ensemble d’équations comprenant un certain nombre de variables qui sont multipliées par des constantes. Par exemple, les équations
\begin{align*} x+y&=1\\ x-y&=2 \end{align*}
forment un système d’équations linéaires, tout comme
\begin{alignat*}{4} x& {}+{} &2y&{}-{}&z&{}={}&1\\ 4x&{}-{}&5y && &{}={}&-1\\ &&3y&{}+{}&z&{}={}&0\text{.} \end{alignat*}
Par contre, le système
\begin{align*} 3x^2+5y&=1\\ 3\sin(x)-e^y&=0 \end{align*}
n’est pas linéaire, dû à la présence des termes \(x^2,\sin(x)\) et \(e^y\text{.}\)
Dans cette section, on définit la notion de système d’équations linéaires, la matrice associée à un tel système et l’on explore la résolution de ces systèmes à l’aide de la méthode de Gauss-Jordan.

Sous-section 3.1.1 Définition et exemples simples

On considère les solutions \((x,y)\) qui satisfont la paire d’équations
\begin{align*} x+2y&=4\\ 2x+3y&=7\text{.} \end{align*}
C’est un système d’équations linéaires à deux équations et à deux inconnues. On y reconnait aussi les équations normales (1.3.6) de deux droites de \(\R^2\text{.}\) Satisfaire ces deux équations simultanément serait donc équivalent à trouver l’intersection des deux droites. On se demander, étant données deux droites de \(\R^2\text{,}\) quel est le nombre de configurations possibles? Combien de points d’intersection y a-t-il dans chaque cas?
Pour illustrer les autres possibilités, on change le SEL précédent en remplaçant le \(3y\) de la seconde équation par un \(4y\text{.}\) On a donc le système
\begin{align*} x+2y&=4\\ 2x+4y&=7 \end{align*}
et les deux droites sont maintenant parallèles et distinctes (les vecteurs normaux sont parallèles).
Si, à partir de ce deuxième système, on change le \(7\) pour un \(8\text{,}\) on obtient
\begin{align*} x+2y&=4\\ 2x+4y&=8\text{.} \end{align*}
On remarque que la seconde équation n’est rien d’autre que la première multipliée par \(2\text{.}\) Les deux droites sont donc en fait la même droite, puisqu’on peut simplifier l’écriture de l’une et obtenir l’autre. On peut aussi les voir comme des droites parallèles confondues. Ces trois cas sont en fait les seules possibilités pour un SEL à deux équations et à deux inconnues. Ils sont illustrés aux figures 3.1.1–3.1.2.
Figure 3.1.1. Des droites sécantes dans \(\R^2\text{.}\)
Figure 3.1.2. Des droites parallèles distinctes dans \(\R^2\text{.}\)
Figure 3.1.3. Des droites parallèles confondues dans \(\R^2\text{.}\)
Qu’en est-il du cas de trois équations et trois inconnues? Puisqu’une équation de la forme \(ax+by+cz=d\) représente l’équation d’un plan dans \(\R^3\text{,}\) on peut voir un système d’équations linéaires à trois équations et trois inconnues comme l’intersection de trois plans dans l’espace. Pour l’intersection de deux droites dans \(\R^2\text{,}\) on avait aucune, une seule ou une infinité de solutions. L’exercice 3.1.4.17 explorera la géométrie des cas possibles pour des plans dans \(\R^3\text{.}\)
Au-delà de la géométrie, on s’intéresse au cas plus général: \(m\) équations linéaires avec \(n\) inconnues. Quelques définitions sont nécessaires.

Définition 3.1.4. Une équation linéaire.

Soit \(x_1,x_2,\ldots , x_n\text{,}\) des variables. Une équation de ces variables est linéaire si elle est de la forme
\begin{equation*} a_1x_1+a_2x_2+\cdots a_nx_n=b_1\text{,} \end{equation*}
\(a_1,a_2,\ldots a_n,b_1\in\R\text{.}\) Si l’on pose \(\vec{a}=(a_1,a_2,\ldots ,a_n), \vec{x}=(x_1,x_2,\ldots ,x_n)\text{,}\) il est possible de réécrire l’équation comme \(\pscal{a}{x}=b_1\text{.}\)

Définition 3.1.5. Système d’équations linéaires.

Un système d’équations linéaires (SEL) est un ensemble de \(m\) équations linéaires comportant chacune \(n\) inconnues. Typiquement, on écrira
\begin{align*} a_{1\,1}x_1+a_{1\,2}x_2+\cdots +a_{1\,n}x_n &= b_1 \\\\ a_{2\,1}x_1+a_{2\,2}x_2+\cdots +a_{2\,n}x_n &= b_2 \\\\ \vdots \\ a_{m\,1}x_1+a_{m\,2}x_2+\cdots +a_{m\,n}x_n &= b_m \\\text{.} \end{align*}
En posant \(\vec{a}_1=(a_{1\, 1},a_{2\,1},\ldots , a_{m\,1}),\vec{a}_2=(a_{1\, 2},a_{2\,2},\ldots , a_{m\,2}),\ldots,\vec{a}_n=(a_{1\, n},a_{2\,n},\ldots , a_{m\,n}),\vec{b}=(b_1,b_2,\ldots , b_m)\text{,}\) on reconnait dans le SEL la multiplication matrice et vecteur (2.1.7). Donc, pour
\begin{equation*} A=\begin{pmatrix} \lvert & \lvert & \cdots & \lvert \\ \vec{a}_1 & \vec{a}_2 & \cdots & \vec{a}_n \\ \lvert & \lvert & \cdots & \lvert \end{pmatrix}\text{,} \end{equation*}
le SEL peut s’écrire comme
\begin{equation} A\vec{x}=\vec{b}\text{.}\tag{3.1.1} \end{equation}
L’ensemble des valeurs qui satisfont un SEL est appelé l’ensemble solution.
Avant de déterminer de quelle manière il est possible de résoudre les systèmes d’équations linéaires, on donne quelques exemples.

Exemple 3.1.6. De la forme SEL à la forme matricielle.

On considère les systèmes d’équations linéaires introduits en début de sous-section. On avait
\begin{align*} x+2y&=4\\ 2x+3y&=7\text{,} \end{align*}
\begin{align*} x+2y&=4\\ 2x+4y&=7 \end{align*}
et
\begin{align*} x+2y&=4\\ 2x+4y&=8\text{.} \end{align*}
On veut écrire chacun de ces systèmes d’équations linéaires sous forme matricielle.
Solution.
Si l’on pose \(A=\matcold{1}{2}{2}{3}, B=\matcold{1}{2}{2}{4},\vec{b}=\vecd{4}{7}\) et \(\vec{c}=\vecd{4}{8}\text{,}\) les SEL s’écrivent respectivement comme
\begin{align*} A\vec{x}&=\vec{b}\\ B\vec{x}&=\vec{b}\\ B\vec{x}&=\vec{c}\text{,} \end{align*}
\(\vec{x}=(x,y)\text{.}\)
Il est aussi important de traduire une situation sous la forme d’un SEL.

Exemple 3.1.7. De la forme matricielle à la forme SEL.

Soit \(A=\matcolt{1}{2}{-1}{3}{2}{0}{1}{-4}{2}\text{.}\) On cherche à écrire trois systèmes d’équations linéaires qui permettent de déterminer l’inverse de \(A\text{.}\)
Solution.
Selon l’équation (2.3.11), les colonnes de la matrice inverse sont les vecteurs \(\vec{b}_1,\vec{b}_2,\vec{b}_3\) qui satisfont les équations
\begin{align*} A\vec{b}_1 &= \vec{e}_1 \\ A\vec{b}_2 &= \vec{e}_2 \\ A\vec{b}_3&=\vec{e}_3 \text{.} \end{align*}
Ces réponses représentent un système d’équations linéaires sous leur forme actuelle et répondent à la question, mais, pour montrer la forme en équations, on peut effectuer les multiplications. Les trois systèmes deviennent alors
\begin{equation*} \matcolt{1}{2}{-1}{3}{2}{0}{1}{-4}{2} \vecddd{b_{1\,1}}{b_{1\,2}}{b_{1\,3}}=\vecddd{1}{0}{0}\text{:} \end{equation*}
\begin{alignat*}{4} b_{1\,1}& {} + {}& 3b_{1\,2}&{} +{} & b_{1\,3}&{}={}& 1\\ 2b_{1\,1}&{} +{}& 2b_{1\,2}&{} -{}& 4b_{1\,3}&{}=& 0\\ -b_{1\,1}&& &{} +{} & 2b_{1\, 3}&{}={} & 0\text{,} \end{alignat*}
\begin{equation*} \matcolt{1}{2}{-1}{3}{2}{0}{1}{-4}{2}\vecddd{b_{2\,1}}{b_{2\,2}}{b_{2\,3}}=\vecddd{0}{1}{0}\text{:} \end{equation*}
\begin{alignat*}{4} b_{2\,1}& {} +{} & 3b_{2\,2}& {} + {}& b_{2\,3}&{}={} & 0\\ 2b_{2\,1}& {}+ {}& 2b_{2\,2} &{}-{}& 4b_{2\,3}&{}={}& 1\\ -b_{2\,1} & & & {}+{}& 2b_{2\, 3}&{}={}&0 \end{alignat*}
et
\begin{equation*} \matcolt{1}{2}{-1}{3}{2}{0}{1}{-4}{2} \vecddd{b_{3\,1}}{b_{3\,2}}{b_{3\,3}}=\vecddd{0}{0}{1}\text{:} \end{equation*}
\begin{alignat*}{4} b_{3\,1}& {} +{}& 3b_{3\,2} & {}+{}& b_{3\,3}&{}={}&0\\ 2b_{3\,1} &{}+{} & 2b_{3\,2}& {} -{} & 4b_{3\,3}&{}={}& 0\\ -b_{3\,1}& & & {}+{}& 2b_{3\, 3}&{}={}&1\text{.} \end{alignat*}
Il peut aussi y avoir un nombre différent de variables et d’équations.

Exemple 3.1.8. Un système d’équations linéaires rectangulaire.

On considère le système
\begin{alignat*}{5} x& & &{}-{}&3z&{}+{}&w&{}={}&0\\ &&3y&{}+{}&z&{}-{}&2w&{}={}&1\\ x&{}+{}&y&{}-{}&z&{}-{}&5w&{}={}&-1\text{.} \end{alignat*}
La matrice associée à ce système est \(\begin{pmatrix} 1& 0 &-3&1 \\ 0&3&1&-2 \\ 1&1&-1&-5\end{pmatrix}\text{.}\)

Sous-section 3.1.2 Opérations et matrices élémentaires

On regarde le système simplifié
\begin{alignat*}{3} x& {}{}&&{}={}&2 \\ &{}{} &y&{}={}&1\text{.} \end{alignat*}
La solution à un tel système se lit directement dans équations, soit \(x=2,y=1\text{.}\)
Voici une variante de ce système qui possède la même solution:
\begin{alignat*}{3} x&{}+{}&2y&{}={}&4\\ & &y&{}={}&1\text{.} \end{alignat*}
Dans ce système, on peut directement lire la valeur de la variable \(y\text{,}\) soit \(y=1\text{.}\) En la remplaçant dans la première équation, on peut ensuite trouver \(x=2\text{.}\) Un tel système est dit triangulaire.
Finalement, on considère à nouveau le SEL du début de section :
\begin{align*} x+2y&=4\\ 2x+3y&=7\text{.} \end{align*}
Une vérification rapide montre que le couple \(x=2,y=1\) satisfait cette paire d’équations. Plusieurs méthodes peuvent être utilisées pour résoudre ce système, que ce soit par comparaison, par substitution, par réduction ou par une combinaison de ces trois techniques.
Le but de cette section est de développer une méthode générale, par le biais d’un algorithme qui permettra de trouver la ou les solutions à n’importe quel système d’équations linéaires. De plus, si le système n’a aucune solution, la méthode le dira.
On s’intéresse au système
\begin{align} 2x+3y&=7\tag{3.1.2}\\ x+2y&=4\text{.}\tag{3.1.3} \end{align}
Ce système est identique au précédent, mais l’ordre des équations a été inversé. On s’attend toutefois à ce que la solution trouvée soit encore valide.
De même, le système
\begin{alignat*}{3} 4x&{}+{}&6y&{}={}&14\\ -x&{}-{}&2y&{}={}&-4 \end{alignat*}
devrait aussi posséder la même solution, puisqu’en divisant la première équation par \(2\) et la seconde par \(-1\text{,}\) on obtient le système précédent. Une simple vérification permet de constater que \(x=2,y=1\) est bel et bien une solution.
Finalement, on considère le système
\begin{alignat}{3} 2x\amp{}+{}&3y&{}={}&7\notag\\ -x\amp{}-{}&y\amp{}={}\amp-3\text{.}\tag{3.1.4} \end{alignat}
Ce système a la même première équation que le premier système, mais la seconde est différente. En fait, géométriquement, c’est une tout autre droite. Pourtant, la solution \(x=2,y=1\) est encore valide. Les trois droites sont illustrées à la figure 3.1.9.
Figure 3.1.9. Les trois droites sécantes en un même point.
Quelqu’un de perspicace aura peut-être remarqué que, si l’on soustrait l’équation (3.1.2) de l’équation (3.1.3), on obtient l’équation (3.1.4). On peut faire ici l’hypothèse que, si l’on additionne (ou soustrait) à une ligne un multiple d’une autre ligne, la solution ne change pas. On détaillera cette propriété sous peu.

Définition 3.1.10. Les opérations élémentaires.

On considère un système d’équations linéaires quelconque à \(m\) équations et \(n\) inconnues. Les trois opérations suivantes sont appelées les opérations élémentaires:
  1. Interchanger la position de deux équations;
  2. Multiplier une équation par une constante non nulle;
  3. Ajouter à une équation un multiple d’une autre.
Si \(A\) est la matrice du système, alors les trois opérations élémentaires se traduisent en forme matricielle par:
  1. Interchanger la position de deux lignes;
  2. Multiplier une ligne par une constante non nulle;
  3. Ajouter à une ligne un multiple d’une autre.
Un SEL (ou une matrice) qui s’obtient à partir d’un autre par une suite d’opérations élémentaires est dit équivalent à ce dernier. Si une matrice \(A\) est équivalente à \(B\text{,}\) on écrit \(A\sim B\text{.}\)

Exemple 3.1.11. Les opérations élémentaires.

On considère le système
\begin{equation*} \matcolt{1}{2}{-1}{3}{2}{0}{1}{-4}{2}\vecddd{x}{y}{z}=\vecddd{1}{0}{0}\text{.} \end{equation*}
On tente de résoudre ce système en le transformant en un autre, plus simple, à l’aide des opérations élémentaires. La proposition 3.1.12 justifiera ces étapes, et l’algorithme de Gauss-Jordan 3.1.25 saura donner une structure aux étapes effectuées ici. L’algorithme clarifiera aussi le moment convenable pour arrêter.
Solution.
On obtient, en soustrayant de la ligne deux le double de la ligne un, le SEL équivalent
\begin{equation*} \matcolt{1}{0}{-1}{3}{-4}{0}{1}{-6}{2} \vecddd{x}{y}{z}=\vecddd{1}{-2}{0}\text{.} \end{equation*}
À partir de ce nouveau système, on additionne la ligne un à la ligne trois pour obtenir le SEL équivalent
\begin{equation*} \matcolt{1}{0}{0}{3}{-4}{3}{1}{-6}{3}\vecddd{x}{y}{z}=\vecddd{1}{-2}{1}\text{.} \end{equation*}
On multiplie maintenant la ligne deux par \(-\frac{1}{4}\text{,}\) ce qui donne
\begin{equation*} \matcolt{1}{0}{0}{3}{1}{3}{1}{\frac{3}{2}}{3} \vecddd{x}{y}{z}=\vecddd{1}{\frac{1}{2}}{1}\text{.} \end{equation*}
On poursuit avec la soustraction du triple de la ligne deux à la ligne trois:
\begin{equation*} \matcolt{1}{0}{0}{3}{1}{0}{1}{\frac{3}{2}}{-\frac{3}{2}}\vecddd{x}{y}{z}=\vecddd{1}{\frac{1}{2}}{-\frac{1}{2}}\text{.} \end{equation*}
On effectue finalement une dernière étape qui consiste à multiplier la ligne trois par \(-\frac{2}{3}\text{,}\) pour avoir le système d’équations linéaires
\begin{equation*} \matcolt{1}{0}{0}{3}{1}{0}{1}{\frac{3}{2}}{1}\vecddd{x}{y}{z}=\vecddd{1}{\frac{1}{2}}{\frac{1}{3}}\text{.} \end{equation*}
On écrit sous forme d’équations linéaires le dernier système.
\begin{alignat*}{4} x&{}+{}&3y&{}+{}&z&{}={}&1\\ & &y&{}+{}&\frac{3}{2}z&{}={}&\frac{1}{2}\\ &&&&z&{}={}&\frac{1}{3}\text{.} \end{alignat*}
Même si les étapes pour y arriver ne sont peut-être pas encore claires, on remarque que le SEL est maintenant triangulaire et qu’on peut lire directement la valeur de la composante \(z\) de la solution, soit \(z=\frac{1}{3}\text{.}\) En substituant cette valeur pour \(z\) dans la seconde équation du SEL, on détermine \(y=0\) et finalement, en remplaçant \(y,z\) dans la première ligne, on trouve \(x=\frac{2}{3}\text{.}\)
Une vérification finale permettra de voir que le vecteur \(\left(\frac{2}{3},0,\frac{1}{3}\right)\) est une solution du système original.
La solution de l’exemple précédent montre que si l’on arrive à transformer un SEL en utilisant les opérations élémentaires, on peut espérer arriver à un SEL équivalent qui sera plus simple à résoudre. Toutefois, des questions demeurent. Est-on assuré que les solutions du nouveau système seront les mêmes que celles du système initial? Qui plus est, si l’on avait effectué un choix différent d’opérations élémentaires, aurait-on obtenu la même solution? Combien de solutions peut-il y avoir?
La méthode de Gauss-Jordan, qu’on présentera à la section 3.1.3, donne une manière algorithmique de trouver toutes les solutions à un SEL, peu importe les opérations élémentaires effectuées. Elle fonctionne, entre autres, grâce à la proposition suivante.

Démonstration.

Il suffit de montrer que chacune des trois opérations élémentaires préserve les solutions.
Dans un premier temps, si les deux systèmes n’ont pas de solution, alors l’ensemble solution est le même, c’est-à-dire que c’est l’ensemble vide. Si toutefois un des systèmes a au moins une solution, on raisonne comme suit.
Il est clair qu’interchanger deux lignes ne changera pas la solution, puisque ce sont exactement les mêmes équations. Leur position est un choix arbitraire.
Soit \(\vec{u}\text{,}\) une solution au système \(A\vec{x}=\vec{b}\text{.}\)
On suppose que \(B\vec{y}=\vec{c}\) soit obtenu à partir du premier système en multipliant la ligne \(i\) par la constante \(r\in\R, r\neq 0\text{.}\) Puisque \(\vec{u}\) est une solution à \(A\vec{x}=\vec{b}\text{,}\) on a
\begin{align*} a_{i\,1}u_1+a_{i\,2}u_2+\cdots + a_{i\,n}u_n&=b_i\\ r(a_{i\,1}u_1+a_{i\,2}u_2+\cdots + a_{i\,n}u_n)&=rb_i\\ ra_{i\,1}u_1+ra_{i\,2}u_2+\cdots + ra_{i\,n}u_n&=rb_i\\ b_{i\,1}u_1+b_{i\,2}u_2+\cdots + b_{i\,n}u_n&=c_i\text{.} \end{align*}
Comme les autres lignes du SEL sont les mêmes, on conclut que \(\vec{u}\) est aussi une solution du système \(B\vec{y}=\vec{c}\text{.}\) Si, au contraire, on connait une solution \(\vec{v}\) au système \(B\vec{y}=\vec{c}\text{,}\) on peut renverser l’ordre du calcul précédent pour montrer que \(\vec{v}\) est aussi une solution au système \(A\vec{x}=\vec{b}\text{.}\)
On suppose maintenant que la ligne \(i\) du système \(B\vec{y}=\vec{c}\) est obtenue en ajoutant \(r\) fois la ligne \(j\) à la ligne \(i\text{.}\) Puisque \(\vec{u}\) est une solution de \(A\vec{x}=\vec{b}\text{,}\) en additionnant \(r\) fois la ligne \(j\) à la ligne \(i\text{,}\) on a
\begin{align*} a_{i\,1}u_1+a_{i\,2}u_2+\cdots + a_{i\,n}u_n+r(a_{j\,1}u_1+a_{j\,2}u_2+\cdots + a_{j\,n}u_n)&=b_i+rb_j\\ a_{i\,1}u_1+a_{i\,2}u_2+\cdots + a_{i\,n}u_n+ra_{j\,1}u_1+ra_{j\,2}u_2+\cdots + ra_{j\,n}u_n&=c_i\\ a_{i\,1}u_1+ra_{j\,1}u_1+a_{i\,2}u_2+ra_{j\,2}u_2+\cdots + a_{i\,n}u_n+ ra_{j\,n}u_n&=c_i\\ b_{i\,1}u_1+b_{i\,2}u_2+\cdots+b_{i\,n}u_n&=c_i\text{.} \end{align*}
Ainsi, \(\vec{u}\) est aussi une solution du système \(B\vec{y}=\vec{c}\text{.}\) Si, au contraire, on connait une solution \(\vec{v}\) au système \(B\vec{y}=\vec{c}\text{,}\) on peut renverser l’ordre du calcul précédent pour montrer que \(\vec{v}\) est aussi une solution au système \(A\vec{x}=\vec{b}\text{.}\)
L’écriture à chaque ligne de la matrice, du vecteur \(\vecddd{x}{y}{z}\) et du vecteur \(\vec{b}\) était un peu encombrante. On constate, en regardant les calculs, que seuls la matrice et le vecteur \(\vec{b}\) changent pendant le calcul. On propose la notation suivante, pour simplifier l’écriture.

Définition 3.1.13. La matrice augmentée.

Soit \(A\vec{x}=\vec{b}\text{,}\) un système d’équation linéaire \(m\times n\text{.}\) On définit la matrice augmentée de ce système comme étant la matrice
\begin{equation*} (A|\vec{b})=\begin{pmatrix}a_{1\, 1}&a_{1\, 2}&\cdots & a_{1\, n}& |& b_1\\ a_{2\, 1}&a_{2\, 2}&\cdots & a_{2\, n}&|& b_2\\ \vdots & \vdots & \ddots & \vdots & |&\vdots\\ a_{m\, 1}&a_{m\, 2}&\cdots & a_{m\, n}& |&b_m\\ \end{pmatrix}\text{.} \end{equation*}
Lors du calcul d’un SEL équivalent, il est possible de travailler uniquement avec la matrice augmentée seulement et de facilement la convertir sous la forme SEL par la suite. Ceci sera illustré dans les exemples subséquents.
Avant de terminer cette sous-section, on montre que les opérations élémentaires peuvent être vues comme étant tout simplement une application du produit matriciel. Cette constatation a des applications plus théoriques que pratiques, mais on en verra l’utilité prochainement.

Définition 3.1.14. Les matrices élémentaires.

Considérons la matrice identité d’ordre \(n\text{.}\) Une matrice élémentaire est une matrice obtenue à partir de la matrice identité en effectuant sur celle-ci une et une seule opération élémentaire.
On regarde les matrices élémentaires associées à l’exemple 3.1.11.

Exemple 3.1.15. Les matrices élémentaires.

Pour chaque opération élémentaire de l’exemple 3.1.11, on donne la matrice élémentaire associée. Leur utilité sera explorée dans l’exemple calculatoire 3.1.17.
Solution.
La première opération élémentaire effectuée soustrayait le double de la ligne un à la ligne deux. Si l’on effectue cette opération élémentaire sur la matrice identité, on obtient
\begin{equation*} \matcolt{1}{0}{0}{0}{1}{0}{0}{0}{1}\sim\matcolt{1}{-2}{0}{0}{1}{0}{0}{0}{1}=E_1\text{.} \end{equation*}
En fait, on profite de cet exemple pour introduire un élément de notation. Plutôt que de décrire en mot chaque opération élémentaire effectuée, on utilise l’une des variantes de notation suivante, qu’on écrira au-dessus du symbole \(\sim\text{.}\)
  1. Pour illustrer la permutation de la ligne \(i\) avec la ligne \(j\text{,}\) on utilise la notation \(L_i \leftrightarrow L_j\text{.}\)
  2. Pour illustrer que la ligne \(i\) est multipliée par la constante non nulle \(r\text{,}\) on utilise la notation \(rL_i\rightarrow L_i\text{.}\)
  3. Finalement, pour illustrer qu’on ajoute \(r\) fois la ligne \(j\) à la ligne \(i\text{,}\) on utilise la notation \(L_i+rL_j\rightarrow L_i\text{.}\)
En poursuivant avec les opérations de l’exemple 3.1.11, on a, dans l’ordre
\begin{align*} \matcolt{1}{0}{0}{0}{1}{0}{0}{0}{1}&\stackrel{\scriptsize L_3+L_1\rightarrow L_3}{\sim}\matcolt{1}{0}{1}{0}{1}{0}{0}{0}{1}=E_2\\ \matcolt{1}{0}{0}{0}{1}{0}{0}{0}{1}&\stackrel{\scriptsize -\frac{1}{4}L_2\rightarrow L_2}{\sim}\matcolt{1}{0}{0}{0}{-\frac{1}{4}}{0}{0}{0}{1}=E_3\\ \matcolt{1}{0}{0}{0}{1}{0}{0}{0}{1}&\stackrel{\scriptsize L_3-3L_2\rightarrow L_3}{\sim}\matcolt{1}{0}{0}{0}{1}{-3}{0}{0}{1}=E_4\\ \matcolt{1}{0}{0}{0}{1}{0}{0}{0}{1}&=\stackrel{\scriptsize -\frac{2}{3}L_3\rightarrow L_3}{\sim}\matcolt{1}{0}{0}{0}{1}{0}{0}{0}{-\frac{2}{3}}=E_5\text{.} \end{align*}
Chaque opération élémentaire mène donc à une matrice. Qui plus est, ces matrices sont inversibles.

Démonstration.

On termine avec des commandes Sage en lien avec la sous-section.

Calcul 3.1.17. Les matrices élémentaires sur Sage.

Les matrices élémentaires peuvent être codées avec Sage. La syntaxe est elementary_matrix(n, row1=i,row2=j, scale=r), où \(n\) est la taille de la matrice carrée. Selon l’opération que l’on veut effectuer, certains arguments ne seront pas utilisés. Par exemple, si l’on ne met pas \(r\text{,}\) l’opération est d’interchanger les lignes. Si l’on omet le \(j\text{,}\) l’opération est de multiplier la ligne \(i\) par \(r\text{,}\) et si les trois arguments sont présents, l’opération est \(rL_j+L_i\rightarrow L_i\text{.}\)
On regarde l’utilisation de ces matrices avec Sage, en utilisant les matrices élémentaires de l’exemple 3.1.15.
L’avantage de ces matrices, c’est que les opérations élémentaires peuvent être vues comme la multiplication par la gauche d’une matrice élémentaire. Pour l’observer, on propose de refaire la simplification de l’exemple 3.1.11 à l’aide des matrices \(E_1\) à \(E_5\text{.}\) On introduit également la matrice augmentée avec Sage.
Comme chacune des étapes suivantes est effectuée après les précédentes, il est important de bien faire les multiplications.
Le résultat est bel et bien le même que la matrice à la fin de l’exemple 3.1.11.

Sous-section 3.1.3 La méthode de Gauss-Jordan

Dans la dernière sous-section, on a vu que les opérations élémentaires permettent de prendre un système d’équations linéaires et de le transformer en un système équivalent, plus simple. Il serait intéressant d’avoir une méthode applicable dans tous les cas, avec un critère clair pour savoir quand arrêter. Pour cela, on définit la forme échelonnée réduite d’une matrice.

Définition 3.1.18. Forme échelonnée réduite d’une matrice.

Soit \(A\text{,}\) une matrice de taille \(m\times n\text{.}\) Le premier élément non nul de chaque ligne est appelé le pivot de cette ligne.
On dit que \(A\) est échelonnée réduite si elle satisfait chacune des caractéristiques suivantes:
Liste 3.1.19. Condition pour être échelonnée réduite
  1. Si la matrice contient des lignes dont toutes les entrées sont nulles (donc sans pivot), ces lignes sont dans le bas de la matrice.
  2. Le pivot de chaque ligne non nulle est égal à \(1\text{.}\)
  3. De haut en bas, les pivots sont à la droite (pas nécessairement directement) les uns des autres.
  4. Les entrées d’une colonne pivot sont toutes égales à \(0\text{,}\) sauf le pivot.
Lorsqu’une matrice est sous la forme échelonnée réduite, la position de ses pivots sera particulièrement importante.

Définition 3.1.20. Pivots, variables liées et variables libres.

Soit \(A\text{,}\) une matrice \(m\times n\) et \(B\) sa forme échelonnée réduite.
 1 
La proposition 3.1.24 confirmera qu’il n’y a qu’une forme échelonnée réduite pour une matrice donnée.
Si la colonne \(j\) de la matrice \(B\) contient un pivot, on dit que la colonne \(j\) est une colonne pivot pour la matrice \(A\) et que la variable \(x_j\) est une variable pivot, ou liée.
Les variables qui ne sont pas des variables liées sont dites libres.
La notion de variables libres jouera un plus grand rôle dans la sous-section 3.2.1. Pour l’instant, on regarde des exemples de matrices respectant certaines des conditions de la définition 3.1.18 afin de bien comprendre ce concept.

Exemple 3.1.21. Matrice échelonnée réduite.

Parmi les matrices suivantes, déterminer quelle(s) condition(s) de la définition 3.1.18 est(sont) respectée(s).
  1. \(\displaystyle A=\matcold{2}{0}{0}{0}\)
  2. \(\displaystyle B=\matcold{1}{0}{2}{1}\)
  3. \(\displaystyle C=\begin{pmatrix}0 & 1 & 0& 3 \\ 1 & 0 & 0& 1 \\ 0& 0 & 1& 1\end{pmatrix}\)
  4. \(\displaystyle D=\matcolt{0}{0}{0}{1}{0}{0}{0}{1}{0}\)
  5. \(\displaystyle E=\matcolt{1}{0}{0}{2}{0}{0}{0}{0}{1}\)
Solution 1.
La matrice \(A\) contient une ligne nulle et celle-ci est dans le bas de la matrice. La première condition est donc satisfaite. La deuxième condition n’est pas satisfaite. Le pivot de la première ligne est égal à \(2\) et non à \(1\text{.}\) La condition trois est respectée, car il n’y a qu’un seul pivot. Finalement, la colonne \(1\text{,}\) correspondant au pivot de la première ligne, ne contient que des zéros, sauf pour l’entrée pivot. La condition quatre est donc respectée.
Comme une des quatre conditions n’est pas respectée, la matrice n’est pas échelonnée réduite.
Solution 2.
La matrice \(B\) respecte la première condition par défaut, car elle ne possède pas de ligne nulle. De plus, les deux pivots sont égaux à \(1\) et le second se trouve à la droite du premier, donc les conditions deux et trois sont respectées. Par contre, la deuxième colonne est pivot et contient des entrées non nulles (le \(2\)) autres que le pivot de la deuxième ligne. Elle ne respecte donc pas la condition quatre.
Comme une des quatre conditions n’est pas respectée, la matrice n’est pas échelonnée réduite.
Solution 3.
La matrice \(C\) ne possède pas de ligne nulle, donc elle respecte la condition un. Les pivots sont tous égaux à \(1\text{,}\) ce qui fait que la condition deux est respectée. Par contre, le second pivot est à gauche du premier. La troisième condition n’est donc pas respectée. La dernière condition l’est toutefois, car toutes les colonnes pivots ne contiennent que des zéros aux endroits non-pivots.
Comme une des quatre conditions n’est pas respectée, la matrice n’est pas échelonnée réduite.
Solution 4.
La matrice \(D\) contient une ligne de zéros qui se trouve dans le bas de la matrice. La première condition est respectée. De plus, les pivots sont tous égaux à \(1\) et se trouvent à droite les uns des autres, lorsqu’on regarde les lignes de haut en bas. Les conditions deux et trois sont aussi respectées. Finalement, les colonnes pivots \(2\) et \(3\) ne contiennent que des zéros aux endroits non-pivots. La condition quatre est donc aussi respectée.
Comme les quatre conditions sont respectées, la matrice est échelonnée réduite.
Solution 5.
La matrice \(E\) contient une ligne de zéro, soit la deuxième. Toutefois, la ligne trois contient des entrées non nulles. La première condition n’est donc pas respectée. Il y a deux pivots égaux à \(1\text{,}\) dans la ligne un et dans la ligne trois. Le pivot de la ligne trois se trouvant à droite de celui de la ligne un, les conditions deux et trois sont respectées. Finalement, les colonnes pivots (un et trois) ne contiennent que des zéros aux endroits non-pivot. La quatrième condition est aussi respectée.
Comme une des quatre conditions n’est pas respectée, la matrice n’est pas échelonnée réduite.

Remarque 3.1.22. Origine du terme "échelon".

Le mot échelonnée dans la forme échelonnée réduite vient d’échelle. On peut en effet percevoir un certain effet d’escalier en regardant les pivots d’une matrice échelonnée réduite.
Les pivots de la forme échelonnée réduite d’une matrice sont donnés. Comme ces pivots se trouvent à la droite les uns des autres lorsqu’on lit la matrice de haut en bas, on peut y voir un escalier.
Figure 3.1.23. Justification du mot "échelon"
À ce stade-ci, on se doute bien qu’il est possible de transformer une matrice en une matrice équivalente qui sera échelonnée réduite en utilisant les opérations élémentaires. S’il s’avérait que la forme échelonnée réduite d’une matrice était unique, on aurait alors une façon de savoir quand arrêter les opérations élémentaires.

Démonstration.

On utilise une preuve par induction [provisional cross-reference: annexe preuves] sur le nombre de colonnes de la matrice \(A\text{.}\)
  1. Le cas \(n=1\text{:}\) Si la matrice \(A\) n’est qu’un vecteur colonne, alors ce vecteur peut être est nul, auquel cas il est déjà sous la forme rref. Toutes les opérations sur les lignes ne changent pas le vecteur nul et donc sa forme rref est unique. Si le vecteur n’est pas le vecteur nul, alors il existe au moins une entrée non nulle. On prend la première composante non nulle du vecteur, disons en position \(i\text{.}\) Celle-ci est forcément un pivot de sa ligne. Peu importe sa valeur \(r\neq 0\text{,}\) on peut la normaliser à \(1\) en effectuant l’opération \(\matsimils{i}{\frac{1}{r}}\text{.}\) Par la suite, chaque entrée non nulle \(s\) en position \(j>i\) peut facilement être transformée en \(0\) à l’aide d’une application de l’opération \(\matsimilc{i}{-s}{j}\text{.}\) Le vecteur obtenu à la suite de ces opérations contient un \(1\) en position \(i\text{,}\) la première entrée non nulle, et doit nécessairement avoir des \(0\) en dessous. La forme rref est aussi unique dans ce cas.
  2. On suppose que, pour une matrice de taille \(m\times n\text{,}\) la forme rref est unique.
  3. Soit \(A\text{,}\) une matrice de taille \(m\times (n+1)\) et soit \(B,C\text{,}\) deux matrices échelonnées réduites équivalentes à \(A.\) De plus, on pose \(A^{'}\text{,}\) la matrice que l’on obtient de \(A\) en supprimant la dernière colonne. Peu importe la chaine d’opérations élémentaires menant à \(B\) ou \(C\text{,}\) la matrice \(A^{'}\) est aussi transformée sous une forme échelonnée réduite lorsque ces opérations sont appliquées à \(A\text{.}\)
    Parce que \(A^{'}\) est une matrice de taille \(m\times n\text{,}\) l’hypothèse d’induction affirme que sa forme rref est unique. Donc si \(B\) et \(C\) sont différentes, elles le sont uniquement dans la dernière colonne.
    On considère maintenant un vecteur \(\vec{x}\) tel que \(A\vec{x}=\vec{0}\text{.}\) On sait qu’au moins le vecteur \(\vec{0}\) est une solution à cette équation, mais qu’il n’est pas nécessairement la seule solution. Dans tous les cas, la proposition 3.1.12 dit que \(B\vec{x}=\vec{0}\) et \(C\vec{x}=\vec{0}\text{.}\) En particulier \((B-C)\vec{x}=\vec{0}\text{.}\) En rappelant l’équation (2.1.7) et le fait que les \(n\) premières colonnes des matrices \(B\) et \(C\) concordent, la seule équation qui reste dans le produit \((B-C)\vec{x}=\vec{0}\) est \(x_{n+1}\vecl{(b-c)}_{n+1}=\vec{0}\text{.}\)
    Si \(\vecl{(b-c)}_{n+1}=\vec{b}_{n+1}-\vec{c}_{n+1}=\vec{0}\text{,}\) alors les colonnes \(n+1\) des matrices \(B\) et \(C\) sont aussi égales, donnant \(B=C\) et l’unicité de la forme échelonnée réduite. Sinon, comme les matrices \(B\) et \(C\) sont rref, elles doivent n’avoir que des \(0\) et un \(1\text{.}\) Ce \(1\) est forcément à la même position, car une des conditions d’être rref est que les lignes de \(0\) soient dans le bas de la matrice. Les \(1\) se trouvent donc sous la dernière ligne de \(A^{'}\) ayant un pivot. Dans ce cas aussi, la dernière colonne concorde et l’on a \(B=C\text{.}\)
Comme les opérations élémentaires préservent les solutions et que la forme échelonnée réduite est unique, la technique choisie pour résoudre un système d’équations linéaires est d’échelonner la matrice augmentée du système jusqu’à sa forme rref. Ceci donne une manière simple
 3 
Dans les prochaines sous-sections, on verra quelques subtilités de la lecture de ces solutions.
de lire la solution. Voici maintenant en détail l’algorithme de Gauss-Jordan.

Remarque 3.1.27. L’efficacité de l’algorithme.

Dans certaines étapes de l’algorithme de Gauss-Jordan 3.1.25, il peut être avantageux de sélectionner une ligne en particulier afin de simplifier les calculs. Aussi, on peut vouloir retarder 3.1.26:1.b afin d’éviter de travailler avec des fractions. L’algorithme décrit une manière automatique d’obtenir la forme échelonnée réduite, un peu comme le ferait un ordinateur.
De même, si l’on se limite à ne faire que l’étape 3.1.26:1, sans nécessairement avoir les pivots égaux à \(1\text{,}\) on obtient l’algorithme de Gauss. Une matrice ainsi transformée serait alors sous forme échelonnée seulement (pas réduite). L’exemple 3.1.11 était un exemple d’application de l’algorithme de Gauss seulement, soit sans faire l’étape 3.1.26:2.
On illustre maintenant l’algorithme de Gauss-Jordan, en précisant les étapes 3.1.26 pour référence. On ne va pas faire cette correspondance dans le futur.

Exemple 3.1.28. L’algorithme de Gauss-Jordan en action.

On considère le système d’équations linéaires suivant.
\begin{alignat*}{4} \amp \amp -7y\amp {}-{}\amp 5z\amp{}={}\amp 2\\ 2x\amp {}+{}\amp 6y\amp {}+{}\amp 4z\amp{}={}\amp 6\\ 3x\amp {}+{}\amp 10y\amp {}- {}\amp z\amp {}={}\amp 1 \text{.} \end{alignat*}
On cherche à trouver la solution de ce système en utilisant l’algorithme de Gauss-Jordan 3.1.25 pour réduire la matrice augmentée.
Solution.
La matrice augmentée associée au SEL est
\begin{equation*} (A|\vec{b})=\begin{pmatrix}0& -7&-5&|&2 \\ 2&6&4&|&6\\ 3&10&-1&|&1\end{pmatrix}\text{.} \end{equation*}
C’est une matrice \(3\times 4\text{,}\) en comptant la partie augmentée. On a donc \(m=3\text{.}\)
On commence l’algorithme de Gauss-Jordan.
  1. Comme \(i\) n’est pas défini, on pose \(i=1\text{.}\)
    1. Puisque la première colonne contient des valeurs non nulles, ce sera une colonne pivot. Toutefois, l’entrée de la première colonne dans la ligne \(1\) est nulle. Il faut donc permuter deux lignes:
      \begin{equation*} \begin{pmatrix}0& -7&-5&|&2 \\ 2&6&4&|&6\\ 3&10&-1&|&1\end{pmatrix} \matsimile{1}{2}=\begin{pmatrix} 2&6&4&|&6\\ 0& -7&-5&|&2 \\ 3&10&-1&|&1\end{pmatrix}\text{.} \end{equation*}
    2. Afin de rendre le pivot de la nouvelle ligne un égal à \(1\text{,}\) on multiplie la ligne un par \(\frac{1}{2}\text{.}\)
      \begin{equation*} \begin{pmatrix} 2&6&4&|&6\\ 0& -7&-5&|&2 \\ 3&10&-1&|&1\end{pmatrix} \matsimils{1}{\frac{1}{2}}\begin{pmatrix} 1&3&2&|&3\\ 0& -7&-5&|&2 \\ 3&10&-1&|&1\end{pmatrix} \end{equation*}
    3. On veut maintenant avoir des \(0\) sous le pivot de la ligne un. Ici, il n’y a qu’une opération à effectuer, car la deuxième ligne a déjà son \(0\text{.}\) On utilise l’opération \(-3L_1+L_3\rightarrow L_3\text{.}\)
      \begin{equation*} \begin{pmatrix} 1&3&2&|&3\\ 0& -7&-5&|&2 \\ 3&10&-1&|&1\end{pmatrix}\matsimilc{1}{-3}{3}\begin{pmatrix} 1&3&2&|&3\\ 0& -7&-5&|&2 \\ 0&1&-7&|&-8\end{pmatrix}\text{.} \end{equation*}
    4. On retourne à la première étape.
  2. On a maintenant \(i=2\text{.}\)
    1. Les entrées de la seconde colonne à partir de la ligne deux ne sont pas toutes nulles, il y aura donc un pivot dans la colonne deux. En principe, l’algorithme dit de passer à l’étape suivante et de multiplier par \(-\frac{1}{7}\text{.}\) On se sert ici de la remarque 3.1.27 pour simplifier les calculs, en permutant les lignes deux et trois.
      \begin{equation*} \begin{pmatrix} 1&3&2&|&3\\ 0& -7&-5&|&2 \\ 0&1&-7&|&-8\end{pmatrix}\matsimile{2}{3} \begin{pmatrix} 1&3&2&|&3\\ 0&1&-7&|&-8 \\ 0& -7&-5&|&2 \end{pmatrix}\text{.} \end{equation*}
    2. On veut maintenant avoir un zéro sous le pivot de la ligne deux. Pour cela, on utilise l’opération \(7L_2+L_3\rightarrow L_3\text{.}\)
      \begin{equation*} \begin{pmatrix} 1&3&2&|&3\\ 0&1&-7&|&-8 \\ 0& -7&-5&|&2 \end{pmatrix}\matsimilc{2}{7}{3}\begin{pmatrix} 1&3&2&|&3\\ 0&1&-7&|&-8 \\ 0& 0&-54&|&-54 \end{pmatrix}\text{.} \end{equation*}
    3. On retourne à la première étape.
  3. On a maintenant \(i=3\text{.}\)
    1. Il est possible d’avoir un pivot dans la dernière colonne. On met ce pivot égal à \(1\text{.}\)
      \begin{equation*} \begin{pmatrix} 1&3&2&|&3\\ 0&1&-7&|&-8 \\ 0& 0&-54&|&-54 \end{pmatrix}\matsimils{3}{-\frac{1}{54}}\begin{pmatrix} 1&3&2&|&3\\ 0&1&-7&|&-8 \\ 0& 0&1&|&1 \end{pmatrix}\text{.} \end{equation*}
    2. Comme il n’y a plus d’entrée sous le pivot, on retourne à la première étape.
  4. Puisque \(i=m=3\text{,}\) on passe à la deuxième étape de l’algorithme.
  5. Pour chaque pivot, on veut obtenir des zéros au-dessus de la valeur \(1\) qui est pivot. On a trois pivots.
    1. On commence avec le pivot sur la deuxième ligne. On souhaite transformer le \(3\) de la ligne un en \(0\) en utilisant la ligne deux.
      \begin{equation*} \begin{pmatrix} 1&3&2&|&3\\ 0&1&-7&|&-8 \\ 0& 0&1&|&1 \end{pmatrix}\matsimilc{2}{-3}{1}\begin{pmatrix} 1&0&23&|&26\\ 0&1&-7&|&-8 \\ 0& 0&1&|&1 \end{pmatrix}\text{.} \end{equation*}
    2. En utilisant la dernière ligne, on veut transformer le \(-7\) de la ligne deux et le \(23\) de la ligne un en \(0\text{.}\)
      \begin{align*} \begin{pmatrix} 1&0&23&|&27\\ 0&1&-7&|&-8 \\ 0& 0&1&|&1 \end{pmatrix}&\matsimilc{3}{7}{2}\begin{pmatrix} 1&0&23&|&27\\ 0&1&0&|&-1 \\ 0& 0&1&|&1 \end{pmatrix}\\ &\matsimilc{3}{-23}{1}\begin{pmatrix} 1&0&0&|&4\\ 0&1&0&|&-1 \\ 0& 0&1&|&1 \end{pmatrix}\text{.} \end{align*}
Ceci complète l’algorithme de Gauss-Jordan, la matrice étant échelonnée réduite. On peut y lire la solution \((x,y,z)=(4,-1,1)\text{.}\)
On poursuit avec un autre exemple relié à l’exemple 3.1.11. Cette fois-ci, on se contente d’échelonner la matrice en écrivant les opérations élémentaires, sans préciser les étapes de l’algorithme.

Exemple 3.1.29. Gauss-Jordan: chaine d’équivalences.

On s’intéresse aux systèmes
\begin{equation*} \matcolt{1}{2}{-1}{3}{2}{0}{1}{-4}{2}\vecddd{x}{y}{z}=\vecddd{0}{1}{0} \end{equation*}
et
\begin{equation*} \matcolt{1}{2}{-1}{3}{2}{0}{1}{-4}{2}\vecddd{x}{y}{z}=\vecddd{0}{0}{1}\text{,} \end{equation*}
en lien avec le système similaire résolu à l’exemple 3.1.11. On cherche les solutions à ces deux systèmes. On remarque qu’en vertu de la proposition 2.3.10, la solution à ces trois systèmes donnera aussi la matrice inverse de \(\matcolt{1}{2}{-1}{3}{2}{0}{1}{-4}{2}\text{.}\)
Solution.
On peut travailler de manière efficace. Il n’est pas nécessaire d’échelonner la matrice pour chaque système. En effet, peu importe la chaine d’opérations élémentaires effectuées pour échelonner le SEL dans le cas du premier système, cette chaine fonctionnera aussi pour le deuxième SEL. On peut donc augmenter la matrice des deux vecteurs \(\vecddd{0}{1}{0},\vecddd{0}{0}{1}\) et effectuer les opérations sur cette matrice augmentée. De plus, les opérations élémentaires ayant servies à trouver la solution dans l’exemple 3.1.11 peuvent être réutilisées ici, puisqu’elles constituent l’étape un de l’algorithme de Gauss-Jordan 3.1.25, hormis le fait que les pivots ne sont pas égaux à \(1\text{.}\) Il faut, par contre, refaire les calculs sur la partie augmentée.
\begin{align} \begin{pmatrix} 1& 3&1&|& 0& 0\\ 2& 2&-4&|& 1& 0\\ -1& 0&2&|& 0& 1 \end{pmatrix}&\matsimilc{1}{-2}{2}\begin{pmatrix} 1& 3&1&|& 0& 0\\ 0& -4&-6&|& 1& 0\\ -1& 0&2&|& 0& 1 \end{pmatrix}\notag\\ &\matsimilc{1}{}{3}\begin{pmatrix} 1& 3&1&|& 0& 0\\ 0& -4&-6&|& 1& 0\\ 0& 3&3&|& 0& 1 \end{pmatrix}\notag\\ &\matsimils{2}{-\frac{1}{4}}\begin{pmatrix} 1& 3&1&|& 0& 0\\ 0& 1&\frac{3}{2}&|& -\frac{1}{4}& 0\\ 0& 3&3&|& 0& 1 \end{pmatrix}\notag\\ &\matsimilc{2}{-3}{3}\begin{pmatrix} 1& 3&1&|& 0& 0\\ 0& 1&\frac{3}{2}&|& -\frac{1}{4}& 0\\ 0& 0&-\frac{3}{2}&|& \frac{3}{4}& 1 \end{pmatrix}\notag\\ &\matsimils{3}{-\frac{2}{3}}\begin{pmatrix} 1& 3&1&|& 0& 0\\ 0& 1&\frac{3}{2}&|& -\frac{1}{4}& 0\\ 0& 0&1&|& -\frac{1}{2}& -\frac{2}{3} \end{pmatrix}\notag\\ \end{align}

Dans la prochaine étape, on se permet de faire deux étapes en une, ce qui réduit l’écriture.

\begin{align} &\overset{-\frac{3}{2}L_3+L_2\rightarrow L_2}{\overset{-L_3+L_1\rightarrow L_1}{\sim}}\begin{pmatrix} 1& 3&0&|& \frac{1}{2}& \frac{2}{3}\\ 0& 1&0&|& \frac{1}{2}& 1\\ 0& 0&1&|& -\frac{1}{2}& -\frac{2}{3} \end{pmatrix}\tag{✶}\\ &\matsimilc{2}{-3}{1}\begin{pmatrix} 1& 0&0&|& -1& -\frac{7}{3}\\ 0& 1&0&|& \frac{1}{2}& 1\\ 0& 0&1&|& -\frac{1}{2}& -\frac{2}{3} \end{pmatrix}\text{.}\notag \end{align}
La solution au premier système est donc \(\vecddd{x}{y}{z}=\vecddd{-1}{\frac{1}{2}}{-\frac{1}{2}}\) et celle du second est \(\vecddd{x}{y}{z}=\vecddd{-\frac{7}{3}}{1}{-\frac{2}{3}}\text{.}\) De plus, en reprenant la réponse de l’exemple 3.1.11, on obtient
\begin{equation*} \begin{pmatrix} 1& 3&1\\ 2& 2&-4\\ -1& 0&2 \end{pmatrix}^{-1}=\matcolt{\frac{2}{3}}{0}{\frac{1}{3}}{-1}{\frac{1}{2}}{-\frac{1}{2}}{-\frac{7}{3}}{1}{-\frac{2}{3}} \end{equation*}

Remarque 3.1.30. Les possibilités d’opérations.

En combinant plusieurs opérations élémentaires, on obtient une opération valide (qui n’est généralement pas élémentaire) pour échelonner une matrice. Ainsi, l’opération \(3L_2+5L_1\rightarrow L_2\) peut être vue comme la combinaison des opérations élémentaires \(3L_2\rightarrow L_2\) suivie de l’opération \(5L_1+L_2\rightarrow L_2\text{.}\) Bien qu’elle ne soit pas élémentaire, cette opération s’avère pratique pour échelonner des matrices, comme dans l’exemple suivant.
\begin{equation*} \matcold{3}{-5}{1}{2}\overset{3L_2+5L_1\rightarrow L_2}{\sim}\matcold{3}{0}{1}{11}\text{.} \end{equation*}
L’opération permet d’obtenir le \(0\) sous le pivot de la ligne un, sans que ce pivot soit égal à \(1\text{,}\) ce qui aurait introduit une fraction dans la seconde colonne.
Bien que permises, on fait le choix d’éviter ces opérations. On voudra de toute manière déléguer beaucoup des calculs à l’ordinateur. On choisit donc de se concentrer sur les opérations élémentaires. Il est toutefois possible d’éviter les fractions avec les opérations élémentaires, comme dans l’exemple suivant.
\begin{equation*} \matcold{3}{2}{1}{2}\overset{-L_2+L_1\rightarrow L_1}{\sim}\matcold{1}{2}{-1}{2}\text{.} \end{equation*}
Cette opération rend le pivot de la première ligne égal à \(1\) sans créer de fraction dans la deuxième colonne.
Finalement, on peut se permettre de faire plusieurs opérations en une étape, comme lors de l’équation (✶) de l’exemple 3.1.29. Par contre, il est important de retenir qu’on ne doit pas utiliser une ligne qui a été modifiée auparavant dans la même étape pour modifier une autre ligne. Voir l’exercice [provisional cross-reference: ex-GJremexo]
On termine avec des commandes Sage en lien avec la sous-section.

Calcul 3.1.31. La forme échelonnée réduite sur Sage.

Pour une matrice \(A\) quelconque, on peut obtenir sa forme échelonnée réduite avec Sage à l’aide de la commande A.rref().
Pour résoudre un système d’équations linéaires \(A\vec{x}=\vec{b}\text{,}\) il existe plusieurs possibilités. En plus de la solution au système, les informations supplémentaires que l’on peut obtenir guideront le choix parmi les possibilités. Dans un premier temps, on peut augmenter la matrice \(A\) avec le vecteur \(\vec{b}\) et obtenir la forme échelonnée réduite de la matrice augmentée. La dernière colonne contient alors la solution.
Une autre option consiste à utiliser la commande A.solve_right(b) (le _right fait référence à l’équation \(A\vec{x}=\vec{b}\text{,}\) où le vecteur \(\vec{x}\) est à droite, plutôt qu’à l’équation \(x\vec{A}=\vec{b}\)). Cette commande ne donne que la solution au système, pas la matrice échelonnée. Donc, s’il est pratique de l’avoir, on utilisera l’échelonnage.
La commande A.pivots() retourne la position des colonnes pivots. Attention, on rappelle que Sage commence sa numérotation à \(0\text{,}\) la deuxième colonne sera donc indicée par \(1\text{.}\)
Les points importants de cette section sont:
De plus, les commandes Sage utiles sont
  • la commande A.augment(b) pour augmenter la matrice \(A\) du vecteur \(\vec{b}\text{;}\)
  • la commande elementary_matrix pour obtenir une matrice élémentaire;
  • la commande A.rref() pour avoir la forme échelonnée réduite d’une matrice;
  • la commande A.solve_right(b) pour résoudre un SEL;
  • la commande A.solve_right(b) pour résoudre un SEL et A.pivots() pour avoir la position des colonnes pivots.

Exercices 3.1.4 Exercices

1.

Pour chacune des opérations élémentaires suivantes, donner la matrice élémentaire qui lui est associée.
(a)
L’opération \(L_3\leftrightarrow L_5\) pour un système à cinq équations.
Indice.
On procède de façon semblable à l’exemple 3.1.15. On doit prendre la matrice identité d’ordre \(n\text{,}\) correspondant au nombre d’équations du système. Puis, on applique l’opération élémentaire demandée à cette matrice. Le résultat est la matrice élémentaire voulue.
Réponse.
\begin{equation*} E_{L_3\leftrightarrow L_5}= \begin{pmatrix} 1&0&0&0&0\\ 0&1&0&0&0\\ 0&0&0&0&1\\ 0&0&0&1&0\\ 0&0&1&0&0 \end{pmatrix} \end{equation*}
(b)
L’opération \(L_3\leftrightarrow L_5\) pour un système à huit équations.
Réponse.
\begin{equation*} E_{L_3\leftrightarrow L_5}= \begin{pmatrix} 1&0&0&0&0&0&0&0\\ 0&1&0&0&0&0&0&0\\ 0&0&0&0&1&0&0&0\\ 0&0&0&1&0&0&0&0\\ 0&0&1&0&0&0&0&0\\ 0&0&0&0&0&1&0&0\\ 0&0&0&0&0&0&1&0\\ 0&0&0&0&0&0&0&1 \end{pmatrix} \end{equation*}
(c)
L’opération \(4L_2\rightarrow L_2\) pour un système à trois équations et deux inconnues.
Réponse.
\begin{equation*} E_{4L_2}= \begin{pmatrix} 1&0&0\\ 0&4&0\\ 0&0&1 \end{pmatrix} \end{equation*}
(d)
L’opération \(4L_2\rightarrow L_2\) pour un système à trois équations et trois inconnues.
Réponse.
\begin{equation*} E_{4L_2}= \begin{pmatrix} 1&0&0\\ 0&4&0\\ 0&0&1 \end{pmatrix} \end{equation*}
On remarque que cette réponse est identique à la précédente, ce qui signifie que le nombre d’inconnues n’est pas important. Pour construire une matrice élémentaire, il faut uniquement regarder l’opération élémentaire que l’on veut effectuer sur les lignes. La taille de la matrice dépend donc du nombre de lignes, mais de du nombre de colonnes.
(e)
L’opération \(-4L_1+L_4\rightarrow L_4\) pour un système à cinq équations.
Réponse.
\begin{equation*} E_{L_4-4L_1}=\begin{pmatrix} 1&0&0&0&0\\ 0&1&0&0&0\\ 0&0&1&0&0\\ -4&0&0&1&0\\ 0&0&0&0&1 \end{pmatrix} \end{equation*}

2.

Parmi les matrices suivantes, lesquelles sont élémentaires? Donner l’opération élémentaire le cas échéant.
(a)
\(\begin{pmatrix} 3& 0 & 0 \\ 0 & 0 & 1 \\ 0 &1 & 0 \end{pmatrix}\)
Réponse.
Ce n’est pas une matrice élémentaire.
(b)
\(\matcold{1}{-2}{0}{1}\)
Réponse.
C’est une matrice élémentaire. L’opération élémentaire qu’elle décrit est: \(-2L_1+L_2\rightarrow L_2\text{.}\)
(c)
\(\matcold{0}{1}{1}{-2}\)
Réponse.
Ce n’est pas une matrice élémentaire.
(d)
\(\matcold{1}{0}{-2}{1}\)
Réponse.
C’est une matrice élémentaire. L’opération élémentaire qu’elle décrit est: \(-2L_2+L_1\rightarrow L_1\text{.}\)
(e)
\(\matcold{-2}{1}{1}{0}\)
Réponse.
Ce n’est pas une matrice élémentaire.
(f)
\(\matcolt{1}{0}{0}{0}{-1}{0}{0}{0}{1}\)
Réponse.
C’est une matrice élémentaire. L’opération élémentaire qu’elle décrit est: \(-L_2\rightarrow L_2\text{.}\)

3.

Montrer que les matrices de permutation, définies à l’exercice 2.2.3.5, peuvent s’écrire comme un produit de matrices élémentaires en utilisant uniquement les matrices de type \(L_i\leftrightarrow L_j\text{.}\)
Solution.
Comme défini dans l’exercice, une matrice de permutation est une matrice \(P\) telle que chaque colonne et chaque ligne ne contient qu’une entrée non nulle égale à \(1\text{.}\) On constate assez facilement qu’une telle matrice sera toujours obtenue à partir de la matrice identité en permutant des lignes. En effet, pour que la matrice \(P\) ait exactement un \(1\) et que des \(0\) dans chaque ligne et colonne, on doit avoir le \(1\) dans une colonne différente pour chaque ligne. Ce sont donc les lignes de l’identité, mais positionnées à différentes lignes.
Différents cas de figure sont possibles. D’abord, on considère le cas où la matrice \(P\) est l’identité et seulement deux lignes ont été permutées, par exemple les lignes \(i\) et \(j\text{.}\) On constate que
\begin{equation*} P=E_{L_i\leftrightarrow L_j}\text{.} \end{equation*}
Ensuite, on considère le cas où la matrice \(P\) est l’identité et exactement trois lignes ont été permutées, par exemple les lignes \(i\text{,}\) \(j\) et \(k\text{.}\) Seulement deux options sont alors possibles:
  1. \(\displaystyle L_i\rightarrow L_j\rightarrow L_k \rightarrow L_i\)
  2. \(L_i\rightarrow L_k\rightarrow L_j \rightarrow L_i\text{.}\)
On peut effectuer ces permutations triples en deux étapes. Par exemple, pour \(P_1\) effectuant \(L_i\rightarrow L_j\rightarrow L_k \rightarrow L_i\text{,}\) on peut effectuer \(L_i\leftrightarrow L_j\) puis \(L_i\leftrightarrow L_k\text{.}\) Remarquer que la seconde permutation permute en réalité les lignes \(j\) et \(k\) de la matrice initiale, mais que \(L_j\) est positionnée à \(L_i\text{.}\) Ainsi,
\begin{equation*} P_1=E_{L_i\leftrightarrow L_k}E_{L_i\leftrightarrow L_j}\text{ et }P_2=E_{L_i\leftrightarrow L_k}E_{L_i\leftrightarrow L_j}\text{.} \end{equation*}
Le principe qui semble se dégager est qu’on utilise une matrice de permutation pour positionner la première ligne \(L_i\text{,}\) puis une seconde pour positionner la seconde ligne \(L_j\text{.}\) La dernière ligne est nécessairement permutée par une de ces deux permutations puisque sinon, ce ne serait pas une permutation triple.
On établit maintenant le principe pour permuter \(n\) lignes, soient les lignes \(i_1, i_2, \dots , i_n\text{.}\) La matrice \(P\) sera formée de la multiplication d’au maximum \(n-1\) matrices élémentaires. La première (en partant de la droite) permettra de positionner la ligne \(i_1\text{.}\) La seconde permettra de positionner la ligne (initialement positionnée à) \(i_2\text{.}\) Ainsi de suite, jusqu’à la \((n-1)^e\text{,}\) qui permettra de positionner la ligne (initialement positionnée à) \(i_{n-1}\text{.}\) Alors, on écrit, avec une notation discutable puisqu’on ne sait pas toujours si la ligne \(i_k\) a été modifiée ou pas:
\begin{equation*} P=E_{L_{i_{n-1}}\leftrightarrow L_{j_{n-1}}}\cdots E_{L_{i_2}\leftrightarrow L_{j_2}}E_{L_{i_1}\leftrightarrow L_{j_1}}\text{.} \end{equation*}

4.

Une matrice carrée inversible est équivalente à la matrice identité. Cela signifie qu’il existe des matrices élémentaires \(E_1,E_2,\ldots , E_k\) telles que
\begin{equation*} E_k\cdots E_2E_1A=I\text{.} \end{equation*}
On peut donc dire que \(A^{-1}=E_k\cdots E_2E_1\text{.}\)
En utilisant cette forme pour l’inverse, donner une preuve alternative aux résultats suivants.
(a)
Montrer que si \(A^{-1}A=I\text{,}\) alors \(AA^{-1}=I\text{,}\) donnant ainsi une preuve alternative à la proposition 2.3.11.
Solution.
Par l’hypothèse et l’énoncé de l’exercice, on sait que l’on peut écrire \(A^{-1}A=I\) ainsi : \(E_k\cdots E_2E_1A=I\text{.}\) Puisque les matrices élémentaires sont toutes inversibles, par la proposition 3.1.16, on peut donc faire les opérations suivantes:
\begin{align*} E_k\cdots E_2E_1A&=I\\ E_k^{-1}E_k\cdots E_2E_1A&=E_k^{-1}I\\ IE_{k-1}\cdots E_2E_1A&=E_k^{-1}I\\ E_{k-1}\cdots E_2E_1A&=E_k^{-1}\\ E_{k-1}^{-1}E_{k-1}\cdots E_2E_1A&=E_{k-1}^{-1}E_k^{-1}\\ &\cdots\\ E_1A&=E_2^{-1}\cdots E_k^{-1}\\ E_1^{-1}E_1A&=E_1^{-1}E_2^{-1}\cdots E_k^{-1}\\ IA&=E_1^{-1}E_2^{-1}\cdots E_k^{-1}\\ A&=E_1^{-1}E_2^{-1}\cdots E_k^{-1} \end{align*}
Ainsi, on obtient une expression pour \(A\) qui ne dépend que des inverses des matrices élémentaires. On peut donc démontrer le résultat voulu rapidement:
\begin{align*} AA^{-1}&=E_1^{-1}E_2^{-1}\cdots E_k^{-1}E_k\cdots E_2E_1\\ &=E_1^{-1}E_2^{-1}\cdots E_{k-1}^{-1}IE_{k-1}\cdots E_2E_1\\ &=E_1^{-1}E_2^{-1}\cdots E_{k-1}^{-1}E_{k-1}\cdots E_2E_1\\ &\cdots\\ &=E_1^{-1}E_2^{-1}E_2E_1\\ &=E_1^{-1}IE_1\\ &=E_1^{-1}E_1\\ &=I \end{align*}
(b)
Montrer que \((AB)^{-1}=B^{-1}A^{-1}\text{,}\) donnant ainsi une preuve alternative à la proposition 2.3.18.
Solution.
Pour obtenir cette propriété, on peut supposer que les matrices \(A\) et \(B\) sont toutes les deux inversibles. Bref, suivant l’énoncé de l’exercice et la réponse de la partie précédente, on peut écrire les matrices \(A\text{,}\) \(B\text{,}\) \(A^{-1}\) et \(B^{-1}\) des façons suivantes:
\begin{align*} A&=E_1^{-1}E_2^{-1}\cdots E_k^{-1}\\ B&=F_1^{-1}F_2^{-1}\cdots F_n^{-1}\\ A^{-1}&=E_k\cdots E_2E_1\\ B^{-1}&=F_n\cdots F_2F_1\text{,} \end{align*}
où les matrices \(F_1, F_2, \dots , F_n\) sont \(n\) matrices élémentaires telles que l’on peut écrire
\begin{equation*} F_n\cdots F_2F_1B=I \end{equation*}
pour la matrice inversible \(B\text{.}\)
Ainsi, on peut démontrer l’équation proposée. On y arrive en multipliant \(B^{-1}A^{-1}\) par \((AB)\) et en montrant qu’on obtient bien la matrice identité.
\begin{align*} (B^{-1}A^{-1})(AB)&=B^{-1}A^{-1}AB\\ &=F_n\cdots F_2F_1E_k\cdots E_2E_1E_1^{-1}E_2^{-1}\cdots E_k^{-1}F_1^{-1}F_2^{-1}\cdots F_n^{-1}\\ &=F_n\cdots F_2F_1E_k\cdots E_2IE_2^{-1}\cdots E_k^{-1}F_1^{-1}F_2^{-1}\cdots F_n^{-1}\\ &=F_n\cdots F_2F_1E_k\cdots E_2E_2^{-1}\cdots E_k^{-1}F_1^{-1}F_2^{-1}\cdots F_n^{-1}\\ &\dots\\ &=F_n\cdots F_2F_1E_kE_k^{-1}F_1^{-1}F_2^{-1}\cdots F_n^{-1}\\ &=F_n\cdots F_2F_1IF_1^{-1}F_2^{-1}\cdots F_n^{-1}\\ &=F_n\cdots F_2F_1F_1^{-1}F_2^{-1}\cdots F_n^{-1}\\ &=F_n\cdots F_2IF_2^{-1}\cdots F_n^{-1}\\ &=F_n\cdots F_2F_2^{-1}\cdots F_n^{-1}\\ &\dots\\ &=F_nF_n^{-1}\\ &=I\text{.} \end{align*}
(c)
Montrer que \((A^{-1})^{-1}=A\text{,}\) donnant ainsi une preuve alternative à la proposition 2.3.19.
Solution.
On veut démontrer que la matrice \(A\) fait bien office d’inverse pour la matrice \(A^{-1}\text{.}\)
\begin{align*} A^{-1}A&=E_k\cdots E_2E_1E_1^{-1}E_2^{-1}\cdots E_k^{-1}\\ &=E_k\cdots E_2IE_2^{-1}\cdots E_k^{-1}\\ &=E_k\cdots E_2E_2^{-1}\cdots E_k^{-1}\\ &=\dots\\ &=E_kE_k^{-1}\\ &=I \end{align*}
Ainsi, la matrice \(A\) fait bien office d’inverse pour la matrice \(A^{-1}\text{.}\) Ainsi, \((A^{-1})^{-1}=A\text{.}\)

5.

Une grille de sudoku résolue peut être vue comme une matrice \(9\times 9\text{.}\) Soit \(S\) une telle matrice.
(a)
Parmi les \(36\) opérations élémentaires \(L_i \leftrightarrow L_j\text{,}\) lesquelles gardent la matrice transformée comme une solution recevable selon les règles d’une grille sudoku? (Bonus: comment arriver à \(36\) matrices, sans les énumérer?)
Indice.
Pour connaitre comment fonctionne un sudoku, on conseille de faire une recherche sur Google.
Réponse.
\begin{align*} L_1 & \leftrightarrow L_2\\ L_1 & \leftrightarrow L_3\\ L_2 & \leftrightarrow L_3\\ L_4 & \leftrightarrow L_5\\ L_4 & \leftrightarrow L_6\\ L_5 & \leftrightarrow L_6\\ L_7 & \leftrightarrow L_8\\ L_7 & \leftrightarrow L_9\\ L_8 & \leftrightarrow L_9 \end{align*}
Solution.
On sait que les sudokus résolus ont les trois propriétés suivantes:
  1. Chaque ligne contient tous les chiffres de \(1\) à \(9\) une fois chacun.
  2. Chaque colonne contient tous les chiffres de \(1\) à \(9\) une fois chacun.
  3. Chaque sous-matrice \(3\times 3\) obtenue en divisant la grille en \(9\) contient tous les chiffres de \(1\) à \(9\) une fois chacun.
Les première et deuxième propriétés ne seront jamais perdues par la multiplication d’une matrice élémentaire \(L_i \leftrightarrow L_j\) puisqu’en interchangeant les lignes, on ne les change pas et les colonnes demeurent entièrement constituées des mêmes chiffres.
On doit donc préserver la troisième propriété. Pour ce faire, on doit accepter seulement les permutations de lignes à l’intérieur des trois sous-groupes de lignes: \(1\) à \(3\text{,}\) \(4\) à \(6\) et \(7\) à \(9\text{.}\) Le nombre de permutations pour chaque sous-groupe est de trois, par exemple, \(L_1 \leftrightarrow L_2\text{,}\) \(L_1 \leftrightarrow L_3\) et \(L_2 \leftrightarrow L_3\text{.}\) On en a donc \(9\) au total. Voici la liste:
\begin{align*} L_1 & \leftrightarrow L_2\\ L_1 & \leftrightarrow L_3\\ L_2 & \leftrightarrow L_3\\ L_4 & \leftrightarrow L_5\\ L_4 & \leftrightarrow L_6\\ L_5 & \leftrightarrow L_6\\ L_7 & \leftrightarrow L_8\\ L_7 & \leftrightarrow L_9\\ L_8 & \leftrightarrow L_9\text{.} \end{align*}
BONUS: On obtient le nombre de permutations possibles au total en calculant d’abord les permutations impliquant la ligne \(1\text{,}\) puis celles impliquant la seconde, mais excluant la première, et ainsi de suite. On obtient donc : \(8+7+6+5+4+3+2+1=\frac{8*9}{2}=36\) permutations possibles.
(b)
On pose \(\vec{v}=(1,1,1,1,1,1,1,1,1)\text{.}\) Que vaut \(S\vec{v}\text{?}\)
Réponse.
\begin{equation*} S\vec{v}=\begin{pmatrix} 45 \\ 45 \\ 45 \\ 45 \\ 45 \\ 45 \\ 45 \\ 45 \\ 45 \end{pmatrix} \end{equation*}
Solution.
On rappelle une définition (2.1.6) du produit matrice vecteur donnée en fonction des lignes. La définition usuelle (2.1.7) pourrait aussi nous amener au résultat rapidement, mais, dans ce cas-ci, on préfère la première.
\begin{align*} S\vec{v}&=\begin{pmatrix} \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{s}_1 &\hspace{-0.2cm} \rule[.5ex]{2.5ex}{0.5pt} \\ \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{s}_2 &\hspace{-0.2cm} \rule[.5ex]{2.5ex}{0.5pt} \\ \vdots & \vdots & \vdots \\ \rule[.5ex]{2.5ex}{0.5pt}\hspace{-0.2cm} & \vec{s}_9 &\hspace{-0.2cm} \rule[.5ex]{2.5ex}{0.5pt} \end{pmatrix}\vec{v}\\ &=\begin{pmatrix} \vec{s}_1\cdot\vec{v} \\ \vec{s}_2\cdot\vec{v} \\ \vdots \\ \vec{s}_9\cdot\vec{v} \end{pmatrix}\\ &=\begin{pmatrix} 1*1+2*1+3*1+4*1+5*1+6*1+7*1+8*1+9*1 \\ 45 \\ \vdots \\ 45 \end{pmatrix}\text{ puisque chaque vecteur }\vec{s}_i\text{ contient chaque chiffre une seule fois}\\ &=\begin{pmatrix} 45 \\ 45 \\ 45 \\ 45 \\ 45 \\ 45 \\ 45 \\ 45 \\ 45 \end{pmatrix} \end{align*}

6.

Démontrer la proposition 3.1.16.
Solution.
Par la définition 3.1.14, toutes les matrices élémentaires sont le résultat d’une seule opération élémentaire. Ainsi, si l’on démontre la deuxième portion de la proposition, en donnant la matrice inverse de chaque matrice élémentaire, on aura montré la première portion qui dit que les matrices élémentaires sont toutes inversibles. On démontre donc pour chaque matrice élémentaire que son inverse est celui donné dans la proposition 3.1.16.
  1. \(E_{L_i\leftrightarrow L_j}\) est la matrice élémentaire qui permute la ligne \(i\) avec la ligne \(j\text{,}\) alors pour défaire cette opération, il faut en réalité refaire la même opération. En effet, on considère la matrice \(E_{L_i\leftrightarrow L_j}\) décrite, et l’on se questionne à savoir quelle matrice la multipliera pour donner la matrice identité. On réalise que \(E_{L_i\leftrightarrow L_j}\) est, par la définition 3.1.14, la matrice identité où l’on a permuté la ligne \(i\) et la ligne \(j\text{.}\) Il est donc évident que c’est cette même matrice qui, lorsque multipliée avec \(E_{L_i\leftrightarrow L_j}\text{,}\) permutra à nouveau la ligne \(i\) et la ligne \(j\) pour obtenir l’identité. Ainsi, \(E_{L_i\leftrightarrow L_j}^{-1}=E_{L_i\leftrightarrow L_j}\text{.}\)
  2. \(E_{rL_i}\) est la matrice qui multiplie la ligne \(i\) par \(r\neq 0\text{,}\) alors, par la définition 3.1.14, c’est la matrice identité où l’on a multiplié la ligne \(i\) par \(r\neq 0\text{.}\) Afin d’obtenir à nouveau la matrice identité, il faut la multiplier par une matrice qui effectuera l’opération élémentaire suivante: multiplier la ligne \(i\) par \(\frac{1}{r}\text{.}\) C’est donc, encore par la définition 3.1.14, la matrice identité où l’on a multiplié la ligne \(i\) par \(\frac{1}{r}\text{.}\) Ainsi, \(E_{rL_i}^{-1}=E_{\frac{1}{r}L_i}\text{.}\)
  3. \(E_{L_i+rL_j}\) est la matrice élémentaire qui ajoute à la ligne \(i\text{,}\) \(r\) fois la ligne \(j\text{,}\) on construit alors un raisonnement semblable aux deux précédents pour montrer qu’effectivement \(E_{L_i+rL_j}^{-1}=E_{L_i-rL_j}\text{,}\) en se servant de la même définition.

7.

Montrer que l’opération élémentaire qui consiste à permuter deux lignes n’est pas essentielle, c’est-à-dire qu’il est possible de permuter deux lignes en utilisant uniquement les deux autres opérations élémentaires.
Solution.
Voici une séquence d’opérations élémentaires qui permet d’échanger la ligne \(i\) avec la ligne \(j\text{,}\) en n’utilisant que l’opération de combinaison linéaire et celle de multiplication par une constante. On fait, dans l’ordre
  1. \(\displaystyle L_j+L_i\rightarrow L_i\)
  2. \(\displaystyle -L_i+L_j\rightarrow L_j\)
  3. \(\displaystyle L_j+L_i\rightarrow L_i\)
  4. \(-L_j\rightarrow L_j\text{.}\)

8.

Parmi les matrices suivantes, déterminer celles qui sont sous la forme échelonnée réduite. Pour chaque matrice qui n’est pas échelonnée réduite, effectuer les opérations élémentaires pour la rendre échelonnée réduite. Finalement, pour chaque matrice, identifier les colonnes pivots.
(a)
\(\matcold{0}{0}{3}{1}\)
Réponse.
Cette matrice n’est pas échelonnée réduite. On effectue les opérations.
\begin{align*} \begin{pmatrix} 0& 3\\ 0& 1 \end{pmatrix}&\matsimils{1}{\frac{1}{3}}\begin{pmatrix} 0& 1\\ 0& 1 \end{pmatrix}\\ &\matsimilc{1}{-}{2}\begin{pmatrix} 0& 1\\ 0& 0 \end{pmatrix} \end{align*}
Son unique colonne pivot est la deuxième.
(b)
\(\matcolt{0}{1}{0}{0}{3}{0}{0}{2}{1}\)
Réponse.
Cette matrice n’est pas échelonnée réduite. On effectue les opérations manquantes.
\begin{align*} \begin{pmatrix} 0 & 0 & 0\\ 1 & 3 & 2\\ 0 & 0 & 1 \end{pmatrix}&\matsimilc{3}{-2}{2}\begin{pmatrix} 0 & 0 & 0\\ 1 & 3 & 0\\ 0 & 0 & 1 \end{pmatrix}\\ &\matsimile{1}{2}\begin{pmatrix} 1 & 3 & 0\\ 0 & 0 & 0\\ 0 & 0 & 1 \end{pmatrix}\\ &\matsimile{2}{3}\begin{pmatrix} 1 & 3 & 0\\ 0 & 0 & 1\\ 0 & 0 & 0 \end{pmatrix} \end{align*}
Ses colonnes pivots sont la première et la troisième.
(c)
\(\begin{pmatrix} 0& 1& 0&-2\\ 0& 0 &1 & 1 \end{pmatrix}\)
Réponse.
Cette matrice est échelonnée réduite. Ses colonnes pivots sont la deuxième et la troisième.
(d)
\(\begin{pmatrix} 0& 0&1 &2 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \\ \end{pmatrix}\)
Réponse.
Cette matrice est échelonnée réduite. Son unique colonne pivot est la troisième.

9.

Faire la liste de toutes les matrices \(2\times 2\) échelonnées réduites.
Indice.
Il y en a une infinité, mais elles peuvent se classer en quatre types.
Réponse.
Les quatre types sont:
\begin{equation*} \begin{pmatrix} 1& 0\\ 0& 1 \end{pmatrix}\text{,} \end{equation*}
\begin{equation*} \begin{pmatrix} 0& 1\\ 0& 0 \end{pmatrix}\text{,} \end{equation*}
\begin{equation*} \begin{pmatrix} 1& c\\ 0& 0 \end{pmatrix}\text{ où } c\in \R \end{equation*}
et
\begin{equation*} \begin{pmatrix} 0& 0\\ 0& 0 \end{pmatrix} \end{equation*}

10.

On s’intéresse aux caractéristiques des matrices échelonnées réduites, telles qu’énoncées à la liste 3.1.19.
(a)
Donner un exemple d’une matrice \(3\times 3\) qui respecte les propriétés 3.1.19:1, 3.1.19:2 et 3.1.19:4, mais pas la propriété 3.1.19:3.
Indice.
Il existe évidemment une infinité de bonnes réponses. Essayer de comparer la réponse donnée aux propriétés et voir si votre réponse est valide.
Réponse.
\begin{equation*} \begin{pmatrix} 0 & 0 & 1\\ 0 & 1 & 0\\ 0 & 0 & 0 \end{pmatrix} \end{equation*}
(b)
Donner un exemple d’une matrice \(3\times 5\) qui respecte les propriétés 3.1.19:1, 3.1.19:3 et 3.1.19:4, mais pas la propriété 3.1.19:2.
Réponse.
\begin{equation*} \begin{pmatrix} 1 & 0 & 7 & 9 & 2\\ 0 & 2 & -1 & 5 & 0\\ 0 & 0 & 0 & 0 & 0 \end{pmatrix} \end{equation*}
(c)
Donner un exemple d’une matrice \(5\times 4\) qui respecte les propriétés 3.1.19:2, 3.1.19:3 et 3.1.19:4, mais pas la propriété 3.1.19:1.
Réponse.
\begin{equation*} \begin{pmatrix} 0 & 0 & 0 & 0\\ 1 & 0 & 0 & 0\\ 0 & 1 & 0 & 0\\ 0 & 0 & 1 & 0\\ 0 & 0 & 0 & 1 \end{pmatrix} \end{equation*}
(d)
Donner un exemple d’une matrice \(4\times 7\) qui respecte les propriétés 3.1.19:1, 3.1.19:2 et 3.1.19:3, mais pas la propriété 3.1.19:4.
Réponse.
\begin{equation*} \begin{pmatrix} 1 & 0 & 0 & 0 & 0 & 0 & 9\\ 0 & 1 & 0 & 0 & 0 & 0 & 0\\ 0 & 0 & 0 & 1 & 0 & 0 & 0\\ 0 & 0 & 0 & 0 & 0 & 0 & 1 \end{pmatrix} \end{equation*}

11.

Soit \(A\text{,}\) une matrice \(m\times n\text{,}\) et \(\vec{b},\vec{u},\vec{v}\text{,}\) des vecteurs tels que \(A\vec{u}=\vec{b},A\vec{v}=\vec{b}\text{.}\)
(a)
Quelles sont les dimensions des vecteurs \(\vec{b},\vec{u},\vec{v}\text{?}\)
Réponse.
\(\vec{b}\) est de dimension \(m\) et \(\vec{u}\) et \(\vec{v}\) sont de dimension \(n\text{.}\)
Solution.
Si l’on voit la matrice \(A\) ainsi que les vecteurs \(\vec{b},\vec{u},\vec{v}\) comme représentant les différentes composantes de SEL décrits par les équations \(A\vec{u}=\vec{b} \text{ et } A\vec{v}=\vec{b}\text{,}\) on peut voir les dimensions des vecteurs en s’aidant de la définition 3.1.5 ou, plus simplement, de l’exemple 3.1.6. Le format de la matrice \(A\) étant \(m\times n\text{,}\) la dimension du vecteur \(\vec{b}\) correspondra au nombre de lignes, soit \(m\text{,}\) et la dimension des vecteurs \(\vec{u}\) et \(\vec{v}\) correspondra au nombre de colonnes, soit \(n\text{.}\)
En résumé, \(\vec{b}\) est de dimension \(m\) et \(\vec{u}\) et \(\vec{v}\) sont de dimension \(n\text{.}\)
(b)
Montrer que \(\vec{w}=\vec{u}-\vec{v}\) est une solution de \(A\vec{x}=\vec{0}\text{.}\)
Solution.
On a
\begin{align*} A\vec{w}&=A(\vec{u}-\vec{v})\\ &=A\vec{u}-A\vec{v}&&\text{puisque la matrice } A \text{ représente une transformation linéaire} \knowl{./knowl/xref/li-transfosomme.html}{\text{1}}\\ &=\vec{b}-\vec{b} && \text{par hypothèse}\\ &=\vec{0}\text{.} \end{align*}
On voit donc que \(\vec{w}=\vec{u}-\vec{v}\) est une solution de \(A\vec{x}=\vec{0}\text{.}\)
(c)
Soit \(\vec{w}\) tel que \(A\vec{w}=\vec{0}\text{.}\) Montrer que \(\vec{w}+\vec{u}\) est une solution de \(A\vec{x}=\vec{b}\text{.}\)
Solution.
De façon semblable,
\begin{align*} A(\vec{w}+\vec{u})&=A\vec{w}+A\vec{u}&&\text{puisque la matrice } A \text{ représente une transformation linéaire} \knowl{./knowl/xref/li-transfosomme.html}{\text{1}}\\ &=\vec{0}+\vec{b}&& \text{par hypothèse}\\ &\vec{b}\text{.} \end{align*}
Ainsi. le vecteur \(\vec{w}+\vec{u}\) est une solution à l’équation \(A\vec{x}=\vec{b}\text{.}\)

12.

Si \(A\) est une matrice \(m\times n\) sous forme échelonnée réduite, quel est le nombre maximal de pivots que \(A\) peut posséder?
Réponse.
La matrice \(A\) peut posséder \(\text{min}(m,n)\) pivots au maximum.
Solution.
Si la matrice \(A\) est une matrice carrée, il est clair qu’elle peut avoir un nombre de pivots égal à son ordre. Cependant, si elle est rectangulaire (\(m\neq n\)), le nombre de pivots sera limité par la valeur la plus petite entre \(m\) et \(n\text{.}\) En effet, il faut avoir une ligne et une colonne associée à chaque pivot.

13.

Pour chacun des cas suivants, donner une ou deux matrices échelonnées réduites de format demandé qui respectent les conditions additionnelles:
(a)
Deux matrices \(2\times 2\) pour lesquelles la variable \(x\) est libre.
Réponse.
\begin{equation*} \begin{pmatrix} 0& 1\\ 0& 0 \end{pmatrix}\text{ et }\begin{pmatrix} 0& 0\\ 0& 0 \end{pmatrix} \end{equation*}
(b)
Deux matrices \(2\times 2\) pour lesquelles la variable \(y\) est libre.
Réponse.
\begin{equation*} \begin{pmatrix} 1& 4\\ 0& 0 \end{pmatrix}\text{ et }\begin{pmatrix} 1& 0\\ 0& 0 \end{pmatrix} \end{equation*}
(c)
Deux matrices \(3\times 3\) pour lesquelles les variables \(x,y\) sont pivots et \(z\) est libre.
Réponse.
\begin{equation*} \begin{pmatrix} 1 & 0 & 3\\ 0 & 1 & 2\\ 0 & 0 & 0 \end{pmatrix}\text{ et }\begin{pmatrix} 1 & 0 & 0\\ 0 & 1 & 0\\ 0 & 0 & 0 \end{pmatrix} \end{equation*}
(d)
Deux matrices \(3\times 3\) pour lesquelles les variables \(x,z\) sont pivots et \(y\) est libre.
Réponse.
\begin{equation*} \begin{pmatrix} 1 & 0 & 0\\ 0 & 0 & 1\\ 0 & 0 & 0 \end{pmatrix}\text{ et }\begin{pmatrix} 1 & 2 & 0\\ 0 & 0 & 1\\ 0 & 0 & 0 \end{pmatrix} \end{equation*}
(e)
Une seule matrice \(3\times 3\) pour laquelle les variables \(y,z\) sont pivots et \(x\) est libre.
Réponse.
\begin{equation*} \begin{pmatrix} 0 & 1 & 0\\ 0 & 0 & 1\\ 0 & 0 & 0 \end{pmatrix} \end{equation*}
(f)
Une seule matrice \(3\times 3\) pour laquelle les variables \(x,y\) sont libres et \(z\) est pivot.
Réponse.
\begin{equation*} \begin{pmatrix} 0 & 0 & 1\\ 0 & 0 & 0\\ 0 & 0 & 0 \end{pmatrix} \end{equation*}
(g)
Deux matrices \(3\times 3\) pour lesquelles les variables \(x,z\) sont libres et \(y\) est pivot.
Réponse.
\begin{equation*} \begin{pmatrix} 0 & 1 & 0\\ 0 & 0 & 0\\ 0 & 0 & 0 \end{pmatrix}\text{ et }\begin{pmatrix} 0 & 1 & 3\\ 0 & 0 & 0\\ 0 & 0 & 0 \end{pmatrix} \end{equation*}
(h)
Deux matrices \(3\times 3\) pour lesquelles les variables \(y,z\) sont libres et \(x\) est pivot.
Réponse.
\begin{equation*} \begin{pmatrix} 1 & 1 & 1\\ 0 & 0 & 0\\ 0 & 0 & 0 \end{pmatrix}\text{ et }\begin{pmatrix} 1 & 0 & 0\\ 0 & 0 & 0\\ 0 & 0 & 0 \end{pmatrix} \end{equation*}
(i)
Deux matrices \(5\times 5\) pour lesquelles exactement deux variables sont pivots.
Réponse.
\begin{equation*} \begin{pmatrix} 1 & 0 & 0 & 0 & 0\\ 0 & 1 & 0 & 0 & 0\\ 0 & 0 & 0 & 0 & 0\\ 0 & 0 & 0 & 0 & 0\\ 0 & 0 & 0 & 0 & 0 \end{pmatrix}\text{ et }\begin{pmatrix} 1 & -1 & 4 & 9 & 0\\ 0 & 0 & 0 & 0 & 1\\ 0 & 0 & 0 & 0 & 0\\ 0 & 0 & 0 & 0 & 0\\ 0 & 0 & 0 & 0 & 0 \end{pmatrix} \end{equation*}

14.

Considérer la matrice
\begin{equation*} A=\left(\begin{array}{rrr|r} 1 & 3 & 1 & 1 \\ 2 & x & 1 & -1 \\ 0 & 2 & -1 & 2 \end{array}\right)\text{.} \end{equation*}
Quelle est la solution de ce système dans le cas où la valeur de \(x\) fait en sorte qu’il est nécessaire d’effectuer l’opération élémentaire \(L_2\leftrightarrow L_3\text{?}\)
Réponse.
La solution est
\begin{equation*} \vecddd{x}{y}{z}=\vecddd{-\frac{19}{2}}{\frac{5}{2}}{3} \end{equation*}
dans le cas où \(x=6\text{.}\)
Solution.
On commence l’algorithme de Gauss-Jordan et l’on verra à quel moment cette opération sera nécessaire et quelle valeur de \(x\) cela prendra.
\begin{equation*} \left(\begin{array}{rrr|r} 1 & 3 & 1 & 1 \\ 2 & x & 1 & -1 \\ 0 & 2 & -1 & 2 \end{array}\right)\matsimilc{1}{-2}{2}\left(\begin{array}{rrr|r} 1 & 3 & 1 & 1 \\ 0 & x-6 & -1 & -3 \\ 0 & 2 & -1 & 2 \end{array}\right) \end{equation*}
On constate déjà, à ce stade, que la deuxième ligne pourrait être un pivot dans le cas où \(x-6\neq 0\text{.}\) Inversement, il sera impossible que cette ligne soit un pivot si \(x-6=0\) et il faudra faire l’opération élémentaire \(L_2\leftrightarrow L_3\text{.}\) On pose donc \(x=6\) et l’on poursuit avec cette opération et le reste de l’algorithme.
\begin{align*} \left(\begin{array}{rrr|r} 1 & 3 & 1 & 1 \\ 0 & 0 & -1 & -3 \\ 0 & 2 & -1 & 2 \end{array}\right)&\matsimile{2}{3}\left(\begin{array}{rrr|r} 1 & 3 & 1 & 1 \\ 0 & 2 & -1 & 2 \\ 0 & 0 & -1 & -3 \end{array}\right)\\ &\matsimils{2}{\frac{1}{2}}\left(\begin{array}{rrr|r} 1 & 3 & 1 & 1 \\ 0 & 1 & -1/2 & 1 \\ 0 & 0 & -1 & -3 \end{array}\right)\\ &\matsimilc{2}{-3}{1}\left(\begin{array}{rrr|r} 1 & 0 & 5/2 & -2 \\ 0 & 1 & -1/2 & 1 \\ 0 & 0 & -1 & -3 \end{array}\right)\\ &\matsimils{3}{-1}\left(\begin{array}{rrr|r} 1 & 0 & 5/2 & -2 \\ 0 & 1 & -1/2 & 1 \\ 0 & 0 & 1 & 3 \end{array}\right)\\ &\matsimilc{3}{-\frac{5}{2}}{1}\left(\begin{array}{rrr|r} 1 & 0 & 0 & -19/2 \\ 0 & 1 & -1/2 & 1 \\ 0 & 0 & 1 & 3 \end{array}\right)\\ &\matsimilc{3}{\frac{1}{2}}{2}\left(\begin{array}{rrr|r} 1 & 0 & 0 & -19/2 \\ 0 & 1 & 0 & 5/2 \\ 0 & 0 & 1 & 3 \end{array}\right) \end{align*}
La solution est donc \(\vecddd{x}{y}{z}=\vecddd{-\frac{19}{2}}{\frac{5}{2}}{3}\text{.}\)

15.

Réduire la matrice \(\begin{pmatrix}a\amp c\\ b\amp d\end{pmatrix}\) jusqu’à la matrice identité. Quelles sont les hypothèses additionnelles qui sont faites si
(a)
\(a\neq 0\text{?}\)
Réponse.
\(ad-bc\neq 0\)
Solution.
Si \(a\neq 0\text{,}\) on peut donc se servir de l’algorithme de Gauss-Jordan pour échelonner en gardant le \(a\) comme premier pivot. On n’aura pas à permuter les lignes entre elles.
\begin{align*} \begin{pmatrix} a & c\\ b & d \end{pmatrix}&\matsimils{1}{\frac{1}{a}}\begin{pmatrix} 1 & \frac{c}{a}\\ b & d \end{pmatrix}\\ &\matsimilc{1}{-b}{2}\begin{pmatrix} 1 & \frac{c}{a}\\ 0 & \frac{ad-bc}{a} \end{pmatrix}\\ &\matsimils{2}{\frac{a}{ad-bc}}\begin{pmatrix} 1 & \frac{c}{a}\\ 0 & 1 \end{pmatrix}\\ &\matsimilc{2}{-\frac{c}{a}}{1}\begin{pmatrix} 1 & 0\\ 0 & 1 \end{pmatrix} \end{align*}
La seule hypothèse additionnelle est que \(ad-bc\neq 0\) puisqu’on retrouve cette expression au dénominateur. On a vu à la section 2.3 que les matrices \(2 \times 2\) étaient inversibles à condition que cette quantité soit non-nulle. Nous verrons au chapitre [provisional cross-reference: chap-determinants] qu’il s’agit du déterminant d’une matrice \(2 \times 2\text{.}\)
(b)
\(a= 0\text{?}\)
Réponse.
\(b\neq 0\) et \(c\neq 0\)
Solution.
Si \(a=0\text{,}\) on peut donc se servir de l’algorithme de Gauss-Jordan pour échelonner en commençant par permuter les deux lignes.
\begin{align*} \begin{pmatrix} 0 & c\\ b & d \end{pmatrix}&\matsimile{1}{2}\begin{pmatrix} b & d\\ 0 & c \end{pmatrix}\\ &\matsimils{1}{\frac{1}{b}}\begin{pmatrix} 1 & \frac{d}{b}\\ 0 & c \end{pmatrix}\\ &\matsimils{2}{\frac{1}{c}}\begin{pmatrix} 1 & \frac{d}{b}\\ 0 & 1 \end{pmatrix}\\ &\matsimilc{2}{-\frac{d}{b}}{1}\begin{pmatrix} 1 & 0\\ 0 & 1 \end{pmatrix} \end{align*}
Les deux hypothèses additionnelles sont que \(b\neq 0\) et \(c\neq 0\) puisqu’on retrouve ces expressions au dénominateur.
(c)
Quel est le nombre maximum d’opérations élémentaires à effectuer pour échelonner une matrice \(2\times 2\text{.}\)
Réponse.
Quatre opérations au maximum.
Solution.
Quatre opérations au maximum. On l’a démontré en répondant aux deux questions précédentes. En effet, en couvrant les cas où \(a \neq 0\) et où \(a = 0\text{,}\) on couvre tous les cas possibles. Les deux cas ont exigé quatre opérations élémentaires. C’est donc le maximum.

16.

À la section 2.3, on a établi qu’une matrice \(A=\matcold{a}{b}{c}{d}\) était inversible si \(ad-bc\neq 0\text{.}\) Montrer que toute matrice équivalente à une matrice telle que \(ad-bc\neq 0\) possède aussi cette condition.
Indice.
Il suffit d’appliquer chaque opération élémentaire à la matrice \(A\) et de vérifier la condition.
Solution.
On procède comme suggéré dans l’indice. On vérifie donc, pour chacune des trois opérations élémentaires, que l’on obtient encore la condition.
\begin{equation*} \begin{pmatrix} a & c\\ b & d \end{pmatrix}\matsimile{1}{2}\begin{pmatrix} b & d\\ a & c \end{pmatrix} \end{equation*}
La condition est: \(bc-ad\neq 0\) qui est entièrement équivalente à \(ad-bc\neq 0\) en réorganisant les termes.
La seconde opération de multiplication par un scalaire doit être vérifiée pour chaque ligne.
\begin{equation*} \begin{pmatrix} a & c\\ b & d \end{pmatrix}\matsimils{1}{k}\begin{pmatrix} ka & kc\\ b & d \end{pmatrix} \end{equation*}
et
\begin{equation*} \begin{pmatrix} a & c\\ b & d \end{pmatrix}\matsimils{2}{k}\begin{pmatrix} a & c\\ kb & kd \end{pmatrix} \end{equation*}
La condition est donc:
\begin{equation*} ka*d-b*kc=kad-kbc=k(ad-bc)\neq 0 \end{equation*}
ou bien
\begin{equation*} a*kd-kb*c=kad-kbc=k(ad-bc)\neq 0 \end{equation*}
qui sont équivalentes à \(ad-bc\neq 0\text{,}\) pourvu que \(k \neq 0\text{,}\) ce qui est le cas par la définition 3.1.10.
Finalement, la dernière opération élémentaire doit également être vérifiée pour chaque ligne.
\begin{equation*} \begin{pmatrix} a & c\\ b & d \end{pmatrix}\matsimilc{1}{k}{2}\begin{pmatrix} a & c\\ b+ka & d+kc \end{pmatrix} \end{equation*}
et
\begin{equation*} \begin{pmatrix} a & c\\ b & d \end{pmatrix}\matsimilc{2}{k}{1}\begin{pmatrix} a+kb & c+kd\\ b & d \end{pmatrix} \end{equation*}
La condition est donc:
\begin{equation*} a*(d+kc)-(b+ka)*c=(ad-bc)+kac-kac=ad-bc\neq 0 \end{equation*}
ou bien
\begin{equation*} (a+kb)*d-b*(c+kd)=(ad-bc)+kbd-kbd=(ad-bc)\neq 0 \end{equation*}
qui sont toutes les deux exactement pareilles à \(ad-bc\neq 0\text{.}\)

17.

Dans le début de la sous-section 3.1.1, on a établi qu’un système à deux équations et deux inconnues devait avoir aucune, une seule ou une infinité de solutions, en faisant le parallèle avec la géométrie des droites. Dans cet exercice, on essaie de faire la même chose avec des plans.
(a)
Considérer un système à deux équations et trois inconnues. Chaque équation peut être vue comme l’équation normale (1.3.18) d’un plan dans \(\R^3\text{.}\)
(i)
Quelle peut être la position relative de deux plans dans l’espace? Illustrer tous les cas possibles.
Solution.
On peut avoir deux plans parallèles distincts, parallèles confondus ou sécants. Les illustrations sont à venir.
(ii)
Combien de solutions peut-il y avoir à l’équation \(A\vec{x}=\vec{b}\) si \(A\) est une matrice \(2\times 3\text{?}\) Donner un exemple pour chaque cas possible.
Solution.
Il peut y avoir soit une infinité de solutions, soit aucune solution. Il n’y aura jamais de solution unique. Géométriquement, il y a deux façons d’avoir une infinité de solutions: deux plans sécants (les solutions seront sur la droite formée par l’intersection des deux plans) ou deux plans parallèles confondus (les solutions seront l’ensemble des plans confondus). L’équation n’aura pas de solution si elle représente deux plans parallèles distincts. On donne un exemple pour chaque cas possible:
Le système
\begin{equation*} \begin{pmatrix}1&1&1\\1&0&0\end{pmatrix}\vecddd{x}{y}{z}=\vecd{3}{0} \end{equation*}
représente deux plans sécants ayant une infinité de solutions.
Le système
\begin{equation*} \begin{pmatrix}1&1&1\\2&2&2\end{pmatrix}\vecddd{x}{y}{z}=\vecd{3}{6} \end{equation*}
représente deux plans parallèles confondus ayant une infinité de solutions.
Le système
\begin{equation*} \begin{pmatrix}1&1&1\\2&2&2\end{pmatrix}\vecddd{x}{y}{z}=\vecd{3}{0} \end{equation*}
représente deux plans parallèles distincts n’ayant aucune solution.
(b)
On considère maintenant trois plans dans l’espace.
(i)
Quelle peut être la position relative de trois plans distincts dans l’espace?
Solution.
Trois plans dans l’espace peuvent être :
  1. tous parallèles distincts
  2. deux parallèles distincts et le troisième sécant aux deux
  3. aucunement parallèles, mais sécants deux à deux
  4. sécants tous les trois sur une droite
  5. sécants tous les trois sur un point.
(ii)
Déduire géométriquement que le système \(A\vec{x}=\vec{b}\) possède aucune, une seule ou une infinité de solutions.
Solution.
On reprend les différentes situations décrites et on attribue le nombre de solutions :
  1. Tous parallèles distincts: aucune solution.
  2. Deux parallèles distincts et le troisième sécant aux deux: aucune solution.
  3. Aucunement parallèles, mais sécants deux à deux: aucune solution.
  4. Sécants tous les trois sur une droite: infinité de solutions.
  5. Sécants tous les trois sur un point: une seule solution.
(iii)
Expliquer algébriquement pourquoi si \(\vec{u}\neq \vec{v}\) sont des solutions au système \(A\vec{x}=\vec{b}\) (peu importe la taille de la matrice \(A\text{!}\)), alors il existe une infinité de solutions.
Solution.
Si \(\vec{u}\neq \vec{v}\) sont des solutions au système \(A\vec{x}=\vec{b}\text{,}\) on peut écrire \(A\vec{u}=\vec{b}\) et \(A\vec{v}=\vec{b}\text{.}\) Ainsi, on peut créer une infinité de solutions \(\vec{x}\) :
\begin{equation*} \vec{x}=k_1\vec{u}+k_2\vec{v}\text{.} \end{equation*}
\(k_2=1-k_1\)
\begin{align*} A\vec{x}&=A(k_1\vec{u}+k_2\vec{v})\\ &=k_1A\vec{u}+k_2A\vec{v}\\ &=k_1\vec{b}+k_2\vec{b}\\ &=k_1\vec{b}+(1-k_1)\vec{b}\\ &=k_1\vec{b}+\vec{b}-k_1\vec{b}\\ &=\vec{b} \end{align*}
On a donc la possibilité de créer une infinité de différentes solutions en posant différentes valeurs de \(k_1\in\R\) et \(k_2=1-k_1\text{.}\)

18.

En se basant sur l’exemple 3.1.29, trouver l’inverse des matrices suivantes en les augmentant de la matrice identité de format approprié.
(a)
\(\matcold{1}{1}{3}{2}\)
Réponse.
\begin{equation*} \matcold{1}{1}{3}{2}^{-1}=\begin{pmatrix} -2& 3\\ 1& -1 \end{pmatrix} \end{equation*}
Solution.
\begin{align*} \begin{pmatrix} 1& 3&|& 1& 0\\ 1& 2&|& 0& 1 \end{pmatrix}&\matsimilc{1}{-}{2}\begin{pmatrix} 1& 3&|& 1& 0\\ 0& -1&|& -1& 1 \end{pmatrix}\\ &\matsimils{2}{-1}\begin{pmatrix} 1& 3&|& 1& 0\\ 0& 1&|& 1& -1 \end{pmatrix}\\ &\matsimilc{2}{-3}{1}\begin{pmatrix} 1& 0&|& -2& 3\\ 0& 1&|& 1& -1 \end{pmatrix} \end{align*}
L’inverse de cette matrice est donc:
\begin{equation*} \matcold{1}{1}{3}{2}^{-1}=\begin{pmatrix} -2& 3\\ 1& -1 \end{pmatrix} \end{equation*}
(b)
\(\matcold{1}{2}{-3}{0}\)
Réponse.
\begin{equation*} \matcold{1}{2}{-3}{0}^{-1}=\begin{pmatrix} 0& \frac{1}{2}\\ -\frac{1}{3}& \frac{1}{6} \end{pmatrix} \end{equation*}
Solution.
\begin{align*} \begin{pmatrix} 1& -3&|& 1& 0\\ 2& 0&|& 0& 1 \end{pmatrix}&\matsimilc{1}{-2}{2}\begin{pmatrix} 1& -3&|& 1& 0\\ 0& 6&|& -2& 1 \end{pmatrix}\\ &\matsimils{2}{\frac{1}{6}}\begin{pmatrix} 1& -3&|& 1& 0\\ 0& 1&|& -\frac{1}{3}& \frac{1}{6} \end{pmatrix}\\ &\matsimilc{2}{3}{1}\begin{pmatrix} 1& 0&|& 0& \frac{1}{2}\\ 0& 1&|& -\frac{1}{3}& \frac{1}{6} \end{pmatrix} \end{align*}
L’inverse de cette matrice est donc:
\begin{equation*} \matcold{1}{2}{-3}{0}^{-1}=\begin{pmatrix} 0& \frac{1}{2}\\ -\frac{1}{3}& \frac{1}{6} \end{pmatrix} \end{equation*}
(c)
\(\matcold{0}{4}{-1}{5}\)
Réponse.
\begin{equation*} \matcold{0}{4}{-1}{5}^{-1}=\begin{pmatrix} \frac{5}{4}& \frac{1}{4}\\ -1& 0 \end{pmatrix} \end{equation*}
Solution.
\begin{align*} \begin{pmatrix} 0& -1&|& 1& 0\\ 4& 5&|& 0& 1 \end{pmatrix}&\matsimile{1}{2}\begin{pmatrix} 4& 5&|& 0& 1\\ 0& -1&|& 1& 0 \end{pmatrix}\\ &\matsimils{1}{\frac{1}{4}}\begin{pmatrix} 1& \frac{5}{4}&|& 0& \frac{1}{4}\\ 0& -1&|& 1& 0 \end{pmatrix}\\ &\matsimils{2}{-}\begin{pmatrix} 1& \frac{5}{4}&|& 0& \frac{1}{4}\\ 0& 1&|& -1& 0 \end{pmatrix}\\ &\matsimilc{2}{-\frac{5}{4}}{1}\begin{pmatrix} 1& 0&|& \frac{5}{4}& \frac{1}{4}\\ 0& 1&|& -1& 0 \end{pmatrix} \end{align*}
L’inverse de cette matrice est donc:
\begin{equation*} \matcold{0}{4}{-1}{5}^{-1}=\begin{pmatrix} \frac{5}{4}& \frac{1}{4}\\ -1& 0 \end{pmatrix} \end{equation*}
(d)
\(\matcolt{-1}{2}{3}{-2}{1}{-1}{0}{3}{4}\)
Réponse.
\begin{equation*} \matcolt{-1}{2}{3}{-2}{1}{-1}{0}{3}{4}^{-1}=\begin{pmatrix} -\frac{7}{9}& -\frac{8}{9}& \frac{2}{3}\\ -\frac{1}{9}& \frac{4}{9}& -\frac{1}{3}\\ \frac{5}{9}& \frac{7}{9}& -\frac{1}{3} \end{pmatrix} \end{equation*}
Solution.
\begin{align*} \begin{pmatrix} -1& -2& 0&|& 1& 0& 0\\ 2& 1& 3&|& 0& 1& 0\\ 3& -1& 4&|& 0& 0& 1 \end{pmatrix}&\matsimils{1}{-}\begin{pmatrix} 1& 2& 0&|& -1& 0& 0\\ 2& 1& 3&|& 0& 1& 0\\ 3& -1& 4&|& 0& 0& 1 \end{pmatrix}\\ &\matsimilc{1}{-2}{2}\begin{pmatrix} 1& 2& 0&|& -1& 0& 0\\ 0& -3& 3&|& 2& 1& 0\\ 3& -1& 4&|& 0& 0& 1 \end{pmatrix}\\ &\matsimilc{1}{-3}{3}\begin{pmatrix} 1& 2& 0&|& -1& 0& 0\\ 0& -3& 3&|& 2& 1& 0\\ 0& -7& 4&|& 3& 0& 1 \end{pmatrix}\\ &\matsimils{2}{-\frac{1}{3}}\begin{pmatrix} 1& 2& 0&|& -1& 0& 0\\ 0& 1& -1&|& -\frac{2}{3}& -\frac{1}{3}& 0\\ 0& -7& 4&|& 3& 0& 1 \end{pmatrix}\\ &\matsimilc{2}{-2}{1}\begin{pmatrix} 1& 0& 2&|& \frac{1}{3}& \frac{2}{3}& 0\\ 0& 1& -1&|& -\frac{2}{3}& -\frac{1}{3}& 0\\ 0& -7& 4&|& 3& 0& 1 \end{pmatrix}\\ &\matsimilc{2}{7}{3}\begin{pmatrix} 1& 0& 2&|& \frac{1}{3}& \frac{2}{3}& 0\\ 0& 1& -1&|& -\frac{2}{3}& -\frac{1}{3}& 0\\ 0& 0& -3&|& -\frac{5}{3}& -\frac{7}{3}& 1 \end{pmatrix}\\ &\matsimils{3}{-\frac{1}{3}}\begin{pmatrix} 1& 0& 2&|& \frac{1}{3}& \frac{2}{3}& 0\\ 0& 1& -1&|& -\frac{2}{3}& -\frac{1}{3}& 0\\ 0& 0& 1&|& \frac{5}{9}& \frac{7}{9}& -\frac{1}{3} \end{pmatrix}\\ &\matsimilc{3}{-2}{1}\begin{pmatrix} 1& 0& 0&|& -\frac{7}{9}& -\frac{8}{9}& \frac{2}{3}\\ 0& 1& -1&|& -\frac{2}{3}& -\frac{1}{3}& 0\\ 0& 0& 1&|& \frac{5}{9}& \frac{7}{9}& -\frac{1}{3} \end{pmatrix}\\ &\matsimilc{3}{}{2}\begin{pmatrix} 1& 0& 0&|& -\frac{7}{9}& -\frac{8}{9}& \frac{2}{3}\\ 0& 1& 0&|& -\frac{1}{9}& \frac{4}{9}& -\frac{1}{3}\\ 0& 0& 1&|& \frac{5}{9}& \frac{7}{9}& -\frac{1}{3} \end{pmatrix} \end{align*}
L’inverse de cette matrice est donc:
\begin{equation*} \matcolt{-1}{2}{3}{-2}{1}{-1}{0}{3}{4}^{-1}=\begin{pmatrix} -\frac{7}{9}& -\frac{8}{9}& \frac{2}{3}\\ -\frac{1}{9}& \frac{4}{9}& -\frac{1}{3}\\ \frac{5}{9}& \frac{7}{9}& -\frac{1}{3} \end{pmatrix} \end{equation*}
(e)
\(\matcolt{0}{0}{-1}{2}{0}{0}{1}{-1}{0}\)
Réponse.
\begin{equation*} \matcolt{0}{0}{-1}{2}{0}{0}{1}{-1}{0}^{-1}=\begin{pmatrix} 0& 0& -1\\ \frac{1}{2}& \frac{1}{2}& 0\\ 0& -1& 0 \end{pmatrix} \end{equation*}
Solution.
\begin{align*} \begin{pmatrix} 0& 2& 1&|& 1& 0& 0\\ 0& 0& -1&|& 0& 1& 0\\ -1& 0& 0&|& 0& 0& 1 \end{pmatrix}&\matsimile{1}{3}\begin{pmatrix} -1& 0& 0&|& 0& 0& 1\\ 0& 0& -1&|& 0& 1& 0\\ 0& 2& 1&|& 1& 0& 0 \end{pmatrix}\\ &\matsimils{1}{-}\begin{pmatrix} 1& 0& 0&|& 0& 0& -1\\ 0& 0& -1&|& 0& 1& 0\\ 0& 2& 1&|& 1& 0& 0 \end{pmatrix}\\ &\matsimile{2}{3}\begin{pmatrix} 1& 0& 0&|& 0& 0& -1\\ 0& 2& 1&|& 1& 0& 0\\ 0& 0& -1&|& 0& 1& 0 \end{pmatrix}\\ &\matsimils{2}{\frac{1}{2}}\begin{pmatrix} 1& 0& 0&|& 0& 0& -1\\ 0& 1& \frac{1}{2}&|& \frac{1}{2}& 0& 0\\ 0& 0& -1&|& 0& 1& 0 \end{pmatrix}\\ &\matsimils{3}{-}\begin{pmatrix} 1& 0& 0&|& 0& 0& -1\\ 0& 1& \frac{1}{2}&|& \frac{1}{2}& 0& 0\\ 0& 0& 1&|& 0& -1& 0 \end{pmatrix}\\ &\matsimilc{3}{-\frac{1}{2}}{2}\begin{pmatrix} 1& 0& 0&|& 0& 0& -1\\ 0& 1& 0&|& \frac{1}{2}& \frac{1}{2}& 0\\ 0& 0& 1&|& 0& -1& 0 \end{pmatrix} \end{align*}
L’inverse de cette matrice est donc:
\begin{equation*} \matcolt{0}{0}{-1}{2}{0}{0}{1}{-1}{0}^{-1}=\begin{pmatrix} 0& 0& -1\\ \frac{1}{2}& \frac{1}{2}& 0\\ 0& -1& 0 \end{pmatrix} \end{equation*}

19.

Une matrice \(A\) est telle que \(A\vecddd{1}{1}{1}=\vecddd{1}{0}{0}\text{,}\)\(A\vecddd{0}{1}{1}=\vecddd{0}{1}{0}\) et \(A\vecddd{0}{0}{1}=\vecddd{0}{0}{1}\text{.}\) Trouver \(\vec{x}\) telle que \(A\vec{x}=\vecddd{-2}{3}{5}\text{.}\) Que vaut \(A\text{?}\)
Réponse.
\(\vec{x}=\vecddd{-2}{1}{6}\) et \(A=\matcolt{1}{-1}{0}{0}{1}{-1}{0}{0}{1}\text{.}\)
Solution.
Puisque les vecteurs \(\vec{b}\) ont trois composantes et que les vecteurs \(\vec{x}\) en ont trois également, on sait que la matrice \(A\) est de taille \(3\times 3\text{.}\) De plus, les équations données dans l’exercice permettent de dire que la matrice est inversible et que \(A^{-1}=\matcolt{1}{1}{1}{0}{1}{1}{0}{0}{1}\text{,}\) en vertu de la remarque 2.3.13. On a donc
\begin{equation*} \vecddd{x}{y}{z}=A^{-1}\vecddd{-2}{3}{5}\text{.} \end{equation*}
On peut calculer ce produit matrice vecteur directement ou avec l’approche par colonne. Dans tous les cas, on obtient \(\vecddd{x}{y}{z}=\vecddd{-2}{1}{6}\text{.}\)
Pour trouver la matrice \(A\text{,}\) on peut utiliser une démarche semblable à l’exemple 3.1.29 pour échelonner la matrice augmentée \((A^{-1}|I)\sim \cdots \sim (I| A)\text{.}\) On a
\begin{align*} \left(\begin{array}{rrr|rrr}1&0&0 &1 & 0& 0\\ 1&1&0&0&1&0\\ 1&1&1&0&0&1\end{array}\right)&\substack{-L_1+L_2\rightarrow L_2 \\ -L_1+L_3\rightarrow L_3 \\ \sim}\left(\begin{array}{rrr|rrr}1&0&0 &1 & 0& 0\\ 0&1&0&-1&1&0\\ 0&1&1&-1&0&1\end{array}\right)\\ &\matsimilc{2}{-}{3}\left(\begin{array}{rrr|rrr}1&0&0 &1 & 0& 0\\ 0&1&0&-1&1&0\\ 0&0&1&0&-1&1\end{array}\right)\text{.} \end{align*}

20.

On considère la matrice \(\matcold{x}{1}{x}{x}\text{.}\) Pour quelle(s) valeurs de \(x\) la matrice possède-t-elle un seul pivot?
Réponse.
\(x=0\) et \(x=1\)
Solution.
Afin de répondre à cette question, on va échelonner la matrice et voir sous quelles conditions elle ne possèdera qu’un seul pivot.
\begin{align*} \begin{pmatrix} x& x\\ 1& x \end{pmatrix}&\matsimile{1}{2}\begin{pmatrix} 1& x\\ x& x \end{pmatrix}\\ &\matsimilc{1}{-x}{2}\begin{pmatrix} 1& x\\ 0& x-x^2 \end{pmatrix} \end{align*}
Pour n’avoir qu’un seul pivot, il faut que \(x-x^2=x(1-x)=0\text{.}\) Cela arrivera pour deux valeurs de \(x\text{,}\) soient \(x=0\) et \(x=1\text{.}\)

Exercices Sage.

Les exercices qui suivent sont conçus pour être résolus avec Sage. Des cellules vides sont disponibles pour écrire les réponses. Évidemment, il y a plusieurs manières d’arriver aux réponses.
21.
Pour chaque matrice de l’exercice 3.1.4.1, utiliser la commande elementary_matrix pour obtenir la matrice élémentaire associée à l’opération.
Solution.
show(elementary_matrix(5,row1=2,row2=4)) #On se rapelle que la première ligne est indicée à 0
show(elementary_matrix(8,row1=2,row2=4))
show(elementary_matrix(3,row1=1,scale=4))
show(elementary_matrix(3,row1=1,scale=4))
show(elementary_matrix(5,row1=3,row2=0,scale=-4))
Bloc de code 3.1.32. Le code pour les matrices élémentaires
22.
Utiliser Sage pour résoudre les systèmes d’équations linéaires suivants,
(a)
en utilisant une matrice augmentée et sa forme échelonnée réduite.
(i)
\begin{alignat*}{5} 3x_1&{}+{}&2x_2&{}-{}&5x_3&{}+{}&x_4&{}={}&-1\\ &&8x_2&{}+{}&2x_3&&&{}={}&3\\ x_1&{}-{}&7x_2&{}+{}&5x_3&&&{}={}&-2\\ 2x_1&{}+{}&3x_2&{}+{}&x_3&{}-{}&x_4&{}={}&5 \end{alignat*}
Réponse.
\((x_1,x_2,x_3,x_4)=\left(\frac{47}{104},\frac{115}{312},\frac{1}{39},−\frac{925}{312}\right)\)
Solution.
A=matrix([[3,2,-5,1],[0,8,2,0],[1,-7,5,0],[2,3,1,-1]])# La matrice
b=vector([-1,3,-2,5]) #Le vecteur
sol=(A.augment(b).rref()) #La matrice augmentée échelonnée réduite
show(sol)
vecsol=sol.column(-1) #-1 permet d'avoir la dernière colonne
pretty_print("La solution est (x_1,x_2,x_3,x_4)=",vecsol) #L'ajout de pretty devant le print fait en sorte que les fractions soient debout
Bloc de code 3.1.33. Le code solution
(ii)
Les systèmes \(A\vec{x}=\vec{b_i}\)\(A=\begin{pmatrix} 0&1&4&-1&2&7\\-1&3&3&1&12&3\\11&0&2&5&0&-4\\9&5&-1&11&-7&4\\1&2&3&-4&5&7\\-3&2&5&7&8&-13\end{pmatrix}\) et
\begin{equation*} \vec{b}_1=\begin{pmatrix} 1\\2\\3\\4\\5\\6 \end{pmatrix}\text{, } \vec{b}_2=\begin{pmatrix} 6\\5\\4\\3\\2\\1 \end{pmatrix}\text{, } \vec{b}_3=\begin{pmatrix} 1\\-2\\3\\-4\\5\\-6 \end{pmatrix}\text{ et } \vec{b}_4=\begin{pmatrix} -6\\5\\-4\\3\\-2\\1 \end{pmatrix} \end{equation*}
Réponse.
Si \(A\vec{x}_1=\vec{b}_1,\ldots A\vec{x}_4=\vec{b}_4\text{,}\) alors
\begin{align*} \vec{x}_1&=\left(\frac{9665}{27056},\,\frac{33249}{13528},\,\frac{18579}{27056},\,-\frac{26313}{27056},\,-\frac{9433}{27056},\,-\frac{17315}{27056}\right)\\ \vec{x}_2&=\left(\frac{2573}{54112},\,-\frac{41235}{27056},\,\frac{38631}{54112},\,\frac{52507}{54112},\,\frac{19867}{54112},\,\frac{37913}{54112}\right)\\ \vec{x}_3&=\left(\frac{90981}{135280},\,\frac{40709}{67640},\,\frac{40959}{135280},\,-\frac{160781}{135280},\,-\frac{24221}{135280},\,-\frac{31759}{135280}\right)\\ \vec{x}_4&=\left(-\frac{41807}{270560},\,\frac{141457}{135280},\,-\frac{495533}{270560},\,\frac{50327}{270560},\,\frac{165527}{270560},\,-\frac{29267}{270560}\right) \end{align*}
Solution.
A=matrix([[0,1,4,-1,2,7],[-1,3,3,1,12,3],[11,0,2,5,0,-4],[9,5,-1,11,-7,4],[1,2,3,-4,5,7],[-3,2,5,7,8,-13]])
b1=vector([1,2,3,4,5,6])
b2=vector([6,5,4,3,2,1])
b3=vector([1,-2,3,-4,5,-6])
b4=vector([-6,5,-4,3,-2,1])
#Pour augmenter une matrice de plusieurs vecteurs, on peut procéder comme suit:
Aug=((((A.augment(b1)).augment(b2)).augment(b3)).augment(b4))
show(Aug)
#Ou encore en définissant une matrice au préalable
B=column_matrix([b1,b2,b3,b4])
Augm=A.augment(B,subdivide=True)
show(Augm)
sol=(Augm.rref())
show(sol)
vecsol1=sol.column(-4)
vecsol2=sol.column(-3)
vecsol3=sol.column(-2)
vecsol4=sol.column(-1)
pretty_print("La solution de Ax=b1 est (x_1,x_2,x_3,x_4,x_5,x_6)=",vecsol1)
pretty_print("La solution de Ax=b2 est (x_1,x_2,x_3,x_4,x_5,x_6)=",vecsol2)
pretty_print("La solution de Ax=b3 est (x_1,x_2,x_3,x_4,x_5,x_6)=",vecsol3)
pretty_print("La solution de Ax=b4 est (x_1,x_2,x_3,x_4,x_5,x_6)=",vecsol4)
Bloc de code 3.1.34. Le code solution
(iii)
Le système
\begin{alignat*}{5} x_1&{}+{}&x_2&{}+{}&x_3&{}+{}&x_4&{}={}&1\\ x_1&{}+{}&2x_2&{}+{}&3x_3&{}+{}&4x_4&{}={}&2\\ x_1&{}+{}&4x_2&{}+{}&9x_3&{}+{}&16x_4&{}={}&3\\ x_1&{}+{}&8x_2&{}+{}&27x_3&{}+{}&64x_4&{}={}&4\text{.} \end{alignat*}
Réponse.
\((x_1,x_2,x_3,x_4)=\left(-\frac{5}{6}, 3, -\frac{3}{2}, \frac{1}{3}\right)\)
Solution.
A=matrix([[1,1,1,1],[1,2,3,4],[1,4,9,16],[1,8,27,64]])# La matrice
b=vector([1,2,3,4]) #Le vecteur
show(A.augment(b)) #Optionnel: pour vérifier qu'on a bien écrit le système dans Sage
sol=(A.augment(b).rref()) #La matrice augmentée échelonnée réduite
show(sol)
vecsol=sol.column(-1) #-1 permet d'avoir la dernière colonne
pretty_print("La solution est (x_1,x_2,x_3,x_4)=",vecsol) #L'ajout de pretty devant le print fait en sorte que les fractions soient debout
Bloc de code 3.1.35. Le code solution
(iv)
Le système
\begin{alignat*}{5} x_1&{}-{}&x_2&{}+{}&x_3&{}-{}&x_4&{}={}&1\\ x_1&{}-{}&2x_2&{}+{}&3x_3&{}-{}&4x_4&{}={}&-2\\ x_1&{}-{}&4x_2&{}+{}&9x_3&{}-{}&16x_4&{}={}&3\\ x_1&{}-{}&8x_2&{}+{}&27x_3&{}-{}&64x_4&{}={}&-4\text{.} \end{alignat*}
On voit qu’il est très simple de résoudre une légère modification d’un problème déjà résolu avec l’ordinateur, alors qu’à la main, le travail aurait dû être refait en grande partie.
Réponse.
\((x_1,x_2,x_3,x_4)=\left(\frac{107}{6},39,\frac{61}{2},\frac{25}{3}\right)\)
Solution.
A=matrix([[1,-1,1,-1],[1,-2,3,-4],[1,-4,9,-16],[1,-8,27,-64]])# La matrice
b=vector([1,-2,3,-4]) #Le vecteur
show(A.augment(b)) #Optionnel: pour vérifier qu'on a bien écrit le système dans Sage
sol=(A.augment(b).rref()) #La matrice augmentée échelonnée réduite
show(sol)
vecsol=sol.column(-1) #-1 permet d'avoir la dernière colonne
pretty_print("La solution est (x_1,x_2,x_3,x_4)=",vecsol) #L'ajout de pretty devant le print fait en sorte que les fractions soient debout
Bloc de code 3.1.36. Le code solution
(b)
en utilisant la commande solve_right.
(i)
Le système
\begin{align*} x_1&{}+{}&x_2&{}+{}&x_3&{}+{}&x_4&{}={}&1\\ x_1&{}+{}&2x_2&{}+{}&3x_3&{}+{}&4x_4&{}={}&2\\ x_1&{}+{}&4x_2&{}+{}&9x_3&{}+{}&16x_4&{}={}&3\\ x_1&{}+{}&8x_2&{}+{}&27x_3&{}+{}&64x_4&{}={}&4\text{.} \end{align*}
Réponse.
\((x_1,x_2,x_3,x_4)=\left(-\frac{5}{6}, 3, -\frac{3}{2}, \frac{1}{3}\right)\)
Solution.
A=matrix([[1,1,1,1],[1,2,3,4],[1,4,9,16],[1,8,27,64]])# La matrice
b=vector([1,2,3,4]) #Le vecteur
sol=(A.solve_right(b))
pretty_print("La solution est (x_1,x_2,x_3,x_4)=",sol)
Bloc de code 3.1.37. Le code solution
(ii)
Le système
\begin{align*} -x_1&{}+{}&x_2&{}-{}&x_3&{}+{}&x_4&{}={}&-1\\ -x_1&{}+{}&2x_2&{}-{}&3x_3&{}+{}&4x_4&{}={}&2\\ -x_1&{}+{}&4x_2&{}-{}&9x_3&{}+{}&16x_4&{}={}&3\\ -x_1&{}+{}&8x_2&{}-{}&27x_3&{}+{}&64x_4&{}={}&-4\text{.} \end{align*}
Réponse.
\((x_1,x_2,x_3,x_4)=\left(\frac{107}{6},39,\frac{61}{2},\frac{25}{3}\right)\)
Solution.
A=matrix([[1,-1,1,-1],[1,-2,3,-4],[1,-4,9,-16],[1,-8,27,-64]])# La matrice
b=vector([1,-2,3,-4]) #Le vecteur
sol=(A.solve_right(b))
pretty_print("La solution est (x_1,x_2,x_3,x_4)=",sol)
Bloc de code 3.1.38. Le code solution
23. La parabole revisitée.
Dans l’exercice 1.3.4.16, on a automatisé le calcul de l’équation d’une parabole connaissant sa droite directrice et son foyer. Si la parabole est aussi une fonction, soit \(y=ax^2+bx+c\text{,}\) alors il est possible à l’aide de trois points de la parabole de trouver l’équation.
(a)
Soit \(P(-1,22),Q(2,19)\) et \(R(3,34)\) trois points sur une parabole d’équation \(y=ax^2+bx+c\text{.}\)
En utilisant un système d’équations linéaires, déterminer l’équation de la parabole. Tracer celle-ci, ainsi que les points \(P,Q,R\) sur un même graphique.
Solution.
P=vector([-1,22])
Q=vector([2,19])
R=vector([3,34])
A=matrix([[P[0]^2,P[0],1],[Q[0]^2,Q[0],1],[R[0]^2,R[0],1]])
v=vector([P[1],Q[1],R[1]])
sol=A.solve_right(v)
print("L'équation de la parabole est ",sol[0]*x^2+sol[1]*x+sol[2])
para=plot(sol[0]*x^2+sol[1]*x+sol[2],(x,-2,4))
#On trace les points et on les identifie de belle façon
ptP=plot(point(P))+text('  P(%s,%s)'%(P[0],P[1]),P,horizontal_alignment='left')
ptQ=plot(point(Q))+text('  Q(%s,%s)'%(Q[0],Q[1]),Q,horizontal_alignment='left')
ptR=plot(point(R))+text('  R(%s,%s)'%(R[0],R[1]),R,horizontal_alignment='left')
show(para+ptP+ptQ+ptR)
Bloc de code 3.1.39. Le code solution permettant de trouver l’équation et de tracer la parabole et les trois points
(b)
On veut maintenant créer une fonction qui va retourner l’équation d’une parabole passant par trois points donnés. La fonction doit d’abord vérifier si les trois points sont différents et ensuite retourner son équation. Tester la fonction avec la réponse à la partie précédente et avec des points pareils. Finalement, observer le résultat lorsqu’on calcule l’équation pour trois points alignés.
Solution.
def eqparapoints(P1,P2,P3):
    v1=P2-P1
    v2=P3-P1
    if P1==P2 or P1==P3 or P2==P3:
        print("Il faut fournir trois points différents pour définir une parabole.")
    else:
        #On veut résoudre ax^2+bx+c=y avec x,y=P1,P2,P3. On résoute le système A(a,b,c)=v où v=(y1,y2,y3)
        A=matrix([[P1[0]^2,P1[0],1],[P2[0]^2,P2[0],1],[P3[0]^2,P3[0],1]])
        v=vector([P1[1],P2[1],P3[1]])
        sol=A.solve_right(v)
        print("L'équation de la parabole est ",sol[0]*x^2+sol[1]*x+sol[2])
P1=vector([-1,22])
P2=vector([2,19])
P3=vector([3,34])
P4=(P1+P2)/2
eqparapoints(P1,P2,P3)
eqparapoints(P1,P1,P3) #On teste avec deux points pareils
eqparapoints(P1,P2,P4) #On teste avec trois points sur une droite
Bloc de code 3.1.40. La fonction qui donne l’équation de la parabole passant par trois points donnés
On remarque que l’équation obtenue pour trois points alignés est l’équation d’une droite.