Dans la section
3.1, on a introduit
l’algorithme de Gauss-Jordan 3.1.25 que l’on a utilisé pour résoudre des systèmes d’équations linéaires, en échelonnant la matrice augmentée du système. Dans tous les exemples, on a réussi à trouver une solution. On sait toutefois qu’on peut associer un système d’équations linéaires à deux équations et deux inconnues à la position relative de deux droites dans
\(\R^2\) et un système à trois équations et trois inconnues à la position relative de trois plans dans
\(\R^3\text{.}\) Dans certaines situations, il peut n’y avoir aucune solution,par exemple si les droites sont parallèles , ou une infinité de solutions. Comment cela se manifeste-t-il dans la forme échelonnée réduite d’une matrice?
On considère les deux matrices échelonnées réduites suivantes:
\begin{equation}
A=\begin{pmatrix} 1& 0 & 2 &| & 1 \\ 0& 1 & -3 & |& 2 \\ 0& 0& 0&|& 0\end{pmatrix}\tag{3.2.1}
\end{equation}
\begin{equation}
B=\begin{pmatrix} 1& 0 &2&| & 1 \\ 0& 1 & -3 & |& 2 \\ 0 &0& 0& |& 1\end{pmatrix}\text{.}\tag{3.2.2}
\end{equation}
La forme de la première matrice indique une infinité de solutions au système d’équations associé, alors que la forme de la seconde révèle qu’il n’y a pas de solution au système.
Dans cette section, on décrit comment on peut déterminer si un système possède ou non des solutions. On définit la notion de rang d’une matrice.
Sous-section 3.2.1 Le nombre de solutions
On considère le système associé à la matrice
(3.2.1), sous forme d’équations:
\begin{alignat*}{4}
x&{}+{} &0y&{}+{}&2z&{}={}&1\\
0x&{}+{} &y&{}-{}&3z&{}={}&2\\
0x&{}+{} &0y&{}+{}&0z&{}={}&0\text{.}
\end{alignat*}
La dernière équation de ce système se simplifie à \(0=0\) et elle est toujours vraie, peu importe les valeurs de \(x,y,z\text{.}\) Dans les deux autres équations, on peut remarquer que la variable \(z\) est présente dans chacune et que les coefficients de \(x\) et \(y\) valent \(1\text{.}\) Si l’on isole \(x\) et \(y\) dans ces équations, on obtient
\begin{align*}
x&=-2z+1\\
y&=3z+2\text{.}
\end{align*}
Les variables
\(x,y\) sont liées à
\(z\text{,}\) qui elle, ne possède pas de restrictions. Un point qui satisfait le système d’équations linéaires associé à la matrice
(3.2.1) doit donc être de la forme
\begin{alignat*}{1}
(x,y,z)&=(-2z+1,3z+2,z)\\
&=(-2z,3z,z)+(1,2,0)\\
&=z(-2,3,1)+(1,2,0)\text{.}
\end{alignat*}
On reconnait
l’équation vectorielle (1.3.1) d’une droite de vecteur directeur
\((-2,3,1)\) passant par le point
\((1,2,0)\text{.}\) Ainsi, la solution au système est constituée de l’ensemble des points se trouvant sur cette droite. Il y en a donc une infinité.
On considère maintenant le système associé à la matrice
(3.2.2), celle-ci traduite sous la forme d’équation permet d’obtenir
\begin{alignat*}{3}
x&{}+{} &0y&{}+{}&2z{}={}&1\\
0x&{}+{} &y&{}-{}&3z&{}={}2\\
0x&{}+{} &0y&{}+{}&0z&{}={}1\text{.}
\end{alignat*}
Cette fois-ci, la dernière équation se simplifie à \(0=1\text{.}\) Évidemment, il n’y a aucune valeur de \(x,y,z\) qui peut rendre cette équation vraie. La conclusion est donc qu’il n’y a pas de solutions.
Définition 3.2.1. Cohérence d’un système d’équations linéaires.
Un système d’équations linéaires pour lequel il existe une ou plusieurs solutions est dit compatible, cohérent. Si aucune solution n’existe, le système est dit incompatible, incohérent.
Comme vu dans l’exercice
3.1.4.17.b.iii, si un système compatible admet plus d’une solution, alors il y en a nécessairement une infinité. On a donc la proposition suivante.
Proposition 3.2.2. Le nombre de solutions à un système d’équations linéaires.
Soit \(A\vec{x}=\vec{b}\text{,}\) un système d’équations linéaires. Une seule des trois situations suivantes est possible:
Le système est incompatible et n’admet pas de solutions;
Le système est compatible et admet une solution unique;
Le système est compatible et admet une infinité de solutions.
Démonstration.
Le système est soit incompatible, soit compatible. S’il est incompatible, il n’y a rien à démontrer.
On suppose que le système est compatible. Dans ce cas, il existe au moins une solution \(\vec{u}\) telle que \(A\vec{u}=\vec{b}\text{.}\) Si \(\vec{v}\) est un vecteur différent de \(\vec{u}\) tel que \(A\vec{v}=\vec{b}\text{,}\) alors \(\vec{w}=\frac{\vec{u}}{2}+\frac{\vec{v}}{2}\) est aussi une solution différente, car
\begin{align*}
A\vec{w}&=A\left(\frac{\vec{u}}{2}+\frac{\vec{v}}{2}\right)\\
&= A\frac{\vec{u}}{2}+A\frac{\vec{v}}{2}\\
&=\frac{1}{2}(A\vec{u}+A\vec{v})\\
&=\frac{1}{2}(\vec{b}+\vec{b})\\
&=\vec{b}\text{.}
\end{align*}
De plus, \(\vec{w}\neq \vec{u},\vec{v}\)
On peut ensuite répéter ce processus à l’infini et obtenir des vecteurs différents qui constituent tous des solutions du système. Donc, soit la solution est unique, soit il en existe une infinité.
On reconnait un système incompatible à l’existence d’un pivot dans la partie augmentée, comme pour la matrice
(3.2.2). En effet, un pivot dans la partie augmentée signifie que tous les coefficients des variables sont nuls et que le membre de droite (augmenté) est, quant à lui, non nul.
Lorsque le système est cohérent, on aura une solution unique si le nombre de pivots correspond au nombre de variables. S’il est plus petit, il y aura alors une infinité de solutions. Le nombre de pivots d’une matrice est appelé le rang et sera défini au début de la prochaine sous-section.
Exemple 3.2.3. Un système qui n’a aucune solution.
On reprend le système du début de la section
3.1, qui correspond à des droites parallèles distinctes:
\begin{align*}
x+2y&=4\\
2x+4y&=7\text{.}
\end{align*}
On veut montrer que ce système ne possède pas de solution en échelonnant la matrice augmentée qui lui est associée.
Solution.
On utilise Gauss-Jordan pour échelonner la matrice augmentée de ce système, afin de repérer le pivot dans la partie augmentée:
\begin{align*}
(A|\vec{b})&=\begin{pmatrix} 1& 2& |& 4\\ 2& 4& | &7 \end{pmatrix}\\
&\matsimilc{1}{-2}{2}\begin{pmatrix} 1& 2& |& 4\\ 0 & 0 &|& -1 \end{pmatrix}\text{.}
\end{align*}
La dernière ligne étant équivalente à \(0=-1\text{,}\) il ne peut y avoir de solution. On aurait pu poursuivre l’algorithme de Gauss-Jordan pour faire en sorte que la partie augmentée soit aussi échelonnée réduite, mais ce n’est jamais nécessaire. Dès que l’on obtient une ligne de \(0\) incompatible dans la matrice augmentée, on peut conclure que le système lui-même est incompatible.
Exemple 3.2.4. Un système avec une infinité de solutions.
On reprend l’autre système au début de la section
3.1, qui correspond à des droites parallèles confondues:
\begin{align*}
x+2y&=4\\
2x+4y&=8\text{.}
\end{align*}
On veut montrer que ce système possède une infinité de solutions en échelonnant la matrice augmentée qui lui est associée.
Solution.
On utilise Gauss-Jordan pour échelonner la matrice augmentée de ce système:
\begin{align*}
(A|\vec{b})&=\begin{pmatrix} 1& 2& |& 4\\ 2& 4& | &8 \end{pmatrix}\\
&\matsimilc{1}{-2}{2}\begin{pmatrix} 1& 2& |& 4\\ 0 & 0 &|& 0\end{pmatrix}\text{.}
\end{align*}
La dernière ligne étant équivalente à \(0=0\text{,}\) elle ne donne aucune information sur la solution. La première équation s’écrit \(x+2y=4\) et l’on y reconnait l’équation de la droite de départ. Pour avoir la forme vectorielle et suivre l’exemple de l’introduction de cette sous-section, on isole \(x\) dans l’équation:
\begin{equation*}
x=-2y+4\text{.}
\end{equation*}
Une solution à ce système d’équations doit donc être de la forme
\begin{align*}
(x,y)&=(-2y+4,y)\\
&=(-2y,y)+(4,0)\\
&=y(-2,1)+(4,0)\text{.}
\end{align*}
La solution est une droite de vecteur directeur \((-2,1)\) passant par le point \((4,0)\text{.}\) On vérifiera facilement que ce vecteur directeur est bien perpendiculaire au vecteur normal de l’équation \(x+2y=4\) et que le point \((4,0)\) satisfait bel et bien cette équation.
Évidemment, ces deux exemples peuvent se résoudre facilement en ne considérant que la géométrie du système. Toutefois, lorsque le nombre d’équations et d’inconnues devient plus élevé, l’avantage de la méthode algébrique devient plus évident.
Exemple 3.2.5. Des systèmes à quatre équations et trois inconnues.
Soit les matrices \(A=\begin{pmatrix} 2& -3& 1 \\
6& 0& 4\\
6 & 9& 5\\
-6& 9 & -3\end{pmatrix}\text{,}\) \(B=\begin{pmatrix} 1& 6& -3 \\
\frac{4}{3}& 8& -4\\
\frac{1}{3} & 2& -1\\
-3& -18 & 9\end{pmatrix}\) et les vecteurs \(\vec{b}_1=\begin{pmatrix} 5\\ 3\\ -9\\ -15\end{pmatrix}, \vec{b}_2=\begin{pmatrix}3\\4\\1\\-9\end{pmatrix}\text{.}\) On cherche la solution des systèmes suivants:
\(A\vec{x}=\vec{b}_1\text{,}\)
\(A\vec{x}=\vec{b}_2\text{,}\)
\(B\vec{x}=\vec{b}_1\text{,}\)
\(B\vec{x}=\vec{b}_2\text{.}\)
Solution 1.
Les systèmes avec la matrice \(A\) sont équivalents à la matrice augmentée
\begin{equation*}
\left(\begin{array}{rrr|rr} 2& -3& 1 & 5&3 \\
6& 0& 4 & 3& 4\\
6 & 9& 5 & -9&1 \\
-6& 9 & -3 &-15&-9\end{array}\right)\text{.}
\end{equation*}
On peut résoudre simultanément ces systèmes puisque la matrice est la même. On a
\begin{align*}
\begin{pmatrix} 2& -3& 1 &|& 5&3 \\
6& 0& 4 &|& 3& 4\\
6 & 9& 5 &|& -9&1 \\
-3& 2 & 0 &|& 1&0\end{pmatrix}&\matsimils{1}{\frac{1}{2}} \begin{pmatrix} 1& -\frac{3}{2}& \frac{1}{2} &|& \frac{5}{2}&\frac{3}{2} \\
6& 0& 4 &|& 3& 4\\
6 & 9& 5 &|& -9&1 \\
-6& 9 & -3 &|&-15&-9\end{pmatrix}\\
&\substack{-6L_1+L_2\rightarrow L_2 \\ -6L_1+L_3\rightarrow L_3 \\3L_1+L_4\rightarrow L_4\\ \sim} \begin{pmatrix} 1& -\frac{3}{2}& \frac{1}{2} &|& \frac{5}{2}&\frac{3}{2} \\
0& 9& 1 &|& -12& -5\\
0 & 18& 2 &|& -24&-8 \\
0& 0 & 0 &|& 0&0\end{pmatrix}\\
\end{align*}
On remarque qu’avant de diviser, on peut éliminer un terme sous le pivot de la ligne deux.
\begin{align*}
&\matsimilc{2}{-2}{3} \begin{pmatrix} 1& -\frac{3}{2}& \frac{1}{2} &|& \frac{5}{2}&\frac{3}{2} \\
0& 9& 1 &|& -12& -5\\
0 & 0& 0 &|& 0&2 \\
0& 0 & 0 &|& 0&0\end{pmatrix}\\
\end{align*}
La prochaine étape n’est pas nécessaire, mais on choisit de la faire quand même.
\begin{align*}
&\matsimils{3}{\frac{1}{2}}\begin{pmatrix} 1& -\frac{3}{2}& \frac{1}{2} &|& \frac{5}{2}&\frac{3}{2} \\
0& 9& 1 &|& -12& -5\\
0& 0 & 0 &|& 0&1\\
0 & 0& 0 &|& 0&0 \end{pmatrix}\\
\end{align*}
On pourrait cesser les opérations sur la dernière colonne, car ce système est incompatible. On choisit de poursuivre dans un but de clarté.
\begin{align*}
&\matsimils{2}{\frac{1}{9}}\begin{pmatrix} 1& -\frac{3}{2}& \frac{1}{2} &|& \frac{5}{2}&\frac{3}{2} \\
0& 1& \frac{1}{9} &|& -\frac{4}{3}& -\frac{5}{9}\\
0& 0 & 0 &|& 0&1\\
0 & 0& 0 &|& 0&0 \end{pmatrix}\\
& \matsimilc{2}{\frac{3}{2}}{1}\begin{pmatrix} 1& 0& \frac{2}{3} &|&\frac{1}{2}&\frac{2}{3} \\
0& 1& \frac{1}{9} &|& -\frac{4}{3}& -\frac{5}{9}\\
0 & 0& 0 &|& 0&1\\
0 & 0& 0 &|& 0&0\end{pmatrix}\text{.}
\end{align*}
Après tous ces calculs (vive l’ordinateur!), on constate que le système \(A\vec{x}=\vec{b}_2\) ne possède pas de solution et que pour le système \(A\vec{x}=\vec{b}_1\text{,}\) il y en aura une infinité. On peut les obtenir en isolant \(x,y\) en fonction de \(z\) dans le SEL équivalent à la matrice échelonnée réduite. On a alors
\begin{align*}
x&=-\frac{2}{3}z+\frac{1}{2}\\
y&=-\frac{1}{9}z-\frac{4}{3}\\
z&=z \text{ (libre)}\text{.}
\end{align*}
L’ensemble solution est donc l’ensemble des points \((x,y,z)\) tels que
\begin{align*}
\vecddd{x}{y}{z}&=\vecddd{-\frac{2}{3}z+\frac{1}{2}}{-\frac{1}{9}z-\frac{4}{3}}{z}\\
&=\vecddd{-\frac{2}{3}z}{-\frac{1}{9}z}{z}+\vecddd{\frac{1}{2}}{-\frac{4}{3}}{0}\\
&=z\vecddd{-\frac{2}{3}}{-\frac{1}{9}}{1}+\vecddd{\frac{1}{2}}{-\frac{4}{3}}{0}\text{.}
\end{align*}
On reconnait ici l’équation d’une droite de vecteur directeur \(\vecddd{-\frac{2}{3}}{-\frac{1}{9}}{1}\) passant par le point \(\vecddd{\frac{1}{2}}{-\frac{4}{3}}{0}\text{.}\)
Solution 2.
Les systèmes avec la matrice \(B\) sont équivalents à la matrice augmentée
\begin{equation*}
\left(\begin{array}{rrr|rr} 1& 6& -3 & 5&3 \\
\frac{4}{3}& 8& -4& 3& 4\\
\frac{1}{3} & 2& -1 & -9&1 \\
-3& -18 & 9 &-15&-9\end{array}\right)\text{.}
\end{equation*}
L’échelonnage est fait à l’exercice
3.2.3.1. On obtient la matrice
\(\left(\begin{array}{rrr|rr}
1 & 6 & -3 & 0 & 3 \\
0 & 0 & 0 & 1 & 0 \\
0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0
\end{array}\right)
\text{.}\)
Cette fois, le vecteur \(\vec{b}_1\) est celui pour lequel il n’y a pas de solution, car la deuxième ligne n’est pas compatible. Pour le vecteur \(\vec{b}_2\text{,}\) des solutions existent. Les variables \(x\) et \(y\) sont libres. On a donc
\begin{align*}
x&= 3-6y+3z\\
y&=y \text{ (libre)}\\
z&=z \text{ (libre)}\text{.}
\end{align*}
L’ensemble solution est donc composé de tous les vecteurs \((x,y,z)\) tels que
\begin{align*}
\vecddd{x}{y}{z}&=\vecddd{3-6y+3z}{y}{z}\\
&=\vecddd{3}{0}{0}+y\vecddd{-6}{1}{0}+z\vecddd{3}{0}{1}\text{.}
\end{align*}
On reconnait l’équation vectorielle d’un plan de vecteurs directeurs \((-6,1,0)\) et \((3,0,1)\) passant par le point \((3,0,0)\text{.}\)
On résume la procédure pour obtenir les solutions d’un système d’équations linéaires dans l’algorithme
3.2.6.
Algorithme 3.2.6. Déterminer les solutions d’un système d’équations linéaires.
Soit un système d’équations linéaires correspondant à l’équation matricielle \(A\vec{x}=\vec{b}\text{,}\) où \(A\) est une matrice \(m\times n\text{.}\) On peut obtenir les solutions du SEL en suivant les étapes suivantes:
Déterminer la solution selon la procédure suivante:
Si la matrice \((A|\vec{b})\) en tant que matrice elle-même contient un pivot dans sa forme échelonnée réduite, alors le système est incompatible. Il n’y a pas de solution.
Si la partie augmentée ne contient pas de pivot et que toutes les variables sont pivots, alors la solution est unique et se lit directement de la forme échelonnée réduite.
Si la partie augmentée ne contient pas de pivot et qu’au moins une des variables est libre, alors on réécrit le système d’équations linéaires correspondant à la forme échelonnée réduite de la matrice \((A|\vec{b})\text{,}\) en isolant chaque variable pivot en fonction des variables libres. On obtient une forme paramétrique de la solution où le ou les paramètres correspondent aux variables libres.
On termine avec des commandes Sage en lien avec la sous-section.
Calcul 3.2.7. Aucune et une infinité de solutions avec Sage.
On a vu à l’exemple
3.1.31 qu’on peut résoudre les systèmes d’équations avec Sage, avec l’une des commandes
rref()
ou
solve_right()
. Toutefois, dans les exemples de la section
3.1, il y avait toujours une solution unique. On regarde maintenant comment se comporte Sage lorsqu’un système n’a aucune ou a une infinité de solutions.
Le premier exemple que l’on considère est un exemple qui ne possède aucune solution. Pour cela, on prend deux plans parallèles distincts et l’on essaie de trouver leur intersection. Les plans sont \(\mathcal{P}_1 : x+y-z=1\) et \(\mathcal{P}_2 : x+y-z=-1\text{.}\) La cellule suivante devrait donner une erreur.
Lorsque le système n’a pas de solution, la commande solve_right()
produit une erreur. La commande rref()
fonctionne, mais il faut réaliser soi-même qu’il n’y a pas de solution en observant le pivot dans la colonne augmentée.
On regarde maintenant ce qu’on obtient lorsque le système possède une infinité de solutions. Pour cela, on prend deux plans non parallèles dans \(\R^3\text{.}\) Ceux-ci vont se croiser en une droite. On peut anticiper la solution en utilisant la géométrie. Une droite est un objet à une dimension, avec une variable libre. On s’attend donc à une matrice augmentée contenant deux variables pivots et une variable libre. La forme paramétrique de la solution devrait être quelque chose du genre \(t\vec{v}+\vecl{OA}\text{,}\) où le vecteur \(\vec{v}\) est le vecteur directeur de la droite et \(A\) est un point de celle-ci. On commence par regarder la forme échelonnée de la matrice augmentée, avec \(\mathcal{P}_1\) et \(\mathcal{P}_3 : x-y-z=-1\text{.}\)
Comme attendu, la matrice a la bonne forme. Les variables \(x,y\) sont liées et la variable \(z\) est libre. On remarque, par contre, que la commande rref()
ne donne pas explicitement la solution (c’était le cas aussi pour une solution unique), il faut la déduire de la forme échelonnée. Dans ce cas-ci, on obtient la droite
\begin{gather}
\vecddd{x}{y}{z}=z\vecddd{1}{0}{1}+\vecddd{0}{1}{0}\text{.}\tag{✶}
\end{gather}
On essaie maintenant la commande solve_right()
pour le même système.
La réponse obtenue est peut-être surprenante. On sait à partir des connaissances en géométrie qu’il devrait y avoir une infinité de solutions, mais Sage n’en retourne qu’une. En fait, en observant l’équation
(✶) ci-dessus, on peut remarquer que la solution donnée par Sage correspond à celle où les variables libres valent
\(0\text{.}\)
Comment obtenir toutes les solutions dans ce cas? Pour l’instant, on se rabat sur la commande
rref()
. La section
5.3 donnera une réponse plus satisfaisante.
Sous-section 3.2.2 Le rang d’une matrice
On a déjà mentionné que le nombre de variables pivots d’une matrice avait une importance particulière. On explore quelques résultats associés à cette notion. D’abord, une définition du rang d’une matrice.
Définition 3.2.9. Le rang d’une matrice.
Soit \(A\text{,}\) une matrice \(m\times n\) quelconque. On définit le rang de la matrice \(A\) comme étant le nombre
\begin{equation*}
rg(A)=r
\end{equation*}
où \(r\) correspond au nombre de variables pivots dans la forme échelonnée réduite de la matrice \(A\text{.}\)
Parce que la forme échelonnée réduite est
unique 3.1.24, le rang est bien défini, puisque, pour une matrice
\(A\) donnée, elle ne peut avoir qu’une seule valeur pour
\(rg(A)\text{.}\) On donne maintenant un résultat qui sera réinterprété géométriquement dans la section
suivante 3.3.
Proposition 3.2.11. Rang et existence de solutions.
Soit \(A\text{,}\) une matrice \(m\times n\) de rang \(r\) et \(\vec{b}\in \R^m\text{,}\) un vecteur. Le système \(A\vec{x}=\vec{b}\) est compatible si et seulement si le rang de la matrice augmentée \((A|\vec{b})\) est aussi égal à \(r\text{.}\)
Démonstration.
Soit \((R|\vec{c})\text{,}\) la forme échelonnée réduite de la matrice augmentée, où \(R=rref(A)\) et \(\vec{c}\) correspond au vecteur obtenu de \(\vec{b}\) en appliquant les opérations élémentaires menant \(A\) à \(R\text{.}\) Pour être compatible, chaque ligne nulle \(l_i\) de \(R\) doit correspondre avec une entrée nulle \(c_i\) du vecteur \(\vec{c}\text{.}\) Ceci survient si et seulement si le nombre de lignes non nulles de la matrice \((R|\vec{c})\) est égal à celui de la matrice \(R\text{,}\) qui est égal à \(rg(A)=r\text{.}\)
Quelles sont les valeurs possibles pour le rang? La matrice nulle est par défaut, sous la forme échelonnée réduite, mais ne contient pas de pivots. On peut donc avoir \(r=0\text{.}\) La proposition suivante établit la valeur maximale que peut prendre le rang d’une matrice \(A\text{.}\)
Proposition 3.2.12. Le rang maximal.
Soit \(A\text{,}\) une matrice \(m\times n\text{.}\) Alors
\begin{equation*}
rg(A)\leq \min(m,n)\text{.}
\end{equation*}
La valeur maximale du rang est donc bornée par le nombre de lignes ou de colonnes, le plus petit de ces deux nombres.
Démonstration.
Le rang correspond au nombre de colonnes pivots. Ce nombre ne peut donc pas dépasser
\(n\text{.}\) Selon la remarque
3.2.10, le rang est aussi le nombre de lignes non nulles de la matrice. Ce nombre ne peut donc pas dépasser
\(m\text{.}\) Ainsi, on a
\(r\leq \min(m,n)\text{.}\)
Le prochain résultat ne s’applique qu’aux matrices carrées. Il lie le rang d’une matrice à l’existence de son inverse. Cela nous donne la seconde version du théorème de la matrice inverse [provisional cross-reference: thm-delamatriceinverse]
.
Théorème 3.2.13. Théorème de la matrice inverse, seconde version.
Soit \(A\text{,}\) une matrice carrée d’ordre \(n\text{.}\) Les énoncés suivants sont équivalents:
La matrice \(A\) est inversible;
Pour chaque vecteur \(v\in \R^n\text{,}\) il existe un seul vecteur \(\vec{u}\in \R^n\) tel que \(A\vec{u}=\vec{v}\text{;}\)
Le rang de la matrice est égal à \(n\text{;}\)
La matrice \(A\) possède \(n\) pivots.
Démonstration.
L’équivalence des énoncés un et deux provient de la
première version 2.3.15 du théorème. L’énoncé trois et l’énoncé quatre sont équivalents, par définition du
rang 3.2.9. Il faut donc montrer que l’un des deux premiers énoncés implique que le rang soit égal à
\(n\) et qu’avoir un rang de
\(n\) implique un des deux premiers énoncés.
On commence par prendre une matrice \(A\) inversible. Soit \(B\text{,}\) son inverse et \(\vec{b}_j\text{,}\) ses colonnes. Si l’on note \(\vec{e}_j\) le vecteur dont toutes les entrées sont nulles sauf celle en position \(j\) qui vaut \(1\text{,}\) alors, selon la définition de la matrice inverse et de la multiplication, on a \(A\vec{b}_j=\vec{e}_j\text{.}\) Puisque l’inverse d’une matrice est unique, c’est aussi la seule solution. On note \((A|I)\) la matrice \(A\) augmentée de l’identité. La forme échelonnée réduite de cette matrice augmentée correspond aux solutions des systèmes d’équations linéaires \(A\vec{x}=\vec{e}_j\text{.}\) Ces solutions sont les (uniques) colonnes de \(B\text{,}\) ce qui signifie que
\begin{equation*}
rref(A|I)=(I|B)\text{.}
\end{equation*}
Cela signifie donc que \(rref(A)=I\) et donc, \(rg(A)=n\text{.}\)
On suppose maintenant que \(rg(A)=n\text{.}\) Ceci signifie que chaque colonne est pivot et de même, chaque ligne, car la matrice est carrée. On a donc \(rref(A)=I\text{.}\) Soit \(\vec{v}\text{,}\) un vecteur de \(\R^n\text{.}\) Le système \(A\vec{x}=\vec{v}\) se résout en échelonnant la matrice augmentée \((A|\vec{v})\text{,}\) ce qui donne
\begin{equation*}
rref(A|\vec{v})=(I|\vec{u})\text{,}
\end{equation*}
où \(\vec{u}\) est obtenu de \(\vec{v}\) à partir des opérations élémentaires effectuées pour échelonner \(A\text{.}\) Comme toutes les variables sont pivots, il n’y a qu’une solution. Cela montre que le rang égal à \(n\) implique le second énoncé.
Corollaire 3.2.14. La forme échelonnée réduite d’une matrice carrée inversible.
Soit \(A\text{,}\) une matrice carrée inversible. Alors \(rref(A)=I\text{.}\)
Démonstration.
La preuve a été faite dans la démonstration du théorème
3.2.13, dans la deuxième partie.
On termine avec des commandes Sage en lien avec la sous-section.
Calcul 3.2.15. Le rang et Sage.
Sage possède la commande rank
qui permet de calculer le rang d’une matrice. Elle s’utilise soit comme rank(A)
, soit A.rank()
.