$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Compléments d'algèbre linéaire

Dans ce chapitre, $\mathbb K$ désigne un corps contenu dans $\mathbb C$ et $E$ est un $\mathbb K$-espace vectoriel.
Somme de sous-espaces vectoriels

Soit $F$ et $G$ deux sous-espaces vectoriels de $E$. On appelle somme de $F$ et $G$ l'espace vectoriel noté $F+G$ défini par $$F+G=\{x+y;\ x\in F,\ y\in G\}.$$ Deux sous-espaces $F$ et $G$ sont en somme directe si la décomposition de tout vecteur de $F+G$ comme somme d'un vecteur de $F$ et d'un vecteur de $G$ est unique. On note alors $F\oplus G$.

Proposition : Deux sous-espaces $F$ et $G$ sont en somme directe si et seulement si $F\cap G=\{0\}$.

On dit que $F$ et $G$ sont supplémentaires dans $E$ s'ils sont en somme directe et si $F\oplus G=E$.

Plus généralement, on définit la somme de $p$ sous-espaces vectoriels $F_1,\dots,F_r$ de $E$ par $$F_1+\cdots+F_r=\{x_1+\dots+x_r;\ x_1\in F_1,\dots,x_r\in F_r\}.$$ C'est un sous-espace vectoriel de $E$. La somme $F_1+\cdots+F_r$ est directe si la décomposition de tout vecteur de $F_1+\cdots+F_r$ sous la forme $x_1+\dots+x_r$ avec $x_i\in F_i$ est unique. Ceci revient à dire que si $x_1+\dots+x_r=0_E$ avec $x_i\in F_i$, alors $x_i=0$.

Si $r\geq 2$, on ne peut pas caractériser le fait que $F_1,\dots,F_r$ sont en somme directe en vérifiant que $F_i\cap F_j=\{0_E\}$ si $i\neq j$.

On va souvent essayer de décomposer $E$ en somme directe de sous-espaces $E=F_1\oplus\cdots\oplus F_r$ puis essayer de reconstruire des propriétés sur $E$ à partir de propriétés sur chacun des $F_i$. Pour cela, on a besoin de la notion de base adaptée.

Soit $F_1,\dots,F_r$ des sous-espaces vectoriels de $E$. On suppose que $E=F_1\oplus \cdots \oplus F_r,$ et soit $\mathcal B_1,\dots,\mathcal B_r$ des bases respectives de $F_1,\dots,F_r.$ Alors la famille $\mathcal B$ obtenue par concaténation de $\mathcal B_1,\dots,\mathcal B_r$ est une base de $E$. On l'appelle base adaptée à la décomposition en somme directe $E=F_1\oplus\cdots\oplus F_r.$

Théorème : Si $F_1,\dots,F_r$ sont des sous-espaces de dimension finie de $E$, alors $$\dim\left(\sum_{i=1}^r F_i\right)\leq \sum_{i=1}^r \dim(F_i)$$ avec égalité si et seulement si la somme est directe.

Soit $F_1,\dots,F_r$ des sous-espaces vectoriels de $E$. On suppose que $E=F_1\oplus \cdots \oplus F_r.$ On note $p_i$ le projecteur sur $F_i$ parallèlement à $\bigoplus_{j\neq i}F_j$. Alors la famille $(p_1,\dots,p_r)$ est appelée famille de projecteurs associée à la décomposition en somme directe $E=F_1\oplus \cdots \oplus F_r.$ Cette famille vérifie $p_1+\cdots+p_r=\textrm{Id}_E$ et $p_i\circ p_j=0$ si $i\neq j.$

La notion de base adaptée est particulièrement utile pour reconstruire une application linéaire à partir de la restriction à chacun des sous-espaces vectoriels d'une décomposition en somme directe.

Théorème : Soit $F$ un $\mathbb K$-espace vectoriel, $F_1,\dots,F_r$ des sous-espaces vectoriels de $E$ tels que $E=F_1\oplus\cdots\oplus F_r.$ Soit, pour tout $i=1,\dots,r$, $u_i\in\mathcal L(E_i,F).$ Alors il existe une unique $u\in\mathcal L(E,F)$ tels que $u_{|E_i}=u_i$ pour tout $i=1,\dots,r.$
Matrices définies par blocs

Si $A\in\mathcal M_{n,q}(\mathbb K),$ $B\in\mathcal M_{p,q}(\mathbb K),$ $C\in\mathcal M_{n,r}(\mathbb K)$ et $D\in\mathcal M_{p,r}(\mathbb K),$ on peut définir une matrice $M\in\mathcal M_{n+p,q+r}(\mathbb K)$ par blocs de la façon suivante : $$M=\left(\begin{array}{c|c} A&C\\ \hline B&D \end{array}\right).$$ On peut définir les opérations par blocs de tailles compatibles (combinaison linéaire, produits, transposition). Par exemple, sous réserve de compatibilité de la taille des blocs, on a $$ \left(\begin{array}{c|c} A&C\\ \hline B&D \end{array}\right) \left(\begin{array}{c|c} E&G\\ \hline F&H \end{array}\right) = \left(\begin{array}{c|c} AE+CF&AG+CH\\ \hline BE+DF&BG+DH \end{array}\right).$$ La transposée de la matrice $M$ est par ailleurs $$M^T=\left(\begin{array}{c|c} A^T&B^T\\ \hline C^T&D^T \end{array}\right)$$ Plus généralement, on peut définir une matrice par blocs de la façon suivante : $$M=\begin{pmatrix} A_{1,1}&A_{1,2}&\dots&A_{1,p}\\ A_{2,1}&A_{2,2}&\dots&A_{2,p}\\ \vdots&\vdots&\ddots&\vdots\\ A_{n,1}&A_{n,2}&\dots&A_{n,p} \end{pmatrix}$$ où leq $A_{i,j}$ sont des matrices dont les tailles sont compatibles. Ces matrices sont associées aux décompositions en somme directe. Si $E=F_1\oplus\cdots\oplus F_r$, si $\mathcal B_i$ est une base de $F_i$, si $\mathcal B$ est la base de $E$ obtenue en concaténant $\mathcal B_1,\dots,\mathcal B_r,$ si $p_1,\dots,p_r$ est la famille de projection associée, et si $u\in\mathcal L(E)$, alors la matrice de $u$ dans $\mathcal B$ peut être obtenue comme la matrice par blocs des $A_{i,j}$, où $A_{i,j}$ est la matrice de $p_i\circ u\circ p_j$ dans les bases $\mathcal B_j$ et $\mathcal B_i$.

Une matrice $M$ est triangulaire supérieure par blocs si elle s'écrit $$M=\begin{pmatrix} A_{1,1}&A_{1,2}&\dots&A_{1,p}\\ 0&A_{2,2}&\dots&A_{2,p}\\ \vdots&\ddots&\ddots&\vdots\\ 0&\dots&0&A_{n,p} \end{pmatrix}.$$ On définit de même les matrices triangulaires inférieures par blocs et les matrices diagonales par blocs.

Théorème : Le déterminant d'une matrice triangulaire par blocs dont les blocs sur la diagonale sont des matrices carrées est égal au produit des déterminants des blocs diagonaux.

En général, le déterminant de $M=\left(\begin{array}{c|c} A&C\\ \hline B&D \end{array}\right)$ n'est pas $\det(A)\det(D)-\det(B)\det(C).$

Compléments d'algèbre linéaire