Outils pour utilisateurs

Outils du site


math:2:mnk

Cas des matrices carrées

Définition

Définitions : Types particuliers de matrices

  • Une matrice $A$ carrée d'ordre $n$ est dite diagonale si et seulement si :
    $$\forall(i,j)\in[\![1,n]\!]^{2},\; i\ne j\;\implies\; a_{i,j}=0$$ On la note souvent $\text{diag}(a_{1,1},a_{2,2},\dots a_{n,n})$.
  • Une matrice $A$ carrée d'ordre $n$ est dite triangulaire supérieure si et seulement si :
    $$\forall(i,j)\in[\![1,n]\!]^{2},\; i>j\;\implies\; a_{i,j}=0$$
  • Une matrice $A$ carrée d'ordre $n$ est dite triangulaire inférieure si et seulement si :
    $$\forall(i,j)\in[\![1,n]\!]^{2},\; i<j\;\implies\; a_{i,j}=0$$
  • Une matrice $A$ carrée d'ordre $n$ est dite symétrique si et seulement si :
    $${}^{t}A=A$$
  • Une matrice $A$ carrée d'ordre $n$ est dite antisymétrique si et seulement si :
    $${}^{t}A=-A$$

Exemple fondamental
Montrer que toute matrice carrée de $\mathcal{M}_{n}(\K)$ se décompose de manière unique en la somme d'une matrice symétrique et d'une matrice antisymétrique.

Trace

Définition : Trace

On appelle trace d'une matrice $A=(a_{i,j})$ de $\mathcal{M}_{n}(\K)$ la somme de ses éléments diagonaux :
$$\ds\mathrm{tr}(A)=\sum_{i=1}^{n}{a_{i,i}}$$

Exemple fondamental (mais hors programme)
Montrer que :
$$\forall(A,B)\in\mathcal{M}_{n}(\K)^{2},\;\mathrm{tr}(BA)=\mathrm{tr}(AB)$$

Théorème : Linéarité de la trace

La trace est une forme linéaire sur $\mathcal{M}_{n}(\K)$ :
$$\forall(A,B)\in\mathcal{M}_{n}(\K)^{2},\;\forall(\lambda,\mu)\in\K^{2},\;\mathrm{tr}(\lambda A+\mu B)=\lambda\,\mathrm{tr}(A)+\mu\,\mathrm{tr}(B)$$

Puissance

Définitions : Puissances et polynôme d'une matrice carrée

  • On définit les puissances de $A\in\mathcal{M}_{n}(\K)$ par récurrence :
    $$A^{0}=I_{n}\qquad\text{et}\qquad \forall k\in\N,\ A^{k+1}=A^{k}\times A=A\times A^{k}$$
  • Soit $A\in\mathcal{M}_{n}(\K)$. Pour tout polynôme $Q=a_{0}+a_{1}X+\dots+a_{q}X^{q}\in\K[X]$, on note $Q(A)$ la matrice appelée polynôme en $\boldsymbol{A}$ :
    $$Q(A)=a_{0}I_{n}+a_{1}A+\dots+a_{q}A^{q}$$

Théorème : Propriété des puissances et des polynômes d'une matrice carrée

Soit $n\in\N^*$.

  • $\forall A\in\mathcal{M}_{n}(\K),\;\forall(p,q)\in\N^{2},\ A^{p+q}=A^{p}\times A^{q}=A^{q}\times A^{p}$.
    En particulier :
    $$\ds \forall A\in\mathcal{M}_{n}(\K),\;\forall(Q_{1},Q_{2})\in\K[X]^{2},\;Q_{1}(A)\times Q_{2}(A)=Q_{2}(A)\times Q_{1}(A)$$
  • $\forall p\in\N,\;\forall(\lambda_{1},\dots,\lambda_{n})\in\K^{n},\;\left[\text{diag}(\lambda_{1},\dots,\lambda_{n})\right]^{p}=\text{diag}(\lambda_{1}^{p},\dots,\lambda_{n}^{p})$.
    En conséquence :
    $$\ds \forall(\lambda_{1},\dots,\lambda_{n})\in\K^{n},\;\forall Q\in\K[X],\;Q\left(\text{diag}(\lambda_{1},\dots,\lambda_{n})\right)=\text{diag}(Q(\lambda_{1}),\dots,Q(\lambda_{n}))$$
  • Soit $A\in\mathcal{M}_{n}(\K)$. Si $A^{m}$ est combinaison linéaire des matrices $I_{n},A,\dots,A^{m-1}$ alors $A^{k}$ l'est aussi pour tout $k\geqslant m$.

Théorème : Formule du binôme de Newton

Soit $(A,B)\in\mathcal{M}_{n}(\K)^{2}$ tel que $\boxed{AB=BA}$. Alors :
$$\ds\forall p\in\N,\ (A+B)^{p}=\sum_{k=0}^{p}{\binom{p}{k}A^{k}B^{p-k}}=\sum_{k=0}^{p}{\binom{p}{k}A^{p-k}B^{k}}$$

Inverse

Définition : Inverse d'une matrice carrée

  • Soit $A\in\mathcal{M}_{n}(\K)$. On dit que la matrice $A$ est inversible si et seulement si :
    $$\ds\exists B\in\mathcal{M}_{n}(\K)\ /\ AB=BA=I_{n}$$Cette matrice $B$ est alors appelée inverse de $A$ et se note$ A^{-1}$.
  • L'ensemble des matrices carrées d'ordre $n$ inversibles est appelé groupe linéaire d'ordre $n$ et se note $\mathcal{GL}_{n}(\K)$.

Théorème : Unicité de l'inverse

  • Lorsqu'il existe, l'inverse d'une matrice carrée est unique.
  • [admis] Si $(A,B)\in\mathcal{M}_{n}(\K)^{2}$ sont telles que $AB=I_{n}$ (resp. $BA=I_{n}$) alors $BA=I_{n}$ (resp. $AB=I_{n}$).

Théorème : Propriétés de l'inverse

Soit $(A,B)\in\mathcal{GL}_{n}(\K)^{2}$, $\lambda\in\K^{*}$ et $(p,q)\in\N^{2}$.

  • Inverse et multiplication par un réel :
    $$(\lambda A)\in\mathcal{GL}_{n}(\K)\qquad\text{et}\qquad(\lambda A)^{-1}=\frac{1}{\lambda}A^{-1}$$
  • Inverse et multiplication des matrices :
    $$(AB)\in\mathcal{GL}_{n}(\K)\qquad\text{et}\qquad(AB)^{-1}=B^{-1}A^{-1}$$
  • Inverse et puissances :
    $$A^{p}\in\mathcal{GL}_{n}(\K)\qquad\text{et}\qquad (A^{p})^{-1}=\left(A^{-1}\right)^{p}$$On note alors $A^{-p}$ l'inverse de $A^{p}$. Ainsi, on a :
    $$A^{p}A^{-q}=A^{p-q}$$
  • Inverse et transposée :
    $${}^{t}A\in\mathcal{GL}_{n}(\K)\qquad\text{et}\qquad\left({}^{t}A\right)^{-1}={}^{t}\left(A^{-1}\right)$$

Remarque
En général, déterminer l'inverse d'une matrice carrée d'ordre $n$ est rarement très simple puisqu'il s'agit de déterminer simultanément $n^{2}$ réels ! On a toutefois quelques cas particuliers.

Théorème : Matrices carrées inversible «à vue d'oeil»

  • La matrice $\begin{pmatrix} a & b \\ c & d \end{pmatrix}$ est inversible si et seulement si son déterminant $ad-bc$ n'est pas nul. Dans ce cas, son inverse est alors la matrice :
    $$\ds\frac{1}{ad-bc}\begin{pmatrix} d & -b \\ -c & a \end{pmatrix}$$
  • Une matrice diagonale est inversible si et seulement si aucun de ses coefficients diagonaux n'est nul. Sa matrice inverse est alors la matrice diagonale formée des inverses des coefficients diagonaux.
  • Une matrice triangulaire supérieure (resp. inférieure) est inversible si et seulement si aucun de ses coefficients diagonaux n'est nul. Sa matrice inverse est alors elle aussi triangulaire supérieure (resp. inférieure) et sa diagonale contient les inverses des coefficients diagonaux de la matrice initiale (concernant les autres coefficients, on ne peut rien dire de simple).

Remarque
En pratique, deux méthodes sont possibles pour déterminer l'inverse éventuel :

  • en utilisant la méthode de Gauss simultanément sur les matrices $A$ et $I$ jusqu'à obtenir, si possible, des matrices $I$ et $B$ ; lorsque cela est possible, la matrice $A$ est inversible et $B=A^{-1}$ ; lorsque cela est impossible, la matrice $A$ n'est pas inversible (cette méthode est à éviter dans la mesure du possible),
  • en utilisant une relation polynomiale entre les puissances de $A$.

Similitude

Définition : Matrices semblables

  • On dit que deux matrices $A$ et $B$ de $\mathcal{M}_{n}(\K)$ sont semblables si et seulement s'il existe une matrice inversible $P\in\mathcal{GL}_{n}(\K)$ telle que: $B=P^{-1}\,A\,P$.
  • On dit qu'une matrice $A\in\mathcal{M}_{n}(\K)$ est diagonalisable si et seulement si elle est semblable à une matrice diagonale $D\in\mathcal{M}_{n}(\K)$.

Théorème : Invariance de la trace par similitude

Deux matrices semblables ont la même trace. Autrement dit :
$$\ds\forall A\in\mathcal{M}_{n}(\K),\;\forall P\in\mathcal{GL}_{n}(\K),\;\mathrm{tr}(P^{-1}\,A\,P)=\mathrm{tr}(A)$$

math/2/mnk.txt · Dernière modification: 2020/05/12 08:04 par Alain Guichet