En raison de limitations techniques, la typographie souhaitable du titre, «
Exercice : Réductions de Dunford, Jordan et FrobeniusRéduction des endomorphismes/Exercices/Réductions de Dunford, Jordan et Frobenius », n'a pu être restituée correctement ci-dessus.
Montrer qu'un endomorphisme de rang 1 est nilpotent ou diagonalisable.
Soit
N
∈
M
n
(
R
)
{\displaystyle N\in \operatorname {M} _{n}(\mathbb {R} )}
nilpotente qui commute avec sa transposée. Montrer que
N
=
0
{\displaystyle N=0}
.
Solution
N
N
t
{\displaystyle NN^{t}}
est symétrique réelle donc diagonalisable. Or elle est nilpotente car
(
N
N
t
)
n
=
N
n
(
N
n
)
t
{\displaystyle (NN^{t})^{n}=N^{n}(N^{n})^{t}}
.
Par conséquent, elle est nulle donc
0
=
tr
(
N
N
t
)
=
∑
1
≤
i
,
j
≤
n
N
i
,
j
2
{\displaystyle 0=\operatorname {tr} \left(NN^{t}\right)=\sum _{1\leq i,j\leq n}N_{i,j}^{2}}
, autrement dit :
N
=
0
{\displaystyle N=0}
.
Montrer que deux matrices réelles semblables dans
M
n
(
C
)
{\displaystyle \operatorname {M} _{n}(\mathbb {C} )}
le sont également dans
M
n
(
R
)
{\displaystyle \operatorname {M} _{n}(\mathbb {R} )}
.
Soit
A
∈
M
n
(
R
)
{\displaystyle A\in \operatorname {M} _{n}(\mathbb {R} )}
. Montrer que
A
{\displaystyle A}
et
A
t
{\displaystyle A^{t}}
sont semblables et que
A
A
t
{\displaystyle AA^{t}}
et
A
t
A
{\displaystyle A^{t}A}
sont semblables.
Solution
Dans les deux cas, d'après l'exercice précédent, il suffit de démontrer l'énoncé analogue pour les matrices complexes. On peut alors se ramener au cas où
A
{\displaystyle A}
est un bloc de Jordan et conclure par le calcul.
Soit
A
=
(
322
−
323
−
323
322
325
−
326
−
325
326
−
259
261
261
−
260
−
237
237
238
−
237
)
{\displaystyle A={\begin{pmatrix}322&-323&-323&322\\325&-326&-325&326\\-259&261&261&-260\\-237&237&238&-237\end{pmatrix}}}
.
Déterminer sa forme de Jordan et une matrice de passage.
Solution
5 est valeur propre et le premier vecteur — que nous noterons
v
{\displaystyle v}
— de la base de définition de la matrice possède pour polynôme conducteur
(
X
−
5
)
4
{\displaystyle (X-5)^{4}}
.
La famille suivante forme donc une base de Jordan :
(
(
A
−
5
I
)
3
v
,
(
A
−
5
I
)
2
v
,
(
A
−
5
I
)
v
,
v
)
=
(
(
5922
4230
−
3572
−
5170
)
,
(
2857
2363
−
1962
−
2392
)
,
(
317
325
−
259
−
237
)
,
(
1
0
0
0
)
)
{\displaystyle ((A-5I)^{3}v,(A-5I)^{2}v,(A-5I)v,v)=\left({\begin{pmatrix}5922\\4230\\-3572\\-5170\end{pmatrix}},{\begin{pmatrix}2857\\2363\\-1962\\-2392\end{pmatrix}},{\begin{pmatrix}317\\325\\-259\\-237\end{pmatrix}},{\begin{pmatrix}1\\0\\0\\0\end{pmatrix}}\right)}
.
Nous avons ainsi choisi une matrice de passage :
P
=
(
5922
2857
317
1
4230
2363
325
0
−
3572
−
1962
−
259
0
−
5170
−
2392
−
237
0
)
{\displaystyle P={\begin{pmatrix}5922&2857&317&1\\4230&2363&325&0\\-3572&-1962&-259&0\\-5170&-2392&-237&0\\\end{pmatrix}}}
et la matrice de Jordan est :
J
=
J
4
(
5
)
=
(
5
1
0
0
0
5
1
0
0
0
5
1
0
0
0
5
)
{\displaystyle J=J_{4}(5)={\begin{pmatrix}5&1&0&0\\0&5&1&0\\0&0&5&1\\0&0&0&5\end{pmatrix}}}
.
Pour la matrice
A
:=
(
0
1
0
0
0
1
2
μ
−
3
μ
−
2
μ
+
3
)
{\displaystyle A:={\begin{pmatrix}0&1&0\\0&0&1\\2\mu &-3\mu -2&\mu +3\end{pmatrix}}}
,
déterminer une forme de Jordan et une matrice de passage.
En déduire les solutions de la récurrence linéaire
u
n
+
3
=
(
μ
+
3
)
u
n
+
2
−
(
3
μ
+
2
)
u
n
+
1
+
2
μ
u
n
{\displaystyle u_{n+3}=(\mu +3)u_{n+2}-(3\mu +2)u_{n+1}+2\mu u_{n}}
et celles de l'équation différentielle linéaire
x
‴
(
t
)
=
(
μ
+
3
)
x
″
(
t
)
−
(
3
μ
+
2
)
x
′
(
t
)
+
2
μ
x
(
t
)
{\displaystyle x'''(t)=(\mu +3)x''(t)-(3\mu +2)x'(t)+2\mu x(t)}
.
Solution
Les valeurs propres de
A
{\displaystyle A}
sont 1, 2 et μ.
Si μ est différent de 1 et de 2, la matrice de Jordan est (à permutation près des trois valeurs propres) de la forme :
J
=
diag
(
1
,
2
,
μ
)
{\displaystyle J=\operatorname {diag} (1,2,\mu )}
avec comme matrice de passage :
P
:=
(
1
1
1
1
2
μ
1
4
μ
2
)
{\displaystyle P:={\begin{pmatrix}1&1&1\\1&2&\mu \\1&4&\mu ^{2}\end{pmatrix}}}
.
Si μ = 1, la matrice de Jordan est (à permutation près des deux blocs) de la forme :
J
=
(
J
2
(
1
)
J
1
(
2
)
)
=
(
1
1
0
0
1
0
0
0
2
)
{\displaystyle J={\begin{pmatrix}J_{2}(1)&\\&J_{1}(2)\end{pmatrix}}={\begin{pmatrix}1&1&0\\0&1&0\\0&0&2\end{pmatrix}}}
avec comme matrice de passage :
P
:=
(
1
0
1
1
1
2
1
2
4
)
{\displaystyle P:={\begin{pmatrix}1&0&1\\1&1&2\\1&2&4\end{pmatrix}}}
.
Si μ = 2, la matrice de Jordan est (à permutation près des deux blocs) de la forme :
J
=
(
J
1
(
1
)
J
2
(
2
)
)
=
(
1
0
0
0
2
1
0
0
2
)
{\displaystyle J={\begin{pmatrix}J_{1}(1)&\\&J_{2}(2)\end{pmatrix}}={\begin{pmatrix}1&0&0\\0&2&1\\0&0&2\end{pmatrix}}}
avec comme matrice de passage :
P
:=
(
1
1
0
1
2
1
1
4
4
)
{\displaystyle P:={\begin{pmatrix}1&1&0\\1&2&1\\1&4&4\end{pmatrix}}}
.
La solution générale de la récurrence linéaire est :
si μ est différent de 1 et de 2 :
u
n
=
a
+
2
n
b
+
μ
n
c
{\displaystyle u_{n}=a+2^{n}b+\mu ^{n}c}
;
si μ = 1 :
u
n
=
a
+
b
n
+
2
n
c
{\displaystyle u_{n}=a+bn+2^{n}c}
;
si μ = 2 :
u
n
=
a
+
(
b
+
c
n
)
2
n
{\displaystyle u_{n}=a+(b+cn)2^{n}}
.
La solution générale de l'équation différentielle est :
si μ est différent de 1 et de 2 :
x
(
t
)
=
a
e
t
+
b
e
2
t
+
c
e
μ
t
{\displaystyle x(t)=a\operatorname {e} ^{t}+b\operatorname {e} ^{2t}+c\operatorname {e} ^{\mu t}}
;
si μ = 1 :
x
(
t
)
=
(
a
+
b
t
)
e
t
+
c
e
2
t
{\displaystyle x(t)=(a+bt)\operatorname {e} ^{t}+c\operatorname {e} ^{2t}}
;
si μ = 2 :
x
(
t
)
=
a
e
t
+
(
b
+
c
t
)
e
2
t
{\displaystyle x(t)=a\operatorname {e} ^{t}+(b+ct)\operatorname {e} ^{2t}}
.
Pour la matrice
B
:=
(
5
4
2
1
0
1
−
1
−
1
−
1
−
1
3
0
1
1
−
1
2
)
{\displaystyle B:={\begin{pmatrix}5&4&2&1\\0&1&-1&-1\\-1&-1&3&0\\1&1&-1&2\\\end{pmatrix}}}
,
déterminer une forme de Jordan et une matrice de passage.
Solution
Les valeurs propres de
B
{\displaystyle B}
sont 4, 4, 2 et 1. De plus, on remarque que :
dim
ker
(
B
−
I
)
=
1
,
dim
ker
(
B
−
2
I
)
=
1
,
dim
ker
(
B
−
4
I
)
=
1
,
dim
ker
(
B
−
4
I
)
2
=
2.
{\displaystyle \dim \ker {(B-I)}=1,~\dim \ker {(B-2I)}=1,~\dim \ker {(B-4I)}=1,~\dim \ker({B-4I})^{2}=2.}
Nous en déduisons que la matrice de Jordan sera (à permutation près des trois blocs) de la forme :
J
=
(
J
2
(
4
)
J
1
(
2
)
J
1
(
1
)
)
=
(
4
1
0
0
0
4
0
0
0
0
2
0
0
0
0
1
)
{\displaystyle J={\begin{pmatrix}J_{2}(4)&&\\&J_{1}(2)&\\&&J_{1}(1)\\\end{pmatrix}}={\begin{pmatrix}4&1&0&0\\0&4&0&0\\0&0&2&0\\0&0&0&1\end{pmatrix}}}
.
Nous remarquons que le vecteur
(
0
0
−
1
1
)
{\displaystyle {\begin{pmatrix}0\\0\\-1\\1\end{pmatrix}}}
a pour image par la matrice
B
−
4
I
{\displaystyle B-4I}
:
(
−
1
0
1
−
1
)
{\displaystyle {\begin{pmatrix}-1\\0\\1\\-1\end{pmatrix}}}
. Ces deux vecteurs colonnes engendrent l'espace caractéristique de valeur propre 4.
On en déduit
ker
(
B
−
4
I
)
2
=
Vect
(
(
0
0
−
1
1
)
,
(
−
1
0
1
−
1
)
)
.
{\displaystyle \ker {(B-4I)}^{2}=\operatorname {Vect} \ \left({\begin{pmatrix}0\\0\\-1\\1\end{pmatrix}},{\begin{pmatrix}-1\\0\\1\\-1\end{pmatrix}}\right).}
Nous en déduisons une matrice de passage
P
{\displaystyle P}
telle que
P
−
1
B
P
=
J
{\displaystyle P^{-1}BP=J}
:
P
=
(
(
B
−
4
I
)
v
|
v
|
w
|
x
)
=
(
−
1
0
1
−
1
0
0
−
1
1
1
−
1
0
0
−
1
1
1
0
)
.
{\displaystyle P=\left((B-4I)\mathbf {v} \left|\mathbf {v} \left|\mathbf {w} \left|\mathbf {x} \right)\right.\right.\right.={\begin{pmatrix}-1&0&1&-1\\0&0&-1&1\\1&-1&0&0\\-1&1&1&0\end{pmatrix}}.}
Soit
N
∈
M
n
(
C
)
{\displaystyle N\in \operatorname {M} _{n}(\mathbb {C} )}
une matrice nilpotente. Démontrer que pour tout complexe
λ
{\displaystyle \lambda }
non nul,
λ
N
{\displaystyle \lambda N}
est semblable à
N
{\displaystyle N}
.
Solution
On se ramène facilement (par similarité et somme directe) au cas où la matrice nilpotente
N
{\displaystyle N}
est un bloc de Jordan
J
n
(
0
)
{\displaystyle J_{n}(0)}
. On a alors, en notant
(
e
1
,
…
,
e
n
)
{\displaystyle (e_{1},\dots ,e_{n})}
la base canonique de
C
n
{\displaystyle \mathbb {C} ^{n}}
:
N
(
e
1
)
=
0
,
N
(
e
2
)
=
e
1
,
…
,
N
(
e
n
)
=
e
n
−
1
{\displaystyle N(e_{1})=0,N(e_{2})=e_{1},\dots ,N(e_{n})=e_{n-1}}
donc, en posant
e
k
′
=
λ
n
−
k
e
k
{\displaystyle e'_{k}=\lambda ^{n-k}e_{k}}
pour tout
k
{\displaystyle k}
de
1
{\displaystyle 1}
à
n
{\displaystyle n}
:
λ
N
(
e
1
′
)
=
0
,
λ
N
(
e
2
′
)
=
e
1
′
,
…
,
λ
N
(
e
n
′
)
=
e
n
−
1
′
{\displaystyle \lambda N(e'_{1})=0,\lambda N(e'_{2})=e'_{1},\dots ,\lambda N(e'_{n})=e'_{n-1}}
.
Soit
A
∈
M
n
(
C
)
{\displaystyle A\in \mathrm {M} _{n}(\mathbb {C} )}
.
On suppose qu'il existe un polynôme
B
{\displaystyle B}
à coefficients dans
M
n
(
C
)
{\displaystyle \mathrm {M} _{n}(\mathbb {C} )}
et un entier naturel
k
0
{\displaystyle k_{0}}
tels que pour tout
k
>
k
0
{\displaystyle k>k_{0}}
,
A
k
=
B
(
k
)
{\displaystyle A^{k}=B(k)}
. Montrer qu'alors, les seules valeurs propres possibles pour
A
{\displaystyle A}
sont
0
{\displaystyle 0}
et
1
{\displaystyle 1}
.
Montrer que réciproquement, si
A
{\displaystyle A}
n'a pas d'autres valeurs propres que
0
{\displaystyle 0}
et
1
{\displaystyle 1}
, alors
A
k
{\displaystyle A^{k}}
est polynomiale en
k
{\displaystyle k}
pour
k
≥
n
{\displaystyle k\geq n}
.
Soient
B
1
,
…
,
B
r
{\displaystyle B_{1},\dots ,B_{r}}
des polynômes à coefficients dans
M
n
(
C
)
{\displaystyle \mathrm {M} _{n}(\mathbb {C} )}
,
k
0
{\displaystyle k_{0}}
un entier naturel et
λ
1
,
…
,
λ
r
{\displaystyle \lambda _{1},\dots ,\lambda _{r}}
des complexes non nuls tels que pour tout
k
>
k
0
{\displaystyle k>k_{0}}
,
A
k
=
∑
i
=
1
r
λ
i
k
B
i
(
k
)
{\displaystyle A^{k}=\sum _{i=1}^{r}\lambda _{i}^{k}B_{i}(k)}
. Montrer que si
A
{\displaystyle A}
est inversible, cette égalité se généralise à tout entier relatif
k
{\displaystyle k}
.
Solution
Soient
λ
{\displaystyle \lambda }
une valeur propre de
A
{\displaystyle A}
et
u
≠
0
{\displaystyle u\neq 0}
un vecteur propre associé. Pour
k
>
k
0
{\displaystyle k>k_{0}}
,
λ
k
u
=
A
k
u
=
B
(
k
)
u
{\displaystyle \lambda ^{k}u=A^{k}u=B(k)u}
donc
λ
k
{\displaystyle \lambda ^{k}}
coïncide avec un polynôme en
k
{\displaystyle k}
, ce qui n'est possible que si
λ
=
0
{\displaystyle \lambda =0}
ou
1
{\displaystyle 1}
(cf. Polynôme/Exercices/Arithmétique des polynômes#Exercice 3-19 ).
On se ramène facilement au cas où
A
{\displaystyle A}
est un bloc de Jordan
J
λ
=
λ
I
n
+
J
0
{\displaystyle {\mathcal {J}}_{\lambda }=\lambda \mathrm {I} _{n}+{\mathcal {J}}_{0}}
. Pour tout
k
≥
n
{\displaystyle k\geq n}
,
J
0
k
=
0
{\displaystyle {\mathcal {J}}_{0}^{k}=0}
et pour tout
k
≥
0
{\displaystyle k\geq 0}
,
J
λ
k
=
∑
i
=
0
n
−
1
k
(
k
−
1
)
…
(
k
−
i
+
1
)
i
!
λ
k
−
i
J
0
i
{\displaystyle {\mathcal {J}}_{\lambda }^{k}=\sum _{i=0}^{n-1}{\frac {k(k-1)\dots (k-i+1)}{i!}}\lambda ^{k-i}{\mathcal {J}}_{0}^{i}}
, en particulier
J
1
k
=
∑
i
=
0
n
−
1
k
(
k
−
1
)
…
(
k
−
i
+
1
)
i
!
J
0
i
{\displaystyle {\mathcal {J}}_{1}^{k}=\sum _{i=0}^{n-1}{\frac {k(k-1)\dots (k-i+1)}{i!}}{\mathcal {J}}_{0}^{i}}
.
Sans perte de généralité, les
λ
i
{\displaystyle \lambda _{i}}
sont distincts. Pour tout
k
>
k
0
{\displaystyle k>k_{0}}
,
∑
i
=
1
r
λ
i
k
(
λ
i
B
i
(
k
+
1
)
−
A
B
i
(
k
)
)
=
0
{\displaystyle \sum _{i=1}^{r}\lambda _{i}^{k}\left(\lambda _{i}B_{i}(k+1)-AB_{i}(k)\right)=0}
. On en déduit alors que pour tout
i
{\displaystyle i}
de
1
{\displaystyle 1}
à
r
{\displaystyle r}
,
λ
i
B
i
(
X
+
1
)
=
A
B
i
(
X
)
{\displaystyle \lambda _{i}B_{i}(X+1)=AB_{i}(X)}
(cf. à nouveau Polynôme/Exercices/Arithmétique des polynômes#Exercice 3-19 ). Par conséquent, pour tout
k
∈
Z
{\displaystyle k\in \mathbb {Z} }
, si
A
k
+
1
=
∑
i
=
1
r
λ
i
k
+
1
B
i
(
k
+
1
)
{\displaystyle A^{k+1}=\sum _{i=1}^{r}\lambda _{i}^{k+1}B_{i}(k+1)}
alors
A
k
+
1
=
A
∑
i
=
1
r
λ
i
k
B
i
(
k
)
{\displaystyle A^{k+1}=A\sum _{i=1}^{r}\lambda _{i}^{k}B_{i}(k)}
donc (en multipliant à gauche par
A
−
1
{\displaystyle A^{-1}}
)
A
k
=
∑
i
=
1
r
λ
i
k
B
i
(
k
)
{\displaystyle A^{k}=\sum _{i=1}^{r}\lambda _{i}^{k}B_{i}(k)}
. On conclut par récurrence descendante.
Pour tout
A
∈
M
n
(
C
)
{\displaystyle A\in \mathrm {M} _{n}(\mathbb {C} )}
, soit
φ
A
{\displaystyle \varphi _{A}}
l'endomorphisme de
M
n
(
C
)
{\displaystyle \mathrm {M} _{n}(\mathbb {C} )}
défini par
φ
A
(
M
)
=
A
M
−
M
A
{\displaystyle \varphi _{A}(M)=AM-MA}
.
Montrer que si
A
{\displaystyle A}
est diagonalisable alors
φ
A
{\displaystyle \varphi _{A}}
aussi. On pourra commencer par le cas où
A
{\displaystyle A}
est diagonale.
Soient
E
{\displaystyle E}
un espace vectoriel de dimension
n
{\displaystyle n}
sur
C
{\displaystyle \mathbb {C} }
et
(
M
1
,
…
,
M
m
)
{\displaystyle (M_{1},\ldots ,M_{m})}
une base de
L
(
E
)
{\displaystyle \mathrm {L} (E)}
(donc
m
=
n
2
{\displaystyle m=n^{2}}
). Montrer que pour tout vecteur
v
{\displaystyle v}
non nul,
(
M
1
(
v
)
,
…
,
M
m
(
v
)
)
{\displaystyle (M_{1}(v),\ldots ,M_{m}(v))}
engendre
E
{\displaystyle E}
. En déduire la réciproque de 1.
Montrer que si
A
{\displaystyle A}
est nilpotente alors
φ
A
{\displaystyle \varphi _{A}}
aussi (pour un exemple, voir 5).
Quelle est la décomposition de Dunford de
φ
A
{\displaystyle \varphi _{A}}
en fonction de celle de
A
{\displaystyle A}
?
Soit
A
=
(
0
1
0
0
)
{\displaystyle A={\begin{pmatrix}0&1\\0&0\end{pmatrix}}}
. Étudier les éléments propres de
φ
A
{\displaystyle \varphi _{A}}
. Trouver une base de
M
2
(
C
)
{\displaystyle \mathrm {M} _{2}(\mathbb {C} )}
dans laquelle la matrice de
φ
A
{\displaystyle \varphi _{A}}
est
(
0
0
0
0
0
0
1
0
0
0
0
1
0
0
0
0
)
{\displaystyle {\begin{pmatrix}0&0&0&0\\0&0&1&0\\0&0&0&1\\0&0&0&0\end{pmatrix}}}
.
Solution
Soit
D
{\displaystyle D}
une matrice diagonale de valeurs propres (non nécessairement distinctes)
λ
1
,
…
,
λ
n
{\displaystyle \lambda _{1},\dots ,\lambda _{n}}
, alors la base canonique de
M
n
(
C
)
{\displaystyle M_{n}(\mathbb {C} )}
est propre pour
φ
D
{\displaystyle \varphi _{D}}
:
φ
D
(
E
i
,
j
)
=
(
λ
j
−
λ
i
)
E
i
,
j
{\displaystyle \varphi _{D}(E_{i,j})=(\lambda _{j}-\lambda _{i})E_{i,j}}
. Si
D
=
P
−
1
A
P
{\displaystyle D=P^{-1}AP}
alors
φ
A
(
P
M
P
−
1
)
=
P
φ
D
(
M
)
P
−
1
{\displaystyle \varphi _{A}(PMP^{-1})=P\varphi _{D}(M)P^{-1}}
donc les
P
E
i
,
j
P
−
1
{\displaystyle PE_{i,j}P^{-1}}
forment une base propre pour
φ
A
{\displaystyle \varphi _{A}}
(pour les mêmes valeurs propres).
Pour tout
u
∈
E
{\displaystyle u\in E}
, soient
φ
{\displaystyle \varphi }
l'un des (nombreux) éléments de
L
(
E
)
{\displaystyle \mathrm {L} (E)}
tels que
φ
(
v
)
=
u
{\displaystyle \varphi (v)=u}
, et
a
1
,
…
,
a
m
{\displaystyle a_{1},\ldots ,a_{m}}
tels que
φ
=
∑
a
k
M
k
{\displaystyle \varphi =\sum a_{k}M_{k}}
, alors
u
=
∑
a
k
M
k
(
v
)
{\displaystyle u=\sum a_{k}M_{k}(v)}
. Donc les
M
k
(
v
)
{\displaystyle M_{k}(v)}
engendrent
E
{\displaystyle E}
. Si
φ
A
{\displaystyle \varphi _{A}}
est diagonalisable, appliquons ceci à
(
M
1
,
…
,
M
m
)
{\displaystyle (M_{1},\dots ,M_{m})}
une base propre pour
φ
A
{\displaystyle \varphi _{A}}
(de valeurs propres associées
λ
1
,
…
,
λ
m
{\displaystyle \lambda _{1},\dots ,\lambda _{m}}
) et
v
{\displaystyle v}
un vecteur propre pour
A
{\displaystyle A}
, pour une valeur propre
λ
∈
C
{\displaystyle \lambda \in \mathbb {C} }
(il en existe toujours).
A
{\displaystyle A}
est diagonalisable car les vecteurs
M
k
(
v
)
{\displaystyle M_{k}(v)}
, qui engendrent
E
{\displaystyle E}
, sont tous propres pour
A
{\displaystyle A}
:
A
M
k
−
M
k
A
=
λ
k
M
k
,
A
(
v
)
=
λ
v
⇒
A
(
M
k
(
v
)
)
=
(
λ
+
λ
k
)
M
k
(
v
)
{\displaystyle AM_{k}-M_{k}A=\lambda _{k}M_{k},A(v)=\lambda v\Rightarrow A(M_{k}(v))=(\lambda +\lambda _{k})M_{k}(v)}
. Remarque : sur
R
{\displaystyle \mathbb {R} }
le résultat reste vrai car si
φ
A
{\displaystyle \varphi _{A}}
est diagonalisable sur
R
{\displaystyle \mathbb {R} }
donc sur
C
{\displaystyle \mathbb {C} }
, donc (d'après ce qui précède)
A
{\displaystyle A}
est diagonalisable sur
C
{\displaystyle \mathbb {C} }
, et ses valeurs propres vérifient
λ
i
−
λ
j
∈
R
(
∀
i
,
j
)
{\displaystyle \lambda _{i}-\lambda _{j}\in \mathbb {R} (\forall i,j)}
donc
λ
i
=
α
+
μ
i
{\displaystyle \lambda _{i}=\alpha +\mu _{i}}
avec
μ
i
∈
R
{\displaystyle \mu _{i}\in \mathbb {R} }
, d'où
n
α
+
∑
μ
i
=
T
r
(
A
)
∈
R
{\displaystyle n\alpha +\sum \mu _{i}=Tr(A)\in \mathbb {R} }
donc
α
∈
R
{\displaystyle \alpha \in \mathbb {R} }
donc
λ
i
∈
R
{\displaystyle \lambda _{i}\in \mathbb {R} }
, en particulier
A
{\displaystyle A}
admet au moins une valeur propre réelle, ce qui suffit pour refaire le raisonnement ci-desus. Par contre on trouve facilement des contre-exemples en caractéristique
≠
0
{\displaystyle \neq 0}
, le plus simple étant
A
=
(
1
1
1
0
)
{\displaystyle A={\begin{pmatrix}1&1\\1&0\end{pmatrix}}}
,
K
=
Z
/
2
Z
{\displaystyle K=\mathbb {Z} /2\mathbb {Z} }
.
(
φ
A
)
k
(
M
)
=
∑
i
=
0
k
(
−
1
)
i
(
k
i
)
A
k
−
i
M
A
i
{\displaystyle (\varphi _{A})^{k}(M)=\sum _{i=0}^{k}(-1)^{i}{\binom {k}{i}}A^{k-i}MA^{i}}
(par récurrence) donc si
A
r
=
0
{\displaystyle A^{r}=0}
alors
φ
A
2
r
−
1
=
0
{\displaystyle \varphi _{A}^{2r-1}=0}
.
On vérifie facilement que
φ
B
+
C
=
φ
B
+
φ
C
{\displaystyle \varphi _{B+C}=\varphi _{B}+\varphi _{C}}
, et que si
B
,
C
{\displaystyle B,C}
commutent alors
φ
B
,
φ
C
{\displaystyle \varphi _{B},\varphi _{C}}
aussi. D'après 1 et 3, si
D
+
N
{\displaystyle D+N}
est la décomposition de Dunford de
A
{\displaystyle A}
, celle de
φ
A
{\displaystyle \varphi _{A}}
(unique) est donc
φ
D
+
φ
N
{\displaystyle \varphi _{D}+\varphi _{N}}
.
A
2
=
0
{\displaystyle A^{2}=0}
donc (cf. 3)
φ
A
3
=
0
{\displaystyle \varphi _{A}^{3}=0}
, donc
0
{\displaystyle 0}
est la seule valeur propre de
φ
A
{\displaystyle \varphi _{A}}
.
φ
A
(
x
y
z
t
)
=
(
z
t
−
x
0
−
z
)
{\displaystyle \varphi _{A}{\begin{pmatrix}x&y\\z&t\end{pmatrix}}={\begin{pmatrix}z&t-x\\0&-z\end{pmatrix}}}
donc le noyau
ker
(
φ
A
)
{\displaystyle \ker(\varphi _{A})}
a pour équations
z
=
0
{\displaystyle z=0}
et
t
=
x
{\displaystyle t=x}
et
ker
(
φ
A
2
)
{\displaystyle \ker(\varphi _{A}^{2})}
a pour équation
z
=
0
{\displaystyle z=0}
. Soient
E
4
∉
ker
(
φ
A
2
)
{\displaystyle E_{4}\notin \ker(\varphi _{A}^{2})}
,
E
3
=
φ
A
(
E
4
)
{\displaystyle E_{3}=\varphi _{A}(E_{4})}
,
E
2
=
φ
A
(
E
3
)
{\displaystyle E_{2}=\varphi _{A}(E_{3})}
(donc
E
2
{\displaystyle E_{2}}
est un vecteur non nul de
ker
(
φ
A
)
{\displaystyle \ker(\varphi _{A})}
), et
E
1
{\displaystyle E_{1}}
tel que
(
E
1
,
E
2
)
{\displaystyle (E_{1},E_{2})}
forme une base de
ker
(
φ
A
)
{\displaystyle \ker(\varphi _{A})}
. Alors
(
E
1
,
…
,
E
4
)
{\displaystyle (E_{1},\ldots ,E_{4})}
répond à la question. Par exemple
E
4
:=
(
0
0
1
0
)
{\displaystyle E_{4}:={\begin{pmatrix}0&0\\1&0\end{pmatrix}}}
, d'où
E
3
=
(
1
0
0
−
1
)
{\displaystyle E_{3}={\begin{pmatrix}1&0\\0&-1\end{pmatrix}}}
, d'où
E
2
=
(
0
−
2
0
0
)
{\displaystyle E_{2}={\begin{pmatrix}0&-2\\0&0\end{pmatrix}}}
, et
E
1
:=
I
{\displaystyle E_{1}:=\mathrm {I} }
.
Soit
u
{\displaystyle u}
l'endomorphisme de
R
5
{\displaystyle \mathbb {R} ^{5}}
dont la matrice dans la base canonique est
A
=
(
9
/
2
−
7
/
4
−
7
/
4
−
3
−
1
/
2
1
1
/
2
−
1
/
2
0
0
6
−
3
−
2
−
6
−
1
2
−
1
−
1
−
1
−
1
/
3
6
−
3
−
3
3
−
3
)
{\displaystyle A={\begin{pmatrix}9/2&-7/4&-7/4&-3&-1/2\\1&1/2&-1/2&0&0\\6&-3&-2&-6&-1\\2&-1&-1&-1&-1/3\\6&-3&-3&3&-3\end{pmatrix}}}
.
On pose
f
1
=
e
2
−
e
3
{\displaystyle f_{1}=e_{2}-e_{3}}
,
f
3
=
1
2
e
1
+
1
3
e
4
+
e
5
{\displaystyle f_{3}={1 \over 2}e_{1}+{1 \over 3}e_{4}+e_{5}}
,
f
2
=
(
u
−
i
d
)
(
f
3
)
{\displaystyle f_{2}=(u-\mathrm {id} )(f_{3})}
.
Calculer
f
2
{\displaystyle f_{2}}
puis
(
u
−
i
d
)
(
f
2
)
{\displaystyle (u-\mathrm {id} )(f_{2})}
. En déduire que
f
3
∈
ker
(
u
−
i
d
)
2
{\displaystyle f_{3}\in \ker(u-\mathrm {id} )^{2}}
et
f
2
∈
ker
(
u
−
i
d
)
{\displaystyle f_{2}\in \ker(u-\mathrm {id} )}
.
Vérifier que
f
1
∈
ker
(
u
−
i
d
)
{\displaystyle f_{1}\in \ker(u-\mathrm {id} )}
et que
(
f
1
,
f
2
)
{\displaystyle (f_{1},f_{2})}
est libre.
Déterminer
ker
(
u
+
2
i
d
)
{\displaystyle \ker(u+2\mathrm {id} )}
et un vecteur
f
4
{\displaystyle f_{4}}
propre pour la valeur propre
−
2
{\displaystyle -2}
.
Déterminer
f
5
{\displaystyle f_{5}}
tel que
(
u
+
2
i
d
)
(
f
5
)
=
f
4
{\displaystyle (u+2\mathrm {id} )(f_{5})=f_{4}}
.
En déduire (sans calculs) que
(
f
1
,
…
,
f
5
)
{\displaystyle (f_{1},\dots ,f_{5})}
est une base de
R
5
{\displaystyle \mathbb {R} ^{5}}
, puis déterminer la matrice
B
{\displaystyle B}
de
u
{\displaystyle u}
dans cette base. Effectuer une décomposition de Dunford de
B
{\displaystyle B}
. En déduire
B
k
{\displaystyle B^{k}}
pour
k
∈
N
∗
{\displaystyle k\in \mathbb {N} ^{*}}
, et
B
−
1
{\displaystyle B^{-1}}
.
Préciser le polynôme caractéristique et le polynôme minimal et retrouver ainsi
B
−
1
{\displaystyle B^{-1}}
.
Préciser les sous-espaces
ker
(
u
−
i
d
)
,
ker
(
u
−
i
d
)
2
,
ker
(
u
−
i
d
)
3
,
ker
(
u
+
2
i
d
)
2
{\displaystyle \ker(u-\mathrm {id} ),\ker(u-\mathrm {id} )^{2},\ker(u-\mathrm {id} )^{3},\ker(u+2\mathrm {id} )^{2}}
.
Solution
f
2
=
(
1
/
4
,
1
/
2
,
0
,
0
,
0
)
{\displaystyle f_{2}=(1/4,1/2,0,0,0)}
,
(
u
−
i
d
)
(
f
2
)
=
0
{\displaystyle (u-\mathrm {id} )(f_{2})=0}
, d'où
f
2
∈
ker
(
u
−
i
d
)
{\displaystyle f_{2}\in \ker(u-\mathrm {id} )}
et
(
u
−
i
d
)
2
(
f
3
)
=
(
u
−
i
d
)
(
f
2
)
=
0
{\displaystyle (u-\mathrm {id} )^{2}(f_{3})=(u-\mathrm {id} )(f_{2})=0}
donc
f
3
∈
ker
(
u
−
i
d
)
2
{\displaystyle f_{3}\in \ker(u-\mathrm {id} )^{2}}
.
(
u
−
i
d
)
(
f
1
)
=
0
{\displaystyle (u-\mathrm {id} )(f_{1})=0}
.
λ
f
1
+
μ
f
2
=
(
μ
/
4
,
λ
+
μ
/
2
,
−
λ
,
0
,
0
)
{\displaystyle \lambda f_{1}+\mu f_{2}=(\mu /4,\lambda +\mu /2,-\lambda ,0,0)}
est nul si et seulement si
λ
=
μ
=
0
{\displaystyle \lambda =\mu =0}
donc
(
f
1
,
f
2
)
{\displaystyle (f_{1},f_{2})}
est libre.
ker
(
u
+
2
i
d
)
=
R
f
4
{\displaystyle \ker(u+2\mathrm {id} )=\mathbb {R} f_{4}}
avec
f
4
=
(
1
/
2
,
0
,
1
,
1
/
3
,
1
)
{\displaystyle f_{4}=(1/2,0,1,1/3,1)}
.
Une solution évidente est
f
5
:=
−
e
5
{\displaystyle f_{5}:=-e_{5}}
.
D'après b,
(
f
1
,
f
2
)
{\displaystyle (f_{1},f_{2})}
est libre. Comme
f
1
,
f
2
∈
ker
(
u
−
i
d
)
{\displaystyle f_{1},f_{2}\in \ker(u-\mathrm {id} )}
et
(
u
−
i
d
)
(
f
3
)
=
f
2
≠
0
{\displaystyle (u-\mathrm {id} )(f_{3})=f_{2}\neq 0}
,
(
f
1
,
f
2
,
f
3
)
{\displaystyle (f_{1},f_{2},f_{3})}
est donc libre. De même,
(
f
4
,
f
5
)
{\displaystyle (f_{4},f_{5})}
est libre. Enfin,
f
1
,
f
2
,
f
3
∈
ker
(
u
−
i
d
)
2
{\displaystyle f_{1},f_{2},f_{3}\in \ker(u-\mathrm {id} )^{2}}
et
f
4
,
f
5
∈
ker
(
u
+
2
i
d
)
2
{\displaystyle f_{4},f_{5}\in \ker(u+2\mathrm {id} )^{2}}
or ces deux sous-espaces sont d'intersection nulle. Donc
(
f
1
,
…
,
f
5
)
{\displaystyle (f_{1},\dots ,f_{5})}
est libre, donc est une base de
R
5
{\displaystyle \mathbb {R} ^{5}}
.
B
=
D
+
N
{\displaystyle B=D+N}
pour
D
=
d
i
a
g
(
1
,
1
,
1
,
−
2
,
−
2
)
{\displaystyle D=\mathrm {diag} (1,1,1,-2,-2)}
et
N
=
(
N
1
0
0
N
2
)
{\displaystyle N={\begin{pmatrix}N_{1}&0\\0&N_{2}\end{pmatrix}}}
avec
N
1
=
(
0
0
0
0
0
1
0
0
0
)
,
N
2
=
(
0
1
0
0
)
{\displaystyle N_{1}={\begin{pmatrix}0&0&0\\0&0&1\\0&0&0\end{pmatrix}},N_{2}={\begin{pmatrix}0&1\\0&0\end{pmatrix}}}
,
D
N
=
N
D
=
(
N
1
0
0
−
2
N
2
)
{\displaystyle DN=ND={\begin{pmatrix}N_{1}&0\\0&-2N_{2}\end{pmatrix}}}
.
N
2
=
(
N
1
2
0
0
N
2
2
)
=
0
{\displaystyle N^{2}={\begin{pmatrix}N_{1}^{2}&0\\0&N_{2}^{2}\end{pmatrix}}=0}
donc
B
k
=
D
k
+
k
D
k
−
1
N
=
(
I
+
k
N
1
0
0
(
−
2
)
k
I
+
k
(
−
2
)
k
−
1
N
2
)
{\displaystyle B^{k}=D^{k}+kD^{k-1}N={\begin{pmatrix}\mathrm {I} +kN_{1}&0\\0&(-2)^{k}\mathrm {I} +k(-2)^{k-1}N_{2}\end{pmatrix}}}
, et
B
−
1
=
D
−
1
(
I
+
D
−
1
N
)
−
1
=
D
−
1
(
I
−
D
−
1
N
)
=
(
I
−
N
1
0
0
−
I
2
−
N
2
4
)
{\displaystyle B^{-1}=D^{-1}(\mathrm {I} +D^{-1}N)^{-1}=D^{-1}(\mathrm {I} -D^{-1}N)={\begin{pmatrix}\mathrm {I} -N_{1}&0\\0&{-\mathrm {I} \over 2}-{N_{2} \over 4}\end{pmatrix}}}
.
Vue la matrice
B
{\displaystyle B}
, le polynôme caractéristique est
−
(
X
−
1
)
3
(
X
+
2
)
2
{\displaystyle -(X-1)^{3}(X+2)^{2}}
et le polynôme minimal est
(
X
−
1
)
2
(
X
+
2
)
2
{\displaystyle (X-1)^{2}(X+2)^{2}}
et
B
{\displaystyle B}
est inversible. En particulier,
0
=
(
B
−
I
)
2
(
B
+
2
I
)
2
=
B
4
+
2
B
3
−
3
B
2
−
4
B
+
4
I
=
B
(
B
3
+
2
B
2
−
3
B
−
4
I
+
4
B
−
1
)
{\displaystyle 0=(B-\mathrm {I} )^{2}(B+2\mathrm {I} )^{2}=B^{4}+2B^{3}-3B^{2}-4B+4\mathrm {I} =B(B^{3}+2B^{2}-3B-4\mathrm {I} +4B^{-1})}
donc
B
−
1
=
−
B
3
/
4
−
B
2
/
2
+
3
B
/
4
+
I
=
I
−
(
D
3
+
3
D
2
N
)
/
4
−
(
D
2
+
2
D
N
)
/
2
+
3
(
D
+
N
)
/
4
=
P
(
D
)
+
Q
(
D
)
N
{\displaystyle B^{-1}=-B^{3}/4-B^{2}/2+3B/4+\mathrm {I} =\mathrm {I} -(D^{3}+3D^{2}N)/4-(D^{2}+2DN)/2+3(D+N)/4=P(D)+Q(D)N}
avec
P
(
X
)
=
−
X
3
/
4
−
X
2
/
2
+
3
X
/
4
+
1
,
Q
(
X
)
=
−
3
X
2
/
4
−
X
+
3
/
4
{\displaystyle P(X)=-X^{3}/4-X^{2}/2+3X/4+1,Q(X)=-3X^{2}/4-X+3/4}
donc
P
(
1
)
=
1
,
Q
(
1
)
=
−
1
,
P
(
−
2
)
=
−
1
/
2
,
Q
(
−
2
)
=
−
1
/
4
{\displaystyle P(1)=1,Q(1)=-1,P(-2)=-1/2,Q(-2)=-1/4}
donc on retrouve
B
−
1
=
(
I
−
N
1
0
0
−
I
/
2
−
N
2
/
4
)
{\displaystyle B^{-1}={\begin{pmatrix}\mathrm {I} -N_{1}&0\\0&-\mathrm {I} /2-N_{2}/4\end{pmatrix}}}
.
Vue la matrice
B
{\displaystyle B}
,
ker
(
u
−
i
d
)
=
V
e
c
t
(
f
1
,
f
2
)
{\displaystyle \ker(u-\mathrm {id} )=\mathrm {Vect} (f_{1},f_{2})}
,
ker
(
u
−
i
d
)
2
=
ker
(
u
−
i
d
)
3
=
V
e
c
t
(
f
1
,
f
2
,
f
3
)
{\displaystyle \ker(u-\mathrm {id} )^{2}=\ker(u-\mathrm {id} )^{3}=\mathrm {Vect} (f_{1},f_{2},f_{3})}
,
ker
(
u
+
2
i
d
)
2
=
V
e
c
t
(
f
4
,
f
5
)
{\displaystyle \ker(u+2\mathrm {id} )^{2}=\mathrm {Vect} (f_{4},f_{5})}
.
Soit
u
{\displaystyle u}
un endomorphisme de
C
5
{\displaystyle \mathbb {C} ^{5}}
non diagonalisable, non nilpotent, de rang 2.
Montrer que le sous-espace caractéristique associé à la valeur propre 0 est soit
ker
u
{\displaystyle \ker u}
, soit
ker
(
u
2
)
{\displaystyle \ker(u^{2})}
.
Montrer que
u
{\displaystyle u}
admet exactement deux sous-espaces caractéristiques.
Soit
b
=
(
b
1
,
…
,
b
5
)
{\displaystyle b=(b_{1},\dots ,b_{5})}
une base de Dunford pour
u
{\displaystyle u}
telle que
b
1
,
b
2
,
b
3
∈
ker
u
{\displaystyle b_{1},b_{2},b_{3}\in \ker u}
. Quelles sont les formes possibles de la matrice de
u
{\displaystyle u}
dans
b
{\displaystyle b}
?
Soit
A
∈
M
n
(
C
)
{\displaystyle A\in \mathrm {M} _{n}(\mathbb {C} )}
.
On suppose dans cette question que la suite
(
A
k
)
k
∈
N
∗
{\displaystyle (A^{k})_{k\in \mathbb {N} ^{*}}}
tend vers
0
{\displaystyle 0}
. Montrer que les valeurs propres de
A
{\displaystyle A}
sont de module
<
1
{\displaystyle <1}
.
Si
A
{\displaystyle A}
n'a qu'une valeur propre
λ
{\displaystyle \lambda }
, montrer que la matrice
N
:=
A
−
λ
I
n
{\displaystyle N:=A-\lambda \mathrm {I} _{n}}
est nilpotente. Expliciter
(
λ
I
n
+
N
)
k
{\displaystyle (\lambda \mathrm {I} _{n}+N)^{k}}
avec les coefficients du binôme et en déduire que si
|
λ
|
<
1
{\displaystyle |\lambda |<1}
alors la suite
(
A
k
)
k
∈
N
∗
{\displaystyle (A^{k})_{k\in \mathbb {N} ^{*}}}
tend vers
0
{\displaystyle 0}
.
Si toutes les valeurs propres de
A
{\displaystyle A}
sont de module
<
1
{\displaystyle <1}
, montrer que la suite
(
A
k
)
k
∈
N
∗
{\displaystyle (A^{k})_{k\in \mathbb {N} ^{*}}}
tend vers
0
{\displaystyle 0}
(méthode : introduire une base de Dunford pour
A
{\displaystyle A}
et appliquer la question précédente).
Solution
Si
λ
{\displaystyle \lambda }
est une valeur propre de
A
{\displaystyle A}
, soit
X
∈
C
n
{\displaystyle X\in \mathbb {C} ^{n}}
un vecteur propre associé.
λ
k
X
=
A
k
X
→
0
X
=
0
{\displaystyle \lambda ^{k}X=A^{k}X\to 0X=0}
et
X
≠
0
{\displaystyle X\neq 0}
, d'où
λ
k
→
0
{\displaystyle \lambda ^{k}\to 0}
, ce qui n'est possible que si
|
λ
|
<
1
{\displaystyle |\lambda |<1}
.
Sans perte de généralité, on peut supposer
A
{\displaystyle A}
triangulaire. Alors,
N
{\displaystyle N}
est triangulaire supérieure de diagonale nulle donc
N
n
=
0
{\displaystyle N^{n}=0}
, donc
A
k
=
(
λ
I
n
+
N
)
k
=
∑
j
=
0
q
−
1
(
k
j
)
N
j
λ
k
−
j
=
λ
k
∑
j
=
0
q
−
1
k
(
k
−
1
)
…
(
k
−
j
+
1
)
λ
−
j
(
N
j
/
j
!
)
=
λ
k
B
k
{\displaystyle A^{k}=(\lambda \mathrm {I} _{n}+N)^{k}=\sum _{j=0}^{q-1}{\binom {k}{j}}N^{j}\lambda ^{k-j}=\lambda ^{k}\sum _{j=0}^{q-1}k(k-1)\dots (k-j+1)\lambda ^{-j}(N^{j}/j!)=\lambda ^{k}B_{k}}
, où les coefficients de la matrice
B
k
{\displaystyle B_{k}}
sont des polynômes en
k
{\displaystyle k}
. Donc si
|
λ
|
<
1
{\displaystyle |\lambda |<1}
,
A
k
→
0
{\displaystyle A^{k}\to 0}
(le cas particulier
λ
=
0
{\displaystyle \lambda =0}
peut être réglé directement à part).
Sans perte de généralité,
A
=
d
i
a
g
(
A
1
,
…
,
A
p
)
{\displaystyle A=\mathrm {diag} (A_{1},\ldots ,A_{p})}
, où chaque bloc
A
i
{\displaystyle A_{i}}
n'a qu'une valeur propre
λ
i
{\displaystyle \lambda _{i}}
. D'après la question précédente, si tous les
|
λ
i
|
{\displaystyle |\lambda _{i}|}
sont
<
1
{\displaystyle <1}
, tous les
A
i
k
{\displaystyle A_{i}^{k}}
tendent vers 0, d'où
A
k
=
d
i
a
g
(
A
1
k
,
…
,
A
p
k
)
→
0
{\displaystyle A^{k}=\mathrm {diag} (A_{1}^{k},\ldots ,A_{p}^{k})\to 0}
.