Début de la boite de navigation du chapitre
fin de la boite de navigation du chapitre
En raison de limitations techniques, la typographie souhaitable du titre, «
Techniques de régressions au plus près : Définition de la régression au plus près Techniques de régressions au plus près/Définition de la régression au plus près », n'a pu être restituée correctement ci-dessus.
Définition de la régression au plus près
modifier
On appellera régression au plus près toute forme suivante correspondant aux conditions suivantes :
{
y
r
e
g
(
x
r
)
=
K
0
+
K
1
F
r
e
g
1
(
x
r
)
+
K
2
F
r
e
g
2
(
x
r
)
+
K
3
F
3
(
x
r
)
+
⋯
+
K
i
F
r
e
g
i
(
x
r
)
+
⋯
+
K
n
F
r
e
g
n
(
x
r
)
y
(
x
r
)
−
y
r
e
g
(
x
r
)
=
ϵ
(
x
r
)
∀
i
,
y
r
e
g
(
x
r
i
)
=
K
i
+
K
r
e
g
1
F
r
e
g
1
(
x
r
i
)
+
K
2
F
r
e
g
2
(
x
r
i
)
+
K
3
F
r
e
g
3
(
x
r
i
)
+
⋯
+
K
i
F
r
e
g
i
1
(
x
r
i
)
+
⋯
+
K
n
F
r
e
g
n
(
x
r
i
)
∀
i
,
y
i
(
x
r
i
)
−
y
r
e
g
(
x
r
i
)
=
ϵ
(
x
r
i
)
ϵ
(
x
r
)
=
Σ
ϵ
(
x
r
i
)
/
n
u
l
/
o
u
/
n
o
n
K
0
=
Σ
K
i
S
D
M
C
=
Σ
ϵ
2
(
x
r
i
)
/
m
i
n
i
m
u
m
{\displaystyle {\begin{cases}y_{reg}(xr)=K_{0}+K_{1}F_{reg1}(xr)+K_{2}F_{reg2}(xr)+K_{3}F_{3}(xr)+\cdots +K_{i}F_{regi}(xr)+\cdots +K_{n}F_{regn}(xr)\\y(xr)-y_{reg}(xr)=\epsilon (xr)\\\forall i,y_{reg}(xr_{i})=K_{i}+K_{reg1}F_{reg1}(xr_{i})+K_{2}F_{reg2}(xr_{i})+K_{3}F_{reg3}(xr_{i})+\cdots +K_{i}F_{regi1}(xr_{i})+\cdots +K_{n}F_{regn}(xr_{i})\\\forall i,y_{i}(xr_{i})-y_{reg}(xr_{i})=\epsilon (xr_{i})\\\epsilon (xr)=\Sigma \epsilon (xr_{i})/nul/ou/non\\\ K_{0}=\Sigma K_{i}\\SDMC=\Sigma \epsilon ^{2}(xr_{i})/minimum\\\end{cases}}}
AVEC
Échec de l’analyse (fonction inconnue « \begin{cases} »): {\displaystyle \begin{cases} i>=1 \\ \exists!un/i/au/moins/tel/que : \epsilon(xr_1) \neq 0 \\ \epsilon(xr_1)<= (/ou/non)/à/limite/l_i/initiale/maximale \\ F_{regi} / de/mêmes/natures/ou/non \\ SDMC <= (/ou/non)/à/limite/l/initiale/maximale \end{cases} }
On appellera régression idéale LA régression de type ci-dessus telle qu'en plus
S
D
E
=
Σ
ϵ
(
x
r
i
)
=
0
{\displaystyle SDE=\Sigma \epsilon (xr_{i})=0}
, E comme écart, S comme somme, D comme des, C comme carrés.
On appellera régressions monofonctionnelles les régression telles que tous les
F
i
{\displaystyle F_{i}}
soient de même nature
Exemple 1:
y
r
e
g
1
(
x
r
)
=
K
11
sin
(
w
11
x
r
)
+
K
21
sin
(
w
21
x
r
)
+
K
31
sin
(
w
31
x
r
)
{\displaystyle y_{reg1}(xr)=K_{11}\sin(w_{11}xr)+K_{21}\sin(w_{21}xr)+K_{31}\sin(w_{31}xr)}
Exemple 2:
y
r
e
g
2
(
x
r
)
=
K
1
+
K
12
(
1
−
cos
(
w
12
x
r
)
)
+
K
2
+
K
22
(
1
−
cos
(
w
22
x
r
)
)
+
K
32
sin
(
w
32
x
r
)
+
K
42
sin
(
w
42
x
r
)
{\displaystyle y_{reg2}(xr)=K_{1}+K_{12}\left(1-\cos(w_{12}xr)\right)+K_{2}+K_{22}\left(1-\cos(w_{22}xr)\right)+K_{32}\sin(w_{32}xr)+K_{42}\sin(w_{42}xr)}
On appellera ordre global le nombre de fonctions de même nature ou non ; ordre partiel le nombre de fonctions entrant dans la régression de même nature ( dans l'exemple : ordre 3 global et 3 partiel en sinus )
Pour exprimer que la Somme Des Moindres Carrés
S
D
M
C
{\displaystyle SDMC}
est minimale, on écrira que toutes ses dérivées partielles par rapport aux écarts
ϵ
(
x
r
i
)
=
y
i
(
x
r
i
)
−
y
r
e
g
(
x
r
i
)
{\displaystyle \epsilon (xr_{i})=y_{i}(xr_{i})-y_{reg}(xr_{i})}
sont nulles
∀
i
{\displaystyle \forall i}
.
La forme générale peut aussi se mettre sous la forme plus facile à manipuler et faisant appel à des calculs plus simples, moins nombreux et plus logiques :
{
y
r
e
g
(
x
r
)
=
y
0
+
k
1
I
F
1
I
(
x
r
)
+
k
2
I
F
2
I
(
x
r
)
+
⋯
+
k
i
I
F
i
I
(
x
r
)
+
⋯
+
k
m
I
F
m
I
(
x
r
)
+
k
0
+
k
1
P
(
F
1
P
(
0
)
−
F
1
P
(
x
r
)
)
+
k
2
P
(
F
2
P
(
0
)
−
F
2
P
(
x
r
)
)
+
⋯
+
k
j
P
(
F
j
P
(
0
)
−
F
j
P
(
x
r
)
)
+
⋯
+
k
n
P
(
F
n
P
(
0
)
−
F
n
P
(
x
r
)
)
y
0
=
y
(
0
)
,
F
∗
I
(
x
r
)
/
I
m
p
a
i
r
e
/
F
∗
I
(
0
)
=
0
,
F
∗
P
(
x
r
)
/
P
a
i
r
e
y
(
x
r
)
−
y
r
e
g
(
x
r
)
=
ϵ
(
x
r
)
∀
i
,
y
r
e
g
(
x
r
i
)
=
y
(
x
r
)
−
y
r
e
g
(
x
r
)
=
y
0
+
k
1
I
F
1
I
(
x
r
i
)
+
k
2
I
F
2
I
(
x
r
i
)
+
⋯
+
k
i
I
F
i
I
(
x
r
i
)
+
⋯
+
k
m
I
F
m
I
(
x
r
i
)
+
k
i
+
k
1
P
(
F
1
P
(
0
)
−
F
1
P
(
x
r
i
)
)
+
k
2
P
(
F
2
P
(
0
)
−
F
2
P
(
x
r
i
)
)
+
⋯
+
k
j
P
(
F
1
P
(
0
)
1
−
F
j
P
(
x
r
i
)
)
+
⋯
+
k
n
P
(
F
1
P
(
0
)
−
F
n
P
(
x
r
i
)
)
+
e
p
s
i
l
o
n
(
x
r
)
∀
i
,
y
i
(
x
r
i
)
−
y
r
e
g
(
x
r
i
)
=
ϵ
(
x
r
i
)
ϵ
(
x
r
)
=
Σ
ϵ
(
x
r
i
)
/
n
u
l
/
o
u
/
n
o
n
k
0
=
Σ
k
i
S
D
M
C
=
Σ
ϵ
2
(
x
r
i
)
/
m
i
n
i
m
u
m
{\displaystyle {\begin{cases}y_{reg}(xr)=y_{0}+k_{1I}F_{1I}(xr)+k_{2I}F_{2I}(xr)+\cdots +k_{iI}F_{iI}(xr)+\cdots +k_{mI}F_{mI}(xr)+k_{0}+k_{1P}(F_{1P}(0)-F_{1P}(xr))+k_{2P}(F_{2P}(0)-F_{2P}(xr))+\cdots +k_{jP}(F_{jP}(0)-F_{jP}(xr))+\cdots +k_{nP}(F_{nP}(0)-F_{nP}(xr))\\y_{0}=y(0),F_{*I}(xr)/Impaire/F_{*I}(0)=0,F_{*P}(xr)/Paire\\y(xr)-y_{reg}(xr)=\epsilon (xr)\\\forall i,y_{reg}(xr_{i})=y(xr)-y_{reg}(xr)=y_{0}+k_{1I}F_{1I}(xr_{i})+k_{2I}F_{2I}(xr_{i})+\cdots +k_{iI}F_{iI}(xr_{i})+\cdots +k_{mI}F_{mI}(xr_{i})+k_{i}+k_{1P}(F_{1P}(0)-F_{1P}(xr_{i}))+k_{2P}(F_{2P}(0)-F_{2P}(xr_{i}))+\cdots +k_{jP}(F_{1P}(0)1-F_{jP}(xr_{i}))+\cdots +k_{nP}(F_{1P}(0)-F_{nP}(xr_{i}))+epsilon(xr)\\\forall i,y_{i}(xr_{i})-y_{reg}(xr_{i})=\epsilon (xr_{i})\\\epsilon (xr)=\Sigma \epsilon (xr_{i})/nul/ou/non\\\ k_{0}=\Sigma k_{i}\\SDMC=\Sigma \epsilon ^{2}(xr_{i})/minimum\\\end{cases}}}
Deuxième étape de l'approche
modifier
Rechercher la meilleure fonction régressive F1 telle que :
Échec de l’analyse (fonction inconnue « \begin{cases} »): {\displaystyle \begin{cases} y_{reg}(xr) = k + k_1F_1(xr)+ \epsilon_1{(xr)} \\ SDMC_1 = \Sigma \epsilon_1^2(xr_{1i}) /minimum/dans/la/liste/des/F1/testées \\ SDE = \Sigma \epsilon(xr_{i}) = 0 /éventuellement/et/si/possible \end{cases} }
Réitérer l'opération sur
ϵ
(
x
r
1
)
{\displaystyle \epsilon (xr_{1})}
Échec de l’analyse (fonction inconnue « \begin{cases} »): {\displaystyle \begin{cases} \epsilon_1{(xr)} = y_{reg1}(xr) = k_2F_2(xr)+ \epsilon_2{(xr)} \\ SDMC_2 = \Sigma \epsilon_2^2(xr_{2i}) /minimum/dans/la/liste/des/F2/testées \\ SDE = \Sigma \epsilon(xr_{i}) = 0 /éventuellement/et/si/possible \end{cases} }
Arrêter quand on le désire, par exemple après avoir atteint une limite pour SDMC.