Contenu supprimé Contenu ajouté
Aucun résumé des modifications
~~~~
Ligne 4 :
:*[[Recherche:Travaux_de_recherche_partiels_de_Patrick_Br%C3%A9jon]]
 
 
Proposé à affichage dans département ( plan non terminé )
= Harmoniques simples de régression / Régression harmonique simple =
== Situation du contexte ==
:: Pour une première approche, on considère un échantillonnage de <math> 2k+1 </math> couples de type <math> ( x^*, y^*) </math> ou <math> ( t^*, y^*) </math>, si la variable d'entrée est le temps t, rangés dans l'ordre crioissant des x ou t.
:: Les x et les t sont à intervalles équipotents de 1. L'indice est considéré variant de <math> -k </math> à <math> +k </math> au pas de 1.
:: La valeur centrale <math> y_0 </math> est connue pour la valeur 0 de l'indice.
 
== Harmonique simple de régression unipulsatoire ==
 
=== Méthode ===
: L'équation de la courbe de l'harmonique peut se ramener à la forme :
: <center> <math> y = y_0 + S*sin( \omega*t) +C*(1-cos( \omega*t )) </math> </center>
:: Avec les propriétés suivantes :
:- La somme des carrés des écarts des <math> y_k </math> aux <math> y(k) </math> est minimale pour un <math> \omega </math> donné ( propriété de base de la régression )
: <center> Propriété P1 : <math> \sum_{i=-k}^{i=+k} (y_i - y(i))^2</math> minimale </center>
:: Parmi toutes ces harmoniques obtenues pour tous les <math> \omega </math>, une pour chaque, certaines sont plus probables que d'autres. Exemples :
::_ celles où <math> y_{max}-y_{min} </math> est minimale ou inférieure à une valeur donnée<math> \epsilon </math>. (Condition C1)
::_ celles où la valeur absolue de la différence entre <math> y_{max}-y_{min}</math> et {la moyenne des k plus grands y – la moyenne de k plus petits y} hors <math>y_0</math> est minimale ou inférieure à une valeur donnée <math> \epsilon </math>(Condition C2).
::_ celles où la puissance de y minimale : <math> (C^2+ S^2)\omega </math> est minimale ou inférieure à une valeur donnée <math>\epsilon</math>(Condition C3).
::_ ou d'autres conditions. On quitte le domaines des maths pures pour les maths appliquées.
 
=== Application ===
==== 2k+1 couples ====
 
===== Méthode par décomposition paritairedirecte =====
====== Calcul de S et C de régression ======
: P1 : Se traduit par le système : <math> \begin{cases} sin(\omega t)(\sum_{i=-k}^{i=+k} (y_Ii y_i- y(i))^2)'_S=0</math> \\et (1-cos(\omega t))(<math>(\sum_{i=-k}^{i=+k} (y_Pi – y_i-y(i))^2)'_C=0\end{cases</math>
::<math>\begin{cases}
(\sum_{i=-k}^{i=+k}(sin(\omega t)(y_i-y(i)-y_0-s*sin(\omega i)-c*(1-cos(\omega i)))^2)'_S=0 \\ (\sum_{i=-k}^{i=+k}(1y_i-cos(\omega i))(y(i)-y_0-s*sin(\omega i)-c*(1-cos(\omega i)))^2)'_C=0\\
\end{cases}</math>
::<math>\begin{cases}
(\sum_{i=-k}^{i=+k}(y(i)-y_0-S*sin(\omega i)-C*(1-cos(\omega i)))^2)'_s=0 \\
(\sum_{i=-k}^{i=+k}(y(i)-y_0-S*sin(\omega i)-C*(1-cos(\omega i)))^2)'_c=0
\end{cases}</math>
::<math>\begin{cases}
(\begin{vmatrix} \end{vmatrix} (\omega i)-C*(1-cos(\omega i))=0\\ (\sum_{i=-k}^{i=+k} (1-cos(\omega i))(y(i)_0-S*sin(\omega i)-C*(1-cos(\omega i))=0
\end{cases}</math>
 
::D'où S et C :
<center><math>S = \frac{ \begin{vmatrix} \sum_{i=-k}^{i=+k}(y(i)-y_0)sin(\omega i)& \sum_{i=-k}^{i=+k}sin(\omega i)(1-cos(\omega i)) \\ \sum_{i=-k}^{i=+k}(y(i)-y_0)(1-cos(\omega i) & \sum_{i=-k}^{i=+k}(1-cos(\omega i))^2 \end{vmatrix} }
{\begin{vmatrix}\sum_{i=-k}^{i=+k}sin(\omega i)^2&\sum_{i=-k}^{i=+k}sin(\omega i)(1-cos(\omega i))\\\sum_{i=-k}^{i=+k}sin(\omega i)(1-cos(\omega i))&\sum_{i=-k}^{i=+k}(1-cos(\omega i))^2 \end{vmatrix}}</math>
</center>
<center><math>C = \frac{\begin{vmatrix} \sum_{i=-k}^{i=+k}sin(\omega i)^2&\sum_{i=-k}^{i=+k}(y(i)-y_0)sin(\omega i)\\\sum_{i=-k}^{i=+k}sin(\omega i)(1-cos(\omega i)&\sum_{i=-k}^{i=+k}(y(i)-y_0))1-cos(\omega i))\end{vmatrix} }
{ \begin{vmatrix}\sum_{i=-k}^{i=+k}sin(\omega i)^2&\sum_{i=-k}^{i=+k}sin(\omega i)(1-cos(\omega i))\\\sum_{i=-k}^{i=+k}sin(\omega i)(1-cos(\omega i))&\sum_{i=-k}^{i=+k}(1-cos(\omega i))^2\end{vmatrix} }</math></center>
 
====== Calcul de wt optimal et des maxi-mini ======
===== Méthode par décomposition paritaire =====
:: y est la somme de<center> <math>y_I y = 0y_0 +s S*sin( \omega *t)</math>et de <math>y_P= y_0 + c C*(1-cos( \omega *t )) < /math> </center>
:: <center> <math> y '(t)= \omega Scos(\omega*t) + \omega Csin(\omega*t )) </math> </center>
: Chercher la régressions de y, ce peut être dans certains cas de superpositions de phénomènes, chercher séparément les régressions propres de y_I et y_P puis les ajouter.
:: Pour <math>t_M </math> et <math> t_m </math> on obtient les extrèmum et <math> y' (t_M ; t_m)= 0 </math>
: On écrit les conditions de régression pour chaque partie et on les traduit :
:: D'où <math> \beginomega*t_{casesm,m} (\sum_{i=-k}^{i=+k}</math> (y_Iipar - y(i))^2)'_s=0</center><math> \\ tan(\sum_omega*t_{iM,m})=-k\frac{S}^{i=+kC} (y_Pi – y(i))^2)'_c=0\end{cases</math></center>
:: <center> <math> \omega t_M = atan (-\frac{S}{C}) </math></center>
::<math> \begin{cases} sin(\omega t)(\sum_{i=-k}^{i=+k} (y_Ii - y(i)))=0</math> \\ (1-cos(\omega t))((\sum_{i=-k}^{i=+k} (y_Pi – y(i)))=0\end{cases</math>
:: <center> <math> \omega*t_m = atan (-\frac{S}{C}) + \pi </math></center>
:: Aux extrémum, en substituant <math> \omega*t_{M,m} </math>, on obtient <math> y_M ,y_m </math> soit :
:: <center> <math> y (w) = y_0 + S*sin(atan (-\frac{S}{C})) +C*(1-cos(atan (-\frac{S}{C}))) </math> </center>
:: Avec la condition C1 plus haut , il s'agira de minimiser la quantité :
<center><math> y (w) = S*sin(atan (-\frac{S}{C})) +C*(1-cos(atan (-\frac{S}{C})))</math></center>
: Un programme ou le tableur donneront la valeur de w optimale cherchée <math> \omega_{opt} </math>.
:: <center> <math> y = y_0 + S(\omega_{opt})sin(\omega_{opt}*t) +C(\omega_{opt})*(1-cos(\omega_{opt}*t )) </math> </center>