En raison de limitations techniques, la typographie souhaitable du titre, « Techniques de régressions au mieux : Principes généraux Techniques de régressions au mieux/Principes généraux », n'a pu être restituée correctement ci-dessus.
NOTA : il s'agira en fait de trouver la courbe et l'équation "au plus prés" - sera-ce la plus probable ? à voir et à démontrer -( différente de la courbe de régression classique au sens de la somme minimale des carrés des écarts ).
Il sera préférable et nécessaire de prendre un nombre impair de n couples de données avec n=3+4n et de le centrer. Les valeurs des y seront ramenées relativement à la valeur centrale , ce qui donne et donc
Tout échantillon dont il faut déterminer la courbe de régression "au plus près " ainsi que son équation sera décomposé en un échantillon impair et un pair dont il sera la somme.
La somme géométrique des courbes de régressions et celle algébrique des équations trouvées donneront la courbe au plus près et l'équation résultantes .
Par itération de la méthode, le résidu sera traité de la même façon. Des exemples illustreront ves différents points. Patience.....
2 / Principe de décomposition et de sommation linéaire des régressions au plus près
Les courbes et équations de régression au plus près de tout échantillon ou de toute partie impaire ou paire d'un échantillon sont décomposables en une combinaison linéaire géométrique de courbes de régression et une somme algébrique de leurs équations dont la résultante sera la moyenne barycentrique.
La démonstration est triviale. La somme des coefficients affectés à chaque composante de la moyenne barycentrique est de 1 dans le cas où il n'y a plus de résidu ( à voir ). Les coefficients seront déterminés en minimisant la somme des carrés des écarts ou en réappliquant la méthode de résolution de systèmes linéaires au plus près.
Seront retenues les combinaisons présentant des totaux de carrés d'écarts admissibles.
3 / Principes du choix des courbes et équations de régression de base
A / Monômes et combinaisons linéaires ( polynômes ) pairs et impairs ( dont celui du premier degré appelé droite de régression, composé d'une fonction paire - le terme sans variable b - et d'une fonction impaire - monôme du premier degré de la variable ax - )
et
B / Sinus et cosinus trigonométriques ainsi que leurs puissances et ainsi que les combinaison linéaires de sinus, respectivement de cosinus .
et
et
C / Sinus et cosinus hyperboliques et combinaison linéaires de sinus, respectivement de cosinus .
et
et
D / Exponentielles simples paires et impaires construites et leurs combinaisons linéaires.
et
et
et
E / Tout produit d'une fonction de base simple A B C ou D avec une autre A B C ou D ou avec une exponentielle ammortie aux infinis paire : .
F / Tout produit de produit E avec une fonction simple A B C D ou E .
G / ETC et toutes autres possibilités avec celle de multiplier aussi par une exponentielle paire ammortie aux infinis.
H / Fonctions de puissances de la totalité des données.
avec F parmi A B C D E F
I / Analyse des variatons différentielles des données y au lieus des y ( ex pour les fonctions arcs ) et retour à y par intégration.
J / Détermination de y sous la forme d'un développement limité ( ex fonction fraction rationnelle )
Principe du rapport entre le nombre de données de l'échantillon et le nombre de paramètres de l'équation de la courbe de régression
Sélectionner une fonction parmi celles précédentes ( 2 à n paramètres )
Écrire l'équation attendue appliquée à chaque donnée de l'échantillon comme si la courbe passait par le point représentatif. Une explication de ce choix sera donnée. On obtient un système avec, en considérant la moitié de l'échantillon avec des x positifs, plus d'équations que de paramètres à déterminer.
Transformer, par développement et en isolant un monôme de fonction dans un membre et par dégrés croissants, et un produit/fraction dans l'autre membre.
Transformer le demi-système à valeurs de données en x positives en un système d'équations linéaires comportant toujours plus d'équations que d'inconnues. Cette dernière transformation consiste à prendre le logarithme de chaque membre de l'équation.
Application :
où n couples (xi,yi) sont connus, f considéré et p1 p2 les deux paramètres à déterminer s'ils existent
Pour è données :
Avec
Qui deviendra après les transformations successives :
IL s'agit ensuite de déterminer une "moyenne" de f2(p22) et de f2(p23):
a / moyenne arithmétique :
b / moyenne géométrique :
c / moyenne harmonique :
d / moyenne au plus près ou fractionnelle :
e / moyenne barycentrique : avec
On en déduit différents p2. Ceux-ci seront examinés et retenus ou non selon le phénomène étudié et les tests, en privilégiant la d et la a.
3.3 / Principe de transformation du système pour une résolution du système au plus près
le système d'équations linéaires ainsi obtenu sera résolu par la méthode au plus près afin d'obtenir les paramètres de la première courbe de régression de base.
Le système insoluble est alors ramené à un système comportant autant d'équations que d'inconnues, facile à résoudre.
Dans le cas où cela conduirait à des impossibilité, il faudra choisir plus de données ou éliminer le type de fonction de régression de base, choisie initialement et en choisir une autre. Procéder par élimination.
sin étant impair, les équations pour x<0 sont vérifiées de fait de l'imparité.
ET ENFIN :
D'où , par la méthode de résolution des systèmes linéaires ( 2 inconnues en Log(a*sin(w)) et Log(cos(w)) pour 3 équations ):
Le résidu ( échantillonnage - sinusoïde calculée )sera traité par une sinusoïde si possible sinon il faudra considérer la suite.
S'il n'y a pas de solution vu les conditions de signe, on envisagera de considérer 9 données ou de tester un autre type de fonction impaire que la sinusoïde. On peut aussi considérer un nombre impair quelconque de données dès le départ mais il vaut mieux travailler par plages pour voir l'évolution des données.
sin étant impair, les équations pour x<0 sont vérifiées de fait de l'imparité.
d'où :
ET ENFIN :
D'où , par la méthode de résolution des systèmes linéaires ( 2 inconnues en Log(a*sin(w)) et Log(cos(w)) pour 3 équations ):
Le résidu ( échantillonnage - valeur centrale - ( 1-cosinusoïde calculée) )sera traité par une (1-cosinusoïde ) , si possible , sinon il faudra considérer la suite.
S'il n'y a pas de solution vu les conditions de signe, on envisagera de considérer 9 données ou de tester un autre type de fonction paire que la 1-cosinusoïde. On peut aussi considérer un nombre impair quelconque de données dès le départ mais il vaut mieux travailler par plages pour voir l'évolution des données.