Les moindres carrés, cas non linéaire

Cas où on peut par des transformations se ramener à des fonctions linéaires:
Dans certains cas , une modélisation avec une méthode linéaire est directement possible, sinon, il est souvent possible de faire une...

Linéarisation:
Si les variables x1,...,xn sont séparables, on peut, après les avoir transformées, utiliser les méthodes de régression linéaire:

Il suffit alors de transformer les variables pour l'étalonnage comme pour la prédiction:

Cas particulier classique: la régression polynomiale: une seule variable x remplacée par n variables x1...xn:

Ainsi, si la fonction est peu non-linéaire, on va pouvoir la modéliser à l'aide d'un polynome: il suffira d'ajouter des variables carré, cube etc..., voire, dans le cas multivariable, des produits croisés. Mais le nombre de variables va rapidement devenir important.


 
Méthodes itératives:
* Méthode de Newton:
On doit résoudre le système de p équations non linéaires à p inconnues a1...ap (1):

Pour tout q, 1 £ q £ p: 
qui peut se ramener à:

Pour tout q, 1 £ q £ p: gq(a1,...,ap)=0

Ce système peut se résoudre itérativement par la méthode de Newton, qui consiste, en résumé à trouver une estimation de la solution a10...ap0, puis à linéariser aux environs de ce point, et enfin à résoudre le système d'équations linéaires. Il faut ensuite recommencer avec les solutions jusqu'à la convergence souhaitée.

Soient (a10...ap0) une estimation de la solution. On peut alors supposer que

Pour tout q, 1 £ q £ p: 
soit, en faisant un développement limité du premier ordre autour de ce point:

Pour tout q, 1 £ q £ p: 
qui est un système de p équations linéaires de solution (a11...ap1). Il suffit alors de recommencer en linéarisant de nouveau autour de ce point jusqu'à la convergence souhaitée.
C'est une méthode à convergence rapide et qui ne nécessite qu'un point de départ. Mais elle est analytiquement très lourde (il faut connaître analytiquement les dérivées des fonctions gq et donc les dérivées secondes des fonctions fj!) et la résolution des systèmes linéaire oblige à inverser une matrice de dimension p: si cette matrice est singulière ou presque, le risque de blocage ou de divergence est grand.


Les 2 méthodes suivantes sont des méthodes dites d'optimisation. Ces méthodes consistent à optimiser une grandeur vers un état extrémal (minimal en ce qui nous concerne) en faisant évoluer ses variables.

La grandeur qui nous intéresse est:

qui doit être minimale.

Nous développerons le cas de 2 paramètres a1 et a2, mais les méthodes sont généralisables mais plus complexes pour des dimensions supérieures.

Ces méthodes sont donc des méthodes itératives partant d'un ou plusieurs points initiaux et se dirigeant plus ou moins lentement mais sûrement vers la solution:



* Steepest gradient:

A partir d'un point initial, calculer les valeurs correspondant à 4 autres points répartis autour de ce point, et alignés 2 à 2 avec lui:

Choisir comme direction celle du point donnant la plus faible valeur et placer le point suivant dans cette direction.à une distance dq. Si la nouvelle direction est opposée à la précédente (point 6), prendre un point situé entre le dernier et l'avant dernier. On peut aussi, si la nouvelle direction est la même, doubler dq. Il existe en fait de nombreuses variantes, plus ou moins élaborées pour placer le point suivant.


* Méthode du simplex:
Un simplex est, en dimension n, un ensemble de n+1 points, c'est donc un tétraèdre en dimension 3 et un triangle en dimension 2.
En dimension 2, la méthode débute avec 3 points disposés en triangle (1, 2 et 3):

Les règles pour placer le point suivant sont les suivantes:
 



D'autres méthodes plus performantes mais plus complexes existent, (ex : la très utilisée méthode Levenberg-Marquardt) on se reportera à la littérature.
Mais l'algorithme non linéaire le plus utilisé en analyse multivariable est le réseau Neuronal (Neural Network).