(no subject)

From: Eric Laloum (laloum@pcm.ecp.fr)
Date: Thu Jan 16 1997 - 18:04:10 MET


Bonjour,

Lun 13 Jan, Nicolas Morellet cite un cas ou toutes les iterations de la
regression PLS sont significatives avec un R2=1.

Ceci s'explique (assez) simplement :

On peut imaginer qu'a la premiere iteration une combinaison lineaire des 11
var. explicatives Xi est calculee ; cette combinaison forme une nouvelle
var. explicative (factorielle) F1 dont la covariance avec Y est maximale.

On peut ecrire Y = b1 F1 + Y1.

Generalement le residu Y1 est moins lie (voire plus du tout) avec les var.
explicatives ; mais dans le cas d'un R2=1, Y est une combinaison lineaire
exacte des explicatives et comme cette combinaison est differente de F1 (ce
serait en fait une "coincidence" que F1 calculee pour maximiser la
covariance maximise aussi la correlation) alors Y1 = Y - b1F1 fait aussi
partie de l'espace vectoriel engendre par les explicatives et n'est pas
nul.
A la seconde iteration on se retrouve donc dans le meme cas qu'a la premiere :
        var. a expliquer Y1
        var. explicatives (orthogonales a F1 mais toujours dans l'espace des Xi)
        R2=1
la variable factorielle trouvee F2 est aussi significative ... ainsi que
F3, F4,.. F11.

En fait dans le cas que vous avez choisi c'est la RLM qui donne la
meilleure prediction de Y (Y elle-meme). Et si on garde a l'esprit que la
regression PLS tend vers la RLM au fil des iterations, le resultat obtenu
est plutot normal.

Bonne reception

_____________________________________________________
Eric Laloum
Laboratoire de Physico-Chimie Minerale et Moleculaire
Ecole Centrale Paris
Tel : 01 41 13 12 20



This archive was generated by hypermail 2b30 : Sat Feb 10 2001 - 10:21:26 MET