lundi 30 avril 2012
Electionscope : le modèle qui trouve Nicolas Sarkozy gagnant à 50,2%...
Le site de prévisions et d'analyses
économique et politiques, Electionscope, est l'un des rares observateurs
à ne pas voir François Hollande vainqueur de la présidentielle. Les
fondateurs du site utilisent un modèle dont les pronostics se sont
toujours révélés exacts depuis la fin des années 1990... Ils l'ont
refait tourner après le premier tour.
Bruno Jérôme : On a remarqué des instituts qui penchaient véritablement pour certains candidats ou blocs politiques.
Par
exemple, on note que Jean-Luc Mélenchon a été majoré par les instituts
CSA et TNS Sofres. L’IFOP ou Opinionway avaient tendance à plutôt le
minorer. L’observation est plus nette pour les deux principaux
candidats. On a vu que BVA et TNS avaient une véritable tendance
à majorer François Hollande et que Opinionway et Harris Interactive,
voire l’IFOP, avaient au contraire tendance à minorer le candidat
socialiste.
Il est extrêmement délicat
d’être totalement affirmatif sur le fait que ces instituts roulent pour
un candidat ou un autre. Il faudrait regarder à ce moment-là les
relations qui existent entre les sondeurs et leurs clients, médias et
politiques.
Mais notre constat empirique montre tout de même un biais systématique de 6 instituts sur 8.
On a également observé que certains instituts avaient littéralement
changé de comportement en cours de route. Pendant trois mois, CSA avait
tendance à majorer Nicolas Sarkozy et, au dernier moment, ils se sont
mis à le minorer. TNS Sofres a eu exactement le même comportement. Il y a
donc un mimétisme entre certains instituts.
L’institut
qui majore le plus est BVA. Sofres et Ipsos ont également tendance à
sur-majorer ou minorer des candidats. Les bons élèves seraient plutôt
Opinionway, Harris Interactive ou l’Ifop.
Il s’agit d’un modèle statistique qui est fait sur des séries de données très longues (sur la 5ème République). Nous ne mesurons pas des intentions de vote mais des facteurs qui pourraient statistiquement impacter le vote.
Nous prenons principalement en compte le taux de chômage, la variable
clé en France depuis 1974. Ensuite, nous évaluons la crédibilité et la
popularité de l’exécutif. La popularité, retravaillée et réinterprétée,
est un indicateur qui nous permet de déterminer le socle de crédibilité
de l’exécutif. Les tests empiriques qui ont été faits sur l'indicateur
de popularité montrent que l’économie à court terme représente au
minimum 50% de ce dernier.
Nous obtenons le chiffre de 50,2% pour Nicolas Sarkozy au second tour.
Il est important de noter que le modèle place la droite en tête depuis
octobre 2010, date à laquelle le chômage a commencé à s’améliorer avant
de se dégrader à nouveau à la fin de l’année 2011.
Nous
ne toucherons pas à nos prédictions. En réalité, nous modélisons
également le second tour. Nous transformons les voix du premier tour en
voix de second tour mais notre formule de transformation est purement
politique. Elle prend en compte les grands rapports de force sous la 5ème
République, la déperdition des voix entre les blocs dans cette période,
les disparités régionales et l’influence et la déperdition du Front
national et du Modem sur le bloc de droite. Historiquement, il y
a toujours eu une déperdition des voix pour la droite d’un tour à
l’autre. Dans ce cas précis, nous avons pris en compte la déperdition
moyenne encourue dans les régions à cause du FN et du centre.
L’intérêt de notre démarche est également dans son découpage régional.
L’influence du Modem, par exemple, n’est pas la même selon les régions.
Dans certaines régions, on retrouve un Modem de gauche qui se rapporte à
gauche. Dans d’autres, on remarque l’inverse. C’est la même chose pour
le Front national, les gauches « lepinistes », lorsqu’elles sont en
majorité dans certaines régions, se rapportent à gauche. Le sondage
typique mesurera un effet global sur un panel global.
De
plus, nous fixons la situation économique quatre mois avant le premier
tour. Empiriquement, c’est la mesure la plus pertinente. Cela a
aussi l’avantage d’éviter les bruits de campagne, les évolutions
volatiles de dernière minute qui peuvent être manipulées et les effets
de campagne qui s’annulent entre eux.
Enfin,
notre outil est révisable. Quand on se trompe, il est assez aisé de
savoir pourquoi, d’identifier des facteurs objectifs qui ont conduit à
ce que l’on s’éloigne du résultat.
Tout
d’abord, il est nécessaire de préciser que notre modèle comporte une
marge d’erreur de + /- 1,7%. 50,2 % est une mesure moyenne optimale. On pourrait se retrouver avec un François Hollande au dessus de 50% ou un Nicolas Sarkozy à presque 52%...
Ensuite,
vous avez raison, le delta qui manque est celui de l’image. Mais ce
modèle n’est pas fait pour cela. Il y a une autre chose qui peut jouer
sur l’écart entre notre méthode et celle des instituts de sondage
classiques, c’est ce que l’on appelle l’autoréalisation des
anticipations. Parfois, quand certains électeurs observent des
sondages et ne se fondent que sur eux pour voter, il peut arriver
qu’ils soient tentés par la majorité. Or, jusqu’à présent, sous la 5ème République, cela n’a pas eu vraiment d’impact. Il était impossible de dire que les sondages modifiaient quoique ce soit.
Nous sommes ici en présence d’un fait exceptionnel. La gauche au premier tour est à 43,7% et elle se retrouverait à près de 55% au second tour. Ce qui, au vu de l’histoire de la 5ème République, est du jamais vu.
Jusqu’à présent, il a fallu qu'elle atteigne 49% des voix au premier
tour pour l’emporter. Notre modèle ne mesure pas cela. Il mesure
seulement les reports moyens et la déperdition à droite que l’on a
constatés jusqu’à présent. Or cette déperdition n’est pas de l’ordre d’une perte de 10 points.
Inscription à :
Publier les commentaires (Atom)
0 commentaires:
Enregistrer un commentaire