ROUANET H., BERNARD J-M., BERT M-C., LECOUTRE B., LECOUTRE M-P., LE ROUX B. (1998) New Ways in Statistical Methodology. Paris, Peter Lang, 276 p.

Il s'agit ici de l'édition anglaise de l'ouvrage paru dans la même collection en 1991, sous le titre : "L'inférence statistique dans la démarche du chercheur". Aussi défenseur qu'on soit de la francophonie, il vaut mieux lire ce livre dans cette édition anglaise car certains chapitres sont remaniés (toujours heureusement) et augmentés d'appendices, tandis que s'ajoutent un gros chapitre portant sur des données géométriques et un bref mais savoureux préambule (un dialogue imaginaire entre un sondeur et un statisticien) à ne pas manquer, même si on a déjà pratiqué l'édition française.

L'ouvrage s'adresse à un public déjà utilisateur habituel d'outils statistiques et pour qui "t de Student", "hypothèse nulle" et surtout "résultat significatif" sont des notions familières. La première partie (deux premiers chapitres) est une discussion critique de la pratique statistique courante, la seconde (chapitre 3) présente des expériences réalisées avec des chercheurs, la troisième partie constitue une introduction à 1'inférence ensembliste ou combinatoire, puis à 1 'inférence fiduciaire et bayésienne.

Dans le préambule, un sondeur, avant une élection, a observé 54,5% d'intention de vote en faveur d'un candidat X sur un échantillon de 1000 électeurs tirés au hasard. Le calcul lui révèle que ces 54,5% sont très significativement supérieurs à 50% : p = .002, donc 1-p = .998. Il croit pouvoir conclure que X a 998 chances sur mille de remporter l'élection, ce qui entraîne évidemment (?) la protestation du statisticien. Comme le sondeur a aussi calculé un intervalle de confiance .95 et trouvé comme limites 51,4% et 57,6%, il croit cette fois pouvoir affirmer qu'il ya 95 chances sur 100 que le pourcentage de supporters de X se trouve entre ces limites : nouvelle déception. Le cadre de référence classique, celui de Neyman-Pearson, ne permet pas, en effet, de faire ces prédictions qui sont portant celles qui intéressent le chercheur. Les hypothèses probabi1istes qui sous-tendent ce cadre de justification et d'interprétation, bourré objectivement de pièges, vont à 1'encontre de la démarche cognitive naturelle des utilisateurs, comme le vérifie M.-P. Lecoutre, dans le chapitre 3, après avoir interrogé des chercheurs en psychologie, tous très habitués à l'usage des tests statistiques. Elle leur a présenté, par exemple, une expérience imaginaire où on testait la différence entre deux moyennes à l'aide d'un t de Student. Après leur avoir donné la valeur du t et la probabilité correspondante, on leur demandait, dans le cas d'une réplique de l'expérience : "quelle est, pour vous, la probabilité que pour la deuxième expérience le résultat du test t de Student soit au moins aussi significatif que pour la première expérience ?" Si une telle question vous embarrasse, lecteur, vous êtes en bonne compagnie ! Il s'agit pourtant d'une question fondamentale pour un chercheur, mais les outils traditionnels n'aident guère à y répondre.

Cette démonstration empirique vient à l'appui des deux lumineux premiers chapitres où Rouanet, après un utile historique, expose très clairement et de façon exhaustive les divers présupposés de cette inférence statistique classique (désignée par "cadre fréquentiste"), et délimite ce qu'elle permet et ne permet pas de conclure (il n'existe vraisemblablement à l'heure actuelle aucun précis comparable, en français ou en anglais). Cela permet d'expliciter pourquoi l'usage traditionnel des tests statistiques crée finalement un tel malaise chez les chercheurs. Devant les difficultés accumulées, tant de mises en garde intimidantes, ils en arrivent en effet à cette attitude légaliste qui consiste à se préoccuper de la validité de faire tel ou tel test avant même de la pertinence, malaise qui les conduit parfois à des propos désabusés du genre : "lorsqu'une recherche est bonne, elle n'a pas besoin de statistique".

Si une partie de l'ouvrage vise à désacraliser l'idéologie dominante, celle de Neyman et Pearson, ce n'est absolument pas pour s'enliser dans une critique stérile et jeter le bébé avec l'eau du bain. La clarification des interprétations possibles dans le cadre fréquentiste aide au contraire à décider, en connaissance de cause, des cas où l'on peut s'en contenter. Rouanet et ses collègues défendent certes une démarche alternative (cf. le titre "New Ways..."), mais avec le souci constant de conserver autant que possible les procédures habituelles, ce qu'on réalise plus aisément si on sépare clairement algorithmes et cadre de justification et d'interprétation probabi1iste, comme l'ont montré Rouanet et alii (1990) dans leur manuel : "Statistique en Sciences Humaines : analyse inductive des données" .

L'alternative proposée se résume fort simplement : les probabilités de l’approche fréquentiste vont de l’inconnu (les paramètres parents considérés comme fixes) vers le connu (les données possibles); il est plus naturel et finalement plus efficace d'aller du connu (les données effectivement observées) à l'inconnu, les probabilités d'hypothèses. Le deuxième chapitre se conclut en traçant les grandes lignes de cette démarche alternative. Tout d'abord, ne jamais se lancer dans des procédures d'inférence avant d'avoir épuisé les ressources des statistiques descriptives. Cette première phase doit permettre d'établir des conclusions descriptives concernant les effets observés. L'inférence statistique aura alors pour objectif d’étendre si possible ces conclusions descriptives en tenant compte des fluctuations d’échantillonnage.

L’inférence combinatoire ou ensembliste, prolongement naturel de la statistique descriptive dans le cas d'ensembles finis, va constituer le premier degré de 1'inférence. L'idée de base très simple en est de ne retenir d'une procédure que son algorithme, en remplaçant dans les conclusions les formulations probabi1istes par ses formulations en termes de proportions. En gardant donc les techniques de calcul familières, on pourra ainsi évaluer le potentiel inductif des données en termes de typicalité d'échantillons vis-à-vis de populations de référence, d'homogénéité entre groupes d'observations, etc. L'inférence combinatoire offre non seulement l'avantage d'offrir un cadre de justification beaucoup plus naturel et donc plus accessible mais présente un intérêt en soi puisqu'elle s'applique à des situations où des modèles probabi1istes seraient non-valides, voire non-pertinents.

Cette approche combinatoire est détaillée par Rouanet et Bert dans le chapitre 4, exemples à l'appui. Outre son apport théorique, il n'est pas mauvais de souligner l'intérêt pédagogique de 1'inférence combinatoire : en évitant aux étudiants de se trouver confrontés prématurément aux difficultés conceptuelles associées aux interprétations probabi1istes, elle leur permet de se concentrer sur les seuls algorithmes.

Si l'approche inférence combinatoire est plutôt originale dans le contexte de la statistique mathématique (même si le groupe de Rouanet se trouve, en ce domaine, en la bonne compagnie de Maurice Allais, prix Nobel d'économie), 1'inférence bayésienne, au contraire, a donné et donne lieu à une très abondante littérature mathématique depuis l'article de Bayes en 1763, mais ses procédures sont pratiquement inconnues des chercheurs en psychologie et autres sciences humaines. Les trois derniers chapitres permettront aux lecteurs de s'initier, à travers des exemples très détaillés (où l'on suivra la démarche pas à pas depuis les conclusions tirées de statistiques descriptives conformément à la doctrine défendue par Rouanet au chapitre 2), aux procédures d'inférence bayésienne et d'inférence fiduciaire (les distributions fiduciaires sont souvent très proches des distributions bayésiennes, d'où l'appellation d'inférence fiducio-bayésienne dans le chapitre de B. Lecoutre).

La grande caractéristique des procédures bayésiennes par rapport aux procédures traditionnelles est d'inverser le raisonnement inférentiel : au lieu de baser le raisonnement inductif sur la distribution d'échantillonnage qui va de l'inconnu (les paramètres parents considérés comme fixes) vers le connu (les données observables considérées comme variables), l'approche bayésienne conduit au contraire à des probabilités naturelles : elles vont du connu (les données que l'on a effectivement observées) vers l'inconnu (les paramètres parents).

Son approche prédictive (on prolonge la conclusion descriptive obtenu sur l'échantillon en recherchant la probabilité de retrouver la même propriété sur un nouvel échantillon) répond donc directement cette fois à la question de la reproductibi1ité des résultats.

De plus, ces techniques vont permettre non seulement de tester si l'effet existe, si le résultat est significatif, mais encore d'estimer avec une certaine probabilité (.90 par ex.) si cet effet est important (au chercheur de fixer la grandeur minimale qu'il estime importante). La littérature ne croule-t-elle pas d'effets significatifs mais si petits qu'ils n'ont guère d'intérêt ? On pourra réciproquement juger de la réelle insigifiance de l'effet observé comme il est montré dans le dernier chapitre entièrement nouveau par rapport à l'édition française.

Quand on fait l'effort de s'initier aux procédures bayésiennes, on découvre que tout ce qui peut être fait dans le cadre fréquentiste trouve une réinterprétation plus naturelle dans le cadre bayésien alors que des problèmes dont la formulation est naturelle (problèmes prédictifs notamment), mais qui n'ont pas de solution dans le cadre fréquentiste, en trouvent au contraire une dans le cadre bayésien.

Comme il existe actuellement des logiciels permettant d'exécuter aisément les diverses opérations requises par le cadre bayésien, on peut espérer que ce remarquable ouvrage, unique en son genre, convaincra de nombreux chercheurs et enseignants d'adopter la démarche qu'il prône.

A.        DUFLOS