H. Rouanet, M.P. Lecoutre, M.C. Bert, B. Lecoutre, J.-M. Bernard, L'inférence statistique dans la démarche du chercheur, Berne, Peter Lang, 1991, 168 p. Revue critique pour Le Travail Humain, 58, 1995.

    Quelle belle idée que de proposer en quelques pages la "substantifique moelle" d'un travail acharné d'une quinzaine d'années sur l'inférence statistique, déjà largement publié par ailleurs et qui aurait dû produire une révolution dans les pratiques des chercheurs ! Cette entreprise collective a le mérite, par une présentation claire, à la portée de toutes les bourses pécuniaires et intellectuelles, de montrer que ce n'est pas la difficulté d'intégration de ces nouvelles notions (notamment l'inférence fiducio-bayésienne) qui serait à la source de l'échec de leurs mises en pratique. Il faut donc fortement déconseiller la lecture de ce livre à ceux qui voudraient  y chercher des arguments sérieux pour rejeter ces méthodes, sur la base de leur difficulté de mise en oeuvre. Ils y trouveront plutôt des raisons de s'y intéresser de plus près, et des preuves que les logiciels et les tables dont ils disposent, pour accompagner le comportement magique du test de signification, sont dans bien des cas exploitables pour produire les analyses en prise directe sur les conclusions de leurs articles. Mais oui, on peut aller plus loin que de prouver que son "facteur" a un effet différent de zéro ! On peut même éviter la bévue de s'appuyer sur un test non significatif pour conclure à l'absence d'effet de son "facteur" ! On peut même, qui plus est, prouver que son modèle est une bonne approximation de ce qu'on peut tirer de ses observations (écart négligeable entre ses prédictions et ce qui peut être inféré des observations) ! Délectable, n'est-ce pas ?
    Sans la provocation de l'analyste du livre, les auteurs démontent avec une remarquable efficacité les processus cognitifs à l'oeuvre dans la démarche des chercheurs, qui sont conduits à un conflit inévitable entre leur attachement religieux aux tests de signification et leur irrépressible besoin de conclure sur des hypothèses qu'ils nont pas pu tester. La répression de ce conflit cognitif conduit même certains à ne plus regarder les observations, mais seulement le test, qui leur ouvrira les portes des meilleures revues (disent-ils...). On en arrive même à se refuser de publier des données qui ont conduit à des résultats non significatifs. C'est grave, car il y a peut-être, derrière ces données, des conclusions valides d'absence d'effet des facteurs expérimentaux, qui sont quelquefois plus intéressantes à produire que des effets triviaux, qui n'apportent pas toujours des découvertes à la Science, même s'ils sont "publiables".
    On trouve aussi dans ce livre quelques éléments d'histoire qui peuvent élever le débat "cognitif" à un niveau quasi sociologique. En effet, c'est à Fisher que l'on doit le principe de l'inférence fiduciaire, qui permet de résoudre ces conflits (nous sommes dans les années 30...). Cet échec est l'exemple même de ces blocages scientifiques dont les racines doivent être trouvées, moins dans les difficultés cognitives, que dans des déviations d'une organisation sociale de la recherche. C'est bien à ce niveau que la question se pose et c'est à ce niveau que les auteurs dece livre l'ont trop timidement posée. Mais quel courage faut-il à des chercheurs en sciences sociales pour démonter les mécanismes de fonctionnement d'une communauté scientifique dont ils font partie! Comme on a pu étudier avec profit les mécanismes pervers à l'oeuvre dans la sélection des articles et des communications ou dans la définition des grandes orientations scientifiques, il faudrait aussi dégager les causes organisationnelles des pratiques erronées de l'analyse statistique.
    L'erreur, dit-on, est humaine, mais on sait maintenant qu'elle est souvent sociale, avant d'être individuelle. Elle est aussi déterminée par un environnement technico-économique. L'ère informatique, puis micro-informatique, a mis sur le marché des logiciels qui répondent immanquablement aux habitudes d'analyse statistique des utilisateurs-clients. L'Ergonomie a souvent aussi montré combien les comportements sont déterminés par les outils techniques. Les idées de "l'Ecole française d'Analyse des Données" ne passeront dans les pratiques qu'au prix du développement de logiciels. Sur ce point, les auteurs de ce livre ont fait récemment des efforts de diffusion de logiciels bien documentés et accessibles. Souhaitons que ces efforts puissent se poursuivre et produire les effets attendus.
    Henry Rouanet introduit ce livre par deux textes de bonne venue, dont il a le secret, mettant en question les pratiques statisticiennes, en identifiant déjà un premier décalage entre la satistique mathématicienne (répondant aux intérêts de ses concepteurs qui n'adhèrent pas nécessairement à ceux de ses utilisateurs) et la statistique des chercheurs. L'amitié qu'il voue à ces derniers le conduit quelquefois à surestimer la qualité de leurs intuitions, en supposant qu'il pourrait exister une "interprétation naturelle" des données ou des "pratiques naturelles", dignes du "bon sauvage", qu'il faudrait promouvoir. Cette "nature" relève, bien entendu, de la culture, et peut aussi conduire à des bévues, si on ne fait pas cet "effort spécial pour prendre conscience de leur existence" (Feyerabend, cité par l'auteur).
    Marie-Paule Lecoutre présente ensuite une belle synthèse de ses travaux sur les jugements probabilistes "développés par des sujets adultes" (pourquoi ne pas dire tout de suite qu'il s'agit de chercheurs ?). C'est un chapitre qui, sous des allures feutrées, vous fera froid dans le dos: c'est du moins l'impression que j'ai éprouvée à sa lecture! Peut-être ai-je été moi-même sujet de l'une de ces expériences... Comment peut-on utiliser des outils (les tests) qu'on maîtrise si mal! Les déterminants sociaux des déviations des interprétations ne sont toutefois pas traités à leur juste mesure par l'auteur, bien qu'il les laisse clairement transparaître dans l'analyse des données recueillies. On trouve, dans les conclusions, des raisons sérieuses pour justifier l'utilité des travaux dont il est question dans la suite du livre.
    Henry Rouanet introduit les principes de l'inférence ensembliste, qui s'appuie sur la notion de proportion (d'échantillons) sans recourir d'emblée à la notion de probabilité, plus abstraite. Il les illustre par l'inférence sur une fréquence et Marie-Claude Bert par l'inférence sur une moyenne. Les enseignants apprécieront l'intérêt pédagogique d'une telle approche, de même que leurs étudiants, bien entendu.
    Bruno Lecoutre explicite avec brio le passage du test de signification à l'inférence fiducio-bayésienne, qu'il illustre par des inférences sur des moyennes et des écarts entre moyennes. Jean-Marc Bernard conclut ce livre par un chapitre d'une grande clarté concernant l'inférence sur des fréquences et sur des écarts entre fréquences. Cette dernrière question manquait dans les ouvrages précédemment publiés: on trouve enfin une méthode de rechange au chi-deux pour produire des inférences fiduciaires, au prix toutefois de l'acquisition d'un logiciel de calcul.
    Il faut conseiller ce livre, très bien illustré, d'une grande économie de formules et de signes cabalistiques, qui, outre son caractère introductif, fournit les procédures d'application immédiate, tout en renvoyant à des ouvrages plus détaillés pour des applications moins courantes.

J.-M. Hoc.