Recherche

Deirdre McCloskey a formulé une critique puissante de la rhétorique économique. À l’occasion de la traduction française d’un de ses ouvrages, François Facchini revient sur ses travaux pour éclairer les débats actuels autour de la scientificité de l’économie.

La traduction française du petit ouvrage The Secret Sins of Economics, publié en 2002 par Deirdre N. McCloskey, est l’occasion de revenir sur le parcours intellectuel et les positions épistémologiques de cette économiste américaine au savoir éclectique et encyclopédique.

Cet ouvrage d’épistémologie économique reprend en effet des thèmes déjà abordés dans des ouvrages précédents (1994a, 1994b) et conduit à s’interroger sur l’apport de l’économétrie au savoir des économistes. Écrit comme une intrigue policière, Les péchés secrets de la science économique participe à la critique des tests de significativité statistique et se propose de remettre à sa juste place une bonne partie de la littérature économique.

Le présent article entend ainsi profiter de la parution de ce petit ouvrage pour revenir sur quelques-unes des thèses d’épistémologie économique du Professeur McCloskey et pour proposer à leur lumière une lecture, qui se veut originale, de la controverse suscitée par l’ouvrage de Cahuc et Zylberberg (2016) dans le monde des économistes français.

Une économiste à la posture postmoderne

D. McCloskey a une position originale dans la communauté internationale des économistes. Professeure à l’Université d’Illinois, elle a enseigné l’économie, l’histoire et les sciences de la communication dans différentes universités à travers le monde. Elle a d’abord été une représentante de la nouvelle histoire quantitative, pour s’intéresser ensuite aux fondements épistémologiques des sciences économiques et faire une critique de l’usage des tests économétriques. Dans les années 1980, le Professeur McCloskey prend, en effet, ses distances avec le positivisme qui règne à l’université de Chicago (Stigler et Friedman) où elle a été formée et fonde avec Judith Nelson un programme d’enquête sur la rhétorique (« On the Rhetoric of Inquiry ») proche de l’herméneutique économique de l’école austro-américaine (McCloskey 2010).

La méthodologie de la majorité des économistes, affirme D. McCloskey se fonde sur la croyance dans le positivisme. Le positivisme est une forme de modernisme qui s’inscrit dans le programme de Descartes et se propose de fonder la connaissance sur le doute radical. Une telle croyance est, cependant, impossible à appliquer dans une science sociale comme les sciences économiques. L’économie ne devrait pas alors prendre modèle sur la physique, mais sur la linguistique. Dans Les péchés secrets de la science économique, D. McCloskey complète sa théorie de la rhétorique économique (McCloskey 1985) en montrant les limites de l’économie mathématique d’une part et des tests de significativité d’autre part. Elle renforcera son argumentaire en 2008 dans Le culte de la significativité statistique, publié avec Stephen Thomas Ziliak.

Forces et faiblesses des sciences économiques modernes

Comme son nom l’indique, Les péchés secrets de la science économique a pour objet de révéler les insuffisances et les fautes de l’économie dominante. Les trois premiers chapitres discutent de ce qui pourrait passer, à première vue, pour les « péchés » des économistes (chapitre 1) mais qui s’avèrent être des vertus. Ces trois vertus sont : l’obsession de la mesure, le goût pour les mathématiques et le biais en faveur du libéralisme économique. Sont ensuite discutés ce qui pourrait apparaître comme des péchés véniels mais qui se révèlent aisément pardonnables, comme l’usage immodéré de la figure de l’homo oeconomicus (chapitre 2).

Les derniers types de péchés sont les péchés impardonnables. Ils font l’objet du troisième chapitre et sont partagés par toutes les sciences sociales qui pensent leur science dans le cadre du positivisme. Il s’agit du désintérêt des économistes pour les enquêtes, l’histoire économique, l’histoire des idées ainsi que leur arrogance en matière d’ingénierie sociale.

Une fois établie cette liste de faiblesses et de péchés véniels, le chapitre 4 se propose d’exposer, pour conclure, les deux péchés que la science économique ne partagerait quasiment avec aucune autre science.

Avant de les énoncer, D. McCloskey donne sa définition d’une science économique sans péché. Une telle science aurait« le monde pour objet » (p. 73), ce qui n’est possible, ajoute-t-elle, « que si elle accepte de théoriser, d’une part, et d’observer, d’autre part ». En apparence du moins, ce serait l’ambition de l’économétrie qui selon la définition qu’en donne Ragnar Frisch (1933) [1] articule la théorie économique littéraire, la formalisation mathématique et les statistiques pour faire des sciences économiques un savoir positif et constitué de propositions falsifiables au sens de Popper.

La défense de cette méthode hypothético-déductive donne à la science économique les apparences d’une physique sociale, mais ne fait pas de l’économie une science, car les mots « théoriser » et « observer » sont mal compris par les économètres. Théoriser ne signifie pas construire des théorèmes qualitatifs. Observer ne veut pas non plus dire chercher des significativités statistiques. Ces deux erreurs font l’objet de toute la fin du livre. Explicitons chacune de ces propositions.

Théoriser ne signifie pas, tout d’abord, construire des théorèmes qualitatifs comme le croit une partie des sciences économiques lorsqu’elles élaborent, par exemple, les deux théorèmes de l’économie du bien-être [2]. Ces deux théorèmes montrent sous quelles conditions une économie de marché réalise une situation pareto-optimale [3] c’est-à-dire une forme d’idéal social. Ces conditions sont très restrictives et permettent de justifier in fine l’intervention de l’État dans l’affectation, la stabilité et la répartition des ressources. Paul Samuelson et Gérard Debreu sont sans doute les économistes les plus représentatifs de ce type de recherche, que le théoricien des effets incitatifs des droits de propriété Harold Demsetz [4] a appelé l’économie du Nirvana. L’économiste compare le marché réel à un marché de concurrence pure et parfaite et en déduit que le marché réel est défaillant, alors que ce dernier n’est qu’une construction formelle des économistes mathématiciens.

Observer, ensuite, ne signifie pas chercher des significativités statistiques. Le plus grand défaut des économètres serait de confondre « significativité substantielle et significativité statistique » (p. 91). La méthode déductive dit qu’un phénomène est significatif s’il illustre une loi issue du raisonnement, comme la loi de l’offre et de la demande ou la loi des avantages comparatifs de Ricardo. Le positiviste et l’économètre, figure incontestée des sciences économiques depuis la création de la revue Econometrica en 1933, proposent une autre définition de la significativité. Un fait est statistiquement significatif s’il est régulier. Comme le chercheur n’a jamais un nombre d’observations exhaustif pour inférer de ses observations l’existence d’un fait général, il utilise les outils de la statistique inférentielle. Il s’agit de s’assurer que les résultats trouvés sur une population donnée sont généralisables (Mbengue 2010).

Un exemple de test statistiquement significatif

Je veux savoir si les pays avec un secteur public faible, les pays libéraux, ont un meilleur taux de croissance que la moyenne. Je collecte à cette fin des données pour différents pays et une période de temps donné. En moyenne, je constate que les pays qui ont les ratios dépenses publiques/PIB les plus élevés ont en moyenne un taux de croissance plus faible de 2 points. Ce résultat est-il fiable ? Non, car il repose sur des observations non exhaustives de la taille du secteur public dans chaque pays. Ce résultat peut relever alors du pur hasard. Il dépend de fait énormément de la composition de l’échantillon. Il serait très fiable si pour un même ratio le taux de croissance de la production était toujours le même. Dès qu’il existe de fortes différences entre les pays la fiabilité du résultat diminue. Deux pays ayant un secteur public de taille égale n’ont pas le même taux de croissance. Il peut alors y avoir une grande variabilité des coefficients à l’intérieur de l’échantillon. La conséquence est que la composition de l’’échantillon a un effet décisif sur la valeur et le signe du coefficient qui lie la taille du secteur public G au taux de croissance de la production Y dans l’équation Y=αG.Le test de significativité vise à s’assurer qu’il ne s’agit pas d’un hasard en l’absence d’échantillon exhaustif. Il s’agit de déterminer si le coefficient α est véritablement différent de 0 (hypothèse nulle), c’est-à-dire si la variable d’intérêt, ici G, a un pouvoir explicatif dans la variation de Y.

Le test de significativité statistique repose sur l’hypothèse nulle (dite aussi H0) c’est-à-dire l’inexistence d’une relation entre dépense publique (G) et croissance de la production (Y). Ce test pose, par conséquent, la question suivante. Quelle est la probabilité qu’aucune relation n’existe entre G et Y ? Le test suppose qu’il n’existe aucune relation entre G et Y. Si je pouvais avoir un échantillon exhaustif et que tous les pays libéraux avaient le même taux de croissance en moyenne supérieur à 2 points du taux moyen des autres pays, alors je pourrais affirmer que cela est un résultat très fiable. Si au contraire, les taux de croissance des pays libéraux sont très différents d’une période et d’un pays à l’autre, alors le résultat serait très variable d’un échantillon à l’autre. On peut vouloir estimer cette variabilité dans l’échantillon. Cela passe par le calcul de l’erreur-type (standard error). Si l’erreur type est de 0,5 points de croissance, il est possible de déterminer si le fait qu’en moyenne les pays libéraux ont deux points de croissance supplémentaires est statistiquement significatif. Je divise les 2 points de croissance supplémentaire par l’erreur-type 0,5 : j’obtiens 4. Je peux alors choisir un risque d’erreur lorsqu’on affirme que le taux de croissance des pays libéraux est de 2 points supérieur à la moyenne : le risque de première espèce sera de 1%, 5% ou 10%. Ce risque de première espèce est celui de rejeter l’hypothèse nulle alors qu’elle est vraie. Le risque de deuxième espèce est d’accepter l’hypothèse nulle alors qu’elle est fausse. . Pour connaître la valeur de ce risque, il faut comparer l’erreur-type ici 4 aux valeurs calculées par William Gosset et réunies dans sa table, la table de Student. Plus on veut que ce risque soit faible, et plus il faudra que la statistique de Student soit élevée. En pratique, il faut que mon chiffre 4 soit plus grand que le chiffre de la table pour chaque risque. Pour un nombre d’observations donné, la table de Student indique trois valeurs, une pour chaque niveau de risque. Ainsi, pour un grand nombre d’observations, on aura respectivement 1,65 pour un risque d’erreur à 10%, 1,96 pour un risque à 5% et 2,58 pour un risque à 1%.

Généralement, le niveau standard à partir duquel on dit qu’une variable est « significative » est 5%. Pour que la proposition « la croissance des pays libéraux est en moyenne supérieure de 2points à la moyenne de la croissance de l’ensemble des pays de l’échantillon » soit jugée statistiquement significative il faut donc que l’écart à la moyenne soit élevé (2 points) et que la variabilité à l’intérieur des pays libéraux soit faible (0,5 points ici). Si l’erreur type avait été de 2 et non de 0,5, le test aurait été dit non significatif. Cela conduit à deux types de débats : un débat sur la grandeur de l’effet (effect size) et un débat sur la significativité substantielle.

C’est dans ces débats que se placent McCloskey (2016) et McCloskey et Ziliak (2008). La significativité statistique ne serait ni nécessaire ni suffisante pour qu’un résultat soit scientifiquement significatif, car

Déterminer si une chose compte ou non, c’est une affaire humaine, les chiffres représentent des choses, mais une fois qu’on les a recueillis, c’est à nous en dernière analyse, qu’il revient de déterminer s’ils comptent ou non. (p. 93)

L’hypothèse nulle, tout d’abord, n’est pas injustifiée, mais elle n’est pas non plus fondée sur un fait statistique. Il est important, aussi, de noter qu’avec le principe de l’hypothèse nulle (H0) « tout se passe comme si seuls deux modèles existaient » (Mbengue 2010) ; le premier modèle soutient qu’il n’y a aucune relation entre G et Y, le second que la relation est de signe négatif.

La significativité statistique est, ensuite, une affaire de probabilité et d’appréciation. L’inférence statistique ne produit aucune certitude. Ses propositions sont des jugements plus ou moins probables. Il est plus ou moins probable que les pays libéraux aient un taux de croissance en moyenne supérieur à la moyenne. S’il n’y a pas de certitude, cela signifie que l’économétrie garde toujours en elle une marge d’erreur.

Le seuil de significativité de 1%, 5% ou 10% (voir encadré) est de plus arbitraire. C’est en comparant la valeur p (ou p-value) à celles de la table de Student que l’on accepte ou non l’hypothèse H1. Il faut que la valeur p soit très faible pour rejeter l’hypothèse, mais très faible par rapport à quoi ? Par rapport à un seuil qui est défini de manière arbitraire par le chercheur (Ziliak et McCloskey 2008). McCloskey (p. 86-90) prend comme exemple la querelle entre les médecins sur la prescription de mammographies de routine permettant de dépister le cancer du sein à un stade précoce. Le dépistage dès 40 ans a sans doute un effet, mais ne passe pas le test de significativité (de seuil 5%, 1%, 0,1%, etc.). Cela signifie qu’en moyenne les mammographies précoces permettent de détecter un cancer du sein et de sauver des vies, mais que la probabilité pour que l’hypothèse nulle ne soit pas rejetée n’est pas assez forte.

Ziliak et McCloskey (2008) utilisent un autre exemple, toujours dans le domaine médical. Un patient cherche à perdre du poids. Le médicament A fait perdre entre 1 et 3 kilos à95% des personnes qui l’utilisent. Un médicament B peut conduire 95% des personnes qui l’utilisent à grossir de deux kilos ou à perdre jusqu’à 14 kilos. L’écart type du médicament A ou la variabilité du médicament est plus faible que celui du médicament B. Les deux médicaments ont un impact statistiquement significatif, mais certains patients peuvent préférer prendre le médicament B, car ils acceptent de prendre le risque de gagner du poids (2 kilos) ; il n’ont en effet que 2,5% de chances de grossir. L’agence sanitaire qui prendrait la décision d’interdire B priverait sans raison objective le patient d’une telle alternative. Elle ferait un choix sur la base d’appréciations subjectives qui privilégient la précision au détriment de l’efficacité moyenne. Certains individus vont préférer de hauts niveaux de gain mais avec des risques de perte importante alors que d’autres vont préférer la certitude des gains même si ces derniers sont faibles. Un État a peut être raison de privilégier une faible croissance de nature certaine à une forte croissance incertaine. Tout le monde préférerait une forte croissance avec un risque de récession nul, mais généralement il faut choisir.

Cela signifie qu’il ne faut pas écarter les résultats qui ne passent pas le test de significativité. Aucun éditeur de revue scientifique ne publierait pourtant de résultats qui ne seraient pas en accord avec cette convention statistique. Le positivisme a en effet inscrit dans les canons de la science la significativité à 1%, 5% et 10% ; au delà, le résultat est jugé non significatif. Cela veut dire que l’économiste peut observer en moyenne que la baisse des dépenses publiques peut augmenter la croissance de la production, mais que la probabilité pour que l’hypothèse nulle ne soit pas rejetée n’est pas assez forte. Il ne pourra pas publier son résultat. Une politique publique d’inspiration scientifique ne pourrait donc pas en avoir connaissance, car l’économiste statisticien préfère la précision à l’importance de l’effet.

Le deuxième argument est moins technique, mais tout aussi important. Une autorité sanitaire ou de politique économique peut prendre une décision sur la base d’un test de significativité statistique et mettre des hommes et des femmes en situation de danger de mort, car ils ont préféré la précision statistique à la pertinence économique ou médicale. Lors d’un test, un médicament C provoque cinq problèmes cardiaques chez les patients qui l’utilisent, contre un seul dans le groupe témoin. Le médicament peut être mis sur le marché parce que quatre incidents cardiaques en plus n’est pas significatif. Le médicament C peut provoquer des problèmes cardiaques, mais pas de manière significative. Pourtant un tel médicament met des patients en danger. Un test de significativité peut alors tuer des malades et/ou conduire à des politiques publiques totalement inefficaces. Il peut être à l’origine du chômage, de la pauvreté et des inégalités. Un gouvernement par la science, quand cette science est dominée par le simple test de significativité statistique, peut en ce sens nuire au bien-être social.

McCloskey et Ziliak ne souhaitent pas rejeter l’inférence statistique, mais rappeler qu’un résultat statistiquement significatif n’est pas plus intéressant qu’un résultat non statistiquement significatif. C’est le principe même de la significativité substantielle. Ces débats dépassent les sciences économiques. Ils traversent toutes les sciences, humaines ou non, qui ont l’espoir de déterminer des régularités grâce à des inférences statistiques. L’Association Américaine de Statistique (American Statistical Association) a d’ailleurs publié une mise au point officielle dans son numéro de 2016 de The American Statistician [5].

Pour une analyse rhétorique des controverses actuelles

Ces deux arguments contre le positivisme et l’idée que l’économie est plus proche de la littérature que de la physique offrent un antidote à l’arrogance d’une partie des économistes qui, par la violence de leur rhétorique, dévoilent peut-être leur faiblesse et les doutes qu’ils entretiennent à l’égard d’une science qui ne réussit pas pour l’instant à convaincre le plus grand nombre de sa pertinence.

Comme le souligne Ludovic Frobert (2004), D. McCloskey cherche à se dresser contre l’arrogance « qui accompagne parfois l’emploi exclusif des outils quantitatifs en économie ». Sans que cette arrogance puisse être associée aux débats suscités par le livre de Pierre Cahuc et André Zylberberg (2016) parmi les économistes français, on peut trouver dans cette épistémologie postmoderne des outils pour critiquer la position de ces deux économistes et pour mieux comprendre les réels enjeux des débats qu’ils provoquent.

P. Cahuc et A. Zylberberg adoptent, en effet, une définition positiviste de la science économique. L’argument principal de leur livre est que l’économie produit un savoir scientifique de même nature que la médecine ou la biologie. Il ajoute que ce savoir devrait traiter les maux sociaux et remplacer les représentations idéologiques et les intérêts qui aujourd’hui orienteraient les choix de politique publique. Un tel argumentaire suppose que le test de significativité statistique n’a pas à être interprété, autrement dit qu’il n’y a pas de choix.

Or, si les articles scientifiques se trompent sur l’interprétation de la significativité, comme le soutiennent McCloskey et Zilliak (2008, 2012), cela conduit aussi à penser que ces fameux résultats scientifiques auxquels se réfèrent P. Cahuc et A. Zylberberg sont entachés d’erreurs. Une telle thèse représente parfaitement ce que McCloskey et Zilliak dénoncent dans leur livre de 2008 lorsqu’ils soutiennent que les tests de significativité créent du chômage et de l’injustice, comme quand les agences du médicament tuent des malades.

L’autre grande thèse du livre de Cahuc et Zylberberg est qu’il faudrait protéger la profession des économistes de ce qu’ils appellent les « négationnistes », autrement dit de ceux qui ne croient pas que la science économique soit une physique sociale ou une sorte de médecine contre les maux sociaux. Cette posture d’indignation, de dénonciation quasiment de la malhonnêteté intellectuelle de ceux qui n’adoptent pas le positivisme et les résultats des tests de significativité statistiques des articles d’économétrie a pourtant d’autres raisons que la seule recherche de l’intérêt général. De manière plus prosaïque, on peut en effet penser le débat comme illustrant la lutte pour un monopole. Il s’agit pour les économistes qui soutiennent la thèse de Cahuc et Zylberberg de se débarrasser de ceux qui ne partagent pas leur conception de la science et surtout leur représentation de la bonne politique économique. Leur rhétorique est alors mise au service de l’obtention d’un monopole de l’argumentation ; un bon argument scientifique a subi le test de significativité qui leur permettrait d’être les seuls à pouvoir dire ce qu’est une bonne politique publique et à saisir à cette occasion tous les bénéfices économiques et psychologiques d’une telle expertise. Développons succinctement ces quelques points.

La rhétorique est l’art d’imposer aux autres les apparences afin d’en tirer un avantage. La rhétorique des positivistes a un fort pouvoir persuasif, car elle reprend une forme qui a déjà réussi à persuader le plus grande nombre : celle des sciences de la nature, qui se sont imposées comme l’unique source de vérité dans de nombreux domaines. En reprenant la rhétorique des sciences naturelles, les économistes espèrent convaincre le plus grand nombre que leur discours à plus de valeur que celui d’autres experts ou acteurs politiques, et en tirer des bénéfices économiques (revenu) et sociaux (réputation).

La rhétorique positiviste des économistes participe ainsi d’un processus de construction sociale de crédibilité et de réputation : il s’agit pour une partie de la profession de se distinguer, de montrer qu’une frontière claire sépare les scientifiques des charlatans. L’enjeu financier pour ces derniers est très important, les économistes des grandes organisations internationales comme le FMI, la Banque mondiale, les banques centrales, etc. ont de hauts salaires du fait des fortes dotations financières de ces institutions. Tout ce qui remet en cause leur crédibilité menace la taille de leur budget. Ces économistes aux revenus importants et à la forte notoriété n’ont pas intérêt à ce que la fragilité de leurs indicateurs statistiques et de leur méthode soit mise en évidence. Ils construisent alors des barrières à l’entrée sur le marché des économistes, pour que les individus prétendant au titre d’économiste soient obligés d’utiliser leur langage qui repose sur l’anglais, les mathématiques et les statistiques.

À travers ce langage, la persuasion passe par la production d’arguments et pas nécessairement de preuves empiriques. Elle se développe grâce à la cohérence, la fluidité ou la simplicité du discours au détriment de modes d’argumentation concurrents tout aussi légitimes. Par exemple, les tests de significativité statistiques qui conditionnent la publication d’un résultat d’une revue bien classée ne sont pas les seuls moyens de produire de la bonne science, autrement dit des informations persuasives. Ce monopole de l’argumentation est un moyen d’éloigner les modes d’argumentation concurrents en les décrédibilisant, en dénigrant leur valeur scientifique. Le débat porte ainsi sur la qualification des auteurs. L’histoire économique qualitative, la statistique descriptive, mais aussi l’application de la méthode déductive sont ces modes d’argumentation concurrente qu’il faut discréditer. Keynes, Hayek, Buchanan, Smith, Coase sont-ils des scientifiques ? En toute rigueur, si l’on s’en tient au critère du test de significativité comme manière d’argumenter, Hayek mais aussi Keynes, Coase et Buchanan ne sont pas des scientifiques. Ils ne sont que des proto-économistes.

La critique du test de significativité par D. McCloskey est roborative : si elle était suffisamment partagée dans la profession, elle permettrait d’éviter que des chercheurs aux modes d’argumentation non conventionnels ne soient évincés, dans le futur, d’une discipline ne reconnaissant aucun discours scientifique possible hors de tel ou tel test de significativité.

Conclusion

L’œuvre de Deirdre N. McCloskey est très riche et ce livre peut nous aider à y entrer. Cela ne signifie pas que la position épistémologique adoptée soit totalement claire pour un économiste classique attaché à la méthode déductive, ni pour les partisans du dualisme méthodologique qui considèrent que les sciences de l’homme ne peuvent avoir ni les mêmes ambitions ni la même méthode que les sciences de la nature. C’est sans doute le goût du Professeur McCloskey pour la pluridisciplinarité qui peut parfois laisser l’impression d’un manque de clarté au regard des catégories les plus usuelles de l’épistémologie économique. Il n’en reste pas moins que derrière ces difficultés, se tient une représentation originale du monde qui gagnerait à être mieux connue dans le monde francophone et qui permettrait de mieux comprendre ce qui est à l’œuvre dans ces débats passionnés autour de ce qu’est un bon économiste.

Aller plus loin

- Pierre Cahuc et André Zylberberg, Le négationnisme économique et comment s’en débarrasser, Paris, Flammarion, 2016.
- Demsetz, Harold, « Information and Efficiency : Another Viewpoint », Journal of Law and Economics, University of Chicago Press, vol. 12(1), 1969, p. 1-22.
- Ragnar Frisch, Éditorial, Econometrica 1, 1933.
- Ludovic Frobert « Si vous êtes si malins ». McCloskey et la rhétorique des sciences économiques, suivi de La Rhétorique des sciences économiques, de Deirdre N. McCloskey, traduction de Frédéric Regard, Lyon, ENS éditions, 2004.
- Paul Krugman, « Hang-over Theory », Slate, 3 décembre 1998.
- Alain Leroux, « L’évolutionnisme de Friedrich Hayek : une double controverse révélatrice d’une double illusion », Document de Travail 96C07, GREQUAM.
- Ababacar Mbengue, « Faut-il brûler les tests de signification statistique ? », M@n@gement, vol. 13, 2010, p. 100-127.
- Deirdre N. McCloskey, Les péchés secrets de la science économique, traduit de l’anglais par Patrick Hersant, Genève, Éditions Markus Haller, 2016.
- Deirdre, N. McCloskey, « A Kirznerian Economic History of the Modern World », in Emily Chamlee-Wright (dir.), The Annual Proceedings of the Wealth and Well-Being of Nations (à paraître).
- Deirdre, N. McCloskey, Knowledge and Persuasion in Economics, New York, Cambridge University Press, 1994a.
- Deirdre McCloskey, Rhetoric, The New Palgrave, Londres, Macmillan, 1987.
- Deirdre McCloskey, The Rhetoric of Economics, Madison, The University of Wisconsin Press, 1985.
- Deirdre N. McCloskey et S. Ziliak, « Statistical Significance in the New Tom and the Old Tom : A Reply to Thomas Mayer », Econ Journal Watch, vol. 9, n° 3, 2012, p. 298-308.
- Deirdre N. McCloskey et S. Ziliak, The Cult of Statistical Signifiance : How the Standard Error Costs Us Jobs, Justice, and Lives, The University of Michigan Press, 2008.
- Deirdre N. McCloskey et S. ZIliak, « The Standard Error of Regressions », Journal of Economic Literature, vol. 34, 1994b, p. 97-114.

Pour citer cet article :

François Facchini, « L’économie, rhétorique moderne », La Vie des idées , 7 mars 2017. ISSN : 2105-3030. URL : http://www.laviedesidees.fr/L-economie-rhetorique-moderne.html

Nota bene :

Si vous souhaitez critiquer ou développer cet article, vous êtes invité à proposer un texte au comité de rédaction. Nous vous répondrons dans les meilleurs délais.

par François Facchini , le 7 mars

Articles associés

Redécouvrir Émile Meyerson

À propos de : Frédéric Fruteau de Laclos, Émile Meyerson, Les Belles (...)

par Élise Aurières

Qu’est-ce que l’« objectivité » ?

À propos de : Lorraine Daston et Peter Galison, Objectivité, Les Presses du (...)

par Arnaud Esquerre

Notes

[1« L’économétrie n’est pas du tout la même chose que la statistique économique. Elle ne doit pas non plus être identifiée avec ce qu’on appelle la théorie économique générale, bien qu’une partie considérable de cette théorie ait un caractère résolument quantitatif. L’économétrie ne doit pas non plus être considérée comme synonyme de l’application des mathématiques à l’économie. L’expérience a montré que chacun de ces trois points de vue, celui des statistiques, celui de la théorie économique, et celui des mathématiques, est une condition nécessaire, mais non suffisante en elle-même, à une compréhension réelle des relations quantitatives dans la vie économie. C’est l’unification des trois qui est puissante. Et c’est cette unification qui constitue l’économétrie » (Frisch 1933, p. 2).

[2Les deux théorèmes de l’économie du bien-être, que l’on doit à Arrow et Debreu, sont le résultat d’une démonstration mathématique et reposent sur un grand nombre d’hypothèses. Le premier théorème indique que tout équilibre général de marché de concurrence pure et parfaite est un optimum de Pareto. Le second théorème soutient que tout optimum de Pareto peut être un équilibre général après réaffectation des dotations initiales.

[3Un ordre économique est optimal au sens de Pareto s’il est impossible d’améliorer le bien-être d’un individu sans détériorer celui d’un autre.

[4Harold Demsetz (1969) nomme ainsi la pratique qui consiste à créer des arbitrages entre des mondes fictifs, au lieu de s’interroger sur les mondes des possibles effectifs. Un choix n’est jamais entre un monde parfait et un monde imparfait. Il est toujours entre des solutions et des mondes imparfaits.

[5Je tiens à remercier le Professeur Jean-Bernard Chatelain (Université Paris 1, PSE) pour cette note.



© laviedesidees.fr - Toute reproduction interdite sans autorisation explicite de la rédaction - Mentions légales - webdesign : Abel Poucet