vendredi 29 janvier 2010

Interro écrite !

Allez, petite interrogation. A votre avis, entre 1970 et 2006 :
1) Comment a évolué la pauvreté à l'échelle de la planète ? A-t-elle augmenté ou diminué ? Ou est-ce que cela dépend des régions du monde ?
2) Comment ont évolué les inégalités à l'échelle de la planète ? Ont-elles augmenté ou diminué ?

Et attention, on ne triche pas ! Je surveille...


jeudi 28 janvier 2010

Néolibéraux, néoclassiques, orthodoxes : un joyeux mélange

Beaucoup d'hétérodoxes critiques utilisent ces trois termes de manière interchangeable (et au premier desquels Gilles Raveaud, qui d'un côté chipote sur ce qu'a vraiment dit Adam Smith mais confond théorie orthodoxe et théorie néoclassique et au passage qui pense qu'un économiste orthodoxe ne peut pas être de gauche). Pourtant, ces concepts désignent des choses très différentes, et il est à mon sens utile de les distinguer pour éviter de mettre tout le monde dans le même sac (et au passage de tirer dans le tas).

Le néolibéralisme / l'ultralibéralisme : des concepts flous

Le néolibéralisme et l'ultralibéralisme sont difficiles à définir. L'article d'universalis entretient joyeusement la confusion avec les théories néo-classiques et les articles wikipedia français et anglais se sont pas d'accord sur l'origine exacte. Néanmoins, on retrouve des dénominateurs communs.

Tout d'abord, dans son sens moderne, il semblerait que ces termes soient essentiellement utilisés dans un sens critique. Peu d'individus se réclament du néolibéralisme (et encore moins de l'ultralibéralisme). Ces termes appartiennent clairement au domaine de l'économie normative (celle qui dit ce qui doit être ou ce qu'il faudrait faire). Ils désignent une conception idéaliste de la société où le libéralisme économique serait appliqué le plus largement possible et la place de l'intervention de l'Etat serait réduite.

Cette définition est floue et ça pose un gros problème : à partir de quand un individu est-il considéré comme "néolibéral" ? Si je critique les politiques mises en place et que je réclame leur retrait, suis-je "néolibéral" ? Et si je prétends que certains marchés devraient être dérégulés et d'autres régulés, où me classe-t-on ?

Parmi les économistes académiques, très peu sont néolibéraux (comme l'attestent les sondages dont parlent Alexandre et Stéphane dans leur livre). Et ce pour une raison toute simple : ça fait environ 80 ans qu'on étudie les situations où les marchés ne sont pas naturellement efficients et où une intervention de l'Etat peut améliorer leur efficacité. Tout le domaine dit de l'économie publique est consacré à l'intervention des autorités publiques et c'est l'objet du TD que je donne à l'ENSAE.

C'est à cause de ce manque de précision et de ce côté "on tire dans le tas et on finira bien par toucher nos ennemis" que je trouve que ces concepts sont inintéressants. C'est trop facile de critiquer les économistes néolibéraux sachant que ça ne recouvre rien de précis et laisse peu de place au débat. Comment contre-argumenter face à une critique de l'économie néolibérale, sachant qu'on ne peut pas identifier ce qui est visé ? Pour ma part, je suis en désaccord avec l'idée que les marchés doivent tous être dérégulés. Pourtant, je prône l'usage des marchés chaque fois que cela est possible et préférable à une intervention coûteuse de l'Etat. Alors, suis-je néolibéral ou pas ? Impossible de caractériser ma position relativement à un concept aussi pauvre. En revanche, j'assume parfaitement ma position d'économiste orthodoxe.

L'économie néoclassique : un courant de la fin du XIXème et du début du XXème siècle

L'économie néoclassique désigne un courant de l'analyse économique né sous la plume de Léon Walras, Alfred Marshall, Stanley Jevons, Carl Menger, Arthur Pigou et d'autres auteurs. La "période néoclassique" va grosso modo de 1870 aux années 1930. La théorie néoclassique fut ensuite confrontée avec le keynésianisme avant de former l'économie de la "synthèse".

Ce courant a introduit pas mal de mathématiques dans l'analyse économique et est à l'origine de l'analyse à base d'équilibre des marchés et d'individus parfaitement rationnels.

L'économie néoclassique vit encore aujourd'hui car ses méthodes (optimisation sous contrainte, égalisation offre/demande...) sont encore beaucoup utilisées au sein de l'économie orthodoxe. Plus précisément, l'économie orthodoxe inclut des fondements néoclassiques mais ne se réduit pas à ça, loin de là !

Voir aussi ce texte très intéressant écrit par un historien de la pensée.

L'économie orthodoxe : une méthode avant tout

L'économie orthodoxe désigne l'ensemble des canons de la recherche en économie à une époque donnée. Je précise "à une époque donnée" car ce qui caractérise l'orthodoxie évolue au fil du temps. A l'époque des Trente Glorieuses, l'orthodoxie en macroéconomie était les méthodes de la macroéconomie keynésienne, tandis qu'après les années 1970 ce fut plutôt les méthodes de la nouvelle macroéconomie classique (je schématise).

Je voudrais insister sur deux choses. Tout d'abord, l'économie orthodoxe désigne une unité de méthode plutôt qu'une unité de pensée. Les économistes orthodoxes ont recours aux mêmes outils mais n'aboutissent pas tous aux mêmes conclusions. Il y a un certain nombre de consensus dans certains domaines (sinon ce serait malheureux) mais l'unité de méthode n'interdit pas du tout le débat sur des questions encore ouvertes (et les débats sont parfois assez vigoureux).

Ensuite, la méthode de l'économie orthodoxe inclut les outils de l'économie néoclassique mais en inclut également beaucoup d'autres. Voici une liste que j'ai essayée de dresser de ce qui caractérise l'économie orthodoxe aujourd'hui :

  • L'optimisation sous contrainte : L'analyse économique se mène essentiellement en formulant les problèmes sous forme d'un objectif à atteindre avec des contraintes définies. Par exemple, un consommateur cherche à maximiser sa satisfaction en tenant compte de sa contrainte de budget. Une entreprise cherche à maximiser son profit en tenant compte des contraintes technologiques. La grande différence avec l'économie néoclassique, c'est que les économistes aujourd'hui ont peuvent relâcher un grand nombre d'hypothèses, notamment celles du choix rationnel et celle de l'information parfaite. On peut toujours formuler les problèmes sous forme d'optimisation sous contrainte sans supposer que les individus sont parfaitement rationnels, ni qu'ils sont parfaitement informés des choix des autres ou de ce qui se passe dans leur environnement.
  • L'équilibre et la statique comparative : On analyse souvent les phénomènes économiques à partir des situations d'équilibre, c'est-à-dire les situations où aucun agent n'est incité à changer son comportement. A partir de là, on utilise la méthode dite de statique comparative qui consiste à voir comment les paramètres du modèle influencent qualitativement et quantitativement la situation d'équilibre.
  • L'économétrie : Un élément complètement absent de la théorie néoclassique est l'analyse empirique. On ne juge plus aujourd'hui d'une théorie uniquement en fonction de son réalisme ou de sa pertinence apparente mais on procède également très souvent à des tests empiriques des hypothèses via un domaine intitulé économétrie. La majorité des articles publiés aujourd'hui en économie sont des études empiriques. L'économie orthodoxe aujourd'hui est donc beaucoup plus connectée au monde réel que ne l'était l'économie néoclassique.
  • Le conséquentialisme : Il s'agit d'une doctrine philosophique un peu implicite en économie orthodoxe qui estime qu'il convient de juger d'un choix uniquement par rapport aux conséquences de ce choix. Selon ce critère il ne faut juger une politique qu'à partir des conséquences qu'elle peut avoir. Ce concept s'applique également à l'économie positive au sens où on considère souvent que les individus choisissent une action en fonction des conséquences de celle-ci.
Lorsque l'on réduit l'économie orthodoxe à l'économie néoclassique, on néglige toute l'analyse empirique, toute l'analyse des marchés où la concurrence n'est pas parfaite, toute l'analyse des choix non-rationnels, et tous les domaines de l'économie qui n'existaient pas à l'époque de l'économie néoclassique : le choix social, l'économie de l'éducation, l'économie évolutionniste, l'économie du développement, etc...

Pour finir : orthodoxes et hétérodoxes

Par définition, on appelle économistes hétérodoxes les économistes qui refusent l'approche orthodoxe. Ceux-ci ne sont, en revanche, pas unifiés. Il y a une multitude de courants hétérodoxes (que je connais très mal d'ailleurs) : les marxistes, les institutionnalistes, les régulationnistes, les économistes de l'école autrichienne...

L'économie hétérodoxe a un rôle extrêmement important à jouer. C'est elle qui est chargée de critiquer l'économie orthodoxe et de lancer de nouveaux courants. Par exemple, l'économie comportementale et l'économie de l'information étaient des courants hétérodoxes avant d'être intégrées dans l'orthodoxie. En ce moment, grâce aux courants hétérodoxes, on commence à rapprocher économie et biologie via l'économie évolutionniste et l'économie orthodoxe commence peu à peu à prendre en compte le rôle des institutions dans l'économie. Preuve supplémentaire : on ne compte plus le nombre de prix nobel d'économie décernés à des économistes initialement très en opposition avec l'approche standard comme Sen ou Simon et dont les travaux font maintenant partie de l'économie orthodoxe.

Je veux aboutir à deux conclusions (qui ne sont que le reflet de ma conception personnelle du rapport orthodoxes/hétérodoxes). Tout d'abord, le but de l'économie hétérodoxe n'est pas de rentrer dans une guerre de tranchées avec l'économie orthodoxe au sens où les orthodoxes sont les méchants et les hétérodoxes les gentils et il faut dénoncer le complot des économistes orthodoxes. Il ne s'agit pas non plus d'un débat politique avec les orthodoxes à droite et les hétérodoxes à gauche. Le débat doit porter sur la rigueur scientifique. Si on a des raisons de penser (et il y en a beaucoup) que l'approche orthodoxe manque de pertinence car elle utilise une méthode ou des hypothèses inappropriées, il est du rôle des hétérodoxes d'attaquer ces failles pour faire progresser la science.

Ceci m'amène à mon deuxième point. Pour critiquer correctement l'approche orthodoxe, il ne suffit pas (et ce n'est pas non plus nécessaire) d'être de gauche (désolé Gilles), il faut surtout avoir une excellente connaissance de la théorie économique orthodoxe. Je réagis toujours vivement à une critique du type "telle hypothèse est fausse" lorsque je sais qu'il existe 2000 articles où cette hypothèse a été levée par des économistes orthodoxes. Quand on compare les critiques d'Ariel Rubinstein (un des meilleurs théoriciens des jeux du monde) vis-à-vis de la science économique et celles de Bernard Maris, y'a pas photo. Rubinstein écrit des critiques infiniment plus pertinentes (et parfois très cinglantes) car il connait infiniment mieux l'économie orthodoxe que Bernard Maris.


mercredi 27 janvier 2010

Haïti : Que dit Michael Clemens ?

Sur le blog de William Easterly, Michael Clemens propose une solution radicale pour sortir les Haïtiens de la pauvreté (en général, pas seulement en ce moment) : les autoriser à migrer aux Etats-Unis.

J'en vois qui froncent le sourcil. Prenons les Haïtiens (avant le tremblement de terre) qui vivent avec plus de 10$ par jour et qui résident soit aux Etats-Unis, soit en Haïti. 82% d'entre eux vivent aux Etats-Unis et 18% en Haïti. Vous allez me dire : normal, ce sont les plus riches qui émigrent. Mais après analyse statistique :
"Aucun élément ne permet d'affirmer que les émigrants haïtiens viennent principalement des couches les plus aisées de la population."
Conclusion : le départ vers les Etats-Unis est un moyen efficace de sortir de la pauvreté. En moyenne, on estime qu'un Haïtien multiplie son salaire par plus de 7 s'il choisit de migrer vers les Etats-Unis.

Tout petit problème : les Etats-Unis ne laissent pas entrer n'importe qui chez eux. Une telle politique migratoire fait que
"Les Etats-Unis bloquent activement la stratégie de réduction de la pauvreté la plus efficace pour les Haïtiens."
Fondamentalement, ce chercheur pose la question : et si les gens comptaient plus que les pays ? Cette question apparait dans le titre d'un de ses papiers : "Income per naturel: Measuring Development as if People Mattered more than Places" dans lequel il propose un indicateur simple mais ingénieux : le revenu moyen des personnes nées dans un pays donné (plutôt que le traditionnel revenu moyen des habitants d'un pays donné).

L'idée pas bête du jour est qu'il est peut-être plus facile de sortir les individus de la pauvreté plutôt que de transformer les pays pauvres. C'est très contre-intuitif car le premier contre-argument qui nous vient à l'esprit est : "Mais ça ne sauvera pas Haïti !". La preuve qu'on est tous focalisés sur les pays. A ça, Clemens répond :
"Dire que nous ne devrions pas procéder ainsi car ça ne peut pas être une solution de long terme, c'est comme dire qu'on ne devrait pas utiliser un canot de sauvetage qui contient 10 places sous prétexte qu'il y a 100 personnes dans l'eau."
Ah, pardon, j'oubliais l'essentiel : et si les pauvres immigrants piquaient les emplois des riches natifs ??? Conneries.


dimanche 24 janvier 2010

Qu'est-ce que le biais de publication et comment le mesure-t-on ?

Imaginons que je laisse un peu mes recherches actuelles de côté pour me lancer dans une nouvelle étude sur l'influence du progrès technique sur la croissance. Et là, admettons que j'arrive à la conclusion que le progrès technique n'a aucun impact sur la croissance. Il s'agirait d'un résultat en contradiction totale avec toute la littérature économique sur le sujet. Lorsque je vais soumettre mon article pour publication, on aura tôt fait de regarder mes recherches avec suspicion. On attribuera mon résultat plutôt à une erreur méthodologique ou un manque de rigueur qu'à une découverte révolutionnaire. Bref, mon article aura très peu de chance d'être publié car il ira à l'encontre du consensus actuel au sein des économistes.

Le biais de publication

Ceci est un exemple de ce qu'on appelle le biais de publication. Il s'agit du fait que la probabilité pour une étude d'être publiée dépend des résultats de cette étude. C'est un phénomène extrêmement problématique. Imaginez par exemple pour un médicament donné, que seules les études concluant à une efficacité de ce médicament soient publiées tandis que toutes les études qui aboutissent à la conclusion inverse ne sont pas publiées. Un chercheur qui regarderait l'ensemble des études publiées pour juger de l'efficacité de ce médicament risque d'avoir une vision extrêmement biaisée et peut croire à tort que le médicament est efficace.

Le biais de publication peut avoir de nombreuses sources. D'une part, les éditeurs chargés de décider quelles études publier peuvent sélectionner lesdites études en fonction des conclusions de celles-ci (laissant agir ainsi les biais idéologiques dont ils peuvent être victimes). D'autre part, les chercheurs eux-mêmes peuvent s'auto-censurer : "Hein ? J'aboutis à ça ??? Non, j'ai dû me planter quelque part. Recommençons."

Peut-on détecter un biais de publication ? C'est difficile, mais c'est possible comme l'ont montré Card et Krueger à propos du salaire minimum. Ces deux chercheurs ont découvert que les études qui montraient que le salaire minimum a un impact négatif sur l'emploi (et donc qui sont cohérentes avec la théorie dominante) ont plus de chances d'être publiées que celles qui aboutissent à la conclusion contraire. Comment ont-ils fait ?

On rentre dans une discussion un peu technique. Je vais essayer de rester clair et compréhensible.

Un peu de théorie des tests : précision des estimations et risque de se tromper

Imaginons que le salaire minimum n'ait pas d'impact sur l'emploi. Le chercheur qui mène l'étude ne le sait pas. Il fait une estimation de l'effet du salaire minimum sur l'emploi. Même si cet effet est nul, il ne tombera jamais sur un chiffre de zéro pile poil. Les aléas inhérents à la méthode statistique font qu'on va tomber sur un chiffre faible, mais différent de zéro, par exemple 0,1. Comment savoir alors si l'impact du salaire minimum sur l'emploi est réellement nul ou différent de zéro ?

Le chercheur va calculer la précision de son estimateur. Il va ensuite utiliser des outils statistiques pour savoir si, étant donnée la précision de son estimateur, il est plausible de tomber sur un chiffre de 0,1 lorsque le vrai chiffre est zéro. Si effectivement c'est plausible, on dit que le chercheur ne peut pas rejetter l'hypothèse selon laquelle le salaire minimum n'a pas d'impact sur l'emploi. Le résultat est dit "statistiquement non significatif".

En revanche, dans le cas contraire, on dit que le chercheur rejette l'hypothèse selon laquelle le salaire minimum n'a pas d'impact sur l'emploi. Dans ce cas (et dans ce cas seulement), le chercheur peut calculer sa probabilité de se tromper (par exemple 5%). Généralement, on considère qu'il faut au moins une probabilité de se tromper inférieure à 10% pour que l'effet soit "statistiquement significatif" (pour ceux qui connaissent, c'est la p-valeur du test de student).

Utiliser la "probabilité de se tromper" pour détecter un biais de publication

De quoi dépend cette "probabilité de se tromper" ? Elle découle directement de la taille de l'échantillon. Plus l'échantillon est grand, plus la probabilité de trouver un effet statistiquement significatif à tort est faible.

Donc, lorsqu'un grand nombre de chercheurs étudient la question, ceux qui utilisent des échantillons plus grands doivent avoir une probabilité de se tromper moindre. Sauf s'il existe un biais de publication !

Admettons encore une fois que le salaire minimum n'ait pas d'impact sur l'emploi. Si les chercheurs qui aboutissent à cette conclusion ne parviennent pas à publier (ou refusent de publier) parce que la théorie dominante dit que le salaire minimum a un impact sur l'emploi, alors les seules estimations dont nous disposerons seront celles de chercheurs qui ont trouvé un effet statistiquement significatif. Etant donné que ceux-ci se sont trompés, ils devaient avoir une probabilité de se tromper à la limite de ce qui est acceptable (par exemple 10%) et ce, peu importe la taille de l'échantillon.

C'est exactement ce que trouvent Card et Krueger à propos du salaire minimum. Les chercheurs ont beau trouver relativement souvent un effet négatif du salaire minimum sur l'emploi, la probabilité de se tromper ne décroît pas avec la taille de l'échantillon (au contraire, elle augmente). Donc, concluent Card et Krueger, la recherche sur le salaire minimum est contaminée par un biais de publication. Les études aboutissant à la conclusion que le salaire minimum n'a pas d'effet négatif sur l'emploi sont plus rarement publiées.


Néanmoins, n'allez pas conclure du coup que le salaire minimum n'a pas d'impact sur l'emploi. Le débat fait encore rage entre les économistes. J'essaie de faire une petite synthèse mais il est assez difficile d'y voir clair. Pour le cas de la France, j'ai tendance à me référer à l'étude d'Abowd Kramarz et Margolis qui affirme que le salaire minimum a atteint et dépassé le seuil à partir duquel il comment à avoir un effet néfaste sur l'emploi. Quoi qu'il arrive, restons prudents dans nos affirmations.

ref :

Time-Series Minimum-Wage Studies: A Meta-analysis
David Card; Alan B. Krueger
The American Economic Review, Vol. 85, No. 2, Papers and Proceedings of the Hundredth and
Seventh Annual Meeting of the American Economic Association Washington, DC, January 6-8,
1995. (May, 1995), pp. 238-243.


samedi 23 janvier 2010

The Future of Economics

Si vous vous intéressez à l'épistémologie et/ou à l'histoire de la pensée, ne ratez pas ce post magistral sur le blog rationalité limitée.


mercredi 20 janvier 2010

Utiliser la psychologie pour accroître la productivité : l'aversion aux pertes

La recherche en économie comportementale semble très active en ce moment. Il y a un grand nombre de papiers très intéressants qui sont sortis ces dernières semaines, mais je ne peux malheureusement pas les commenter tous. Je recommande toutefois à ceux qui s'intéressent à la théorie des jeux d'aller jeter un coup d'oeil au papier de Levitt, List et Sadoff sur la backward induction.

L'étude dont je vais vous parler cette fois-ci sort un peu de l'ordinaire, car pour une fois il s'agit d'une expérience réalisée non pas en laboratoire mais sur le terrain dans une vraie entreprise avec des vrais gens. Hossain et List ont mis en place différents systèmes de bonus incitatifs dans une usine chinoise et ont comparé les résultats en terme de productivité. Tout particulièrement, les chercheurs ont comparé deux modes de rémunération identiques mais présentés différemment.

L'aversion aux pertes

Avant de continuer, je dois faire un petit rappel sur ce qu'on appelle l'aversion aux pertes (concept qui va être exploité par nos chercheurs). C'est une notion qui fût élaborée par Daniel Kahneman et Amos Tversky, les deux plus célèbres figures de l'économie comportementale. L'idée est que les individus ont tendance à préférer davantage éviter les pertes qu'obtenir des gains. Un exemple vaut mieux qu'un long discours (et en plus, l'exemple qui suit est très célèbre et peut facilement se recaser à la fin d'un repas de famille pour attirer l'attention sur soi :-).

Imaginons une situation fictive où une maladie menace potentiellement la vie de 600 personnes.

Dans un premier scénario, on vous propose de choisir entre deux programmes de vaccination. Le programme A va sauver 200 personnes avec certitude, tandis que le programme B va sauver les 600 personnes avec une probabilité 1/3 (et 0 personne avec une probabilité 2/3).

Dans un deuxième scénario, on vous propose de choisir entre deux autres programmes de vaccination. Le programme C va laisser mourrir 400 personnes avec certitude, tandis que le programme D ne laissera mourrir personne avec une probabilité 1/3 et laissera mourrir 600 personnes avec une probabilité 2/3.

Vous l'avez compris, les programmes A et C (et respectivement les programmes B et D) sont équivalents. Seule la formulation change. Dans le premier scénario, on présente les choix sous forme de vies sauvées, tandis que dans le deuxième, on met en avant les vies perdues. Pourtant, les individus ont majoritairement tendance à préférer le programme A au programme B et le programme D au programme C.

Dans le premier scénario, la préférence pour le programme A s'explique par une aversion au risque : on préfère sauver 200 personnes avec certitude plutôt que de jouer à une lotterie où on sauve en moyenne 200 personnes. Dans le second scénario, l'idée d'une perte en vies humaines est difficilement supportable. On préfère donc tenter sa chance pour éviter toutes les morts avec une certaine probabilité plutôt que de laisser mourrir 400 personnes avec certitude. C'est ce phénomène là qu'on appelle l'aversion aux pertes.

Exploiter l'aversion aux pertes pour mieux inciter les salariés

Pourquoi est-ce que je vous parle de tout ça ? Eh bien, l'idée de l'expérience mise en place par les chercheurs est la suivante. Ils vont comparer deux schémas incitatifs similaires mais présentés différemment. Je prends des chiffres fictifs pour illustrer (les chiffres de l'étude ne sont pas très parlants à cause des différences de niveau de vie).

Dans le premier schéma, on dit aux salariés qu'ils recevront un salaire de base de 100 plus un bonus de 20 s'ils atteignent un certain objectif de productivité.

Dans le deuxième schéma, les salariés reçoivent un salaire de base de 120 (donc égal au salaire du premier schéma + le bonus), mais on les pénalise de 20 s'ils n'atteignent pas leur objectif de productivité.

Les deux modes de rémunération sont absolument équivalents. Pourtant, les équipes soumises au deuxième schéma ont une productivité supérieure de 1% à celle des équipes soumises au premier schéma. La seule différence susceptible d'expliquer cet écart est la façon dont le système de rémunération a été présenté aux salariés. Le deuxième schéma exploite l'aversion aux pertes en mettant en avant une pénalité plutôt qu'un bonus. On pouvait donc s'attendre à ce que les salariés du deuxième groupe travaillent plus dur que ceux du premier groupe afin d'éviter la "perte".

Des propriétés remarquables

En plus de ça, ce système incitatif fondé sur l'exploitation de l'aversion aux pertes présente deux propriétés intéressantes. Tout d'abord, son effet est stable dans le temps. On aurait pu suspecter une réaction à court terme des salariés qui aurait disparu au fil du temps mais il n'en est rien. Le supplément de productivité a été observé durant les six mois pendant lesquels a duré l'expérience.

Ensuite, l'effet est plus fort à l'échelle des équipes de travailleurs qu'à l'échelle des travailleurs pris isolément. C'est extrêmement intéressant car complètement contre-intuitif. Habituellement, les économistes considèrent que chaque individu n'a pas un comportement complètement rationnel, mais que ces "irrationalités" disparaissent lorsque l'on regarde la "moyenne" des comportements. Donc, pour caricaturer, la théorie du choix rationnel fonctionnerait mal lorsqu'elle est appliquée à un individu en particulier, mais est beaucoup plus pertinente lorsqu'on l'applique à des masses d'individus. Ici, c'est tout le contraire ! On mesure très peu d'effet à l'échelle de chaque individu mais en revanche, l'accroissement de la productivité est très net au niveau des groupes d'individus.


Ce type de recherche lève peu à peu mon scepticisme initial quant à l'utilité de l'économie comportementale. Je soutenais à une époque qu'il était bien beau d'accumuler des connaissances très précises sur le comportement des individus mais que cela ne servait à rien si les modèles d'économie comportementale n'expliquaient pas mieux les phénomènes économiques que les modèles (plus simples) fondés sur l'homo oeconomicus standard.

ref :

The Behavioralist Visits the Factory:
Increasing Productivity Using Simple Framing Manipulations
Tanjim Hossain
John A. List
Working Paper 15623
http://www.nber.org/papers/w15623


samedi 16 janvier 2010

Six raisons pour lesquelles les politiques environnementales peuvent accroître les inégalités

(Si vous êtes joueur, avant de lire ce billet, vous pouvez essayer de trouver les six mécanismes par lesquels une politique environnementale peut pénaliser les plus pauvres. Bon courage, parce que c'est pas facile !)

Le récent débat autour de la taxe carbone (commenté ici par notre expérimentaliste préféré) montre que l'obsession des économistes vis-à-vis de l'efficacité tend à évincer les questions d'équité. Typiquement, dans les manuels d'économie publique, on commence par montrer que lorsque le gouvernement n'intervient pas, l'issue du marché est sous-optimale au sens de Pareto (c'est-à-dire qu'il est possible d'accroître le bien-être de certains agents sans détériorer celui des autres). Ensuite, on nous présente des politiques qui permettent de restaurer l'efficacité, toujours au sens de Pareto.

Pourtant, on sait que le critère de Pareto ne dit rien sur l'équité de la situation finale : une économie où un seul individu possède toutes les richesses et les autres rien du tout est Pareto optimale car pour améliorer le bien-être de ceux qui n'ont rien, il faut prendre des richesses à celui qui a tout et donc diminuer son bien-être.

Néanmoins, on trouve des contributions très intéressantes sur le lien entre politiques publiques et inégalités, notamment celle de Don Fullerton qui a inspiré le sujet de partiel que j'ai donné à mes M2. Fullerton présente six mécanismes par lesquels une politique environnementale pourrait bénéficier plus aux riches qu'aux pauvres. Je vais tenter de résumer tant bien que mal, mais le document original est beaucoup plus riche.

1. Accroissement des prix

Une politique environnementale conduit généralement à un accroissement des prix des biens polluants. Dans le cas d'un bien comme l'essence ou l'électricité, il est tout à fait concevable qu'un accroissement du prix touche plus les pauvres que les riches car ces biens représentent une part plus grande du budget des pauvres. C'est effectivement ce que trouve Robison (1985) à propos du Clean Air Act aux Etats-Unis : les 5% les plus pauvres sont 5 fois plus touchés que les 5% les plus riches.

Cet effet est probablement surestimé. La part de la dépense est calculée par rapport au revenu annuel. Or, le revenu peut énormément varier au cours de la vie d'un individu. La théorie du revenu permanent nous dit que la base de référence pour un consommateur est l'ensemble des revenus qu'il percevra tout au long de sa vie. Un individu qui est en école de commerce a un revenu annuel faible mais s'attend à toucher un revenu futur élevé. Il va donc ajuster ses dépenses par rapport à son revenu futur et on aura statistiquement l'impression qu'il s'agit d'un pauvre dont le budget est très affecté par la hausse du prix des biens polluants.

2. Rémunération des facteurs de production

Une politique environnementale accroît les coûts de prodution des entreprises et peut les pousser à modifier leur demande de facteurs de production (capital et travail). En conséquence, si les secteurs les plus polluants utilisent beaucoup de travail, les salaires risquent de diminuer suite à l'instauration d'une politique environnementale. Néanmoins, tout va dépendre de quel facteur est le plus à même de se substituer à la "pollution". Pour atteindre le même niveau de production en polluant moins, faut-il utiliser plus de travailleurs (remplacer les technologies polluantes par des salariés ou embaucher des salariés pour dépolluer) ou plus de capital (acheter des systèmes de filtrage ou de dépollution) ? Malheureusement, aucune étude empirique n'est citée et l'auteur conclut qu'il est difficile, même sur le plan théorique d'aboutir à une certitude sur la direction de cet effet.

3. Rentes de rareté

Lorsque les politiques environnementales conduisent à une réduction de la production, elles générent ce qu'on appelle des "rentes de rareté". Ces rentes sont liées au fait que la baisse de la production pousse les prix à la hausse, créant ainsi un bénéfice supplémentaire.

Dans le cas d'une taxe ou si l'Etat vend aux enchères les droits à polluer, ce sont les pouvoirs publics qui s'accaparent cette rente. L'effet sur les inégalités dépend alors entièrement de l'usage qu'il en est fait. En revanche, lorsque l'Etat impose aux entreprises de réduire leur pollution ou lorsqu'on distribue des droits échangeables, ce sont les entreprises (et donc leurs propriétaires) qui s'accaparent ces rentes.

C'est exactement ce qu'observent Maloney et McCormick lorsque l'administration américaine a imposé de nouveaux standards à l'industrie du textile en 1974 : l'analyse des actions montre un accroissement des rendements financiers autour de cette date.

4. Les bénéfices d'un meilleur environnement

Une politique environnementale bénéficie aux individus via une meilleure qualité de l'air par exemple. Brooks et Sethi ont regardé les caractéristiques des zones en fonction de la toxicité de l'air. Ils trouvent que les zones les plus pollués sont globalement celles où il y a le plus de pauvres. Donc, les plus pauvres devraient gagner plus d'une amélioration de la qualité de l'air. Néanmoins, on peut avancer qu'ils se sont installés dans ces zones justement parce que la qualité de l'air est secondaire pour eux par rapport à d'autres besoins.

Une étude de l'US Environmental Protection Agency (1999) montre que les bénéfices de la dépollution en terme de chute de la mortalité sont captés essentiellement par les personnes les plus fragiles physiquement, notamment les personnes âgées ou en moins bonne santé. D'un côté, on peut se féliciter que les personnes les plus vulnérables bénéficient le plus des politiques environnementales. D'un autre côté, le bénéfice total est plus faible car ces personnes ont un nombre restant d'années à vivre plus faible (je sens que cette phrase va en faire réagir certains...).

5. Prix des terrains et de l'immobilier

Lorsque la qualité de l'environnement dans une région donnée s'améliore, le prix de l'immobilier peut grimper. En effet, Sieg, Smith, Banzhaf et Walsh trouvent l'exemple d'une ville où les prix de l'immobilier ont augmenté de 11% en réponse à une baisse de 24% du taux d'ozone.

Les gains résultent probablement d'une question de chance : il faut posséder une maison ou un terrain là où la qualité de l'environnement s'améliore pour capter le surplus ainsi généré. On se doute cependant que les ménages concernés sont probablement les plus riches.

6. Coûts de transition

Une politique environnemental modifie le paysage industriel. Les firmes les plus polluantes peuvent disparaître ou réorganiser leur production. Certains salariés vont être amenés à perdre leur emploi, ce qui peut constituer un coût important à court terme. Au passage, le transfert d'un salarié d'une entreprise à une autre s'accompagne généralement d'un gaspillage de capital humain spécifique à l'entreprise de départ. Tous ces coûts sont malheureusement très mal mesurés.


Au final, Fullerton affirme sa préférence pour les politiques environnementales qui génèrent des revenus fiscaux. Ceux-ci peuvent être ainsi redistribués vers les ménages les plus pauvres. Il s'agit en quelque sorte d'une application du "principe de précaution" au sens où dans le doute, il vaut mieux redistribuer plutôt que d'attendre que les économistes mettent au jour les effets redistributifs des politiques environnementales.


jeudi 14 janvier 2010

II est facile de prédire des crises qui n'arrivent pas

Voici un commentaire de Ricardo Caballero qui m'a fait sourire :
"One of the main economic villains before the crisis was the presence of large “global imbalances.” The concern was that the U.S. would experience a sudden stop of capital flows, which would unavoidably drag the world economy into a deep recession. However, when the crisis finally did come, the mechanism did not at all resemble the feared sudden stop. Quite the opposite, during the crisis net capital inflows to the U.S. were a stabilizing rather than a destabilizing source. I argue instead that the root imbalance was of a different kind: The entire world had an insatiable demand for safe debt instruments that put an enormous pressure on the U.S. financial system and its incentives (and this was facilitated by regulatory mistakes)."
Traduction approximative :
"La principale source d'inquiétude sur le plan économique avant la crise était la présence de "déséquilibres globaux". On se préoccupait du fait que les flux de capitaux en direction des Etats-Unis pouvaient s'interrompre brutalement, plongeant l'économie mondiale dans une récession profonde. Cependant, lorsque la crise advint, ce ne fut pas du tout à cause de cette interruption tant redoutée. Bien au contraire, durant la crise, les flux nets de capitaux vers les Etats-Unis ont plutôt contribué à la stabilisation qu'à la déstabilitation. Je soutiens que le déséquilibre à la racine de la crise était de nature différente : le monde entier exprimait une demande insatiable d'instruments d'endettement sans risque qui a mis une énorme pression sur le système financier américain et sur les incitations associées (ce qui fut grandement facilité par les erreurs de régulation)."
L'idée intéressante là-dedans, c'est qu'on a un exemple parfait d'une crise prédite par les experts financiers (l'interruption brutale des flux de capitaux vers les Etats-Unis) qui ne s'est jamais réalisée. Donc, lorsqu'on dit : "Mais la crise était prévisible, la preuve, certains ont réussi à la prédire !", il ne faut pas oublier que pour chaque personne qui a correctement prédit la crise, il y en a beaucoup d'autres qui ont prédit des crises qui ne sont jamais arrivées.

En fait, je pourrais m'amuser avec les gens de mon labo à imaginer toutes les formes que pourraient prendre la prochaine crise. Ensuite, chacun prend un "type" de crise et dit : "Croyez-moi, je sais comment comment sera la prochaine crise !". Avec un peu de bol, l'un d'entre nous tombera juste et sera le nouveau héros qui a réussi à prédire la crise avant tout le monde et contre le scepticisme ambiant. Tous les autres qui auront prédit des crises qui ne se seront pas produites seront vite oubliés.

Dans le même genre il existe un exemple très célèbre. Imaginez que je réunisse 4000 personnes dans une salle. Je leur dis que je vais lancer une pièce 10 fois et je leur propose d'essayer de prédire à l'avance si la pièce va tomber sur pile ou sur face. En moyenne, 2000 personnes auront correctement prédit le résultat du premier lancer. En moyenne, 1000 personnes auront correctement prédit le résultat des deux premiers lancers. Ce sera 500 pour les trois premiers lancers, etc... Et en moyenne, un peu plus de 7 personnes auront prédit les résultats des 10 lancers.

Si on voit un seul individu capable de prédire le résultat de 10 lancers de pièce, on se dira "qu'est-ce qu'il est fort pour prédire de quel côté va tomber la pièce !". Néanmoins, si le groupe comporte au moins 3000 personnes, il y a plus de 95% de chances qu'au moins une personne parvienne à prédire correctement les 10 lancers.

Non seulement la prédiction est une activité extrêmement difficile, mais en plus, on peut facilement prendre pour une prédiction ce qui n'est rien d'autre qu'un coup de chance. A mon avis, si déjà on arrive à estimer la probabilité d'occurrence d'une crise (voir ici et ), ce sera déjà pas mal.


Facebook vu par un économiste

Parmi les nouveaux moyens de communication dont on dispose, je trouve que Facebook a une place un peu à part, notamment à cause de la façon dont circule l'information. Avec la plupart des technologies de communication "classiques" (téléphone, sms, mail, courrier...), celui qui veut envoyer une information sélectionne le ou les destinaire(s). Il faut admettre, ça marche plutôt bien dans l'ensemble lorsque l'on sait parfaitement à qui on veut adresser l'information.

Mais imaginons un autre cas : vous ne savez pas exactement à qui vous voulez transmettre votre information. Par exemple, vous êtes à la recherche de quelqu'un qui aurait un piston pour un stage, ou alors vous ne savez plus à qui vous avez prêté un bouquin que vous voulez récupérer, ou alors vous voulez discuter d'un article d'économie intéressant... A limite, dans le deuxième exemple, on peut concevoir que vous appeliez un à un vos amis pour leur demander "C'est toi qui as mon bouquin ?", bien que ce soit long et un peu lourd (parce que du coup vous vous sentez obligé de discuter avec chaque personne que vous appelez :-). Mais personnellement, je me vois mal appeler un vieux pote de collège à qui j'ai pas parlé depuis dix ans pour lui demander s'il a un tuyau pour un stage ou s'il s'intéresse à l'économie comportementale. On peut aussi à la limite envisager d'envoyer un mail collectif, mais on connait toutes les dérives auxquelles ça conduit lorsque l'on passe une demi-heure chaque matin à trier les spams.

De ce point de vue, je trouve que Facebook est révolutionnaire au sens où il permet aux destinataires de s'auto-sélectionner. Je n'ai à titre personnel pas la moindre idée de qui parmi mes amis a envie de lire ce billet, mais c'est pas grave. Je vais poster un lien sur Facebook, et les personnes qui sont intéressées vont elles-mêmes choisir de réagir à mon billet.

Ceci est également valable pour des conversations beaucoup moins sérieuses. Si j'ai envie de papoter de tout et de rien, je peux raconter ma vie dans un message sur Facebook et les personnes qui auront envie de discuter auront simplement à réagir à mon message.

Fondamentalement, Facebook permet de créer des échanges qui n'auraient probablement pas pu avoir lieu avec d'autres technologies de communication tout simplement parce que la personne qui souhaitait démarrer l'échange ne savait pas précisément quel était son ou ses interlocuteur(s) le(s) plus adapté(s). Grâce à Facebook, elle n'a plus besoin de cette information. Sans Facebook, je n'aurais pas pu faire découvrir mon blog à certaines de mes connaissances, car je n'avais aucun moyen de savoir à l'avance qui s'intéressait à l'économie ou non :-)


mardi 12 janvier 2010

Libéralisation, concurrence et discrimination

Via le blog d'Etienne Wasmer, j'ai découvert un article très sympathique qui traite de l'impact de la libéralisation sur la discrimination hommes/femmes sur le marché du travail. Les chercheurs étudient la situation des hommes et des femmes en Hongrie entre 1986 et 1998, donc avant, pendant et après la transition de l'économie planifiée vers l'économie de marché.

C'est une problématique intéressante à plusieurs titres. Tout d'abord, il me semble qu'une des différences les plus marquées entre un économiste orthodoxe "typique" et un non-économiste "typique" réside dans la perception de la concurrence. Souvent, les non-économistes perçoivent la concurrence comme une lutte sans merci et sans règle où seuls les plus forts gagnent. Cette lutte se solde par l'appauvrissement des pauvres et l'enrichissement des riches. Les économistes orthodoxes perçoivent la concurrence plutôt comme une force puissante qui détruit les firmes et les emplois non-productifs et pousse sans cesse vers plus d'efficacité dans la production.

Concurrence et discrimination : à quoi peut-on s'attendre ?

La deuxième raison pour laquelle cet article est intéressant et qu'a priori, l'intuition ne permet pas de trancher sur cette question. D'une part, on peut imaginer qu'un système communiste garantit l'égalité parfaite entre hommes et femmes sur le marché du travail. D'autre part, on peut penser que dans un système corrompu et bureaucratique, les "rentes" sont essentiellement accaparées par les hommes.

Quel sera l'effet de l'introduction de la concurrence ? On peut penser que dans un système non-contraint, les employeurs sont libres de discriminer les catégories de population de leur choix et de fixer des salaires inférieurs pour les femmes. Toutefois, on peut aussi affirmer que dans un système concurrentiel, si un employeur choisit de se priver volontairement de travailleurs compétents pour satisfaire son goût pour la discrimination, ses concurrents vont récupérer les compétences inutilisés et vont être plus efficaces. Ainsi, la concurrence tendra à éliminer les firmes où se pratique la discrimination car celles-ci sont moins efficaces.

Les deux arguments se tiennent, il faut donc se tourner vers les données pour progresser dans notre réflexion.

Le cas de la Hongrie : une réduction de la différence de salaire "inexpliquée"

Commençons par une vue d'ensemble : le ratio du salaire moyen des femmes sur celui des hommes est passé de 73% en 1986 à 80% en 1998. Les inégalités de salaire se sont donc réduites. Mais cela ne nous dit rien sur la discrimination. Peut-être est-ce simplement le résultat d'un meilleur accès à l'éducation pour les femmes ou d'une tendance générale à l'accroissement du temps de travail des femmes ?

J'avais rapidement expliqué dans l'introduction d'un précédent billet comment on s'y prenait pour mesurer la discrimination. L'idée est de comparer les salaires des hommes et des femmes, puis de chercher à expliquer la différence par tous les facteurs possibles et imaginables : éducation, expérience, temps de travail, etc... On attribue généralement à la discrimination la différence "résiduelle", c'est-à-dire la différence de salaire qui ne peut pas s'expliquer par des différences de productivité ou de temps de travail. Généralement, cette méthode surestime la discrimination car la productivité n'est malheureusement pas directement observable par les chercheurs (ce serait trop beau).

Les estimations menées par les chercheurs montrent que cette réduction des inégalités s'est traduite intégralement par une réduction de la part "inexpliquée" de la différence de salaires hommes/femmes, donc a priori, par une réduction de la discrimination (à défaut d'une autre explication).

Au delà des précautions qu'il faut prendre pour interpréter ces résultats, il faut également se garder de penser qu'une économie de marché concurrentielle élimine automatiquement les discriminations. Il faut, à mon sens, plutôt interpréter les résultats dans le sens inverse : le fait de forcer l'égalité des salaires entre hommes et femmes ne permet pas de lutter efficacement contre les discriminations. A ce titre, je doute que des politiques publiques axées sur plus de contrôles et plus de sanctions sont réellement efficaces. Est-ce qu'il ne serait pas plus efficace de tabler sur un accroissement de la mobilité des travailleurs pour mieux faire jouer la concurrence entre les employeurs ?


vendredi 8 janvier 2010

De quoi parlent les économistes ?

Etant donné le nom que j'ai donné à mon blog, je n'ai pas pu m'empêcher de tilter quand j'ai vu le post de Justin Wolfers sur le blog Freakonomics intitulé "What are Economists Talking About ?". Suivez ce lien (ça vaut le coup !) et vous pourrez voir un nuage de tags des termes qui apparaissent le plus fréquemment dans les quelques 700 papiers présentés à la dernière réunion annuelle de l'American Economic Association.

Quels sont les champions ? Le numéro 1 est le mot "evidence" (preuve) !! Un symptôme évident de la prévalence de l'analyse empirique en économie. On retrouve bien évidemment des termes en lien avec la crise financière comme "financial", "credit", "risk", "bank", "mortgage" (hypothèque), "housing" (logement). Le mot "policy" est également parmi les leaders. Les économistes sont donc préoccupés par les politiques publiques à mettre en place.

Comme le fait remarquer l'auteur du billet cité, on peut apercevoir les champs plus récents de l'économie à travers des termes comme "experiment" (expérience), "health" (santé), "teaching" (enseignement), "education", "gender" (genre), "women" ou "households" (ménages).


Pourquoi les économistes utilisent-ils des hypothèses fausses ?

L'idée de ce billet m'est venue suite à un débat virulent mais très enrichissant avec l'auteur de ce nouveau blog hétérodoxe. Au cours de ce débat, celui-ci a critiqué le fait que les économistes orthodoxes (attention, c'est très différent des économistes néoclassiques) s'appuient en permanence sur des hypothèses erronées, et l'argument s'arrête là. Oui, je suis entièrement d'accord pour dire que nous utilisons des hypothèses fausses, mais contrairement à mon contradicteur, je ne pense pas que toutes les théories s'appuyant sur des hypothèses fausses sont à rejeter.

Il y a plusieurs réponses possibles à la question posée dans le titre.

1. Evacuer les aspects de la réalité qui ne nous intéressent pas

Je suis obligé d'évoquer le premier argument, qui est probablement fondamental mais qui n'est pas le plus intéressant. Je viens au passage de redécouvrir son développement sur mafeco à cette adresse.

La modélisation en économie (et comme dans toute science j'imagine) est un compromis permanent entre réalisme et simplicité. Plus on intègre d'éléments, plus le modèle est réaliste mais plus le modèle est complexe et difficile à interpréter. Le premier travail d'un économiste est de choisir quels sont les éléments qui l'intéressent et quels sont les éléments qui ne l'intéressent pas.

Exemple : A l'heure actuelle, je travaille sur des modèles centrés sur la microéconomie de l'éducation. Dans ces modèles, on décrit le comportement d'un étudiant qui doit choisir la durée de ses études. Parfois, on modélise le fait que l'étudiant doit trouver une source de financement pour ses études, et donc on est tenté d'introduire un marché du crédit. Pour ce faire, on a (pour caricaturer) deux solutions. Soit on sort toute la batterie de la théorie de la détermination macroéconomique des taux d'intérêt et puis on modélise l'asymétrie d'information entre l'étudiant et le banquier et puis on introduit des sources de financement alternatives comme la famille et autres. Soit on suppose que l'étudiant peut emprunter, à un taux d'intérêt fixe, un montant aussi élevé que ses capacités de remboursement futures le permettent.

Quelle est la bonne solution ? Impossible de le dire tant qu'on ne connaît pas l'objectif du modèle ! Si dans le modèle, le financement des études ne représente qu'un aspect secondaire (par exemple l'auteur essaie de faire une théorie de la durée optimale de scolarité obligatoire dans les pays développés ou une théorie qui essaie d'expliquer en quoi les pairs influencent le choix de la filière), alors une modélisation simple du marché du crédit est amplement suffisante (à moins qu'on ne parvienne à démontrer ultérieurement que cette hypothèse modifie substantiellement les conclusions, j'y reviendrai au point 2).

En revanche, si on cherche à expliquer comment les contraintes de financement des études jouent sur les inégalités, il peut être intéressant d'introduire quelques éléments plus compliqués. Par exemple, on peut introduire le fait que le banquier ne connaît pas parfaitement le "talent" de l'étudiant et doit se fier à différents éléments pour savoir s'il doit accorder un prêt ou non. Il peut également être intéressant de voir en quoi le fait de naître dans une famille pauvre peut pénaliser les étudiants talentueux dans la poursuite de leurs études.

Ce que je cherche à montrer c'est qu'on ne doit pas dire d'une hypothèse qu'elle simplifie trop la réalité dans l'absolu. Il faut toujours juger de la pertinence d'une hypothèse relativement au modèle auquel elle est intégrée et par rapport à l'objectif du modèle.

2. Aller du simple vers le compliqué

Il y a un sens naturel de progression de la pensée qui préfère aller du simple vers le compliqué plutôt que le contraire. Quand on aborde un domaine nouveau (aussi bien en tant qu'individu qui s'intéresse à un domaine qu'il avait auparavant délaissé ou en tant que chercheur qui s'attaque à un domaine que ses collègues n'ont jamais abordé), il faut commencer simple. Lorsque Robert Solow s'est attaqué à la théorie de la croissance, s'il avait voulu faire un modèle avec concurrence imparfaite et rendements croissants, il aurait vite jeté le stylo et serait parti s'enfiler un kébab pour se changer les idées (quoiqu'à l'époque, je ne sais pas si les kébabs étaient aussi répandus qu'aujourd'hui). Non, il a commencé avec un modèle simple où il essaie de réduire la croissance à l'accumulation de capital par travailleur, ce qui peut sembler complètement caricatural !

Il s'est avéré que le modèle de Solow était faux, au sens où on ne peut pas expliquer les différences de niveau de vie par l'accumulation de capital physique dans un monde à rendements décroissants. Le manuel de David Romer (à ne pas confondre avec Paul Romer) raconte comment à partir du modèle erroné de Solow, on a pu développer tous les modèles ultérieurs qui ont permis une compréhension beaucoup plus fine des déterminants de la croissance économique de long terme.

Néanmoins, le fait est que sans le modèle faux de Solow, on n'aurait jamais pu élaborer tous les autres ! Pourquoi ? Parce que chaque nouveau modèle dans la théorie de la croissance était un perfectionnement du modèle précédent. C'est en améliorant le modèle de Solow qu'on a pu construire des modèles plus complexes, plus réalistes et extrêmement instructifs.

Un modèle ne doit donc pas être apprécié uniquement en soi mais aussi par rapport aux développements ultérieurs qu'il a permis. Oui, le modèle walrasien d'équilibre général et de "marchés parfaits" est irréaliste, mais si on ne l'avait pas développé, on n'aurait jamais pu étudié toutes les imperfections de marché. Oui le modèle de Ricardo du commerce international est irréaliste, mais sans lui, on n'aurait pas pu élaborer tous les modèles ultérieurs de commerce international.

3. Les modèles intéressants parce que faux

Cette fois, j'avoue que mon exposé sera fortement inspiré du post de mafeco (qui développe l'argument mieux que moi). Je vais néanmoins présenter les choses un peu différemment.

Tout d'abord, savez-vous ce qu'est la contraposée ? Il s'agit d'un type de raisonnement qui consiste à dire que si A implique B, alors la négation de B implique la négation de A. Si un agent rationnel fait des choix optimaux, alors un agent qui fait des choix sous-optimaux est forcément irrationnel. Vous me suivez ? Bien.

Beaucoup de théories économiques sont intéressantes à interpréter dans ce sens. Par exemple, avec un ensemble d'hypothèses irréalistes, on peut démontrer que les marchés fonctionnent efficacement. Donc, si les marchés ne fonctionnent pas bien dans la réalité, c'est qu'il y a forcément une hypothèse qui cloche.

Contrairement à ce qu'on lit souvent et au risque de mettre les pieds dans le plat, la théorie de l'équilibre général n'est pas utilisée par les économistes pour montrer que tous les marchés fonctionnent bien lorsqu'ils ne sont pas régulés (ou en tout cas, cette opinion est minoritaire chez les économistes académiques (le mot académiques est ici important car cette opinion semble répandue chez les économistes de plateaux télé)). Tout l'intérêt de cette théorie est de montrer que si un marché ne fonctionne pas bien, c'est qu'il y a une hypothèse au moins dans la liste qui n'est pas vérifiée.

Pour caricaturer un peu l'histoire, les économistes ont regardé les différentes hypothèses du modèle et se sont mis à regarder ce qu'il se passait lorsqu'on relâchait une hypothèse ou deux (je caricature l'histoire car en réalité, ces recherches ont débuté au moins trente ans avant qu'on ne parvienne à établir la liste précise des hypothèses en question, car on avait déjà une bonne idée de ce qui caractérisait les "marchés parfaits"). Et grâce à ça, on a pu considérablement progresser dans l'étude des imperfections de marché et des politiques publiques à mettre en oeuvre.

J'insiste bien sur cet exemple car l'idée selon laquelle les économistes orthodoxes sont tous des néo-libéraux acharnés est complètement fausse. Il existe une catégorie spéciale dans la classification JEL (la catégorie H) qui s'intitule public economics et qui discute des politiques publiques que devraient mener un Etat. Les sceptiques peuvent s'amuser à explorer les différentes sous-catégories pour compter le nombre total de papiers qui parlent d'économie publique dans les archives du NBER.

4. La théorie permet d'interpréter les résultats empiriques

Cet aspect est un peu plus compliqué à expliquer. Je vais essayer de faire de mon mieux pour ne pas sombrer dans le jargon statistique et économétrique.

Lorsqu'on a des données sur un phénomène économique, on a toujours la liberté de calculer tout un tas d'indicateurs statistiques. Je vais prendre l'exemple le plus simple possible : la moyenne. La moyenne est typiquement un indicateur statistique très utilisé et très simple à calculer.

La question est de savoir, une fois qu'on a calculé une moyenne, comment l'interpréter. Certains vont trouver cette question idiote, mais prenons l'exemple suivant : je prends deux de mes étudiants au hasard. Un a eu son bac avec mention et l'autre sans mention. Je peux calculer la moyenne et dire : dans mon échantillon, 50% des étudiants ont eu leur bac avec mention. Puis-je interpréter ce résultat comme : dans l'ensemble des étudiants de la population française, 50% ont eu leur bac avec mention ? Non, car je n'ai que deux observations et ce n'est pas suffisant.

Admettons maintenant que je sonde un grand nombre d'étudiants de la fac où je travaille. Puis-je cette fois en déduire que la moyenne de mon échantillon est une bonne approximation de la moyenne de l'ensemble des étudiants français ? Non, car mon échantillon n'est pas représentatif (peut-être que les étudiants de cette fac en particulier sont différents du reste de la population).

Pour que ma moyenne ait un sens, il faut faire un certain nombre d'hypothèses : il faut que les observations soient suffisamment nombreuses et que les observations soient indépendantes (autrement dit, l'échantillon doit être représentatif). Les matheux me diront également que l'espérance et la variance doivent être finies, hypothèse qui n'est pas triviale comme l'a montré Taleb.

En gros, la théorie va me permettre de voir quelles hypothèses je dois admettre pour interpréter mon indicateur d'une certaine manière. Vous avez pu voir que déjà, il faut faire un peu attention dans le cas d'une simple moyenne. Mais lorsque les économètres manipulent des outils statistiques très sophistiqués, ils doivent être encore plus vigilants sur les hypothèses qui doivent être vérifiées pour que l'interprétation de leurs résultats soit correcte.

Le fait est que, très souvent, les économistes "empiristes" n'ont pas à leur disposition de théorie pour les aider à identifier les hypothèses qui justifient l'interprétation de leurs résultats. L'objectif d'une théorie peut être de clarifier les hypothèses en question. A titre personnel, je suis en train de développer un modèle qui donnent des fondements à l'analyse empirique des effets de pairs au sein des salles de classe. Les hypothèses de mon modèle sont un peu irréalistes, mais l'intérêt (si j'arrive à mener mon travail à terme) est de montrer qu'il faut les accepter si on veut pouvoir interpréter les résultats des travaux empiriques. Et donc, si on considère qu'elles ne sont pas acceptables, il faut modifier les méthodes statistiques utilisées.



En conclusion, je voudrais rappeler un point important : oui, il faut critiquer les hypothèses pour faire progresser la science économique. Mais il ne suffit pas de dire qu'une hypothèse est fausse pour faire une critique pertinente. Il faut montrer pourquoi relâcher cette hypothèse serait pertinent dans le contexte du modèle dans lequel elle s'inscrit et par rapport à l'objectif du modèle en question.


mercredi 6 janvier 2010

Les anglo-saxons ont l'air de considérer les soldes comme une curiosité

C'est l'impression que j'ai eu en lisant ça. Après tout, peut-on vraiment leur donner tort ? On peut comprendre qu'il leur semble étrange qu'on interdise aux firmes de vendre pas cher pour pouvoir protéger les vendeurs qui vendent cher.


lundi 4 janvier 2010

La justice sociale, c'est quoi pour vous ?

On sait depuis quelques temps maintenant que les individus ne sont pas motivés uniquement par leur intérêt propre mais ont un goût plus ou moins prononcé pour la "justice" (je mets volontairement ce mot entre guillemets, vous allez voir pourquoi). Les économistes ont découvert ceci grâce au jeu célèbre du dictateur. Ce jeu se joue à deux joueurs. Un des deux joueurs (choisi au hasard) reçoit une certaine somme d'argent "tombée du ciel" et doit choisir de répartir cette somme entre lui et son partenaire. Un individu uniquement mû par son intérêt propre choisirait bien évidemment de tout garder pour lui. Mais on observe fréquemment que les individus donnent une part de l'argent ainsi reçu à leur partenaire (les expériences se déroulent dans le plus strict anonymat et par ordinateurs interposés pour être sûr que les individus ne donnent pas une certaine somme pour avoir une bonne image auprès des autres). Certains individus sont donc prêts à donner de l'argent à quelqu'un qu'ils ne pourront pas identifier et qui ne pourra pas identifier son donateur. On interprète ce comportement comme un "goût pour la justice sociale".

Néanmoins, le concept de justice sociale est assez flou et peut être défini de plusieurs manières différentes. L'observation des comportements permet donc de comprendre quelles sont les conceptions de justice sociale sous-jacentes.

Les trois conceptions de la justice sociale

Les auteurs de l'étude dont je vais vous parler présentent trois conceptions de la justice sociale :
  1. L'égalitarisme strict : toutes les inégalités doivent être abolies et chacun doit recevoir la même part du gâteau.
  2. Le libertarisme : chacun doit recevoir une part correspondant à sa contribution.
  3. L'égalitarisme libéral : seules les inégalités résultant des choix des individus (et non celles résultant de la chance) sont acceptables.
Pour différencier ces trois conceptions de la justice sociale dans les comportements, nos quatre chercheurs ont créé une variante du jeu du dictateur. Dans cette variante, les individus reçoivent une certaine somme en début de partie. Ensuite, ils doivent investir une part plus ou moins importante de cette somme dans un "pot commun". Mais ils se trouvent que tous les individus ne sont pas à égalité : les plus chanceux ont un taux de rendement élevé sur cet investissement et le montant final est égal à quatre fois la mise initiale. Les autres ont un taux de rendement plus faible et la somme investie n'est "que" doublée.

L'argent ainsi généré n'est pas directement rendu aux joueurs mais placé sur un "compte commun". Ensuite, un des deux joueurs est choisi au hasard pour jouer le rôle du dictateur et doit choisir comment l'argent est réparti (avec la possibilité alléchante de tout garder pour lui). L'intuition derrière tout ça est que l'on va pouvoir tenter d'identifier le "fairness ideal" (l'idéal de justice) des dictateurs.

Un dictateur égalitariste pur (type 1 dans la typologie ci-dessus) aura pour idéal de justice une répartition 50-50 peu importe les contributions de chacun. Un libertarien (type 2) penchera plutôt pour une distribution correspondant à la contribution de chacun : chaque individu devrait recevoir la somme investie ainsi que le retour sur investissement correspondant (et donc tant pis pour ceux qui ont un retour sur investissement faible pour cause de malchance). Pour finir, un égalitariste libéral (type 3) aura pour idéal de justice une distribution où chacun reçoit à hauteur du montant investi (qui est choisi par les individus) indépendemment du taux de rendement de l'investissement (qui est subi par les individus).

Bien sûr, on n'obersve pas directement ces "idéaux de justice" car chaque individu doit arbitrer entre son goût pour la justice et son intérêt individuel. Il faut donc quelques estimations supplémentaire pour déterminer le goût relatif des individus pour la justice.

Des vues divergentes même au sein d'un groupe homogène

Cette expérience a été conduite dans une école de commerce norvégienne et les participants étaient des étudiants de première année. Ce qui est assez surprenant, c'est qu'il y a énormément de diversité dans les conceptions de la justice sociale ainsi que dans l'importance accordée à la justice sociale par rapport à l'intérêt individuel.

D'après les estimations, 44% des étudiants sont égalitistes stricts, 18% libertariens et 38% égalitaristes libéraux. On ne sait pas si les auteurs ironisent ou s'ils sont eux-même surpris lorsqu'ils affirment :
"La proportion de libertariens est relativement faible par rapport à ce à quoi on pourrait s'attendre dans une école de commerce."
Ensuite, nos chercheurs mesurent la distribution des goûts pour la justice. Le meilleur résumé de leurs conclusions est le suivant :
"Environ 35% des participants accordent si peu d'importance aux considérations de justice sociale [...] qu'ils n'offrent rien à leur partenaire. 30% des participants ont une position intermédiaire, tandis que 35% des participants suivent presque à la lettre leur conception de la justice sociale."
 Une justice opportuniste ?

On pourrait avancer l'argument selon lequel les individus choisissent la conception de la justice sociale qui les arrange. Un individu peu chanceux sera tenté d'opter pour l'égalitarisme plutôt que le libertarisme tandis qu'un individu chanceux aura plutôt intérêt à être libertarien.

D'après les analyses des auteurs, ce type de comportement est possible mais non flagrant. Peut-être que l'échantillon est trop faible pour observer correctement ce type d'effet. En tout cas, la majorité des individus ne semble pas être opportuniste dans le choix de leur conception de la justice sociale.


Ce type d'étude n'est pas facilement généralisable car on a de bonnes raisons de croire que les résultats dépendent fortement de la culture du pays (ou même de la région) où l'expérience est menée ainsi que du type de population. Néanmoins, ce que veulent mettre en évidence les auteurs, c'est qu'on est loin d'avoir une unique conception de la justice même dans un groupe homogène.

La notion de justice fait peu à peu son chemin dans le domaine de la science économique. Elle a, à mon sens, un rôle important à jouer pour expliquer les comportements des individus dans un processus de négociation. L'exemple le plus flagrant est celui de la négociation entre employeurs et employés. Les employés choisissent de faire grève ou de bloquer les négociations lorsqu'ils ont le sentiment d'être traités de manière injuste. Mais comment faut-il comprendre "injuste" dans ce contexte ?

PS : Bonne année à tous !

ref :


Alexander W. Cappelen & Astri D. Hole & Erik Ø. Sørensen & Bertil Tungodden, 2005.
"The Pluralism of Fairness Ideals: An Experimental Approach,"
CESifo Working Paper Series CESifo Working Paper No. , CESifo Group Munich.