Entretien avec Philippe Lacoude. Par Grégoire Canlorbe,

Gregoire Canlorbe 14 novembre 2014

DCF 1.0Installé aux États-Unis, Philippe Lacoude est mathématicien et économiste, ancien enseignant à l’Université de Paris (Dauphine), où ses travaux ont notamment consisté à mesurer l’effet Laffer.

Il a travaillé comme Senior Policy Analyst à la Heritage Foundation où il était en charge des modèles de micro-simulation du budget fédéral et des retraites publiques. Pendant dix ans, il a participé chaque année à l’élaboration de l’Index of Economic Freedom (publié par la Heritage Foundation et le Wall Street Journal).

Depuis 2000, comme consultant indépendant, il aide au développement de modèles mathématiques et informatiques pour divers organismes financiers, publics et privés.

Grégoire Canlorbe : Vous avez écrit dans votre livre de 1996 à propos du déficit budgétaire que « si la France vit une telle situation de faillites élevées, de déficits considérables et de chômage persistant, cela ne peut s’expliquer que par un phénomène de grande ampleur, à savoir la hausse des prélèvements obligatoires. Ces derniers sont en augmentation (presque) perpétuelle depuis maintenant des années et il faut toute la mauvaise foi de notre élite politique pour ne pas reconnaître le lien entre l’atonie de l’économie et la resplendissante dépense étatique. Il ne sert à rien d’attendre la baisse des taux d’intérêt si l’on s’obstine à augmenter la pression fiscale. La reprise ne peut provenir que d’un retour du droit de produire, c’est-à-dire du retour à une fiscalité plus basse. » Que diriez-vous 18 ans plus tard ?

Philippe Lacoude : A peu près la même chose, hélas !

Ce livre a été écrit à la suite des débâcles économiques de 1993 et de 1995. A l’époque, comme les recettes fiscales ne rentraient pas, les gouvernements Balladur et Juppé augmentaient les impôts. En parallèle, ils expliquaient la « crise » par les taux d’intérêt élevés : la Banque de France menait la politique du « franc fort » pour éviter une nième dévaluation face au mark allemand. Si les choses allaient si mal, c’était la « faute aux taux » et la faute au « franc fort ».

Deux aspects sont à retenir à propos de la situation de l’époque.

Le premier est que les taux des emprunts d’Etat à 10 ans étaient alors à environ 7,5 % pour 1995, une valeur très proche de la moyenne historique de 7,8 % des 40 dernières années en France. Les taux en question étaient donc loin d’être une anomalie alors que ce sont les taux actuels qui en sont une. Rétrospectivement, l’explication officielle par les politiques à l’époque ne peut donc pas être prise au sérieux. D’autre part, puisqu’il aurait suffi d’une baisse des taux pour « relancer » la croissance, nous devrions être en plein boum économique puisque nous sommes à un minimum historique, tant sur les taux courts que sur les taux longs. Enfin, il est intéressant de se demander ce qui va arriver lorsque les taux d’intérêt de la dette nationale vont revenir à leur niveau moyen historique de 7,8 % ? Comment l’Etat va-t-il payer les intérêts de sa dette colossale qui atteint maintenant plus de 2040 milliards d’euros ? Où va-t-il donc trouver plus de 155 milliards d’euros par an ? Le coût de financement de la dette n’a jamais été aussi bas mais la dette n’a jamais été aussi mal gérée : le Trésor ne profite pas vraiment des taux bas pour emprunter à très long terme. La maturité moyenne de la dette française est de seulement 7 ans : ceci signifie que chaque année, un septième des 2040 milliards de dette française arrive à maturité et doit être réemprunté sur les marchés ! Pour le moment, tout va bien dans un contexte de taux bas mais cette bévue aux proportions épiques va se retourner contre l’Etat quand les taux reviendront à leurs niveaux moyens historiques. A 7,8 %, il faudrait alors emprunter les 24 milliards de déficit primaire, 155 milliards pour les intérêts et un septième de 2040 milliards pour le refinancement, soit 470 milliards d’euro à lever sur les marchés, chaque année.

Le deuxième aspect à retenir est la continuité politique : pour combler des déficits qui se creusent, les énarques socialistes de tous les partis continuent d’assommer le contribuable. Cette recette éculée ne fonctionnait déjà plus en 1996. Elle fonctionne encore moins en 2014 parce qu’elle porte en elle les fruits de sa propre inefficacité. Il est futile d’augmenter un taux d’imposition déjà élevé : à chaque augmentation, la base fiscale se réduit par fraude, par réduction de l’activité concernée ou par évitement. Une augmentation d’impôt supposée rapporter une quantité 10 finit par rapporter 9, puis 8, puis 5, puis presque zéro. Au-delà, on augmente l’impôt et l’assiette fiscale se réduit tellement que la hausse de taux entraîne une baisse de recette. C’est l’effet Laffer du nom de l’économiste américain qui a popularisé ce concept connu depuis fort longtemps.

Grégoire Canlorbe : Existe-t-il un effet Laffer en France ?

Philippe Lacoude : En France, certains revenus constituent la base fiscale de plusieurs impôt ou taxes. En particulier, le travail sert d’assiette fiscale à l’impôt sur le revenu, indirectement à la TVA, aux cotisations de l’assurance maladie et de l’assurance vieillesse. Depuis 40 ans, lorsqu’un gouvernement a un besoin de fonds pour l’assurance maladie, il augmente le taux de cotisation. Lorsqu’il manque de l’argent dans les caisses de l’Etat, il augmente la TVA. Ce faisant, il réduit l’assiette fiscale. Les individus travaillent moins. Comme le travail constitue l’assiette de nombreux impôts, ceci entraîne un amoindrissement des recettes des autres taxes, qui sont alors augmentées à leur tour, perpétuant le cercle vicieux. A aucun moment, les membres de la brillante oligarchie administrative qui dirige le pays ne semblent comprendre ce phénomène. Econométriquement, il est pourtant relativement aisé de montrer qu’une hausse des recettes de l’Etat entraîne une baisse des recettes de la Sécurité Sociale et vice-versa : en 1998, j’avais déjà consacré un chapitre complet de ma thèse à ce phénomène pour la période 1970-1995. J’ai tout lieu de croire que ce syndrome s’est amplifié puisque la pression fiscale globale a augmenté. En 2013, l’Etat a accru presque tous les impôts sauf la TVA et s’est retrouvé avec « un manque à gagner » – selon l’expression consacrée – sur la TVA.

Les finances publiques sont arrivées à un point où leurs trois composantes principales – recettes, dépenses et dettes – jouent toutes à plein contre la croissance économique. En France, les recettes, les dépenses et les dettes sont devenues le boulet de l’impôt, le boulet de la dépense et le boulet de la dette.

topics_laffer_395

Le boulet des impôts est de plus en plus lourd à traîner. Prenons l’exemple américain de la hausse de 1993 du taux supérieur d’imposition sur les revenus de 31 % à 36,9 % : dans une étude à ce propos, Martin Feldstein de l’Université de Harvard a calculé que la perte sèche de cette taxe s’élevait à la marge à près de deux dollars par dollar prélevé. En d’autres termes, pour chaque dollar pris aux contribuables, l’économie subit une perte de bien-être économique imposée par la taxe supérieure à deux dollars. Cette perte se répartit – un peu au hasard de ce que les économistes appellent les élasticités – entre les contribuables et les consommateurs de leurs services potentiels. Pour les contribuables les plus riches, Martin Feldstein a calculé qu’une suppression de cette hausse aurait conduit à une hausse des recettes de 2 milliards de dollars en même temps qu’à une baisse de 23 milliards de dollars de la perte sèche associée à la taxe. Pour la tranche supérieure de l’impôt sur le revenu, l’Etat n’a donc reçu aucune recette supplémentaire grâce à cette hausse des taux d’imposition et aurait même vu une réduction de ses revenus. Il y a vingt ans, il fallait donc détruire à peu près 12 dollars de valeur économique pour lever 1 dollar d’impôt sur le revenu aux taux marginaux américains de l’époque, en gros la moitié du taux marginal français maximal de 75 % ! Martin Feldstein nous dit qu’aux États-Unis, avant l’Internet, avant les délocalisations, à seulement la moitié du taux français, trop d’impôt tuait déjà l’impôt et que les effets étaient massifs.

Ceci n’est pas vraiment une surprise : la baisse de 77 à 24 % du taux marginal d’imposition initiée par Andrew Mellon dans les années 1920 aux Etats-Unis s’est traduite, en seulement quatre ans, par une augmentation des recettes fiscales de 134 %. La division des taux par trois doubla les recettes fiscales ! Sur sept années, l’assiette fiscale sur les hauts revenus progressa de 512 %. La division des taux par trois sextupla les recettes fiscales sur les « riches » ! En conséquence, le déficit budgétaire abyssal de 1921 se transforma en un excédent record de plus de 43 % des dépenses budgétaires.

Lorsque les taux d’imposition sont élevés, ce phénomène se répète pour de nombreuses époques – baisse des impôts sous John Kennedy et Ronald Reagan ou hausse sous George Bush Sr., Bill Clinton et Barack Obama – et de nombreux pays – Etats-Unis, Royaume Uni, Autriche, ou Nouvelle Zélande. En France, il y a peu de données à part une « Etude empirique de l’effet Laffer en France au cours des années 1980 » que j’ai faite en 1994. A la suite de la réduction du taux marginal de 65 % à 56,8 % en 1987, nous constatons que les 1 % de foyers fiscaux aux revenus les plus élevés ont augmenté – et non pas baissé – leur contribution fiscale. Entre 1984 et 1988, la part des hauts revenus dans le total de l’impôt payé est passée de 25,05 % à 28,55 % des recettes de l’impôt sur le revenu malgré une décroissance du taux supérieur du barème. Ceci ne peut s’expliquer que par une hausse des revenus concomitante à la baisse de l’impôt.

L’alternance de 1986 avait causé les suppressions du taux marginal de 65%, de la majoration exceptionnelle et de l’impôt sur les grandes fortunes. Or ce dernier était précisément payé par un effectif voisin de celui de l’échantillon des 0,5 % de français les plus riches en termes d’impôt par part. Il est donc probable que, sur les 125000 foyers que nous avions étudiés, une grande partie ait cumulé ces deux impôts. Bien sûr, un impôt sur le capital ne joue pas – à court terme – sur le partage entre travail et loisir. En revanche, il joue clairement dans le partage que les individus font entre la consommation et l’épargne. De plus, il existait une disposition du code général des impôts – l’article 885 V bis du Code Général des Impôts – qui limitait la somme de l’impôt sur le revenu et de l’impôt de solidarité sur la fortune à 85 % du revenu imposable. Aujourd’hui, après 30 ans de novlangue, on appellerait ceci du doux nom de « bouclier fiscal ». De ce fait, si le montant d’impôts à acquitter au titre de l’impôt sur les grandes fortunes était important et excédait le revenu imposable, tout nouveau revenu était réellement taxé au taux de 85 % ! Il n’y a décidément rien de plus déraisonnable qu’un « bouclier fiscal » mis en place par un politicien de gauche à part, sûrement, un « bouclier fiscal » mis en place par un politicien de droite. La suppression de l’impôt sur les grandes fortunes et la baisse de près de 10 % du taux marginal de l’impôt sur le revenu ont donc entraîné une baisse réelle du taux marginal de 85 % à 56,8 % pour de nombreux contribuables « aisés ».

Le boulet des dépenses tient au fait qu’au-delà d’une certaine taille de l’Etat, l’activité étatique réduit l’activité économique de la sphère privée. La dépense publique siphonne les talents. Elle détruit l’initiative. Elle tue la prise de risque, mère de la croissance économique. En fait, à partir de données américaines, Robert Barro et Charles Redlick de l’université de Harvard ont montré qu’un dollar de dépenses du gouvernement fédéral – s’il est financé par le déficit public – produit beaucoup moins d’un dollar de croissance économique – entre 60 et 70 cents selon les périodes. Si ce même dollar de dépenses du gouvernement fédéral est financé par l’impôt, l’économie se contracte alors de 1,10 dollar ! La dette et la dépense publiques américaines, si elles sont très préoccupantes, sont tout de même plus faibles qu’en France où le même effet ne peut donc être qu’amplifié.

Le boulet de la dette résulte du poids qu’il faut consacrer à financer cette dernière. A près de 100 % de dette publique en pourcentage du PIB, à 2 ou 3 %, les intérêts de la dette absorbent toute la croissance si elle est aussi de 2 ou 3 %. Dans cette zone, si le déficit primaire est nul, le taux d’intérêt de la dette doit rester inférieur (ou égal) au taux de croissance économique pour diminuer (ou maintenir) constant le ratio dette sur PIB. Dans le cas français de 2014, le déficit primaire est d’au moins 25 milliards, les taux d’intérêt sont bas mais très supérieurs au taux de croissance et la dette s’accroît donc exponentiellement. Ceci n’est pas sans conséquence. Selon les recherches empiriques de Christiane Nickel et Isabel Vansteenkiste publiées par la Banque centrale européenne en 2008, lorsque le niveau de la dette d’un pays se situe entre 44 et 90 pour cent du PIB, un euro supplémentaire de dépense publique conduit à moins d’un euro de croissance économique. Lorsque la dette dépasse 90 % du PIB, les multiplicateurs budgétaires tendent vers zéro ; aucune croissance n’émerge de la dépense. Dans ces situations, une augmentation des déficits aujourd’hui réduit les dépenses privées demain, d’au moins le même montant. Dans une série de publications de 2010 et 2011, les économistes Carmen Reinhart et Ken Rogoff de l’université de Harvard et Thomas Herndon, Michael Ash et Robert Pollin de l’Université du Massachussetts, ont montré que les pays dont le ratio de dettes publiques rapportées au PIB était compris entre 0 % et 30 % croissaient à 4,1 % en moyenne et ceux entre 30 % et 90 % croissaient à 2,8 % en moyenne. Les pays comme la France dont le ratio de dettes publiques rapportées au PIB était au-delà de 90 % croissaient à peine à 2,2 % par an en moyenne. À cause d’une erreur initiale dans les résultats et du caractère controversé de la conclusion de Carmen Reinhart et Ken Rogoff, un nombre considérable d’études similaires ont été faites et refaites, entre autres par la Banque Centrale Européenne, le Fonds Monétaire International et la Réserve Fédérale. Toutes arrivent aux mêmes chiffres à quelques décimales près. Plus la dette publique est élevée, moins l’économie croît.

Pour ces trois causes, – le boulet de l’impôt, le boulet de la dépense et le boulet de la dette –, la croissance annuelle moyenne du PIB per capita, à prix constants, en dollars, à parité de pouvoir d’achat, est passée en France de 4,6 % dans les années 1960 à 3,1 % dans les années 1970, à 1,8 % dans les années 1980, à 1,5 % dans les années 1990, à 0,5 % dans les années 2000, pour finir aujourd’hui à 0 % pour cette décade déjà à moitié écoulée…

Les Français vivent ainsi dans une économie à somme nulle où les gains monétaires d’un individu sont les pertes d’un autre. Une majorité d’électeurs est paralysée par l’idée même de réformes parce qu’elle est devenue complètement incapable de raisonner dans le cadre d’une économie en croissance permanente à 4,6 % par an. Cette majorité faite de tous les détenteurs de minuscules privilèges étatiques bloque le changement, toute arc-boutée qu’elle est sur ses minces « acquis sociaux ».

Grégoire Canlorbe : On entend souvent dire que la crise financière de 2008 constitue la preuve indéniable de l’instabilité intrinsèque des marchés. La plupart des commentateurs s’accordent à reconnaître qu’une déréglementation systématique de la finance a été instaurée dans les années 1980 et 1990, dont nous paierions le prix aujourd’hui. Dans quelle mesure souscrivez-vous à cette vision des choses ?

Philippe Lacoude : Si seulement nous avions eu une déréglementation dans une quelconque industrie que ce soit ! Ce n’est pourtant pas le cas.

Premièrement, entre le moment où Bush a pris ses fonctions en 2001 et le moment où il les a quittées en 2008, il y a eu une augmentation de 13 pourcent du nombre annuel de nouvelles règles. Selon une étude de Véronique de Rugy, le nombre de règlements administratifs – l’équivalent américain des décrets d’application français – a donc non seulement continué à croître mais à un rythme plus élevé que sous Clinton, lui-même un recordman en la matière. Une autre façon de mesurer les choses est de regarder le volume de ces décrets d’application sous forme de papier : sous l’administration républicaine, une augmentation significative de l’activité de réglementation a conduit à une augmentation du « Federal Register », – l’équivalent américain du Journal Officiel français – de 64438 pages en 2001 à de 78090 pages en 2007. L’infortuné président américain n’était hélas pas conseillé par Michel Sapin, un socialiste à la trempe d’airain dont Homère faisait ses héros, ancien Ministre du Chômage devenu Ministre de la Parcimonie, qui avait proclamé dans un instant de génie fulgurant qu’« il suffit d’écrire [les codes] plus petits pour qu’ils soient moins gros » !

Deuxièmement, tout ce papier supplémentaire pourrait consister à dire « Laissez faire les entrepreneurs ! Laissez passer les biens ! ». Surprise ! Il n’en est rien. Comme chaque département américain est obligé de faire une étude d’impact, nous pouvons additionner les coûts de ces nouvelles réglementations : en 2007, ils étaient bien plus élevés que ce qu’ils étaient avant 2001. Parmi toutes ces nouvelles règles, 159 étaient « économiquement significatives », ce qui signifie qu’elles coûtent au moins 100 millions de dollars par an. C’était une augmentation de 10 % du nombre de règles coûteuses par rapport à 2006, ou 70 % d’augmentation depuis 2001. A la fin de 2007, 3882 réglementations étaient déjà à différents stades de leur mise en œuvre, dont 757 ciblaient les petites entreprises. Bush a donc été un super-réglementateur. Il a continué à créer des réglementations, à un rythme supérieur à celui de ses prédécesseurs.

Troisièmement, le secteur financier n’a évidemment pas échappé à ce phénomène. Le nombre de réglementations y a augmenté, à un rythme supérieur aux autres secteurs et à un rythme supérieur à la décennie précédente. Comme l’a également montré Véronique de Rugy, le nombre de fonctionnaires affecté au contrôle des institutions financières s’est accru dans toutes les administrations : la Federal Reserve, le Federal Deposit Insurance Corporation, l’ex-Office of Thrift Supervision et l’Office of the Comptroller of the Currency.

Quatrièmement, la complexification des réglementations est, à mon sens, une cause majeure de la crise. Je vais prendre un exemple simple, les accords de Bâle. J’ai eu la chance de travailler brièvement pour une grande banque à Singapour lors de l’implémentation de la première mouture, en 1991. La version finale des accords de juillet 1988 tenait en quelques 30 pages. Les accords étaient simples mais incomplets. Les réglementateurs se sont donc réunis pour pondre une seconde version. Je travaillais à ce moment-là comme consultant pour l’une des quatre agences fédérales citées ci-dessus. La version finale des accords Bâle II de juin 2006 tenait en quelques 347 pages. Le calcul des différentes mesures de risque et des ratios financiers était devenu franchement ardu. Qu’à cela ne tienne ! Les accords de Bâle III rajoutent 53 et 77 pages pour le seul calcul des règles sur le capital et sur le calcul des liquidités, respectivement. Le réglementateur moyen a un manuel de plus de 1000 pages. La moitié des concepts le dépasse totalement. C’est la porte ouverte à des surprises financières retentissantes. C’est aussi la porte ouverte à l’arbitraire gouvernemental et aux petits arrangements entre amis dans le dos du grand public.

A ce sujet, j’ai une anecdote amusante que je ne raconte généralement qu’en privé mais je vais faire une exception sans donner trop de noms. Avec un ami, nous avons implémenté un modèle économétrique basé sur le calcul d’une vingtaine de ratios financiers généralement considérés comme reflétant la santé d’une banque. A l’aide d’un modèle relativement simple, notre client gouvernemental pouvait dire quel ratio sortait de l’ordinaire. Les auditeurs gouvernementaux étaient envoyés en priorité dans les banques à problèmes. Les institutions financières en pleine santé voyaient moins souvent leur réglementateur. Ceci faisait une économie évidente. Dès 2003, quatre ans avant la crise, il apparaissait qu’une des plus grandes banques mondiales violait un certain nombre de seuils. Elle opérait de façon, disons, dangereuse. Elle n’était pas la seule mais elle était la pire. Nous avions décidé de faire apparaître un petit drapeau rouge à côté des « mauvais » chiffres sur tous les rapports. Notre client gouvernemental nous a fait enlever les petits drapeaux rouges pour toutes les banques au-dessus d’une certaine taille de bilan. Sans doute, la banque en question n’avait-elle pas pris nos petits drapeaux rouges avec sympathie ? La décision a été rationalisée en considérant que les très grandes banques étaient si amplement diversifiées qu’elles ne risquaient point d’avoir d’ennui même avec des bilans chancelants. Cette banque a depuis puisé massivement dans les lignes de crédit ouvertes par la Federal Reserve à l’occasion du Troubled Asset Relief Program… La banque aurait dû mourir. Elle n’a été sauvée que par ses connections politiques.

En résumé, nous pouvons donc établir avec certitude que, premièrement, le nombre de règles n’a cessé de croître, que, deuxièmement, ces règles sont devenues de plus en plus coûteuses, que, troisièmement, l’Etat a embauché une armée de fonctionnaires pour les faire respecter, que, quatrièmement, les règles sont devenues ingérables par les intéressés et que, cinquièmement, les fonctionnaires n’avaient pas trop envie de secouer le cocotier qui les nourris.

Ces cinq faits pré-datent la venue de la crise.

Ce mythe de la déréglementation enterré, nous devons chercher d’autres causes à la crise.

Si on regarde les taux directeurs – je parle du « federal funds rate » – de la Federal Reserve de 1990 à 2014, on voit une rapide décrue à partir de la récession correspondant à la première guerre du Golfe Persique. Au début de l’ère Clinton, les taux sont à 3 %. On emprunte à pas cher et on crée une première bulle financière : la bulle Internet ou bulle technologique. Au moment même où Alan Greenspan parlait de « l’exubérance irrationnelle » des marchés, il était en train de financer cette dernière. Après avoir eu des taux trop bas à 3 % pendant un an, ils ont été relevés à 6,5 %, exactement au moment où le NASDAQ atteignait son apogée. A ce taux, de nombreux projets économiques n’étaient plus rentables ; on s’est retrouvé avec un crash. Qu’à cela ne tienne, la Federal Reserve a redescendu brutalement son taux directeur à la valeur historiquement basse de 1 %, en juillet 2003. A cette valeur, les prêts immobiliers à taux variable, sans remboursement du principal et sans apport personnel, permettent d’acheter une maison de un million de dollars avec des traites hypothécaires mensuelles de seulement 833 dollars, hors impôt foncier, hors assurance. C’est le début de l’envolée des subprimes, ces prêts pour clients à problèmes. C’est aussi l’inflexion exponentielle de la courbe des prix de l’immobilier. En juillet 2004, dans sa grande sagesse, la Federal Reserve commence à remonter le taux directeur qui passe lentement de 1 % à 5,25 % en août 2006,date approximative où les prix de l’immobilier culminent. Les prêts à taux variables sont devenus impayables pour tous les individus qui avaient misé sur une hausse continuelle du prix de l’immobilier accompagnée de taux toujours plus bas. On connaît très bien le reste de l’histoire. Toute l’histoire de la Grande Récession est d’origine monétaire, c’est-à-dire d’origine étatique.

A ce sujet, je voudrais en partie disculper Fannie Mae et Freddie Mac. Pour être tout-à-fait honnête, je dois mentionner que j’ai travaillé comme consultant pour l’une d’entre elles au sein du groupe en charge de ses modèles financiers pendant près de cinq ans durant la crise. Contrairement à l’idée répandue, les deux entreprises sponsorisées par l’Etat – Government Sponsored Enterprises (GSE) en anglais – ont perdu moins d’argent sur leur portefeuille de garanties de prêts immobiliers que les institutions financières privées. L’agence gouvernementale qui les supervise, la Federal Housing Finance Agency, a montré que c’était vrai aussi bien sur les 37 ans, de 1971 à 2007, qui ont précédé la crise que sur les années de crise, de 2008 à 2011. De même, sur les fameux prêts subprimes, les deux agences gouvernementales ont eu de meilleurs résultats financiers et ont perdu des parts de marché juste avant la crise. Ceci signifie qu’elles émettaient moins de prêts pourris que leurs compétitrices privées. En revanche, elles faisaient tout ceci avec des fonds propres qui n’étaient statutairement que de 2 % : avec 2 dollars, elles pouvaient en prêter ou en garantir 100. D’autre part, bien que cotées en bourse, elles n’étaient pas supervisées par la Securities and Exchange Commission – la SEC, autorité de marché – et elles faisaient leurs petites affaires à l’abri des regards indiscrets. C’était une bonne chose car la loi obligeait Fannie Mae et Freddie Mac à acheter des prêts pourris – soi-disant pour « aider » les indigents – à la fin de chaque année. Quand on obtient le droit de prêter 100 dollars avec seulement 2 dollars de fonds propres, on est certain de faire faillite si seulement 2 % des prêts ne sont pas remboursés. Cette sous-capitalisation de Fannie Mae et Freddie Mac, mais aussi de Lehman, Goldman Sachs, Merrill Lynch et autres géants financiers américains a contribué à exacerber la crise d’origine monétaire. Non seulement la réglementation a augmenté sur cette période mais certains de ses aspects étaient parfaitement idiots, hélas, probablement par dessein.

La structure de l’actionnariat des banques a probablement également joué. Prenez Microsoft ou Oracle. Tout le monde connaît le nom des principaux actionnaires. Ils sont clairement identifiés et ont mis leur propre argent dans leurs entreprises. Au contraire, les banques systémiques ont un actionnariat entièrement atomistique. Le contrôle interne s’en trouve fortement affaibli. Il est plus difficile d’aligner les intérêts de court terme des dirigeants et les intérêts de long terme des institutions qu’ils gèrent. Ceci est apparent dans tous les scandales qui ont eu lieu dans cette industrie au cours de la dernière crise. Les plus grosses banques sont trop grosses au regard de la taille des économies qu’elles servent : leurs autorités de régulation seraient bien inspirées de revoir leurs règles prudentielles qui sont grandes contributrices de ce phénomène relativement nouveau.

Grégoire Canlorbe : Il est généralement reconnu que le principal problème avec le système des soins de santé américains est que les prix sont continuellement à la hausse, rendant ainsi les soins de santé inabordables à une fraction toujours plus grande de la population. La Loi sur la Protection du Patient et de l’Accessibilité aux Soins, communément appelée la Loi sur les Soins abordables, ou encore « Obamacare », est souvent décrite et révérée comme un moyen d’améliorer cette situation. En tant que Français établi aux Etats-Unis, que pensez-vous d’Obamacare ?

Philippe Lacoude : Je vais vous choquer. J’aimerais que dès demain la France adopte « Obamacare » et que les Etats-Unis y renoncent.

Pourquoi ?

Contrairement à l’opinion du Français moyen, abreuvé d’idées fausses par ses médias gavés de subventions publiques, Obamacare repose sur des assurances santé privées. Très schématiquement, Obamacare est un système semi-étatique semi-privé qui repose sur 1) une subvention à l’achat d’assurance privée, 2) un faux « marché » dans chaque Etat, 3) une obligation de s’assurer sous peine d’amende, le fameux « individual mandate » qui a été reconnu constitutionnel parce qu’analogue à une taxe, 4) une foultitude de règlements contraignant ces assureurs privés, 5) le surdéveloppement de Medicare et 6) l’interdiction d’acheter son assurance dans l’Etat voisin même si elle est moins chère.

Ce dernier point, complètement absurde, existait déjà avant Obamacare et empêchait les habitants du New Jersey d’acheter leur assurance maladie dans le Nevada où les prix étaient pourtant environ trois fois moindres. Il réduit la concurrence entre assureurs qui remercient vivement la puissance publique en déversant des tombereaux de dollars malodorants sur les politiciens véreux de tous les partis, ceci à chaque élection. Dans certains Etats, où le marché est étroit parce que la population y est faible, il n’y a qu’un assureur. Par exemple, PreferredOne qui était l’assureur le moins cher dans le Minnesota et qui avait réussi à gagner 59 pourcent de part de marché « Obamacare » en 2013 a décidé de jeter l’éponge, laissant 30000 foyers sans assurance santé. Avec un seul assureur, il est vain d’espérer un abaissement de prix par les effets bénéfiques de la concurrence !

La subvention à l’achat d’assurance est nouvelle : plus les revenus d’un individu sont faibles, plus la subvention est forte. Les riches paient pleinement leurs primes. Les pauvres sont aidés. En dehors du fait que l’argent doit bien être pris à une victime du fisc, ce système est pervers car il faut savoir quel est le revenu des individus. Dans un pays avec 50 systèmes d’aides sociales, plus un régime fédéral, des retraites privées ou publiques, des pans entiers d’assurés déjà couverts en tant que vétérans, fonctionnaires, ou employés, déterminer les « faux droits » de chacun relève de l’exploit. Il faut donner à la puissance publique un droit de regard sur la vie privée intime des individus.

Et là intervient le second volet, le faux « marché » dans chaque Etat de l’Union : Obamacare a mis en place 50 sites web, fournis soit par l’Etat fédéral, soit par les Etats eux-mêmes selon leur vœu, pour calculer ces subventions. Les sites en question puisent leurs données dans de multiples bases de données gouvernementales, le fisc, la Social Security (retraites publiques), les aides sociales, pour déterminer le « juste prix ». Le tout est surveillé par 16000 nouveaux employés du fisc qui vérifient si les « consommateurs » ont honnêtement rempli leurs déclarations. Bien sûr, en plus de l’atteinte à la vie privée de chacun, les catastrophes, aisément prévisibles, n’ont pas tardé : les sites ont connu tous les déboires propres aux projets informatiques gouvernementaux bien connus des Français. Ils ont coûté des fortunes en informatique et certains comme dans l’Oregon ou le Maryland n’ont jamais fonctionné malgré des dépenses respectives de 305 et 171 millions de dollars ! A Hawaii, le site a coûté 23899 dollars par contrat d’assurance souscrit. Certains ont failli lamentablement pendant près de six mois et ont, inévitablement, été piratés comme le site HealthCare.Gov en juillet 2014. Pendant des semaines, le président faisait conférence de presse après conférence de presse pour assurer à ses électeurs qu’ils allaient enfin pouvoir acheter un contrat, ou que les contrats perdus par le système informatique allaient être honorés, ou que les dates limites de paiements allaient être repoussées. Au même moment, HealthCare.Gov plantait comme une vieille version de Windows 95 et se trouvait être la risée de la Silicon Valley. Impossible de créer un compte. Impossible de se loguer. Impossible de trouver les prix. Impossible de payer. L’histoire retiendra le « rollout » d’Obamacare comme le moment où le président techno-cool super-chébran a perdu toute sa superbe. Il a décroché dans les sondages et ne s’en est jamais remis.

Le troisième volet est l’obligation de s’assurer sous peine d’amende, le fameux « individual mandate ». A priori, une obligation légale d’acheter un produit est interdite par la constitution américaine. Toutefois, cette obligation a pris la forme d’une taxe à payer par ceux qui ne sont pas assurés. Le président Obama n’en voulait pas et avait juré pendant sa campagne des primaires qu’il n’en serait pas question. Malheureusement, si on interdit aux assureurs de varier leurs prix en fonction de l’état de santé des assurés, il suffirait que ces derniers attendent d’être malades pour souscrire une assurance. Les compagnies d’assurance fermeraient toutes leurs portes. Il faut donc punir les récalcitrants. Il faut les obliger à s’assurer.

Ce fait micro-économique simple a forcé l’adoption d’un quatrième volet, la réglementation à outrance du marché médical. La loi fait 2300 pages. Personne ne l’a lue. Elle s’accompagne de 11500 pages de décrets d’application. Personne ne les a lus. En particulier, la présidente de la Chambre des Représentants des États-Unis, Nancy Pelosi, architecte de la loi, a eu ce moment de candeur rare chez ceux de sa classe lorsqu’elle a dit : « nous devons adopter [Obamacare] pour que vous puissiez découvrir ce que cette loi contient ». La loi garantit que tous les malades seront assurés au même tarif que les biens portants. Elle garantit que les enfants seront assurés par l’assurance de leurs parents jusqu’à 26 ans. Elle oblige les entreprises à assurer tous les employés s’ils travaillent plus de 30 heures par semaine. Elle oblige les entreprises de plus de 10 personnes à assurer leurs salariés. Elle force la couverture d’un large nombre de conditions qui ne sont pas des impératifs médicaux.

Les effets sont assurément prévisibles. Selon John Goodman, économiste de la santé, qui a compilé des études des Réserves Fédérales de Philadelphie, de New York et d’Atlanta, environ une entreprise sur cinq a diminué le nombre de ses salariés. Plus embêtant pour ces derniers, il y a de plus en plus d’emplois à temps partiel, les employeurs ayant recours à ces derniers pour passer sous la barre des 30 heures hebdomadaires. Une entreprise sur dix a développé le recours à la sous-traitance. Les petites entreprises tentent de rester sous la barre des 10 employés à temps plein.

Si plusieurs millions de personnes sont maintenant couvertes par Obamacare, il n’en reste pas moins que plusieurs millions de personnes ont perdu les assurances santé qu’elles avaient dans le passé. Le bilan final est un faible accroissement du nombre net des assurés, le tout à un coût additionnel considérable aussi bien pour ces derniers que pour le contribuable. Selon un rapport officiel intitulé « National Health Interview Survey » mené par « National Center for Health Statistics » (du « Centers for Disease Control »), le nombre de personnes se déclarant sans assurance est passé de 14,4 à 13,1 pourcent de la population, soit environ 3,8 millions d’individus. Cependant, ce chiffre est à prendre avec précaution : une partie de ces derniers ne sont pas assurés tant qu’ils n’ont pas documenté leurs « droits » et tant qu’ils n’ont pas payé. Or, il y avait au moins 115000 personnes sans preuve de citoyenneté et entre 1,2 et 1,4 million de personnes dont les revenus déclarés étaient incompatibles avec les subventions reçues. Au final, une bonne partie de ces gens sortiront des 3,8 millions de nouveaux assurés.

Le système devait régler le sort des 40 millions d’Américains qui auparavant n’achetaient pas d’assurance maladie. Obamacare a donc atteint un peu moins de 10 % de son objectif. Si rater 90 % de son objectif peut sembler franchement exécrable, il faut se rappeler que nous parlons d’un programme gouvernemental. Ceci est donc extraordinairement satisfaisant.

Je plaisante.

L’avenir d’Obamacare est sérieusement obéré.

Premièrement, les professionnels de la santé n’en veulent pas. Une étude portant sur 20000 médecins a montré que 46 pourcent d’entre eux donnent une note de D ou de F à ce programme. Seul un petit quart lui donne un A ou un B.

Deuxièmement, de plus en plus de gens détestent Obamacare. On leur a vendu un système sous le prétexte que les prix baisseraient. Ils montent. Et malgré cette hausse, les assureurs ne peuvent plus assurer même à des prix élevés tant il y a de conditions médicales à couvrir. Près de 14000 personnes vont perdre leur couverture au début 2015 dans le Kentucky. Environ 800 en Alaska selon certaines projections. Selon l’Albuquerque Journal, les plans de 30000 personnes seront annulés dans le Nouveau Mexique. Ceci fait suite aux annulations massives d’octobre 2013 où 800000 Californiens, pour ne citer qu’eux, ont perdu leur assurance santé.

Troisièmement, il va falloir trouver des sous pour payer toutes ces subventions. Il manque environ 1000 milliards à l’appel pour les années futures malgré – ou à cause ? – d’une avalanche de nouvelles contributions fiscales. Comme 71 pourcent des nouveaux assurés sont soit vieux soit malades, un taux de 11 pourcent supérieur aux prévisions roses du gouvernement, les plans d’assurance fonctionnent à perte. Ce n’est pas la Sécurité Sociale française. Nous parlons d’assurances privées. Soit les prix augmentent. Soit elles font faillite. Soit elles arrêtent de vendre. Moody’s a d’ailleurs baissé ses perspectives sur le marché boursier pour l’industrie de la santé à « négatif ». Il faudra peut-être renflouer les assureurs. Après tout, on renfloue bien les banques. Le conte de fées loufoque du Président Obama selon lequel son beau système serait en équilibre ressemble de plus en plus à celui du Président Johnson qui avait dit dans les années 1960 que l’assurance maladie publique pour les personnes âgées (Medicare) ou indigentes (Medicaid) coûterait quelques milliards. Ce système est aujourd’hui en déficits cumulés de plusieurs dizaines de milliers de milliards de dollars. Quid d’Obamacare ? Il faudra faire des coupes drastiques des taux de subvention d’Obamacare et des taux de remboursement de Medicare et Medicaid.

Obama speaks about the sequester in Washington

Il existe des solutions reposant sur le marché libre. A un moment donné, il faudra laisser les individus libres d’acheter une assurance dans l’Etat de leur choix et donc laisser la concurrence baisser les prix. Il faudra revenir à un système où les assureurs ne sont tenus d’assurer que les risques graves. Le numerus clausus et les assurances en responsabilité des médecins devront probablement être libéralisés.

Tout ceci dit, un système subventionné et ultra-réglementé d’assurances privées payant pour des frais d’hôpitaux privés, – même s’il est une catastrophe pour les Etats-Unis –, est toujours meilleur qu’un système de pseudo-assurance publique payant pour des frais d’hôpitaux publics. La France devrait adopter Obamacare comme première étape vers la privatisation totale du marché de la santé.

Grégoire Canlorbe: Les politiques démocrates ou même républicaines insistent généralement sur le besoin de recourir à toutes sortes d’interventions gouvernementales dans l’économie. Quelle est votre conception du rôle propre du gouvernement ?

Philippe Lacoude : Le rôle que l’on accorde à l’Etat découle de la morale que l’on adopte.

Si l’on considère que ceux que l’on désigne par le vocable de « riches » doivent subventionner avec les fruits de leur travail ceux que l’on aura désigné comme « pauvres », alors, l’Etat aura une taille considérable. Il devra s’intéresser à la vie de tout un chacun pour ranger les individus dans des catégories d’ayant droit et d’ayant devoir, il devra lever une armée pour le recouvrement de l’impôt et une autre armée pour protéger la première. Une troisième armée sera en charge de désarmer les citoyens : après tout l’histoire a montré que la plèbe, toute ingrate qu’elle est, peut se révolter pour de simples raisons de subsistance. Même s’il fournit une éducation à peine passable au vulgum pecus, l’Etat devra quand même s’assurer de recruter l’élite à son service de façon à s’assurer son allégeance. Les « intellectuels » et les « journalistes » qui en usurpent les titres seront bichonnés. Enfin, il devra créer toutes sortes de mécanismes économiques complexes pour corriger les effets désincitatifs de l’impôt et les effets pervers de la subvention lorsqu’elle conduit à l’oisiveté.

Si au contraire, on pense que les droits de propriété sont inaliénables, l’Etat n’a pas de « rôle » puisqu’on ne peut pas trouver une définition du vol qui ne s’applique pas aussi à l’impôt. Dans ce cadre moral, il ne devrait simplement pas exister.

Le « rôle » de l’Etat ou son absence de rôle découle donc pour ma part de l’adoption des droits de propriété comme fondement du Droit. Le droit de propriété diffère des pseudo-droits gauchistes, les « droits à ». Le « droit à un logement ». Aux dépens de qui ? Le « droit à l’éducation ». Qui paie ? Le « droit aux transports ». Qui s’en acquitte ? Le droit de propriété n’est pas le « droit à » un objet. C’est le droit d’agir en vue de produire ou de gagner un objet. C’est le droit de faire usage de cet objet. C’est le devoir de faire face aux conséquences de cet usage sur autrui s’il y a lieu. Il n’est pas une garantie qu’un homme gagnera une propriété mais seulement une garantie qu’il en sera bien le propriétaire s’il la gagne. C’est le droit d’acquérir, de conserver, d’utiliser et de disposer des valeurs matérielles. A 100 pourcent. Sans interférence fiscale dans les processus de production et d’acquisition.

En fait, je ne suis pas un absolutiste du droit de propriété. Comme Ayn Rand, je pense que le droit à la vie est la source de tous les droits — et le droit de propriété est leur seule implémentation. Étant donné que l’homme doit maintenir sa vie par ses propres efforts, l’homme qui n’a pas droit au produit de son effort n’a aucun moyen de soutenir sa vie. L’homme qui produit tandis que d’autres disposent de son produit est un esclave. L’absolu est « life, liberty and the pursuit of happiness » comme disait Thomas Jefferson. De là viennent le droit de propriété comme moyen et les autres droits naturels subordonnés comme conséquence pratique. Je suis pour le droit d’expression parce que je crois que l’on devrait avoir le droit d’imprimer et de diffuser ce que l’on veut sur le papier que l’on possède. Je suis en faveur de la liberté de rassemblement parce qu’elle découle simplement de l’usufruit de la propriété foncière. Sans les droits de propriété, aucun autre droit n’est possible.

BIO_Mini-Bios_0_Thomas-Jefferson_151078_SF_HD_768x432-16x9

L’Etat, son mode de fonctionnement et sa taille sont donc le reflet du code moral de l’électeur médian. Parle-moi de ton Etat et je te dirai avec quel genre de dépravés tu vis ! Si l’Etat est centralisateur et important, l’électeur médian a une morale de voleur. Si l’Etat s’immisce rarement dans la vie intime du citoyen moyen, l’électeur médian se lève probablement tôt tous les jours et s’occupe productivement.

Ceci est d’autant plus vrai que la démocratie est plus aboutie. Dans une république, où la majorité n’a rien à dire sur les goûts des multiples minorités – surtout la plus petite d’entre-elles, l’individu –, il peut y avoir un décalage entre les vues morales de l’électeur médian et le rôle de l’Etat, au moins temporairement. L’électeur médian ne peut pas élire un politicien qui violerait certains droits de certaines minorités. Par exemple, l’électeur médian peut être contre la pornographie et les fusils semi-automatiques – et c’est probablement le cas de l’électeur médian américain – mais il ne peut pas changer le rôle de l’Etat sur ces questions. La Constitution l’en empêche. Elle protège, respectivement, la liberté d’expression et la liberté de posséder des armes. Dans une démocratie pure – heureusement, elles ne le sont presque jamais – l’électeur médian peut décider de tout et, notamment, de n’importe quoi.

Murray Rothbard disait que « ce serait un exercice instructif pour un sceptique de formuler une définition de l’impôt qui ne s’applique pas aussi au vol ». Même si on est en faveur d’un Etat minimal, il est impossible d’échapper au fait qu’il sera nécessairement fondé sur un crime originel, le vol. Même si on décide que le jeu en vaut la chandelle, c’est un fait philosophique qu’il est bon de garder à l’esprit. Si tous les politiciens traitaient les deniers « publics » en gardant constamment cette idée à l’esprit, on ne serait pas dans la situation actuelle. « Dois-je utiliser cet euro d’argent ‘public’ à telle ou telle fin sachant que j’ai dû faire usage du monopole étatique de la violence et commis un vol pour l’obtenir ? » Toutes les institutions devraient être construites pour forcer à cette constante évaluation.

Lorsque plus de la moitié de l’économie est accaparée par l’Etat – comme en France avec une dépense publique à 57 ou 58 pourcent du total de l’économie – l’électeur médian vit en partie de l’Etat, c’est-à-dire de la minorité que ce dernier spolie : plus la démocratie est pure et plus le résultat est pitoyable. A défaut de mieux, je suis donc contre la démocratie et en faveur de la république avec des droits civils et économiques inaliénables, une solide séparation des pouvoirs et la plus grande décentralisation publique possible. La république ne moralise pas l’action de l’Etat mais elle a le bon goût de limiter les élucubrations potentielles de l’électeur médian. Je pense que toutes les constitutions devraient être revues à l’aune des connaissances en sciences sociales que nous possédons aujourd’hui et qui faisaient partiellement défaut à Charles-Louis de Montesquieu, Thomas Jefferson, Emmanuel Joseph Sieyès, Nicolas de Condorcet, ou James Madison. Une vraie république serait fondée sur les idées qu’a développées Friedrich Hayek dans « Droit, Législation et Liberté ». La constitution inciterait le législateur à réduire plutôt qu’à augmenter la taille et donc le rôle de l’Etat. Le droit constitutionnel est beaucoup trop sérieux pour être laissé aux seuls juristes, surtout quand ils sont aussi inaptes que les faux érudits qui ont rédigé la constitution française actuelle, à contre-sens complet des enseignements de ceux que je viens de mentionner.

En matière d’Etat, je pense donc qu’il faut transposer en droit l’ordre spontané du marché. Il est à mon avis stérile de passer du temps à une discussion entre minarchistes et anarchistes sur le périmètre de l’Etat. Pour deux raisons. D’une part parce que, dans nos sociétés ultra-socialistes, si vous êtes anarchiste, les minarchistes sont vos meilleurs alliés politiques et vice-versa : les uns et les autres ont intérêt à cheminer ensemble vers plus de liberté. D’autre part, parce que définir le périmètre constitutionnel de l’Etat en matière régalienne est une approche fallacieuse. Si je suis d’accord pour dire qu’il n’existe aucune définition du vol qui ne s’applique pas à l’impôt, je ne suis pas sûr que nous soyons à même d’imaginer les formes juridiques pour nous amener à zéro dans le calme alors même que nous sommes incapables d’imaginer celles qui nous ramèneront de 57 % à 55 % de l’économie sans conflits sociaux graves.

Prenons trois domaines souvent considérés comme régaliens pour lesquels la privatisation fait sortir les minarchistes de leurs gonds : la justice, la police et l’armée.

Peut-on privatiser la justice ? Que nenni s’écrient les minarchistes ! Il vaudrait mieux garder la justice monopolistique d’Etat inféodée aux syndicats, avec ses biais idéologiques, ses lenteurs et ses jugements parfois dépourvus de sens. C’est aller un peu vite en besogne. Idéalement, nous souhaiterions au contraire pouvoir tirer parti des mécanismes de marché : il faudrait instaurer une forme de concurrence entre institutions judiciaires, pour faire en sorte que les plus mauvaises disparaissent au profit des meilleures. L’indépendance des juges vis-à-vis de l’arbitraire politique isole ces derniers et les protège vis-à-vis du consommateur de justice : l’élection des juges au scrutin universel n’est sûrement pas la panacée mais peut-on imaginer qu’un procureur mou, qu’un juge laxiste ou qu’un juge d’application des peines permissif puissent relâcher des multirécidivistes comme ils le font parfois aujourd’hui sans subir les foudres de leur électorat ? N’en déplaise aux minarchistes, il est pourtant évident que la justice a été en partie privatisée. Même aujourd’hui, en pleine France socialiste, les sociétés d’arbitrage sont autant de remplaçants de Saint Louis rendant la justice. On entend le peuple se plaindre constamment de la justice étatique mais presque jamais de la justice privée des tribunaux d’arbitrage. Communément, un mauvais arbitre disparaît faute de client, sans même l’intervention incompétente d’une ex-Ministre des Finances reconvertie dans l’affairisme bancaire international. Sans complètement privatiser la justice au premier jour, nous pourrions donc intégrer systématiquement ce qui marche ailleurs : plus de choix des électeurs, plus de choix des clients, plus de variété de recrutement, etc… Moins de monopole de l’emploi des juges, moins de monopole géographique, moins de monopole étatique. Moins de syndicalisme. On pourrait probablement réduire la fonction publique judiciaire à une peau de chagrin tout en améliorant grandement la qualité du produit.

Peut-on privatiser la police ? Là encore, la question est mal posée. Pourquoi a-t-on besoin de la police ? Pour assurer la sécurité des personnes et de leurs biens a priori (dissuasion) et a posteriori (élucidation des délits et des crimes). L’efficacité de la police n’est pas mesurée à l’aune du nombre d’arrestations mais à celle de l’absence de crime. Là aussi, nous pourrions imaginer de faire systématiquement appel au privé pour tendre vers l’absence de crime. La France est victime d’une déferlante criminelle semblable à celle qui a frappé les Etats-Unis dans les années 1970 et 1980 : le parallèle, avec un décalage de trente ans, est saisissant quand on s’intéresse à la criminologie. Les Etats-Unis ont connu une hausse du crime de plus de trois décennies suivie d’une décrue rapide sur les vingt années récentes. La réponse à cette vague de crime a consisté à augmenter les forces policières et pénitentielles : c’est un fait connu et reconnu. Moins notoire est la réponse privée à ce problème : les services de sécurité ont fleuri, la technologie a évolué et les citoyens se sont protégés. D’après l’ouvrage de Bruce Benson, The Enterprise of Law – Justice Without the State –, les sociétés de gardiennage représentent aux Etats-Unis un plus grand nombre de travailleurs que les polices locales, d’Etat et fédérales réunies. Le législateur facilite leur rôle ; moyennant formations et certifications, les employés, en uniforme, peuvent être armés. Il suffit de se rendre dans n’importe quel grand bâtiment public ou privé pour être confronté à leur présence. La réponse technologique a surtout pris forme de systèmes vidéo et d’alarme : là aussi le législateur aide le particulier et un individu peut relier son alarme à la police sur simple déclaration écrite. Les ménages ainsi protégés sont passés de 5 à 25 pourcent entre 1990 et 2010. Enfin, les citoyens se sont défendus : 1993 a concomitamment marqué le début d’une énorme vague d’acquisition d’armes à feu et le début de la rapide chute du taux de meurtres. Les citoyens et les policiers commettent environ 280 et 390 homicides justifiés chaque année. L’usage est parcimonieux puisque les 10 millions de porteurs d’arme ont un taux de criminalité plus faible que celui des forces de police. Pour détourner la célèbre formule de Sir Robert Peel, je dirais que « la police est le public et le public est la police ». Même sans complètement privatiser la police, on pourrait imaginer d’en réduire drastiquement le budget en faisant appel au privé.

Peut-on privatiser l’armée ? Apparemment François Hollande et Manuel Valls considèrent que la réponse est affirmative puisqu’ils ont décidé de louer une partie de son matériel à des entreprises privées. Là encore, il y a d’autres moyens de remplir la fonction tout en réduisant les coûts. Nous pourrions bien sûr commencer par ne plus se mêler des affaires intérieures des autres pays mais pourquoi s’arrêter en si bon chemin ? Une société libre penserait tout son programme de défense comme elle pense le droit individuel à l’auto-défense : Israël, la Suisse et les Etats-Unis sont de bons exemples de pays qu’il serait malsain d’envahir. « Je ne peux pas envahir les Etats-Unis : il y aurait un fusil derrière chaque brin d’herbe » pour reprendre la citation vraisemblablement apocryphe de l’amiral Yamamoto.

Dans chacun de mes trois exemples, j’ai parlé de processus évolutifs. Pas de grande révolution. Les changements à la marge sont un élément clef. Plutôt que de fixer légalement ce que l’Etat devrait faire, il faut créer les conditions de la substitution de ses tâches vers le privé. Le débat « minarchistes » versus « anarchistes » n’a pas de sens dans ce contexte…

Une constitution ne doit donc pas être une transcription écrite de 482 pages de bouillie mentale d’un énarque polytechnicien devenu ex-Président de la République. Qui peut sérieusement penser que l’article 70 d’une constitution européenne idéale devrait prévoir « qu’en cas de perturbation du rail, les autorités doivent se concerter pour maintenir la fluidité du trafic en accordant la priorité aux charges sensibles tels que les aliments périssables » ? Il faut sortir de ce qu’Albert Venn Dicey appelait la « rigidité des constitutions françaises », il y a déjà plus de cent ans.

La constitution doit être un bref ensemble de métarègles simples destinées à faire émerger un nombre toujours plus succin de lois efficaces. Une constitution optimale est celle qui protège les citoyens de la soif de pouvoir des politiciens tout en maintenant les vertus civiques des citoyens.

Il y a heureusement tout un corpus récent sur le sujet. Les chercheurs qui travaillent sur cette question ont même leur revue « Constitutional Political Economy » dans laquelle ils posent la question « Is There an Optimal Constitution? ». Dans le Journal of Public Economics, on peut lire des articles intitulés : « Optimal Taxation and Fiscal Constitution ». Le prestigieux éditeur Elgar a récemment publié un livre au titre évocateur de « The Optimal Decentralisation of Government Activity: Normative Recommendations for the European Constitution ». Toute l’« école des choix publics » est tournée vers la recherche d’institutions politiques optimales ainsi que l’étude des institutions politiques sous optimales.

La clef du succès libéral est de transposer au droit ce que nous avons appris en sciences économiques à propos de l’ordre spontané du marché. Le terme ordre spontané désigne un ordre qui naît spontanément de l’apparent chaos des comportements individuels sans qu’il soit nécessaire de l’imposer par la puissance publique. Le système des prix, qui permet à l’offre de produits de rencontrer sa demande, est l’expression économique d’un ordre spontané. Le respect des droits de propriété et le respect des contrats sont les deux métarègles qui permettent l’émergence de cet ordre, le Spontane Ordnung cher à Friedrich Hayek.

Aucune règle ne spécifie les prix. Aucune règle ne fixe l’innovation. Aucune règle ne spécifie « qu’en cas de perturbation du rail, [...] la priorité [ira] aux charges sensibles tels que les aliments périssables ». Les prix émergent. L’iPhone 6 remplace l’iPhone 5. Les denrées périssables atteignent les étals sans périr. Les énarques polytechniciens reconvertis dans le charabia pseudo-constitutionnel sont inutiles.

hayek-young

Appliqué à la politique, il faut établir un Spontane Ordnungspolitik : un ensemble de métarègles politiques minimalistes qui permettent de faire évoluer les lois dans la « bonne » direction quant au rôle de l’Etat. Des « règles simples pour un monde complexe », pour reprendre le titre d’un bel ouvrage de Richard Epstein. On ne veut pas vraiment que le budget soit en déficit de 3 % du PIB, que le taux maximal d’imposition soit de 30 %, et que le budget de l’armée soit à un maximum de 3 % du PIB. On veut que le budget soit de plus en plus en équilibre, que le taux maximal d’imposition soit en baisse régulière, et que le budget de l’armée soit le plus faible possible.

Friedrich Hayek nous en a donné les pistes dans ses travaux précurseurs du troisième tome de « Law, Legislation and Liberty » : nous souhaiterions que ceux qui votent les recettes ne soient pas ceux qui votent les dépenses, que leurs mandats soient limités, qu’ils ne soient pas politiciens à vie, etc… Le rôle de l’Etat, avec les bonnes métarègles, émergerait spontanément. Il faut réécrire la déclaration universelle des droits de l’homme en repartant du modèle du Comte de Mirabeau et de George Mason, à l’aune des progrès philosophiques du vingtième siècle, épurée du galimatias socialo-marxiste. En établissant la « présomption de liberté » à la Randy Barnett, la Constitution protégerait les droits sans avoir à les énumérer. Il suffit de rendre la croissance étatique pénible et sa métastase actuelle absolument insupportable pour le législateur.

Grégoire Canlorbe : Etes-vous plutôt optimiste ou pessimiste quant à l’avenir économique et géopolitique des Etats-Unis ? Etes-vous davantage optimiste pour les Etats-Unis que vous ne l’êtes pour la France ?

Philippe Lacoude : Je suis extrêmement pessimiste à propos de la France. Elle n’a pas d’avenir ni économique, ni démographique. La crise économique – qui provient d’une subvention étatique de la paresse et d’une imposition toujours plus forte du talent – engendre des flux migratoires de calamité sociétale vers l’intérieur et d’aptitude entrepreneuriale vers l’extérieur. Ceux qui se plaignent de l’immigration, sans aucunement se plaindre de cette émigration encore plus grave, n’ont généralement rien compris. Ils s’attaquent à un symptôme de l’Etat providence en faillite. Le pire est qu’ils sont usuellement ultra-socialistes de tous les bords extrêmes et favorisent donc de fait ce même Etat providence. Aucun pays ne peut supporter le poids de 30 à 40 pourcent d’oisifs, surtout quand le nombre des créateurs féconds s’amenuise. Les sémillants ministres en charge d’une agitation toujours plus volcanique n’y changeront rien.

Pour reprendre la désormais célèbre formule de HSeize Hashtable, « ce pays est f…u » ! La formule est bien sûr un raccourci facile : le pays n’a pas d’existence propre. Seuls les êtres humains existent. La « France » est un territoire où vit une culture bimillénaire qui peut d’ailleurs fort bien être exportée. La « France » survivra. En revanche, son Etat est « f…u » et sa chute entraînera de profonds conflits, sûrement internes, peut-être externes, vraisemblablement violents et probablement armés.

Pour ce qui est des Etats-Unis, je suis également pessimiste. Je pense qu’ils vont suivre une trajectoire sous-optimale pendant au moins trois ou quatre décennies : la direction sera la bonne mais le mouvement sera nonchalant. La crise fiscale est profonde : comme ailleurs, en Europe et au Japon, les retraites publiques par répartition et les soins médicaux étatiques sont en faillite complète. Cette faillite est masquée par l’emprunt, par la création de monnaie surnuméraire et par la tricherie comptable d’un Etat qui refuse obstinément de provisionner les dépenses futures comme une entreprise devrait le faire. Comme dirait François Hollande, « ça ne coûte rien, c’est l’Etat qui paie » mais, comme l’aurait ajouté Lady Thatcher, « l’ennui avec le socialisme, c’est que vous finissez par manquer de l’argent des autres ». Le remplacement de ces systèmes putréfiés va diminuer la croissance pour au moins une génération. Contrairement à l’Italie et au Japon, la démographie est moins délétère aux Etats-Unis et les modèles montrent que le trou budgétaire total représente environ 4 % de tous les revenus nationaux futurs actualisés. Ce chiffre est de près de 15 % dans le cas français selon mes calculs.

Trois évolutions géopolitiques majeures attendent les Etats-Unis.

Premièrement, le pays va devenir auto-suffisant énergétiquement : après des années de distribution généreuse de permis de forage sous George Bush, les nouveaux puits de pétrole produisent enfin, créant un désintérêt des élites pour les problèmes du Moyen-Orient. Les intérêts de l’oligarchie qui dirige les Etats-Unis vont donc se réaligner sur celle du peuple. C’est la fin de la doctrine Monroe étendue au Moyen-Orient.

21

La Chine a remplacé les Etats-Unis comme le plus gros client de l’Arabie Saoudite. Elle ne sera probablement pas aussi patiente que le Département d’Etat avec les financiers du wahhabisme. L’économie de l’Arabie Saoudite souffre de la révolution du gaz de schiste et de la fracturation hydraulique en Amérique du Nord : alors que les PIB américain et saoudien per capita étaient pratiquement les mêmes en 1974, le premier a plus que doublé pendant que le second baissait de plus de 12 %, en termes réels. Peu à peu, les saoudiens retournent sous la tente. Les attentats du 11 septembre 2001 – qui ont impliqué plus de Saoudiens que de citoyens de tout autre pays – correspondent à un point bas de la courbe du revenu par tête de ce pays. Le PIB par habitant des Emirats Arabes Unis suit un chemin encore plus dramatique, avec une division par trois et demi entre le second choc pétrolier et 2013. Les Américains n’auront plus autant besoin de leur présence militaire actuelle. Les Européens risquent de le découvrir à leurs dépens.

La deuxième évolution géopolitique majeure concerne l’épicentre de population. Entre la naissance du Christ et l’an mille, le barycentre de la population mondiale est resté à peu près au même endroit en Asie Mineure, avant de se déplacer très lentement vers l’Europe de l’Est au cours des 8 siècles suivants. Il n’a pas vraiment bougé jusqu’à 30 ans en arrière. Aujourd’hui, il est retourné en Asie Mineure et se déplace vers l’Est à la plus grande vitesse jamais enregistrée dans l’histoire de l’humanité. L’Europe n’est plus le centre démographique du monde.

Cette oscillation de la fertilité des peuples s’accompagne de notre troisième évolution géopolitique majeure : l’avènement de la révolution industrielle en Inde et en Chine. Alors que ces deux pays représentaient environ la moitié du PIB mondial de l’an 1 à 1820, ils ont peu à peu perdu du terrain sur l’occident (au sens large). En fait, leurs économies ont stagné pendant que l’Angleterre, l’Allemagne, la France, les Etats-Unis et le Japon se développaient. Cette ascension relative de l’Occident de 1820 à 1970 va faire place à un déclin relatif de l’Occident de 1970 à 2070. Ce déclin est inéluctable. Je pense qu’il précédera un déclin relatif combiné de l’Asie et de l’Occident au profit de l’Afrique d’ici la fin de ce siècle. Nous vivons au cœur du quart de millénaire le plus intéressant de l’histoire de l’humanité.

3

Les révolutions industrielles en Chine, puis en Inde, puis au Vietnam, un jour en Afrique présentent tous les travers de celles de l’Angleterre de Dickens et de la France de Zola. Un développement excessivement inégal des villes et des campagnes. Une corruption rampante généralisée, aussi importante chez les élites que chez les petits chefs locaux. Peu de considération pour la vie humaine et encore moins pour l’environnement. La qualité des produits chinois est à peu près la même que celles des fameux premiers câbles reçus par John A. Roebling pour la construction du Brooklyn Bridge : si ça passe un vague test visuel, le client serait bien inspiré de ne rien trouver à redire. Mais ne nous y trompons pas : un jour viendra rapidement où les produits « made in China » seront synonymes de qualité comme le sont devenus le « made in Japan » et le « made in Korea » de notre temps.

Les Etats-Unis vivent donc la fin de l’âge d’or de l’Occident. Chaque petite inflexion du graphique ci-dessus raconte un petit morceau de l’histoire du monde, du moins de l’histoire qui compte en monnaie sonnante et trébuchante. Mis à part durant la grande dépression, les Etats-Unis ont continuellement pris de l’ampleur dans le PIB mondial. La seconde guerre mondiale – avec le flot d’or massif vers les Etats-Unis – a placé ces derniers dans une situation de complète précellence. L’effondrement de l’ex-URSS, facilement notable, a renforcé cette hégémonie. Le graphique ci-dessus montre d’ailleurs fort bien les effets des deux guerres mondiales. Il n’y a pas besoin de lire les 970 pages d’élucubrations de Thomas Piketty où une théorie néo-marxiste de sous-préfecture de province est à la recherche de mesures d’inégalités de revenus plus ou moins fantaisistes. Tout est là en une image : les réserves mondiales d’épargne sont finalement pratiquement reconstituées après cent ans d’anomalies dues aux dizaines de millions de morts et de la destruction totale du capital physique à un point du globe.

L’Afrique sera le dernier continent à vivre sa révolution industrielle : selon mes estimations ci-dessus, utilisant un mélange de chiffres de la Banque Mondiale et de PricewaterhouseCoopers, le PIB du Nigéria surpassera celui de la France dans quelques décennies.

Nous sommes sur la fin d’un lent retour à la normale plurimillénaire où les hommes des différents points géographiques ont une structure du capital et des revenus moins disparates qu’en août 1945. Un impact géopolitique probable est que les Etats-Unis vont peu à peu perdre l’intérêt et surtout la capacité d’intervenir à tout va. Même si certains Américains confondent encore isolationnisme et non-interventionnisme en politique étrangère, ces deux philosophies gagnent du terrain politique.

Enfin, même si ce n’est pas tout-à-fait le sujet de votre question, j’attire l’attention sur le prix incommensurable du communisme : alors que les pays de l’ex-URSS voyaient leurs économies prendre une part croissante du PIB mondial entre 1820 et 1917 – la Russie tsariste rattrapait son retard technique –, la révolution d’Octobre y a mis fin. Un siècle et 30 millions d’assassinats étatiques plus tard, de l’Oural au Kamchatka, la reprise se fait vainement attendre.

Grégoire Canlorbe : Au-delà de la seule science économique, vous avez étudié les mathématiques et la logique formelle. Une position récurrente parmi les économistes Autrichiens consiste à définir la science économique comme une démarche exclusivement aprioriste à l’instar des mathématiques ou de la logique formelle. Selon cette méthodologie le raisonnement économique doit s’efforcer de tirer les implications directes et indirectes de la proposition jugée incontestable : « L’homme agit, i.e. mobilise certains moyens en vue de certaines fins ». Il n’est pas nécessaire de confronter à la réalité les propositions ainsi obtenues: si le raisonnement déductif est rigoureux, alors ses conclusions sont vraies a priori, c’est-à-dire qu’il n’est pas nécessaire de les confronter à la réalité pour établir qu’elles sont vraies.

Dans quelle mesure souscrivez-vous à l’apriorisme méthodologique de la plupart des Autrichiens ?

Philippe Lacoude : Pour Ludwig von Mises, l’essentiel de la théorie économique se compose des concepts a priori, un ensemble de propositions – comme vous, je ne vais pas utiliser le mot axiome qui m’a toujours dérangé chez Murray Rothbard – auxquelles on aboutit par contemplation ou par simple introspection. A partir de la proposition que l’action humaine a une fin, on peut déduire que la valeur subjective guide les choix humains, que l’utilité doit être marginalement décroissante, etc. Je ne vais pas refaire le raisonnement qui prend 20 pages dans « Human Action » de Ludwig von Mises ou dans « Praxeology » de Murray Rothbard. Le fait est qu’à partir d’un tout petit nombre de propositions, on peut logiquement déduire le reste de la science économique.

Je pense qu’on peut arriver aux mêmes conclusions par le biais de recherches empiriques. Il ne devrait pas y avoir de dichotomie épistémologique en la matière. Certains économistes expérimentalistes, je pense en particulier à Edward Chamberlin et à Vernon Smith, ont reconstruit empiriquement certaines des conclusions de Ludwig von Mises et je ne pense pas qu’ils soient arrivés à une quelconque conclusion contraire. Que d’efforts ! C’est un peu comme essayer toutes les formes possibles et conclure qu’effectivement, la roue, bien ronde, remplit au mieux l’office qu’on lui avait assigné.

Au moins deux ensembles de propositions couvrent deux domaines qui me semblent encore complètement échapper à l’« économie empirique » : la théorie de l’entrepreneur kirznérien et la théorie économique du cycle. Pour la seconde, je vois un certain nombre de travaux empiriques encourageants. Pour la première, j’ai bien peur qu’il ne sorte jamais rien d’approchant de l’école de Chicago.

Grégoire Canlorbe : Etant à la fois un mathématicien et un économiste, comment concevez-vous l’utilisation propre des mathématiques dans la science économique ?

Philippe Lacoude : Comme je viens de le souligner la logique s’applique automatiquement à la science économique comme l’un de ses fondements épistémologiques. Or la logique est une branche des mathématiques, probablement la plus importante. N’importe quel thésard en mathématiques fait au moins quelques pas en logique formelle.

Pour ce qui est du reste des mathématiques, je pense que les équations différentielles et les statistiques peuvent être utiles à la modélisation et à l’économie appliquée, respectivement. Les premières sont des métaphores qui permettent d’exprimer une idée en quelques caractères. Les secondes permettent de mesurer quantitativement une idée particulière. Je n’ai pas cette allergie qu’ont certains économistes autrichiens pour les mathématiques.

Ceci dit, je pense qu’il y a un certain nombre de réserves de circonstance.

La première est que lorsque l’on peut illustrer une idée simplement à l’aide de quelques données brutes, il n’y a pas lieu de construire un « modèle » à 25 équations. Prenons l’exemple des indices de liberté économique dans le monde, celui de la Heritage Foundation / Wall Street Journal ou celui du Cato Institute / Fraser Institute, peu importe. On peut tracer la courbe reliant les taux de croissance économique et les degrés de liberté économique. C’est un modèle. Plus la liberté économique est limitée, moins l’économie croît. Soit, on peut toujours faire une régression, trouver les coefficients. Ce n’est pas terriblement opératoire. En pratique, le modèle nous dit que la France – qui est à peu près 70ème dans le classement de la Heritage Foundation / Wall Street Journal – serait bien inspirée de libéraliser son économie. On voit aussi qu’elle était environ 35ème avant l’élection de Nicolas Sarkozy. Peut-être cette chute vertigineuse est une des causes des maux récents du pays ? Lorsqu’une idée est utile, le « modèle » est généralement simple : beaucoup d’universitaires obscurcissent volontairement leurs idées simples à l’aide de modèles complexes. Ceci me semble justement l’opposé de ce qu’il faudrait faire.

La deuxième remarque est que les bonnes analyses sont en général celles qui nous parlent des dérivées. Les phénomènes économiques et démographiques sont dynamiques. En pratique, toutes les belles histoires économiques sont celles qui nous parlent de la seconde dérivée : l’accélération ou la décélération des phénomènes. Les journalistes parlent des niveaux ; ils adorent les comparaisons internationales. Exemple : le pays X a 2741 crimes avec violence par millions d’habitants alors que le pays Y en a 1562. L’histoire utile est souvent que le taux de crimes avec violence a baissé de moitié en 20 ans au pays X – justement après la libéralisation du port d’armes – alors qu’il a doublé au pays Y – dans les années qui ont suivi son interdiction absolue. Première dérivée. Encore plus intéressant, la décroissance s’accélère au pays X alors que la croissance du taux de crimes avec violence s’accélère au pays Y. Deuxième dérivée. Ça s’est des sciences sociales ! Je vous laisse deviner quels sont les deux pays en question…

Le troisième écueil lié à l’usage des mathématiques est que, bien souvent, en France en particulier, les « économistes » apprennent les mathématiques avant d’apprendre la praxéologie. Au lieu d’avoir des données à la recherche de la bonne explication théorique, on obtient quelques centaines de pages de « théories » à la recherche de données, quitte à inventer ou fausser ces dernières. Je ne vise bien sûr personne…

Le quatrième et dernier péril lié à l’usage des mathématiques est qu’un mauvais modèle utilisé par la puissance publique est une catastrophe nationale. Prenons le modèle 2003 de la commission européenne, créé par Frank Smets et Rafael Wouters. C’est un modèle d’équilibre général dynamique stochastique, d’inspiration néo-keynésien (où les prix s’équilibrent avec retard), qui utilise les dernières techniques statistiques, en l’occurrence un modèle vectoriel à correction d’erreurs. D’un pur point de vue mathématique, ce modèle est un achèvement intellectuel majeur. Le bât blesse parce que représenter les choix de 500 millions d’humains avec 12 équations n’est bien évidemment que très approximatif et que si une décision était prise par la Banque Centrale Européenne avec un tel outil, il en résulterait au mieux une catastrophe de plusieurs milliards d’euros et au pire de plusieurs centaines de milliards d’euros.

Mes amis autrichiens s’arrêtent là. Les mathématiques sont clairement répudiées, non ? En fait, je ne pense pas du tout que ce soit une répudiation de l’usage des mathématiques en sciences sociales. Au contraire, je suis assez admiratif des travaux de Frank Smets et Rafael Wouters. Même approximatifs, les résultats sont impressionnants pour un si petit nombre de variables.

En revanche, ceci est une claire répudiation de l’usage des mathématiques par la puissance publique. Si un de mes clients me demande de faire des simulations à partir d’un tel modèle, il prend le risque que son concurrent prenne une meilleure décision à partir d’une autre représentation nécessairement approchante et arbitraire du monde.

Je note au passage que les « bons » modèles donnent tous une prévision sous forme de distribution statistique du futur. A un moment donné, quelqu’un doit prendre une décision « pointwise » (comme disent les anglo-saxons) à partir d’une densité. Cette décision humaine est à la modélisation économique ce que la décohérence est à la physique quantique : on choisit un état particulier, on fait un pari sur l’avenir. L’acteur qui fait ce pari doit en subir les conséquences financières pratiques, éventuellement la faillite. Le fonctionnaire de la banque centrale ne peut pas le faire de façon socialement satisfaisante.

La solution à ce problème est fort simple : au lieu de jeter les modèles mathématiques avec les fonctionnaires qui les ont créés, il suffit de les utiliser dans le cadre de la concurrence. Ceci est pratique courante en finance depuis au moins 30 ans et dans le marketing de masse sur l’Internet depuis quelques années. Si un modèle est mauvais, il existera une niche, un pur profit kirznérien à saisir. Toutes les critiques sur la modélisation – la critique autrichienne sur l’usage des mathématiques, la critique sur les problèmes liés à la linéarité de la majorité d’entre eux, les problèmes d’asymétrie ou de kurtosis – sont intéressantes mais n’invalident pas l’utilité des modèles.

Je suis en revanche d’accord sur l’idée que la théorie ne supplante pas la pratique. L’économie théorique devrait être apprise avant l’économie appliquée. Science mathématique sans conscience économique n’est que ruine de l’âme.

Grégoire Canlorbe : Notre entretien touche à sa fin. Aimeriez-vous ajouter quelques mots ?

Philippe Lacoude : Nous sommes à un tournant historique.

Il a fallu deux siècles pour que les idées de John Locke permettent de libérer l’individu d’autorités religieuses étatiques. Les révolutions américaine et française ont marqué le début de la séparation de l’Eglise et de l’Etat. Nous vivons régulièrement quelques soubresauts réactionnaires à ce qui est devenu un état de fait mais nous avons gagné ce combat.

Il a fallu deux siècles pour que le plaidoyer d’Adam Smith, de Frédéric Bastiat et de Richard Cobden en faveur de la liberté commerciale gagne presque tous les points du globe. Certes, il existe quelques protectionnistes ici et là qui mènent un combat d’arrière-garde mais ils ont perdu la bataille des idées.

Il n’a fallu que soixante-dix ans pour détruire l’idée que l’on puisse allouer les ressources à l’échelle d’un pays de façon centralisée. Notons que le brillant Henri Guaino, sous-conseiller un peu spécial de Nicolas Sarkozy à des tâches indéfinies, est le dernier « Commissaire Général au Plan » de la planète, voire de notre galaxie, depuis la dissolution du Gosplan soviétique en avril 1991. Certains pensent que le débat entre Ludwig von Mises et Oskar Lange sur la possibilité du calcul économique en système socialiste a été adjugé en faveur du premier le jour où le mur de Berlin est tombé. C’est bien sûr complètement faux : Ludwig von Mises a gagné ce débat lorsque la première pierre du mur de la honte a été posée.

Le clou suivant planté dans le cercueil du statocratisme sous toutes ses formes va venir de l’effondrement de l’Etat-providence. La démographie, le niveau des dettes et la technologie interdisent que ce système perdure beaucoup plus longtemps. Ludwig von Mises, Milton Friedman et Friedrich Hayek ont détruit ses fondements économiques. Leurs disciples en ont détruit les thèses empiriques. Ayn Rand a démontré et brillamment popularisé son caractère immoral. Un peu partout, nous pouvons observer la radicalisation de ceux qui ont compris ceci. Ils ne rencontrent plus aucun argument sérieux de la part de leurs détracteurs. Ces derniers recourent aux images d’Epinal : le système est bon car le « monde entier nous l’envie ». C’est exactement la même défense rhétorique qui était utilisée par les maîtres de l’URSS. Avec les succès que l’on connaît.

Les derniers défenseurs de l’Etat-providence utilisent des mots destinés à culpabiliser leurs ennemis. Les socialistes français parlent du « vivre ensemble ». Ils prônent la « société multiculturelle ». Barack Obama nous explique que la « gentillesse nous unit ». François Hollande « rend hommage » à la « culture communiste ». Il n’y a rien derrière ces clichés. Ils sont complètement incapables d’expliquer comment leur système en faillite va produire les services médiocres qu’ils font payer à prix d’or. Ils ne se rendent pas du tout compte que l’on « vit ensemble dans une société multiculturelle » de façon bien plus satisfaisante dans une civilisation libérale que dans le machin qu’ils défendent. Les statocrates ne réalisent jamais que les libéraux sont justement motivés par la recherche de la vraie justice sociale. Le fait que les statocrates n’aient aucune idée de ce que pensent les libéraux est un signe encourageant. Je ne rencontre plus un seul gauchiste qui ait lu John Rawls et ils sont tout autant d’incompétents marxistes. Ils passent leur temps à reformuler les mêmes idées éculées sous une forme obscurément différente et sont tout surpris de perdre débat intellectuel après débat intellectuel : comme disent les Américains, « you put lipstick on a pig, it’s still a pig ».

La faillite économique d’un système lorsqu’elle s’accompagne de la faillite intellectuelle de ses thuriféraires est généralement le prélude à sa disparition.

Vive la liberté !

Je vous remercie pour cet entretien.

Grégoire Canlorbe : C’est moi qui vous remercie.

Le « jugement majoritaire » est mieux que le « vote majoritaire ».
Toute le monde connait le « vote majoritaire »: on met un nom dans l’urne et on s’en va. Le « vote majoritaire » est mille fois meilleur: chaque électeur remplit un formulaire. Pour chaque candidat, l’électeur coche une des sept mentions:
Excellent, Très bien, Bien, Assez bien, Passable, Insuffisant, A rejeter.
Certains partisans du vote nul pourront même répondre « A rejeter » pour tous les candidats.

Cette manière de voter du « jugement majoritaire » a été inventée par deux chercheurs du CNRS, Michel Badinski et Rida Laraki. La technique du « jugement majoritaire » progresse dans plusieurs pays, mais trop lentement. Certains organismes l’utilisent. Les immenses qualités du « jugement majoritaire » devrait faire le consensus de tous les politologues, avec la réserve du risque de changer les habitudes de l’électeur.

L’avantage du « jugement majoritaire » est qu’il évite des résultats électoraux qui ne correspondent pas au jugement réel des français. Le nombre des candidats n’a plus d’incidence sur la pertinence du résultat. Grace au « jugement majoritaire », on peut avoir 10, 20 ou 30 candidats improbables à la présidentielle sans que ce nombre de candidats nuise à la qualité des résultats du vote.

Le « jugement majoritaire » ne modifiera pas les scores des grands partis politiques, mais permettra moins d’aléas. Les dizaines de petits partis seront ravis de pouvoir un taux d’estime, à défaut d’obtenir des résultats électoraux. Chaque tendance peut ainsi s’exprimer sans nuire à l’efficacité du système de vote.

Terra Nova semble soutenir ce « jugement majoritaire ». Il devrait bien convenir aux grands partis politiques en limitant certains aléas et en supprimant les conséquences des candidatures dissidentes. Et il plaira aux petits partis qui découvrent leur cote d’amour.

Peut-on prêter ce qu’on n’a pas?

 »On ne peut prêter que ce qu’on a ». Cette phrase est un argument qui s’appuie sur le sens commun du mot « prêter ». Il y a deux manières d’analyser un « prêt d’argent », ou un « prêt bancaire ». Soit c’est un échange, soit c’est un prêt. Dans les deux cas, le prêteur possède la reconnaissance de dette. Pour le prêteur, la valeur de cette reconnaissance de dette est supérieure à la somme prêtée. Sinon, le prêteur n’aurait pas prêté. En effet, cette reconnaissance de dette est un actif qui produit désormais une rente. Cette reconnaissance de dette est un actif qui a de la valeur. Elle peut se vendre ou s’acheter.

Si l’emprunteur ne possédait pas la monnaie versée, c’est que le prêteur la posséderait encore. Mais alors, lorsque l’emprunteur verse la totalité de la somme pour son achat ou pour son investissement, cette monnaie a disparu. Et pourtant le prêteur n’en est pas moins riche. Le prêteur ne possédait donc pas la monnaie de l’emprunteur, puisqu’elle n’existe plus. Il ne reste que l’obligation de l’emprunteur stipulée dans la reconnaissance de dette.

Il en va différemment avec le prêt d’un livre. C’est le prêt au sens commun du terme « prêter ». A chaque instant, ce livre continue à appartenir au prêteur. A aucun moment, l’emprunteur ne revend ce livre, ni n’en achète un autre en remplacement. L’emprunteur rendra le même livre que celui qu’on lui a prêté.

Mais il y a un autre argument qui montre que le prêt d’argent n’est pas un prêt. Si le prêteur possédait encore la monnaie versée, il posséderait à la fois le reconnaissance de dette et, en plus, l’argent que l’emprunteur va lui rembourser. Il posséderait alors le double de la valeur prêtée. Ce qui est incohérent. Il faut bien admettre que l’emprunteur possède entièrement la somme versée. Son obligation provient de la reconnaissance de dette, et non pas de la propriété des pièces ou des billets remis par le prêteur.

Il s’ensuit que le « prêt bancaire » n’est pas un prêt. Affirmer que « on ne peut pas prêter ce qu’on a pas » sous-entend que « je ne peux pas prêter un livre si je ne le possède pas ». C’est sur le sens commun du verbe « prêter » que se fonde l’argument « on ne peut prêter que ce qu’on a ». Or, nous venons de voir qu’un « prêt bancaire » n’est pas un prêt au sens commun du terme. Cet argument utilisant le sens commun du verbe prêter ne convient donc pas. Il faut donc écarter cette phrase utilisée comme un argument.

Un prêteur de pièces d’or ne « prête » pas au sens commun du verbe « prêter ». Les pièces ne sont plus à lui dès qu’il les verse à l’emprunteur. Et surtout lorsque l’emprunteur les a dépensées, elles ne sont plus ni au prêteur, ni à l’emprunteur. Le prêteur ne possède rien d’autre qu’une reconnaissance de dette, une promesse de l’emprunteur de lui remettre d’autres pièces d’or.

Dans le prêt d’un livre à un ami, ce livre reste toujours la propriété du prêteur. C’est le sens commun du mot prêter. On voit bien toute la différence entre les deux sens du verbe « prêter ».

Un autre débat est la nature juridique d’un titre de propriété sur une pièce d’or.

L’Ecole Autrichienne d’Economie ne fait pas cette erreur de raisonnement sur le verbe « prêter ». En lisant la théorie de la monnaie de Mises, on pourrait mal comprendre le discours de Mises lorsqu’il parle de « substitut » à l’or. Par ce mot « substitut », Mises parle de promesse d’or et il le précisera plus tard afin de dissiper toute ambiguïté. Pour Mises, ce mot « substitut » ne signifie pas ni un titre de propriété, ni une équivalence nécessaire entre un gramme d’or et une unité de monnaie, telle un billet de banque.

libertarien anarcap et libertarien minarchiste

Comment pouvez-vous être à la fois libertarien anarcap et libertarien minarchiste?

Je suis anarcap en ce sens que j’ai la conviction qu’une société humaine peut fonctionner sans un Etat classique pour l’administrer. Une société commerciale peut offrir à ses clients des services d’assurance et de fourniture de visas pour le tourisme, pour les affaires, pour les accord de police avec certains Etats, avec certains pays. Et une telle société commerciale négocierait directement avec les État pour obtenir, pour ses clients, de tels services. Une telle société commerciale anarcap n’aurait pas de territoire souverain. Chacun peut ainsi tenter de constituer une autre telle société commerciale concurrente proposant des services semblables pour lui tout seul ou pour des clients. De telles sociétés négocieraient directement avec les 200 États, et serait considérées par certains des États classiques comme un pseudo-État.

Et je suis aussi minarchiste en ce sens que chaque territoire sur la surface de la Terre est occupé par un État classique. Et aucune violence ni coup d’État n’est acceptable pour un libertarien. L’unanimité absolue est requise. C’est, pour un libertarien, une évidence. On ne peut pas violer la volonté ni d’une minorité des habitants, ni même d’une seule personne. Un État libertarien souverain territorial ne pourra donc, amha, pas exister. Un État territorial anarcap, ou plutôt un pseudo-État anarcap, une anarcapie, ne pourrait advenir que par un hasard fortuit de l’Histoire.

Dans la pratique, je suis ainsi minarchiste car je pense qu’un État classique sera d’autant mieux géré que cet État minarchiste permettra aux habitants de fournir des services concurrents à ceux qui sont aujourd’hui fournis par l’État classique. Un budget de l’ordre de 10% du PIB serait alors largement suffisant pour garantir, dans le pays, les forces armées, la prospérité, la Justice, la prospérité, une certaine solidarité.

effet de frein de l’étalon-or

Certains économistes favorables à l’étalon-or soutiennent que « La quantité de monnaie disponible dans l’économie est toujours suffisante pour permettre à chacun tout ce que la monnaie fait et peut faire. »

Oui, c’est exact. Si la monnaie manque, l’or augmentera de valeur et la quantité de monnaie sera alors plus grande. C’est une régulation automatique de la valeur et de la quantité de monnaie. Mais cet automatisme a un coût caché. C’est un frein caché de chaque instant des variations de l’activité économique.

Une qualité première de la monnaie est la stabilité de la valeur. Or la demande de monnaie n’est pas entièrement liée à la production et aux achats. En effet, certaines demandes de monnaies sont destinées à la thésaurisation, ou à des échanges entre banques. Ces productions de monnaie n’augmentent pas immédiatement la Demande globale.

Il n’est pas établi que la variation de la valeur de la production suivrait fidèlement la variation de la valeur de l’or. Si une monnaie plus stable que l’or pouvait mesurer ces variations de la valeur de l’or, on observerait cette différence de comportement de la valeur de l’or et de la valeur de la production. Il s’ensuit qu’une demande de monnaie étatique à étalon d’or reduira la production et augmentera la valeur de l’or. A condition de comparer à une monnaie hypothétique qui, elle, conserverait une valeur stable.

Ainsi une monnaie étatique à étalon-or ne peut pas conduire à une production optimale. La production sera nécessairement inférieure à ce que la production aurait été si la valeur de la monnaie avait été plus stable.

De plus, elle induit une augmentation de la valeur de l’or et une diminution de la valeur de l’or dans des proportions qui ne correspondent pas aux proportions des quantités produites et des quantités demandées. La quantité d’or n’est pas à l’image des quantités produites, ni des quantités demandées.

Certes, la hausse de la valeur de l’or ira souvent dans le même sens qu’une moindre abondance des produits. certes, la baisse de l’or ira souvent dans le même sens qu’une plus grande abondance des produit.

L’étalon-or fonctionne, pour une monnaie étatique, comme un frein mis sur les quatre roues du véhicule.

Le freebanking permet que de plus nombreux biens servent de monnaie, réduisant ainsi l’effet de frein. Cet effet de frein est du au fait que la demande d’or est, par nature, différente de la nature de la demande des autres biens. Cet effet de frein est aussi du fait que l’offre d’or est, par nature, différente de la nature de l’offre des autres biens en vente sur les marchés.

La plus grande pluralité des biens servant à garantir la valeur et la quantité des monnaies émises est une condition nécessaire à une réduction de cet effet de frein.

Lorsque l’État a inventé la monnaie de banque centrale, la monnaie était alors garantie par la valeur de la quantité de toutes les marchandises en vente à chaque instant. C’est un aspect positif de la monnaie étatique qui mérite d’être souligné, mais qui ne suffit pas à la justifier.

contrat unilatéral

Certaines promesses ne sont pas des contrats. Ne pas les respecter n’impliquent alors aucune sanction juridique. Certaines autres promesses sont des contrats. Une promesse commerciale est un contrat. Dans un contrat, le droit de l’un est l’obligation de l’autre. C’est ainsi que le contrat est la première source de droit dans une société moderne. L’article 1134 et suivant du Code Civil français confirment que le contrat est une « loi » entre les co-contractants. C’est bien le mot « loi » que le Code Civil utilise. En effet, un juge saisi est alors dans l’obligation de juger selon le droit du contrat dans un litige entre les deux co-contractants.

Le contrat est une loi entre les co-contractants dans le cas où ce contrat respecte les lois du pays. Ce processus du droit du contrat est presque le même dans tous les pays.

Celui qui ne respecte pas sa promesse devra indemniser l’autre. Un tribunal pourra être valablement saisi et il prononcera une décision pour rendre justice à celui dont le droit n’a pas été respecté par l’autre.

Ainsi, un commerçant vous promet de vous construire une maison. Si le promettant ou si le fournisseur ne respecte pas le droit de l’autre, il devra payer pour réparer la totalité du dommage subi par l’autre, du fait d’un manquement à la promesse contractuelle.

Un commerçant vous promet telle livraison sous astreinte d’une indemnité de retard. Si le commerçant a du retard, un tribunal le condamnera à payer l’astreinte prévue dans le contrat. Si aucune indemnité de retard n’est prévue dans la promesse, le tribunal constatera la faute de l’un des co-contractants mais ne pourra pas décider une sanction financière au-delà des frais de justice.

Un contrat est soit bilatéral, soit unilatéral. Dans un contrat unilatéral, l’un s’engage et l’autre ne s’engage pas. Ainsi, la plupart des contrat de reconnaissances de dettes sont des contrat unilatéraux, des promesses unilatérales. De plus le bénéficiaire de la promesse peut céder les droits sur le promettant, et sans en informer ce promettant.

Ainsi un billet de banque qui serait une promesse de la banque de verser un euro. Le promettant est la banque et le bénéficiaire est le porteur du billet. Ce billet de banque est une promesse, un contrat unilatéral, sous astreinte que la banque verse un euro.

Ce bref développement juridique explique ainsi comment une reconnaissance de dette a de la valeur puisqu’elle se transmet de bénéficiaire en bénéficiaire. Le bénéficiaire précédent ayant cédé son droit au bénéficiaire suivant.

On entend souvent parler du mot « obligation » sur un marché financier. Une telle « obligation » est un contrat unilatéral obligeant juridiquement le promettant à verser une certaine somme au bénéficiaire à une certaine date. Certaines sociétés commerciales utilisent beaucoup cet outil financier pour emprunter.

L’Etat utilise aussi beaucoup cet outil financier pour emprunter.

saturation de l’effet de serre du CO2

La saturation de l’effet de serre du CO2
Les rayons du soleil se transforment en chaleur en touchant les objets. Les atomes de ces objets s’échauffent et transmettent leur chaleur d’une part par contact avec les autres atomes, et d’autre part, par irradiation dans l’infrarouge. La radiation infrarouge est arrêtée par une vitre. Ainsi s’explique l’effet de serre dans une voiture. Les rayons du soleil y rentrent, mais la chaleur infrarouge ne peut pas sortir par les vitres. La chaleur reste donc dans la voiture.

Les rayons du soleil se transforment en chaleur lorsqu’ils touchent la Terre. Et la Terre irradie alors de l’infrarouge. Cette radiation infrarouge repart en partie dans l’espace et en partie est absorbée par l’eau et par le CO2 présent dans l’air. L’oxygène et l’azote n’arrêtent pas les rayons infrarouges. S’il n’y avait que de l’oxygène et de l’azote dans l’atmosphère, la température sur Terre serait de -18°C, donc très froid. L’effet de serre est donc vital pour la vie sur Terre. Grâce aux molécules d’eau de l’humidité de l’air et des nuages, et grâce aux molécules de CO2, notre atmosphère arrête une partie de l’irradiation infrarouge en chauffant les molécules d’eau et de CO2 présentes dans l’air. Le CO2 assure entre 8 et 10% de l’effet de serre. Il y a aussi d’autres gaz qui contribuent, mais beaucoup moins, à l’effet de serre atmosphérique.

Le rayonnement infrarouge émet des radiations de plusieurs sortes, émet des photons de plusieurs sortes. Ces sortes de photons correspondent à de plages de fréquences différentes. Le CO2 absorbe et émet un certain type de photons, et l’eau absorbe et émet un autre type de photons. Ce ne sont pas les mêmes photons. Le CO2 n’absorbera pas un photon du type absorbé par l’eau. Et réciproquement, l’eau n’absorbera pas un photon du type de ceux qui sont absorbés par le CO2. Une molécule qui absorbe un photon infrarouge se réchauffe en vibrant davantage. Elle émet alors des photons identiques à que ceux qu’elle reçus. Les photons émis par le CO2 sont de même type que les photons reçu par le CO2.

Dans un gaz, chaque molécule se déplace à une vitesse de quelques 500 mètres à la seconde, et percutera une autre molécule au hasard, après une durée de parcours d’environ une nanoseconde, et d’une distance d’environ un demi micromètre. Puis ces deux molécules changeront toutes les deux de direction comme deux boules qui se percutent dans un jeu de billard. Dans cette « collision », la molécule la plus chaude transmet à la molécule plus froide une partie de sa chaleur. Les molécules plus chaudes se refroidissent et les molécules plus froides se réchauffent. Une molécule de CO2 perd ainsi sa chaleur par des collisions successives en réchauffant ainsi des molécules d’oxygène, d’azote, d’eau, ou d’autres molécules de CO2.

Dans même temps, chaque molécule envoie des photons d’un certain type, d’une certaine fréquence. Une molécule de CO2 émet sans cesse des photons et perd ainsi peu à peu de sa chaleur. La chaleur d’une molécule de CO2 se transmet ainsi par les collisions et par les radiations de photons de type CO2. Cette irradiation de photons sera ensuite absorbée par d’autres molécules de CO2, et uniquement par du CO2. La quantité totale des irradiations de photon CO2 décroit très vite avec l’altitude puisque 95% de la chaleur des molécules du CO2 est rapidement transmise par collisions, à des molécules qui ne sont pas du CO2.

Le GIEC sait que le rayonnement des photons de type CO2 sont absorbés et ré-émis par les molécules de CO2 de l’atmosphère. Mais le GIEC affirme, sans preuve, que ces molécules de CO2 ré-émettraient toute ces radiations reçues aux autres molécules de CO2. Pour le GIEC, les transferts de chaleur par collisions seraient négligeables. C’est inexact pour deux raisons. D’une part un satellite passant au dessus de la stratosphère ne voit quasiment aucun rayonnement de CO2. C’est donc que cette radiation du CO2 a été entièrement absorbée avant d’arriver à la stratosphère et de se perdre dans l’espace. Mais il y a une deuxième raison apportée par le Dr Heinz Hug en 1998. Hug a fait une expérience de laboratoire sur le transfert des radiations infrarouges de CO2 dans l’air. Il en a conclu qu’au dessus d’une couche de dix mètres d’air, il n’y reste plus que un millième du rayonnement de photons de type CO2. Or la stratosphère est à dix kilomètres de hauteur, c’est à dire mille couches de dix mètres d’air. Il est donc impossible qu’un satellite voit un rayonnement infrarouge significatif de CO2 venant de la Terre.

Alors la question centrale du GIEC est de savoir si un doublement de CO2 dans l’atmosphère pourrait, ou non, conduire à un plus grand réchauffement de l’air. Puisque une couche d’air de dix mètres suffit à stopper le rayonnement des photons de type CO2, un doublement de la quantité de CO2 dans l’atmosphère ne stopperait pas plus ce rayonnement. Il serait alors stoppé par une couche de cinq mètres d’air au lieu de dix mètres. Mais en aucun cas, cela ne peut changer le climat. Le terme « saturation de l’effet de serre du CO2″ signifie qu’une quantité de CO2 supplémentaire dans l’atmosphère ne modifiera pas le réchauffement de notre planète.

Pour moi, le débat scientifique est désormais quasiment clos. Il n’existe aucun réchauffement climatique qui serait causé par une émission anthropique de CO2. Il reste le débat sociologique et politique de savoir comment une telle erreur banale peut se transformer en immense gaspillage.

Pour en savoir plus, on peut lire le livre de François Gervais, « l’innocence du carbone ». Le professeur François Gervais a été nommé critique officiel du GIEC. Mais le GIEC n’a pas tenu compte de ses objections. La partie plus technique et thermodynamique est au chapitre 3. Un non-scientifique pourra quand même lire ce chapitre avec profit. Le livre « l’innocence du carbone » est une bonne synthèse des débats scientifiques du réchauffement climatique. Ce sont aussi de nombreuses questions de bon sens que se pose un citoyen étonné par des décisions politiques fondées sur des théories scientifiques erronées.

http://www.amazon.fr/Linnocence-carbone-Leffet-serre-question/dp/2226209166/ref=sr_1_1?ie=UTF8

Suivre

Recevez les nouvelles publications par mail.

Rejoignez 33 autres abonnés