si, c'est vrai !

fire and forget

Quiconque ne s’étant jamais rendu un samedi après-midi dans une décheterie ouverte aux particuliers devrait se plier à cet exercice afin de prendre la mesure de la quantité de déchets générée par notre mode de vie. C’est le meilleur moyen de comprendre pourquoi notre société est souvent qualifiée de société de consommation.

Osons le parallèle avec les technologies de l’armement : avec les avancées technologiques, on a vu apparaître des armes de type fire and forget. Ces missiles d’un nouveau genre permettent au lanceur de tirer le missile et de ne plus s’en préoccuper, le missile se chargeant de manière autonome d’atteindre sa cible.

Notre société de consommation est basée sur le même modèle dans sa variante consumériste : consomme et oublie. Cette mutation a probablement débuté par l’invention de la poubelle par monsieur Eugène-René Poubelle. L’invention de la poubelle, si elle est sans conteste le signe d’un progrès dans le domaine de l’hygiène, marque également le début de l’externalisation de la gestion de ses déchets. En effet, l’innovation liée à l’invention de la poubelle est plus liée à la mise en place d’un processus de collecte des déchets qu’à l’invention de l’objet, simple récipient de fer et de bois.

Il est intéressant de noter que le tri des déchets était prévu dès l’origine avec la mise en place de 3 filières distinctes de traitement des déchets :

  • les déchets ménagers,
  • les papiers et les chiffons,
  • le verre et la faïence.

Mais la poubelle a surtout eu la conséquence de mettre de la distance entre le producteur de déchet et le processus de traitement des déchets. Petit à petit, la gestion des déchets s’est professionnalisée et les producteurs de déchets se sont désintéressés de la problématique du traitement des déchets. C’était le début du mode de consommation consomme et oublie.

Par la suite, la quantité de déchets par personne n’a cessé d’augmenter et les coûts associés se sont vus dilués dans les charges des habitations, dans les impôts. Le coût économique n’a pas été un frein à cette augmentation du volume des déchets, en quantité global comme en quantité par personne. Le coût écologique n’a pas non plus limité cette augmentation. C’est d’ailleurs l’absence de considération écologique qui a permis de conserver un très bas prix de traitement des déchets :

  • L’incinération est peu coûteuse mais totalement non-écologique et terriblement polluante et toxique par les substances qui résultent de la (mauvaise) combustion des déchets.
  • L’enfouissement est peu coûteuse mais contribue à dégrader l’environnement avec la création de décharges.

Par la suite, la société de consommation a introduit les concepts d’obsolescence planifiée et d’obsolescence perçue.

L’obsolescence planifiée est à rapprocher de la notion de defective by design. C’est le mécanisme par lequel un produit présente des dysfonctionnements prévus par le concepteur. Le principe est que le dysfonctionnement intervient après la fin de la période de garantie et incite à l’achat d’un nouveau produit. Cela permet d’entretenir la demande en privilégiant la mauvaise qualité des produits.

L’obsolescence perçue relève plus du marketing que de la conception technique du produit. Elle consiste à amener le consommateur à penser que son produit est devenu obsolète alors qu’il fonctionne parfaitement. Le meilleur exemple d’obsolescence perçue est la mode vestimentaire qui change chaque année et qui nous incite à racheter des vêtements neufs et à la mode alors que nos anciens vêtements sont en parfait état mais sont subitement devenus démodés.

En couplant l’obsolescence planifiée ou perçue et les filières de traitement des déchets, on obtient un système qui permet au consommateur de consommer sans se poser de question.

Et si justement on s’en posait, des questions ? Si on s’intéressait un peu plus à l’histoire des choses ?

la concurrence n'est pas le "laissez-faire"

Un très bon billet intitulé la concurrence n’est pas le “laissez-faire” explique avec pédagogie le sens de termes économiques courants.

Il y a, dans les discussions de tous les jours, dans les médias et dans les débats politiques, une source permanente de confusions et de quiproquos dus à une série d’amalgames trompeurs. C’est notamment le cas dès lors que l’on évoque les notions très générales, abstraites, donc “faciles”, comme le “capitalisme”, l’“économie de marché”, le “libéralisme”, le “libéralisme économique” ou encore l’“ultralibéralisme”. Bien souvent, ces notions sont purement et simplement considérées comme synonymes, ce qui est simplement faux et ne peut qu’aboutir à des incompréhensions et à des dialogues de sourds.

Ce billet est tiré du blog comprendre l’actualité économique dont l’objectif est d’enseigner “ce qu’il faut savoir pour comprendre les informations économiques quand on n’y connaît absolument rien ou presque”.

don du sang

Les règles régissant le don du sang sont strictes et exigeantes.

  • Les petits (de moins de 18 ans) ne peuvent pas donner leur sang.
  • Les vieux (de plus de 70 ans) ne peuvent pas donner leur sang.
  • Les légers (de moins de 50 kg) ne peuvent pas donner leur sang.
  • Les enrhumés ne peuvent pas donner leur sang.
  • Les transfusés ne peuvent pas donner leur sang.
  • Les femmes enceintes ou venant d’accoucher (et pendant 6 mois après l’accouchement) ne peuvent pas donner leur sang.
  • Les chaud-lapins (ayant changé de partenaire sexuel depuis moins de 4 mois) ne peuvent pas donner leur sang.
  • Les malades (qui suivent un traitement thérapeutique) ne peuvent pas donner leur sang.
  • Les séropositifs ne peuvent pas donner leur sang.
  • Les drogués ou anciens drogués ne peuvent pas donner leur sang.
  • Les grands voyageurs (pour les pays présentant un risque de paludisme ou de maladie de la vache folle) ne peuvent pas donner leur sang.

Alors si ceux qui restent - les personnes bien portantes et ne présentant aucune contre-indication - ne vont pas donner leur sang, qui le fera ?

l'action collective commence par l'action individuelle

Alors que le changement climatique et le pic de pétrole semblent entrés dans l’inconscient collectif, ils tardent souvent à être présents à l’esprit de chacun, à la conscience collective de la société. Combien mettent réellement leurs actes en accord avec leurs convictions ? Combien ont déjà baissé les bras à l’idée de se mobiliser pour cette cause juste, découragés par l’ampleur de la tâche ? Qui n’a jamais entendu quelqu’un répondre : mais qu’est-ce que je peux y faire, moi ?

Alors, parce qu’il faut bien commencer quelque part, et que l’action individuelle ne suffira pas, le collectif Objectif Résilience s’est fixé pour objectif “d’encourager, d’informer, de soutenir, de relier et de former des communautés afin qu’elles se sensibilisent, puis adoptent et mettent en pratique une initiative de transition”.

Le guide des initiatives de transition propose “un tour d’horizon de ces initiatives dont le but est de bâtir un futur moins gourmand en énergie et d’améliorer le niveau de résilience d’une communauté”.

Un bon moyen de commencer quelque part tout en ayant une ambition à la hauteur du défi qui nous est lancé.

climat : cesser d'émettre du CO2 ou aller à la catastrophe

Georges Monbiot estime qu’il n’est nul besoin de savoir s’il est trop tard ou non pour agir et essayer d’infléchir le cours des évènements :

Oui, il est peut-être déjà trop tard - même si nous réduisions demain les émissions à zéro - pour prévenir un réchauffement de plus de deux degrés, mais nous ne pouvons pas nous comporter comme si c’était le cas. Car ainsi nous rendrions cette prédiction certaine. Aussi difficile ce combat soit-il, aussi improbable ses chances de succès soient-elles, nous ne pouvons nous permettre de renoncer.

Lire aussi l’article complet.

énergie et climat : la fin de l'âge d'or ?

Si vous n’avez jamais assisté à une conférence de Jean-Marc Jancovici, ni lu ses livres, ni navigué sur son site internet, voici enfin l’occasion de vous rattraper.

En mars 2008, Jean-Marc Jancovici était invité par une grande entreprise à animer une conférence sur le thème : énergie et climat : la fin de l’âge d’or ?

Contrairement aux grands médias qui ont pour habitude d’aborder le sujet de manière fragmentée, Jean-Marc Jancovici aborde ici tous les aspects majeurs de la problématique. Citons en vrac :

  • c’est un problème de chiffres, d’ordre de grandeur
  • l’aspect démographique
  • la consommation d’énergie par personne
  • l’énergie ne vaut rien, elle est notre esclave énergétique et nous en sommes totalement dépendants
  • la problématique énergétique est une problématique d’énergie primaire
  • le nucléaire n’est qu’une toute petite partie du problème
  • la production de pétrole va décliner, c’est sûr !
  • ce n’est pas une problématique pour les générations futures, mais bien pour celles d’aujourd’hui
  • une production de pétrole qui plafonne, c’est déjà un évènement majeur dans notre économie basée sur la croissance
  • utiliser du charbon quand il n’y aura plus de pétrole serait la pire des solutions
  • le changement climatique est une réalité
  • le PIB est un mauvais outil comptable, il ne prend en compte ni les émissions de CO2 ni l’épuisement des énergies fossiles
  • le climat a une inertie très importante, supérieure à l’échelle d’une vie humaine
  • les simulations climatiques ne prennent pas en compte les aspects sociaux et humains qui résulteront du changement climatique
  • quelques degrés en plus ont un impact énorme sur le climat
  • le développement durable, ou plutôt soutenable, c’est autre chose que “faire comme avant, mais avec un coup de peinture verte dessus”
  • l’équation de Kaya indique que les variables d’ajustement sont :
    • le contenu en gaz carbonique de l’énergie
    • l’intensité énergétique de l’économie
    • la production par personne
    • la population
  • les énergies renouvelables ne peuvent pas remplacer les énergies fossiles à l’échelle de la consommation actuelle
  • l’énergie est de moins en moins chère alors que l’objectif de sobriété énergétique voudrait que son prix augmente artificiellement et régulièrement afin d’anticiper la pénurie

Pour comprendre vraiment la problématique liée à l’énergie et au climat, prenez le temps de visionner cette conférence d’excellente qualité : énergie et climat : la fin de l’âge d’or ?

les limites du vote électronique

En France comme en Europe, le vote électronique est parfois présenté comme un remède à une démocratie en perte de vitesse où le taux de participation aux élections baisse régulièrement.

L’abstention n’est probablement pas due au type de scrutin, mais le fait est que le vote électronique bénéficie de cette image de solution miracle.

Cependant, plusieurs voix s’élèvent pour contester cette image faussée du vote électronique. Selon ses détracteurs, les bénéfices supposés du vote électronique ne font pas le poids face aux dangers qu’il induit.

Examinons de plus près les avantages et inconvénients du vote électronique.

une rapide description

Tout d’abord, le vote électronique recouvre plusieurs types de vote. Leur point commun est d’utiliser un système informatique pour recueillir et compter les votes.

  • La forme la plus commune du vote électronique consiste à placer un ordinateur de vote dans chaque isoloir et à amener le citoyen à exprimer son vote en appuyant sur un bouton. Ce type de vote a été pratiqué en France dans plusieurs communes lors des dernières élections.
  • Le vote électronique peut également consister à voter à distance, depuis un ordinateur personnel relié à internet ou depuis un téléphone mobile.

Dans chaque pays où le vote électronique a été expérimenté (Hollande, Irelande, Belgique, France, Allemagne, Estonie, Suisse), il a fait l’objet de nombreuses réclamations diminuant d’autant la légitimité du scrutin incriminé.

les principes du vote

La légitimité du vote - électronique ou non - repose sur 3 principes :

  • le secret du vote
    • il permet des élections libre
    • le choix du vote ne doit avoir aucune conséquence sur le citoyen votant
    • le vote ne doit pouvoir être vendu ni acheté
  • l’auditabilité du processus de vote
    • les mesures d’assurance qualité doivent permettre d’identifier et de corriger les erreurs
    • l’auditabilité doit permettre le recompte des voies
    • l’auditabilité ne peut se substituer à la transparence
  • la transparence du processus de vote
    • assurance que le vote est conforme aux lois et mené selon les principes en vigueur, chacun doit pouvoir s’en assurer
    • la transparence crée la confiance des citoyens, donc la légitimité du vote
    • permet de limiter la contestation du vote
    • la transparence ne peut être déléguée à une autorité

les avantages du vote électronique

Le vote électronique est autant plébiscité pour de mauvaises raisons que pour de bonnes raisons.

Les mauvaises raisons :

  • C’est plus rapide à dépouiller.
    • Les quelques heures nécessaires aux dépouillements sont-elles si importantes ? Est-ce crucial de pouvoir annoncer les résultats le soir même ? N’est-ce pas au contraire important d’impliquer les citoyens dans le processus de dépouillement ?
  • C’est moins cher.
    • Le prix d’un ordinateur de vote est de plusieurs milliers d’euros et sa durée de vie est limitée à quelques années. Par ailleurs, l’impression des bulletins de vote ne représente qu’environ 10% du coût de l’impression global pour une élection (en tenant compte des professions de foi et autres documents imprimés à cette occasion)
  • C’est plus écologique.
    • Argument à rapprocher du précédent. Si l’argument écologique est si important, il serait bien mieux défendu en s’attaquant aux publicités imprimées à tour de bras dans les boites aux lettres. Ne nous trompons pas de combat.

Les bonnes raisons :

  • meilleure expression du citoyen par l’utilisation de mécanismes plus élaboré (comme la méthode Condorcet)
  • ben en fait, c’est la seule bonne raison, mais il est vrai qu’elle est de taille !

les inconvénients du vote électronique

Le vote traditionnel possède des caractéristiques simples mais essentielles :

  • l’urne est un périphérique passif
  • l’urne ne fait pas de traitement : ce qui entre dans l’urne est ce qui sort de l’urne
  • l’urne est littéralement transparente et toutes les manipulations sont publiquement effectuées

Le vote électronique ne dispose pas de ces caractéristiques essentielles :

  • l’ordinateur de vote est un périphérique actif
  • l’ordinateur de vote effectue des traitements : ce qui rentre dans l’ordinateur de vote peut être différent de ce qui en sort
  • le traitement n’est pas observable (même si l’ordinateur de vote utilise un logiciel libre)

des palliatifs pour légitimer le vote électronique ?

Pour pallier ces faiblesses, les défenseurs du vote électronique ont imaginé 2 mécanismes censés renforcer la légitimité du vote électronique :

  • la production d’une preuve physique du vote, pour garantir l’auditabilité du processus de vote
  • l’utilisation de technologies de chiffrement, pour garantir le secret du vote

production d’une preuve physique

La production d’une preuve physique consiste à imprimer un bulletin papier, vérifié par le citoyen avant d’être glissé dans une urne, comme pour le vote classique. Ce mécanisme présente cependant plusieurs problèmes :

  • Si la contestation du vote électronique est fréquente, il faut recompter toutes les preuves physiques et on perd tous les avantages du vote électronique (que ces avantages soient les bonnes ou les mauvaises raisons) alors que les citoyens ne sont a priori pas mobilisés pour ce recomptage (puisque l’ordinateur de vote est censé être là pour ça).
  • Si le résultat du recomptage des preuves physiques donne un résultat différent de celui de l’ordinateur de vote, lequel prendre en compte ? Si on prend en compte le recomptage des preuves physiques, on admet implicitement que le vote électronique est moins fiable…
  • Si on réalise un recomptage d’un échantillon de preuves physiques, qui décide des bureaux de vote à auditer ? Qui décide de la manière de déterminer l’échantillon, de la taille minimale de l’échantillon (les élections se jouent parfois à peu de chose près) ? Qui est en charge de la gestion des preuves physiques ?

Une fraude réussie est indétectable. Une fraude légère et discrète est suffisante pour avoir des conséquences importantes sur le résultat du scrutin.

chiffrement de la preuve physique

Plusieurs études se sont intéressées à l’utilisation de mécanismes de chiffrement pour garantir le secret du vote, mais ce chiffrement n’a de sens que dans le cadre de la production d’une preuve physique.

Par ailleurs, l’utilisation des technologies de chiffrement rend le processus complexe et non transparent. C’est un difficile équilibre entre respect de la transparence et respect du secret du vote, l’auditabilité étant déléguée à des experts du chiffrement.

En cas de contestation, peu de personnes seront capables d’évaluer l’intégrité du vote et sa légitimité. L’auditabilité du processus de vote n’est plus accessible à tous les citoyens, elle devient une bataille d’experts.

combinaison des deux mécanismes

La preuve physique peut également être conservée par le citoyen qui pourra par la suite effectuer une vérification sur un listing imprimé.

  • Cette solution combine les deux mécanismes précédents en ce sens qu’il implique la production d’une preuve physique anonymisée par un mécanisme de chiffrage de l’identité du citoyen.
  • Cette solution permet de vérifier que le vote a été comptabilisé et qu’il correspond bien au vote exprimé par le citoyen.

Cette combinaison des deux mécanismes n’apporte cependant pas toute les garanties souhaitées car elle ne permet pas :

  • le respect du secret (en récupérant la preuve physique on peut savoir quel vote a été exprimé, on peut donc vendre son vote ou contraindre le citoyen à voter de telle ou telle manière)
  • la prévention du bourrage électronique du vote en ajoutant des votes fictifs et en faisant pointer plusieurs preuves physiques sur le même vote exprimé
  • le recomptage des votes exprimés

conclusion

Les études les plus avancées dans le domaine du vote électronique utilisent les technologies de chiffrement pour garantir le secret. Parallèlement, tous les efforts d’amélioration de l’auditabilité et de la transparence fragilisent le secret du vote.

Un vote électronique évolué pourrait présenter l’avantage d’utiliser la méthode Condorcet. Il n’est cependant pas souhaitable de proposer ce type de vote s’il n’est pas possible de garantir dans le même temps la transparence de ce dernier. En effet, la perte de légitimité d’un tel scrutin aurait pour effet de saper les bases même de la démocratie. Aujourd’hui, les avantages procurés par le vote électronique sont mineurs par rapport aux inconvénients qu’il induit.

Ce billet traite principalement du vote à bulletin secret qui est le plus délicat à transposer dans le cadre du vote électronique car il nécessite de garantir le secret du vote. Or, en France, pour les raisons exposées au début de ce billet, la quasi-totalité des scrutins sont à bulletin secret. Le vote à bulletin public n’amènerait probablement pas la même réponse vis-à-vis du vote électronique.

Ce billet est librement inspiré de la présentation d’Ulrich Wiesner lors de la 25c3, 25e édition du CCC.

le lièvre et la tortue

Méfiez vous du pétrole pas cher ! nous avertit Jean-Marc Jancovici dans une tribune où il explique que la baisse récente du cours du pétrole ne doit pas nous détourner de la problématique centrale que constituent les transports dans le contexte environnemental et énergétique actuel.

aspect environnemental

L’ORAMIP - Observatoire Régional de l’Air en Midi-Pyrénées - a réalisé au printemps 2008 une étude afin d’évaluer l’exposition des personnes à la pollution de l’air dans différents moyens de transport : voiture, bus, métro, marche à pied et vélo.

Pour ce premier volet de l’étude, trente cinq déplacements, parmi les plus empruntés dans l’agglomération toulousaine sur le trajet domicile-travail, ont été étudiés aux heures de pointe et comparés aux concentrations enregistrées sur les sites de mesures fixes de l’ORAMIP.

Les premiers résultats obtenus sont identiques à ceux obtenus au cours d’une étude similaire à Paris : l’automobiliste au volant de son véhicule ainsi que ses passagers sont les plus exposés à la pollution de l’air.

tableau comparatif de la pollution liée aux différents modes de déplacement

Les concentrations mesurées pour chaque mode de déplacement montrent que l’automobiliste est le plus exposé à tous les polluants pris en compte (dioxyde d’azote, particules en suspension, monoxyde de carbone, benzène). La marche, le vélo et le bus forment le trio gagnant des modes de transport permettant d’échapper le mieux aux polluants.

graphique comparatif de la pollution liée aux différents modes de déplacement

Il est donc illusoire de croire que l’automobile constitue un cocon protecteur et isolant de la pollution extérieure. Plus la circulation est dense, plus l’automobiliste s’intoxique. A l’inverse, le cycliste - qui évolue souvent au sein du même milieu - bénéficie d’une position plus élevée et donc plus éloignée des pots d’échappement. Il est en outre plus agile, ce qui lui permet de ne jamais rester bloqué dans les bouchons, réduisant de ce fait le temps de parcours, donc la durée d’exposition.

aspect énergétique

D’un point de vue énergétique, une autre étude de mars 1973 publiée dans Scientific American compare le coût énergétique du déplacement d’une unité de masse donnée. Elle vise à évaluer le rendement énergétique de différents modes de déplacement.

graphique comparatif de l'énergie nécessaire aux différents modes de déplacement

On constate avec étonnement que le vélo est très performant. Il a un rendement supérieur à de nombreux animaux, dont le cheval - taillé pour la galop - et le dauphin - dont les qualités hydrodynamiques sont connues de tous les nageurs. Le vélo présente le double avantage de permettre d’échapper en partie à la pollution urbaine et de ne pas contribuer à celle-ci.

A l’inverse, l’automobile se retrouve plutôt mal placée, à peu près aussi performante qu’un homme à pied ou qu’un avion de transport. Ce dernier fait est intéressant à noter : l’automobile, l’avion de transport et l’homme à pied sont d’un rendement équivalent.

Il faut nuancer ce propos en insistant sur le fait qu’il y a 2 différences majeures entre l’homme à pied d’une part, et l’automobile et l’avion d’autre part :

  • l’homme à pied fonctionne à l’aide d’énergie renouvelable (la nourriture) quand l’automobile et l’avion fonctionnent à l’aide d’énergie non renouvelable (à base de pétrole),
  • l’homme à pied peut difficilement parcourir plus de 50 kilomètres par jour quand l’automobile et l’avion peuvent parcourir plusieurs milliers de kilomètres en une journée.

Le rendement d’un mode de transport ne fait donc pas tout. L’intérêt environnemental et énergétique d’un mode de transport réside avant tout dans les caractéristiques renouvelables et écologiques de l’énergie primaire utilisée par le mode de transport et dans la distance moyenne parcourue à l’aide de ce moyen de transport.

Nous nous déplaçons trop, et à l’aide d’une énergie non écologique et non renouvelable. Notre mode de vie - fortement dépendant de transports énergivores - n’est pas durable et il cessera un jour ou l’autre, que nous le voulions ou non. Il nous appartient de décider si on préfère faire le choix d’un autre mode de vie, ou d’y être contraint tôt ou tard.

Etes-vous plutôt lièvre ou plutôt tortue ? Qu’on se le dise, dans un monde où les ressources sont finies, la tortue a plus d’avenir que le lièvre ! L’espérance de vie des tortues (plus de 50 ans) et l’ancienneté de l’espèce des testudines (plus de 200 millions d’années) en sont la preuve !

la révolution conservatrice à la française

Nonobstant le fait que l’objectif de Jacques Sapir semble se limiter à renouer avec la croissance, cet économiste prend le recul nécessaire pour inscrire les évolutions de la politique sociale et économique de la France dans le courant des révolutions conservatrices des Etats-Unis et de la Grande-Bretagne à partir des années 80.

La crise financière met aussi en lumière une forte hétérogénéité des situations et des réactions au sein des économies occidentales et souligne ainsi la diversité des modèles de capitalisme et de leurs réponses à une même perturbation. La globalisation de l’économie n’a pas été son unification, contrairement à ce qui a été prétendu.

Le « modèle américain », avec ses « clones » souvent donnés en exemple ces dernières années (Grande-Bretagne et Espagne), apparaît comme la première victime de la crise. Ce « modèle » a émergé à la fin des années 1970 et au début des années 1980 dans un contexte marqué à la fois par les tendances à la stagflation (combinaison de faible croissance et d’inflation) et les « révolutions conservatrices » associées à R. Reagan et M. Thatcher. Dans ce contexte, il s’est agi de réduire la part des salaires dans le partage de la valeur ajoutée afin d’accroître le taux de profit et, comme il était alors espéré, ranimer la croissance. La « politique de l’offre » soutenait en effet que l’investissement et la croissance étaient déterminés non par les perspectives de demande solvable (déterminées par la masse salariale) mais par les anticipations de profit et surtout du taux de profit.

Le raisonnement s’est appuyé sur la contre-révolution monétariste qui a cherché à rétablir la légitimité de la pensée économique néo-classique, avec en particulier son refus absolu de l’incertitude et son attachement fondamental à une hypothèse de comportement « rationnel » (au sens de la maximisation d’une utilité anticipée) de la part des agents. Ce discours, qui n’était pas sans de nombreuses incohérences internes, impliquait aussi un refus de toute hypothèse réaliste (ce qui avait été théorisé par Milton Friedman dès 1953), et un enfermement dans un cadre de plus en plus dogmatique. La théorie économique qui sous-tend la mise en place des politiques issues des « révolutions conservatrices », en raison de la clôture dogmatique qu’elle implique, acquiert rapidement toutes les caractéristiques d’une « fausse science », soit d’un discours purement idéologique exprimé dans un vocabulaire à l’apparence scientifique, mais totalement dépourvu de possibilité de vérification et méthodologiquement incohérent.

La mise en place d’une véritable « contre-révolution » dans le domaine des politiques économiques est donc allé de pair avec une régression profonde de la science économique, du moins en ce qui concerne son courant dominant ou « orthodoxe ». L’écart entre la dimension normative et prescriptive du discours économique et ses fondements analytiques de nature scientifique n’a cessé de s’accroître depuis les années 1980. Cet écart était une nécessité politique dans la mesure où les avancées de la recherche respectant les règles méthodologiques de la vérification scientifique montraient progressivement toute la validité des hypothèses keynésiennes les plus radicales, contre lesquelles se construisaient les politiques économiques mises en oeuvre durant ces années.

Pour obtenir le résultat qu’elles recherchaient, ces politiques se sont appuyées sur plusieurs leviers. L’ouverture internationale des économies a été certainement l’un des plus efficaces, une fois libéralisés les mouvements de capitaux. Ces derniers permettaient des gains de productivité important dans des pays où les coûts salariaux directs et indirects étaient très faibles, provoquant à travers un effet de concurrence induit par le libre-échange une puissante déflation salariale dans les pays de tradition keynésienne.

La libéralisation financière apparaît alors comme le complément nécessaire de ces politiques. En permettant aux capitaux de se déplacer sans contrôle, on créait le contexte d’un assujettissement de la production matérielle aux impératifs de rendement des activités spéculatives. C’était très exactement ce que Keynes avait voulu éviter quand, songeant à l’organisation économique du monde après la Seconde Guerre Mondiale, il insiste de manière très explicite sur la nécessité de contrôler les mouvements de capitaux et de limiter la convertibilité des devises au simple compte courant, à l’exclusion du compte de capital.

Une fois actée la libéralisation financière, il convenait de retirer aux gouvernements l’instrument de la politique monétaire, à travers le dogme de l’indépendance des banques centrales. Il faut ici reconnaître que, dans une économie internationale où les flux de capitaux – en particulier à court terme – ont été complètement libéralisés, les marges de manoeuvre pour une politique monétaire autonome sont très limitées par les pressions spéculatives. Dès lors, le problème central devient celui de la « réputation » de la banque centrale, même si cette notion n’a pas de fondement scientifique une fois que l’on admet l’instabilité des hiérarchies des préférences individuelles.

En fait, l’influence de ces politiques s’est étendue bien au-delà des gouvernements conservateurs. La part des salaires dans la valeur ajoutée baisse aussi vite en France, sous un gouvernement socialiste, qu’aux Etats-Unis dans le cours des années 1980. On est donc en présence d’un mouvement global, qui cependant prend des formes assez différentes suivant les pays en fonction des rapports de force sociaux, mais aussi des traditions historiques et de la nature des institutions économiques. Les différences très substantielles dans l’endettement des ménages que l’on note aujourd’hui, mais aussi dans le degré d’inégalité de la répartition du revenu, la persistance plus ou moins marquée de systèmes de patrimoine collectif à travers des services publics non privatisés et des systèmes de protection sociale généralistes, induisent des modèles de capitalisme substantiellement différents.

Ces différences ont été présentées par les idéologues libéraux comme des éléments de « retard » par rapport à la « norme » que le « modèle américain » était censé représenter. Ce dernier semblait en mesure de fournir une forte croissance avec un taux de chômage très faible. La pression qu’exerce la combinaison du libre-échange et de la libéralisation financière sur les économies qui n’ont pas adopté le « modèle américain » se traduit alors par le glissement progressif de la dette publique, dont des pays comme l’Italie et la Belgique sont des cas extrêmes, mais que l’on retrouve aussi bien en France qu’en Allemagne.

La crise actuelle a cependant fourni la démonstration du caractère illusoire de cette croissance, qui n’était pas soutenable à moyen terme.

L’article intitulé 2009 : récession ou dépression ? analyse les mécanismes de propagation de la crise actuelle, ses effets dans les différentes zones économiques, puis les actions à mener en réponse à celle-ci.

empreinte écologique et démographie

L’empreinte écologique est indicateur évaluant sur une base simple l’impact de notre mode de vie. Elle vise à quantifier le niveau de consommation de notre mode de vie dans l’objectif de ne plus l’inscrire dans un processus linéaire décrié par le documentaire Story of stuff (extraction, transformation, distribution, consommation, destruction), pour l’inscrire dans un cycle vertueux où nos déchets deviennent nos matières premières (quand les phases d’extraction et de destruction fusionnent en une unique phase de recyclage).

cercle vertueux du recyclage

L’empreinte écologique s’exprime dans une unité composite mêlant une surface et une unité de population. A l’échelle mondiale, l’empreinte écologique durable maximale est de 1,8 hectare par être humain (d’après Living Planet Report 2006).

L’empreinte écologique est donc fonction :

  • du mode de vie moyen des êtres humains,
  • et de la population humaine sur terre.

L’impact écologique maximal que la terre peut supporter de manière durable étant à peu près constant, il devient dès lors évident que l’empreinte écologique maximale par personne dépend étroitement du nombre d’êtres humains sur terre. Il y a donc une forte dimension démographique dans la notion d’empreinte écologique, et donc dans celle d’écologie.

Il est étonnant de constater que l’aspect démographique est bien souvent passé sous silence dans les programmes écologiques, qu’ils soient politiques ou non. La question démographique dérange et les débats abordant ce sujet tabou sont rares et souvent coupés court par quelques interventions irrationnelles et passionnées (il suffit pour s’en convaincre de lire le troisième commentaire de l’article - parfois politiquement incorrect - éloge de la dénatalité).

Reste que ce n’est pas en ignorant ce débat que la pensée écologique règlera l’aspect démographique de la problématique, puisqu’il est indissociable de l’écologie. Par conséquent, en matière d’écologie, toute proposition de solution ne prenant pas en compte l’aspect démographique est vouée à l’échec.

La maîtrise de la démographie est nécessaire et décisive pour tout projet écologique sérieux, il est temps d’aborder le débat sereinement et d’en discuter sérieusement.