si, c'est vrai !

un écosystème internet libre

Le web en tant que plateforme applicative est piloté par des acteurs du logiciel libre avec les composants libres tels que Webkit (par Apple), Chromium (par Google) ou gecko (par Mozilla). La course aux performances qui dure depuis un an entre les compilateurs/exécuteurs javascript jit met en évidence que Adobe et Microsoft sont simplement hors course, malgré leur solutions Air et Silverlight.

Malgré tout, l’acteur principal de la libération du web, Mozilla, a pour le moment limité son activité à des applications exécutées sur le poste de travail de l’utilisateur : Firefox comme navigateur web, Thunderbird comme logiciel de mail et Sunbird comme outil de calendrier (il existe d’autres projets mais ceux cités ci-dessus sont les projets majeurs).

Lors d’une récente conférence de Mozilla Europe, le conférencier Tristan Nitot et les questions de l’assistance ont évoqués des usages du web limités à des applications web propriétaires : Google Applications, Flickr, YouTube et Facebook. Ces applications web ont été citées car elles sont populaires et donc susceptibles d’être connues par la majorité de l’assistance. Même si le web se base sur des briques libres comme apache, dns, ip et firefox, les applications web restent majoritairement propriétaires. L’application cliente - Firefox - est libre, mais l’application serveur ne l’est pas (pour celles citées)…

Ne soyons pas mauvaise langue, il existe certaines applications libres : la plus connue est certainement Wikipedia et les autres projets de Wikimedia, mais il y a aussi OpenStreetMap qui vise à ce que tous les GPS du monde s’allient pour créer des cartes libres. Cependant, ces applications, même libres, restent centralisées et hébergées sur quelques serveurs centraux.

A contrario, des outils collaboratifs libres tels que les forges et les wiki sont décentralisés et respectent en cela l*'esprit internet*. Mozilla évolue dans ce sens en proposant l’extension Weave dont la partie serveur est libre et peut s’installer sur le serveur de son choix.

L’esprit internet évoqué ci-dessus consiste en une interconnexion d’ordinateurs, chacun étant à la fois client et serveur des autres ordinateurs. Chaque ordinateur héberge donc les services et les données que son propriétaire souhaite mettre à disposition des autres ordinateurs. Chaque propriétaire garde donc la maîtrise de ses données et le contrôle sur les services qu’il propose. L’esprit internet invite à la localisation des données et des services au plus près de l’utilisateur, idéalement sur son ordinateur personnel.

Or l’évolution du web s’oriente de nos jours vers une architecture centralisée où des ordinateurs serveurs proposent des services et des contenus à des ordinateurs clients. Une architecture où les clients et les serveurs sont 2 parcs d’ordinateurs distincts : les serveurs d’un côté, les ordinateurs personnels de l’autre. Cette architecture est précisément l’architecture centralisée du minitel où France Telecom avait un contrôle total sur l’architecture et les serveurs minitel. Internet est, avec le web 2.0, en train de régresser à l’âge du minitel des années 80 ! Si mon propos ne vous semble pas clair, ou au contraire s’il vous interpelle (bref, dans tous les cas !), visionnez la conférence Internet libre, ou minitel 2.0 ? qui mérite réellement d’y prêter attention. Vous pouvez également lire une interview de Benjamin Bayart, conférencier de la conférence précédente, qui permet d’appréhender simplement les dangers du minitel 2.0.

L’objectif que devrait se fixer Mozilla, ainsi que l’ensemble des acteurs du logiciel libre, devrait être de mettre en place un écosystème internet libre (et pas seulement le navigateur). Cela n’est pas simple et peut se décomposer en plusieurs étapes :

  • se réapproprier son ordinateur personnel en tant qu’outil (avec linux, OpenOffice.org…)
  • se réapproprier internet dont l’usage devrait se fondre dans l’ordinateur personnel (surtout si son ordinateur personnel devient également serveur pour les autres ordinateurs personnels, et réciproquement)
  • se réapproprier ses données personnelles et la maîtrise de ses liens vers les autres ressources sur internet

Pour en revenir aux applications web mentionnées en début de ce billet, on peut estimer que les outils de groupeware viennent en partie marcher sur les platebandes de Google Applications même si ces dernières bénéficient d’un large plébiscite du fait de leur avantage technologique et ergonomique. Flickr peut également être remplacé par des galeries photo en php ou autre.

Les initiatives les moins avancées semblent donc concerner les réseaux sociaux comme YouTube (qui n’est finalement qu’un réseau social dédié aux vidéos), Facebook et ses concurrents. Or, c’est précisément dans ce domaine que le contrôle des données est le plus important car se sont des données personnelles qui sont en cause. C’est donc sur ce point que doivent se concentrer les efforts.

On se doit cependant de mentionner les briques techniques suivantes :

  • Mozilla prévoit d’intégrer les balises video et audio dans Firefox 3.1, permettant d’intégrer facilement des vidéos dans les pages web. C’est une excellente nouvelle car c’est un prérequis à l’éclosion d’un YouTube-like libre.
  • XDI ne prend pas position pour un réseau centralisé ou non mais propose cependant toutes les briques techniques nécessaires (XRI et XDI) permettant d’établir un réseau social interopérable, ouvert et extensible.
  • Il existe également des initiatives intéressantes comme FOAF (friend of a friend) qui permet de décrire des personnes et les relations qu’elles entretiennent entre elles.
  • Une autre initiative intéressante concerne les microformats qui permettent de normaliser les données de systèmes hétérogènes afin de les rendre interopérables.
  • Les projets AppleSeed et HelloWorld sont 2 initiatives qui visent à mettre en place un réseau social distribué.
  • Enfin, BioloGeek a publié plusieurs billets sur le thème du web sémantique.

Il manque toutefois à ces initiatives un liant pour transformer ces composants en solutions facilement installables et utilisables ainsi qu’un vernis pour les rendre attractives et accessibles au plus grand nombre, afin de réellement répondre à l’objectif précédemment fixé : un écosystème internet libre !

se comprendre

La langue française est - dans les livres - une langue riche. Mais dans notre quotidien, le Français courant s’appauvrit, lui.

En premier lieu, certains mots passe-partout permettent de réduire l’étendue du lexique courant. Prenons quelques exemples utilisant les mots passe-partout que sont prendre et faire :

  • prendre le train : voyager en train
  • prendre du bon temps : passer du bon temps
  • prendre une douche : se doucher
  • faire du vélo : se balader en vélo
  • faire une bonne affaire : conclure une bonne affaire
  • faire l’idiot : se comporter comme un idiot

L’objet de ce billet n’est pas de dénigrer l’existence de ces verbes passe-partout, parfois bien utiles, mais plutôt de dénoncer l’usage immodéré qui en est fait de nos jours, contribuant ainsi à appauvrir notre langue.

En outre, l’utilisation plus large de nouvelles technologies de communication comme internet ou les terminaux mobiles (téléphones mobiles ou pda) favorisent l’usage de nouveaux modes d’expression et de communication adaptés aux textos des terminaux mobiles et à la messagerie instantanée des ordinateurs. Pour satisfaire aux contraintes d’instantanéité et de concision de la scripturalisation de l’oral, l’usage commun tend à réduire le champ lexical, la variété des lemmes (avec l’utilisation des mots passe-partout) ou encore de modifier l’orthographe des mots pour adopter une orthographe phonétique (comme dans le langage sms).

Cette évolution du langage, qui s’explique en partie par les claviers restreints et peu pratiques des terminaux mobiles, entraîne un appauvrissement certain du langage, une moindre finesse et moins de nuances dans l’expression. Or savoir s’exprimer, c’est aussi savoir régler ses différents autrement que par la force, c’est savoir discuter, parlementer, débattre, exprimer sa colère ou son désarroi. Si les jeunes (et les autres !) d’aujourd’hui ne disposent plus du langage comme outil d’expression de leurs idées et de leurs sentiments, il n’est pas étonnant de voir la violence physique (et la violence verbale qui l’accompagne) se développer.

Certains trouveront que le raccourcis est un peu rapide mais on peut malgré tout formuler l’hypothèse d’un lien fort entre le niveau d’éducation et le niveau de violence d’un groupe social. Faut-il voir dans la diminution des fonds alloués à l’éducation nationale un prélude à la barbarie ? Comme le disait si justement Abraham Lincoln : “si vous trouvez que l’éducation coûte cher, essayez l’ignorance”.

Communiquer est déjà compliqué entre individus civilisés, et cela renforce la nécessité de maintenir un système éducatif efficace. En effet, le langage une composante majeure d’une société, permettant d’établir des liens entre individus, donc de contribuer au tissus social.

Entre ce que je pense, ce que je veux dire, ce que je crois dire, ce que je dis, ce que vous voulez entendre, ce que vous entendez, ce que vous croyez en comprendre, ce que vous voulez comprendre, et ce que vous comprenez, il y a au moins neuf possibilités de ne pas se comprendre. Mais, s’il vous plaît, essayons quand même. Bernard Werber

espérer le meilleur, s'attendre au pire

La crise financière rampante qui court depuis l’été 2007 était prévisible (et prévue !) tant nos sociétés occidentales vivent au dessus de leurs moyens. Notre mode de vie n’est pas durable et la finance est en train de s’en rendre compte.

Cette crise financière comporte tous les éléments annonciateurs d’une triple crise dont les conséquences amènent certains à estimer que nous vivons actuellement la fin d’une ère : la fin de l’holocène (partie 1, partie 2).

La mondialisation a amené tous les pans de notre monde à être interconnectés : toutes les régions du monde, tous les secteurs de notre économie. Aussi, quand une région du monde ou qu’un secteur est en crise, tous les autres secteurs et toutes les autres régions du monde peuvent être affectés par ricochet, selon un facteur multiplicateur variable.

La mondialisation permet la dilution des risques sur les acteurs du monde entier mais elle entraîne également l’augmentation du risque de crise systémique de grande ampleur. Une crise systémique est comme un jeu de domino où le premier domino qui tombe entraîne la chute des autres dominos les uns après les autres.

La crise systémique qui menace actuellement comporte trois facettes principale :

  • une crise énergétique
  • une crise sociale
  • une crise écologique

La crise énergétique trouve son origine dans l’épuisement progressif des ressources énergétiques, en premier lieu les hydrocarbures. Même si les médias ne sont pas diserts sur ce sujet, il y a fort à parier que l’année 2007 constitue un tournant du point de vue énergétique car de nombreux indices tendent à indiquer que le pic de pétrole a été atteint en 2007. Cela ne pourra être confirmé qu’a posteriori, d’ici quelques années. En effet, le pic de pétrole est d’autant plus délicat à analyser qu’il a de bonne chance d’être en réalité un plateau - une limite maximum de production indépassable - pendant quelques années, avant de décliner doucement et régulièrement. La production de pétrole diminuant, le coût de cette énergie indispensable va augmenter, signant ainsi l’arrêt de mort de l’énergie bon marché.

La crise sociale résulte de la crise énergétique susmentionnée. Elle engendrera une mutation en profondeur de notre société, aujourd’hui droguée à l’énergie bon marché. L’énergie bon marché permet à chacun de disposer de nombreux esclaves énergétiques mais cette ère étant bientôt définitivement révolue, nous sommes condamnés à imaginer un nouveau mode de vie, plus sobre et moins consommateur d’énergie.

Et enfin, la crise écologique, comme une épée de Damoclès suspendue au-dessus de nos têtes, est annoncée par le GIEC qui étudie depuis 1988 le changement climatique. Le GIEC est un groupement international d’experts pluridisciplinaire dont les prospectives climatiques se basent en partie sur des modèles mathématiques. Ces modèles sont sans cesse corrigés et perfectionnés par les chercheurs mais ils comportent encore beaucoup d’inconnues, ce qui amène les chercheurs à formuler des hypothèses. Les prévisions des experts sont par conséquent difficilement chiffrables avec précision et les fourchettes communiquées sont généralement assez larges. Il est possible que les effets réels constatés dans quelques années ou quelques dizaines d’années soient bien au-delà de ce qui a été envisagé par le GIEC. Cela est d’autant plus vrai qu’il est parfois très difficile de prendre en compte les rétroactions. On parle de rétroaction dans le cas où un élément A a un effet sur un élément B qui a lui-même a un effet sur l’élément A. Dans certains cas, l’action cyclique des éléments A et B l’un sur l’autre peut avoir un effet d’emballement, entraînant la réalité des faits hors du périmètre exploré par les experts du GIEC. En conséquence - et même sans connaître avec précisions les conséquences futures de nos actes actuels - le principe de précaution impose de changer notre mode de vie. Et si on ne le fait pas pour nous, il est de notre devoir moral de le faire pour les jeunes générations et les générations futures. Cette crise sera vraisemblablement la dernière à apparaître à nos consciences borgnes car plus insidieuse et moins visible.

Ces problématiques sont abordées dans le texte mentionné au début de ce billet : Adieu à l’holocène (partie 1, partie 2) :

Les accords du type de celui de Kyoto supposent que tous les grands acteurs, une fois acceptées les conclusions scientifiques des rapports du GIEC, considéreront la maîtrise de l’effet de serre comme relevant d’un intérêt commun supérieur. Mais le réchauffement de la planète n’est pas « la guerre des mondes », où les envahisseurs martiens sont décidés à anéantir l’humanité toute entière sans distinction. Le changement climatique, au lieu de cela, aura des impacts très inégaux selon les régions du monde et les classes sociales. Il ne réduira pas, mais renforcera les inégalités géopolitiques et les conflits.

Comme l’a souligné le Programme de Développement des Nations Unies dans son rapport publié l’an dernier, le réchauffement de la planète est avant tout une menace pour les pauvres et les enfants à naître, qui sont « deux catégories n’ayant que peu ou pas de voix au chapitre politique. » Coordonner une action mondiale en leur nom supposerait soit que leur pouvoir se renforce de manière extraordinaire (un scénario non étudié par le GIEC), soit la transformation de l’égoïsme des pays riches et des classes sociales favorisées en une « solidarité éclairée », sans précédent dans l’histoire. D’un point de vue rationnel, cette dernière option semble la seule réaliste, à condition que soit démontré que les groupes privilégiés ne disposent pas d’une « porte de sortie » qui leur soit réservée, que l’opinion publique se préoccupant de questions internationales conduise l’élaboration des politiques dans les pays prépondérants, et que la diminution des gaz à effet de serre puisse être obtenue sans grands sacrifices dans le niveau de vie de l’hémisphère Nord. Mais aucune de ces éventualités ne semble très probable.

Et que se passera-t-il si la déstabilisation de l’environnement et les troubles sociaux, au lieu de dynamiser l’élan de l’innovation et de la coopération internationale, poussent seulement les élites vers des tentatives frénétiques pour se mettre à l’abri du reste de l’humanité ? Dans ce scénario, non étudié mais pour autant pas improbable, les efforts mondiaux pour réduire les émissions seraient tacitement abandonnés (comme, dans une certaine mesure, c’est déjà le cas) en faveur de l’accélération des investissements d’adaptation sélective destinés aux passagers de première classe de la Terre. Il s’agirait alors de créer un oasis vert de prospérité permanente isolé à l’écart d’une planète malade.

Finalement, le véritable danger - mais également la clé de la solution à tous les autres problèmes - est bien une problématique humaine :

À la lumière de ces études, la concurrence impitoyable entre les marchés de l’énergie et de l’alimentation, amplifiée par la spéculation internationale sur les matières premières et les terres agricoles, n’est qu’un modeste augure du chaos qui pourrait bientôt connaître une croissance exponentielle avec la concomitance de l’épuisement des ressources, des inégalités ingérables et du changement climatique.

Le véritable danger serait alors que la solidarité humaine elle-même, à l’image de la banquise de l’Ouest Antarctique, se rompe tout à coup et se brise en mille fragments.

Alors, que faire ? On peut commencer par utiliser la méthode préconisée par l’économiste libéral Milton Friedman (mais pour atteindre des objectifs différents !) : simplement diffuser et maintenir les idées en vies, jusqu’à ce qu’elles deviennent “acceptables”. Ce qui est vrai pour Milton Friedman et le libéralisme est vrai pour tout être humain se battant pour ses idées.

de la pertinence des indicateurs économiques

Le Produit Intérieur Brut (PIB) et le Produit National Brut (PNB) ne sont pas des indicateurs significatifs de développement humain d’un pays. Ils ne sont que des indicateurs économiques qui n’ont pas de lien direct avec les populations.

Si le PIB par habitant permet de comparer les PIB entre les pays, il n’est qu’un indicateur économique basé sur l’évaluation de l’activité des acteurs économiques, principalement les entreprises. Ramener cette donnée au niveau de l’habitant ne permet pas d’évaluer le niveau de vie de la population.

La banque mondiale, consciente des limites de ces indicateurs, a mis au point dès 1990 un autre indicateur qui combine le PIB à d’autres indicateurs pour constituer l’indice de développement humain (IDH). Cet indicateur composite - décrit dans le livre Beyond Economic Growth - est une simple moyenne de trois indices reflétant les réalisations d’un pays en termes de santé et de longévité (sur la base de l’espérance de vie à la naissance), d’éducation (à partir du taux d’alphabétisation des adultes et des taux combinés de scolarisation ou d’inscriptions dans le primaire, le secondaire et l’enseignement supérieur), et de niveau de vie (au moyen du PIB par habitant exprimé en parité de pouvoir d’achat).

Pour en revenir au “PIB par habitant”, un autre axe d’étude intéressant est d’accompagner ce “PIB par habitant” (qui est une moyenne) d’un écart type (qui est une mesure de dispersion de la moyenne). Cet écart type ne peut pas s’appliquer au PIB qui n’est qu’une somme de flux de production. Il prend en revanche tout son sens appliqué au revenu. C’est justement l’objet du coefficient de Gini, un indicateur mesurant le degré d’inégalité de distribution des revenus. Le coefficient de Gini est un nombre variant de 0 à 1, où 0 signifie l’égalité parfaite (tout le monde a le même revenu) et 1 signifie l’inégalité totale (une personne a tout le revenu, les autres n’ont rien).

Aux Etats-Unis, le coefficient de Gini augmente continuellement entre 1967 et 2007, avec une accélération de cette augmentation au cours des années 70, 80 et 90, comme le montre le graphique ci-dessous :

évolution du coefficient de Gini aux Etats-Unis

Ainsi un pays A ayant un PNB par habitant moins élevé qu’un pays B pourrait être considéré comme plus évolué de par son coefficient de Gini moins élevé. Cela signifie que la population de ce pays A est plus homogène, que la répartition des richesses est meilleure et que la précarité y est potentiellement moins présente.

Il serait même plus significatif de s’intéresser à la variation dans le temps du coefficient de Gini qu’à sa valeur. Si le PNB par habitant d’un pays A est supérieur à celui d’un pays B avec un coefficient de Gini inférieur, on pourrait en conclure que le pays A est plus riche et que les richesses y sont mieux réparties. Mais si l’on met en perspective ces indicateurs dans le temps et qu’on se rend compte que le coefficient de Gini augmente pour le pays A alors qu’il diminue pour le pays B, on peut en conclure que - indépendamment du niveau de vie moyen des habitants des pays A et B - la cohérence du tissus social du pays B se renforce alors que celle des plus pauvres du pays A s’affaiblit. Est-ce que la situation d’un pays riche dont le tissus social se délite est plus enviable que celle d’un pays plus pauvre mais dont le tissus social se renforce ?

Les Etats-Unis, qui semblent être un pays riche de part son PIB par habitant laisse en réalité apparaître de grandes inégalités du fait de son coefficient de Gini élevé et en augmentation continue.

Le coefficient de Gini gagnerait à être plus largement connus et utilisé. La principale limite de cet outil réside dans le fait qu’il ne considère que le revenu.

Or le revenu n’est qu’une dimension économique de la qualité de vie. Qu’en est-il des aspects culturels et sociaux, de l’impact écologique ? Comment évaluer ces dimensions difficilement chiffrables ? Un pays qui détruit son patrimoine naturel et celui de ses voisins pour se développer n’est-il pas en train de scier la branche sur laquelle il s’appuie ? Quand prendra-t-on en compte l’impact écologique pour évaluer les coûts et le niveau de développement d’un pays ou d’un continent ?

Il faudrait donc imaginer un indicateur de durabilité. Ce dernier évaluerait la capacité d’un pays ou d’un continent à se développer pour fournir à la population l’accès aux biens publics tout en garantissant la survie et la pérennité des générations futures donc en tenant compte de l’environnement au sens large de manière à préserver la biodiversité.

Un tel indicateur serait à même de remettre en perspective les avantages et les risques d’une économie libre et non faussée.

Pour continuer la réflexion : Peut-on mesurer le bonheur ? Réflexions sur les indicateurs de bien-être.

Radio France, journalisme et Union Européenne

Jusqu’en 2005, Radio France organisait des séjours de sensibilisation et de découverte des institutions européennes comprenant quelques jours à Bruxelles. Ces séjours étaient organisés et animés par une équipe de Radio France dédiée. Les séjours étaient peu onéreux et semblaient donner entière satisfaction aux participants.

Vers la fin de l’année 2005, soit quelques mois après le non au référendum du TCE (même s’il n’y aucune causalité avérée entre les 2 faits), quelques syndicats de Radio France se sont élevés contre une décision supprimant ce pôle de formation aux institutions européennes et sous-traitant cette prestation à un service de l’Union Européenne.

Alors que le débat qui devrait préoccuper notre société porte sur l’indépendance des médias et des journalistes, on apprend que Radio France sous-traite à l’Union Européenne les formations sur l’Union Européenne ! Le fait que l’Union Européenne soit ici juge et partie ne semble pas déranger Radio France !

Peut-on sincèrement croire qu’une telle formation donnera l’occasion aux formateurs (formés et payés par l’Union Européenne) de déjuger l’Europe et d’apporter un point de vue objectif et critique qui devrait être le point de départ de toute démarche journalistique ?

l'épouvantail de la dette publique

L’épouvantail de la dette publique est un prétexte bien pratique pour orienter la politique gouvernementale.

Chaque fois qu’un gouvernement veut comprimer les dépenses sociales, il tire argument du niveau trop élevé de la dette. En mai, le déficit des caisses de retraite françaises a servi à légitimer l’allongement du temps de travail ; en juin, celui de l’assurance- maladie a justifié le projet gouvernemental de réduire les remboursements de médicaments pour certains traitements prolongés (diabète, cancer, etc.). La dette publique existe bien.Mais est-elle aussi menaçante que certains le prétendent ?

Bruno Tinel et Franck Van de Velde analysent la dette publique française et montrent que la gestion de la dette publique est un moyen d’influer sur la répartition des richesses.

En déplaçant la charge fiscale des foyers les plus cossus vers les revenus moyens et modestes, ces « réformes » ont favorisé les contribuables dont la « propension à épargner » est la plus forte. Et alimenté la demande de titres… En baissant les impôts des riches, les gouvernements ont simultanément contribué à déséquilibrer les finances publiques et obligé l’Etat à offrir des titres sur les marchés financiers.

Ce qu’autrefois l’Etat obtenait de la part des ménages aisés sous la forme d’un prélèvement fiscal, il ne peut désormais l’escompter qu’en échange d’un taux d’intérêt payé par l’ensemble des contribuables. Ainsi, les concessions fiscales accordées aux riches ont créé d’un seul coup un surcroît de dette publique et de rente privée. Elles ont mis en place un flux de redistribution à l’envers (17). Les riches bénéficient alors d’une double récompense : le cadeau fiscal d’un côté, et le paiement d’intérêts de l’autre. Le premier leur permet de dégager l’épargne qui financera la dette. Laquelle a été créée par le cadeau fiscal lui-même. Une telle mécanique, que l’on prétend contredire par d’éternels « plans de rigueur », trouverait un meilleur remède dans un retour à l’impôt progressif. Qui le propose ?

Sous cet angle là, le bouclier fiscal prend tout de suite une autre allure.

à quand une Europe des peuples ?

29 mai 2005, les Français sont appelés à ratifier par référendum le Traité établissant une Constitution pour l’Europe. 54,67 % des suffrages exprimés se prononcent pour le non. Le 1er juin, les Hollandais votent non à 61,6 %. C’est un coup d’arrêt pour le TCE qui est aussitôt enterré.

Le débat était passionné, en France autant qu’en Hollande. Un souffle de démocratie semblait souffler sur l’Europe.

Le traité renaît cependant de ses cendres en 2007, sous le nom de Traité de Lisbonne. Si la forme diffère, le fond reste similaire, selon Valéry Giscard d’Estaing lui-même. L’une des nouveautés est la suppression de l’aspect constitutionnel du traité, dans la forme seulement.

Commence alors le processus de ratification - principalement par les parlements - des pays d’Europe. Le parlement français ratifie le traité le 4 février 2008. Et là rien, ou presque. Pas de débat, peu d’articles dans les journaux. Une brève dans les journaux télévisés du soir, quelques manifestations ça et là pour manifester son désaccord et son indignation. Mais globalement, une réaction populaire quasi inexistante sans commune mesure avec la ferveur des débats de 2005.

Les Français seraient-ils des moutons, bêlants quand on leur demande, broutant l’herbe le reste du temps ?

des moutons

Seule l’Irlande doit encore ratifier le traité par référendum, cette obligation découle de la constitution de ce pays. Le gouvernement français a tout simplement modifié la constitution française pour ne plus être contraint d’organiser un référendum.

L’Irlande rejette à nouveau le traité le 12 juin 2008 par 53,4 % de voies contre.

Quand est-ce que les gouvernements des pays d’Europe comprendront et accepterons le fait que les Européens souhaitent une Europe des peuples, une Europe dotée d’une véritable souveraineté politique et monétaire ?

l'EIA réduit sa prévision de production de pétrole pour 2010

Ce billet est à mettre en parallèle avec un billet précédent : la production mondiale de pétrole a décliné de 0,2% en 2007.

Morceaux choisis d’une dépêche de l’agence Reuter :

Dans ses nouvelles prévisions à long terme, le département statistique du ministère américain de l’Energie a réduit de 1,1 million de barils par jour (bpj) son estimation de la production pétrolière hors-Opep en 2010, la ramenant de 51,8 à 50,7 millions de bpj.

Donc les pays producteurs de pétrole hors-OPEP vont produire moins de pétrole que prévu.

Son estimation de la production Opep pour la même année est réduite de 400.000 bpj, à 37,4 millions de bpj.

Donc les pays producteurs de pétrole de l’OPEP vont aussi produire moins de pétrole que prévu.

L’Arabie saoudite devrait rester le premier producteur mondial en 2030 en dépit d’une baisse de ses pompages à 13,7 millions de bpj, contre 16,4 millions selon le rapport 2007 de l’EIA.

La production de l’Arabie Saoudite, premier producteur de pétrole au monde, va aller en diminuant. L’article ne dit pas si c’est structurel ou conjoncturel. C’est pourtant un point essentiel car c’est ce qui permet de déterminer si l’Arabie Saoudite a passé son peak oil (structurel) où s’il suffirait d’investir un peu plus dans la prospection et l’exploitation du pétrole pour en produire un peu plus (conjoncturel).

Elle ajoute que la consommation mondiale d’énergie devrait augmenter de 50% d’ici 2030.

Mais bon, tout va bien, la consommation va augmenter sans aucun problème lié à la production…

Quel grand média sera le premier à évoquer le peak oil ? Je n’ai aucune certitude quant à la date probable du peak oil (passée, présente ou future), mais je trouve étrange que les médias et les agences de l’énergie ne l’évoquent pas dans leurs communiqués.

Lu sur TradingSat.

l'énergie nucléaire gage de l'indépendance énergétique de la France ?

L’indépendance énergétique est l’un des arguments majeurs invoqués pour justifier le choix de France d’utiliser l’énergie nucléaire à grande échelle pour la production d’électricité.

Si cet état de fait permet à la France d’être relativement moins dépendant du pétrole, du charbon et du gaz - massivement importés - l’argument comporte cependant plusieurs failles.

  • L’énergie électrique est une énergie très utile dans notre société technologique, elle est cependant incapable de remplacer les hydrocarbures pour certains usages essentiels tels que les transports. La France peut ainsi réduire sa dépendance énergétique vis-à-vis du pétrole mais sera incapable de s’en passer totalement.
  • L’indépendance énergétique est illusoire dans la mesure où la France ne disposait que de 0.5 % des réserves prouvés d’uranium en 1999 comme le montre cette carte. La France est donc fortement dépendante de ses importations d’uranium.
  • L’énergie nucléaire réside dans l’uranium qui est une ressource naturelle limitée. Comme toute ressource naturelle non renouvelable, l’uranium est soumis aux mêmes limites que les hydrocarbures.

L’Energy Watch Group estime que :

  • une pénurie d’uranium se produira dès 2015
  • la production atteindra son maximum en 2025
  • aucune autre technologie nucléaire ne sera disponible avant 2040
  • le prix de l’uranium a été multiplié par dix en quatre ans
  • le coût du combustible prend une importance croissante dans le coût de l’électricité nucléaire.

L’indépendance énergétique de la France est donc toute relative et l’énergie nucléaire ne constitue pas la source d’énergie miracle qui nous sortira de l’impasse énergétique dans laquelle nous nous trouvons.

Un dossier assez complet sur l’uranium est disponible sur le site de Futura Sciences.

Yves Cochet : la plus grande épreuve qu'ait jamais affrontée l'humanité

Conférence d’Yves Cochet pour le collectif parisien pour la décroissance, à Paris, le 22 mai 2008.

Dans la première partie de son intervention, Yves Cochet rappelle les fondamentaux sur le poids de l’énergie fossile, 85% du total, et la perspective du pic énergétique, vraisemblablement bien plus proche que les projections jusqu’alors optimistes de l’AIE ne le prévoient.

Il passe ensuite en revue les impacts de la crise de l’énergie qui s’annonce sur tous les aspects de notre vie, de l’activité économique aux transports, à l’habitat et l’alimentation.

Le temps va nous manquer, avertit-il, pour procéder à la reconversion de nos sociétés, dont le modèle de croissance est indissociable d’une énergie bon marché toujours plus abondante.

Yves Cochet suggère quatre axes de transformation :

  • autosuffisance locale et régionale
  • décentralisation géographique des pouvoirs
  • relocalisation économique
  • planification concertée et quotas

La conférence est disponible en vidéo, en 2 parties de 50 minutes chacune.