Energies vertes : nous avons perdu un temps précieux

Energies vertes : nous avons perdu un temps précieux

 

Dans les années 70, l’économie mondiale était tributaire de ressources énergétiques (pétrole, gaz, uranium) centralisées par quelques pays, dont les réserves étaient relativement limitées et dont les prix dépendaient de la situation géopolitique de régions parmi les plus instables de la planète Les crises pétrolières ont eu comme conséquence une profonde réflexion sur la nécessité de trouver d’autres sources d’énergie. A cette époque, les énergies durables, comme l’énergie solaire, était vues comme une alternative pertinente car immuables (du moins pour quelques milliards d’années) et ubiquitaires. Combien de temps allions-nous mettre pour prendre les décisions nécessaires au développement des technologies d’énergie « verte » tout en économisant ce qui reste de combustibles fossiles ? La réponse était plus politique que technologique et le passage aux énergies vertes s’accompagnera de bouleversements sociaux. Le charbon a été à l’origine de la révolution industrielle du XVIII° siècle et le pétrole a permis l’avènement de l’ère de l’automobile et de l’avion.

Au début des années 80, les technologies de production d’énergie renouvelable se développaient lentement et les installations industrielles restaient très rares, mis à part pour l’électricité hydraulique. Depuis cette date, la capacité de production d’énergie verte n’a cessé de progresser. Selon l’Agence internationale de l’énergie (AIE), la part du solaire et de l’éolien dans le mix électrique mondial, pourrait passer de 1500 TWh à 8500 TWh entre 2017 et 2040. En 2013, l’hydroélectricité représente toujours la majeure partie de l’énergie renouvelable (64%), loin devant l’éolien (20%), la solaire photovoltaïque (9%) et la biomasse (6%). Les pays qui investissent le plus dans ces nouvelles formes d’énergie sont la Chine, les États-Unis, le Japon, le Royaume-Uni et l’Allemagne (la France a choisi d’insister dans son modèle centralisé basé sur le nucléaire). Cette croissance aurait même dû être encore plus importante sans les subventions annuelles encore dédiées aux carburants fossiles et à l’énergie nucléaire (plus de 550 milliards de dollars) qui freinent la concurrence en maintenant des prix d’énergie artificiellement bas.

L’énergie solaire

Chauffage solaire

 

A la fin des années 70, l’énergie solaire était présentée comme une alternative énergétique économique, à la portée de tous les pays, et qui engendrerait la création de nombreux emplois. En 1978, un rapport des Nations Unies prévoyait que l’énergie solaire deviendrait plus économique que le nucléaire, à condition d’investir un milliard de dollars pour la fabrication en série des cellules photovoltaïques ; un milliard, c’était peu comparé à ce qui était investi pour le nucléaire. La même année, le premier système électrique solaire communautaire apporta l’électricité aux amérindiens Papago dans le village reculé de Schuchuli en Arizona. A l’époque, cette installation financée par L’État américain produisait annuellement plus de 6 MWh, pour un coût 17 fois plus élevé que la moyenne aux Etats-Unis. Relier le village au réseau haute-tension aurait été bien plus coûteux, mais cette énergie inépuisable (sauf dans quelque six milliards d’années) semblait être la solution d’avenir. Les cellules photovoltaïques permettaient déjà d’alimenter des pompes à eau, des bouées marines, des phares isolés… Cette technologie à base de minces couches de cristaux de silicium ne permettait pas d’obtenir de bons rendements mais des solutions d’amélioration étaient à l’étude. Deux stratégies s’opposaient alors; un réseau de petites unités indépendantes ou un système de grandes centrales solaires. Avec le programme Thémis, le gouvernement français, adepte de la centralisation et de l’hyper-contrôle, avait privilégié la seconde stratégie. Le projet a été abandonné en septembre 1986, après de trop nombreuses interruptions, … pour être relancé en 2003 sous la forme du Pôle de compétitivité DERBI (Développement des Énergies Renouvelables dans le Bâtiment et l’Industrie). Il faut noter que Themis n’utilise pas de cellules photovoltaïques, mais près de 200 héliostats, miroirs géants orientés vers le soleil qui concentrent les rayons du soleil pour chauffer un fluide caloporteur qui permet de produire de la vapeur d’eau pour actionner une turbine créatrice d’électricité. La France, tout comme l’Europe, a clairement perdu la bataille de l’industrie des modules photovoltaïques et c’est la Chine qui domine outrageusement le marché en plaçant neufs industries dans le top 10 mondial. Imaginez si une fraction seulement des sommes colossales utilisées pour le développement du nucléaire en France avait été dédiée à l’énergie solaire…

Aujourd’hui, le coût de l’énergie solaire photovoltaïque reste élevé (114-547 €/MWh), mais devrait continuer de diminuer pour devenir compétitif par rapport aux énergies fossiles et  nucléaire. Le solaire thermique (les rayons du Soleil sont concentrés à l’aide de miroirs) peut être envisagé comme une technologie plus pertinente d’un point de vue économique (94-194 €/MWh), mais reste encore peu développé. Rappelons cependant que le coût de l’énergie nucléaire (plus de 50€/MWh pour les centrales construites et 70-90 €/MWh pour un EPR) est totalement sous-estimé car il ne tient compte ni du démantèlement futur des vielles centrales, ni du stockage des déchets pendant des siècles, ni des coûts de R&D… La production d’électricité dans des centrales thermiques (combustibles fossiles), tout juste compétitive (70-100 €/ MWh), devient quant à elle de moins en moins acceptable.  Les cours du pétrole, extrêmement fluctuant, devraient recommencer à progresser dans les prochaines années et le charbon, encore bon marché, n’est plus envisageable dans une politique de lutte contre le réchauffement climatique Le prix du nucléaire (50 €/MWh), qui ne tient pas compte du démantèlement futur des vielles centrales, est sous-estimé.

Aujourd’hui, le silicium reste le matériau le plus utilisé pour fabriquer les cellules photovoltaïques et le rendement moyen d’un panneau cristallin n’est que de 14,5%., selon EDF. Bien qu’il soit obtenu à partir de l’élément le plus abondant dans la croûte terrestre, la silice, le silicium est responsable du coût relativement élevé des cellules. L’utilisation de couches de plus en plus minces, et donc de quantités moindres de silicium, devrait permettre d’améliorer la rentabilité de cette technologie. On peut aussi citer d’autres voies d’amélioration prometteuses comme le solaire photovoltaïque concentré (des miroirs concentrent les rayons du soleil sur une petite cellule photovoltaïque) ou les capteurs solaires hybrides mariant le photovoltaïque et le thermique.

L’énergie du vent

Moulins à vent en Hollande

 

Les moulins à vent étaient déjà utilisés il y a 4 000 ans. D’abord installés dans les pays méditerranéens, berceaux de la civilisation, ils se sont répandus dès le XIIIème siècle dans toute l’Europe. Les moulins à vent furent en réalité, avec les roues hydrauliques (bien plus nombreuses), les premières usines de l’histoire fonctionnant avec une énergie indépendante de la force musculaire. On comptait 9 000 moulins à vent aux Pays-Bas en 1850, 18 240 en Allemagne en 1895 et environ 20 000 en Finlande en 1900. Les moulins à vent ont été majoritairement utilisés pour la mouture, mais ont aussi servi pour le pompage de l’eau, l’émondage de l’orge et du riz, la presse des olives, des graines de colza, le cacao, de moutarde, de poivre…mais aussi pour évacuer l’eau des polders hollandais. Si les innovations successives permirent d’améliorer la technique et le rendement des moulins à vent, elles arrivèrent néanmoins trop tard pour contrer l’arrivée de nouvelles sources d’énergie comme la vapeur, le bois et l’électricité. Les nombreux moulins à vent encore présents en Europe font aujourd’hui partie du patrimoine historique et ne sont plus des outils industriels.

L’éolien, qui a hérité de la technologie des moulins à vent, connait depuis quelques années une très forte croissance. En 2016, c’est la première source d’énergie verte en termes de capacité installée (142 GW, dont 11 GW offshore principalement au Royaume-Uni) et elle représente plus de 15,6 % du parc installé de l’Union Européenne, derrière le gaz (21,1 %) et le charbon (17,5 %), mais devant l’hydroélectricité (15,5 %) (selon European Wind Energy Association). C’est l’Allemagne qui a, de loin, le plus grand parc éolien installé (45 GW), suivi de l’Espagne (23 GW), du Royaume-Uni (14 GW) et de la France (10 GW). La part dans la consommation, estimée à 11,4 %, est moins importante, essentiellement à cause de la dépendance au vent de la production électrique. L’objectif français de 19 GW en éolien terrestre à l’horizon 2020 parait compromis, du moins dans ces conditions de développement actuel (il semble que 17 GW serait plus réaliste). Ce parc sera complété par des éoliennes offshores pour une capacité de l’ordre de 3 GW. La part de l’éolien dans le mix de production électrique était en 2015 de 3,9% (13,3% en Allemagne et 42% au Danemark). Avec 30,5 GW, la Chine a installé en 2015 près de la moitié (48,4%) des nouvelles capacités éoliennes dans le monde (selon Global Wind Energy Council). La Chine et les États-Unis disposent désormais respectivement de 33,6% et de 17,2% de la puissance éolienne installée dans le monde. Ceci s’explique avant tout par la taille de ces deux géants. La part de l’éolien reste cependant largement minoritaire (3,3%) dans le mix électrique de la Chine dont près des trois quarts de la production sont tirés du charbon. Il en va de même aux Etats-Unis ou l’éolien représente à peine 4,5% de la production électrique totale, le charbon et le gaz naturel comptant respectivement pour 35,1% et 31,4% du mix.

Aujourd’hui l’éolien terrestre est proche de devenir une technologie compétitive (82 €/MWh). Le principal obstacle à son développement reste l’opposition de riverains pouvant se plaindre du bruit ou d’une dégradation visuelle du paysage. L’éolien offshore est encore en phase pilote de développement et n’est pas encore jugé compétitif (180 €/MWh), essentiellement en raison des coûts élevés d’installation et d’entretien des turbines en milieu marin.

Les bateaux à vent

L’Alcyone de la Fondation Cousteau, mu par des turbovoiles de 10,2 m de haut

 

La crise pétrolière des années 70 a conduit un certain nombre d’architectes marins à concevoir des navires marchands mus par l’effet synergique d’un moteur diesel et du vent. Bien entendu, il n’était plus question de faire grimper des marins dans le gréement pour hisser la grand-voile. Tout devait être manœuvré par des moteurs électriques pilotés automatiquement par des ordinateurs. Les économies d’énergie étaient évaluées à 85% dans le cas du cargo à voile de l’architecte naval New-Yorkais Franck McLear. Une société américaine de développement de la marine commerciale à voile a été lancée en 1979, avec le soutien du gouvernement. Il était question de réactiver d’anciennes routes maritimes pour mieux exploiter les vents marins. En 1981 on imaginait qu’une flotte serait opérationnelle en l’an 2000…

Aujourd’hui, le vent n’a pas encore remplacé le moteur diesel et 90% du transport de marchandises se fait par voie maritime. Compte tenu de la volatilité des cours du pétrole et de l’urgence de réduire l’émission de gaz à effet de serre, le transport maritime par la force du vent semble avoir de beaux jours devant lui. Propulsés par la force du vent, les cargos pourraient diminuer d’au moins 35% leur consommation de carburant. Les bénéfices économiques et écologiques seraient alors significatifs et l’ONU estime qu’environ 100 millions de tonnes de CO2 pourraient être économisées chaque année grâce à ce procédé. Nous n’avons perdu que quelques décennies à tergiverser, mais mieux vaut tard que jamais.

L’énergie de la biomasse

La fermentation de la biomasse (déchets de récoltes et d’élevage, effluents d’égouts…) par des microorganismes permet de produire des combustibles naturels comme le méthane (méthanisation), Dans les années 70, la Chine avait déjà construit des milliers d’usines de transformation de la biomasse, tandis que d’autres pays se lançaient dans la culture industrielle de plantes destinées à la production d’éthanol. C’était le cas notamment du Brésil qui comptait remplacer l’essence importée par des agro-carburants, en particulier de l’éthanol produit à partir de cannes à sucre (le « gasohol« ), au détriment de la biodiversité et en concurrence avec la production de nourriture. La seule alternative durable, ce sont les biocarburants de deuxième génération produits à partir de déchets végétaux agricoles et forestiers (bois, paille), voire de troisième génération à partir de micro-algues (actuellement au stade de recherche et développement).

Le Gasohol

Le gasohol, contraction des mots anglais gas et alcohol, désigne un mélange d’essence et d’éthanol, permet d’économiser les combustibles dérivé du pétrole. Au début des années 80, on trouvait déjà ce type de carburant dans les stations-service au Brésil. L’utilisation de l’éthanol comme carburant pour les automobile n’était pas une idée nouvelle puisque les régions pauvres en pétrole ont souvent opté pour cette solution jusqu’aux années 30, lorsque le prix du pétrole fut devenu compétitif. C’est à partir du premier choc pétrolier en 1973 (suite à la guerre du Kippour et à la prise de contrôle des cours du pétrole par l’OPEP) que l’éthanol comme carburant a été remis au goût du jour. A partir des années 70, le Brésil a joué un rôle leader dans le domaine du gasohol en lançant un ambitieux programme de transformation de matières végétales issues de la canne à sucre et du manioc (programme « Proalcool »). Au Brésil, l’alcool se trouva meilleur marché que l’essence, grâce à une politique de taxes particulièrement avantageuse. D’autres pays se sont intéressés plus ou moins sérieusement au nouveau combustible : l’Allemagne de l’Ouest (Volkswagen), la Suède (Volvo) et surtout l’Afrique du Sud (à une époque où la main d’œuvre agricole était particulièrement bon marché, allez-savoir pourquoi). Le détournement de terres agricoles vers la production de combustibles au détriment de la nourriture risquait d’aggraver dramatiquement le déficit alimentaire mondial. Les pays du Sud devaient être les plus touchés s’ils décidaient de remplacer les cultures vivrières par des cultures énergétiques. Ce gasohol, connu aujourd’hui sous le nom d’agro-éthanol ou de bioéthanol, était peut-être une fausse bonne idée.

Le bioéthanol est un biocarburant produit par la fermentation de biomasse. Composant principal du « Super-Ethanol E85 », il permet de réduire les émissions de microparticules, d’oxyde d’azote (NOx) et de benzène, lors de son utilisation dans les moteurs de voitures essence. Mais le bioéthanol doit en grande partie sa rentabilité économique à l’appui, sous la forme de subventions, du gouvernement qui y voit un moyen de réduire la pollution automobile… et surtout d’alléger la facture pétrolière du pays. La production de bioéthanol de première génération à partir de matières premières agricoles (betterave ou canne à sucre, amidon du blé, du maïs…) pose de graves problèmes environnementaux et éthiques. La culture de la biomasse engendre souvent une déforestation massive et l’utilisation de grandes quantités de produits phytosanitaires et d’eau potable. La rareté de l’eau douce (70% de l’eau douce utilisée dans le monde sert à l’agriculture), plus encore que celle des sols, pourrait rapidement poser un problème de choix de société. Et il faudra aussi accepter de réduire les rendements agricoles au bénéfice d’une réduction des quantités de phytosanitaires utilisés (pesticides, engrais chimiques)… ce qui nécessitera d’utiliser des surfaces agricoles plus vastes, et donc de faire un choix entre nourriture saine et agrocarburants. La seule alternative durable serait le bioéthanol de deuxième génération produit à partir de déchets végétaux agricoles et forestiers, voire de troisième génération à partir de micro-algues.

L’énergie hydraulique

Barrage de Tellico

L’énergie hydraulique, première source d’énergie renouvelable au monde avec environ 20% de l’électricité mondiale, est considérée comme la moins coûteuse des énergies vertes (15-30 €/MWh) ; les coûts de construction des barrages peuvent être colossaux, mais les coûts de fonctionnement restent très faibles. Les ressources naturelles pourraient être considérées comme gigantesques, si on envisageait d’installer des turbines hydrauliques au niveau de chaque chute d’eau. Ce serait bien entendu complètement stupide car cela entrainerait la destruction de nombreux écosystèmes ou sites historiques, comme ce fut déjà le cas par le passé.

L’énergie des mers

Dans les années 70, il avait été envisagé d’utiliser l’énergie de courants marins comme le Gulf Stream ou d’exploiter les différences de température entre surface et grands fonds.

L’énergie thermique des mers

Le soleil réchauffe la Terre couverte d’eau à 71%. C’est donc surtout de l’eau qui s’échauffe en surface, alors que les profondeurs restent froides. L’idée d’utiliser ce gradient de température pour produire de l’énergie par un système de turbines avait été décrite dès 1881 par le physicien français Arsène d’Arsonval, et Jules Verne s’en était fait l’écho lorsqu’il faisait dire au Capitaine Nemo : “J’aurai pu, en effet, en établissant un circuit entre des fils plongés à différentes profondeurs, obtenir de l’électricité par la diversité des températures ”. Le fonctionnement de ces centrales, idéalement placées près de l’Équateur, est le même que celui d’un réfrigérateur : L’eau chaude pompée en surface réchauffe un gaz à bas point d’ébullition (ammoniaque, butane, propane) qui s’évapore et va faire tourner une turbine génératrice d’électricité. Le gaz est ensuite injecté en profondeur pour être liquéfié par les eaux plus froides. En 1930, l’ingénieur français Georges Claude a même construit la première centrale basée sur l’énergie thermique des mers (ETM) près des côtes cubaines. La France était alors une grande nation d’inventeurs, mais ne brillait pas par sa vision de l’avenir (est-ce vraiment différent aujourd’hui ?) : Le procédé a été abandonné car le pétrole était alors très bon marché. A la fin des années 70, suite au choc pétrolier de 1973, un groupe de constructeurs américains cherchaient à développer des centrales basées sur l’énergie thermique des mers (Ocean Thermal Energy Conversion). Il était alors envisagé que la première centrale commerciale d’une puissance de 400 mégawatts serait construite à la fin des années 80 ou au début des années 90. C’était très optimiste. Aujourd’hui, malgré un fort potentiel, l’ETM n’est toujours pas commercialement exploitée, bien qu’il existe quelques prototypes en développement, dont l’un en Martinique, le projet NEMO (10,7 MW) suspendu depuis avril 2018 (New Energies for Martinique and Overseas). La rentabilité économique reste à démontrer du fait de l’importance des investissements nécessaires. Selon une étude américaine (2001), le kW reviendrait 4 à 6 fois plus cher qu’avec une éolienne et 3 fois plus qu’avec le photovoltaïque. Mais il ne faudra pas reproduire les erreurs du passé et oublier de prendre en compte les conséquences d’une telle technologie sur l’environnement et la biodiversité. La nécessité de stocker 300 tonnes d’ammoniac (pour la transformation en électricité) et la remontée en surface d’énormes volumes d’eau froide risquent de perturber de façon dramatique les écosystèmes, voire même le climat si cette technologie est amenée à se développer à grande échelle.

L’énergie marémotrice

Usine marémotrice de l'estuaire de la rance

Usine marémotrice de l’estuaire de la rance

L’énergie marémotrice est liée directement à la force gravitationnelle exercée sur les océans par la lune. La puissance installée de l’ensemble des marées représenterait celle de 3000 centrales nucléaires (construites avant 1981) de 1000 MW. Le principal inconvénient d’une centrale électrique marémotrice est l’investissement nécessaire. En 1979, le coût d’une installation de 450 MW était estimé à 920 millions de dollars. Pour que le projet soit économiquement viable il fallait que l’amplitude des marées atteigne 4 à 5 mètres. Or, très peu d’endroits au Monde remplissent cette condition. En France, on avait envisagé de construire une usine marémotrice sur les iles Chausey, entre la baie du Mont Saint-Michel et la presqu’ile du Cotentin. Les scientifiques estimaient alors que l’impact d’aussi gigantesques installations sur le fragile écosystème marin aurait été catastrophique, étant donné que la plupart des organismes aquatiques vivent au rythme des marées. Avec une puissance installée de 240 MW, l’usine marémotrice de l’estuaire de la Rance, entre Saint-Malo et La Richardais, est restée pendant 45 ans (de 1966 à 2011) la plus grande du Monde. Elle n’a été supplantée que par la centrale de Sihwa Lake en Corée du Sud  (254 MW). Cette centrale marémotrice est la principale source de production d’électricité de la Bretagne (45 % en 2012) et le coût Le coût du kWh est estimé à 0,12 euro. Avant la construction de la centrale de la Rance, le marnage (différence entre marée haute et marée basse) atteignait 14 mètres et l’étale (moment entre deux marées où le courant est nul) ne durait alors que 4 à 5 minutes. Désormais, le marnage n’est plus que de 7,50 m et l’étale se prolonge pendant près d’une heure ! Les répercussions sur l’écosystème marin sont considérables. Le barrage est responsable de l’envasement progressif de la Rance et empêche de nombreuses espèces aquatiques de remonter le fleuve. Ceci n’a pas empêché les décideurs locaux d’investir plus de 100 millions d’euros supplémentaires sur un programme de modernisation qui a démarré en 2013. La centrale marémotrice, malgré son label « énergie verte », ne semble pas être une si bonne idée…

Des turbines dans le Gulf Stream

Turbine hydrolienne

Turbine hydrolienne

Dans le courant des années 70, la société californienne Aerovironment Inc. imagina d’installer d’énormes turbines dans le Gulf Stream pour produire de l’électricité. Selon cette société, 250 turbines de 171 mètres de diamètre, immergées à 40 km des côtes de la Floride, à l’endroit où le courant est le plus fort (4 nœuds), pouvaient produire autant d’électricité que 10 tranches nucléaires, soit 10 000 MW. Le prix de revient du KW aurait été inférieur à celui d’une centrale nucléaire. Cette centrale, si elle avait été construite, aurait ralenti la vitesse du courant marin d’au moins 1%., ce qui aurait provoqué un refroidissement des côtes d’Europe de l’Ouest. Imaginez l’Angleterre avec le climat du Labrador situé à la même latitude… De plus, l’installation de turbines géantes dans le Gulf Stream aurait risqué de perturber profondément un écosystème particulièrement fragile. Ce projet n’a heureusement pas abouti, mais l’idée de turbine hydrolienne géante n’a pas été abandonnée. Un prototype installé sur le Gulf Stream est actuellement testé par des chercheurs de la Florida Atlantic University et permettra en particulier de réaliser des études d’impact environnemental.

La technologie de l’énergie hydrolienne a continué d’être développée. Début 2016, EDF installe au large de Ploubazlanec (Côtes d’Armor) son site expérimental composé de deux hydroliennes de 16 m de diamètre et qui devra fournir 1 MW d’électricité (projet « Paimpol-Bréhat »). Ces turbines formeront la première ferme d’hydroliennes raccordées au réseau national de distribution d’électricité. L’étape suivante sera le projet pilote « Normandie Hydro » basé sur l’installation, à l’horizon 2020, de dix hydroliennes d’une puissance totale de 20 MW dans le Raz Blanchard, ce qui permettrait de valider le modèle économique des fermes hydroliennes commerciales. EDF estime que le potentiel d’énergie hydrolienne exploitable en Europe est d’environ 12,5 GW, soit l’équivalent de 14 réacteurs nucléaires de 900 MW. Un tel potentiel va sans doute être exploité, en particulier lorsque les cours du pétrole vont se mettre à grimper. Il faut espérer que l’impact environnemental sera l’un des critères clés dans le choix des emplacements des futures fermes hydroliennes.

L’énergie du sel

La différence de concentration saline entre deux compartiments d’eau séparés par une membrane semi-perméable provoque une différence de pression osmotique qui entraîne à son tour un transfert d’eau vers la solution plus concentrée jusqu’à l’équilibre (solutions isotoniques). Une pression étant par définition une force par unité de surface, il a été envisagé d’utiliser la différence entre eau de mer et eau douce, à l’embouchure des fleuves pour entraîner une turbine génératrice d’électricité. Au début des années 80, il était question d’utiliser le fleuve Zaïre pour fournir une puissance d’environ 128 000 mégawatts, soit l’équivalent de 128 centrales nucléaires de l’époque. La Mer Morte, mer hypersalée dans laquelle se jette le fleuve Jourdain, était aussi envisagée. Cette technologie se heurtait à la difficulté de produire une membrane semi-perméable pouvant résister aux énormes pressions mises en jeu et à la corrosion saline. Les conséquences d’un tel projet pour l’environnement et la biodiversité auraient été dramatiques.

Aujourd’hui encore, l’utilisation de cette énergie osmotique reste peu avancée en raison des investissements importants nécessaires et de la faible performance des membranes semi-perméables disponibles. Seule la société norvégienne Statkraft© a développé un prototype de centrale osmotique d’une puissance de 4 kW (2009). Dans ce procédé le débit d’eau douce traversant la membrane provoque une surpression dans le réservoir d’eau salée et y augmente le débit d’eau.

L’autonomie énergétique

 

L’autonomie énergétique des bâtiments et des industries, concept délaissé dans les années 50 et 60 à cause de la modicité du prix de l’électricité, est redevenue à la mode après la crise pétrolière de 1973. Le principe d’autonomie énergétique était alors basé sur la cogénération. La chaleur produite par les process industriels servait à produire de la vapeur pour faire tourner une turbine génératrice d’électricité ou un turbogénérateur. A cette époque, Fiat proposa aux particuliers un cogénérateur domestique fonctionnant grâce à un moteur de Fiat 500 et pouvant produire de l’électricité et de la chaleur à un prix compétitif, avec un rendement global exceptionnel de près de 90%. Vous vous en doutez, les grandes compagnies d’électricité telles qu’EDF ou la Consolidated Edison Company (CEC) ont tout fait pour stopper l’expansion de l’autonomie énergétique, arguant de considérations environnementales (pollution par les moteurs diesel) et économiques (dépendance vis-à-vis du pétrole). Ils oubliaient d’envisager l’idée que la technologie de la cogénération pouvait évoluer, en particulier grâce à l’utilisation de combustibles comme le méthane. Près de 40 ans plus tard, nous ne pouvons que constater la perte incroyable de temps que nous aurions dû mettre à profit pour développer ces technologies. En France en 2016, seul 4 % de la production d’électricité globale est issue de la cogénération, soit moins qu’en Allemagne (9 %) et beaucoup moins qu’aux Pays-Bas (43%).

La technologie de la micro-cogénération adaptée à l’habitat résidentiel a beaucoup progressé. Elle est basée sur une chaudière électrogène à gaz à condensation qui intègre un moteur Stirling produisant de l’électricité à partir des gaz issus de la combustion. Ce procédé fonctionne mais sa diffusion se heurte, une fois encore, à la politique énergétique d’EDF qui maintient artificiellement des prix suffisamment bas pour rendre toute alternative difficilement compétitive. Imaginez un instant si la technologie de cogénération avait pu bénéficier ne serait-ce que d’une petit part des soutiens publics gigantesques qui accompagnent depuis le début le développement du nucléaire en France…

Västeras, Suède

En 1981, la Suède était donnée comme exemple pour sa politique ambitieuse d’économie d’énergie. Malgré des conditions climatiques rigoureuses, la consommation d’énergie par habitant y était inférieure d’environ un tiers à celle des USA. Tout était fait pour inciter la population à ne pas prendre sa voiture : taxes importantes sur l’essence et les voitures, transports en commun ultra efficaces à des prix modérés… Les méthodes de conservation de l’énergie étaient enseignées dans toutes les écoles suédoises et des commissions à l’énergie existaient dans chaque entreprise. A la base, cet engouement pour l’économie d’énergie n’était pas lié à un désir de préservation de l’environnement mais était plutôt une réponse à la crise pétrolière de 1973, le pétrole importé représentant 70% des besoins énergétiques du pays. Comme le chauffage comptait pour la moitié de la consommation énergétique, le gouvernement suédois avait lancé un programme de subventions pour l’isolation thermique des bâtiments. Les entreprises suédoises, quant à elles utilisaient l’énergie beaucoup plus efficacement que des entreprises équivalentes américaines, en particulier en ayant recours à la cogénération.

A Västeras, ville industrielle suédoise de 120 000 habitants, l’unique centrale électrique de la ville permettait de distribuer de l’eau chaude sous pression dans tous les bâtiments, grâce à un réseau complexe de canalisation. Le système de Västeras recyclait une grande partie de l’énergie qui aurait été perdus dans une installation classique. 25% des villes suédoises étaient équipées d’un système comparable et 35% de l’électricité consommée en Suède était produite par recyclage. L’un des nombreux avantages de ces chauffages centraux municipaux est l’optimisation des investissements et des rendements de combustion ainsi qu’une moindre pollution de l’air, grâce aux hautes cheminées équipées de filtres performants. La Suède avait donc choisi une stratégie opposée à celle de la France, en limitant volontairement le recours à l’énergie nucléaire. Il n’y avait que 6 centrales en 1980, et il était question de passer à 12 dans la décennie mais avec la volonté de renoncer au nucléaire avant 2005. De son côté la France construisait des centrales nucléaires et EDF incitait les français à consommer toujours plus d’électricité nucléaire…

En 1981, la Suède était donc largement en avance en matière de stratégie énergétique. Aujourd’hui, elle reste le modèle à suivre avec, depuis 2012, une part d’énergies renouvelables supérieure à 50%, principalement bioénergies et hydroélectricité (ce qui correspond aux objectifs 2020 de la Directive européenne). En 2004 elle était déjà de 38,7%. A noter que la part d’énergie renouvelable consommée en France en 2012 n’était que de 14,9 %, ce qui place ce pays dans le groupe des cancres européens dans ce domaine. En 2014, le nucléaire a fourni 38% de l’électricité consommée en Suède, qui compte dix réacteurs (trois centrales). Il est prévu de fermer deux de ces réacteurs d’ici 2020 (pour des raisons de rentabilité économique). Cette avance de la Suède est due en grande partie au développement des réseaux de chaleur alimentés à plus 75% par des énergies renouvelables, dont 52% tirées de la biomasse (cogénération). Les réseaux de chaleur sont les principaux modes de chauffage dans 83% des communes suédoises (source : reseaux-chaleur.cerema.fr). A noter que la part d’énergie renouvelable dans le réseau de chaleur français n’est que de 38%.

La Suède s’est donné les moyens de ses ambitions en injectant depuis des années des sommes importantes dans des projets de transition écologique avec l’espoir de mettre fin à sa dépendance au pétrole en 2050. Une grande partie du chemin a déjà été parcouru puisque la part de pétrole dans le bilan énergétique est passée de 70% en 1973 à 30% en 2016.

Partagez si vous aimez ...

Les commentaires sont fermés.