lundi 22 avril 2013

Réduire de 10 km/h les limites de vitesse?


Table des matières du blog

Introduction

A l'initiative du Dr Lauwick, Président de l'ACMF (Automobile Club Médical de France), le Comité National de Sécurité Routière, dont il est membre, lance une réflexion sur l'opportunité de réduire tout ou partie des limites de vitesse autorisées. Le Gouvernement, dont on ne sait si les motivations sont écologiques ou sécuritaires, recevra ses conclusions en Septembre 2013. Sans les attendre le Ministre de l'Intérieur, Monsieur Manuel Valls, a déclaré mi-juillet que cette réduction "est inéluctable". Ces éléments, a priori très orientés, surprennent et ne peuvent qu'inquiéter les équipementiers, constructeurs et utilisateurs de véhicules routiers. 

Nous vous proposons une analyse factuelle de la question. Si vous la partagez, ne manquez pas de  diffuser largement le lien du présent message.

Point de vue écologique

Emissions de CO2 et S
  • La force aérodynamique croît comme le carré de la vitesse, mais elle n’est prépondérante qu’au dessus de 90 km/h. La force de roulement qui s’y ajoute est à peu près constante. Elle est donc prépondérante à petite vitesse.
  • Le rendement du moteur décroît très vite quand le couple moteur décroît. Sur le rapport de boîte le plus long, ce rendement décroît en dessous de 130 km/h, et décroît encore plus vite si l’on rétrograde, c'est-à-dire en dessous de 80 à 90 km/h.
Il s’en suit qu’une baisse de 10 km/h réduit très peu (7%) la consommation depuis 130 ou 110 km/h, mais l’augmente de 3%, 6% et 14% respectivement  depuis 90, 70 ou 50 km/h. La résultante est nulle…

Les réductions de vitesse envisagées ne réduiront donc ni les consommations, ni les émissions de CO2 et de SO2 qui leur sont directement liées.

Autres émissions : CO, NOx, CoV, Particules de carbone

Les normes de pollutions ont amené à munir les véhicules de divers dispositifs qui réduisent ces autres émissions : pots catalytiques, filtres à particules, recyclage… La plupart fonctionnent grâce à la température élevée des gaz d’échappement. Leur efficacité est spécifiée par les normes Euro 5 et future Euro 6, selon un profil d’essai type, comme pour la consommation. La réduction des limites de vitesse, particulièrement les plus basses, aura un effet négatif sur ces émissions en raison des points de fonctionnement moins favorables et des températures plus basses du moteur et des dispositifs antipollution.

Point de vue de la sécurité routière

Un truisme

« La vitesse tue, il faut la réduire ». Incontestablement, à vitesse nulle, aucun accident dû au déplacement n’est possible ! Sans aucun doute, toutes choses égales par ailleurs, plus la vitesse est élevée, plus l’accident éventuel risque d’être grave, ce qui ne signifie pas qu’elle en soit nécessairement la cause.
Mais si l’on souhaite continuer à se déplacer loin dans un temps raisonnable, une vitesse est nécessaire, définie par « vitesse = distance / temps ». Le déplacement, et donc la vitesse, sont parties intégrantes de la vie,  et de la liberté individuelle.

Le graphique ci-dessous (deux échelles logarithmiques) met en relief, pour chaque moyen de transport, sa dangerosité par rapport à sa vitesse et montre :
  • L’absence totale de corrélation entre vitesse et dangerosité démontre définitivement que les accidents dus à la vitesse ne sont pas une fatalité, mais sont principalement liés au mode de transport.
  • Que des moyens de transports proches, utilisant largement les mêmes infrastructures, sont très différenciés : la moto est 20 fois plus dangereuse que l’auto et 200 fois plus que le bus, mais à peine plus dangereuse que la marche ou le vélo. L’avion est à la fois le plus rapide et le plus sûr!
 
     Diagramme établi par l’auteur sur données www.villemin.gerard.free.fr

Les accidents de la route

La mortalité routière est un fléau, heureusement en régression (courbe rouge):
(La courbe noire de « taux de gravité », relativement constante, montre seulement que le nombre de blessés se réduit avec la même régression)

Depuis 1972, pire année à cet égard :
  • le nombre de tués sur les routes a été divisé par 4,5
  • le parc de véhicules en circulation a été multiplié par 2,3
  • le kilométrage annuel moyen par véhicule a peu changé
  • le nombre d’accidents par véhicule, ou par kilomètre a donc été divisé par 4,5 x 2,3 = 10
Par nature, ce résultat est, et restera, toujours trop élevé, mais son évolution très favorable mérite d’être analysée : quelles en sont les causes ?

Elles sont évidemment multiples. Comme tous les paramètres correspondant à trois familles (véhicules, infrastructures, comportement) ont été modifiés en même temps, il est scientifiquement impossible de déterminer précisément quel a été l’impact de chacun de ces paramètres sur le bon résultat. On ne peut que procéder par analyses partielles, toutes plus ou moins contestables.

Les limitations de vitesse ?

Cette assertion fréquente ne résiste pas à l’analyse : Début 1972, année prise comme référence, les véhicules de tourisme typiques étaient les Renault R4, R8 et R16, les Peugeot 204 et 504, les Citroën 2CV, Ami 6/8  et DS19. En dehors de quelques  hauts de gamme, elles n’avaient pas la possibilité de rouler durablement vite, en raison de leur faible puissance, du bruit, des vibrations et de leur consommation. Le réseau autoroutier était limité au 1/10ème du réseau actuel. Les vitesses de croisière se situaient le plus souvent entre 80 et 100 k/h « chrono », comme on disait alors. Les vitesses de croisière actuelles sont largement supérieures. Même si cette augmentation a été limitée par la réglementation, il est clair que l’amélioration spectaculaire de la sécurité n'a pas été obtenue par la réduction des vitesses, bien loin de là.

L’exemple de la Formule 1

Les statistiques de mortalité des pilotes de F1 par decennie sont les suivantes :

                                                            Etabli par l’auteur de www.8-e.fr à partir de données publiques

Après 40 ans de « combats de gladiateurs », et le décès d'Ayrton Senna en 1994, aucun accident mortel n’est survenu depuis 1995, soit 18 ans. Si la conception de ces bolides a été réglementée à maintes reprises, leur vitesse maximum est restée à peu près constante, au-delà de 300 km/h. Manifestement,  le pilote continuant à rechercher la vitesse avant tout, les causes de l’amélioration spectaculaire appartiennent à deux familles :
  • Les véhicules : sécurité passive, habitacles indéformables en carbone…
  • Les infrastructures : suppression des obstacles dangereux, adaptation des circuits…
Notons que les pires périodes de la F1 et de la route, autour de 1970, ainsi que leurs améliorations radicales, coïncident en raison de la prise en compte simultanée de la sécurité lors de la conception des véhicules et des infrastructures.

L’amélioration des véhicules  (Avenir en italique)
En faire une liste complète est impossible, car trop longue. De façon évidente, certaines ont eu, ou auront, un très gros impact,
  •  En sécurité passive (rend l’accident moins dangereux): ceintures de sécurité / 3 points / AR / à prétensionneurs, airbags avant / arrière, caisses déformables avec habitacle indéformable, verres feuilletés, Isofix, élimination des accessoires agressifs dedans et dehors, normes sur réservoirs et circuits de carburant ou électriques, SOS automatique par GSM '"eCall"…
  • En sécurité active (évite l’accident): qualité des pneumatiques, freins à disques / assistés / ABS /AFU / régulateurs de vitesse avec contrôle de distance, tenue de route / ESR, éclairage code européen/ halogène / xénon, rétroviseurs x 2 / x 3 / réglage électrique / dégivrants / électro-chrome, feux de détresse /automatiques, contrôle technique obligatoire, contrôle informatique des fonctions, dégivrage / désembuage / lave glace / projecteurs / caméra de recul, messages de sécurité.
  • Confort de conduite (réduit la fatigue du conducteur) : sièges réglables 3 axes / 4 axes / 5 axes, assistance direction, ergonomie du poste de conduite,  silence, climatisation / automatique, GPS avec cartographie, limiteurs /  régulateurs de vitesse, afficheurs « tête haute »,
  • Autonomie des véhicules (surveille et remplace le conducteur): ABS, feux de croisement automatiques, essuie-glace automatique, warning automatiques, alarme de changement de voie, limiteur / régulateur asservi à la cartographie, boîte de vitesse pilotée, détecteur de somnolence, freinage automatique d’urgence, reconnaissance automatique de la signalisation. La révolution numérique (notamment Google et une université américaine) a déjà permis la réalisation et l’essai satisfaisant de véhicules prototypes dépourvus de conducteurs, capables de s’insérer dans le trafic et de respecter les signalisations, uniquement commandés à partir de l’analyse des images. Cette intelligence artificielle progressivement adaptée sur les véhicules de série pourra corriger de plus en plus d’erreurs du conducteur, jusqu’à, peut-être, le remplacer un jour.

 L’amélioration des infrastructures (Avenir en italique) 
  • Décuplement du réseau de voies autoroutières (concédées ou non),
  • Création de déviations ou de périphériques autour des agglomérations Suppression des routes à 3 voies, des « points noirs » et de la plupart des passages à niveau ferroviaires,
  • Généralisation des barrières de sécurité centrales et latérales,
  • Remplacement des carrefours par des ronds-points,
  • Amélioration du balisage et de la signalisation,
  • Pré-signalisation par panneaux « Sirius »,
  • Messages « Autoroute Info 107.7 », « Info Trafic »
  • Retour à l’ergonomie de la signalisation : la voie prioritaire est celle qui est ressentie comme telle.
L’amélioration du comportement  (Avenir en italique)
  • Lutte contre l’alcoolisme au volant
  • Bonus / malus des compagnies d’assurances,
  • Préoccupation écologique
  • Ordinateurs de bord explicitant la consommation
  • Campagnes de la Prévention Routière
  • Application stricte du Code de la Route, avec contraventions proportionnelles aux infractions
  • Conduite apaisée, sans agressivité, ni esprit de compétition.
  • Lutte contre la somnolence qui est devenu le premier facteur de risque sur voies autoroutières
  • Traiter en priorité les cycles motorisés.
  • Lutter contre les stupéfiants  (illicites ou médicaments
  • Réprimer la conduite sans permis (et donc sans assurance !).
  • Simplifier les épreuves du Code de le Route pour les ramener au niveau des connaissances effectives d’un panel de gros rouleurs n’ayant ni contraventions, ni sinistres.
  • Revenir sur l’absence de responsabilité civile des piétons et cycles (loi Badinter) qui déresponsabilise souvent leur comportement. 
Conclusion

En l’absence définitive de moyen scientifique d’analyse, on peut néanmoins émettre quelques hypothèses :

Les différents progrès des véhicules ont amené des coefficients diviseurs de risques  évalués à :
  • 2 pour les seules ceintures de sécurité et airbags
  • 1,4 pour tous les autres facteurs de sécurité passive
  • 1,4 pour la sécurité active et le confort
Soit 2 x 1,4 x 1,4 = 4 au titre des véhicules

Pour les infrastructures :
  • 1,3 pour la création d’un réseau de voies aux normes autoroutières, qui dérive 1/3 du trafic avec une sécurité très élevée,
  • 1,4 pour les aménagements du reste du réseau routier
Soit 1,3 x 1,4 = 2 au titre des infrastructures

Ce qui laisse 10 / ( 4 x 1,4 ) = 1,25 au titre comportement humain, le plus difficile à améliorer car l’être humain n’a pas fondamentalement changé depuis 40 ans, et reste donc faillible.

Pour continuer à réduire le chiffre des victimes de la route, il suffit :
  • de laisser les véhicules modernes plus sûrs remplacer les anciens selon un renouvellement tous les 12 ans
  • de poursuivre la prise d’autonomie des véhicules en matière de sécurité, de surveillance du conducteur et de substitution de l’intelligence artificielle à celle, faillible, du conducteur
  • de continuer à améliorer les infrastructures.
Baisser les vitesses limites de 10 km/h ?

Rappelons qu’en France, en 2012, 37,4 millions de véhicules particuliers et utilitaires légers ont parcouru en moyenne 13 200 km, soit un total proche de 50 milliards de km. Faute de statistiques, prenons pour hypothèse plausible que ces kilomètres ont été parcourus à la vitesse moyenne (hors arrêts pour encombrements et signalisation) de l'ordre de 80 km/h, soit 625 millions d’heures par an passées au volant d’un véhicule en déplacement.

Différentes sources indiquent que chaque véhicule transporte, outre le conducteur, en moyenne 0,4 passager, ce qui nous amène à 625 x 1,4 ~ 900 millions d’heures passées dans un véhicule en déplacement effectif. Une baisse de vitesse de 10 km/h, appliquée aux 5 limites usuelles de 50 à 130 km/h,  entraînerait une baisse moyenne de vitesse de 12%, soit 110 millions d’heures perdues du fait de la réduction des vitesses autorisées.

L’âge moyen des personnes tuées dans un accident de la route est de 42 ans (source DSCR). A cet âge, l’espérance de survie est de 41 ans (source INSEE), soit 360 000 heures. Prenons cette espérance de survie comme nouvelle unité de temps. Les heures perdues ci-dessus équivalent à 300 espérances de survie humaine par an ! 

A supposer que cette mesure sauve à elle seule 300 vies par an (ce qui est très peu probable car les autres facteurs d'amélioration y contribueront aussi), ces 300 vies seront entièrement passées au volant pour cause d'allongement des temps de trajet. Au mieux, le gain est nul!

Le propos n’est évidemment pas de dire que le décès brutal d’une personne serait préférable à une nuisance généralisée, mais bien d’apporter un ordre de grandeur concret : la nuisance résultant d’une réduction supplémentaire des limites de vitesse est monstrueusement élevée.

Les accidents par km ont été divisés par 21 en 40 ans. Tout indique que cette tendance heureuse et nécessaire peut se poursuivre, sans réduire les limites de vitesse.  
La pollution d’origine routière est en décroissance très rapide sous la pression des nouvelles normes européennes. Une réduction des vitesses n’apporterait rien, et serait même plutôt négative.
Les réduire les limites de vitesse en dépit de ces constatations échapperait à toute logique, et serait inutilement liberticide et économiquement pénalisante!

Si vous partagez cette analyse ne manquez pas de diffuser largement le lien du présent message.



mardi 16 avril 2013

Tarification variable de l’énergie électrique domestique



Table des matières du blog

Résumé

Faute de savoir la stocker, la production électrique doit être à chaque instant exactement identique à la consommation, laquelle est très variable, alors que les moyens de production sont limités et que les prix sont très élevés pendant les pointes.

La tarification variable existe pour de nombreux produits ou services : transports aériens et ferroviaires, spectacles et compétitions, hôtels, restaurants, locations saisonnières. Le « yield management » ainsi pratiqué permet d’utiliser les capacités disponibles grâce à un prix bas, et d’écrêter les demandes excédentaires par un prix élevé, selon la loi « de l’offre et de la demande ».
Ce système serait particulièrement bien adapté à l’énergie électrique dont les capacités de production sont limitées, et dont les coûts croissent très vite avec les fortes consommations.

Or les tarifs actuels comportent des prix très peu différenciés, sauf le tarif Tempo dont les paliers sont très différenciés, mais ne collent pas à la réalité d’une demande fluctuant beaucoup plus rapidement.
Nous préconisons un tarif à 13 échelons en progression de 20% par intervalle, qui apporterait une ouverture des prix analogue au Tempo, mais avec fixation de l’échelon par tranche uni-horaire, et prévision sur 24 heures plus 6 jours permettant à la fois :
  • des éliminations de consommation, familièrement appelées « négawatts », par réduction de certaines consommations (chauffage, certains éclairage) selon le niveau de l’échelon horaire,
  • des décalages de consommation hors des pointes par anticipation ou report, que nous baptisons « décalwatts », notamment pour l’eau chaude, l’électroménager, les recharges de batteries d’appareils ou demain de véhicules.

L’exploitation du tarif et des prévisions serait réalisée par des pilotes, souvent intégrés dans les appareils, pouvant aller du plus simple (commutation en fonction de l’échelon) au plus sophistiqué, utilisant l’intelligence numérique pour exploiter au mieux les prévisions en relation avec les caractéristiques de l’appareil piloté. 

Une tarification par région (à l’intérieur de règles communes) permettrait de prendre en compte les conditions météorologiques parfois très différentes entre régions, et de sensibiliser ces régions à la nécessité d’accueillir des infrastructures de production et de distribution.

Les projets de « smart grids » (réseaux intelligents) comportent en plus la gestion de la production décentralisée d’énergie, qui pour sa majeure partie n’existe que grâce à des subventions dont la pérennité est incertaine. Pour réduire les émissions de CO2, il est beaucoup plus important de développer des « décalwatts » par l’intelligence numérique et d’aboutir rapidement à des résultats significatifs, rapides et peu coûteux.

Exposé

Production consommation

La problématique majeure de la production et de la distribution électrique se trouve dans la nécessité absolue de faire coïncider la production et la consommation à chaque instant.

Nous avons déjà abordé ce sujet dans de nombreux messages de notre blog, et notamment :

Résumons les en rappelant que la seule manière de stocker de l’énergie autre que fossile à l’échelle d’un réseau est l’utilisation de centrales hydrauliques réversibles à haute chute, dites STEP (Station de Transfert d’Energie par Pompage) qui consomment de l’énergie électrique quand la consommation est faible et la restituent avec un rendement acceptable, de l’ordre de 80% pendant les pointes de consommation. Voir à ce sujet :
  
                                   Document « Usine Nouvelle »

L’idée, déjà ancienne, du stockage de l’énergie électrique sous forme d’hydrogène obtenu par électrolyse de l’eau, et de sa restitution sous forme thermique (moteur ou turbine à gaz, ou après méthanisation) ou électrochimique (pile à combustible), avec un rendement très médiocre et un stockage problématique, est au mieux une perspective à très long terme qui débouche sur un prix extrêmement élevé de l’énergie restituée. Voir nos messages à ce sujet :

Une nouvelle idée consiste à utiliser demain les batteries des véhicules électriques en charge / décharge comme un tampon régional entre la capacité de production et la consommation.

                                                           Photo Toyota (Prius plug-in)

Elle se heurte à de nombreux problèmes :
  • L’utilisateur peut avoir besoin d’une charge sans délai : la totalité des véhicules connectés ne sera pas disponible.
  • Le cyclage des batteries réduit leur durée de vie, puisque celle-ci s’exprime principalement en en nombre de cycles : ce facteur, prépondérant sur le coût moyen de l’énergie électrique, doit être compensé par une tarification très élevée de l’énergie restituée
  • Un chargeur réversible est beaucoup plus cher et compliqué qu’un chargeur unidirectionnel, et son rendement, s’ajoutant à celui de la batterie, est loin de 100%.
Il n’est pas sûr que l’écologie soit gagnante si l’on réduit un peu le CO2 au prix d’un accroissement de la production de batteries, qui ont aussi leur trace carbone et font partie d’une industrie assez peu verte.

Pour ces raisons, cette solution ne semble pas beaucoup plus réaliste que les précédentes.


La commercialisation de produits ou services dont la quantité disponible est limitée, est quelque chose d’assez banal. Citons des exemples très variés :
  • Les transports aériens et ferroviaires qui offrent des billets à bas prix quand la demande est faible, cherchant ainsi à remplir les avions ou trains, et augmentent beaucoup ce prix aux périodes de forte affluence afin de limiter une demande qu’ils ne peuvent satisfaire, tout en améliorant leurs marges. Ceci a largement contribué à la baisse considérable des tarifs les plus bas pour un trajet déterminé, car ceux-ci se rapprochent du coût variable : mieux vaut remplir un train ou un avion à très bas prix que de le faire rouler ou voler vide !
  • Les spectacles ou compétitions sportives, qui attirent plus de spectateurs que la salle ou les tribunes ne peuvent en accueillir, voient leurs prix s’envoler.
  • De nombreux tronçons d’autoroutes ont désormais des péages variables, plus élevés en forte affluence et inversement, ce qui permet à la fois de réduire les encombrements aux heures de pointe, et de réduire les prix aux heures creuses. Et pourtant, le coût d’une autoroute, largement constitué d’amortissements, dépend peu du trafic.
  • En raison des voyages d’affaires le plus souvent du lundi au vendredi, les hôtels, notamment dans les grandes villes, peinent à remplir leurs chambres pendant 3 nuits du week-end, et affichent donc souvent des prix plus bas.
  • Les restaurants de luxe, plus fréquentés en soirée, remplissent fréquemment leurs salles en proposant, à midi uniquement, des « formules » ou « menus affaires » 30 à 50% moins chers que le soir.
  • Les locations saisonnières varient couramment dans un facteur 4 ou 5 entre haute et basse saison.
Ces tarifications très différenciées d’un même produit ou service sont appelées « yield management », locution difficilement traduisible, sinon par « gestion de l’élasticité marché / prix », puisque  « yield » signifie à la fois « rendement » et « acceptation ». Ce n’est qu’une application  très simple du principe de la loi de l’offre et de la demande, qui a fait ses preuves depuis des siècles, et dont la négation, à travers les prix administrés, ne manque pas d’apporter systématiquement d’innombrables effets pervers : absence de concurrence, mauvaise qualité, pénurie… Il appartient toutefois à l’Etat de s’assurer de la libre concurrence et de l’absence de position de rente ou de monopole, comme l’a très bien analysé l’économiste américain J.E. Stiglitz, prix Nobel.

Application à l’énergie électrique

Par surcroît aux exemples précédents, le prix de revient de l’énergie électrique est éminemment variable selon sa filière de production. Résumons leur situation dans le tableau ci-dessous qui donne pour chacune une évaluation sommaire des coûts variable et complet du MWh, et de la maîtrise de l’opérateur sur leur production.

Filière
Coût direct variable
Coût complet
Taux maximum utilisation
Maîtrise de la produc.
Temps disponib. ou prévision de la production
Thermique gaz
Elevé
Elevé
100%
100%
Dispon. imméd.
Thermique charbon
Elevé
Elevé
100%
90%
Dispon. 1 heure
Nucléaire
Bas
Moyen
100%
80%
Disp. qq. heures
Hydraul. hte chute révers.
Nul
Bas
Faible
120%
Dispon. imméd.
Hydraulique haute chute
Nul
Bas
Faible
100%
Disponi. imméd.
Hydraulique éclusée
Nul
Bas
Variable
50%
Prévis. qq.jours
Hydraulique au fil de l’eau
Nul
Moyen
Variable
0%
Prévis. qq.jours
Eolien terrestre + offshore
Nul
Très élevé
Faible
0%
Prévis. qq. heures
Photovoltaïque
Nul
Très élevé
Faible
0%
Prév. qq. hrs/min.
Marémotrice – Hydrolien.
Nul
Extr. élevé
Faible
0%
Totalt. prévisible.

Coût direct variable : il résulte de l’écart de coût entre une centrale qui produit et une centrale au repos. C’est donc  en principe le critère économique à prendre en compte pour utiliser une filière plutôt qu’une autre (sauf dispositions législatives contraires…).

Toutes les filières utilisant les éléments naturels (eau, air, soleil) ont des coûts variables nuls, puisque leur matière première est gratuite (ce qui ne veut dire ni illimitée, ni constamment disponible).
L’uranium est assez cher, mais produit une quantité d’énergie colossale, ce qui en fait finalement une matière première bon marché. Voir Rapport de la Cour des Comptes et Enseignements de ce rapport
A contrario, le gaz et le charbon sont chers, particulièrement le gaz, mais il le compense en partie par un meilleur rendement.

Coût complet : C’est le coût moyen du MWh produits au cours de la vie de la centrale, amortissements et frais indirects inclus. C’est donc le critère à prendre pour décider de construire un type de centrale plutôt qu’un autre. Il est très impacté par :

  • La durée de vie, qui réduit les amortissements, particulièrement pour le nucléaire.
  • Le taux d’utilisation réel, qui peut être soit subi (éolien, photovoltaïque), soit voulu en raison du coût variable élevé (gaz et charbon).
Dans un tel contexte, on ne s’étonnera pas de ce que le coût, et donc le prix de marché de gros, du MWh soit extrêmement variable, de quelques euros, voire négatifs, quand les énergies fatales produisent plus que le besoin du réseau, jusqu’à dépasser 1000 € lors de pointes historiques conduisant à importer dans un marché très tendu. Le coût d’un MWh nucléaire, qui constitue environ 80 % de la production française, et 50% des pointes, est actuellement de l’ordre de 50 €.
Rappelons que l’hydraulique, très ancienne, et donc entièrement amortie, produit à un coût extrêmement bas, et que l’énergie éolienne ou photovoltaïque est facturée séparément par le biais de la CSPE en bas de facture. Seul le thermique, soit environ 8% de la production, coûte plus nettement plus cher. Le coût moyen de la production nationale est donc manifestement inférieur à 50 € par MWh.

On note au passage que les marges de distribution d’ERDF sont considérables, de l’ordre d’un facteur 2 ou plus. Le coût bas de l'énergie électrique en France résulte bien du choix stratégique réalisé par les gouvernements Pompidou et Giscard d'Estaing dans les années 70, et pas du tout des performances de l'opérateur majoritaire,  mais ceci est un autre débat ! 

Au vu de la variabilité des prix de revient du MWh, on peut légitimement s’étonner que le prix du KWh facturé par ERDF (chiffres arrondis, hors taxes et abonnement) à l’utilisateur domestique dans les deux types de contrats les plus répandus soit presque fixe :
Tarif de base : 125 € fixe
Tarif jour / nuit : 93 ou 135 €
Seul le tarif Tempo, explicité ci-dessous,  est très variable

Tarif Tempo

Par exception, ce tarif Tempo (rebaptisé « Bleu ») minoritaire, permet des variations beaucoup plus importantes selon la couleur (3)  et le jour/nuit (2), soit 3 x 2 = 6 paliers de 60 € à 425 €, soit encore un facteur 7. Il est le tarif est le moins éloigné de la réalité.  Mais étant dissuasif en jours rouges, il n’est pas compatible avec un chauffage tout électrique, sauf pour des résidences secondaires peu utilisées en hiver. Il est donc très minoritaire.

La large plage de tarification du tarif Tempo permet de sensibiliser fortement l’utilisateur, ce qui va dans le bons sens. Mais ses règles sont rigides et simplistes :
  • 22 jours rouges et 43 jours blancs pour faire apparaître 300 jours bleu, quelle que soit le profil et la durée des périodes de grand et moyen froid,
  • 16 heures pleines et 8 heures creuses par jour, très vaguement corrélées avec les pointes quotidiennes réelles,
  • un préavis de 8 heures seulement pour la couleur du jour suivant, ce qui ne permet guère d’anticipation. 

                                                           Graphe établi par l’auteur

L’historique publié en ligne par ERDF montre en outre que :
  • les samedis ne sont jamais rouges,
  • les dimanches et jours fériés sont toujours bleus.
Ce tarif reste très loin des variations effectives de prix de revient du MWh, et, bien qu’il aille dans le bon sens, la régulation de consommation qu’il permet est reste limitée et sommaire.

Préconisation : un tarif à 13 échelons (soit 12 intervalles)

Remarquons que les besoins d’énergie électrique d’un particulier pourraient largement être anticipés, réduits ou reportés en utilisant :

  • un peu d’intelligence numérique dans les installations domestiques :
  • un tarif variable par tranches uni-horaires selon  13 échelons en progression de 20% par échelon, de 50 € à 450 €HT /MWh, assorti d’une prévision sur 24 heures, réactualisée à chaque changement d’heure (d’autant moins  que la période prévue est proche), et complété par une prévision globale sur une semaine, basée sur le calendrier civil (semaine, week-end, vacances…) et sur les prévisions météorologiques. Ce tarif serait géré par l’opérateur à l’intérieur de règles fixant entre autres le maximum du prix moyen offert sur l’année. 


                                          Graphe établi par l'auteur
S’agissant d’un prix moyen offert, et non d’un prix moyen consommé, ce maximum doit être notablement inférieur au prix moyen actuel (environ 120 €/MWh), probablement autour de 90 €/MWh.

En outre, il est souhaitable que la législation relative à l’unicité du tarif de l’énergie électrique soit modifiée, et ce, pour plusieurs raisons :
  • Les pointes sont fortement impactées par les conditions climatiques qui sont rarement homogènes sur l’ensemble du territoire national.
  • Une définition des échelons en cours et prévus par région améliorerait donc sensiblement la situation en diminuant les transports d’énergie, et donc les pertes et les besoins d’infrastructures de transport,
  • Elle responsabiliserait les habitants et leurs élus régionaux qui réclament la même sécurité d’approvisionnement énergétique et le même prix que les autres, mais qui refusent la construction de d’infrastructures. La Bretagne (où l’auteur de ce blog est domicilié), qui a refusé la centrale nucléaire de Plogoff dans un site parfaitement adapté (nul besoin de réfrigérants atmosphérique grâce aux forts courants marins…), et PACA, qui refuse la création de lignes THT, sont des exemples criants.

Des pilotes intelligents et communicants

Un pilote, qui agit sur un ou un groupe d’appareils électriques,  peut être :
  • un simple contacteur « tout ou rien » paramétré pour alimenter ou non un appareil utilisateur selon l’échelon tarifaire en cours,
  • un variateur de puissance (chauffage, éclairage halogène) paramétré pour limiter la dépense à un niveau prédéterminé : plus c’est cher, moins on chauffe, ou moins on s’éclaire, selon l’échelon tarifaire en cours,
  • un calculateur programmé pour anticiper ou différer, en partie ou en totalité, une utilisation en fonction de l’évolution prévue des échelons tarifaires,
  • un système doté d’une intelligence numérique informée des caractéristiques du produit piloté, de ses modalités d’utilisation et des changements d’échelon prévus, capable d’optimiser le coût d’utilisation.
Des appareils de plus en plus nombreux étant dotés d’origine de processeurs performants, la présence de ces pilotes, le plus souvent intégrés dans les appareils, n’aurait qu’un coût négligeable.

Leur accès aux données tarifaires pourrait être dual au choix de l’utilisateur, ou suivant l’évolution des technologies:
  • soit par connexion au Web par WiFi ou Ethernet,
  • soit plus probablement par CPL (courants porteurs en ligne) liés à un compteur intelligent « Linky ».
Décalage des besoins : les « décalwatts »

Beaucoup d’utilisations domestiques peuvent être décalées dans le temps, c'est-à-dire reportées ou anticipées. Exemples : 
  • l’eau sanitaire, stockée dans un ballon, doit être chauffée au plus creux de la nuit, et non pas dans les premières heures du tarif nuit.
  • Un lave-vaisselle, très silencieux, peut également fonctionner en pleine nuit.
  • Un lave-linge pourrait aussi voir son fonctionnement décalé, avec éventuellement une période interdite la nuit si son bruit peut amener une gêne.
  • Les normes de température de conservation alimentaire pourraient être assouplies : de 2°  à 6°C au lieu de 4°C pour les réfrigérateurs, et -24° à -18°C au lieu de -18°C pour les congélateurs. Si une ou des hausses d’échelon sont prévues, l’appareil les anticipe en baissant la température au minimum autorisé avant la hausse, puis s’arrête à l’arrivée de la pointe jusqu’au réchauffement naturel maximum autorisé qui sera souvent après la pointe, selon l’utilisation de l’appareil.
  • Une ou deux réglettes multiprises intelligentes peuvent se voir confier la recharge de tous les appareils électroniques munis de batteries : téléphones sans fil ou mobiles, tablettes, smart-phones, tablettes, ordinateurs portables, batteries amovibles de cycles ou autres
  • Demain, la recharge des véhicules électriques ou hybrides rechargeables, s’ils se répandent, nécessitera une énergie considérable qui pourra, le plus souvent être effectuée dans une très large plage de temps
Ce déplacement des périodes de consommation en fonction du prix du MWH, qui est lui-même pratiquement lié au taux de CO2, permettrait donc à lui-seul de diviser environ par deux ce taux global de CO2 dans l’énergie électrique, le ramenant à 30 à 40 kg/MWh, à comparer aux 440 kg/MWh des centrales au charbon, les plus utilisées dans le monde. Il permet aussi d’utiliser les infrastructures existantes, et pas seulement, les centrales nucléaires, au maximum de leurs capacités, réduisant ainsi l’impact des amortissements comme l’impact écologique. Les « décalwatts » sont à la fois  écologiques et économiques.

Réduction des besoins : Les « négawatts »

Le chauffage électrique direct, premier consommateur d'énergie électrique, est plus difficile à étaler. Il existe quand même des éléments de solution :
  • les chauffages à inertie, pas parfaits, mais qui vont dans le bon sens,
  • une bonne isolation qui, si elle n’élimine pas le besoin d’apports calorifiques, rend du moins son heure moins critique,
  • anticiper le chauffage matinal en fin de nuit,
  • réduire ou supprimer tout ou partie des radiateurs pendant une ou deux heures, au plus fort d’une pointe,
  • mais surtout, réduire le chauffage par un pilote paramétré selon le coût horaire du °C supplémentaire que l’utilisateur est prêt à payer. Les économies de chauffage sont d’autant plus acceptables qu’elle sont passagères !
L’éclairage est plus complexe car il ne peut pas être différé, et comporte de nombreux points de consommation répartis dans le logement. Il est néanmoins possible de prévoir, notamment pour les très voraces lampadaires halogène, un niveau réduit qui intervient par défaut au dessus d’un échelon tarifaire prédéterminé.

La cuisson ne peut être décalée que dans le cas de plats préparés à l’avance. Mais la mise en route d’une plaque de cuisson ou d’un four électrique pourrait être interdite par défaut au dessus d’un échelon prédéterminé, et n’être obtenue que par une commande « forcée » explicite pour l’utilisateur qui pourra parfois attendre, ou lui préférer des appareils à bon rendement : four à micro-ondes ou plaque à induction : ces dernières sont très puissantes, mais fonctionnent très peu de temps à leur puissance maximum. Elles consomment finalement beaucoup moins que des plaques à résistance ou halogènes, par ce qu’elles ne chauffent que la casserole, sans chauffer ni elles-mêmes, ni l’air ambiant, et sans rayonner.

Les applications audio et vidéo ne peuvent pas être décalées, sauf à s’en passer, mais elles restent de petits consommateurs, avec une tendance à la baisse par amélioration des rendements des appareils récents.

Il importe de comprendre qu’en France, où plus de 80% de l’énergie produite est d’origine électronucléaire, et plus de 90% est produite sans CO2, les « négawatts » électriques apportent peu en termes de CO2. Ils peuvent en revanche contribuer à réduire les factures, les moyens de production et les lignes de distribution. 

Les Smart Grids

Cette expression que l’on peut traduire par « Réseaux de distribution électrique intelligents », désigne un processus qui optimise la consommation comme décrit ci-dessus, mais qui intègre en plus la gestion des productions décentralisées et fatales, principalement éoliennes et photovoltaïques, accessoirement certains types d’hydraulique. Cette appellation est un peu prétentieuse : les réseaux actuels sont bien loin d’être idiots, et n’ont pas attendu cet anglicisme pour se perfectionner grâce à l’intelligence numérique.

On peut s’interroger sur le bien-fondé de cette extension complexe, qui a pour objet principal de gérer des sources d’énergie électrique supposées "vertes" qui n’existent qu’à travers la garantie sur une longue période par l’Etat, du prix de rachat de l’énergie produite, et ce à un niveau totalement déconnecté du prix moyen du marché. Ce dernier serait encore excessif puisque l’énergie ainsi produite l’est le plus souvent à contre-cycle (l’éolien surtout la nuit, le photovoltaïque surtout en été). Ces énergies fatales ne valent pratiquement rien au prix de marché. 

Il faut se convaincre que l’écologie ne consiste pas à faire payer de mauvaises solutions par le contribuable ou l’abonné, mais à promouvoir des solutions efficaces et intelligentes, donc compétitives ou capables de le devenir à moyen terme, éventuellement après introduction d’une taxe carbone raisonnable.

Il ne nous semble donc pas opportun d’investir en études et en infrastructures pour optimiser des productions décentralisées dont le poids est extrêmement faible, et dont la pérennité n’est nullement garantie une fois passée la mode verte. Il est beaucoup plus urgent de gérer l’étalement de la consommation domestique qui peut apporter des avantages économiques et écologiques considérables au moindre coût, et pour ce faire, de promouvoir à la fois les « négawatts » et les « décalwatts ».