Archives de Catégorie: Problématiques énergétiques

Le Gouvernement français s’apprête-t-il à relancer la filière des surgénérateurs au plutonium, enfant chérie du Commissariat à l’énergie atomique (CEA) 1?

Pierre Péguin

Docteur ès sciences

juillet 2017

Le nucléaire francais est en difficulté. EDF et Areva ne sont sauvés de la faillite que par l’injection de milliards par l’État (nos impôts…aux dépens des services publics), la génération des PWR est dépassée, en tout cas vieille et en mauvais état au point qu’il devient moins couteux d’en arrêter une partie que de continuer à investir dans leur prolongation, la 3ème génération des EPR est plombée par les fiascos de Flamanville, de Finlande, par les malfaçons des pièces élaborées par Areva au Creusot, et par les compromissions de l’ASN.

Ne nous laissons pas pour autant endormir dans l’espoir d’un arrêt du nucléaire, l’élection d’Emmanuel Macron et la nomination d’Edouard Philippe issu d’Areva renforcent le lobby. Symbole de la « grandeur » de la France, telle que l’avait concue de Gaulle et confié aux polytechniciens (X du corps des mines) en créant le CEA , choix maintenu depuis par tous nos gouvernants, le nucléaire francais va chercher à rebondir. Reste à imaginer comment, si EDF œuvre à protéger la filière des réacteurs à eau type EPR, pour le CEA il ne peut se faire que par la relance de la filière plutonium.

C’est depuis sa création en 1945 que le CEA travaille au développement de cette filière. Les premières années c’était pour la production du plutonium de qualité militaire pour la bombe avec, à Marcoule, les premiers réacteurs plutonogènes (dits UNGG, à l’uranium naturel modérés par le graphite et refroidi par le gaz). Puis pour perpétuer cette voie, la production d’électricité a été mise en avant, avec la création de l’usine de retraitement des combustibles usés de la Hague, et la construction de Phénix à Marcoule puis de Superphenix près de Morestel. Ces réacteurs utilisent le plutonium comme élément fissile, et le sodium comme fluide caloporteur (qui s’enflamme au contact de l’air et explose avec l’eau).

Il s’agit donc de promouvoir la 4ème génération de réacteurs nucléaires, celle des RNR réacteurs dits « à neutrons rapides » (RNR) ou surgénérateurs car pouvant théoriquement produire autant ou même plus de plutonium qu’ils le consomment, et ce au moyen de la transmutation d’uranium 238 et plutonium 239. Elle est présentée de ce fait comme « durable », et constituerait une revanche sur EDF qui avait pesé en faveur des réacteurs à eau issus de Westinghouse, choix opéré par le Gouvernement de Chaban-Delmas sous la présidence de Pompidou, en novembre 1969…. Sauf que c’est une technologie encore plus difficile à mettre au point et plus dangereuse de beaucoup.

Voilà pourquoi se prépare à Marcoule, coeur avec la Hague de l’activité plutonium, la construction du réacteur Astrid, d’une puissance de 600MWé, soit quasiment un demi Superphénix, dont on peut craindre que la décision formelle de lancer les travaux soit donnée prochainement, quel qu’en soit le coût, le « rayonnement de la France »1 n’ayant pas de prix…

Ce réacteur, représenterait l’aboutissement de l’acharnement du CEA à développer une filière “française”, relativement autonome vis à vis des ressources en uranium, s’appuyant sur les stocks disponibles de plutonium à la Hague et d’uranium dit « appauvri » au Tricastin, avec la possibilité théorique de régénérer à profusion du plutonium.

Le pouvoir du CEA

Au delà du rôle que peut jouer EDF dans les débats sur la loi de la transition énergétique pour veiller à la sauvegarde du nucléaire, le vrai pouvoir dans ce domaine est assuré par le CEA sous la direction du Corps des Mines, la tradition polytechnicienne de Napoléon à de Gaulle d’asseoir la grandeur de la France sur la Technologie perdure. Et nos politiques s’en remettent à l’avis de ces experts pour se prononcer en ce domaine.

Le CEA avait perdu la bataille contre EDF avec l’abandon de la filière graphite gaz au profit de la filière Westinghouse à eau pressurisée (réacteurs PWR de la 2ème génération, et EPR de la 3ème). Cela s’était joué en 1969 et cela avait donné lieu à des grèves de protestation dans les centres et même à une grève de la faim.

Depuis, pour justifier le retraitement des combustibles usés à la Hague dont on extrait le plutonium, le CEA a obtenu (arbitrage Rocard) d’imposer le combustible au plutonium (MOX) dans une partie des réacteurs à eau (des 900MW), mais surtout son influence reste suffisamment puissante pour imposer à l’État des investissements considérables dans le développement de la 4ème génération de réacteurs nucléaires.

La stratégie du CEA

Après les difficultés de fonctionnement et les nombreuses pannes de Phénix à Marcoule, et le fiasco de Superphénix à Malville, il n’était plus possible de présenter officiellement cette filière comme celle qui assurerait l’avenir du nucléaire français. Les nucléocrates s’entêtant, ils s’appuient sur le 3ème volet de la loi “Bataille”2, c’est-à-dire celui de la “transmutation” des déchets radioactifs les plus encombrants à gérer. Ils obtiennent ainsi de l’État € 650 millions dans le cadre de l’Emprunt National de 2010 (Sarkosy-Rocard), pour l’étude d’un avant-projet de construction à Marcoule du réacteur Astrid.

 

En effet, officiellement, Astrid est destiné à montrer la capacité à “incinérer”, les actinides dits mineurs, atomes d’extrême radiotoxicité et de très longue vie (dizaines de millénaires), voisins du plutonium. On voit là la subtilité rassurante du langage, car on n’incinère pas des atomes comme des ordures : ils ne brûlent pas ! Par contre on peut les briser sous bombardement neutronique, c’est la “transmutation”, générant de ce fait de nouveaux éléments radioactifs de durée de vie moindre (dizaines de siècles), avec inévitablement de nouvelles nuisances.

Ce n’est en fait qu’une parade, le but réel étant d’aboutir au « nucléaire durable » car pouvant théoriquement fonctionner en « surgénération », c’est à dire produre autant ou même plus de plutonium qu’il n’en consomme. C’est le Graal3 !

Le défi pour le CEA consiste à convaincre les parlementaires de l’autoriser à bâtir Astrid et les équipements annexes, au nom de l’expérience de la France dans ce domaine. Le coût en a été estimé à plus de € 5 milliards, mais le coût réel final quel serait-il ?…

Dans le même temps des partenariats étrangers permettent de justifier le projet et de progresser. Un programme de recherche sur la prochaine génération de centrales, a été lancé en 2010 par le Forum International Génération 4, et le partenariat avec le Japon est acquis4.

L’ « arnaque »

Un rapport scientifique du Sénat avait déjà exprimé à la fin des années 1990 que cette voie n’était pas crédible. La multiplicité des isotopes créés par les réactions nucléaires, et leurs difficultés à capter des neutrons pour être brisés, rendent très aléatoire cette technique. Tout physicien sait que la section efficace de capture d’un neutron par un noyau instable de produit de fission est dérisoire.

La transmutation est, certes, une réalité physique, mais sa transposition à l’échelle industrielle se heurte à un obstacle économique majeur. Elle impliquerait d’adjoindre aux réacteurs à eau 7 ou 8 RNR pour “incinérer” à un coût exorbitant une petite partie des déchets, car tous ne pourraient pas être ainsi transmutés…

Cette « arnaque » destinée aux politiques a permis de justifier le projet et un financement public.

L’arnaque est dénoncée par l’Autorité de Sûreté nucléair (ASN) mais la parade est trouvée !

L’ASN a émis en date du 4 juillet 2013 un Avis n° 2013-AV-0187 sur la transmutation des éléments radioactifs à vie longue. Nous en extrayons le texte ci-après.

Ainsi, l’ASN (Autorité de Sûreté Nucléaire) considère que les gains espérés de la transmutation des actinides mineurs en termes de sûreté, de radioprotection et de gestion des déchets n’apparaissent pas déterminants au vu notamment des contraintes induites sur les installations du cycle du combustible, les réacteurs et les transports, qui devraient mettre en œuvre des matières fortement radioactives à toutes les étapes. (…) “En conséquence, l’ASN considère que les possibilités de séparation et de transmutation des éléments radioactifs à vie longue ne devraient pas constituer un critère déterminant pour le choix des technologies examinées dans le cadre de la quatrième génération.”

Le récent rapport de la Commission Nationale d’Evaluation (CNE) de l’application de la loi sur la gestion des déchets radioactifs (rapport d’évaluation N°8, juin 14), permet d’avoir quelques informations, et … de se faire quelques soucis sur l’obstination du lobby :

– La Commission s’inquiète : « Si la France renonce à la filière RNR, le plutonium devra être considéré comme un déchet… » En fait, cette affirmation pourrait bien avoir pour objectif d’inquiéter les décideurs, et de préparer le changement d’objectif d’Astrid. La Commission soutient toujours la « capacité » pour les RNR de transmuter l’americium qui pollue dangereusement nos déchets, mais reconnaît que ce n’est pas gagné. Aussi n’est-ce plus cela qui justifierait la construction d’une « flotte » de RNR car une parade a été trouvée.

La parade. La Commission a trouvé comment sauver Astrid et la filière, il suffit de faire fonctionner les RNR en sous-génération, pour que leur mission soit de consommer le plutonium, de « l’incinérer ». De cette façon le projet reste éligible à la loi sur les déchets, au chapitre «Transmutation ».… On peut toutefois se demander si ce nouvel objectif reste cohérent avec la destruction des actinides encombrants, mais de toutes facons ne s’agit-il pas que de prétextes pour obtenir la construction d’Astrid, dont le CEA ferait ensuite ce qu’il veut ?

Mais qu’en est-il de la sûreté ?

La France dispose de deux institutions spécialisées dans les domaines de la sûreté nucléaire et de la radioprotection : l’Agence de sûreté nucléaire (ASN) dont nous avons déjà parlé et l’Institut de radioprotection et de sûreté nucléaire (IRSN). L’ASN est prétendûment indépendante : ses prises de position sur les problèmes de sûreté nucléaire lient le Gouvernement tandis que l’IRSN procède surout à des contrôles de radioprotection. Ces deux institutions agissent souvent de concert, mais parfois l’une se démarque de l’autre.

C’est ce qui est arrivé le 30 avril 2015 lorsque l’IRSN a mis en doute, mais dans des termes équivoques, que la quatrième génération réponde aux exigences de l’ASN.

L’Institut de radioprotection et de sûreté nucléaire (IRSN) y déclare « ne peut pas se prononcer, à ce stade, sur la possibilité pour un réacteur à neutrons rapides refroidi au sodium d’atteindre un niveau de sûreté significativement supérieur » à celui des réacteurs à eau sous pression de 3ème génération, tel que l’EPR. Il s’emble néanmoins possible d’atteindre « un niveau de sûreté au moins équivalent« .

http://www.actu-environnement.com/ae/news/surete-nucleaire-quatrieme-generation-reacteurs-exigences-asn-irsn-24453.php4

Où en est-t’on

Ce projet avance subrepticement, en partenariat avec le Japon, ce qui souligne la relation privilégiée liant les nucléaires francais et japonais, ce dernier étant en quelque sorte sous tutelle du premier. Ainsi le 21 mars dernier, le ministre de l’Industrie Hiroshige Seko et la ministre de l’Environnement et de l’énergie Ségolène Royal ont signé un accord de collaboration pour Astrid. Pour le Japon cela compense partiellement la mise à l’arrêt définitif en décembre 2016, du surgénérateur de Monju.

Ce réacteur à neutrons rapides était censé doter le Japon d’un programme complet de gestion de son combustible nucléaire en utilisant le plutonium extrait du combustible retraité. Les avaries à répétition ont eu raison de ce projet qui aura coûté 10 milliards d’euros, et n’aura produit de l’électricité que pendant 6 mois.

Des équipes travaillent sur le projet Astrid à Lyon, Cadarache, Marcoule, Saclay. Ainsi, à Cadarache, le réacteur Jules Horowitz est en construction pour tester les matériaux et alliages qui y seront utilisés (gaines de combustibles par exemple), mais il connaît lui aussi de lourds dépassements de coûts et de délais. Le budget initial de 500 millions d’euros atteint maintenant autour de 1,5 milliard d’euros, et le démarrage prévu initialement en 2014 aura lieu, au plus tôt, fin 2019.

A Marcoule, les terrains nécessaires à la construction sont retenus sur la commune de Chusclan; de plus Atalante, institut de chimie séparative lié à l’Université de Montpellier y a été créé pour étudier la séparation du plutonium de ses voisins dits « actinides mineurs » Ce n’est pas chose facile : il s’agit de les séparer du plutonium, puis de les soumettre au bombardement neutronique pour les transmuter en radionucléides de vie moins longue (des siècles au lieu de millénaires….) et moins difficiles à gérer. Tout cela permet de faire passer « Astrid » comme « incinérateur » (!) des actinides qui, de ce fait, relèverait de la loi sur la gestion des déchets, ce qui lui permettrait d’être budgétisée, c’est-à-dire financée par l’Etat. La recherche se concentre actuellement sur la séparation de l’américium.

Comment se structure pour l’instant le projet ?

Par la loi du 28 juin 2006, le CEA s’est vu confier la maîtrise d’ouvrage du projet. Par la même occasion, son avant-projet a également bénéficié du financement au titre du programme d’investissements d’avenir (Sarkozy, Rocard). Le projet est découpé en lots d’études qui sont confiés à différents partenaires industriels, et une dizaine d’accords ont été signés avec Alsthom, Bouygues, Toshiba, EDF, et d’autres.

Astrid est conçu pour utiliser un combustible contenant 25 % de plutonium et il faut donc construire une usine pour l’élaborer, et ensuite une autre installation pour le gérer une fois usé*. La construction de ce réacteur considéré comme prototype, entraîne donc toute une nouvelle chaine de gestion !

La Commission Nationale d’Évaluation (CNE) mise en place par les lois Bataille-Revol-Birraux de 1991 et 2006 a été chargée d’aider à la tâche. Dans différents rapports, elle écrit : « La construction du réacteur Astrid doit s’accompagner de la mise en service d’un atelier de fabrication du combustible (AFC) Mox à La Hague… ». Au surplus, un atelier de retraitement du combustible Mox irradié dans Astrid est au programme ».

Et que dire de cet immense gâchis financier et de sa très grande dangerosité5,

La filière plutonium a déjà englouti des dizaines de milliards d’euros. Superphénix par exemple a, selon la Cour des Comptes, coûté 12 milliards d’euros jusqu’à 1997, donc sans compter le démantèlement en cours… Si les énormes crédits consacrés au nucléaire par l’État avaient été investis dans la maîtrise de l’énergie, l’isolation thermique des logements, le développement des renouvelables, tout cela entraînant la création de nombreux emplois, le pays ne s’en porterait-il pas mieux ? .

La combinaison de combustibles fortement chargés en plutonium et de sodium comme fluide de refroidissement fait d’Astrid et de ses descendants éventuels des machines particulièrement dangereuses. En effet, tous les isotopes du plutonium utilisé (lui-même issu du retraitement des combustibles irradiés des réacteurs actuels) sont toxiques et radioactifs. Toutes les activités de l’industrie du combustible d’un réacteur de type Astrid sont par conséquent à haut risque : il en va ainsi notamment de l’extraction du plutonium par le retraitement, du transport du plutonium et des combustibles neufs ou irradiés, de la fabrication des combustibles et de la gestion des déchets radioactifs).

Par ailleurs, le plutonium est le matériau de choix pour la réalisation d’armes nucléaires et il est clair que le développement d’une industrie du plutonium au niveau international ne ferait qu’aggraver le risque de généralisation de ces armes (la « prolifération » de l’arme nucléaire). De son côté, le sodium liquide réagit violemment avec l’eau (risque d’explosion) et brûle spontanément dans l’air.

Consacrer d’immenses ressources financières à un projet indéfendable sur les plans technologique, économique, politique et moral ne s’explique que par les fantasmes narcissiques d’une caste de technocrtates irresponsables cautionnées par quelques parlementaires qui ne le sont pas moins. Ce projet doit impérativement être abandonné : il y a mieux à faire avec l’argent public. Le réacteur surgénérateur au plutonium refroidi au sodium est de loin la technique la plus dangereuse et la plus chère que l’homme ait inventé pour faire chauffer de l’eau.

ANNEXES

Rapsodie, à l’origine des RNR français.

Voici comment Wikipedia retrace les origines de la filière surgénératrice :

Le concept de surgénérateur a été développé dès les débuts de l’énergie nucléaire. Aux États-Unis, Enrico Fermi propose le concept de surgénérateur dès 1945, et en 1946 est construit le petit réacteur rapide américain Clementine (refroidi au mercure). En 1951 se produit la première réaction nucléaire du premier réacteur américain refroidi au sodium, Experimental Breeder Reactor I (EBR1). En France, la construction de Rapsodie (20 MW thermiques) est lancée au centre de Cadarache en 1959, et ce réacteur produit sa première réaction nucléaire en 1967. Parallèlement, un autre surgénérateur Rachel est construit au centre CEA de Valduc et mis en route en 1961.”

Les surgénérateurs expérimentaux français sont conçus sur la base du prototype EBR1 susmentionné réalisé par les Etats-Unis. Commençons par Rapsodie. Le Commissariat à l’Energie Atomique (CEA) a pu dès 1957 concevoir un prototype, Rapsodie, à Cadarache, démarré en 1967, et arrêté en 1983. Ce petit réacteur nucléaire est le premier en France de la filière à neutrons rapides au plutonium et au fluide caloporteur sodium. Son but est de développer une utilisation civile du plutonium . De plus, les RNR peuvent, sous certaines conditions, être surgénérateurs, c’est à dire produire du plutonium en même temps qu’ils en consomment, voire plus qu’ils n’en consomment. C’est donc un eldorado qui paraît s’ouvrir, l’énergie surabondante pour des siècles, un des plus anciens fantasmes de l’humanité : la réalisation du movement perpétuel, voire celle de l’accélération perpétuelle.

Mais le 31 mars 1994, alors qu’une équipe effectue un travail de nettoyage dans un réservoir de sodium, celui-ci explose causant la mort de l’ingénieur René Allègre et blessant quatre techniciens. Il s’agit d’une réaction chimique violente due à la dangerosité inhérente au refroidissement par le sodium.

En effet cette filière utilise comme fluide caloporteur le sodium fondu qui présente l’avantage de permettre un fonctionnement à haute température et donc un bon rendement de la transformation de la chaleur du réacteur en électricité. Mais elle présente un énorme inconvénient : le sodium explose au contact de l’eau, et brûle au contact de l’air. De plus, en cas de fuite, cela peut provoquer un emballement des réactions nucléaires du cœur, pouvant conduire au scénario catastrophe de fusion.

Quant au plutonium, matière première, c’est la pire substance jamais élaborée par l’industrie, d’une très grande toxicité chimique comme tous les métaux lourds (rappelons-nous les assassinats au polonium). Émetteur alpha en se désagrégeant, il est d’une très grande radiotoxicité en cas d’inhalation de microparticules aériennes, ou d’absorbtion par ingestion. Pour disparaître naturellement il lui faut au moins 250’000 ans, pendant lesquels les générations futures auront à le gérer, comme si nous devions gérer les déchets de l’homo erectus.… qui étaient biodégradables… et c’est précisément la raison pour laquelle ils ne nous préoccupent en aucune façon.

L’étape suivante a été Phénix, à Marcoule

Fonctionnant de 1973 à 2009, avec de multiples problèmes et pannes, d’une puissance électrique de 250 MWé, Phénix a été géré conjointement par le CEA, pour des essais de transmutation de déchets radioactifs à vie longue, et par EDF pour la production d’électricité. Son démantèlement, actuellement en cours, est particulièrement délicat du fait que, contrairement aux autres réacteurs, il ne baigne pas dans l’eau mais dans du sodium liquide.

En fait ce réacteur a souvent été à l’arrêt du fait de nombreuses difficultés dont des fuites et des « petits » feux de sodium. Entre autre, en 2002, une explosion a eu lieu dans un réservoir raccordé à une cheminée qui débouchait sur la toiture de bâtiment. Elle aurait été causée par une réaction entre le sodium résiduel présent dans ce réservoir et de l’eau qui y aurait pénêtré accidentellement suite à des pluies abondantes.

Superphénix

Ce gigantesque surgénérateur, présenté comme une générateur de pré-série industrielle, qui devait devenir le fleuron de l’industrie nucléaire française, et dont l’histoire fut émaillée d’incidents techniques et de manifestations écologistes, sera finalement arrêté en 1997 par Lionel Jospin, alors Premier ministre, après 20 ans de polémiques. Construit sur la commune de Creys-Malville, près de Morestel, dans l’Isère, en une dizaine d’années, son histoire commence par la répression violente de la manifestation de juillet 1977, organisée par les comités Malville, réunissant des dizaines de milliers d’opposants dont de nombreux étrangers, allemands, suisses, italiens, etc., et qui vit la mort de Vital Michalon et de nombreux blessés dont trois mutilés. Ce projet pharaonique, qui devait être une vitrine, a subi une contestation très forte des écologistes ; contestation également des milieux techniques et scientifiques tant français qu’étrangers du fait de son sur-dimensionnement : 1’200MWé.

Souvent à l’arrêt, il a consommé bien plus d’électricité qu’il n’en a produit. Même arrêté, il fallait maintenir liquide (180°) le sodium, par chauffage électrique. Son gigantisme pharaonique est illustré par quelques chiffres : 5’500 tonnes de sodium, depuis lors inutilisables parce que contaminées, et qu’il faut, avec des précautions infinies enfermer dans du béton; 5 tonnes de plutonium, sachant qu’avec 5Kg on peut faire une bombe ; mais aussi 20’000 tonnes d’acier, pour l’essentiel contaminé, ainsi que 200’000 m3 de béton.

Les difficultés rencontrées par cette filière sont liées aux conditions extrêmes auxquelles sont soumis les matériaux : corrosion sous tension, fluage et modifications des structures cristallines sous l’effet du rayonnement et de la température. Quant au coût, selon la cours des comptes, il est de 12 milliards d’euros, non compris le démantèlement. ….

Pour ses concepteurs issus de Polytechnique ou du Corps des mines, les réacteurs à eau n’étaient envisagés que comme une étape transitoire destinée à constituer un stock initial de plutonium; le développement industriel de l’énergie nucléaire reposerait sur des réacteurs à neutrons rapides produisant eux-mêmes leur combustibles par surgénération.

 

Quelques données scientifiques

L’uranium naturel existe sous deux formes principales, l’isotope 235 (U 235) constituant 0,7% de l’uranium naturel, isotope dit fissile car pouvant se désintégrer naturellement et donc servir de “combustible” nucléaire, et l’isotope 238 (U238) dit fertile car il a la propriété de pouvoir se transmuter en plutonium (Pu 239) s’il capte un neutron émis justement par l’U 235.

C’est ainsi qu’a été conçu logiquement au Tricastin l’usine Georges Besse 1, destinée à « enrichir » l’uranium en isotope 235 de 0,7 à quelque 5%, de façon à disposer d’un combustible plus efficace pour les réacteurs à eau, et de façon aussi à fournir l’armée en uranium très enrichi, à quelque 90%, pour la bombe. L’uranium résiduel est dit «appauvri » (car il contient moins de 235, et plus de 238), il est tout aussi radiotoxique, et son utilisation en tête d’obus contamine à très long terme les zones de combat en Serbie, en Irak et ailleurs. Cette usine a consommé énormément d’électricité, celle fournie par trois réacteurs nucléaires conventionnels. L’usine Beorges Besse 1 a été arrêtée pour laisser la place à Georges Besse 2, équipée en centrifugeuses (comme en Iran…), moins gourmandes en électricité.

Il a fallu ensuite concevoir le « retraitement », destiné à extraire le plutonium formé dans le combustible usé des réacteurs conventionnels à eau. Après avoir été expérimenté à Marcoule, c’est l’usine de la Hague qui assure le retraitement des combustibles usés pour fournir tant le militaire que et le civil.

D’où vient le nom de « réacteur à neutrons rapides » ou RNR-Na?

Dans les réacteurs à eau, celle-ci joue le rôle de modérateur à neutrons, tout en refroidissant le cœur. Dans les RNR tels Phénix, Superphénix ou Astrid, n’y a pas de ralentisseur de neutrons, ils sont donc dits “rapides”. La puissance et la chaleur dégagée par un tel réacteur peut être extraite par un métal en fusion, en l’occurrence le sodium.

Le sodium (Na) a été choisi pour ses capacités neutroniques (transparence aux neutrons), ses propriétés thermiques (capacité calorifique, températures d’utilisation) et son faible coût : il est obtenu par électrolyse du sel (NaCl). En outre, à 400°C, sa viscosité est voisine de celle de l’eau, ce qui facilite l’interprétation des essais hydrauliques réalisés sur maquettes en eau. Enfin, il fond à 98°C, et bout à 880°C, ce qui offre une grande plage de fonctionnement.

Mais le sodium a aussi de graves défauts : il brûle au contact de l’air et explose au contact de l’eau…

Pourquoi le Mox et le plutonium posent-t-ils problème?

Le lobby dispose du plutonium retraité à la Hague ; faute d’avoir pu développer plus tôt la filière RNR, le CEA s’est tourné vers la fabrication du Mox à partir des années 90, à Cadarache puis à Marcoule. Il l’a imposé à EDF qui n’était pas enthousiaste, par un arbitrage gouvernemental (Rocard), afin de justifier la poursuite du retraitement des combustibles irradiés à La Hague. Actuellement, seule au monde, l’usine Melox de Marcoule en produit.

Le Mox est constitué d’un mélange d’oxydes de plutonium et d’uranium appauvri contenant 5 à 8% de plutonium. Il est utilisé actuellement dans 21 réacteurs des centrales françaises 900MW, les plus anciennes, pour un tiers de leur combustible, et l’EPR pourrait fonctionner avec du Mox (la Finlande a choisi de continuer avec le combustible classique pour le sien). L’EPR “moxé” à 100% serait susceptible de consommer trois tonnes de plutonium par an. Cela permet d’utiliser aussi les stocks d’uranium appauvri issu de l’usine d’enrichissement de Tricastin.

Le MOX est élaboré dans une usine dont on parle peu, MELOX, où est maniée de la poudre ultra-fine d’oxyde de plutonium et d’uranium pour les mettre sous forme de pastilles. C’est une autre cause de catastrophe potentielle non vraiment gérable si le confinement venait à être rompu et donc une cible potentielle pour terroristes.

Cette technologie présente d’énormes inconvénients, risques, difficultés d’exploitation et explosion des coûts. Outre son extrême dangerosité, la qualité du plutonium se dégrade dans le temps, formant d’autres isotopes moins fissiles qui rendent la conduite du réacteur plus délicate. Les pastilles de Mox sont plusieurs milliers de fois plus radioactives que celles d’uranium, rendant la fabrication, les manipulations et les transports infiniment plus dangereux. A la sortie du réacteur, il émet plus de radioactivité et de chaleur que le combustible classique, et il faudra attendre 60 à 100 ans avant de le conditionner comme déchet! Enfin, le Mox entre en fusion beaucoup plus rapidement ( ce qui est arrivé au réacteur N°3 de Fukushima alimenté en Mox par Areva, et par conséquent du plutonium a été dispersé aux alentours !).

L’arrêt de la filière du plutonium est une exigence absolue.

 

L’industie du plutonium, c’est le mal absolu

Le cœur de Superphenix comportait 20% de plutonium. On nous parle de 25 % pour le projet Astrid. La bombe au plutonium de Nagasaki contenait 5 kg de plutonium métallique. Phénix en fonctionnement, utilisait 1’800 kg d’oxyde de plutonium ; il y en avait trois fois plus dans Superphenix. Pour Astrid ce pourrait être probablement de l’ordre de 3’500 kilos d’oxyde de plutonium dans le cœur.

La filière plutonium implique le retraitement à la Hague, celle-ci en « fonctionnement normal » rejette massivement de la radioactivité dans la mer et dans l’air. Toute les cotes de la Manche, françaises, anglaises, belges et néerlandaises sont contaminées par la radioactivité artificielle issue de La Hague (tritium, iode-129, ruthenium-106, américium 241, carbone-14, antimoine 125…) C’est le cas du Rhône contaminé par Marcoule, et dont on utilise l’eau pour irriguer le Languedoc… ce qui a pollué les rizières de Camargue en 1993, lors d’inondations.

Le plutonium est transporté de La Hague à Marcoule par lots de 15 kg dans des conteneurs cylindriques qui contiennent 5 boites métalliques empilées pouvant contenir chacune jusqu’à 3 kg de plutonium sous forme de poudre d’oxyde. Dix conteneurssont placés sur un camion blindé pouvant donc contenir jusqu’à 150 kg d’oxyde de plutonium pur en poudre dans des boites scellées. Celles-ci sont conçues pour être manipulées à distance ainsi que le vissage et dévissage de leur couvercle.Ces conteneurs doivent supporter une chute de 9 m. Cela est équivalent à une vitesse de 50Kmh.

Les transports de Mox vont dans toute la France. Pour voyager, on les place dans deux assemblages logés dans des conteneurs de 5 mètres de long, pesant 5 tonnes, avec blindage neutronique. Il peuvent être disposés par 4 dans des camions blindés : 8 assemblages = 225 kg de Pu pour du Mox à 6,1% .

On imagine tous les risques de cibles terroristes que présentent ces transports !

Actinides mineurs « késako? »

L’uranium existe à l’état naturel car sa période de désintégration est tellement longue, qu’il en reste depuis la formation de la Terre. Par contre les actinides dont il est question ici sont des éléments lourds artificiels générés par les réactions nucléaires dans un réacteur, à partir de la captation par l’uranium 238, d’un neutron. Ils n’existent pas à l’état naturel. Le plus important est le plutonium 239 qu’on extrait à la Hague. Par sa dangerosité, le plutonium est une horreur, probablement ce qu’il y a de pire dans ce que l’industrie génère.

Les actinides dits « mineurs », car en plus petite quantité, sont des éléments de la fin de la classification périodique des éléments (Tableau de Mendeleïev), tels que le curium, l’américium. Ils sont extrêmement radiotoxiques (émetteurs alpha) et à vie très longue, leur disparition spontanée par désintégration se compte en centaines de milliers d’années. Ils posent d’énormes problèmes non résolus. Ils ne sont donc pas si « mineurs » que ça !

Mais ils servent au CEA pour tenter de relancer la filière plutonium en la faisant passer comme susceptible de “briser” ou encore “incinérer” (comme si on pouvait brûler des atomes!) ces atomes, en réalité les transmuter en radionucléides prétendûment plus faciles à gérer. C’est là où est l’ « arnaque » car l’efficacité de cette technologie est limitée par son faible rendement, son coût à rallonges, son extrême dangerosité, et la formation inévitable de nouveaux déchets nucléaires à gérer ! La transmutation est, certes, une réalité physique, mais sa transposition à échelle industrielle est un leurre, elle se heurte à trop obstacles. Prendre ce prétexte pour justifier la construction d’Astrid relève de la malhonnêteté intellectuelle.

 

Comment se structure pour l’instant le projet ?

Par la loi du 28 juin 2006, le CEA s’est vu confier la maîtrise de l’ouvrage en projet. Il en a également reçu le financement de l’avant-projet par le programme d’investissements d’avenir. Le pilotage du projet est assuré par la cellule projet Astrid de Cadarache.

Le projet est découpé en lots d’études que le CEA a confiés à différents partenaires industriels, et des accords ont été signés avec: EDF/SEPTEN assistance à l’équipe CEA de maîtrise de l’ouvrage, par une équipe basée à Lyon, AREVA NP ingéniérie de la chaudière nucléaire, des auxiliaires nucléaires et du contrôle-comande, ALSTOM POWER SYSTEMS, conception et construction de systèmes de conversion d’énergie, COMEX Nucléaire conception mécanique pour l’étude de différents systèmes, en particulier de robotique pour l’inspection en service du circuit primaire, conception diversifiée de mécanismes de barres, TOSHIBA, développement et la qualification de grosses pompes électromagnétiques pour les circuits secondaires de sodium, BOUYGUES, conception du génie civil de l’ensemble des bâtiments de l’îlot nucléaire (dont le bâtiment réacteur, les bâtiments auxiliaires nucléaires, les bâtiments de manutention du combustible) mais également de la salle des machines, abritant le groupe turbo-alternateur, EDF étend l’accord signé avec le SEPTEN aux activités de R&D et à l’expertise technique, JACOBS France, ingéniérie des infrastructures et des moyens communs du site, ROLLS-ROYCE, recherches d’innovation sur les échangeurs sodium-gaz et la manutention du combustible, ASTRIUM, méthodologies destinées à augmenter la disponibilité du réacteur, méthodologies issues de l’expérience des lanceurs de la fusée ARIANE et des missiles, etc.

Les équipes de CEA de Cadarache, tentent d’apprivoiser le sodium, sixième élément le plus abondant sur Terre mais seulement en tant que composant d’autres minéraux, comme le sel. Pour prévenir le principal danger, à savoir l’entrée en contact du sodium et de l’eau, de nouvelles turbines alimentées au gaz sont en cours de conception.

Et qu’en est-il de la sécurité?

Alors que le prototype Astrid devrait, selon son cahier des charges, présenter une sûreté améliorée par rapport à un réacteur dit troisième génération (EPR), la liste des demandes de l’ASN à ce stade de la conception du projet est impressionnante : niveau des exigences de sûreté, prise en compte des agressions extérieures, risques liés au sodium. Et cela ne concerne que le prototype de réacteur et non les industries et activités liées au combustible.

Les principaux handicaps de sûreté sont : – Le coefficient de vide du sodium est positif dans certaines régions du cœur : dès lors tout accident d’assèchement du combustible après ébullition du sodium se traduit par une augmentation de puissance qui peut s’avérer brutale, voire explosive.

– Les grandes densités de puissance (cinq fois celle d’un REP) et la compacité du cœur le rendent très sensible aux défauts locaux de refroidissement pouvant conduire à la fusion d’un assemblage combustible.

– Contrairement à la plupart des autres types de réacteurs (REP par exemple), le cœur n’est pas dans sa configuration la plus réactive (celle qui accélère au mieux la réaction en chaîne). Cela veut dire que si, pour une raison quelconque (secousse sismique par exemple) les assemblages combustibles se rapprochaient les uns des autres ou si, à la suite d’une fusion partielle, les combustibles se rassemblaient dans une région du cœur, il y aurait une possibilité de formation de masses critiques conduisant à une accélération de la réaction en chaîne (excursion nucléaire) libérant une grande quantité d’énergie sous forme explosive. Un tel accident conduirait, en cas de rupture de l’enceinte de confinement, à la diffusion d’aérosols de plutonium hautement toxiques dans l’atmosphère, donc à une pollution radiologique durable puisque la demi-vie du plutonium est dépasse légèrement 24’000 ans.

Et le coût ?6

Les informations fournies par le CEA sur la question des coûts sont relativement brèves, mais sont estimées à 5 milliards d’euros par certains experts. Le CEA reconnaît que le coût d’investissement d’un réacteur de plus grande puissance de la filière serait nettement plus élevé que celui d’un réacteur à eau (de l’ordre de 30%, ce qui est probablement très optimiste). Mais, si l’on ajoute le coût, non évalué, des activités liées au combustible, on arrive à des estimations absolument rédhibitoires pour le coût de production du kWh.

Où en est-t-on ?

Ce projet avance subrepticement, en partenariat avec le Japon, ce qui contribue à le crédibiliser. Une relation privilégiée lie, en effet, les nucléaires francais et japonais, ce dernier étant en quelque sorte sous tutelle du premier. Signalons en passant le rôle tenu par a France dans la catastrophe de Fukushima aggravée par la présence de MOX dans l’un des réacteurs accidenté et sa participation à la gestion de la catatstophe.

Ainsi le 21 mars dernier, le ministre japonais de l’Industrie Hiroshige Seko et la ministre française de l’Environnement et de l’Energie, Ségolène Royal, ont signé un accord de collaboration pour le prototype ASTRID, qui devrait démarrer « dans les années 2030 » et  dont le seul coût de développement coûtera au bas mot 5 milliards d’euros. Pour le Japon cela compense la mise à l’arrêt définitif en décembre 2016, du surgénérateur de Monju. Ce réacteur à neutrons rapides était censé doter le Japon d’un programme complet de recyclage de son combustible nucléaire, et utilisant le plutonium extrait du combustible retraité. Les avaries à répétition ont eu raison de ce projet qui a coûté 10 milliards d’euros depuis son lancement en 1986. Il n’aura produit de l’électricité que pendant six mois. Le démantèlement du RNR de Monju, prévu pour les trente prochaines années, coûtera bien plus des 3 milliards d’euros prévus.

D’après un article paru récemment dans la Revue Générale Nucléaire, des équipes du CEA travaiellent à Lyon, Cadarache et ailleurs aux nouvelles technologies qui permettront aux futures usines du cycle du combustible de répondre à la demande d’une nouvelle génération de réacteurs nucléaires : les réacteurs à neutrons rapides (RNR). À l’avenir, ces installations intégreront l’ensemble des opérations du cycle, depuis la réception et le traitement des combustibles irradiés jusqu’à la fabrication des assemblages combustibles.7

 

ATALANTE

Tel est le nom poétique, comme celui d’Astrid, choisi pour désigner l’Institut de chimie séparative créé sur le site de Marcoule, lié à l’université de Montpellier, qui annonce travailler pour le “nucléaire durable”. But annoncé : extraction chimique des « actinides mineurs ». Il s’agit de les séparer du plutonium, afin de pouvoir les soumettre dans Astrid au bombardement neutronique pour les transmuter en radionucléides de vie moins longue et moins difficiles à gérer. Tout cela permet de faire passer « Astrid » pour un « incinérateur » (!) des actinides, et de relever ainsi de la loi sur la gestion des déchets, et donc d’être budgétisé, c’est-à-dire finacé par l’Etat.
Si actuellement l’uranium et le plutonium sont séparés industriellement à l’usine de la Hague, aucun autre procédé plus poussé de séparation des déchets n’existe sur le plan industriel. La recherche dans ce domaine a donc lieu exclusivement au sein d’ATALANTE, et elle se concentre actuellement sur la séparation de l’américium.

Le réacteur Jules Horowitz

Ce réacteur en construction à Cadarache connaît de lourds dépassements de coûts et de délais.
Areva construit pour le CEA ce réacteur de recherche de 100 mégawatts, destiné d’une part à la production de radioéléments à usage médical – il remplacera le réacteur Osiris de Saclay, qui fermera à la fin de l’année –, mais aussi à la recherche pour les RNR (essais de matériaux et de gaines de combustibles). Le budget initial de 500 millions d’euros atteint maintenant autour de 1,5 milliard d’euros, et le démarrage prévu initialement en 2014 aura lieu, au plus tôt, vers la fin 2019.

Mais ce n’est pas tout !

La mise en route d’Astrid impliquerait la construction de plusieurs nouvelles installations industrielles, comme l’expliquent les auteurs de l’article de la Revue Générale Nucléaire que nous avons cité. Pour préparer un combustible à 25 % de plutonium, il faudra disposer d’une nouvelle usine autre que MELOX. La Commission Nationale d’Évaluation (CNE), dans son rapport 2010 (annexe p. 28) explique: « La construction du réacteur Astrid doit s’accompagner de la mise en service d’un atelier de fabrication du combustible (AFC) Mox à La Hague…« . Ensuite pour gérer ce combustible irradié, le rapport 2011 de la CNE (p. 14) prévoit: « un pilote de retraitement qui permette de tester les différentes opérations liées au recyclage du plutonium et de l’américiumdémontrer que l’on maîtrise la dissolution du combustible irradié... avec des teneurs en actinides bien plus élevée que dans les combustibles REP. », et dans son rapport 2012, chapitre sur Astrid p. 13 : « Passage à la réalisation du projet… il est indispensable de conduire les actions suivantes : – Construction d’un pilote de retraitement... »; et CNE 1ère page du dernier rapport (nov. 2013) : « Dans un contexte économique tendu… Dans un second temps un atelier de retraitement du combustible Mox irradié dans Astrid« .

C’est donc toute une nouvelle chaine industrielle de fabrication puis de gestion de combustibles qui est à créer pour ces nouveaux élèments de très grande radioactivité.

 

A l’étranger

« Le réacteur du futur» russe BN-800 dans l’Oural se trouve en tête de la liste des meilleures centrales nucléaires au monde d’après le magazine américain Power. Son exploitation commerciale aurait commencé. La Russie est actuellement le seul pays à utiliser des réacteurs à neutrons rapides. Cependant, l’Inde, la Chine et la Corée du Sud y travaillent.

Le cadre international de la coopération en matière de systèmes nucléaires de 4ème génération est le GIF (Generation IV International Forum), dont l’objectif est la conduite des travaux de R&D nécessaires à la mise au point de systèmes nucléaires (réacteurs et cycle du combustible) répondant aux critères de durabilité de l’énergie nucléaire. Le Forum a sélectionné six concepts, à neutrons rapides ou à neutrons thermiques.

Pour le CEA, l’effort se concentre principalement sur les technologies de réacteurs à neutrons rapides refroidis au sodium (RNR-Na). Toutefois, il participe par ailleurs aux études sur le combustible et la sûreté d’un projet de réacteur expérimental à neutrons rapides refroidi au gaz, dénommé ALLEGRO, qui serait construit en Europe Centrale.

Comme nous l’avons déjà signalé, un accord a été signé avec le Japon sur la recherche et la conception d’Astrid. Il convient toutefoisde signaler que le Japon a « omis » de déclarer environ 640 kilogrammes de plutonium dans son rapport annuel à l’Agence internationale de l’énergie atomique (AIEA) pour 2012 et 2013. La quantité non déclarée pourrait suffire à fabriquer jusqu’à 80 bombes nucléaires.

En Belgique, on a assisté en 2012 aux premiers pas de Guinevere, réacteur expérimental franco-belge couplé à un accélérateur de particules destiné à la surgénérer. 8Ce prototype n’est encore qu’une maquette, mais il préfigure Myrrha, un pilote préindustriel à un milliard d’euros, qui pourrait être opérationnel en 2023, à Mol, en Belgique dans le cadre d’une coopération avec le CNRS et le CEA.

Et la Suède envisage aussi un réacteur nucléaire expérimental de 4ème génération.

*                  *

*

 

 

 

 

 

1Gabrielle Hecht, Le rayonnement de la France. Energie nucléaire et identité nationale après la seconde guerre mondiale, ed Amsterdam 2014.

2Loi de programme n° 2006-739 du 28 juin 2006 relative à la gestion durable des matières et déchets radioactifs.

3 « Nous pourrions produire de l’électricité pendant plusieurs centaines d’années sans nouvelles ressources d’uranium naturel », a prétendu Christophe Béhar, vice-président du Forum International Génération IV, également l’un des directeurs au CEA. Il persiste dans l’illusion de la transmutation en prétendant que le RNR-Na peut consommer la majeure partie des déchets radioactifs à vie longue issus de l’uranium, simplifiant la question de leur stockage sous-terrain.

4Par ailleurs la France pousse le Japon, quasiment sous tutelle, à y relancer le nucléaire, client potentiel d’Areva. Pour cela elle soutient les mensonges abominables sur les conséquences sanitaires de la catastrophe de Fukushima.

5Cf. Bernard Laponche, “Une filière à haut risque et coût exorbitant”, 25 Mars 2015, Global Chance, Une expertise indépendante dans le débat sur la transition énergétique : ://httpwww.global-chance.org/ASTRID-une-filiere-nucleaire-a-haut-risque-et-cout-exorbitant

 

6Bernard Laponche, Astrid : une filière à haut risque et coût exorbitant”, Global Chance, 25 Mars 2015.

7Laurent Paret et Emmanuel Touron , Les futures usines du cycle du combustible, Revue Générale Nucléaire, No du 4 juillet 2016, p.32-7)

http://www.sfen.org/fr/rgn/68-les-futures-usines-du-cycle-du-combustible

 

Publicités

3 Commentaires

Classé dans Actions et Politiques, en français, Problématiques énergétiques, Technologies, Uncategorized

Nucléaire. Chronique d’un fiasco technologique

Campus, magazine scientifique de l’Université de Genève

 

Telle est la manchette qui orne la couverture du numéro 125 de Campus, le magazine scientifique de l’Université de Genève, publié en juin 2016.

Annonçant un dossier comportant une série d’articles consacrés à ce sujet, Campus annonce, toujours sur sa couverture que “l’abandon programmé de l’énergie nucléaire sanctionne ce qui apparaît avec le recul comme une erreur technologique”. (1)

 

 

“Le nucléaire est un choix technologique erroné qui a coûté (et qui coûtera encore) des sommes pharaoniques pour un résultat très médiocre.”

Cette déclaration du professeur Walter Wildi, professeur honoraire de la Faculté des sciences de l’Université de Genève et ancien membre de la Commission fédérale pour la sécurité des installations nucléaires de 1997 à 2007, tient lieu de titre au premier de ces articles qui est constitué d’une interview de cette personnalité. Toutefois, l’identité de l’interviewer n’est pas donnée.

Le professeur Wildi y relate, à grands traits, l’histoire du nucléaire en Suisse. Celle-ci débute en 1946 avec la décision du Conseil fédéral de mettre sur pied une commission chargée d’étudier les possibilités d’équiper la Confédération de l’arme nucléaire, option qui ne sera abandonnée officiellement qu’en 1988 !

Entretemps, la priorité fut donnée de développer “l’atome pour la paix”, selon la formule lancée par le Président Eisenhower devant l’Assemblée générale des Nations Unies le 8 décembre 1953. Et, dans les années 1960, la Suisse décida de construire un réacteur expérimental, non sans arrière-pensée militaire. Ce réacteur divergea à l’automne 1968 et connut un accident grave, à savoir la fusion partielle de son cœur, en janvier 1969. Heureusement qu’il s’agissait d’un tout petit réacteur et qu’il avait été installé dans une caverne sur la commune de Lucens, dans le canton de Vaud. La contamination radioactive qui en résulta fut pratiquement confinée à la caverne…

En 1969 également, fut inauguré le premier réacteur commercial suisse, sous licence Westinghouse, dit Beznau I, dans le canton d’Argovie, qui est actuellement le plus ancien réacteur nucléaire au monde encore en activité.

Le professeur Wildi explique que, dans leur grande majorité, les physiciens n’ont jamais considéré les réacteurs nucléaires comme étant un sujet d’intérêt scientifique particulier, ce qui explique que cette technologie datant des années 1950 n’ait pas connu de percée scientifique majeure. Le projet de réacteur européen EPR en est, d’après lui, l’illustration. Quant au projet international de fusion thermonucléaire contrôlée appelé ITER, “il se fait toujours attendre” dit le professeur Wildi, mais en aucun cas il ne produira de l’électricité.(2)

Pour lui, si le basculement de l’énergie nucléaire vers les énergies renouvelables se heurte à des retards, c’est parce que les géologues se sont “royalement trompés” dans leurs évaluations des réserves disponibles d’hydrocarbure, comme l’atteste le développement des forages à fracturation hydraulique.

L’interview du professeur Wildi se déplace ensuite sur les problèmes consécutifs à l’arrêt des réacteurs, à savoir leur démantèlement et surtout le stockage des déchets radioactifs. Le stockage à l’écart de la biosphère pour de nombreux millénaires se justifie surtout par le fait que ces déchets sont susceptibles d’être utilisés pour la fabrication de bombes dites sales. “C’est pourquoi la Confédération planche depuis des années sur un projet de stockage en site géologique profond qui devrait aboutir à l’ouverture d’un site pour les déchets faiblement radioactifs vers 2050 et à celle d’un autre pour les déchets hautement radioactifs vers 2060. C’est un programme qui remonte à 1978 mais, depuis, on va d’échec en échec faute de vision globale.” Le coût actuel de ces opérations n’a cessé d’exploser, il est actuellement estimé à 21 milliards de francs.

Malgré sa brièveté, cette interview d’un expert ayant fait montre d’intégrité scientifique et de responsabilité éthique en démissionnant en 2012 du Comité consultatif « Gestion des déchets », explicite à lui seul déjà, les annonces de la page de couverture du numéro de juin 2016 de Campus.

 

Désastres chroniques. Three Mile Island, Tchernobyl, Fukushima. Tu me fonds le cœur !

Tel est le titre du deuxième article constitué par une interview du professeur Martin Pohl, du Département de physique nucléaire et corpusculaire de la Faculté des sciences de l’Université de Genève. L’identité de l’interviewer n’est pas donnée.

Chacune de ces catastrophes a eu, selon le professeur Pohl, des conséquences environnementales et sanitaires très diverses.

En 1978, la première, qui se trouve être la moins grave des trois, a tout de même causé l’évacuation de 140’000 personnes habitant à moins de vingt miles – soit quelque 32 kilomètres – de la centrale, en Pennsylvanie.

En 1986, la catastrophe de Tchernobyl, en Ukraine, a entraîné l’évacuation de la ville de Pripiat et la constitution d’une zone d’exclusion de 10 kilomètres autour de la centrale, zone ensuite portée à 30 kilomètres. Quant au nombre de victimes, le professeur Martin Pohl ne mentionne malheureusement pas les contestations tenaces qui opposent aujourd’hui encore les responsables de l’AIEA, l’agence internationale de promotion de l’industrie nucléaire, et les nombreuses instances critiques qui parlent de plusieurs dizaines de milliers de morts, voire davantage, parmi les innombrables “liquidateurs” de l’accident, sans compter les autres victimes.

En 2011, la catastrophe de Fukushima due à la conjonction de deux catastrophes naturelles – un tremblement de terre et un tsunami – provoque la fusion des cœurs de trois des six réacteurs de cette centrale. Les autorités parviennent à évacuer quelque 200’000 personnes. Et le professeur Pohl d’affirmer : “Aucune mort n’est imputable à une irradiation excessive.” C’est sans doute exact pour mars 2011. Mais en 2016, une source non partisane, Le Point, rapporte : “Les statistiques du ministère de la Santé japonais évoquent, pour l’heure, le chiffre de 1’700 cancers mortels directement liés à la catastrophe nucléaire. Un chiffre « sous-estimé », à en croire plusieurs ONG, car cette province est peuplée de 9 millions d’habitants.” (3)

Quant aux conséquences de la pollution radioactive de l’Océan Pacifique, toujours en cours, le professeur Pohl n’en parle pas, probablement parce qu’elles sont encore largement inconnues.

 

Lucens sonne le glas des ambitions nucléaires suisses

Tel est le titre du troisième article, titre que corrige aussitôt le sous-titre : cet accident mit fin à l’ambition de fabriquer une centrale nucléaire 100% helvétique.

La professeur Wildi en a déjà parlé dans le premier des articles du dossier dont nous rendons compte.

Mais ce troisième article, qui ne procède pas d’une interview et qui n’est d’ailleurs pas signé, révèle que l’origine du projet réside dans la proposition d’un professeur de l’Ecole polytechnique fédérale de Zurich (EPFZ), formulée en 1956, à l’effet de remplacer le système de chauffage obsolète de son institut par un réacteur nucléaire qui fournirait non seulement la chaleur, mais en outre l’électricité nécessaire à l’EPFZ. Ledit réacteur devait être installé dans une caverne à une profondeur de 42 mètres, directement sous l’EPFZ. Heureusement pour cette vénérable Ecole, les suites qui furent données dans les années 1960 à ce projet aboutirent à la caverne de Lucens et à l’accident nucléaire de janvier 1969.

Il fallut cinq ans pour décontaminer l’intérieur de la caverne et démanteler le réacteur.

Il n’en reste pas moins que l’accident de Lucens figure parmi les dix avaries nucléaires les plus graves enregistrées dans le monde.

 

La petite histoire du mini-réacteur genevois

Le quatrième article, également non signé, de ce dossier est consacré au petit réacteur de recherche acquis par le Fonds national suisse de la recherche scientifique et mis à la disposition de l’Université de Genève qui fonctionna de 1958 à 1989.

Ce réacteur fonctionna pendant tout ce laps de temps sans problème, mais à l’insu des habitants du quartier de la Jonction, à Genève. L’article ne signale pas les problèmes de tous ordres que pose la présence de pareille installation dans une ville à l’insu de la population.

 

Le sol garde le souvenir de la folie atomique

Cet article est issu d’une interview de M. Jean-Luc Loizeau, maître d’enseignement et de recherche à l’Institut Forel de la Faculté des sciences de Genève. L’identité de l’interviewer n’est pas révélée.

Le souvenir en question est celui des “isotopes exotiques” de plutonium, d’américium, de cobalt et de quantité de produits de fission issus des explosions d’armes atomiques, mais aussi du fonctionnement normal et surtout accidentel de l’industrie nucléaire. Certains d’entre eux ont une demi-vie de quelques jours ou de quelques mois après quoi ils disparaissent ; d’autres ont une demi-vie de plusieurs siècles, millénaires ou millions d’années et laissent des traces durables dans le sol. Elles intéressent les géologues.

“Une partie de notre travail consiste à analyser des carottes de sédiments afin de reconstituer les conditions environnementales du passé récent. Et, dans les lacs suisses par exemple, nous retrouvons toujours des dépôts laissés par les essais nucléaires atmosphériques des années 1960, l’accident de Tchernobyl de 1986 et, plus localement, des rejets effectués par les centrales situées sur des affluents. Ces signaux, qui ne présentent plus aucun danger, ont un côté pratique : ils nous aident à dater les couches que nous étudions.”

Le plus dangereux des isotopes issus des explosions voulues ou accidentelles est le plutonium 239 dont la demi-vie est de 24’000 ans. “Issu essentiellement des essais nucléaires atmosphériques, sa présence dans les sédiments un peu partout dans le monde, même à des concentrations très faibles, pourrait bien survivre à l’humanité.”

 

Les atouts du modèle énergétique genevois

Cet article s’articule sur des déclarations du professeur Bernard Lachal, physicien de formation, professeur à l’Institut Forel de la Faculté des sciences de Genève. Comme il ne porte qu’accessoirement sur le nucléaire, nous n’en retiendrons ici que la déclaration suivante du professeur Lachal.

“Il ne faut pas se précipiter. Les centrales sont là et elles vont continuer à fournir de l’énergie pendant dix ou vingt ans. Tout comme le fossile, nous en aurons besoin pour fournir l’électricité nécessaire à la transition. Il ne s’agit pas de basculer d’un système à l’autre du jour au lendemain, mais de monter progressivement en puissance en jouant sur différents tableaux et en progressant au cas par cas, jusqu’à parvenir à un approvisionnement énergétique 100% renouvelable.”

Selon ce professeur en tout cas, la Suisse ne doit pas se presser car les risques d’accident ou de sabotage ne la menaceraient pas !

 

Conclusion

Ce dossier est bienvenu. Il s’accompagne de photos, de notes marginales et d’une carte du nucléaire en Suisse pleins d’enseignements. Mais seul le premier article, dû au professeur Wildi, justifie pleinement le titre et le sous-titre accrocheurs de la version papier du numéro 125 de Campus.

 

Ivo Rens

Juillet 2016

 

 

(1) Le contenu de ces articles est accessible en ligne sur le site de Campus, sous un titre sobrement intitulé “Dossier” qui ne signale nullement ce qu’annonce la couverture de l’édition sur papier ! Trois autres titres d’articles tiennent la vedette dans la présentation numérique de ce numéro, à savoir “L’abolition vue de l’intérieur”, sur l’esclavage, “Le logiciel qui élague l’arbre de vie” et “En Suisse, on ne retient plus son dernier souffle”.

 

(2) On regrette que l’interviewer n’ait pas interrogé plus avant le professeur Wildi sur les aléas de la construction à Cadarache, dans le Midi de la France, du projet pharaonique ITER de fusion thermonucléaire contrôlée. Selon d’autres physiciens que nous connaissons, ce projet est en difficulté, ce tokamak géant risque de ne jamais pouvoir fonctionner et les chances qu’il débouche, comme prévu, sur la mise au point d’une nouvelle filière de production de courant électrique sont proches de zéro.

On regrette surtout que l’interviewer n’ait pas consulté le professeur Wildi sur la filière des surgénérateurs, qui date aussi des années 1950, et que la Suisse n’a pas adoptée mais que d’autres pays continuent à explorer, dont la France avec son projet Astrid en voie de réalisation à Marcoule.

 

(3) http://www.lepoint.fr/monde/fukushima-5-ans-apres-l-effarant-bilan-11-03-2016-2024557_24.php

 

Poster un commentaire

Classé dans en français, Problématiques énergétiques, Suisse, Technologies

Internet coûte cher à la planète

ENERGIE

Surfer sur le web est une activité désormais anodine, mais pas sans conséquences sur la consommation électrique

par Vincent Bürgy

(Source : Le Courrier du 22 décembre 2015)

 

Les nouvelles technologies de l’information et de la communication (NTIC) seraient à l’origine, selon différentes études, de 5 à 10 % de la consommation mondiale d’électricité. Qu’il s’agisse de l’envoi d’un courriel, du visionnage d’une vidéo sur son smartphone ou de visites sur les réseaux sociaux, toutes ces activités appartenant désormais au quotidien ont un coût écologique. Une considération qui échappe le plus souvent aux internautes.

«Il y a une forme de conscience diffuse de ces problèmes. Le public a notamment une certaine idée de la dangerosité des appareils électroniques puisqu’ils conservent chez eux une bonne partie de leurs anciens téléphones portables ou ordinateurs, sans les jeter», observe Michelle Dobré. Sociologue auprès de l’Université de Caen Normandie (France), celle-ci a cosigné plusieurs ouvrages et articles où il est notamment question de l’impact environnemental des NTIC, dont le livre «La face cachée du numérique» paru en 2013.

 

En dépit de l’importance croissante du numérique depuis les années 1990, les thèmes de la consommation énergétique de ces technologies et du traitement des déchets électroniques demeurent pourtant absents de l’espace médiatique. Michelle Dobré déclare que cela ne découle pas à proprement parler d’une négation des consommateurs ou des acteurs du domaine, mais que la réponse est à chercher ailleurs. La sociologue enchaîne: «Il y a un mythe contemporain selon lequel nous allons être sauvés par ces technologies. Une promesse qu’elles vont réparer les dégâts de la dernière ère industrielle.» Oubliées les survivances de la révolution industrielle, les nouvelles technologies se profilent même comme la clé de voûte du développement durable.

Cette doxa serait une manière d’occulter l’impact véritable de ces technologies, relève la chercheuse. En effet, rien que pour la France, les NTIC représentent 14% de la consommation électrique, soit près de sept réacteurs nucléaires, et sont à l’origine de 5% des émissions annuelles de gaz à effet de serre, indique un rapport de l’Etat français. Cette étude estime que la part croissante d’électricité utilisée par ces technologies a pour effet «d’annuler totalement les gains énergétiques obtenus sur tous les autres équipements énergétiques domestiques sur la même période».

 

Ce phénomène, nommé «effet rebond», vient également remettre en cause les supposées vertus écologiques d’internet. L’une des pierres angulaires de ce réseau, les data centers, ou centres de données sont particulièrement dans le collimateur des chercheurs. Ces «fermes de serveurs» hébergent des centaines de téraoctets de données. Celles-ci sont stockées dans d’innombrables serveurs qui constituent la partie visible d’internet. Différents services de stockage immatériel des données, des systèmes de «cloud», reposent également sur les capacités de ces serveurs. Selon certaines estimations, mais sans que cela soit confirmé, une société comme Google possèderait à elle seule entre un et deux millions de serveurs.

Le développement rapide d’internet, notamment la consommation croissante de données via mobile, explique la croissance soutenue de ce secteur ces dernières années. Cela n’est pourtant pas sans conséquences. Aujourd’hui les fermes de serveurs représentent à elles seules 4 à 8% de la consommation électrique mondiale et génèrent 3 à 8% des gaz à effet de serre de la planète, soit autant que le trafic aérien, rapporte le quotidien «Le Parisien». Des données vertigineuses, mais controversées, qui poussent certains spécialistes à soutenir l’idée d’une limitation de la vitesse d’internet pour contenir sa consommation énergétique. La balle est désormais dans le camp des géants du web.

 

Poster un commentaire

Classé dans en français, Problématiques énergétiques

Lettre ouverte aux Amis de la Terre France Août 2014

Marie-Christine Gamberini
Août 2014

En octobre 2014, trente-trois réacteurs électronucléaires en France sur cinquante-huit auront 30 ans ou plus. Il y en avait vingt et un au début du mandat du président Hollande, et seulement deux au début du Grenelle de l’Environnement. Sans sursaut des écologistes antinucléaires, il risque d’y en avoir quarante-six dès novembre 2017.

Pour tâcher de s’extraire de l’impasse atomique et cesser de banaliser le désastre en cours au Japon, il faut un coup d’arrêt à la production anthropique massive de radioactivité.

Pour cela, il faut exiger enfin en France, de toute urgence et en attendant mieux, le remplacement transitoire des réacteurs nucléaires par des centrales thermiques à flamme. A gaz et même, si nécessaire, en partie au fioul et au charbon.

Ce n’est pas antagonique, bien au contraire, avec l’adaptation au changement climatique et la lutte contre son aggravation. Et c’est essentiel pour la préservation de la vie sur terre, ainsi que pour celle d’une démocratie en France.
Plus vite ça se fera, mieux ce sera. Y compris pour le climat. Il est de la responsabilité historique des Amis de la Terre de le dire, et de le faire comprendre autour d’eux.

Chers Amis de la Terre,

« Soit le nucléaire c’est dangereux, soit ce n’est pas dangereux. Si le nucléaire est dangereux, il faut fermer, il ne faut pas simplement fermer Fessenheim. »

Nicolas Sarkozy,
reprenant un argument habituel d’Anne Lauvergeon
lors du débat de la présidentielle 2012 avec François Hollande

En mars 2011, deux jours avant le début du désastre radioactif planétaire, évolutif et pérenne que l’on nomme ici “Fukushima” — tragiquement aggravé, ne l’oublions pas, par la présence de MOX français —, Fabrice Nicolino annonçait sur son blog la parution imminente de son livre Qui a tué l’écologie ?

Dans cet ouvrage, où le volet atomique était quasi absent (comme quoi il y avait déjà de quoi faire sans…), ce fin connaisseur du petit milieu de la défense de l’environnement s’en prenait frontalement aux grandes ONG écologistes que sont Greenpeace, le WWF, la fondation Hulot et la Fédération France Nature Environnement.

Les Amis de la Terre, eux, étaient relativement épargnés. Alors à juste titre, je pense. Si ma mémoire est bonne, Nicolino les avait qualifiés de “petite association digne”, ce qui, dans le contexte du naufrage prolongé que fut le Grenelle de l’Environnement, avait déjà l’immense mérite de ne pas être infamant.

1/13

Aujourd’hui, alors que les Amis de la Terre siègent dans un ronflant Conseil national de la transition écologique, et que deux ans de débats officiels sur “la” transition énergétique s’apprêtent, en matière de nucléaire et même d’écologie, à accoucher de leur prévisible souris souffreteuse, où en sommes-nous ?

Force est de constater que dans notre pays — le plus nucléarisé et le plus nucléarisant de la planète — le mouvement antinucléaire est en train de perdre.
Embourbé dans contradictions insurmontables, miné par des interprétations de plus en plus déconnectées du réel, unilatérales et parfois stupidement idéologiques du slogan “Ni nucléaire ni effet de serre”, qui avait pourtant pu sembler frappé au coin du bon sens. Des interprétations en tout cas étrangères au sens des proportions et aux véritables priorités autour desquelles il importerait de rassembler.

Ces contradictions, je ne désespère pas que vous déteniez encore les clés pour les lever, et surtout la volonté de le faire. L’héritage symbolique de longue date dont vous êtes dépositaires en matière d’écologie humaniste fait que des prises de position fermes et courageuses de votre part, tranchant avec la vulgate dominante, auraient un poids réel. Cet héritage, c’est celui des Amis de la Terre qui créèrent la première association écologiste non strictement scientifique en France, qui soutinrent en 1974 la campagne présidentielle de l’agronome René Dumont — première irruption dans le champ politique d’une écologie égalitaire et tiers-mondiste — et qui jugèrent bon de publier chez Stock en 1975 les 430 pages de L’escroquerie nucléaire, incluant les analyses d’André Gorz sur l’électrofascisme.

C’est aussi celui de ceux qui — pourtant peu suspects de climatoscepticisme — concluaient encore en 2002, dans le sous-chapitre intitulé “Le recours transitoire aux énergies fossiles” de La mort s’exporte bien (petit livre paru à l’occasion du 16e anniversaire de la catastrophe de Tchernobyl, sur le lobbying éhonté de l’Etat français pour faire financer, au titre de la coopération internationale, le maintien en activité et la construction de contrales nucléaires dans les pays de l’Est) :

« La combustion des énergies fossiles est une des causes principales de l’effet de serre ; les centrales thermiques au charbon sont responsables d’une grande partie de la pollution dans ces régions, notamment en République tchèque. L’utilisation de ces énergies est donc loin d’être idéale sur le plan environnemental. Cependant, il convient de noter que les techniques actuelles permettent de limiter les rejets de gaz et de particules dans l’atmosphère, tout en rendant le travail des mineurs moins dangereux. Mais surtout, la pollution et les risques engendrés sur la population et les travailleurs par une utilisation améliorée des énergies fossiles sont incomparables avec ceux nés de l’exploitation de centrales nucléaires […]. Si, dans un premier temps, en attendant le développement des énergies renouvelables, un choix doit être opéré entre le nucléaire et les énergies fossiles, l’hésitation n’a pas lieu d’être. »

S’il est un endroit où il devient désormais vital d’opérer et d’assumer ce choix, pour les sept milliards de terriens d’aujourd’hui et pour ceux à venir, sous peine de cautionner maintenant et plus tard les pires crimes contre l’humanité, c’est bien la France, qui exploite en ce moment à elle toute seule plus du cinquième des 380 réacteurs nucléaires en service effectif dans le monde (dont ceux de la Belgique et du Royaume-Uni) et où, dès octobre 2014, 33 réacteurs nucléaires sur 58 auront déjà atteint ou dépassé 30 ans.

2/13

Fin 2016, si aucun n’est mis à l’arrêt définitif, leur nombre passera à 42. Plus des 2/3 de la puissance du parc français. Un total provisoire de 41 400 MW, réparti dans treize de “nos” dix-neuf centrales atomiques — Fessenheim, Bugey, Dampierre, Gravelines, Tricastin, Saint-Laurent, Blayais, Chinon, Cruas, Paluel, Saint-Alban, Flamanville et Cattenom — en attendant Belleville et Nogent-sur-Seine dès 2017.

Non que les réacteurs neufs soient sans danger, bien sûr. Le 28 mars 1979, Three Mile Island 2 était en service depuis moins de trois mois. Quant au réacteur 4 de la centrale ukrainienne Lénine, il n’alignait que deux ans d’exploitation le 26 avril 1986. Mais enfin, nonobstant les prétendues “dépenses de jouvence” d’EDF, l’âge n’a jamais amélioré la fiabilité de la plomberie, de la mécanique et de l’électronique, ni la tenue du béton et des métaux.

Depuis mars 2011, les Amis de la Terre — au nombre des 68 organisations associatives ou politiques signataires de l’appel “Nucléaire, nous voulons avoir le choix” alors lancé par le Réseau Sortir du nucléaire — sont censés exiger en France la fermeture immédiate de tout réacteur de 30 ans ou plus. Or, au-delà des bruyantes proclamations affichées de vertu anti- atomique, le peu d’empressement, affligeant mais réel, de la plupart des signataires de cet appel quant à des fermetures effectives tient surtout à l’épineux problème du remplacement.

Car, à l’évidence, les économies d’énergie et les renouvelables (ou supposées telles, les matériaux pour capter le vent et le soleil n’étant pas tous inépuisables, et encore moins écologiques, et la biomasse risquant de perdre beaucoup de son charme une fois radioactive) ne suffisent pas pour compenser, dans les délais censément voulus, la déconnexion de ces nombreux réacteurs vieillissants.

Mais d’un autre côté, qui peut imaginer qu’une catastrophe nucléaire en France, dont la probabilité augmente de semaine en semaine, vaudrait mieux, y compris pour le climat, que le remplacement transitoire de ces réacteurs par quelques dizaines de centrales au gaz, voire même au charbon ou au fioul ? Où iraient les réfugiés climatiques si la plupart des terres émergées devenaient, en plus du reste, fortement radioactives ?

Or en ces temps de pensée unique et frileuse, les Amis de la Terre sont probablement les seuls, de toutes les associations françaises soucieuses d’écologie, à pouvoir assumer d’être les premiers à le dire, avec toute la pédagogie requise, sans se discréditer et avec une chance d’entraîner l’adhésion du plus grand nombre, qui cherche désespérément une issue. Si l’écologie qui aspire à être “représentative” dans les instances officielles peut servir à quelque chose, c’est bien à cela. Mais c’est maintenant où jamais.

En août 2012, jugeant que la limite de ma patience et de mes aptitudes au grand écart était atteinte, je vous avais rendu mon tablier de référente bénévole sur le nucléaire et l’énergie faute d’avoir pu obtenir que les Amis de la Terre France sortent enfin un orteil du rang en se décidant à poser, comme condition minimale à leur participation à la Conférence environnementale sur l’énergie lancée par le nouveau président Hollande, la mise à l’arrêt préalable et effective — à 35 ans, donc, plutôt qu’à 40 — des deux réacteurs de Fessenheim.

Eu égard à leur position officielle en faveur d’une fermeture immédiate de tout réacteur ayant atteint sa trentième année (et a fortiori des 20 sur 58 qui avaient alors déjà 31 ans ou

3/13

plus), une prudente exigence de simple respect — en gage de bonne foi, voire de crédibilité mutuelle — d’une promesse électorale ne portant que sur deux réacteurs des plus vétustes (et ce moins de 18 mois après le choc créé par la survenue du pire cataclysme de l’histoire de l’électronucléaire à ce jour, dans un pays réputé à la pointe de la technologie…) ne semblait pourtant pas déraisonnablement excessive.

A mon sens, seules EDF et la CGT Mines-Energie pouvaient la trouver trop radicale, craignant par-dessus tout un précédent qui, vu l’âge du parc, aurait galvanisé les militants du Bugey, du Tricastin, du Blayais et d’ailleurs, en créant des perspectives d’effet domino.

Bref. Les Amis de la Terre ont choisi de se contenter du simple “calendrier de fermeture” que Yannick Jadot et d’autres préconisaient de demander. Et donc de participer à cette fameuse Conférence environnementale sans conditions spécifiques. Pour voir.

On a vu. Du coup, la fermeture de Fessenheim est désormais tout sauf acquise. Et quand bien même elle finirait par intervenir en toute fin de mandat présidentiel, il faudrait — à ce rythme ébouriffant de deux réacteurs par quinquennat — pas moins de 140 ans pour fermer les 56 réacteurs restants. Sous réserve que nul EPR n’entre en service dans l’intervalle. Est- ce bien sérieux ?

A l’automne 2007, au début du Grenelle de l’Environnement, il n’y avait pourtant en France que deux réacteurs ayant atteint 30 ans. A l’époque, la participation des ATF à ce fatiditique Grenelle ne m’enthousiasmait certes guère, mais je pouvais à la rigueur admettre que la question des OGM justifiait peut-être d’écouter Greenpeace en ne jouant pas d’emblée la carte de l’absence. D’autant que tout était censé être bouclé en quelques mois…

Quitte à faire, au sein du front commun qu’était censé être l’Alliance pour la Planète, les ATF tentèrent donc, en matière énergétique, de proposer à leurs partenaires de défendre à tout le moins, pour avancer un peu ou ne pas trop reculer, la fermeture de 25 % du parc nucléaire au cours du quinquennat.

Cela n’avait rien d’extrémiste: ce rythme aurait juste maintenu, en attendant éventuellement mieux, la possibilité pratique d’une banale “sortie” progressive en 20 ans. Le préconiser ensemble aurait au moins porté le débat dans l’espace public. Du reste, une proposition similaire parut fin janvier 2009 dans Politis, dans le cadre d’un “Appel à diversification urgente du bouquet électrique français” lancé par des syndicalistes d’EDF. C’est dire. Mais il faut croire que c’était encore trop pour nombre des ONG censées défendre la nature et l’environnement. Le WWF mit son veto. Tant pis pour les pandas de Chine, seul pays où se construisaient alors encore vraiment des réacteurs.

Le consensus se fit, comme d’habitude, pour un simple moratoire sur la construction de nouveaux réacteurs sans demander la fermeture des anciens, ce qui revenait comme toujours à avaliser la prolongation ad vitam aeternam du parc existant.

Comme le répétaient depuis longtemps les membres du comité Stop Nogent : « Une sortie différée de l’impasse nucléaire permet d’escamoter le danger nucléaire car les “anti” et les “pro” nucléaires se trouvent d’accord pour ne proposer aucune action immédiate contre ce danger […]. Les scénarios de sortie différée viennent en appoint de cette stratégie de non-action et permettent au mouvement écologiste de garder une face antinucléaire qui cependant justifie la continuation du programme nucléaire. »

4/13

Ainsi, rappelons-nous 2003. Pour enjoliver ses bilans avant privatisation partielle d’EDF, François Roussely passa brusquement de 30 à 40 ans la durée d’amortissement des réacteurs. Alors même que le supposé “gendarme” du nucléaire n’avait encore jamais eu à se prononcer techniquement sur la moindre prolongation de réacteur au-delà de 30 ans, Fessenheim n’ayant alors “que” 26 ans. Scandale et indignation ! Et pourtant.

Nombre d’antinucléaires patentés (Greenpeace, la commission énergie des Verts, une partie du Réseau Sortir du nucléaire…) avaient déjà en pratique, quoique sans le crier sur les toits populaires, donné depuis un moment leur aval implicite aux 40 ans.

Ils l’avaient fait, entre autres, dans leurs argumentaires anti-EPR (assurant que de nouveaux réacteurs étaient “inutiles”, la durée d’exploitation des autres pouvant être prolongée sans problème, arguant même du fallacieux exemple des Etats-Unis…) ou encore en présentant la loi de sortie du nucléaire de 2003 de la Belgique comme un modèle pour la France, alors que cette loi prévoyait de ne fermer les réacteurs qu’à 40 ans révolus, et à condition que des capacités de remplacement suffisantes aient été construites dans l’intervalle…

Aujourd’hui, rebelote avec entre autres la récente campagne « Stop au rafistolage » du Réseau Sortir du nucléaire. Celle-ci, sans jamais vraiment plaider pour la fermeture immédiate des réacteurs de plus de 30 ans, feint maintenant de s’offusquer de la volonté d’EDF de les faire fonctionner jusqu’à 50 ans, voire 60.

Mais pourquoi EDF se gênerait-il quand, il y a trois ans, quantité d’antinucléaires français désireux de “positiver” félicitaient la Suisse d’avoir « tiré les leçons de Fukushima » en “décidant” de sortir du nucléaire par fermeture de son dernier réacteur en 2034… quand il aurait donc 50 ans ? Sans compter que le Conseil fédéral suisse avait déjà “décidé” dès 1998 de sortir du nucléaire en 2025, ce qui supposait déjà de prolonger la vie de ses 5 réacteurs jusqu’à 40 ans bien tassés.

Il faut sortir de ce double langage qui, à force d’attendre que la solution vienne par miracle de l’étranger au lieu de balayer devant sa porte, entérine sans cesse le fait accompli. Sinon, EDF en sera dans 20 ans à réclamer — et obtiendra — des prolongations d’exploitation jusqu’à 70 ans pour ceux de ses réacteurs qui n’auront pas encore fondu, tandis qu’un énième avatar du Réseau Sortir du nucléaire s’indignera sur cartes postales multicolores et appels à dons que l’électricien national envisage de ne fermer ses réacteurs qu’à 80 ou 90 ans.

Peut-être convient-il de rappeler à ce stade que les réacteurs nucléaires ne “brûlent” pas de la radioactivité mais en fabriquent massivement ? A raison, entre autres, de plusieurs kilos de plutonium par jour — de quoi faire une bombe A ? Et que la vie n’a pu se développer sur terre que quand les éléments les plus irradiants ou les plus radiotoxiques avaient suffisamment décru ?

L’année d’ouverture du Grenelle justement, Robert Dautray (orfèvre en la matière, puisqu’il fit sa carrière à la Direction des applications militaires du CEA), venait d’expliquer dans un rapport à l’Académie des Sciences intitulé “Sécurité et utilisation hostile du nucléaire civil. De la physique à la biologie” que : « Produire de l’énergie nucléaire de fission […] c’est multiplier la radioactivité de l’uranium qu’on a extrait du sol par un facteur de l’ordre de 2.105 pour produire l’électricité des Français […] c’est remplacer des corps radioactifs à vie longue et faible radioactivité par des corps radioactifs à vie courte et à très forte radioactivité, vus à l’échelle humaine. » Bigre.

5/13

Mais l’occasion de 2007 fut perdue : elle ne reviendra pas. Et dès novembre 2017, on risque d’arriver à la bagatelle de 46 réacteurs sur 58 ayant atteint ou dépassé 30 ans. 44 si Fessenheim ferme d’ici là (plus peut-être un EPR). Nous sommes entre-temps censés avoir changé de président de la République… ou plutôt, nous sommes censés avoir gardé le même, puisqu’il nous concocte des programmes à l’horizon 2025.

Alors ? Doit-on en déduire qu’il est trop tard pour exiger l’arrêt immédiat des réacteurs de plus de 30 ans ? Qu’il n’y a plus qu’à se résigner à attendre qu’ils aient tous au moins 40 ans pour les arrêter, histoire d’échelonner les fermetures (ou de gagner du temps avant de s’apercevoir avec candeur que cela ne fait que repousser le problème et le rendre encore plus insoluble) ?

La seule option rationnelle est-elle de préconiser mollement — comme les scénarios négaWatt depuis 10 ans, les Verts depuis 1993, Denis Baupin encore en 2013 pour EELV, ou bien Attac il y a quelques années — une “sortie” du nucléaire en France en 20 ans ? A l’exclusion horrifiée de toute échéance plus rapide, sous prétexte de climaticide en cas de construction en France de la moindre centrale thermique à flamme d’une puissance suffisante pour remplacer réellement un ou deux réacteurs ?

Faut-il carrément plaider — comme le récent livre La transition énergétique, une énergie moins chère, un million d’emplois créés, de l’économiste Philippe Murer, qui compte désormais peaufiner ce scénario au Front national — pour une “sortie” du nucléaire en 40 ans (délai aussi suggéré en 2011 par Corinne Lepage — mais où diable seront tous ces gens dans quarante ans ?) en consacrant, pour sauver le climat et la croissance, les vingt premières années à une hypothétique sortie des fossiles grâce au vieux serpent de mer de l’électrification massive ?

En réalité, c’est tout le contraire. En matière de “sortie” du nucléaire (et même d’économies d’énergie, et de pas mal d’autres choses…), le dogme de la progressivité (supposée écologiste parce que “douce” et censée dispenser de tout recours aux fossiles) est depuis vingt ans une escroquerie politicienne, qui ne sert qu’à déguiser des reculades en avancées tout en contribuant, par son encouragement de fait au maintien du statu quo, à aggraver le changement climatique dont elle prétend faire sa priorité.

Mais examinons un peu ce qui a conduit le mouvement antinucléaire dans l’impasse actuelle, où il fait mine de réclamer des mesures qu’il refuse les moyens d’appliquer.

En 1964, pour mémoire, la “durée de vie” envisagée par la commission PEON pour ses futurs nouveaux réacteurs nucléo-électriques se situait dans une fourchette de 15 à 30 ans, avec une durée de 20 ans privilégiée dans les calculs (soit 10 ans de moins que pour les centrales à fioul de référence). Autrement dit, les réacteurs n’ont jamais été “prévus pour durer 30 ans” : il était juste escompté qu’ils tiennent 30 ans au mieux, un parc de centrales tout neuf étant censé les remplacer dans l’intervalle. En 1977 encore, dans ses hypothèses réactualisées de disponibilité des réacteurs, la même commission tablait sur «un fonctionnement en base sur 21 ans ».

Et de fait, en 1993, les premiers scénarios techniques de sortie du nucléaire élaborés par l’INESTENE — à ne pas confondre avec les scénarios Alters de non-entrée des années 70, d’autant moins directement transposables au niveau national que les consommations

6/13

électriques ont grimpé en flèche depuis, pour cause entre autres de chauffage électrique — reposaient sur des durées d’exploitation des réacteurs d’une vingtaine d’années, aboutissant à fermer vers 2010 le dernier de ceux alors en service. Vingt ans était d’ailleurs l’âge moyen de la dizaine de réacteurs déjà à l’arrêt définitif en France.

Rappelons qu’à l’époque, les Verts, pour cause de nouvelle stratégie d’alliance avec le PS, venaient d’abjurer leur programme initial d’arrêt du nucléaire en un septennat, se bornant dès lors à réclamer une “décision” de sortie.

Indépendamment des considérations strictement politiciennes, l’enlisement qui résulta de ces scénarios de sortie en 15, puis 20, puis 25 ans, au démarrage sans cesse repoussé, reposait sur plusieurs erreurs d’analyse. Une sympathique bande dessinée coéditée en 1994 par l’INESTENE, les Verts au Parlement européen, les Verts Nord-Pas-de-Calais, le mensuel Silence et Greenpeace France en fournit quelques illustrations.

Dès la préface, Hélène Crié assure que « la nouvelle vague antinucléaire joue finement : elle ne réclame plus l’arrêt immédiat des centrales en activité, se contentant d’exiger une sécurité accrue, mais parie sur l’immense gisement d’économies d’électricité qui reste à exploiter ».

La conviction dominante chez les néo-écologistes était en effet qu’il suffisait de bien surveiller les centrales atomiques pour que la sécurité soit garantie, en attendant qu’elles finiraient par s’éteindre automatiquement, une fois un genre de date de péremption atteinte. La disparition sans heurts du parc ne dépendait donc, censément, que du refus de nouvelles constructions. Pour le reste, on pouvait s’occuper tranquillement d’autre chose…

Le refus irrationnel de prise en compte de la possibilité d’une vraie catastrophe en France et une méconnaissance des réalités biologiques et physiques de la radioactivité permettaient en outre de faire passer la chose pour un renoncement écologique au “gaspillage” (ne pas fermer des installations presque neuves…).

La commode justification à l’inaction qu’assurait cette croyance entraîna sa solidification en dogme à mesure que la date limite reculait à 25, 30, puis 40 ans (âge du réacteur 1 de Fukushima Daiichi, le premier à lâcher, dont la durée d’exploitation avait été prolongée à 50 ans quelques semaines avant le séisme). Et ainsi de suite.

Le récit de la bande dessinée brodait quant à lui sur l’idée d’un accident à Fessenheim, qui se terminait d’autant mieux que le “nuage” était aspiré vers le haut sans gros dégâts par la vallée du Rhône, que le réacteur devenait inutilisable, et que le président de la République décidait, au grand désespoir d’EDF, de sortir du nucléaire, considérant désormais cette technologie trop dangereuse, ce qui donnait aux Verts l’occasion d’exercer leurs talents en matière de solutions de remplacement.

Car, autre erreur d’analyse, les milieux écologistes se cramponnent depuis longtemps à l’espoir délirant d’une catastrophe en définitive heureuse, permettant comme par magie le dénouement bienvenu d’une situation autrement bloquée. D’où les sempiternels : « De toute façon, on ne pourra rien faire tant qu’il n’y aura pas une catastrophe en France » ou (défense de rire…) : « Ce n’est pas aux antinucléaires de proposer des scénarios de sortie immédiate, en cas de catastrophe, EDF en a forcément un dans ses tiroirs. »

7/13

Pourtant l’Ukraine, où sévissent encore 15 réacteurs (dont neuf connectés au réseau après Tchernobyl — deux en décembre 1986, même), n’est pas sortie du nucléaire après la catastrophe. La stabilisation de la situation en dix jours, au prix du sacrifice de milliers de premiers liquidateurs soviétiques, a même permis aux trois réacteurs les plus anciens de continuer à fonctionner. Ils ne furent mis à l’arrêt, sous la pression très intéressée des Occidentaux, qu’en 1991, 1996 et 2000 respectivement. D’ailleurs, est-ce un hasard si l’Ukraine et le Belarus ont basculé dans des formes de dictature ?

Et puis, s’il est un pays où il est désormais exclu de fermer tous les réacteurs en cas de désastre, c’est bien la France, seul Etat, parmi la petite trentaine qui recourent à l’électronucléaire, à en dépendre à 75 % pour sa consommation électrique, devant la Belgique (52 % en 2013), l’Ukraine (43,5 %), la Suisse à 36,5 %, (le Japon, c’était moins de 30 %), et bien sûr loin devant les USA (19,5 %), la Russie (17,5 %) et la Chine (2 %). Encore une “exception française”.

Dans leur préface de novembre 2001 à la troisième édition de leur livre Sortir du nucléaire c’est possible, avant la catastrophe, les physiciens nucléaires Bella et Roger Belbéoch (qui, affolés par les conséquences sanitaires, génétiques et politiques de Tchernobyl, préconisaient depuis 1986 un arrêt immédiat de l’électronucléaire en France, alors techniquement possible sans black-out ni rationnements par simple remise en service temporaire des centrales à charbon existantes, en attendant la construction d’autres capacités de production moins polluantes) — écrivaient ainsi avec inquiétude :

« … il se pourrait qu’une analyse précise des données actuelles sur cette possibilité de sortie rapide qui concluait notre texte de 1998 aboutisse aujourd’hui à une conclusion un peu moins optimiste. Depuis 1996 […] EDF, pour garantir la pérennité de ses installations nucléaires, organise la mise sous cocon des centrales existantes à charbon et à fioul […]. Si cette évolution devait se poursuivre vers l’extinction du parc thermique classique, la sortie rapide du nucléaire serait difficile. Le mouvement antinucléaire, avec son tabou sur les combustibles fossiles, aurait alors une part de responsabilité non négligeable en cas d’accident grave. »

Trois fusions de réacteurs plus tard, et alors que la France commence même à importer du gaz de schiste américain, il serait aisé de démontrer que, contrairement aux apparences, la consommation d’électricité au charbon de la France n’a pas du tout baissé depuis. Bien au contraire. Elle s’est juste délocalisée en Chine, dans des conditions humaines et environnementales dont la patrie des droits de l’homme n’a vraiment pas de quoi être fière, pendant que l’Hexagone fait mine d’être vertueux en émissions de CO2 “grâce” à ses centrales nucléaires. Oui, décidément, la responsabilité des associations et partis antinucléaires français serait écrasante en cas d’accident majeur ici…

La catastrophe à laquelle pensaient les Belbéoch était bien sûr un Tchernobyl en France. Toute leur action visait à l’éviter, car ils pensaient qu’ensuite, il n’y aurait plus grand-chose à faire. Mais d’une certaine manière, on pourrait aussi considérer qu’elle a en fait déjà eu lieu en mars 2011, même si elle semble se cantonner au Japon et dans une moindre mesure à la côte ouest de l’Amérique du Nord. Parce qu’elle est loin d’être finie (aucune stabilisation réelle 41 mois plus tard), que même les plus pessimistes n’avaient jamais envisagé son ampleur, que, par les airs ou par les eaux, les énormes quantités de radioactivité en jeu se retrouveront fatalement tôt ou tard dans toute la biosphère. Et parce que l’Etat français est mouillé dedans jusqu’au cou.

8/13

Cependant, vu la sereine rapidité avec laquelle beaucoup d’écologistes et d’énergéticiens français ont métabolisé Fukushima et ses contaminations colossales sans y voir autre chose qu’un épiphénomène malheureux, prouvant juste la justesse de leurs analyses, sans mériter qu’ils bousculent trop leurs programmes et priorités, il est clair que ce n’est pas un risible petit nuage radioactif aspiré par la vallée du Rhône, et quelques barres de cœur de réacteur un peu fondues, qui risqueraient en l’état actuel de beaucoup embarrasser EDF ou un quelconque gouvernement, comparé à la menace d’un black-out électrique.

Il faut regarder les choses en face : désormais, la probabilité devient forte que le prochain accident grave, qui pourrait bien, statistiquement, arriver en France, soit moins grave et encore moins spectaculaire que Fukushima… et vire donc au non-événement médiatique.

Or, ce n’est pas quand il y aura partout des becquerels d’américium, de strontium, et des millisieverts de césium 137 qu’il sera temps de se lamenter que les seuils légalement “admissibles” de radioactivité dans les aliments, les matériaux de construction, les voitures et les produits de consommation fassent des bonds. Pire: cette banalisation des contaminations massives est en train de lever peu à peu le tabou qui pesait encore, bon an mal an, sur l’usage militaire effectif d’armes atomiques et radiologiques. Somme toute, à ce stade, quelques terabecquerels de plus d’émetteurs alpha peuvent presque passer inaperçus.

Mais revenons à notre BD de 1994, qui n’avait pas que des défauts. Une annexe technique illustrée présente « 20 technologies pour changer l’énergie », dans un réel souci de diversification des sources d’électricité et d’économies. Bien qu’aucun ordre de grandeur ne soit donné, gaz, fioul et charbon y tiennent encore une bonne place, dissimulés toutefois derrière des termes ésotériques, plus écologiquement vendeurs, comme “cycles combinés au gaz”, “cogénération tertiaire”…

Quant aux énergies renouvelables — signalons, les unités étant traîtresses, qu’il faut environ 3 MW d’éolien industriel pour produire ce que fournit 1 MW de nucléaire ou de n’importe quelle centrale thermique à flamme —, un personnage ressemblant furieusement à Alain Lipietz explique dans une bulle qu’elles « entrent en scène peu à peu mais à partir de 2010 ». Donc après la fermeture du parc nucléaire.

Vingt ans après, à force de refuser d’appeler un chat un chat ; de clamer que oui, on peut sortir du nucléaire, il suffit d’adhérer à Enercoop ; de communier dans la foi en l’efficacité magique des “réseaux intelligents” et de matraquer que le CO2 c’est le diable, la plupart des néophytes sont hélas désormais sincèrement persuadés que les seuls moyens écologiques de sortir du nucléaire sont la sobriété et l’efficacité énergétiques combinées aux énergies “renouvelables”, que celles-ci suffisent bien à la tâche, et qu’autrement, le remède serait pire que le mal.

Pourtant, non seulement l’essor des renouvelables n’a jamais constitué une garantie de sortie du nucléaire, mais cela fait plus d’un demi-siècle que tous les gouvernants de pays nucléarisés les considèrent au contraire comme complémentaires de l’atome.
Et de fait, loin de s’opposer, les deux permettent, avec leur promesse d’énergie potentiellement illimitée, d’entretenir sous deux formes différentes (yin yang ; Starsky et Hutch…) ce même imaginaire de croissance et de progrès continu sur lequel repose la bonne conscience néocoloniale de nos sociétés du spectacle de l’abondance — ce mythe que l’on peut éradiquer la faim, la misère, voire la maladie et l’inconfort, et même l’obscurantisme, en faisant croître le gâteau et en perfectionnant sans cesse sa recette, plutôt qu’en partageant tout de suite équitablement ce qu’on a et en acceptant sa finitude.

9/13

Qui sait que le titre de la conférence désormais célèbre que Marion King Hubbert prononça en 1956 devant un aréopage de pétroliers n’était autre que Nuclear Energy and the Fossil Fuels ?
Non content de prédire le pic pétrolier états-unien du milieu des années 70, Hubbert en tirait en effet des conclusions pratiques : l’énergie nucléaire — seule source théoriquement à même de fournir, dans un volume pas trop encombrant, les quantités d’énergie illimitées nécessaires à la poursuite du développement de la civilisation moderne — devrait alors être prête à commencer à prendre la relève. La création de l’AIEA et le Price Anderson Act, en 1957, suggèrent que Hubbert fut d’emblée entendu. Quant aux renouvelables, faute de pouvoir livrer rapidement les quantités colossales d’énergie et d’électricité requises, elles étaient appelées à remplacer peu à peu les fossiles, en complément. D’abord pour des raisons d’indépendance énergétique et d’épuisement annoncé des fossiles, puis officiellement pour préserver le climat.

Des logiques et préoccupations analogues sous-tendaient encore le long avis sur « Les problèmes de l’énergie en France à moyen et long terme » adopté le 3 juillet 1974 par le Conseil économique et social — devenu depuis “environnemental” en prime. Il plaidait entre autres pour une multiplication à court terme des centrales nucléaires et la généralisation du chauffage électrique, sans négliger pour autant les multiples autres pistes technoscientifiques de diversification énergétique, hydrogène compris, autour desquelles on tourne en rond depuis quelques décennies ni même écarter, de surcroît, “l’éventualité d’un rationnement généralisé” auquel il convenait selon lui de préparer les Français.

En réalité, comme l’écrivaient encore les Belbéoch avec des accents très “décroissants” auxquels les Amis de la Terre devraient être sensibles :

« Les fantasmes sur les énergies alternatives, non dangereuses et non polluantes sont finalement un frein à la réflexion à mener sur les réels problèmes énergétiques de notre société. Ce sont des antidotes puissants contre l’utopie d’une société réellement vivable. Il y a là une conjonction assez paradoxale entre l’idéologie technico-bureaucratique fondée sur le mythe scientiste et l’idéologie écologiste qui se fonde sur les mêmes fantasmes que l’idéologie qu’elle est censée combattre ou qu’elle croit combattre. Délirer sur les capacités de production électrique des éoliennes ou des tuiles photovoltaïques ne permettra certainement pas une prise de conscience des réels problèmes énergétiques de la société. Cela laisse entendre qu’il serait possible de supprimer ces pollueurs — charbon, fioul, nucléaire — sans modifier notre façon de vivre, que ce soit dans la quotidienneté ou dans l’activité industrielle.

Il est pénible de voir qu’on tente de culpabiliser les consommateurs : remplacez vos lampes d’éclairage, remplacez vos machines à laver le linge ou la vaisselle, vos réfrigérateurs encore en état de marche par des équipements plus performants consommant moins de courant (mais dont la durée de vie est moindre, ce qu’on évite de dire) et EDF sera coincée. Cela revient à faire porter au simple consommateur la responsabilité de l’impasse nucléaire et, en fin de compte, de ses conséquences et à innocenter la technocratie nucléaire. »

Il ne s’agit pas de nier la part de responsabilité de chacun d’entre nous, mais d’éviter de la détourner des vrais problèmes. Depuis le moment où ces lignes ont été écrites, le pic annuel de puissance électrique appelée en France (qui était de 17,5 GWe en 1965 et 60 GWe en 1985) est passé de 72,5 GWe, en l’an 2000, à 93,1 GWe en 2010, puis carrément à 102 GWe en 2012. Tout ce qui a pu réussir à se construire en matière de solaire et d’éolien

10/13

n’aura servi qu’à éponger l’hémorragie, et il en ira de même tant qu’on ne fermera pas d’abord et délibérément les réacteurs, sans attendre qu’ils s’arrêtent “tout seuls”.

Les argumentaires en termes de simple rationalité énergétique ou de grands projets inutiles et imposés sont d’autant plus trompeurs que le nucléaire sous toutes ses formes est tout sauf “inutile” à l’Etat, voire au peuple français, qui lui doit entre autres son siège de membre permanent au Conseil de sécurité de l’ONU.

Il s’ensuit bien sûr que le dossier nucléaire est éminemment politique. Pas parce qu’il faudrait (variante fréquente: “suffirait”…) que des “politiques” prennent la bonne “décision”, mais parce qu’y toucher suppose une révision complète des fondamentaux de la politique étrangère et intérieure de la France (et de la totalité de ses formations politiques) depuis au moins la fin de la Deuxième Guerre mondiale.

Ou bien on a vraiment une autre vision du monde, d’autres modalités de coopération, d’échanges et d’alliances entre Etats, et il faut à tout prix tenter de la porter, ou bien ce n’est pas la peine de faire semblant : rien de tout cela ne peut se changer à la marge, sans réorientations drastiques qui supposent qu’un maximum de monde ait les moyens de s’emparer du problème, sur la base de valeurs claires et d’analyses sérieuses et nuancées, et non d’un catéchisme simpliste et de slogans publicitaires.

Reprenons. L’électronucléaire représente moins de 2% de l’énergie commerciale consommée sur la planète, et moins de 10 % de l’électricité, alors que les fossiles en représentent toujours plus de 80 % et que leur consommation croît en valeur absolue.

Même en remplaçant temporairement tous les réacteurs du monde par les plus rudimentaires des centrales à charbon ou au gaz ,cela ne changerait pas fondamentalement la donne en matière de climat. Les solutions, si elles existent encore, résident ailleurs (fin du culte de la mobilité, fut-elle militante, retour massif à une agriculture paysanne peu mécanisée…) Et, non, il n’est pas vrai que si l’on construit de nouvelles centrales au gaz on en prend forcément pour 60 ans : l’incitation aux économies d’énergie peut être d’autant plus forte que, contrairement à une centrale nucléaire, c’est le combustible qui coûte cher.

En revanche, l’industrie atomique, elle, encourage la fuite en avant énergivore, et menace en outre de rendre l’essentiel de la planète inhabitable bien avant la fin du siècle. Les irréversibilités sont déjà lourdes, et l’océan Pacifique n’avait vraiment pas besoin de ça. En la matière, seul l’arrêt des machines atomiques à produire de l’électricité en continu peut amener la “croissance négative” des consommations d’énergie et une plus grande égalité entre humains.

Les réacteurs sont répartis dans 31 pays, sur les 191 que comptent les Nations unies. Et avant mars 2011, les trois quarts de leur production électrique se concentraient, dans seulement 6 Etats (USA, France, Japon, Russie, Allemagne, Corée du Sud) qui font peser, comme l’a montré Fukushima, une incommensurable menace sur leurs propres populations, mais aussi sur tous les autres habitants de la planète. Cela doit cesser.

Le nucléaire ne remplacera jamais les fossiles. Et il n’y a pas de “renaissance” du nucléaire, au sens où le nombre de réacteur ne va cesser de diminuer. Ce serait toutefois une grave erreur de laisser croire que le secteur est moribond pour autant.

11/13

Un réacteur à l’arrêt continue de coûter de l’argent à son exploitant (ne serait-ce que l’électricité pour refroidir le combustible…) mais en cas de catastrophe, les frais sont socialisés. On peut alors relancer et moderniser l’activité en fabriquant des robots, des dosimètres… voire en se réclamant d’une toute nouvelle “expertise” en matière de catastrophe, comme le font les Japonais qui tentent de vendre des réacteurs aux Vietnamiens. Par ailleurs, à l’instar du lucratif marché de “l’assainissement” de l’eau, le marché du matériel de détection, de protection, de décontamination est une manne potentielle sans fin. La radioactivité produite est avec nous pour des centaines de millénaires (240 000 ans rien que pour le plutonium 139) et, plus l’on traîne à s’emparer du sujet, moins nous aurons notre mot à dire.

Car l’absence de “renaissance” du nucléaire ne nous protège nullement de la radioactivité existante, ni de nouvelles catastrophes. Et le règne du “mensonge 137”, qui accuse tous les malades de “radiophobie” et fustige les “démoralisateurs”, est peut-être au fond désormais le pire des périls qui nous guette.

Les incohérences et atermoiements du mouvement antinucléaire rendent les véritables enjeux et priorités illisibles pour le commun des mortels. Pourquoi s’inquiéter assez pour se mobiliser en vue de fermetures de réacteurs quand les supposés contre-experts, les écologistes, disent qu’il n’y a pas urgence, voire impossibilité pour l’heure de convaincre les “décideurs” ? Quand tout, dans leur attitude, suggère que ça attendra bien l’élection suivante et témoigne d’autres priorités ? Pourquoi se fatiguer à tenter d’arracher de simples “décisions” qui ont peu de chances d’être appliquées ?

Ces atermoiements et leurs cortèges de banalisations nous livrent aussi pieds et poings liés aux diktats de la nucléocratie, notamment française, en matière de santé publique. Comme le soulignait en 2001 Solange Fernex, au nom de la Ligue des Femmes pour la Paix et la Liberté, à la 3e Conférence sur les conséquences pour la santé de l’accident de Tchernobyl qui s’est tenue à Kiev, le Comité scientifique de l’ONU sur les conséquences des émissions radioactives ne retient que les études “validées par les pairs”, c’est-à-dire… par les experts du laboratoire de Los Alamos et du Commissariat à l’Energie atomique français.

L’année de la mise en service de Fessenheim, alors que la France n’était pas encore massivement électronucléarisée, mais que nous vivions déjà dans une civilisation irrémédiablement fondée sur la boulimie d’énergie, René Dumont écrivait, dans Seule une écologie socialiste :

« Quand je fus candidat aux élections présidentielles de 1974, l’un de mes leitmotive était : “Il faut diminuer la consommation du tiers le plus riche de la population française.” Ce qui ne se limite pas à réduire les profits du capitalisme, des monopoles, des grandes sociétés […]. Le parti communiste français “lutte contre l’austérité”, mais refuse toujours de reconnaître que le niveau de vie actuel provient en bonne partie du pillage du tiers monde. La politique “d’union de la gauche et du peuple de France” du P.C.F. cherche à coaliser le maximum de mécontents contre, finalement, une très petite minorité de privilégiés […]. Pour ma part, j’estime qu’il faut attaquer tous les privilèges, et diminuer toutes les consommations somptuaires, qui gaspillent les ressources rares de la planète et insultent à la misère des plus démunis ; lesquels sont incités aussi, par imitation, à gaspiller. […] La gauche refuse de reconnaître l’importance du pillage du tiers monde, refuse de reconnaître qu’il faut envisager une reconversion industrielle très importante de la France. Il est indispensable de réduire les exportations de produits fabriqués de notre

12/13

pays vers les pays du tiers monde ; et, en tout premier lieu, cesser de leur vendre des armes. »

On pourrait rajouter aujourd’hui la vente de technologies nucléaires. Mais pourquoi les autres n’en voudraient-ils pas — ou plus — si nous, nous n’arrêtons pas ? Pourquoi la Suisse, les Pays-Bas ou d’autres voisins renonceraient-ils à leurs quelques vieux réacteurs qui nous menacent aussi, mais qui leur garantissent une place dans le club atomique, si les Français ne manifestent pas clairement leur volonté de fermer les leurs et ne s’en donnent pas les moyens ?

En 1984, dans une interview à L’Evénement du Jeudi, Marcel Boiteux, alors à la tête d’EDF, expliquait que si la France, contrairement aux autres pays, n’avait pas réduit ses constructions de centrales nucléaires, c’était que « chez nous le nucléaire est bon marché, alors que dans les pays qui n’ont pas pu pour des raisons diverses résister aux attaques de la contestation, le nucléaire est devenu très cher ».

Trente ans plus tard, ceux qui se prétendent antinucléaires devraient méditer la leçon.

L’hypocrisie n’est plus de mise et il n’est plus temps de tergiverser. Ni nucléaire ni effet de serre peut être un beau slogan, mais si l’on veut vraiment l’appliquer, il est vital de sortir du simplisme pour articuler intelligemment et courageusement ce qu’il sous-tend.

Il est légitime, nécessaire, de se battre contre les subventions aux fossiles et contre l’extraction polluante ou énergivore des hydrocarbures de schiste. Mais que je sache, les Amis de la Terre Nigeria ne réclament pas la fin de l’extraction des hydrocarbures chez eux. Il ne s’agit pas de s’interdire d’utiliser le moindre gramme de fossiles, mais de peser soigneusement à quoi on les emploie. Difficile désormais d’imaginer en France emploi plus judicieux, et plus prioritaire, que l’arrêt du nucléaire.

Marie-Christine Gamberini

Adhérente des Amis de la Terre en Midi-Pyrénées de 1993 à 2012 Référente des AT France sur le nucléaire en 2006 Référente sur le nucléaire et l’énergie et membre du Conseil fédéral des AT de 2007 à 2012

Signataire 2012 de l’Appel des Femmes pour l’Arrêt immédiat du recours à l’énergie atomique

13/13

3 Commentaires

Classé dans Actions et Politiques, en français, Problématiques énergétiques

Uranium appauvri: un tueur méconnu

Uranium appauvri: un tueur méconnu
Dernière mise à jour : octobre 2013

Nous reproduisons ci-après un article emprunté au Réseau Sortir du nucléaire (France) http://www.sortirdunucleaire.org/. Il convient toutefois d’y remplacer les termes « légal »et « illégal »par « licite » et « illicite ».

Depuis quelques décennies, plusieurs pays ont recours aux armes à l’uranium appauvri (UA). Très chimiotoxique, ce sont aussi de puissantes armes radiologiques. Malgré les dangers qu’elles représentent, leur utilisation est encore légale. Revenons sur les dangers et les impacts de ces armes terribles.

Uranium appauvri : un tueur méconnu
Les armes à l’uranium appauvri, c’est quoi ?

L’uranium appauvri (isotope U238, abréviation « UA ») est un sous-produit de l’enrichissement de l’uranium et du traitement du combustible usé. Il ne possède pas les propriétés nécessaires pour être utilisé dans un réacteur mais cela ne le rend pas moins dangereux, bien au contraire. Cette substance est très toxique. Par ailleurs, de tous les éléments radioactifs, l’uranium appauvri est celui qui reste radioactif le plus longtemps, avec une demi-vie de 4,47 milliards d’années.

L’uranium appauvri est utilisé dans l’armement pour ses propriétés physiques. Étant un métal lourd, il est d’une efficacité redoutable pour transpercer les parois des chars blindés et des tanks. Il est tellement dur qu’il ne se déforme pas lorsqu’il entre en contact avec sa cible. On peut comparer cette pénétration à celle d’un caillou dans l’eau.

Au contact de sa cible, l’uranium s’enflamme, relâchant en grande quantité de minuscules particules radioactives. Transportées par le vent, ces particules peuvent se retrouver dans l’eau, le sol, les nappes phréatiques… contaminant tout l’environnement.

L’usage de l’uranium appauvri vient une nouvelle fois contrecarrer le mythe d’une frontière imperméable entre le nucléaire militaire et le nucléaire civil. En effet, l’uranium appauvri utilisé pour la fabrication d’obus-flèches provient de la filière civile, et notamment des étapes d’enrichissement et retraitement du combustible. L’armement est un débouché bien utile pour se débarrasser de cette matière encombrante !

L’UA équipe aujourd’hui les chars Leclerc. En France, deux sites militaires accueillent les essais d’obus à l’uranium appauvri : à Bourges (Cher,) les essais se font en plein air, tandis qu’ à Gramat (Lot), les tirs d’obus ont lieu dans des cavités souterraines . La Direction Générale de l’Armement assure qu’il n’y a aucun risque de contamination de l’air et des nappes phréatiques mais le secret défense entourant ces essais ne permet pas d’en être certain.

Où ces armes ont-elles été utilisées et quand ?
Ces armes ont d’ores et déjà fait beaucoup de victimes sur la planète, ayant été utilisées dans de nombreux conflits. En Ex-Yougoslavie (Bosnie, Serbie, Kosovo), pendant le conflit qui a entraîné une intervention des forces de l’OTAN. En Irak, pendant la Guerre du Golfe de 1991 et pendant l’intervention américaine de 2003 justifiée par la prétendue présence d’ « armes de destruction massive ». On soupçonne aussi les États-Unis d’avoir utilisé des armes à l’uranium appauvri en Afghanistan.

De plus, il y a de fortes suspicions d’utilisation d’UA pendant la guerre du Liban par l’armée israélienne. On estime que 140 000 kg d’uranium appauvri auraient été utilisés dans ces conflits avant 2004.

Quels sont les impacts des armes à l’uranium appauvri ?
Les propriétés chimiques et radiologiques de l’uranium appauvri ont des impacts désastreux sur l’environnement et les êtres humains. La contamination à l’uranium appauvri se fait quasi exclusivement de manière interne, car le rayonnement émis par l’UA est de type alpha, et donc très court. Ainsi, il y a trois voies majeures de contamination, par inhalation, ingestion ou lésion cutanée. C’est l’inhalation de particules qui est la plus dangereuse pour les êtres vivants.

Étant à la fois chimiotoxique et radiotoxique, l’uranium appauvri atteint les reins, les poumons, le squelette, les organes reproducteurs, la thyroïde, les muscles, les ganglions lymphatiques ainsi que le système neurologique. Les types de pathologies observées sont principalement les cancers (dont leucémies) et les malformations congénitales. Les effets ne sont pas les mêmes selon l’intensité et la durée d’exposition, mais aussi selon la nature physique et chimique de l’uranium appauvri, qui peut varier d’un obus à l’autre. En outre, les enfants sont beaucoup plus vulnérables aux effets de l’uranium appauvri. Même une faible dose peut avoir des effets. La Commission Internationale de Protection Radiologique a été obligée d’admettre officiellement que, si le risque augmente en fonction de la dose reçue, il n’existait pas de seuil d’innocuité.

On observe ces pathologies chez les populations victimes de bombardements à l’uranium appauvri, mais aussi chez les vétérans des conflits irakiens, des Balkans ou encore d’Afghanistan.

Une arme qui ne respecte pas le Droit International Humanitaire
Malgré leur incroyable dangerosité, les armes à l’uranium appauvri sont toujours « légales », bien qu’elles ne remplissent aucun des critères du droit international humanitaire, censé définir ce qui est « acceptable » lors d’un conflit. Tout d’abord parce qu’on ne peut pas limiter les effets de l’uranium appauvri au champ de bataille. Avec le vent, les particules radioactives sont dispersées dans l’environnement et ne peuvent être circonscrites à un lieu donné. Cette dispersion peut donc atteindre des cibles dites « illégales » : les civils, voire les pays voisins qui ne sont pas en guerre.

Deuxièmement, l’UA continue d’avoir des effets sur l’environnement et la population même après la fin du conflit. Rappelons qu’il faut 4,47 milliards d’années pour qu’il perde la moitié de sa radioactivité ! Il continue donc d’agir pendant des laps de temps impossibles à se représenter à l’échelle humaine. _ En outre, procéder à un nettoyage des lieux contaminés apparaît complètement irréel au vu de la volatilité des particules, et l’UA continue à tuer, même des centaines d’années après la fin d’un conflit, quand plus aucun belligérant n’est encore en vie…

Au regard des effets de l’UA sur l’être humain, on ne peut qualifier cette arme « d’humainement acceptable ». Elle provoque des cancers, des leucémies, des fausse-couches, des malformations congénitales, des maladies des reins. Mais le plus inhumain ici vient du fait qu’en s’attaquant à l’ADN, l’uranium appauvri met en péril le capital génétique des personnes et détruit donc à petit feu des populations entières. De génération en génération, les effets s’accumulent… Son utilisation constitue un crime contre l’humanité. Enfin, les effets de l’UA sur l’environnement peuvent être considérés comme irréversibles tant ils perdurent dans le temps et sont néfastes. Les eaux, les terres agricoles, l’air et, au final, toute la chaîne alimentaire sont contaminés. Des effets pour l’éternité…

Les armes à l’uranium appauvri devraient donc être considérées comme illégales. Mais pour un arrêt définitif de leur utilisation, il faudrait que les instances internationales se saisissent du problème. Or le chemin à parcourir est encore très long. D’autant plus que cela sous-entendrait que les pays utilisateurs de ces armes doivent procéder à la décontamination des zones où ils ont utilisé l’UA et au dédommagement des victimes. Les sommes à débourser sont tellement colossales que rendre illégale l’utilisation de l’UA serait difficile à assumer financièrement pour les pays utilisateurs… Au détriment de vies humaines.

Les nouvelles révélations sur l’usage de l’uranium appauvri en Irak.
Depuis 1959, l’Organisation Mondiale de la Santé (OMS) est liée à l’Agence Internationale de l’Énergie Atomique (AIEA) par un accord qui lui interdit de publier des rapports qui concernent la radioactivité, sans l’aval de cette dernière. De ce fait, aucun des rapports « critiques » de l’OMS sur les armes à l’uranium appauvri n’a jamais été publié.
Pour la première fois en 2011, une prestigieuse revue médicale, l’International Journal of Environmental Research and Public Health, publiait des données sur les conséquences de l’usage d’armes chimiques par l’armée américaine en Irak, et plus particulièrement d’armes à l’uranium appauvri. Les chercheurs font le lien entre les assauts de l’armée – dont la terrible opération militaire Phantom Fury de 2004 – à Falloujah et la croissance brutale des cancers, la hausse spectaculaire des fausse-couches, des naissances prématurées, et des malformations congénitales.

Les armes utilisées dans ces combats contiennent des substances chimiques comme le phosphore, le napalm, et l’uranium appauvri. C’est sur ce dernier que se concentrent plus particulièrement les études.

Le bilan humain de ces assauts ne peut être définitif, et ne le sera jamais, l’uranium appauvri provoquant des modifications génétiques irréversibles et qui s’accumulent dans le temps. Les Irakiens vont continuer de subir les détériorations de leur patrimoine génétique au fil du temps…

Mais de nouveaux chiffres sur les effets de l’uranium appauvri sur la population irakienne ont récemment été dévoilés. Des médecins de l’hôpital de Falloujah ont observé une croissance très inquiétante du nombre de bébés naissant avec des malformations congénitales : celles-ci y concerneraient 144 naissances sur 1000, soit 14,4%. Ce taux est normalement inférieur à 2%, explique le docteur Alaani, qui étudie ce phénomène depuis de nombreuses années à Falloujah. Afin d’alerter la communauté internationale sur ces crimes, et de demander à l’Organisation Mondiale de la Santé de révéler ces nouvelles informations, elle a lancé une pétition :

« Je suis le Docteur Samira ALAANI, je suis pédiatre à l’Hôpital Général de Falloujah. Dans les années qui ont suivi les attaques des forces américaines sur notre ville, mes collègues et moi avons remarqué une augmentation horrifiante du nombre de bébés nés avec des malformations congénitales graves : spina bifida, anomalies cardiaques et des malformations auxquelles je ne peux même pas donner de nom. Beaucoup ne survivent pas. Pour ceux qui survivent, nous leur procurons des soins tant bien que mal avec le peu de ressources dont nous disposons.

Je travaille comme pédiatre à Falloujah depuis 1997, et c’est depuis 2006 que j’ai remarqué ce problème, nous avons alors commencé à enregistrer ces cas. Nous nous sommes rendus compte que sur 1000 naissances, 144 bébés présentaient des malformations. Nous sommes convaincus que, même aujourd’hui, ces cas sont liés à la contamination provenant des conflits dans notre ville il y a plus de dix ans maintenant. Ce phénomène n’est pas unique à Falloujah : les hôpitaux dans tout le Gouvernorat d’alAnbar ainsi que d’autres régions d’Irak constatent une hausse similaire. Tous les jours je vois les ravages que cette peur inculque aux futures mères et à leurs familles. La première question que l’on me pose lorsqu’un enfant naît n’est pas « Est-ce une fille ou un garçon ? » mais « Mon bébé est-il en bonne santé ? » Lorsque j’ai entendu que le Ministère de la Santé Irakien et l’Organisation Mondiale de la Santé (l’OMS) allaient faire des recherches, cela m’a donné une lueur d’espoir. Je savais que cela ne ferait que confirmer ce que nous savions déjà : que le nombre de malformations congénitales avait augmenté, mais je pensais aussi que cela pousserait l’Irak et la communauté internationale à agir.

La recherche est maintenant terminée et on nous avait promis que le rapport serait publié début 2013 ; mais nous voici six mois plus tard et l’OMS vient d’annoncer de nouveaux délais. Nous sommes inquiets que cela soit du à un problème d’ordre politique et non pas scientifique. Nous avons déjà attendu des années que la vérité éclate et mes patientes ne peuvent plus continuer comme cela. L’OMS a une autre option. Que les données soient publiées dans une revue à libre accès pour un examen indépendant par des pairs. Ce procédé serait rapide, rigoureux et transparent.

Mes patientes ont besoin de savoir la vérité, elles ont besoin de savoir pourquoi elles ont fait une fausse couche, elles ont besoin de savoir pourquoi leurs bébés sont si malades et par-dessus tout, elles ont besoin de savoir que l’on est en train de faire quelque chose pour y remédier. Le Ministère de la Santé Irakien et l’OMS se doivent de publier ces données et de nous fournir des réponses.

Je vous demande de signer cette pétition et de prouver que le reste du monde n’a pas oublié le peuple d’Irak ».

Signez la pétition sur change.org

Poster un commentaire

Classé dans en français, Problématiques énergétiques

Le réacteur EPR de Finlande est en cours
 d’abandon par Areva qui retire ses salariés…

Observatoire du nucléaire – Communiqué – 28 février 2014

Le crash de l’industrie nucléaire française
 précède celui de l’ensemble de la filière…

Le quotidien économique finlandais Kauppalehti a confirmé (*) ce vendredi 28 février 2014 les informations qui circulaient depuis quelques temps au sujet du chantier du réacteur EPR situé à Olkiluoto (Finlande) : le constructeur du réacteur, le français Areva, vient de mettre un terme aux contrats de travail d’une cinquantaine de contremaîtres, les derniers encore en poste devant suivre la même voie fin mars.

Il s’agit donc d’une véritable bérézina pour Areva qui abandonne le chantier de ce réacteur, commencé en 2005, désormais pratiquement à l’arrêt, et sous peu totalement stoppé. Officieusement, la mise en service de l’EPR serait repoussée à 2018 voire 2020, c’est à dire 15 ans après le début d’un chantier qui devait être bouclé… en 4 ans et demi !

Mais le plus probable désormais est que l’EPR finlandais rejoigne les différents exemples de réacteurs achevés mais jamais mis en service, comme à Lemoniz (Espagne), Zwentendorf (Autriche), Bataan (Philippines) ou Kalkar (Allemagne). Il est même possible qu’il ne soit jamais terminé mais, dans tous les cas, il s’agit d’un désastre pour l’industrie nucléaire française.

Il est d’ailleurs grand temps que l’opinion publique découvre que :

– 54 des 58 réacteurs nucléaires « français » sont en réalité américains (les licences ayant été payées – fort cher – par EDF à Westinghouse au début des années 70

– la nouvelle usine « française » (Georges Besse2) d’enrichissement de l’uranium utilise des centrifugeuses achetées (fort cher à nouveau) par Areva à son concurrent européen Urenco

– les rares réalisations vraiment françaises sont des échecs cuisants (réacteurs graphite-gaz des années 60, Superphénix, EPR)

Il est aussi grand temps que les « élites » françaises cessent de vénérer Mme Lauvergeon, responsable du désastre de l’EPR, mais aussi d’autres opérations aventureuses comme les investissements ruineux et inutiles aux USA ou, bien entendu, l’affaire Uramin dans laquelle la « justice » s’est curieusement dépêchée de ne rien faire malgré les éléments accablants pour « Atomic Anne ».

Il faut aussi noter que EDF ne fait guère mieux puisque le chantier EPR de Flamanville (Manche) connait lui aussi des retards et surcouts gigantesques, d’inquiétantes malfaçons et des défauts plus ou moins couverts par l’Autorité de sûreté. Si ce réacteur est un jour achevé, en 10 ans (ou plus) au lieu de 4 et demi, pour 10 milliards (ou plus) au lieu de 2,8 (le premier prix annoncé par EDF), sa mise en service entrainera de fait la mise en danger extrême de la population française et même européenne.

Entre un parc nucléaire dans un état avancé de délitement, que les investissements insensés prévus par EDF (100 à 200 milliards !) ne pourront réhabiliter, et le projet de construction (irresponsable et de toute façon hors de compétence pour EDF et Areva) de plusieurs EPR, la France va rapidement se retrouver dans une situation inextricable pour n’avoir pas su se lancer dans les alternatives (économies d’énergie, énergies renouvelables).

Il est grand temps de mettre un terme à la dramatique aventure du nucléaire qui a causé les pires catastrophes industrielles (Tchernobyl et Fukushima), qui produit des déchets radioactifs qui vont rester dangereux pendant des millions d’années, qui pille et contamine les pays où est extrait l’uranium (le Niger est ainsi exploité depuis 50 ans pour alimenter à bon compte les réacteurs français).

La part du nucléaire dans l’électricité mondiale est passée de 17% en 2001 à 11% en 2011 (**) et à 9% désormais. Cette chute fulgurante, commencée bien avant le début de la catastrophe de Fukushima, va continuer au fil des innombrables fermetures de vieux réacteurs (un tiers de la flotte mondiale a plus de 30 ans).

L’industrie nucléaire est condamnée, mais elle peut cependant encore causer des drames et catastrophes, raison pour laquelle il faut au plus vite la mettre définitivement à l’arrêt : l’abandon probable de l’EPR finlandais montre clairement la voie à suivre.

(*) http://www.kauppalehti.fi/etusivu/areva+ajaa+olkiluodon+tyomaata+alas/201402652139

(**) Agence internationale de l’énergie, Key world energy statistics 2003 et 2013, p24 :

http://observ.nucleaire.free.fr/2003-Keyworld-AIE.pdf

http://www.iea.org/publications/freepublications/publication/KeyWorld2013.pdf

Poster un commentaire

Classé dans en français, Problématiques énergétiques

L’Etat français se prépare à l’accident nucléaire

Par Hervé Kempf,
in Reporterre, Le quotidien de l’écologie,
5 fevrier 2014.

Les autorités se préparent à la possibilité d’un accident nucléaire grave, par un Plan qui vient d’être publié. Eventualité à envisager : « Une zone de territoire peut se trouver polluée pour plusieurs décennies et, dans certains cas, n’autorisant pas la présence perm anente de personnes ».

Un accident nucléaire grave est France est maintenant officiellement reconnu comme une possibilité à laquelle il faut se préparer : c’est le sens du « Plan national de réponse ’Accident radiologique ou nucléaire majeur’ «  publié le 3 février par le Secrétariat général de la défense et de la sécurité intérieur.

arton5369-3121b

On est surpris que la nouvelle ait suscité peu d’échos. Mais c’est ainsi.

Ce plan, qui décline sur cent-dix-huit pages et huit scénarios la conduite à tenir en cas d’accident grave, est une nouvelle étape dans la lente reconnaissance de la vraisemblance du pire.

Tchernobyl, en 1986, n’avait pas fait broncher la nomenklatura nucléariste.

Les choses ont commencé à changer à la suite de la submersion partielle de la centrale du Blayais (Gironde), fin 1999 : la France était alors passé à deux doigts d’une catastrophe nucléaire.

Dans les années qui suivirent, la possibilité qu’un accident grave advienne commença à être officiellement envisagée : la France constituait en 2007 un « Comité directeur pour la gestion de la phase post-accidentelle d’un accident nucléaire ou d’une situation d’urgence radiologique » (Codirpa). Celui-ci a réfléchi aux « questions qui nécessitent une anticipation », par exemple, celle-ci : « Dans le cas où les pouvoirs publics retiendraient un éloignement des populations, du fait des doses susceptibles d’être reçues, le statut des territoires concernés devra être précisé : – l’éloignement des populations a-t-il le statut de simple recommandation ou entraîne-t-il une interdiction absolue de séjour ? – dans l’hypothèse où l’éloignement est impératif, comment s’assurer du respect de l’interdiction de séjour sur les territoires concernés ? » (Codirpa, Synthèse générale, document de travail, version du 21 novembre 2007). Il semble que ce document ne soit plus accessible sur internet, c’est pourquoi nous le plaçons ici en téléchargement .

La catastrophe de Fukushima, en 2011, allait encore faire avancer la prise de conscience du danger. Le directeur de l’IRSN (Institut de radioprotrection et de sûreté nucléaire), Jacques Repussard, indiquait ainsi début 2012 : « Nous devons accepter que l’impossible puisse se produire ».

Le plan actuel – qui émane d’un organisme de nature militaire – manifeste donc au grand jour ce à quoi il faut se préparer.

Il ne saurait être plus clair :

 en ce qui concerne la santé : « Un accident nucléaire non maîtrisé peut avoir des conséquences, du fait des effets immédiats de l’accident (décès, atteintes traumatiques, irradiation), mais aussi du fait des effets à long terme qui peuvent conduire à augmenter le risque de survenue de pathologies radio-induites (certains cancers par exemple) » ;  en ce qui concerne la condamnation de certains territoires : « Une zone de territoire peut se trouver polluée pour plusieurs décennies et, dans certains cas, n’autorisant pas la présence permanente de personnes ».

Les responsables politiques français devraient maintenant dire clairement si le maintien de l’appareil nucléaire du pays mérite qu’on prenne le risque de voir, comme en Biélorussie ou dans le nord du Japon, des milliers de kilomètres carrés du pays interdits à la vie humaine pour des décennies.

Carte des sites nucléaires en France pouvant donner lieu à un accident (source : Plan national):

accident_nucle_aire-carte_v_2-49e80

Source de cet article: Reporterre, Le quotidien de l’écologie :
http://www.reporterre.net/spip.php?article5369   

Lire aussi :Tricastin : en cas d’accident nucléaire, priez ! Parce que les autorités seront dépassées.

Poster un commentaire

Classé dans Actualité, en français, Problématiques énergétiques

Le projet CIGEO d’enfouissement en profondeur des déchets nucléaires à Bure : Comment l’aventurisme des nucléocrates s’apprête à engager la France dans un désastre sans précédent qui pourrait bien, un jour, être qualifié de crime contre la biosphère

par Hans Zumkeller

Je me présente. Je travaille depuis longtemps au CEA dans le secteur de la thermique. C’est-à-dire autour de tout ce qui tourne autour de la production de vapeur, des turbines, de leur couplage avec les alternateurs. Mes responsabilités s’étendent également dans le domaine de la sécurité et du refroidissement des coeurs  en cas d’arrêt d’urgence. J’ai également participé à des études concernant la circulation du sodium fondu dans les réacteurs à neutrons rapides. J’ai un poste de chef de service. Mais je n’ai pas de responsabilités dans le domaine de la neutronique, de la tenue des matériaux face à leur irradiation, de leur fragilisation, du retraitement, du comportement des nouveaux combustibles, etc. Mes connaissances d’ancien élève d’une des plus prestigieuses Grandes Ecoles françaises font que j’ai a priori plus de moyens pour aborder les problèmes qu’un simple technicien. A la différence de nombreux collègues, ma curiosité foncière fait que j’ai acquis au fil des ans un ensemble de connaissances couvrant pas mal de domaines, même si je ne les couvre pas tous.

Immédiatement, tout le monde comprendra que je ne saurais m’exprimer en dehors de la protection par un pseudonyme. La réaction serait immédiate. Ceci étant, nombre de collègues ont un point de vue identique au mien, ou très voisin, et gardent le silence. Il est rare que nous en parlions entre nous de  façon directe. A notre niveau, qui est celui de responsables importants de la filière, je dois convenir que les problèmes sont plutôt évoqués dans notre milieu fermé, à mots couverts ou sous forme de plaisanteries. Prudence exige.

Voici mon point de vue. S’agissant de stockage souterrain il y a deux types de stratégies. Soit on se propose d’entreposer sous terre des éléments qu’on pourrait qualifier de « passifs », comme par exemple de l’amiante, soit il s’agit de déchets « actifs », qu’il s’agisse de déchets issus de l’industrie chimique ou de l’industrie nucléaire. Cette « activité » peut s’entendre sous deux points de vue. Des déchets « actifs » peuvent simplement évoluer. Constitués de « colis » composites, leurs contenus les plus toxiques et dangereux peuvent se trouver libérés, du fait de la dégradation de leur système d’entreposage, ou parce que leur évolution donne naissance à des sous-produits capables de migrer plus facilement. On pense évidemment à l’émission de substances sous forme gazeuse.

Le stockage souterrain, sur le long terme, est toujours dangereux, parce que peu accessible et donc très difficile à contrôler[1]. Un mouvement de terrain, le développement de fissures, l’extension d’un réseau phréatique peut entraîner une pollution irréversible, extrêmement dommageable pour la santé de personnes, sur des superficies considérables[2].

L’entreposage souterrain de déchets nucléaires entre sans équivoque dans la catégorie de la gestion de déchets très actifs. On sait par exemple que les déchets constitués par de la matière plastique se décomposent en produisant de l’hydrogène. Ces molécules, les plus petites qui soient, passent au travers de n’importe quoi. Ca n’est qu’une question de temps. Le danger majeur de l’entreposage envisagé à Bure, dans le cadre du projet CIGEO, est le confinement très important qui y est envisagé. Dans un confinement souterrain émerge immédiatement un problème fondamental. Les liquides conduisent mieux la chaleur que les gaz, et c’est la raison pour laquelle on procède à un pré-stockage des éléments les plus chauds,  issus du déchargement de coeurs, dans de l’eau, pendant des années quand le combustible est de l’uranium, temps qui atteindra 50 à 60 années pour le combustible MOX[3], où l’éléments thermogène est le plutonium. Dans les solides, tout mouvement de convexion est par définition impossible et, si on excepte les métaux,  ce sont les milieux les moins conducteurs de la chaleur qui soient.

Ainsi toute alvéole, toute galerie contenant des colis dégageant de la chaleur est susceptible de se transformer en four.

Il y a d’ailleurs une sorte de dérision consistant à présenter l’opération ultime de stockage sous la forme d’alvéoles munies d’opercules scellées par des briques de bentonite, laquelle a la propriété de se dilater en absorbant l’eau[4].  Comme si on s’imaginait qu’en logeant des débris à longue durée de vie de cette manière très compacte, on s’en protégerait au maximum. S’agissant de « réversibilité », si la bentonite se dilate en présence d’eau, elle libérera en revanche son contenu aqueux en cas de chauffage intempestif. Ainsi  cette idée de scellement durable est-elle sujette à caution. Elle a plutôt été proposée par des gens habitués aux travaux de tunnellerie, où le problème d’un chauffage subit ne se pose évidemment pas, et cette idée a aussitôt été considérée comme providentielle par ceux qui tiennent à ce que ce projet d’enfouissement des déchets nucléaires aboutisse rapidement, coûte que coûte (et « quoi qu’il en coûte » au contribuable).

Selon ce projet de stockage dans une configuration de facto confinée, et n’importe quel ingénieur thermicien le confirmerait immédiatement, le moindre dégagement de chaleur, même s’il ne s’agit pas d’une explosion brutale, transformerait un logement, nécessairement exigu en four.

Dans cette optique, les systèmes de stockage et de confinement envisagés deviennent dérisoires. Le verre, par exemple, donne une image de stabilité, à l’échelle d’âges géologiques. Toutes les mers du monde contiennent des verreries qui ont gardé leurs propriétés et leurs géométries au fil de millénaires. Et cela est encore plus visible quand leur entreposage a été effectué dans de l’air, dans des nécropoles. Ce qui a ainsi « tenu » pendant des milliers d’années semble présenter l’assurance de tenir pendant des dizaines de milliers d’années, voire plus.

Cela se joue ainsi en termes de produit de solubilité. Quand la structure est cristalline, l’assurance de pérennité est encore accrue. Pour reprendre le titre d’un film de James Bond : «  les diamants sont éternels[5] ». Des diamants se révéleront inaltérables dans de l’eau de mer, comme « le coeur de l’océan », du film « Titanic ». Il en est de même pour l’inaltérabilité de certains métaux, comme l’or, absolument intacts après des milliers d’années en immersion. Sur le plan chimique, l’or, les diamants sont insolubles dans l’eau, dans les acides et dans les bases.

Mais la stabilité chimique, l’insolubilité ne sont pas les seuls critères à prendre en compte. Bien qu’il soit exclu d’envisager de stocker des déchets dangereux dans des enveloppes de diamant, ou d’or, on trouvera aisément que le diamant brûle à une température dépassant 600 à 800°C. Quant à l’or, il fond à mille degrés, ce qui est une température aisément obtenue dans le four le plus sommaire.

Revenant à la question du stockage des déchets nucléaires, on sait que la longévité des classiques bidons métalliques est de brève durée, vis-à-vis des temps à prendre en compte, au bout desquels leurs contenus peuvent être considérés comme inoffensifs. A terme, ils se corroderont. Et c’est encore pire quand ils sont au contact de l’eau (immersions dans la Manche, stockage dans la mine de sel allemande d’Asse, victime d’une infiltration issue de sa fissuration sous l’effet de contraintes mécaniques, liées au creusement des galeries ).

Ne parlons pas du bitume, qui s’enflamme à 300° et se ramollit au-dessus de 60°. Le béton constitue lui aussi une protection illusoire. Ce composé n’est pas stable. Il ne faut pas oublier que le béton est le produit d’une réaction d’hydratation. Quand il est armé par des tiges de fer, ces armatures internes ne sont pas à l’abri d’une oxydation. L’oxydation entraîne une dilatation des tiges, donc la fragilisation des structures (on parle alors de « cancer du béton »). Quand on pense au stockage souterrain, qu’adviendra-t-il des arceaux de soutènement des très nombreuses galeries, que ceux-ci soient métalliques ou en béton armé ?

Revenant sur la tenue en température, se pose alors la question du conditionnement des déchets à vie longue, les plus dangereux, dans leurs sarcophages de verre. La question du « point de fusion du verre » ne se pose pas, car le verre, amorphe, « non cristallin », n’est pas un solide au sens strict du terme. On a pu lire qu’on avait mesuré un affaissement de certains éléments de vitraux, dus à la gravité. Mais tout cela est lié au mode de fabrication. Le verre possède une certaine viscosité. Mais à la température ordinaire, la géométrie des verres ordinaires n’évolue pas, même à l’échelle de temps géologiques, même sur des milliards d’années. Ce conditionnement, si on vise une dispersion minimale semble donc optimal, s’ajoutant à une très faible solubilité dans l’eau et à une excellente résistance aux attaques chimiques.

Reste son point faible : sa faible tenue thermique.

Le verre se comporte comme un fluide à une température  de 1400-1600°C, toujours aisément atteignable dans un four. Par four il faut entendre un dispositif à l’intérieur duquel de la chaleur est dégagée, et ne peut que très difficilement être évacuée vers l’extérieur[6]. La conductivité de l’argilite callovo-orxfordienne est faible.

Les renseignements que l’on peut trouver[7] ne sont pas très abondants, concernant les résultats des expériences concernant la tenue thermique de cet environnement argileux. Par contre, on lit qu’au moment de leur enfouissement les colis dégageront des flux thermiques allant de 200 watts, jusqu’à 500 et 700 watts pour ceux qui contiennent des déchets issus des coeurs ou du retraitement.

C’est absolument énorme.

Dans ce même document, on dit que le contrôle thermique devra être assuré de telle façon que la température de l’argile se maintienne en dessous de 70 à 90°C pour éviter tout remaniement structural, à l’aide d’une ventilation[8]. En d’autres termes le matériau dans lequel on envisage d’opérer cet enfouissement est foncièrement instable vis-à-vis de la température. Or 90° sera une température aisément atteinte si la réfrigération des galeries et même des alvéoles n’est pas assurée pendant un temps suffisant.

Il y a, a priori, deux sources d’échauffement possibles. Celles issues des décompositions radioactives, qui sont calculables et celles, accidentelles, qui découleraient de l’inflammation d’hydrogène dégagé au fil de la décomposition de matières plastiques, qui ne sont ni calculables, ni prédictibles, ne serait-ce que parce qu’on ne dispose pas d’un inventaire précis des contenus de chaque colis scellé.

Revenons à cette question de la tenue thermique des « colis ».  C’est là que le bât blesse, ce me semble. Si des containers en verre massif présentent une bonne garantie à la température ordinaire, il n’en est pas de même dès que la température monte de quelques centaines de degrés. Dans une verrerie, on travaille ce matériau à des températures allant de 400 à 600°. Le verre se présente alors sous la forme d’une pâte visqueuse, malléable. A partir de 1400°, c’est un fluide. Ces températures seront aisément atteintes dans une structure confinées et isolée thermiquement, donc dans une alvéole ou galerie.

A propos du béton, sa tenue thermique est également limitée[9]. A une température de 700 à 1000° le béton s’écaille. On dit même « qu’il se pèle comme un oignon ». S’ajoute un phénomène de choc thermo-hydrique, qui fait que le béton « explose littéralement ». On en a des témoignages récents  après examens d’incendies dans des tunnels. Lire le très intéressant document cité en référence, illustré par des photos très suggestives[10]. Empressons-nous de préciser que ces dégagements de chaleur, accidentels, ne correspondent qu’à des phénomènes de brève durée.

En règle générale, le béton se décompose chimiquement au delà de 1100° ce qui est une température relativement basse[11]. Il se … déshydrate, tout bêtement et, lorsqu’on s’est livré, au CEA, à des simulations de pénétration d’un « corium » au travers d’un radier de béton ( dont l’épaisseur est de 8 mètres à Fukushima ) les bulles qu’on voyait apparaître à la surface n’étaient autres que de la vapeur d’eau.

Ces considérations rapides font que la conclusion s’impose, vis à vis d’un projet comme CIGEO. Le seul système de stockage tout à la fois actuellement praticable et politiquement responsable est un stockage en surface, qui permet une évacuation illimitée de calories, à un rythme élevé et continu, par convexion, sans risque de surchauffe accidentelle, avec accessibilité garantie.

Le stockage en milieu confiné, qui ne permet d’évacuer cette chaleur, en l’absence de moyens mis en oeuvre avec dépense d’énergie (ventilation), que par conduction est par essence dangereux, surtout quand le dégagement thermique peut s’avérer brutal, lors d’explosions pouvant engendrer des fissurations, la destruction d’un système de ventilation, l’endommagement d’un puits, de galeries d’accès.

Des fissurations résulteront également du creusement de nombreuses galeries, comme cela a été le cas à Asse, en Allemagne[12]. L’argilite a les défauts de ses qualités. C’est un matériau très hétérogène, d’un niveau de cristallinité faible. Cela le dote de faibles qualités mécaniques. Il se désagrège dans l’eau. Son étanchéité n’est ainsi nullement garantie, avec des épaisseurs aussi faibles ( 130 mètres ), situant ce filon entre une couche de calcaire oxfordien en partie supérieure et une couche de calcaire dogger en partie inférieure[13]. Les couches calcaires qui entourent cette fine couche d’argile se prêtent à l’apparition d’une structure karstique. A la moindre pénétration d’eau dans le système de galeries, par le haut, aussi minime que puisse être une fissure, de quelque origine que ce soit, celle-ci donnerait rapidement passage à un flux liquide par phénomène de « puits de Fontis[14] » ( érosion vers le haut ).

En règle générale, la production électronucléaire, outre sa dangerosité et l’impossibilité de démanteler les installations, représente une erreur technologique de notre temps. L’accumulation de déchets ingérables, d’origine nucléaire, s’inscrit dans l’ensemble des activités humaines, dans la mesure où celles-ci se sont résolument écartées de toute idée d’équilibre naturel. Ce n’est que très récemment, dans notre histoire, que l’humanité a forgé l’expression, le label du « bio-dégradable ». Tout ce que produit la nature est par essence bio-dégrable, depuis les excréments, les rejets gazeux, jusqu’aux structures pourrissantes. Les incendies, la respiration des animaux produisent du CO2, qui est recyclé par les plantes. Les tissus animaux ou végétaux sont transformés par des créatures nécrophages, à toutes les échelles. Une infinité de mécanismes sont en place qui débouchent sur une régulation, un équilibre de la biosphère, qui avait fait ses preuves jusqu’à l’apparition de l’homo technologicus.

L’espèce humaine, longtemps négligeable à l’échelle de la planète, génère aujourd’hui des nuisances dans tous les domaines, elle est la source de tous les déséquilibres, et va faire sombrer le navire « Terre » à moins qu’elle n’apprenne au plus vite à se réguler elle-même. Elle réduit, comme le dit Bourguignon, l’agriculture au niveau de la gestion d’une pathologie végétale, l’agriculteur moderne ayant tué toute vie sous la surface du sol qu’il entend exploiter. L’homme, outre la surexploitation qu’il en fait, a empoisonné ses océans, ses rivières, ses lacs et bientôt son atmosphère. Le monde de la consommation et du profit est aussi celui du superflu, du périssable, de l’obsolète, synonymes de gâchis et de mauvaise gestion.  En jouant dangereusement avec la génétique l’homme risque d’endommager le patrimoine génétique de la planète, dans tous les règnes, en réduisant comme peau de chagrin un élément régulateur indispensable de la biosphère : sa biodiversité naturelle.

L’homo technologicus est un accumulateur de déchets de longue durée de vie. Les déchets de l’industrie nucléaire ne font qu’étendre la gamme des déchets en tous genres. La caractéristique des déchets nucléaires est leur capacité de dispersion planétaire, par voie aérienne, ou en utilisant poissons et autres animaux comme vecteurs. Une autre caractéristique est leur dangerosité à dose infinitésimale (le plutonium) et leur durée de vie considérable. Aucun agent biologique ou chimique ne peut les dégrader.

L’idée d’entreposer des déchets, dont la durée de vie se chiffrerait en milliers de générations humaines, dans des galeries ajoute le risque d’une contamination de la croûte terrestre, sur des étendues que personne aujourd’hui ne saurait suspecter, du fait des incontrôlables circulations phréatiques; si ce système venait à se développer, comme on peut le craindre s’il est donné suite au projet CIGEO, pour de simples et évidentes raisons de profits et pour enlever des pieds des nucléocrates cette épine appelée « déchets ».

Si la dangerosité des matières nucléaires est à craindre, une solution consisterait non à les placer sous la surface du sol, mais dans des grottes, accessibles, taillées à flancs de falaises, légèrement surélevées pour mettre leur contenu hors d’atteinte d’une inondation, naturellement ventilées et placées sous bonne garde. Il ne pourrait s’agir que d’une façon de gérer les actuels déchets, non d’y stocker des déchets d’une activité nucléaire qu’on entendrait poursuivre. Sur ce plan, bien « qu’étant de la maison » et y ayant fait toute ma carrière (je suis à quelques années de mon départ en retraite) je rejoins totalement l’ex-responsable américain de l’équivalent de l’Autorité de Sûreté Nucléaire française, à savoir Gregory Jaczko, qui fut de 2010 à 2012 responsable du NRC américain (Nuclear Regulatory Commission). Pour lui, comme pour une quantité d’autres, dont je fus, la catastrophe de Fukushima joua un rôle de révélateur. Dans une vidéo[15], il déclare sans ambages :

Bure-1

Enfin il est stupéfiant de voir des scientifiques tabler sur des conditions d’évolution d’un ensemble technologique, sur des durées qui sont des deux ordres de grandeur supérieures à l’âge de notre technologie d’aujourd’hui.

Je rappelle que le Néo-Zélandais Ernest Rutherford découvrit l’atome en 1905, il y a 111 ans à peine.

En un demi-siècle la technologie nucléaire a pris son essor, le prétexte initial étant militaire[16]. En un demi-siècle, avec l’avènement d’un premier plasma de fusion, sur la machine anglaise JET de Culham, les températures de notre technologie ont fait un bon d’un facteur 10’000.

En 2005, dans le laboratoire Sandia, Nouveau Mexique, une température de trois milliards de degrés ayant été obtenue, c’est un nouveau gain de 3 109 / 1,5 108 qui a été obtenu, ce qui correspond à un facteur 20, par rapport aux températures visées dans les machines à fusion. Selon le spécialistes de ces types de compresseurs électromagnétiques, cette température ne serait nullement limitée au sens où, par opposition à la fusion[17] envisagée sur ITER, les instabilités, la turbulence électromagnétiques accroissent la température obtenue en fin de compression, comme la turbulence le fait dans les cylindres de nos automobiles, alors que dans les tokamaks comme ITER cette turbulence, prenant le nom de disruption, fait s’effondrer la température en un millième de seconde.

Non seulement ce nouveau progrès, traduit par cet accroissement des températures ouvre la voie à une fusion directement électrogène aneutronique, ne produisant pas de neutrons et, comme déchet, de l’hélium le plus ordinaire, mais l’obtention de ces ultra-hautes températures débouche sur une technologie nucléaire totalement différente de celle que nous connaissons actuellement. Il ne faut pas oublier, quand on est confronté à des déchets moléculaires toxiques, que les solutions ultimes envisagées impliquent des élévations de température et des modification de la pression, de manière à inciter ces substances toxiques à se muer en espèces plus stable et non toxiques.

La physique nucléaire n’est rien d’autre qu’une chimie des noyaux, dont nous sommes très loin d’avoir fait le tour, un peu comme des primitifs qui, ayant inventé le feu, seraient à mille lieues d’imaginer ce que la chimie pourrait réserver à leurs descendants.

C’est grâce à la catalyse que sont réalisées nombre de synthèses chimiques de notre temps. Ces sont les états métastables qui ont donné naissance au laser. L’électrochimie a donné naissance aux piles, aux accumulateurs, aux techniques électrolytiques. La physique quantique, ignorée au début du siècle dernier, a engendré la supra-condution, la semi-conductivité, et nombre de techniques impensables jusque-là, défiant toute logique. La mise en oeuvre de lois comme celle de Le Chatelier ont permis de diriger des réactions chimiques vers des buts précis. Pourquoi cette « chimie nucléaire » serait-elle moins riche que la chimie dite « minérale » ?

C’est la réelle maîtrise de cette moderne « chimie des noyaux » qui, en mettant en oeuvre des mécanismes qui, à haute température, permettront d’orienter les processus de transmutations, rendront possible de réellement retraiter ces dix millions de tonnes de déchets nucléaires dont nous ne savons que faire, que nos descendants, quand ils sauront maîtriser ces technologies, peut-être dans moins d’un siècle au train où vont les choses, seront alors bien en peine de récupérer, si nous décidons de donner suite à ce projet de stockage profond, qui risquerait de conduire à la plus grande catastrophe environnementale de tous les temps, rigoureusement irrémédiable qui, un jour peut-être sera qualifiée de crime contre la biosphère.


[1] Le concept de “réversibilité”, ajouté au projet CIGEO, fait sourire l’ingénieur que je suis. Ca n’est qu’un voeu pieux.

[2] Je n’ai pas été sans noter que le filon callovo-oxfordien où se situe le projet CIGEO présente un pendant de plus d’un degré en direction du nord ouest, c’est à dire du … Bassin Parisien.

[3] Je remarque au passage que CIGEO n’a nullement été conçu pour stocker les déchets qui seront issus du MOX (combustible nucléaire constitué d’environ 7 % de plutonium et 93 % d’uranium appauvri).

[4] La bentonite est très largement utilisée dans les travaux de construction, le forage des tunnels, du fait de sa capacité de colmatage et d’étanchéification de coffrages. http://fr.wikipedia.org/wiki/Bentonite

[5] Du moins sur des échelles de temps considérable. En effet le diamant tend à se transformer en graphite, qui est une forme carbonée plus stable, mais en un temps excédant l’âge de l’univers.

[6] La conductivité thermique de l’argilite du callovo-oxfordien du site d’enfouissement de Bure est de 1,3 à 2,7 W/m/°K. Source : http://fr.wikipedia.org/wiki/Laboratoire_de_Bure#S.C3.A9lection_du_site_de_Bure

[8] Pendant combien de temps et sur la base de quelle source d’énergie ?

[11] Source : Bruno Tarride, professeur à l’Institut National des Sciences et Techniques Nucléaires : Physique, fonctionnement et sûreté des réacteurs à eau pressurisée. Maîtrise des situations accidentelles du réacteur. http://books.google.fr/books?id=4cU2AAAAQBAJ&pg=PA213&lpg=PA213&dq=tenue+en+température+du+béton%2Bcorium&source=bl&ots=_MluGEb8x_&sig=gx5sp-pEbVPuTfkOp-g3NP2SUPw&hl=fr&sa=X&ei=Bu_XUrSpNqTI0AXduYHoAw&ved=0CE8Q6AEwBQ#v=onepage&q=tenue%20en%20température%20du%20béton%2Bcorium&f=false

[12] Les experts avaient assuré que ce dôme de sel présentait une stabilité garantie sur des millions d’années, conclusion chaudement approuvée par le député Bataille. Certes, … à condition de ne pas créer des trous dedans ! Il en est de même pour le filon d’argile de Bure, considéré comme stable “depuis cent millions d’années”, sans ses futures galeries…

[16] Il en est hélas de même, aujourd’hui, pour le développement de la fusion aneutronique, sous le couvert du secret défense, au USA et en Russie.

[17] La fusion deuterium-tritium n’est qu’une réaction de fusion parmi une foule d’autres. C’est simplement celle qui nécessite la température la plus basse.

3 Commentaires

Classé dans Actualité, Catastrophes, en français, Problématiques énergétiques

Contrairement à la France, la Suisse reconnaît la dangerosité accrue des centrales nucléaires

Association pour l’Appel de Genève II (APAG2)
Communiqué de presse 300114. Embargo : jeudi 6 février 2014.

La Suisse vient d’élargir de 20 à 50 kilomètres la zone, autour des centrales nucléaires, dont les habitants recevront à leur domicile des pastilles d’iode stable. Ces pastilles sont destinées à saturer d’iode stable la thyroïde des personnes exposées à une contamination radiologique lors d’un accident dans une centrale nucléaire avec relâchement d’iode radioactif. Ce dernier, l’isotope I131, d’une période de 8 jours (c’est-à-dire dont la radioactivité diminue de moitié en 8 jours), est susceptible de provoquer, très rapidement après l’accident, de graves dommages, notamment d’induire un cancer, s’il se fixe dans la glande thyroïde, particulièrement dans celle des embryons, des enfants et des jeunes gens. A notre connaissance, rien n’est prévu concernant les animaux domestiques et le bétail.

Les autorités helvétiques justifient cette mesure par le retour d’expérience de la catastrophe de Fukushima. Mais cette mesure est aussi et surtout justifiée par le vieillissement des centrales nucléaires suisses qui figurent parmi les plus âgées à l’échelle mondiale. L’élargissement du périmètre de distribution d’iode stable fera passer la population suisse concernée de 1,2 million à 4, 34 millions d’habitants, soit plus de la moitié de la population suisse. Par cette mesure, la Suisse reconnaît donc officiellement que le danger présenté par les cinq centrales nucléaires suisses est nettement plus important qu’estimé jusqu’ici.

Il est intéressant de relever que les autorités françaises n’ont, jusqu’ici, rien entrepris de tel. Seules les personnes habitant dans un rayon de 10 kilomètres autour des centrales nucléaires, ou des sites d’armes nucléaires, se voient encore offrir gratuitement des comprimés d’iode stable. Or, en tout cas dans la vallée du Rhône parsemée de centrales et d’autres installations nucléaires, il se justifierait d’instaurer un système tout autre, compte tenu aussi des vents du nord et du sud fréquents et prédominants.

Le Bureau de l’APAG2 prend acte de l’initiative suisse, mais la juge loin d’être adéquate et suffisante compte tenu des autres radiotoxiques libérés lors des accidents nucléaires de Tchernobyl et Fukushima. Il invite les populations concernées à se mobiliser pour exiger de leurs autorités politiques des mesures adéquates pour conjurer sans délai le péril croissant de contamination radiologique accidentelle de leurs pays respectifs et des Etats voisins, du fait de la fragilisation des centrales nucléaires due à leur vieillissement.

APAG2, Case postale 113, CH-1211 Genève 17
appel2geneve@fastmail.fm
Tél. : M. Paul Bonny +41 22 755 46 31
http://www.apag2.wordpress.com

Poster un commentaire

Classé dans Actualité, en français, Problématiques énergétiques, Suisse

Jean-Pierre Dupuy, Pour un catastrophisme éclairé

Jean-Pierre Dupuy, Pour un catastrophisme éclairé, Quand l’impossible est certain, Essais, Editions du Seuil, Paris, 2002, 219 pages. (Causerie diffusée sur Radio Zones le 18 février 2014)

 

Aujourd’hui, Ivo Rens, vous nous présentez un auteur inclassable : Jean-Pierre Dupuy. En effet, c’est tout à la fois un ingénieur, un philosophe, un ancien compagnon d’Ivan Illich et probablement pas un écologiste. Qui est donc ce Jean-Pierre Dupuy qui a retenu votre attention ?

Jean-Pierre Dupuy est un philosophe et épistémologue français contemporain. Né en 1941, il a une formation d’ingénieur de l’Ecole polytechnique et l’Ecole des mines de Paris. Mais il s’est rapidement intéressé aux sciences humaines, en passant par les sciences cognitives, puis a consacré la majeure partie de son œuvre, considérable, à la philosophie sociale et politique. Plus que d’autres philosophes français, il  a été marqué par des penseurs anglo-saxons. Comme ses amis René Girard et Michel Serres, il a aussi enseigné à la prestigieuse Université de Stanford en Californie.

Je me contenterai de citer ici quelques-uns de ses livres, ceux que j’ai lus peu après leur parution : La trahison de l’opulence, écrit avec Jean Robert, paru en 1976, Le sacrifice et l’envie. Le libéralisme aux prises avec la justice sociale, paru en 1992, Pour un catastrophisme éclairé, Quand l’impossible est certain, paru également en 1992, Petite métaphysique des tsunamis, paru en 2005 et Retour de Tchernobyl, Journal d’un homme en colère, paru en 2006. C’est d’ailleurs là une liste très incomplète des ses œuvres.

La pensée de Jean-Pierre Dupuy est interdisciplinaire et donc à contre-courant de la spécialisation des sciences sociales et de la philosophie académique. Il a été marqué assurément par Henri Bergson, Hans Jonas et Ivan Illich, mais aussi par les philosophies  de Leibniz, d’Adam Smith et de Jean-Jacques Rousseau, par les économistes néo-classiques, par Popper et Hayek, mais davantage par Leonard Savage et John von Neumann qui furent, au lendemain de la IIe Guerre mondiale, les fondateurs de la théorie de la décision. Curieusement, il ne cite jamais le bioéconomiste Nicholas Georgescu-Roegen non plus que  le Rapport de Donella et Dennis Meadows sur Les limites à la croissance, paru en 1972, qui pourtant figurent parmi les pionniers de la problématique écologique mondiale.  Ultérieurement à l’ouvrage que je présente, Jean-Pierre Dupuy sera marqué aussi par le catastrophisme de Gunter Anders, l’ex-époux de Hannah Arendt qu’il présente comme le philosophe de l’âge atomique dans sa préface à Hiroshima est partout paru en 2008. L’édition originale en allemand date de 1995.

En quoi la pensée de Jean-Pierre Dupuy participe-t-elle de la prise de conscience écologique ?

En tant que collaborateur et principal diffuseur en langue française, avec Jean Robert, de la pensée iconoclaste de Ivan Illich, il contribua indéniablement dans les années 1970 à l’essor de l’écologie politique. Le concept central de l’ouvrage que je me propose de commenter – le catastrophisme – même s’il n’appartient pas en propre à la pensée écologique, relève assurément de la prise de conscience écologique, en tout cas depuis Hiroshima et Nagasaki. C’est d’ailleurs ce que Jacques Grinevald et moi avions souligné dès 1975 dans une étude intitulée “Réflexions sur le catastrophisme actuel“.

Cela dit, il est vrai que Jean-Pierre Dupuy a davantage médité sur les sciences sociales et la vertigineuse dialectique de l’équilibre de la terreur que sur la problématique de l’évolution ou sur la crise de la biodiversité. D’ailleurs il ne cite guère de biologistes et jamais les écologues, ni français, ni étrangers. Roger Dajoz, Fançois Ramade, Patrick Blandin et Philippe Lebreton, par exemple, lui sont apparemment inconnus, de même que Evelyn Hutchinson, Rachel Carson, Barry Commoner, les frères Odum, ou Paul Ehrlich, dont les réflexions sont à l’origine de l’irruption de l’écologie et de la problématique environnementale dans le débat politique à l’échelle mondiale. Quant à la question des dangers pour le vivant inhérents à l’industrie électronucléaire, elle ne s’impose véritablement à lui qu’avec son livre sur Tchernobyl paru en 2006 et donc après la parution de l’ouvrage que j’ai retenu. En revanche, l’écriture de ce livre porte la marque de l’attentat de l’hyper-terrorisme du 11 septembre 2001.

Comment s’organise donc Pour un catastrophisme éclairé ?

L’approche de Jean-Pierre Dupuy, dans cet ouvrage, est principalement épistémologique, c’est-à-dire relative aux conditions de la connaissance que nous pouvons nous faire des menaces qui pèsent sur nos sociétés industrielles, sur l’espèce humaine et, plus généralement, sur le monde vivant. Elle a aussi de fortes composantes éthique et politique et une ambition anthropologique et métaphysique. Mais elle s’organise essentiellement en fonction des réflexions de l’auteur sur la théorie de la décision.

Plutôt que de l’analyser en détail, je me concentrerai sur deux ou trois de ses idées, celle de principe de précaution, celles de catastrophe et de catastrophisme, en l’occurrence éclairé ou rationnel, puis celle du destin à conjurer, et je tenterai ensuite d’évaluer la pertinence, mais aussi les limites, de cette approche.

Exposez-nous donc l’apport de Dupuy à la notion de principe de précaution.

Jean-Pierre Dupuy consacre au principe de précaution plusieurs dizaines de pages à la lumière de la théorie de la décision qui, selon lui, n’est qu’un autre nom de la démarche économique “coût-avantage“.

Curieusement, il ne signale pas où et quand il s’est imposé – soit à la Conférence des Nations Unies sur l’environnement et le développement qui s’est tenue à Rio en 1992 – et il en fait une critique sévère en se fondant sur la seule version juridique française de ce principe – la loi Barnier de 1995 – et non sur son énoncé dans la Déclaration de Rio, et sans même mentionner que la loi française diffère substantiellement de son énoncé dans la Déclaration de Rio.

Voici ce fameux principe, tel qu’énoncé dans la Déclaration de Rio en 1992 : « En cas de risque de dommages graves ou irréversibles, l’absence de certitude scientifique absolue ne doit pas servir de prétexte pour remettre à plus tard l’adoption de mesures effectives visant à prévenir la dégradation de l’environnement. »

Et voilà la version légale française : « L’absence de certitudes, compte tenu des connaissances scientifiques et techniques du moment, ne doit pas retarder l’adoption de mesures effectives et proportionnées visant à prévenir un risque de dommages graves et irréversibles à l’environnement à un coût économiquement acceptable ».

Il est évident que la version française introduit deux conditions qui n’existent pas dans la Déclaration de Rio. Pour que les mesures de précaution soient adoptées en France, encore faut-il qu’elles soient proportionnées et que leur coût soit économiquement acceptable. Proportionnées à quoi ? demande Dupuy. Et acceptable par qui ? – aurait-il pu ajouter.

Tout défenseur conséquent de l’environnement ne peut qu’approuver le texte onusien et rjeter sa version française.

Mais critique-t-il le principe lui-même ou sa version française ?

Comme il ne distingue pas la version française de son modèle international, on peut se poser la question.

Je pense néanmoins qu’il critique l’idée même de précaution en tant qu’elle se distinguerait de la prévention.

Invoquant le philosophe Hans Jonas, pourtant l’un des inspirateurs du principe de précaution, Dupuy affirme notre ignorance irrémédiable des conséquences possibles des applications de nos techniques toujours plus puissantes.

La notion de risques de dommages graves perd toute rigueur du moment que l’on ne peut les mesurer statistiquement, faute d’occurrences.

On est donc dans l’ignorance. Mais le principe de précaution – dans sa version française, ce qu’omet de préciser Dupuy – laisse entendre que, avec le temps, les progrès de la science pourraient y remédier.

Dupuy oppose trois arguments à cet optimisme scientiste :

1.- Du fait de leur complexité, les écosystèmes possèdent une extraordinaire stabilité et une remarquable résilience qui leur permettent de résister à quantité d’agressions. Mais, passé un certain degré d’agression, sans qu’on en connaisse le seuil, ils basculent vers des régimes différents que l’on ne connaît pas. Et qui sont même imprédictibles.

2.- Les systèmes techniques peuvent se combiner avec les systèmes naturels et former des systèmes hybrides. Or, les systèmes techniques comportent des boucles de rétroaction positives qui peuvent conférer aux systèmes hybrides des développements totalement imprévisibles.

3.- Toute prévision dépendant d’un savoir futur est rigoureusement impossible.

Du fait de sa puissance technique, et malgré toute sa science, l’humanité se trouve donc menacée de périls graves et irréversibles et de risques qu’elle ne peut ni connaître ni gérer.

Si je comprends bien, le catastrophisme éclairé de Jean-Pierre Dupuy est un autre nom de l’heuristique de la peur prônée par Hans Jonas…

Elle en est plutôt une interprétation qui se veut plus subtile et plus efficace que celle de son illustre prédécesseur car elle conteste la démarche des “gestionnaires du risques“ qui se sont imposés dans les Etats, et particulièrement en France, depuis la parution du Principe responsabilité de Hans Jonas, en allemand en 1979 et en français 1997.

Je cite Jean-Pierre Dupuy critiquant ces experts du risque :

« Le changement climatique, la pollution des océans, les dangers de l’énergie nucléaire ou du génie génétique, le déclenchement de nouvelles épidémies ou endémies : l’humanité saura bien s’en accommoder ou trouver les réponses techniques adéquates. La catastrophe a ceci de terrible que non seulement on ne croit pas qu’elle va se produire alors même qu’on a toutes les raisons de savoir qu’elle va se produire, mais qu’une fois qu’elle s’est produite elle apparaît comme relevant de l’ordre normal des choses. »

Le malheur de notre époque, selon Dupuy, c’est que l’on ne croit pas ce que pourtant l’on sait. La catastrophe est annoncée par d’éminents scientifiques, mais nous préférons croire que les experts officiels pourront nous l’éviter. Je le cite à nouveau :

« C’est cette métaphysique spontanée du temps des catastrophes qui est l’obstacle majeur à la définition d’une prudence adaptée aux temps actuels. »

Mais que faire contre cette malédiction ?

Contre cette métaphysique spontanée maléfique, Jean-Pierre Dupuy va élaborer une métaphysique qui se veut la voie étroite conduisant au salut , métaphysique que  je vais maintenant présenter synthétiquement. Dans le temps limité qui m’est imparti, je ne puis toutefois pas retracer dans tous ses détails et ses paradoxes le raisonnement de Jean-Pierre Dupuy. Ce dernier veut rendre performant, c’est-à-dire efficace, le discours du “prophète de malheur“ qu’est le “catastrophiste éclairé“.

Pour ce faire, il oppose le temps de l’histoire, qui est celui où le passé nous apparaît comme déterminé par diverses causes et où l’avenir est ouvert sur des embranchements de possibles, au temps du projet où le passé et l’avenir sont figurés en boucle de rétroaction, la représentation d’un avenir suprêmement détestable pouvant influer le présent et éviter cet avenir-là.

Nous nous retrouvons alors dans une situation voisine de celle qui exista durant la guerre froide, que l’on qualifia de destruction mutuelle assurée en cas d’agression, en anglais Mutual Assured Destruction (MAD). C’est réellement fou ! Pour cela, il suffit que l’avenir en question revête les traits de la fatalité.

Je cite une dernière fois Pour un catastrophisme éclairé :

« Le catastrophisme éclairé consiste à penser la continuation de l’expérience humaine comme résultant de la négation d’une autodestruction – une autodestruction qui serait inscrite dans un avenir figé en destin. Avec l’espoir, comme l’écrit Borges, que cet avenir, bien qu’inéluctable, n’ait pas lieu. »

Que penser de cette métaphysique ?

Il me semble tout d’abord que, contrairement à ce qu’affirme Dupuy, cette proposition ne relève pas de la métaphysique, mais de la stratégie, de la rhétorique, de l’argumentation, de la psychologie individuelle et collective, bref du discours politique au sens noble du terme. Le seul élément ressortissant à la métaphysique est sa référence sibylline à la fatalité, au destin. Au demeurant, l’intervention sur le présent des représentations négatives que l’on se fait de l’avenir est connue des penseurs de l’antiquité gréco-latine et surtout de la tradition hébraïque ou chrétienne comme l’atteste toute la littérature apocalyptique.

Pour tenter d’en évaluer l’efficacité, il me semble utile de consulter deux livres ultérieurs de cet auteur, Petite métaphysique des tsunamis, paru en 2005 et Retour de Tchernobyl, journal d’un homme en colère, paru en 2006.

Alors que Jean-Pierre Dupuy avait achevé le texte d’une conférence que lui avait demandée l’Université de Lyon II pour célébrer en 2005 le triple anniversaire du tremblement de terre de Lisbonne en 1755, de la découverte d’Auschwitz-Birkenau en janvier 1945 et des bombes atomiques lâchées en août 1945 sur Hiroshima et Nagasaki, survint le tsunami de décembre 2004 qui ravagea Sumatra et plusieurs pays riverains de l’Océan indien. C’est cette circonstance, totalement imprévisible, qui lui inspira le titre du premier de ces opuscules où affleure le catastrophisme de Günter Anders, l’auteur de L’obsolescence de l’homme, dont le premier tome parut en français en 2001, alors qu’il était paru en allemand en 1956. A l’imprévisibilité des désastres de Lisbonne et Sumatra s’oppose la prévisibilité des deux autres désastres qui n’ont pu être évités bien qu’ils eussent été prévus par certains.

Mais la responsabilité humaine est quand même tout autre pour les événements prévisibles !

Certes ! J’y viens à présent avec Retour de Tchernobyl. Cet ouvrage est constitué du journal que tint Jean-Pierre Dupuy lors du séjour qu’il fit en Ukraine et notamment à Tchernobyl en aout 2005 puis à son retour à Paris jusqu’en février 2006.

Il effectua ce déplacement pour participer (à Kiev) à une université d’été consacrée à l’analyse des conséquences de la catastrophe nucléaire de Tchernobyl, à l’approche du vingtième anniversaire de celle-ci, survenue le 26 avril 1986.

La première colère que relate Dupuy dans Retour de Tchernobyl, journal d’un homme en colère, est provoquée par certains de ses interlocuteurs ukrainiens qui faisaient état de centaines de milliers de morts causés par la l’accident. Puis, sa colère se retourne contre l’évaluation du nombre des victimes par le Forum de Tchernobyl, mis en place en 2002 par l’Agence internationale de l’énergie atomique (AIEA, dont le siège est à Vienne), l’Organisation mondiale de la santé (dont il ne mentionne pas qu’elle a abdiqué ses compétences en matière nucléaire à l’AIEA) et plusieurs autres institutions des Nations Unies. Après de savantes enquêtes et évaluations, ledit Forum avance le chiffre de 4’000 morts. Nouvelle colère de Dupuy qui juge ce chiffre trompeur et retient le chiffre de 40’000 morts. Pour ma part, j’incline à penser que ce dernier chiffre est encore largement sousestimé puisque, en 2010, l’Académie des sciences de New-York devait dénombrer 985’000 vies perdues du fait de la catastrophe entre 1986 et 2004, soit tout près d’un million. J’incline donc à penser que la colère de Dupuy trouve sans doute son origine  ailleurs encore, dans des zones de sa psychè qu’il se garde de sonder.

L’initiative de l’université d’été à laquelle participa Jean-Pierre Dupuy émanait du « Laboratoire d’analyse sociologique et anthropologique des risques (LASAR) de l’Université de Caen et plus spécialement à l’un de ses chercheurs, le sociologue Frédérick Lemarchand.» (p. 20) Et il relate longuement les échanges qu’il eut avec différents membres de ce LASAR tant à Kiev et Tchernobyl qu’après son retour à Paris.

Au passage, Dupuy s’émerveille de la connaissance du français qu’ont les participants ukrainiens à cette manifestation. « Il est vrai, précise-t-il, que plusieurs des participants sont membres du projet ETHOS-CORE, dont certains des fondateurs furent des chercheurs français. Le projet, qui s’est d’abord développé en Biélorussie, le pays le plus touché par la catastrophe se déploie à présent en Ukraine. Ses objectifs ont quelque chose à voir avec la science-fiction.  « “Comment vivre le plus sainement possible après une apocalypse nucléaire ?» pourrait en être le slogan.» (p. 23,24) En réalité, les compagnons de Jean-Pierre Dupuy, membres du LASAR, étaient vraisemblablement associés à ce projet.

Si, dans ses échanges avec Lemarchand et ses collègues, Dupuy met en doute la possibilité d’apparition d’une “culture du risque“ radioactif, il semble  en revanche avoir oublié sa prévention contre les “gestionnaires du risque“ et ne s’interroge nullement sur les implications de leur projet pour la préparation de situations accidentelles ailleurs que dans la région de Tchernobyl.

Mais le projet EHOS-CORE  ne relève-t-il pas de l’humanitaire ?

Je crains que non. Voici ce qu’en pense une chercheuse française.

Dans son remarquable ouvrage La France nucléaire. L’art de gouverner une technologie contestée, paru au Seuil, en septembre 2013, Sezin Topçu, historienne et sociologue des sciences, chargée de recherche au CNRS, rappelle que les responsables français de l’électronucléaire ont longtemps affirmé qu’un accident grave, comportant des conséquences sur la santé publique, était impossible en France. Toutefois, après Tchernobyl, ils ont progressivement changé de discours. C’est ce que signale l’article paru dans Le Monde le 21 octobre 2008 sous le titre “La France se prépare aux conséquences d’un accident de type Tchernobyl sur son sol.“ (S. Topçu, op. cit. p. 242)

Selon Sezin Topçu, il semble que la genèse de cette évolution doive être recherchée du côté de deux experts français : « l’un directeur du bureau d’études Mutadis – un cabinet spécialisé dans la gestion des activités à risque -, et l’autre, sociologue-psychanalyste de l’Université de Caen, qui se sont vu confier par la Commission européenne le Programme européen pour l’évaluation des conséquences de l’accident de Tchernobyl (1991-1995). (S. Topçu, p. 225) Cette société avait été très active dans le lancement du projet Ethos visant à aider les populations d’un district de Biélorussie, déplacées ensuite de l’accident, à retourner en zone contaminée pour y apprendre à “vivre autrement“ en gérant elles-mêmes leur contamination radiologique. Cette politique aboutit à “l’individualisation des risques“ qui avaient été pris par les autorités soviétiques. Curieusement, le gouvernement suisse a accepté de cofinancer, avec la Commission européenne, une deuxième étape de ce projet. (S. Topçu, p. 226)

En 2003,  un vaste programme international nommé Core (Coopération pour la réhabilitation des conditions de vie dans les territoires contaminés de Biélorussie) a été lancé pour déployer Ethos dans d’autres districts de Biélorussie, avec à nouveau une participation financière suisse. (S. Topçu, p. 238)

Le projet EHOS-CORE serait-il alors une émanation des promoteurs français du nucléaire ?

D’après Sezin Topçu, il émane non seulement des promoteurs français du nucléaire, mais aussi des instances de l’Union européenne.

En 2002 – écrit-elle – peu avant le lancement de ce programme, un projet européen  a vu le jour qui se propose d’élaborer un guide de culture radiologique pratique à destination du grand public. Selon S. Topçu, ce programme a deux volets : « Le premier est celui d’une pédagogie de la catastrophe, l’objectif étant d’habituer les individus à l’idée d’un changement profond et irréversible de leurs conditions de vie. Et le second volet traite d’une pédagogie de la responsabilité, de la responsabilisation préalable des individus avant même que la catastrophe ne survienne pour qu’ils aient connaissance du rôle actif et permanent qu’ils seront amenés à jouer dans un contexte post-accidentel. »(S. Topçu, p. 240,1)

Et il faut savoir que les experts français d’Ethos sont bien à l’œuvre à Fukushima, comme en Biélorussie et en Ukraine, où ils accumulent un savoir en vue de notre avenir.

Mais Jean-Pierre Dupuy pouvait ne pas prévoir ces développements !

Certes ! Mais n’aurait-il pas dû se préoccuper de ce qu’était le projet ETHOS-CORE en 2005 et en rechercher la signification pour l’avenir de la France et de l’Europe ?

Pour ma part, ce Retour de Tchernobyl, m’a incité à une nouvelle lecture de Pour un catastrophisme éclairé.

Son auteur s’est-il interrogé sur la responsabilité de la France et de ses élites intellectuelles dans le risque de catastrophe inhérent à la nucléarisation exceptionnelle de son pays ?

Quelle a été sa position face au mouvement antinucléaire français et européen qui, lui, depuis maintenant quarante ans, n’a cessé de dénoncer ce risque, non point au nom du principe de précaution, mais tout simplement pour prévenir une catastrophe ?

Comment a-t-il réagi aux avertissements nombreux qui s’élevèrent dès 1976 contre la construction du surgénérateur Super-Phénix de Creys-Malville de 1200 MWé, comportant près de cinq tonnes de plutonium, l’une des substances radioactives les plus toxiques, et refroidi avec quelque 5’000 tonnes de sodium, un métal qui peut s’enflammer spontanément à l’air et explose au contact de l’eau ?

Et que pense-t-il de la récente décision des autorités françaises qui, malgré l’échec ruineux du Super-Phénix, ont décidé de construire le surgénérateur Astrid de 600 MWé, prévu lui aussi pour fonctionner avec des tonnes de plutonium et de sodium liquide ?

A ma connaissance, il ne se pose pas ces questions et, en tout cas, n’en débat-il jamais. Il n’a pas écouté les lanceurs d’alarme et, s’il les a entendus, il ne leur a répondu que par son silence. Le prophète du catastrophisme éclairé me paraît avoir  été passablement inconséquent avec ses principes.

Mais qu’aurait-il pu faire ?

Pour prévenir la catastrophe que préparent les promoteurs français du nucléaire, l’ingénieur-philosophe qu’il est  aurait dû commencer par s’interroger sur les conditions particulières qui ont permis et favorisé cette périlleuse évolution.

Il y a tout d’abord, me semble-t-il, l’héritage idéologique du saintsimonisme et du marxisme dans l’intelligentsia française, notamment dans les grandes écoles, particulièrement à l’Ecole polytechnique et à l’Ecole des mines, qui ont fourni tant de dirigeants du Commissariat à l’énergie atomique (CEA) et de l’électronucléaire français. Rappelons que le communiste Frédéric Joliot-Curie fut le premier patron du CEA.

Il y a l’héritage gaulliste de la volonté de grandeur qui a trouvé un exutoire dans ce domaine à haut risque, plus ou moins délaissé par les autres grandes puissances en raison de sa dangerosité.

Il y a aussi l’impécuniosité des universitaires français, parmi les moins bien payés en Europe, ce qui induit la vénalité d’une frange d’entre eux qui se laissent séduire par les promoteurs d’activités douteuses en mal de crédibilité, dont celles relatives au nucléaire.

Il y a, sans doute, bien d’autres circonstances qu’un esprit aussi érudit et averti que Jean-Pierre Dupuy aurait pu détecter et qui lui auraient permis de contribuer à épargner à la France le désastre auquel ses nucléocrates ont pu impunément choisir de l’exposer, si seulement il avait eu le courage de s’émanciper de la solidarité clanique des grandes écoles et du Corps des mines, dont il est issu.

Jean-Pierre Dupuy a préféré présider le Comité d’éthique et de déontologie de l’Institut de radioprotection et de sûreté nucléaire (IRSN) dont la charte d’éthique et de déontologie ignore, tout simplement, le principe de précaution, même dans sa version édulcorée par le Parlement français !

Poster un commentaire

Classé dans Actions et Politiques, Catastrophes, en français, Problématiques énergétiques