Mission parlementaire sur la sécurité nucléaire et l'avenir de la filière nucléaire
Les installations nucléaires françaises face aux risques naturels
Introduction
Le Président Claude Birraux. Les problèmes de sûreté nucléaire ont pris une intensité nouvelle depuis les événements de Fukushima. Un représentant de l'Autorité de sûreté nucléaire (ASN) fera, comme lors de nos précédentes réunions, un point de la situation au Japon.
MM. les présidents des deux chambres du Parlement ont souhaité que l'Office parlementaire des choix scientifiques et technologiques (OPECST) pilote une mission spécifique. L'OPECST fonctionne ici en configuration élargie – à huit députés et huit sénateurs, qui ne sont pas membres de l'office – et selon un schéma de commission d'enquête. Habituellement, une mission de l'Office est assumée par le seul rapporteur.
Les auditions sont ouvertes à la presse. Nous publierons en juin un rapport d'étape sur la sécurité nucléaire, puis aborderons, en juillet, le second volet : la place du nucléaire dans le système énergétique français.
Un événement de l'ampleur de celui survenu à Fukushima peut-il se produire en France ? Nous souhaitons faire le point sur les risques naturels brusques et rappeler l'état de la connaissance sur leur évaluation scientifique – cette première table ronde sera animée par le rapporteur M. Christian Bataille. La seconde, portant sur les moyens de protection des installations nucléaires, sera animée par M. Bruno Sido, rapporteur et premier vice-président de l'office.
A la centrale de Fukushima le 11 mars, un violent séisme a provoqué l'arrêt automatique des réacteurs, mais aussi la perte des alimentations électriques. Les diesels de secours se sont mis en route pour refroidir les piscines et le coeur des réacteurs. Mais le tsunami a neutralisé les diesels, les combustibles ont chauffé, les gaines ont éclaté et partiellement fondu. L'exploitant a alors procédé à des décompressions volontaires et des rejets radioactifs ont eu lieu, par bouffées, entre le 11 et le 15 mars. L'interaction entre les gaines à très haute température et l'eau a provoqué des dégagements d'hydrogène et des explosions, hors et sans doute à l'intérieur des enceintes de confinement. Une partie du coeur des réacteurs a fondu faute de refroidissement.
Entre le 15 et le 30 mars, de l'eau de mer puis de l'eau douce ont été injectées en circuit ouvert dans le coeur des réacteurs ; l'alimentation électrique a ensuite été rétablie, sans que l'on parvienne cependant à arrêter les rejets. On est entré depuis lors dans la phase de gestion à long terme de l'accident. L'injection d'eau dans les réacteurs 1, 2 et 3 a entraîné une accumulation sur le site de quantités d'eau fortement radioactive, 200 000 tonnes, ce qui constitue un autre problème à gérer. Pour limiter sa dispersion et son déversement dans la mer, l'opérateur a eu recours à un épandage de résines et a disposé des sacs.
Sur la base des informations dont dispose l'ASN aujourd'hui, nous pouvons indiquer que les plus gravement accidentés sont les réacteurs n° 1, 2 et 3. De fortes incertitudes demeurent sur l'état précis de ces installations. Récemment, des membres du personnel sont entrés dans le site du réacteur n° 1 et ont confirmé qu'une partie du combustible a fondu, que la cuve n'est plus étanche, ni l'enceinte de confinement. L'état des réacteurs n° 2 et 3 reste à confirmer.
Quant aux conséquences sanitaires, les jours suivant l'accident, les rejets radioactifs ont représenté un dixième de ceux observés à Tchernobyl, et 21 travailleurs ont été soumis à des doses supérieures à 100 millisieverts (mSv), soit la valeur limite autorisée en situation d'urgence en France. Au Japon, la valeur limite est de 250 mSv. Un périmètre de 20 km autour de la centrale a été évacué ; entre 20 et 40 km, l'évacuation est en cours, dans le cadre de la gestion à long terme de l'exposition des populations. La restriction de la consommation des denrées alimentaires ne touche pas notre pays, la dilution étant importante entre le Japon et la France. L'accident a été classé au niveau 7 de l'échelle INES.
I. les risques naturels majeurs et leur évaluation
Les événements dramatiques de mars dernier au Japon ont suscité des interrogations sur la capacité à prévoir les risques naturels, à concevoir des protections suffisantes pour les centrales, à former le personnel en conséquence. La France pourrait-elle connaître des catastrophes équivalentes à celle de Fukushima ? Quels sont les risques naturels les plus menaçants pour la sécurité nucléaire ? Sont-ils plus importants que dans le passé, augmentés par le réchauffement climatique ? Les méthodes d'évaluation sont-elles fiables ? Comment prendre en compte les risques aggravés avec effet domino ? Nous allons entendre sur ces questions M. Vincent Courtillot, géophysicien. Notre pays est-il soumis à des risques sismiques et volcaniques ? A des risques comparables à ceux qui se sont produits au Japon ? Un tsunami provenant d'un séisme à l'étranger est-il possible et sur quelles côtes ? Le tremblement de terre survenu le 11 mai à Lorca en Espagne, s'il s'était produit le long des côtes italiennes à risque sismique, aurait-il pu susciter un tsunami ?
Je participe à un groupe de travail, « Solidarité Japon », présidé par le professeur Alain Carpentier, président de l'Académie des sciences. Les trois sous-groupes sont consacrés aux aspects sismiques, nucléaires et médicaux ; ils sont présidés par MM. Jacques Friedel, Edouard Brézin et Etienne- Emile Beaulieu, anciens présidents de l'Académie. Le rapport qui sera présenté à celle-ci fin mai sera ensuite à disposition de tous. Au Conservatoire des arts et métiers, une passionnante séance a aussi été consacrée à la question par le professeur Michel Béra, titulaire de la chaire modélisation statistique du risque. Mon intervention de ce matin, enfin, puise à la présentation faite par le professeur Armijo, à l'Académie des sciences, devant le sous-groupe sismologie.
Pendant six ans, j'ai été directeur de l'Institut de physique du globe de Paris, mais je ne vous parlerai pas de volcans, car le risque qui nous intéresse aujourd'hui est plutôt le tsunami : un tel événement peut-il se produire en France ?
Les cotes d'altitude révèlent que le site où a été construite la centrale de Fukushima était une terrasse à 40 mètres au-dessus de la mer. Elle a été surcreusée à 30 mètres, puis à 7 mètres au-dessus de la mer pour l'installation des tranches centrales, 1, 2, 3 et 4 ; situées un peu plus en hauteur, les 5 et 6 étaient inactives au moment du tsunami. Si l'on n'avait pas rabaissé artificiellement le relief (et diminué le coût de l'aspiration de l'eau de mer utilisée dans le cycle de refroidissement), la zone n'aurait pas été inondée, et aucun des dommages causés aux réacteurs ne se serait sans doute produit sous l'effet du tremblement de terre. Car les bâtiments japonais ont remarquablement résisté au séisme, mieux que prévu, ce qui peut s'expliquer par une saturation des accélérations dans les hautes magnitudes. Si la centrale avait été située dix mètres plus haut, elle n'aurait pas souffert, c'est une certitude.
Pour construire la centrale, une falaise artificielle a donc été découpée. Elle borde les installations nucléaires sur l'arrière. On voit nettement sur les photographies aériennes la zone maximum de mouillage et la marque de la vague venue battre la falaise pendant plusieurs heures, le temps de l'inondation, à une hauteur de deux ou trois mètres. La vague était de 10, 12 ou 14 mètres.
L'événement était-il prévisible ? Avant le tremblement de terre de Sumatra en 2004, on n'imaginait guère un séisme de plus de 9 de magnitude, et l'on en avait enregistré trois seulement au XXe siècle, en 1960 au Chili, en 1964 en Alaska, en 2004 en Indonésie. Sans doute supérieur à ce seuil, celui survenu au Kamchatka en 1952 a été réévalué dernièrement. Précisons que les séismes provoqués par des chevauchements géants et d'une magnitude supérieure à 8 ne sont mesurables que depuis le début du XXe siècle. On en a dénombré trois au siècle dernier, déjà deux dans les douze premières années de ce siècle.
Le récent tremblement de terre s'est produit par enfoncement du fond de la plaque Pacifique sous les îles du Japon, et cet événement est en quelque sorte la répétition d'un autre, le séisme du Kamchatka en 1952, quand toute une zone a « claqué » ; le séisme a été, on le sait à présent, d'amplitude 9. Le nord de Hokkaido, le sud de Tokyo, pourraient dans l'avenir connaître de semblables phénomènes.
Pourquoi les Japonais, dans leurs prévisions, ont-ils méconnu la possibilité d'un tel événement ? Parce qu'ils se fondaient sur des méthodes qui faisaient consensus depuis la théorie de la dérive des continents et de la tectonique des plaques, illustrée dans les années soixante par des sismologues japonais éminents, notamment le professeur Hiroo Kanamori, une lumière de la discipline.
Le tremblement de terre a été suivi de répliques dans toute la zone qui a cassé. Sur les cartes, on situe le foyer du séisme, qui est entouré de tous les points de réplique. Autour et au-delà, on sait que toute la zone a, dans le passé, connu des cassures, en particulier en 1896 lors du tremblement de terre de Sanriku. La zone qui avait cassé alors se situait près de la faille qui s'enfonce dans le Pacifique, plus loin des côtes.
Le consensus scientifique retenait historiquement le scénario suivant : lorsqu'une plaque s'enfonce sous l'autre, les contraintes s'accumulent, une faille secondaire se forme, et seule peut ensuite casser une partie de cette faille – soit la partie supérieure, en provoquant un tsunami, soit la partie inférieure, sans provoquer de tsunami puisqu'il n'y a pas, dans ce cas, de « coup de pied au fond de la baignoire ».
Certains chercheurs minoritaires contestaient cependant cette thèse comme l'existence de cette faille. Un programme de recherche proposé à l'Agence nationale de la recherche (ANR) a été mis en échec par les rapporteurs en raison de ce consensus autour d'une thèse qui, on le sait à présent, est totalement fausse.
La totalité de la croûte continentale sur 40 km d'épaisseur a lâché sur 200 km en profondeur, sur 500 km de large : imaginez le cinquième de la surface de la France frottant sur le reste et se déplaçant de 20 mètres… Le déplacement semble même avoir atteint 50 mètres dans les fonds marins. C'est du jamais vu !
Il se trouve que des géologues avaient cherché à savoir si un tsunami de grande ampleur s'était produit dans l'histoire. Faisant des prélèvements autour de l'aéroport au sud de Sendai, ils ont découvert qu'un tsunami s'était produit en 869. On constate sur leurs relevés que la zone de montée des eaux est rigoureusement la même qu'en 2011. En 1611 aussi s'était produit un tremblement de terre dont nous n'avions pas compris qu'il était de même importance. Le consensus sur les modèles avait fait évaluer le séisme de 869 à une magnitude de 8,4, en fait sensiblement sous-estimée. Encore en 2009, on prévoyait un risque de séisme tsunamique de 8,2 au maximum. On n'imaginait pas que toute la zone claquerait.
Des mégachevauchements sont possibles dans toutes les zones de subduction majeure du monde. Il convient donc désormais de réviser les prévisions de risque dans ces environnements. On sait aujourd'hui que le consensus, les concepts faux et le jargon ont abouti à des erreurs d'analyse partagées par la majorité des géophysiciens, certains d'excellente réputation. Des modélisations numériques très élaborées ont suscité un excès de confiance.
La géologie ne se limite pas à l'échelle du siècle, elle remonte au plus loin. Il ne suffit pas de prendre en compte la crue millénaire, il faut connaître les crues survenues il y a 10 000 ans, 100 000 ans. C'est sur toutes ces échelles de temps emboîtées qu'il faut travailler, avec des moyens peu coûteux : la géologie consiste à analyser des tranchées, des coupes, des forages.
Sur le plan humain, au Japon, la catastrophe a été limitée, si j'ose dire, à 20 000 ou 30 000 morts, dans une zone qui compte 200.000 habitants – à comparer aux 250 000 morts à Sumatra. La prévention, l'éducation, le comportement des Japonais, leur réponse à l'alerte, les mécanismes d'arrêt automatique ont contribué à sauver de nombreuses vies.
Après Sumatra, le gouvernement français a nommé un délégué interministériel pour suivre les risques dans le bassin indien, le bassin méditerranéen, les Caraïbes ; un observatoire des tsunamis a été créé, des crédits de recherche annoncés. Un an et demi après, tout cela avait déjà disparu… Les organismes de recherche ont néanmoins continué à travailler. Ils ont mis en évidence qu'il y a une zone dans le monde où nous courons des risques comparables à celui du Japon, il s'agit des Caraïbes, où s'est produit un grand tremblement de terre en 1843, de magnitude 8 probablement. En 2004, celui des Saintes a fait des dégâts matériels, mais les répliques, dont on ne parle pas, durent encore. Surtout, en 2007, un séisme de 7 s'est produit en Martinique, peu destructeur en raison de la profondeur à laquelle il a eu lieu comme de l'heure à laquelle il est survenu. S'il s'était produit 20 kilomètres plus haut sur la zone de subduction, ses conséquences auraient été beaucoup plus graves.
Toute la zone de subduction peut-elle lâcher, comme au large du Japon ? Les Caraïbes pourraient connaître trois types de séismes : moyens crustaux, très importants profonds, mais peut-être aussi claquage de toute la zone de subduction. Toutes les îles subiraient alors un tsunami comme celui qui s'est produit à Tohoku. La différence tient dans la vitesse de rapprochement des plaques, quatre fois plus faible dans les Caraïbes, et le temps de récurrence du séisme, qui serait quatre fois supérieur.
Au Japon, tout ce qui était bloqué depuis 400 ou 500 ans a cassé d'un coup. On croyait que tout glissait sans bruit, on ne s'en inquiétait plus. Dans les Caraïbes, tout est bloqué sans doute depuis 1 500 ans. Mais l'histoire, pour nous, ne remonte qu'à Christophe Colomb. Il nous faut ici le secours de la géophysique. Une dernière précision : le risque sur la côte d'Azur et à Nice n'a rien à voir avec le cas japonais…
L'une des deux tempêtes de 1999 a causé un début d'inondation à la centrale du Blayais. Ces installations ont un besoin permanent de sources froides, et l'on peut se demander si le réchauffement climatique ne risque pas, à terme, de compromettre le refroidissement des centrales.
Je veux évoquer les problèmes de la prévision sous l'angle philosophique et pratique. La difficulté vient de ce qu'il y a d'une part l'échelle de temps à quelques décennies, d'autre part des événements extrêmes à petite échelle d'espace. C'est la combinaison la plus difficile à traiter pour la prévision.
La question du changement climatique a une histoire très particulière. Il a y eu trois temps de la recherche. Dans les années cinquante et soixante, on a mis en évidence que des gaz à effet de serre, CO2 en particulier, pouvaient s'accumuler dans l'atmosphère, l'océan et la végétation ne pouvant les absorber entièrement. Puis, dans les années soixante-dix, à l'ère des spectroscopistes, on a montré que ces émissions pouvaient affecter le bilan radiatif de la planète : cette phase est très liée à l'observation spatiale. La première communication sur les perturbations possibles a été faite devant l'Académie des sciences américaine en 1979. Puis est arrivée la première phase de modélisation des modifications potentielles du système climatique. La modification de la composition chimique de l'atmosphère a été confirmée par les modèles plus complexes : le réchauffement est plus fort sous les hautes latitudes et les continents, moindre dans les océans ; les précipitations seront plus élevées là où il pleut déjà, autour de l'Equateur, et plus faibles en zone subtropicale. Les émissions de gaz à effet de serre ont commencé dans les années cinquante, les premiers effets climatiques – correspondant au délai de réchauffement des océans – apparaissent depuis quelques années.
Le passage de ces grandes échelles aux petites échelles atmosphériques pose des problèmes physiques considérables. Il y a certes un pilotage des secondes par les premières, mais partiel, difficile à mettre en évidence. Et plus l'échelle est petite, plus les événements sont rares, plus le recul statistique est faible. Le problème est encore plus ardu pour les précipitations, par essence liées aux circulations dans l'atmosphère, phénomènes épisodiques. Plus les événements sont extrêmes, et plus grande est la difficulté statistique.
Comment estimer le risque encouru par l'Europe de l'ouest, qui est soumise à l'influence de l'Atlantique, mais moins que ne l'est le continent américain à l'influence du Pacifique ? Comment les changements climatiques affectent-ils notre région ? La première phase du changement climatique consiste en une variation de fréquence et d'intensité de certaines structures météorologiques. Il convient d'utiliser tous les documents, en remontant dans un passé même lointain, car tout ce qui est arrivé a vocation à revenir. Ce doit être le point central de toute politique de sécurité. Il faut exploiter statistiquement l'historique des aléas. Mais l'observation du passé ne fournit pas une image de tous les risques possibles, en raison, précisément, des modifications climatiques. Si l'on ne sait pas préciser les risques, on en a du moins une idée générale.
Mon laboratoire, au sein de l'Institut Pierre Simon Laplace des sciences et de l'environnement (IPSL) a travaillé avec le Centre de recherche de Météo-France de Toulouse et nous avons publié une cartographie et un rapport. Plus le climat est chaud, plus l'atmosphère comprend d'eau, et plus sont favorisés les orages convectifs et les tornades. Les tempêtes hivernales n'entrent pas dans cette catégorie ; leur processus est peu lié à ces sources de chaleur et elles n'ont pas de lien clair avec le réchauffement climatique.
En Europe, on s'attend, par un grossissement de l'anticyclone des Açores, à ce que l'Europe du sud devienne plus sèche, l'Europe du nord plus humide, avec une modification de la route des tempêtes. Les études sur les échelles qui se développent visent à cerner les mécanismes liant les échelles globales, que l'on comprend mieux, et les échelles locales, que l'on comprend moins. La démarche est double, car on s'efforce aussi de comprendre en quoi les infrastructures climatiques sont vulnérables à des aléas, pour réinterroger ensuite les connaissances, incertaines, sur les évolutions climatiques. Cet aller-et-retour entre une modélisation incertaine et des infrastructures dont on tente de préciser la vulnérabilité à ces éléments de prévision est indispensable. Il doit, à mon sens, fonder toute notre approche de la sécurité.
M. Bernard Tardieu est spécialiste de la conception et la réalisation des barrages, stations de pompage, usines hydroélectriques. Il va évoquer les risques de glissements de terrain, de ruptures de barrage comme à Malpasset en 1959, qui a causé 400 morts. Les barrages menacent-ils nos centrales en aval ? De quelle hauteur pourrait être la vague ? Quels sont les risques liés aux glissements de terrain ?
Le produit de la menace et de la fréquence forme l'aléa ; la projection de cet aléa dans un espace socioéconomique constitue le risque. Dans le cas des barrages, le risque est avéré au niveau mondial : la commission internationale des grands barrages tient depuis 1930 le registre des accidents et incidents. La menace est avérée en France, puisque des accidents majeurs sont intervenus depuis cent trente ans. Deux accidents sur le barrage de Bouzey, haut de 18 mètres, ont causé 100 morts en 1884 et 1895. Le barrage de Malpasset, 66 mètres, s'est rompu en décembre 1959, causant la mort de 421 personnes.
On compte aujourd'hui environ 45 000 barrages dans le monde, et 1 200 en construction. En juin 1976, aux Etats-Unis, le barrage de Teton (Idaho) s'est rompu au premier remplissage, causant la perte de 13 000 têtes de bétail, mais la mort de seulement onze personnes, car l'alerte a bien fonctionné et la population a pu être évacuée.
Dans certaines catastrophes, le barrage n'était pas en cause mais les conséquences furent néanmoins très graves, en domino. A Vajont (Italie du nord), en 1963, un glissement de terrain sur la rive gauche est constaté, et voici que le glissement s'accélère, jusqu'à 110 km par heure, le volume du glissement atteignant presque celui de la retenue ; une vague de 150 mètres passe par-dessus le barrage, qui résiste. Mais il y a tout de même un millier de morts.
Autre exemple d'un accident en domino, en août 2008, en Russie, à Saïano Chouchenskaïa. Sur l'une des turbines, les boulons du couvercle se rompent par vibrations ; l'ensemble de la turbine saute en l'air sous une charge de 245 mètres d'eau, l'eau retombe, le système électrique disjoncte, le départ de l'énergie est coupé, toutes les autres roues entrent en survitesse et explosent à leur tour, l'eau retombe partout, le système d'énergie supplémentaire disparaît, on ne peut plus commander la fermeture des vannes. Un homme gravit dans le noir les marches et remonte les 245 mètres du barrage : il parvient à fermer les vannes. L'eau passe par l'évacuation de crue, qui fonctionne habituellement en été. C'est l'hiver, les embruns gèlent, retombent sur le toit de l'usine, qui s'effondre, faisant 70 morts.
Les accidents se produisent surtout sur les petits barrages, digues sèches de la Camargue, de la Vendée, de la Loire. Les petits barrages de 4 ou 5 mètres sont vulnérables à une vague de 2 mètres, qui peut être calamiteuse.
On a déploré aussi des ruptures de vannes, dans le Tarn, en Turquie, ou des accidents dus à des manoeuvres d'exploitation, comme celui du Drac, en Isère. Ce sont les petits barrages en terre qui se rompent le plus facilement.
Pas de nuage chimique ou nucléaire, on est dans le domaine du risque naturel amplifié. L'eau est lâchée, elle descend et suit exactement la vallée. Les effets suivent la géographie. L'onde de submersion du barrage est parfaitement calculable par les modèles physiques et numériques. On connaît ses limites, sa vitesse et l'on peut prévoir son arrivée en tel point, dans tel délai. A Vaison-la-Romaine, il s'agissait d'un accident naturel, puis une vague s'est formée, qui a tout détruit. Dans le cas d'une inondation simple, lorsque les eaux montent doucement, le danger est moindre.
Parfois, comme à Bouzey ou Malpasset, les accidents étaient liés à des phénomènes mal maîtrisés à l'époque. Le progrès des sciences, mais aussi de l'auscultation et de la surveillance, permet aujourd'hui de les éviter. Les ruptures de barrage interviennent dans la moitié des cas lors de la première mise à l'eau. Parmi les sources essentielles d'accidents, on peut citer la pluie, les crues sous-estimées, la mauvaise manoeuvre des vannes et l'abandon des petits ouvrages.
Les séismes n'ont jamais causé d'accident mortel. Et ce n'est pas faute que les barrages en aient subi ! Citons le séisme de Tokachi-Oki, au Japon, en mai 1968, d'une magnitude de 7,8, le séisme du 4 mars 1991 d'une magnitude de 7,3 à proximité du barrage de Sefid Rud dans le Nord de l'Iran, le séisme du 21 mai 2003 d'une magnitude de 6,8 à proximité de Boumerdès en Algérie et, enfin, le séisme de Wenchuan en Chine du 15 mai 2008. Dans tous les cas, on a constaté, tout au plus, quelques fissures. En revanche, le barrage de Zipingpu d'une hauteur de 156 m, achevé en 2008, pourrait être un élément déclencheur du séisme de Wenchuan. Enfin, rappelons que l'exigence de sécurité est que le réservoir se vide progressivement et lentement, non que la structure soit inaltérée.
Quel système de contrôle et de sécurité en France ? Il relève de circulaires ministérielles adressées aux préfets, soit des documents non opposables aux citoyens. Les responsables des ouvrages sont leurs propriétaires. Je ne conseille donc à personne d'en accepter un en héritage, même s'il est charmant... Après la catastrophe du barrage de Malpasset, on a constitué un comité technique permanent des barrages en 1963, devenu le comité technique permanent des barrages et des ouvrages hydrauliques (CTPBOH). Il regroupe huit à douze membres, essentiellement des hauts fonctionnaires et quelques personnalités qualifiées, dont je suis. Sa mission est de prévenir, de surveiller les ouvrages et d'informer. Les documents – plans d'alerte, puis plans particuliers d'intervention – se sont améliorés ; ils se fondent sur l'analyse de l'onde de submersion ainsi que sur un dispositif d'alerte dans la zone des quinze minutes. Pour une rupture de barrage, le signal national d'alerte est un son de corne de brume composé d'une émission de 2 secondes entrecoupée d'un intervalle de silence de 3 secondes, puis deux minutes à la fin de l'alerte. Son déclenchement est humain – je ne suis jamais parvenu à savoir qui appuie sur le bouton, mais j'espère que cette personne est définie. Cette solution est de loin la meilleure pour éviter tout déclenchement intempestif. Le cas s'est produit au barrage de Vouglans dans l'Ain qu'on avait équipé d'un système automatique : la population s'est retrouvée en pyjama et en chemise de nuit dans la montagne par un froid glacial. Ce genre d'incidents tue l'alerte.
La dernière circulaire de 2008, qui intègre les notions contemporaines de vulnérabilité et de risque, décompose les barrages selon l'ampleur de la menace en quatre catégories (A, B, C et D). Elle prévoit des études de danger parfaitement didactiques, précise-t-on, et orientées vers les populations et les mairies. L'arrêté de 2008 sur la sécurité et la sûreté des ouvrages prévoit une revue de sûreté de 700 ouvrages de plus de 10 m et de 400 grands barrages par des organismes de qualifiés.
J'en viens aux glissements de terrain, avalanches et chute de glaciers, notamment de leurs moraines frontales. Ces phénomènes, nombreux dans les zones sismiques, sont essentiellement dus aux fortes pluies, surtout lorsqu'elles sont précédées de périodes de sécheresse, et aux variations des retenues de barrage. Pouvant créer des séismes, ils se soldent parfois par la formation de barrages naturels, extrêmement instables et dangereux pour les ouvrages. Si ces derniers se déversent, la rupture rapide est inéluctable. D'où les Chinois tirant dessus au canon lors du séisme de 2008, ou encore le tunnel creusé au lac Paron au Pérou pour vidanger. En Equateur, le glissement lié au séisme a provoqué des embâcles considérables, tous les arbres étant précipités au fond de la vallée, avec des effets dominos tout le long de la rivière… Enfin, tout changement de climat dans une région augmente le risque de glissements de terrain, le temps que la géographie s'adapte.
Pour conclure, quelques remarques. La menace d'une rupture de barrage a plané après la catastrophe de Fukushima. Un ouvrage fissuré, parce qu'il a subi un fort séisme, ou encore un ouvrage qui a déversé à cause d'une crue énorme, reste-t-il sûr ? A ma connaissance, aucun scénario n'est prévu pour faire face à cette éventualité.
Les zones à risque entraînent un effet d'aubaine sur le foncier et, donc, des installations, qu'elles soient autorisées ou non. Résultat, le nombre de personnes exposées, et donc le risque, augmente. Impossible d'expliquer cette logique à un Chinois à propos du barrage des Trois Gorges !
Enfin, je crains que l'intéressante notion d'amélioration continue, mise en avant par le Gouvernement et EDF, ne se traduise par de simples améliorations sur le papier et une multiplication des intervenants. D'autant que la transmission du savoir-faire de la conception et de la construction se perd, que la rentabilité et le court-terme priment et que le travail en équipe est sous-estimé. Cette évolution empêche une vision globale de la menace pesant sur les ouvrages.
Comment calculer des probabilités quand les événements sont rares ? Comment prendre en compte les risques aggravés, tel le séisme au Japon provoquant un tsunami qui a, lui-même, entraîné un accident nucléaire ? Voilà les questions auxquelles répondra Michel Broniatowski, professeur au laboratoire de statistique théorique et appliquée de l'Université Pierre et Marie Curie.
Une variable de risque est une variable que l'on va probabiliser ; cependant, modéliser le risque extrême est un exercice complexe, car, comme nous nous disposons de peu d'observations, le modèle n'a plus grand rôle. Typiquement, celui-ci est plus difficile à obtenir, faute de données, de sorte que l'on doit l'informer avec des lois physiques. Or on maîtrise moins la physique des phénomènes extrêmes, par manque de retour d'expérience. En outre, les valeurs extrêmes, en raison de leur grande dispersion, ne peuvent pas être modélisées de manière globale ; elles doivent être étudiées en tant que telles. Contrairement à un assureur établissant une tarification, on ne doit pas raisonner à partir de la cloche d'une courbe de Gauss. Partir de l'ensemble des données est souvent une erreur profonde.
Prenons la modélisation de la magnitude d'un séisme dans une approche probabiliste. Des modèles standards existent depuis les années cinquante sous le nom de la loi de Gutenberg-Richter. Leur but est d'obtenir une représentation locale de la répartition de la magnitude pour, entre autres, dimensionner les ouvrages. Sont-ils plausibles ? Non, car les récents travaux montrent qu'il faut travailler sur la notion de séisme maximal annuel, fondés sur le relevé des séismes maximaux enregistrés année après année, pour établir une courbe de fréquence des maxima. L'intérêt de cette méthode est sa stabilité. Attention, cependant, à l'interprétation de la période de retour : une probabilité d'un millième ne signifie pas que le risque se reproduira dans mille ans. A titre d'exemple, il serait aussi dangereux d'affirmer, au jeu de pile ou face, qu'on aura pile dans deux coups parce que la probabilité est de un sur deux. Résultat, si l'on s'intéresse à un événement dont la récurrence est de l'ordre de 1 000 ans, il faut considérer 6 000 ans... D'où un problème majeur sur l'utilisation de ces calculs. Néanmoins, leurs résultats sont intéressants à condition d'avoir une bonne estimation de la valeur maximale du séisme potentiel théorique, ce qui est le cas des Alpes.
D'autres modèles, développés en finances, permettent de prendre en compte des données extrêmes à plusieurs variables – ce sont, par exemple, en hydrologie la pointe, le volume et la durée. Ils sont importants pour le dimensionnement des ouvrages.
Pour conclure, un peu de bon sens statistique. La notion de période de retour est dangereuse – j'y ai insisté, et nous laissons les décideurs arbitrer. En revanche, il faut s'intéresser au séisme record à venir, c'est-à-dire celui qui dépassera le maximum observé. Une telle approche, développée depuis les années 1980, est possible pour les événements marqués par une certaine stabilité, de la récurrence. En bref, on travaille, non sur la durée qui sépare deux records successifs, mais sur le niveau du record. Certes, cette méthode reste tributaire de grandeurs (typiquement, le séisme maximal théorique dans la zone), mais c'est une piste à explorer. En tout état de cause, la modélisation probabiliste est la seule qui permette d'aller au-delà des données observées.
M. Paul-Henri Bourrelier, président du conseil scientifique de l'association française pour la prévention des catastrophes naturelles, évoquera comment imaginer l'extrême et s'y préparer.
« Le séisme et le tsunami au Japon ont entraîné la catastrophe de Fukushima, nous renvoyant des échos de Tchernobyl et nous donnant un sérieux avertissement pour le futur », affirmait la semaine dernière à Genève le secrétaire général des Nations Unies lors du forum mondial de la réduction des risques de catastrophes. Par nos actions, nous pouvons composer avec les forces de la nature. « La différence est dans la préparation ». Voilà une bonne introduction pour cet exposé sur la réduction du risque de catastrophe.
Les effets chaotiques de libérations soudaines d'énergies accumulées sur des centaines d'années, voire un millier d'années, sont particulièrement difficiles à modéliser et à penser car ils provoquent la sidération. On utilise l'équation de base suivante : le risque est égal à l'aléa multiplié par l'exposition et par la vulnérabilité. Un message important à faire passer : lorsque les cibles sont proches ou que l'aléa dépasse un certain volume, il faut raisonner sur le système ; impossible de traiter isolément une centrale nucléaire, une raffinerie ou un barrage.
Pour évaluer les aléas naturels, on utilise essentiellement les lois physiques et la statistique, avec un mouvement de balancier d'un outil à l'autre. Seuls nous intéressent les aléas répartis sur les terrains ; on peut faire de la géostatistique, les cartographier et retrouver leurs traces dans le passé en utilisant la paléogéographie ou la paléogéologie. Du fait de phénomènes de saturation, l'intensité de l'aléa de terrain n'est pas fonction de l'aléa source. D'où la nécessité d'une identification fine, car leur répartition, fonction de la géologie, est en peau de zèbre. On l'a constaté récemment au Japon ou encore à Los Angeles : à quelques mètres de distances, le danger peut ne plus être mortel. Pour un séisme, l'intensité de terrain correspond donc aux accélérations locales, non à la magnitude.
Comment gérer ces aléas ? On utilise un aléa de référence, fondé sur une fréquence accessible à l'esprit – pour les inondations, cent ans ; pour les séismes, cinq cents ans. L'idéal est toutefois de connaître l'aléa extrême, ce dont l'intervenant précédent a souligné les difficultés. En pratique, on prend un aléa extrêmement rare – une approximation un peu dangereuse, mais un progrès indéniable par rapport à l'aléa de référence. La directive européenne sur les inondations en fait depuis quelques années une obligation. Les Hollandais travaillent sur un aléa de 110 000. En France, on utilisera probablement celui de 12 000. Pour les séismes, il faudrait retenir un aléa de 110 000 ou 15 000. Toutes les observations, qu'elles soient géologiques ou historiques, sont à mettre en oeuvre, pour mener à bien ce travail dont on n'est pas au bout.
Pour réduire la vulnérabilité, une notion complexe qui comporte plusieurs dimensions – physique, écologique, culturelle et économique –, il y a la boîte à outils de la mitigation. Cette dernière comporte des mesures sans seuil, telle la méthode parasismique qui permet une réduction continue de la vulnérabilité (la digue ne s'effondre pas en cas de dépassement), et des mesures à seuil (la vague de submersion emporte une digue). La distinction est essentielle, on l'a vu lors de l'accident de Fukushima.
La gestion des risques cumulés sur les territoires passe par des actions intégrées sur les aléas, les expositions et les vulnérabilités à l'échelle de l'installation proprement dite, du site et, enfin, de la région. Emboîtement et intégration, voilà la façon dont on peut composer avec les risques, les réduire à une probabilité extrêmement faible. La probabilité nulle n'existe pas !
L'essentiel est peut-être de combattre le déni, point sur lequel insiste le philosophe Jean-Pierre Dupuy. Cette tendance naturelle de l'esprit devant l'inconnu – nos collègues sismologues japonais ont récemment donné la preuve de cette dimension comportementale – empêche la prise en compte globale et collective des risques.
Le Président Claude Birraux. Monsieur Courtillot, quelles seraient les conséquences d'un tremblement de terre survenant près des frontières de la France ? Ainsi le séisme de Bâle sur la vallée de Rhin…
L'échelle de Richter, qui indique la magnitude d'un séisme, est souvent qualifiée d'ouverte. Il serait plus juste de dire qu'elle est logarithmique : un écart de 1 correspond à une multiplication par 30 de l'énergie dégagée par le tremblement de terre. Le séisme du Japon était neuf cents fois plus fort que celui d'Haïti, qui a pourtant causé 200 000 morts. La différence entre magnitude et intensité explique les effets de site soulignés par M. Bourrelier.
Ensuite, on a longtemps cru que la magnitude ne pouvait pas dépasser 8,5. C'était, en réalité, un problème de méthode. Nous avons désormais trois ou quatre magnitudes, beaucoup plus physiques. Le moment physique, c'est-à-dire le produit d'une force par une surface. Un séisme qui casserait toute la plaque lithosphérique serait d'une magnitude de 10 ; avec 9,5, le séisme du Chili, le plus grand des 110 dernières années, se rapprochait de ce maximum. Enfin, les frontières des plaques où se reproduisent souvent les séismes. Rappelons les ordres de grandeur : un centimètre par an correspond à un mètre par siècle.
En France, il n'y a pas de grandes frontières entre les plaques ; la plus sérieuse est l'arc alpin, né de l'affrontement entre la plaque africaine et la plaque européenne. Les régions de Nice et de Grenoble sont donc les plus proches, quoique les mouvements se chiffrent en millimètres par an, soit des dizaines de centimètres par siècle. Le temps de retour des grands séismes en France est donc probablement de l'ordre de mille ans. Nous en avons connu deux grands dans les deux mille dernières années : Bâle et un en Catalogne qui a fait des dégâts en France dans les années 1600. Il est absurde de comparer Nice au Japon ! Le dernier tsunami a été provoqué par un glissement de terrain lié à des travaux de terrassement de l'aéroport. Le risque est très faible : il suppose un tremblement de terre, la frontière entre les plaques la plus proche se trouvant le long du Maghreb. En revanche, il existe un risque de tsunami mineur à La Réunion, en raison de Sumatra, et un risque majeur aux Antilles. Après, la limagne de Bresse et d'Allier, la zone sud-armoricaine et Pyrénées, sont sujettes à des mouvements qui se mesurent en millimètres par an. D'une magnitude inférieure à 8, ces séismes ont un temps de retour de moins d'un par mille ans.
Pour mener un travail statistique sur un éventuel tremblement de terre se reproduisant à Bâle à proximité de la centrale nucléaire de Fessenheim, il faudrait considérer les événements extrêmes survenus durant une centaine de périodes de mille ans dans la région. Bref, mieux vaut donner de l'argent aux géologues !
L'augmentation du niveau des mers due à la dilatation thermique de l'eau et à la fonte des banquises doit-elle conduire à réévaluer le risque d'inondation ? Et avec quelle ampleur ?
La question fait débat : Annie Cazenave ne partage pas mon point de vue. Extraire le vrai signal climatique de la variabilité à plus haute fréquence n'est jamais chose simple. Selon moi, on observe une tendance plate jusqu'en 1910, puis parfaitement linéaire de 1910 à 2000. Au cours du XXe siècle, le niveau moyen des mers a augmenté d'environ 20 cm. Il n'y a aucune raison de penser qu'il en sera autrement au XXIe siècle ; nous sortons du petit âge glaciaire pour entrer dans une période chaude, analogue à celle de l'an mille. Le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) avance plutôt le chiffre de 45 cm. Dans les deux cas, nous devrions faire face à ce problème, sans déni ni affolement, puisque nous l'avons fait au XXe siècle. Quant au Vanuatu, l'enfoncement thermique des atolls est une règle connue depuis Darwin ! Un jour, dans un million d'années, la Réunion aura son atoll...
La fonte des banquises ne change pas plus le niveau des mers que les glaçons ne font déborder un verre.
Monsieur Courtillot, vous n'avez pas évoqué les effondrements sédimentaires. Certes, ils n'ont rien à voir avec l'ampleur d'un séisme de subduction, mais Gravelines a les pieds dans l'eau…
Un sujet essentiel qu'a traité M. Tardieu ! Les séismes peuvent provoquer des glissements de terrain catastrophiques. On l'a vu lors du tremblement de terre de Wenchuan de 2008 que, par parenthèse, mes collègues avaient parfaitement anticipé depuis des années…
Les sismologues japonais ont fait preuve d'optimisme. Peut-il en être autrement dans un pays exposé en permanence au risque sismique ?
A dire vrai, les sismologues du monde entier s'étaient ralliés, depuis les années 1970, à une théorie probablement fausse, combattue par une minorité. Moi-même, professeur de géophysique, j'ai enseigné les théories du professeur Hiroo Kanamori. La science avance par le débat, mais nous avons besoin du consensus. En moyenne, il faut entre 10 et 80 ans pour que soit acceptée une révolution scientifique majeure. L'article princeps sur la dérive des continents, date de 1913 ; la théorie a été acceptée par 90% des géographes dans les années 1970…
Pendant quarante ans, les sismologues ont donc pensé faux. Sumatra, le premier grand séisme depuis celui de l'Alaska en 1964, aurait dû nous inciter à changer plus vite. Il n'y avait eu aucun grand tremblement de terre dans les trente années suivantes. Nous devons travailler sur des échelles de l'ordre du millénaire. Puissent les travaux de l'OPECST attirer l'attention sur ce tremblement de terre de magnitude 9. Il faut un suivi digne de ce nom pour prévenir son retour et un tsunami d'un mètre à La Réunion. Hélas, l'intérêt pour les grands tremblements de terre décline brutalement un an après leur survenance, quand la solidarité s'est effacée…
M. Tardieu a évoqué les risques associés aux barrages en cas de séisme. Y a-t-il en France des barrages en amont de vallées où il y aurait des centrales nucléaires ?
C'est aux propriétaires de traiter le sujet, car le plan particulier d'intervention (PPI) doit annoncer l'onde de crue et les installations susceptibles d'être touchées. Je ne saurais vous donner des éléments sur la vallée du Rhône, par exemple, mais ils figurent forcément dans les papiers de l'administration.
La parlementaire que je suis est ravie de votre réponse !
Le Président Claude Birraux. Comme disait Niels Bohr, les prédictions sont difficiles, surtout lorsqu'elles concernent l'avenir !
On dit aussi : « on ne convainc pas les anciens d'une nouvelle théorie, on attend qu'ils meurent ».
Je suis physicien à Paris VI. N'en déplaise à M. Courtillot, l'augmentation du niveau de la mer n'est pas linéaire. Le dernier rapport du GIEC – qui n'est pas un organisme de recherche – était conservatoire, car il ne faisait allusion qu'aux phénomènes compris. On est en réalité plus près d'un mètre. Il n'y pas lieu de s'affoler, mais il y a des choses à faire. Les Hollandais sont très préoccupés.
Le Président Claude Birraux. Vous justifiez la théorie selon laquelle la rupture prend plusieurs dizaines d'années avant de faire consensus !
II. La prise en compte des risques naturels dans la protection des installations nucléaires
Comment les risques naturels menaçant nos centrales sont-ils évalués par les organismes chargés de la sûreté nucléaire ? La possibilité de risques combinés est-elle intégrée ? Les contraintes imposées aux exploitants sont-elles suffisantes ? Les événements de Fukushima ou du Blayais conduisent-ils à réévaluer ces contraintes ? Le vieillissement des installations les fragilise-t-elles face à ces risques ? Comment se compare la démarche française à celle des autres pays, notamment européens ?
La division sûreté nucléaire de l'Agence pour l'énergie nucléaire (AEN) compte douze ingénieurs : c'est la partie émergée de l'iceberg des compétences internationales en la matière. L'expertise est dans les pays membres, le rôle de l'Agence est de la fédérer. Les travaux des pays membres sont coordonnés par deux comités, l'un sur les activités réglementaires, l'autre sur les activités techniques. Les groupes de travail du premier portent sur le retour d'expérience, les pratiques d'inspection et la réglementation des nouveaux réacteurs. Dans le domaine technique, ils concernent l'intégrité et le vieillissement des équipements, l'évaluation des risques et la sûreté des installations du cycle du combustible.
Les priorités de travail sont définies par les pays-membres, essentiellement en fonction du retour d'expérience ; une nouvelle activité peut être mise en place rapidement. L'AEN coordonne les travaux des experts à travers des groupes de travail présidés par un expert d'un pays-membre, et des ateliers internationaux auxquels participent de nombreux experts ; l'Agence assure parfois le secrétariat d'un groupe restreint de pays, par exemple sur les conceptions des nouveaux réacteurs. Elle produit des comparaisons de pratiques et de réglementations, des analyses d'incidents, des rapports sur l'état de l'art en termes d'évaluation et de prévention, des recueils des meilleures pratiques. Mais le plus important, le plus impalpable aussi, c'est l'expérience acquise par les experts qui ont confronté leurs pratiques, expérience qui se traduit dans les documents propres des pays.
La « tenue au séisme », étudiée depuis une quarantaine d'années, fait l'objet d'un groupe spécifique depuis une quinzaine d'années. Le réseau d'experts échange des informations, examine les programmes, produit des documents de synthèse sur les meilleures pratiques. Les activités sont organisées autour de rubriques : aléas, normes, signal sismique, impact sur les structures, les équipements anciens, réévaluation, installations sismiques expérimentales. Des ateliers internationaux se tiennent régulièrement, depuis 35 ans – j'y avais contribué pour Cruas. Le dernier, il y a six mois, portait sur l'interaction sol-structures et les réévaluations sismiques des installations nucléaires.
L'Agence produit des rapports de synthèse : bilan des travaux, leçons tirées, etc. Avec le Commissariat à l'énergie atomique (CEA), la France possède le plus grand laboratoire d'études sismiques, à Saclay-Tamaris.
L'Agence coopère avec l'Agence internationale de l'énergie atomique (AIEA), avec la création il y a deux ans un centre international de sûreté sismique, une enquête sur l'impact de séismes sur des centrales en fonctionnement, un atelier sur le transfert de connaissances. Depuis 1978, un système d'analyse des incidents, conjoint avec l'AIEA, permet de transmettre l'expérience.
L'examen des approches réglementaires relève de l'atelier du groupe de travail sur les pratiques d'inspection des risques externes, qui a comparé les réglementations et passé en revue les risques.
Le Président Claude Birraux. Ces documents sont-ils disponibles ?
Ils sont publiés sur Internet.
Après l'accident de Fukushima, les présidents des deux comités ont décidé d'une action rapide. Un groupe de travail a été mis en place en trois semaines pour conduire une première analyse des mesures prises et à prendre. Son rapport est en cours de préparation. Le groupe de travail sur l'intégrité des équipements propose ainsi de se pencher sur : la sous-estimation du mouvement sismique ; le comportement des enceintes de confinement et des structures en béton en cas de phénomène extrême ; la réévaluation de sûreté vis-à-vis des phénomènes externes, notamment cumulés ; les conditions de prolongation de la durée d'exploitation. La centrale de Fukushima avait reçu en janvier 2011 une autorisation de prolongation au-delà de 40 ans, mais en renforçant la protection contre les inondations...
L'apport de l'AEN est donc son rôle de coordination de l'expertise internationale, sa capacité de mobilisation rapide, la production de synthèses des meilleures connaissances du moment. Leur utilisation est de la responsabilité des pays membres et de l'AIEA.
Les responsabilités entre acteurs de la sûreté nucléaire en France sont réparties entre l'ASN, organisme de contrôle, les exploitants et l'Institut de radioprotection et de sûreté nucléaire (IRSN). L'ASN définit les grands objectifs, les exploitants proposent les modalités de leur mise en oeuvre, que l'ASN analyse avant d'instruire l'autorisation. Aux exploitants de mettre ensuite en oeuvre ces modalités, sous le contrôle de l'ASN.
S'agissant des agressions d'origine naturelle, l'approche est déterministe : il s'agit de déterminer l'aléa auquel l'installation doit faire face sans subir de dommage. Dès la conception de l'installation, la liste des agressions prises en compte dans la démonstration de sûreté est présentée par l'exploitant dans le dossier de demande d'autorisation.
La prise en compte des agressions est réexaminée périodiquement au travers du réexamen de sûreté : tous les dix ans, on vérifie la conformité de l'installation au regard des règles applicables, et l'on actualise l'appréciation des risques au regard du retour d'expérience et de l'évolution des connaissances et techniques.
Pour les risques sismiques et d'inondations, les règles fondamentales de sûreté (RFS) de l'ASN définissent la pratique jugée acceptable. Elles énoncent l'aléa à prendre en compte, en déterminant par exemple le mouvement sismique, et les moyens de protection des installations, construction parasismique ou instrumentation sismique. Les RFS sont réévaluées périodiquement pour intégrer l'évolution des connaissances des failles et les effets de site. La réévaluation de la RFS en 2001 a ainsi entraîné des modifications, comme le renforcement par pose de tissu de fibres de carbone ou de poutres métalliques.
S'agissant des inondations externes, l'incident du Blayais en 1999 a conduit à réviser le guide pour intégrer davantage d'événements et étendre le champ d'application. Parmi les modifications issues de ce retour d'expérience, citons la surélévation de la digue du Blayais, la construction d'un muret de protection de la prise d'eau à Fessenheim, ou encore le renforcement de l'étanchéité des parois.
Enfin, les évolutions climatiques entraînent des agressions liées aux températures extrêmes. Nous avons, là aussi, des retours d'expérience récents : hivers rigoureux de 1984-1985 et 1986-1987, qui ont vu la Loire geler, canicules de 2003 et 2006. Les températures considérées dans les démonstrations de sûreté ont ainsi été réévaluées. Les modifications sont en cours pour renforcer la résistance des installations nucléaires à ces phénomènes.
Dans l'évaluation des risques associés aux agressions externes, l'IRSN fournit un appui technique à l'ASN pour l'élaboration des textes réglementaires, aux Autorités de sûreté pour l'évaluation des dossiers soumis par les exploitants, et conduit des programmes de recherche afin d'améliorer les méthodes d'évaluation des risques et les connaissances nécessaires à leur mise en oeuvre. Il est important que l'expertise se nourrisse des recherches les plus récentes.
Les méthodes définies dans les RFS sont basées sur des observations, visant à définir soit un événement maximum, selon l'approche déterministe, soit une probabilité d'occurrence, selon l'approche probabiliste. La définition de l'aléa dépend largement de la qualité des données utilisées.
Les RFS évoluent en fonction de l'évolution des connaissances scientifiques, des méthodes d'évaluation et des retours d'expérience à capitaliser. Les RFS traitant de l'aléa sismique ont ainsi été modifiées en 2001 pour considérer, non seulement les séismes historiques, mais aussi les séismes préhistoriques : la paléosismicité, qui suppose d'aller sur le terrain, élargit la période d'observation de plusieurs centaines de milliers d'années – nos travaux sur la faille de Nîmes ont été novateurs. Le retour d'expérience des séismes des années 1980 et 1990 a également conduit à retenir les effets de site, liés à la présence de couches géologiques superficielles meubles, qui augmentent l'amplitude des ondes sismiques. Les RFS traitant de l'inondation sont en cours de modification, à la suite de l'incident du Blayais, notamment pour prendre en compte la conjonction possible de plusieurs phénomènes.
Il ne faut pas se focaliser uniquement sur l'aléa. La résistance de l'installation dépend aussi du dimensionnement des dispositions constructives, ainsi que de la qualité de la réalisation. À chacune de ces étapes, l'IRSN évalue les marges prises.
Nos programmes de recherche portent notamment sur les caractéristiques des séismes historiques (c'est la clef de l'évaluation), l'identification et la caractérisation des failles actives, la propagation des ondes sismiques dans un environnement complexe, les lois d'atténuation du mouvement sismique avec la distance et la saturation du mouvement, le développement de méthodes d'évaluation probabilistes de l'aléa. Ils sont conduits dans le cadre de collaborations nationales ou internationales, avec le monde académique.
Des pistes d'amélioration se dessinent à la lumière des événements récents. En matière d'aléa sismique, il faut élaborer un catalogue homogène de la sismicité instrumentale, explorer la méthode probabiliste, mieux associer, enfin, le monde académique à nos travaux.
Je conclurai sur l'importance du couple recherche-expertise, qui permet de prendre en compte les connaissances les plus récentes. L'aléa ne doit pas faire oublier l'importance du dimensionnement et de la défense en profondeur.
Les risques naturels sont pris en compte dès la conception des centrales selon une démarche systématique, indépendante de l'aléa. Trois fonctions de sûreté sont à assurer : la maîtrise de la réaction nucléaire, l'évacuation de la puissance et le confinement de la radioactivité. La défense en profondeur consiste en trois lignes successives. La première est la prévention contre les effets des événements naturels, par exemple à travers des digues ou des dispositifs de résistance des bâtiments et matériels. La deuxième consiste en des parades matérielles à la défaillance des systèmes. Enfin, la troisième ligne de défense consiste en des parades pour faire face aux conséquences d'un éventuel accident.
Les risques sont pris en compte dès le choix initial du site, à toutes les phases de la conception initiale, et lors des réexamens de sûreté périodiques. Les installations sont modifiées si nécessaire suite à l'analyse de retours d'expérience, à l'amélioration des connaissances scientifiques ou au changement du contexte naturel, par exemple climatique.
La protection des installations contre les événements naturels repose sur une détermination prudente de l'aléa retenu, par une étude des caractéristiques de chaque site. L'aléa historique est aggravé et majoré pour tenir compte du risque nucléaire en lui-même. Des marges supplémentaires sont ajoutées dans la conception des installations. On définit un séisme maximum vraisemblable, en fonction des caractéristiques géologiques de la région et de la sismicité historique, en ramenant l'épicentre au plus près du site. Ainsi, alors que le séisme de Bâle, en 1356, s'est produit à 40 km de Fessenheim et était d'une magnitude de 6,2, nous le ramenons à 30 km du site (à Penly, on a été jusque sous la centrale). Pour définir un séisme majoré de sécurité, l'on augmente sa magnitude de 0,5, ce qui revient à multiplier l'énergie par cinq. Les bâtiments qui enferment du combustible sont dimensionnés en fonction d'un aléa encore majoré. A Fessenheim, on atteint une accélération de 0,2 G au lieu de 0,13 G calculé.
Les méthodes de conception et de construction procurent une robustesse supplémentaire. Au Japon, il n'y a pas eu de dégâts majeurs dus au séisme lui-même. Les normes de construction visent le non-endommagement de l'installation, contrairement au bâti courant, qui se borne à la résistance. Des maquettes à l'échelle d'un quart sont soumises à des tests sur des tables vibrantes.
Les visites décennales prennent en compte l'amélioration des connaissances scientifiques sur l'aléa ou sur le comportement des bâtiments, et donnent lieu à la révision de la réglementation en vigueur. EDF a ainsi investi 500 millions d'euros dans des travaux de renforcement de tenue au séisme, 25 millions par réacteur à Fessenheim et Bugey. EDF finance également un programme de recherche international visant à améliorer la connaissance de l'aléa sismique en France.
Face à l'inondation, la première ligne de défense comprend les digues, les travaux d'étanchéité des bâtiments. Il faut envisager la conjonction possible d'aléas, par exemple une rupture de barrage cumulée à une crue centennale, des pluies brèves et intenses, ou régulières et continues. Nous ajoutons des marges par cumul d'événements supplémentaires. Le risque de tsunami est considéré comme couvert par ensemble des marges prises en compte contre le risque inondation. La tempête de Blayais en 1999 a été riche d'enseignements : il n'y a pas eu d'accident, mais une défaillance de la première ligne de défense, qui a conduit à réexaminer la règle de cumul et à apporter des modifications sur l'ensemble des sites.
Deuxième ligne de défense, les parades à la défaillance des systèmes d'alimentation électrique. Les centrales disposent en permanence de cinq sources d'alimentation différentes. Parmi ces systèmes redondants, l'un, au diesel, est résistant aux séismes et aux inondations. En cas de perte de refroidissement, un réservoir d'eau fournit le système d'alimentation de secours, qui fonctionne grâce à la vapeur produite par la centrale.
Troisième ligne de défense, les parades pour limiter les conséquences de la dégradation du combustible, qui découlent notamment du retour d'expérience de Tchernobyl. En cas d'accident dans le coeur du réacteur, le confinement est assuré par les trois barrières de l'enceinte, les rejets radioactifs issus du bâtiment sont filtrés, et un recombineur d'hydrogène permet d'éviter l'explosion. Contrairement au cas japonais, notre système de filtrage permet de retenir 99,9% du césium émis.
À la suite de l'accident de Fukushima, EDF va réexaminer les trois lignes de défense pour déterminer les marges, identifier d'éventuels points faibles et mettre en place si nécessaire de nouvelles parades. Ces travaux sont menés sous le contrôle de l'ASN, selon le cahier des charges des audits de sûreté demandés par le Premier ministre.
Les installations d'AREVA sont diverses, chacune est unique, et elles concernent le cycle du combustible, en amont et en aval des centrales. La gamme de risques est donc étendue, notamment dans l'amont du cycle où, c'est important pour la cinétique, s'allient la partie nucléaire et la partie chimique. L'analyse de sûreté d'une installation intervient dès la phase de construction, puis lors des réexamens de sûreté. Cette analyse commence avec la caractérisation des phénomènes naturels locaux pour lesquels on s'appuie sur un historique des événements et, à ce stade, on prend déjà des marges. Pour cela, Areva s'appuie beaucoup sur des experts externes et internationaux. Nos installations ayant subi des modifications, ce système a été revu régulièrement ces quarante dernières années.
Le deuxième stade de l'analyse de sûreté, c'est l'identification des fonctions importantes pour la sûreté de l'installation. Les risques de dégagements thermiques et de radiolyse concernent surtout l'aval du cycle. La dispersion de matières dangereuses est un risque spécifique à nos installations. Il ne peut y avoir chez nous de criticité, le propre d'une centrale étant d'éviter le déclenchement d'une réaction nucléaire. La radioprotection est également prise sérieusement en compte. Nous analysons systématiquement les agressions dans le cadre d'une méthode déterministe.
Une fois identifiées les fonctions importantes pour la sûreté, il nous faut rechercher un ou plusieurs états de repli sûr, les plus passifs possibles, ce qui est le cas pour la majorité de nos installations, notamment en amont du cycle. Par exemple à Eurodif, l'état de repli, c'est l'arrêt de l'usine : dès lors il n'y a plus d'énergie à évacuer, l'installation s'autoprotège. De même, le risque de criticité est pris en compte dans la construction, le dimensionnement des pièces, comme dans le traitement de l'eau de nos installations. Mais certaines fonctions de sûreté nécessitent des systèmes actifs : refroidissement, ventilation, piscines, par exemple à La Hague ou à Melox.
Après avoir déterminé ces états sûrs de repli, nous définissons, dès la conception, les dispositions nécessaires pour les atteindre : arrêt de l'installation, mise en dépression. Quand Eurodif est arrêté, on a atteint l'état sûr, d'autant plus que, alors, la pression intérieure est inférieure à la pression atmosphérique. Cette étape de l'analyse conduit à l'identification des requis de sûreté pour chaque atelier de l'installation, lesquels seront repris dans la phase ultérieure.
Ces analyses sont prises en compte dans la conception, le dimensionnement, la construction et l'exploitation de l'usine par la mise en place de la défense en profondeur : barrières de prévention, moyens de détection et de surveillance, et par la gestion des écarts ou des situations accidentelles – je vous renvoie à mon audition précédente et à ce que j'ai dit du PUI et des forces d'intervention prévues.
Vous constaterez sur les images de nos installations de Melox que les bâtiments nucléaires sont très peu élancés, fondés sur un radier général – à La Hague ils sont même partiellement enterrés. Les matières radioactives sont confinées à l'abri de trois barrières successives : la « boîte à gants », l'atelier, le bâtiment lui-même. Au-delà de ces barrières statiques, on établit un confinement dynamique par une cascade de dépressions afin de limiter encore les risques. La boîte à gants apparaît relativement légère par rapport aux structures qui la supportent et qui, elles, tiennent compte des éventuels séismes. S'il y a disproportion entre les supports des réseaux fluides et ventilation, et ces réseaux eux-mêmes, c'est qu'ils sont dimensionnés au séisme majoré de sécurité (SMS). Quant aux pupitres de sauvegarde qui permettent de poursuivre la conduite des systèmes de sûreté en cas de séisme majeur, ils ont été testés sur table vibrante pour tenir compte de leur comportement dans une telle hypothèse. Nous avons accompli un gros travail de génie civil dans notre usine d'enrichissement Georges Besse II, avec la mise en place de plots intermédiaires entre les bases de la structure et l'atelier : on y a testé les appuis en vraie grandeur dans des laboratoires spécialisés, notamment en Allemagne.
Le retour d'expérience (Rex) est fondamental. Nous avons déjà intégré celui de phénomènes naturels importants – tempête de 1999, crues du Rhône, grands froids, canicules, qui ont permis de conforter notre expérience et de procéder aux modifications nécessaires. Le Rex sur les événements sismiques nous vient de l'étranger ; nos experts se sont aussi adaptés à l'évolution des règles de calcul. L'expérience d'Areva dans la construction d'usines – Sud-Est, Melox, La Hague – a d'ailleurs été confortée par la succession ininterrompue de grands chantiers sur une période de quarante ans.
L'Andra a trois sites de stockage – le centre historique de la Manche, à côté d'Areva à La Hague ; deux sites dans l'Aube – ainsi qu'un laboratoire souterrain de recherche en MeuseHaute-Marne.
Je me concentrerai sur le stockage, parce que les principes de sûreté et de dimensionnement des autres activités de l'Andra ont déjà été décrits par les précédents intervenants. Pour tous nos centres, existants ou à l'étude (Cigeo), les risques, naturels ou non, sont pris en compte dans la conception des installations, notamment pour ce qui est de leur localisation : du fait de l'échelle de temps pendant lesquels le stockage doit durer, les centres sont situés dans des zones dont le sous-sol ne présente pas de ressources exploitables (minerais, pétrole), et qui présentent de faibles risques naturels – notamment inondations et séismes. Ces risques sont donc pris en compte dès la phase de choix du site d'implantation.
Lors de la conception, des dispositions sont prises pour prévenir ces risques, réduire la probabilité des risques d'origine humaine et limiter leurs effets. Ces mesures sont actives ou passives. Ces dernières sont impératives pour les sites de stockage qui doivent demeurer sûrs, sans intervention humaine, après leur fermeture. Tous les dix ans ou en cas de modification, l'Andra réévalue la sûreté des installations sous le contrôle de l'ASN. Les risques externes pris en compte ont déjà été cités. Je mentionnerai donc particulièrement les risques dus à l'environnement industriel, aux routes, incendies de forêt, chutes d'avions – c'est pourquoi on évite la proximité des aérodromes et aéroports.
Les centres de stockage de l'Andra sont conçus pour résister à des séismes cinq fois plus puissants, soit 0,5 de plus sur l'échelle de Richter, que tous les séismes observés et envisageables dans les régions où ils sont implantés. Le Centre industriel de stockage géologique (Cigeo) sera implanté dans le bassin parisien, dans une couche située à 600 mètres de profondeur et datant de 60 millions d'années. On a trouvé, dans cette région très peu sismique, des traces d'anciens séismes, et nous y enregistrons environ 1 000 micro-secousses dont 1% sont naturelles et de magnitude inférieure ou égale à 4. Le laboratoire est déjà construit et les installations, fond et surface, seront conçues pour résister en exploitation à un séisme de magnitude 6, en référence à celui de Bâle, et, après fermeture, à plusieurs séismes successifs de magnitude 6,1 car, après fermeture, la sûreté doit être garantie pour des périodes supérieures au millénaire. Les centres de l'Aube, en exploitation, sont conçus pour résister à un séisme de 3,8 qui se produirait sous ces centres, en référence aux séismes passés de la région, et à un séisme de 6,5 (par référence à ceux des Vosges) distant de plus de 100 kms. Au centre de la Manche, on applique la même règle d'un possible séisme cinq fois plus puissant que les séismes locaux de référence.
Les centres de stockage sont implantés hors des zones inondables. Celui de la Manche est implanté sur une colline de 190 mètres, à l'abri d'une éventuelle montée de la mer ou de vagues de forte amplitude. Les conditions climatiques sont traitées selon la réglementation en vigueur. Contre les chutes d'avion, on élimine les localisations proches d'aérodromes et la conception des sites est faite pour diminuer l'impact de pénétration d'un avion. Contre les pannes électriques, on multiplie les sources d'alimentation et les équipements de secours, y compris mobiles. Contre les incendies et explosions, dus par exemple à la foudre, on minimise autant que possible les charges caloriques et on interdit dans le stockage les déchets inflammables ou explosifs. Dans le cas particulier du stockage géologique profond, certains déchets pouvant produire de l'hydrogène, on en limite dès la conception le dégagement potentiel d'hydrogène et on ventile. Ce risque disparaît à la fermeture du site.
Le Président Claude Birraux. En vous écoutant, je pensais que l'ASN a eu raison, même si cela a fait beaucoup de peine au constructeur et à l'exploitant, de refuser les bétons et les méthodes initiales de construction envisagées pour le chantier de l'EPR… EDF pourrait-elle nous en dire davantage sur la centrale du Blayais, sur la hauteur de la digue et sur les dispositions prises après la tempête de 1999 ?
D'une part, on a élevé une digue à 8,5 mètres, c'est-à-dire qu'on a pris une marge de 3,5 mètres. D'autre part, on a rendu étanches tous les bâtiments situés au-dessous du sol.
Lorsque nous avons visité Gravelines, on nous a dit que cette centrale était à 8 mètres de hauteur. J'ai demandé à l'ASN si cela signifiait 8 mètres au-dessus du zéro des cartes marines françaises. Je n'ai toujours pas reçu de réponse. Je rappelle que les rapporteurs ont besoin de réponses !
Je note cette question et j'y répondrai à notre prochaine audition.
Est-il exact que les modifications demandées par les agences internationales après l'accident de Three Mile Island ont été prises en compte dans les centrales françaises mais non dans celles du Japon ?
Il est vrai que les leçons de cet accident ont été comprises en Europe plus tôt qu'au Japon. Mais elles ont fini par l'être aussi là-bas. En outre, la technologie de Fukushima est différente de celle de Three Mile Island.
Monsieur Miraucourt, comment avez-vous pris en compte les risques naturels de sécheresse et de canicule, et quel a été le retour d'expérience de l'été 2003 ?
– Après l'été de 2003, et aussi de 2006, nous avons réexaminé la situation et décidé de revoir nos précautions à la hausse. Dans une première étape, nous avons redéfini les températures auxquelles nous pourrions avoir à faire face : températures de l'air et de l'eau de refroidissement. Puis nous avons déterminé les modifications nécessaires. La première, la plus simple, consiste à climatiser certains locaux. Ensuite, nous changeons tout le système de réfrigération qui produit de l'eau froide dans nos systèmes. Enfin, nous revoyons les procédures d'exploitation. Ce programme, en cours de redéploiement, coûtera 400 millions d'euros pour l'ensemble de nos sites.
Mais pour tout cela, il faut de l'énergie. Que ferez-vous en cas de panne d'alimentation électrique ?
Il y a des diesels de secours sur site.
On nous a dit que les Japonais étaient sur le point de procéder aux modifications qui auraient évité le désastre. Ne peut-on pas diminuer le délai de 10 à 15 ans nécessaire au retour d'expérience ?
Un réexamen perpétuel serait déstabilisant. Pour les risques qui ont un temps de retour long, les risques sismiques par exemple, le principe de base est de procéder à un réexamen décennal de sûreté. C'est un bon compromis, et ce rythme décennal est d'ailleurs inscrit dans la loi. Cependant, en cas d'événement exceptionnel, comme après la tempête du Blayais, et si le risque a un temps de retour rapide, on n'attend pas dix ans pour prendre des mesures temporaires, avant les mesures définitives qui supposent des moyens industriels lourds. Pour les grandes chaleurs, nous mettons donc en place, dans l'attente des modifications définitives, des climatiseurs temporaires mobiles.
Le Président Claude Birraux. Vous n'êtes pas tentés par des climatiseurs solaires ?
Depuis la tempête de 1999, il y en a eu deux autres, Klaus et Xynthia. A-t-on pris des mesures particulières dans les heures qui ont précédé ces deux tempêtes ?
Nous mettons aussi en place des parades physiques et des mesures de prévention d'exploitation, qui peuvent aller jusqu'à l'arrêt de la centrale. Lors des deux tempêtes en question, des mesures de préalerte et d'alerte ont été prises.
On n'a pas évoqué aujourd'hui l'aspect didactique vis-à-vis des populations locales. On a également peu parlé de l'enchaînement possible des risques naturels. Le système peut-il se défendre face à un enchaînement de stress ?
Le principe de base de la réglementation nucléaire, c'est de toujours prendre des marges supplémentaires par rapport aux règlementations normales. C'est le cas pour les niveaux d'inondation. Ainsi, lorsque la plaine de Loire est inondée, la centrale de Belleville ne l'est pas, et continue à fonctionner normalement. Cette sur-règlementation vise à ne pas ajouter une catastrophe nucléaire à la catastrophe naturelle qu'est l'inondation.
Un exercice d'alerte est prévu à Cadarache pour tester la réponse des pouvoirs publics et des exploitants en cas de séisme.
Nous réalisons ainsi 10 à 12 exercices nationaux par an.
Les exercices Richter sont organisés par la Direction de la sécurité civile sur des zones à risque sismique. Il y en a déjà eu en Guadeloupe et dans les Pyrénées. Le prochain était prévu pour la fin de l'année en Haute-Alsace. Le prépare-t-on ? C'est important, car Fessenheim est inclus.
Je n'ai pas la réponse. L'exercice que je mentionnais se situe dans le cadre des exercices nationaux qu'organisent chaque année l'ASN et l'IRSN avec les exploitants. Nous observerons la réponse de secours aux populations et les conséquences sur le centre de Cadarache.
Monsieur Gariel, vous avez parlé de « sismicité historique » et l'avez étendue à la paléosismologie. Est-ce cohérent avec la méthode d'EDF qui retient un millier d'années plus une marge ?
Je me suis mal fait comprendre. En fait, il y a une seule méthode : la règle fondamentale de sûreté qui considère d'une part la sismicité historique et, d'autre part, les études de paléosismologie pour les séismes antérieurs à 1000 ans. EDF met évidemment en oeuvre cette RFS.
Il y a, parmi les sismologues, un débat entre les partisans de la méthode déterministe et ceux de la méthode probabiliste. Elles convergeraient sur la très longue durée.
Où en est le système d'alerte au tsunami en Méditerranée ou dans le Pacifique ? Et qu'apporte l'observation satellitaire de la terre pour la connaissance de ces aléas ?
Ce dossier est désormais entre les mains de la Commission océanographique internationale (COI) qui dépend de l'Unesco. Elle a organisé selon les bassins des processus différents, distinguant le bassin de l'Océan indien, celui des Caraïbes, et ceux de la Méditerranée Ouest ou Est. A l'Institut de physique du globe de Paris, on s'est attaché, à cause des Antilles, à la phase Caraïbes. C'est un exercice international où les États-Unis, le Venezuela, Trinidad-et-Tobago et la France sont les plus engagés dans la constitution d'un réseau de prévention des tsunamis. Sa dernière conférence annuelle s'est tenue en Guadeloupe. Je pourrai transmettre les coordonnées des gens qui suivent ce dossier au COI. Mais je regrette que l'initiative nationale française, au départ énergique, ait manqué de suivi, le financement du fonctionnement n'ayant pas suivi celui de l'équipement.
Le Président Claude Birraux. La procédure de révision décennale avec réévaluation des marges est-elle courante dans les autres pays utilisant l'énergie nucléaire ?
M. Lacoste a regretté que ce ne soit pas le cas, y compris dans certains grands pays nucléarisés.
Notre première action après Fukushima a consisté à introduire dans les règles de la WANO (World Association of Nuclear Operators) l'obligation de procéder à un réexamen périodique de sûreté. C'est aussi un débat qui oppose les pays membres de l'AIEA.
Le Président Claude Birraux. Les Etats-Unis, qui ne font pas de révision décennale, ont autorisé l'augmentation de puissance ainsi que l'exploitation de leurs centrales jusqu'à 60 ans après la coulée du premier béton. Cela pose-t-il des questions en termes de sûreté ?
Oui. Si EDF voulait augmenter la puissance de ses centrales, il lui faudrait l'autorisation de l'ASN. C'est encore autre chose que l'augmentation de leur durée de vie. D'un côté, on fait face à des problèmes immédiats, de l'autre on peut, en prenant en compte les retours d'expérience, améliorer dans le temps la sûreté de l'exploitation, ce que les Américains ne font pas de la même façon.
Ce réexamen de sûreté périodique est une spécificité française, inscrite dans la loi TSN de juin 2006. Aux États-Unis, ce principe de réexamen ne figure pas dans la loi, mais il est imposé par l'autorité de sûreté, la NRC (Nuclear Regulatory Commission). L'accident de Three Mile Island a conduit à imposer une réglementation ; les leviers règlementaires ne sont pas les mêmes qu'en France. Les interrogations sur les bases de conception de la centrale sont moins fortes aux États-Unis ou au Japon qu'en France où l'exploitant est en même temps le concepteur de la centrale, alors qu'il s'agit aux États-Unis de petits exploitants qui achètent l'installation clé en main et ont donc davantage de mal à en réexaminer les caractéristiques. Même chose à Fukushima : Tepco était absolument seul…
Le Président Claude Birraux. L'apport des experts français à Tepco a-t-il été utile ?
Nous discuterons, lors de notre séminaire de juin, de l'aide des autres pays. La France et les États-Unis ont été très impliqués et ont effectivement aidé le Japon, mais tardivement. Dorénavant, on discute des possibilités d'aide régionale et internationale en situation d'urgence.
Nous leur avons proposé notre assistance mais, dans un premier temps, ils ne l'ont pas souhaitée, le Premier ministre ayant pris les choses en main. Ce n'est que dans une seconde phase – la décontamination – qu'ils ont recouru à nos moyens, nos robots par exemple. Mais les Japonais n'ont pas vraiment voulu de l'aide internationale.
Notre aide s'est concrétisée dès les premiers jours par l'envoi de matériels d'intervention. Nous avons mis à profit le positionnement permanent d'Areva au Japon. Mais il n'y avait pas de demande au niveau national. Nous avons aussi mis à leur disposition les robots du GIE Intra. Tous ces moyens vont être partiellement utilisés. Nous avons aussi envoyé des moyens de contrôle, des camions environnement pour les mesures par exemple. Après les deux semaines de la phase de crise, nous avons offert à Tepco des moyens d'aide permanents en équipes projets, notamment une station de traitement de l'eau contaminée, qui résulte de notre expérience de La Hague. Notre assistance post-accident a été importante.
Le Président Claude Birraux. Lors de l'audition du 16 mars, votre présidente nous a rappelé qu'un avion prêt à décoller attendait la demande des Japonais.
Il y a eu plusieurs envois et un gros porteur Antonov a été affrété pour regrouper les moyens des exploitants ou ceux collectés au niveau national par les Affaires étrangères et le SGDSN.
D'après la dernière réévaluation opérée par Tepco, il semblerait que la cuve soit percée sur un ou plusieurs réacteurs, ce qui n'était pas le cas à Three Mile Island. Si cela est vrai, aurez-vous des exigences plus fortes pour le récupérateur du corium dans les centrales françaises ?
Le retour d'expérience de Fukushima prendra plusieurs années. Après Three Mile Island, on a mis six ans pour déterminer le niveau de fusion du réacteur. Il y a un retour d'expérience à court terme et des enseignements immédiats que l'ASN impose à toutes les centrales d'EDF de prendre en compte. Mais pour le reste, il faut attendre des années.
Il est fréquent qu'on ignore la magnitude du séisme record s'il est ancien. Sur celui de Bâle, par exemple, l'incertitude est si importante que les marges de sécurité ne couvrent pas les divergences entre experts. Comment caler le modèle ? Il serait intéressant de lancer une étude, dans le cadre des études probabilistes, sur les valeurs extrêmes des très grands séismes pour obtenir une estimation des records à venir. On pourrait rapprocher ces records des marges des modèles déterministes. Somme toute, on définirait ainsi une marge de sécurité.
Le Président Claude Birraux. Je suis partagé, car je repense à Niels Böhr, et les études probabilistes sont souvent mises en cause. Et vous voudriez y revenir ?
Il ne faut pas opposer probabilisme et déterminisme. L'IRSN pense qu'il faut utiliser les deux modèles en parallèle, et qu'ils sont complémentaires.
M. Miraucourt nous a expliqué comment sont calculés le séisme maximal historiquement vraisemblable et le séisme majoré de sécurité, mais je ne me souviens pas qu'on ait expliqué comment cela avait été fait au Japon. Est-il exact qu'ils ne prennent pas cette marge supplémentaire ? Est-ce le résultat d'un mauvais calcul ou est-ce délibéré ?
Ils avaient des marges, car, comme il y a deux ans, il y a eu des accélérations importantes sur des bâtiments sans qu'il y ait d'impact.
Après Kobé, les Japonais ont révisé leur politique de prévention sismique avec des milliers de capteurs, comme il n'y en a dans aucun autre pays. Mais c'est sur le tsunami qu'ils se sont trompés. Sans lui, on ne parlerait plus de ce séisme.
Pour les grands barrages, on associe toujours l'approche historique avec, pour les crues, le concept de pluie ou de crue maximum probable et, pour les séismes, le concept de maximum crédible. Dans ces cas extrêmes, on ne demande pas de dimensionner les ouvrages mais de raconter ce qui se passerait s'ils se produisaient. Si cela ne conduit à rien, ce n'est pas grave ; si cela conduit à quelque chose, on modifie.
Le Président Claude Birraux. Monsieur Cahen, compte tenu de la durée de vie des installations de stockage, ne faudrait-il pas prendre des marges supplémentaires au moment de la construction ?
Il y a les installations nécessaires pour la phase d'exploitation, soit quelques décennies. Pour le stockage géologique profond, en projet, le terme est de l'ordre du siècle. Au-delà des séismes de référence pris en compte, ce sont les marges de dimensionnement de l'installation qu'il faut considérer. Si jamais l'installation est mise en sécurité, sans pouvoir continuer l'exploitation, mais sans présenter de danger, c'est acceptable. A l'industriel d'assumer cette interruption.
Le Président Claude Birraux. Je vous remercie d'être venus participer à notre débat. Nous vous donnons rendez-vous mardi et jeudi prochains pour de nouvelles auditions.