Mission d'information sur les raisons des dégâts provoqués par la tempête Xynthia
Né en 2003, le SCHAPI, service central d'hydrométéorologie et d'appui à la prévision des inondations, a pour mission d'apporter son appui aux services de prévision des crues au niveau national et d'effectuer une veille hydrométéorologique 24 heures sur 24, localisée sur les bassins rapides.
Pouvez-vous nous présenter plus précisément les missions et le périmètre d'activité du service, et nous dire avec quelles institutions vous collaborez ? Après quoi, je vous propose d'en venir aux questions.
Restructuré entre 2002 et 2006, le réseau de prévision des crues au niveau de l'Etat est composé de 22 services de prévision des crues – dont celui du littoral atlantique, implanté à La Rochelle – et de 28 unités d'hydrométrie chargées de mesurer les niveaux et les débits des cours d'eau. Au coeur de ce réseau territorial, le SCHAPI, service à compétence nationale rattaché à la direction générale de la prévention des risques, exerce trois métiers : une fonction opérationnelle au quotidien, centrée autour de la publication du site internet Vigicrues, la production d'outils d'intérêt commun, l'anticipation des évolutions de la demande sociale – nous en vivons une aujourd'hui. Il fonctionne en réseau avec les unités territoriales, mais aussi avec divers organismes comme Météo France, fournisseur de données et éditeur d'une partie de notre production relative à la vigilance météorologique, le CEMAGREF, le bureau de recherches géologiques et minières - BRGM, le laboratoire central des Ponts et chaussées, les collectivités territoriales, les universités, EDF, la Compagnie nationale du Rhône, des bureaux d'études…
Le service compte 34 personnes, dont une majorité d'ingénieurs.
La prévision des crues assurée par l'Etat s'exerce sur le réseau surveillé par l'Etat, à savoir 20 000 kilomètres de tronçons de cours d'eau – sur les 120 000 de plus d'un mètre de large que compte la métropole – retenus à partir de deux critères : la densité des enjeux et la faisabilité technique de la prévision des crues. Cette faisabilité est une de nos limites – soit qu'il n'y ait pas encore de mesures accessibles, soit que nous éprouvions des difficultés à connaître le fonctionnement de certains ouvrages hydrauliques. C'est en particulier le cas à l'aval et en zone maritime, mais nous avons aussi des limites à l'amont : pour que nous puissions les prévoir, les crues doivent être formées.
Nous utilisons des outils d'analyse et de prévision des crues qui sont en cours de modernisation, en particulier depuis 2006. Pour garantir une vigilance en matière de crues, nous produisons et diffusons au moins deux fois par jour sur un site internet une carte nationale avec un code de couleur ainsi qu'un bulletin national et des bulletins locaux, et nous assurons un accès en temps quasi réel aux mesures de niveau d'eau pour près de 1500 stations de mesure – chiffre en constante augmentation. Disponibles sur internet, ces informations sont également envoyées aux préfets, au Centre opérationnel de gestion interministérielle des crises, le COGIC, et aux centres opérationnels de zone - COZ.
J'en viens à la prévision des submersions marines. Elle est prise en compte sur les cours d'eau surveillés par l'Etat, lorsque c'est techniquement possible et dans les zones sous influence maritime. Elle existe aujourd'hui à titre expérimental sur la Gironde, certains fleuves côtiers bretons – notamment la Laïta, l'aval de la Seine, l'Adour et l'Aude. Nous avons donc un programme de prise en compte de l'influence maritime sur ces fleuves, à partir des données transmises par Météo France et le service hydrographique et océanographique de la marine, le SHOM, sur les niveaux d'eau en mer au droit des embouchures. Nous avons pu procéder à des tests en vraie grandeur lors de petites crues ou de tempêtes comme Klaus et Xynthia. Je laisse maintenant Bruno Janet, qui était de permanence ce week-end là, vous parler de la seconde.
Pendant les tempêtes, nous travaillons en collaboration avec les services de prévision des crues. Il faut savoir que lors de Xynthia, trois services de prévision des crues avaient mis en vigilance orange des tronçons de cours d'eau. Cela a permis de mettre l'accent sur le tronçon le plus sensible, dans la région de Bordeaux. Les courbes du modèle Telemac que nous vous présentons indiquaient dès le samedi matin 8 heures que le niveau d'eau attendu était de 6,80 à 6,90 mètres à Bordeaux. Le niveau observé a été de 6,93 mètres.
Ce n'est pas celle de l'IGN, mais une cote qui sert de repère pour les crues, commune aux services de la préfecture, aux services de secours et à la communauté urbaine de Bordeaux. Lors de la crue de 1999, on avait atteint 7,05 mètres, sachant qu'à Bordeaux le niveau orange est à 7 mètres. Vingt-quatre heures avant Xynthia, nous avions une prévision de l'ordre de 6,80 à 6,95 mètres. Nous pouvions donc prévenir la préfecture, la communauté urbaine et les communes afin qu'elles lancent des actions permettant de limiter le niveau de la crue.
6,50 mètres. A 7 mètres, on passe au niveau rouge.
Nous nous sommes posé la question, mais les indications du modèle Telemac – qui est encore en phase d'évaluation – et des autres systèmes qu'utilisent les services de prévision des crues nous laissaient supposer que l'on resterait en dessous de 7 mètres. Nous étions déjà en vigilance rouge pour le vent, et nous étions passés en vigilance orange pour les crues dès le samedi matin. En outre, nous avons toujours informé nos différents partenaires – sécurité civile, préfecture – des cotes que nous avions.
Quelle est précisément la chaîne d'information ? A partir de quel moment avez-vous été mis en alerte ? A qui fournissez-vous vos informations et quels retours avez-vous ?
Il y a plusieurs chaînes parallèles. Les informations que nous recevons de Météo France et du SHOM nous permettent de prévenir les services de prévision des crues des situations hydrométéorologiques qui peuvent se produire dans les 24, 48 ou 72 heures. Ce sont ensuite eux qui travaillent, à l'aide de nos modèles ou d'autres plus simples. Ils ont une approche beaucoup plus fine des territoires, et c'est à eux qu'incombe le premier travail de vigilance et de prévision, même s'il y a des « allers-retours » réguliers avec nous. Lorsqu'on est en vigilance, le service de prévision des crues prévient la préfecture, tandis que des contacts sont pris avec Météo France au niveau local et au niveau national. Nous informons en outre le COGIC, qui gère les situations de crise au niveau national, pour qu'il puisse envoyer des renforts dans les zones où l'on passe en vigilance orange. Il y a donc un travail à double échelle, qui permet de croiser toutes les informations disponibles.
Si je comprends bien vos courbes, le maximum observé s'est révélé proche du maximum prévu. Ce dernier est bien représenté par la courbe bleue ?
Oui : la courbe bleue représente la prévision 24 heures avant.
Notre prévision a été très bonne, car la prévision météo était bonne. Il faut aussi rappeler que le modèle est sensible à plusieurs facteurs : la surcote, l'endroit où se situe la dépression, la houle et surtout la direction du vent – une variation de 10 degrés de l'orientation du vent peut donner une variation de 10 ou 20 centimètres.
Ici, la trajectoire de la tempête était très bien connue.
Devant cette prévision, avez-vous eu le sentiment qu'on allait vers un évènement exceptionnel en termes de submersion ?
Il nous semblait en tout cas pouvoir être comparé avec la tempête de 1999 et avec la tempête Quentin de l'année dernière. Cela nous a permis de prévenir les acteurs locaux, qui ont encore la mémoire de 1999.
Ils se souviennent surtout des dégâts liés au vent. Bien souvent, la submersion n'est pas le principal souci…
A Bordeaux, pourtant, les débordements ont été plus importants en 1999 que lors de la tempête Xynthia.
Comment expliquez-vous que la modélisation puisse être aussi précise à Bordeaux et que l'on ne soit pas capable de mieux modéliser pour des côtes qui ont été touchées, notamment à l'embouchure de rivières comme le Lay ou la Seudre ?
Nous avons un modèle et aussi un certain conditionnement hydraulique tout le long de l'estuaire de la Gironde. Nous vous l'avons dit, nos données d'entrée étaient particulièrement bonnes. La prochaine fois, nous ne ferons pas forcément aussi bien !
Notre modèle a notamment été développé avec EDF. Il est bidimensionnel pour pouvoir tenir compte de l'hétérogénéité latérale de l'estuaire, ce qui nous permet d'aller un peu en mer. En revanche, dans les configurations côtières compliquées, il y a une transformation du niveau de la mer ou de l'amplitude des vagues entre le large et la côte. Cette déformation peut être assez sensible. C'est un point sur lequel travaillent l'IFREMER, Météo France ou le SHOM, par exemple dans le cadre du projet PREVIMER. Nous avons déjà des démonstrateurs en place dans des zones spécifiques – mer d'Iroise, bassin d'Arcachon, Normandie.
Nous suivons de près le projet, mais nous n'en sommes pas partenaires. La direction générale de la prévention des risques est cependant informée de ses progrès. Les promoteurs du projet ont en outre besoin de nos données relatives aux débits provenant des rivières et des petits bassins versants directement reliés à la mer. Nous avons quant à nous besoin d'améliorer les conditions à l'aval, c'est-à-dire ce qui nous permet, à partir d'un niveau de mer donné, de remonter à la rivière.
Comment vous situez-vous par rapport à ce que fait Météo France, qui se base aussi sur la hauteur de la houle ?
Nous avons besoin de ces données-là – c'est-à-dire de ce qui fait le niveau de la mer à la côte, aux embouchures des rivières – pour caler la prévision de ligne d'eau sur la rivière. Il faut distinguer plusieurs composantes : d'abord la marée astronomique, puis les composantes météorologiques – dépression, vent – qui expliquent une part de la surcote. Beaucoup d'éléments sont déjà pris en compte dans les modèles de Météo France, du SHOM ou de PREVIMER. Nous devons aller plus loin pour inclure la partie de la surcote due à la houle ou à la perte d'énergie des vagues à la côte. Ces deux dernières composantes sont en cours d'introduction dans les modèles de type PREVIMER. Cela impliquera un changement d'échelle : il faut passer à des modèles plus fins.
Pour qu'un modèle tourne correctement, il faut pouvoir le caler sur des événements historiques – et pour cela, il faut que des mesures aient été prises. Or, nous manquons cruellement de données pour beaucoup de cours d'eau et d'embouchures.
Une multiplicité d'organismes travaillent sur le sujet, et ils ont bien des points en commun – modélisation, outils… Etes-vous sûrs que tout cela est bien coordonné, qu'il n'y a pas de redondance, que les interfaces sont assurées ? L'IGN nous a dit qu'il vendait ses modèles et qu'il travaillait avec les collectivités qui voulaient bien financer ; l'IFREMER ne fait pas autre chose. Tout cela ne serait-il pas plus efficace avec une meilleure coordination ?
Nous avons moins besoin des modèles des autres que de leurs résultats, et inversement. Pour prévoir ce qui va se passer près de la côte, nos partenaires ont besoin de connaître le débit des rivières, de même que pour prévoir la ligne d'eau des rivières, nous devons connaître le niveau de la mer. On se situe donc à une interface : nous sommes des terriens, nous n'entrons pas dans l'océanographie. Il existe bien sûr des interférences, comme il y en a entre Météo France et l'IFREMER ou le SHOM. Je dirais qu'il faut bien faire passer les frontières quelque part, sans quoi on raisonne dans un grand tout et l'on consacre vite plus d'énergie à faire de la bureaucratie qu'à faire de la synergie…
Nos métiers sont un peu différents, mais nous avons besoin de bien nous articuler. J'en discutais tout à l'heure avec l'équipe PREVIMER au sujet des échanges de données. De même, nous utilisons pour les prévisions de pluie les données de Météo France ou du Centre européen de prévision. Chacun doit faire son métier du mieux possible ! Nous avons aussi une interférence avec la connaissance de la topographie des lieux : nous avons un grand besoin de topographie fine. Dans le cadre de la mise en oeuvre de la directive sur les inondations, un grand chantier s'est ouvert sur la cartographie des aléas et des risques. Nous sommes très en retard sur les Hollandais – mais les enjeux sont autrement plus considérables chez eux.
Pour finir, je voudrais rappeler que l'Etat ne finance pas à 100 % les activités des établissements publics. On ne peut donc leur reprocher de faire feu de tout bois…
Obtenez-vous toutes ces données à titre gratuit, ou signez-vous des conventions d'échange de données ?
Entre Météo France, les océanographes et le SCHAPI, tout est gratuit ; nous nous inscrivons dans le cadre de conventions européennes. Pour ce qui est de l'IGN, nous contribuons à certains de leurs programmes.
Il y a des discussions serrées entre la DGPR et l'IGN sur les orientations de ce programme, qui comporte une partie terrestre et une partie maritime-bathymétrique. Les clients de ce programme sont les océanographes, mais aussi les aménageurs de ports, qui cherchent à améliorer les modèles proches de la mer.
Après la tempête Xynthia, avez-vous été sollicités par la DGPR pour des expertises sur les sites touchés ?
Non ; nous avons été sollicités pour un « retour d'expérience », comme à chaque événement marquant. Dans le cadre de la directive sur les inondations, nous sommes également très impliqués dans les travaux de topographie fine qui sont nécessaires pour améliorer la prévision des crues ou les PPR. Nous avons pour cela une sorte de délégation de la DGPR, et nous participons donc aux discussions avec l'IGN. Nous avons enfin été interrogés, au titre de notre activité, dans le cadre de l'inspection qu'a demandée le Président de la République.
Sur la baie de l'Aiguillon, quelle est la nature exacte des données que le SCHAPI collecte en propre ? A partir de quel point d'observation les collectez-vous ? Cela recouvre les bassin du Lay, de la Sèvre et du Curé.
Je vous fais distribuer un extrait du bulletin Vigicrues diffusé le 27 février à 10 heures. Sur la carte apparaît le réseau surveillé par l'Etat. Le Lay n'y figure pas. En effet, il y a un certain nombre d'ouvrages hydrauliques – écluses, barrages – en aval du Lay, tandis qu'en amont un certain nombre de ses affluents, notamment l'Yon, comportent de nombreux barrages de stockage pour l'eau potable dont nous ne connaissons pas le mode de fonctionnement. Il nous est donc très difficile de prévoir les crues. Selon l'évaluation que nous avons faite, nous ne pourrions faire de la prévision que sur un secteur limité – environ 200 habitations – à proximité de Mareuil-sur-Lay. Nous y avons donc renoncé provisoirement.
Oui, mais vous avez vu que les éléments qui nous manquent sont encore nombreux…
De quels moyens disposez-vous pour accéder à ces éléments ? Est-ce à vous d'aller chercher l'information ?
Avec EDF ou la Compagnie nationale du Rhône, qui sont très organisés, c'est plus facile. Mais ici, nous avons affaire à des syndicats intercommunaux qui ne sont pas toujours en mesure de nous répondre, même lorsque nous nous sommes mis d'accord.
La zone qui a été touchée en Vendée était dotée d'un Plan de prévention des risques d'inondation – PPRI. Avez-vous été sollicités lors de son élaboration ? Si non, n'est-il pas surprenant que l'on puisse élaborer un PPRI sans avoir recours à la modélisation ?
Le terme de modélisation est large – c'est la représentation d'un phénomène. Notre métier est de faire de la prévision ; nous ne sommes donc pas partie prenante dans l'élaboration des PPRI. Celle-ci passe par un processus difficile. On manque souvent de données techniques, et pourtant il faut faire au mieux.
S'agissant du secteur vendéen touché par la tempête, les crues fluviales ont joué un rôle bien moindre que l'aléa marin. Je vous ai expliqué combien ce dernier était délicat à prendre en compte. N'oublions pas que la marée est un phénomène court. Pour schématiser, le robinet est grand ouvert, mais pas très longtemps ; si la bassine est très grande, les dégâts peuvent être limités. Mais quoi qu'il en soit, l'élaboration d'un PPRI n'est pas une mince affaire. Il importe en effet de convaincre.
Les élus, la population, les industriels… qui reçoivent de manière diverse l'affichage de l'aléa. Certains élus sont volontaires pour afficher le risque, mais ce n'est pas le cas de tous.
Lorsqu'on a un événement récent, dûment répertorié et sur lequel on a bien communiqué dans l'immédiat, avec un constat partagé, peut-être... Mais l'élaboration d'un PPRI exige le plus souvent un vrai travail pour que le diagnostic et les enjeux soient partagés. C'est une affaire compliquée quand la physique des phénomènes est déjà complexe…
Dans les premiers PPR – qui s'appelaient encore plans d'exposition au risque – la définition des aléas était confiée à des experts. Nous disposons maintenant d'études de modélisation, mais elles sont elles aussi confiées à des experts. Or la notion d'expert ne va pas de soi pour tout le monde. La discussion est plus facile lorsqu'on peut se référer à un événement récent.
Il vous manque, dites-vous, un certain nombre d'éléments pour pouvoir faire des prévisions d'inondation pertinentes sur le Lay. Pourriez-vous me communiquer la liste de ces éléments et celle de vos interlocuteurs ? Par ailleurs, vous ne m'avez pas répondu sur la Sèvre. Est-ce à dire que la situation est différente ?
Malheureusement non. La Sèvre niortaise compte elle aussi de nombreux ouvrages, il nous manque donc beaucoup d'éléments. Pour la Charente, nous nous arrêtons très haut puisque toute la zone d'influence maritime est exclue. Nous étudions actuellement un allongement jusqu'à Rochefort. De même, pour la Seudre, nous ne prenons pas en compte la partie la plus sensible aux influences maritimes, où les mareyeurs sont nombreux.
Avez-vous été auditionnés par l'un des groupes de travail du Conseil d'orientation pour la prévision des risques naturels majeurs, le COPRNM ?
Nous participons à certains groupes de travail, par exemple sur les inondations.
C'est le bureau des risques météorologiques, autre entité de la DGPR, qui en suit les travaux.
Elle nous impose de nouvelles obligations, mais joue aussi un rôle de stimulant, par exemple sur la topographie fine des zones inondables. Elle nous demande en effet d'avoir mené à bien une première cartographie avant fin 2013. Je ne suis pas sûr que nous aurions donné un coup d'accélérateur ni recherché une telle cohérence sans la directive, qui renforce aussi notre conviction que la réduction du risque d'inondation est une affaire globale.
Je vous remercie de nous y aider…
Peut-on schématiquement définir un triangle du risque – prévision, prévention, protection ?
Tout à fait.
Je reviens sur les PPRI et la notion d'expert. Comment appréhendez-vous le citoyen en sa qualité d'expert ? Lors de l'élaboration des PPRI, votre jugement est souvent contredit par la mémoire des habitants du lieu, mémoire que les ingénieurs ont tendance à nier. Le citoyen expert va-t-il être davantage respecté ?
Je pense que nous progressons. Pour élaborer un PPRI, il est très important d'arriver à un diagnostic partagé. Nous essayons donc de plus en plus d'enrichir les panels de perception du risque, en recourant notamment à des géographes ou à des sociologues.
Ceci étant, il faut reconnaître que la mémoire peut s'effacer ou se déformer. J'ai entendu en 2000 aux Ponts-de-Cé, sur la Loire, des gens affirmer de bonne foi qu'il n'y avait jamais eu de telle crue. J'avais sur moi des photos de 1994 qui démontraient le contraire ! De même, des preuves qui paraissent tangibles peuvent être fausses – c'est par exemple le cas lorsque la pierre qui sert de repère pour les crues n'a pas été remise à sa place lors de la reconstruction de la maison. Comme les historiens, nous devons donc procéder en permanence à des recoupements. Il est important d'arriver à faire vivre cette mémoire collective. J'ai longtemps travaillé sur la Loire. Je me déplaçais avec des cartes établies entre 1848 et 1852 sur lesquelles étaient reportées les crues de 1846, de 1856 et de 1866. Nous passions beaucoup de temps à les regarder ensemble dans les conseils municipaux ou les réunions publiques, en nous demandant parfois s'il n'y avait pas des erreurs. Ces documents sont vénérables, mais ils peuvent être un peu erronés…
Le SCHAPI ne participe pas à l'élaboration des PPR, qui est sans conteste grandement facilitée lorsque l'information est partagée.
Vous m'avez interrogé sur les perspectives d'amélioration de la prévision des submersions marines et sur l'instauration d'une vigilance plus développée que ce que fait Météo France avec le SHOM. Météo France prépare actuellement une vigilance sur la prévision des submersions marines qui est l'un des volets de la vigilance météorologique à l'échelle du département. Pour pouvoir prendre des mesures pertinentes, il faudra cependant aller plus loin.
Trois niveaux doivent être traités. D'abord la prévision des niveaux marins et de l'amplitude des vagues au large. Nous en disposons déjà avec Météo France et le SHOM et cela fonctionne plutôt bien. Nous devrions même continuer de progresser. Deuxième niveau, le passage des données « au large » aux niveau d'eau et à l'amplitude des vagues « à la côte », qui dépend beaucoup de la configuration côtière. Les expérimentations en cours – par exemple le projet PREVIMER, mais il y en a d'autres – devraient déboucher sous peu. Les prévisions de PREVIMER lors de la tempête Xynthia avaient d'ailleurs été assez bonnes sur un certain nombre de côtes. Les progrès qui restent à faire passent par une meilleure bathymétrie - d'où l'intérêt du projet Litto3D. Il faut prendre en compte l'effet de la houle et de la dissipation d'énergie des vagues, ce qui exige des modèles à mailles plus fines. Les perspectives sont néanmoins encourageantes. Troisième niveau enfin, le passage de la mer à la terre – c'est là que les choses se gâtent ! La carte que vous avez sous les yeux est un exemple de prévision globale par PREVIMER : elle vous donne les surcotes ou les sous-cotes par rapport au niveau moyen de la surface de la mer.
C'est une prévision qui date de vendredi dernier. L'exercice est complexe, car il y a des secteurs pour lesquels cela varie très vite. Un des documents vous montre les emboîtements pour lesquels nous disposons de données plus précises.
Pour répondre précisément à M. le rapporteur, il s'agit d'une prévision de la hauteur de la surface de la mer par rapport au niveau moyen.
Au large. Je précise cependant que si dans certains cas, la cote au large représente bien ce que l'on trouve à la côte, dans d'autres – les baies un peu fermées ou les estuaires – il peut y avoir une grande variation.
C'est la moyenne sur plusieurs années des niveaux d'eau à un endroit donné. Ce n'est donc pas une surcote par rapport à la marée astronomique, mais une différence par rapport à un niveau moyen. J'en conviens, il serait plus simple de raisonner partout à un niveau NGF.
Comment passer des données « à la côte » au niveau dans les zones littorales basses ? Pour les fleuves surveillés par l'Etat, il faut développer les points de mesure et l'accès aux données existantes et améliorer la connaissance et les modèles. Dans les zones sous influence maritime, il y a souvent beaucoup de particularités complexes à saisir. Il faut arriver à « unifier » ce que disent les marins, les gestionnaires de ports, les pêcheurs… Le SCHAPI s'intéresse également à ce qui se passe dans les autres zones littorales basses – il n'y en a pas que le long des embouchures, des estuaires ou des deltas ; il y en a aussi qui sont drainées par de toutes petites rivières ou des drains artificiels et qui peuvent être en communication avec la mer. Nous devons parvenir à définir des niveaux de sensibilité de manière assez synthétique pour pouvoir donner l'alerte lorsque c'est nécessaire.
Nous avons vu que sur la Gironde lors de la tempête Xynthia, vous étiez en mesure de prévenir.
Oui, car nous étions le long d'un estuaire. C'est plus compliqué lorsqu'il y a des liaisons directes avec la mer, le plus difficile étant de parvenir à une vision synthétique de la multiplicité des liens à la mer. Il faut aussi une topographie précise. C'est particulièrement important dans les zones littorales. Nous disposons de la base de données ALTI de l'IGN, mais la marge d'erreur est de deux mètres, ce qui est important. Le chantier est lancé avec Litto3D ; il faut poursuivre dans cette voie. Il faut enfin localiser et analyser les enjeux d'inondation.
Nous disposons aujourd'hui de topographies précises pour un tiers des zones littorales basses. La prévision des inondations par submersion marine doit s'intégrer dans une démarche « prévision, prévention, protection ». La chaîne technique de la prévision est différente de celle de l'hydrologie ou de l'élaboration d'un PPR, mais nous avons beaucoup à partager – des modèles, des données, des connaissances. La prévision est un objet technique, mais elle doit être partagée pour pouvoir assurer la gestion des crises.
C'est une mise à l'épreuve de nos outils. Mais avec le chantier désormais prioritaire de la prévision des inondations par submersion marine, la tâche à accomplir augmente beaucoup plus vite que nos moyens…
La coordination entre les différents intervenants a-t-elle été satisfaisante ? L'information a-t-elle bien circulé ? L'événement a-t-il été bien signifié aux responsables ?
Nous ne pouvons nous satisfaire de nos performances, puisqu'il y a eu un « blanc » dans nos capacités de prévision. Nous avions fait des prévisions sur les tronçons du réseau surveillé par l'Etat, mais l'événement a largement eu lieu ailleurs. Ceci étant, là où nous étions « armés », cela s'est plutôt bien passé : à Bordeaux, la catastrophe a pu être évitée car la communauté urbaine a eu le temps de couper son réseau d'assainissement de la Gironde.
Après Xynthia, des décisions ont été prises extrêmement vite, voire en trois jours, puisque des zones étaient délimitées sous la direction de la DGPR trois jours après la circulaire du 18 mars. En tant qu'expert, pensez-vous que l'on puisse prendre des décisions sérieuses aussi vite ?
Les techniciens ont fait le mieux possible dans les délais qui leur étaient impartis. Mais ces délais étaient très brefs.
Je crois que la brièveté des délais s'explique par le souci de répondre clairement à la question que se posait une partie de la population – « pourrai-je revendre ma maison ? » Je réponds en mon âme et conscience, mais aussi en pleine solidarité avec la DGPR, dont je fais partie.
Membres présents ou excusés
Mission d'information sur les raisons des dégâts provoqués par la tempête Xynthia
Réunion du mardi 1er juin 2010 à 17 heures
Présents. - Mme Véronique Besse, M. Philippe Boënnec, M. Maxime Bono, M. Dominique Caillaud, Mme Claude Darciaux, M. Jean-Paul Lecoq, M. Jean-Louis Léonard, Mme Jeanny Marc, M. Philippe Plisson, Mme Catherine Quéré, M. Jacques Remiller, Mme Marie-Line Reynaud, M. Dominique Souchet
Excusé. - Mme Marguerite Lamour