Retour sommaire

Ce que serait l'accident majeur

En un an, un réacteur nucléaire accumule autant de produits radioactifs que 1000 bombes d'Hiroshima. Devant cette vérité, certains rapports sur les " risques du nucléaire ", opportunément optimistes quand ils furent publiés n'apparaissent guère sérieux de nos jours. Voici, chiffrés pour la première fois, les risques vrais de contamination au cas, où par malheur, des produits de fission se dégageraient dans l'atmosphère à la suite d'un accident " maximal " provoquant une perte de confinement.

Que se passerait-il en cas d'accident majeur d'un réacteur nucléaire ? Eventualité peu probable, avaient certifié les instances gouvernementales tant américaines que françaises. Pourtant, après Three Mile Island, après les fuites de Grenoble, celles de Gravelines, après la mise hors service de cinq réacteurs aux Etats Unis, chacun est en droit de se poser la question et de remettre en cause les différents rapports d'estimation des risques. Parmi ceux-ci, le plus connu est sans conteste le rapport Rasmussen (Wash 1400 de son vrai nom), approche probabiliste des risques, véritable bible de plus de 3 000 pages, sur lequel s'appuyaient encore récemment tous les partisans mondiaux du nucléaire. Désavoué par un rapport publié il y a quelques mois par le Nuclear Regulatory Commission (NRC), (l'agence fédérale américaine chargée de la sûreté et de la réglementation concernant les réacteurs nucléaires), ce document américain dont le rapport final fut publié fin 1975, n'était pas tout à fait le premier du genre. Dès mars 1957, le rapport de Brookhaven (Wash 740) donnait déjà les conséquences d'un accident grave, sans toutefois en chiffrer la probabilité. 3 400 morts, 43 000 accidentés graves par contamination radioactive et 7 milliards de dollars de dommages matériels, tel était le bilan de ce rapport dont le but essentiel était bien de convaincre le Congrès américain à voter le " Price Anderson Act ". Cette loi, proposée par l'AEC (1), visait à limiter en cas d'accident, la responsabilité civile des producteurs d'électricité à 60 millions de dollars, ceci pour une période de dix ans. Le gouvernement s'engageait ainsi à couvrir les frais complémentaires jusqu'à concurrence de 500 millions de dollars.

Vers 1964-1965, à l'approche de la date d'échéance du " Price Anderson Act " sans lequel, rappelons-le, les compagnies privées ne se seraient sans doute jamais lancées dans l'aventure économique que représentait le nucléaire, le rapport de Brookhaven fut mis à jour. L'AEC espérait alors démontrer la maturité de l'industrie nucléaire. Malheureusement, cette mise à jour, qui n'était sans doute pas suffisamment probante, ne fut pas publiée et le " Price Anderson Act " fut prorogé de 10 ans.

Mais il semblait difficile, dans une nation où les unions de consommateurs sont particulièrement vigilantes et actives, de continuer ainsi une marche en avant qui ne reposait, en fait, sur aucun document valable. C'est à ce moment-là qu'incomba au groupe présidé par le professeur Rasmussen, la tâche ardue qui consistait à calculer la probabilité d'un accident de réacteur et dans ce cas d'en chiffrer les conséquences. Un rapport préliminaire fut publié en août 1974. Le rapport final date de fin 1975, juste avant le troisième débat parlementaire sur le " Price Anderson Act ", qui fut alors prorogé une nouvelle fois de 10 ans. Ce qui fit dire, bien sûr, à tous les contestataires que l'unique propos du rapport Rasmussen, était bel et bien de prouver que la probabilité d'accident était très faible : le risque évalué par ce rapport était d'un accident par million d'années pour un réacteur. Quant aux conséquences de ce peu probable accident, elles étaient moins catastrophiques qu'on aurait pu le penser : le nombre total de morts et de victimes ne dépassait pas 10 000. Soit le quart du bilan prévu par le premier rapport de Brookhaven (Wash 740). Bel optimisme, lorsque l'on sait que la mise à jour, non publiée mais connue aujourd'hui, de ce dernier rapport, remettait en cause son premier bilan et prévoyait 45 000 morts " immédiats ". Signalons que le Pr. Rasmussen était à l'époque conseiller de la Reddy Communications, firme spécialisée dans les relations publiques de l'industrie nucléaire !

La part de garantie assumée précédemment par le gouvernement devait toutefois être progressivement prise en charge par les industries nucléaires ; la responsabilité civile n'en était pas moins limitée à 560 millions de dollars.

Les conclusions du rapport Rasmussen, jugées maintenant trop optimistes, étaient le plus souvent tronquées par les instances officielles. Chacun se rappelle les fameuses courbes qui permettaient de comparer le nombre probable de morts dus aux accidents de 100 réacteurs nucléaires à celui entraîné par des catastrophes naturelles telles que tremblements de terre, tornades, etc. En ne citant que ce graphique, on arrivait facilement à conclure que les conséquences d'un accident de réacteur PWR (à eau ordinaire pressurisée), de très loin le type le plus fréquent en France, seraient presque insignifiantes, puisque du même ordre que celles dues aux chutes de météorites. Or, ce graphique n'était évidemment valable que pour les morts " immédiats ". A supposer qu'il fût valable ! Car les données choisies pour arriver à cette conclusion peuvent donner lieu à la critique ; le nombre de morts " immédiats " aurait pu être multiplié par 1000 suivant la densité de population à proximité du réacteur. De toute façon, chacun sait que les radiations ionisantes entraînent pour l'organisme humain des dommages perceptibles après un temps de latence parfois très long. Ainsi, toujours d'après ce rapport (et l'on citait moins ce passage), 10 morts " immédiats " avaient la même probabilité que :

* 7 000 morts par cancer, 10 à 40 ans après l'accident;

* 4 000 anomalies génétiques dont les premières apparaîtraient dès la première génération, soit 30 ans après l'accident et persisteraient durant 150 ans ;

* 60 000 tumeurs de la thyroïde qui apparaîtraient 10 à 40 ans après ;

* 8 000 km2 de terrains contaminés.

Quoique ce tableau ne soit guère réjouissant, il faut dorénavant envisager de le noircir davantage. Comme nous l'avons indiqué précédemment, le NCR vient de publier, il y a quelques mois, les travaux d'un groupe d'experts indépendants, chargés de réexaminer le rapport Rasmussen. Ne désavouant pas la méthodologie utilisée dans ce dernier rapport, ces experts émettent de vives réserves quant aux données choisies ; ne révisant pas les chiffres concernant les risques d'accident et leurs conséquences, ils déclarent toutefois que la marge d'erreur est certainement beaucoup plus grande que celle indiquée.

Compliquées par la complexité des techniques physico-mathématiques qu'elles impliquent, les méthodes probabilistes utilisées dans le rapport Rasmussen tendent à évaluer les risques en envisageant toutes les éventualités de non-fonctionnement des dispositifs de sécurité, qui forment autant de " séquences accidentelles ", reliées entre elles sur un " arbre d'événements ". La probabilité de défaillance de chacun des systèmes physiques impliqués dans cet " arbre d'événements " donne un nouveau graphe plus complexe : l'" arbre de défaillances " où sont passés en revue les moindres vannes ou clapets d'un dispositif. A chaque " séquence accidentelle " de chaque " arbre d'événements " correspond une quantité plus ou moins grande de produits radioactifs libérés dans l'environnement. Dans les calculs des conséquences de ces rejets entrent également en ligne de compte, des probabilités tirées de statistiques météorologiques (climat, vitesse et direction du vent, etc.) pour une région donnée.

S'ils avouent qu'il est parfois difficile de suivre les détails de calcul, insuffisamment, explicités dans le rapport Rasmussen, les experts constatent toutefois qu'entre deux hypothèses de départ, les auteurs ont toujours choisi la plus optimiste. Cette façon de procéder n'a pu qu'entraîner une propagation et une augmentation des erreurs, plus exactement des incertitudes. Il faut cependant admettre que la tâche n'était pas aisée, car les auteurs, ne pouvant se référer à des données réelles, devaient travailler sur des hypothèses. Par exemple, quelles données choisir quant à la fusion du coeur, qui ne s'est jamais produite ?

Et puis seulement deux réacteurs ont servi de références au rapport Rasmussen ; cette étude a été étendue à 100 réacteurs ; or tous les réacteurs sont différents. Ainsi, en 1975, de nombreux réacteurs ne possédaient pas de pompe de recirculation automatique, ce qui diminue d'un facteur de 10 la probabilité de fusion du coeur.

Donc, pas assez de données pour obtenir une réponse statistique fiable ! D'autant plus que le procédé statistique utilisé dans certains cas par les auteurs et qui consiste à " lisser " les variations brutales de probabilités (plus prosaïquement à ne pas prendre trop en compte les situations extrêmes), n'est acceptable que si l'on travaille sur un nombre suffisant de données. D'autre part, certains calculs de probabilité exigent de posséder certaines données expérimentales.

Un des plus gros reproches formulés est aussi le manque d'analyse de pannes simultanées et corrélées qui touchent plusieurs systèmes ; ce type de panne est pourtant plus fréquent que les pannes n'atteignant qu'un système. Ainsi, l'apparition simultanée de multiples incidents, sans gravité séparément, peut entraîner un énorme risque global. Ce fut le cas d'Harrisburg : tout commença par le mauvais fonctionnement du circuit d'air comprimé. Ce fut également le cas pour l'accident de Browns Ferry, qui se produisit en Alabama en 1975. La modeste bougie qui déclencha un incendie qui devait durer sept heures n'avait, bien sûr, pas été prévue par le rapport Rasmussen, mais si l'on se réfère à la méthodologie employée et aux " séquences accidentelles " suivies lors de cet accident, sa probabilité aurait dû être de 1 sur 1 000 milliards.

Les accidents évités de justesse sont d'ailleurs peu étudiés dans le rapport Rasmussen, tandis que les possibilités de sabotage ne sont pas même envisagées, car jugées impossibles à évaluer.

La qualité des matériaux employés et le contrôle de cette qualité sont deux des points cruciaux en matière de sûreté nucléaire. La solution la plus rationnelle qui s'offrait au docteur Gilbert chargé de cette question dans le rapport Rasmussen, s'était avérée un travail de titan.

Elle consistait à vérifier pour chacun des deux réacteurs choisis comme référence, tous les matériaux utilisés, du moindre écrou à la plus grosse canalisation. Lorsqu'on songe au nombre de sous-traitants qu'il aurait fallu visiter, on comprend aisément que le docteur Gilbert ait abandonné cette idée ; d'autant plus qu'elle aurait sans doute laissé apparaître trop de défectuosités. Devant l'énormité de la tâche, on décida de supprimer purement et simplement ce chapitre pourtant fondamental. Puisque les chiffres annoncés par le rapport Rasmussen quant à la probabilité d'accidents ne sont plus aujourd'hui parole d'évangile, et puisque l'on ne dispose pas d'autres données, quels sont réellement les risques encourus par la population autour d'une centrale nucléaire ?

Il faut d'abord envisager les accidents liés au fonctionnement du réacteur. Normalement, le coeur du réacteur qui contient le combustible à base d'uranium est en équilibre ; le nombre de neutrons qui entretiennent la réaction nucléaire est constant ; la température est également constante. Que l'eau du circuit primaire vienne à s'échapper pour une raison ou une autre, et c'est le " LOCA " (perte de réfrigérant), l'accident le plus redouté, puisqu'il entraîne le, risque de fusion du coeur, qui n'est plus refroidi en permanence. La perte de réfrigérant déclenche automatiquement le dispositif d'arrêt et celui d'aspersion d'eau. Mais aucun système n'est infaillible. Si ces dispositifs s'avéraient inefficaces, l'enceinte de confinement, qui entoure le bâtiment du réacteur se romprait sous l'effet de la surpression due à la vapeur d'eau. Les spécialistes s'accordent à dire que le coeur en fusion s'enfoncerait dans la terre, on ne sait absolument pas jusqu'où. Cette idée a d'ailleurs été reprise dans le film " le syndrome chinois ".

Séisme, inondations, tornades, chutes d'avions, incendies ou sabotages sont autant de causes qui pourraient entraîner les mêmes effets. Mais leur probabilité est généralement considérée comme faible par les spécialistes.

Mais ce qui inquiète le plus, ce sont les conséquences radiologiques pour l'organisme humain. L'estimation des risques entraînés par une catastrophe de cette envergure a fait l'objet d'autres rapports que celui du groupe Rasmussen. En 1976, l'Institut de la Sûreté des Réacteurs de Cologne sortit un rapport qui, s'il ne fut pas publié, est néanmoins connu, grâce à des fuites. D'autre part, un groupe de scientifiques français (2 ) appartenant pour la plupart à l'Université de Provence a réalisé une étude à partir de données établies ou utilisées par le Commissariat à l'Energie Atomique. Il nous a semblé intéressant de confronter les trois études. En premier lieu, il faut savoir que contrairement à une opinion répandue, un réacteur nucléaire PWR ne peut pas exploser comme une bombe atomique. En effet, dès l'arrêt du réacteur, la réaction en chaîne s'étouffe d'elle-même. Cette éventualité d'explosion est en revanche envisagée pour les surrégénérateurs à neutrons rapides !

Mais même sans explosion atomique, le danger n'est pas écarté pour autant. Dès la perte du confinement, une partie des produits radioactifs contenus dans le coeur, va être libérée ; d'abord les gaz comme le xénon, l'iode ; puis certains corps solides comme le strontium ou le césium vont partir dans l'atmosphère sous forme d'aérosols. A ce moment-là intervient une part d'inconnu en raison des réactions chimiques qui peuvent se produire. Il est néanmoins possible d'évaluer ces fuites.

La quantité d'éléments radioactifs libérés dépend en premier lieu de celle accumulée dans le réacteur. Celle-ci est proportionnelle à la puissance du réacteur (donc à la quantité d'uranium) et dépend également du taux d'irradiation du combustible, c'est-à-dire du temps de séjour de ce combustible dans le réacteur en marche. Le poids en grammes des produits de fission, fabriqués quotidiennement dans un réacteur, est approximativement égal à sa puissance thermique mesurée en MW. En effet, la fission d'un gramme d'uranium 235 ou de plutonium, donc la création d'un poids équivalent de produits de fission, correspond à peu près au dégagement d'une énergie thermique de 1 MW.jour. On peut donc estimer à environ 3 kg le poids des produits de fission fabriqués par jour dans un réacteur d'une puissance thermique de 3 000 MW (environ 1 000 MWe). Cela correspond à la même quantité que celle créée par l'explosion de 3 à 4 bombes comme celle d'Hiroshima (3). Ces produits s'accumulent dans le réacteur, et au bout d'un an par exemple, on en trouverait a peu près une tonne, soit la même quantité que pour 1 000 bombes Hiroshima. La comparaison n'est, en réalité, valable que pour les radio-éléments qui se désintègrent lentement. Pour les autres, il faut tenir compte de la décroissance radioactive qui fait diminuer leur accumulation dans le réacteur. Les quantités peuvent cependant être considérables. Plusieurs milliards de curies. Pour évaluer la radioactivité respective de ces divers éléments, il suffit de connaître la quantité d'uranium, puis de plutonium, contenue dans le réacteur ; pour chaque élément, il existe un rendement de fission donné ; en d'autres termes, chaque fois qu'un certain nombre d'atomes d'uranium se cassent, on considère qu'il se forme théoriquement un certain pourcentage d'un élément donné. En cas de perte de confinement, tous ces éléments radioactifs ne seraient pas pour autant libérés dans l'atmosphère. A chaque élément correspond un taux de libération donné. Suivant les études, 0,4 à 1 % du plutonium partirait dans l'environnement tandis que des gaz comme le xénon, auraient un taux de libération de 90 à 100 %. Cela représenterait tout de même des centaines de millions de curies.

ACCIDENT MAJEUR:
LES ZONES CONTAMINÉES PAR UN VENT DE 2 METRE / SECONDE

En cas d'accident majeur, il suffit de 2 200 secondes, soit un peu plus d'une demi-heure après l'arrêt du réacteur, pour que les éléments radioactifs partent dans l'atmosphère, sous forme d'un panache hautement toxique. A partir de ce moment, tout dépend des conditions météorologiques. Plus l'atmosphère est stable, plus le panache est étroit mais dense. C'est, bien sûr, la direction du vent qui commande la contamination d'une région.

Dans le cas étudié, la vitesse du vent est de 2 m/s. Deux paramètres importants interviennent:

* La vitesse de dépôt au sol des particules en suspension dans le nuage; plus cette vitesse est importante, plus le sol est fortement contaminé aux abords immédiats de la centrale, mais moins le nuage est concentré ensuite; elle est prise, ici, égale à zéro (hypothèse pessimiste), sauf pour le rapport Rasmussen et pour l'hypothèse " la plus optimiste " du groupe Provence où elle est égale à 1 cm/s.

* La rugosité du sol: la présence de bâtiments ou de taillis augmente la dispersion du nuage; seuls le rapport de Cologne et l'hypothèse " la plus pessimiste " du groupe Provence, ont écarté cet élément " favorable ".

L'organe qui sert de référence est le corps, sauf dans le rapport Rasmussen où l'on a choisi la moelle osseuse.

Il faut distinguer plusieurs types d'irradiation:

* Externe: due au rayonnement du nuage ou/et du sol contaminé.

* Interne: par inhalation de l'air ou/et ingestion de nourriture contaminée.

Dans le rapport Rasmussen, la dose en rem est calculée pour un temps d'action des radioéléments dans l'organisme de quelques semaines. Dans les deux autres rapports les doses sont calculées en tenant compte de la durée d'action des radioéléments qui peut varier suivant les éléments de quelques semaines à plusieurs années; on ne tient pas compte des durées d'action excédant 50 ans.

 

TROIS RAPPORTS TROIS RÉPONSES

Au-delà de 600 rem la mort est inévitable, qu'elle soit immédiate ou différée. Il est curieux de constater que cette zone, qui a la forme d'un gros oeuf et d'où l'on ne revient pas, ne dépasse guère 10 km pour le rapport Rasmussen alors qu'elle est dix fois plus étendue pour les autres rapports.

Signalons qu'à Three Mile Island les risques de contamination, envisagés comme une véritable catastrophe, auraient été bien moindres que dans le cas étudié, le réacteur de cette centrale n'ayant que quelques mois de fonctionnement et n'ayant donc pas eu le temps d'accumuler les mêmes quantités de produits de fission.

Ensuite, la diffusion de ces produits dépendrait en premier lieu des conditions météorologiques, mais aussi du relief et de la rugosité du sol. Ainsi, la présence de bâtiments ou de taillis, aurait pour effet d'augmenter la dispersion du nuage radioactif. Un autre paramètre intervient : la vitesse de dépôt au sol des particules. Plus cette vitesse est grande, plus le sol est contaminé à proximité du réacteur mais moins le nuage est concentré au-delà.

On peut grosso modo représenter la zone contaminée comme un ovale allongé dans la direction du vent, de longueur d'autant plus grande, que l'atmosphère est en régime de faible turbulence. Des abaques ou des formules de diffusion (modèle Gaussien) permettent de calculer les concentrations en chaque point de la zone, tandis que des formules de conversion permettent de transformer ces doses " émises " dans l'atmosphère en rem. Cette unité mesure alors la dose de rayonnement reçue par l'organisme, en tenant compte du type de rayonnement (alpha, bêta, gamma) et du type d'organe irradié, certaines éléments se fixant préférentiellement sur un organe donné ; l'iode 131 dans la thyroïde, le strontium dans les os. On peut ainsi se représenter le danger encouru par la population. La zone mortelle, celle ou l'irradiation du corps, par simple inhalation de l'air, atteint ou dépasse 600 rem, peut être fort différemment évaluée suivant les critères de calcul choisis. Ainsi, d'après le rapport Rasmussen, ce no man's land serait de 10 km de long, tandis qu'il atteindrait près de 100 km de long sur 4,4 km de large, selon les conclusions du groupe de scientifiques de l'Université de Provence, résultats qui confirment d'ailleurs le rapport de Cologne. Pourquoi ces divergences? En étudiant les détails des calculs, on s'aperçoit que la modification d'un petit nombre de paramètres suffit à affecter considérablement les résultats. Fait plus troublant : la concordance des données pour les éléments radioactifs relativement peu dangereux pour l'organisme et l'écart considérable entre certaines autres. Ainsi, l'inventaire en curies du réacteur est similaire dans les trois rapports pour presque tous les éléments sauf pour le strontium 90, qui, fait étrange, est particulièrement nocif. L'activité de ce corps est jugée deux fois plus faible dans le rapport Rasmussen.

Les taux de libération des éléments radioactifs dans l'atmosphère concordent généralement sauf pour certaines catégories parmi lesquelles on retrouve le strontium 90. Le strontium 90 relâché est estimé trois fois moindre dans le rapport Rasmussen. Par ailleurs la dosimétrie interne utilisée dans ce même rapport, c'est-à-dire la conversion de 1 curie inhalé en rem pour les différents organes, varie par rapport à celle publiée en 1959 par la Commission Internationale de Protection Radiologique (CIPR). Dès la version préliminaire au rapport final Rasmussen, on peut d'ailleurs déjà constater des différences. Ainsi, la dose infligée au poumon y a été divisée par 4 pour le césium 137, par 10 pour le strontium 89 et 90 et par 20 pour le baryum 140. La dosimétrie concernant le corps dans sa totalité, qui figurait dans le rapport préliminaire et qui permettait de faire des comparaisons, ne figure plus dans le rapport final, où la moelle osseuse est choisie comme organe de référence.

D'autre part, il est curieux de constater que pour le groupe Rasmussen un homme inhale, en respirant, un volume d'air de 1,3 fois inférieur à celui indiqué par les deux autres rapports. D'autres hypothèses tendent à diminuer la concentration du nuage : présence de bâtiments qui augmentent la dispersion, vitesse non négligeable de dépôt au sol des particules radioactives ; du rapport préliminaire au rapport final, cette vitesse a été multipliée par 5.

Comment s'étonner alors, en considérant toutes ces hypothèses de départ optimistes, des conclusions peu alarmistes de ce rapport. La preuve du " nucléaire sans danger " n'est plus désormais qu'un gros tas de papier périmé ! Tout est à recommencer ! Mais il est inquiétant de penser que c'est sur ces travaux que repose la politique mondiale de sécurité nucléaire.

Jacqueline Denis-Lempereur,
Science & Vie n°741, juin 1979.

 

(1) L'AEC correspond à notre Commissariat à l'Energie Atomique. Il a été scindé en deux organismes: le MRC chargé de la sécurité et l'ERDA chargé de la recherche et du développement.

(2) Ces spécialistes font partis du Groupement de Scientifiques pour l'Information sur l'Energie Nucléaire (G.S.I.E.N.).

(3) On estime à 700 g la quantité d'uranium 235 qui s'est désintégré à Hiroshima.

Retour sommaire