GEOLOGIE STRUCTURALE

I.           INTRODUCTION

Aujourd’hui nous abordons un nouveau chapitre de la géologie, à savoir la géologie structurale. En quoi consiste-t-elle ?

On a vu dans les causeries précédentes que l’écorce terrestre est formée de roches qui se sont constituées en masses rocheuses de configuration différente. Les roches sédimentaires se disposent en couches généralement horizontales mais que l’on peut rencontrer plus ou moins fortement inclinées ou plissées. Les roches magmatiques intrusives constituent des masses en forme de dôme, dykes, laccolite, nappe et autres formes diverses. L’ensemble de ces diverses masses rocheuses attenantes est désigné par la locution, formes de disposition des roches ou formes structurales.

II.         DEFINITION DE LA GEOLOGIE STRUCTURALE

La géologie structurale se propose d’étudier ces formes de disposition des roches. Pour cela, on abordera :

–  D’abord l’aspect extérieur ou la géométrie des formes structurales. Cela permettra d’établir une classification des formes structurales d’après leurs caractéristiques morphologiques : plis en dôme, plis longs, etc.

–  Puis la cinématique ou le mécanisme de la genèse de ses formes. Pour cela on décrira les mouvements du matériau de l’écorce terrestre qui a conduit à obtenir ces dernières. L’analyse de la cinématique permet de diviser les formes structurales en primitives (originelles) ou secondaires ou dérangées (apparues de fait de transformations postérieures des structures primitives). Dans l’analyse des structures secondaires on fera apparaître des facteurs d’ordre dynamique comme les forces tectonique de compression, d’extension, de décrochement. Ainsi, quand les forces de compression ont été exercées parallèlement aux couches, les plis obtenus sont dus à une flexion longitudinale. De même, lorsque les couches plissées le sont à la suite de soulèvements de certains compartiments sous l’effet d’une pression dirigée du bas perpendiculairement aux couches, on parle de flexion transversale.

III.      ROLE DE LA GEOLOGIE STRUCTURALE

Elle facilite :

–  les levées géologiques. Le géologue doit restituer l’aspect complet d’une forme structural sur la base de quelques relevés sur le terrain. Il doit pouvoir relier ses différentes observations fragmentaires ;

–  les prospections pétrolières ou gazières. En effet, le pétrole et le gaz naturel se concentrent en général dans les voûtes des anticlinaux. Il faut donc déterminer avec précision les parties culminantes de ces structures ;

–  l’étude des conditions de formation des fissures ;

–  la solution de problèmes hydrologiques, car la circulation des eaux souterraines est fonction de la disposition des roches ;

–  la prospection des ingénieurs qui doivent déterminer les conditions nécessaires à l’édification de bâtiments.

IV.       FORMES PRIMITIVES ET SECONDAIRES DE DISPOSITION DES TERRAINS

On appelle dislocations ou accidents les déformations qui ont entraînée l’apparition de structures secondaires. L’origine des forces qui provoquent ces dislocations est variée.

  • Elles prennent naissance dans la roche même :

–         du fait de l’augmentation ou de la diminution de volume par absorption d’eau ou par dessèchement ;

–         à la suite de réactions chimiques, de recristallisation, etc.

  • Elles peuvent être dues à des actions mutuelles entre couches. Ainsi, une couche constituée d’une roche plus lourde que la couche sous-jacente, tend à s’enfoncer dans la couche inférieure, et la matière de celle-ci, après expulsion pénètre dans la couche supérieure, ce qui entraîne des déformations et dérange la disposition primitive.
  • Elles peuvent être d’origine externe. Par exemple, effet de la pesanteur sur une couche encore meuble déposée sur le fond d’une cuvette marine ou lacustre et non recouverte, qui est entraînée par glissement le long d’une pente.
  • Ce sont également des forces tectoniques qui  provoquent des mouvements tectoniques, c’est-à-dire, déplacements de matériaux de la croûte terrestre par compressions, extensions ou décrochements. Dans ce cas, ce sont des masses importantes qui sont mises en jeu.

Sur la base de l’origine des forces de dislocation, on peut répartir les formes secondaires de disposition des terrains en :

–  formes non tectoniques ;

–  formes tectoniques.

La division en formes structurales primitives et secondaires semble évidente pour les roches sédimentaires, mais l’est moins pour les roches magmatiques intrusives. En effet, le déplacement du magma au sein de l’écorce terrestre peut être assimilé à un mouvement tectonique se déroulant dans des conditions de fluidité particulière. Dans cette optique, toute forme finale, dykes, dôme, laccolite, etc. serait de nature secondaire. C’est pourquoi leur étude fera l’objet d’un chapitre séparé.

V.         ARRANGEMENT DES TERRAINS EN COUCHES

La forme primitive de disposition des roches sédimentaires la plus courante est la couche horizontale car elles s’accumulent habituellement sur un fond marin nivelé par l’érosion littorale, sur des plaines basses des continents, au fond de vallées, etc. Il existe une disposition primitive présentant un pendage : les roches volcaniques le long des pentes d’un volcan ou d’un cratère d’explosion (jusqu’à 35°) ; les dépôts fluviaux sur les flancs des vallées ; les sédiments marins sur les talus d’éboulis des récifs coralliens, etc. (fig. 1).

Fig. 1 – Disposition originelle inclinées des couches. Récif corallien du Carbonfère inférieur dans le Nouveau-Mexique (Etats-Unis)

1 – série Donna Anna ; 2 – série Arcente ; 3 – faciès de marbre gris clair d’Alamogordo ; 4 – faciès de marnes gris clair d’Alamogordo ; 5 – faciès de sables verts d’Alamogordo à crinoïdes ; 6 – faciès de dépôts gris d’Alamogordo finement lités ; 7 – faciès de marbre noir dur d’Alamogordo à gros grains ; 8 – faciès bioherme d’Alamogordo ; 9 – faciès de grès gris d’Alamogordo à grains fins ; 10 – formationde Cabaliero.

 Une couche est délimitée par des surfaces de séparation avec les autres couches ; la surface inférieure porte le nom de mur, tandis que la surface supérieure celui de toit. Au point de vue dimensions, elles peuvent atteindre des épaisseurs de quelques centimètres à quelques dizaine de mètres, et des extensions latérales de plusieurs dizaines de kilomètres. Elles se terminent latéralement toujours en biseau et passe en coin à d’autres couches. Lorsque la couche est de faible extension et qu’elle se termine en biseau dans les deux sens, on parle de lentille.  La composition d’une couche reste la même tout au long de son extension.

Une série sédimentaire est stratifiée, c’est-à-dire composée d’une alternance de couches reposant les unes sur les autres, la plus jeune étant la dernière a s’être déposée, donc la supérieure. La structure alternée peut présenter des bancs de composition différente : ainsi on rencontre fréquemment une alternance de bancs calcaires et de bancs marneux, ou de couches de grès, d’argiles et de calcaires.

On peut également observer des surfaces de discontinuité entre les couches. Elles se manifestent soit, par des fissures plus ou moins fines qui séparent les couches, soit par des traces de « traitement » de la surface supérieure d’une couche avant le dépôt de la couche suivante (faible érosion, imprégnation par des sels minéraux, traces biologiques, etc.).

VI.       STRUCTURE INTIME ORIGINELLE DES ROCHES SEDIMENTAIRES

La structure intime des séries sédimentaires dépend des conditions physico-géographiques du milieu de formation des couches. Nous nous contenterons ici de rappeler les caractères fondamentaux de la structure intime des bancs sédimentaires.

L’arrangement des grains dans la roche dépend de l’agitation du milieu de sédimentation :

–  structure imbriquée dans les conglomérats marins composés de galets aplatis, inclinaison du côté déferlement des vagues, axes oblongs des galets, parallèles au littoral ;

–  dans les cours d’eau et parties de mer à fort courant, les grains orientent leur grand axe dans le sens de l’écoulement ;

–  en eau calme et agitée, les grains aplatis (écailles de mica, par exemple) se déposent sur le fond en couches horizontales.

La schistosité

–  Les feuillets de schistosité peuvent être parallèles à la couche ; ils sont alors continus, discontinus et lenticulaires.

–  La schistosité est striée lorsque les paillettes sont disposées parallèlement les unes aux autres et à la couche.

–  Lorsque les feuillets sont disposés obliquement par rapport à la couche, on a affaire à une stratification oblique ou entrecroisée (fig. 2).

Relief du toit

–  Lorsque les feuillets se plissent à la surface de la couche lors de la formation des sables à faible profondeur dans la zone de déferlement (plage) ou dans le lit des cours d’eau à fort courant, les figures formées portent le nom de ripples-marks ou rides de sable (fig. 3) ;

–  traces de gouttes d’eau, remplissage des fentes de dessiccation à la surface d’une couche ;

–  figures de base ou « hiéroglyphes » qui forment des reliefs irréguliers et variés à la base des bancs de sable lorsqu’ils reposent sur des roches argileuses (fig. 4). Elles peuvent être dues à des traces de vers, mollusques et autres organismes.

Toutes formes intimes de la roche permettent de déterminer assez aisément le mur ou le toit des couches.

Fig. 2 – Schistosité entrecroisée. Dépôts Tchokrakskié au Daghestan.

 En haut du dessin on a figuré des ripples-marks en section transversale (d’après L. Roukhine).

 

Fig. 3 – Ripples-marks (schéma d’après Van Hise) :

                                                                                            a – surface des rides ;

                                                                                            b – traces des rides de sable au mur de la couche susjacente

Fig. 4 – Hiéroglyphes. Figures de base terrigène du Jurassique moyen.

Caucase du Nord-Ouest (vue prise par M. Lomizé)

 VII.     RAPPORT ENTRE LES COUCHES

On a vu précédemment que dans une coupe géologique, on observe généralement une alternance de couches de nature différente.

Une série intéressante en géologie structurale est la stratification en alternance répétée, dénotant un rythme. Elle présente une répétition de séquences limitées de roches. Généralement, elle débute à la base par des roches plus grossières comme des grès ou des calcaires détritiques, puis des roches à grains plus fins telles que des argiles gréseuses, des marnes ou des pélites. Cette succession se répète un grand nombre de fois (cent ou mille). L’épaisseur des rythmes varie de quelques dizaines de centimètres à 2 ou 3 m. Le passage d’un élément à l’autre au sein d’un rythme se fait progressivement, tandis chaque rythme est séparé par des frontières nettes.

Cette forme de rapport est très caractéristique des séries de flysch et de charbon.

On peut également observer entre les couches des surfaces de discontinuité marquées par des indices d’arrêt de la sédimentation. Ceux-ci sont généralement très courts à l’échelle des temps géologiques mais ils témoignent d’un processus de sédimentation discontinu.

Lors d’une régression marine, ces arrêts de sédimentation peuvent être plus importants, car ils correspondent à de longues périodes d’érection au-dessus du niveau de la mer des régions concernées. Si ensuite, une nouvelle transgression marine relance le processus de sédimentation, il se forme de nouvelles couches qui reposeront en discordance sur les anciennes. Deux séries de couches se trouvent ainsi séparées par une surface ou plan de discordance.

Si les deux séries sont dans l’ensemble parallèles entre elles, on dit que la discordance est parallèle (fig. 5a). Si la série inférieure a subit des déformations et dislocations durant la phase d’arrêt, provoquant un basculement ou un plissement des couches, puis une érosion, et, si par-dessus, une nouvelle série se sédimente, on parle de discordance angulaire (fig. 5b). Les deux séries forment entre elles un angle de discordance.

On peut également rencontrer le cas suivant. Le toit d’une série qui a subit une modification de relief avec formation de cuvettes, peut être recouvert par une nouvelle série dont le mur comblera les dépressions. Ce comblement des cuvettes de l’ancien relief est dit ingressif. Sur les marges des cuvettes ensevelies on observe un accolement de la jeune série à l’ancienne. Cet accolement peut être soit plat ou parallèle, soit discordant (fig. 6) selon que la série inférieure a gardé sa position horizontale ou a été plissée avant formation du relief.

                                                                         

                         Fig. 5 – Discordance : a – parallèle ; b – angulaire         Fig. 6 – Accolement : a – parallèle ; b – discordant

VIII.   VARIATION LATERALE DE LA COMPOSITION ET DE L’EPAISSEUR DES DEPOTS

 Une des propriétés fondamentales des séries stratigraphiques est qu’elles varient aussi bien latéralement qu’en profondeur. Ces variations concernent aussi bien la composition des roches que l’épaisseur des unités stratigraphiques. Elles peuvent être progressives et lentes, ou brusque et se réduire à de courtes distances. Il peut arriver que l’épaisseur et la composition varient pratiquement instantanément, par saut. Très souvent, cependant, il existe une zone de transition entre le passage d’une séquence à l’autre. Dans cette zone, les couches d’une composition se terminent en biseau pour passer à des couches de composition différente.

Les modifications d’épaisseur et de compositions des séries sédimentaires sont la conséquence des oscillations du sol :

–  enfoncement progressif et régulier d’un bassin sédimentaire (subsidence), accompagné d’une accumulation sur de fortes épaisseurs de sédiments,

–  ou, soulèvement à la suite de l‘abrasion du relief par des agents de l’érosion, donc avec diminution des épaisseurs des couches sédimentaires.

Lorsqu’une zone de l’écorce terrestre se soulève à une altitude dépassant le niveau de la mer, elle subit une attaque des agents d’érosion (eaux météoriques, abrasion marine, etc.). Les produits détritiques qui en d écoulent sont entraînés vers les dépressions avoisinantes et si déposent, formant un nouveau bassin de sédimentation. Un tri selon la granulométrie s’effectue naturellement : les éléments les plus grossiers s’accumulent sur les pentes immédiates, tandis que les sédiments plus fins parcourent de plus grandes distances avant leur dépôt. C’est ainsi que se forment les régions de dépôts de même âge mais de composition différente.

La variation de la vitesse de subsidence d’un secteur continental et de sa configuration, l’apparition de nouveaux compartiments émergés et la disparition d’anciens, la répartition des bassins sédimentaires à composition lithologiques différente se modifie. C’est ainsi qu’à une sédimentation fine peut succéder un dépôt de sédiments plus grossiers et que les dimensions de la zone de dépôt de telle ou telle composition autour des îlots continentaux varient.

IX.       DISPOSITION DES ROCHES SEDIMENTAIRES EN STRUCTURES MASSIVES

 On a vu que généralement les roches sédimentaires sont le résultat de dépôts en couches horizontales. Toutefois, il existe des gisements non stratifiés qui se présentent sous forme massive : calcaires récifaux formés par des colonies de polypiers, d’algues, de bryozoaires, etc. Ces accumulations portent le nom de bioherme.

Ces structures se présentent en dômes, en lentilles, en champignons. Ils sont généralement entourés de bancs de calcaires détritiques provenant du récif. Ces derniers présentent un pendage du récif vers l’extérieur. De ce fait, la disposition des roches voisines présentent non plus une position horizontale, mais sont inclinées (fig. 1 et fig. 7).

X.         BIBLIOGRAPHIE

Beloussov V. (1978) – Géologie structurale, Editions MIR, Moscou.

Catégories : Géologie | 2 Commentaires
 
 

Qu’est-ce-que l’évolution ?

Pour aborder cette délicate question, je vais m’appuyer sur l’ouvrage de référence rédigé sous la conduite de Guillaume Lecointre, intitulé « Guide critique de l’évolution » et sur la « brique », véritable cours de biologie, sortie chez de Boeck, appelée tout simplement « Biologie ».

Raisons du choix de ce thème

Si j’ai proposé ce thème cette année, c’est pour plusieurs raisons.

–         Nous avons fêté en 2009, le bicentenaire de la naissance de Darwin et le 150ème anniversaire de la parution de son œuvre majeure « L’Origine des espèces ».

–         Depuis quelques années, une recrudescence du « créationnisme » diffusé par des mouvements intégristes, perturbe l’esprit de certains individus crédules.

–         Un courant parallèle au précédent mais plus subtil, le « dessein intelligent », inquiète les autorités scientifiques car il touche de nombreux élèves de l’enseignement supérieur et même universitaire. Les enseignants, notamment les professeurs de biologie, se sentent démunis devant ce phénomène car ils n’ont pas été formés dans ce domaine.

Tentative de définition de la théorie de l’évolution

Mais d’abord qu’entend-t-on par « évolution » ?

Précisons que dans notre cas nous parlerons d’ « évolution biologique ».

Pour faire très simple : Théorie des transformations des espèces vivantes au cours du temps.

D’une manière plus générale : En biologie, l’évolution désigne la transformation des espèces vivantes au cours des générations. Cette transformation peut aboutir à la formation de nouvelles espèces, et donc à une diversification des formes de vie. Cette diversification depuis les premières formes est à l’origine de la biodiversité actuelle. L’histoire de l’évolution de la vie peut ainsi être décrite sous forme d’un « arbre évolutif », ou « arbre phylogénétique ».

Voici une manière de représenter cet arbre phylogénétique. Il est basé sur l’ouvrage de Richard Dawkins, « Il était une fois nos ancêtres – Une histoire de l’évolution »[1]. Contrairement à la majorité des chronologies, l’auteur prend le déroulement à rebours. Au lieu de considérer que l’évolution est dirigée vers nous, il part de l’Homo sapiens actuel (choix arbitraire,  il aurait pu prendre n’importe quel groupe d’espèces actuelles) pour remonter dans le passé. De plus, il présente son livre sous la forme d’un pèlerinage, où des pèlerins s’unissent à d’autres flux de pèlerins, pour rejoindre un lieu précis. Dans ce cas, tous les flux de pèlerins rejoignent le chemin qui conduit  à l’origine de la vie. En cela, il parodie l’œuvre de Geoffrrey Chaucer[2], « Les contes de Canterbury ».

But de ce cycle de d’articles présentés la première fois sous forme de causeries

Nous avons tous une idée plus ou moins précise sur la théorie de l’évolution et nous savons tous que Charles Darwin en est le père. Cependant, nous sommes imprégnés de fausses idées qui se ressentent dans notre propos lorsque nous abordons ce thème.

Ce que je veux tenter de vous faire comprendre se résume aux propositions suivantes :

–       Ce qu’est une démarche scientifique en écartant toute réaction intuitive ;

–       Qu’inconsciemment nos discours sont imprégnés de finalisme et d’anthropocentrisme ;

–       Qu’il faut recentrer le débat sur une véritable approche scientifique, sans a priori et en toute indépendance ;

–       Et en définitive, que l’espèce humaine appartient au monde du vivant et n’occupe pas une place à part. Nous sommes le résultat de l’évolution et non pas une finalité en soi.

Vaste programme, qui, en fait, tente de vous donner le cadre intellectuel général dans lequel on peut comprendre l’évolution, ainsi que les outils et les documents qui vous permettront de tenir un discours sur l’évolution sans trahir les sciences qui l’ont élaborée.

1.       Qu’est-ce qu’une démarche scientifique ?

  • Les sciences dans leurs méthodes et leurs résultats sont contractuellement non intentionnées au plan moral, politique, métaphysique ou religieux. On n’y trouve aucun but, ni aucune intention de quelque ordre que se soit. Ainsi, l’homme est une espèce parmi les autre et non pas le summum de l’évolution.

Développons :

Nos croyances religieuses ou philosophiques ne doivent en aucun cas interférer sur notre recherche de la connaissance du monde qui nous entoure, et surtout, la politique et le mercantilisme doivent être tenus à l’écart de l’approche scientifique, car leur intervention peut entraîner des dérives dangereuses. Rappelons les horreurs que l’application de l’eugénisme a entraînées sous le régime nazi. Plus proche de nous, l’affolement provoqué par la médiatisation des dangers de la grippe mexicaine qui a poussé les Etats à des dépenses exorbitantes au grand bonheur de quelques laboratoires pharmaceutiques.

  • Donc, les sciences ont pour fonction de nous fournir des explications rationnelles sur le monde tel qu’il est, ces explications étant validées par des expérimentateurs indépendants.

Développons :

Bien que mon intuition première me fasse croire que le soleil tourne autour de la terre (géocentrisme), des mesures expérimentales ont démontré que c’est l’inverse qui se passe (héliocentrisme)

La théorie de l’héliocentrisme s’est opposée à la théorie du géocentrisme, lors de la controverse ptoléméo-copernicienne, entre la fin du XVIe siècle et le début du XVIIIe siècle : l’héliocentrisme fut l’objet d’interdits religieux, en 1616. Galilée fut condamné en 1633 pour son livre le dialogue sur les deux grands systèmes du monde (sa peine fut commuée en assignation à résidence par Urbain VIII). Les interdits furent levés en 1741 et 1757 par Benoît XIV. Ceci confirme le premier paragraphe de cette proposition : tenir les croyances religieuses en dehors de la science.

De nos jours, l’héliocentrisme n’est plus qu’une approximation, puisqu’en réalité, le Soleil n’occupe que le foyer des différentes ellipses constituant la trajectoire des différentes planètes. Le centre de gravité du système solaire reste cependant très proche du centre de masse du Soleil.

  • Les observations peuvent conduire à l’élaboration d’une théorie qui sera établie sur l’analyse de faits et sera confortée par l’expérimentation.

Développons :

Un bel exemple est donné par Albert Einstein et ses théories de la relativité (restreinte et générale)

La théorie de la gravitation universelle proposée par Newron à la fin du XVIIe siècle se fonde sur la notion de force de gravitation agissant selon le principe d’action à distance, c’est-à-dire le fait que la force exercée par un corps (par exemple le Soleil) sur un autre (la Terre) est déterminée par leur position relative à un instant donné, et ce quelle que soit la distance les séparant. Ce caractère instantané est incompatible avec l’idée de la relativité restreinte proposée par Einstein en 1905. En effet, selon cette dernière, aucune information ne peut se propager plus vite que la vitesse de la lumière dans le vide. Par ailleurs, le principe de l’action à distance repose sur celui de la simultanéité de deux événements : la force que le Soleil exerce sur la Terre à un instant donné est déterminée par leurs propriétés « à cet instant ». La relativité restreinte stipule que le concept de simultanéité de deux événements n’est pas défini, la perception de la simultanéité étant différente d’un observateur à un autre pour peu que ceux-ci soient animés d’une vitesse relative non nulle. Ces contradictions amènent Einstein dès 1907 à réfléchir à une théorie de la gravitation qui soit compatible avec la relativité restreinte. Le résultat de sa quête est la théorie de la relativité générale.

La généralité générale a la réputation d’être une théorie fortement mathématique, impossible à relier à des résultats expérimentaux. C’est une erreur, car si ses postulats ne sont pas testables, elle prédit des effets observables de déviations par rapport aux théories physiques qui ont précédé.

Trois tests classiques historiques de la relativité générale ont été proposés par Einstein lui-même.

  1. Le 18 novembre 1915, Einstein présente à l’Académie de Prusse un manuscrit dans lequel il résout une énigme vieille de plus de soixante ans : l’anomalie de l’avance du périhélie de Mercure.
  2. Dans le même manuscrit daté du 18 novembre 1915, Einstein propose de tester la déviation d’un rayon lumineux dans le champ de gravitation d’un astre massif comme le Soleil. Cette prédiction du savant allemand sera confirmée en 1919, donc au sortir de la première guerre mondiale, par les résultats de deux expériences dirigées par l’astronome britannique Eddington.
  3. Le décalage vers le rouge (redshift en anglais) est un phénomène astronomique de décalage vers les grandes longueurs d’onde des raies spectrales et de l’ensemble du spectre – ce qui se traduit par un décalage vers le rouge pour le spectre visible – observé parmi les objets astronomiques lointains. C’est un phénomène bien documenté et considéré comme la preuve de l’expansion de l’univers et du modèle cosmologique du Big Bang.
  • Toute théorie peut être remise en question si de nouveaux faits s’imposent. C’est ainsi que pour le philosophe Karl Popper[3], une proposition scientifique n’est donc pas une proposition vérifiée (avec certitude) – ni même vérifiable par l’expérience (c’est-à-dire par l’intermédiaire de tests scientifiques) -, mais une proposition réfutable[4] (ou falsifiable) dont on ne peut affirmer qu’elle ne sera jamais réfutée. La proposition « Dieu existe » est pour Popper dotée de sens, mais elle n’est pas scientifique, car elle n’est pas réfutable. La proposition « Tous les cygnes sont blancs » est une conjecture[5] scientifique. Si j’observe un cygne noir, cette proposition sera réfutée. C’est donc la démarche de conjectures et de réfutations[6] qui permet de faire croître les connaissances scientifiques.

Développons :

Avant Galilée, il était admis que la terre était le centre de l’univers (géocentrisme). Des observations astronomiques et des calculs ont établi la théorie de l’héliocentrisme. La première hypothèse a été réfutée après plusieurs siècles d’existence. Un grand pas dans les connaissances astronomiques a été fait à ce moment.

Par contre, le « créationnisme » n’est pas une science mais une croyance basée sur des dogmes. Ses adeptes s’en réfèrent à une lecture littérale des Livres saints (Bible, Coran, Talmud). Ces dogmes sont intangibles et imposés comme seule vérité indiscutable. Où est la critique dans ce cas ? Pour revenir à Popper, il n’y a pas réfutabilité, donc cela ne peux être une proposition scientifique.

2.       La théorie de l’évolution est-elle une science ?

  • Comme d’autres théories, la théorie de l’évolution se base sur des faits expérimentables et expérimentés.

Développons :

Diverses observations attestent le rôle de la sélection naturelle, un des moteurs de l’évolution, dans les changements évolutifs :

  • Le bec des pinsons de Darwin

Lors de son périple autour du monde Darwin, récolte sur les îles Galapagos, en 1835, 31 spécimens d’oiseaux. Lors de son retour en Angleterre, l’ornithologue John Gould remarque, que contrairement à ce que Darwin pensait, cette collection était composée d’espèces distinctes apparentées se ressemblant sauf leur bec. Les géospizes (pinsons de Darwin) à grand bec se nourrissent de graines qu’ils broient dans leur bec, tandis que ceux avec un bec plus étroit se nourrissent d’insectes. D’autres sont des mangeurs de fruits et de bourgeons ; il y a aussi des insectivores et des espèces qui préfèrent les fruits de cactus et les insectes qui y sont associés. Certaines populations au bec aigu sont de véritables vampires qui furtivement se servent de leur bec pour sucer le sang des oiseaux de mer. Enfin, le plus remarquable, sont les espèces qui utilisent des outils pour s’alimenter : les géospizes pique-bois se servent d’une brindille, d’une épine de cactus ou du pétiole d’une feuille, qu’ils introduisent dans les branches mortes pour en extraire les larves.

Des observations faites in situ, en 1973, par le couple Grant ont permis de constater que la sélection naturelle favorise les becs les plus solides durant les années de sècheresse, quand les seules graines disponibles pour les pinsons sont grosses et dures à briser, tandis que durant les années humides, lorsque les petites graines abondent, les becs plus petits deviennent plus fréquents.

  • Le phalène du bouleau et le mélanisme industriel dont je parlerai plus loin.
  • La sélection artificielle  pratiquée en laboratoire, dans l’agriculture et la domestication démontre que la sélection peut produire des changements évolutifs considérables. Il suffit d’observer les différentes races de chiens, chats, etc. obtenues par croisements successifs.

A partir des années ’20 et ’30, des expériences en laboratoire sur un des modèles les plus appréciés des biologistes, la mouche à vinaigre, Drosophila melanogaster, ont permis de prouver que la sélection pour un caractère (taille, couleur des yeux, vitesse de croissance, durée de vie, etc.) mène à une réponse évolutive claire et prévisible. Il en est de même en agriculture et en élevage.

  • Comme d’autres théories (théorie chromosomique de l’hérédité, théorie de la tectonique de plaques), ses manifestations les plus probantes échappent la plupart du temps à nos sens humains et nécessitent l’utilisation d’outils adéquats.

Développons :

L’étude de l’évolution constante des bactéries, virus, microbes et autres micro-organismes, échappe à notre perception directe. Il nous faut utiliser des moyens technologiques de plus en plus sophistiqués pour percevoir cette évolution.

Actuellement, un domaine de la géologie et par conséquence de la paléontologie qui absorbe un grand nombre d’équipes de scientifiques est l’étude des origines de la vie sur Terre. Cela implique l’analyse, par des techniques modernes (mesures isotopiques, etc.), des roches les plus anciennes de notre planète (de 1 à 3,5 Ga), et des traces éventuelles de fossiles de micro-organismes qu’elles renferment.

  • Comme d’autres théories, la théorie de l’évolution est à la fois une théorie cohérente[7] et une multitude de faits d’évolution.

Développons :

Il est possible d’établir une corrélation cohérente entre les archives paléontologiques (succession des fossiles, selon leur âge) et les données moléculaires (analyse des séquences géniques ou protéiques). L’analyse de l’ADN mitochondrial des Hominidés a permis de confirmer, de corriger et d’affiner les généalogies établies par les paléontologues.

3.       Finalisme et anthropocentrisme

Bien que nous soyons réceptifs à la théorie de l’évolution, sa compréhension rencontre des obstacles qui se traduisent dans notre discours. Inconsciemment nous utilisons dans celui-ci des termes qui peuvent avoir une connotation finaliste ou téléologique et anthropocentriste

Souvent nous nous considérons comme le centre du monde et l’aboutissement de l’évolution biologique. En fait, l’évolution est un phénomène général aveugle qui n’a aucune tendance directionnelle ou intentionnelle. Elle est amorale. L’évolution est également régie par la contingence, c’est-à-dire qu’elle peut prendre une direction ou une autre en fonction d’événements qui peuvent se produire ou ne pas se produire. C’est une forme de hasard lié à une succession d’événements contingents. Dans notre vie courante, la plupart des situations sont contingentes, à commencer par notre conception. Pourquoi, tel spermatozoïde parvient-il à pénétrer l’ovule. Si cela avait été son voisin ce n’aurait pas été moi. Dans quelle circonstance ai-je rencontré telle personne qui deviendra mon conjoint, mon meilleur ami, etc. ?

A un niveau évolutionniste : si les dinosaures n’avaient pas disparu il y a 65 Ma, les mammifères se seraient-ils développés et auraient-ils occupés toutes les niches écologiques laissées disponibles ? Si la tectonique de plaques n’avait pas provoqué un changement climatique en Afrique avec pour conséquence un changement environnemental, les primates n’auraient peut-être pas évolués dans le sens d’une hominisation, et nous ne serions pas là.

Exemples de propos rencontrés dans divers supports médiatiques :

« Les océans se forment, la vie sur Terre est prête à éclore. »

Commentaire : « être prêt » a une connotation téléologique : elle entendre « se préparer à ». Comme si dès la naissance de la Terre, la vie avait déjà été programmée. Alors qu’en fait, la vie est apparue grâce à un ensemble de circonstances propices à son éclosion qui aurait très bien pu ne pas avoir lieu.

A propos du Permien : «  Dans cet univers hostile et imprévisible, la lutte pour la vie est impitoyable »

Commentaire : D’abord, les temps préhistoriques sont dramatisés et toujours montrés comme intrinsèquement différents du monde actuel Cette présentation s’oppose à la compréhension du principe actualiste qui établit que les causes naturelles d’aujourd’hui (physiques, chimiques, biologiques) sont les même que celles qui prévalaient hier.

Deuxièmement, la lutte pour la vie suggère une confrontation violente où le plus fort l’emporte sur le plus faible. En fait, survivront les populations qui par différentes mutations favorables s’adapteront aux changements environnementaux et pourront transmettre leurs patrimoine génétique à une nombreuse descendance.

4.       Histoire des origines

Les sciences n’expliquent la nature qu’à partir du monde naturel et il n’est pas nécessaire de faire appel à des entités immatérielles définies comme : élan vital, esprit, âme, essence, transcendance, anges, démons, etc.

Lorsque les scientifiques se penchent sur l’histoire des origines de tout ce qui existe, origine de l’univers, de la Terre, de la vie, de l’homme, ils peuvent donner à penser que leur démarche qui consiste à remonter dans le passé n’est pas fiable.

Cette manière de penser se trompe sur trois points :

  • Premièrement, l’expérimentation directe n’est pas la seule façon d’apporter des preuves en science. L’histoire qui est une reconstitution d’une chaîne d’événements et/ou d’objets du passé, est également susceptible d’apporter des preuves scientifiques mais selon certaines modalités permettant de valider la cohérence des scénarios reconstitués.

Développons :

Il a été possible de retracer l’histoire de l’Univers depuis le big bang grâce à des observations, des théories vérifiées ultérieurement et des mesures. L’évolution des moyens technologiques mis en œuvre a permis de reculer le champ de nos connaissances et d’affiner cette histoire. Il en est de même pour la théorie de l’évolution qui nous permet de remonter à l’origine de la vie sur terre.

  • Deuxièmement, toute preuve historique repose aussi sur la connaissance des processus physiques, chimiques et biologiques à l’œuvre dans le monde actuel, car ceux-ci étaient les mêmes dans le monde d’hier.

Développons :

Il est évident que l’Univers dans lequel nous évoluons est régi par un certain nombre de règles physiques, chimiques et biologiques qui sont liées à des constantes universelles immuables depuis son origine. Tous les corps ont toujours été soumis à la loi de la pesanteur et de l’attraction universelle quelle que soit l’époque considérée.

– Troisièmement, la preuve de l’existence du processus de l’évolution biologique repose aussi sur des expérimentations. Ainsi en laboratoire on peut suivre l’évolution d’organismes à temps de génération court comme les bactéries ou les moches drosophiles. On peut également l’observer dans la nature.

Développons :

L’exemple classique généralement cité est celui du phalène des bouleaux (Biston betularia). Les adultes ont une coloration qui va du gris léger avec des taches noires phalène poivrée) jusqu’au noir jais (phalène mélanique). Des études ont montré que la couleur de la phalène était un caractère génétique et reflétait l’existence de plusieurs allèles[8] d’un seul gène. Les individus noirs ont un allèle dominant, qui était présent, mais très rare, dans les populations avant 1850. A partir de cette date, la fréquence des individus noirs parmi les phalènes vivant près des sites industriels a augmenté pour atteindre 100% de ces populations. Les biologistes ont fait le rapport avec les troncs des bouleaux qui se recouvraient d’une couche de suie qui rendait leur écorce noire et entraînait l’intoxication des lichens de teinte claire poussant sur les troncs.

Comment expliquer ce phénomène ?

A la suite d’observations et d’expérimentations, il a été démontré que les formes claires étaient plus visibles pour les prédateurs sur les arbres couverts de suie et qui avaient perdu leurs lichens. Les formes noires au contraire étaient avantagées puisqu’elles étaient camouflées.

Par ailleurs un nombre égal de formes claires et de formes sombres ont été lâchées dans une zone non polluée et dans une zone polluée. L’expérimentateur, au moyen de pièges, capturait les phalènes de l’une et de l’autre zone. Dans la zone polluée il attrapa 19% de phalènes claires et 40% de phalènes sombres, tandis que dans la zone non polluée, le rapport s’inversait : 12,5 % de formes claires et seulement 6% de noires.

Donc, là où les troncs des bouleaux avaient leur couleur normale, les formes claires avaient plus de chance de survivre et dans les zones polluées c’était l’inverse avec plus de chance pour les noires.

Cette expérience fournit de solides arguments pour l’action de la sélection naturelle. Ici, ce sont les oiseaux qui jouent le rôle d’agent de la sélection.

5.   Les fondements de l’évolution biologique

L’évolution biologique qui est maintenant bien validé par les scientifiques repose sur un enchaînement extrêmement simple de constats et de déductions que l’on retrouve déjà dans l’œuvre de Darwin.

Constat n° 1

Parmi les individus pouvant se reproduire entre eux, on remarque des variantes. Il existe donc au sein de ce que l’on reconnaît comme des espèces une capacité naturelle de varier.

Il suffit de constater les nombreuses variétés d’individus parmi l’espèce Homo sapiens, chacune d’elle étant le résultat d’une adaptation à l’environnement. Comparons la morphologie d’un Inuit à celle d’un Pygmée ou d’un Masaï pour s’en rendre compte. Par contre l’espèce humaine arrive à une certaine uniformité à la suite des multiples croissements entre populations différentes.

Constat n° 2

La sélection artificielle, par croisements sélectifs, pratiquée en horticulture et en élevage, montre qu’il existe chez une espèce une capacité naturelle à être sélectionnée : la sélectionnabilité.

Cette capacité en implique une autre : les variations sont héritables une génération à l’autre.

Constat n° 3

Les espèces se reproduisent tant qu’elles trouvent des ressources (aliments ou conditions optimales d’habitat). Leur taux de reproduction peut les entraîner jusqu’à la limite d’épuisement des ressources. D’autres facteurs peuvent aussi limiter les populations (prédateurs). Il existe donc une capacité naturelle de surpeuplement. On constate ce phénomène lorsque les milieux sont perturbés, par exemple par l’introduction d’espèces allogènes (le lapin en Australie).

–  Constat n° 4

On remarque, malgré le constat précédent, qu’il existe des milieux équilibrés constitué par la coexistence de multiples espèces qui constitue ce que l’on appelle un écosystème. Chaque espèce constitue une limite pour les autres : même niche écologique, mêmes ressources alimentaires, prédation, parasitisme, etc. Les autres espèces constituent donc autant de contraintes qui jouent un rôle d’agent sélectif.

Constat n° 5

Le succès de la croissance et de la reproduction des espèces dépend aussi d’optimums physiques (température, humidité, rayonnement solaire, etc.) et chimiques (pH, molécules odorantes, toxines, etc.). Ces facteurs environnementaux constituent également des agents sélectifs.

Conclusion

La variabilité, la sélectionnabilité et la capacité au surpeuplement sont des propriétés observables des espèces. L’environnement physique, chimique et biologique est constitué de multiples facteurs qui opèrent une sélection naturelle à chaque génération.

Donc, au sein d’une population, les individus porteurs d’une variation (variants) momentanément favorisée par les conditions environnementales laisseront davantage d’individus à la génération suivante que ceux qui porte une autre variation. Si les conditions se maintiennent suffisamment longtemps, la variation sélectionnée pourra atteindre 100% de la population. L’espèce a donc subit une mutation. La sélection naturelle se traduit simplement par un succès reproductif différentiel.

La source de variation est toutefois indépendante du milieu et de nouveaux variants peuvent, si les conditions environnementales changent, être favorisés à leur tour. Par contre les variations pouvant altérées les fonctions des structures qui varient auront tendance à disparaître.

6.   Obstacles et difficultés dans la compréhension de l’évolution

1).       Il reste toujours des variants non optimaux

Des variants apparaissent sans cesse dans une population, mais certain d’entre eux sont désavantagés par les conditions du milieu et leur maintien dans les générations suivantes est plus ou moins compromis.

Par contre, certains traits qui paraissent handicapants peuvent être liés à d’autres traits fournissant un avantage déterminant.

Développons :

L’anémie falciforme est une affection d’origine génétique, cela veut dire que les personnes qui en sont atteintes ont hérité d’un gène de l’hémoglobine S (allèle drépanocytaire) de chaque parent. Les personnes qui n’ont hérité que d’une copie de cet allèle sont porteuses de cette sorte d’anémie et peuvent avoir des globules rouges déformés, mais elles ne développent pas la maladie. En général, ces personnes n’ont pas les symptômes que présentes celles qui ont hérité des deux allèles identiques.

Dans les zones où la malaria est présente, on a observé que les personnes ayant un seul allèle  drépanocytaire avaient plus de chance de survivre à la malaria. Les personnes ayant un trait drépanocytaire sont plus ou moins protégées contre la malaria, car les globules rouges déformés empêchent le développement de la malaria.

Un trait, lorsqu’il apparaît, peut être avantageux ou désavantageux pour son porteur, mais jamais adapté. L’adaptation est le résultat de la sélection naturelle opéré sur de multiples traits. C’est au niveau du succès reproductif qu’on pourra se rendre compte de son adaptabilité. L’adaptation n’est que la résultante des effets sélectifs appliqués à de multiples traits sur une population entière.

2).       Il existe des variants sélectivement neutres

Il existe aussi des variants sélectivement neutres à l’égard des facteurs du milieu qui peuvent voir leur fréquence varier aléatoirement dans les populations, au gré des croisements. C’est le modèle dit « neutraliste » décrit par Motoo Kimura (1924-1994).

3).       L’individu s’efface devant la population

Ce qu’un individu  transmet à ses descendants, par l’intermédiaire des cellules sexuelles, c’est une partie de ce qu’il a reçu de ses ascendants et ce d’une manière aléatoire.

La seule manière qu’un individu a d’influer sur la constitution physique de sa descendance réside dans le choix de son partenaire sexuel et le nombre de descendants qu’il aura avec. C’est le seul impact qu’un individu peut avoir sur une population.

Dans un raisonnement évolutionniste, l’individu s’efface devant la population. La « survie du plus apte » n’est pas la survie de l’individu le plus apte, mais le maintien dans une population du variant d’un trait momentanément le plus avantagé que les autres variants de ce même trait. Il vaut mieux parler de « succès reproductif des individus portant le variant avantagé par les conditions du milieu ».

4).       Il ni a ni but, ni destinée

De ce qui précède, on peut en tirer le constat suivant : l’espèce n’est pas stable et l’environnement non plus, à plus ou moins long terme. Malgré cela, nous ne pouvons pas nier que les individus se ressemblent. Cela semble incompatible avec la le processus de variation. Pourquoi ?

En fait, le vivant est la résultante de forces de maintien organique et de forces de changement.

Parmi les forces de maintien organique, la sélection naturelle, par le moyen des facteurs sélectifs qui agissent dans un milieu momentanément stable, élimine, pour un temps, les individus présentant des variants non optimum, de la descendance

Un autre élément qui participe à la stabilité organique est le croisement entre partenaires sexuels lors de la reproduction, qui limite les effets des mutations aléatoires subies par tout individu.

Développons :

Si des individus haploïdes[9] se clonaient, toute altération génétique se répercuterait immédiatement. Par contre chez les êtres diploïdes chaque gène existe en deux exemplaires homologues. On parle alors de couples d’allèles. Chaque allèle est porté par un des chromosomes homologues. Lors de la reproduction, entre deux individus, si un gène est altéré, une éventuelle déficience somatique pourra être compensée par la copie de son homologue non altéré.

Parmi les forces de changement, il y a d’abord les sources même de la variation, c’est-à-dire les causes des mutations au niveau du génome. Un gène typique mute environ une fois sur 100.000 divisions cellulaires. Malgré ce taux très bas, la mutation est la cause ultime de la variation génétique : elle rend donc l’évolution possible.

Un autre facteur de changement est la modification du milieu. Dans ce cas, comme nous l’avons déjà évoqué, les conditions sélectives changent et la sélection naturelle devient ainsi la courroie de transmission du changement sur les êtres vivants. Ces changement ne traduisent aucun « but », mais seulement les aléas du milieu.

Donc, le devenir d’une espèce est imprévisible puisque les changements du milieu le sont également, ce qui rend caduque la notion de « destinée ». Remontons en esprit le temps jusqu’à un certain point, puis laissons le reprendre son cours, la probabilité pour que les événements reprennent le même scénario est infiniment faible.

Le film américain, « Un jour sans fin » ou « Le jour de la marmotte » du réalisateur Harold Ramis (1993) illustre assez bien cette situation.

Il met en scène un présentateur météo  sur une chaîne de télévision régionale de Pittsburg, prétentieux, aigri et imbu de lui-même, nommé Phil Connors. Le 2 février, il part en reportage à l’occasion du jour de la Marmotte, festivité traditionnelle célébrée en Amérique du Nord le jour de la Chandeleur. Mais une fois le sujet tourné, un blizzard le force à passer la nuit sur place. A chaque fois que son réveil sonne, c’est la même journée qui recommence : les événements du début de la journée se déroulent pratiquement identiques aux jours précédents mais avec une petite variante à la clé qui un tout autre sens à la vie du héros.

La notion même de destinée est incompatible avec tout processus historique, processus évolutif compris. C’est l’une des difficultés psychologique les plus difficiles à surmonter que l’on rencontre lorsque l’on veut faire comprendre le processus évolutif à un public qui confond le discours sur les faits naturels et le discours sur les valeurs.

L’absence de « but » et de « destinée » dans l’explication scientifique d’un phénomène naturel ne relève que de l’amoralité de la démarche scientifique et de sa neutralité métaphysique. Ce n’est que si le discours scientifique est transposé en un discours moral ou métaphysique que l’absence de but et de destinée nous paraît désespérante, intolérable et immorale. Donc, ce n’est pas la théorie de l’évolution qu’il faut récuser dans ce cas, mais bien la confusion entre le discours scientifique sur les faits et le discours des valeurs qui relève de processus d’élaboration différents.

La théorie de l’évolution n’incorpore ni but ni destinée, ne défend ni ne préconise aucune valeur, aucune morale, n’autorise aucun espoir : ce n’est tout simplement pas le rôle d’une théorie scientifique.

Pour clore ce chapitre, je reprends un passage d’un de mes éditoriaux dans le Bulletin du G.E.S.T.[10]

« Aussi, je renvoie le lecteur à Stephen Jay Gould, ce biologiste évolutionniste bien connu par ses prises de positions contre l’offensive, sous la bannière de la « science de la Création » des organismes fondamentalistes protestants aux Etats-Unis. L’un derniers ouvrages qu’il nous laissa est intitulé Et Dieu dit : « Que Darwin soit ! »[11] débat du sujet. Il y défend le principe de non-empiètement (NOMA : Non-Overlaping Magisteria) entre science et religion afin de désamorcer dans un premier temps le combat sur le front de la biologie. Il demande que chacun exerce ses compétences dans son domaine propre. En proposant ce principe, Gould n’adopte pas une position de recul par rapport à son combat constant mais il se bat sur un double front : contre les prétentions scientifiques inacceptables de certains théologiens américains et contre les extrapolations scientistes arrogantes de certains biologistes. Pour développer son principe de NOMA, notre biologiste se risque à emprunter un terme peut-être un peu désuet au vocabulaire de la théologie chrétienne, celui de magister, c’est-à-dire enseignant. Les magisters de la science et de la religion ne doivent plus s’opposer. Chacun d’eux sont des domaines entièrement différents qui n’ont rien à voir l’un avec l’autre à part qu’ils s’occupent chacun d’une facette essentielle de l’existence humaine.

La science est avant tout basée sur un ensemble de faits établis et les théories ou hypothèses avancées peuvent être confirmées ou remises en question. Les expériences qu’elles entraînent peuvent être reproduites. Par contre, le magister de la religion est basé sur des propositions fondées sur la seule autorité, érigées en dogmes. Aucun fait établi et reproductibles n’y est possible. Ce magister est du domaine de la conviction intime personnelle et par cela même ne peut en aucun cas interférer avec le magister de la science.

5).       L’espèce n’est pas immuable

 La notion d’espèce n’est pas toujours facile à définir et prête parfois à confusion. Parfois, les partenaires sexuels sont tellement dissemblables que les scientifiques pourraient les classer dans deux espèces différentes. Il est des espèces qui ont une vie larvaire tellement longue et compliquée, rythmée par des métamorphoses successives et une vie adulte très brêve, que là aussi il est difficile de les associé à la même espèce.

En gros, le meilleur critère de reconnaissance est l’interfécondité : font partie de la même espèce des individus qui se reconnaissent comme partenaires sexuels et qui donnent une descendance fertile.

Dans une population il peut arriver qu’une petite partie de celle-ci soit séparée de l’ensemble pour diverse raisons : séparation géographique à la suite d’un bouleversement géologique, migration, etc.

Dans ce cas, la dérive génétique, selon les critères définis ci-avant, empruntera deux voies différentes de telle sorte qu’au bout d’un certain nombre de génération, il n’y aura plous interfécondité entre les deux groupes : nous avons à faire à deux espèces différentes.

L’exemple des pinsons de Darwin en est un exemple.

6).       Conclusion de ce premier aperçu

La théorie de l’évolution n’est ni une simple spéculation, ni une conjecture, mais bien une science, résultat d’observations et d’expérimentations sur le terrain et en laboratoire.

Il est primordiale qu’elle soit mise à la portée de tous, car comprendre l’évolution, enseigner l’évolution, c’est comprendre le monde vivant pour ce qu’il est, pour ce qu’il a été et de se donner les moyens de prendre garde à ce qu’il sera demain.


[1] R. Dawkins (2007) – Il était une fois nos ancêtres, Robert Laffont.

[2] Les Contes de Cantorbéry (The Canterbury Tales en anglais) est une série d’histoires écrites par Geoffrey Chaucer au XIVe siècle. Le texte est écrit en moyen anglais, en vers pour la majeure partie. Les contes sont intégrés dans une histoire « cadre » et dits par un groupe de pèlerins faisant route de Southwark à Canterbury pour visiter le sanctuaire de Thomas Becket dans la cathédrale de Canterbury.

[3] Karl Raimund Popper (° 28-7-1902, Vienne, Autriche – … 17-9-1994, Londres) est l’un des plus influent philosophe des sciences du XXe siècle.

[4] La réfutabilité (aussi appelée à ses débuts suite à un abus de langage la falsifiabilité) est un concept important de l’épistémologie. Une affirmation est qualifiée de réfutable s’il est possible de consigner une observation ou de mener une expérience qui démontre que l’affirmation est fausse.

[5] Une conjecture, en mathématiques, est une assertion pour laquelle on ne connaît pas encore de démonstration, mais que l’on soupçonne d’être vraie, en l’absence de contre-exemple

[6] La réfutation est un procédé logique consistant à prouver la fausseté ou l’insuffisance d’une proposition ou d’un argument.

[7] Théorie cohérente : qui présente des parties en rapport logique et harmonieux, dont toutes les parties se tiennent et s’organisent logiquement.

[8] Allèle : se dit d’une variante d’un gène, résultant d’une mutation et héréditaire, assurant la même fonction que le gène initial mais selon ses modalités propres (Tout gène peut avoir plusieurs allèles qui déterminent souvent l’apparition de caractères héréditaires différents).

[9] Haploïde : se dit d’une cellule dont le noyau ne comprend qu’un seul exemplaire de chaque chromosome (cellule germinale), par opposition à diploïde (noyau ayant deux jeux de chromosomes venant respectivement des deux partenaires sexuels).

 [10] Six R. – Le dessein intelligent !!!, in Le bulletin du G.E.S.T., n° 141, janv. 2006.

[11] Gould S.J. (2000) – Et Dieu dit : « Que Darwin soit ! », Editions du Seuil

Catégories : Evolution | Poster un commentaire
 
 

Darwin et « L’Origine des espèces » (2)

LE VOYAGE AUTOUR DU MONDE

I.            INTRODUCTION

Dans l’article précédent, nous avons quitter Charles Darwin, lorsque le Beagle, sur lequel il avait embarqué, quittait Devenport, base navale à proximité de Plymouth, le 27 décembre 1831, « après avoir été deux fois repoussé par de terribles tempêtes du sud-ouest ».

Notre jeune naturaliste a retracé son parcours dans un journal dont le titre complet est « Voyage d’un naturaliste autour du monde fait à bord du navire le Beagle de 1831 à 1836 », publié en 1839. Dans la préface de la deuxième édition de celle-ci, traduite en français en 1883, il rappelle les circonstances qui l’on amené à rejoindre le brick du capitaine Fitz-Roy.

« Le capitaine Fitz-Roy, commandant de l’expédition, désirait avoir un naturaliste à bord de son navire et offrait de lui céder partie de son appartement. Je me présentai, et, grâce à l’obligeance du capitaine Beaufort, ingénieur hydrographe, les lords de l’Amirauté voulurent bien accepter mes services. » (p. II).

Dans cet ouvrage, il se propose de raconter l’histoire de son voyage qui dura cinq ans, et d’y reprendre « quelques brèves observations sur l’histoire naturelle et la géologie qui [lui] ont semblé de nature à intéresser le public » (p. II).

Comme il l’explique d’entrée de jeu :

« L’expédition avait pour mission de compléter l’étude des côtes de la Patagonie et de la Terre de Feu, étude commencée sous les ordres du capitaine King, de 1826 à 1830 – de relever les plans des côtes du Chili, du Pérou et de quelques îles du Pacifique – et enfin de faire une série d’observations chronométriques autour du monde. » (p.1).

En plus de ces objectifs, il fallait enregistrer les conditions météorologiques, les marées et les vents. Le but sous-jacent de ces types d’expéditions était, pour l’Angleterre en pleine expansion commerciale, de trouver les routes maritimes les plus rapides et les plus sures et les zones d’accostage les plus stratégiques pour assurer la sécurité de sa marine marchande.

Le traducteur de l’ouvrage, Ed. Barbier, relève que ce récit datant de la jeunesse de notre naturaliste est particulièrement intéressant car il permet « d’assister à l’éclosion des idées que M. Darwin devait plus tard exposer avec tant d’autorité et de génie dans son ouvrage l’Origine des espèces ? » Afin de conforter son opinion, il nous donne le jugement que Ernst Haeckel (1834-1919) porte sur cette œuvre :

« A peine âgé de vingt-deux ans, en 1831, M. Darwin fut appelé à prendre part à une expédition scientifique, envoyée par le gouvernement anglais pour reconnaître en détail l’extrémité méridionale du continent américain et explorer divers points de la mer du Sud. Comme beaucoup d’autres expéditions célèbres préparées en Angleterre, celle-ci était chargée de résoudre à la fois des problèmes scientifiques et des questions pratiques relatives à l’art nautique. Le navire, commandé par le capitaine Fitz-Roy, portait un nom symboliquement frappant : il s’appelait le Beagle, c’est-à-dire le Limier. Le voyage du Beagle qui dura cinq ans, eut la plus grande influence sur le développement intellectuel de Darwin, et dès lors, quand il foula pour la première fois le sol de l’Amérique du Sud, germait en lui l’idée de la théorie généalogique que, plus tard, il réussit à développer complètement ».

Darwin lui-même avoue dans son « Autobiographie » :

« Déterminant pour toute ma carrière, le voyage du Beagle fut de loin l’événement le plus important de ma vie ».

Avant de suivre Darwin dans son périple, il est intéressant de se pencher sur l’histoire du HMS Beagle et de voir dans quelles conditions, notre naturaliste entreprit ce voyage.

II.         Le H.M.S. BEAGLE ET SON 1er VOYAGE

Navire de la Royal Navy, le H.M.S. Beagle, un brick-aviso, fut lancé le 11 mai 1820 de l’arsenal de Woolwich, sur la Tamise. En juillet de l’année de son lancement, il prit part à la revue de la flotte pour la célébration du couronnement du roi Georges IV (1762-1830). Ensuite, n’ayant plus d’utilité militaire, il regagne le port de Woolwich le 27 septembre 1825 afin de subir les travaux visant à le réhabiliter en navire de recherche. Son artillerie fut réduite de 10 à 6 canons et un troisième mat lui fut ajouté pour augmenter sa manoeuvrabilité. Dans ses nouvelles fonctions, il participera à trois expéditions scientifiques dont le fameux périple (1831-1836) avec Charles Darwin à son bord (2ème expédition).

Le 22 mai 1826, le Beagle quitte Plymouth sous le commandement du capitaine Pringle Stokes.  La mission de ce premier voyage consiste à escorter le H.M.S. Adventure, pour une mission hydrographique en Patagonie et Terre de Feu. L’expédition est placée sous l’autorité du capitaine Philip Parker King (1791-1856). A la suite des difficultés rencontrées lors de la campagne menée dans les eaux de la Terre de Feu, Stokes, ne se sentant pas à la hauteur de sa tâche, tombe dans une profonde dépression. En des termes qui trahissent son état d’esprit perturbé, il décrit la côte dans son journal, à la date du 29 mai 1828 :

« Rien ne peut être plus triste que la scène qui nous entoure. Les hautes montagnes sombres, et stériles qui composent les rives inhospitalières de cette crique, sont drapées, en bas de leurs côtes, d’un épais nuage de brume, sur lequel les rafales violentes qui nous assaillent n’ont apparemment aucun effet ».

A Port Famine, dans le détroit de Magellan, Stokes s’enferme dans sa cabine durant 14 jours, et, le 2 août 1828, il tente de mettre fin à ses jours en se tirant une balle dans la tête. Il rate son coup et au bout de quatre jours de délire il se remet lentement. Malheureusement, la gangrène s’installe dans la blessure et il meurt le 12 août. Il a été enterré dans le francès cementerio de Punta Santa Ana, près de Punta Arenas et sa tombe est encore marquée sur les cartes marines. King nomme le lieutenant W.G. Skyring au commandement du navire. L’expédition rejoint Montevideo, puis le H.M.S. Adventure remonte, le 13 octobre 1828, jusque Rio de Janeiro, où le contre-amiral sir Robert Walter Otway, commandant en chef de la flotte d’Amérique du Sud, arrivé à bord du H.M.S. Ganges, prend la décision de remplacer Skyring par un jeune aristocrate de 23 ans, le lieutenant Robert Fitz-Roy.

Fitz-Roy se montra un commandant compétent et autoritaire. Lors du vol d’une chaloupe par des autochtones de la Terre de Feu, il prit en otage des membres de leurs familles. Quatre d’entre eux seront ramenés en Angleterre, le 14 octobre 1830.

Lorsque Charles découvre le brigantin en cale sèche pour réparation, il le trouve en piteux état et fort petit. Le navire mesure à peine 27 m de long et 7,50 m de large dans sa partie centrale (fig. 1). De plus, il ne compte que deux cabines. Il devra partager celle de poupe avec un jeune officier de 19 ans, John Lort Stokes, hydrographe adjoint de la mission. La pièce ne fait que 3 m sur 3,50 m. Ils dorment dans des hamacs tendus au-dessus des quelques meubles qui garnissent la cabine : trois chaises et une grande table sur laquelle ils étendent les cartes nautiques. L’autre cabine est occupée par le capitaine Firz-Roy et c’est là que Charles prendra ses repas et il pourra l’occuper pour d’autres occasions.

Fig. 1 – H.M.S. Beagle

Le navire est équipé d’une bibliothèque qui comprend près de 245 volumes et un matériel scientifique conséquent, dont 22 chronomètres destinés au calcul de la longitude. Après 5 ans de voyage, lors du retour à Plymouth ces instruments afficheront un retard de 33 secondes seulement par rapport au temps de Greenwich, preuve de leur excellente qualité.

L’équipage se compose de 64 personnes dont les officiers qui sont tous très jeunes. Il compte un artiste, Auguste Earle, un médecin, Robert McKormick, un fabriquant d’instrument, des domestiques, le capitaine, notre naturaliste en herbe, trois indigènes de la Terre de Feu et un missionnaire de 20 ans.

Des quatre Fuégiens ramenés en Angleterre lors de l’expédition précédente, l’un ne résistera pas et succombera dès son débarquement, des suites d’une vaccination contre la variole. Les trois autres, un homme de 27 ans, baptisé du nom de York Minster, un garçon de 15 ans, Jemmy Button, et une fillette de 10 ans, Fuegia Basket, avaient été hospitalisés et instruits aux frais du capitaine Fitz-Roy. Ils avaient été présentés aux souverains britanniques et devaient être ramenés dans leur pays d’origine afin d’évangéliser les leurs.

Fig. 2 – Le Beagle au large de Sidney

III.       LE DEUXIEME VOYAGE

Le Beagle a enfin prit la mer et vogue allégrement vers le sud. Les premières étapes seront les îles Canaries. Ils ne pourront pas débarquer à Ténériffe dans la crainte qu’ils apportent le choléra ! Le 16 janvier 1832, ils jettent l’ancre à Port-Praya, dans l’île San-Iago, la plus grande de l’archipel du Cap-Vert. Ces îles sont toutes d’origine volcanique et ont pour la plupart un relief escarpé. Elles sont couvertes de cendres volcaniques ce qui explique le peu de végétation que l’on y trouve. Durant les mois de janvier et février, elles subissent l’influence des tempêtes de sable venu du Sahara, phénomène que constata Darwin.

Le 16 février, ils atteignent les rochers de Saint-Pierre et Saint-Paul à mi-distance de l’Afrique et de l’Amérique du Sud. Il s’agit d’une douzaine de minuscules îles et rochers à environ 950 Km des côtes nord-est du Brésil. Ils sont une partie émergée des crêtes de la dorsale médio-atlantique (fig. 3). Ils ne sont pas d’origine volcanique mais résultent d’un plissement du fond marin : un mégamullion.

Fig. 3 – Relief des rochers de Saint-Pierre et Saint-Paul

Un mégamullion (Oceanic Core Complex) est une structure géologique sous-marine caractérisée par un haut topographique en forme de dôme (fig. 4). Elle est constituée de roches plutoniques crustale (gabbro) et de roches mantelliques plus ou moins serpentinisées. La longueur de ce type de relief peut atteindre de 10 à 150 Km pour une largeur de 5 à 15 Km et une hauteur de 500 à 1.500 m au-dessus du plancher océanique. Les mégamullions se forment au niveau des zones d’expansion océanique lorsque la tectonique est dominante. Il se forme une faille de détachement qui dénude littéralement la croûte océanique profonde et y crée des striations appelées « corrugations ».

 

Fig. 4 – mégamullion

Quatre jours plus tard, ils accostent à Fernando-Noronda, île d’origine volcanique (20 février). Enfin, le 29 février, ils sont en vue du continent américain et font escale à Bahia ou San Salvador du Brésil.

Charles consigne de nombreuses observations de terrain, des habitudes des animaux et des habitants des régions qu’il explore. Il établit des analogies entre des espèces similaires rencontrées dans des régions voisines. Dans son récit on sent continuellement sa fascination et son émerveillement pour ce monde qu’il découvre pour la première fois. Ainsi, lorsqu’il débarque à Bahia, il ne peut que s’exclamer :

« Quelle délicieuse journée ! Mais le terme délicieux est bien trop faible pour exprimer les sentiments d’un naturaliste qui, pour la première fois, erre dans une forêt brésilienne. L’élégance des herbes, la nouveauté des plantes parasites, la beauté des fleurs, le vert général de la végétation, me remplissent d’admiration ». (pp. 12-13).

Il se pose beaucoup de questions auxquelles il essaie de répondre.

« Partout où le roc solide se fait jour sur toute la côte du Brésil, sur une longueur d’au moins 2.000 milles (3.200 Km) et certainement à une distance considérables à l’intérieur des terres, ce roc appartient à la formation granitique. Le fait que cette immense superficie est composée de matériaux que la plupart des géologues croient avoir cristallisés alors qu’ils étaient échauffés et sous une grande pression, donne lieu à bien des réflexions curieuses. Cet effet s’est-il produit sous les eaux d’un profond océan ? Des couches supérieures s’étendaient-elles sur cette première formation, couches enlevées depuis ? Est-il possible de croire qu’un agent, quel qu’il soit, aussi puissant qu’on puisse le supposer, ait pu dénuder le granit sur une superficie de tant de milliers de lieues carrées, si l’on n’admet en même temps que cet agent est à l’œuvre depuis un temps infini ? »  (p. 13).

Le 4 avril 1832, le Beagle accoste à Rio de Janeiro. Ce sera l’occasion pour Darwin d’entreprend sa première grande randonnée dans les terres.

A chaque escale, Darwin descendra à terre et s’enfoncera dans l’intérieur du pays, à cheval, à pied, parcourant des plaines désolées, grimpant des montagnes, traversant des fleuves et explorant des forêts. Il est curieux de tout et amasse une collection impressionnante d’échantillons divers : insectes, animaux divers, roches, minéraux, fossiles, plantes, etc. Après avoir été décrit, identifié, répertorié, étiqueté, emballé, ce riche matériel sera expédié périodiquement en Angleterre à l’adresse de son mentor John Steven Henslow (1795-1861). Celui-ci, gardant l’étude des échantillons botaniques, répartira le reste entre les plus éminents savants de l’époque. Il établira, à partir des 2.700 plantes reçues, un herbier de 950 feuilles. Les mammifères et les coléoptères seront confiés à George Robert Waterhouse (1810-1888) qui deviendra conservateur du muséum du Zoological Society of London en 1836. L’ornithologue John Gould (1804-1881) s’occupera des spécimens d’oiseaux. Il conclura que les divers groupes provenant des Galapagos étaient constitués d’espèces différentes mais proches parentes. Le naturaliste Leonard Jenyns (1800-1893) rédigera un mémoire sur les poissons, tandis le zoologiste Thomas Bell (1792-1880) s’occupera de celui des reptiles. Les mammifères fossiles seront traités par le paléontologue Richard Owen (1804-1892).

Lors de sa randonnée brésilienne, certains faits le choquent. N’oublions pas que sa famille paternelle est très libérale et opposée à l’esclavage. Il assiste un jour à une scène chez un colon utilisant des esclaves qui le rend mal à l’aise.

« Pendant mon séjour dans cette propriété, je fus sur le point d’assister à un de ces actes atroces qui ne peuvent se présenter que dans un pays où règne l’esclavage. A la suite d’une querelle et d’un procès, le propriétaire fut sur le point d’enlever aux esclaves mâles leurs femmes et leurs enfants pour aller les vendre aux enchères publiques à Rio. Ce fut l’intérêt, et non pas un sentiment de compassion, qui empêcha la perpétration de cet acte infâme. Je ne crois même pas que le propriétaire ait jamais pensé qu’il pouvait y avoir quelque inhumanité à séparer ainsi trente familles qui vivaient ensemble depuis de nombreuses années, et cependant, je l’affirme, son humanité et sa bonté le rendaient supérieur à bien  des hommes. Mais on peut ajouter, je crois, qu’il n’y a pas de limites à l’aveuglement que produisent l’intérêt et l’égoïsme » (p.26).

Lors de ses observations, il remarque, en vrai spécialiste, que dans des écosystèmes établis dans des régions différentes, il existe des analogies dans les interactions entre espèces appartenant aux mêmes familles.

« Tout le monde connaît le phallus anglais qui, en automne, empeste l’air de son abominable odeur ; quelques-uns de nos scarabées cependant, comme le savent les entomologistes, considèrent cette odeur comme un parfum délicieux. Il en est de même ici, car un Strongylus, attiré par l’odeur, vint se poser sur le champignon [Hymenophallus] que je portais à la main. Ce fait nous permet de constater des rapports analogues dans deux pays fort éloignés l’un de l’autre, entre des plantes et des insectes appartenant aux mêmes famille, bien que les espèces soient différentes » (p. 34).

Il constate également qu’un agent perturbateur peut provoquer un déséquilibre dans ces écosystèmes.

« Quand l’homme est l’agent introducteur d’une nouvelle espèce dans un pays, ce rapport disparaît souvent : je puis citer comme exemple de ce fait que les laitues et les choux qui, en Angleterre, sont la proie d’une si grande quantité de limaces et de chenilles, restent intacts dans les jardins qui avoisinent Rio » (pp. 34-35).

Le 5 juillet 1832,  après trois mois de relâche, le Beagle reprend la mer en direction de la Plata. Le 26 juillet, ils jettent l’ancre à Montevideo. Darwin  remonte jusqu’à Maldonado, situé sur la rive septentrionale de la Plata. Il y séjournera 10 semaines, ce qui lui permit de se « procurer une collection presque complète des animaux, des oiseaux et des reptiles de la contrée ». Il profite également pour excursionner dans les environs et se mue en véritable ethnologue, en décrivant les mœurs et coutumes des Gauchos qu’il rencontre.

Le 24 juillet 1833, le Beagle quitte Maldonado, et le 3 août il arrive à l’embouchure du rio Negro. C’est le principal fleuve entre le détroit de Magellan et la Plata. Le brick mouille à Patagones ou El Carmen, petite colonie espagnole la plus méridionale d’Amérique du Sud. Darwin a l’occasion de visiter une saline et d’y faire des observations sur son écosystème. Il en étudie la chaîne alimentaire à partir des flamants roses qui aiment barboter dans cette saumure à la recherche de leur nourriture.

« Ici, je les ai vus barboter dans la boue à la recherche de leur nourriture, que composent probablement les infusoires ou les conferves. Voilà donc un petit monde isolé, adapté à ces lacs de saumure qui se trouvent à l’intérieur des terres. Un crustacé fort petit (Cancer salinus) habite, dit-on, en nombre infini les salines de Lymington, mais seulement les bassins où, par suite de l’évaporation, le fluide a déjà acquis une consistance considérable – environ un quart de livre de sel par chaque demi-litre d’eau. Oui, sans doute, on peut affirmer que toutes les parties du monde sont habitables ! Lacs d’eau saumâtre, lacs souterrains cachés dans les flancz des montagnes volcaniques, sources minérales d’eau chaude, profondeurs de l’Océan, régions supérieures de l’atmosphère, surface même des neiges perpétuelles, partout on trouve des êtres organisés » (p. 70).

De l’embouchure du rio Negro, Charles décide de rejoindre l’étape suivante où doit accoster le Beagle, Bahia Blanca, par terre. Ce poste espagnol récent (1828) se situe au nord du rio Negro, entre celui-ci et Buenos-Ayres. Ensuite, il poursuivra sa randonnée terrestre jusqu’à Buenos-Ayres. A vol d’oiseau, la distance entre le rio Negro et Buenos-Ayres est de 800 Km. Le 11 août, il prend la route avec quelques compagnons recrutés sur place. Son récit est émaillé d’anecdotes plus ou moins savoureuses, de rencontres insolites, des aventures qu’il vécu et de nombreuses observations sur les habitants colonisateurs et les autochtones plus ou moins misérables. Il arrive à l’étape le 7 septembre 1833.

C’est durant sont séjour à Bahia Blanca, à attendre le Beagle, qu’il découvre à Punta Alta, un véritable ossuaire de mammifères terrestres fossiles gigantesques qui seront décrit par Owen dans la « Zoologie du Voyage du Beagle ».

« A Punta Alta, on trouve une section de l’une de ces petites plaines récemment formées, fort intéressantes par le nombre et le caractère extraordinaire des restes d’animaux terrestres gigantesques qui y sont enfouis. Ces restes ont été longuement décrits par le professeur Owen dans la Zoologie du Voyage du Beagle, et sont déposés au musée du Collège des médecins. Je me contenterai donc de donner ici un bref aperçu de leur nature :

1° Parties de trois têtes et d’autres ossements du Mégathérium ; le nom de l’animal suffit pour indiquer leurs immenses dimensions ; 2° le Mégalonyx, immense animal appartenant à la même famille ; 3° le Scélidothérium, animal appartenant aussi à la même famille, dont je trouvai un squelette presque complet. Cet animal doit avoir été aussi grand que le rhinocéros ; la structure de sa tête le rapproche selon M. Owen du fourmilier du Cap ; mais sous d’autres rapports, il se rapproche du Tatou ; 4° le Mylodon Darwinii, genre très proche du Scélidothérium, mais de taille un peu inférieure ; 5° un autre édenté gigantesque ; 6° un grand animal portant une carapace osseuse à compartiments, ressemblant beaucoup à celle du Tatou ; 7° une espèce éteinte de cheval […] ; 8° la dent d’un pachyderme, probablement un Macrauchenia, immense animal ayant un long cou, comme le chameau […] ; 9° enfin le Toxodon, un des animaux les plus étranges peut-être qu’on ait jamais découverts. Par sa taille, cet animal ressemblait à l’éléphant ou au mégathérium ; mais la structure de ses dents, ainsi que l’affirme M. Owen, prouve incontestablement qu’il était allié de fort près aux rongeurs, ordre qui comprend aujourd’hui les plus petits quadrupèdes ; par bien des points, il se rapproche aussi des pachydermes ; enfin, à en juger par la position de ses yeux, de ses oreilles et de ses narines, il avait probablement des habitudes aquatiques, comme le Dugong et le Lamantin, dont il se rapproche aussi. Comme il est étonnant de trouver ces différents ordres, aujourd’hui si bien séparés, confondus dans les différentes parties de l’organisme du Toxodon ! » (pp. 86-87).

Le navire rejoint Bahia Blanca le 24 août et, après une semaine, met la voile pour la Plata. Le capitaine Fritz-Roy consent à laisser Charles rejoindre Buenos-Ayres pour voie de terre.

Dans ses bagages, notre jeune aventurier avait emporté le premier volume des Principes de géologie de Charles Lyell (1797-1875) dont le sous-titre est Illustrations de cette science empruntées aux changements modernes de la Terre et de ses habitants, qu’Henslow lui avait conseillé de lire en le mettant toutefois en garde de « n’adhérer en aucun cas aux vues qui y sont défendues ». Il n’en fallait pas plus pour que notre jeune naturaliste adopte les idées uniformitaristes de Lyell en opposition à l’école catastrophiste défendue en France par Cuvier et les fixistes. Pour notre géologue, la  surface terrestre a subi des changements provoqués par des forces ayant exercé une action constante et graduelle sur de longes périodes et toujours existantes. Malgré cette interprétation de la nature et de l’histoire de la Terre selon « un système régulier de causes secondaires », Lyell reste attaché au créationnisme. Il applique son explication naturaliste à l’extinction des espèces et non à leur origine.

« De nouvelles espèces remplacent-elles de temps en temps les espèces frappées d’extinction ? Il n’existe pas, sur ce point, d’opinion tranchée, car jusqu’à présent les données en notre possession sont insuffisantes ».

L’époque est encore fortement empreinte, comme nous l’avons vu dans le premier chapitre de cette analyse, des idées de la théologie naturelle défendue par William Paley et le dilemme entre la croyance en la création des espèces par un Dieu tout puissant et la transformation de celles-ci prônée par un Lamarck divise le monde des savants. Le scientifique anglais William Whewell (1794-1866) défini bien le conflit :

« Accepter la doctrine de la transmutation des espèces et devoir supposer que des espèces d’une époque géologique donnée se soient transformées en espèces d’une autre par l’action prolongée dans le temps de causes naturelles, ou alors croire en de nombreux actes successifs de création et d’extinction d’espèces, en dehors du flux normal de la nature, des actes que l’on peut donc judicieusement qualifier de miraculeux ».

Lors de ce voyage, Charles Darwin sera confronté à la même interrogation. En effet, comme nous l’avons vu précédemment, lors de son embarquement il adhérait encore à cette notion de fixisme, plutôt par facilité que par conviction profonde. Après sa découverte du continent sud-américain, en ce qui concerne les extinctions des espèces et la gradualité du phénomène, notre naturaliste n’émet plus aucun doute. Il s’en réfère « aux principes si bien exposés par M. Lyell ».

« Selon les principes si bien exposés par M. Lyell, peu de pays ont, depuis l’an 1535, alors que le premier colon vint débarquer avec soixante-douze chevaux sur les rives de la Plata, subi des modifications plus remarquables. Les innombrables troupeaux de chevaux, de bestiaux et de moutons ont non seulement modifié le caractère de la végétation, mais ils ont aussi repoussé de toutes parts et fait presque disparaître le guanaco, le cerf et l’autruche. Nombre d’autres changements ont dû aussi se produire ; le cochon sauvage remplace très probablement le pecari dans bien des endroits ; on peut entendre des bandes de chiens sauvages hurler dans les bois qui couvrent les bords des rivières les moins fréquentées ; et le rat commun, devenu un grand et féroce animal, habite les collines rocheuses. Comme M. d’Orbigny l’a fait remarquer, le nombre de vautours a dû immensément s’accroître depuis l’introduction des animaux domestiques, et j’ai indiqué brièvement les raisons qui me font croire qu’ils ont considérablement étendu leur habitat vers le sud. Sans aucun doute aussi, beaucoup d’autres plantes, outre le fenouil et le cardon, se sont acclimatées ; je n’en veux pour preuve que le nombre des pêchers et des orangers qui croissent sur les îles à l’embouchure du Parana et qui proviennent de graines qu’y ont transportées les eaux du fleuve » (p. 128).

Plus loin dans le cours de son récit, il revient sur cette idée.

« Il est impossible de réfléchir aux changements qui se sont produits sur le continent américain sans ressentir le plus profond étonnement. Ce continent a dû anciennement regorger de monstres immenses ; aujourd’hui nous ne trouvons que des pygmées, si nous comparons les animaux qui l’habitent aux races parentes éteintes. […] » (p. 180).

La passage qui suit est d’une importance capitale dans l’évolution de la pensée de Darwin, car il présuppose que dans l’esprit de notre héros commence à se dessiner les grands traits de sa théorie qui révolutionnera le monde scientifiques quelques dizaines d’années plus tard.  Aussi, je le retranscris dans son intégralité.

« Les recherches de M. Lyell nous enseignent positivement que, dans l’Amérique septentrionale, les grands quadrupèdes ont vécu postérieurement à la période pendant laquelle les glaces transportaient des blocs de rocher dans des latitudes où les montagnes de glace n’arrivent ^mus jamais à présent ; des raisons concluantes, bien qu’indirectes, nous permettent d’affirmer que, dans l’hémisphère méridional, le Macrauchenta vivait à une époque bien postérieure aux grands transports par les glaces. L’homme, après avoir pénétré dans l’Amérique méridionale, a-t-il détruit, comme on l’a suggéré, l’immense Megatherium et les autres Edentés ? Tout au moins, faut-il attribuer une autre cause à la destruction du petit Tucutuco, à Bahia Blanca, et à celle des nombreuses souris fossiles et des autres petits quadrupèdes du Brésil ? Personne n’oserait soutenir qu’une sécheresse, bien plus terrible encore que celles qui causent tant de ravages dans les provinces de la Plata, ait pu amener la destruction de tous les individus de toutes les espèces depuis la Patagonie méridionale jusqu’au détroit de Behring. Comment expliquer l’extinction du cheval ? Les pâturages ont-ils fait défaut dans ces plaines parcourues depuis par les millions de chevaux descendant des animaux introduits par les Espagnols ? Les espèces nouvellement introduites ont-elles accaparé la nourriture des grandes races antérieures ? Pouvons-nous croire que le Capybara ait accaparé les aliments du Toxodon, le Guanaco du Macrauchenia, les petits Edentés actuels de leurs nombreux prototypes gigantesques ? Il n’y a certes pas, dans la longue histoire du monde, de fait plus étonnant quie les immenses exterminations, si souvent répétées, de ses habitants » (pp. 186-187).

Dans la suite de ce texte, on sent nettement l’inspiration née de la lecture du livre de l’économiste Thomas Robert Malthus (1766-1834), lecture faite en 1838, après son retour en Angleterre : « Essai sur la population » paru en 1798. Rappelons que la première édition du journal de Darwin a été publiée en 1839. Malthus, à propos de la surpopulation dans la sphère du vivant, avançait plusieurs causes qui limitait la prolifération des espèces animales ou végétales : « le défaut de place et de nourriture » et le fait que « les animaux sont réciproquement la proie des uns et des autres ». Ces remarques ne pouvaient que confirmer les intuitions de Darwin.

« Toutefois, si nous envisageons ce problème à un autre point de vue, il nous paraîtra peut-être moins embarrassant. Nous ne nous rappelons pas assez combien peu nous connaissons les conditions d’existence de chaque animal ; nous ne songeons pas toujours non plus que quelque frein est constamment à l’œuvre pour empêcher la multiplication trop rapide de tous les êtres organisés vivant à l’état de nature. En moyenne, la quantité de nourriture reste constante ; la propagation des animaux tend, au contraire, à s’établir dans une progression géométrique. On peut constater les surprenants effets de cette rapidité de propagation par ce qui s’est passé pour les animaux européens qui ont repris la vie sauvage en Amérique. Tout animal à l’état de nature se reproduit régulièrement ; cependant dans une espèce depuis longtemps fixée, un grand accroissement en nombre devient nécessairement impossible, et il faut qu’un frein agisse de façon ou d’autre. Toutefois, il est fort rare que nous puissions dire avec certitude, en parlant de telle ou telle espèce, à quelle période de la vie, ou à quelle période de l’année, ou à quels intervalles, longs ou courts, ce frein commence à opérer, ou quelle est sa véritable nature. De là vient, sans doute, que nous ressentons si peu de surprise en voyant que, de deux espèces fort rapprochées par leurs habitudes, l’une soit fort rare et l’autre fort abondante dans la même région ; ou bien encore qu’une espèce soit abondante dans une région et qu’une autre, occupant la même position dans l’économie de la nature, soit abondante dans une région voisine qui diffère fort peu par ses conditions générales. Si l’on demande la cause de ces modifications, on répond immédiatement qu’elles proviennent de quelques légères différences dans le climat, dans la nourriture ou dans le nombre des ennemis. Mais nous ne pouvons que bien rarement, en admettant même que nous le puissions quelquefois, indiquer la cause précise et le mode d’action du frein ! Nous nous trouvons donc obligés d conclure que des causes qui échappent ordinairement à nos moyens d’appréciation déterminent l’abondance ou la rareté d’une espèce quelconque » (pp. 187-188).

Il en tire la conclusion suivante. Une espèce, avant de disparaître, se raréfie de plus en plus avant de s’éteindre.

« La preuve que la rareté précède l’extinction se remarque d’une manière frappante dans les couches tertiaires successives, ainsi que l’ont fait remarquer plusieurs observateurs habiles. On a souvent trouvé, en effet, qu’un coquillage très commun dans une couche tertiaire est aujourd’hui très rare, si rare même, qu’on l’a cru éteint depuis longtemps. Si donc, comme cela paraît probable, les espèces deviennent d’abord fort rares, puis finissent par s’éteindre  – si l’augmentation trop rapide de chaque espèce, même les plus favorisées, se trouve arrêtée, comme nous devons l’admettre, bien qu’il soit difficile de dire quand et comment – et si nous voyons, sans en éprouver la moindre surprise, bien que nous ne puissions pas en indiquer la cause précise, une espèce fort abondante dans une région, tandis qu’une autre espèce intimement alliée à celle-là est rare dans la même région – pourquoi ressentir tant d’étonnement à ce que la rareté, allant un peu plus loin, en arrive à l’extinction ? » (p.188).

Une deuxième observation que l’on faire à la lecture de ce long passage, est que Darwin abandonne l’idée de catastrophisme pour adhéré à celle de gradualisme développée par Lyell. Cela se ressentira encore plus lorsqu’il abordera la géologie du Chili.

Il relate également selon les dires des colonisateurs les luttes opiniâtres qui les opposent aux tribus indiennes défendant leur territoire. Il est horrifié par les scènes qu’ils décrivent.

« Ce sont là, sans contredit, des scènes horribles ; mais combien n’est pas plus horrible encore le fait certain qu’on massacre de sang-froid toutes les femmes indiennes qui paraissent avoir plus de vingt ans ! Quand je me récriai au nom de l’humanité, on me répondit : « Cependant que faire ? Ces sauvages ont tant d’enfant ! »

Ici chacun est convaincu que c’est là la plus juste des guerres parce qu’elle est dirigée contre les sauvages. Qui pourrait croire qu’à notre époque il se commet autant d’atrocités dans un pays chrétien et civilisé ? On épargne les enfants, qu’on vend ou qu’on donne pour en faire des domestiques, ou plutôt des esclaves, aussi longtemps toutefois que leurs possesseurs peuvent les persuader qu’ils sont esclaves. Mais je crois qu’en somme on les traite assez bien » (p. 109).

Le 8 septembre 1833, Charles, accompagné d’un Gaucho, se met en route pour rejoindre Buenos-Ayre, à 640 Km de Bahia Blanca, qu’il atteindra le 20 septembre. Durant le trajet, il fera de nombreuses observations. Il cherchera à comprendre la relation existant entre les grands quadrupèdes et leur alimentation dans des régions si peu fertiles en végétation et comparera cette situation à celle qui existe, selon les témoignages d’explorateurs, en Afrique australe. Il se penchera sur les mœurs des différentes espèces d’oiseaux qu’il rencontre, notamment sur les nombreuses autruches (Struthio Rhea) qui peuplent ces contrées. Il découvre une nouvelle espèce à laquelle Gould  donnera le nom de notre héros (Struthio Darwinii).

Le 27, il quitte Buenos-Ayres pour se rendre à Santa-Fé, situé à environ 480 Km sur les bords du Parana, qu’il attendra le 2 octobre. En cours de route, il découvre de nombreux ossements fossiles.

« Outre une dent parfaite du Toxodon et plusieurs ossements épars, je trouve deux immenses squelettes qui, placés l’un près de l’autre, se détachent en relief sur la falaise perpendiculaire qui borde le Parana. Mais ces squelettes tombent en poussière, et je ne peux emporter que de petits fragments de l’une des grandes molaires ; cela toutefois suffit pour prouver que ces restes appartiennent à un mastodonte, probablement la même espèce que celle qui devait habiter en si grand nombre la Cordillère  dans le haut Pérou » (pp. 135-136).

Lors de ses fouilles, Darwin découvre une dent de cheval fossile, alors qu’il est de notoriété qu’il n’y avait pas de chevaux sur le continent américain quant Colomb y accosta, et que les chevaux rencontrés à l’époque du voyage du Beagle sont des descendants de ceux amenés par les Conquistadors.

« J’ai trouvé aussi au même endroit des dents du Toxodon et du Mastodonte et une dent de cheval, toutes ayant revêtu la couleur du dépôt […]. Cette dent de cheval m’intéressait beaucoup et je pris les soins les plus minutieux pour bien m’assurer qu’elle avait été enfouie à la même époque que les autres restes fossiles ; j’ignorais alors qu’une dent semblable se trouvât cachée dans la gangue des fossiles que j’avais trouvés à Bahia Blanca […] » (pp. 138-139).

En comparant une dent de cheval ramenée par Lyell des Etats-Unis, à celle trouvée par Charles, le professeur Owen détermina une nouvelle espèce américaine qu’il dénomma Equus curvidens.

« N’est-ce pas merveilleux dans l’histoire des mammifères qu’un cheval indigène ait habité l’Amérique méridionale, puis qu’il ait disparu, pour être remplacé plus tard par des hordes innombrables descendant de quelques animaux introduits par les colons espagnols ? » (p. 139).

A la suite de ses diverses expéditions terrestres au Brésil, il en arrive à la notion de « provinces zoologiques ».

« L’existence, dans l’Amérique méridionale, d’un cheval fossile, du mastodonte, peut-être d’un éléphant, et d’un ruminant à cornes creuses […] constitue un fait fort intéressant au point de vue de la distribution géographique des animaux. Si nous divisons aujourd’hui l’Amérique, non par l’isthme de Panama, mais par la partie méridionale du Mexique, sous le 20° degré de latitude, où le grand plateau présente un obstacle à la migration des espèces, en modifiant le climat et en formant […] une barrière presque infranchissable, nous aurons les deux provinces zoologiques de l’Amérique qui contrastent si vivement l’une avec l’autre » (pp. 139-140).

Ensuite, notre naturaliste cite les grands groupes qui se répartissent de part et d’autre de cette frontière et ceux qui ont réussi malgré tout à migré dans l’une ou l’autre province.

« D’où il appert que l’Amérique septentrionale et l’Amérique méridionale, possédant à une époque géologique récente ces divers genres en commun, se ressemblaient beaucoup plus alors qu’aujourd’hui par le caractère,de leurs habitants terrestres. Plus je réfléchis à ce fait, plus il me semble intéressant. Je ne connais aucun autre cas où nous puissions aussi bien indiquer, pour ainsi dire, l’époque et le mode de division d’une grande région en deux provinces zoologiques bien caractérisées » (p. 140).

Il avance pour cause de cette séparation territoriale :

« Le soulèvement récent du plateau mexicain, ou, plus probablement, l’affaissement récent des terres dans l’archipel des Indes occidentales, comme la cause de la séparation zoologique actuelle des deux Amériques. Le caractère sud-américain des mammifères des Indes occidentales semble indiquer que cet archipel faisait anciennement partie du continent méridional et qu’il est devenu subséquemment le cadre d’un système d’affaissement » (pp. 140-141).

Puisque l’on retrouve de part et d’autre du détroit de Behring des restes des mêmes genres disparus, Charles est amené ;

« à considérer le côté nord-ouest de l’Amérique du Nord comme l’ancien point de communication entre l’ancien monde et ce qu’on appelle le nouveau monde. Or, comme tant d’espèces vivantes et éteintes, de ces mêmes genres ont habité et habitent encore l’ancien monde, il semble très probable que les éléphants, les mastodontes, le cheval, et les ruminants à cornes creuses de l’Amérique septentrionale ont pénétré dans ce pays en passant sur des terres, affaissées depuis, auprès du détroit de Behring ; et de là, passant sur des terres, submergées aussi depuis, dans les environs des Indes occidentales, ces espèces ont pénétré dans l’Amérique du Sud, où, après s’être mêlées pendant quelque temps aux formes qui caractérisent ce continent méridional, elles ont fini par s’éteindre » (p.141).

A cette époque, la notion de dérive des continents ou tectonique de plaques n’avait pas encore effleuré l’esprit des savants. Il faudra attendre les années 1930 et Alfred Wegener pour que cette notion se développe, et les années 1970 pour qu’elle s’impose.

Lors de son retour vers Buenos-Ayres, il tombe en pleine révolution et est mis en détention pendant quinze jours avant de pouvoir regagner Montevideo. L’Etat du Brésil subira, en neuf mois (de février à octobre 1820) quinze changements de gouvernement !

A peine de retour à Montevideo, notre jeune héros décide d’entreprendre une nouvelle randonnée et de remonter une partie de l’Uruguay. Parti le 14 novembre, il rentrera le 28. Durant ce périple, il trouve à nouveau de nombreux ossements fossiles. La richesse paléontologique de ces régions l’amène à la conclusion suivante :

« Dans tous les cas, il est une conclusion à laquelle on arrive forcément : c’est que la superficie entière des Pampas constitue une immense sépulture pour ces quadrupèdes gigantesques éteints » (p. 166).

Charles remonte sur le Beagle qui quitte le rio de la Plata le 6 décembre 1833, en direction de Port-Desire, sur la côte de la Patagonie.

Tout au long des ses randonnées et lors de ses accostages, Darwin étudiera la stratigraphie des roches, leur nature, ainsi que celle du sol et il reliera la succession des organismes et les roches qui les contiennent.

« Mon but, en venant ici, est d’observer les épaisses couches de coquillages situées à quelques mètres au-dessus du niveau de la mer et que l’on brûle aujourd’hui pour les convertir en chaux. Il est évident que toute cette ligne de côtes a été soulevée. On trouve un grand nombre de coquillages paraissant fort anciens à une hauteur de quelques centaines de pieds ; j’en ai même trouvé quelques-uns à une altitude de 1.300 pieds. Ces coquillages sont épars çà et là à la surface, ou sont enfouis dans une couche de terre végétale noire-rougeâtre. En examinant cette terre végétale au microscope, je suis tout surpris de voir qu’elle est de formation marine et pleine d’une multitude de particules d’organismes ».

(à suivre)

Catégories : Evolution | Poster un commentaire
 
 

Darwin et « L’Origine des espèces » (1)

I.            Courant dominant en Angleterre avant Darwin

 Avant d’entamer l’étude de la théorie de l’évolution des espèces de Darwin, il est utile de rappeler quelles étaient les idées prédominantes dans ce domaine en Angleterre.

La théologie naturelle y exerce une grande influence bien que des savants comme le zoologiste Edmond Robert Grant (1793-1874), défendent les thèses transformistes de Lamarck. Nous retrouverons ce dernier lorsque nous aborderons les études de Charles Darwin.

La théologie naturelle, dont les représentants se retrouvent partout en Europe bien avant le XIXe siècle, est défendue, en Angleterre, par le théologien William Paley (1743-1805), notamment dans sa « Natural theology » (1802). Son constat est simple : les organismes sont à la fois complexes et bien adaptés à leur milieu. De plus, chaque partie contribue de manière indispensable au tout faisant ainsi preuve d’une incroyable solidarité. A cela, Paley propose deux explications :

–        Soit, les organismes ont été créés pièce par pièce par un Dieu ingénieur ;

–        Soit, ils résultent de la rencontre fortuite et incroyablement productive entre matière inerte et forces physiques.

Au moyen d’une analogie devenue célèbre – la montre trouvée dans l’herbe par un promeneur, qui nécessairement implique l’existence d’un horloger – il montre qu’il adhère à la première explication. Sa démonstration s’appuie sur un syllogisme :

  1. les montres sont le produit d’une intelligence créatrice :
  2. les montres sont semblables aux organismes ;
  3. donc les organismes sont le produit d’une intelligence créatrice.

Il en conclut que Dieu a créé un monde parfait et que les lois de la nature, expression de cette perfection, sont destinées à être décryptées par les hommes, destinataires du message divin.

En fait, Paley est un des précurseurs les plus représentatifs du courant actuel qui tente de s’imposer et qui est repris sous le terme de « dessein intelligent » (intelligent design).

Dès 1779, le philosophe David Hume (1711-1776), chef de file de l’école empiriste, réfute ce genre d’argument dans ses Dialogues Concerning Natural Religion. Il critique les partisans de la théologie naturelle pour leur pratique de l’induction[1] (de la règle générale au cas particulier) au lieu de la déduction (de l’exemple au principe)  et pour leur usage de l’analogie entre êtres vivants et objets et de leur raisonnement en syllogisme. Dans le type de syllogisme tel que le pratique Paley, il est évident que le degré de probabilité de la conclusion dépend du degré de similitude entre les deux objets de la seconde prémisse. Dans ce cas, qu’ont en commun les montres et les organismes ? Pour Hume ce syllogisme est peu fiable et l’argument de Paley n’est pas rigoureux.

II.         Portrait psychologique du jeune Darwin face à la question religieuse

La famille Darwin faisait partie des membres aisés de la bourgeoisie, et le milieu intellectuel et culturel dans lequel elle évoluait était propice à façonner les idées de Charles. Ayant acquis leur fortune grâce à leurs propres efforts, ils méprisent les privilèges aristocratiques. Ils soutiennent le système de la libre entreprise.

 Du côté maternel La branche maternelle s’est ralliée à la religion anglicane mais d’obédience unitarienne (rejet de la trinité, 1er des 39 articles qui constituent la confession de foi anglicane, promulgués en 1563). De ce côté, Charles reçoit à la fois une conviction et la liberté suffisante pour la remettre en cause, d’où il est partagé entre compromis, dissidence et obéissance, entre rupture et fidélité, entre croyance et désaveu.

Du côté paternel, les hommes sont rationalistes, à la limite libres-penseurs, scientifiques, c’est-à-dire engagés dans le progrès des sciences, plutôt opposés à toute vérité révélée. Le père Robert est médecin, ainsi que le grand-père Erasmus qui de plus est naturaliste et inventeur.

Erasmus Darwin faisait partie de la Société lunaire qui encourageait les réformes sociales. Elle s’opposait à l’esclavage dans les colonies et réclamait la liberté d’entreprise et d’expression en Angleterre.

La conception de la nature d’Erasmus était tout aussi révolutionnaire que sa vision sociale. Il était fasciné par les structures physiques complexes nécessaires pour maintenir et perpétuer la vie. Il considère que les pouvoirs de la nature étaient actifs et en expansion : les espèces étaient des entités qui se modifiaient sans cesse à l’intérieur d’un réseau complexe de relations écologiques et non pas les produits statiques d’un Dieu bienveillant. (P.J. Bowler).

Robert Darwin meurt en 1848. C’était un médecin de très grand renom et un homme d’affaire avisé qui amassa une fortune suffisante pour garantir à ses enfants une indépendance financière une fois atteint l’âge adulte.

Charles Darwin a le profil du parfait candidat à la dissidence, de par ses penchants naturalistes qui lui font préférer la théologie naturelle à une « science de Dieu ». Celle-ci se transformera au cours du temps en une simple mythologie.

C’est son voyage autour du monde, durant lequel il accumule de nombreuses observations (paléontologiques, biogéographiques, naturalistes) qui le feront douter de la vérité littérale du texte de la Genèse. C’est en 1837 qu’un élément décisif l’amènera à condamner l’ensemble de la croyance dogmatique : le choix scientifique du transformisme.

 III.       Biographie de Darwin

 Il est intéressant de suivre le parcours biographie de Charles du moins dans la première partie de sa vie car il permet de comprendre la mutation intellectuelle qui s’est opérée dans l’esprit du jeune garçon.

Né le 9 février 1809 à Shrewsbury (Shropshire, W de l’Angleterre) , il décède le 19 avril 1882, à Downe, dans le Kent

C’est le cinquième d’une fratrie de 6 enfants. Son père, Robert Waring Darwin (1766-1848) exerce le métier de médecin ; sa mère, Susannah Wedgwood (1765-1817), est la fille de Josiah Wedgwood dont l’entreprise de poterie est mondialement connue. Le grand-père, Erasmus Darwin (1731-1802), est un personnage original : médecin, naturaliste et poète, il est l’auteur d’un ouvrage en deux volumes, Zoonomia, or the Laws of Organic Life (1794) qui traite de pathologie, d’anatomie et de psychologie et du fonctionnement du corps. On y trouve également des idées annonçant une éventuelle théorie de l’évolution.

Le père de Charles, libre-penseur, accepte toutefois que ses enfants soient baptisés à l’église anglicane. Avec leur mère, ils fréquentent la chapelle unitarienne.

Le prêcheur de cette chapelle sera le premier professeur de Charles en 1817. Sa mère meurt en juillet, quand Charles à 8 ans. Ce sont ses sœurs, Caroline, Susan et Emily, qui prendront la relève et qui s’occuperont du petit Charles. Elles connaissent et vénèrent la Bible. Elles ont dû vraisemblablement exercer une certaine pression sur leur frère qui le poussa à adopter une façon de penser plus conventionnelle.

En septembre 1818, il entre au pensionnat de l’école anglicane de Shrewsbury dirigée par le Dr Samuel Butler, grand-père du romancier de même patronyme.  Durant les sept ans qu’il y passa, Charles gagna un peu en indépendance bien qu’il puisse retourner régulièrement dans sa famille. Malheureusement, le style d’éducation imposé est d’un classicisme austère et ne semble pas convenir au garçon qui avouera plus tard que « l’école en tant que moyen d’éducation a été pour moi un échec ». Il se tourne vers l’observation des oiseaux et la collecte de minéraux. Avec son frère, il se prend de passion pour la chimie.

Durant l’été 1825, le jeune homme qui atteint sa seizième année, seconde son père comme apprenti médecin. A l’automne de cette année, il est envoyé à l’université d’Edimbourg afin d’étudier la médecine. En fait, cette discipline l’ennuie et la brutalité de la chirurgie le révolte.

Comme nous l’avons vu, depuis sa plus tendre enfance, il est attiré par les sciences naturelles auxquelles il va se consacrer lors de sa deuxième année à Edimbourg. Il s’inscrit à la Société plinienne, ainsi nommée en hommage à Pline l’Ancien, qui a été constitué par un groupe d’étudiant passionnés par l’histoire naturelle.

Il apprend également la taxidermie auprès de John Edmonstone, un esclave noir libéré, qui lui raconte des histoires fascinantes sur les forêts tropicales humides d’Amérique du Sud. Il se servira plus tard de cette expérience dans « La filiation de l’homme et la sélection liée au sexe » pour souligner que malgré certaines différences d’apparence superficielles, « les Nègres et les Européens » sont très proches.

Durant cette seconde année, Charles suit les cours d’Edmond Robert Grant, un des professeurs-fondateurs de l’université de Londres, qui l’initie aux idées de Lamarck. Grant y est en charge des chaires combinées de zoologie et d’anatomie comparée (1827-1840). Fervent partisan des thèses transformistes de Lamarck (1744-1829), Grant approfondit les recherches de ce dernier sur les zoophytes coloniaux et se penche particulièrement sur l’étude des éponges. Grant pensait que les zoophytes servaient de liens entre le règne animal et le règne végétal et que l’étude de leur reproduction permettrait d’élucider la structure et le fonctionnement des plantes comme des animaux. Le professeur entraîne son élève dans ses recherches sur les cycles vitaux des organismes marins, le long du Firth of Forth. Celles-ci portent sur l’homologie, théorie selon laquelle tous les animaux ont des organes similaires ne différant que par leur complexité, ce qui sous-entend une ascendance commune.

Dans un premier temps, Darwin s’oppose aux vues de Grant et ne montre aucun enthousiasme pour les idées transformistes qu’il avance. Ce sera lors de son voyage sur le Beagle que notre naturaliste deviendra plus favorable aux thèses de son ancien professeur sur la position transitoire des zoophytes entre le règne animal et le règne végétal.

Les autres cours, à part celui de chimie du Thomas Hope (1766-1844), l’ennuient. Celui de géologie dispensé par Robert Jameson (1774-1854) est basé sur des conceptions démodées. Jameson est un défenseur acharné de la théorie neptuniste, selon laquelle la croûte terrestre aurait été constituée par précipitation de sédiments dans un océan primordial couvrant la totalité du globe. En se retirant, cet océan aurait laissé les continents dans un état proche de la situation actuelle. Dans cette hypothèse, toutes les roches sont d’origine sédimentaire. Le style professoral est « d’un ennui incroyable ».

« Le seul effet qu’ils [les cours] produisirent sur moi fut de me dégoûter de la géologie, au point de me décider à ne jamais plus ouvrir un livre de géologie de toute ma vie ni étudier de quelque façon que ce soit cette science » (Autobiography).

Heureusement, à la fin de ses études universitaires, il finira par se passionner pour cette discipline.

Les cours de dissection le rebutent encore plus et à l’été 1827, il décide d’abandonner ses études de médecine au grand dam de son père.

Un compromis est trouvé. Son père lui suggère d’entrer dans les ordres de l’Eglise anglicane. Pour cela, il l’inscrit au Christ’s College de Cambridge pour l’obtention d’un Bachelor of Arts. C’est la seule voie restante qui permet de lui offrir une possibilité de trouver une profession « respectable ». De nombreux ecclésiastiques étaient des naturalistes amateurs.

Charles demanda un temps de réflexion car il émettait quelques réserves sur les 39 articles de l’Eglise qui constituent la confession de foi anglicane, promulgués en 1563. Finalement il accepte l’idée de devenir pasteur anglican. Il dira plus tard :

« Comme je ne doutais pas alors de la vérité stricte et littérale contenue dans chacun des mots de la Bible, je me persuadai très vite que notre Croyance devait être complètement acceptée » (Autobiography).

On sent dans l’expression « je me persuadai » un doute qu’il tente de réprimer.

A Cambridge, l’atmosphère est différente de celle d’Edimbourg. Elle renforce pour un temps le côté conservateur de la personnalité de Darwin. Il doit étudier les humanités, la théologie, les mathématiques. Les sciences naturelles ne sont pas prévues au programme. Par contre, le professeur de botanique, John Steven Henslow (1795-1861) dispense des cours hors faculté que Charles suit avec assiduité.

Sous l’influence de son cousin germain William Darwin Fox (1805-1880), avec qui il pratique la chasse, Darwin devient un collectionneur acharné de coléoptères.

« Je fus initié à l’entomologie par mon cousin W. Darwin Fox, un homme intelligent et des plus plaisants, qui était alors au Christ’s College, et avec qui je suis devenu extrêmement intime. » (Autobiography)

En fait, c’est Fox, qui le présente au professeur Henslow. Une amitié que Charles considérera plus tard comme une des plus marquante de sa vie, s’établit entre les deux hommes. En définitive, c’est Henslow qui incitera Darwin à devenir naturaliste à part entière.

Fidèle à ses convictions, Charles ne suivra pas le cours de géologie d’Adam Sedgwick (1785-1873), pourtant l’un des fondateurs de la géologie moderne. Ce géologue étudia les couches géologiques constituant le Dévonien et puis celles du Cambrien.

Ces deux scientifiques, Henslow et Sedgwick, sont des hommes d’Eglise mais qui ne voyaient aucun antagonisme entre leurs convictions religieuses et la science car ils découvraient dans la nature la création de Dieu. De plus ils étaient favorables à la réforme électorale de 1832 (Reform Act 1832) défendue par le député lord Palmerston, faisant ainsi preuve d’un certain progressisme. Cette loi étend le suffrage et abolit certaines pratiques de corruption ; elle supprime un certain nombre de sièges dans les bourgs pourris (rotten boroughs), circonscriptions où se faisait un trafic du droit d’élection[2]. Malheureusement, elle ne vise pas à donner le suffrage à la majorité de la population ce qui entraîna une déception principalement chez les radicaux.

De ce fait, à Cambridge, Charles trouve un milieu théologiquement conservateur mais politiquement dans la lignée de la tradition libérale de sa famille.

Charles ne trouve qu’un intérêt marginal dans le travail universitaire. Il n’est pas doué en mathématique et doit déployer des efforts considérables pour obtenir des notes satisfaisantes en humanités et en théologie. Le seul sujet qui l’attire est l’étude des Evidences du christianisme, de La Philosophie morale et de La Théologie naturelle de William Paley (1743-1805).

« Pour passer l’examen de bachelier, il était également nécessaire de posséder les Évidences du christianisme de Paley et sa Philosophie morale. J’y mis un grand soin, et je suis convaincu que j’aurais pu transcrire la totalité des Évidences avec une correction parfaite, mais non, bien sûr dans la langue de Paley. La logique de ce livre, et je puis ajouter, de sa Théologie naturelle, me procura autant de plaisir qu’Euclide. L’étude attentive de ces ouvrages, sans rien essayer d’apprendre par cœur, fut la seule partie du cursus académique qui, comme je le sentais alors et comme je la crois encore, se révéla de quelque utilité pour l’éducation de mon esprit. Je ne me préoccupais pas à cette époque des prémisses de Paley ; m’y fiant d’emblée, j’étais charmé et convaincu par la longue chaîne de son argumentation. » (Autobiography)

La lecture de Paley renforce chez Darwin l’intérêt qu’il éprouvait déjà pour l’adaptation de l’être vivant à son milieu, ici dans un contexte conventionnel du phénomène. Darwin le considérera plus tard dans un contexte moins statique.

Il passe ses examens en janvier 1831 ; il réussit en théologie mais il remporte de justesse les épreuves de littérature classique, de mathématiques et de physique, arrivant dixième sur une liste de 178 élèves reçus. Malgré çà, Darwin n’est plus un novice sans expérience. Grâce à son acquis d’Edimbourg et à l’enseignement d’Henslow, Darwin est en possession des connaissances que l’on s’attend d’un jeune homme de son âge. Il lit avec passion le « Discours préliminaire sur l’étude de l’histoire naturelle » de J.F.W. Herschel, publié en 1831, qui fait autorité pour les problèmes de définition de la méthode scientifique.

Il lit et recopie de long passage du journal de voyage « Narration personnelle » d’Alexander von Humboldt (1769-1859). Inspiré par ses expéditions en Amérique du Sud, Charles veut même organiser un voyage d’étude aux îles Canaries, peut-être avec Henslow. Malheureusement le projet n’aboutit pas, mais le désir de voyager pour faire avancer la cause de l’histoire naturelle ne peut qu’inciter notre homme à saisir la première occasion qui se présente.

Obligé de passer encore deux trimestres à Cambridge après ses examens, Charles décide d’ajouter à ses connaissances la géologie que jusque là il avait rejetée. Adam Sedgwick était en train de se forger une solide réputation et il était considéré comme l’un des meilleurs géologues d’Angleterre. Il était catastrophiste tout comme Cuvier, mais il avait rejeté l’idée que la dernière des grandes révolutions avait été un déluge universel qui correspondait à celui de la Bible. Cela ne l’empêchera pas de voir l’œuvre du dieu créateur dans l’histoire de la terre et de devenir un opposant acharné à la théorie de l’évolution darwinienne. Darwin rejoint les cours de Sedgwick. Durant l’été 1831, il assiste ce dernier dans la réalisation d’une carte géologique dans le pays de Galles qui amènera Sedgwick à établir le système cambrien qui à l’époque était considéré comme le plus ancien. Ce qui attire Charles dans l’enseignement de Sedgwick, c’est son approche active sur le terrain qui permet de découvrir la séquence historique du dépôt des différentes formations géologiques. Il semble qu’à cette époque, Darwin épouse les thèses catastrophiques de son mentor comme le suggère une lettre envoyée à son ami Henslow :

« Pour l’heure, je me suis contenté de caresser les hypothèses ; mais elles sont si fortes que je suppose qu’il suffirait de les voir en action pendant une seule journée pour que se soit la fin du monde. » (Correspondance, lettre de Darwin à Henslow, 11-07-1831).

En août 1831, de retour chez lui, Charles trouve une lettre de Henslow le recommandant comme naturaliste pour un poste non rémunéré sur le l’HMS Beagle, commandé par Robert FitzRoy. Le capitaine recherche un compagnon de voyage « gentleman-naturaliste » avec qui il peut communiquer sur un pied d’égalité sans être soumis à la discipline de fer qui règne à bord. Le but de l’expédition est d’établir la cartographie de la côte de l’Amérique du Sud. Le départ est prévu dans quatre semaines et sa durée serait de trois ans.

Charles s’enthousiasme pour l’idée d’une telle expédition, mais il faut convaincre son père. Dans un premier temps celui refuse jugeant que ce voyage est une perte de temps et d’énergie qui retarderait son insertion professionnelle en temps que pasteur. Il fallut l’intervention  de Josiah Wedgwood, beau-frère de Robert Darwin, pour convaincre ce dernier que l’histoire naturelle était une occupation tout à fait respectable pour un homme d’Eglise. De plus, il suggéra que la voie suivie par Charles dans ses études lui ouvrait un autre mode de vie et que ce voyage en serait une excellente préparation.

« Les études qu’il poursuit actuellement sont du même ordre que celles qu’il aurait à suivre pendant l’expédition. »

La rencontre avec FitzRoy ne fut pas des plus heureuses. Celui-ci, adepte de la physiognomonie, « science » selon laquelle la personnalité se reflète dans les traits du visage, trouve que la forme du nez de Darwin indique un manque de force de caractère. Finalement, ils arrivent à un arrangement et Charles embarque à Plymouth le 24 octobre 1837. Le départ aura lieu le 27 décembre en raison du mauvais temps. Outre des fusils, une loupe, un microscope, du matériel d’analyse géologique et chimique, des livres, il emporta le premier volume de « Principes de géologie » de Charles Lyell dont la lecture allait l’amener à abandonner le catastrophisme de Sedgwick pour une vision plus uniformitariste.

IV.        Bibliographie

  •  Bowler P.J. (1995) – Darwin, Flammarion, coll. “Figures de la science”.
  • Continenza B.Darwin – L’arbre de vie, Pour la Science – Les génies de la science n° 18 – fév.-mai 2004.
  • Grimoult C. (2009) – La preuve par neuf – Les révolutions de la pensée évolutionniste, Ellipse.
  • Lecointre G (sous la dir.) (2009) – Guide critique de l’évolution, Belin.
  • Tort P. (2011) – Darwin et la religion – La conversion matérialiste, Ellipse.
[1]  En philosophie, l’induction est une démarche intellectuelle qui consiste à procéder par inférence probable, c’est-à-dire à déduire des lois par généralisation des observations. Par exemple, en l’absence de toute connaissance scientifique en astronomie, la plupart des gens s’attendent à voir le soleil se lever le lendemain matin. L’inférencedésigne les actions de mise en relation d’un ensemble de propositions, aboutissant à une démonstration de vérité, de fausseté ou de probabilité, sous la forme d’une proposition appelée conclusion.

 [2]  Ces localités, jadis importantes, mais qui s’étaient dépeuplées avec le temps, ne comptaient plus qu’un très petit nombre de propriétaires (et donc d’électeurs selon le système d’alors) ; mais ceux-ci conservaient leurs privilèges électoraux et vendaient leurs voix au plus offrant. Les plus fréquemment citées sont Dunwich, dont la quasi-totalité du territoire avait été dévoré par la mer et dont l’unique électeur se vantait ouvertement de son statut privilégié, et Old Sarum qui comptait sept électeurs. Par contraste, les cités neuves comme Birmingham et Manchester n’avaient aucun représentant pour leurs dizaines de milliers d’habitants.

Catégories : Evolution | Poster un commentaire
 
 

L’avenir de la vie

Edward O. Wilson – L’avenir de la vie, Editions du Seuil, Science ouverte, 2003 (lecture, août – septembre 2003).

La notion de biodiversité a été introduite par un biologiste d’Oxford, Norman Myers. Edward O.Wilson avait écrit en 1992 l’ouvrage devenu un classique de la question, The Diversity of Life (ouvrage publié en traduction française : Edward O. Wilson, La diversité de la vie, Paris : Odile Jacob, 1993). Ce nouvel ouvrage, The Future of Life en v.o., ou L’Avenir de la vie en édition française, fait donc le point dix ans après le sommet de Rio qui a introduit la notion de biodiversité à l’échelle planétaire. Edward O.Wilson avait écrit The Diversity of Life alors qu’il avait vécu de l’intérieur la transformation du WWF (sigle qui recouvre deux organismes, le World Life Fund for Nature, dont le siège est à Gland en Suisse, et le World Wildlife Fund, son affilié aux Etats-Unis). Au début des années 1980, le WWF se concentrait sur la préservation de la mégafaune charismatique : tout le monde connaît le panda géant qui sert de logo à l’ONG. « La motivation était principalement esthétique », dit Wilson. Pour cette conservation, le WWF crée des partenariats avec la population locale et s’aperçoit qu’il faut surtout protéger les habitats de l’espèce en voie de disparition. Cette période est celle de la mise en place des thèmes du développement durable, qui accompagne cette mutation des pratiques de conservation. Edward O.Wilson s’occupe aujourd’hui de l’ONG Conservation International, spécialisée dans la protection des biotopes tropicaux, dont le porte parole est l’acteur Harrison Ford. Il s’agit pour lui de récolter des fonds au Nord, pour réaliser des investissements ciblés sur la protection des sites les plus riches en biodiversité. Ceux-ci se situent la plupart du temps au Sud. Cet « activisme financier » de Wilson reçoit son explication dans l’analyse qu’il dresse dans L’Avenir de la vie.

L’ouvrage ici fait le point sur les dix années de travaux récents autour des phénomènes d’extinction d’espèces. Il est aussi profondément marqué par la radicalisation du débat sur les thèmes environnementaux aux Etats-Unis : l’ouvrage est un plaidoyer pour l’écologie aux Etats-Unis, avec des références à la littérature américaine du dix-neuvième siècle, particulièrement l’ouvrage « Walden ou la Vie dans les bois » d’Henry Thoreau (1854). L’ouvrage présente deux faces : un état de la question de la responsabilité humaine sur la grande extinction quaternaire (chapitres 2 à 4), et un programme positif de sauvegarde des biotopes « points chauds » gros concentrés de la biodiversité (chapitre 5 à 7).

Un premier chapitre est consacré aux formes extrêmes de la vie découvertes dans les années 1990. La vie se manifeste des sols les plus froids de l’Antarctique jusqu’à des températures supérieures à l’ébullition, à toute pression, sous tout niveau de rayonnement, et jusqu’à des profondeurs souterraines de plusieurs kilomètres. Même une collision avec des astéroïdes de taille bien supérieure à celui qui a probablement mis fin aux dinosaures il y a 65 millions d’années ne pourrait mettre fin à la vie sur Terre. Aucune menace sur la vie en elle-même n’est donc imaginable. Ce n’est pas la vie qui est menacée, mais sa diversité, qui n’est acquise que très lentement. La diversité de la vie, qui est maximale avec une stabilité climatique, une absence de gel, une variété des sols, un fort ensoleillement, est dramatiquement réduite aujourd’hui : « l’économie naturelle, faite de ces échanges entre une grande diversité d’espèces, s’effondre sous nos pieds affairés. Nous sommes restés trop longtemps centrés sur nous mêmes pour envisager les conséquences à long terme de nos actes » (p.25). Pour pallier à cette insouciance du long terme, Hans Jonas réclamait un régime politique musclé. La pensée de l’extrême chez Jonas emprunte les formes traditionnelles du discours apocalyptique. Celle de la biologie des années 1990, qui réalise le recensement des formes de vie dans les situations les plus extrêmes, ne permet pas d’envisager d’interruption pour l’avenir de la vie. Wilson fait appel à un choix moral individuel de prise en compte à la fois du court et du long terme. Il s’agit  « d’associer ces deux visions pour créer une éthique environnementale universelle » (p.70). Celle-ci permettrait, selon Wilson, de sortir de la « mauvaise passe » dans laquelle se trouve aujourd’hui, « l’humanité et le reste de la vie ».

La mise en cause du météore humain dans les grandes extinctions de l’ère quaternaire n’est pas nouvelle. Un ouvrage du début des années 1990 (par exemple, L. de Bonis, Evolution et extinction dans le règne animal, Paris, Masson, 1991) mettait en cause surtout l’instabilité climatique et les grandes glaciations quaternaires, et d’un autre côté, ne pouvait pas exclure un rôle spécifique des grandes chasses paléolithiques pour la réduction de la diversité de la faune des mammifères de taille moyenne.

Dix années de recherches sur les extinctions d’espèces permettent de tracer un tableau plus précis de la part des hommes dans les grandes extinctions quaternaires. Wilson distingue trois scénarios : le premier, le prélèvement excessif par la chasse joue un rôle quasi exclusif avant la néolithisation. Il était le seul scénario envisagé par l’ouvrage cité de 1991. Ces grandes chasses ont pu être réalisées par des petits groupes de chasseurs s’introduisant dans des territoires nouveaux pour la présence humaine. Sur ces colonisations premières très destructrices pour la mégafaune, les colonisations postérieures, celles de la globalisation, sont surtout marqués par des phénomènes d’invasion d’espèces allogènes. « Plus la vague d’extinction induite par l’homme est précoce, plus le taux d’extinction actuel est faible » (p.130). Le maximum d’extinctions est souvent loin derrière notre époque, au moment de la première colonisation, puis de la néolithisation. Cette dernière fait passer la destruction de l’habitat au statut de première cause d’extinction. Ces dix années de recherches ont pu mettre en évidence les modalités d’action qui mènent à une chute dramatique de la diversité biologique. La météore humaine a un impact majeur avec l’arrivée d’un groupe de quelques chasseurs en éclaireur suivant de la grande destruction des habitats par la néolithisation. En fin de séquence, des espèces invasives ont un impact plus limité.

En conséquence d’une meilleure compréhension des trois scénarios principaux (chasse de première colonisation humaine, destruction de l’habitat par néolithisation, espèces invasives) des extinctions de causalité humaine, une stratégie de préservation est détaillée dans la suite de l’ouvrage. Les « points chauds » à préserver en priori sont ceux où l’introduction humaine est la plus récente. Cet ensemble limité de  « points chauds » peut faire l’objet d’une politique ciblée, dont le coût global reste relativement modeste à l’échelle planétaire. Le nombre d’espèces sauvegardées pourrait être important. Wilson cite le cas des îles Juan Fernandez, célèbres pour avoir été l’asile involontaire du marin personnifié en 1719 sous les traits de Robinson Crusoé par Daniel Defoe. Ces îles détiennent aujourd’hui le record de dangers d’extinctions concentrés sur un même endroit, avec 125 espèces menacés, dont 20 avec moins de 25 individus. Comme Robinson est arrivé il y a peu de temps, le risque de perte de biodiversité est maximum. Il est pour bonne partie maîtrisable, selon Wilson. Il est encore temps de sauver l’île de Robinson.

[8 Callens – Revue Développement durable et territoire – mai 2003]

Catégories : Notes de lecture | Étiquettes : | Poster un commentaire
 
 

La loi de la jungle

Jean-Marie PeltLa loi de la jungle, Fayard, 2003 (lecture, novembre –décembre 2003).

Le sous-titre de cet ouvrage s’intitule comme suit : « L’agressivité chez les plantes, les animaux, les humains ».

J.-M. Pelt est professeur émérite de biologie végétale et de pharmacologie à l’Université de Metz. Il est également président de l’Institut européen d’écologie. Il n’en n’est pas à son premier livre bien au contraire. Il a publié plus d’une trentaine d’ouvrages sur la botanique.

Dans celui-ci, il étend son étude également au règne animal dont nous faisons partie.

L’espèce humaine est-elle condamnée à tuer, à détruire, à polluer, et finalement à se suicider ? Plus de trente ans après Konrad Lorenz, Jean-Marie Pelt cherche une réponse du côté des animaux : poissons des récifs coralliens, oies, choucas, loups, gorilles, sans oublier les chimpanzés presque aussi diaboliques que nous et leurs cousins angéliques, les bonobos, chers à Frans de Waal. Mais les pages les plus passionnantes sont celles qu’il consacre à sa spécialité, la botanique. Aux figuiers tropicaux qui étouffent les autres arbres comme des boas. A la jacinthe d’eau et à l’ambroisie, plantes agressives parties d’Amérique pour conquérir le monde. A la lutte mortelle pour la lumière et pour l’espace vital. Ou encore à la stratégie de croissance adoptée par le palmier, le chêne et le sapin.

Catégories : Notes de lecture | Étiquettes : | Poster un commentaire
 
 

Le vivier de Darwin

Tijs GoldschmidtLe vivier de Darwin – Un drame dans le lac Victoria, Editions du Seuil, 2003 (lecture, juillet, août 2006).

J’ai lu ce livre comme un roman, l’auteur conte avec humour ses expériences en Tanzanie lors de ses études de la faune piscicole du lac Victoria. Il m’a inspiré un petit texte sans prétention qui a servi d’éditorial au périodique de l’association que je préside depuis près de 15 ans (G.E.S.T.) et que je reproduit ci-dessous.

Le vivier de Darwin devient son cauchemar

Je pense que bon nombre d’entre-vous ont vu ou du moins ont entendu parler du film documentaire de Huber Sauper (2004), « Le Cauchemar de Darwin ». Le film prend pour argument de départ les trafics autour de l’aéroport de Mwanza, en Tanzanie, sur les bords du lac Victoria. Des tonnes de perches du Nil (Lates niloticus) sont pêchées dans le lac, traitées, sur place, dans des usines financées par les organisations internationales et expédiées vers nos pays par des avions cargo (russes ou ukrainiens). On trouve ces filets légèrement rougeâtres dans toutes nos grandes surfaces. Les résidus, têtes et carcasses, sont distribués dans les villages des anciens pêcheurs qui doivent s’en contenter. Autour de cette exportation massive se développent tous les trafics liés à une urbanisation intense et brutale (usines de traitement) : prostitution, sida, violences diverses. De plus, il semblerait que les avions cargo n’arrivent pas à vide, mais qu’ils amèneraient des armes à destination des pays belligérants de la région des Grands Lacs (Rwanda, Ouganda, mouvements révolutionnaires dans l’est du Congo). Ce film coup de poing qui cherche à montrer quelles catastrophes écologiques et sociales peut entraîner la mondialisation,a provoqué de nombreuses polémiques et critiques. Nous n’allons pas entrer dans ce jeu.

Si j’aborde le sujet, c’est parce que je viens de terminer la lecture d’un livre admirable, « Le vivier de Darwin », que je conseille à tous ceux qui s’intéressent à l’évolution biologique. L’auteur, Tijs Goldschmidt, un biologiste néerlandais et un expert en écologie animale de renommée internationale, a réussi la synthèse entre le récit personnel, souvent teinté d’humour, de ses expériences dans la région du Lac Victoria et une passionnante discussion scientifique des théories darwiniennes à propos de l’évolution de la faune du lac.

Quel est le rapport entre les deux ? Le film et le livre traite d’un drame que connaît l’un des plus grands lacs d’Afrique, le lac Victoria. Notre biologiste, dans les années 1970, est venu à Mwanza (justement le village où a été tourné le film) afin de répertorier le nombre d’espèces de « furu » rencontré dans un espace bien défini du lac, le golfe de Mwanza. Les « furu » sont des petits poissons de la famille des cichlides qui comporte à cet endroit 500 espèces biologiques différentes. Chaque espèce occupe sa propre niche écologique : sa nourriture, sa façon d’être, ses caractéristiques biologiques etc. Quand on sait que le lac était probablement asséché il y 12.500 ans, il est important de constater que tout cela a pu se créer à partir d’un ancêtre commun : c’est l’évolution la plus rapide d’un milieu invertébré connue à ce jour ! Il s’agit d’une « radiation adaptative » dont on ne trouvait jusqu’ici qu’un exemple fameux sur les îles Galapagos (les 13 espèces d’oiseaux sur lesquelles Darwin a établi sa théorie de l’évolution).

Malheureusement, lorsque notre biologiste de terrain, commence à comprendre ces centaines d’espèces, ce qui lui a représenté un travail colossal, il se produit une catastrophe : l’espèce invasive, la perche du Nil. Un homme avec son seau et les meilleures intentions du monde a pu provoquer un tel changement, comme le dit notre scientifique. Dans les années cinquante  des agents britanniques, recrutés pour améliorer la pêche en Ouganda conçoivent d’introduire un grand poisson prédateur dans le lac Victoria, malgré l’avis négatif de certains spécialistes. 30 à 40 ans plus tard, les « furu » et d’autres représentants de la faune aquatique ont pratiquement disparu sous la pression des perches du Nil qui se sont multipliées d’une manière catastrophique. Toute la chaîne alimentaire en a été perturbée. Ayant décimé la majorité des espèces de cichlides, on s’attendait à voir la perche du Nil s’éteindre à son tour. Curieusement ce n’est pas le cas. Notre biologiste revenu sur les lieux en 1989, constate qu’une petite crevette a profité de la situation pour envahir tous les espaces et sert de nourriture au grand prédateur. Par contre on assiste bien à une « extinction de masse » puisque la presque totalité des cichlides ont disparus.

En conclusion, citons notre auteur : « La génération et l’extinction des espèces sont les deux faces d’une même médaille dans l’histoire de l’évolution. Mais il y a de nos jours plus d’extinction que de génération ! Depuis 3,5 milliards d’années, depuis la naissance de la vie, il n’y a eu que 5 à 10 fois des spasmes d’expansion. Nous nous trouvons probablement dans une telle phase mais c’est la première fois qu’une telle vague d’extinction se produit, et en plus causée par l’Homme !Mais nous touchons là plutôt un problème moral et non plus scientifique… »

Catégories : Notes de lecture | Étiquettes : | Poster un commentaire
 
 

Linné – Classer la nature

Collectif – Linné. Classer la nature, Pour la Science, Les Génies de la science – N° 26 février –mai 2006. (lecture, août 2006).

Pour résumé ce numéro hors série de Pour la Science, quoi de mieux que son éditorial.

Nomen est numen (nommer c’est connaître).

Que signifie cette affirmation ? Donner un nom d’oiseau à un volatile suffit-il à le connaître ? À quelle réalité renvoie un nom d’espèce ? Le bota­niste suédois Linné se pose ces questions lors­qu’il invente sa classification binomiale des êtres vivants : un nom pour le genre, un nom pour l’es­pèce (voir Linné, Classer la nature, page 32). Mais que désigne l’espèce ? Des contemporains de Linné lui refusèrent toute réalité, observant une trop grande variabilité au sein de la même espèce. Selon Linné, la classification reflète la structure de la Création. Boniments, répondent d’autres, dont notre illustre Buffon (voir Buffon, savant ency­clopédique, page 10) : cette classification ne recouvre aucune réalité, elle est aussi arbitraire qu’une classification par ordre alphabétique.

Les débats sur l’espèce rappellent celui qui opposa, durant le Moyen Âge, réalistes et nomi­nalistes au sujet des universaux. Aristote avait introduit ces universaux dans ses syllogismes: Tous les hommes sont mortels, Socrate est un homme, donc Socrate est mortel. À quelle réalité renvoient les désignations de catégories univer­selles, comme « l’homme » ? Un mot unique peut­-il désigner plusieurs individus ? Selon les réalistes (dont Boèce et Jean Duns Scot), les universaux existent : ils sont les archétypes des êtres créés selon la volonté divine, hommes, animaux, plantes. Selon les nominalistes (comme Guillaume d’Ock­ham et Jean Buridan), les  « universaux » ne sont que des noms, ou des signes; seuls existent des êtres singuliers. Bucéphale, le cheval d’Alexandre le Grand, a existé : on l’a vu et touché, mais le « che­val », qui désigne à la fois Bucéphale et tous les autres chevaux passés, présents et futurs, est une abstraction. Le mot « cheval » sous-tend un acte mental consistant à ne retenir qu’une partie des caractéristiques communes aux chevaux et à négliger un grand nombre de singularités qui font l’individu Bucéphale. « Cheval » ne désigne aucun être particulier.   .

Diversité et réalité de l’espèce, variabilité, conti­nuités et discontinuités de la nature, ces interro­gations linnéennes ont fondé la biologie moderne. Le fixiste Linné a ouvert, par des dénominations qu’il pensait intangibles, le chemin de l’évolution. Et le plus étonnant est que la nomenclature de Linné est toujours en usage.

Aristote, qui proposa le premier de classer les animaux selon les fonc­tions de leurs parties (pou­mons, mains…), dénombrait 500 espèces. La tâche de Linné était énorme : il esti­mait le nombre d’espèces à 67.000, mais ce chiffre ne décourageait pas cet ogre naturaliste. Aujourd’hui les naturalistes évaluent ce nombre à 10 millions.

Le progrès scientifique nous place devant un para­doxe : nous connaissons un nombre croissant d’es­pèces vivantes, mais ce nombre est en diminution. Nous assistons à une extinction en masse, dont nos activités sont en partie responsables (voir le Point de vue sur la biodiversité, page 7). Pour freiner la diminution de la biodiversité, des scientifiques militent pour la préservation de zones naturelles. Planté sur l’île de Tasmanie par des explorateurs fran­çais au siècle de Linné, un potager est devenu un emblème de cette lutte (voir Un potager du bout du monde, page 18). Le siècle des Lumières nous éclaire encore. (Bénédicte Leclercq)

Catégories : Notes de lecture | Étiquettes : | Poster un commentaire
 
 

L’Evolution

Pierre Sonigo, Isabelle StengersL’évolution, EDP Sciences 2003 (lecture, septembre-octobre 2006).

La biologie actuelle oscille entre le livre de l’ADN, où notre vie serait inscrite, et le caractère imprévisible de notre évolution. Pour comprendre autrement ce que nous appelons « vie », il nous faudra renoncer à nos perceptions les plus fortes : le gène, l’individu, la reproduction sont des illusions anthropocentriques. Pierre Sonigo montre l’urgence d’une révision radicale des fondements de la biologie, et propose un nouveau regard sur la théorie de l’évolution. Isabelle Stengers, elle, se penche avec la liberté qui est la sienne, sur les discours de l’évolution biologique, en refusant l’opposition entre probité scientifique et obscurantisme irrationnaliste. Elle interroge la manière dont la biologie évolutionniste peut entendre la question qui ne cesse de se profiler depuis Darwin : quelles conséquences pour notre manière de nous comprendre nous-mêmes ?

Pierre Sonigo est directeur de recherches à l’INSERM ; il est responsable du laboratoire de génétique des virus à l’Institut Cochin. Il a étudié les séquences de nombreux génomes viraux, en particulier, celui du virus du sida. Isabelle Stengers, philosophe, enseigne à l’Université Libre de Bruxelles. Ses intérêts s’organisent autour de la question des savoirs modernes, dont elle tente de célébrer l’aventure.

La fin du séquençage a déjà été plusieurs fois annoncée par le passé. Cette dernière annonce signifie surtout la fin d’une époque. C’est un tournant. Désormais, il va falloir faire autre chose, et réfléchir à quoi. Depuis le début, le projet de séquençage a été motivé par l’idée que l’ADN était le  » livre de la vie « . Aujourd’hui, on sait que ce n’est pas vrai. À partir de ce constat, deux voies sont possibles. Soit on continue de suivre le  » dogme central de la biologie moléculaire « , qui dit  » ADN = ARN = production de protéines « , en cherchant dans l’ARN, par exemple, les réponses qu’on n’aura pas trouvées dans l’ADN. Soit on change complètement de postulat et on commence à réfléchir différemment.

En 1985, il a achevé le séquençage du génome du virus du sida. On pensait alors avoir le  » livre du sida « . Mais on a mis quelques années à s’apercevoir que ce n’était pas le cas. Suite à ce travail en effet,on a cherché à expliquer les variations de la charge virale propre au sida, ces trois phases que sont la primo-infection, qui dure environ huit semaines, la longue phase asymptomatique, en l’absence de traitement, qui dure plusieurs années, et enfin la remontée finale, qui est à proprement parler la phase clinique du sida. Plus particulièrement, on a cherché la cause de cette remontée, en clair : pourquoi les gens mouraient du sida. On a vite compris que ce n’était pas dans les séquences qu’on trouverait la réponse à cette question, mais dans une prise en compte du virus dans son environnement. Cette leçon s’applique au génome humain. L’exploit technique, réel, que constitue la finalisation du séquençage nous donne un catalogue de pièces détachées, mais sans leur mode de fonctionnement.

Depuis les années soixante-dix, la biologie moléculaire, notamment celle liée à l’ADN, a vraiment envahi toutes les disciplines de la biologie. On a considéré qu’il y avait là une voie royale de recherche, qui consiste, systématiquement, à identifier le gène. Cette voie a apporté des données, des technologies, elle n’a pas été inutile du tout. Mais on s’est aperçu qu’elle ne répondait pas à bien des questions :  » Pourquoi vieillit-on ? D’où vient le cancer ? Qu’est-ce qu’une réponse immune ?…

Catégories : Notes de lecture | Étiquettes : | Poster un commentaire
 
 

Classification et évolution

Le Guyader HervéClassification et évolution, Editions Le Pommier – Le Collège de la Cité, 2003 (lecture, mars 2008).

Ouvrage de vulgarisation qui tente en quelques pages de dresser un panorama synthétique des relations complexes existant entre la systématique, c’est-à-dire la classification des êtres vivants, et la théorie de l’évolution. Un bref parcours historique mène le lecteur des premières tentatives de classification à la théorie de l’évolution, puis à la théorie synthétique de l’évolution.

Ensuite l’auteur donne les bases de la cladistique, permettant de classer les organismes selon leurs relations de parenté. Il termine par quelques résultats novateurs de ces dernières années.

Catégories : Notes de lecture | Étiquettes : | Poster un commentaire
 
 

Requiem pour Darwin

Arnould Jacques (2009) – Requiem pour Darwin, Salvator (lecture, juillet 2009)

L’auteur est docteur en histoire des sciences et en théologie. Rien qu’à la lecture de ses titres j’ai eu d’abord une certaine réticense. Un théologien, pour moi, çà sent le soufre. Mais en fait à la lecture de cet ouvrage, mes craintes se sont évanouies. L’approche adoptée par J. Arnould est assez originale. Il reprend la vie, le labeur et les idées de Darwin qu’il confronte à ses propres domaines d’intérêt et de recherche. Il se pose un certain nombre de questions comme pourquoi Darwin a-t-il été aussi mal aimé par certains milieux ? Comment comprendre raisonnablement la place qu’il accorde au hasard, à l’espèce, à la religion dans son système de pensée ? Quelle vision de l’homme élabore-t-il et met en œuvre ? Que dire, enfin, du mythe, de la légende qui ont été construits autour de sa personne et de ses idées ?

Avec beaucoup de tact, l’auteur ne fait ni le procès, ni le panégyrique de Darwin, mais simplement il lui rend hommage en forme de requiem.

Catégories : Notes de lecture | Étiquettes : | Poster un commentaire
 
 

Autobiographie de Charles Darwin

Charles Darwin (2008) – L’Autobiographie, Seuil, « Science ouverte » (offert par Isabelle pour ma Noël 2008) – (lecture, octobre-novembre 2009)

Article paru dans Le Monde du 2 août 2008

Le texte intégral de L’Autobiographie de Charles Darwin (1809-1882) paraît enfin en France. On y découvre un Darwin modeste sur ses découvertes, rétif à toute forme de dogme. Dans l’extarit que nous publions, le fondateur de la théorie de l’évolution biologique explique comment il a abandonné toute pensée religieuse.

Convictions religieuses

Durant ces deux années [octobre 1836 janvier 1839], je fus souvent amené à réfléchir à la religion. Lorsque j’étais à bord du Beagle, j’étais tout à fait orthodoxe, et je me souviens d’avoir déclenché de grands rires chez plusieurs officiers (eux mêmes pourtant orthodoxes) en citant la Bible comme une autorité incontestable sur un point de morale. Je suppose que c’était la nouveauté de l’argument qui les amusait. Mais j’en venais peu à peu à considérer, à cette époque, que l’Ancien Testament, avec son histoire du monde manifestement fausse, la tour de Babel, l’arc-en-ciel comme signe, etc., et parce qu’il attribuait à Dieu les sentiments d’un tyran vindicatif, n’était pas plus digne de confiance que les livres sacrés des hindous, ou les croyances d’autres barbares. La question se posa dès lors constamment, et ne se laissa pas chasser de mon esprit : si Dieu voulait faire une révélation aux hindous, était-il pensable qu’il la relie aux croyances en Vishnou, Shiva, etc., de même que le christianisme est lié à l’Ancien Testament ? Cela m’apparaissait tout à fait incroyable.

Je réfléchis à la nécessité d’une preuve éclatante pour qu’un homme sain d’esprit puisse accepter les miracles qui soutiennent le christianisme – à ce que, plus nous progressons dans notre connaissance des lois immuables de la nature, plus les miracles sont difficiles à croire — à ce que les hommes de ces temps étaient ignorants et crédules à un degré presque incompréhensible pour nous – à ce que l’on ne peut prouver que les Evangiles ont été écrits au moment des événements qu’ils relatent et au fait qu’ils diffèrent sur nombre de points importants, bien plus importants que ce qui me semblait admissible de la part de témoins oculaires. Par des réflexions de cet ordre, que je ne donne pas comme ayant la moindre nouveauté ou valeur, mais comme m’ayant influencé, j’en vins graduellement à ne plus croire au christianisme comme révélation divine. Le fait que de nombreuses religions fausses se sont répandues comme un feu de brousse sur de larges portions du globe avait un certain poids pour moi. Aussi belle soit la morale du Nouveau Testament, on peut difficilement nier que sa perfection dépend en partie de l’interprétation que nous donnons aujourd’hui de ses métaphores et de ses allégories.

Je n’étais cependant pas disposé à abandonner la foi. J’en suis certain, car je me rappelle avoir souvent fait des rêves éveillés dans lesquels de vieilles lettres, échangées entre des Romains distingués, ou des manuscrits découverts à Pompéi ou ailleurs, venaient confirmer de lamanière la plus frappante tout ce qui était écrit dans les Evangiles. Mais je trouvais de plus en plus difficile, même en donnant toute latitude à mon imagination, d’inventer des preuves qui suffiraient à me convaincre. Ainsi l’incrédulité m’envahit-elle très lentement, mais aussi très sûrement. Cette évolution fut si lente que je ne ressentis aucune angoisse, et je n’ai jamais douté, depuis, une seule seconde de l’exactitude de ma conclusion. En fait,je peux difficilement admettre que quelqu’un puisse souhaiter que le christianisme soit vrai; car si c’était le cas, les Ecritures indiquent clairement que les hommes qui ne croient pas, à savoir mon père, mon frère et presque tous mes meilleurs amis, seront punis éternellement.

Et ceci est une doctrine condamnable

Bien que je n’aie guère réfléchi à l’existence d’un Dieu personnel avant une période bien plus tar dive de ma vie, je livrerai ici les vagues conclusions auxquelles je suis parvenu. Le vieil argument d’une finalité dans la nature, comme le présente Paley, qui me semblait autrefois si concluant, est tombé depuis la découverte de la loi de sélection naturelle. Désormais, nous ne pouvons plus prétendre, par exemple, que la belle charnière d’une coquille bivalve doive avoir été faite par un être intelligent, comme la charnière d’une porte par l’homme. Il ne semble pas qu’il y ait une plus grande finalité dans la variabilité des êtres organiques et dans l’action de la sélection naturelle que dans la direction d’où souffle le vent. Tout dans la nature est le résultat de lois immuables. Mais j’ai discuté de cette question à la fin de mon livre sur la Variation des animaux et des plantes à l’état domestique, et l’argument que j’ai présenté n’a jamais, autant que je sache, été réfuté.

Mais si l’on néglige les merveilleuses adaptations que nous rencontrons partout, on pourra demander comment rendre compte de l’organisation généralement bénéfique du monde. Certains auteurs, il est vrai, fortement impressionnés par la souffrance dans le monde, se demandent en regardant tous les êtres sensibles s’il y a plus de misère ou de bonheur, et si le monde pris dans son ensemble est bon ou mauvais. Selon moi, le bonheur prévaut largement, mais cela serait très difficile à prouver. Si l’on admet cette conclusion, cela s’harmonise bien avec les effets que l’on peut attendre de la sélection naturelle : si tous les individus d’une espèce devaient passer leur vie à souffrir, leur espèce ne survivrait pas. Mais nous n’avons aucune raison de croire que cela ne se soit jamais produit, ou du moins que cela se soit souvent produit. De plus, d’autres considérations mènent à penser que toutes les créatures sensibles sont faites, en règle générale, pour jouir du bonheur.

Toute personne qui pense, comme moi, que les organes physiques et mentaux (en dehors de ceux qui ne sont ni avantageux ni désavantageux pour leur possesseur) de tout être vivant ont été développés par la sélection naturelle, ou survie du plus apte, en même temps que par l’usage ou l’habitude, admettra que ces organes ont été formés de façon que ceux qui les possèdent puissent entrer avec succès en compétition avec d’autres, et accroître de la sorte leur nombre. Un animal pourra être ainsi conduit à adopter le comportement le plus bénéfique pour l’espèce, en souffrant par exemple de faim, de soif et de peur ; ou en ayant du plaisir, par exemple en mangeant, en buvant, en propageant l’espèce, etc. ; ou en mêlant les deux moyens, comme dans le cas de la recherche d’aliments. Mais la douleur et la souffrance, quelles qu’elles soient, si elles se prolongent, entraînent la dépression et diminuent la vigueur de l’action ; ce qui n’empêche qu’elles aient leur utilité pour mettre une créature en garde contre un danger soudain. Les sensations de plaisir, d’un autre côté, peuvent être ressenties longtemps sans effet dépressif; au contraire, elles encouragent à l’action. C’est pourquoi il est arrivé que la totalité ou au moins la plupart des êtres vivants se sont développés par sélection naturelle d’une manière telle que les sensations de plaisir guident ordinairement leur conduite. Cela se voit dans le plaisir de l’effort, parfois même d’un grand effort du corps ou de l’esprit, dans le plaisir des repas quotidiens, et spécialement dans le plaisir qui nous vient de la sociabilité et de l’amour de nos familles. La somme de ces plaisirs, qui sont habituels ou reviennent fréquemment, donne, j’ai du mal à en douter, à la plupart des êtres sensibles un excédent de bonheur sur le malheur, en dépit de grandes souffrances occasionnelles. Une telle souffrance est tout à fait compatible avec la croyance en la sélection naturelle, qui n’est pas parfaite dans son action, mais tend seulement à donner à chaque espèce autant de chances de succès que possible dans la lutte pour la vie contre d’autres espèces, et ce dans des circonstances merveilleusement complexes et changeantes.

Qu’il y ait beaucoup de souffrance dans le monde, personne n’en disconvient. Certains ont tenté d’expliquer ce fait, dans le cas de l’homme, en imaginant que cela sert à son perfectionnement moral. Mais le nombre des hommes dans le monde est presque insignifiant comparé à celui de l’ensemble des autres êtres sensibles, et ceux-ci souffrent souvent beaucoup, sans le moindre perfectionnement moral. Un être aussi puissant et aussi riche de connaissance qu’un Dieu capable de créer l’univers étant, pour nos esprits finis, omnipotent et omniscient, nous ne pouvons admettre que sa bienveillance ne soit pas sans limites, car à quoi sert la souffrance de millions d’animaux inférieurs pendant un temps infini ? Cet argument très ancien, opposant l’existence de la souffrance à celle d’une cause première intelligente, me semble fort ; alors que, comme je viens de le montrer, l’existence de la souffrance s’accorde bien avec l’idée que tous les êtres organiques se sont développés par variation et sélection naturelle.

A l’heure actuelle, l’argument le plus courant en faveur de l’existence d’un Dieu intelligent est tiré des sentiments et de la profonde conviction intérieure ressentis par la plupart des gens. On ne peut pourtant pas douter que des hindous, des mahométans et d’autres pourraient argumenter de la même manière, et avec une force égale, en faveur de l’existence d’un Dieu, ou de nombreux dieux, ou bien, comme les bouddhistes, en faveur de la non-existence de Dieu. Il y a aussi de nombreuses tribus barbares dont on ne peut dire à la vérité qu’elles croient en ce que nous appelons un Dieu : elles croient aux esprits ou aux fantômes, et l’on peut tenter d’expliquer, comme l’ont fait Tylor et Herbert Spencer, comment une telle croyance a pu apparaître.

Autrefois, j’étais conduit, par des sentiments tels que ceux que je viens de citer (bien que je ne pense pas que le sentiment religieux ait jamais été très développé chez moi), à la ferme conviction de l’existence de Dieu, et de l’immortalité de l’âme. J’ai écrit dans mon Journal que, lorsqu’on se trouvait au coeur d’une grandiose forêt brésilienne, « il n’était pas possible de donner une idée des sentiments d’émerveillement, d’admiration et de dévotion qui remplissent et ravissent l’esprit ». Je me rappelle bien avoir été convaincu qu’il y a plus dans l’homme que le seul souffle de son corps. Mais aujourd’hui, les scènes les plus grandioses n’entraîneraient chez moi aucune conviction ni sentiment de ce genre. D’une certaine façon, je suis comme un homme qui ne verrait plus les couleurs, et serait devenu incapable de prouver qu’ils ont tort ou raison à tous ceux qui croient en l’existence de la couleur rouge. Cet argument serait valable si tous les hommes de toutes les races avaient la même conviction intérieure de l’existence d’un Dieu ; mais nous savons que c’est très loin d’être le cas. C’est pourquoi je ne peux considérer de tels convictions et sentiments intérieurs comme d’un poids quelconque en faveur de ce qui existe réellement. L’état d’esprit que suscitaient autrefois en moi des scènes grandioses, et qui était intimement lié à la croyance en Dieu, ne différait pas essentiellement de ce que l’on appelle souvent le sens du sublime; et même s’il n’est pas facile d’expliquer la genèse de ce sens du sublime, on ne saurait en faire une preuve de l’existence de Dieu, pas plus que les sentiments puissants mais vagues produits par la musique.

En ce qui concerne l’immortalité, rien ne me montre davantage le caractère puissant et presque instinctif d’une croyance que de considérer le point de vue de la plupart des physiciens, selon lequel le Soleil et ses planètes deviendront un jour trop froids pour que se maintienne la vie, à moins évidemment qu’un corps d’une masse énorme ne heurte le Soleil, lui donnant une vie nouvelle. Pour qui croit comme moi que l’homme, dans un avenir lointain, sera une créature bien plus parfaite que ce qu’il est actuellement, il est intolérable de le penser condamné, comme tous les êtres sensibles, à l’annihilation complète après une aussi lente et immémoriale marche vers le progrès. A ceux qui croient à l’immortalité de l’âme, la destruction de notre monde n’apparaît pas si terrible.

La censure d’Emma

« En fait, je peux difficilement admettre que quelqu’un puisse souhaiter que le christianisme soit vrai; car si c’était le cas, les Ecritures indiquent clairement que les hommes qui ne croient pas, à savoir mon père, mon frère et presque tous mes meilleurs amis, seront punis éternellement. Et ceci est une doctrine condamnable. » Charles Darwin (1809-1882) écrit ces lignes dans le journal qu’il tient au printemps 1876, en vue de raconter à ses enfants certains grands moments de sa vie. Quand ces textes sont publiés en Angleterre, sous le titre The Life and Letters, incluant « An autobiographical chapter » (1887, Murray), ce passage a été coupé. La femme du célèbre naturaliste anglais, Emma Darwin, croyante, comme sa fille Henrietta jugeaient ces passages trop abrupts. Il fallut attendre 1958 pour que la petite-fille de Darwin, Nora Darlow, décide de publier l’intégralité de L’Autobiographie (Collins). Elle s’en expliqua: « il y a soixante-dix ans, par égard aux sentiments de certains amis, il fallut censurer l’âpreté de quelques passages qui non seulement semblent inoffensifs aujourd’hui, mais de plus éclairent puissamment le passé. » Voici donc l’ouvrage en français (la première traduction de Jean Michel Goux parue chez Belin en 1985 a été revue et complétée), il n’a rien d’inoffensif, il révèle combien Darwin refusait tout dogmatisme, tant chez les défenseurs des religions qu’à propos de la théorie de la sélection naturelle, dont il disait « C’est un début, et c’est déjà quelque chose… »

Catégories : Notes de lecture | Étiquettes : | Poster un commentaire
 
 

Le Sexe, l’Homme & l’Evolution

Pascal Picq, Philippe BrenotLe Sexe, l’Homme & l’Evolution, Odile Jacobs, 2009 (lecture, mai-juin 2010).

Dans ce livre, les auteurs sont assez iconoclastes et bousculent un certain nombre de préjugés et d’apriori qui fait de l’Homme une entité à part. Ils proposent une approche ordonnée de la sexualité humaine, de ses origines lointaines jusqu’à ses problématiques actuelles. Dans un langage à la portée de tous, ils présentent les connaissances scientifiques récentes, les différences de comportement entre les animaux d’une part, les animaux et l’homme d’autre part, enfin les évolutions de perception.

Texte de couverture. Si un « bon sauvage » observait nos sociétés, il serait fort étonné de notre obsession affichée pour le sexe. Comme si les femmes et les hommes découvraient enfin la plénitude du sexe ! De la sexologie à la paléoanthropologie, de multiples disciplines nous font aussi mieux comprendre la complexité de nos désirs et de nos comportements. Cet ouvrage propose une approche ordonnée de la sexualité humaine depuis ses origines lointaines jusqu’à ses problématiques actuelles. Sur tous les sujets, il présente les connaissances scientifiques les plus récentes, mais aussi récuse les idées reçues ou les fausses explications. L’orientation, l’attachement, les sentiments, l’amour, la fidélité, la puberté, les apprentissages, la sexualité adulte épanouie, les nouvelles pratiques, les perversions, la pornographie : tous les thèmes clés qui font notre vie érotique. En fil conducteur, une question centrale : qu’est-ce qui est vraiment humain ? Et qu’en était-il de la sexualité de nos lointains ancêtres ?

Geneviève Comby

Le Matin Dimanche – le 05 septembre 2009, 18h17

Si les hommes sont tant attirés par la poitrine des femmes, ce n’est pas forcément en souvenir de la tétée enfantine, mais peut-être plutôt parce que les seins ressemblent à des… fesses!

Question d’évolution. En se redressant sur ses jambes, l’homme a musclé son postérieur, arrondissant ainsi cette zone éminemment évocatrice. Mais une fois debout, nos ancêtres se sont mis à s’accoupler face à face. Un point de vue nécessitant une nouvelle stimulation érotique pour les mâles. La sélection naturelle aurait ainsi mené à l’apparition d’individus de sexe féminin possédant une poitrine dont les courbes rappellent celles des fesses. Spécificité humaine, car nos cousins les primates, eux, n’ont ni la fesse rebondie, ni le moindre appétit sexuel pour les mamelles.

Et malgré nos origines communes, les différences ne s’arrêtent pas là. Contrairement aux singes, nous préférons faire l’amour à l’abri des regards. Chez nous, les mâles n’ont ni testicules ni gland colorés, quant aux femelles, elles peuvent coucher quand bon leur semble et pas seulement en période d’ovulation, période qui, par ailleurs, passe quasiment inaperçue.

Les guenons atteignent aussi l’orgasme

En matière de sexualité, les particularités humaines ne manquent pas. Même si elles ne se situent pas toujours là où on l’imagine. Les singes, eux aussi, sont passés maîtres dans les pratiques érotiques, les guenons atteignent l’orgasme et certains couples de primates copulent volontiers face à face, parfois même dans des positions dignes d’un Kama-sutra acrobatique. Sans parler de l’interdit de l’inceste, loin d’être une invention humaine, comme l’expliquent le paléoanthropologue Pascal Picq et le sexologue Philippe Brenot dans un ouvrage passionnant (« Le sexe, l’homme & l’évolution »).

Entre mutations biologiques et influences culturelles, les deux spécialistes tentent d’éclairer la complexité qui  entoure nos désirs et nos comportements. « Aussi libre que puisse être aujourd’hui notre sexualité, elle est soumise à des contraintes évolutives, relève Pascal Picq. A partir de l’héritage commun que nous partageons avec les grands singes, il est intéressant de voir comment celle-ci s’est modifiée et comment elle a été accaparée par nos références culturelles.»

Le corps érotique de l’homme

Une réflexion fascinante basée sur les données scientifiques les plus récentes, mais qui dévoile aussi le flou, voire le désintérêt qui entourent encore certaines questions, comme par exemple l’évolution des attributs sexuels masculins! Le doute plane en effet toujours autour de la disparition chez l’homme de l’os pénien (tuteur de l’érection pour la plupart des mammifères), remplacé par une érection de taille proportionnellement exorbitante (lire l’encadré)…

« Les représentations féminines sont, depuis la préhistoire, beaucoup plus nombreuses et, même à notre époque, il y a toujours eu bien plus de magazines de charme avec des femmes. En réalité, l’idée que l’homme puisse avoir un corps érotique est extrêmement récente, relève Pascal Picq. Et en ce qui concerne la taille du pénis ou la mécanique phénoménale de l’érection, on en est effectivement encore au stade des spéculations. »

C’était pourtant plutôt flatteur, alors d’où vient le malaise ? « Il ne s’agit pas uniquement d’une question de pudeur »,  note le paléoanthropologue. Pour lui, depuis les Grecs, l’homme a toujours tenté de se singulariser du monde animal: « Notre culture occidentale nous a légué une angoisse de cette animalité. »

Une angoisse peut-être renforcée par le fait que le sauvage n’est pas toujours celui qu’on croit. « Ah ça, notre espèce n’est pas glorieuse, assène Pascal Picq. Parmi les grands singes, c’est l’homme qui est le plus incestueux, c’est l’homme aussi qui est le plus violent avec ses femelles ! » Le viol, grande spécialité humaine, en est malheureusement la preuve cinglante.

Trois particularités de la sexualité humaine

Une érection phénoménale

Prenez un gorille: 2,20 m de haut et une érection de 3 cm. Comparez-le à un homme: 1,80 m et 12 cm ! Un pénis surdimensionné, et ça n’a rien à voir avec son taux de fécondité. Alors pourquoi ? On sait que, contrairement aux primates avec lesquels il partage des ancêtres communs, l’être humain ne possède plus d’os pénien. Un tuteur osseux dont la disparition a sans doute été compensée par l’apparition d’un mécanisme érectile puissant, permettant la rigidité nécessaire au coït. Mais quant à l’origine de cette transformation… La bipédie, en approfondissant et en projetant en avant le vagin, a-t-elle favorisé les pénis plus longs ? Ou la sélection s’est-elle faite par les femmes qui préféraient le contact plus doux d’un sexe doté d’un os pénien plus petit ? Les scientifiques n’ont pas encore élucidé le mystère.

 

L’homosexualité
L’homosexualité ne fait pas partie du monde animal. En tout cas, pas exactement comme certains voudraient le croire. Si les primates adoptent parfois une attitude de femelle face au mâle dominant, c’est avant tout pour mimer leur soumission. Quant aux véritables interactions intimes entre animaux de même sexe, elles ont surtout lieu par manque de partenaire lors d’un déséquilibre numérique entre mâles et femelles. Il ne s’agit donc pas d’une sexualité de préférence, mais de compensation, comme ce qui se passe chez les êtres humains en milieu carcéral. Seul semble faire exception le bonobo. Comme l’homme, celui-ci a peut-être tout simplement réussi à « se libérer suffisamment de sa modélisation naturelle  pour s’accoupler librement avec quelque objet sexuel que ce soit », avancent Pascal Picq et Philippe Brenot.

La prostitution

Le plus vieux métier du monde est-il né avec l’humanité ? On dirait bien. En tout cas, les spécialistes n’observent rien de comparable au sexe « monnayé » chez nos cousins primates. Certes, en période de rut, une guenon peut s’accoupler avec une dizaine de partenaires à la suite, mais il faut rappeler que, dans le monde animal, le mâle est obligé d’attendre que la femelle soit disponible pour copuler, qu’elle lui donne le feu vert. Et pas l’inverse ! Une liberté qui semble bien avoir disparu avec l’humanité et la domination masculine. La prostitution est apparue pour répondre au besoin de sexe inassouvi de certains et s’est ensuite inscrite plus profondément dans les moeurs avec l’interdit de l’adultère et la prise de conscience, par les hommes, du lien de cause à effet entre accouplement et paternité…

 

Catégories : Notes de lecture | Étiquettes : | Poster un commentaire
 
 

L’Evolution – Histoire et contreverses

Buican Denis, Grimoult Cédric (2011) – L’Evolution – Histoire et controverses, CNRS Editions (lecture, novembre 2011).

Avant de faire la recension de l’ouvrage, je pense utile de présenter les deux auteurs de celui-ci.

 Denis Buican, Dumitru Peligrad selon son nom d’origine roumaine, est né le 21 décembre 1934 à Bucarest. Il est biologiste, philosophe et historien des sciences.

Pionnier de la radiogénétique en Roumanie (ses premières études portent sur l’influence de l’électricité sur la vie des plantes), ingénieur agronome (1956), docteur en génétique (1961), puis professeur à l’Université de Bucarest, il combat les théories de Lyssenko, imposées dans les Etats communistes à partir de 1948 (ses laboratoires sont détruits à trois reprises et lui-même banni de l’université à la fin des années 1950). Dans son premier livre, publié en roumain en 1969, Biologie générale, génétique et amélioration, Denis Buican n’hésite pas à s’attaquer au lyssenkisme officiel.

Fuyant la dictature communiste, il s’installe à Paris en 1969, à l’occasion d’un congrès international. Naturalisé français en 1972, il entreprend une œuvre d’historien et de philosophe des sciences, matérialisée par sa thèse d’État (1983) : Histoire de la génétique et de l’évolutionnisme en France. En 1989, son livre La révolution de l’évolution obtient un Grand Prix de l’Académie française. En 1997, il préside la section « Biologie et sciences médicales » du XXe Congrès international d’Histoire des Sciences Liège (Belgique).

Professeur d’histoire des sciences à l’Université-X Paris-Nanterre (1983-2003), il est l’auteur d’une nouvelle théorie de l’évolution, la théorie synergique de l’évolution. Il a également élaboré une nouvelle théorie de la connaissance, la biognoséologie.

 Cédric Grimoult est professeur agrégé d’histoire, docteur en lettres et sciences humaines. Il enseigne à l’Université Paris-X Nanterre depuis 1997. Il l’auteur de plusieurs livres de référence, concernant la dynamique et la philosophie des idées scientifiques, notamment de « Evolutionnisme et fixisme en France : histoire d’un combat (1880-1882) »,  publié au CNRS.

Est-ce un nouvel ouvrage sur l’évolution de l’évolutionnisme comme tant d’autres ? Que présente-t-il de particulier par rapport à l’ensemble de la littérature sur le sujet ? Comme les auteurs l’annonce dans leur avant-propos, l’ouvrage présente l’histoire de l’évolutionnisme « à la lumière de la théorie synergique […], une nouvelle théorie qui prolonge et étend les éléments majeurs du darwinisme à tous les niveaux d’intégration du vivant : moléculaire, cellulaire, individuel, populationnel, parmi les plus importants. La sélection doit désormais être considérée comme multipolaire […]. »

Cette théorie, développée par Denis Buican, entend actualiser et complèter la théorie synthétique qui pris naissance au cours des années 1930 et 1940.

Pour rappel, la théorie synthétique de l’évolution constitue le cadre conceptuel largement utilisé dans l’étude scientifique des processus d’évolution en biologie. Elle intègre la théorie de l’hérédité mendélienne et la génétique des populations à la théorie darwinienne.

Dans les cinq premiers chapitres, les auteurs retracent l’histoire des théories de l’évolution en mettant en évidence les ressorts idéologiques et politiques qui sous-tentent celles-ci, et en démontrant que, « si l’évolution est un fait concret, les théories qui en rendent compte sont toujours perfectibles en fonction des avancées et découvertes scientifiques ». Un des points d’orgue de cette histoire, correspond à la théorie de l’évolutionnisme général basée sur la sélection naturelle, qui finit par s’imposer dans le milieu scintifique et dans l’opinion publique, grâce à Charles Darwin.

Le chapitre 6 touche à la science de l’hérédité avec la redécouverte des travaux de Mendel en 1900 et de la théorie chromosomique de Morgan. La génétique étudie la base biologique de tout changement évolutif et offre un socle pour la compréhension des mécanismes fondamentaux de la transformation des espèces.

Dans le chapitre suivant, ayant étudié les failles de la théorie synthétique, qui dominait dans les années 1950, Buican dévelope sa théorie synergique de l’évolution. La sélection naturelle mise en évidence par Darwin ne s’appliquant qu’au phénotype et certains phénomènes, comme les mutations létales, n’étant pas suffisamment pris en compte, il introduit « une notion nouvelle dans le processus héréditaire et évolutif : la pré-sélection génotypique », qui peut être définie « comme l’opération naturelle qui élimine à priori, au niveau du génotype, toute combinaison génétique ou toute mutation impropre à la survie de celui-ci ». La théorie synergique envisage une sélection multipolaire, capable de jouer à tous les niveaux du vivant, de l’atome à la société en passant par le génome et l’organisme.

Dans la logique de cette nouvelle théorie, si l’évolution des espèces n’est pas linéaire, mais buissonnante, il en est de même pour l’évolution des comportements, et de tout autre caractère.

Le reste de l’ouvrage s’attaque aux controverses héritées d’un dogmatisme figé qui ont trop souvent entravées la dynamique des théories évolutionnistes, que se soient des messianismes laïques comme le néolamarckisme tardif et le lyssenkisme, ou des doctrines pseudo-scientifique basées sur les dogmes bibliques, comme les créationnismes du XXe siècle et l’ « Intelligence Design » actuel.

D’une écriture souple et d’une lecture aisée, cet ouvrage est vivement conseillé. Il résume très bien l’évolution des idées sur l’évolutionnisme depuis les anciens Grecs jusqu’à nos jours. La partie un peu plus scientifique qui traite de l’hérédité et de la théorie synergique de l’évolution est d’un abord facile.

Sources :

http://fr.wikipedia.org/wiki/Denis_Buican

Catégories : Notes de lecture | Étiquettes : | Poster un commentaire
 
 

Evolution, révolution !

Quel est le lien entre les deux articles qui constituent ce bulletin ? Qui a-t-il de commun entre l’évolution des idées sur l’évolutionnisme et les forages polaires ? Le premier s’attache à analyser l’évolution des mentalités des scientifiques précurseurs de Darwin, tandis que le second, montre que l’étude des carottes de glaces permet de reconstituer le climat sur de longues périodes du temps passé, et de comprendre l’évolution de celui-ci, sujet fort préoccupant de nos jours.

Le point commun  c’est tout simplement l’évolution de deux phénomènes : d’un côté celle des esprits, des mentalités, de l’autre celle du climat.

 Evolution est synonyme de changement, de transformation graduelle et continue. Si ce changement se fait brusquement on parle de révolution. Dans ces deux cas nous sommes dans une dynamique qui se traduit par une succession de faits, d’événements que l’on peut relater, nous entrons dans l’Histoire.

 L’idée d’évolution des espèces préconisée par Darwin dans son œuvre principale n’a pas toujours prévalue. Un courant, qui malheureusement a encore des adeptes de nos jours, a défendu la fixité de celles-ci et leur apparition par un acte créateur unique. Ce créationnisme, purement statique, ne permet pas d’écrire l’Histoire, car les choses doivent rester en l’état depuis leur origine. Aucune évolution, aucun changement n’est possible dans ce concept. Malgré ce blocage, certains savants ont défendu une théorie qui permettait de redonner un certain dynamisme ; ce sont les catastrophistes dont le principal défendeur était Cuvier. Pour respecter l’esprit des Ecrits Saints, ils imaginèrent une création multiple après chaque « révolution du globe ».

D’un autre côté, certains érudits eurent des intuitions transformistes qui permirent une évolution plus dynamique de la pensée et qui poussera Darwin de développer sa théorie, ouvrant ainsi un vaste horizon à la connaissance des Sciences naturelles.

 Le grand débat actuel est le « réchauffement climatique » dû aux activités anthropiques. Les plus pessimistes prédisent des lendemains funestes et la possibilité de la disparition de notre espèce. Les plus réalistes ont compris que le changement climatique est inscrit dans l’Histoire de la Terre et que le réchauffement actuel n’est pas le premier. Ce qui les inquiète, c’est l’ampleur et la rapidité du phénomène qui inévitablement entraînera des modifications environnementales qui peuvent s’avérées catastrophiques (inondations, tornades, cyclones, montée du niveaux des mers, etc.). Il est évident que des actions préventives immédiates doivent être entreprises afin d’atténuer le phénomène et de permettre à l’humanité de s’adapter plus progressivement au changement climatique. De toute façon, celui-ci est irréversible dans l’immédiat et il sera suivi d’ici quelques millénaires par un retour vers une période glaciaire. Quoique l’on dise, quoique l’on fasse, en définitive, la Nature aura toujours le dernier mot et notre espèce est une espèce comme les autres qui a un temps de vie limité comme toutes les autres. Notre savoir technologie nous permettra peut-être de prolonger celui-ci quelque peu. Nous sommes des passagers temporaires sur ce grand navire qu’est notre Planète. Nous devons prendre conscience que notre bien-être est fonction de la bonne préservation de notre environnement qui évolue naturellement en fonction de pressions externes et du dynamisme de la Terre. Afin de suivre son évolution, nous devons nous y intégrer harmonieusement et d’éviter d’accélérer certains mouvements par nos actions inconsidérées.

 La Rédaction

(Editorial paru dans le Bulletin du G.E.S.T de mai 2011)

Catégories : Editoriaux | Poster un commentaire
 
 

Enfin Dieu n’a plus l’exclusivité !

La nouvelle est tombée le vendredi 21 mai 2010. Un vrai scoop dans le milieu de la biologie génétique ! Graig Venter, généticien américain, annonce la création d’une cellule « synthétique » « totalement dérivée d’un chromosome synthétique, fabriqué à partir de quatre bouteilles de produits chimiques dans un synthétiseur chimique, d’après des informations stockées dans un ordinateur » (dixit l’inventeur). Toutefois, il faut tempérer la nouvelle, car en fait, seul le génome est synthétique et est une copie de celui de la bactérie Mycoplasma mycoides. Pour que celui-ci s’exprime, il a fallu l’insérer dans une bactérie « naturelle » dont on avait extirpé l’ADN. N’empêche, l’exploit  est là !

Ce génome, dans lequel les scientifiques avaient inscrit des filigranes afin de prouver son origine artificielle, avait été assemblé par étapes, à l’intérieur d’une levure. Ensuite, le chromosome avait été extrait et injecté dans la bactérie réceptrice M. capricolum. Après plusieurs mois de transplantations infructueuses, une colonie de bactéries bleues s’est mise à proliférer, la greffe avait enfin pris.

Graig Venter et son équipe n’en sont pas à leur premier coup médiatique. En 1995, ils réalisent pour la première fois le séquençage des 600.000 bases du chromosome de la bactérie Mycoplasma genitalium. En supprimant des gènes un à un, les chercheurs constatent qu’en passant de 500 à 400 gènes, la bactérie ne semblait pas affectée. Ce sont ces résultats, obtenus en 2003, qui ont conforté Venter à rechercher le génome minimal, nécessaire et suffisant pour perpétuer la vie.

 A l’annonce de cette nouvelle, les instances religieuses ont réagi immédiatement, en exprimant leur perplexité et leur inquiétude. « L’homme vient de Dieu mais il n’est pas Dieu : il reste humain et a la possibilité de donner la vie en procréant et non pas en la construisant artificiellement » déclare le président de la commission pour les affaires juridiques de la Conférence épiscopale italienne, l’évêque Domenico Mogavero. Des questions éthiques se posent également, quand à l’utilisation dévoyée de cette découverte. Des réactions analogues avaient suivi l’annonce du clonage de la brebis Dolly, en 1996. Aujourd’hui, les recherches dans ce domaine se poursuivent sans plus provoquer la moindre réaction.

 

On peut se poser la question de savoir s’il faut interdire ce genre de recherche scientifiques ou pas ? La science en elle-même est une discipline respectable et il est nécessaire qu’elle progresse quelque soit le domaine qu’elle aborde. Par contre les technologies qui en découlent doivent répondre à des critères éthiques indéniables, quoique ceux-ci soient parfois ambigus. Rappelons-nous l’utilisation de la fission nucléaire pour la fabrication des bombes atomiques qui a, soi-disant, été nécessaire pour mettre un terme à la guerre du Pacifique en 1945. Le débat qui en suivi jeta le discrédit sur l’utilisation pacifique de cette découverte.

 Dans le cas qui nous occupe, les retombées peuvent être vraiment bénéfiques. L’équipe de Venter se penche déjà sur la possibilité de concevoir des algues synthétiques capables d’absorber le CO2 atmosphérique et d’obtenir des carburants propres. C’est l’une des nombreuses possibilités d’améliorer nos conditions de survie.

 Laissons faire la science, mais mettons des parapets afin de contenir son usage dans des technologies douteuses.

La Rédaction

(Editorial paru dans le Bulletin du G.E.S.T. de juillet 2010)

Catégories : Editoriaux | Poster un commentaire
 
 

L’énergie de demain

Pour ceux que le nucléaire inquiète, voici des propos réconfortants. Nous avons reçu une invitation à participer à une conférence sur le thème du titre de notre éditorial. Malheureusement, nous n’avons pu y assister car déjà sur la route des vacances. La présentation de celle-ci nous semblait prometteuse, aussi nous pensons utile de vous la soumettre.

 Dans le courant du mois de mars dernier, le Gouvernement Fédéral a décidé la mise au point, à Mol, d’un réacteur nucléaire expérimental, appelé MYRRHA, qualifié par les experts internationaux de projet « unique et innovant ». Le professeur Hamid Aït Abderrahim, qui était le conférencier, dirige ce projet.

 Dans un premier temps, le réacteur expérimental MYRRHA remplacera le réacteur BR2 qui, depuis 1962, également à Mol, produit des radio-isotopes médicaux utilisés pour le diagnostic et la lutte contre le cancer pour près de 30% des besoins mondiaux. Le réacteur BR2 produit également mondialement 40% du silicium dopé pour l’électronique de puissance, nécessaire notamment pour la construction des véhicules hybrides. Le nouveau réacteur assurera la continuité de ces productions mais aura d’autres possibilités, dont la recherche sur les matériaux des réacteurs du futur.

 Depuis plus de 70 ans, les ingénieurs belges travaillent à la fois sur le nucléaire et sur les accélérateurs de particules, domaines où leur expertise unique est reconnue mondialement. Ces deux technologies doivent permettre la construction de centrales nucléaires qui devront répondre aux critères suivants :

  1. produire 100 fois plus d’énergie qu’actuellement pour la même quantité d’uranium et donc d’en réduire le coût ;
  2. réduire la nocivité des déchets dans le temps par un facteur 1.000 ;
  3. assurer la pérennité de l’approvisionnement et l’autonomie énergétique de l’Europe ;
  4. éliminer le risque d’emballement de réactions en chaîne (cœur sous-critique) ;
  5. pouvoir réutiliser et brûler les déchets actuels ;
  6. empêcher la prolifération nucléaire (armement).

 Ces engagements techniques sont une réelle avancée dans ce domaine, car les centrales nucléaires de nouvelle génération seront plus faciles à piloter et présenteront encore moins de risque d’exploitation que les générations actuellement en service. De plus, elles répondront aux défis climatiques et énergétiques qui se présentent à l’humanité. Leur utilisation judicieuse permettra, en plus de produire de l’électricité, de fabriquer de l’eau douce à partir d’eau de mer et ainsi contribuer à réduire la faim dans les zones défavorisées.

En outre, le problème des déchets nucléaires à longue durée de vie sera en partie résolu par leur ré- exploitation en tant que combustible et à leur élimination dans ce nouveau type de réacteurs.

 Quoiqu’il en soit, le nucléaire vu sous cet angle est la seule solution valable de transition pour produire l’énergie dont nous avons de plus en plus besoin avant d’arriver à maîtriser la fusion beaucoup plus prometteuse. Le projet ITER, de niveau international, qui démarre en France dans le centre de recherche de Cadarache (Bouches-du-Rhône) ne donnera sa pleine mesure que d’ici quelques décennies.

 En attendant, le nucléaire a encore de beaux jours devant lui, sauf si le politique en décide autrement afin de satisfaire certains lobbys de pression qui voit leur intérêt dans d’autres domaines.

La Rédaction

(Editorial paru en septembre 2010)

Catégories : Editoriaux | Poster un commentaire

Les notes ʺbleuesʺ de lecture

J.-P. Schroeder (2014) – Le Jazz comme modèle de société, Académie Royale de Belgique, coll. « L’Académie en poche ».

Il faut remercier Jean-Pol Schroeder d’avoir commis ce petit ouvrage et d’y avoir fait participer Steve Houben et ses deux guitaristes dans un contre-chant appuyant son propos. Il faut également remercier l’Académie Royale de Belgique de l’avoir publié. Nos deux comparses sont bien connut du milieu ʺjazzistiqueʺ national et international.

Jean-Pol Schroeder, conservateur de la Maison du Jazz à Liège, est un spécialiste reconnu de l’histoire du jazz. Il nous régale chaque année, lors de ses cycles sur l’Histoire du Jazz, à Liège comme à Bruxelles, par ses anecdotes et ses documents visuels souvent inédits.

Steve Houben, notre saxophoniste et flûtiste national, a eu le privilège d’entrer à l’Académie, où il représente le Jazz. Cette admission parmi ce cénacle des Sages prouve que cette forme musicale particulière est enfin reconnue à sa juste valeur.

Dans cet essai, Jean-Pol tente de développer l’idée du jazz comme modèle de société. Contrairement à la majorité des ʺHistoires du Jazzʺ, l’auteur prend le problème à contre sens au risque de s’attirer les foudres des esprits ʺbien pensantsʺ et des défenseurs du ʺpolitiquement correctʺ.

En ouverture, il rappelle l’accueil de Louis Armstrong, le 21 novembre 1934, sur la scène du Théâtre Royal de Liège où cette ʺmusique de nègreʺ a été vilipendée par toute la critique de l’époque, pour, quelques années plus tard, être portée aux nues par les mêmes. A chaque nouveau courant les réactions furent identiques, une période de rejet, puis une acceptation du bout des lèvres et enfin pour certains, une acceptation tout court. C’est ainsi que j’ai retrouvé sous la plume d’un certain L. P. Verdeaux dans sa ʺNouvelle Histoire du Jazzʺ, publiée en 1968, cette déclaration péremptoire : « Le bop n’est pas du Jazz. En effet, le ʺbopʺ non seulement n’est pas une évolution du Jazz, mais il n’a rien à voir avec lui ». Il semblerait que ces propos auraient pour origine une déclaration de Charlie Parker mais il faut les resituer dans leur contexte.

Revenons à Jean-Pol. Dans cet essai, il étendra son propos à l’art tout court et à ses rapports avec le monde. Et c’est là, en revenant au jazz qu’il a fréquenté depuis plus de 40 ans que l’auteur veut nous persuader que cette musique ʺengagéeʺ ou plutôt ʺenragéeʺ « peut, d’une certaine manière, être considérée comme un modèle de société ».

Et de poursuivre : « […] le jazz me semble apte à nous familiariser avec de nouveaux modes de fonctionnement, avec une manière inédite de concevoir les relations humaines, avec une série de paradigmes susceptibles d’alimenter une nouvelle manière de penser les problématiques auxquelles notre monde est confronté » (p. 18).

Il est à remarquer que cette notion de paradigme apparaît à travers tout le texte. L’un de ceux-ci est la « valorisation de la différence » que l’on retrouve dans tout morceau de jazz. Chaque musicien affiche son propre style, son propre son, dont la somme génère un son d’ensemble d’une richesse tributaire de cette « différence ».

Une autre constatation se porte entre la musique dite « classique » et le jazz. Dans la première, c’est le compositeur qui prime. Les exécutants se contentent de reproduire la partition, en y mettant bien sûr leur signature selon leur tempérament. En jazz, ce sont les musiciens, les exécutants qui ont la vedette. Ils peuvent s’exprimer librement dans le cadre des solos qui leur sont accordés et ainsi affirmer leur individualité. Pour revenir au paradigme précédent, cette individualité se fond dans une communauté qui l’accompagne, le soutient.

Cette double approche permet d’apporter, au niveau politique et social, un éclairage nouveau suggérant des solutions, ou du moins des pistes de changement remettant en cause les concepts basiques sur lesquels s’appuient la gestion de notre société. En termes simples, tirons une première conclusion qu’il est possible d’allier les différences et de vivre ensemble en parfaite harmonie, cqfd !

Dans la suite de cet essai, l’auteur tente de décrypter ces paradigmes. Mais avant cela, il va poser quelques pré-requis indispensables pour comprendre le sens du jazz. Il rappelle que cette musique est un métissage issu « de la rencontre dans le creuset de la civilisation américaine, d’éléments de culture européenne importés par les colons blancs (Irlandais, Italiens, Anglais, Français, Espagnol) et d’éléments de culture africaine importés par les esclaves noirs » (pp.21-22).

Il en tire une première constatation que ce « métissage se présente comme une superbe et lumineuse valorisation de la différence, une vue comme facteur d’enrichissement et source d’émergence » (p. 23).

Jean-Pol Schroeder rappelle également que c’est l’arrivée de ces milliers d’esclaves en provenance d’Afrique sur le territoire américain qui a permi l’éclosion d’une forme de musique afro-américaine avec ses spécificités selon les zones géographiques : blues, jazz… en Amérique du Nord, bossa nova, salsa, reggae… en Amérique centrale et du Sud. Pour ces populations, la musique fait partie intégrante de la vie quotidienne. Tout se résout en chant et rythme. Cela se retrouve dans les ʺfield hollersʺ et les ʺwork songsʺ et dans les chants d’église, ʺnegro-spiritualsʺ et ʺgospelsʺ. Les différentes formes que le jazz a pris au cours de son histoire sont étroitement liées au contexte sociale et politique de l’époque : musique populaire et de plaisir dans les bouges de la Nouvelle-Orléans ; période swing à l’époque de la prohibition, avec un rapport marqué à l’alcool et la drogue en réaction à l’hypocrisie bien pensante ; be-bop, hard-bop, free jazz lors des grandes manifestations de revendication du peuple noir.

Dans un deuxième chapitre, Schroeder appuie son argumentation par des exemples assez percutants.

L’exemple 1 relie l’ʺUnderground railroadʺ (voies d’évasion vers le Nord) à l’Ancien Testament. Les ʺnegro-spiritualsʺ servant de langage codifié pour correspondre : le Jourdain évoque le Mississippi ; la Terre promise, les Etats du Nord et le Canada, etc.

Dans un autre exemple il relie la naissance du be-bop aux premières émeutes à caractère racial, conséquence des années de guerre durant lesquelles les Noirs étaient considéré comme de la chair à canon et n’avaient aucun droit.

Plus loin, il définit le free jazz comme une négation et le plus « bel exemple de collusion entre jazz et politique ».

Dans ce contexte de liberté et de révolte, le jazz fait peur aux pouvoirs forts, aux dictatures qui ont toujours essayé, en vain, de museler ce mode d’expression. C’est le sujet du chapitre 3.

Dans le chapitre suivant, l’auteur revient sur les différents paradigmes soulevés dans les chapitres précédents. Pour lui, exception faite du swing, « les caractéristiques du jazz sont liées aux africanismes présents dans le jazz » : le rythme, le timbre, l’improvisation, le call and response, les blue notes.

Concernant la place et la qualité du rythme dans le jazz, elles sont totalement différentes de celles que nous donnent à entendre la musique dite « classique ». Dans cette dernière, le rythme est suggéré, les instruments de percussion sont peu nombreux et se limitent à accentuer certain traits musicaux, tandis qu’en jazz il est appuyé et souvent polyrythmique du fait de l’importance de la batterie, instrument typiquement ʺjazzʺ. Je reprends maintenant les conclusions de Jean-Pol Schroeder :

« […] en termes de paradigmes, on retiendra que cette rupture marquée par le jazz à la tradition occidentale illustre la mise en avant de la composante rythmique et suppose dès lors une acceptation et une valorisation du corps et de la chair, parallèlement à celle de l’esprit et ce sans soumission de l’une à l’autre ; et que la polyrythmie illustre quant à elle le passage d’une pensée « simple » (avec pour limite la pensée unique) à une pensée « complexe » ouverte aux notions de rétroactions, d’émergence, de désordre organisateur, de non-rationalité, etc. » (pp. 62-63).

Passons maintenant au timbre. Ici, à nouveau, il existe une énorme différence entre les deux cultures musicales. En musique occidentale, le ton doit être clair, précis, lisse, sans bavure, correspondant à l’instrument.
« A l’inverse, en Afrique, puis dans le jazz, chaque instrumentiste a à cœur de triturer le son de toutes les manières possibles et imaginables, afin de rendre sa sonorité personnelle et expressive » (p. 64).

Concluons à nouveau avec l’auteur :

« […] aux paradigmes du conformisme, du modèle, de l’étalon, du clonage, se substitue de manière lumineuse celui du respect de la différence. Mieux de la valorisation de la différence, considérée non plus comme un danger, mais comme un bonus au service de la collectivité – qui, elle-même, revalorise en retour chacune des sonorités. En outre, les critères usuels définissant le « beau » cèdent le pas aux urgences de l’expressivité, ouvrant ainsi les vannes à autant d’univers et de possibles jusqu’alors inexplorés » (p. 65).

« On le sait, le jazz est une musique centrée sur l’improvisation […] » (p. 66). A l’origine, le musicien de jazz, ne sachant pas lire la musique et n’ayant pas suivi de cours, reproduisait d’oreille ce qu’il entendait perpétuant la tradition orale africaine. Ensuite, lorsque compositeurs et arrangeurs se mirent à la notation musicale, ils laissèrent une part importante à l’improvisation, s’effaçant derrière le soliste. Au fil du temps on constate une évolution dans l’improvisation. Au départ, d’essence mélodique avec des solistes comme Armstrong, elle se tourne vers les harmonies à l’époque swing, pour se complexifier avec l’arrivée du be bop qui introduit des altérations et des accords de passage. Coltrane dans les années 60’ se lance dans une sorte de gymnastique cérébrale en jouant sur le changement constant de tonalité (Giant Steps). Ensuite les grands solistes se lancent dans l’improvisation modale. Et pour finir, le free jazz s’écarte de toutes règles pour prôner l’improvisation libre de toute contrainte.

Pour revenir aux paradigmes on peut dire que « l’improvisation abandonne le programme au profit de la stratégie, la conduite adaptée n’étant plus celle qui obéit à une consigne ou à un code préétabli mais celle qui, tout simplement convient le mieux à la situation hic et nunc » (p. 70).

« Enfin, improviser, n’est-ce pas aussi « prévoir l’avenir dans une quasi immédiateté », et s’attacher à réagir de la manière la plus pertinente qui soit aux défis que se présentent ? Ici encore, le jazz offre sinon un modèle en tant que tel, du moins des pistes de réflexion qu’il serait absurde d’ignorer » (p. 71).

Une autre caractéristique du jazz qui peut au départ choquer les oreilles des puristes occidentaux est l’introduction des ʺbleu notesʺ dans le discours musical. Les Occidentaux sont habitués à une échelle de sons discontinue (tons et demi-tons). Par contre, la musique afro-américaine avec ses notes bémolisées jugées « fausses » donne l’impression d’une continuité sonore et d’une certaine indiscipline des musiciens qui les utilisent.

Pour reprendre les termes de Jean-Pol Schroeder avançons que :

« Esthétiquement, cette pratique d’indiscipline (dans les deux sens du terme) loin de déforcer la musique, lui confère un supplément d’âme, de puissance ET de cohérence. Idéologiquement, la pratique des blue notes, au-delà de l’appartenance communautaire qu’elle suppose, s’apparente ici encore à une pratique politiquement incorrecte et à un refus de la norme et du dogme » (p. 74).

Dès l’origine le ʺcall and responseʺ fut une sorte de dialogue codé entre protagonistes, que ce soit les ʺwork songʺ, les ʺpreachesʺ, les ʺbluesʺ, puis le jazz tout court. Ainsi :

« Par la musique, l’Africain et le jazzman à sa suite, marquent leur appartenance, développent outils et messages, affirment leur solidarité avec les membres de leur communauté – sans se départir de leur liberté individuelle. Le dialogue musical reflète le dialogue tout court, et ce à divers niveaux. Le système dit du call and response (appel et réponse) y est omniprésent » (p. 75).

« Le call and response est donc bien davantage qu’un simple dialogue dûment préparé au service de l’improvisation, il inclut un système codé de relation entre musiciens, et un système libre de relations entre musiciens et public. Le tout fonctionnant davantage comme une stratégie de l’instant que comme un programme préétabli (et revoici les paradigmes) » (p. 78).

Poussé à l’extrême le ʺcall and responseʺ peut mener à la transe. Et justement :

« En termes paradigmatiques, le rapport à la transe évoque la quête d’un réel élargi, au-delà des normes et des usages, au-delà du quotidien – une altération de la conscience qui conteste la conception normative et rationnelle de l’Univers et de la société » (p. 80).

Le jazz est une musique qui résiste à l’écriture. En effet, il est impossible de réduire le swing en équation, ce balancement qu’il est quasi impossible de définir et qui provoque des débats sans fin entre puristes du jazz. Il s’agit en fait d’ « une complexité méta-logique mais hautement naturelle et qui nous souffle à l’oreille que le simplisme réducteur, en politique, en économie ou en musique, est sans doute le pire ennemi d’une perception correcte du réel » (p. 84)

Ensuite, Jean-Pol Schroeder se penche sur l’évolution générale de ce genre musicale et sur son avenir. S’agit-il d’une simple mode comme certains courants auraient pu le laisser croire (New Orleans, swing, be-bop…) ou d’un genre musical au même titre que la musique classique ? Le jazz est devenu universel. De l’image de l’arbre on passe à celle du delta. Nouvelle image qui implique une coexistence des différents styles, anciens et nouveaux, avec une interpénétration entraînant de nombreux métissages. Dans cette perspective, quelle est l’avenir du jazz : un essoufflement avec perte de créativité ou évolution comme la musique classique. Seule l’avenir nous donnera la réponse.
Cette situation provoque une réflexion sur un phénomène comparable mais dans un autre domaine, celui du développement durable, actuellement remis en question par bon nombre de citoyens.

Dans « Solibertude ou libertarité », notre auteur débute son chapitre par ces propos :

« Si les caractéristiques dont il vient d’être question s’avèrent porteuses de paradigmes aisément transposables dans les sphères socio-économique et politique, le schème le plus directement subversif et le plus indéniablement apte à servir de modèle à un nouveau type de relation sociale, est sans conteste la manière particulière dont le jazz articule les intérêts de l’individu (le soliste) et la collectivité (le groupe). Une articulation qui réduit à néant des décennies voire des siècles d’idéologies réductrices » (p. 91).

Maintenant en nous tournant vers les dernières décennies de notre histoire nous constatons que nous avons vécu une dichotomie flagrante : soit l’épanouissement de l’individu prime sur le bien-être de la collectivité (conception capitaliste – libérale), soit la gestion de la collectivité prime sur l’individu (conception communiste – collectivisme). Dans les deux cas un choix et un sacrifice a été fait.

La conception philosophique que l’on peut déduire de la musique africaine et par extension afro-américaine peut peut-être nous donner une approche différente.
Pour reprendre le texte de Schroeder :

« En d’autres termes, en jazz, plus les solistes sont libres (pour autant qu’ils aient appris à gérer leur liberté), plus le groupe est soudé au bout de compte ; et corollairement, plus le groupe est soudé, plus les solistes peuvent laisser exploser leur liberté d’improvisation ! » (pp. 93-94).

Cela peut se traduire par une boucle que l’on peut lire de cette façon : « L’individu fait le groupe qui fait l’individu » ou « La liberté fait la solidarité qui fait la liberté ». Cette vision ne laisse la priorité à aucun des deux pôles et au contraire laisse la porte ouverte à toutes les possibilités. Notamment à un monde politiquement incorrect « qui fleure bon la révolte et l’empathie. Un monde libre et solidaire, d’autant plus libre qu’il est solidaire et inversement. Un monde qui ne craint pas la différence mais la valorise – loin des conformismes, des étalons et des clonages. Un monde imparfait et fier de l’être. Un monde qui reconnaît et donne du sens au droit à l’erreur, rejetant corollairement l’excellence obligée et la tolérance zéro. Un monde d’où toute pensée unique est balayée au profit d’une saine complexité. Un monde où le matériel et le physique sont en phase avec le spirituel. Un monde qui privilégie l’expressivité aux modèles figés. L’originalité à la technique. Un monde régit par les rétroactions plutôt que par les causalités immuables. Un monde démocratique hostile à la soumission. Un monde où l’on préfère la souplesse de la stratégie à la rigueur du programme. Où l’on travaille à réagir dans l’instant aux défis. Où l’on insère le qualitatif au cœur de la notion de développement. Un monde de l’order from noise » (pp. 95-96).

Ce livret est accompagné d’un CD reprenant les morceaux suivants arrangés par Steve Houben :

– Ana Maria (Wayne Shorter)
– Black Beauty (Duke Ellington)
– Fables of Faubus (Charles Mingus)
– Moose the Mooche (Charlie Parker)
– Wonderfull World (Bob Thiele & George David Weiss)

Ils sont interprétés par Houben au saxo, Jacques Pirotton et Quentin Liégeois aux guitares.

Catégories : Notes de lecture | Étiquettes : | Poster un commentaire

L’ANGLETERRE PREND LA RELEVE

Article paru dans le Bulletin du G.E.S.T., N° 132, juillet 2005

Dossier « Nucléaire » XIV

 

Robert SIX

I. LA RECHERCHE EN GRANDE BRETAGNE EN 1940

En Grande-Bretagne, plusieurs équipes universitaires travaillent sur la fission nucléaire, indépendamment les unes des autres. Ce sont, le très célèbre laboratoire Cavendish de l’université de Cambridge, où James Chadwick découvrit la nature du neutron en 1932; les laboratoires des universités de Birmingham et d’Oxford, l‘Imperial College de Londres. Le pays est l’un des principaux foyers mondiaux de recherche fondamentale en physique nucléaire. Il suffit de se rappeler :

  • Ernest Rutherford (1871-1937) qui découvrit la radioactivité du thorium en 1899 et mis en évidence, les rayons α et β émit par le rayonnement des radioéléments; sa loi des transformations radioactives énoncée avec Soddy, et bien d’autres contributions à l’avancement dans la connaissance de la physique nucléaire;

  • James Chadwick (1891-1974) qui étudia la charge des noyaux et la désintégration artificielle, mit en évidence l’effet photo-électrique, et son neutron, bien entendu;

  • Ainsi que les autres savants dont Joseph John Thompson (1856-1940); John Douglas Cockroft (1897-1967), etc.

Dès le printemps 1939, après la parution dans Nature des travaux de Joliot-Curie, George P. Thompson, professeur de physique à l‘Imperial College de Londres, prend contact avec Sir Henry TIZARD, président, depuis 1934, du comité scientifique du Ministère de l’Air pour la défense aérienne. Ce dernier conseille à Thompson de se rendre au Ministère de l’Air et d’exposer aux responsables les conséquences militaires et techniques que peuvent entraîner les découvertes des Français. De plus, des nouvelles alarmistes en provenance d’Allemagne laissent entendre que les atomistes allemands se sont lancés dans la course à la bombe. Le Gouvernement britannique confie la tâche à Tizard d’obtenir des différents groupes de scientifiques qu’ils unissent leurs efforts et coordonnent leurs recherches. Sa mission première est d’étudier les possibilités de construction d’une arme nucléaire. Soulignons que le personnage joua un rôle déterminant dans l’implantation du réseau des stations de radars qui protégea la Grande-Bretagne lors de la Bataille d’Angleterre.

Très vite, Tizard se rend compte des faiblesses matérielles et financières de son pays dans ce domaine. Scepticisme que partage Lord Cherwell, le conseiller scientifique de Winston Churchill. Les savants anglais surestiment la quantité d’uranium 235 nécessaire pour atteindre la masse critique. Il leur faut plusieurs centaines de kilo voire plusieurs tonnes de matériel fissile. La séparation isotopique de 235U des autres isotopes paraît insurmontable. De plus, ils ignorent les effets produits par une réaction en chaîne: simple déflagration ou explosion gigantesque ?

Cherwell suggère à Churchill de prévenir le secrétaire d’état à l’Aviation, Sir Kingley Wood, que malgré l’intérêt scientifique de la fission nucléaire, il est « peu probable que cette découverte conduise avant plusieurs années à des résultats susceptibles d’une application ».

Dès l’avènement d’Hitler au pouvoir, plusieurs scientifiques allemands quittent leur pays et se réfugient au Royaume-Uni où ils intégreront les équipes des différentes universités. C’est ainsi que l’on trouve Rudolf PEIERLS, qui parvient en juin 1939 à une évaluation plus fine de la masse critique, et Otto Frisch, qui en février – mars 1940, avec l’aide de son compatriote réussit à calculer la masse critique de l’235U et émet l’hypothèse qu’un neutron frappant un noyau d’uranium 235 provoque la fission de celui-ci et qu’une réaction en chaîne peut s’enclencher. D’autres savants les rejoindront, comme Franz Simon et Klaus Fuchs.

En mars 1940, Otto Frisch rédige deux rapports qui remettent le problème de la faisabilité d’une bombe atomique en question: « De la construction d’une superbombe basée sur une réaction nucléaire de l’uranium» et «Mémoire sur les propriétés d’une superbombe radioactive ». Ces rapports, qui atterrissent sur le bureau de Tizard, proposent une étude technique de la bombe et abordent également les questions stratégique et éthique. Ces deux rapports sont d’une importance capitale, car les calculs de FRISCH et Peierls démontrent que la déflagration serait égale à celle de 1.000 tonnes de TNT: « Cette énergie, annoncent-ils, est libérée sous un faible volume: il se produira, à l’intérieur, pendant un temps extrêmement bref, un dégagement de chaleur comparable à celui du centre du soleil. L’effet d’une telle explosion pourrait détruire toute vie sur une très grande zone. L’importance de cette zone est difficile à apprécier, mais elle couvrirait probablement le centre d’une grande ville. » De plus, leurs calculs montrent que la masse critique de matières fissiles se limite à quelques kilogrammes et non plus à des tonnes.

Tizard réunit un groupe de réflexion pour « examiner l’ensemble du problème, coordonner le travail de recherche et préciser dans les meilleurs délais s’il est possible de produire des bombes nucléaires pendant la guerre ». Ce comité, qui prend le nom de M.A.U.D. (Military Application of Uranium Detonation), doit également juger « si les effets militaires de ces bombes donneraient des résultats suffisants pour justifier une dispersion de l’effort de guerre ».

Un autre fait va alimenter le processus enclenché par le Gouvernement britannique: c’est l’arrivée en Grande-Bretagne des deux scientifiques français, Hans Halban et Lev Kowarski, avec leur stock d’eau lourde.

II. LE RAPPORT HALBAN-KOW ARSKI DE LONDRES

Dès qu’ils touchèrent le sol britannique, les deux collaborateurs de Frédéric Joliot-Curie exilés sont invités à ne pas s’engager dans les Forces Libres du général de Gaulle. Ils sont affectés au laboratoire de l’université de Cambridge, où ils peuvent reprendre leurs expériences interrompues par l’invasion allemande et leur fuite en Angleterre, en rejoignant le projet « Directorate of Tube Alloys» (TA) qui, sous le couvert de fabrication de tube d’alliage, consistait à mettre au point les techniques permettant la fabrication d’une bombe nucléaire. C’est ainsi, qu’ils livrèrent secrets et brevets français aux Anglais.

A la juin – début juillet 1940, les deux physiciens français rédigèrent un rapport dans lequel ils dévoilaient les derniers résultats obtenus par l’équipe française et les conclusions qui en découlaient.

« Discussion de la composition et de la constitution de systèmes contenant de l’uranium en vue de produire une réaction en chaîne nucléaire divergente» spécifie que «pour réaliser une réaction en chaîne divergente, quatre méthodes devraient réussir: l’utilisation d’un mélange homogène uranium – eau lourde, ou bien un dispositif hétérogène (sous forme d’une sphère ou d’un empilement) avec de l’uranium et de l’eau ordinaire, ou de l’uranium et de l’eau lourde ou encore de l’uranium et du carbone. Une combinaison comportant de l’uranium légèrement enrichi en isotope 235 serait très favorable et pourrait marcher avec de l’eau ordinaire. Deux voies sont préconisées pour la production d’énergie: la méthode des neutrons lents avec un petit enrichissement en uranium 235 ; ou l’espoir que la capture de neutrons par l’uranium 238 conduise en fin de compte à un nouveau noyau fissile ». Ce sera le plutonium découvert au début 1941 à Berkeley (USA).

III. LA RECHERCHE S’INTENSIFIE EN GRANDE-BRETAGNE

En cette fin de 1941, le groupe anglais est en tête dans l’étude de la possibilité d’une réaction en chaîne, grâce aux méthodes françaises et au stock d’eau lourde amené par les deux Français. Mais, de nombreux détails d’ordre pratique doivent encore être résolus.

La mise sur pied du Comité M.A.UD. entraîne la mobilisation de groupes industriels pour résoudre certains des problèmes techniques, comme, notamment, ICI (Imperial Chemical Industries).

Le principe de la bombe est arrêté: il suffit de précipiter deux blocs d’235U l’un sur l’autre pour obtenir la masse critique et enclencher la réaction en chaîne qui s’emballant provoquera l’explosion. Malheureusement, la fabrication de l’235U se révèle être un challenge. En effet, l’235U n’existe que dans la proportion de 0,7% dans l’uranium naturel. Ayant les mêmes propriétés, il est très difficile, si pas improbable, de séparer les deux isotopes. Aucune technique n’est à ce moment connue, ni même envisagée.

En dépit de sa valeur exceptionnelle, la physique nucléaire britannique n’a pas les moyens financiers et techniques pour entreprendre, durant la guerre, la mise au point de bombes nucléaires. C’est pourquoi, le 17 juin 1942, le chef du Gouvernement de Sa Majesté, Winston Churchill, rejoint Hyde Park dans l’Etat de New York, à bord d’un hydravion à coque, pour y rencontrer le président américain Roosevelt. Les deux hommes décident de concentrer la recherche aux Etats-Unis, et mettent au point un programme pour les dix-huit mois à venir. Au départ, Washington présentait quelques réticences à embrasser la cause de la bombe nucléaire. Mais, l’augmentation de la production de l’eau lourde ordonnée par les Allemands qui ont envahi la Norvège et réquisitionné l’usine de Norsk Hydro et l’embargo sur l’exportation du minerai d’uranium tchécoslovaque, laissent à penser que l’ennemi était proche de mettre au point un armement nucléaire. Churchill qui se serait « fort bien contenté des explosifs existants », se voyait donc obligé de se lancer dans cette course, avec l’accord de ROOSEVELT. « Nous avions l’un et l’autre le sentiment qu’il était fort dangereux de rester inactif dans ce domaine, écrit-il. Nous savions quels efforts les Allemands faisaient pour constituer des réserves d’eau lourde, terme sinistre, étrange et presque surnaturel qui commençait à se glisser dans nos documents secrets. Et si l’ennemi réalisait avant nous cette bombe atomique? Pour sceptiques que nous fussions devant les assertions de certains savants, nous ne pouvions pas courir le risque mortel de nous trouver devancés dans ce domaine terrifiant ».

De retour en Angleterre, le premier ministre décide de lancer un plan d’attaque pour détruire le stock d’eau lourde de l’usine norvégienne.

IV. LA BATAILLE DE L’EAU LOURDE

Je renvoie le lecteur à l’article précédent dans lequel j’annonce le récit de Jean Marin, scénariste du film  « La Bataille de l’eau lourde ». Un deuxième film a été tourné plus tard, en 1965 sous le titre de « The heroes of Telemark » avec en vedettes principales Kirk Douglas et Richard Harris. Réalisé par Anthony Mann, sur un scénario de Ben Barzman et Ivan Moffat, d’après le roman de John Drummond et Knut Haukelid, il respecte peu la vérité historique. L’aventure se termine par le sauvetage in extremis (suspens oblige) d’un groupe d’enfants et de leur accompagnatrice, embarqués sur le ferry transportant les bidons d’eau lourde, par le héros (K. Douglas). En réalité, l’explosion du navire a entraîné la mort de 26 personnes sur les 53 passagers et l’équipage.

Laissons à nouveau la plume à Jean Marin qui nous conte l’extraordinaire aventure d’hommes de courage sacrifiés pour des craintes qui, en définitive, s’avéreront non justifiées.

V

PARACHUTAGES EN NORVEGE

Dans l’abri de Churchill.

Dans l’abri qu’on a construit pour lui sous la pelouse du n° 10 de Downing Street, Winston Churchill est assis à sa table de travail. Le cigare en bataille, le nez chaussé de grosses lunettes d’écaille, il donne toute son attention à la lecture des derniers rapports de son ministre de la guerre économique. Il y apprend que le Reich, qui a déjà donné l’ordre à l’usine de Rjukan de porter sa production annuelle d’eau lourde à 1.500 kilos, exige maintenant qu’en 1942, cette production soit portée à 5.000 kilos par an.

Churchill croit aux armes secrètes et il sait qu’Hitler y croit encore davantage. Le danger est là. L’Allemagne est engagée à fond dans la course à l’eau lourde. Elle devine à peu près où en sont parvenus les progrès des Alliés dans le domaine de l’énergie .atomique; elle veut arriver bonne pre­mière.

L’une des feuilles dactylographiées éparpillées sur le bureau fait apparaître un nom que Churchill connaît bien : Tronjstadt, le Professeur Leif Tronjstadt, chargé de l’enseignement de la chimie industrielle à l’Université de Trondjheim.

Ce savant norvégien, grand spécialiste de la fabrication de l’eau lourde, pour qui l’usine de Rjukan n’a pas de secret, vient d’arriver en Angleterre. Il a des contacts sûrs et réguliers avec les patriotes ardents que compte le personnel de Rjukan. C’est lui qui va être chargé, auprès des services britanniques spécialisés, de mener en Norvège, depuis Londres, la bataille de l’eau lourde…

Einard Skinnarland est un garçon robuste au regard franc. D’un coup d’œil Tronjstadt l’a jugé: c’est l’homme qu’il lui faut. .

– Vous avez rejoint, lui dit-il, les forces norvégiennes libres en Angleterre, maintenant, vous allez repartir pour la Norvège. Là-bas, vous serez l’agent de liaison entre les Résistants de l’usine de Rjukan et nos services de Londres. Sur place, vous préparerez l’avenir. Un jour, peut-être vous verrez arriver d’autres Norvégiens eux aussi envoyés par moi. Tenez-vous prêt.

L’usine de Rjukan ? Einard la connaît bien, il est né près du lac dont les eaux l’alimentent.

Deux jours plus tard, il est de nouveau assis à la table de famille. A quelques kilomètres de là, il a enfoui son parachute sous un tas de neige. Il sourit sans répondre lorsque son grand-père, qui ne sait pas d’où il vient, lui reproche de rester indifférent à l’avenir de la Norvège envahie… Par contre, son frère comprend tout d’un seul coup lorsque Einard, avec un clin d’œil, lui offre une cigarette anglaise : la famille Skinnarland va compter maintenant deux soldats de la Résistance norvégienne.

Les quatre de « Swallow »

Sur le bureau du Professeur Tronjstadt, le dossier de l’usine de Rjukan s’est gonflé de semaine en semaine. Désormais les Alliés savent tout ce qu’ils désiraient savoir.

En juillet 1942, Churchill donne l’ordre de frapper un grand coup, de préparer le sabotage de l’eau lourde. L’opération, si tout va bien, se déroulera en deux temps : d’abord un corps franc norvégien partira en avant pour préparer minutieusement l’intervention. Quand tout sera au point, vingt-cinq parachutistes britanniques rejoindront le corps franc en Norvège. Et ce sera le sabotage.

Le 15 octobre 1942, à onze heures trente du soir, deux officiers et deux sous-officiers (en civil) de l’Armée Norvégienne Libre, sautaient en parachutes au-dessus de leur pays natal et se posaient sur les premières neiges des montagnes du Télémarck. Leur chef, Jens Poulsen, est un sous-­lieutenant de vingt-cinq ans, sorti de l’Académie Militaire d’Oslo. Les quatre hommes sur les contrôles de Londres répondent à l’indicatif  « Swallow ».

Ils ont pour mission de s’installer comme ils le pourront dans la montagne, d’y vivre comme ils pourront, aussi longtemps qu’il le faudra. Avant tout, ils doivent entrer en contact avec Einard et assurer la liaison régulière par radio avec Londres, grâce au poste émetteur qu’ils ont amené. Ce dernier point est capital : pour que l’opération projetée ait quelque chance de réussir, il faut que Londres soit tenu au courant de ce qui se passe à l’usine de Rjukan, et dans ses environs, non plus seulement par des courriers passant par la Suède, mais jour par jour, et s’il est nécessaire, heure par heure.

Ils sont là, dans les solitudes de la montagne, en face d’une tâche démesurée, mais bien résolus à triompher. Ils connaissent la région; ils savent ce qui les attend.

Le beau temps qui les a accueillis à l’arrivée ne dure que quelques jours. Dès le 21 octobre, une violente tempête de neige annonce la venue de l’hiver; l’implacable hiver de la haute montagne norvégienne, qui va durer six mois, traînant derrière lui son cortège de blizzards, d’ouragans, de températures de plus en plus basses.

Le point qu’ils doivent atteindre afin d’y installer leur base d’opérations à proximité de l’usine même, est à 150 kilomètres du lieu où ils sont tombés avec leurs containers. Cent cinquante kilomètres qu’ils vont devoir couvrir par leurs propres moyens, dans des conditions qui, dès les premiers pas, se révèlent épuisantes.

Première difficulté : les Allemands ont brûlés presque toutes les huttes de montagne pour rendre la région inhabitable, en prévision, précisément, d’une tentative de coup de main comme celle qu’ils préparent eux-mêmes.

Le problème du chauffage, ensuite. Les poêles parachutés ne valent rien ; ils auraient été bien utiles pourtant avec leur système à brûler la paraffine. Le bois est rare, surtout à l’altitude où les quatre hommes avancent péniblement.

Le poids de leur équipement est écrasant : 240 kilos. Ils n’ont pas de traîneaux. Comme ils ne peuvent porter sur leurs épaules que 120 kilos à la fois, ils sont contraints de revenir sur leurs pas pour emmener le reste ; ils multiplient donc par trois les 150 kilomètres à parcourir.

Ils n’ont que trente jours de vivres. Les rations sont faites de viande séchée, de biscuits, de sucre, de farine et de lait en poudre. Le chef, Jens Poulsen, les a réduites au minimum en prévision d’une solitude qui durerait plus de trente jours.

La neige est mauvaise: elle se met en grumeaux sous les skis.

L’eau des marais, des fondrières, des cours d’eau n’est pas encore entièrement prise : chaque soir voit arriver à l’étape quatre hommes trempés jusqu’au ventre.

Et, pour comble de malchance, l’opérateur de radio n’a pas encore réussi à faire marcher son poste : le contact avec Londres n’est pas établi.

Le 24 octobre, il y a neuf jours qu’ils sont arrivés dans une ferme inhabitée, ils trouvent de la viande : pour la première fois, ils mangent à leur faim.

Ils sont à plus de mille mètres d’altitude; quand un coup de tempête fait voler la neige, le vent souffle parfois à 80 kilomètres à l’heure. Et cette radio qui ne marche toujours pas…

Une hutte, base d’opérations

Quand leur procession de fantômes blancs se fut traînée pendant 14 jours, ils trouvèrent enfin une hutte.

Jens Poulsen fait le point : cette hutte sera leur base d’opération ; ils sont maintenant assez près de l’usine de Rjukan.

A peine arrivés, l’opérateur de radio est déjà au travail, il a placé son casque d’un geste las: tant d’échecs successifs ne l’incitent pas à l’enthousiasme. Mais son visage s’éclaire. Ses trois compagnons se penchent vers lui. Victoire. L’indicatif de Londres a crépité contre les plaques. Et puis, le silence absolu. Les accus sont morts : ils sont tombés trop souvent, avec leurs porteurs, dans la neige à demi fondue.

L’un dès deux sous-officiers, Claus Helberg, natif de Rjukan, reçoit de son chef la mission de descendre un peu plus vers le sud pour y chercher de nouveaux accu; un peu plus au sud, en effet, à quelques kilomètres de l’usine, il y a l’amateur de cigarettes anglaises le frère d’Einard Skinnarland. Lui fera tout, on le leur a dit à Londres avant le départ, pour les aider. ..

Chasse à l’homme…

Claus Helberg part de bonne heure, le lendemain. C’est un bon skieur, il est décidé à faire vite. Ce jour-là, il fait un temps admirable, la lumière vole et scintille du ciel limpide et bleu à la neige vierge. Claus va comme le vent dans la chanson menue des skis qui glissent sans effort.

Sur l’immense étendue blanche, sa silhouette est un point noir, à peine perceptible à l’œil nu. Mais elle est démesurément grossie par les jumelles prismatiques de l’officier de troupes de montagne allemandes qui conduit sa patrouille dans la région. Il fait signe à l’un de ses soldats : un champion olympique de ski, et la chasse à l’homme commence.

Claus à l’avantage dans les montées car il est plus robuste que souple, mais l’autre gagne à toutes les descentes jusqu’au moment où Claus, qui se sentait déjà serré d’un peu trop près, voit avec soulagement, par-dessus son épaule, que son chasseur vient de faire une chute catastrophique. Claus, par précaution; s’impose encore un long effort, de toute la vitesse dont il est encore capable après quatre heures de poursuite ; puis il reprend une allure plus modérée : ce soir, il lui faudra refaire la même course en sens inverse et en portant les accus neufs dans son sac.

…et duel à mort…

Il en est là de ses calculs, lorsqu’un impérieux commandement en allemand le glace d’angoisse. Comme la voix le lui a demandé, il lève les bras, se retourne et reconnaît son chasseur qui a dû le rejoindre par un raccourci, après s’être remis de sa chute moins grave que spectaculaire.

Mais déjà, Claus, d’une main qui ne tremble pas, a tiré .son revolver de son blouson. Il veut amorcer le tir le premier, car il est sûr… sûr que son adversaire est un peu trop éloigné.

L’Allemand tire une balle… deux balles… tout son chargeur, balle après balle. A mesure que la neige, irisée par le soleil se creuse en rigole sous l’impact, à quelques mètres de lui Claus compte calmement. Il sait combien de balles contient le pistolet de l’homme qui est en face de lui. Quand il a compté sept, un sourire un peu féroce détend ses traits.

En voyant ce sourire, l’autre comprend et pâlit. Il tente de fuir, de profiter à son tour de la distance. Trop tard. Claus, de toute la puissance de ses jarrets se jette en avant sur ses .skis. Un nouveau coup de feu claque dans le silence ensoleillé… Cette fois, Claus ne sera plus rejoint.

Le soir, il frappe à la petite maison de bois, au bord du lac, où habite le frère d’Einard. Celui-ci vient ouvrir. Claus murmure le mot de passe qu’on leur a donné à Londres… .

Depuis ce moment et jusqu’à la fin, le contact par radio avec Londres ne sera plus interrompu…

VI

Sur le bureau de Tronjstadt puis, sur le bureau de Winston Churchill, arrivent maintenant tous les jours et parfois d’heure en heure les bulletins d’informations radiotélégraphiés par l’opérateur du Corps franc « Swallow ».

Peu à peu, à la lumière des renseignements ainsi transmis, Londres reconstitue dans toute son exactitude la situation telle qu’elle se présente à Rjukan, autour de l’usine géante et à l’intérieur de la petite pièce à l’eau lourde.

Les officiers des « Combined Operations» apprennent ainsi coup sur coup que les Allemands sont plus que jamais sur leurs gardes, que la garnison locale vient de doubler ses effectifs, qu’autour de l’usine, les sapeurs allemands ont tendu un nouveau réseau de fils de fer barbelés.

Aussitôt, quelque part en Angleterre, un moniteur des troupes aéroportées britanniques se penche sur une maquette qui reproduit dans tous ses détails l’usine de Rjukan. D’une pince légère, il l’entoure d’un fil qui représente le barrage des barbelés, suivant point par point les indications données .par les derniers messages de Swallow.

– Ça devient de moins en moins facile, dit-il, mais il nous reste encore cette grille à deux battants qui lorsqu’elle est fermée, coupe en deux la voie de chemin de fer qui dessert l’usine ; le passage est sûrement par là.

Les vingt-cinq hommes auxquels il s’adresse et qui font cercle autour de lui épaules contre épaules comme dans une mêlée de rugby, sont les vingt-cinq hommes que l’Etat Major des « Combined Operations » a désignés pour aller faire sauter l’usine de Rjukan…

La grande expédition

Les revoilà tous les vingt-cinq, non plus en cercle, mais sur deux rangs qui se font face; ils ne sont plus debout, ils sont assis… assis dans un planeur. L’avion qui les tire survole déjà, dans la nuit opaque, les montagnes de Norvège. Le visage à peiné éclairé par le reflet phosphorescent des appareils de bord, le pilote se penche à droite et à gauche.

– J’ai fait le point. Il n’y a pas d’erreur possible, c’est là qu’ils devraient être, murmure-t-il entre ses dents.

Et ses yeux écarquillés ne voient rien à travers l’épaisseur de la nuit d’encre, fourrée de brouillard.

Au-dessous d’eux, à quelques centaines de mètres seulement, les hommes de Swallow tendent des torches de magnésium; voilà deux fois; que les avions et les planeurs .viennent tourner au-dessus de leur tête. Ils s’éloignent de nouveau: de plus en plus amorti, le ronronnement des moteurs s’éteint soudain et restitue à la solitude glacée où s’agitent encore les fantômes blancs de Swallow son silence tragique et désespéré…

Manqué !

Un moment après, à moins de 100 kilomètres de là, vers les premières échancrures des fjords norvégiens et des îles aux eaux poissonneuses, un grand éclair, .puis des flammes rougeoyantes viennent de percer la nuit.

*

L’un des avions et les deux .planeurs, rentrant vers la Grande-Bretagne après leur opération manquée, faute de visibilité, se sont écrasés et flambent. Il y a des morts, mais beaucoup de survivants blessés ou indemnes.

De la salle grillagée de l’hôpital, et des cellules humides où on les a enfermés, les pauvres « British » entendent claquer sur les dalles le martèlement des bottes de leurs geôliers allemands? Jusqu’au petit matin où l’on ouvre les cellules, où l’on fait lever de leurs lits les blessés encore grelottants de fièvre. .

Debout près de la fenêtre sans barreaux qui domine la cour de la prison, un officier allemand soulève un peu le bord d’un rideau. Le rideau retombe lorsque l’officier a entendu l’éclat mat, amorti par la neige, d’une double salve, qui soudain rougit un coin de la cour.

Il se dirige vers la carte que ses hommes ont trouvée sur l’un des parachutistes britanniques; un crayon rouge a cerné d’un trait gras le nom de Rjukan, mais ce qu’il ne sait pas alors c’est que l’assassinat dont il a donné l’ordre et qui a été, tout à l’heure, exécuté sous ses yeux, traînera un jour son Reich devant le Tribunal de Nuremberg…

Pour lui c’est encore l’atmosphère de la victoire. L’officier allemand satisfait d’avoir rempli sa mission de gardien de l’eau lourde, d’avoir impitoyablement puni ceux qui sans doute étaient venus pour la détruire, fait renforcer encore les mesures de précaution autour de l’usine.

Les quatre hommes de Swallow ont été prévenus. La nouvelle les a d’abord accablés, tout était prêt… mais l’espoir leur est revenu on leur a promis qu’une nouvelle tentative aurait lieu à la prochaine lune…

Mystère sur Rjukan

Au-dessous d’eux, dans les vallées qui rayonnent autour de Rjukan, le long des pentes où sont juchés les bâtiments de l’usine, l’Allemagne prend ses précautions. Un ennemi clandestin rôde autour de l’usine à l’eau lourde. Il a sûrement des attaches solides avec la population locale; il a peut-être même sur place des observateurs en armes qui épient, qui attendent le bon moment et qui, entre temps, gardent le contact avec les Alliés ?

Les postes d’écoute allemands enregistrent parfois d’insolites émissions. Un mystère menaçant plane sur Rjukan. Alerté par l’incident des planeurs, Hitler a donné des ordres précis. La Gestapo arrête tous les suspects y compris le frère d’Einard.

Joseph Terboven, Commissaire du Reich pour la Norvège et le général von Falkenhorst qui commande les troupes d’occupation s’assurent eux-mêmes, sur place, de la protection de l’usine ; on voit passer dans les petites rues de Rjukan leurs puissantes automobiles a fanion rouge, blanc et noir: Les bûcherons ou les gardiens de rennes croisent dans les sentiers de la montagne des patrouilles accompagnées de chiens loups.

Parfois, une grande lueur s’élève sur les hauteurs et une épaisse fumée noire ternit de ses spirales, pendant des heures, la limpidité du paysage: des Allemands ont mis le feu à un refuge.

Sans nouvelles de son frère, Einard se sent tous les jours un peu plus menacé, il n’ose plus garder ses contacts. Une nuit pourtant, entre deux patrouilles, il chausse ses skis et monte rejoindre les hommes de Swallow. Tous les renseignements qu’il apporte sont aussitôt transmis à Londres.

Par deux fois déjà, la lune a cru et décru dans le ciel du Télémarck. Mais rien n’est venu rompre l’exténuante monotonie de la vie de Swallow. Il fait plus froid que jamais. Les vivres sont de plus en plus rares. Un grand découragement s’est abattu sur les quatre hommes. Et cette solitude ! Ce sentiment lancinant de l’inutilité d’un effort pourtant surhumain qui dure, qui dure…

Le chef Jens Poulsen note :

« Décembre. Les hommes sont malades; la fièvre, et ils souffrent aussi de l’estomac. Les vivres sont épuisés. Plus d’autre solution que le renne. Le radio a découvert un fusil de chasse et des cartouches. Il n’a encore rien tué. Il n’y a plus de bois sec. »

Le lendemain, le radio, parti comme tous les jours pour abattre un renne, revient avec… un poisson, un poisson séché qu’il a volé dans le garde-manger d’un refuge inhabité. Mais pour des hommes comme ceux-là, le découragement ne dure pas. Les informations à transmettre à Londres se font .rares. Le chef envoie Helberg aux nouvelles à Rjukan même. Helberg:est tout désigné pour cette mission périlleuse puisqu’il est né dans l’une des maisons de bois de la petite ville et que l’ingénieur de l’usine qu’il va contacter habite la maison voisine de celle-là, où vivent encore son père et sa mère.

Nuit de Noël

Cette fois, c’est la bonne lune. Londres, informé par l’émission que Swallow lui a faite, après la descente de Claus Helberg à Rjukan, prévient les quatre solitaires de l’arrivée des renforts.

Tout s’est bien passé. Helberg va remonter, chargé de renseignements vers la hutte qui sert de base au corps franc de Swallow. Il fait nuit. A tâtons, il se dirige entre les troncs des bouleaux autour desquels il jouait enfant. Il se rappelle, bien sûr, que les ordres sont formels, qu’en dehors des contacts, comme celui qu’il vient de prendre, il faut fuir la population qui, pour bienveillante qu’elle soit, doit ignorer l’existence de cette petite troupe en armes qui attend son heure pour fondre sur l’eau lourde.

Et pourtant, appuyé à un arbre, Claus, un vague sourire aux lèvres, regarde au travers la fenêtre de la salle commune (la Norvège n’a pas de black-out), la silhouette familière de sa mère qui va et qui vient autour de la table et près de la cheminée.

C’est l’avant-veille de Noël. Claus voit le petit arbre traditionnel chargé de givre et de paillettes d’argent. Sur le mur orné d’une branche de houx, il ya la photographie du Roi Kaakon.

Claus regarde et tout d’un coup, s’arrache à cette douceur, à cette lumière, Swallow doit émettre avant le lever du jour…

Nuit de Noël, réveillon, bonne humeur, vieilles chansons.

Jens Poulsen note : « Le temps s’est levé. On a pu enfin tuer un renne. Nous avons passé un bon Noël. »

VII

Cette fois, il ne s’agit plus de troupes aéroportées britanniques. Il s’agit d’un nouveau corps franc norvégien, composé de six hommes, eux aussi volontaires de la Compagnie « Linge », Corps d’élite des Forces Norvégiennes Libres entraînées en Angleterre. Si le premier s’appelait SwalÎow, le second va répondre à l’indicatif : « Gunnerside »

Ceux de Gunnerside

16 février, minuit. A une cinquantaine de kilomètres de la hutte qui sert de base d’opérations à Swallow, le vrombissement d’un avion éveille les échos de la haute montagne. Dans la nuit, glissent du ciel six masses blanches et soyeuses curieusement lestées par une forme indistincte.

Les six hommes de Gunnerside font une dernière culbute dans la neige poudreuse, ils sont en Norvège. Ils enterrent leurs parachutes et partent à tâtons à la recherche de Swallow qui, de son côté, tente de les découvrir dans l’immensité blanche où s’ensevelissent rapidement les dérisoires points de repère.

Ceux de « Gunnerside », au départ, sont plus chanceux que les quatre de Swallow. Eux, au moins, ont été lancés avec deux petits traîneaux. Ils ont l’équipement et l’armement ordinaires. Mais en plus, ils ont des explosifs : les explosifs, qu’on leur a confiés pour faire sauter l’usine de Rjukan.

La tempête de neige qui sévit depuis leur arrivée est si violente, que, pendant quarante-huit heures, ils ne peuvent pas sortir de la hutte où ils s’abritent. Ces hommes, passés brusquement du climat doux de l’Angleterre aux dures brûlures du froid de la haute montagne, tombent malades: bronchites et terribles engelures. Leur état s’aggrave, tandis que dehors, la tempêtes se transforme en ouragan, en blizzard dont les furieux coups de vent chargés de cristaux de neige; piquent, brûlent la peau, gercent et déchirent les lèvres et les paupières.

Et toujours à tâtons, vaguement guidés par Londres, Swallow et Gunnerside se cherchent et ne se rejoignent pas. Jusqu’au jour – neuf jours après le parachutage de Gunnerside – où ils se réveillent pour découvrir que le soleil rayonne dans un ciel éclatant et que la neige apaisée scintille doucement. Le chef de Gurinerside, Joachim Holmho Ronneberg note : « En approchant du village de Kallund, nous voyons venir droit vers nous deux skieurs inconnus. Je donne l’ordre à l’un de mes hommes de revêtir le grand manteau blanc de camouflage, de se coiffer d’un bonnet de civil. Il part pour prendre contact avec les deux hommes. Si ceux-ci l’interrogent, il répondra qu’il est gardien de rennes et qu’il fait la tournée de ses troupeaux. Nous nous cachons dans lès fourrés. Les deux hommes sont des hommes de Swallow » .Gunnerside et Swallow ne forment plus qu’un corps franc.

Dix hommes résolus

L’eau lourde allemande est en danger. Dix hommes résolus, commandés par CHURCHILL, vont affronter le Reich sur le champ de bataille immaculé de neiges et des laboratoires… Les rouleaux d’explosifs sont prêts.

C’est le moment où, en Europe occupée, Hitler et ceux qui font sa propagande, parlent de plus en plus des armes secrètes qui « bientôt vont faire leur apparition ».

L’avenir va donc dépendre pour une bonne part de ces neuf hommes qui, maintenant que la nuit est tombée en cette soirée du 27 février 1943, descendent silencieusement vers la vallée de Rjukan.

En face d’eux, mais sur le versant opposé, ils distinguent l’usine géante entourée de ses vapeurs, percée de ses vives lumières. Leur chef – le lieutenant Joachin Ronneberg – les arrête, un instant. Ils se débarrassent de leurs vêtements blancs. Et les voilà en uniformes. Ce soir, comme ils partent à l’attaque, ils ont voulu se battre à découvert…

Au-dessous d’eux, un peu à gauche, ils distinguent les lumières des petites maisons de bois de Rjukan. La nuit est assez claire. Les souffles du vent seraient imperceptibles si, en descendant la vallée, ils ne faisaient pas longuement vibrer comme des cordes de contrebasse les filins métalliques tendus d’un versant à l’autre et qui forment les mailles du filet destiné à empêcher les bombardements en piqué…

Pour les neuf hommes, les difficultés vont commencer. Jusqu’ici, ils sont descendus de la haute montagne, de toute la vitesse de leurs skis, grisés par la joie sportive, éblouis par le plaisir de faire tourbillonner la neige en une magique fantasia blanche, de baigner dans le froid vif et sain de la nuit transparente… Désormais, il s’agit de descendre le long des flancs lisses d’une falaise à pic et glissante, puis de remonter le long d’une autre falaise semblable, au faîte de laquelle tout en haut, ils trouveront la ligne de chemin de fer qui dessert l’usine et qui doit leur fournir le seul moyen de pénétrer jusqu’à elle. Il y a bien la souple passerelle suspendue qui enjambe la vallée, mais c’est là que les Allemands ont établi le principal poste de défense extérieure de l’usine.

La descente commence. Ils sont peu chargés : quelques armes légères au ceinturon ou en bandoulière, de quoi manger un peu au cours de route, les explosifs, des lampes électriques et quelques outils.

Le chef de l’expédition l’a racontée de la façon suivante dans le rapport officiel qu’il a ensuite adressé à Londres :

« A 10 heures, glissant et trébuchant, nous commençons à descendre vers la rivière (qui coule au fond de la vallée et qu’ils devront donc traverser pour atteindre l’autre versant). La débâcle est déjà amorcée ; il n’y a plus qu’un seul point de neige praticable, mais il est recouvert de plus de dix centimètres d’eau. Nous grimpons ensuite le long de la falaise abrupte et rocheuse qui forme la rive opposée… »

Avalanche !

En file indienne, le corps collé contre la paroi rocheuse, ils montent lentement. Dans la nuit maintenant claire, ils aperçoivent et entendent les soldats en armes du poste de garde de la passerelle suspendue. A mesure qu’ils s’élèvent, les bouffées du vent leur apportent, à travers l’ahanement essoufflé de leur propre respiration, le ronflement doux et rythmé des machines huilées de l’usine géante.

Soudain, tous ces bruits infimes ou lointains sont dominés par la chute sonore et rebondissante d’un rocher que l’un des neuf hommes vient sous son poids d’arracher à la falaise. Tous retiennent leur souffle : la marche cadencée des sentinelles allemandes sur la passerelle s’est arrêtée. Des ombres se penchent par-dessus le parapet et cherchent à découvrir l’origine du bruit insolite.

L’ascension reprend. Un dernier effort, un rétablissement sur les poignets : les neuf hommes ont atteint la ligne de chemin de fer.

Joachim Ronneberg note : « Nous progressons jusqu’à 500 mètres de la grille qui coupe, en se fermant, la ligne de chemin de fer desservant l’usine. Le vent d’ouest nous apporte faiblement le halètement des machines. Nous allons attendre là sans bouger jusqu’à minuit et demie. »

VIII

L’attaque est fixée à minuit et demie, c’est-à-dire quelques minutes après la relève, qu’ils voient se faire au-dessous d’eux, de la garde sur la passerelle.

Ils ont repéré l’étroit passage le long de la voie ferrée ou des traces de pas prouvent qu’il n’y a pas de mines. Ils sont prêts. Serrés les uns contre les autres, ils se rappellent les consignes. Le mot de passe, s’ils ont à se reconnaître dans l’obscurité ou dans la confusion d’un corps à corps : « Piccadilly…Leicester Square ». Ils se diviseront en deux groupes ; le groupe d’action composé du chef de l’expédition et de deux hommes et le groupe de protection qui, comme son nom l’indique, couvrira l’attaque. – Quand l’opération sera en cours d’exécution, liberté de manœuvre et initiative complète. Toute personne non allemande rencontrée sur les lieux devra selon les circonstances, être traitée avec la détermination requise. Ils ont tous pris l’engagement de se tuer s’ils voient qu’ils vont tomber aux mains de l’ennemi…

La nuit n’est plus animée dans le silence universel que par le doux ronflement des machines de l’usine. Au rez-de-chaussée, sous la masse des sept étages de béton et d’acier l’objectif ; une petite pièce où luisent des tubes d’acier et où l’eau lourde se concentre lentement, destinée aux laboratoires allemands qui préparent la bombe atomique.

Cette fois, c’est un claquement de tenaille qui a rompu le silence de la nuit ; deux hommes du groupe de protection, partis les premiers, viennent de broyer la lourde chaîne et le cadenas de la grille qui coupe la ligne de chemin de fer.

Une main légère remonte le long de chaque battant : pas de fil électrique. La route est ouverte. Le sabotage de l’eau lourde a commencé.

Dans l’usine

Avec une précision d’horlogerie, les neuf hommes courent sans bruit dans la cour de l’usine. Les hommes du groupe de protection se placent en chacun des points qui leur a été assigné sur le plan : entre leurs mains un peu crispées le canon des armes suit au jugé la direction suivie par les trois hommes du groupe d’action qui éprouvent la première entrée possible vers la petite pièce à l’eau lourde. Pas de succès : la porte, fermée de l’intérieur, est lourdement barrée… Ils se dirigent, toujours dans le même fantastique silence, vers la deuxième entrée.

Le gémissement d’une porte mal huilée se fait entendre à côté d’eux. Comme s’ils étaient foudroyés par un charme, les neuf hommes s’immobilisent en même temps, suspendant le geste commencé dans le rai de lumière que jette sur la neige la porte qui vient de s’ouvrir. Un soldat allemand passe la tête d’abord, puis tout le corps. Il promène jusqu’au milieu de la cour le faisceau d’une grosse lampe électrique. Le sommet de l’arc lumineux ainsi décrit s’arrête par bonheur à quelques centimètres des semelles ferrées du plus proche des neuf hommes.

La porte gémit de nouveau et se ferme. Dans l’ombre, le charme est rompu : les neuf hommes reprennent leurs mouvements ou leur pose. La deuxième porte est elle aussi inaccessible. Le temps presse. Suivi d’un de ses hommes, le chef de l’expédition qui est aussi le chef du groupe d’action, s’élance vers le troisième accès, le moins aisé. Joachin Ronneberg écrit dans son rapport :

Nous atteignons l’eau lourde

« Nous n’avons pas pu ouvrir la deuxième porte. Mais par la fenêtre de la petite pièce, j’ai aperçu, de dos, un homme Immobile. Nous nous mettons à chercher le dernier accès possible : le tunnel qui, dans la muraille extérieure, donne passage aux câbles électriques. Après les deux premiers échecs, c’est désormais notre dernière chance d’accès dans la petite pièce à l’eau lourde. Ce faisant, nous nous égaillons. Finalement, je trouve le tunnel. Suivi d’un seul de mes hommes, je m’y glisse au milieu des câbles enchevêtrés. Par un trou, dans la paroi, j’aperçois à ma gauche l’objectif. Il ne s’agit plus de perdre une minute : l’homme qui m’accompagne et moi, nous allons accomplir la mission tout seuls. Nous sommes maintenant dans une pièce adjacente à l’objectif. La porte qui, de cette pièce, ouvre sur celle où se concentre l’eau lourde est ouverte. Nous entrons. Le veilleur de nuit n’en croit pas ses yeux.

« Mais, il se tient tranquille… Je commence à placer les charges explosives… Soudain, derrière moi, j’entends un bruit de verre brisé. Je lève les yeux, quelqu’un vient de crever la vitre de la fenêtre qui ouvre sur la cour : une tête d’homme s’y encadre et regarde. C’est un de mes hommes qui n’ayant pas trouvé le tunnel des câbles a décidé de sa propre initiative de passer par la fenêtre. Il m’aide à placer les charges. »

Victoire !

« Dehors, pas la moindre trace d’alerte. Pourtant la protection de l’usine, outre les postes de garde, les sentinelles et les veilleurs comporte un dispositif sonore et lumineux qui peut en une seconde déclencher le hurlement des klaxons et la ronde des faisceaux de projecteurs.

Dehors, les mains un peu plus crispées, sur le canon et sur la gâchette, le groupe de protection scrute la nuit.

Nous allumons les deux mèches, nous quittons la petite pièce.

Nous sommes à vingt mètres d’elle, lorsque l’explosion se produit.

Nous repoussons la grille et nous suivons la ligne de chemin de fer. Un instant; je regarde en arrière, par-dessus mon épaule et j’écoute. Tout est encore tranquille ; j’entends seulement comme tout à l’heure en venant, le halètement des dynamos. »

Mais tout d’un coup, le silence est déchiré par le hululement des sirènes : la nuit est percée par les projecteurs qui s’allument aux quatre coins de l’usine. Trop tard ! 1.500 kilos d’eau lourde, la partie la plus importante des engins de fabrication, viennent d’être anéantis par les explosifs.

Les neuf hommes de Gunnerside et de Swallow, ont réussi cet exploit. Neuf seulement, en effet : les deux autres sont restés dans la montagne, pour garder le contact par radio avec Londres.

C’est à eux que revint l’honneur d’annoncer là-bas, le résultat du sabotage.

L’élan de l’Allemagne dans sa course aux armes secrètes était suspendu, au moins pour un certain nombre de mois…

Mission remplie !

Quelques jours plus tard, les onze hommes de Swallow et de Gunnerside se séparaient. Sur .la neige qui les avait vus, une nuit descendre du ciel en parachute, neuf allaient partir pour la Suède, puis l’Angleterre. Mais deux allaient demeurer sur place, garder le contact avec Londres, se tenir prêts, toujours dans le froid, toujours dans la solitude, toujours avec la faim au ventre – à répéter l’attaque s’il était nécessaire.

Tandis que dans le désert blanc de Télémarck, ils se séparaient ainsi, non loin d’eux et dans la vallée, l’Allemagne prenait des mesures nouvelles de protection et de représailles. .

L’ennemi invisible avait frappé une nuit, en pleine surprise et il avait magnifiquement réussi son coup de main. Mais l’Allemagne conservait la source de l’eau lourde; elle entendait intensifier son effort et réparer en quelques mois les dégâts causes par le sabotage du 23 février.

Le vacarme assourdissant des 80 forteresses volantes tournoyant au-dessus de Rjukan et bombardant en piqué l’usine géante donna la preuve, à la mi-novembre 1943, que les Alliés, fidèlement informés par la radio des deux solitaires de Télémarck,  jugeaient de nouveau importante .la production de l’eau lourde.

IX

Dans le refuge où ils sont installés et d’où partent tous les jours les messages en code, Eynar et Knut – les deux hommes demeurés sur place, – devisent paisiblement, comme ils font souvent dans leur interminable tête-à-tête.

Un coup de poing frappé contre la porte les fait sursauter. Mais c’est un ami qui vient les visiter : l’ingénieur Sorlie qui, de l’intérieur même de l’usine, les tient au courant de tout ce qui s’y passe : « Ils » viennent de prendre une, décision inouïe, dit-il d’une voix encore essoufflée par la course dans la montagne: « Ils » ont décidé de faire partir l’eau lourde pour l’Allemagne !…

 Un dialogue dramatique

La nouvelle est, en effet, sensationnelle. Pour les deux hommes qui la recueillent des lèvres du fidèle Sorlie, elle signifie qu’enfin, quelque chose va se passer, que leur vie de Robinson des Glaces et des Neiges va prendre un tour plus actif, plus dramatique aussi sans doute.

Pour Londres, Winston Churchill et le professeur Tronjstadt, cette nouvelle que viennent de capter les grandes antennes métalliques de la B.B.C, signifie que la « Bataille de l’Eau .Lourde » s’engage dans sa phase décisive : si des ordres formels viennent d’arriver de Berlin, si l’Eau Lourde de Rjukan doit partir sans délai pour le Reich, c’est que les laboratoires du Reich sont décidés à l’utiliser.

Entre la petite antenne des neiges, soutenue par deux bâtons, de skis et les bras immenses des antennes réceptrices d’Angleterre, s’établit un dialogue précipité :

« Le stock qui va partir pour l’Allemagne, précise l’émetteur perdu dans les solitudes du Telemark, ­est un stock de dix mille litres, résultat de deux ans d’effort sans cesse intensifié malgré la résistance des ouvriers et de la Direction de l’usine, malgré sabotages et bombardements. »

Dans son bureau londonien, le professeur Tronjstadt suppute la valeur de ces dix mille litres : « leur destruction, suspendrait pendant des années les recherches atomiques du Reich. ».

Et pourtant, le Reich ne tient à rien tant qu’à poursuivre, au contraire, ses recherches atomiques. Poursuivre ? Peut-être atteindre le but…

Hitler vient de hurler quelque part en Allemagne: « Dieu me pardonne les huit derniers jours de la guerre. ». A Radio – Paris, Jean-Hérold Paquis vient de lancer la fameuse- formule : « L’Angleterre, comme Carthage, sera détruite:.. »

La petite antenne autour de laquelle attendent, anxieux, Eynar, Knut et SORLIE ajoute : « Ce n’est pas seulement l’Eau Lourde qui va partir, c’est aussi tout son matériel de fabrication. »

Londres répond : « Détruire convoi, coûte que coûte, par tous les moyens. »

Instantanément Knut soumet un plan à Londres qui accepte et ajoute: « Ordre impératif de succès. »

Nouvelle attaque

Le plan est simple. Non loin de l’usine, dans la mansarde de la maison qu’habite Sorlie, les trois hommes sont réunis, Knut parle :

– J’ai fait cela, dit-il, avec les pièces d’un réveille-matin.

Et il montre quelque chose qui a encore l’air en effet d’un réveil mais qui est un mécanisme d’horlogerie, destiné à commander, les charges explosives. .

Knut ajoute :

– J’ai calculé que les charges sont assez puissantes pour détruire le convoi en quatre ou cinq minutes…

Le plan de Knut consiste tout simplement à couler le ferry-boat sur lequel, dans quelques heures, demain matin, vont être transbordés l’Eau Lourde et son matériel de fabrication.

Knut dit encore :

– Cet après-midi, j’ai traversé le lac sur le ferry-boat qui va servir demain. J’ai calculé qu’à dix heures quarante-cinq il se trouvera sur des fonds de trois cents mètres.

C’est le 19 février 1944, presque un an jour pour jour, après le sabotage par les hommes de Swallow et de Gunnerside, de la petite pièce à l’Eau Lourde au fond de l’usine géante…

Rjukan et ses environs ont vu arriver de nouvelles troupes allemandes, en particulier des S.S. et de la Gestapo, venues pour assurer la protection du convoi depuis l’usine jusqu’à la mer.

L’itinéraire que suivra l’Eau Lourde sera le suivant : le train quittant l’usine descendra à travers Rujkan jusqu’au lac où les wagons contenant l’Eau Lourde et le matériel de fabrication, passeront à bord du ferry-boat « Hydro ».

Au delà du lac, le train se rendra jusqu’au port maritime d’embarquement ; de là, l’Eau Lourde terminera son voyage jusqu’au Reich par mer…

X

Il est 10 heures du soir; la nuit est épaisse. De temps en temps des projecteurs promènent lentement leur pinceau de lumière sur les abords de l’usine et sur la vallée. Tout le long de la voie ferrée, sur laquelle le train va rouler, tout à l’heure depuis l’usine jusqu’au lac, il y a des sentinelles tous les cinquante mètres ; les patrouilles circulent dans Rjukan et sur les routes alentour.

Jusqu’à la tombée de la nuit, des avions de reconnaissance ont survolé la région. L’Allemagne protège son Eau Lourde…

Une heure du matin : les trois hommes qui tout à l’heure devisaient dans la mansarde de SORLIE, chacun portant un sac, descendent dans la cour de la maison où les attend un taxi dont le chauffeur, un Résistant comme eux, s’est fait octroyer par les Allemands (Dieu sait comment) un Ausweis de nuit. Tout de suite, le taxi se met en route vers le lac.

Par la glace baissée, Knut et ses compagnons aperçoivent le train, la garde qui entoure ses wagons, les sentinelles qui jalonnent les rails. Dans la petite, gare de bois qui dessert l’embarcadère du lac, à une centaine de mètres du bord de l’eau il y a encore des sentinelles.

A bord de l’ « Hydro »

Le taxi avance toujours. Sur un signe de Knut le chauffeur s’arrête, un peu en retrait ; l’ordre lui est donné de rester au volant et de laisser son moteur en marche. Ouverte sans bruit, la portière du taxi laisse passer les trois hommes qui, à pas de loup, mais prêts à passer coûte que coûte, s’approchent, la main serrée sur le manche du poignard, de l’embarcadère où’ est accosté le ferry-boat « Hydro ».

Ils sont déjà au bord de la passerelle et, de là, ils découvrent tout l’embarcadère, et les deux, ponts du ferry-boat.

Nulle part, il n’y a de sentinelles allemandes. Ils se regardent stupéfaits mais reprennent aussitôt leur marche. Les voilà à bord du ferry-boat, ils entendent à l’intérieur du navire l’équipage norvégien qui joue aux cartes. Knut et ses deux compagnons descendent vers le pont où se trouve le salon des passagers.

Knut écrit dans son rapport : « Laissant un de mes hommes dans le salon, je passe avec l’autre par une trappe. Suivant la quille, nous nous dirigeons à tâtons vers l’avant, c’est là que je place mes charges d’explosif. »

En réalité, l’opération est laborieuse. Il faut éviter autant que possible de se servir des lampes électriques; il faut éviter surtout de faire le moindre bruit. Et ils sont là, tous les deux, en équilibre instable sur les membrures du navire, les pieds dans un mélange noirâtre d’eau et d’huile, qui fait glisser.

Knut regarde encore une fois le cadran qui porte l’heure fatidique : 10 heures 45. Quand ils ont fini, il est 4 heures du matin. Ils remontent par la trappe, rejoignent celui qu’ils ont laissé de faction dans l’ombre du salon des passagers. A peine l’ont-ils retrouvé, qu’une voix dit auprès d’eux, en norvégien:

– Mais que faites-vous ici à cette heure ?

C’est un veilleur de nuit, à qui Knut répond, jouant le tout pour le tout :

– Nous essayons de nous cacher, nous sommes poursuivis par la Gestapo.

– Eh bien, répond le veilleur, je vais vous donner une bonne cachette, mettez vous là. Et il désigne la trappe sous laquelle les explosifs viennent d’être placés.

– Merci, dit Knut, nous reviendrons un peu plus tard…

– Pas trop tard, le ferry-boat partira vers 10 heures et j’aurai quitté mon service.

Les trois hommes ressortent par le même chemin, franchissent la passerelle aussi vite qu’ils le peuvent. Il n’y a toujours pas de sentinelles allemandes. Ils retrouvent le chauffeur à son volant, avec le moteur qui tourne toujours au ralenti. Un instant plus tard, la voiture disparaît dans la nuit sans avoir attiré l’attention…

La bataille est gagnée

Le jour est venu. Dans le ciel limpide passent et repassent des patrouilles d’hydravions. Au bord du lac, le train de l’Eau Lourde vient d’arriver sur l’embarcadère, qui maintenant fourmille de sentinelles armées jusqu’aux dents. Dans un grand bruit de chaînes, les wagons passent à bord du ferry-boat. Les dix mille litres d’Eau Lourde sont en route pour le Reich. Bien loin de là, dans la montagne, Knut regarde le cadran de sa montre: il y a encore une heure :

– 10 heures 45 ! Pourvu que tout marche bien !…

D’ailleurs les Alliés ont pris des précautions supplémentaires. Au large de la côte norvégienne, devant le port d’embarquement, des sous-marins anglais sont prêts à intervenir.

Si l’Eau Lourde arrivait jusque-là !

Dans le calme de la matinée, sur laquelle brille un éclatant soleil, le ferry-boat « Hydro » trace lentement son sillage sur l’eau paisible du lac.

Sur sa montre, Knut lit : 10 heures 40, 10 heures 43, 10 heures 45… Son visage se crispe… Cependant, sur le lac il ne s’est rien passé.

10 heures 47, 10 heures 48, 10 heures50.

Une immense gerbe de feu suit une explosion assourdie, qui vient d’ébranler le ferry-boat de proue en poupe (fig. 2). En quelques secondes, l’avant qui s’enfonce rapidement est presque déjà sous l’eau. Une deuxième gerbe, plus haute encore que la première : les wagons contenant l’Eau Lourde et son matériel de fabrication, viennent de disparaître par trois cents mètres de fond.

Bientôt l’eau du lac retrouve son calme sous l’éclatant soleil de cette matinée de février 1944. La bataille de l’Eau Lourde était gagnée et l’Angleterre ne fut pas détruite comme Carthage…

Mais Knut, lui, fut très mortifié lorsqu’il apprit, beaucoup plus tard, que « son» explosion avait eu cinq minutes de retard…

V. CONCLUSION

Je laisse la conclusion de cette aventure héroïque à un scientifique allemand, Kurt Diebner, qui dit : « La destruction de notre production d’eau lourde en Norvège fut la principale raison de notre échec à la mise au point d’un réacteur en chaîne avant la fin de la guerre ».

Remarquons qu’il parle de la mise au point d’un réacteur et non d’une arme. Dans un prochain article, nous verrons où en était la recherche nucléaire en Allemagne et si les craintes des Alliés, à propos de la mise au point d’une bombe nucléaire allemande, étaient justifiées.

VI. QU’EST-CE QUE L’EAU LOURDE?

L’eau lourde ou, en terme savant, hémioxyde de deutérium (formule: D2O ou 2H2O), a été découverte en 1930, elle est formée d’un atome d’oxygène et de deux atomes de deutérium, isotope de l’hydrogène.

Le premier échantillon d’eau lourde pure fut isolé en 1933 par Gilbert Newton Lewis.

Le noyau de l’hydrogène ordinaire est formé d’un proton et a une masse atomique de 1. Il existe deux autres isotopes naturels de l’hydrogène : le deutérium et le tritium. En plus de son proton le noyau du deutérium renferme également un neutron. Il a donc une masse atomique de 2. Quant au tritium c’est un élément instable et radioactif dont le noyau possède un proton et deux neutrons. Il a une masse atomique de 3. Dans un volume donné d’hydrogène, on retrouve environ 0,02 % de deutérium. Ces atomes de deutérium peuvent se combiner avec l’oxygène pour donner de l’eau lourde, dont la densité est d’environ 11% supérieure à celle de l’eau ordinaire.

Deuterium

Fig. 1 – Comparaison entre atome d’hydrogène et deutérium

L’eau lourde a les mêmes propriétés chimiques que l’eau ordinaire. Quand aux propriétés physiques, l’eau lourde bout à 101,42 °C au lieu de l00 °C, et son point de congélation est de 3,81°C au lieu de 0°C.

C’est le domaine de la fission nucléaire qui mit l’eau lourde en vedette. Elle est utilisée comme « modérateur » dans certains types de réacteurs : CANDU, réacteur à uranium naturel et à eau pressurisée. Rappelons qu’un modérateur sert à ralentir les neutrons libérés par la fission, favorisant ainsi la réaction en chaîne. On peut utiliser de l’eau ordinaire, mais l’eau lourde a l’avantage de moins capturer les neutrons. Certains modèles de réacteurs utilisent plutôt le graphite comme modérateur.

L’eau lourde est naturellement présente dans l’eau mais en très faible quantité : une molécule d’eau lourde pour 7000 molécules d’eau ordinaire. Il existe divers procédés de production d’eau lourde : par électrolyse et distillation de l’eau, distillation de l’hydrogène liquide, échange isotopique H2OH-H2S, échange isotopique NH3-H2. Dans le cas des échanges isotopiques, on exploite la différence d’affinité du deutérium et de l’hydrogène pour les différents composés. Ces procédés chimiques sont basés sur la différence de poids moléculaires qui produit une légère différence de vitesse à laquelle les réactions chimiques se produisent.

La première installation de production industrielle d’eau lourde a été réalisée en 1934, par la société Norsk Hydro qui s’est implanté à Vemork (Rukjan) en Norvège. Elle avait une capacité de production de 12 tonnes par an. Je vous ai raconté son histoire plus haut.

La plus grande partie de l’eau lourde utilisée en France, après la guerre, a été importée de Norvège et des États-Unis (selon certaines sources). Les réacteurs civils mis en service dans l’Hexagone avant 1967 auraient demandé 150 tonnes d’eau lourde au maximum. De l’eau lourde serait stockée à Saclay et à Cadarache.

Actuellement, ce sont surtout les Canadiens qui développent les réacteurs à eau lourde. J’en reparlerai lorsque j’aborderai la recherche nucléaire au Canada.

Un de nos lecteurs a posé la question de l’utilisation première de l’eau lourde. Malheureusement, je n’ai rien trouvé de précis. La seule référence à une utilisation autre que celle de modérateur est la suivante : 1931- utilisation de l’eau lourde (Deutérium) pour mesurer le contenu en eau du corps humain, selon le principe de dilution.

Par contre, elle est également utilisée actuellement pour la détection des neutrinos. Ainsi, l’Observatoire de Neutrinos de Sudbury SNO (Ontario. Canada) utilise 1.000 tonnes d’eau lourde dans une cuve enterrée dans une mine à plus de deux kilomètres sous terre afin d’être protégée des rayons cosmiques. Le SNO détecte l’effet Tcherenkov produit quand un neutrino traverse l’eau lourde.

VII. BIBLlOGRAPHIE

  • Crochet Bernard, McNair Ronald – La bombe atomique Hiroshima – Nagasaki. Historica Hors série. juil-août-sept 1995.
  • Gallagher Thomas – Halte à la bombe de Hitler, Selection du Reader’s Digest, mai 1976.
  • Gueron Jules (1980) – Lew Kowarski et le développement de l’énergie nucléaire.

 

Explosion ferry-boat

Figure 2- Une immense gerbe de feu suit une explosion assourdiequi vient d’ébranler le ferry-boat de proue en poupe.

 

Catégories : Histoire de la radioactivité | Étiquettes : | Poster un commentaire

La radioactivité des roches (3)

Article paru dans le Bulletin du G.E.S.T., N° 172, mars 2012

Robert Six

I. RADIOACTIVITE DES ROCHES SEDIMENTAIRES

A. Origine des roches sédimentaires

La plupart des roches sédimentaires se forment en milieu aqueux (lacs, mers, océans) et sont composées principalement d’éléments clastiques ou détritiques, qui se sont sédimentés. Ces divers constituants proviennent de la désagrégation, par différents procédés d’érosion, de roches préexistantes : roches magmatiques, métamorphiques et même sédimentaires.

L’érosion sera causée par des phénomènes physiques et mécaniques ou des procédés chimiques ou l’action d’organismes vivants.

On distingue traditionnellement trois origines différentes de sédiments : détritiques, chimiques et biologiques. La distinction ne repose pas sur l’origine première des matériaux mais sur les modalités de transport et de dépôt.

Les éléments détritiques arrachés aux roches du sol sont entraînés par les eaux de ruissellement, l’avancée des glaciers ou les vents. Durant leur transport, ils subiront une usure plus ou moins prononcée selon leur dureté.

Les procédés chimiques peuvent intervenir en présence d’eau lorsque celle-ci est plus ou moins chargée de sels de natures diverses.

Les actions organiques sont souvent causées par des bactéries ou des végétaux inférieurs sous forme d’action chimique, ou par des organismes supérieurs, dont l’action est surtout mécanique.

B. Uranium et thorium dans les roches sédimentaires

Rappelons que la radioactivité naturelle des sols et des roches est due à la présence des trois radioéléments naturels à longue durée de vie : 238U, 232Th, 40K et de leurs produits dérivés comme le radium. Selon leur nature, les sols et les roches ont une radioactivité spécifique qui permet de les différencier. Ainsi, les argiles et certains sables résultant de la désagrégation des massifs primaires sont plus radioactifs que les craies et les calcaires.

L’uranium et le thorium des roches sédimentaires proviennent donc directement ou indirectement des roches magmatiques. Du fait de leur densité élevée (U = 18,95 ; Th = 11,72), ils se déposeront partiellement au pied de la roche-mère, ou pendant le transport, ou atteindront le bassin de sédimentation. Les éléments radioactifs, étant de ce fait fortement dispersés, les roches sédimentaires en contiendront moins que la roche-mère. Une roche sédimentaire, déjà pauvre en U et Th, désagrégée à son tour par l’érosion,  donnera des sédiments encore moins riches en ces éléments. Il en résulte que l’U et le Th des roches sédimentaires est, en général, à par quelques placers, à l’état diffus, et que l’on ne trouve pas de gisements uranifères ou thorifères à forte concentration dans ce type de roches.

Les minéraux microscopiques uranifères et thorifères résistent mal à l’érosion. Parmi les plus fragiles citons l’autunite, la pechblende, la samarskite, la thorianite et la thorite. Ils seront détruits avant la sédimentation et donc on les retrouve rarement dans les roches sédimentaires.

Par contre, des inclusions tels que les zircon qui résistent bien aux traitements mécaniques et chimiques seront transportés jusqu’au lieu de dépôt sédimentaire sans subir de modifications majeures.

Enfin, d’autres inclusions, surtout thorifères, de résistance moyenne ne subiront qu’une attaque chimique limitée, comme la monazite, l’apatite et le xénotime. Ces métaux lourds se déposeront en cours de transport, ou s’accumuleront dans des placers très riches.

Nous avons vu dans l’article précédent que l’uranium en milieu oxydant pouvait donné des composés complexes solubles et qui de ce fait peuvent être emportés par les eaux superficielles ou souterraines et entraînés jusqu’aux océans. Par contre, le thorium et ses isotopes sont peu solubles et ont une forte tendance à l’hydrolyse et à être précipités.

C. Classification des roches contenant des éléments radioactifs

Des observations effectuées sur des roches sédimentaires de provenances diverses ont montré que :

  • La radioactivité moyenne des sables, des grès, des calcaires et des dolomies est faible ;

  • Les argiles, qui absorbent préférentiellement les ions K+, sont fortement radioactives ;

  • La radioactivité des marnes est fonction de leur teneur en argile ;

  • Les gypses et l’anhydrite ont une très faible radioactivité.

On peut classer les roches sédimentaire sur la base du critère « radioactivité » en :

  1. Roches à radioactivité élevée :
  • La plupart des argiles qui constituent le support préférentiel de fixation des trois éléments radioactifs principaux, et qui peuvent, d’un autre côté, contenir des proportions importantes de matières organiques ou de phosphates, riches en uranium ;

  • Les schistes noirs ;
  • Les évaporites potassiques ;
  • Les phosphates ;
  • Certains sables et grès riches en minéraux accessoires à uranium et thorium ;

  • Les granites potassiques et les roches qui en découlent par érosion ou métamorphisme.

  1. Roches à radioactivité moyenne:
    • Les grès et les sables ;
    • Les gneiss.
  1. Roches à radioactivité faible :
    • Les calcaires et les dolomies ;
    • Les charbons en général ;
    • Les évaporites sans potassium, la halite et l’anhydrite ;
    • Les roches basiques et ultrabasiques

radioactivié naturelle

Fig. 1 – Radioactivité naturelle des principaux types de roches.

A.P.I. : unité de calibration de l’American Petroleum Institute[1]

D. Distributions des radioéléments

  1. Dans les calcaires

D’une manière générale, les calcaires se caractérisent par l’absence de thorium et de potassium, radioéléments liés dans les roches sédimentaires habituelles, à une phase détritique (minéraux argileux lourds). Par contre le clarke[2] de l’uranium se situe aux alentours de 2 ppm.

Ces teneurs relativement faibles s’expliquent par le fait que le calcaire provenant d’organismes aquatiques se forme dans des eaux peu profondes et bien oxygénées, milieu peu favorable à la précipitation de l’U.

Ce dernier élément se concentre dans les calcaires par des processus purement chimiques ou biochimiques. Dans ce type de roches, la radioactivité est généralement très diffuse, mais dans certains cas de calcaires impurs on peut trouver des minéraux plus ou moins actifs. Ainsi, en milieu sédimentaire carboné, les phosphates jouent souvent un rôle fondamental dans la fixation de l’uranium. En milieu marin, l’uranium est fixé par des organismes ou des carbonates d’origine biologique.

  1. Dans les roches carbonées

Dans les roches carbonées, on comprend les roches combustibles, d’origine organique. Elles sont constituées par les charbons et les hydrocarbures.

Rappelons que les charbons sont formés par des débris végétaux qui se sont accumulés dans l’eau par sédimentation et qui se sont transformés en milieu anaérobie, sous l’action de microbes. Les différentes phases de la transformation de ces débris végétaux en charbon sont :

  • la tourbe, qui correspond au début de leur fossilisation. Sa teneur en carbone peut atteindre 50% de son poids. Elle correspond à des dépôts récents ;

  • le lignite qui contient près de 50 à 60% de carbone. Il constitue des dépôts plus anciens ;

  • la houille dont la teneur en carbone est de 80 à 90%. Elle participe de dépôts anciens ;

  • l’anthracite contenant de 92 à 95% de carbone. C’est une roche que l’on trouve uniquement dans le Paléozoïque (Carbonifère et Permien) ;

  • le graphite correspond à la dernière augmentation de carbone (100%). Il constitue des dépôts très anciens dont les couches ont été métamorphisées.

Ces roches carbonées ont généralement des teneurs en éléments radioactifs peu significatives, du fait que les conditions favorables à leur dépôt n’existaient pas lors de leur formation.

Dans le Dakota, aux Etats-Unis, on trouve des lignites contenant 0,005 à 0,02% d’U, ce qui est très faible. Par contre, la combustion de ce lignite donne des cendres dont la teneur varie de 0,05 à 0,1%. Le lignite triasique des Vosges contient 18,8 ppm d’U (G. Jubain, 1955).

Certaines mines de lignite sont des sources de radon et de ses descendants qui peuvent être impliqués dans la genèse de cancers du poumon des travailleurs qui y sont exposés. Les taux peuvent varier fortement selon les lieux et les moments de prélèvements. Par exemple, dans trois mines de lignite de Turquie, on a relevé des concentrations variant de 50±7 à 587±16 Bq/m³ d’air.

La combustion de la houille utilisée dans les centrales thermiques émet des fumées qui sont acides et polluantes. Elles contiennent notamment des traces de vapeur de mercure et de métaux lourds et/ou radioactifs. Les cendres, résidus solides de la combustion du charbon, de ces centrales sont également chargées de métaux lourds avec des traces parfois significatives d’éléments radioactifs, atteignant de 20 à 120 ppm (U, Th, Ra…). Celles-ci accumulées sur les crassiers, sur plusieurs mètres d’épaisseur, sont exposées au vent et à la pluie. Elles sont utilisées comme fond de couche routière, matériaux de remblai ou de construction, avec le risque de polluer les nappes phréatiques.

Formaation du charbn

Fig. 1 – Formation du charbon en 4 étapes

D’après compilation WEB et livres de SVT

Les hydrocarbures naturels sont des composés organiques comprenant des atomes de carbone et d’hydrogène, dont la formule brute est CnHm. Ils peuvent être :

  • des bitumes libres (gaz, pétroles, cires minérales, asphalte…) solubles dans des solvants particuliers ;

  • des bitumes potentiels (pyrobitumes, schistes bitumineux) incorporés dans certaines roches (roches mères) dont ils sont extraits par distillation.

La teneur de ces roches en U est très variable, de quelques millièmes de ppm à quelques centaines de ppm. Cet élément dont on ne sait pas sous quelle forme il s’incorpore à la roche, est soluble dans des acides et sa teneur est fonction du pourcentage de matière organique. Les schistes les plus uranifères sont noirs du fait de leur forte teneur en matière organique. Ils sont généralement riches en sulfures et pauvres en carbonates.

Certains schistes bitumineux sont parmi les roches sédimentaires les plus radioactives. Leur teneur peut varier de 0,001 à 0,035% d’U comme ceux des Etats-Unis. Les schistes bitumineux les plus anciens sont les plus radioactifs. Les plus jeunes, d’âge inférieur au Secondaire, le sont beaucoup moins.

3. Dans les marnes et argilites

Les argiles sont généralement fortement radioactives. Elles contiennent du 40K dont les nombreuses charges négatives absorbent le Th et l’U. Il est donc possible, si l’on connaît le contexte géologique, de procéder à une analyse quantitative de la teneur en argile d’une roche en établissant le dosage des trois radioéléments fixés. Par contre, le radium est mobile et se retrouve dans tous les terrains. Pour obtenir une interprétation valable, il faudra mesurer la part du radium dans la radioactivité naturelle.

Les causes de la radioactivité des argiles sont diverses :

  • Il s’agit d’argiles potassiques ;
  • Les argiles ne sont pas potassiques, mais elles sont accompagnées de minéraux accessoires à potassium, uranium et thorium ;

  • A l’origine non radioactives, les argiles ont absorbé des cations comportant uranium et thorium ;

  • Certains types lithologiques sont de par leur nature radioactifs : niveaux de sels potassiques, hard-ground phosphatés, grès micacés de la mer du Nord.

Les marnes seront plus ou moins radioactives selon la proportion argile / calcaire.

 4. Dans les phosphates

Certains gisements de phosphates sont des marnes ou des craies phosphatées qui se sont formés en bordure de continent ou en mer peu profonde. Le phosphate de calcium, Ca3(PO4)2, est d’origine biochimique et résulte de l’accumulation de squelettes et de cadavres d’organismes vivants. On trouve généralement de l’U diffus dans tous les phosphates et pratiquement pas de Th. Les phosphates marins sont plus riches que les phosphates continentaux. Il semble que la teneur en U augmente avec celle de la matière phosphatée, et qu’elle varie en raison inverse de la teneur en carbonate de calcium (CaCO3).

Les phosphates sédimentaires contiennent de l’U à des teneurs variables entre 50 et 200 ppm le plus souvent en équilibre avec ses descendants radioactifs, notamment le 226Ra. Comme ce dernier génère du 222Rn, les phosphates constituent une source de radon. La production d’acide phosphorique H3PO4 à partir des phosphates se fait principalement par attaque chimique à l’aide de l’acide sulfurique H2SO4. Le résidu solide de cette réaction, le phosphogypse, (CaSO4,2H2O) contient 236Ra à des activités spécifiques variables entre 300 et 900 BqKg-1. Il est également une source émanatrice de radon. Une partie du radon reste bloqué dans la structure cristalline, une autre diffuse vers l’extérieur, donnant naissance aux émanations (Berrada M. et al, voir bibliographie).

Dans le Bassin de Mons, il existe une région (Cuesmes – Mesvin – Ciply) où affleurent des craies phosphatées datées du Maestrichtien inférieur. Ces formations sont bien connues des géologues du fait de leurs intérêts économique (phosphates), stratigraphique et paléontologique (Mosasaures). Les carrières souterraines de La Malogne ont été creusées, à la fin du XIXe siècle, sous le territoire de Ciply, afin de permettre l’exploitation des craies phosphatées. Cette assisse, d’une épaisseur variant de 3 à 8 mètres, est constituée de calcarénite grise ou brune formée de nombreux grains plus ou moins phosphatés noyée dans une matrice crayeuse bioturbée, intercalée entre un hardground au sommet et le poudingue de Cuesme à la base, formé d’une accumulation de galets phosphatés et de débris fossiles. Cette craie contient en moyenne 20 à 25% de grains de phosphate de chaux, dont la teneur en U est loin d’être négligeable.

Des études sur la sismicité du Bassin de Mons y ont été menées par nos scientifiques (Charlet et al, 1990) et ont permit de classer la zone parmi les plus riches en radon de la région de Mons.

La teneur moyenne globale de l’U dans les phosphates varie dans de larges proportions selon leur origine :

Origine Teneur en ppm
Maroc 200 à   350
Tunisie   90 à   250
Algérie 200 à   250
Egypte             100
Floride   10 à 1.500
France   20 à    150
  • Berrada, Boujrhal F.Z., Choukri A., Khoukhi T.EL, Iraqi M.R. – Emanation radon de phosphates sédimentaires et phosohogypses correspondants, in Radon et gaz rares dans les sciences de la Terre et de l’environnement, Actes du Colloque International sur la Géochimie des Gaz (3-6/10/1990), pp. 253-258.

  • Chapellier, Mari J.-L. – Principe de base – Cours on line de géophysique – Institut Français du Pétrole, http://www-ig.unil.ch/cours/pdf/doc_res/res_f.pdf

  • Coppens (1957) – La radioactivité des roches, PUF, « Que sais-je ?», N° 741.

  • Doremus, Kotzmann-Routier V., Quinif Y., Charlet J.-M., Flemal J.-M. – La pollution domestique par le radon – Etudes de cas : région de Mons, région de Monceau-en-Ardenne (Belgique), in Radon et gaz rares dans les sciences de la Terre et de l’environnement, Actes du Colloque International sur la Géochimie des Gaz (3-6/10/1990), pp. 33-45.

  • Pomerol , Fouet R. (1953) – Les roches sédimentaires, PUF, « Que sais-je ?», N° 595.

  • http://www.solem.ch/Tunnel/didacticiel/reconnaissances/reconnaissances/MethGeophys/Radioactivitedescription.htm

[1]  A.P.I. est une unité de calibration utilisée par les pétroliers dans les diagraphies de rayonnement γ. Cette unité est basé sur la radioactivité artificielle d’un bloc de béton situé à l’Université de Houston (Texas) et qui correspond à 200 A.P.I. Cette valeur a été choisie car elle correspond à deux fois la radioactivité d’un schiste typique. Les valeurs du rayonnement γ naturel sont exprimées en unité API et ensuite recalculée en cps (coups par seconde).

[2] Clarke : teneur moyenne d’un élément chimique dans la croûte terrestre, exprimée en g/t ou ppm (partie pour million).

Catégories : Radioactivité naturelle | Étiquettes : | Poster un commentaire

LA RADIOACTIVITE DES ROCHES (2)

Article paru dans le Bulletin du G.E.S.T., N° 171, janvier 2012

Robert SIX

I. ORIGINES DE LA RADIOACTIVITE DES ROCHES

Ce qui intéresse plus particulièrement le géologue ce sont les teneurs moyennes mesurées pour une « province pétrographique » déterminée, répondant à un faciès chimique, comme nous avons pu le constaté pour les anomalies détectées dans notre pays.

Il est évident que l’étude approfondie d’un massif rocheux montre que la radioactivité n’est pas répartie de façon homogène mais présente des variations systématiques. Les analyses détaillées par plaques nucléaires ont permit d’établir trois origines de la radioactivité : les inclusions, les fissures et la dispersion dans les minéraux essentiels.

A. Inclusions

Un minéral peut contenir des inclusions qui peuvent être d’autres minéraux ou roches, un liquide, un gaz, ou tout corps englobé dans le minéral hôte (insecte dans l’ambre). On distingue deux types d’inclusions, selon le moment où elles apparaissent dans le minéral hôte :
1. les inclusions primaires qui apparaissent durant la phase hydrothermale de la cristallogenèse dans les fractures du minéral ;
2. les inclusions secondaires qui se forment après la cristallisation du minéral.

Par exemple, dans un granite composé des trois éléments habituels, biotite, quartz et feldspath, on peut constater que ceux-ci peuvent émettre un rayonnement α. En fait ces éléments purs présentent une très faible activité propre. Une étude précise démontrera que les rayons α sont émis par les inclusions qu’ils contiennent : zircon, apatite, uraninite, etc.

B. Fissures

Lorsque des fissures se forment dans la roche, lors d’une phase de métamorphisme, des phénomènes hydrothermaux se mettent en place. L’augmentation de la température et de la pression favorise la circulation d’eaux chaudes ou de vapeur au sein de la roche, capables de dissoudre de nombreux éléments et de provoquer leur migration vers les zones de vide formées par ces fissures. La roche autour de ces dernières se déminéralise au profit des cristaux qui se forment dans les zones de vide.

La nature des cristaux dépend de la composition de la roche puisqu’elle en fournit les éléments. Elle dépend également de la température et de la pression, car la dissolution d’un élément répond à une combinaison caractéristique à cet élément du couple température – pression.

Le remplissage de ces fissures ou micro fractures peuvent présenter une radioactivité plus élevée que la roche elle-même, du fait que des éléments comme l’uranium, le thorium ou le potassium se retrouvent en inclusions dans les cristaux qui se forment dans ces cavités. On peut en tirer la conclusion que la radioactivité concentrée dans ces fissures ou ces interstices est d’origine postérieure à la formation de la roche.

C. Dispersion dans les minéraux essentiels

Les minéraux dans lesquels entrent des éléments radioactifs peuvent être subdivisés en minéraux essentiels et minéraux accessoires. Les minéraux essentiels sont des constituants importants des roches. En plus de ces deux catégories, il faut ajouter les accumulations exceptionnelles ou anomalies que nous avons déjà rencontrés dans l’article précédent.

Comme nous l’avons déjà signalé, toutes les roches sont susceptibles d’être radioactives, du fait de la dissémination générale des trois radionucléides naturels, uranium, thorium et potassium. Toutefois, ils se fixent préférentiellement sur les sédiments fins, de sortes que ces derniers sont plus radioactifs que les sédiments plus grossiers.
Lorsque la radioactivité est répartie dans les minéraux essentiels, elle est contemporaine de la roche.

Le potassium entre dans la composition de nombreux minéraux essentiels. Les feldspaths potassiques et les micas en contiennent beaucoup.
Généralement, l’uranium et le thorium, lorsqu’ils se trouvent en faible quantité, ne peuvent former de minéraux proprement dits et sont toujours associés à d’autres minéraux, plus particulièrement aux terres rares, au zirconium et au calcium.

Les principaux minéraux accessoires que l’on retrouve sous forme d’inclusions microscopiques dans les roches sont :

• les zircons (ZrSiO4), silicate de zirconium, du groupe des néosilicates. Les cristaux de zircon les plus anciens actuellement connus sur Terre ont été trouvés dans la formation Narryer Gneiss Terrane du craton Yilgarn en Australie occidentale, avec un âge estimé à 4,404 milliards d’années. Ils sont relativement fréquents dans les roches plutoniques de type granitoïde (granites) et les roches alcalines (pegmatites ou syénites). On les retrouve également dans des gneiss et souvent en inclusions dans la biotite contenue dans ces roches. On peut parfois les trouver en abondance dans les syénites. Par contre, ils sont rares dans les laves et les tufs. Dans les roches métamorphiques, ils se présentent sous une forme recristallisée ou épitactique . Ils peuvent également se retrouver dans des sédiments en tant que matériaux détritiques.

Les zircons peuvent contenir, à l’état de traces, de l’uranium ou du thorium radioactif, par substitution d’atomes de Zr. La proportion 235U/207Pb ou 232Th/208Pb permet d’estimer l’âge du cristal et par déduction celui de la roche qui le contient.
Les zircons que l’on trouve dans la biotite sont généralement entourés d’un halo pléochroïque, cercle plus ou moins foncé ou opaque. Ce phénomène est dû à l’action du rayonnement α émis par les impuretés radioactives du cristal qui détruisent la matrice de la biotite.

halo pléochrïque

Fig. 1 – Un zircon dans une matrice de biotite, entouré d’un halo pléochroïque.

• les sphènes, ou titanites (CaTi(SiO5), du groupe des nésosubsilicates sont caractéristiques des roches magmatiques sodiques (granites, syénites, trachytes, andésites) et métamorphiques de faciès amphibolique (gneiss, amphibolites, etc.). On les trouve en association avec des feldspaths, de la néphéline, de l’ægyrine, du zircon, de l’apatite.

• les apatites, phosphates de composition variable répondant à la formule générale Ca5(PO4)3(OH,Cl,F). Ce sont des minéraux secondaires communs des roches magmatiques alcalines (granites, syénites, pegmatites, et laves équivalentes) et des roches riches en Ca (carbonatites, calcaires métamorphiques)

• les allanites, sous espèces des épidotes, contenant des terres rares (Ce, Th, Y…), rattachées au groupe des sorosilicates. Ce sont des minéraux accessoires de certains granites et pegmatites. La radioactivité des allanites est très variable : inactives à quelques dixièmes de rayons α/cm²/s, soit une teneur en Th voisine de 1%, avec parfois un peu d’U.

• les monazites, nom générique de trois espèces de phosphates (Ce PO4 ou (Ce, La, Th)(PO4)). Ce sont des minéraux accessoires des granitoïdes à biotite, et de leurs pegmatites. Toutes les terres rares peuvent entrer dans la structure des monazites et leur capacité à accepter l’uranium et le thorium en fait les minéraux les plus radioactifs après l’uraninite (UO2), la thorianite (ThO2) et la thorite ((Th, U) SiO4).

• les xénotimes, phosphates d’yttrium (YPO4) assez rares. Ils sont associés aux zircons dans des pegmatites riches en muscovite. On les trouve en faible quantité dans les roches acides comme les granites et les pegmatites et aussi en inclusions dans les biotites des granites. Ils sont également présents dans les roches métamorphiques et dans les dépôts de sédiments détritiques à la suite de la désagrégation des roches qui les contenaient.

Ces différents minéraux ne sont pas, à proprement parler, des minerais d’uranium ou de thorium. Ils contiennent ces éléments non pas comme constituants normaux, mais plutôt sous forme d’impuretés.

II. RADIOACTIVITE DES ROCHES MAGMATIQUES

A. Teneur moyenne des éléments radioactifs des roches magmatiques

D’après les premiers auteurs (HOLMES) qui ont utilisé des méthodes radiométriques se basant sur l’émission de radon, les teneurs moyennes en uranium seraient de 9,10 ppm pour les roches acides qui contiennent plus de 65% de silice, et de 3,20 ppm pour les roches basiques, contenant moins de 50% de silice. Une autre méthode consiste à mesurer directement la radioactivité γ des descendants de l’uranium comme le 214Bi (bismuth). Il suffit de mesurer le niveau de rayonnement ambiant total au-dessus de la zone à prospecter, au moyen d’un compteur gamma portatif ou embarqué à bord d’un véhicule ou d’un aéronef.

D’après des mesures obtenues par les nouvelles techniques décrites dans l’article précédent, ces chiffres semblent trop élevés.
Ainsi, pour des roches granitiques, les valeurs suivantes ont été avancées par différents chercheurs :

Auteurs ppm d’U ppm de Th
Evans et Goodman (1941) 3,00 13
Keevil (1938) 2,77   7,94
Sentle et Keevil (1947) 3,84 à 4,02 13,1 à 13,5

 

Ces données sont reprises d’un ouvrage paru en 1957. Il s’agit de « La radioactivité des roches » par René COPPENS, Maître de Conférences de Radiogéologie à la Faculté des Sciences de Nancy. Lui-même a analysé plus de 1.000 échantillons de roches acides (granites et granulites) de Bretagne par la méthode des plaques nucléaires. Il a mis en évidence une émission α d’une moyenne de 0,80.10-3/cm²/sec., ce qui pourrait correspondre à une teneur moyenne en uranium de 3,7 ppm et une teneur moyenne de Th de 10,1 ppm.

Une autre source, plus récente, donne, toujours d’après HOLMES, une teneur moyenne du granite en uranium de 8.10-6. Ce qui permet de déduire, si l’on admet une densité de 2,70 pour le granite, que 1 m³ de granite contient 21,6 g d’uranium et 1 Km³ en contient 21.600 t (POMEROL et FOUET, 1975).

Dans le manuel « Les minéraux, leurs gisements, leurs associations », les auteurs (P. BARIAND, F. CESBRON et J. GEFFROY) avancent qu’il n’est pas aisé de séparer géochimiquement le comportement de ces deux éléments, tous deux lithophiles et que le clarke d’ensemble est de 2,7 g/t pour l’U et de 9,6 g/t pour le Th mais que ces deux éléments sont surtout concentrés dans les granites et les syénites : environ 3 g/t pour U et 8 à 17 g/t pour Th. Les teneurs sont plus faibles dans les basaltes (1 g/t pour U, 4 g/t pour Th) et très faibles dans les péridotites (1 ppm de U, 4 ppm de Th).

B. Le cas des roches basiques

Comme le montre les résultats de HOLMES, les roches basiques présentent un taux de radioactivité d’environ trois fois moindre que celui des roches acides, soit en moyenne de 1 à 2 ppm d’uranium et de 3 à 4 ppm de thorium. Quant à la répartition de cette activité, elle se montre fort différente de celle des roches acides, et semble plutôt diluée dans la masse de manière particulièrement uniforme. On n’y distingue peu d’inclusions actives.

Les mesures d’activités faites sur un certain nombre de type de roches montrent une activité très basse pour les gabbros, moyenne pour les diorites et beaucoup plus élevée pour les roches acides.
On constate, sans toutefois, en tirer une relation, que l’activité augmente avec la teneur en silice qui varie pour ces roches de 40 à 75%.

Toutefois, sur la base de différentes mesures, des teneurs moyennes (ordre de grandeur) ont pu être estimées :

ppm d’U ppm de Th
Gabbros (moins de 50% de Si) 1 3
Roches intermédiaires :

Diorites (moins de 60% de Si)

Syénites, granodiorites (50 à 60% Si)

 

1,5 à 2

 

5 à 6

Roches acides (famille des granites)

(65 à 70% Si)

3 à 4 9 à 12

C. Le cas des roches volcaniques

Lors d’une éruption volcanique, les roches émises le sont sous forme de coulées de lave, de produits de projection, de nuages de cendres et de nuées ardentes.

D’une manière générale, on peut dire que les volcans « rouges » effusifs sont moins radioactifs que les volcans « gris » explosifs. Ainsi, les laves des volcans d’Hawaii, basaltiques, et leurs équivalents plutoniques (les gabbros) sont moins radioactifs que les laves des volcans de la ceinture de feu du Pacifique (rhyolite) et leurs équivalents plutoniques (les granites).

Deux processus interviennent dans la formation des laves : d’une part, la cristallisation et la différentiation magmatique, et, d’autre part, les coefficients de partage.

1. Cristallisation et différentiation magmatique

Lors de sa remontée vers la surface, le magma subit une cristallisation fractionnée et une différentiation. Au départ, le magma primitif est généralement plus proche d’un basalte. Lorsqu’il commence sa cristallisation, il le fait de manière différentielle, c’est-à-dire que certains minéraux cristallisent (olivine, pyroxènes) en premier, appauvrissant la masse en Fe, Mg et l’enrichissant en Si, Al, Na, K. Si le processus de cristallisation se poursuit suffisamment longtemps, le magma basaltique du début devient plus granitique.

2. Coefficients de partage

On retrouve nos éléments radioactifs classiques (40K, 230Th, 235U et 238U) également dans les roches volcaniques, mais à des teneurs variables selon leur nature : plus élevées dans les laves siliciques que dans les laves plus mafiques.
Dans le système basaltique, ces éléments sont dits « incompatibles », car pour des raisons cristallochimiques, ils sont incapables de s’incorporer dans la structure des cristaux formés dans le magma basaltique (olivines, pyroxènes). Ils restent dans le magma résiduel jusqu’au moment où celui-ci atteint des compositions granitiques (rhyolitiques) et que la présence de feldspaths alcalins permet l’incorporation du K dans les nouveaux cristaux en formation.
Cet élément chimique se compose de trois isotopes : les isotopes 39K et 41K qui sont stables et représentent 99,99% du potassium naturel, et le 40K, isotope radioactif dont la demi-vie est de 1,28 milliards d’années.
Neuf fois sur dix, le 4019K se désintègre par émission α en 4020Ca (calcium). La dixième fois il se transforme en 40 18Ar (argon) par capture électronique.
Tant que la lave est liquide, l’argon formé peut s’échapper, et comme il s’agit d’un gaz inerte, il ne peut se combiner chimiquement avec un constituant de la roche. Lorsque la lave se refroidit, il reste prisonnier de la roche et s’y accumule, permettant à un minéralogiste de déterminer l’âge de la roche à analyser par la méthode K/Ar ou 39Ar/40Ar déjà évoqué précédemment.

Le Th et l’U vont atteindre des valeurs proches de la saturation et vont « s’incruster » lors des dernières phases de cristallisation (apatites, zircons, monazites, allanites, etc.).
Ce processus a pour conséquence, qu’au final, un granite / rhyolite est plus radioactif qu’un gabbro / basalte.

Le nuage de cendres volcaniques du volcan Eyjafjöll

Ce que peu de gens savent, c’est que le nuage de cendres volcaniques émis par le volcan islandais Eyjafjöll à la fin du mois d’avril 2010 a rejeté dans l’atmosphère des émissions radioactives, comme tous les volcans d’ailleurs.

Selon les dires du scientifique Hervé NIFENECKER , il s’agirait de près de 600 tonnes d’uranium et 1.800 tonnes de thorium. Pour avancer ces chiffres, il s’est basé sur les calculs de l’Institut de volcanologie islandais. D’après celui-ci, 80 millions de m³ de tephra correspondant à 200 millions de tonnes ont été dispersés dans l’atmosphère durant les 72 premières heures de l’éruption. En tenant compte d’une concentration moyenne de 3 g/t d’uranium dans la croûte terrestre et d’environ 10 g/t pour le thorium, NIFENECKER arrive aux nombres de tonnes d’uranium et de thorium cités plus haut, retrouvés dans le nuage de cendres.

Une autre source, l’IRSN , avance des chiffres un peu moins élevés : 400 tonnes d’uranium et 1.300 tonnes de thorium, pour un rapport Th/U égal à 3,3 (VIASTELIC et al. 2006).

L’activité spécifique de ces éléments s’élève à 12.300 Bq/g pour l’238U et 4.100 Bq/s pour le 232Th. Afin de tenir compte des descendants émetteurs α, avant le radon, on peut multiplier ces valeurs par 4 pour l’uranium, soit 49.200 Bq/s, et par 3 pour le thorium, soit 12.300 Bq/s.

NIFENECKER a voulu faire une comparaison de la toxicité du nuage volcanique avec celui de la catastrophe de Tchernobyl.
Rappelons que dans le cas de l’explosion de la centrale russe, les retombées les plus toxiques furent celles du 137Cs (césium) et de l’131I (iode).

En utilisant les facteurs de dose de la CIPR , il établit le tableau suivant pour les risques sanitaires :

Ingestion adulte Ingestion 1 an Inhalation
137Cs (Tchernobyl) 7,8 x 108 5,76 x 108 2,76 x 108
Uranium (Islande) 5,9 x 106 1,0 x 107 3,8 x 108
Thorium (Islande) 6,1 x 106 1,2 x 107 4,0 x 108
Total (Islande) 1,2 x 107 2,2 x 107 7,8 x 108

En conclusion, la radiotoxicité par inhalation des cendres de l’éruption serait supérieure à celle due aux retombées de 137Cs de Tchernobyl, mais 20 à 50 fois moins radiotoxique à l’ingestion.
En réalité, il est difficile de mesurer les effets radioactifs des émissions volcaniques car d’autres sources naturelles de propagation existent. Ainsi, les vents de sable provenant du Sahara transportent aussi des quantités significatives d’uranium et de thorium.

Eyjafjöll

Fig. 2 – Le nuage de cendres du Eyjafjöll

III. RAPPORT THORIUM / URANIUM

Bien qu’on les trouve en proportions diverses dans toutes les roches, l’uranium et le thorium sont fréquemment associés. De nombreux auteurs ont remarqué que dans les roches magmatiques, le rapport uranium/thorium paraît constant et proche de 3 (COPPENS). Lorsque l’on se trouve en présence d’inclusions, le rapport Th/U peut être très variable, du fait que ces deux éléments n’y sont pas répartis également. Pour que la mesure ait un sens, il est impératif de disposer d’un échantillon suffisamment important. Ce rapport, estimé par différents auteurs a donné des valeurs très variables : 2,6, 1,7, 2,8, 2,5, 3,3, 4,5, 4,00 (COPPENS). La moyenne Th/U des mesures plus précises effectuées par SENFTLE et KEEVIL, sur des roches granitiques, se situe aux environs de 3,4. Pour des roches intermédiaires, toujours d’après ces mêmes auteurs, elle est légèrement plus élevée et se chiffre à 3,98. Malgré ces fluctuations, il n’en est pas moins vrai que les roches contiennent une proportion de thorium en rapport avec celle de l’uranium. Ceci prouve que ces deux éléments ne se sont guère séparés durant la genèse de ces roches et qu’ils ont eu des chimies identiques durant cette période. Du fait qu’ils ont des valences 4+ identiques, stable pour Th et pouvant devenir 6+ pour U dans certaines conditions, il est normal que leurs processus de cristallisation soient identiques pendant la formation des roches qui les contiennent..

Le thorium apparaît dans les trois grandes familles de radionucléides naturels. Il est l’un des descendant de l’238U sous sa forme 230Th d’une période de 75.380 ans. Il forme sa propre famille comme nous l’avons déjà vu plusieurs fois à partir du 232Th d’une période de 1,45.1010 ans. Dans le milieu naturel, il est toujours en équilibre avec ses descendants (équilibre séculaire), tout comme l’238U.

Dans les minéraux, un état stationnaire s’établit au long des chaînes de désintégration, que l’on appelle « équilibre séculaire ». L’abondance relative de chacun des isotopes intermédiaires dépend de leur période respective : plus la période est courte, moins l’élément est abondant. A l’équilibre séculaire, le nombre de désintégrations par seconde, ou « activité radioactive » est le même pour tous les radionucléides de la chaîne. L’ensemble des réactions dans les minéraux d’une roche se résume à la transmutation progressive des atomes de l’isotope de tête de chaîne, par exemple l’238U, en atomes de l’isotope stable final, le 206Pb dans ce cas. Le problème est analogue à celui que tout élève a dû résoudre en arithmétique : celui des baignoires et des robinets

Il peut arriver que l’équilibre séculaire soit rompu, notamment lorsqu’une réaction physico-chimique isole l’un des intermédiaires par rapport à ses ascendants ou descendants. Après quelque temps, l’équilibre se rétablit plus ou moins rapidement selon la période des isotopes considérés. Ces ruptures d’équilibre sont très importantes pour les études de chimie environnementale.
Ainsi, l’uranium et le thorium subissent une séparation importante, si le milieu devient nettement oxydant, car l’uranium passe de l’état U4+ à l’état U6+, devenant très soluble, tandis que le thorium ne change pas et reste à l’état Th4+. Dans ces conditions, ils possèdent des chimies différentes ; les composés de l’U6+ se dissocient de ceux du Th4+, par dissolution et se recristallisent séparent, formant des minéraux d’uranium sans thorium.
Les roches qui n’ont pas été oxydées auraient un rapport Th/U entre 3 et 4, tandis que celles qui ont subi une oxydation et un lessivage verraient leur rapport Th/U nettement supérieur à 3. Par contre, les roches sédimentaires afficheraient un rapport Th/U inférieur à cette valeur.
On peut en tirer une hypothèse qui demande à être confirmée : le rapport Th/U permettrait de se faire une idée sur la formation des roches.

Le processus d’équilibre séculaire a été mis à profit pour déterminer une méthode de datation : la méthode thorium/uranium. Celle-ci s’applique à des systèmes constitués par des minéraux accessoires riches en uranium et en thorium (monazites, zircons, minerais d’uranium et de thorium…). Elle est utilisée dans de nombreuses applications comme la datation des diverses concrétions calcaires, la détermination de l’âge des fossiles de mollusques ou celle des coraux, etc.

A titre d’exemple et de conclusion pour cet article, je donne les résultats d’analyse effectuées lors de l’expédition franco-italienne en Dankalie (Afar, Ethiopie) durant la campagne de décembre 1967 à février 1968.
Les concentrations en U, Th et K ont été déterminée par spectrométrie γ dans plus de 100 échantillons de roches volcaniques prélevées dans deux zones géographiquement distinctes:
1. la dépression danakile (chaîne de l’Erta Ale, massif Pierre Pruvost, Alyata, Afdera, Borawlu) ;
2. Hauts-plateaux éthiopiens (Adigrate – Axum).
Les valeurs obtenues donnent les teneurs suivantes :

Lieux Roches K U Th Th/U
Erta-Ale basaltes 0,5% 1,3 ppm 3,3 ppm 2,6
Rhyolites alcalines 2,3% 4,1 ppm 15,2 ppm 3,7
Pierre Provost acides 3,9% 3,6 ppm 13,5 ppm 3,8
Borawlu rhyolites 2,8% 4,6 ppm 14,7 ppm 3,4
basaltes 0,6% 0,9 ppm 3,1 ppm
Hauts-plateaux Trapps basaltiques Adigrate 0,6% 0,6 ppm 1,1 ppm 1,7
Phonolites Axum 3,9% 2,7 ppm 14,9 ppm 4,9

IV. BIBLIOGRAPHIE

 BARIAND P., CESBRON F., GEFFROY J. (1978) – Les minéraux, leurs gisements, leurs associations, T. 2, Minéraux et Fossiles.
 COPPENS R. (1957) – La radioactivité des roches, Presses Universitaires de France, coll. « Que sais-je ? », 741.
 HAMELIN B. – L’environnement daté et chronométré, in Noyaux atomiques et radioactivité, Dossier Pour la Science, oct. 1996.
 POMEROL C., Fouet R. (1975) – Les roches éruptives, Presses Universitaires de France, coll. « Que sais-je ? », 542.
http://www.springerlink.com/content/g7l0066516k20g4t/

Catégories : Notes de lecture, Radioactivité naturelle | Poster un commentaire

LA RADIOACTIVITE DES ROCHES

Article paru dans le Bulletin du G.E.S.T., N°170, novembre 2011

1. INTRODUCTION GENERALITES

Afin de nous resituer dans le contexte, je renvoie le lecteur à l’article « La radioactivité et la géologie ». Cette fois, j’aborderai plus spécifiquement la radioactivité des différentes familles de roches.
Les roches magmatiques issues du magma se forment en profondeur là où la chaleur due aux éléments radioactifs est importante. Ce sont des roches, comme les roches métamorphiques, du type « cristallines » car lors du refroidissement il s’y forme des cristaux dont la taille est inversement proportionnelle à la vitesse de refroidissement : plus le refroidissement est rapide plus petits sont les cristaux et inversement.
Notre planète est un corps tiède dont la chaleur interne est due à la désintégration des éléments radioactifs incorporés, dans ses roches. Cette radioactivité qui maintient une température clémente est l’une des causes, qui ont favorisé l’éclosion de la vie sur Terre. Seule une faible proportion de cette chaleur s’échappe du globe en raison de ses dimensions. La désintégration des isotopes 235U (0,70 milliards d’années), 238U (4,47 milliards d’années), 232Th (14 milliards d’années) et 40K (1,28 milliards d’années) est à l’origine des 80% de l’énergie émergeant à la surface du sol. Cette énergie est en constante diminution à la suite de la disparition de ces éléments radioactifs selon la loi de décroissance exponentielle propre à chaque élément (demi-vie).
Si l’on se reporte aux radioéléments appartenant aux trois grandes familles radioactives naturelles (235U, 238U, 232Th), on peut dire que d’un point de vue géologique et géochimique, leur évolution et répartition dépendent essentiellement de celles de l’uranium et du thorium. En dehors de ces trois familles, seul le 40K (potassium) est susceptible de jouer un rôle en radiogéologie, les autres éléments étant rares et de faible activité.


II. L’URANIUM

L’uranium de numéro atomique Z = 92 est classé dans les atomes à sept couches électroniques. Son nombre de masse est 238,03. Il fait partie du groupe des actinides de la classification périodique, qui comprend les éléments chimiques se situant entre l’actinium et le lawrencium, dont le nombre atomique varie de Z = 89 à Z = 103. Ce sont tous des éléments radioactifs et ils ont des propriétés chimiques voisines. Les actinides dont le numéro atomique est supérieur à 92 sont des éléments artificiels appelés transuraniens. Ils sont générés par la capture de neutrons, sans fission.

Bien que le minerai d’uranium soit connu depuis le Moyen Age, où il est signalé à plusieurs reprises, notamment en Saxe, l’oxyde d’uranium ne sera découvert qu’en 1789, par le chimiste autrichien Martin-Heinrich Klaproth (1743-1817). La couleur du minerai qui évoque la poix, lui valu le nom de pechblende (pech signifiant poix en allemand). C’est en chauffant un échantillon de pechblende en provenance de la mine de St-Joachimsthal, en Bohême, que Klapoth isole l’oxyde d’uranium auquel il donne le nom d’urane en référence à la découverte de la planète Uranus faite par Williams Herschel (1738-1822) huit ans plus tôt (1781).

En 1841, le chimiste français Eugène-Melchior Péligot (1811-1890) détermine que l’urane est composé de deux atomes d’oxygène et d’un atome d’un métal qu’il nomme uranium (UO2). Il estime sa masse volumique à 19 g/cm³.

Ce n’est qu’en 1896 qu’Henri Becquerel (1852-1906) met en évidence la radioactivité de l’uranium, en découvrant des plaques photographiques impressionnées placées à côté de sels d’uranium à l’abri de la lumière. Ensuite, Marie et Pierre Curie vont extraire, dans des conditions pénibles, de la pechblende deux nouveaux éléments, le radium et le polonium.

Avant la découverte du radium, le minerai d’uranium trouvait un emploi limité, comme pigment dans la manufacture des verres colorés, dans la céramique et la faïence, sous forme de diuranate de sodium (Na2U2O7) ou d’ammonium ((NH4)2U2O7). On le retrouvait aussi à de très faibles concentrations, pour colorer des céramiques dentaires. Il a été également utilisé comme additif dans la métallurgie pour obtenir de alliages rares, ou de catalyseur dans certaines réactions chimiques spécialisées et dans les films photographiques. Il sert aussi de lest à la place du plomb, en raison de sa forte densité (18,7). C’est ainsi, qu’en 1974, Eric Tabarly recourt à l’uranium pour alourdir son Pen Duick VI. En 1975, les Français mettent en orbite un satellite très compact du nom de Starlette, constitué d’un alliage à 1,5% de molybdène et 98,5% d’uranium afin de pouvoir viser au laser cet objet ressemblant, autant que possible, à un point matériel. Ironie de l’histoire, l’uranium a été longtemps utilisé comme blindage contre les radiations !

Après la découverte du radium, le minerai d’uranium fut exploité massivement pour en extraire le radium destiné à des fins thérapeutiques. Entre 1900 et 1939, les 7.500 tonnes extraites du sous-sol fournissent 900 g de radium. Il deviendra un élément stratégique lorsque, le 17 décembre 1938 Otto Hahn (1879-1968) et son assistant Fritz Strassmann (1902-1980) réalisent la première fission d’un atome d’uranium. Le sort de l’humanité allait changer !

Sa faible radioactivité génère une puissance de 0,1 W/tonne. Cette énergie est environ 1.000.000 de fois supérieure à celle dégagée par les combustibles fossiles, pour une masse équivalente, d’où son emploi dans l’industrie nucléaire.

C’est un élément chimiquement très réactif, du fait qu’il possède quatre valences[1] possibles (+III à +VI), les valences IV et VI étant les plus répandues dans les minerais. Sous la valence VI (ion uralyne), l’uranium est soluble, il forme avec l’ion carbonate des complexes très stables lui assurant une grande mobilité ; sous la valence IV, il est insoluble et présente alors des similitudes de comportement avec le thorium. Les conditions de passage de la valence IV à la valence VI dépendent du potentiel d’oxydoréduction du milieu.

Sa très forte affinité pour les oxyhydroxydes de fer, fait que lors de changements des conditions d’oxydoréduction, une diminution de la teneur en oxygène (condition réductrice) engendre une précipitation rapide de l’uranium sous formes d’oxyde (UO2). C’est ce type de précipitation qui est à l’origine du gisement d’Oklo (réacteur naturel) dont nous parlerons dans un article sur les gisements.

L’uranium se combine facilement pour former de nombreux composés chimiques dans la nature. C’est ainsi qu’on le retrouve dans pratiquement toutes les roches, où il s’allie avec des éléments tels que l’oxygène, l’azote, le soufre, le carbone, ou sous forme d’oxyde, de nitrate, de sulfure ou de carbonate. Par exemple, en combinaison avec l’oxygène, sous forme d’oxyde uraneux (UO2), il est l’un des constituant de l’uranite et de la pechblende deux des principaux minerais d’uranium.

Les formes d’oxydes d’uranium les plus répandus, U3O8 et UO2, sont solides, peu soluble dans l’eau et stables dans un large domaine de conditions environnementales. Le premier est le plus stable des composés d’uranium et le plus fréquent dans la nature. Le deuxième est utilisé pour obtenir le combustible des réacteurs. De part leur stabilité, ces oxydes sont choisis pour l’entreposage et le stockage de l’uranium.

Dans les calcaires, il s’allie aux carbonates. Dans les roches argileuses (argiles, schistes, phyllades) il se fixe sur les minéraux argileux et les matières organiques. Dans les roches gréseuses (sables, grès, quartzites), il peut se localiser dans les minéraux lourds comme par exemple les zircons ou les monazites. Il est également présent dans les roches magmatiques (granites).

L’uranium à l’état naturel est un élément fréquent, dont l’abondance est supérieure à celle de l’argent et l’or, et comparable à celle du molybdène ou de l’arsenic. Cependant, il est quatre fois moins abondant que le thorium. On le trouve en traces partout, dans le manteau et l’écorce terrestre, dans l’eau de mer et l’eau douce. Dans cette dernière, les concentrations  sont de l’ordre du µg/l, mais dans certains cas exceptionnels elles peuvent atteindre la dizaine de mg/l. Dans l’eau de mer, la concentration d’uranium est de 3,3 µg/l. On estime que les océans contiennent 4 milliards de tonnes d’uranium qui se renouvellent chaque année à raison de 20.000 tonnes grâce à l’apport des cours d’eau.

Même notre organisme comporte des traces d’uranium, à raison de 90 µg provenant de l’air que nous respirons, de l’eau et des aliments absorbés. Environ 66% se situent dans le squelette, 16% dans le foie, 8% dans les reins et les 10% restants dans les autres tissus.

Sa concentration varie en fonction du type de roche, et dans une même roche sa répartition peut être hétérogène. De plus, des processus géophysiques sont à l’origine des gisements d’uranium que l’on retrouve dans certaines couches rocheuses, dans des fractures ou dans des cavités. En moyenne, ces concentrations dans les sols sont de 3 à 4 ppm[2], mais elles peuvent atteindre 80 ppm dans certains schistes et 350 ppm dans les phosphates. Les teneurs les plus élevées se retrouve dans les roches magmatiques acides : de 1 à 6 ppm dans les granites et dans les syénites, de 2 à 7 dans les rhyolites et dans les trachytes, de 0,2 à 2 dans les gabbros et dans les diorites, de 0,2 à 4 dans les basaltes et dans les andésites, de 0,001 à 0,03 dans les roches ultrabasiques, de 0,1 à 30 dans les roches alcalines.


III. LE THORIUM

Le thorium de numéro atomique Z = 90 est, comme l’uranium, classé dans les atomes à sept couches électroniques. Il fait également partie de la famille des actinides du tableau périodique. Sa masse atomique est de 232,03806.

C’est en analysant un échantillon d’un minéral noir en provenance de l’île de Løvøy, en Norvège, que le chimiste suédois Jöns Jakob Berzelius (1779-1848), en 1829, découvre un nouvel élément qu’il nomme thorium d’après Thor, le dieu scandinave du tonnerre. Ce n’est qu’en 1889, que Marie Curie découvrit, en même temps que le chimiste allemand Gerhard Carl Schmidt (1865-1949), la radioactivité du thorium. Entre 1900 et 1903, Ernest Rutherford (1871-1937) et Frederick Soddy (1877-1956) démontrent que le thorium se désintègre selon une loi de décroissance exponentielle en une série d’autres éléments, ce qui les amènent à considérer la demi-vie comme l’une des caractéristiques importantes des éléments radioactifs. En 1907, Rutherford donne le nom d’ionium à l’un des éléments de la chaîne de désintégration de l’238U, avant que l’on ne réalise qu’en fait, il s’agit d’un isotope du Th, le 230Th.

Une nouvelle technique, la méthode de la zone fondue, mise au point par les chimistes néerlandais Eduard van Arkel (1893-1976) et Jan Hendrik de Boer (1899-1971), en 1925, permet de produire du thorium métallique de grande pureté. La méthode consiste à faire fondre, généralement par induction électromagnétique, une barre de métal dans un creuset, et de déplacer lentement la zone de fusion d’un bout à l’autre de la barre, toujours dans le même sens. Lors de la recristallisation, les impuretés se concentrent préférentiellement dans la zone fondue ; à chaque passage la barre est un peu plus purifiée, les impuretés s’accumulant à l’extrémité de la barre.

Dans la nature le thorium existe, pratiquement à 100%, sous la forme 232Th. D’autres isotopes se retrouvent à l’état de traces et proviennent de la chaîne de désintégration du 232Th (228Th ; 1,91 an) ; de l’238U (230Th ; 75.000 ans) ; et de l’235U (231Th ; 25,2 h). Tous les isotopes du thorium sont radioactifs. Le 232Th a la demi-vie très la plus longue parmi les éléments radioactifs naturel : 14,05.109 années, soit près de trois fois l’âge de la Terre. Cela en fait un élément mononucléidique, c’est-à-dire un élément naturellement présent sur Terre uniquement sous la forme d’un seul nucléide dont la masse atomique est caractéristique. Son abondance naturelle comporte un seul isotope stable, ou, dans ce cas-ci, un isotope instable à très longue durée de vie.

De plus, 232Th est un isotope fertile car il produit après capture d’un neutron un isotope fissile, le 233Th.

23290Th + 10n → 23390Th → 23392U + 2e + 2νe

Le deuxième isotope fertile dans la nature est l’238U qui donne par capture neutronique de l’239U.

23892U + 10n → 23292U  → 23994Pu + 2e + 2νe

Ces deux éléments peuvent être utilisés pour produire de l’énergie dans des réacteurs adaptés pour la surgénération. L’238U est utilisé dans un grand nombre de réalisations et est l’unique voie pour obtenir du 239Pu. Par contre, le 232Th n’a été utilisé jusqu’à présent qu’à titre expérimental, le principal obstacle étant qu’il n’est pas fissile mais simplement fertile, et que la fission de l’233U produit une faible quantité de neutrons.

Le thorium se trouve dans la majorité des roches et des sols. Il est quatre fois plus abondant que l’uranium et aussi fréquent que le plomb. Sa concentration dans un terrain normale gravite autour de 12 ppm. On le rencontre dans plusieurs minéraux comme la thorite (ThSiO4), la thorianite (ThO2) et surtout la monazite ((Ce,La,Nd,Th)PO4) qui peut contenir jusqu’à 12% d’oxyde de Th.

Ce n’est qu’à partir de 1885 que le thorium trouva une application industrielle dans l’utilisation des manchons à incandescence. L’industrie nucléaire s’y intéresse et l’intègre dans certains réacteurs à haute température HTR (High Temperature Reactor). L’une des options retenues pour alimenter ces réacteurs est le cycle thorium, utilisant l’235U enrichi à 90% ou plus de 232Th. Des prototypes de cette filière ont été construits en Angleterre, en Allemagne et aux Etats-Unis. Les sociétés françaises SFEC et CERCA se sont lancées dans la fabrication de combustible au thorium, mais en 1979, la France a abandonné cette filière. Des études sont en cours afin d’étudier la possibilité de produire de l’énergie à partir  du 232Th au moyen de réacteurs sous-critiques couplés à des accélérateurs de particules.

D’un point de vue militaire, la seule application française connue est l’adjonction de thorium au métal du carter des réacteurs ATAR qui équipe les avions Etendard et Mirage, pour en renforcer la résistance thermique.


IV. LA GEOLOGIE ISOTOPIQUE

La découverte de la radioactivité naturelle a ouvert des perspectives énormes en géologie. Les isotopes peuvent être comparés aux fossiles pour les paléontologues. En effet grâce à eux, il est possible de dater toute une gamme de terrains grâce aux roches qu’ils contiennent et ce à partir des tous premiers instants de la naissance de notre planète.

On peut mesurer la composition isotopique d’un élément chimique grâce au spectromètre de masse inventé en 1910 par sir Joseph John Thompson, physicien anglais (1856 – 1940) et perfectionné en 1919 par le chimiste et physicien anglais Francis William Aston (1877 – 1945).
Son principe est relativement simple et réside dans la séparation en phase gazeuse de molécules chargées (ions) en fonction de leur rapport masse/charge (m/z).
L’échantillon à analyser est ionisé, accéléré dans un champ électrique, puis le jet d’ions ainsi obtenu passe dans un champ magnétique. Les ions sont plus ou moins déviés en fonction de leur masse. A la sortie, ils sont transformés en courants électriques et l’intensité de ceux-ci est proportionnelle à l’abondance relative des diverses masses.


L’appareil comporte quatre parties principales :

        Un système d’introduction de l’échantillon à analyser

        Une source d’ionisation

        Un analyseur qui sépare les ions en fonction du rapport m/z

        Un détecteur et son système d’analyse.

 Spectromètre de masse

Fig. 1 – Principe du spectromètre de masse

 

Grâce à la connaissance isotopique d’un élément inclus dans une roche, les scientifiques peuvent établir des méthodes de datation absolue de celle-ci. Selon l’élément choisi, il est possible de couvrir pratiquement toutes les périodes géologiques. Ainsi, la méthode du 14C ne permet de remonter qu’aux environs de 50.000 ans. Celle du Rubidium – Strontium sert à dater des roches magmatiques ou métamorphiques entre 10 millions d’années à quelques milliards d’années. La méthode Uranium – Thorium – Plomb a permit d’estimer l’âge de la Terre. Citons encore la méthode Potassium – Argon (300 Ma à 100.000 ans), la méthode Argon 39 – Argon 40. Ces différentes méthodes de datation feront l’objet d’une autre série d’articles si le temps m’en donne l’occasion.

V. RADIOACTIVITE DES ROCHES DE BELGIQUE

Le tableau 1 ci-dessous donne les concentrations moyennes en uranium des grandes catégories de roches courantes en Belgique. On constate, à la lecture de celui-ci, que les grès (IDV) et les sables (SL2) sont très peu radioactifs.  Les schistes (RA8, RA32) et les argiles (A7) le sont un peu plus, de par le contenu en thorium dont le thoron (220Rn) est moins dangereux du fait de sa très courte demi-vie que le radon. Les roches carbonatées, calcaires (AN127) ou craies (CP001) contiennent peu d’éléments radioactifs. On remarque également quelques anomalies uranifères comme l’échantillon de schiste revinien de Stavelot (RA9), l’échantillon de grès schisteux siegénien de Daverdisse (AB6), un calcaire (AN146) et un schiste gréseux brun du Carbonifère, marquant le passage entre le Dinantien et le Namurien dans les environs d’Anhée et de Bioul, et enfin,  un phosphate de Ciply (CIP003).

 

Echant.

U (ppm)

Th (ppm)

K2O (%)

Nature de la roche

RA8

3,4

16,4

4,24

Schiste revinien

RA32

2,3

10,9

3,49

Schiste famennien

A7

2,6

11,8

2,87

Argile yprésienne

RA9

42,4

27,4

3,59

Schiste revienien

RA36

2,0

6

0,92

Grès couvinien

IDV

1,7

5

0,13

Grès d’Anor siegénien

SL2

1,1

2

0,83

Sable landénien de Blaton

AB6

25,0

5

2,11

Grès schisteux siegénien

YV1/2

86,2

1

0

Schiste gréseux brun carbonifère

AN127

1,1

5

0,06

Calcaire carbonifère

AN146

8,5

10,3

0

Calcaire carbonifère

CIP001

2,6

1,5

0

Tuffeau de Ciply crétacé

CR001

0,6

0,4

0,01

Craie d’Obourg crétacée

CIP003

40,7

0

0

Phosphate de Ciply crétacé

Tableau 1 – Concentrations moyennes en uranium, thorium et potassium de quelques roches courantes en Belgique

Notre pays ne comporte pas de véritables gisements, mais on y trouve de nombreuses concentrations anormales, comme le montre les échantillons RA9, AB6, YV1/2, AN146 et CIP003 du tableau 1.

Ces différentes anomalies ou indices radioactifs se concentrent spécialement dans le Dévonien de l’Ardenne, comme l’indice radioactif de Daverdisse, ou la zone radioactive constituées de plusieurs niveaux stratiformes ou lenticulaires située dans le Siegénien du Synclinal de Neuchâteau, dans la région de Chiny – la vallée de la Vierre, ou encore à Oizy en bordure de l’anticlinal de l’Ardenne. D’autres zones ont été découvertes dans le Viséen supérieur dans le Bassin de Dinant, dans des couches de transition du Viséen au Namurien.

 A.    Les anomalies radioactives de l’Ardenne belge

Une prospection radiométrique autoportée générale pour l’uranium en Ardenne a été entreprise dans les années 1980 par plusieurs de nos scientifiques (J.- M Charlet, L. Dejonghe, J. Jedwab, Y. Quinif, et bien d’autres.). Il en est découlé, la découverte d’un certain nombre d’anomalies radioactives dans le Dévonien inférieur : dans la région de Chiny – vallée de la Vierre, à Daverdisse et à Oizy.

 Anomalies Dévonien belge

Fig. 2 – Situation géologique des anomalies radioactives du Dévonien inférieur de l’Ardenne (carte géologique d’après Asselberghs (1946) et Beugnies (1982-1984))

1. Massif cambrien                                                        9. Complexe volcanique de la Croix Scaille

2. Gedinnien inférieur                                             10. Failles longitudinales majeures

3. Gedinnien supérieur (formation G2a)    11. Autres failles

4. Gedinnien supérieur (formation G2b)    12. Rivières

5. Siegenien inférieur                                                13. Autoroutes

6. Siegenien moyen                                                     14. Anomalies uranifères principales

7. Siegenien supérieur                                              15. Frontières

8. Jurassique

1.     Anomalies de la région de Chiny – vallée de la Vierre

On les retrouve dans une série de niveaux radioactifs stratiformes ou lenticulaires, dans une zone schistogréseuse du Siegenien inférieur du Synclinal de Neuchâteau, de près de 3 Km s’étendant d’ouest en est dans les vallées de la Semois et de la Vierre. Ces niveaux d’anomalies s’insèrent dans des schistes gréseux de couleur sombre (faciès des « schistes noirs ») et les teneurs en uranium peuvent atteindre 250 ppm. Ils se seraient formés durant la sédimentation (synsédimentation) suivie d’une mobilisation et d’une précipitation selon des processus d’oxydo-réduction. Minéralogiquement, il s’exprime sous forme de phosphoarseniates d’U et de Cu.

 2.     Anomalie de Daverdisse

Cette anomalie très localisée se situe dans la vallée de la Lesse près de Daverdisse. Nous sommes, dans cette zone de la Haute Lesse, dans les formations plissées et faillées du Dévonien inférieur. A l’endroit de l’anomalie on rencontre, en affleurement, des phyllades, des quartzophyllades, des grès argileux et des quartzites de la formation de St. Hubert.

L’indice coïncide avec une fracture transversale varisque de faible intensité. Elle est essentiellement liée à l’uranium avec des teneurs pouvant atteindre 0,3%.

D’un point de vue minéralogique, plus d’une vingtaine de minéraux, dont plusieurs étaient nouveaux pour la Belgique,  y ont été détectés par différentes méthodes : lames minces, microsonde électronique et spectromètre à dispersion. Les échantillons ainsi analysés ont permis d’établir la présence de minéraux appartenant à cinq familles principales (voir tableau 2) :

        Oxydes

        Séléniures, sulfures et métaux natifs

        Sulfates

        Phosphates

        Hydroxydes et oxysels

OXYDES                                                        SELENIURES, SZULFURES &

                                                                       METAUX NATIFS

 

Uraninite                                                          Clausthalite

Brannerite                                                        Tiemannite

Rutile(s)                                                          (Bravoite)

Anatase                                                           Pyrite

Oxyde rouge à U-Ti-Fe                                     Chalcopyrite

Quartz                                                             (Bohdanowiczite)

(Oxyde de bismuth)                                          (Naumannite)

                                                                       (Argentite ou acanthite)

SULFATES                                                      (Amalgame Ag-Hg)

                                                                       (Hg-Ag-Se)

Jarosite                                                            (Pb-Bi-Hg-Se)

(Plumbojarosite)                                               (Fe-Sb-S)

(Sulfate de Fe)                                                 (Ag)

                                                                       (Au-Pd)

 

HYDROXYDES                                              PHOSPHATES

 

(Hydroxyde de Fe à U, Bi, Zr)                           Xénotime

(Hydroxychlorure de Fe)                                   Tobernite

                                                                       Autunite

 

 

 Tableau 2 – Minéraux rencontrés dans les diverses paragenèses de Daverdisse (d’après J. Jedwab & L. Dejonghe)

L’origine de cet indice, du fait de sa coïncidence avec une fracture, pourrait être épigénique, c’est-à-dire que ce faible gisement métallifère s’est formé secondairement, les apports des minéraux étant liés à des solutions hydrothermales. En d’autres mots, à Daverdisse, l’uranium a été concentré et séparé du thorium et du plomb par lessivage des sédiments hôtes, durant l’orogenèse varisque, pour ensuite se déposer au niveau d’une fracture.

3.     Anomalie d’Oizy 

Cette anomalie se situe dans des fractures qui se sont ouvertes au sommet du Gedinnien inférieur, et qui ont été colmatées par des oxy-hydroxydes de Fe (goethite, lépidocrocite) et des minéraux argileux illite-kaolinite. L’origine de cet indice est à chercher dans des sols mis en place sous un climat subtropical durant la période Eocène-Miocène. L’uranium que l’on y trouve a dû vraisemblablement migré depuis la surface pour se bloquer sur les oxy-hydroxydes de Fe et les argiles de remplissage. Il est possible que l’uranium et le plomb uranogénique associés proviennent d’anomalies antérieures antédévoniennes, vraisemblablement cambriennes, pour ensuite être piégés au niveau d’un remplissage limonitique de fracture au Tertiaire.

 B.    Les anomalies radioactives du Viséen supérieur dans le Bassin de Dinant

 Anomalies Viséen belge

Fig. 3 – Localisation des principales anomalies radiométriques du Viséen supérieur du Bassin de Dinant (d’après Charlet J.-M., Ndziba M., Quinif Y.)

a. Dévonien inférieur ; b. Dévonien moyen ; c. Dévonien supérieur ; d. Dinantien ; e. Namurien

1. Florennes ; 2. Bioul (centre) ; 3. carrière de la Noire Terre (Bioul) ; 4. carrière de Jaiffe (Warnant) ; 5. bois de Warnant ; 6. route de Haut-le-Wastia ; 7. bois du Curé (Haut-les-Wastia) ; 8. lieu-dit Plantisse (Haut-les-Wastia) ; 9. chemin forestier des ruines de Poilvache, à la vallée de la Meuse ; 10. mont d’Houx (route de Purnode) ; 11. tranchée du chemin de fer ; 12. au N-E de Modave (talus de route) ; 13. route Modave-Ocquier

 

L’existence locale d’anomalies radiométriques dans le Viséen supérieur/Namurien de Belgique avait été signalée très tôt dans le Bassin de Namur par E. Legrand et confirmée par les travaux de J.-M. Charlet et al. (1977 et 1979) pour la région de Blaton et par ceux de A. Herbosch et al. (1979) pour la région de Visé. Le levé radiométrique autoporté, conduit par la Faculté Polytechnique de Mons, a permis de circonscrire un grand nombre de zones anomaliques nouvelles dans le bassin de Dinant. Ainsi plus d’une dizaine d’anomalies ont été localisées par voie aéroportée et par prospection scintillométrique pédestre. Elles apparaissent dans tous les synclinaux namuriens du Bassin de Dinant où les conditions d’affleurement permettent l’observation du contact Namurien-Viséen.

Géologiquement, ces anomalies se situent dans les schistes qui constituent les « couches de passage » du Viséen supérieur (V3c) et qui se sont formés lors du confinement d’un bassin à la fin du Viséen.

De l’étude géologique, radiométrique et géochimique du V3c du Bassin de Dinant, se sont dégagés les résultats suivants :

        le V3c de cette entité présente une zone d’anomalies radiométriques, stratiforme et d’extension régionale, repérable aux affleurements. La spectrométrie γ montre que l’uranium est responsable de ces anomalies, les autres éléments radioactifs naturels (Th, K4O) étant en concentrations très faibles ;

        La comparaison entre les différents horizons du V3c supérieur (schistes, calcaires, nodules phosphates) ne montre pas de différences essentielles entre les constituants des faciès uranifères et les autres faciès. Toutefois, l’enrichissement en uranium correspond à un enrichissement en phosphate de toute la série ;

        Les processus de concentration de l’uranium diffèrent selon  que l’on considère la base ou le sommet de V3c supérieur. A la base, l’uranium est fixé préférentiellement par les matières réductrices tandis qu’au sommet ce sont les phosphates qui jouent le rôle de fixateur.

        Le passage du Namurien au Viséen se marque par :

o      une absence d’anomalies radiométriques véritables ainsi que celle d’une phophatogenèse au niveau des calcaires namurien, avec présence de quartz détritique ;

o      une teneur déjà élevée en uranium des calcaires à Conodontes de la base du V3c supérieur

o      des anomalies radiométriques bien marquées dans les schistes du V3c supérieur, avec phophatogenèse progressive de la base au sommet.

        L’anomalie radioactive du passage Viséen-Namurien peut constituer un excellent marqueur stratigraphique

VI.      METHODES DE MESURE DES TENEURS EN ELEMENTS RADIOACTIFS DES ROCHES

Différentes méthodes permettent de déterminer les teneurs en éléments radioactifs des roches. Ainsi, l’étude de la radioactivité des roches magmatiques a été au début faite par des méthodes radiochimiques qui déterminaient la quantité de radon qu’elles contenaient. Nous aborderons l’histoire du radon dans un article ultérieur. Des mesures plus récentes sont couramment utilisées : mesure par  fluorimétrie ou par plaques nucléaires.

 A.    La fluorimétrie ou spectroscopie de fluorescence

C’est une technique de dosage qui utilise la propriété de certaines substances d’être fluorescente. Elle consiste à mesurer la fluorescence qui est proportionnelle à la concentration de l’élément. Ce type de spectroscopie implique l’utilisation d’une source lumineuse (habituellement dans l’ultraviolet) dont les rayons vont exciter les électrons des atomes de l’élément étudié et leur faire émettre une lumière de plus basse énergie. Pour les dosages de l’ordre du µg/L, on utilise des lasers qui permettent de réaliser une fluorescence atomique. Les instruments utilisés à cet effet sont des fluorimètres.

Cette méthode est utilisée pour effectuer le dosage d’uranium dans un échantillon. On réalise une perle par fusion d’un sel d’uranium et de fluorure de sodium. Celle-ci a la propriété de devenir fluorescente jaune sous l’action d’un rayonnement ultraviolet. La mesure de la fluorescence se fait au moyen d’une cellule photoélectrique suivie d’un amplificateur et d’un galvanomètre.

 Une technique plus sophistiquée est la spectrométrie de fluorescence X (SFX ou FX, ou en anglais XRF pour X-ray fluorescence). Cette méthode d’analyse chimique utilise une propriété physique de la matière, la fluorescence de rayons X. Dans ce cas, la source de rayonnement est une source de rayons X qui provoque une émission secondaire de rayons X au niveau de l’échantillon. C’est la fluorescence de rayons X. Le spectre des rayons X émis par la matière est caractéristique de la composition de celle-ci. On peut en déduire la composition élémentaire, c’est-à-dire les concentrations massiques en éléments (fig. 4).

 Spectre d'énergie

 Fig. 4 – Exemple d’un spectre en énergie du rayonnement fluorescent d’un échantillon

 B.    Plaques nucléaires

Cette méthode utilise le pouvoir de réaction des grains d’argent d’une plaque photographique à une émission radioactive. Quand une particule chargée traverse une émulsion photographique, elle ionise des grains d’argent le long de sa trajectoire et perd ainsi une partie de son énergie cinétique. L’analyse des trajectoires observées permet de déterminer le spectre d’énergie des particules émises par l’échantillon analysé.

Dans la pratique, on dépose une lame mince de l’échantillon à analyser sur une plaque nucléaire pendant un certain temps. On éclaire légèrement l’émulsion à travers la lame mince. Après développement, les éléments sombres se dessinent en clair et permettent un repérage très précis. On remarque également les traces des rayons α qui indiquent la position des éléments radioactifs (fig. 5)

  radioactivité dans une roche

(à suivre)

 


[1]  La valence d’un élément chimique est le nombre maximal de liaisons chimiques qu’il peut former. Autrement dit, c’est le nombre maximal d’atomes d’un élément univalent avec lesquels un atome de cet élément peut s’associer. La valence d’un atome dans le cadre d’une molécule ou d’un ion est le nombre de liaisons covalentes que cet atome a formé. La valence d’un ion monoatomique en solution est sa charge, on parle alors d’électrovalence.

La couche de valence est la dernière couche électronique d’un atome (couche externe) et la (ou les) sous-couche en cours de remplissage.

[2] ppm : part par millions. Au sens strict, un ppm correspond à un rapport de 10-6, soit, par exemple, un milligramme par kilogramme ; au sens large, un ppm correspond à milligramme par litre : dans ce cas il s’agit d’un abus de langage, car le litre (unité de volume) n’est pas équivalent au kilogramme (unité de masse). En outre, le ppm n’est pas une concentration mais un rapport, c’est-à-dire un quotient sans dimension, à l’instar d’un pourcentage.

Catégories : Radioactivité naturelle | Poster un commentaire

La vie créatrice de roches !

Ce texte a servi d’éditorial au Bulletin du G.E.S.T. de Juillet 2012

De tout temps, le mystère de la Vie attisa la curiosité de l’être humain. Cet attrait vient vraisemblablement de la sensation vague d’une parenté, reliant l’homme à tous les organismes vivants qui comme lui ont reçu le don temporaire de l’existence, à tout ce qui naît, vit et meurt. DARWIN, lors de son périple autour du monde sur le « Beagle », est de ces naturalistes qui justement ont cherché les relations qui unissent les différents organismes vivants, et les processus leur permettant de s’adapter à leur environnement (« Le voyage autour du monde »).

Actuellement, il est de plus en plus difficile d’établir une frontière entre le minéral, l’inerte et le vivant. Ainsi des substances chimiques de par le pouvoir radioactif, dissipent leur énergie, meurent en se transformant en d’autres substances. D’un autre côté, le débat sur la nature des virus qui manifestent des propriétés vitales, repose sur des notions complexes et reste toujours ouvert. Ils se présentent comme indissolublement liés à des produits chimiques cristallisés, avec ce que cela sous-entend de fixité, de stabilité, de non-vie.

Autre phénomène qui prête à exciter la curiosité est le fait que la Vie peut créer l’inerte. Certaines roches sédimentaires sont redevables de leur existence à l’activité constructive, à l’énergie biologique d’organismes minuscules. Il est également des animaux macroscopiques qui interviennent dans la genèse des roches tels les madrépores, les coraux, qui sont les auteurs d’énormes constructions dans les mers tropicales.

Parmi les roches sédimentaires dont le ciment est constitué des restes de microorganismes fossiles, citons, les jaspes qui tirent pour une grande part leur origine de minuscules êtres, les Radiolaires, véritables joyaux, aux formes les plus imprévues et les plus admirables (« Les Radiolaires »). Le tripoli, terre à polir, est une diatomite, roche légère et poreuse, constituée en majorité par des Diatomées, algues minuscules formées d’une seule cellule. Les craies sont également le produit de la consolidation d’organismes microscopiques, les coccolithes et les foraminifères. Il en est bien d’autres, mais ce n’est pas ici qu’il faut développer ces différentes catégories de roches.

La question que l’on peut se poser : quel serait l’aspect de notre planète sans la vie ?

Catégories : Editoriaux | Poster un commentaire

Fukushima – Conséquences

RIBAULT N. & T. (2012) – Les sanctuaires de l’abîme – Chronique du désastre de Fukushima, Editions de l’Encyclopédie des Nuisances, Paris (lecture, août-septembre 2014).

Nadine RIBAULT est écrivain. Elle est l’auteur d’essais, de romans et de nouvelles.
Thierry RIBAULT est économiste au CNRS (Centre National de la Recherche Scientifique), et chercheur à l’Institut de recherche sur le Japon à la Maison franco-japonaise de Tokyo (Umifre 19 CNRS-MAEE).
Nadine et Thierry RIBAULT ont passé la moitié des vingt dernières années au Japon et sont des témoins directs de la manière dont le désastre de Fukushima est administré.

Comme chacun s’en souvient, un tremblement de terre, un raz-de-marée et un accident nucléaire ont frappé la région de Fukushima, au Japon, en mars 2011. En suivant les initiatives de Wataru Iwata, fondateur d’une association appelée « Projet 47 », visant à faire en sorte « que les gens accèdent à l’information juste et exacte et prennent conscience de ce qui est véritablement en train de se passer », les auteurs retracent la chronique des événements qui ont suivi le déclenchement de l’accident à la centrale de Fukushima – tergiversations du gouvernement et de l’entreprise responsable de la centrale, désinformation de la population, à qui l’on ne cesse de répéter qu’il n’y a aucun danger –, et rappellent la manière dont l’industrie du nucléaire « pacifique » a été promue par le gouvernement japonais depuis la fin de la Deuxième Guerre mondiale, en collaboration avec les États-Unis, afin de rendre non seulement acceptable mais désirable une technologie que les bombardements d’Hiroshima et de Nagasaki avaient marquée du sceau de l’infamie.’
L’ouvrage met en lumière le rôle joué par des organisations mafieuses ou semi-mafieuses telles que la Fondation Sasakawa dans la négation des conséquences des catastrophes de Tchernobyl et de Fukushima sur la santé des populations, ainsi que le rôle joué par les yakuza dans l’assistance aux populations immédiatement après la catastrophe, se substituant à des « pouvoirs publics » étatiques et locaux totalement dépassés par les événements. Sont également remis en question un certain nombre de clichés concernant ce qu’il est convenu d’appeler la culture japonaise, qui rendrait la population particulièrement apte à se résigner à une sorte de fatalité. La réalité est fort différente, comme l’attestent notamment les pillages constatés après la catastrophe, ainsi que les sentiments de désespoir et de panique qui animent de larges couches de la population.
(Centre Lillois d’Etudes et de Recherches Sociologiques et Economiques)

Réflexions personnelles

Il est difficile de traiter du problème du nucléaire de manière objective. Automatiquement l’on prend parti pour ou contre l’utilisation de l’atome dans la production d’énergie. Il y a ceux qui prônent la prolifération à tout prix des centrales nucléaires pour la production d’électricité, et il y a ceux qui sont prêts à revenir aux anciennes centrales au charbon ou au gaz afin de sortir au plus tôt de la filière nucléaire. C’est cette option que le gouvernement allemand a choisi sous la pression de ses écologistes. Nos gouvernants se sont également laissé piéger par des pseudos écologistes qui lors de leur passage au pouvoir ont monnayé la sortie du nucléaire en exigeant le démantèlement de nos centrales à partir de 2015. Heureusement, à la suite d’un regain de bon sens, cette décision a été reportée. Je pense qu’il faut raison garder et ne pas adopter des positions aussi tranchées et viscérales. Il est évident que le nucléaire fait peur. L’opinion publique a toujours présent à l’esprit le spectre des armes nucléaires. L’industrie civile de l’atome est l’une des plus sures, mais pour y parvenir il est impératif de prendre toutes les précautions et tous moyens de sécurité afin de minimiser au maximum les incidents. L’industrie chimique est bien plus dangereuse. Il suffit de se rappeler les grandes catastrophes que sont Bopal, Toulouse, etc., et leur lot de morts.

Bien sûr, un accident nucléaire peut déboucher sur une catastrophe de grande ampleur comme cela s’est passé à Tchernobyl et à Fukushima. La contamination par des produits hautement radioactifs est sournoise ; on la détecte mais on ne la voit pas, ce n’est qu’à plus ou moins longue échéance que les effets se font sentir. Une pollution de produits chimiques est tout aussi sournoise et les conséquences sont tout aussi pernicieuses. Mais dans ce cas on oublie vite et on passe à autre chose. Dans l’industrie nucléaire, le moindre incident qui se passe, même dans le circuit non contaminé, est amplifié par les médias et les écologistes de tout poil pour leur permettre de crier au feu, et d’exiger l’arrêt immédiat des centrales !

Si nous voulons continuer à bénéficier du confort auquel nous nous sommes habitués et toujours consommer plus, on ne pourra pas se passer de l’énergie nucléaire, en attendant des solutions toujours plus performantes et peut-être moins dangereuses et moins polluantes. Par polluantes pour le nucléaire, j’entends le stockage des déchets radioactifs de longue durée. Quand à miser tout sur cette forme de production, je pense qu’il vaut mieux choisir une diversification des moyens de production adaptés à l’environnement et pouvant alimenter des zones bien spécifiques. Un champ d’éoliennes convient pour une zone rurale ou de petites agglomérations mais pas pour un réseau national ou international. Il en est de même pour des usines solaires qui non pas beaucoup de sens dans nos contrées mais qui conviennent parfaitement pour les pays méditerranéens et tropicaux.

L’énergie du futur, à savoir la fusion nucléaire, n’est pas encore prête d’être commercialisée. Les défis technologiques sont immenses et les ingénieurs se cassent les dents depuis plus de 75 ans à essayer de confiner le plasma dans lequel s’opèrent les réactions thermonucléaires. Je pense qu’il faudra encore une cinquantaine d’années avant d’y parvenir. Donc, en attendant, diversifions nos moyens de production en n’en rejetant aucun et tâchons de réduire ou du moins stabiliser notre consommation énergétique.

Catégories : Notes de lecture | Étiquettes : | Poster un commentaire

L’AGE DE LA TERRE ET SON GRADIENT THERMIQUE

Article paru dans le Bulletin du G.E.S.T., N° 158, novembre 2009


I.     IMPORTANCE DES RADIOELEMENTS EN GEOLOGIE

Des articles précédents, on peut conclure que les radioéléments jouent un rôle important dans les phénomènes géologiques et ce par trois caractéristiques de la radioactivité :

a)    Le dégagement constant d’énergie d’origine nucléaire
Le rayonnement radioactif émis par les nucléides interagit avec la matière environnante en se transformant en définitive en chaleur. Ce phénomène intervient dans l’évolution et le bilan thermique de notre planète et les problèmes associés, tels que le métamorphisme régional, les mouvements orogéniques et le volcanisme.

b)    L’immuabilité de la constante radioactive
La demi-vie d’un radionucléide est une caractéristique propre à celui-ci et elle reste constante par rapport au temps et aux conditions extérieures. Cette propriété permet de dater de manière absolue et relativement précise les phénomènes géologiques.

c)    La grande sensibilité des méthodes de détection de la radioactivité
Celle-ci permet de suivre la migration et la répartition, pratiquement à l’échelle atomique, des radioéléments dans les minéraux et les roches.

En première conclusion, et sur la base de ce que nous avons vu sur les différents éléments radioactifs naturels, on peut dire qu’aux points de vue géologique et géochimique, l’évolution et la répartition de tous les radioéléments appartenant aux trois familles radioactives naturelles dépendent uniquement de l’évolution et de la répartition de l’uranium et du thorium.
A part le potassium, les autres éléments radioactifs naturels sont trop rares et trop peu énergétiques pour jouer un rôle majeur.

II. L’AGE DE LA TERRE

Si la planète dégage de la chaleur, elle doit nécessairement se refroidir. Aussi, il est possible, connaissant les lois qui régissent son refroidissement de déterminer son âge et donc l’époque de sa formation.

Bien évidemment, avant de songer à calculer l’âge de notre planète à partir de sa chaleur émise, de nombreuses tentatives ont été faites depuis l’Antiquité. Ainsi, pour ARISTOTE (384-322 av. J.-C.) la Terre est éternelle et garde indéfiniment son identité, car les modifications de sa surface se compensent en moyenne. Pour l’école stoïcienne (IIIème – IIème s. av. J.-C., Athènes), la Terre, au contraire, subit une succession de créations et de destructions, où à chaque cycle, les mêmes êtres sont créés et les mêmes événements se reproduisent. Équilibre perpétuel chez ARISTOTE, répétitions cycliques chez les Stoïciens, dans les deux cas il y a conservation du Monde.

Au Ier siècle après J.-C., l’historien juif, Flavius JOSEPHE (37-100 ap J.-C.) tente une première compilation chronologique sur la base de l’âge et des générations des personnages de l’Ancien Testament, pour retrouver la date de la création. Il est suivi par Théophile d’ANTIOCHE (115-181) et Eusèbe de CESAREE (265-339). Ils l’estiment à 5.500 ans avant la naissance du Christ.

Alphonse DE VIGNOLE (1649-1744) relève, au cours des XVIème et XVIIIème siècles, plus de deux cents calculs différents, s’échelonnant de 3.483 à 6.984 ans depuis la Création jusqu’à la naissance du Christ. Celui qui sera imposé par l’église est dû à l’archevêque James USSHER (1581-1656), qui affirme que la Création eut lieu au début de la nuit précédant le 23 octobre de l’an 4.004 av. J.-C. D’autre personnalités tels Christophe COLOMB (° 1450 – † 1506), MERCATOR (° 1512 – † 1594), Johannes KEPLER (° 1571 – † 1630), Isaac NEWTON (° 1642 – † 1727) feront chacun leur proposition. Ce seront toujours des chronologies courtes qui englobent toute l’histoire de la Terre, formation des montagnes, empilement des couches géologiques, érosion, sans pour cela poser problème. La formation de notre globe est scandée par des événements brefs et violents dont le Déluge est le principal. Cette conception donnera naissance au catastrophisme dont nous parlerons plus loin.

Les approches plus sérieuses verront le jour vers 1660, lorsque Niels STENON (° 1638 – † 1680) reconnaît au Danemark la continuité et l’homogénéité des niveaux de craie sur de grandes régions, et admet qu’elles représentent l’accumulation de sédiments pendant une certaine durée de temps, chaque niveau pouvant définir une unité de temps.

En 1721, Henri GAUTIER (° 1660 – † 1737) essaye de dater l’âge du globe en estimant le temps d’érosion des reliefs grâce à la mesure de la turbidité des fleuves. 35.000 ans suffisent pour niveler complètement un continent. Mais lorsque l’on reprend ses mesures et la loi qu’il établit, on trouve des durées bien plus considérables

D’autres géologues, se basant sur les taux de sédimentation ou d’érosion, tels que John TUBERVILLE-NEEDHAM (° 1713 – † 1781), Pierre-Bernard PALASSOU (° 1745 – † 1830) ou Jean-Louis Giraud SOULAVIE (° 1752 – † 1813) puis John PHILLIPS (° 1800 – † 1874), obtiennent des durées atteignant plusieurs millions d’années pour la mise en place de ces phénomènes géologiques.

Encore au début du XXème siècle, Grove Karl GILBERT (° 1843 – † 1918) fait la corrélation entre les couches de quelques décimètres dans les formations de craie des grandes plaines du Nordeste au Brésil, et un cycle terrestre autour du soleil (cycle de précession). Delà, il exprime le phénomène en années et définit une unité, le « gilbert », correspondant à 22.000 ans. Mais les discordances et les érosions sont trop fréquentes pour que cette unité ait valeur générale.

L’un des premier à vouloir déterminer l’âge de la Terre d’une manière scientifique, à partir de sa chaleur émise, est Georges Louis LECLERC, comte de BUFFON (° Montbard, 1707 – † Paris, 1788). En plus d’être intendant du Jardin des Plantes à Paris, BUFFON possède dans les environs de Montbard des forges. Esprit curieux, il fait tirer de ses forges du fer aussi pur que possible et en fait confectionner des sphères de tailles différentes. Il les chauffe à blanc et les laisse refroidir en mesurant le temps nécessaire pour qu’elles atteignent la température de la cave, soit celle de la Terre. Il en tire une loi qui relie le temps de refroidissement d’une sphère à sa taille. Afin de peaufiner son expérience, il utilise d’autres matières comme le marbre ou l’argile. Cette loi, connaissant le diamètre de la Terre, lui permet de calculer le temps que cette dernière aurait mis pour se refroidir depuis sa formation : il arrive à la conclusion, en partant de l’hypothèse que le globe terrestre était en fusion au départ, qu’il a fallu 2.905 ans pour que la consolidation atteigne le centre de la planète, 33.911 ans pour qu’il soit possible de la toucher et 74.047 ans pour qu’elle acquiert sa température actuelle. Ce résultat n’empêche pas de choquer les âmes bien pensantes de l’époque pour qui la création de la Terre, correspond au calcul de l’archevêque USSHER. Cependant, BUFFON juge lui-même la durée trouvée bien trop courte au regard de celle nécessaire pour expliquer les dépôts des sédiments et du temps pour les transformer en roches sédimentaires. En effet, il détermine la quantité de sédiments s’accumulant dans une mare de sa propriété de Montbard et établit un taux de sédimentation. De plus, il mesure l’épaisseur d’une formation sédimentaire le long des côtes normandes et il en déduit qu’il fallut plusieurs dizaines de milliers d’années (dans ses notes, il écrit de l’ordre de dizaine de millions d’années) pour obtenir un tel dépôt. Tout comme GAUTIER, on constate une certaine retenue ou « peur » des dates longues.

Un autre savant à se lancer dans l’aventure est William THOMSON, mieux connu sous le nom de Lord KELVIN of Largs (° 26-06-1824, Belfast – † 17-12-1907, Strathclyde, Ecosse). Il est à la base d’un débat qui secoua la communauté des géologues durant plus de trente ans.
Inventeur de la seconde loi de la thermodynamique et de l’échelle thermique portant son nom, il s’est penché également sur le calcul de l’âge de la Terre. Il veut soumettre les processus géologiques aux lois inéluctables de sa discipline, la physique. De ce fait, il s’oppose à la conception dominante parmi les géologues. Depuis James HUTTON (° 1726, Edimbourg – † 1797, id), géologue écossais, la Terre ne présente pas plus « de vestiges d’un début que de perspectives d’une fin ». KELVIN nie l’éternité de notre planète, pour lui, elle a un début et elle aura une fin.
Ce sont ses études sur la conduction thermique, qui, vers les années 1850, lui permirent d’avancer que la Terre s’était formée il y 100 millions d’années. Cependant en 1862, d’autres calculs l’amènent à revoir son estimation et à agrandir sa marge d’erreur qu’il situe entre 20 et 400 Ma, au grand dam de sir Charles LYELL (° 1797, Kinordy, Ecosse – † 1875, Londres) et de Charles DARWIN (° 1809, Shrewsbury – † 1882, Down, Kent) qui considère Lord KELVIN comme un « spectre odieux ». En effet, DARWIN estime, en 1859, à 300 millions d’années le temps mis par la mer pour creuser la vallée de Weald dans le sud de l’Angleterre (il extrapole le taux d’érosion actuel). Cette durée lui semble compatible avec l’évolution biologique et les lents processus de la sélection naturelle.

Comment Lord KELVIN est-il arrivé à ce résultat ? Il fit le calcul du temps nécessaire au refroidissement de la Terre entre son état initial et son état actuel. Il supposa que la chaleur de la Terre provenait de la contraction gravitationnelle et un peu du Soleil. Puis, il détermina la conduction thermique de la Terre, sa capacité calorifique et sa chaleur latente de fusion. Selon la seconde loi de la thermodynamique, le refroidissement de la Terre aurait été régulier, et aucune énergie n’aurait été apportée à celle-ci depuis sa condensation. Hypothèse fausse, bien entendu qui malgré un raisonnement exact entraîna une erreur d’estimation de près de 5.000%.
En utilisant la théorie du mathématicien Joseph FOURIER (° 1768, Auxerre – † 1830, Paris) sur la conduction thermique, il détermina l’évolution de la répartition des températures de la Terre. Il améliora ainsi son calcul et conclut que la Terre avait entre 20 et 400 millions d’années.

Nous sommes à une époque où la conception de l’actualisme l’emporte, en postulant que les phénomènes anciens obéissent à des lois de même nature et de même intensité que les phénomènes actuels. Ce principe des causes première s’opposera au catastrophisme pour lequel les phénomènes passés ont eu, soit au début des temps géologiques, soit périodiquement, une plus grande ampleur. En dépit des lois de conduction de la chaleur établies par FOURIER, les températures mesurées dans les puits de mines sont audacieusement extrapolées pour donner une valeur de près de 200.000° C au centre de notre globe. La Terre apparaît comme une sphère constituée d’un océan magmatique sur lequel surnage une croûte solide et mince d’une cinquantaine de kilomètres d’épaisseur. KELVIN démontrera l’absurdité de cette vue, en 1860, et, à contrario, déduira que la Terre est un solide « aussi rigide que l’acier ».

Vers 1880, les premières mesures précises de conductivité thermique des roches sont réalisées par KRIEG et BARUS qui les amènent à une chronologie plus courte. Ils ramènent l’âge de la Terre à 25 millions d’années. Lord KELVIN s’y rallie. Sir LYELL n’est pas convaincu. Pour lui la Terre est nettement plus vieille. Il invoque la création d’énergie à l’intérieur du globe grâce à des réactions chimiques. Malgré cette intuition géniale, Lord KELVIN dont la notoriété dans le monde scientifique fait l’unanimité n’en démord pas.

Une autre méthode d’estimation de l’âge de la Terre est définie en 1899 par John JOLY (° 1857 – † 1933). Il se base sur l’hypothèse que la salinité de l’eau de mer a été acquise de manière constante, au cours des temps, par l’apport fluviatile. L’idée n’est pas neuve. Elle a été avancée par Edmond HALLEY (° 1656 – † 1743) en 1715. L’augmentation régulière de la salure des océans par l’apport des sels des fleuves permet par extrapolation de trouver l’âge de la planète. Malheureusement, JOLY n’annonce aucun chiffre.

Il faudra attendre la découverte de la radioactivité de l’uranium, en 1896, par Henri BECQUEREL (° 1852, Paris – † 1908, Le Croisic), pour que la théorie de Lord KELVIN batte de l’aile. Cette découverte, et par la suite la mise en évidence par Pierre et Marie CURIE de la décroissante radioactive avec émission de chaleur eurent des conséquences énormes sur le bilan énergétique de la planète.

En effet, la seule condensation initiale du gobe ne peut plus expliquer le dégagement thermique, il faut tenir compte des désintégrations atomiques qui chaque jour apportent leur lot de chaleur. Grâce à cette nouvelle discipline, qu’est la physique nucléaire, la radioactivité permet de déterminer l’âge réel de la Terre et de l’Univers. Les physiciens et les astronomes sont convaincus que l’existence de radionucléides remet les calculs de Lord KELVIN en cause. Plusieurs méthodes de datation seront élaborées au cours du XXème siècle.

Ces convictions sont confortées par des mesures expérimentales faites dans des milieux naturels par les physiciens allemands Johann Philipp Ludwig ELSTER (° 1854, Blankenburg – † 1920, Wolfenbüttel) et Hans Friedrich GEITEL (° 1855, Brunswick – † 1923, Wolfenbüttel) de 1900 à 1905. Ils détectent systématiquement des traces de radioactivité dans les sols et les eaux provenant principalement du radium et de son émanation, le radon.

Ainsi, dès 1906, Ernest RUTHERFORD (° 1871, Nelson, New Zélande – † 1937, Cambridge) met au point une méthode de datation isotopique basée sur la mesure de l’hélium produit par la désintégration du radium. Il attribue un âge de 40 Ma à une roche, qu’il révise à 140 Ma puis à 500 Ma, en 19061 , estimation nettement supérieur à ce que Lord KELVIN avait retenu ! En 1905, John William STRUTT (° 12/11/1842, Landford Grove, Essex – † 30/06/1919, Witham, Essex), plus connu sous le nom de Lord RAYLEIGH détermine, le premier, par la même méthode, un âge radiométrique de plus de 1 milliard d’années Cependant, la méthode est abandonnée car biaisée, d’une part par l’instabilité de l’hélium qui peut s’échapper de la roche, d’autre part par le fait qu’il peut être le sous-produit d’autres radionucléides..

En 1906, le fils de Lord KELVIN, Robert STRUTT (° 28/08/1875 – † 13/12/1947), mesure la teneur en radium des minéraux et des roches. Il constate une différence de l’ordre d’un facteur 10 entre basaltes et granites. De plus, les teneurs mesurées les plus faibles sont dix fois supérieures à la teneur moyenne nécessaire pour expliquer le flux de chaleur terrestre interne. Afin de tenir compte du flux réellement mesuré, il suppose que le radium se cantonne dans une zone superficielle de la lithosphère, de 75 Km d’épaisseur, sinon, la Terre s’échaufferait plutôt que de se refroidir. Les géologues ont enfin la certitude que la chaleur produite par notre planète ne provient pas uniquement de sa condensation initiale.
Entre 1905 et 1910, STRUTT mesure la quantité d’hélium incluse dans des minéraux contenant de l’uranium ou du thorium. Il estime l’âge de certains minéraux, à 250 et 280 millions d’années2 .

Nous retrouvons le géologue irlandais JOLY dont la position est intéressante. En effet, il est le premier scientifique à souligner les incidences possibles de la radioactivité sur des phénomènes géologiques. Il participe, en 1904 à Londres, au débat sur l’origine du radium. Comme STRUTT, il s’implique dans des mesures de radioactivité de minéraux et découvre, en 1907, les halos pléochroïques, taches plus ou moins sombres dues aux défauts créés par le bombardement continu de rayons alpha. En collaboration avec RUTHERFORD, des comparaisons entre divers minéraux naturels et artificiels lui permettent d’utiliser l’intensité de ces halos pour dater les minéraux affectés3 . En 1909, paraît son livre, Radioactivity and Geology , dans lequel il discute les nouvelles méthodes de datations radioactives et passe en revue les implications de la radioactivité sur la géodynamique. Cela ne l’empêche pas, comme nous l’avons vu plus haut, de préférer se baser sur la salinité des océans et les vitesses de sédimentation pour évaluer l’âge de la Terre.

A propos du débat de 1904, à Londres, sur l’origine du radium, une anecdote met en scène Lord KELVIN et RUTHERFORD4 . KELVIN est un opposant irréductible à la théorie des désintégrations radioactives. Cependant, il suit de prêt les progrès de celle-ci. Lors d’un exposé de RUTHERFORD, notre grand physicien dort. Il se réveille avec un regard noir au moment où l’orateur aborde l’âge de la Terre. Dans un moment d’inspiration, RUTHERFORD dit : « Lord Kelvin avait limité l’âge de la Terre à la condition qu’aucune nouvelle source de chaleur ne soit découverte. Cette déclaration prophétique se rapporte à ce que nous considérons ce soir, le radium ! » KELVIN à ces propos se réjouit. L’histoire vaut ce qu’elle vaut. Toujours est-il, qu’en 1906, KELVIN nie toujours le rôle de la radioactivité dans le flux thermique de la Terre. Il semble toutefois qu’en privé il aurait confié à J.J. THOMSON5 que son travail sur l’âge de la Terre était le plus important de sa carrière et que la découverte du radium rendait indéfendable ses hypothèses. Son obstination s’expliquerait-elle par le fait qu’il ne voulait pas perdre la face en tant que physicien de renom international ?

Entre 1903 et 1907, Bertram BOLTWOOD (° 1870 – † 1927), un chimiste de l’Université de Yale, remarque que tous les minéraux uranifères contiennent du plomb. Comme nous l’avons vu lors de l’étude des familles radioactives naturelles, cet élément marque la fin de la chaîne de désintégration de l’uranium. BOLTWOOD en conclut que connaissant le taux de production annuel du plomb à partir de l’uranium et les teneurs actuelles de ces deux éléments dans un minéral, on peut calculer l’âge de celui-ci. Cette méthode est valable si au départ aucun plomb n’est présent et que ce dernier est le résultat uniquement de la désintégration de l’uranium. Comme la période de l’uranium est beaucoup trop longue pour connaître le taux annuel de production du plomb, BOLTWOOD contourne la difficulté en profitant du fait que le radium, maillon de la chaîne, a un taux de production annuel connu et qu’à l’équilibre radioactif, il est le même que celui de l’uranium et du plomb. Connaissant le nombre d’atomes de radium présents par atome d’uranium et son taux annuel de désintégration, on peut déterminer le nombre d’atomes de plomb formés par an pour chaque atome d’uranium. Donc, il suffit de diviser le rapport Pb/U par la constante obtenue ainsi pour connaître l’âge d’un minerai. En 1907, il publie les résultats de ses calculs et obtient des âges compris entre 410 et 535 millions d’années6 . En homme prudent, il s’abstient de tout commentaire.
En 1915, sa méthode permet d’attribuer un âge de 1,3 milliard d’années (1,3 GA) aux plus vieilles roches. L’âge de la Terre est donc plus grand que ce qu’imaginaient les géologues !
Non seulement, la radioactivité donne à ceux-ci un instrument pour dater les phénomènes géologiques, mais elle fournit également l’explication de l’ancienneté de l’univers.

Un débat s’amorce entre partisans et adversaires des méthodes radioactives. Le géologue américain G.F. BECKER, en utilisant la méthode de BOLTWOOD, démontre par l’absurde ses faiblesses7 . Il obtient, en 1908, des âges allant de 1,6 à 11,5 milliards d’années pour divers minéraux dont la teneur en uranium et plomb est connue. Ces résultats sont invraisemblables ! D’autre part, si les teneurs en radium obtenues par STRUTT rendent bien compte du flux thermique total de la Terre, sa concentration dans une mince couche de la lithosphère conduit à un gradient géothermique beaucoup trop élevé qui devrait entraîner la fusion des roches à des profondeurs trop faibles.
En conclusion, BECKER énonce que la radioactivité naturelle se limite à une couche encore plus mince ou est concentrée localement et que sa contribution n’intervient que pour 10 % dans le flux de chaleur terrestre. Pour les âges comme pour le flux de chaleur, la radioactivité intervient certes, mais son rôle reste encore obscur et ne peut être pris en compte que si les résultats concordent avec ceux obtenus par la voie purement géologique.

On constate, que ces premières tentatives de géochronologie « absolue » sont disparates, en raison du choix des échantillons et de l’imprécision des méthodes utilisées. Certains scientifiques sont réticents et refusent de s’y adonner. Ainsi, L. DE LAUNAY, un influent ingénieur en chef des Mines, dans son traité paru en 1905, « La Science géologique », passe la radioactivité sous silence. Il y fera allusion dans un deuxième ouvrage, « L’Histoire de la Terre », qui sort en 1906, mais il émet des réserves : « Est-ce là un retour en arrière vers les théories des alchimistes ? Sans doute, dans une certaine mesure ; mais avant de voir dans cette constatation la preuve d’une erreur, il faut bien se rendre compte en quoi les alchimistes se trompaient et en quoi on est peut-être resté dans l’erreur en les rectifiant »8 . A propos des calculs de KELVIN, il note encore que « n’étaient les noms des savants qui les ont établis, ces chiffres ne mériteraient aucune attention, tant on a accumulé pour les obtenir d’invraisemblables hypothèses ».

Pierre TERMIER (° 1859 – † 1930) écrit, en 1910 : « La méthode repose toute entière sur un « postulatum » invérifiable qui est la constance absolue de la vitesse de désintégration de l’atome instable. Tout cela est vraisemblable mais incertain ».

Cependant, des personnalités comme JOLY et BECKER ont une influence notoire sur leurs collègues géologues qui ont quelques difficultés à dialoguer avec les physiciens et les chimistes de la nouvelle école, celle du nucléaire.

La première tentative réelle pour déterminer directement l’âge de la Terre sera réalisé par Arthur HOLMES (° 14-01-1890 – † 20-09-1965), professeur à l’Université d’Edimbourg. Ce géologue britannique a marqué de son empreinte la géochronologie. Dans son livre The Age of the Earth, publié en 1913, il estime l’âge des plus vieilles roches à 1.600 millions d’années. Il constate que les résultats confirment tous l’échelle stratigraphique basée sur des données paléontologiques. Il en sera de même pour toutes les mesures ultérieures. Les premières valeurs qu’il propose, sont pour nombre d’entre elles confirmées aujourd’hui :

  • pour le Carbonifère, il propose 340 Ma, les mesures actuelles place cette période de 354 Ma à 298 Ma :
  • pour le Dévonien, il l’estime à 370 Ma, aujourd’hui il dure de 350 à 410 Ma :
  • pour le Silurien, il avance 430 Ma et maintenant on le situe entre 435 à 410 Ma

C’est l’un des premiers partisans de la dérive des continents émise par Alfred WEGENER (° 1880, Berlin – † 1930, Groenland). Selon lui, le manteau terrestre contient des cellules de convection qui dissipent la chaleur due aux éléments radioactifs et amènent la croûte terrestre vers la surface. Cette vue étant purement théorique est rejetée par Harold JEFFREYS9 (° 22-04-1891 – † 18-03-1989) et la communauté des géophysiciens.

En 1921, l’astronome américain Henry Norris RUSSEL (° 1877 – † 1957), partant de l’âge de la plus vieille roche connue (1.000 Ma) et admettant que tout le plomb des minéraux terrestre est issu de la désintégration de l’uranium, calcule qu’il a fallu 8.000 Ma pour qu’il s’élabore.

En 1938, le physicien américain Alfred NIER (° 1911 – † 1994), puis Harold UREY proposent une approche isotopique de la datation radiométrique. Ils mesurent la composition isotopique du plomb (rapport 207Pb/206Pb), produit final des trois familles radioactives, présent dans les galènes et trouve, pour les plus vieux échantillons de roche, des âges de 2.500 Ma .

En 1944, Arthur HOLMES publie un second livre, Principles of Physical Geology, tout aussi célèbre que son premier. Sur la base de nouvelles mesures tenant compte de l’abondance relative des isotopes d’uranium, proposée par Alfred NIER, il arrive à un âge de notre planète beaucoup plus réaliste, soit 4.500 millions d’années ± 100 millions. Deux autres chercheurs, E. K. GERLING et Friedrich HOUTERMANS, se basant également sur les données de NIER, obtiennent, en 1946, le même résultat.

Bien avant que l’on se penche sur l’étude de la dissipation de l’énergie émise par la Terre, les astronomes se lancent dans des spéculations sur celle qui émane du Soleil. W.E. WILSON imagine, pour expliquer celle-ci, une concentration en radium de 3,6 gr/m³ au sein de notre étoile, bien qu’il ne soit pas détecté dans le spectre lumineux de l’astre. L’hélium est identifié pour la première fois en 1868 dans des étoiles. Sur Terre, il a été détecté dans des minerais d’uranium. En 1903, les chimistes britanniques William RAMSAY (° 1852 – † 1916) et Frederich SODDY (° 1877 – † 1956) rapportent que la désintégration du radium produit effectivement de l’hélium. La présence d’hélium dans le Soleil suppose l’existence de réactions thermonucléaires violentes. La nouvelle physique permet d’élucider celles-ci. Une hypothèse hardie conduit ainsi à une large fourchette de 0,6 à 5 milliards d’années, bien loin des 12 à 100 millions d’années donnés par l’école de Lord KELVIN.

En 1929, l’astronome américain Edwin HUBBLE (° 1889 – † 1963) par analyse spectroscopique, observe un décalage vers le rouge des spectres de certaines galaxies. Il en déduit la relation de proportionnalité entre leur vitesse d’éloignement et leur distance (loi de Hubble). Cette loi permet d’estimer l’âge de l’Univers entre 1,8 et 2 GA. Des roches, selon les mesures des géologues, seraient donc plus vieilles que l’univers ! Impossible ! Heureusement, en 1950, la relation distance – vitesse de HUBBLE est revue à la hausse et l’âge de l’Univers recule à 4 GA.

Grâce à l’amélioration de la technique de la spectrométrie de masse dans les années 1950, la détermination de la composition isotopique des éléments présents dans les roches, est fortement facilitée. Durant la Seconde Guerre mondiale, bon nombre de scientifiques européens, afin de fuir le régime nazi, se sont exilés aux Etats-Unis et ont été incorporés dans des programmes de recherches spécifiques (Projet Manhattan, notamment). Cet effort de guerre a permit un développement spectaculaire dans de nombreux domaines technologiques.

En 1953, un post-doctorant à l’Université de Chicago, Clair PATTERSON (° 1922, Mitchellville, Iowa, – † 1995, Sea Ranch, Californie)., procède à l’analyse isotopique des météorites. Il travaille sous la direction du géochimiste américain Harrison BROWN (° 1917 – † 1986), qui a participé au Projet Manhattan et travaille depuis 1947 sur le même sujet. Ils arrivent à la conclusion que la Terre et les météorites sont constitués du même matériau source et se sont formés à la même époque, il y a 4,55 GA (±70 MA),

Mais en fait, l’âge de la Terre qui a été accepté jusqu’à ce jour, est celui déterminé à la fin des années 1930 par A. HOLMES et F.E. WICKMAN. qui s’étaient déjà penchés sur l’abondance isotopique du plomb (204Pb, 206Pb et 207Pb) dans les météorites. Sur terre, tout le 204Pb est présent depuis le début de sa formation tandis qu’une partie du 206Pb et du 207Pb est formée constamment par 238U et 235U. En comparant les proportions actuelles de plomb et d’uranium de notre planète avec celle du plomb des météorites sans uranium, et connaissant la loi de désintégration de ces différents éléments, HOLMES et WICKMAN sont arrivés à une valeur de près de 4,6 milliards d’années, âge attribué au système solaire.

Toutefois, une nouvelle estimation de l’âge de la Terre a été annoncée dans la revue « Nature » (août 2002). Elle est due aux observations faites par Al CAMERON de l’Université d’Arizona (Tucson, U.S.A.) et Thorsten KLEINE de l’Université de Munster (Allemagne) et de leurs collègues. L’analyse menée par ces chercheurs portant sur des éléments radioactifs rares (hafnium et tungstène) fait reculer l’âge de notre planète de près de 20 millions d’années. Ces éléments étaient abondants au début du système solaire. On en retrouve encore des traces aujourd’hui. Ils constituent de véritables horloges radioactives. Les analyses ont été menées sur des roches terrestres, des fragments de météorites d’origine martienne et d’autres météorites n’ayant pas d’origine planétaire.
Les analyses géologiques faisaient remonter la formation du noyau métallique de la Terre à 50 millions d’années après l’explosion de la supernova alors que les modèles informatiques indiquaient 20 à 30 millions d’années. Le système solaire s’est formé il y a 4.600 millions d’années à partir d’un nuage de gaz et de poussière ayant subit une onde de choc engendrée par l’explosion d’une supernova proche, laquelle a enclenché l’accrétion des différents objets de notre système planétaire.

La formation du cœur de la Terre, de Mars et de la Lune est probablement intervenue dans les 30 premiers millions d’années de la formation du système solaire (4,6 milliards d’années) et non 50 millions d’années après l’explosion de la supernova génératrice de notre système, ce qui ramène l’âge de la formation de la Terre de 4,55 à 4,58 milliards d’années.

III. STRUCTURE INTERNE DE LA TERRE

Afin de mieux appréhender la suite de notre exposé, il est utile de se pencher sur la structure interne de notre globe.

Grâce à la sismologie, étude de la transmission des ondes émises lors des tremblements de terre, on a pu déterminer que notre planète est formée de quatre sphères emboîtées.
De la surface vers le centre :

    • La croûte qui forme l’écorce, rigide et froide, a une épaisseur de 7 Km sous les océans et de 30 à 40 Km sous les continents. Elle fait partie de la lithosphère qui comprend en plus une partie du manteau. Elle atteint 70 Km au niveau de la croûte océanique et environ 150 Km sous la croûte continentale. Elle est découpée en plaques mobiles qui se déplacent horizontalement sur l’asthénosphère.
    • Le manteau, ceinture rocheuse de 2.900 Km d’épaisseur composée de silicates et d’oxyde ferro-magnésiens. Il est subdivisé en trois unités de composition minéralogique différente :
      – le manteau supérieur, de 400 Km de profondeur :
      – la zone de transition allant de 400 à 660 Km ;
      – le manteau inférieur, de 600 à 2.900 Km.
      A la limite entre la zone de transition et le manteau inférieur, la température atteint 1.600° C et la pression y est de 23 GPa, tandis qu’au niveau de la couche D », la température est de 3.500° C et la pression de 135 GPa.

      • L’asthénosphère qui est constitué par le manteau moins sa partie appartenant à la lithosphère n’est pas rigide mais à tendance à fluer sous de faibles contraintes ce qui permet aux plaques de la lithosphère de se déplacer les unes par rapport aux autres.
      • Le noyau externe de 2.900 à 5.100 Km, très dense et très chaud, séparé du manteau par la couche D ». Il est formé par un alliage métallique de fer, nickel et éléments plus légers à l’état liquide.
      • A 5.100 Km, la température monte à 5.250° C et la pression à 330 GPa.La graine, d’un diamètre de 1.271 Km, occupe le centre de la planète et est de même composition que le noyau quoique solide. Au centre, la température atteint 6.000° C et la pression est de 365 GPa.

La Terre a un diamètre de 6.371 Km.

globe terrestre
Fig. 1 – Structure interne de la Terre


VI. LA DEPERDITION D’ENERGIE A LA SURFACE DU GLOBE

Deux indicateurs permettent de déterminer la déperdition d’énergie en surface :

1. Le flux géothermique

Il mesure la quantité de chaleur dissipée dans les roches. Le fait que la température augmente avec la profondeur, comme l’avait déjà découvert le savant et jésuite allemand Athanasius KIRCHER (° 1602, Fulda – † 1680, Rome) en 1664, montre qu’il y a échange thermique entre le centre de la Terre et sa surface. La valeur moyenne, loin d’être uniforme, est estimée à 60 mW/m²
En raison des surfaces impliquées, ce sont les océans et les continents qui participent les plus globalement à la dissipation, avec des puissances allant de 25 mW/m² pour les zones les plus froides jusqu’à 1 W/m² pour les zones chaudes comme le Yellowstone par exemple. Par contre, ce sont les régions volcaniques (points chauds et dorsales) qui perdent le plus d’énergie avec des flux géothermique pouvant atteindre 400mW/m²

2. Le gradient géothermique

Le gradient géothermique mesure l’augmentation de température constatée dans le sous-sol à mesure que l’on s’éloigne de la surface. Il a d’abord été mesuré lors de forages profonds. Actuellement, il est calculé par des mesures du flux de chaleur émis à la surface de la Terre. Le gradient moyen dans la lithosphère est d’environ 3° C tous les 100 mètres, mais il est variable selon la constitution profonde des différentes régions. Dans les régions géotectoniques stables il n’est que de 1,5 à 2° C pour 100 m, tandis que dans les zones actives, il atteint jusqu’à 6° C pour 100 m.
Nous savons maintenant que cette énergie est produite pour 90% par les éléments radioactifs naturels, principalement l’uranium et le thorium.

Deux mécanismes permettent la transmission de la chaleur du centre vers l’extérieur :
• Dans la lithosphère, le transfert se fait par conduction : l’énergie thermique se propage d’atomes en atomes par agitation thermique sans mouvement de matière.
• Dans le manteau, l’énergie thermique se transmet par convection, c’est-à-dire par transport énergétique dû au mouvement de la matière selon des cellules de convection.
Le gradient adiabatique10 dans l’asthénosphère, entre les deux couches limites thermiques haute et basse est facilement calculable par la thermodynamique : 0,3° C/Km. Le profil de température dans le manteau est connu indirectement (mesure de température des équilibres minéralogiques dans les enclaves de roches mantelliques, température aux changements de phase olivine/spinelle/perowskite…) jusqu’à 670 Km de profondeur. Il est de 10 à 30° C/Km dans la lithosphère, et de 0,3° C/Km dans l’asthénosphère. La théorie est donc confirmée par les observations, et il n’y a plus qu’à prolonger ce gradient de 0,3° C/Km jusqu’au noyau à -2 900 Km : le calcul donne la valeur de 2.000°C à la base du manteau.
Dans le noyau, on estime la température à l’interface graine/noyau externe (5.150 Km de profondeur) comme étant la température de cristallisation du fer à ces pressions ; c’est environ 5 000°C. Avec un gradient adiabatique calculé (mais invérifiable par l’observation pour le noyau), très voisin de celui du manteau (0,55 °C/km) et en remontant de -5.150 km à -2.900 km, on trouve une température de 3.800°C pour le sommet du noyau externe. On peut donc tracer le géotherme terrestre ci-dessous.

gradient adiabatique
Fig. 2 – Le géotherme terrestre


VII. BIBLIOGRAPHIE

DE LAUNAY L. (1906) – L’Histoire de la Terre, Ernest Flammarion, éditeur, Paris.
GOHAU G. (1987) – Une histoire de la géologie, Ed. La Découverte, col. « Points – Sciences » S66.
PICCIOTTO E.-E.Les phénomènes radioactifs en géologie, in ? pp. 102-135.
PREVOST J.-P. (1976) – Grande Encyclopédie Alpha des Sciences et des Technique – Géologie II, Grange Batelière, Paris – Editions Kister, Genève – Erasme, Bruxelles-Anvers
Intenet :
http://a.foucault.free.fr/buffon.htm
http://fr.wikipedia.org/wiki/William_Thomson
http://mendeleiev.cyberscol.qc.ca/chimisterie/9805/NDumas.html
http://planet-terre.ens-lyon.fr/planetterre/XML/db/planetterre/metadata/LOM-convection-et-geotherme.xml
http://www.cnrs.fr/cnrs-images/sciencesdelaterreaulycee/contenu/dyn_int4-1.htm
http://www.cirs.fr/breve.php?id=69
http://fr.wikipedia.org/wiki/Gradient_g%C3%A9othermique
http://fr.wikipedia.org/wiki/Arthur_Holmes
http://www.attracteur.qc.ca/10-2000/AgeTerre.htm
http://acces.inrp.fr/acces/terre/limites/Temps/datation-isotopique/comprendre/datation-isotopique-de-la-terre
http://www.larecherche.fr/content/impression/article?id=21276
http://www.ulb.ac.be/sciences/gigc/index_fichiers/cours/geochim%20isotopique/cours_geochimie_isotopique_chapitre2.html#2213

Notes


1. E. RUTHERFORD, Arch. Sci. Phys. Nat. , 19 , 31-59 et 125-150, 1905 ; Phil. Mag. , 12 , 348, 1906.
2. R.J. STRUTT, Proc. Roy. Soc. , 84 , 379, 1910
3. J. JOLY et E. RUTHERFORD, Phil. Mag. , 25 , 644, 1913.
4. A.S. EVE, Rutherford , Macmillan, New York, 1939.
5. J.J. THOMSON, Recollections and reflections , Macmillan, New York, 1937.
6. B.B. BOLTWOOD, Amer. J. Sci. , 23 , 77,
7. G.F. BECKER, Bull. Geol. Soc. Amer. , 19 , 113, 1908.
8. Ouvrage cité, p. 100.
9. Mathématicien et statisticien, mais surtout géophysicien et astronome britannique.
10. adiabatique : une transformation est dite adiabatique quand le système considéré n’échange pas dechaleur avec l’extérieur.

Catégories : Radioactivité naturelle | Poster un commentaire

17ème DIALOGUE

LA NAISSANCE DES BIG BANDS – KANSAS CITY

– CAT : Je te rappelle qu’aux environs de 1920, le jazz devient un langage commun à toute la population noire des Etats-Unis, mais avec des variantes propres à chaque région. Nous avons déjà vu, la différence entre le New-Orleans, le style de Chicago et la forme qu’a pris le jazz à New York.
D’autres villes comme, Pittsburg, ville industrielle typique, dont le ghetto fut un centre de conscience noire, compte de nombreux musiciens de jazz originaux : comme les pianistes Earl HINES et Erroll GARNER, les pianistes et arrangeurs Billy STRAYHORN et Mary Lou WILLIAMS, le trompettiste Roy ELDRIDGE, le chanteur Billy ECKSTINE, le batteur Kenny CLARKE, le contrebassiste Ray BROWN, et bien d’autres. Nous les retrouveront tous à partir de maintenant dans nos prochains dialogues car ils ont joué un rôle primordial dans l’histoire du jazz.

– BIRD : Peux-tu me donner un aperçu des ces talentueux musiciens ?

– Cat : Ok, je vais te faire écouter un génie du piano, Earl HINES dans une de ses compositions les plus célèbres, « Rosetta« 

1. « Rosetta » – Earl HINES, New York City, 21-10-1939
Pers. : Earl HINES (p)
Disque : RCA Victor 741.041 – A2 (3’01)

– BIRD : Evidemment, il n’y a rien à redire.

– CAT : Kansas City est une autre cité qui a donné de nombreux musiciens de génie. Cette ville de 30.000 habitants en 1920 et moins de 100.000 en 1940, joua un rôle important dans l’évolution du jazz. C’est une ville double, à cheval sur deux Etats, le Kansas et le Missouri, au confluent du Missouri et de la Kansas River. Les raisons en sont peut-être que c’est un grand centre de communication, moins marqué par la dépression. La corruption de son administration en a fait une ville ouverte, donnant ainsi plus de possibilité de travail pour les musiciens. N’oublions pas qu’elle fut le 1er centre du ragtime, en 1890.

– BIRD : Je vois que Chicago et New York n’ont pas le monopole de la corruption en ces temps-là.

– CAT : Oh que non ! Ecoute ce témoignage de l’écrivain Ronald L. MORRIS : « Le crime organisé et le jazz se mélangeaient bien à Kansas City : c’était un mariage réussi dans un paradis musical. […] L’intense vie nocturne était sous la coupe d’une bande de Siciliens qui travaillaient avec l’accord de la machine sous contrôle irlandais du bootleger-politicien Tom PENDERGAST et de sa famille » . De son côté, l’historien de jazz Frank DRIGGS remarque : « PENDERGAST favorisa le jeu et la vie nocturne. Pendant les années où il fut au pouvoir, les clubs proliférèrent et tous présentaient de la musique d’une sorte ou d’une autre. Nombreux étaient ceux qui disposaient d’assez de place pour présenter de grands orchestres, et nombreux les patrons qui avaient des relations politiques. Il est significatif que presque toute l’évolution musicale de Kansas City ait eu lieu sous le règne de PENDERGAST » . Pour la petite histoire, sache qu’Harry TRUMAN qui remplaça le président ROOSEVELT, en 1945 à la fin de la guerre, était le conseiller juridique de PENDERGAST, lui permettant de contourner les lois. Comme quoi, la corruption mène aux plus hautes fonctions ! Dans le film romancé « Kansas City » de Robert ALTMAN, ce personnage apparaît sur fond de thriller dans le quartier chaud des boites de nuits.

– BIRD : Cela permet peut-être de comprendre le peu de scrupule qu’il eut à lancer les bombes nucléaires sur le Japon. Toutefois, que serait devenue cette musique sans le soutien des gangsters ? Peut-être pas de Duke ELLINGTON, ni de Count BASIE, ni bien d’autres.

2. « Kansas City Stomp » – Jelly-Roll Morton’s Red Hot Peppers – New York, 11-06-1928
Pers. : Jelly-Roll MORTON (p) – Ward PINKETT (tp) –Geechie FIELDS (tb) – Omer SIMEON (cl) – Lee BLAIR (bj) – Bill BENFORD (bb) – Tommy BENFORD (dm)
Disque : CD Classics 612 – 18 (2 :51)

– CAT : Le morceau que tu viens d’entendre « Kansas City Stomp« , est interprété par Jelly-Roll MORTON et ses « Hot Red Peppers« . L’art de Jelly-Roll eut une grande influence sur le jeu d’un des meilleurs orchestres de la ville, celui du pianiste Bennie MOTEN qui imposera le style de Kansas City, caractérisé par son âme, son atmosphère « blusey » et ses solos énergiques. C’est l’inventeur d’une des premières formes du « swing ». En voici déjà un exemple, car nous reviendrons longuement sur ce « pré-big-band ».

3. « Kansas City Breakdown » – Bennie Moten’s Kansas City Orchestra – Camden, 7-09-1928
Pers. : Ed LEWIS, Booker WASHINGTON (tp) – Thamon HAYES (tb) – Woody WALDER, Harlan LEONARD, Jack WASHINGTON (s) – Bennie MOTEN (p) – Leroy BERRY (bjo) – Vernon Walter PAGE (b) – Willie McWASHINGTON (dm)
Disque : LP33 RCA 741.078 – A-6 (2’54)

– BIRD : Oui, pas mal ! On sent toutefois qu’il s’affirme et commence à se détacher de l’influence de MORTON.

– CAT : MOTEN subira deux autres influences, celle du ragtime de James SCOTT qui sévit en ville et celle de l’orchestre de Fletcher HENDERSON qui s’impose à New York City. Très vite, la notoriété du « Kansas City Orchestra » de Bennie MOTEN dépassera les frontières de la ville et il deviendra l’un des meilleurs « territory bands » du Middle West. Mais avant de le suivre plus avant, parlons des quelques rares orchestres de Blancs qui s’adonne à la musique syncopée. Nous avons d’abord celui de Jimmie JOY, originaire du Texas et qui a beaucoup voyagé, allant de Los Angeles à New York, puis à la Nouvelle-Orléans avant d’échouer à Kansas City. Le morceau que nous allons entendre est caractéristique de la manière chaude et acidulée des groupes blancs sudistes.

4. « Wild Jazz » –JimmyJoy’s Baker Hotel Orchestra – Kansas City, 12 ou 13-05-1925
Pers. : Rex “Curley” PREIS (cnt) – Jack BROWN (tb) – Jimmie MALONEY (“Jimmie Joy”) (cl, ldr) – Gilbert “Gib” O’SHAUGHNESSY (cl, sa) – Collis BRADT (sa, st) – Lynn “Son” HARRELL (p) – Clyde “Fooley” AUSTIN (bj) – Johnny W. COLE (tuba) – Amos AYLA (dm)
Disque : CD FA 5095 CD1-2 (2’50)

– BIRD : Quoique l’on dise, cela ne vaut pas l’orchestre précédent.

– CAT : Un deuxième représentant du jazz blanc de Kansas City est Louis FORBSTEIN et son équipe que nous entendrons dans « That’ all there is« .

5. « That’ All There Is » – Louis Forestein’ Royal Syncopators – Kansas City, 18-05-1925
Pers. : Walter HOLZMAUS (tp) – Maw FARLEY (ts, fl) – Gilbert TORRES (vln) – plus non identifies (tp, tb, 2cl-sa-st, p, bj, tuba, dm)
Disque : CD FA 5095 CD1-5 (2’41)

– BIRD : C’est encore fort sautillant, bien dans l’esprit des ensembles blancs.

– CAT : On trouve aussi des chanteurs de blues dont les deux plus célèbres sont Jimmy RUSHING et Joe TURNER, figures particulièrement hautes en couleurs, emblématiques de l’esprit qui soufflait dans les lieux de perdition de Kansas City. Ecoute le témoignage de Mary Lou WILLIAMS : « Il y avait une boîte du tonnerre dans la 12e rue, où on échouait régulièrement : le Sunset qui appartenait à Piney BROWn, amateur de jazz et mécène. Le pianiste Pete JOHNSON y travaillait avec un bassiste et un « drummer », quelquefois Baby LOVETT de la Nouvelle-Orléans, qui est devenu l’un des meilleurs de Kansas City.
Le barman du Sunset se nommait Joe TURNER et, tout en servant à boire, si l’orchestre lui en donnait l’occasion, il se mettait à chanter le blues là où il se trouvait, accompagné par Pete JOHNSON au piano. Je crois que je n’oublierai jamais l’émotion que suscitait en moi la voix tonnante du grand Joe TURNER, qui faisait chanter tout le monde, chaque nuit, en préparant ses cocktails ».
Ecoutons d’abord, le « blues shouter » Jimmy RUSHING que nous avons déjà rencontré lors de précédentes causeries. Ici il est accompagné par les « Blue Devils » de Walter PAGE ; c’est son premier disque. Le pianiste est le jeune Williams BASIE, futur « Count ». Ensuite, Joe TURNER et ces « Fly Cats« , où l’on retrouve Pete JOHNSON ainsi que le trompettiste « Hot Lips » PAGE qui fait partie également des « Blue Devils« , et le saxophoniste Don BYAS, tous de futures grandes pointures sur la scène du jazz.

6. « Blue Devil Blues » – Walter Page’s Blue Devils – Kansas City, 10-11-1929
Pers. : James SIMPSON, Oran “Hot Lips” PAGE (tp) – Henry “Buster” SMITH (cl, sa) – Ted MANNING (sa, sb) – Reuben RODDY (st) – Charlie WASHINGTON ou William “Count” BASIE (p) – Reuben LYNCH ou Thomas OWENS (bjo) – Walter PAGE (b, ldr) – Alvin BURROUGH (dm) – Jimmy RUSHING (voc)
Disque : CD FA 5095 CD1-20 (2’44)

7. « Piney Brown Blues » – Joe TURNER and his Fly Cats – New York City, 11-11-1940
Pers. : Joe TURNER (voc) – “Hot Lips” PAGE (tp) – Don BYAS (st) – Pete JOHNSON (p) – John COLLINS (g) – Abe BOLAR (b) – A.G. GODLEY (dm)
Disque : CD FA 5095 CD2-13 (2’54)

– BIRD : Ils n’ont rien à envier aux bluesmen que nous avons déjà rencontré à Chicago ou à la Nouvelle-Orléans.

– CAT : Il faut également souligner l’importance des premières firmes d’enregistrement, comme Okeh ou Victor, qui n’hésitaient pas à se déplacer d’une ville à l’autre avec leur matériel lourd et encombrant pour graver tout ce qui leur tombait sous l’aiguille. C’est ainsi qu’ils firent plusieurs fois halte à Kansas City et que l’on possède pas mal de faces mémorables des orchestres noirs de l’endroit. Bennie MOTEN n’échappa pas à la règle et RCA-Victor « Black & White » a ressorti l’intégrale de ses enregistrements en cinq LP33T, dont proviennent la plupart des morceaux que l’on entendra.

– BIRD : Heureusement que bon nombre des matrices de ces différentes sociétés ont été conservées. Le jazz étant une musique d’improvisation, il est impossible de figer sur partition l’inspiration des solistes qui créent au fur à mesure qu’ils jouent.

– CAT : La période de gloire du style de Kansas City se situe entre 1920-1938, donc durant une grande partie de la prohibition (1920-1933). Pendant cette décennie, Kansas City est à la pointe du modernisme en matière de jazz grâce à Bennie MOTEN et les musiciens qui rejoindront progressivement son orchestre. Enfant de Kansas City, il y voit le jour le 13 novembre 1894. Il débute sa carrière musicale en jouant du saxhorn baryton dans un « brass band » d’enfants. Ensuite, il passe au piano sous l’instigation de sa mère, pianiste elle-même. Au début, il a une prédilection pour le ragtime.

8. « Pleasant Moments » – Scott JOPLIN
Pers. : Scott JOPLIN (p)
Disque : LP33 Musidisc 30 JA 5137 – B-2 (2’23)

– BIRD : C’était une musique plaisante.

– CAT : Tu ne pouvais pas mieux dire, c’est le titre du morceau « Pleasant Moments« . En 1918, il dirige un trio et vers 1921, il débute à la tête d’un sextette au « Panama Club » de Kansas City. En 1924, le « talent scout » Ralph PEER de la firme Okeh l’auditionne et en septembre de la même année les deux premières faces sont enregistrées à St-Louis. Il enregistre régulièrement jusqu’en 1932. Chez Okeh de 1923 à 1925, ensuite, il suit PEER chez Victor pour qui il enregistre de 1926 à 1932. Progressivement, il augmente son personnel par absorption des meilleurs musiciens du coin. C’est ainsi que Williams « Count » BASIE le rejoint en 1929, puis ce sont « Hot Lips » PAGE, Ben WEBSTER, Walter PAGE, etc. qui complètent ce premier « big band ».

9. « South » – Bennie Moten’s Kansas City Orchestra – St. Louis, 29-11-1924
Pers. : Lammar WRIGHT St, Harry COOPER (cnt) – Thamon HAYES (tb) – Woody WALDER (cl) – Harlan LEONARD (cl, sa) – Bennie MOTEN (p, ldr) – Sam TALL (bjo) – Willie HALL (dm)
Disque : CD FA 5095 CD1-1 (2’42)

– BIRD : On sent qu’il n’a pas encore acquis toute sa maturité et qu’il joue selon le style syncopé de l’époque.

– CAT : Oui. D’un style frustre, raide, il passe progressivement à la maturité avec des morceaux qui dégagent chaleur et souplesse. Ainsi, « Moten Stomp » de 1927 a encore une allure syncopée ; cela s’améliore avec « Moten Blues » de 1929 ; et on atteint l’apogée avec « Moten Swing » de 1932 dans lequel on sent justement ce swing, tant attendu.

10. « Moten Stomp » – Bennie Moten’s Kansas City Orchestra – Chicago, 12-06-1927
Pers. : Paul WEBSTER, Ed LEWIS (cnt) – Thamon HAYES (tb) – Woodie WALDER (cl, st) – Harlan LEONARD (cl, sa) – Jack WASHINGTON (cl, sa sb) – Bennie MOTEN (p, arr, ldr) – Leroy BERRY (bjo) – Vernon PAGE (tuba) – Willie McWASHINGTON (dm)
Disque : CD FA 5095 CD1-10 (2’55)

11. « Moten Blues » – Bennie Moten’s Kansas City Orchestra – Chicago, 17-07-1929
Pers. : Booker Washington, Ed LEWIS (cnt) – Thamon HAYES (tb) – Woodie WALDER (cl, st) – Harlan LEONARD (cl, sa) – Jack WASHINGTON (cl, sa sb) – Bennie MOTEN (p, arr, ldr) – Leroy BERRY (bjo) – Vernon PAGE (tuba) Ira “Buster” MOTEN (acc) – Willie McWASHINGTON (dm)
Disque : CD FA 5095 CD1-13 (3’02)

12. « Moten Swing » – Bennie Moten’s Kansas City Orchestra – Camden (New Jersey), 13-12-1932
Pers. : Joe KEYES, Dee STEWART, Oran “Hot Lips” PAGE (tp) – Dan MINOR (tb) – Eddie DURHAM (tb, g, arr) – Eddie BAREFIELD (cl, sa) – Jack WASHINGTON (cl, sa, sb) – Ben WEBSTER (st) – William “Count” BASIE (p) – Leroy BERRY (g) – Walter PAGE (b) – Willie McWASHINGTON (dm) – Bennie MOTEN (ldr)
Disque : CD FA 5095 CD2-2 (3’19)

– BIRD : Très belle démonstration. On sent très bien la progression et le dernier morceau est admirablement soutenu par la section rythmique. On trouve déjà la patte du Count et de PAGE à la contrebasse.

– CAT : Nous avons vu que BASIE avait rejoint l’orchestre en 1929. Ecoute l’une de ses premières interventions au sein de cet ensemble. Il s’agit de « Rumba Negro« .

13. « Rumba Negro » – Bennie Moten’s Kansas City Orchestra – Chicago, 23-10-1929
Pers. : Ed LEWIS, Booker WASHINGTON (tp) – Thamon HAYES (tb) – Eddie DURHAM (tb, g, arr) – Woodie WALDER (cl, st) – Harlan LEONARD (cl, ss, sa) – Jack WASHINGTON (cl, sa, sb) – William “Count” BASIE (p) – Ira “Buster” MOTEN (acc) – Leroy BERRY (bjo) – Vernon PAGE (tuba) – Willie McWASHINGTON (dm)
Disque : CD FA 5095 CD1-14 (2’47)

– BIRD : Son intervention est encore fort discrète, mais cela donne un aperçu de ce qu’il sera plus tard.

– CAT : Tu vas pouvoir mieux apprécier son jeu en tant qu’accompagnateur de la chanteuse Hattie NORTH, dans un morceau de 1929.

14. « Lovin’ That Man Blues » – Hattie NORTH – Kansas City, ca. 6-11-1929
Pers. : Hattie NORTH (Edith NORTH-JOHNSON) (voc) – William “Count” BASIE (p)
Disque : CD FA 5095 CD1-17 (2’23)

– BIRD : Le jeune « Count » ne s’y montre pas manchot.

– CAT : Ecoute encore deux morceau du « Kansas City Orchestra » de la période Victor, lors de la séance d’enregistrement des 6 et 7 septembre 1929 : « Slow Motion » et « Hot Water Blues« . On y sent déjà toutes les qualités qui feront la réputation de Bennie MOTEN dans les années suivantes.

15. « Slow Motion » – Bennie Moten’s Kansas City Orchestra – Camden (New Jersey), 6-09-1928
Pers. : Ed LEWIS, Booker WASHINGTON (tp) – Thamon HAYES (tb) – Woody WALDER, Harlan LEONARD, Jack WASHINGTON (s) – Bennie MOTEN (p) – Leroy BERRY (bjo) – Vernon Walter PAGE (b) – Willie McWASHINDTON (dm) – James TAYLOR (voc)
Disque : LP33 RCA 741.078 A-2 (2’37)

16. « Hot Water Blues » Bennie Moten’s Kansas City Orchestra – Camden (New Jersey), 7-09-1928
Pers. : Ed LEWIS, Booker WASHINGTON (tp) – Thamon HAYES (tb) – Woody WALDER, Harlan LEONARD, Jack WASHINGTON (s) – Bennie MOTEN (p) – Leroy BERRY (bjo) – Vernon Walter PAGE (b) – Willie McWASHINDTON (dm) – James TAYLOR (voc)
Disque : LP33 RCA 741.078 A-8 (2’31)

– BIRD : C’est déjà d’une autre trempe que ce qui se jouait avant.

– CAT : La dernière séance d’enregistrement de l’ensemble de MOTEN du 13-12-1932 marque tout à la fois l’apogée et l’agonie du « Kansas City Orchestra« . Epargné jusqu’alors par la récession, l’orchestre est frappé de plein fouet par la crise. Aussi cette séance s’est déroulé dans des conditions catastrophiques comme en témoigne le clarinettiste-saxophoniste Eddie BAREFIELD : « Nous n’avions plus un rond et nous devions aller enregistrer à Camden. […] Et voilà que notre copain Archie s’est amené avec un vieux bus déglingué. Il nous a emmenés là-bas et nous a dégoté un lapin avec quatre miches de pain. Juste de quoi ne pas mourir de faim. Nous avons fait cuire un ragoût sur une table de jeu. Ensuite, nous avons fait les disques. A ce moment-là, c’était Eddie DURHAM qui écrivait presque tous les arrangements de MOTEN. […] Nous avons seulement fait les disques et puis nous sommes rentrés à Kansas City. Nous y avons traîné encore quelque temps sans faire grand chose ». Et pourtant la dizaine de gravures est une série de chef-d’œuvres. Comme quoi, pour avoir de l’inspiration, il ne faut pas toujours des conditions idéales. Ecoutons-les !

17. « The Blue Room » – Bennie Moten’s Kansas City Orchestra – Camden (New Jersey), 13-12-1932
Pers. : Joe KEYES, Dee STEWART, Oran “Hot Lips” PAGE (tp) – Dan MINOR (tb) – Eddie DURHAM (tb, g, arr) – Eddie BAREFIELD (cl, sa) – Jack WASHINGTON (cl, sa, sb) – Ben WEBSTER (st) – William “Count” BASIE (p) – Leroy BERRY (g) – Walter PAGE (b) – Willie McWASHINGTON (dm) – Bennie MOTEN (ldr)
Disque : CD FA 5095 CD2-3 (3’19)

– BIRD : Quelle merveille ! Cà swingue réellement !

– CAT : Avec ce morceau, nous assistons vraiment à la naissance du « swing de Kansas City » duquel s’inspireront tous les big-bands futurs. Tu as sûrement constaté l’introduction de petites phrases rythmiques, répétitives. Ce sont les fameux « riffs » qui au départ devaient soutenir l’effort des solistes. Ils sont indéniablement générateurs de swing.

– BIRD : Enfin nous y voilà ! Du swing, du swing, encore du swing !

– CAT : Pour cette séance nous avons « Hot Lips » PAGE dans le rôle du trompette soliste qui s’inspire souvent de Louis ARMSTRONG. Ben WEBSTER rejoint le banc des saxophones. Ces interventions contribuent à donner à l’ensemble une certaine coloration à la Coleman HAWKINS. Ce qui frappe également c’est la souplesse et l’aisance de la section rythmique, qui doit beaucoup à Walter PAGE (b) épaulé par Leroy BERRY (g) et Willie McWASHINGTON (dm). On sent aussi que le « Count » s’impose déjà en leader de l’ensemble. Ses introductions dans des morceaux comme celui que je te donne à écouter préfigurent sa grande période qui débute en 1936. Ecoute, voici « Lafayette« .

18. « Lafayette » – Bennie Moten’s Kansas City Orchestra – Camden (New Jersey), 13-12-1932
Pers. : Joe KEYES, Dee STEWART, Oran “Hot Lips” PAGE (tp) – Dan MINOR (tb) – Eddie DURHAM (tb, g, arr) – Eddie BAREFIELD (cl, sa) – Jack WASHINGTON (cl, sa, sb) – Ben WEBSTER (st) – William “Count” BASIE (p) – Leroy BERRY (g) – Walter PAGE (b) – Willie McWASHINGTON (dm) – Bennie MOTEN (ldr)
Disque : LP33 RCA FXM1 7062 – B-14 (2’45)

– BIRD : Effectivement, c’est parfait, bien huilé, entraînant. On a envie de bouger.

– CAT : MOTEN meurt le 2 avril 1935 des suites d’une opération chirurgicale banale. Un chirurgien de ses amis imbibé d’alcool, aux mains d’une maladresse proverbiale, voulu absolument le libérer d’encombrantes amygdales, qui pourtant ne le gênaient pas plus que çà. Il n’en sortit pas vivant. Son cousin reprend la direction de l’orchestre de 1935 à 1936, mais ce n’est plus çà !

– BIRD : Je suppose qu’il y avait d’autres ensembles à Kansas City, bien qu’il semble que celui de Bennie MOTEN soit le plus connu ?

– CAT : Bien sûr et nous allons justement en parler. Ecoutons d’abord les « Blue Devils » de Walter PAGE, avant qu’il ne rejoigne MOTEN en 1932. Cet ensemble ne grava qu’un seul disque en 1929, lors du passage des ingénieurs de chez Brunswick/Vocalion dans la ville. Nous avons entendu la première face en accompagnement de Jimmy RUSHING. Voici maintenant « Squabblin’« .

19. « Squabblin’ » -– Walter Page’s Blue Devils – Kansas City, 10-11-1929
Pers. : James SIMPSON, Oran “Hot Lips” PAGE (tp) – Henry “Buster” SMITH (cl, sa) – Ted MANNING (sa, sb) – Reuben RODDY (st) – Charlie WASHINGTON ou William “Count” BASIE (p) – Reuben LYNCH ou Thomas OWENS (bjo) – Walter PAGE (b, ldr) – Alvin BURROUGH (dm) – Jimmy RUSHING (voc)
Disque : CD FA 5095 CD1-21 (3’00)

– BIRD : Très beau solo du clarinettiste Henry SMITH. Morceau bien enlevé, prometteur de ce que sera le style KC.

– CAT : Je vois que tu deviens un vrai connaisseur. Un deuxième orchestre qui eut moins de chance que celui de MOTEN, est celui du saxophoniste et chef d’orchestre George E. LEE (1896-1959). Pourtant actif dans la cité depuis 1920, il n’eut droit qu’à six faces : deux en 1927 et quatre en 1929 lors de la tournée de Brunswick/Vocalion

20. « Ruff Scufflin’ » – George E. LEE and his Orchestra – Kansas City, ca. 5-6-11-1929
Pers. : Sam UTTERBACH, Harold KNOX (tp) – Jimmy JONES (tb) – Herman QALDER (cl, sa) – Clarence TAYLOR (ss, sa, sb) – Albert “Budd” JOHNSON (st) – prob. Julia LEE (p) – Charles RUSSO (bjo) – Clint WEAVER (tuba) – Pete WOODS (dm) – George E. Lee (ldr)
Disque : CD FA 5095 CD1-16 (3’00)

– BIRD : Ce n’est pas mal techniquement et très mélodieux, porté par un rythme léger et efficace.

– CAT : Le pianiste et arrangeur de LEE, Jesse STONE, dirige parfois son propre groupe sous le nom des « Blue Serenaders« . Quatre faces gravées en 1927 à St-Louis dont deux inédites. Ici on l’entend dans un morceau sur tempo vif, « Boot to Boot« .

21. « Boot to Boot » – Jesse STONE and his Blue Serenaders, St-Louis, 27-04-1927
Pers. : Albert HINTON, “Slick” JACKSON (tp) – Druie BESS (tb) – Jack WASHINGTON (sa, sb) – Gleen HUGHES (sa) – Elmer BURCH (st) – Pete HASSEL (tuba) – Max WILKINSON (dm)
Disque : CD FA 5095 CD1-9 (3’04)

– Bird : Ce morceau me met immédiatement en mémoire le fameux « Tiger Rag » immortalisé par Louis ARMSTRONG. On y sent une certaine originalité.

– Cat : Venons-en maintenant à un ensemble qui fit concurrence à MOTEN au niveau du nombre d’enregistrements, celui d’Andy KIRK. Rappelles-toi, nous l’avons vu la dernière fois sur la scène du « Cotton Club » en 1939. Originaire de Newport dans le Kentucky, il réalise une partie de sa carrière de musicien en tant que bassiste chez le saxophoniste John WILLIAMS. La pianiste du groupe est Mary Lou WILLIAMS, une des figures les plus emblématique de la musique de Kansas City. Elle est tout à la fois une pianiste subtile, une compositrice talentueuse et maîtresse dans l’art de l’arrangement. Ecoutons-là en trio dans « Corny Rhythm« .

22. « Corny Rhythm » – Mary Lou WILLIAMS – New York City, 7-03-1936
Pers. : Mary Lou WILLIAMS (p) – Booker COLLINS (b) – Ben THIGPEN (dm)
Disque : CD FA 5095 CD2-4 (2’42)

– BIRD : Effectivement, c’est inspiré avec beaucoup d’âme, techniquement parfait. De la grande classe.

– CAT : Nous la retrouverons plusieurs fois dans le cours de nos entretiens. Revenons à Andy KIRK. Vers le milieu des années 1920, il rejoint les « Dark Clouds Of Joy » du trompettiste légendaire Terrence HOLDER, basé à Dallas. Au début 1929, HOLDER, désavoué par ses musiciens, cède la place à Andy. Après diverses péripéties, les « Clouds Of Joy » prennent leurs quartiers à Kansas City pendant la première moitié des années 1930, sous l’impulsion de George E. LEE. C’est ainsi que l’équipe de Brunswich/Vocalion les enregistre en 1929 à l’occasion de leur grande tournée dans le Middle West. Nous allons découvrir cet ensemble dans « Froggy Bottom » composé et arrangé par Mary Lou. C’est elle qui introduit le morceau par un très impressionnant solo. Elle a ici 19 ans et montre déjà une très grande maturité.

23. « Froggy Bottom » – Andy KIRK and his Twelve Clouds of Joy – Kansas City, ca. 7 et 11-11-1929
Pers. : Gene PRINCE, Harry LAWSON (tp) – Allen DURHAM (tb) – John HARRINGTON (cl, sa) – John WILLIAMS (sa , sb) – Lawrence FREEMAN (st) – Claude WILLIAMS (bjo, g) – Andy KIRK (tuba, bs, ldr) – Edward MCNEIL (dm)
Disque : CD FA 5095 CD1-19 (3’09)

– BIRD : Je comprends ton enthousiasme pour cette artiste.

– CAT : Jack KAPP le « talent scout » de Brunswick/Vocalion est fasciné par notre jeune pianiste, aussi il organise une deuxième séance d’enregistrement, cette fois à Chicago. Cela donne notamment « Mary’s Idea« , toujours de Mary Lou.

24. « Mary’s Idea » – Andy KIRK and his Twelve Clouds of Joy – Chicago, 30-04-1930
Pers. : Gene PRINCE, Harry LAWSON (tp) – Allen DURHAM (tb) – John HARRINGTON (cl, sa) – John WILLIAMS (sa , sb) – Lawrence FREEMAN (st) – Claude WILLIAMS (bjo, g) – Andy KIRK (tuba, bs, ldr) – Edward MCNEIL (dm)
Disque : CD FA 5095 CD2-1 (3’06)

– CAT : En décembre 1930, KIRK et une formation légèrement modifiée sont engagé au « Savoy Ballroom » de New York. Au début de l’année suivante, Blanche CALLOWAY, la sœur aînée de l’autre réquisitionne la bande pour un engagement au « Pearl Theater » de Philadelphie. De cette union momentanée naîtront une série de faces enregistrées à Camden. Voci « I Need Lovin’ » chanté par Blanche CALLOWAY et dans lequel, Mary Lou WILLIAMS se taille un excellent solo.

25. « I Need Lovin’ » – Blanche CALLOWAY and her Joy Boys – Camden, 2-03-1931
Pers. : Harry LAWSON, Clarence SMITH (tp) – Edgar BATTLE (tp, arr) – Floyd BRADY (tb) – John HARRINGTON (cl, sa) – John WILLIAMS (sa) – Lawrence FREEMAN (st) – Mary Lou WILLIAMS (p) – William DIRVIN (bjo) – Andy KIRK (tuba) – Ben THIGPEN (dm) – Blanche CALLOWAY (voc, ldr)
Disque : LP33 – RCA PM 42 392 – A-3 (2’52)

– BIRD : J’ignorais complètement que la soeur de Cab CALLOWAY avait dirigé un grand orchestre. Cela vaut bien d’autres « big bands« .

– CAT : Sollicité par Bennie MOTEN, les « Joyeux Lurons » retourne au bercail au printemps 1931, où ils ont mieux à faire. C’est ici qu’intervient un certain John HAMMOND. Issu d’une des plus riches familles des Etats-Unis, il s’intéresse dès sa prime enfance au blues et au jazz. Sa passion le pousse à écrire de nombreux articles dans des revues américaines, anglaises et même françaises sur cette musique qu’il admire. Il se lance dans la jungle du « show-biz » et organise des spectacles qui mettent en valeur de nombreux musiciens de jazz aussi bien blancs que noirs. Il lance la mode des concerts radiophoniques. Directeur artistique de l’American Recording Corporation (ARC), il est à l’origine de nombreux enregistrements alors que les firmes et les studios sont dans des passes difficiles à la suite de la crise.

– BIRD : C’est une providence pour le monde du jazz !

– CAT : Il avait installé dans sa voiture un poste de radio lui permettant de capter les émissions en ondes courtes. Un soir il entend celle retransmise par W9XBY, en direct du « Reno Club » de Kansas City, qui le fait bondir. L’orchestre présenté est dirigé par un certain BASIE, pianiste, et comportait un saxophoniste ténor au phrasé extrêmement léger, au swing déconcertant du nom de Lester YOUNG. Voici l’orchestre lors d’une retransmission radiophonique.

26. « Theme and Shoe Shine Boy » – Count BASIE and his Orchestra – « Chatterbox Room » William Penn Hotel, 8-02-1937
Pers. : Joe KEYES, Carl “Tatti” SMITH, Buck CLAYTON (tp) – Dan MINOR, George HUNT (tb) – Caughey ROBERTS (sa) – Jack WASHINGTON (sa, sb) – Herschel EVANS, Lester YOUNG (st) – Count BASIE (p, ldr) – Claude WILLIAMS (g) – Walter PAGE (b) – Jo JONES (dm)
Disque : CD FA 5095 CD261 (4’56)

– BIRD : Dommage que l’on n’a plus ce genre d’émission !

– CAT : Au cours de l’été 1936, après avoir mainte fois écrit à BASIE, John HAMMOND décide de descendre à Kansas City. Faute de BASIE, en tournée dans l’Est, il se rabat sur Andy KIRK qui se rapproche, en moins féroce, de celui qu’il cherche à amener à New York.

27. « Little Joe from Chicago » – Andy KIRK and his Twelve Clouds of Joy – New York City, 8-02-1938
Pers. : Harry LAWSON, Clarence TRICE, Earl THOMPSON (tp) – Ted DONNELLY, Henry WELIS (tb) – John HARRIGTON (cl, sa, sb) – John WILLIAMS (sa, sb) – Dick WILSON (st) – Earl MILLER (cl; sa) – Mary Lou WILLIAMS (p, arr) – Ted ROBINSON (g) – Booker COLLINS (b) – Ben THIGPEN (dm) – Andy KIRK (ldr)
Disque : CD FA 5095 CD2-9 (2’47)

– Cat : L’une des dernières grandes figures de Kansas City est le pianiste Jay McSHANN qui a eut le privilège d’avoir dans ses rangs une étoile montante qui va révolutionner le jazz. Il s’agit de Charlie PARKER. Je te le donne à entendre ici dans le fameux « Lady Be Good » des frères GERSHWIN.

28. « Lady Be Good » – Jay McShann Jazz Combo – Wichita (Kansas), 30-11-1940
Pers. : Bernard ANDERSON, Orville MINOR (tp) – Bob GOULD (tb, vl) – Charlie PARKER (sa) – Bob MABANE (st) – Jack MCSHANN (p, ldr) – Gene RAMEY (b) – Gus JOHNSON (dm)
Disque : CD FA 5095 CD2-18 (2’57)

– CAT : Nous allons terminer ce dialogue avec l’orchestre du Count. De toute façon nous lui consacrerons une soirée complète. Nous avons vu qu’il fit partie des « Blue Devils » de Walter PAGE puis du grand orchestre de Bennie MOTEN. Après la mort de celui-ci, il réunit quelques rescapés du groupe et fait appel à d’autres musiciens pour jouer au « Reno Club« . John HAMMOND lui procure ses premiers engagements à Chicago, puis à New York. Nous verrons cela plus tard. Terminons avec le célèbre « One O’Clock Jump« . Au départ ce morceau s’intitulait « Blue Balls« , mais ces bouboules bleuies par la vérole napolitaine effrayèrent le présentateur qui regardant l’horloge du studio s’avisa qu’il était pile une heure du matin, d’où le nom actuel.

29. « One O’Clock Jump » – Count BASIE and his Orchestra – New York City, 21-01-1941
Pers.: Ed LEWIS, Buck CLAYTON, Harry EDISON, Al KILLIAN (tp) – Dicky WELLS, Eli ROBINSON, Robert SCOTT (tb) – Tab SMITH (ss, sa) – Earl WARREN (sa) – Don BYAS, Buddy TATE (st) – Jack WASHINGTON (sb) – Count BASIE (p, ldr) – Freddy GREENE (g) – Walter PAGE (b) – Jo JONES (dm)
Disque : CD FA 5095 CD2-17 (3’02)

– BIRD : Quelle soirée. Que de découvertes. Vivement les suivantes !

– CAT : La fois prochaine, je t’emmène au cinéma. Je te présenterai le film de Robert ALTMAN « Kansas City » qui nous replongera dans cette ambiance de perdition, avec un Harry BELAFONTE prodigieux.

Catégories : Jazz | Un commentaire

Accidents nucléaires

Cet article est paru dans le Bulletin du G.E.S.T., N° 169, se septembre 2011


I. INTRODUCTION

La catastrophe nucléaire qui a ébranlé le Japon en mars 2011, remet en mémoire celle de Tchernobyl. Cet événement tragique fait le jeu des opposants de tous bord à l’utilisation de l’atome dans l’obtention de notre énergie électrique.
Depuis l’existence des centrales nucléaires dont la première remonte à 1951, il y a 63 ans, seuls trois accidents majeurs se sont produits. Chiffre dérisoire comparé à celui des incidents dramatiques qui ont touchés les autres domaines de l’industrie chimique, pétrolière, des transports maritimes, ferroviaires et routiers.
Le premier de ces accidents de l’histoire du nucléaire civil est celui de la centrale américaine de Three Mile Island, survenu le 28 mars 1979. Il sera suivi, 7 ans plus tard, de celui de la centrale de Tchernobyl, en Ukraine, dont un réacteur explose le 26 avril 1986. Enfin, le dernier en date, celui de Fukushima, dû aux conséquences du tsunami qui a suivi le séisme de magnitude 9 qui a ébranlé la grande île de Honshu au Japon.
La hantise d’une explosion nucléaire du type de celui des bombes lancées sur Hiroshima et Nagasaki et des campagnes de tirs qui ont émaillés les années 1950 à 1970 reste ancrée dans l’esprit de la population. Les radiations font peur ! Je renvois le lecteur à mon article, « Faut-il avoir peur du nucléaire ? » qui avait ouvert le dossier nucléaire paru en épisodes dans notre bulletin. Je ne vais pas rouvrir le débat ici, car cela nous entraînerait trop loin. Je veux simplement essayer d’expliquer ce qui différencie ces trois accidents.


II. HISTORIQUE

La première centrale nucléaire entre en service aux Etats-Unis, le 20 décembre 1951, au Experimental Breeder Reactor I (EBR-I) près de la ville d’Arco dans l’Idaho. Elle sera suivie, le 27 juin 1954, par une centrale civile qui est connectée au réseau électrique à Obninsk, en Union soviétique, avec une puissance de production électrique de 5 mégawatts. Ensuite, l’usine de Marcoule en Provence diverge le 7 janvier 1956, celle de Sellafield au Royaume-Uni est raccordée au réseau en 1956, et le réacteur de Shippingport aux Etats-Unis est connecté en 1957, tandis que les travaux de construction de la première centrale à usage civil française, à Chinon (EDF1), démarrent la même année. Depuis, le nombre de centrales nucléaires de par le monde a augmenté assez rapidement.
Ainsi, en 2011, après l’accident de Fukushima, et la décision des autorités japonaises d’arrêter définitivement les réacteurs Fukushima 1 à 4, le 20 mai de cette année, 440 réacteurs de puissance à usage civil fonctionnent dans 30 pays différents. 64 réacteurs sont actuellement en construction. Les Etats-Unis, la France, le Japon et la Russie disposent à eux quatre de 56% du nombre total de réacteurs dans le monde, soit 248.


III. RISQUE D’ACCIDENT

Il est évident que des études de sécurité ont été menées depuis le début de l’industrie nucléaire et qu’un certain nombre de règles a été édicté afin de respecter un taux de sécurité le plus élevé possible. Malheureusement, le coût de l’application de ces règles grève le prix du KW/h, entraînant parfois, de la part des exploitants, un relâchement des normes de sécurité.

L’accident majeur que craignent les ingénieurs est la fusion du cœur d’un réacteur nucléaire. Celle-ci survient lorsque les barres de combustible, qui contiennent l’uranium ou le plutonium, et les produits de fission, commencent à surchauffer puis à fondre dans le réacteur à la suite d’un défaut de refroidissement. Cet incident est considéré comme étant très grave, en raison de la probabilité que des matières fissiles puissent polluer l’environnement par émission de radio-isotopes hautement radioactifs.

L’objectif que s’était fixé la France pour ses centrales de première génération était d’avoir une probabilité de fusion du cœur inférieure à 5 sur 100.000 par réacteur et par an. Pour la deuxième génération, cette probabilité a été portée à 1 sur 100.000 dans un réacteur à eau pressurisé (REP) de 1.300 MWe² . Du côté allemand, « l’étude officielle sur les risques nucléaires, phase B » avance une probabilité de catastrophe majeure dans une centrale après 40 ans de fonctionnement de 0,1 %, ce qui correspondrait à 2,5 accidents par réacteur et par 100.000 ans de fonctionnement. Ce niveau de sécurité, au début 2009, était légèrement supérieur à la moyenne dans le reste du monde, l’industrie nucléaire ayant accumulé une expérience totale de 13.000 années x réacteur de fonctionnement.


IV. ECHELLE INTERNATIONALE DES EVENEMENTS NUCLEAIRES (INES)

Afin de faciliter la perception par les médias et le grand public de l’importance des incidents et accidents nucléaires en matière de sécurité, l’autorité de sûreté nucléaire (ASN) a établi une échelle d’évaluation de la gravité des événements nucléaires (International Nuclear Event Scale). Celle-ci comporte huit niveaux de gravité notés de 0 à 7, selon une gradation logarithmique, un niveau correspondant à un facteur 10. C’est ainsi, que les accidents de Tchernobyl et de Fukushima ont été classés officiellement au niveau 7.
Les événements de niveaux 1 à 3, sans conséquence significative sur les populations et l’environnement, sont qualifiés d’incidents, les autres (4 à 7) d’accidents.
Trois zones d’incidences sont prises en considération pour analyser les événements en fonction de leurs conséquences : incidence hors du site sur les personnes et les biens, incidence sur le site, et incidence sur la défense profonde³.

 

échelle dégats nucléaires

A ce jour, l’industrie nucléaire a connu 2 accidents majeurs (7), un accident grave (6), 4 accidents entraînant un risque hors site, 5 accidents n’entraînant pas de risque hors site, et 7 incidents graves.


V. LISTE DES ACCIDENTS AYANT ENTRAINE LA FUSION DU COEUR

A ce jour, plusieurs accidents ayant entraîné la fusion partielle ou totale du cœur d’un réacteur se sont produits dans le monde, sans nécessairement atteindre le niveau d’une catastrophe environnementale.

  • Le 10 octobre 1957, l’incendie dans la première centrale anglaise de Windscale (rebaptisée Sellafield), est jugé de niveau 5 sur l’échelle INES ;
  • Le 17 octobre 1969, 50 Kg d’uranium sont entrés en fusion dans le cœur du réacteur A1 de la centrale française de Saint-Laurent-des-Eaux, lors d’une opération de chargement. A l’époque, cet accident a été qualifié de niveau 4 par EDF ;
  • Le 28 mars 1979, se produit l’accident de la centrale américaine de Three Mile Island. A la suite d’une suite d’événements accidentels, le cœur du réacteur TMI-2 fond en partie. L’accident est classé au niveau 5 ;
  • Le 13 mars 1980, la fusion de 2 Kg d’uranium du réacteur A2 de la centrale française de Saint-Laurent-des-Eaux, endommage gravement celui-ci qui sera indisponible pendant trois ans et demi environ. Cet accident est porté au niveau 4 et est le plus important en France ;
  • le 26 avril 1986, l’explosion de la centrale soviétique de Tchernobyl a conduit à la fusion du cœur d’un réacteur et au relâchement dans l’atmosphère de produits radioactifs, entraînant de nombreux décès, survenus directement ou à la suite d’une exposition aux radiations. C’est le premier accident à être classé 7 sur l’échelle INES ;
  • En 2011, l’accident de la centrale japonaise de Kukushima, estimé dans un premier à 4, puis à 5 pour finalement atteindre 7 sur l’échelle INES.

 

VI. TYPES DE CENTRALES

Les trois sites qui nous intéressent ici, à savoir Three Mile Island, Tchernobyl et Fukushima, sont équipés de centrales de types différents.

  • Three Mile Island

    Ce site était équipé d’un réacteur à eau pressurisée (REP). Cette technique de réacteur nucléaire dite de deuxième génération comporte deux circuits d’eau dont l’un refroidit le cœur du réacteur et transfère sa chaleur dans un échangeur au deuxième circuit, dans lequel l’eau se transforme en vapeur et fait tourner les turbines (fig. 1). L’eau du circuit primaire sert également de modérateur. Dans ce type de filière, l’eau ne bout pas dans le cœur du réacteur, car elle est à très haute pression, supérieure à la pression d’ébullition à la température de fonctionnement du réacteur. Le combustible nucléaire est de l’oxyde d’uranium enrichi à 3 à 5% d’235U, selon les pays. Il est distribué sous forme de pastilles empilées dans des gaines en zircaloy, appelées crayons.
    L’avantage de cette technologie est que l’eau qui est en contact avec les barres de combustible ne quitte jamais l’enceinte métallique du réacteur, diminuant fortement le risque de contamination en cas de fuite radioactive.
    Cette technologie, d’origine américaine (Westinghouse) est la plus répandue dans le monde en 2006. Les réacteurs qui en découlent, équipent la majorité des navires et sous-marins à propulsion nucléaire et la majorité des centrales de production d’énergie électrique.

centrale Three Mile Island
Fig. 1 – Réacteur REP de Three Mile Island

  • Tchernobyl

    A Tchernobyl, nous avons à faire à un réacteur graphite – eau bouillante (Reaktor Bolshoy Moshchnosti Kanalniy, RBMK) (fig. 2), de conception soviétique. Ce type de réacteur est destiné à la production industrielle d’électricité et à la production de plutonium. Il est refroidi à l’eau et modéré au graphite. Il permet d’utiliser de l’uranium peu enrichi comme combustible, soit 1,8% d’235 U contre 3% environ pour l’uranium utilisé dans les réacteurs classiques. Sa technologie nécessite un grand volume, 20 fois celui d’un REP. Pas de cuve sous pression, ni enceinte de confinement, mais un grand nombre de tubes contenant le combustible, placés verticalement dans l’empilement des briques de graphite, et appelés « tubes de force ».

    Le réacteur de Tchernobyl comportait 190 tonnes d’oxyde d’uranium faiblement enrichi, réparti dans 1.681 tubes de force. L’eau circulant autour de ces tubes joue le rôle de réfrigérant et fournit directement la vapeur nécessaire à actionner les turbines. Le chargement et le déchargement du combustible se font en continu sans devoir arrêter le réacteur.

    L’ensemble de ces diverses caractéristiques (eau bouillante, graphite, combustible peu enrichi, absorbants, etc.) confère à ce type de réacteur une instabilité à certains régimes de fonctionnement qu’il faut éviter à tout prix, notamment aux faibles puissances.

    Les points faibles de ce type de filière sont de différents ordres :
    – inflammabilité du graphite à haute température ;
    – formation possible de bulles dans le fluide caloporteur dans certaines conditions de fonctionnement, entraînant un emballement de la réaction en chaîne ;
    – omniprésence de l’eau, en tant que fluide caloporteur et absorbeur de neutrons ; sa vaporisation peut s’avérer dangereuse ;
    – instabilité du cœur à basse puissance ;
    – pas d’enceinte ni de dôme de confinement ;
    – barres de contrôle d’une maniabilité insuffisante.

réacteur RBMK
Fig. 2 – Réacteur RBMK de Tchernobyl

  • Fukushima Daiichi

    La plupart des centrales japonaises utilisent la filière des réacteurs à eau bouillante (REB) (fig. 3). Dans ce cas, le combustible nucléaire est immergé dans l’eau qui peut bouillir au-dessus du cœur du réacteur à une température et une pression élevées. La vapeur produite est envoyée vers une turbine dont la rotation entraîne un générateur électrique. La vapeur à basse pression sortant de la turbine est condensée dans un échangeur de chaleur qui transfert la chaleur excédentaire vers l’extérieur. L’eau condensée est récupérée par une pompe et renvoyée dans le circuit, où elle reprend son cycle.
    Ce type de filière présente un inconvénient majeur : en cas de fuite radioactive celle-ci se propage dans la vapeur qui alimente les turbines et provoque une contamination externe.
    Les réacteurs REB (BWR en anglais pour Boiling Water Reactor) sont utilisés dans plusieurs pays dont les Etats-Unis, le Japon, l’Allemagne, la Finlande, la Russie, la Suède et la Suisse. Cette filière vient en second après les réacteurs à eau sous pression (REP) et représente environ le quart du parc mondial des réacteurs en exploitation.
    La conception de ce type de centrale à neutrons thermiques et dont le modérateur est l’eau ordinaire, est d’origine américaine et est restée longtemps du domaine du constructeur General Electric (GE). La première unité commerciale, conçue par GE, fut la centrale de Humboldt Bay, près de Eureka au nord-ouest de la Californie, et appartenant à la compagnie Pacific Gas and Electric. Elle fut exploitée de 1963 à 1976, année où elle fut arrêtée à la suite de la découverte d’une faille sismique et des risques potentiels, étant donné sa faible taille.
    La puissance actuelle de ce genre de réacteur est de l’ordre de 570 à 1.300 MWe.
    Comparé à la filière REP, il y a une barrière de moins dans les réacteurs REB entre le combustible radioactif et l’environnement. Cela nécessite un gainage du combustible particulièrement étanche et toute l’attention doit être porté sur ce point, ainsi que sur l’étanchéité des turbines. Donc dans ce type de réacteur, il y a trois barrières de confinement : la gaine du combustible, la cuve et l’enceinte de confinement.

réacteur REB
Fig. 3 – Réacteur REB de Fukushima


VII. L’ACCIDENT DE THREE MILE ISLAND

Le site, situé sur une île de la rivière Susquehanna, près de Harrisburg, dans l’Etat de Pennsylvanie, comprenait deux réacteurs à eau sous pression (REP) de 900 mégawatts (MW) : TMI-1 et TMI-2, de la firme Metropolitam Edison.
L’accident, sur le réacteur TMI-2, eut lieu le 28 mars 1979 et débuta à 4 h du matin. Ce fut le plus grave de toute l’histoire nucléaire civil des Etats-Unis.
Une succession d’événements accidentels, due à des défaillances techniques et humaines, amena la fusion d’une partie du cœur du réacteur et l’émission dans l’atmosphère de 481.1015 de becquerels4 , dont 740 GBq d’iode radioactif 131.

La série des incidents commença par une panne de deux pompes du circuit secondaire du réacteur TMI-2, entraînant une modification instantanée des conditions dans le générateur de vapeur, diminuant sa capacité à refroidir l’eau du circuit primaire baignant le coeur du réacteur. La hausse de température dans celui-ci entraîna une augmentation de la pression. La soupape de décharge du pressuriseur du circuit primaire s’ouvrit automatiquement trois secondes plus tard (t = 3 s), abaissant la pression. Ensuite, à t = 8 s, la turbine et le réacteur s’arrêtèrent à leur tour. Jusque là tout se passait conformément au scénario prévu dans ce genre d’incident. Malheureusement, le voyant de la soupape indiquait, à tort, une vanne fermée. Conséquence : la pression continuait à baisser et vapeur et eau radioactive se déversaient dans l’enceinte principale du cœur. Des phénomènes complexes de turbulence se produisirent dans le circuit primaire et dans la cuve, laissant supposer à l’opérateur que le pressuriseur était plein d’eau. Il en conclut que le circuit primaire l’était également et il arrêta manuellement le circuit d’injection de sécurité. Nous sommes à t = 4 min 38 s. A 5 min 30 s, l’eau se mit à bouillir à la sortie du cœur et le circuit primaire se vida directement dans l’enceinte de confinement qui constituait la troisième et dernière barrière de confinement de la radioactivité. Le coeur se mit à fondre et il y eu production d’hydrogène dans l’enceinte.
Durant les heures suivantes, les opérateurs tentèrent de remplir le circuit primaire en eau. Malheureusement cette opération s’avéra très difficile à cause de la présence d’une bulle d’hydrogène piégée dans les parties hautes des générateurs de vapeur. La situation finit par se stabiliser et les pompes du circuit primaire furent remises en route à t = 15 h 49’.

Quel fut le bilan de cet accident ?
Six ans après cette catastrophe, une inspection par caméra permit de découvrir que 50% du coeur avait fondu, formant un corium5 solidifié et que 20% avait coulé au fond de la cuve sans percée celle-ci. L’enceinte de confinement, troisième barrière, a joué son rôle à l’exception d’un léger rejet radioactif.
Toutefois, 200.000 personnes ont été évacuées par mesure de précaution à la suite d’une radioactivité significative près de la centrale. La contamination fut en fait très faible et aucune conséquence pathologique n’a été détectée sur la population avoisinante.

220px-Graphic_TMI-2_Core_End-State_Configuration
Fig. 4 – Cœur du réacteur après l’accident


VIII. L’ACCIDENT DE TCHERNOBYL

Le site de la centrale nucléaire Lénine se situe sur la rive de la rivière Pripiat, un affluent du Dniepr, à environ 15 Km de la ville de Tchernobyl et 110 Km de Kiev. Il comporte quatre réacteurs de type RBMK. Des défauts de conception et des violations des procédures de conduite sont à l’origine de la catastrophe qui est survenue à l’unité 4, le 26 avril 1986. C’est l’accident nucléaire civil le plus grave à ce jour. Il a fortement marqué les esprits de l’opinion mondiale et renforcer la détermination des écologistes dans leur lutte contre l’utilisation du « nucléaire ».

Une équipe d’ingénieurs en électrotechnique n’ayant aucune connaissance dans le domaine du nucléaire, venue de Moscou, veut tenter un exercice afin de démontrer la possibilité de relancer la centrale au moyen de l’énergie cinétique des alternateurs durant une coupure extérieure d’électricité. De plus, le directeur de la centrale était un ingénieur en thermodynamique et non un spécialiste du nucléaire. Deux erreurs dans le choix du personnel responsable et devant piloter ce genre de matériel !
Un test à faible puissance était prévu, régime de fonctionnement particulièrement instable dans ce type de filière.

En début d’opération, le 25 avril à 13 h 05, deux turbines et la moitié des pompes sont en fonctionnement. La puissance est réduite à 25%, ce qui provoqua un empoisonnement du réacteur dû à la production de xénon. Conséquence immédiate, la puissance tombe à 30 MW, alors qu’elle est normalement de 1.000 MW !

Malgré l’inquiétude et l’avertissement des opérateurs, Moscou ordonne la poursuite de l’essai. Pour faire remonter la puissance, les techniciens retirent les barres de contrôle, n’en laissant que 26 dans le réacteur. Deux pompes supplémentaires du circuit primaire sont enclenchées et les circuits de sécurité sont débranchés volontairement malgré les alarmes. Conséquence de cette série de manœuvres non appropriées : le point de non retour est atteint à 1 h 05, la puissance se stabilisé à 200 MW et toutes les pompes sont activées.

Il en résulte :
– un excès de débit d’eau dans le circuit primaire ;
– que le niveau d’eau liquide baisse dans les ballons ; que la pression chute dans ceux-ci ;
– que l’alarme de chute de pression se déclenche.

La radiolyse de la vapeur d’eau produit un mélange détonant d’oxygène et d’hydrogène. Cette situation provoque une première explosion thermique.
En 4 minutes la puissance est multipliée par 100, provoquant l’emballement de la réaction en chaîne. C’est la catastrophe ! Une deuxième déflagration du mélange détonant se produit, déchirant l’enveloppe du graphite et faisant éclater et projetant dans les airs la dalle de béton de plus de 1.000 tonnes avant qu’elle ne retombe sur le réacteur, le couvrant en partie et brisant les infrastructures. Le graphite mis à l’air prend feu et les températures élevées (3.600 à 3.800 °C) provoquent la fusion d’une partie du combustible ainsi que son évaporation avant d’être propulsé dans l’atmosphère par l’explosion puis dispersé par les vents en direction du nord-est, au-delà des frontières de l’Union soviétique.
Du cœur du réacteur à l’air libre s’échappent des rayonnements et des neutrons.

Dans cet accident majeur, on peut discerner trois causes :
1. des erreurs de conception : instabilité à faible régime, barres de contrôle, absence d’enceinte de confinement ;
2. des causes politiques : le cloisonnement de l’information, l’incompétence des responsables ;
3. des erreurs et fautes des exécutants : violation des consignes permanentes, non respect de la procédure d’essai, quatre mises hors circuit volontaires de dispositifs de sécurité.


Conséquences de la catastrophe de Tchernobyl

Des 150 tonnes de combustible de dioxyde d’uranium et de produits de fission que contenait l’unité 4, 13 à 30% se sont échappés dans le milieu environnant. La radioactivité libérée correspond à 12.1018 Bq, dont 6.1018 Bq dues au xénon 133, d’une durée de vie de 5 jours. Seulement 3 à 5% du combustible solide a été éjecté. Par contre 100% des gaz nobles et 20 à 60% des radioéléments volatils se sont retrouvés dans l’atmosphère. Le nuage radioactif contenait environ 1,7.1018 Bq d’iode 131, soit 6 fois plus que les bombes d’Hiroshima et de Nagasaki, et 8,5.1016 Bq de césium 137, soit 560 fois supérieure aux deux bombes. La pluie a déposé une grande partie des éléments dans l’environnement proche du site. L’iode a eu un effet initial plus prononcé sur la santé car il se fixe sur la thyroïde. Cependant sa durée de vie n’est que de 8 jours, tandis que celle du 137Ce est de 30 ans causant de dégâts à plus long terme.
La contamination fonction des conditions climatiques se répartit principalement sur la Biélorussie (70% des retombées), sur l’Ukraine, la Russie et le reste de l’hémisphère Nord. La distribution de celle-ci est très inhomogène à cause de la localisation des pluies. Près de 5 millions de personnes en Ukraine et en Biélorussie ont été exposées à des doses notables de radiations. Des doses plus faibles ont été dispersées sur de vastes régions où vivent des centaines de millions de personnes dans l’hémisphère Nord.
Ceux qui ont payés le plus lourd tribut furent les liquidateurs et les pompiers, ainsi que les nettoyeurs de la zone contaminée à moins de 30 Km de la centrale, soit près de 800.000 individus. Les estimations du nombre de victimes s’étalent d’une cinquantaine de morts jusqu’à plus de 100.000. Les plus fortes doses ont été reçues par le millier de personnes qui est intervenu dans les premiers jours pour arrêter les incendies et essayer de recouvrir le réacteur.


IX. L’ACCIDENT DE FUKUSHIMA

Le complexe nucléaire de Fukushima-Daiichi ou Fukushima I est l’un des 25 plus grands au monde. Il comporte six unités du type REB. Il se situe sur la côte orientale de l’île de Honshu, face à l’océan Pacifique, à environ 225 Km de Tokyo. Un deuxième complexe, Fukushima II ou Daini se trouve à 12 Km au sud du premier.


Fukushima-site

Fig. 5 – Centrale de Fukushima-Daiichi

 

Les causes de l’accident de Fukushima sont dues à un séisme de magnitude 9, qui débuta le 11 mars 2011 à 14 h 46 heure locale, suivi d’un tsunami dont les vagues atteignirent plus de 20 mètres d’amplitude face à certains endroits encaissés de la côte. 11 réacteurs sur les 56 que compte le Japon furent affectés à la suite du tremblement de terre. A Fukushima, le mur de protection contre les tsunami était conçu pour résister à des vagues hautes de 5,5 mètres, alors qu’elles atteignirent à cet endroit plus de 14 mètres du fait de leur énergie cinétique. Pourtant, en 2009, des géologues japonais avaient mis en garde les responsables du site contre le risque d’un tsunami majeur. Ils rappelaient qu’en 1896 et 1933, des vagues de 38 m et de 29 m s’étaient abattues sur la côte orientale du Japon. Il n’avait été tenu aucun compte de cet avertissement, les concepteurs préférant se baser sur un tsunami survenu au Chili en 1956.

Ce type de réacteur est conçu pour s’arrêter automatiquement en cas de forte secousse sismique et devrait résister à un tremblement de terre de magnitude 7 ,9 . Dans un article paru le 11 août 2007 dans le quotidien International Herald Tribune/Asahi Shimbun, le sismologue Ishibashi KATSUHIKO lance l’avertissement suivant : « A moins que des mesures radicales ne soient prises pour réduire la vulnérabilité des centrales aux tremblements de terre, le Japon pourrait vivre une vraie catastrophe nucléaire dans un futur proche. »
Cet éminent professeur à l’Université de Kobe faisait partie du comité d’experts chargé d’établir les normes sismiques des centrales nucléaires japonaises. Il avait donné sa démission en protestation contre la position de ce comité dont il trouvait les recommandations trop laxistes. Dès 2006, année où les normes de sécurité anti-sismiques japonaises ont été renforcées, il avait prévenu les autorités que les centrales japonaises souffraient d’une « vulnérabilité fondamentale » aux séismes. Aussi bien le gouvernement japonais que l’exploitant Tepco (Tokyo Electric Power Company) ont ignoré ses avertissements. Les faits lui ont donné raison. Le 16 juillet 2007, un séisme de magnitude 6,8 a provoqué de sérieux incidents à la centrale de Kashiwazaki-Kariwa, la plus importante unité de production d’électricité nucléaire au monde. Cette centrale se trouve sur l’île de Honshu, la principale île du Japon, comme presque toutes les centrales nucléaires japonaises. Déjà en août 2005, la centrale d’Onagawa, au nord de Fukushima avait été affectée par un tremblement de terre, et en mars 2007 c’était le site de Shika qui avait subi un séisme dont l’épicentre se trouvait à 16 Km de la centrale. L’année suivante une secousse de 6,8 de magnitude se produisait à l’est de Honshu, près d’Onagawa et de Fukushima. Malgré des dégâts peu importants, Tepco signala trois fuites de liquide radioactif à Fukushima-Daiini.
L’exploitant a avancé des chiffres sur les secousses subies par la centrale de Fukushima au moment du séisme de mars 2011 : l’accélération dépasse les capacités de résistances calculées lors de la construction. L’unité 2 a encaissé une accélération horizontale de 550 Gals6 , supérieure de 26% à la norme pour ce genre de réacteur. L’accélération relevée pour l’unité 5 est de 548 Gals (21% au-dessus de la norme) et pour l’unité 3, elle est de 507 Gals (15% au-dessus de la limite acceptable).

Donc, l’accident de Fukushima n’est pas une surprise, même s’il a pris de court les opérateurs de la centrale et les autorités gouvernementales. Il est la conséquence de l’incurie des responsables qui ont préféré négliger les recommandations de certains experts.

Dans le cas d’un arrêt d’une unité, la réaction en chaîne n’est plus alimentée et elle s’éteint d’elle-même. Toutefois, à cause de l’énergie thermique résiduelle, il est impératif de continuer à refroidir le cœur du réacteur. Immédiatement après l’arrêt, celui-ci dégage encore près de 7% de sa puissance thermique nominale, pour tomber à environ 2% après une ½ heure et 1%, huit heures après l’arrêt. La chaleur résiduelle est éliminée par l’eau de refroidissement des circuits auxiliaires, dont les pompes et les systèmes de contrôle doivent être alimentés en électricité.

Fukushima-accident1

A la centrale de Fukushima-Daiichi les conséquences devinrent vite catastrophiques, après le passage du tsunami, 1 heure après le séisme. Les unités 1, 2 et 3 se sont arrêtées automatiquement lors du séisme, mais le tsunami provoqua une panne générale d’électricité, en submergeant la partie basse de la centrale, ce qui entraîna l’arrêt des circuits de refroidissement et des systèmes de secours censés prendre le relais (groupes électro-gènes). Les réacteurs n’étant plus refroidis, le volume d’eau diminue par évaporation, pouvant entraîné la fusion du coeur. Le point de fusion du combustible est d’environ 2.800°C. La gaine en zirconium se détériore à partir de 830°C. Par une réaction oxydante avec l’eau cette dernière se rompt vers 1.200°C, et produit de l’hydrogène. Elle fond à environ 1.600°C.

Fig. 6 – Scénarios de rejets

Dans l’enceinte de confinement, la vapeur d’eau produite provoque une augmentation de la pression. Afin de rabaisser celle-ci les opérateurs sont amenés à effectuer des décompressions volontaires, avec rejet d’éléments radioactifs, entraînant une contamination partielle de l’environnement immédiat. L’hydrogène au contact de l’oxygène de l’air peut exploser

Trois des six unités connurent ce sort : réacteurs n° 1, n° 2 et n° 3. Les trois autres étaient à l’arrêt pour maintenance. Le samedi 12 mars, une première explosion eut lieu dans l’unité 1 qui détruisit le toit et la structure supérieure du bâtiment, blessant au moins quatre personnes. La structure du réacteur 3 est détériorée de la même manière le 14 mars, tandis que celle du réacteur 2 explose le 15 mars. Des produits de fission comme l’iode 131 et le césium 137, ont été relâchés dans l’atmosphère.

Les piscines de désactivation de ces différentes unités, contenant le combustible usagé mais chaud, constituaient un autre sujet d’inquiétude. Elles doivent être également continuellement refroidies car les crayons de matière dégagent toujours de la chaleur. Malheureusement à Fukushima, ces piscines sont situées en dehors de la zone de confinement des réacteurs et sont de ce fait plus facilement exposées à l’atmosphère. Si l’approvisionnement en eau de refroidissement se tarit, le contenu de la piscine s’évapore et les crayons se retrouvent hors eau. Dans ce cas, elles se mettraient à brûler spontanément pour atteindre une température de 2.200°C et provoquer leur éclatement avec éjection de produits hautement radioactifs dans l’atmosphère.

Différents moyens furent mis en œuvre afin de refroidir les réacteurs et de remplir les piscines : injection d’eau de mer, enrichie au bore, largage depuis des hélicoptère et camions équipés de canons à eau. Dans un premier temps ces manœuvres s’avérèrent inopérantes étant donné le taux élevé de radiations qui empêchait une approche suffisante des sites contaminés. Par la suite, l’alimentation électrique pu être rétablis et les pompes d’alimentation remises en circulation. L’eau de mer, dont le sel se cristallisait autour des barres de combustible, fut remplacé par de l’eau douce plus efficace pour le refroidissement. L’eau issue du refroidissement des différentes unités est fortement radioactive et en un mois, environ 60.000 m³ ont été récupérées. La place manque pour les stocker avant de les retraiter ce qui pose un nouveau problème de contamination si cette eau est stockée à l’air libre.


En résumé

Les systèmes de refroidissement des unités 1, 2 et 3 sont tombés en panne. Les bâtiments qui les abritent ont subi des explosions d’hydrogène. Les trois réacteurs sont actuellement en fusion partielle et leurs cuves fortement endommagées.

Dans l’unité 1, à la suite du remplissage de la piscine de stockage, de l’eau stagnante radioactive couvrait le sol de la salle des turbines. Les doses relevées étaient de 2,1×105 Bq/cm³ d’iode 131 et 1,8×106 Bq/cm³ de césium 137. Au 1er juin, après le passage d’un typhon, les sous-sols étaient recouverts de plus de 5 mètres d’eau, à moins de 40 cm du niveau du sol.

Dans l’unité 2, l’eau stagnante dans le bâtiment est également fortement radioactive et s’écoule vers la mer par une fissure d’environ 20 cm dans le béton de confinement ou le puits de la fosse contenant les câbles d’alimentation.

Le réacteur 3 avait été adapté afin de pouvoir brûler du combustible MOX qui se compose de dioxyde d’uranium (UO2) et de dioxyde de plutonium (PuO2), composé très toxique. Les taux de plutonium relevé aux alentours de cette unité montre que la cuve de confinement du réacteur est rompue. Un écoulement radioactif vers la mer a également été détecté.

Le réacteur 4, en raison de travaux sur la cuve, était à l’arrêt et ne comportait pas de combustible. Par contre sa piscine comportait du combustible usagé et du combustible frais. Faute d’alimentation, la température de cette dernière s’est accrue considérablement (84°C). Le 15 mars, le hall d’opération de l’unité 4 est victime de deux grosses explosions qui causent deux brèches d’environ huit mètres de large sur l’enceinte extérieure. Elles seraient dues à deux incendies qui se sont déclenchées au niveau de la piscine.

Les réacteurs 5 et 6 étaient hors service pour entretien. Aucune fuite n’étant à déplorer dans les circuits de refroidissement, il ne fut pas nécessaire de procéder à une dépressurisation.

Dès le 12 mars, les autorités étendent la zone d’évacuation de 10 à 20 Km autour de la centrale, et le 16 mars elle passe à 30 Km. Ce même jour, les responsables ordonnent l’évacuation temporaire du personnel de la centrale (une équipe de 70 personnes) en raison de la hausse dangereuse du niveau de radioactivité sur le site, mesurée à 400 mSv par heure aux abords de la centrale.


Contamination :

Selon les estimations de l’Agence Japonaise de Sûreté Nucléaire, la catastrophe de Fukushima aurait dispersé dans l’atmosphère l’équivalent de 10% de celle de Tchernobyl, soit entre 1,3 et 1,5.1017 Bq d’135I, et entre 6,1 et 12.1015 Bq de 137Ce
Des prélèvements de sols ont été réalisés, à 40 Km à l’ouest de la centrale de Fukushima Daiichi, près des routes à 5 cm de profondeur. Les niveaux de radioactivités sont de 43.000 Bq/Kg pour l’131I et de 4.700 Bq/kg pour le 137Ce. Soit 400 fois plus que les niveaux d’émission habituels pour l’iode.
Des substances radioactives ont également été détectées dans l’eau de mer dans les environs de la centrale, ainsi que dans l’estuaire de la rivière Tomioka à 8 Km au sud. Les taux relevés pour l’131I représentent 80 fois la norme autorisée au Japon.
Des mesures du ministère japonais de la santé, effectuées dans cinq villes de la préfecture de Fukushima, ont montré que l’eau du robinet contient des niveaux d’131I de 120 à 220 Bq/Kg. D’après les limites fixées par le Codex alimentaire de l’OMS, le niveau d’131I ne doit pas dépasser 100 Bq/Kg dans la nourriture destinées aux enfants.
Des analyses d’échantillons de sols prélevés en cinq points les 21 et 22 mars sur le site de la centrale ont révélé la présence de plutonium 238, 239 et 240. Les concentrations sont comparables à celles que les essais nucléaires atmosphériques de l’après-guerre ont laissées par déposition dans les sols. La composition isotopique d’au moins deux des échantillons suggère que le plutonium provient des combustibles utilisés dans la centrale.


Conclusions :

L’exploitant TEPCO et le gouvernement japonais n’ont pas tenu compte des mises en garde des différents experts et ont sous-estimé les risques sismiques et de tsunami.
Durant les années précédentes la catastrophe, pour des raisons vraisemblablement de coût, TEPCO avoue avoir falsifié des rapports d’inspection constatant des fissures et de traces de corrosion sur les cuves de certains réacteurs
Une série d’erreurs humaines ont vraisemblablement aggravé la catastrophe.
Sur le réacteur n°1, la décompression n’a été effectuée qu’1 h 30 avant l’explosion, alors que la limite maximale de pression (853 kilopascals) était presque atteinte 13 heures avant cette dernière : si les procédures de secours avaient été correctement appliquées, l’explosion aurait pu être moins forte.
La gravité de cette suite d’incidents majeurs ne pourra être établie qu’à long terme comme pour la catastrophe de Tchernobyl. Elle a déjà été réévaluée plusieurs fois, notamment par la commission d’experts de l’AIEA (Agence International pour l’Energie Atomique).


X. BIBLIOGRAPHIE

BASDEVANT J.-L. (2011) – Maîtriser le nucléaire – Que sait-on et que peut-on faire après Fukushima ?, Eyrolles
CHARPAK G., GARWIN R.L., JOURNE V. (2005) – De Tchernobyl en Tchernobyls, Odile Jacobs.
MOLITOR M. (2011) – Tchernobyl – Déni passé, menace future ?, Racine RETBF
TCHERTKOFF W. (2006) – Le crime de Tchernobyl – Le goulag nucléaire, Actes Sud
• « Que s’est-il passé à Three Mile Island et à Tchernobyl ? », article paru dans le journal Le Monde du mardi 18 mars 2011.
• « La catastrophe au Japon – Le nucléaire en questions », in Sciences et Avenir – n° 770, avril 2011.
http://fr.wikipedia.org/wiki/Centrale_nucl%C3%A9aire
http://fr.wikipedia.org/wiki/Liste_des_accidents_nucl%C3%A9aires
http://www.laradioactivite.com/fr/site/pages/reacteursrbmk.htm
http://www.laradioactivite.com/fr/site/pages/Reacteurs_REB.htm
http://fr.wikipedia.org/wiki/Accident_nucl%C3%A9aire_de_Fukushima
http://www.sciencesetavenir.fr/actualite/crise-nucleaire-au-japon/20110312.OBS9531/crise-nucleaire-au-japon-le-fil-des-evenements.html

Notes

2 – Le terme technique « watt électrique » (symbole : We) correspond à la production de puissance électrique. Ses multiples sont le mégawatt électrique (MWe) et le gigawatt électrique (GWe), par opposition au terme technique « watt thermique » (symbole : Wt ou Wth) qui lui correspond à la production de puissance thermique. Ses multiples sont le mégawatt thermique (MWt ou MWth) et le gigawatt thermique (GWt ou GWth).
Cette précision est utilisée couramment pour distinguer la production électrique de la dissipation thermique d’une centrale. La puissance d’une centrale est généralement exprimée sous forme de puissance électrique (correspondant au terme technique « MWe »). La puissance thermique d’une centrale nucléaire est typiquement trois fois sa puissance électrique. La différence correspondant au rendement thermodynamique (directement lié à la température de fonctionnement) et aux pertes de conversion, étant donné que la transformation d’énergie thermique en énergie électrique ne peut se faire qu’avec des pertes (rendement de l’ordre de 30 à 40 %). Elle explique le besoin de refroidissement important des centrales thermiques. Par exemple, la centrale nucléaire d’Embalse en Argentine génère 2.109 MW de chaleur (2.109 MWth) pour seulement 648 MW d’électricité (648 MWe).

 

3 – Dans le cas des installations nucléaires, il s’agit d’un ensemble de dispositions (automatismes, systèmes ou procédures) redondantes et diversifiées permettant de limiter l’effet d’incidents ou d’accidents.

 

4 – Le becquerel (symbole : Bq) est l’unité dérivée du Système International (SI) pour l’activité d’un radionucléide et correspond à une désintégration par seconde. L’activité d’une substance est définie comme le nombre de désintégrations radioactives par seconde au sein d’une certaine quantité de matière.

 

5Corium : amas de combustible et d’élément de structure du cœur d’un réacteur nucléaire fondus et mélangés à la suite d’un accident grave.

 

6Gal : unité de mesure employé en géodésie et en géophysique pour exprimé l’accélération de la pesanteur et valant 10-2m/s².

Catégories : Nucléaire | Poster un commentaire

Propulsé par WordPress.com.