SYSTEMES AUTO-ORGANISES APPLIQUES A LA SELECTION NATERELLE

Cet article est paru dans le Bulletin du G.E.S.T., N° 154, mars 2009

I.      INTRODUCTION

En cette année « Darwin », il est normal que nous nous penchions sur certains des aspects de la théorie de ce génie et des questions qu’elle pose. Jamais, une œuvre comme « L’origine des espèces » qu’il publia en 1859 n’a fait couler autant d’encre. Le nombre d’ouvrages relatifs à la sélection naturelle et à l’évolution selon Darwin est impressionnant, et il en sort encore actuellement un ou deux par trimestre. Aussi, j’aimerais revenir sur trois articles qui sont paru dans la revue « Pour la Science » dans les années ’90, qui ouvre des perspectives intéressantes.

Russelle Ruthen, Complexité et organisation, in Pour la Science, mars 1993, N° 185, pp. 32-38 [1].

John Holland, Les algorithmes génétiques, in Pour la Science, septembre 1992, N° 179, pp. 44-51 [2].

Per Bak, Kan Chen, Les systèmes critiques auto-organisés, in Pour la Science, mars 1991, N° 161, pp. 52-60 [3].

Stuart Kauffman, Antichaos et adaptation, in Pour la Science, octobre 1991, N° 168, pp. 66-72 [4].

II.   LE MOTEUR DE LA SELECTION NATURELLE

La sélection naturelle est-elle la seule cause de l’évolution des organismes vivants ? Cette question, je me la suis déjà posée souvent. Existe-t-il une force qui pousse à l’organisation de plus en plus complexe de la matière vivante ?

Les différentes hypothèses ou théories ne répondent pas explicitement à la question. Déjà Darwin avoue son incapacité à expliquer le moteur de l’évolution. Une série d’articles lus dans la revue « Pour la Science » semble proposer un commencement de réponse. Actuellement des découvertes mathématiques et des simulations informatiques donnent naissance à un courant théorique qui permet aux biologistes de réviser leurs conceptions sur les origines de l’ordre dans l’Evolution.

La présentation de l’article de R. Ruthen, résume très succinctement son contenu :

« Les plantes, les animaux, les écosystèmes ou les organisations humaines internationales se sont lentement élaborés à partir des molécules organiques primitives. Quelles forces poussent le monde vers une complexité croissante ? » ([1] page 32)

Quelques équipes de chercheurs tentent d’élaborer une théorie unifiée qui expliquerait la dynamique des systèmes vivants, comme les physiciens cherchent à unifier les quatre forces qui régissent le monde de la physique. Ces différents systèmes composés de nombreux agents qui interagissent et s’adaptent aux changements sont-ils régis par des principes de fonctionnement analogues ? Là est la grande question ! Les chercheurs de différentes disciplines constatent que les systèmes vivants semblent évoluer vers une frontière située entre l’ordre et le désordre. Le mécanisme au centre des interrogations est l’évolution au sens général du terme.

« Quelles sont les caractéristiques communes aux systèmes qui s’organisent spontanément, qui apprennent, se souviennent, évoluent, s’adaptent et finissent par disparaître ? Des principes fondamentaux déterminent-ils leur remarquable comportement ? » ([1] page 33).

Déjà au siècle passé, Sadi Carnot et d’autres se penchent sur ce problème. S’il est impossible de décrire chaque interaction, étant donné le grand nombre de constituants des systèmes, il est toutefois possible de prévoir leur comportement statistique : ce seront les lois de la thermodynamique.

Henri Poincaré comprit que des systèmes à plus de deux éléments en interaction, ont parfois des comportements imprévisibles. Ce sera le début de la théorie du chaos. Cependant, elle ne peut décrire la grande variété dynamique des systèmes complexes, il faudra attendre le développement de l’informatique  et l’apparition de nouveaux concepts mathématiques.

III. THEORIE DE LA COMPLEXITE

Des chercheurs tels que Herbert Simon, Ilya Prigogine et Herman Haaken « recherchaient une théorie de la complexité, c’est-à-dire des principes généraux des systèmes dont les interactions de constituants engendrent un comportement collectif complexe ».

La théorie de la complexité peut-elle être appliquée à des systèmes adaptatifs (cellules, organismes, économies) ? En effet ces systèmes adaptatifs sont constitués de nombreuses parties qui interagissent. Les systèmes complexes peuvent apprendre et s’adapter à leur environnement. Leur comportement dépend du degré de complexité des stratégies et des mécanismes d’évolution. Afin d’analyser de tels systèmes, des chercheurs ont entrepris des simulations informatiques.

Ainsi, en 1989, J. Holland lance une simulation d’un écosystème où des « organismes numériques » essaient de survivre et de se reproduire. Dans son article « Les algorithmes génétiques » il dit ceci :

« Des programmes d’ordinateurs qui « évoluent » comme des organismes vivants conçoivent des turbines, optimisent des réseaux de communication ou commandent l’acheminement de gaz naturel dans les pipelines » ([2] page 44).

En étudiant l’ Evolution, J. Holland, chercheur pragmatique, tente de la reproduire informatiquement, « après avoir compris que la sélection naturelle élimine l’un des obstacles majeurs à la conception des programmes : la spécification préalable de toutes les caractéristiques d’un problème et des tâches précises qu’un programme doit effectuer pour résoudre ce problème ». Il crée ainsi la notion d’ « algorithmes génétiques ». Ces algorithmes génétiques servent essentiellement à résoudre des problèmes d’optimisation. Ils explorent en parallèle un ensemble de solutions possibles aux problèmes posés. La pratique montre qu’ils s’approchent rapidement assez près de la solution optimale.

« Les algorithmes génétiques explorent des espaces de solutions beaucoup plus vastes que les programmes classiques. En outre, l’étude des effets de la sélection naturelle sur les programmes, dans des conditions contrôlées et bien comprises, pourrait montrer comment la vie et l’intelligence ont évolué sur la Terre.

La plupart des organismes évoluent par deux mécanismes principaux : la sélection naturelle et la reproduction sexuée. La sélection naturelle détermine quels membres d’une population survivent et se reproduisent : le reproduction sexuée assure le brassage et la recombinaison des gènes parentaux aux potentialités nouvelles » ([2] page 44).

Cette reproduction sexuée, par la fusion d’un spermatozoïde et d’un ovule, permet une évolution beaucoup plus rapide qu’une parthénogenèse.

« La sélection est simple : un organisme meurt s’il n’est pas adapté, c’est-à-dire s’il n’échappe pas à ses prédateurs ou s’il ne trouve pas de proies » ([2] page 44).

Nous sommes en plein darwinisme !

A partir de ces notions, J. Holland, dès 1960, trouve « une technique de programmation, l’algorithmique génétique, qui permet l’évolution des programmes par reproduction et par mutation». Il développe cette technique en créant « un code génétique qui pourrait représenter la structure de tout programme informatique ».

« Ce « système de classeurs » est un ensemble de règles (nommées classeurs) qui réalisent certaines actions chaque fois que leurs conditions sont vérifiées » ([2] page 44).

« L’évolution biologique n’aboutit cependant pas à un super-individu unique, mais plutôt à des espèces qui interagissent et s’adaptent les unes aux autres. De même, des algorithmes génétiques peuvent être utilisés – avec quelques modifications – pour faire évoluer des « organismes » à base de systèmes de classeurs composés de nombreuses règles; au lieu de sélectionner isolément les règles les mieux adaptées, les pressions de sélection font alors évoluer des systèmes complexes dont les capacités sont codées dans les chaînes qui les composent » ([2] page 48).

Dans un problème du type du « dilemme du prisonnier » dans lequel deux prisonniers peuvent être libérés ou maintenus en prison selon la stratégie adoptée, il s’avère que l’une des meilleures stratégies est celle du donnant-donnant. J. Holland y introduisit trois modifications majeures : chaque organisme peut choisir de combattre pour les ressources ou d’échanger celles-ci. De plus, chaque organisme est muni d’une marque qui montre son appartenance à un groupe. Chaque organisme peut appliquer des règles qui tiennent compte de ces marques.

« Ces trois modifications ont un effet immédiat : la répartition des marques et des stratégies, initialement aléatoires, devient progressivement très organisée. Finalement les organismes apprennent même à appliquer des stratégies particulières selon les marques; on observe une spécialisation et une coopération actives, ainsi que du mimétisme et de la tromperie » ([1] page 35).

La correspondance entre le monde de J. Holland et les écosystèmes réels intéresse certains économistes qui pensent que l’économie est un système adaptatif complexe.

Le calcul de la complexité pose problème. Toutefois, « en théorie, on peut comparer la complexité de deux systèmes en écrivant deux programmes d’ordinateurs aussi courts que possible, qui reproduisent les données originales ».

« La complexité algorithmique des données serait alors reliée au nombre d’instructions que contiennent les deux programmes : le programme ayant le moins d’instructions décrirait le système le moins complexe » ([1] page 36).

La complexité algorithmique est habituellement impossible à calculer, c’est un outil peu commode pour l’étude des systèmes complexes car elle est plus sensible au désordre qu’à l’ordre. Aussi dans les années 1980, de nouvelles méthodes de quantification de la complexité sont-elles proposées, notamment par James Crutchfield de Berkeley qui s’inspire des idées du linguiste Noam Chomsky sur la classification des différentes sortes d’ordinateurs.

« Pour mesurer la complexité à l’aide de cette hiérarchie, on choisit une classe particulière et l’on cherche, dans cette classe, le programme le plus court, qui reproduise les données. Les caractéristiques de la classe obligent à décrire approximativement les données, c’est-à-dire à ne conserver que certaines de leurs caractéristiques. Si le programme ne peut reproduire les données, on reprend la description avec une classe plus puissante; sinon la complexité est déterminée d’après le nombre d’instructions et le nombre de contraintes associées à la classe utilisée » ([1] page 36).

IV.  SYSTEMES CRITIQUES AUTO-ORGANISES

Toutefois, cette approche ne répond pas à la question de savoir pourquoi certains systèmes, adaptatifs ou non, semblent évoluer à mi-chemin de l’ordre complet et du désordre absolu. Certains chercheurs comme Per Bak (Laboratoire de Brookhaven) et Anne et Didier Sornette (Nice) « pensent que l’auto-organisation critique est un des phénomènes qui pourrait être à la base de cette évolution ». A la fin des années 1980, P. Bak trouve une classe de systèmes qui semble devenir spontanément complexe. Pour lui et ses collègues :

« Les grands systèmes interactifs évoluent continuellement vers un état critique où un petit événement déclenche une réaction en chaîne pouvant conduire à la catastrophe » ([3] page 52).

La théorie de l’état critique auto-organisé qu’ils élaborèrent « explique pourquoi de tels systèmes évoluent naturellement vers un état critique tel qu’une petite perturbation déclenche une réaction en chaîne qui touche de nombreux éléments du système ».

« En général, l’état critique résiste à toute modification mineure des règles gouvernant le système. [Il] possède donc deux caractéristiques qui semblent incompatibles : le système est instable en de nombreux endroits, mais l’état critique est, lui, absolument stable […] » ([3] page 54).

« L’état critique est une propriété globale du système » ([3] page 54).

Si l’on traduit les instabilités locales en graphe en fonction du temps, l’on obtient une courbe irrégulière dont les variations sont de toutes les durées, connue sous le nom de bruit de scintillation.

« La théorie de l’état critique auto-organisé propose une explication de ce mystère : les bruits de scintillation, formés par la superposition de signaux de toutes intensités et durées, correspondraient aux réactions en chaîne d’intensités et de durées variables issues de systèmes dynamiques à l’état critique » ([3] page 54).

Parmi les modèles numériques présentant les caractéristiques des systèmes critiques auto-organisés, la modélisation des séismes géologiques est sans doute la plus avancée. Dès 1956, les géologues Beno Gutenberg et Charles Richter (celui de l’échelle) établissent une loi de puissance qui stipule : « le nombre annuel des séismes qui libèrent une quantité d’énergie E » est inversement proportionnel à E à la puissance b(Eb) ; l’exposant b, environ égal à 1,5 est universel. Cette loi relie le nombre de séismes importants à celui des séismes de petite ampleur. On peut en déduire que toutes les secousses résultent du même processus mécanique. Les auteurs [3] ont émis l’hypothèse « qu’une loi de puissance résulte de l’existence de systèmes critiques auto-organisés; inversement la loi de Gutenberg-Richter semble indiquer que la croûte terrestre a évolué vers un état critique. »

Ce modèle de loi de puissance se retrouve dans bon nombre de disciplines scientifiques où intervient une constante égale à la dimension du système considéré. Si celle-ci est fractionnaire, nous avons affaire à une distribution « fractale ».

« Les structures fractales et le bruit de scintillation sont respectivement les signatures spatiales et temporelles des états critiques auto-organisés » ([3] pages 56-57).

« La précision avec laquelle on prévoit l’évolution d’un système dynamique dépend de la précision avec laquelle on connaît ses conditions initiales et les lois de sa dynamique » ([3] page 57).

Nous pouvons rencontrer des systèmes chaotiques et des systèmes non chaotiques.

« Le chaos faible diffère notablement du chaos total : les systèmes totalement chaotiques se caractérisent par une échelle de temps au-delà de laquelle il est impossible de faire des prévisions; en revanche, pour des systèmes faiblement chaotiques, des prévisions à long terme sont possibles, mais leur précision décroît avec le temps » ([3] page 57).

Les systèmes critiques auto-organisés s’avérant faiblement chaotiques, il est aisé d’en déduire que le chaos faible est prédominant dans la nature.

« Ces études font penser que la théorie des états critiques auto-organisés pourrait s’appliquer à la biologie » ([3] page 58).

Dans un processus de coévolution, le système passe d’un état aléatoire initial à un état hautement organisé, aux configurations statiques et dynamiques complexes.

« La complexité de la dynamique globale du système est intimement liée à l’état critique de cette dynamique. En fait, la théorie de la complexité et la théorie critique sont peut-être une même chose » ([3] page 58).

V.    APPLICATION A L’EVOLUTION

Stuart Kauffmann (Université de Pennsylvanie), sur la base d’un modèle de l’évolution pense « que la complexité de la vie est intimement liée à l’existence d’un état critique ». En effet, les simulations montrent « qu’un processus dynamique tel que l’évolution peut mener automatiquement un système simple aux interactions plus ou moins aléatoires, vers un état critique auto-organisé. […] l’évolution opérerait à la limite du chaos, et l’extinction des dinosaures, par exemple, pourrait n’être qu’une « avalanche » catastrophique dans la dynamique de l’évolution; elle aurait pu se produire sans qu’un volcan ou qu’une météorite perturbe l’environnement du Globe » ([3] page 58).

« Tout les êtres vivants sont des systèmes très ordonnés : leurs structures complexes sont conservées et dupliquées par des activités chimiques et comportementales précisément orchestrées, qui, depuis Darwin, semblaient n’avoir été façonnées que par le sélection naturelle. Toutefois Darwin ne soupçonnait peut-être pas l’existence de l’auto-organisation, cette propriété innée, découverte récemment, de certains systèmes complexes. L’ordre biologique ne résulte-t-il pas, aussi, d’un ordre spontané que la sélection naturelle aurait amplifié ? […]

La capacité d’évoluer et de s’adapter pourrait être  elle-même un résultat de l’Evolution. […]

L’Evolution résulte peut-être autant de l’auto-organisation que de la sélection naturelle » ([4] page 66).

Si l’on veut comprendre l’intervention de l’auto-organisation dans l’Evolution, il est nécessaire d’analyser les caractéristiques des systèmes complexes. De l’étude de ceux-ci, les nombreux chercheurs (en physique, chimie, mathématiques, biologie et sciences sociales) ont constaté que ce qui semble a priori aléatoire est parfois une manifestation du « chaos déterministe ». Un des exemples les plus couramment cité est l’ « effet papillon » en météorologie : le battement d’ailes d’un papillon, à Rio de Janeiro peut modifier, un peu plus tard, le temps qu’il fait à Paris.

« La chaos n’est qu’un des comportements possibles des systèmes complexes. Un autre comportement, […] est l’anti-chaos : certains systèmes très désordonnés « cristallisent » spontanément en structures ordonnées » ([4] page 66).

« Tout système complexe est défini par ses caractéristiques locales : le type de connexions des éléments du système et le mode d’interaction de ces éléments. […] Comme de nombreux systèmes complexes différents peuvent fonctionner avec les mêmes caractéristiques locales, une étude statistique permet d’identifier les caractéristiques moyennes pour l’ensemble de ces systèmes » ([4] pages 66-67).

Pour étudier les modèles de systèmes biologiques, S. Kauffman a utilisé une classe de systèmes appelés réseaux booléens aléatoires autonomes NK, composé de N éléments dépendant de K éléments chacun. Leur caractéristique essentielle est le nombre fini de leurs états possibles ce qui les amènent à évoluer cycliquement et à se retrouver dans un état initialement rencontré. L’ensemble des états qui mènent à un cycle est le « bassin d’attraction » du cycle d’états. Laissé à lui-même, un tel état évolue vers un de ses cycles d’états qu’il conserve jusqu’à ce qu’il soit perturbé. Les perturbations possibles sont soit minimales lorsque survient le basculement d’état d’un élément, soit structurales qui sont des modifications permanentes des connexions ou des fonctions booléennes. Si les paramètres du système changent, son comportement se modifie et de chaotique il peut devenir ordonné.

 

VI.  GLOSSAIRE

Théorie de l’auto-organisation critique : théorie de la complexité permettant d’étudier les changements brutaux du comportement d’un système. Cette théorie enseigne que certains systèmes, composés d’un nombre important d’éléments en interaction dynamique, peuvent produire et maintenir une structure à l’échelle du système sans que cette structure apparaisse au niveau des composantes (J.L. Deneubourg, 2002) et sans qu’elle résulte de l’intervention d’un agent extérieur. L’amplification d’une petite fluctuation interne peut mener à un état critique et provoquer une réaction en chaîne menant à une catastrophe (au sens de changement de comportement d’un système).

Cette théorie est basée sur deux concepts clefs : l’auto-organisation et la criticalité.

a)     Auto-organisation : phénomène de mise en ordre croissant d‘une structure, allant en sens inverse du principe de l’entropie, au prix d’une dissipation d’énergie en vue de maintenir cette structure. C’est donc une tendance, tant au niveau des processus physiques, des organismes vivants, ou des systèmes sociaux, à s’organiser eux-mêmes.

b)     Criticalité : passé un seuil critique de complexité, les systèmes peuvent changer d’état, ou passer d’une phase instable à une phase stable.

L’auto organisation est un processus d’organisation émergent (R-A. Thietart, 2000). Mais elle se différencie de l’organisation en ce sens où l’organisation émergeante ne provient pas de forces extérieures (même si le système reste ouvert sur son environnement) mais de l’interaction de ses éléments. Si on applique ce concept à l’étude des sociétés, cela signifie qu’en plus du principe régulateur, il n’y a ni leader, ni centre organisateur, ni programmation au niveau individuel d’un projet global. Ces phénomènes d’auto organisation s’observent par exemple aussi bien dans les sociétés animales (organisation de fourmilière, de vols d’oiseaux) que dans les sociétés humaines (applaudissement, panique collective, intention de vote) ou les systèmes géographiques (les réseaux urbains). Dans les groupes humains par exemple, et plus particulièrement dans le cas de l’émergence de la propagation de rumeur ou de panique dans les foules (D. Provitolo, 2007), l’auto-organisation n’est pas le fruit d’une intention prédéterminée. Des agents ou des entités en interaction, sans but commun préalablement défini, vont créer, sans le savoir et par imitation, une forme particulière d’organisation. Ce qui caractérise donc les systèmes auto organisés c’est l’émergence et le maintien d’un ordre global sans qu’il y ait un chef d’orchestre. Cette auto organisation signifie que l’on ne peut observer les mêmes propriétés aux niveaux micro et macroscopiques. Quant à la criticalité, elle caractérise les systèmes qui changent de phase, par exemple le passage de l’eau à la glace, de la panique individuelle à la panique collective. En fait, le système devient critique quand tous les éléments s’influencent mutuellement. Lorsque cet état critique est atteint, le système peut bifurquer, c’est-à-dire qu’il change brutalement de comportement pour passer d’un attracteur[1] à un autre. Cet état critique est un attracteur du système dynamique atteint à partir de conditions initiales différentes. Cet état critique est dit auto organisé car l’état du système résulte des interactions dynamiques entres ses composantes et non d’une perturbation externe. L’auto organisation est donc un processus qui passe par des états critiques.

La notion de criticalité auto organisée a été proposée par Per Bak, Chao Tang et Kurt Wiesenfeld en 1987. Dans son livre intitulé How Nature Works – The science of self-organized criticality, Per Bak applique cette théorie à de nombreux phénomènes complexes, notamment à l’évolution phylogénique des espèces vivantes, aux mécanismes déclenchant des tremblements de terre, des avalanches, des embouteillages et, pour prendre un dernier exemple, aux krachs boursiers.

Pour illustrer cette théorie, P. Bak et al. utilisent un modèle simple : le tas de sable. L’expérience consiste à ajouter régulièrement des grains à un tas de sable. Petit à petit le sable forme un tas dont la pente, en augmentant lentement, amène le tas de sable vers un état critique. L’ajout d’un grain peut alors provoquer une avalanche de toute taille, ce qui signifie qu’une petite perturbation interne n’implique pas forcément de petits effets. Dans un système non linéaire, une petite cause peut en effet avoir une grande portée. Les avalanches connaissent donc différentes amplitudes qui sont toutes générées par une même perturbation initiale (un grain de sable supplémentaire). S’il n’est pas possible de prédire la taille et le moment de l’avalanche, en revanche cette théorie nous renseigne sur l’ensemble des réponses du système lorsqu’il atteint l’état critique. L’état critique auto organisé d’un système est donc un état ou le système est globalement métastable tout en étant localement instable. Cette instabilité locale (de petites avalanches dans le modèle du tas de sable) peut générer une instabilité globale (de grosses avalanches entraînant l’effondrement du tas) qui ramène ensuite le système vers un nouvel état métastable : le tas de sable connaît une nouvelle base.

  

Les tas de sable sont des systèmes critiques auto-organisés. Lorsque les grains tombent sur un petit tas, ils trouvent rapidement leur place (1). Puis le tas évolue vers un état critique où un seul grain peur provoquer une avalanche de n’importe quelle taille (2)

Ces avalanches maintiennent la pente du tas constante. Si une force extérieure est appliquée (ici la force est celle due aux parois de la boîte), le tas adopte une autre configuration (3), mais il revient à l’état critique initial quand la force extérieure est supprimée (4).

(d’après R. Ruthen)

 

Sources :

http://fr.wikipedia.org/wiki/Auto-organisation

http://www.hypergeo.eu/article.php3?id_article=426


[1] Dans l’étude des systèmes dynamiques, un attracteur (ou ensemble-limite) est un ensemble, une  courbe ou un espace vers lequel un système évolue de façon irréversible en l’absence de perturbation.

Advertisements
Catégories : Evolution | Poster un commentaire

Navigation des articles

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s

Propulsé par WordPress.com.

%d blogueurs aiment cette page :