WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Cosmologie de l'émergence et pensée du chaos : au-delà  de la science classique..

( Télécharger le fichier original )
par Bernard Coly
Université Cheikh Anta Diop de Dakar - Maà®trise 2005
  

Disponible en mode multipage

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

Dédicaces et remerciements

Je dedie ce modeste travail d'apprenant a :

Ma defunte tante Maimouma Coly. Que la terre de Kandialang lui soit legere Mon p~re Souleymane

Ma mere Noella Sagna

Mes soeurs Ines, Kinegonte, Celestine, Delphine, Lucie, Jacqueline, Seynabou, Binetou, Dienaba, Aida, Safietou, Aissatou, pour l'immense affection dont elles ont fait preuve a mon egard.

Mon oncle Bourama qui m'a ete tres utile au cours de mon bref cursus universitaire.

Ma tante Souadou Manga, pour l'inestimable soutien dont elle m'a fait part tout au long de ces annees.

Mes freres Georges Ousmane, Insa, Arouna, Karim, Souleymane Diatta, Seni Diatta, Youssouph Manga, Omar Diatta, Bassirou Coly, Khadialy, avec qui j'ai pu partager d'intenses moments de plaisir.

Je tiens a remercier mes cousines Aminata Babou, Khardiata Coly, Binetou Manga, Anna Badji, Angella Manga, Fatou Mane pour le soutien psychologique dont elles me font part.

Mes adorables compagnons de discussion Seny Sonko, Pierre Ndiana Faye, Abdourahmane Mingou, Seydou Gadjigo, dont la disponibilite pour les activites de l'esprit est appreciable.

Mon ami et frere de terroir Richard Sagna pour sa franchise et son sens de la mesure.

Que Pierre Dieme trouve ici l'expression de ma consideration.

Je renouvelle mon affection a :

Bassembo Badji, Jean Coly, Michel. A Coly, Patrick Diatta, Jean P Sagna, Joseph S Sarr, Julio Diatta, Paulin Toupane, Zikler Daffe, Benoit Tendeng, Henri Badji, Isaac Manga, Remi, Gaston Coly, Tito Senghor, Amath Ndiayes, Didier Badji, Kassen Badji, Pierre Sylva.....

Big up a mes compagnons de route Issa Dieng, Hamidou Diop, Birane Tine, Mamadou Fall, Tidiane N'diayes, Moustapha Diop, Dahlia Doki, Aby Gueye, Michael Maliman, Romeo Diatta, Sylveste Coly, Adama Ndiour Mbengue, Ibrahima Bodian, Mohamed Tamega, Ousmane Mane, sans oublier Amadou Ndaw.

Mes remerciements vont a l'endroit de :

Monsieur Abdoulaye Elimane Kane, Professeur de Philosophie, pour la bienveillance qu'il a fait preuve a l'egard de ce document.

Monsieur Bado Ndoye qui, en m'ayant propose le sujet, a eveille en moi le gout de la recherche et m'a donne de precieuses orientations en rapport avec les disciplines qui y sont impliquees.

Madame Ramatoulaye Diagne Mbengue dont la clarte et la franchise intelectuelles ne font nul doute.

Monsieur Ousseynou Kane chef de departement de philosophie qui, par sa rigueur et son sens de l'ordre, a su maintenir ce departement hors du chaos.

Plan Détaillé

Introduction ..p 2

I- La science classique : une apologie du déterminisme universel.....p 8

I-1/ L'exigence d'ordre .p 12

I-2/ Déterminisme et négation du temps p 19

II- La cosmologie moderne : la découverte du temps perdu p 29

II-1/ La conception historique de l'univers

II-2/ Le temps retrouvé

II-3/ Evolution et structures émergentes

..p 32
...p 44
p 58

III- Le chaos : un nouveau paradigme

p 89

 

III-1/ Le hasard

.p 94

III-2/ L'effet papillon

p 105

III-3/ Le flou quantique

p 113

Conclusion

.p 118

Bibliographie générale p 121

Introduction

Qu'est-ce que le temps ? Une telle question est une préoccupation de premier ordre pour la philosophie. Pour autant, une réponse certaine ne peut en être retenue, et ce, malgré celle proposée par Pucelle Jean pour qui, « Le temps, est comme les langues d'Esope, la meilleure et la pire des choses, l'agent de la création et de la destruction. Il suscite le neuf et accumule les ruines. C'est lui la matrice du monde et le grand ravageur, et c'est sous l'aspect du changement qu'il apparaît d'abord. »1

Par cette définition, on voit se dessiner une sorte d'ambiguïté liée à la problématique que soulève la pensée du temps. Frappée de bonne heure par cette réflexion, la pensée humaine depuis l'époque grecque a tenté si bien que mal de répondre à cette interrogation. En effet, depuis les mythes cosmogoniques grecs jusqu'à l'avènement des conceptions scientifiques au 17ème siècle, la réflexion sur le temps a revêtu au cours de son histoire des interprétations qui varient d'une époque à une autre.

De ce fait, nous pouvons, dans l'antiquité déjà, retenir, l'affirmation par Platon du temps réversible soutenu par le mythe de Chronos. Sans entrer dans les détails, nous pouvons retenir l'idée d'aprés laquelle ce mythe conclut une équivalence temporelle entre le passé et l'avenir. A cette conception, viendront s'ajouter deux autres pensées qui méritent une considération particulière : il s'agit de la conception du temps développée par Kant et de la théorie de la Relativité découverte par Einstein.

En effet, Kant considère l'Espace et le Temps comme étant les formes a priori de toute connaissance sensible ; ce qui leur vaut le caractère absolu qu'il leur assigne. D'ailleurs elle sera retenue jusqu'au 19ème siècle et servira de base à la physique newtonienne. Cependant dans la seconde moitié de cette même période, Einstein va découvrir une nouvelle théorie qui remettra en cause les fondements sur lesquels a reposé la science jusque là. La conclusion qu'Einstein tire de la théorie de la relativité, consiste à dire qu'il n'y a plus un temps unique et absolu comme le pensait Newton, mais il faut plutôt parler de temps locaux et relatifs, qui varient suivant la position et la vitesse de déplacement de l'observateur considéré.

1 Pucelle jean, Le temps, Paris, PUF, 1959, p 1

Toutefois, malgré les différences qui puissent les opposer, toutes ces pensées partagent un point de fusion qui réside dans leur négation commune de l'irréversibilité du temps jusque là écartée du domaine de la science. En effet la science postulait l'idée du déterminisme universel, lequel pouvait se réduire au seul principe de causalité. Selon ce principe, dans le monde physique, rien n'est fortuit, tout y est prévisible : en somme, tout phénomène est porté dans une cause qui le précède, et de ce fait, il est légitime de déduire de la connaissance de celle-ci, celle de l'effet.

La conséquence d'un tel principe conduit à affirmer l'idée selon laquelle l'univers est constitué suivant un ordre immuable dont les lois déterministes peuvent être décrites par l'esprit humain. Or, une telle conception du réel, laisse sous-entendre que rien de nouveau ne se produit dans la nature, parce que celle-ci est donnée de toute éternité. C'est ainsi donc que du point de vue de la science classique, devenir et éternité semblaient s'identifier. Dés lors nous pouvons comprendre cette idée de Platon, affirmant dans le Timée que le temps n'est qu'une ombre, c'est-à-dire « l'image mobile de l'éternité ». C'est ainsi que l'on peut saisir l'enjeu pour lequel la science classique, à l'instar de la dynamique procédait à la négation pure et simple du temps, réduisant celui-ci à la manifestation répétitive de la même réalité.

Dans son ouvrage intitulé L'évolution créatrice, Henri Bergson nous fait remarquer l'idée selon laquelle, la connaissance scientifique ne considère pas le temps comme une réalité, mais plutôt les différentes unités de temps que nous pouvons, par l'observation phénoménologique, décrire dans la durée de mouvement d'un être. Il écrit à ce propos : « C'est dire que le temps réel, envisagé comme flux ou, en d'autres termes, comme la mobilité même de l'être, échappe ici aux prises de la connaissance scientifique. »2

La conséquence qu'implique une telle remarque, nous permet de mieux comprendre l'enjeu qui se jouait avec cette négation du temps tel que la considère la science classique. En effet, l'interprétation que Prigogine et Isabelle Stengers ont fait de cette remarque de Bergson, consiste au propos d'après lequel : « La science a été féconde chaque fois qu'elle a réussi à nier le temps, à se donner des objets qui permettent d'affirmer un temps répétitif, de réduire le devenir à la production du même par le même. Mais lorsqu'elle quitte ses objets de prédilection, lorsqu'elle entreprend de ramener au même type d'intelligibilité ce qui, dans la

2 Bergson. H, L'Evolution créatrice, Paris, PUF, 1948, p 336

nature, traduit la puissance inventive du temps, elle n'est plus que la caricature d'ellemême. »3

En affirmant un temps répétitif, la science classique réfute toute conception évolutionniste de l'univers, et nie par là même, l'activité créatrice de la nature. Or une telle position scientifique, implique l'idée que la nature est un tout homogène au sein duquel nous ne pouvons faire la différence entre un état passé et un état futur. Cette conviction de la science est la conséquence d'une perspective dans laquelle le temps semble être aboli, d'où la diversité des processus temporels devait être niée, réduite à une apparence.

C'est donc sous cet ancrage philosophique que la science classique va jusqu'au 19ème concevoir la pensée du temps. Cependant, à partir de la seconde moitié du 19ème, vont se produire des découvertes inédites, qui vont irréductiblement conduire à l'effondrement du paradigme de la science classique. Pour rappel, en1865 Rudolf Clausius annonce à partir du second principe de la thermodynamique, l'idée de la croissance irréversible de l'entropie. Ce concept scientifique d'entropie, va établir un hiatus entre la manifestation du réel sensible et les principes de la dynamique classique.

Par ailleurs, c'est avec la découverte du second principe de la thermodynamique, que la physique va pour la première fois intégrer l'irréversibilité dans le champs de pertinence de la science. Toutefois, cette reconnaissance n'a pas été automatique comme nous serions amené à le croire. D'abord, c'est avec l'affirmation de la croissance continue de l'entropie que le temps s'introduit en physique, soulevant de ce fait l'idée de l'évolution vers l'homogénéité et la mort thermique. C'est seulement par la suite, et avec la découverte de l'expansion continue de l'univers, que la physique va abandonner cette idée, en affirmant en lieu et place l'existence d'une flèche du temps commune à tout l'univers. Ainsi nous pouvons affirmer avec Prigogine et Isabelle Stengers : « L'entropie devient ainsi un « indicateur d'évolution » et traduit l'existence en physique d'une flèche du temps : pour tout système isolé, le futur est la direction dans laquelle l'entropie augmente. »4

Cette conception du temps irréversible, va s'étendre comme par l'effet d'un écho au niveau des autres domaines de la science. Car c'est aussi à cette même période, que nous commençons à comprendre que les phénomènes de culture tels que les langues, les

3 Prigogine et Stengers, Entre le temps et l'éternité, Flammarion « champs », 1992, p 19 4Prigogine & Stengers, La nouvelle alliance, Gallimard « folio », 1986, p 189

institutions politiques, les sociétés etc sont des produits de l'histoire. Dans le domaine de la cosmologie, deux découvertes, parmi celles qui ont le plus marqué l'histoire de cette discipline, vont attirer le plus notre attention. Nous voulons ici parler de la découverte faite par Penzias et Wilson du rayonnement fossile, et celle de l'éloignement inexorable des galaxies, mise à jour par Hubble. Ces deux découvertes ont profondément bouleversé l'histoire de la cosmologie. En effet, par ces découvertes, la physique moderne va définitivement reconnaître l'irréversibilité du temps, longtemps considéré comme la marque de notre ignorance.

Ainsi va naître au sein de la physique, une nouvelle manière d'appréhender le réel. En effet, celle-ci consiste à substituer à l'ancien paradigme de l'ordre, un nouveau type de rationalité qui, tout en montrant le caractère particulier de l'ordre, va intégrer dans le domaine de la science tout ce qui jusqu'alors était considéré comme relevant de celui de l'irrationnel à savoir les concepts d'indéterminisme, de chaos, de hasard, d'incertitude etc.

Pour mieux élucider les interrogations que soulève notre sujet, nous avons établi un plan de travail qui obéit l'ordre qui suit. Dans la première partie consacrée pour l'essentiel au paradigme classique, nous montrons d'abord comment, à partir du 17ème siècle, les spéculations sur la nature ont conduit, philosophes et scientifiques à considérer l'univers comme un tout ordonné dont l'esprit humain peut déchiffrer le secret. Il en ressort qu'il existe une sorte de correspondance entre la structure de la nature et les catégories de l'entendement humain. Ensuite nous verrons comment à partir de la croyance à l'ordre éternel, la science classique va nier le temps, liant celui-ci à une illusion de notre esprit.

Dans la seconde partie, nous tentons de montrer comment à partir de la thermodynamique, la science va progressivement renoncer au postulat de l'éternité, lui substituant l'idée d'une histoire de l'univers. Or, une telle conception scientifique, ne peut être soutenue que si nous reconnaissons au préalable le caractère créatif du temps. C'est ainsi que nous examinons dans un second moment, la manière par laquelle la science et la physique vont réhabiliter la pensée du temps, liant celle-ci à la production de nouveauté, ce qui en fait correspond le mieux avec la manifestation du réel.

Enfin, dans une troisième partie essentiellement centrée sur le paradigme du chaos, nous allons voir comment la physique contemporaine va penser en terme de science, les notions de

hasard, d'incertitude, d'indéterminisme ; sachant que ces dernières étaient pendant longtemps écartées des champs de la rationalité.

I

La science classique :

Une apologie du

Déterminisme

universel

La science classique marque dans l'histoire des sciences, la période qui s'étend du 17ème siècle à la fin du 19ème siècle. Dans l'histoire de la philosophie occidentale, le 17ème siècle est l'époque de la grande révolution. Ce siècle pendant lequel ont vécu d'éminentes figures philosophiques et scientifiques, constitue un tournant essentiel dans l'élaboration de la science occidentale, et au-delà de celle-ci, de la pensée humaine. En effet, le 17ème siècle, aussi appelé le siècle de la renaissance, marque la rupture avec le monde médiéval, et annonce par cela, le début d'une nouvelle ère qu'est la modernité.

Au-delà de la nouvelle science proprement dite qui se met en place, il s'agit de la formation d'un univers mental et intellectuel inédit. La science classique est fondamentalement une critique contre la pensée d'Aristote, laquelle avait servi de modèle intellectuel aussi bien dans le domaine de la philosophie que dans celui des sciences encore en formation. Aristote avait en effet fondé un système scientifique, qui était basé sur certains principes métaphysiques ; principes que la science classique va attaquer en y montrant les caractères arbitraire et irrationnel.

Nous savons que Aristote a réfléchi dans presque tous les domaines de la science. Son école nommée le Lycée était considérée comme une sorte d'université, parce qu'on y apprenait de la philosophie, des mathématiques, des sciences naturelles, de la physique etc. Mis à part ces considérations, nous allons dans ce petit rappel nous limiter à la physique. La physique d'Aristote s'est très longuement penchée sur l'étude des mouvements, et en cela, elle peut être considérée comme une physique de choc ; c'est-à-dire celle d'un monde où tout est lié. En effet, selon Aristote, tout objet en mouvement est mû par une force extérieure, de sorte que si la force s'arrête, le mouvement aussi cesse nécessairement.

Aristote distingue dans la nature cinq éléments auxquels il attribue pour chacun un mouvement spécifique suivant sa nature : l'Eau, l'Air, la Terre et le Feu. L'Eau qui est plus lourde que légère, a un mouvement qui va du haut vers le bas. Ce mouvement, parce que caractérisant la nature de l'objet même, est nommé mouvement naturel. L'Air qui est plus léger que lourd, se meut d'un mouvement vertical qui se fait du bas vers le haut, qui se trouve être son lieu naturel. La Terre, appelé aussi le lourd absolu par Aristote, se dirige dans son mouvement, du haut vers le bas, qui est son lieu de prédilection. Quant au Feu, aussi appelé le léger absolu, il se meut du bas vers le haut, son lieu naturel.

A côté de ces mouvements dits « naturels », Aristote ajoute une seconde catégorie de mouvement dit « mouvement accidentel ». Ce mouvement est dit accidentel, parce qu'il est causé sur un objet par un autre corps étranger. Ce mouvement du fait de ne pas appartenir à la nature de l'objet qu'il entraîne, s'arrête une fois que la force qui l'a causé s'épuise. Dés lors, le corps dérangé dans son état de repos, cesse de se mouvoir et cherche à rejoindre son lieu initial d'où il a été enlevé. C'est pour cette raison que chez Aristote, tout est naturellement en repos, d'où tout mouvement a une cause qui lui est contiguë.

Par ailleurs, Aristote distingue aussi dans sa physique deux univers, séparés dans leurs dimensions par la position de la Lune. Au dessus de la Lune, se trouve ce qu'il appelle le monde supra lunaire, parallèlement en dessous de celle-ci le monde sublunaire. Le monde supra lunaire, du fait d'abriter des corps parfaits, est éternel et immuable. C'est le monde des sphères célestes, des astres et du Premier moteur. Quant au monde sublunaire, du fait de son imperfection, il est le lieu de la corruption et du changement. Ce monde abrite des corps qui naissent, vivent, durent et meurent éventuellement.

Pour finir ce bref rappel de la physique d'Aristote, il faut noter que celui-ci a établi un système cosmologique centré autour de la Terre, qui de ce fait était immobile. Celle-ci est selon Aristote entourée par la Lune, et six autres planètes qui tournent autour des sphères concentriques ; au-delà de ces sphères, se trouve la sphère des étoiles fixes, qui constitue la limite même de l'univers.

C'est cette conception du monde tel que décrit par Aristote, que la science naissante au 17ème siècle se propose de remettre en cause. La science classique va donc s'attacher à briser, un à un, les verrous avec lesquels Aristote avait cadenassé son système physique. D'abord, la découverte par Tycho Brahe d'une nouvelle étoile qu'il nomma Stella nova en 1573, brise la perfection des cieux telle que celle-ci a été soutenue par Aristote. Dés lors, nous constatons que la séparation en mondes supra lunaire et sublunaire de l'univers par Aristote, n'était nullement scientifique, sinon seulement arbitraire. Le ciel est à l'image de la terre un monde changeant et corruptible.

Quelques années plus tard, plus précisément en 1577, ce même Tycho Brahe va découvrir dans le ciel, des corps qui fusent à grande vitesse, traversant ainsi les fameuses sphères d'Aristote. Ces objets célestes appelés Comètes, vont, à leur tour remettre en cause la finitude de l'univers, et permettre ainsi de mettre en place l'image d'un monde infini tel que proposé

par Nicolas de Cues et Giordano Bruno. Ensuite, viendra après Tycho Brahe, Johannes Kepler. Ce scientifique allemand va s'attaquer à l'hypothèse des épicycles, qui était utilisée pour expliquer les mouvements rétrogrades qu'on observait dans les trajectoires des planètes.

En effet contrairement à Ptolémée qui appuyait la thèse aristotélicienne du géocentrisme, Kepler va reprendre le modèle héliocentrique proposé par Copernic, en y remplaçant les trajectoires circulaires par des trajectoires elliptiques, centrées autour de trois foyers dont l'un est celui occupé par la position du Soleil.

A côté des critiques, on peut aussi noter d'autres attaques dirigées à l'encontre d'Aristote, comme celle faite par Galilée à propos de la distinction entre le ciel et la Terre. Lorsque Galilée observe à travers ses lunettes astronomiques la surface de la lune, ce dernier découvre des inégalités représentées sous la forme de montagnes identiques à celles constatées sur la surface de notre planète. A partir de là, il en déduit que le monde céleste était identique par sa structure à notre monde terrestre. Une fois de plus, la distinction qu'en a faite Aristote se révèle inadéquate. Galilée est aussi celui qui a observé et annoncé l'existence des corps satellites, autour de la planète Jupiter. Il les nomma les Médicéens, espérant bénéficier de la noble famille des Médicis un financement de ses projets de recherches.

Toutes ces attaques contre le système d'Aristote, vont trouver leur parachèvement dans ce qu'il est aujourd'hui légitime d'appeler la synthèse newtonienne. Newton est en fait celui qui a pu rassembler toutes ces découvertes parallèles, pour en tirer l'ingénieuse idée de la théorie de la gravitation universelle. Cette théorie, tout en expliquant les mouvements qui adviennent dans le monde terrestre, permet aussi de rendre compte, avec toute la précision souhaitée, du mouvement des planètes autour du Soleil. Ainsi Newton amorça le triomphe de la lumière rationnelle sur l'obscurité métaphysique qui caractérisait le monde médiéval.

Après avoir retracé le mouvement de la révolution scientifique amorcée au 17ème siècle, il importe donc désormais de voir sur quels principes et bases scientifiques, celle-ci a pu venir à bout de l'édifice aristotélicien. Dans cette première partie, deux aspects, vont nous intéresser. D'une part, nous tenterons de voir comment la science classique a pendant très longtemps fondé ses principes sur la notion d'ordre. De fait, la physique classique croyait, contre toutes les manifestations phénoménologiques que, le monde était régi suivant un ordre bien déterminé.

C'est ainsi que toute la connaissance consistait, à rechercher dans la nature les lois qui justifient cet ordre. D'autre part, nous abordons la problématique soulevée par la science classique du déterminisme universel. Le déterminisme est la conception qui consiste à dire, que tout est lié dans l'univers par des relations de causalité. Or, selon cette conception, aucune variable ne peut affecter l'effet résulté d'une cause qui le précède. Niant la réalité du temps, elle dépouille celui-ci de tout pouvoir de production de nouveauté.

I-1/ L'exigence d'ordre

La philosophie classique se caractérise par une vision du monde, conditionnée pendant près de trois siècles, par la pensée cartésienne et la physique de Newton. Ces deux figures ont marqué de leur empreinte toute la science du 17ème siècle. Initiant une méthode qu'il veut universelle, Descartes développe dans ses ouvrages, des règles fondatrices pour l'acquisition de toute connaissance dont la visée est la certitude. Dés lors l'acquisition de toute connaissance, passe nécessairement par l'adoption d'une méthode, sans laquelle on ne saurait atteindre aucune certitude. De là l'idée d'ordre va apparaître aux yeux du 17ème siècle, comme le socle même de la science. Très fécond en productions intellectuelles, ce siècle connaîtra l'avènement de méthodes appliquées à la connaissance, au nombre desquelles figure l'induction mise à jour par Bacon. Parallèlement, la déduction est adoptée par Descartes.

Quand à Newton, son nom est resté à jamais attaché à la naissance de la science prédictive. La publication en 1687, des équations différentielles au rayonnement fulgurant, a fini par faire de Newton le prince de la science moderne ; celui à qui furent montrées à l'instar du prophète Moïse, les tables de la loi . Les équations différentielles ont été commémorées comme l'avènement d'un miracle dans l'histoire de la science. Car disait-on, « Un homme a découvert le langage que parle la nature, et auquel il obéit. »5

En effet, dans son ouvrage intitulé Philosophae naturalis principia mathématica, Newton établissait d'une part, la théorie qui explique comment les corps se meuvent dans l'espace et dans le temps ; d'autre part, il y développait aussi les équations mathématiques qui permettent l'analyse de ces mouvements. A partir de ces deux auteurs, la science classique va mettre en place un système scientifique, essentiellement basé sur la notion d'ordre développée par les 17 et 18ème siècles. Cette notion développée par ces deux siècles, consistait à dire que la

5 Prigogine et Stengers, La nouvelle alliance, Gallimard, 1986, p 58

nature dans son ensemble était ordonnée. Pour connaître le monde, il suffisait à l'homme, de chercher par sa raison les principes suivant les quels l'univers a été régi.

Une telle conception scientifique n'a pu être mise en place, que parce qu'on croyait au 18ème siècle que l'univers est une immense horloge dont le fonctionnement a été préétabli par Dieu, le grand horloger.

Comme l'artiste se représente le mode de fonctionnement d'un instrument avant de le fabriquer, Dieu, avant de créer l'univers, avait dans son entendement les règles qui régiraient le fonctionnement de celui-ci. A l'image de nos machines, l'univers fonctionne donc suivant des lois qui sont indépendantes de sa structure. Ces lois, parce qu'elles existent, peuvent être découvertes par l'homme, si ce dernier conduit sa raison suivant une bonne méthode.

C'est à la base donc de ces croyances philosophiques et métaphysiques, que la physique classique pensait entreprendre l'étude de l'Univers. En effet, parce qu'on croyait d'une part que l'univers conservait en lui l'ordre de sa création, la communauté scientifique devait mettre à jour les lois mécaniques. C'est cette conception mécanistique de l'univers qui justifie le développement et le rayonnement éclatant, que la science de la mécanique a connu dés ses débuts. A cette époque, la connaissance des lois de la mécanique était déterminante pour conduire à celle de la nature dans son ensemble.. D'autre part, la science classique, imprégnée du principe de l'ordre universel, se donnait comme ambition première de dévoiler le « langage » suivant lequel Dieu Créa l'univers. C'est ainsi que ces deux idées, du mécanisme universel et de la notion de langage de Dieu, vont tout au cours de ce chapitre guider notre argumentation.

Dans l'Europe occidentale, l'époque des Lumières a établi une transformation dans la manière non seulement de penser le réel, mais aussi dans la nouvelle fonction que la physique attribue à la pensée. Car faut-il le dire, à partir du 18ème siècle, la science de la nature ne se pose plus tout uniquement comme étant le mouvement de pensée qui se porte vers le monde des objets, mais aussi le milieu au sein duquel l'esprit acquiert la connaissance de soi.

Cette nouvelle manière d'appréhender le réel, réside pour l'essentiel dans la fonction attribuée à la raison en tant qu'elle est nécessaire pour la connaissance de la nature. En rompant avec les considérations métaphysiques qui caractérisaient le monde médiéval, la science va à travers la philosophie de Descartes, donner à la raison la puissance de connaître et de rendre compte de l'univers. A ce propos Ernst Cassirer écrit « C'est la force de la raison

qui constitue pour nous l'unique mode d'accès à l'infini, qui nous assure de son existence et qui nous apprend à lui appliquer la mesure et la limite dans le but, non de restreindre son ampleur, mais de connaître la loi qui l'enveloppe et le pénètre tout entier. »6

Sous ce rapport, la raison est en mesure de nous rendre compte de la nature de l'univers, qui depuis sa création reste régi par le même ordre éternel et immuable. Ainsi, il y a par ce fait l'introduction d'une sorte d'immanence dans l'explication de l'univers. Car, comme il en est d'une machine, dans la nature, il n'est nul besoin de s'élever à une cause transcendante pour comprendre un phénomène : l'explication de tout phénomène se trouve dès lors liée à sa structure, c'est l'établissement par celle-ci d'une dichotomie nette entre la vision d'un homme strictement étranger au monde, et celle d'un univers ordonné et homogène dans son ensemble. En effet, de Galilée à Newton, la philosophie des sciences jusque là hantée par l'idée d'un créateur de l'univers, posait l'existence de la raison au point de ralliement entre la nature, produit de la création, et Dieu, autour de la création. L'homme est de ce fait étranger au monde qu'il cherche à comprendre.

La science classique considérait de manière séparée d'un côté l'homme, être intelligent capable de connaître le réel en le soumettant à des lois physiques ; et de l'autre, le monde réel automate immuable dont les lois sont prescrites de toute éternité.

Cette conception, au-delà de l'aspect scientifique qui lui est assigné, demeure conforme aux croyances métaphysiques et religieuses de la philosophie de cette époque. L'homme, créé à l'image de Dieu, devait non seulement être différent des autres créatures par sa forme, mais aussi et surtout par sa nature qui, parce qu'elle est pensante, reste supérieure à toutes les autres natures créées.

Or, l'éminent scientifique belge d'origine russe Ilya Prigogine, montre que cette opposition faite entre l'homme et le reste de la nature, a fini par rendre impossible le seul mode de dialogue fécond que l'esprit humain devait entretenir avec la nature.

Face à cette attitude réductionniste et appauvrissante de la science Prigogine et Isabelle Stengers soulignent dans La nouvelle alliance : « La science à ses débuts a opposé avec succès des questions qui impliquent une nature morte et passive ; l'homme au 17ème siècle

6Cassirer . E, La philosophie des lumières, Fayard, Paris, 1966, p 82

n'a réussi à communiquer avec la nature que pour découvrir la terrifiante stupidité de son interlocuteur. »7

Par sa capacité à connaître les lois de la nature, l'homme se pose en tant que créature comme une sorte d'existence intermédiaire entre la création et le créateur. Né de la création divine, le réel entretient avec son créateur un lien étroit. Cette idée au contenu étrange était en fait l'un des véritables arguments qui ont encouragé le projet de recherche des « lois de la nature », entrepris à partir du 17ème siècle. A cette époque disait-on, si l'essence de la nature est contiguë à cette dernière, cela voudrait dire que Dieu, en créant le monde, y a laissé les empruntes de sa signature. L'ultime but de la connaissance scientifique, était de chercher dans la nature, les lois qui régissent l'univers et par lesquels celui-ci fonctionne. Avec Newton ce but de la science sera atteint.

En effet, grâce à Newton et plus précisément à ces travaux sur la dynamique, la physique classique pensait avoir enfin trouvé le sol ferme, le fondement qu'aucun autre bouleversement ultérieur de la science ne pourrait ébranler. Les lignes de correspondances entre la nature et l'esprit humain, venaient d'être établies avec la découverte des équations différentielles. Newton a donc permis d'unir l'homme à la nature, et cela par une alliance apparemment indissoluble. C'est en raison de ce fait, que Ernst Cassirer a pu écrire ceci : « La nature qui est en l'homme rencontre en somme, la nature du cosmos et se retrouve en elle. Qui découvre l'une ne saurait manquer de trouver l'autre. C'était déjà ce que la philosophie de la nature de la Renaissance entendait par nature : une loi que les choses ne reçoivent point de l'extérieur mais qui découle de leur propre essence, qui est dès l'origine implantée en elles. » 8

Pour mieux consolider sa conception d'une nature-automate, la science classique va par la découverte des lois scientifiques, se lancer dans la voie difficile de la recherche de ce qu'on peut appeler le « langage de Dieu ». La notion de langage de Dieu, n'est rien d'autre que les principes qui rendent compte de l'ordre de l'univers ainsi que de son harmonie. Ce point de vue qui a dominé la pensée occidentale ainsi que le développement de la science classique, aura connu un succès énorme. Il sera repris comme par l'effet d'écho, par plusieurs penseurs au XVIII ème siècle. En effet, c'est parce qu'ils ont été convaincus de l'existence d'une symétrie structurale entre l'esprit humain et le monde réel, que les penseurs de la science classique ont postulé la réalité de ce prétendu « langage de Dieu ». A cette époque disait-on

7 Prigogine et Stengers, La nouvelle alliance, Gallimard, 1986, p 34

8 Ernst Cassirer, La philosophie des lumières, Fayard, Paris, 1966, p 89

« L'esprit humain qui habite un corps soumis aux lois de la nature, est capable d'accéder par le déchiffrement divin que ce monde exprime globalement et localement. » 9

La question qui se pose dès lors est de se demander ce qui a permis à la science classique de se faire une telle idée. Cette conception aux apparences étranges, remonte en fait à une époque qui en réalité, est antérieure à l'avènement de la science au XVII ème siècle. Cette idée date de l'époque de Pythagore.

En effet, sur Pythagore lui-même, la postérité n'a retenu que peu de choses. On raconte que c'est la musique, qui a apporté à Pythagore l'illumination de la connaissance. Pythagore diton, postulait qu'il existe un rapport simple entre la longueur des cordes d'une lyre et le son qui en émerge. Il affirmait aussi que le son engendré par un marteau sur une enclume, est proportionnel au poids du marteau. A partir donc de l'inspiration de l'harmonie musicale des marteaux et des cordes vibrantes. Pythagore énonce une proposition révolutionnaire à son époque. Celle-ci consiste à dire que la nature est fondamentalement mathématique. Il en résulte l'idée que les nombres gouvernent la réalité toute entière, ils en sont l'essence : le chiffre est la clé du cosmos.

A la suite de Pythagore, Platon va reprendre cette idée inédite dans sa manière d'appréhender l'univers. Platon est pénétré à beaucoup d'égards, de l'influence des doctrines telles que, la doctrine mathématique de Thalès et la géométrie de Pythagore. En effet, les Idées de Platon jouent à peu près le même rôle que les nombres de Pythagore. Car de la même manière que les successeurs de Pythagore cherchaient pour chaque être le nombre qui le caractérise, Platon a doublé la réalité, en établissant pour chaque être l'existence d'une Idée qui représente son essence dans le monde intelligible. Pour Platon donc le monde réel, n'est que la copie imparfaite du monde intelligible. C'est dans le domaine de la cosmologie que cette conception platonicienne sera le plus en vue. Selon la cosmologie platonicienne, le démiurge- le grand artiste de l'univers- en créant le monde, avait les yeux fixés sur des modèles géométriques. Et c'est suivant ces modèles que toute la réalité sera faite.

De son avis, l'ultime nature est de l'ordre des Idées. Celles-ci existent comme nous l'avons déjà noté, dans un au-delà non localisable ; à partir duquel elles fondent et gouvernent toutes les manifestations de notre univers.

9 Prigogine et Stengers, La nouvelle alliance, Gallimard, 1986, pp 89-90.

Selon Pythagore et Platon, Dieu est un fin géomètre et ils affirment l'idée qu'il doit effectivement exister un plan suivant lequel le monde a été crée, et c'est à partir de ce plan que doit être cherché tout l'ordre universel. Cette idée qui date de l'antiquité, sera reprise à partir des XVIIème et XVIIIème siècles par les promoteurs de la science naissante. Ces siècles qui correspondent au grand bouillonnement intellectuel caractérisé par la remise en cause de la pensée d'Aristote, vont trouver dans la philosophie de Platon, le modèle idéal de la conception qu'ils se sont fait de la science ; ce qui justifie la naissance de ce qu'il est possible d'appeler le renouveau platonicien.

En effet, les XVIII ème et XVIII ème siècles qui marquent en Europe l'époque des grandes découvertes coïncident avec l'essor des mathématiques nouvelles. C'est à cette époque que Descartes invente la géométrie linéaire, tandis que Leibniz et Newton vont parallèlement découvrir le calcul infinitésimal séparément duquel figure l'invention de l'arithmétique binaire par Leibniz. Cette époque très fertile en découverte, est celle où Galilée va aussi mettre en place la théorie de la chute des corps, sans oublier l'invention par Pascal, de la calculatrice.

Toutes ces découvertes et inventions vont profondément influencer la conception qu'on se faisait de l'Univers. Avec la science naissante émerge un réductionniste qui consiste à ramener tout l'ensemble du réel, à une sorte d'expression mathématique. Dans la logique de cette conception, d'éminents penseurs tels que Galilée, Newton et même Einstein, vont considérer les mathématiques comme exprimant le langage de Dieu. A ce propos Galilée écrit en 1623 dans le Saggiatore que « La philosophie écrite dans le grand livre de l'univers est formulée avec langage des mathématiques. Sans lui, il est humainement impossible de comprendre quoique ce soit ; et on ne peut qu'errer dans un labyrinthe obscur. » Quand à Newton, il dira que les mathématiques sont le langage de Dieu. Tandis que Einstein lui considère que le monde est intelligible en terme de géométrie.

A travers donc ces trois piliers de la science moderne, on voit comment la physique classique considérait l'Univers. Cette idée apparemment simple, va entraîner des conséquences qui ont servi de guide, pendant près de trois siècles, au paradigme de la science classique. En effet, depuis la coupure galiléo newtonienne, l'ensemble de la communauté scientifique croyait à l'idée d'après laquelle, non seulement la nature est régie par un certain nombre de lois bien déterminées, mais aussi, l'esprit humain est en mesure de découvrir ces dernières. La recherche scientifique va dès lors consister à une sorte d'abstraction, c'est-à-dire

une sorte d'élévation vers la saisie de l'essence dernière des choses ; cette essence qui expliquerait tous les principes de l'existence des choses. La science est donc comme le dirait Aristote la recherche des premiers principes et des premières causes.

Toutefois, cela ne veut pas dire que la science classique se réduisait à une activité métaphysique. Car selon la physique classique l'essence de la chose n'est pas séparée de la chose elle-même, elle lui est contiguë parce que Dieu en créant toute chose y a imprimé le code suivant lequel cette dernière se comporte. C'est donc pour cette raison que Ernst Cassirer a pu écrire dans le même sens que selon la science de la nature de l'époque des Lumières, « L'être véritable de la nature ne doit pas être cherché sur le plan du créé mais sur le plan de la création. La nature est plus que simple créature ; elle participe à l'être divin originaire puisque la force de l'efficace divine est vivante en elle [...] Le pouvoir de se donner forme et de se développer soi-même marque la nature du sceau de la divinité. »10 . On a donc plus besoin de fonder la physique, comme il a été avec Aristote, sur une quelconque métaphysique. Désormais l'expérimentation scientifique se révèle largement suffisante pour expliquer le réel.

Par ailleurs, la conception scientifique d'un univers ordonné fondé sur le principe de la création divine, soulève un problème lié à la problématique du devenir. Car s'il est vrai que la nature est l'oeuvre de Dieu, qu'elle renvoie à l'image de l'esprit divin, alors elle doit refléter le signe de son immutabilité et de son éternité. C'est en fait sur cette conception que repose l'identification spinoziste de Dieu et de la nature, exprimée par la formule « Deus sirve Natura »

Selon Spinoza donc, l'uniformité de la nature prend sa racine et sa source dans la forme essentielle de Dieu. L'idée même de Dieu implique selon lui, que ce dernier soit pensé comme un, en accord avec soi-même ; c'est-à-dire immuable dans ses pensées et dans ses volontés. Poser en Dieu la possibilité d'un changement de son existence, équivaudrait à une négation et à un anéantissement de son essence. Par conséquent, la nature est éternelle à l'image de son créateur. Ce postulat de l'éternité de l'Univers va donner une chiquenaude à l'élaboration des théories scientifiques. L'Univers étant partout le même, les lois scientifiques ne risquent pas d'être influencées par des bigarrures du temps ; comme le notent si bien Prigogine et Isabelle Stengers : « Non seulement la nature est écrite dans un langage mathématique déchiffrable

10 Ernst Cassirer La philosophie des lumières, Fayard, Paris, 1966, p 85

par l'expérimentation, mais ce langage est unique ; le monde est homogène, l'expérimentation locale découvre une vérité générale. »11

La conséquence d'une telle idée revient à nier la réalité même du temps, car comme le dit Bergson le temps est invention et porte en lui la marque du devenir.

I-2/ Déterminisme et négation du temps

« Tout est donné » ! Voici de manière très brève comment se résume la profession de foi à laquelle procédait la science classique. Dans ses interrogations philosophiques, Leibniz se demandait Pourquoi y a-t-il quelque chose plutôt que rien ? Cette question qui se trouve à la croisée des chemins empruntés par la philosophie et la science, constitue la pierre philosophale sur laquelle repose toute réflexion sur le monde et sur tout ce qui le compose. Nombreux sont les auteurs qui ont tenté d'apporter une réponse à cette question, mais en vain. Leibniz lui-même, n'a pas pu répondre de façon satisfaisante à cette interrogation qui en fait, a plus trait au domaine de la métaphysique, qu'à celui de la science. Pour répondre à cette question, Leibniz a fait appel à l'argument philosophique connu sous le nom de la théorie des causes. Fondée sur le principe de la providence divine, la théorie des causes tente d'expliquer l'existence de tout phénomène, par la reconstruction de la chaîne des causes qui l'ont provoqué ; et cela par le principe que toute chose a nécessairement une cause qui lui est antérieure.

Cependant, considérée sous cet aspect, cette question pourrait nous conduire vers une impasse ; du fait qu'on aura toujours besoin de remonter de manière infinie à une cause toujours plus lointaine. Ce risque avait déjà été mesuré par Leibniz. En effet pour ne pas tomber dans cette voie qui pourrait conduire à l'incrédulité, Leibniz pose la nécessité d'arrêter la chaîne des causes à un principe premier cause de toute chose et qu'il nomme par conséquent Dieu. Cet argument d'ordre métaphysique va revêtir aux yeux des penseurs du XVIII ème siècle, une importance capitale. En fait, la science classique va reprendre la théorie des causes pour assoire d'une part, la croyance qu'elle avait du déterminisme universel, et d'autre part pour combattre l'existence du hasard, jadis considéré comme le signe de

11 Prigogine et Stengers La nouvelle alliance, Gallimard, 1986, p 81

l'irrationalité. L'illustration en a été faite par la remarque de Louis de Broglie dans un texte paru en Février 1977 aux annales de la fondation qui porte son nom. Ce dernier écrit dans ce texte, « La recherche de la causalité est une tendance instinctive de l'esprit humain. Elle consiste à admettre que les phénomènes qui se manifestent successivement à nous ne se succèdent pas au hasard, mais dérivent les uns des autres, étant reliés entre eux par des liens tels que chacun d'eux est la conséquence nécessaire de ceux qui l'ont précédé. »12

La conséquence épistémologique d'une telle affirmation, consiste à dire, comme l'a toujours cru Hegel, que rien de nouveau n'arrive dans la nature ; le réel est un et toujours identique à lui-même. De là, nous pouvons conclure que le devenir n'existe pas, car pour que des liens de causalité puissent s'établir il faut que la nature soit inchangeante, éternelle ce qui, autrement dit, revient à soutenir que le temps même n'existe pas. C'est à une telle conclusion que la science a abouti au XVIIIème siècle, lorsqu'elle défendait avec rigueur, la conception épistémologique du déterminisme universel.

Pour mieux comprendre les enjeux d'une telle considération, nous essayerons dans ce chapitre de voir à travers l'histoire des sciences, deux des grandes disciplines scientifiques qui sous-tendent cette conception. Il s'agit notamment de la dynamique classique, et de la théorie de la relativité inventée par Einstein. En effet, ces deux disciplines soutiennent, dans leur fondement, une conception négatrice du temps, et réduisent celui-ci à un comportement réversible qui se traduit phénoménologiquement par la production du même par le même.

La dynamique classique, parce que c'est d'elle que nous allons parler en premier, constitue la partie de la mécanique qui étudie les relations entre les forces et les mouvements. Elle a gagné à partir du XVIII ème siècle une importance capitale, dans le dispositif des nouvelles sciences émergeantes. En effet, c'est grâce aux différentes théories confortées par la pertinence de leurs résultats, que la physique classique a, sous la voix de Leibniz, considéré la dynamique comme étant le modèle d'intelligibilité de la science. La raison d'une telle idée résulte du fait que, les lois de la dynamique, en tant qu'elle permettent de rendre compte et des phénomènes terrestres et de ceux du monde céleste ; étaient considérées comme absolues, éternellement vraies.

En effet, d'après la mécanique de Newton, quand on connaît l'état d'un système physique, à savoir ses positions et ses vitesses, à un instant donné aussi appelé instant initial, on peut en

12 Louis de Broglie, La physique nouvelle et les quanta, Flammarion, 1937, pV

déduire son état à tout autre instant. Selon Newton, pour tout système donné, les forces sont à chaque instant déterminées par l'état du système à cet instant. Il en déduit la conséquence, que connaissant l'état d'un système à l'instant initial, le calcul de sa variation au cours du temps peut être établi. Cette conception qui a soutenu ce grand monument de la pensée universelle qu'est la mécanique newtonienne, connaîtra avec Laplace une formulation élégante et célèbre.

En effet, dans son Essai philosophique sur les probabilités publié en 1814, Pierre Simon Laplace écrit ceci : « Une Intelligence qui, pour un instant donné connaîtrait toutes les forces dont la nature est animée et la situation respective des êtres qui la composent, si d'ailleurs elle était assez vaste pour soumettre ces données à l'analyse, embrasserait dans la même formule les mouvements des plus grands corps de l'univers et ceux du plus léger atome : rien ne serait incertain pour elle, l'avenir comme le passé serait présent à ses yeux. L'esprit humain offre, dans la perfection qu'il a su donner à l'astronomie, une faible esquisse de cette intelligence. »

Cette citation aux résonances quasi théologiques, suscite diverses questions. Quelle place le déterminisme laisse t- il au libre arbitre de l'homme ? Quelle place laisse-t-il au temps et à l'évolution de l'univers ? La nature est-elle condamnée, depuis son existence, à une hybridité structurale ? Peut-il arriver que le monde change ? A toutes ces questions la science classique répond par la négative et montre que l'Univers est identique à lui-même. L'évolution de l'univers se produit par un comportement réversible, ce qui rend possible sa compréhension par l'esprit humain.

Cette manière étrange par laquelle le XVIII ème siècle concevait la science est très fréquente dans l'histoire des sciences. La science disait-on est le royaume de la nécessité, elle a pour but de mettre au jour les lois d'airain qui gouvernent la réalité dans sa totalité.

Deux raisons peuvent expliquer ce rapprochement de la science au règne de la nécessité. La première raison est celle qui se lie à la thèse aristotélicienne selon laquelle il n' y a de science que du général. Car, dans la tradition aristotélicienne, ce qui est général est aussi nécessaire. La deuxième raison d'une telle conception se lie au fait que le discours scientifique, parce qu'il est souvent conçu sous le modèle du raisonnement mathématique, ne procède que par démonstration ; c'est-à-dire par un enchaînement de différents raisonnements qui ne laisse place à aucune incertitude.

Dans la dynamique classique, connaître les données d'un système, c'est en prédire l'avenir. Par ce fait, la dynamique postule qu'il existe dans l'Univers, une identité intrinsèque entre les différents états d'un système physique. En effet, soutenant à la suite de Kant l'idée du temps absolu, la science classique défend que le temps est inchangeant, il est donné une fois pour toute. Dès lors, le devenir tel que pensé par la dynamique classique, voudrait dire « ce qu'une évolution dynamique a accompli, une autre évolution définie par le renversement des vitesses, peut le défaire et restituer une situation identique à la situation initiale. »13

On voit se dessiner à travers cette idée de Prigogine, la conception réversible du temps, qui en fait, se traduit par la structuration homogène des phénomènes. La conséquence d'une telle idée résulte du fait que selon la physique classique, l'Univers, parce qu'il a été crée par Dieu, reste immuable et statique. Tout est donné une fois pour toute, notre univers n'évolue pas, il est éternel, et le temps, même s'il existe, n'a aucune influence sur son homogénéité.

La science classique est étrangère à l'idée de l'évolution de l'univers. En effet, depuis la publication des équations différentielles de Newton la physique classique a été habitée par l'idéal d'une maîtrise et d'une compréhension de l'univers dans sa totalité. Or, une telle croyance, parce qu'elle cherche à globaliser l'univers, ne peut être compatible avec l'idée d'émergence et de changement. En effet si l'on acceptait l'idée que l'univers est en perpétuelle évolution, alors le physicien serait incapable comme le note Alexandre Kojève, de connaître les lois de l'évolution d'un monde qui change totalement d'aspect d'un moment à l'autre. L'avenir ne peut pas être prévu par lui s'il diffère complètement du passé.

On peut dire à partir de là que c'est parce qu'ils rêvaient d'une maîtrise du réel, que beaucoup de scientifiques ont préféré nier la réalité effective du temps, liant celui-ci à l'expression d'une illusion de notre esprit, ou bien à notre ignorance.

C'est sous cet angle que Einstein, dans une de ses correspondances où il fait état de ses convictions philosophiques, écrit à Michèle Besso en ces termes « Pour nous autres physiciens, convaincus, la distinction entre passé, présent et futur n'est qu'une illusion, même si elle est tenace. » On voit que Einstein croit lui aussi au temps réversible, d'autant qu'il affirme à l'instar de Newton que le monde est statique et inchangeant dans sa structure profonde. Par son attitude qui consiste à limiter le devenir à une simple répétition du même, la physique classique a, par l'influence de la dynamique classique, fini par désenchanter le

13 Prigogine et Stengers, La nouvelle alliance, Gallimard, 1986, p 105

monde. Car en refusant tout caractère changeant à l'univers, la physique newtonienne a fait de la nature un être divin, en somme une contre-nature. C'est pourquoi Prigogine et Isabelle Stengers ont déduit dans La Nouvelle alliance, que le monde de la dynamique est un monde « divin » sur lequel le temps ne mord pas, d'où la naissance et la mort, sont exclues à jamais.

En niant l'irréversibilité du temps, la physique classique s'est trouvée partagée entre deux réalités : une réalité phénoménologique marquée par l'irréversibilité du temps, et une réalité théorique dans laquelle touts les moments demeurent identiques. Cette dichotomie entre l'observation phénoménologique irréversible, et la formulation réversible des lois de la dynamique, a été l'un des véritables paradoxes qui ont animé Ludwig Boltzmann lorsqu'il entreprit ses travaux scientifiques. En effet, Boltzmann a tenté de réaliser en physique ce que Darwin a eu à faire dans le domaine de la biologie : expliquer l'irréversibilité thermodynamique par les lois de la dynamique. Ludwig Boltzmann montre dans ses travaux sur la thermodynamique que, dans une population nombreuse de particules, l'effet des collisions peut donner un sens à la croissance du désordre, c'est-à-dire à l'irréversibilité thermodynamique. De là Boltzmann affirme que l'effet des collisions modifie les vitesses et les positions des particules contenues dans le système considéré.

Par cet effet donc, le mouvement des particules décroît au cours du temps jusqu'à atteindre un minimum à partir duquel une nouvelle distribution des positions et des vitesses des particules se réalise. Une fois cette distribution faite, les particules ne peuvent plus être modifiées par des collisions ultérieures nous dit Boltzmann.

Cependant, Boltzmann sera confronté dans son ambition, à plusieurs objections venant de la part des scientifiques encore dominés par la conception dynamique. Sans passer en revue toutes ces critiques, nous allons ici retenir des objections les plus retenues contre ce projet de Boltzmann. La première objection liée au théorème de « récurrence » développé par Henri Poincaré, postule nous dit Prigogine que, « Tout système dynamique finira toujours, après un temps assez long par passer aussi près que l'on veut de la position initiale. »14. Cette obligation s'oppose donc, à l'augmentation spontanée de l'entropie soutenue par Boltzmann. Selon ce dernier, l'augmentation continue de l'entropie permet de comprendre et de pouvoir expliquer l'évolution du système, qui se manifeste par l'apparition de nouvelle forme.

14 Prigogine et Stengers, Entre le temps et l'éternité, Flammarion, 1992, p 98

A cette objection, viendra s'ajouter une autre qui elle, est seulement liée à une expérience de pensée. Malgré son caractère purement hypothétique, la seconde objection suppose que l'inversion des vitesses d'un système permet d'observer le parcours de celui-ci suivant une trajectoire opposée. Contraint par ces deux objections, Ludwig Boltzmann va se résigner en abandonnant son projet d'explication de l'irréversibilité thermodynamique, et s'accommoder à la description dynamique qui jusqu'alors était la seule reconnue. D'ailleurs, il finira par affirmer à travers une formule devenue célèbre : « Au sein de l'Univers dans son entier, les deux directions du temps ne peuvent être distinguées exactement comme, dans l'espace, il n'y a pas de haut ni de bas. » Pour finir avec ce point concernant la dynamique classique, nous rapportons de Prigogine le propos suivant : « Du point de vue de la dynamique, devenir et éternité semblaient s'identifier. Tout comme le pendule parfait oscille autour de sa position d'équilibre, le monde régi par les lois de la dynamique se réduit à une affirmation immuable de sa propre identité. »15

Après avoir discuté de la négation du temps telle qu'entreprise par la dynamique classique, nous essayons de voir comment la théorie de la relativité, cette science rivale de la mécanique classique, niera à son tour l'irréversibilité du temps.

La relativité et la mécanique quantique sont les deux théories qui ont entraîné l'effondrement de l'idéal de la science classique. En effet, fondée sur les principes de la causalité et du déterminisme universels, la physique classique postulait la possibilité de prédire tout phénomène dès lors que sont connues ses conditions initiales. La raison d'une telle proposition se justifie par le fait qu'en mécanique classique, on admettait l'existence d'un temps absolu, variable pour tous les observateurs ; et cela pour tous les systèmes de référence considérés. De plus, la physique newtonienne affirmait que la distance qui sépare deux points dans l'espace a également un caractère absolu et doit par conséquent avoir donc la même valeur pour tout observateur. Ces deux propositions scientifiques ont pendant très longtemps, été à la base des principes de la physique classique.

Cependant des le début du XXème siècle, une révolution spectaculaire va se produire dans le domaine de la physique : il s'agit de la théorie de la Relativité. Découverte en 1905, la théorie de la relativité de Einstein, montre qu'il n'est plus possible de considérer indépendamment les coordonnées d'espace et de temps. Désormais, il est nécessaire selon

15 Prigogine et Stengers, Entre le temps et l'éternité, Flammarion, 1992, p 22

Einstein de considérer un continuum à quatre dimensions, d'où la notion d'Espace-temps née avec la géométrie de Minkowski.

Cette révolution qui ouvre une nouvelle ère à la physique s'est particulièrement établie à la suite de deux énoncés qui consistent d'une part à dire, que la vitesse d'aucun corps n'égale celle de la lumière, et d'autre part que la vitesse de la lumière dans le vide est une constante, indépendante de la vitesse de propagation. A partir de ces deux énoncés Einstein affirmera contre Newton que le temps, loin d'être une entité absolue, varie suivant la vitesse de déplacement de l'observateur. Il n'existe plus un temps absolu valable pour tout système physique, mais une variété de temps, tous spécifiques à leur observateur.

Sans nous étendre outre mesure sur la théorie de la relativité, il est important de souligner au passage que cette dernière, de même que la mécanique quantique ; soutiennent à l'instar de la dynamique classique, une symétrie du temps traduite par caractère réversible de leurs équations. La remarque faite à ce propos par Prigogine est édifiante. En effet, ces deux auteurs soutiennent : « Malgré leur caractère révolutionnaire, il faut reconnaître qu'à cet égard [celui du temps] la relativité et la mécanique quantitative sont toutes deux les héritières de la tradition classique : le changement temporel y est conçu comme réversible et déterministe. »16

En dépit de la rupture que sa théorie a apporté en physique, Einstein est resté un esprit classique, malgré la mouvance moderniste de son temps. Accepter selon lui que quelque chose de nouveau advenait dans le monde, revenait à remettre en cause aussi bien la puissance divine, que l'idéal de la rationalité. Car l'émergence de nouveauté est selon lui le signe d'une création imparfaite. Or pensait-il, si Dieu est tout puissant, il ne peut pas ne pas créer une nature achevée, d'où tout est donné depuis la création : l'évolution de l'univers n'est qu'une illusion de l'esprit humain.

Ce qui intriguait le plus Einstein, c'est qu'en acceptant l'évolution de l'univers, la physique serait amenée à renoncer à son idéal, qui réside dans la croyance d'atteindre un jour la connaissance complète de l'univers. Si l'univers est changeant cela signifierait que le déterminisme est inadapté, et qu'il faudrait laisser une place à l'incertitude et à l'indéterminisme. Ce qui selon lui est non seulement contradictoire avec l'image de la rationalité, mais aussi et surtout avec l'idée de l'omniscience de Dieu.

16 Prigogine et Stengers, Entre le temps et l'éternité, Flammarion, 1992, p 123

Parallèlement à la théorie de la relativité, la mécanique quantique elle non plus ne rompt pas la symétrie du temps, établie par la dynamique classique. En effet, on affirmait dans la mécanique du point mobile, que tout mouvement devient prédictible, à n'importe lequel de ses moments, une fois que sa vitesse et sa position sont connues avec précision. Or Heisenberg a montré que de par l'expérience, que dans le domaine de la physique subatomique, il est impossible pour un électron observé, d'avoir à la fois et sa vitesse et sa position. Dans ce domaine de l'extrêmement petit, pour observer un atome, on a besoin nécessairement de la lumière. Or, en projetant sur l'atome des grains de photons de lumière, l'impact de ces grains, crée sur le comportement de l'atome une perturbation qui se manifeste soit par la variation de la vitesse de ses électrons, soit par la variation de leur position. Ce climat d'indétermination totale fait que, lorsque la vitesse est connue avec précision, la position demeure absolument inconnaissable ; ce qui en ressort le principe d'incertitude formulé par Heisenberg. Par ce fait, la mécanique quantique réhabilite la notion d'indéterminisme longtemps combattue par la physique, d'où cette nouvelle théorie scientifique ce positionne aux antipodes de la mécanique classique.

Toutefois, il faut dire que, comme la mécanique classique, la mécanique quantique est réversible. Car de la même manière que la mécanique classique postule l'équivalence des descriptions individuelles en termes de trajectoires, la mécanique quantique elle aussi suppose un équilibre des descriptions en termes d'ensembles statistiques. Nous pourrons dire que l'équation de Schrödinger, définissant la fonction d'onde, est réversible et symétrique par rapport au temps, de la même manière que l'équation de Newton.

En effet, dans la mécanique quantique, lorsque la fonction d'onde est connue à un instant quelconque, et les conditions aux limites déterminées, il est possible dès lors calculer la fonction d'onde à n'importe lequel des instants aussi bien du futur que du passé. C'est pour cette raison que Prigogine a pu dire : « ...L'équation de Schrödinger est réversible par rapport au temps, exactement comme les équations classiques du mouvement. Lorsque nous remplaçons t par -t l'équation reste valable. Nous devons seulement remplacer ø par son complexe ø*. »17. En résumé, retenons l'idée que, les théories de la Relativité et de la mécanique quantique étaient étrangères à la notion de l'irréversibilité temporelle, qui ellemême est liée à la conception de l'évolution de l'univers, idée encore inédite pour la science.

17 Ilya Prigogine, La fin des certitudes, Odile Jacob, Paris, 1998, p 164

Par ailleurs, à côté de ces trois théories scientifiques que sont, la dynamique classique, la relativité et la mécanique quantique, il existe une autre conception, cette fois-ci philosophique, qui elle aussi s'oppose au problème de l'irréversibilité : il s'agit du principe de raison suffisante.

Ainsi formulé par Leibniz, le principe de raison suffisante se fonde sur la théorie des vérités. En effet, Leibniz distingue deux sortes de vérités, les vérités dites nécessaires et les vérités de faits, aussi appelées vérités contingentes. Les vérités nécessaires, aussi appelées vérités logiques, sont celles dont l'opposé est de non contradiction. Quant aux vérités dites de faits, elles sont contingentes. Ces dernières parce qu'elles déterminent le monde des phénomènes, sont changeantes. Ce qui importe dans l'étude de ces vérités, c'est le fait qu'elles ne permettent pas une analyse exhaustive, en raison de l'idée que nous pouvons toujours expliquer un fait par le rapprochement à son état antérieur, et cela en remontant la chaîne des causes qui s'étend à l'infini.

Les vérités logiques du fait de leur nécessité, n'ont pas besoin d'être expliquer, elles sont éternellement vraies. Ces vérités sont de l'ordre métaphysique d'où Leibniz fait la distinction entre le domaine de la métaphysique et celui des autres savoirs, lesquels portent sur les vérités de faits. Nous avons dit ci-dessus que les vérités de faits ont besoin pour être justifiées de remonter toujours la chaîne des causes qui les ont occasionnées. Cependant, pour que l'étude du monde physique ait un sens, il faut, nous dit Leibniz établir un début à cet enchaînement des causes, d'où la justification du principe de raison suffisante. Ce principe philosophique pose l'existence de Dieu comme étant une substance nécessaire. En tant que cause de la série des faits, celle-ci ne lui est pas pour autant inhérente : en d'autres termes elle la contient seulement en puissance.. Pour étayer son argumentation, Leibniz affirme au paragraphe 37 de la Monadologie. « Il faut que la raison suffisante ou dernière soit hors de la suite ou série de ce détail des contingences quelqu'infini qu'il pourrait être. »18

En effet, le principe de raison suffisante énonce l'équivalence entre la cause « pleine » et l'effet « entier ». Traduit en termes scientifiques, le principe de raison suffisante montre l'impossibilité d'établir la distinction entre l'avant et l'après dans l'évolution d'un phénomène. Selon ce principe, tout ce qui existe à une cause, et c'est en fonction de cette cause qu'il se manifeste dans l'existence. L'effet est en toute logique contenu dans la cause.

18 G.W. Leibniz, Principes de la nature et de la grâce suivi de la monadologie, Flammarion, 1996, p 250

Par conséquent, pour comprendre l'univers, il faut se mettre dans la position de Dieu avant la création. Selon Leibniz Dieu avant de créer l'Univers, avait dans son entendement divin toutes les manifestations potentielles de celui-ci ; et par son décret divin, il a fait passer l'univers de l'étape de simple possibilité à une existence réelle. L'essence donc de l'univers lui est préexistante. A partir de ces positions à la fois métaphysiques et théologiques, Leibniz va déduire que du point de vue physique, tout ce qui est, a sa raison d'être.

La conséquence d'une telle affirmation, consiste à dire que dans l'univers, tout est explicable et intelligible. Ce qui amène Leibniz à dire, « Rien n'arrive sans qu'il soit possible à celui qui connaît assez les choses de rendre une raison qui suffise pour déterminer pourquoi il en est ainsi et non autrement. » 19

Or, affirmer la correspondance entre la cause et l'effet, laisse entendre que le monde réel ne souffre pas du devenir, ce qui autrement dit, voudrait signifier que l'univers tout entier échapperait aux rides du temps. Cette idée est en fait conforme à la pensée Leibnizienne selon laquelle, le monde évolue suivant le décret divin qui l'a fait exister.

19 G.W Leibniz ...idem , 1996, p 228

II

La cosmologie

moderne :

la découverte du

temps perdu

L'histoire de la cosmologie a été marquée par le développement de deux images du monde qui, au delà de leur aspect contradictoire, ont servi de fondement aux observations astronomiques. En effet, depuis son origine grecque jusqu'au XIX ème siècle, la cosmologie était régie par la conception de l'immuabilité et de l'éternité de l'univers. Aristote croyait que l'univers était un tout organisé, fini et hiérarchisé, d'où le vocable même de cosmos, qui signifie en grec la totalité de l'être en tant que celui-ci est pris dans son unité organique. Cette inférence philosophique, a en fait poussé Aristote à établir dans son étude du Cosmos, un système astronomique, guidé dans son ensemble par les critères d'ordre, de finitude et d'hiérarchisation. C'est grâce à ces principes qu'Aristote a construit le modèle géocentrique, dont on lui reconnaît la paternité.

Ce modèle développé par Aristote a, pendant près de deux millénaires, servi de base à toutes les études scientifiques et astronomiques à travers l'Europe ; même si l'on sait que Aristote a été soutenu en cela par l'Eglise chrétienne qui, pour des raisons théologiques, voyait en la cosmologie d'Aristote une thèse en faveur de la création anthropocentrique. Toutefois le modèle d'Aristote va subir à partir du XVI ème siècle un véritable coup de revers qui, en s'aggravant de décennie en décennie, va finalement s'ébranler avec la décentralisation de la Terre faite par Copernic. Sans nous attarder outre mesure sur ce vaste mouvement de révolution dirigé contre la cosmologie d'Aristote, nous retiendrons que tous, à savoir Aristote et ceux qui viendront après lui, croyaient à l'idée, que l'Univers est une totalité structurée, et qu'il n'est pas soumis au devenir.

En effet, même Giordano Bruno, celui-là même qui a été condamné par le Vatican à mourir sur le bûcher pour avoir soutenu l'infinité de l'univers, défendait l'idée que l'univers est immuable. Selon lui, le devenir en tant que signe de l'imperfection, ne peut en aucune manière être un caractère de l'univers, d'où affirmer l'immuabilité de l'univers était pour lui une nouvelle manière de reconnaître et de préserver la « perfection infinie » de Dieu. Dans un extrait intitulé « De la causa », ce martyr de la science écrivait dans le Cinquième Dialogue, « L'univers est donc un infini et immobile...Il ne se meut pas d'un mouvement local, parce que rien n'existe hors lui vers quoi il puisse se porter, étant entendu qu'il est tout. Il ne génère pas lui-même, parce qu'il n'y a aucune autre chose qu'il puisse désirer ou rechercher, étant entendu qu'il contient tous les êtres. Il n'est pas corruptible, puisque rien n'existe hors lui en quoi il puisse se changer, étant entendu qu'il est toute chose. Il ne peut diminuer ni

s'accroître étant entendu qu'il est infini. [...] Il ne peut être altéré en aucune façon, puisqu'il n'a rien d'extérieur par quoi il puisse pâtir et dont il pourrait être affecté. »20.

On voit donc par là comment la cosmologie à ses débuts, considérait l'univers. Pour la science classique, le critère de l'homogénéité était une caractéristique primordiale, car si l'univers devait souffrir du devenir, cela voudrait dire que Dieu en créant l'univers n'avait pas parfaitement maîtrisé son art. A ce propos, lorsqu'on lit une partie de sa correspondance, on pourrait être amené à dire que Newton aurait accepté l'idée d'un univers temporel et évolutif, puisque c'est Newton lui-même qui écrivait, que pour comprendre la permanence du système planétaire, il fallait que de temps à autre Dieu, ou un autre agent, vînt le réparer. C'est dire que Newton était conscient du fait que le système planétaire était instable. Mais comme l'instabilité lui paraissait inconciliable avec la sagesse du créateur, ce dernier fit appel à Dieu pour maintenir la stabilité du système.

A l'inverse de Newton, Leibniz trouvait inconcevable de penser que Dieu revenait réparer son univers, car si tel est le cas, cela signifiait aux yeux de Leibniz que Dieu aurait commis des erreurs dans la création. Pour Leibniz donc, l'univers est le meilleur possible. A partir de ce point de vue, il défend que l'univers est déterministe et réversible dans le temps. Cette attitude est en réalité due « ...à la tendance humaine à croire à des vérités éternelles, aussi bien qu'au réconfort que l'homme trouvait à penser que, malgré le fait que les années s'envolaient et qu'il mourrait, l'univers, lui, restait éternel et identique à lui-même. » 21

C'est cette conception qui va, jusqu'au XIX ème siècle, soutenir l'étude de la cosmologie. Pendant toute la période de la science classique, jamais on a imaginé que l'univers pouvait être en expansion. On admettait généralement que, ou bien l'univers existait depuis toujours dans un état identique, ou bien qu'il a été créer à un moment précis du passé, plus ou moins semblable à celui que l'on observe aujourd'hui. Il faut attendre le début du XX ème siècle, pour voir se développer les germes de la rupture avec cette ancienne conception de l'univers. C'est en effet avec la grande révolution technologique, entreprise dans le domaine de l'astronomie avec la construction des grands télescopes, que la science moderne va petit à petit se séparer d'avec l'image statique de l'univers.

Avec l'utilisation des télescopes à grande portée, l'homme va étendre sa connaissance de l'univers à des limites inimaginables. On apprend à ce moment que l'univers est illimité et a

20 G. Brunon cité par Prigogine et Stengers in Entre le temps et l'éternité, Flammarion, 1992, p 36

21 S. Hawking, Une brève histoire du temps : du big bang aux trous noirs, Flammarion, 1989, p 23

un espace infini qui aurait donné à Giordano Bruno, s'il était là pour l'observer, des vertiges. Désormais nous savons que notre monde est en expansion continue, et qu'il est habité par diverses formes d'êtres. La naissance de la nouvelle image d'un univers dynamique, dont les différentes formes sont en perpétuelle évolution. C'est de là que nous pouvons comprendre ce propos de Hubert Reeves lorsqu'il affirme : « Il y a du changement dans notre monde. Non seulement les formes animales changent, non seulement les étoiles évoluent, changent de couleurs, vivent et meurent, mais les propriétés globales du cosmos, température, densités, états de la matière, se modifient profondément au cours des ères. »22

Par cette révolution astronomique inédite, c'est tout l'édifice de la science classique qui subit un énorme coup de revers comme le disait Héraclite, « Tout change, tout coule ». Darwin de même que Boltzmann, avaient donc raison sur leurs détracteurs : le temps est producteur de nouveauté, et de ce fait il est irréversible. L'univers n'est pas strictement ordonné, il abrite du désordre, somme toutes, il est fondamentalement complexe. Dès lors, il est possible d'affirmer en guise de consolation à Einstein qu'il se pourrait que Dieu eût joué au dé, seulement il n'a probablement retenu que les coups gagnants. Désormais, il est nécessaire pour comprendre l'univers, de le considérer dans sa totalité qui, oscille entre des notions variées et contradictoires que sont : ordre et désordre, hasard et nécessité, organisation et complexité, existence et devenir, lesquelles vont de paire.

Dans cette deuxième partie que nous avons divisée en trois sections, nous allons dans un premier moment voir comment s'est établie la conception historique de l'univers, et quelles implications philosophique, ou scientifiques, cette conception a-t-elle engendrées ? Dans la seconde section nous allons montrer, comment par cette nouvelle vision de l'univers, la science, et plus particulièrement la physique, va interpréter la pensée du temps, qui se trouve désormais liée à la notion d'irréversibilité. Enfin, nous essayons, dans une troisième section, d'expliquer comment à partir des deux premières sections, à savoir l'idée de l'histoire de l'univers et celle de l'irréversibilité temporelle, nous pouvons comprendre la notion d'évolution.

22 H.Reeves, Malicorne, Seuil, 1990, p 46

II-1 / La conception historique de l'univers

La question de l'origine de l'univers a depuis la naissance de la civilisation, gagné une place importante dans les spéculations aussi bien philosophiques que scientifiques. A partir des VII ème et VI ème siècles déjà avant J.C, les grecs, soucieux de cette question des origines se demandaient d'où venait le monde ? Pour Thalès, l'univers vient de l'Eau. D'autres après lui diront que l'univers vient du Nombre, comme par exemple Pythagore, ou encore que l'univers vient du Feu si nous en croyons Héraclite. A partir de ces considérations, vont naître différentes doctrines philosophiques, classées sous formes de testaments appelés péri phuséos, ce qui veut dire en grec des traités sur la nature ; d'où la naissance des tous premiers systèmes physiques. Au fil des âges, vont naître d'autres systèmes cosmologiques de plus en plus complexes, comme par exemple les modèles de Platon, Aristote Ptolémée, Copernic, Kepler jusqu'à Newton.

Tous ces systèmes, malgré leur particularité, ont tous un point de ralliement, qui se situe dans l'affirmation unanime qu'ils font de l'éternité de l'univers, ainsi que de son caractère in changeant. En effet, de Platon à Newton, on croyait que l'univers ou bien existait depuis toujours dans un état inchangé, ou bien qu'il a été créé à un moment précis du passé, plus ou moins semblable à celui observé aujourd'hui. C'est ce que Hubert Reeves montre très bien lorsqu'il affirme : « L'idée d'une histoire de l'univers est étrangère à l'homme de science des siècles derniers. Pour lui, immuables, les lois de la nature régissent le comportement de la matière dans un présent éternel. Les changements - naissance, vie, mort - visibles au niveau de nos vies quotidiennes s'expliquent dans les termes d'une multitude de réactions atomiques simples, toujours les mêmes. La matière n'a pas d'histoire ».23 L'univers n'a donc ni commencement ni fin non plus ; il est donné de toute éternité. C'est cette idée qui a dominé la science jusqu'au 19ème siècle.

Au début du XX ème siècle, et cela avec le développement de la technologie du matériel d'observation, nous assistons, dans le domaine de la cosmologie, à une révolution qui va bouleverser la conception que nous avions de l'univers dans tous ses aspects. En effet, c'est grâce à deux découvertes faites dans le domaine de l'astronomie, que nous allons, pour la première fois, nous faire à l'idée de l'évolution de l'univers : il s'agit de l'observation faite par Edwin Hubble de l'éloignement des galaxies, et de la découverte par Penzias et Wilson

23 H. Reeves, Patience dans l'azur, Seuil, 1988, p 17

du rayonnement fossile qui baigne tout l'univers. Les travaux de Hubble ont eu un impact si important dans l'histoire de la cosmologie moderne, qu'il n'est plus possible, sous aucun prétexte passer sous silence son nom. D'abord occupé par la littérature et la poésie, Hubble va au cours de sa vie renoncer à la carrière littéraire qui lui est ouverte, pour s'intéresser à l'étude de l'astronomie. Dès 1923 déjà, Hubble, en se servant du télescope nouvellement installé sur le mont Wilson, dans le désert de l'Arizona aux Etats-Unis, va observer, à travers la tâche nébuleuse observée dans la constellation d'Andromède, l'existence d'une multitude d'étoiles.

Il prouve par cette observation, la réalité des univers îles longtemps annoncés par Emmanuel Kant. Hubble montre ainsi, que l'univers s'étend au-delà de notre galaxie. L'univers est désormais extra galactique, d'où notre galaxie est perdue dans l'immensité de l'univers ; tout comme notre système solaire s'était déjà perdu dans l'immensité de la voie lactée. En plus de la découverte qu'il a faite à propos de la galaxie d'Andromède, Hubble a contribué de façon remarquable à développer la connaissance que l'homme avait de l'univers. Même s'il est reconnu comme étant un observateur infatigable de l'univers, Hubble est, il faut le noter, un grand interprète et un grand génie pour l'élaboration des théories scientifiques. En effet, grâce au spectroscope, appareil servant à étudier et à décomposer les spectres de la lumière, et à la théorie de l'effet Doppler, Hubble va élaborer une théorie scientifique sur le mouvement et le comportement des galaxies dans l'espace.

Avant de continuer, essayons, auparavant d'expliquer ce que signifie l'Effet Doppler. Ce concept scientifique, traduit une théorie connue sous le nom du physicien Autrichien Johann Christian Doppler. Selon ce dernier, tout comme le son, la lumière subit une disporpotionalité de radiation qui pourrait se résumer ainsi : « Quant un objet lumineux s'éloigne de nous, sa

lumière devient plus grave, elle est décalée vers le rouge et perd de l'énergie, tandis que sil'objet lumineux vient vers nous, sa lumière devient plus aiguë, elle est décalée vers le bleu et

acquiert de l'énergie. Le changement de couleur est d'autant plus grand que la vitesse d'éloignement ou d'approche augmente. » 24

En effet, c'est à partir de ces deux méthodes d'observation que Hubble va entreprendre l'étude de l'univers. S'appliquant à observer l'univers, l'astronome américain découvre que sur quarante et une galaxie observées, trente et six avaient leurs lumières décalées vers le rouge, tandis que cinq seulement avaient leurs lumières plus ou moins bleues, ce qui traduit suivant la théorie de l'effet Doppler, leur rapprochement dans le sens de l'observateur. A

24 Trinh Xuan Thuan, La mélodie secrète, Gallimard, 1991, p 59

partir donc de ces deux constatations, Hubble conclut que le mouvement des galaxies ne se fait pas de manière désordonnée. Car si tel était le cas dit-il, on se trouverait dans une situation où la moitié des galaxies en moyenne aurait dû s'approcher de la voie lactée et l'autre moitié s'en éloigner. Mais étant donné que ceci est loin de ce qui est observé dans la réalité, Hubble affirme qu'à des distances lointaines toutes les galaxies s'éloignent à grande vitesse les unes des autres.

Il montrera plus tard, que les cinq galaxies que l'on voit se rapprocher de la nôtre, appartiennent au même amas galactique que la « voie lactée », amas que les astronomes nomment amas local ou encore « amas de la vierge ». Muni de la vitesse d'éloignement des galaxies, qu'il a obtenue en étudiant les changements de couleurs de leurs lumières, ainsi que des distances qui séparent celles-ci de nous, Hubble affirme sous la forme d'une loi universelle que la vitesse de fuite des galaxies est proportionnelle à leur distance. Cette loi dite « loi de Hubble » postule l'idée suivante : « Une galaxie deux fois plus distante s'éloignait deux fois plus vite, tandis qu'une galaxie dix fois plus distante fuyait dix fois plus vite. D'autre part le mouvement de fuite des galaxies était le même dans toutes les directions. » 25

C'est à partir de ces observations, ainsi que des différentes déductions scientifiques qui s'en suivront, que l'idée de l'expansion de l'univers va se poser comme une hypothèse scientifique, plus que probable. Cette idée sera à la base de la cosmologie, pendant tout le développement du nouveau paradigme de la physique moderne. Toutefois, malgré la rigueur scientifique et la crédibilité des données de l'expérience, les physiciens ont de très bonne heure rejeté l'idée de l'expansion de l'univers comme un fait scientifique, car celui-ci était a priori contradictoire avec les convictions philosophiques d'autrefois.

Cependant, cette idée encore douteuse, sera consolider par les travaux mathématiques de Einstein, Friedman et Lemaître, mais aussi et surtout par la prédiction faite par Gamow du rayonnement fossile. Considérant l'hypothèse de l'expansion de l'univers Gamow postulait, qu'en remontant l'échelle du temps cosmique, l'état de l'univers serait comprimé dans un espace infiniment petit et infiniment chaud. Gamow montre aussi, que la distribution dans l'espace des différentes formes de corps tels que, les galaxies, les étoiles et les planètes, ne peut être expliquée que par l'hypothèse qui consiste à dire que, dans un passé assez lointain, l'univers avait procédé à une explosion fulgurante. L'explosion avait dû être très forte et très

25 Thinh Xuan Thuan, La mélodie secrète, Gallimard, 1991, p 71

puissante, pour pouvoir propulser à des distances et des vitesses aussi intenses, la matière de l'univers. A partir de ces suggestions hypothétiques, Gamow affirmera que la lumière dégagée par cette explosion primordiale doit encore exister dans l'univers, mais si celle-ci est invisible, c'est tout simplement parce qu'elle s'est tellement refroidie, qu'elle a fini par perdre toute son énergie initiale.

L'existence de cette lueur fossile a été prédite parallèlement par trois scientifiques, reconnus sous le trio Apher, Bethe et Gamow. Prédite dans les années 1940, ce rayonnement fossile restera prés de vingt ans, sans que nous puissions en faire la moindre expérience scientifique. En 1965, deux physiciens américains Arno Penzias et Robert Wilson vont créer le déclic. Travaillant pour la société des Bell Téléphone Laboratories de New Jersey aux USA, ces deux physiciens constatent, lors d'une mission pendant laquelle ils devaient tester un détecteur ultra sensible d'ondes centimétriques (comme les ondes radio), que leur appareil captait beaucoup plus de bruit qu'il ne le devait. Ils cherchèrent à savoir en vain, d'où pouvait provenir ce bruit étrange qu'ils entendaient. Ces derniers se mirent à changer à plusieurs reprises la direction de leur appareil espérant échapper au bruit ; mais ils continuaient toujours de recevoir les résonances de ce bruit. A force de l'étudier, ils finirent par comprendre que ce bruit apparemment anormal, était uniformément répandu à travers toute l'atmosphère. D'où ils en déduisent que l'origine de ce bruit doit se trouver au-delà de notre système solaire voire même de notre galaxie. Car disaient-ils, si cela n'était pas le cas, ce bruit aurait varié du fait que le mouvement de la Terre, en orientant le détecteur dans différentes positions aurait occasionné une variation des résonances.

Quelques années plus tard, deux autres physiciens américains de l'université de Princeton cette fois-ci vont, en suivant les prédictions de Georges Gamow s'investir dans la recherche de cette lueur fossile qui, disent-t-il doit s'être transformée à cause de l'expansion de l'univers, en ondes centimétriques. Lorsque Bob Dicke et Jim Peebles s'apprêtèrent à recherche ce rayonnement fossile, Penzias et Wilson, saisis de cette rumeur, comprirent aussitôt que la présence de cette lueur était la cause du léger bruit anormal que captait leur détecteur. Ils affirment publiquement avoir trouvé cette lueur fossile prédite par Gamow, ce qui leur a valu le prix Nobel de physique, qu'ils reçurent en 1978.

Partant des deux plus grandes découvertes de l'astronomie moderne à savoir : l'expansion de l'univers d'une part et le rayonnement fossile de l'autre, la cosmologie moderne va élaborer une théorie scientifique, connue sous le nom de théorie de Big Bang. C'est le

physicien Russe Alexandre Friedman, qui a été le premier à poser à titre d'hypothèse plausible de l'univers observé, cette idée du Big bang. Friedman postulait en effet que l'univers à ses débuts, devait avoir été très chaud, très dense et intensément rayonnant à l'image de tout corps chauffé. Selon la théorie du Big bang, l'univers est issu d'une grande explosion à partir de laquelle toute la matière s'est répartie dans tous les sens.

Donc, tout ce qui est observé dans l'univers visible, partant de l'existence des galaxies à la formation des planètes, jusqu'à l'apparition même de l'homme sur Terre, a commencé à exister et à évoluer à partir de ce grand boom. C'est à partir de ces hypothèses et implications scientifiques, que va naître dans le domaine de la science l'idée de l'histoire de l'univers. C'est ainsi que Hubert Reeves écrit à ce propos, « L'image d'une matière historique s'impose maintenant de toute part. Comme les vivants, les étoiles naissent vivent et meurent, même si leurs durées se chiffrent en millions ou en milliards d'années. Les galaxies ont une jeunesse, un âge mûr, une vieillesse. L'histoire du cosmos, c'est l'histoire de la matière qui s'éveille. L'univers naît dans le plus grand dénuement. N'existe au départ qu'un ensemble de particules simples et sans structure. Comme les boules sur le tapis vert d'un billard, elles se contentent d'errer et de s'entrechoquer. Puis par étapes successives, ces particules se combinent et s'associent. Les architectures s'élaborent. La matière devient complexe et performante, c'està-dire capable d'activités spécifiques. »26

Comme tout modèle scientifique, le big bang n'est qu'une théorie physique en ce sens que celle-ci est définie, comme un modèle d'univers et un ensemble de règles mettant en relation des quantités issues du modèle et des observations. A partir de l'hypothèse du Big Bang, la physique moderne va toutefois établir trois modèles cosmologiques différents, qui traduisent chacun une image de l'expansion de l'univers.

Le premier modèle, proposé par le physicien et mathématicien russe Alexandre Friedman, postule que notre univers s'étend à une vitesse suffisamment lente, que l'attraction gravitationnelle s'exerçant entre les différentes galaxies, finira par ralentir l'expansion qui éventuellement s'arrêtera. Si nous en croyons Friedman, nous devons s'attendre au scénario suivant lequel nous verrons les galaxies se rapprocher progressivement les unes des autres, conduisant ainsi l'univers à se contracter avec elles. Selon ce modèle donc, l'évolution qui a commencé au point zéro appelé big bang, va s'accroître jusqu'à atteindre son maximum. Une fois ce maximum atteint, l'univers connaîtra une phase retour qui lui fera suivre le chemin

26 H. Reeves, Patience dans l'azur, Seuil, 1988, pp 18-19

inverse, en se rétrécissant jusqu'à rejoindre le point initial d'où il est parti. Dans un tel modèle, « L'univers n'est pas infini dans l'espace, mais l'espace n'a pas pour autant de frontières. La gravité est si forte que l'espace est refermé sur lui-même, le rendant plutôt semblable à la surface de la Terre. »27

Quant au second modèle cosmologique, il postule qu'après l'avènement du big bang, l'univers s'est étendu à une vitesse d'expansion si rapide, que l'attraction gravitationnelle ne pourra jamais l'arrêter, bien qu'elle la ralentisse plus ou moins. Selon ce modèle donc, l'évolution qui a commencé au temps zéro, sera suivie de l'expansion et de la séparation progressive de toutes les galaxies les unes des autres suivant une vitesse régulière. Dans ce modèle, l'espace est infini, c'est-à-dire courbé à l'image d'une selle.

Enfin, nous en venons au troisième et dernier modèle cosmologique. Selon ce modèle, l'univers s'étend à une vitesse assez suffisante pour pouvoir empêcher le scénario contraire du grand retour. Dans ce modèle, l'expansion, représentée par l'éloignement des galaxies, commence à l'instant zéro du big bang et croît indéfiniment. Toutefois, il faut dire qu'à travers ce modèle, la vitesse d'expansion des galaxies s'affaiblit de plus en plus sans jamais s'annuler pour autant. L'espace représenté par ce modèle est un espace plat.

De nos jours, la conception de l'histoire de l'univers, est devenue une vérité à laquelle nul ne peut douter, tant les observations astronomiques nous la révèlent par des théories de plus en plus manifestes et précises. Ces dernières nous montrent en effet que, issu de l'explosion initiale, l'univers évolue en se complexifiant, ce qui explique la hiérarchie et la variation de structures que l'on observe au sein de ce dernier. Toutefois, il ne faut pas croire que le pari soit gagné à cette étape de la recherche. Car malgré ce triomphe de la cosmologie, l'hypothèse du big bang laisse néanmoins certaines questions sans réponses. L'expansion va-t-elle se poursuivre indéfiniment ? L'univers arrêtera-t-il son expansion pour s'effondrer un jour sur lui même ? Qu'est-ce qui existait avant le big bang ? A quel moment précis l'univers a-t-il commencé son envol vers le devenir ? Voici des questions qui nos jours, ne cessent d'intriguer la communauté scientifique.

Conscient du fait qu'aucune expérience possible n'est aujourd'hui en mesure de répondre de façon claire à ces interrogations d'ordre énigmatique, Claude Allègre soutient qu'il faut rattacher à notre appréhension du destin de l'univers, une marge considérable d'incertitude. Il

27 S.W. Hawking, Une brève histoire du temps, Du big bang aux trous noirs, Flammarion, 1989, p 67

écrit : « Certes, il s'est sans aucun doute produit une grande expansion il y a dix à douze milliards d'années, et cette expansion est à l'origine de l'éloignement des galaxies. Mais la nature de cette expansion est pour l'instant du domaine de la spéculation ou, au mieux, du scénario. Tout comme l'est le futur de l'univers. Qu'il soit actuellement en expansion est une réalité physique qui ne semble guère contestable. Mais le sera-t-il indéfiniment. ? » 28. Ce n'est ni à travers la lecture des cartes, ni par l'imagination d'un esprit surhumain, comme celui proposé par la fiction de Laplace, que nous pouvons répondre à ces questions portant sur l'avenir de l'univers.

Sans prétendre répondre de manière ferme à ces interrogations, la cosmologie moderne souligne néanmoins que les réponses à ces questions dépendent d'un certain nombre d'hypothèses, que les astronomes et astrophysiciens ont l'habitude de nommer par le concept de paramètres cosmologiques. Sans prétendre apporter une réponse nette, essayons de voir en quoi consistent ces paramètres cosmologiques généralement regrouper au nombre de trois.

Le premier paramètre appelé paramètre de Hubble, est lié à l'âge de l'univers. Ce paramètre nous renseigne sur le rythme de réalisation des évènements contenus dans l'univers. En effet, ce paramètre détermine le temps que l'univers a pris dans son évolution pour réaliser toutes les formes d'existence observées en son sein. Dans cette logique de mesure d'âge, la cosmologie moderne détermine l'âge de l'univers, dans une fourchette comprise entre dix et vingt milliards d'années.

La question de l'âge de notre univers, est abordée en cosmologie à travers trois méthodes différentes. La première consiste à déterminer l'âge de l'univers d'après le mouvement des galaxies. En effet, tel que défini par Hubble, le mouvement des galaxies présume que la vitesse d'expansion est proportionnelle à la distance à laquelle se situe la galaxie. Il s'ensuit que, si une galaxie est deux fois plus loin de nous qu'une autre galaxie, cela voudrait dire qu'elle s'éloignera de nous deux fois plus vite que la seconde. En appliquant cette méthode aux galaxies les plus lointaines de notre univers observable, la cosmologie moderne détermine, par le calcul des vitesses de ces galaxies, le point zéro correspondant à celui du début de l'univers, à un moment situé entre quinze et seize milliards d'années dans le passé.

La seconde méthode de calcul, s'appuie sur l'âge des plus vieilles étoiles. Il s'agit à travers cette méthode, de déterminer au sein des groupements d'étoiles, la distribution de leurs

28 Claude Allègre, Introduction à une histoire naturelle, Fayard, 2004, p 31

masses. Selon cette méthode, l'âge des plus vieilles étoiles, est approximativement égal, à la durée de vie de la plus grosse survivante. Comme pour la première méthode, celle-ci donne un âge qui varie entre quatorze et seize milliards d'années.

La troisième et dernière méthode, concerne l'âge des plus vieux atomes. Cette méthode qui est la plus technique de toutes les trois, procède par la détermination des demi-vies des atomes. Par définition, la demi-vie d'un atome, est le temps requis pour que dans une population innombrable d'atomes identiques, le nombre de survivants diminue de moitié. Cette méthode postule que l'atome d'hydrogène est le plus vieil atome, suivi de l'hélium puis de l'atome de carbone etc. Comme les deux précédentes, cette troisième méthode donne elle aussi un âge d'environ quatorze milliards d'années. Ces trois méthodes scientifiques, apportent la preuve une fois de plus de la théorie du big bang, vue l'approximation des résultats observés. Sans perdre le fil d'Ariane qui nous lie ici à la problématique du devenir de notre univers, on voit que l'inexactitude des âges, manifestée par l'étude du paramètre de Hubble, est due à notre ignorance concernant la mesure exacte de la profondeur de l'univers.

Quant au deuxième paramètre cosmologique, aussi appelé paramètre de décélération, il postule que toutes les galaxies subissent l'influence de l'attraction gravitationnelle de toute la masse contenue dans l'univers, à savoir celle de la masse visible et celle de la masse invisible. Selon ce paramètre donc, chaque galaxie est plus ou moins freinée dans son mouvement d'éloignement : elle décélère. On voit à travers ce paramètre que le destin de l'univers reste incertain, du fait qu'on n'est pas encore en mesure de déterminer avec exactitude la totalité de la masse de l'univers. Cette ignorance est due au fait que d'une part, nos instruments d'observations ne peuvent voir qu'à une certaine limite de l'étendu de l'univers, et d'autre part, parce qu'il existe une matière que nos méthodes d'observations ne sont pas en mesure de voir. Cette matière étrange est appelée par les astronomes sous le nom de matière noire. C'est dans cette catégorie de matière que son placés les trous noirs,et tout ce qui est de la même nature que ces derniers.

Enfin, examinons le troisième paramètre cosmologique. Ce dernier paramètre est lié à celui dit de décélération. Toutefois, loin de décrire le phénomène de ralentissement de l'univers, ce paramètre s'attaque à ce qui pourrait être la cause même de ce ralentissement. Il s'agit pour ce paramètre, de définir la masse ou plus exactement la densité de l'univers, d'où le nom de paramètre de densité par lequel il est désigné. En effet, selon ce paramètre, si la densité de l'univers est inférieure au nombre critique de trois atomes d'hydrogène par mètre cube, alors

son expansion ne s'arrêtera pas. Mais si au contraire la densité est supérieure à trois atomes d'hydrogène par mètre cube, alors l'univers sera condamné dans le futur à s'effondrer sur luimême. Le big bang, sera suivi par son effet contraire de contraction appelé big crunch, ce qui signifie la grande implosion. Sans être absolues, les études disponibles de nos jours, ont plus tendance à soutenir l'idée d'une expansion infinie, plutôt que celle d'une éventuelle contraction dans le futur. Car des études approximatives faites sur la densité de l'univers, ont tendance à montrer que l'univers est léger, c'est-à-dire qu'il ne comporte pas le nombre des trois atomes d'hydrogène par mètre cube, d'où la conclusion que celui-ci ne risque pas de s'effondrer sur lui-même.

Après avoir fini avec la problématique que soulève le destin de notre univers, essayons d'examiner les arguments soutenus contre la théorie du big bang. Dans cette étude des controverses, commençons par examiner celle soulevée par Albert Einstein. Einstein, est celui qui mit fin au caractère rigide de l'espace tel que celui-ci a été défini par Newton. En effet, Newton affirmait que l'espace et le temps sont des absolus. Ils sont indépendants de la matière qu'ils comportent. Selon lui l'espace et le temps ne sont nullement affectés par le comportement des corps qui se trouvent en leur sein. Selon Newton, le mouvement que la lune fait autour de la terre sur son orbite, est un mouvement qui se détermine par l'équilibre maintenu par deux forces égales et opposées : la force de gravitation par laquelle la Terre attire la Lune, et la force centrifuge par laquelle le lune tente de s'éloigner de la Terre. L'équilibre de ces deux mouvements contradictoires, justifie donc selon lui le mouvement circulaire de rotation que la Lune exerce autour de la Terre.

Einstein s'opposera gravement à cette idée. Selon lui, le Temps, l'Espace et la Matière ne peuvent pas être considérés séparément, ils forment tous ensemble un seul et unique contenu. Einstein va reconsidérer l'exemple cité ci-dessus et dire, que la lune suit son orbite circulaire autour de la Terre, parce que c'est la seule trajectoire possible, dans un espace courbé par la gravité de la Terre. Ainsi, la présence de la matière courbe l'espace qui se situe à son environnement immédiat. L'espace est élastique, il peut s'étirer, se déformer se tordre ou même se contorsionner suivant la gravité. Ce qui implique la formulation de la relativité générale, publiée en 1916 par Einstein.

Cette nouvelle théorie n'a pas convaincu, pendant ses premiers mois, la sensibilité des scientifiques. Il a fallu attendre trois années après sa publication, pour voir se réaliser expérimentalement une des prédictions de cette théorie. En effet, c'est l'astronome royal et

professeur à l'Université de Cambridge, Arthur Eddington qui va, lors de la célèbre éclipse solaire de 1919, observer que la masse du Soleil courbe, comme Einstein l'avait pensé, la trajectoire de la lumière des étoiles lointaines. En effet, celui-ci constate que les rayons de lumières en passant au cours de leur trajectoire près du Soleil, sont légèrement perturbés par la présence du Soleil, d'où ces rayons se trouvent légèrement courbés vers l'intérieur du corps entravant. Cette expérience va une fois de plus rendre plus célèbre Albert Einstein, car sa théorie de la relativité générale est devenue une vérité scientifique approuvée par l'expérience.

Seulement, la relativité générale débouche sur des implications très intéressantes. Ces dernières consistent à dire, que si l'espace de l'univers est en mouvement de par son élasticité, alors l'univers est soit en expansion ou en contraction. Einstein refusera d'accepter cette conclusion, parce qu'il trouve que celle-ci est non seulement contraire à ses conceptions philosophiques, mais aussi et surtout parce que cette conclusion ne correspondait pas à ce qui était observé pas les études astronomiques. Cet attachement à la tradition encore dominée par la croyance à l'univers statique, a poussé Einstein à modifier sa théorie de la relativité générale en y introduisant un concept nouveau appelé, constante cosmologique. Par ce concept, Einstein va conférer à l'espace-temps la propriété de se dilater. Cependant cette tendance innée à s'étendre sera selon Einstein, contre carrée par l'attraction de toute la matière de l'univers ; de sorte que les tendances d'expansion et d'attraction, lorsqu'elles s'annulent dans un équilibre parfait, finissent par maintenir l'univers dans un état statique. Il est possible de dire dés lors que la constante cosmologique, est une sorte de nouvelle force d'anti-gravité. C'est pourquoi, lorsque Einstein apprendra plus tard, la découverte par Hubble de l'expansion de l'univers, il qualifiera son introduction de la constante cosmologique de « plus grosse erreur de sa vie ».

Parallèlement à la théorie du Big bang, d'autres modèles scientifiques d'univers se sont formés et développés. Ces derniers n'ont pas eu les mêmes succès que la théorie du big bang, mais en tant qu'ils sont des hypothèses sur l'univers, ils méritent néanmoins d'être étudier. Parmi ces modèles, nous allons ici retenir le modèle dit d'état stationnaire, parce qu'il est non seulement le plus célèbre mais aussi le concurrent le plus sérieux de la théorie du big bang.

Soutenu vers les années 1948 par Herman Bondi, Thomas Gold et Fred Hoyle, le modèle de l'état stationnaire s'est posé comme une théorie rivale du big bang. Basée sur la notion de principe cosmologique, un des postulats de la relativité, la théorie de l'état stationnaire

postule que l'univers doit être homogène et isotrope, c'est-à-dire identique à lui-même en tout lieu et dans toutes les directions.

Inspiré de l'hypothèse Einsteinienne de la constante cosmologique, la théorie de l'état stationnaire ira beaucoup plus loin que Einstein, et va, à la suite de ce dernier, formuler ce qui est communément reconnu comme étant le principe cosmologique parfait. Selon ce principe, l'univers est immuable aussi bien dans l'espace que dans le temps. Ce modèle conclut que l'univers est de tout temps semblable à lui- même : il est stationnaire. Ainsi donc, la théorie de l'état stationnaire rejette les notions d'évolution et de changement dont nous savons, qu'elles sont au fondement même de la théorie du big bang. En complément nous dit l'astrophysicien anglais Stephen.W Hawking, la théorie de l'état stationnaire suggère que « tandis que les galaxies s'éloignent de plus en plus les unes des autres, de nouvelles galaxies se forment dans les interstices à partir d'une « création continue » de matière. L'univers

aurait donc toujours à peu près la même allure à tous les moments du temps et sa densitéserait en gros constante. »29

Ce modèle de l'état stationnaire va cependant s'opposer aux données de l'expérience. D'abord par son principe de la création continue, ce modèle supposait que les galaxies sont de nos jours plus nombreuses qu'elles ne l'ont été dans le passé ; ce qui vraisemblablement n'est pas vrai si nous nous référons à ce que nous montrent les observations. En effet l'astronome Martin Ryle et ses collaborateurs, ont montré par l'observation des radio sources, que le nombre de galaxies a dû être plus grand dans le passé, qu'il ne l'est actuellement ; observation qui de ce fait contredit le modèle de l'état stationnaire.

La deuxième incohérence dont fait preuve cette théorie de l'état stationnaire, est liée à l'homogénéité prétendue que cette théorie postule. Contrairement à ce qui prétendait l'état stationnaire, à savoir que l'univers est de tout temps semblable à lui-même, Penzias et Wilson prouvent en 1965 que l'univers était très dense et très chaud dans ses premiers moments. La preuve nous disent Penzias et Wilson, c'est que le rayonnement fossile qui baigne l'univers dans toutes ces directions, est une relique de la chaleur infernale qui a accompagné l'avènement du big bang. Cette chaleur dont la température est aujourd'hui de trois degrés absolus, a décru par l'effet de l'expansion de l'univers, qui impose irréductiblement la dilution et le refroidissement. Cette découverte astronomique a donc fini par sonner le glas de

29 S.W. Hawking. Commencement du temps et fin de la physique, Flammarion, 1992, p 106

la théorie de l'état stationnaire. Le big bang s'impose désormais comme la théorie scientifique la plus probable de l'univers.

En effet, malgré la résistance qu'elle a connue chez certains astronomes et astrophysiciens, la théorie du big bang est devenue le nouveau langage commun, la nouvelle représentation du monde ; en un mot la mélodie la plus récente de l'histoire de la musique de l'univers. En moins d'un demi-siècle, la théorie du big bang est devenue le paradigme de la cosmologie moderne, c'est-à-dire la théorie à partir de laquelle sont conçus et planifiés les projets et les observations astronomiques. Cette théorie du big bang doit son charme sans aucun doute, à la capacité qu'elle a de prédire et de rendre cohérentes, toutes les découvertes et observations scientifiques. Parmi les prédictions et les faits que la théorie du big bang permet d'expliquer on peut citer : la permanence du rayonnement fossile, l'abondance de l'hélium dans l'univers, la quasi correspondance entre les âges, des plus vieilles étoiles et des plus vieux atomes, la fuite des galaxies etc. à ce propos nous pouvons affirmer : « Avec le big bang, l'univers prend une dimension historique. On peut parler maintenant d'une histoire de l'univers, avec un commencement et une fin, un passé, un présent et un futur. L'univers Newtonien statique, immuable et dépourvu d'histoire est relégué au rang des univers moribonds »30

De même que la conception historique de l'univers a mis fin à l'univers statique et éternel de la mécanique classique, de même la théorie du big bang a aussi mis fin à l'image réversible du temps, soutenue par la dynamique newtonienne. Désormais on sait qu'à tous les égards, la nature comporte une flèche du temps unidirectionnel. Le temps est irréversible. La distinction entre passé, présent et futur n'est pas seulement un constat psychologique comme le croyait Saint Augustin, elle est un phénomène profondément réel.

II-2 / Le temps retrouvé

Nos réflexions sur le temps sont presque toujours confuses, sans doute, parce que nous ne savons pas trop de quel type d'objet il s'agit. Au fait, Qu'est-ce que le temps ? Posée à chacun d'entre nous, la réponse à cette question paraît facile et évidente pour tout le monde. Une opinion courante nous incline à croire connaître le temps. Parce que nous sommes tous

30 Thrinh Xuan Thuan, La mélodie secrète, Gallimard, 1991, p 107

familiers à ce concept, chacun semble comprendre de quoi il s'agit lorsque le mot temps est prononcé. Cependant, nul n'est en mesure de dire avec certitude ce que cette notion recouvre. Le temps est-il une chose ? Est-il une idée ? Est-il une apparence ? N'est-ce qu'un mot ? Existe-t-il vraiment ? Voici les différentes interrogations sous lesquelles se posent les difficultés, que suscite la notion de temps. Toutefois le sentiment de maîtrise et de sûreté qui semble nous habiter lorsque nous appréhendons cette notion, devrait suffire à résoudre une fois pour toutes les interrogations qu'elle soulève.

En effet, même si l'intuition du temps qui passe est un phénomène universel, la définition du temps semble être au-delà de nos capacités intellectuelles. Généralement posé comme l'une des questions fondamentales de la métaphysique, le temps se trouve à la croisée des chemins entre la physique et la métaphysique. Ce caractère ambigu et peu confortable de la notion du temps, inspira une célèbre boutade à Saint Augustin. Pour ce père de la théologie chrétienne, le temps est une création de Dieu au même titre que l'espace, d'où il le situait dans une dimension existentielle distincte de l'éternité que le contenait. Saint Augustin reconnaissait en fait que le temps est un absolu certes, mais quant à dire ce qu'il est au juste, ce théologien semble incapable de le savoir. Ainsi dans le livre onze de ses Confessions,il s'interrogea en ces termes : « Qu'est-ce que le temps ? Si personne ne me le demande, je le sais ; mais si on me le demande et que je veuille l'expliquer, je ne le sais plus ! Et pourtant, je le dis en toute confiance, je sais que si rien ne se passait, il n'y aurait pas de temps passé, et si rien n'advenait, il n'y aurait pas d'avenir, et si rien n'existait, il n'y aurait pas de temps présent. Mais ces deux temps, passé et avenir, quel est leur mode d'être alors que le passé n'est plus et que l'avenir n'est pas encore ? Quant au présent, s'il était toujours présent sans passer au passé, il ne serait plus le temps mais l'éternité. Si donc le présent, pour être du temps, ne devient tel qu'en passant au passé, quel mode d'être lui reconnaître, puisque sa raison d'être est de cesser d'être. »31

Ainsi, il semble que le temps soit rebelle à toute tentative d'explication. Son écoulement passe de manière si rapide, que l'homme se trouve dans l'incapacité de le saisir. Ne pouvant dès lors avoir la grappe mise sur cette notion complexe, l'esprit humain reste ballotté entre les différents instants qui composent le temps à savoir : le moment passé, le moment présent et le moment futur. Dans la vie quotidienne, le temps est perçu sous deux aspects qui recouvrent, d'une part, la notion de durée et, d'autre part celle d'orientation. En tant que durée, le temps a

31 Saint Augustin, Les confessions, Flammarion, Paris, 1964, p 264

à peu près la même signification pour tout le monde. Il définit dans ce cas, la quantité de durée séparant deux évènements. Par contre, conçu en tant qu'orientation, la notion de temps traduit l'irréductible flux de son mouvement. C'est par ce caractère, que nous pouvons, faire la distinction entre un moment présent et le moment passé qui l'a précédé, tout autant il en est de même entre un moment présent et celui qui va lui succéder.

Toutefois, il faut souligner que la notion de temps va revêtir, au cours de l'histoire de la philosophie, plusieurs interprétations, que nous allons ici retracer de manière très brève. Dans l'antiquité déjà, Parménide et après lui Platon considéraient le temps comme une entité immobile. Il est l'image mobile de l'éternité comme le disait Platon. Après ces derniers, Aristote va lui aussi s'intéresser à cette notion. Dans ses réflexions, Aristote définit le temps comme étant le nombre du mouvement selon l'avant et l'après. Le temps est une qualité, et il ne peut être saisi que par la mesure des durées perçues.

Cette conception aristotélicienne va presque valoir jusqu'au XVII ème siècle. A cette époque, le développement de la mécanique amorcé d'une part par Descartes, et d'autre part par les travaux de Galilée sur la chute des corps, va se poser comme le point de rupture avec la physique traditionnelle. Des études sur le mouvement ont radicalement modifié la conception du temps depuis Aristote. A l'époque de celui-ci, il était réductible à la qualité et irréductible à la quantité ; ce qui n'est plus le cas. En effet, tout le 17ème siècle va, avec le paramètre du mouvement, reprendre la conception de Saint Augustin et montrer, que le temps n'existe que par le changement qui s'opère dans le mouvement de l'être. C'est dans cette mouvance intellectuelle, que peuvent être classés des auteurs tels que Newton, Leibniz, Kant, Hegel et même dans une certaine mesure Henri Bergson. Cette époque marque la dichotomie entre la notion de temps abstrait,et celle de durée sensible.

C'est avec Newton, que nous allons assister au véritable rejet du temps vulgaire et empirique, et épouser l'idée d'un temps abstrait, absolu et mathématique. Le temps devient une notion homogène, indépendante de toutes les choses qui peuvent s'y dérouler. A cette période, même acceptant l'idée que les évènements se déroulent dans le temps, ces derniers ne l'influencent nullement. Pendant la même époque, Leibniz, celui-là même qui a été l'adversaire et le concurrent intellectuel le plus en vue de Newton, postulait que le temps est de l'ordre des choses successives. Il n'a pas de sens en dehors des phénomènes. A côté de ces deux conceptions, s'ajoutent celles de Kant et de Hegel. Selon Kant, le temps est une forme à priori de la sensibilité, une condition préalable à toute expérience. Quant à Hegel, il met

l'accent non pas sur le temps en tant que tel, mais sur la manière avec laquelle il se manifeste, manière qu'il appelle la temporalité. Hegel définit le temps comme étant le passage du passé à l'avenir à travers le présent. Il est ce mouvement qui, dans la réalisation du phénomène, oppose en les niant, les diverses phases d'évolution de l'être. Le temps est à la fois ce qui pose et oppose l'être à sa propre réalité.

Pour finir cette brève histoire de la pensée du temps, il importe de noter l'impact de la pensée de Bergson. En effet, Bergson oppose le temps à la durée. Selon lui l'opposition entre le temps et la durée, peut se comprendre par le fait que la durée, en tant que phénomène mental, traduit la conscience que nous avons de l'écoulement du temps. Celle-ci est strictement distincte du temps qui lui, traduit la projection de cette durée dans l'espace physique. Le temps est de ce fait un flux irréversible, il est créatif parce qu'il est toujours gros

de l'avenir. Il nous est donné de lire sous la plume de Bergson, « Le temps est invention ou iin'est rien du tout. Mais du temps-invention la physique ne peut pas tenir compte, astreinte

qu'elle est à la méthode cinématographique. Elle se borne à compter les simultanéités entre les évènements constitutifs de ce temps et les positions du mobile T sur sa trajectoire. Elle détache ces évènements du tout qui revêt à chaque instant une nouvelle forme et qui leur communique quelque chose de sa nouveauté. »32. Par cette citation Bergson énonce, l'incapacité pour la science de considérer le temps dans son mouvement de flux irréversible. Cette incapacité a conduit la physique à substituer la notion de temps-invention par celle de temps-longueur, ce qui justifie la conception réversible que cette science soutenait à l'égard du temps. La notion d'irréversibilité était donc étrangère à la science.

L'irréversibilité est devenue objet d'étude scientifique, à partir du 19ème siècle, plus précisément avec l'avènement de la thermodynamique. Définie comme étant la science qui étudie les propriétés de la chaleur, la thermodynamique a en fait vu le jour avec les travaux de Sadi Carnot, publiés en 1824 sous le titre de Réflexions sur la puissance motrice du feu. En effet, Carnot montre dans cet écrit que « La puissance motrice de la chaleur est indépendante des agents mis en oeuvre pour la réaliser ; sa quantité est fixée uniquement par les températures des corps entre lesquels se fait en dernier résultat le transport du calorifique. ». Carnot avait pour ambition première de voir comment on pouvait améliorer le développement et la vitesse des machines à vapeur, dont l'industrie était en plein essor en ce temps. En fait, il

32 H. Bergson, L'évolution créatrice, PUF, 1941, p 341

montre qu'il est impossible de construire un engin qui pourrait transformer en travail, l'énergie calorifique fournie par une seule source de température uniforme.

Sûr de cette idée, Carnot énonce sous forme de propositions, deux principes scientifiques, qui seront retenus comme étant les principes de la thermodynamique. Le premier principe postule que la chaleur et le travail sont deux formes équivalentes de l'énergie. Quant au second, plutôt issu de ses observations, il postule qu'une machine thermique ne fonctionne que si elle rétrocède un minimum de la chaleur reçue d'une source chaude, à une source froid. Ce second principe, recevra plusieurs formulations équivalentes desquelles on peut noter la formule simplifiée que Kelvin énonce en ces termes : « La chaleur va spontanément du chaud vers le froid. »

Énoncés depuis 1824, ces deux principes de la thermodynamique connaîtront avec Clausius une formulation plus simple. En effet, Clausius montre que la fonction des paramètres du système nommée par ailleurs entropie, c'est-à-dire la mesure du désordre contenu dans un système ; augmente toujours au cours du temps jusqu'à atteindre sa valeur maximale à travers laquelle, le système reste dans un état d'équilibre thermodynamique.

Étendus à tout l'univers, les principes de la thermodynamique tels que reformulés par Rudolf Clausius, présument pour le premier que l'entropie du monde est constante, et pour le second que l'entropie du monde tend vers un maximum. Au-delà de ce que nous venons de noter, Clausius montre aussi que dans un système isolé, constitué de deux fanges à températures initialement différentes, il est impossible que la plus froide transmette de la chaleur à la plus chaude, sans une intervention extérieure. Il y a donc selon lui, une irréversibilité dans les échanges de chaleur entre des corps à températures différentes. En effet souligne Clausius, lorsque deux corps de températures différentes passent par échanges de chaleur, de leurs températures initiales à des températures plus ou moins semblables, ces derniers ne pourront plus rejoindre leurs températures initiales. Ce transfert est irréversible.

Cette affirmation de l'irréversibilité va rendre certains esprits perplexes. Elle sera la cause de plusieurs controverses, dont les plus hardies ont été, selon notre avis, celles soutenues dans les années 1874 et 1876 par William Thomson et Loschmidt. En effet, les interrogations qui intriguaient les esprits de ces derniers, consistaient à se demander : comment peut-on expliquer le fait qu'une dynamique réversible puisse engendrer à l'échelle macroscopique des processus irréversibles ? On se souvient que cette question avait aussi été

l'énigme que Ludwig Boltzmann s'était proposé de résoudre. Ce dernier voulait expliquer l'irréversibilité des processus thermodynamiques, en des termes réversibles tels que décrits par la dynamique classique. En effet, Boltzmann montre que dans une population nombreuse de particules, l'effet des collisions peut donner un sens à la croissance de l'entropie, c'est-àdire à l'irréversibilité thermodynamique. Il affirme que l'effet des collisions, modifie les positions et les vitesses des particules contenues dans un système isolé.

Par ailleurs, Boltzmann postule que le mouvement des collisions, décroît de façon monotone au cours du temps, jusqu'à atteindre un minimum. Une fois ce minimum atteint, il se réalise au sein du système, une distribution des positions et des vitesses des particules, qui dès lors restent constantes parce que ne pouvant plus être modifiées par de probables collisions ultérieures. Cependant, contraint par de multiples objections, venant essentiellement des défenseurs de la dynamique classique, Boltzmann va finalement renoncer à son projet d'explication de l'irréversibilité. Il supposera en définitive que l'irréversibilité ne renvoie pas aux lois fondamentales de la nature, mais à notre manière grossière, c'est-à-dire macroscopique, de la décrire. Selon lui « A chaque évolution dynamique correspondant à une croissance de l'entropie, l'égalité entre cause pleine et effet entier permet de faire correspondre l'évolution inverse, qui la ferait décroître : c'est l'évolution qui restaurerait les « causes » en consommant les « effets. » 33 Après l'échec de Boltzmann, la physique va se tenir à cette interprétation dynamique, qui en fait, détruit le caractère irréversible du temps.

Cependant, quelques années après les travaux de Boltzmann, Einstein va formuler la théorie de la relativité dite restreinte qui va au fil des années enchanter le monde de la science. Avant Einstein, on pensait que le temps objectif était fixe, toujours le même. On pensait que seul le temps subjectif était variable, dépendant de l'état d'esprit de la personne qui l'observe.

En effet, les travaux d'Einstein sur la relativité ont pour conséquence, non seulement le fait que le temps objectif est variable, sinon en plus, qu'il est impossible de définir le temps objectif. Le temps est relatif et varie en fonction de la vitesse et des champs d'accélération locaux que sont par exemple, la gravitation, les changements de vitesse ou de direction etc. Pour cette raison, on ne peut jamais parler de simultanéité dans l'univers. Entre autre conséquence, il y a le fait que par la théorie de la relativité, Einstein remplace l'espace plan de la géométrie euclidienne, par un espace courbe. Tout comme l'espace, le temps est aussi

33 Prigogine et Stengers, Entre le temps et l'éternité, Flammarion, 1992, p27

élastique. Il s'étire ou se raccourcit selon le mouvement de l'observateur. Dès lors, le temps unique et universel soutenu par la physique newtonienne, est remplacé par une multitude de temps individuels, tous différents les uns des autres.

Après ses succès réalisés avec la relativité restreinte, Einstein va en 1915 porter un nouveau coup dur à l'encontre de la mécanique classique. En effet, Einstein montre par la formulation de la relativité générale, qu'espace, temps et matière ne peuvent exister séparément. Ils forment tous ensemble une seule réalité indivisible. Einstein montre par la théorie de la relativité générale que l'espace-temps varie suivant la quantité de matière présente aux environs. Autrement dit, il montre que la présence de la matière déforme l'espace qui, lui-même par sa courbure, ralentit plus ou moins le temps. En définitive, il faut dire qu'en niant la simultanéité absolue du temps, Einstein pose la possibilité de l'affirmation d'une distinction entre l'avant et l'après. L'irréversibilité n'est plus limitée à un phénomène mental, elle n'est plus le signe de notre ignorance face à la réalité.

Pour revenir à notre notion d'irréversibilité, il faut dire que c'est avec la science de la thermodynamique, que l'irréversibilité a intégré les champs de la science. Parti originairement de la chimie, le concept d'irréversibilité va petit à petit conquérir tous les domaines de la science. Dans le domaine de la chimie, Jean Joseph Fourier montre, dans sa théorie de la propagation de la chaleur dans les solides, que le flux de la chaleur entre deux corps est proportionnel au gradient de température entre ces deux corps. Cette loi au caractère irréversible, sera confirmée et consolidée par l'énonciation du second principe de la thermodynamique. Il est possible de dire, que c'est le second principe de la thermodynamique qui a introduit la notion du temps dans le domaine scientifique. Toutefois, il faut signaler tout de même que l'image de l'irréversibilité temporelle, a au cours de l'évolution de la science connu différentes interprétations.

Tout d'abord, le temps s'introduit avec l'idée de la croissance continue de l'entropie. Originairement formulée par Clausius, la croissance de l'entropie se fait sous la forme d'une évolution qui se dirige progressivement vers l'homogénéité et la mort thermique. Dans ce cas, le temps produit certes, une asymétrie de forme, mais cette dernière finit par s'annuler sous une nouvelle forme d'équilibre, où le système retrouve son identité. Avec le temps cette idée sera abandonnée. En effet, lorsqu'on a découvert par les travaux de Hubble, Penzias et Wilson, que l'univers était en expansion, on commença à comprendre que l'univers n'est pas un système fermé, mais qu'il est au contraire ouvert vers le futur. Dès lors, la science va

réintégrer le second principe de la thermodynamique, en y montrant l'émergence d'ordre qui se traduit dans l'univers par la production de nouveauté.

Désormais, on montre que l'entropie augmente continuellement, sans atteindre un état d'équilibre final. Car tout en s'amplifiant, le désordre de l'univers crée dans certaines localités, des poches d'ordre qui se manifestent à l'échelle macroscopique par l'apparition des formes nouvelles. En guise d'illustration, nous recouvrons « L'entropie devient ainsi un indicateur d'évolution, et traduit l'existence en physique « d'une flèche du temps » pour tout système isolé, le futur est la direction dans laquelle l'entropie augmente. »34

Avant de continuer, arrêtons-nous un peu, et expliquons ce que signifie la notion de flèche du temps. C'est le physicien Anglais Arthur Eddington qui a équipé le temps d'une emblème : la flèche. Tirée de la civilisation de la Grèce antique, la mythologie grecque attribuait la notion de flèche à Eros, le dieu de l'Amour, généralement représenté comme un enfant fessu et ailé qui blesse les coeurs des hommes de ses flèches aiguisées. En effet, Eddington va reprendre cette belle image de la mythologie et l'adapter à la science. La flèche du temps ne symbolisera plus le désir amoureux, mais plutôt le sentiment tragique que nous éprouvons tous d'une fuite inexorable du temps. Pour les physiciens, la flèche du temps se traduit par l'irréversibilité de certains phénomènes physiques, comme par exemple la chute d'un coco du haut d'un cocotier vers le sol. Ce mouvement est dit irréversible parce qu'on a jamais vu, et on ne l'imagine même pas, un coco quitter la terre, où sa chute l'a conduit, résister à la pesanteur pour rejoindre la place qui était la sienne sur le cocotier. Ce phénomène digne d'un miracle, même s'il s'avère possible dans l'entendement d'un fervent croyant à l'omnipotence de Dieu, est radicalement impossible à l'égard des lois physiques.

Pour revenir à notre idée de départ, qui nous a conduit à la notion de l'entropie, attardons nous un peu sur la thermodynamique. Comme toutes les sciences, la thermodynamique a aussi eu une histoire. En effet, le développement de la thermodynamique s'est fait suivant trois étapes différentes que sont : la thermodynamique d'équilibre, la thermodynamique linéaire et la thermodynamique de non équilibre.

Dans la thermodynamique dite d'équilibre, la production d'entropie est nulle à l'équilibre. Cette thermodynamique correspond aux systèmes isolés et fermés. Quant à la thermodynamique dite linéaire, la production d'entropie est dans ce cas faible, de telle sorte

34 Prigogine et Stengers, La nouvelle alliance Gallimard, 1986, p 189

qu'il est possible de décrire des comportements stables et prévisibles. Ce qui caractérise cette thermodynamique dite linéaire nous dit Prigogine, c'est que quelque soit sa situation initiale, le système considéré atteint finalement un état déterminé par ses conditions aux limites. Sa réaction à un changement de conditions, devient elle aussi prévisible. Enfin ,nous allons pour finir avec cette distinction, voir le cas de la thermodynamique non linéaire. Aussi appelée thermodynamique de non équilibre, la thermodynamique non linéaire se caractérise par le fait que, « la production d'entropie continue à décrire les différents régimes thermodynamiques, mais elle ne permet plus de définir un état attracteur, terme stable de l'évolution irréversible. i5. Loin de l'équilibre, la stabilité du système ne peut en aucun cas être prédite par ses conditions initiales. C'est donc avec la thermodynamique de non équilibre, que la notion d'irréversibilité va jouer son plein rôle.

Dans la thermodynamique non linéaire, les structures dissipatives vont occuper une place fondamentale dans la forme de l'évolution du système. La structure dissipative se définit comme étant un ensemble chimique, qui se maintient et s'organise en dehors de l'équilibre thermodynamique. Contrairement à la manifestation du second principe de la thermodynamique lorsqu'il est appliqué à un système fermé, la structure dissipative représente un système ouvert, caractérisé par le fait qu'il est constamment traversé par un flux de matière et d'énergie, ce qui lui permet de diminuer son entropie et de s'organiser.

En effet la notion d'irréversibilité diffère en fonction que nous passons de l'interprétation d'un système isolé fermé, à celui d'un système ouvert comme celui représenté par une structure dissipative. Dans un système isolé, l'état d'équilibre auquel aboutit l'évolution progressive du système est un état stationnaire, ce qui représente un cas particulier de la thermodynamique. Dans un tel cas, l'équilibre thermodynamique s'explique par le fait que l'entropie ne varie pas au cours du temps. Tandis que dans les processus dissipatifs, loin de l'équilibre, la variation de l'entropie à l'intérieur du système thermodynamique se constitue de deux manières : «...l'apport « extérieur » d'entropie qui mesure les échanges avec le milieu et dont le signe dépend de la nature de ces échanges, et la production d'entropie, qui mesure les processus irréversibles au sein du système. »36. Ce qui veut dire que l'état d'équilibre correspond au cas particulier où les échanges, avec le milieu ne font pas varier l'entropie. De cela il en ressort que la production d'entropie est par conséquent nulle.

35 Prigogine et Stengers, La nouvelle alliance, Gallimard, 1986, p 212

36 Prigogine et Stengers, Entre le temps et l'éternité Flammarion, 1992, p 49

Nées de l'instabilité, les structures dissipatives, intrinsèquement régies par une série de bifurcations, se caractérisent par leurs capacités à créer le désordre. Toutefois, lorsque ces structures sont posées dans des conditions de non équilibres, ces dernières constituent une source d'organisation. Pour mieux comprendre cette idée, considérons les explications faites dans ce sens par Prigogine et Isabelle Stengers concernant le système dit de tourbillon de Bénard. En effet, ces deux scientifiques montrent que « Les cellules de Bénard constituent un premier type de « structure dissipative », dont le nom traduit l'association entre l'idée d'ordre et l'idée de gaspillage et fut choisi à dessein pour exprimer le fait fondamental nouveau : la dissipation d'énergie et de matière, généralement associée aux idées de perte de rendement et d'évolution vers le désordre, devient, loin de l'équilibre, source d'ordre ; la dissipation est à l'origine de ce qu'on peut bien appeler de nouveaux états de la matière. »37

La symétrie du temps, celle-là même qui caractérise les systèmes d'équilibre, est brisée dans la thermodynamique de non équilibre. Dans les systèmes loin de l'équilibre, les fluctuations que subissent ces derniers, font apparaître une diversité d'états stables possibles. Lorsque ces états stables atteignent au cours de leur organisation leur seuil critique, ils introduisent au sein même du système, un élément irréductible d'incertitude. Poussé jusqu'à un tel niveau d'organisation, le système adopte, en fonction de la nature des fluctuations, l'un des états macroscopiques possibles.

Un tel processus est ce que l'on nomme en physique une bifurcation, qui se définit comme étant le point critique à partir duquel un nouvel état de la matière devient possible. C'est ce processus qui régit en fait, toutes les formes d'évolution observées dans la nature, allant de la formation des étoiles et galaxies à l'apparition de l'homme sur Terre. Ainsi apparaît-il, que c'est avec le développement de la physique des processus de non équilibre, que l'irréversibilité sera réellement considérée comme un phénomène naturel. Longtemps reléguée dans le domaine de la phénoménologie, la notion d'irréversibilité n'est plus une propriété introduite par notre ignorance ; mais révèle plutôt la marque de la réalité. Autrement dit, ce n'est pas nous qui produisons l'irréversibilité en ce sens qu'elle serait le fruit de notre imagination, mais c'est elle qui nous a produit en ce sens que nous sommes ses enfants. Prigogine écrit, « L'irréversibilité ne peut plus être identifiée à une simple apparence qui

37Prigogine et Stengers, La nouvelle alliance, Gallimard, 1986, pp 215-216.

disparaîtrait si nous accédions à une connaissance parfaite. Elle est une condition essentielle de comportements cohérents dans des populations de milliards de milliards de molécules. » 38

L'affirmation en des termes scientifiques de l'irréversibilité, va donner à la physique une nouvelle orientation. Désormais la science va concevoir la flèche du temps, sans pour autant réduire celle-ci au caractère approximatif de notre description de la nature. En effet, ,contrairement à la physique classique qui, basée sur la dynamique newtonienne, limitait la nature à des observations réversibles, la physique moderne nous montre que la nature présente à la fois des phénomènes réversibles et des phénomènes irréversibles; seulement ceux qui sont irréversibles forment la règle de la nature, tandis que les autres n'en sont que de rares exceptions, qui ne s'appliquent qu'à quelques cas particuliers.

Autre fait important, c'est que l'irréversibilité, longtemps liée à la production de désordre, va petit à petit, et surtout avec l'avènement des structures dissipatives, se poser comme étant une condition à l'émergence d'ordre. On reconnaît maintenant avec le développement de la thermodynamique des processus de non équilibre, que l'irréversibilité mène à la fois au désordre et à l'ordre. Ainsi « Nous pouvons affirmer aujourd'hui que c'est grâce aux processus irréversibles associés à la flèche du temps que la nature réalise ses structures les plus délicates et les plus complexe. La vie n'est possible que dans un univers loin de l'équilibre. » 39. Dire que la science de la thermodynamique a fini par remettre en cause le fameux postulat de l'ordre, longtemps soutenu pas la science classique, n'est pas une aberration.

En effet, contrairement à la science classique qui affirmait que l'univers était rigoureusement ordonné dans son essence même, le second principe de la thermodynamique, postule que l'entropie - la mesure du désordre - de l'univers doit toujours augmenter vers un maximum. Cet énoncé révolutionnaire peut paraître à certains égards, contradictoire à la réalité, en considération selon l'organisation et la complexité de notre univers. Cependant, il n'en n'est rien de tout cela. L'organisation de l'univers est bel et bien conforme avec le second principe de la thermodynamique. Car la thermodynamique n'interdit pas, qu'en certains endroits particuliers et privilégiés, l'ordre s'installe, que les structures s'organisent, que la complexité se construise, que la conscience émerge. Sans l'existence du désordre, l'univers ne connaîtrait aucun coin d'ordre, et il n'y aurait aucune vie, pas moins la moindre

38 I. Prigogine, La fin des certitudes, Odile Jacob, Paris, 1998, p 12

39 Prigogine, La fin des certitudes, Odile Jacob, Paris 1998, pp 31-32

trace de l'établissement d'une conscience. C'est ce que Trinh montre lorsqu'il écrit : « L'ordre que représente la vie sur Terre n'est possible que grâce au désordre plus grand que crée le Soleil en convertissant les atomes d'hydrogène en énergie, lumière et chaleur. Toutes les structures de l'univers, galaxies ou planètes, doivent leur existence à deux facteurs : l'expansion de l'univers et la création de désordre par les étoiles. L'expansion de l'univers est essentielle pour refroidir le rayonnement fossile et créer un déséquilibre de température entre les étoiles et l'espace qui les entoure. Ce déséquilibre permet à son tour aux étoiles de se transformer en machines à fabriquer du désordre. Celles-ci rejettent leur lumière chaude désordonnée dans la lumière plus froide et plus ordonnée qui les enveloppe. Le désordre se communique de la lumière chaude à la lumière froide, le désordre total augmente et des coins d'ordre peuvent surgir sans violer la deuxième loi de la thermodynamique. »40. Ainsi donc, la complexité et l'organisation peuvent spontanément surgir dans un univers en expansion et inventeur de nouveauté. Dès lors, l'hypothèse du Dieu horloger, qui a inspiré les travaux de Leibniz et Newton, ne semble plus être nécessaire.

Avec la physique moderne et plus précisément avec les avènements de la théorie de la relativité, de la cosmologie moderne et de la thermodynamique, la pensée du temps revêtira un nouveau visage. La découverte de la flèche du temps voyageant vers la même direction, va faire voler en éclats l'image réversible que la physique newtonienne avait donné à la notion de temps. L'irréversibilité ne se limite plus à déterminer le monde microscopique, elle permet aussi à expliquer notre univers, de sa naissance présupposée avec le big bang à sa structure actuelle. Observant la complexité et la diversité des structures du réel, nous pouvons en conclure l'idée d'après laquelle : « Il est nécessaire à la cohérence de notre position que la flèche du temps, la différence entre le rôle joué par le passé et par le futur, fasse partie de la cosmologie puisqu'elle constitue un fait universel, partagé par tous les acteurs de l'évolution cosmique. »41

Pour clore ce chapitre nous allons après avoir révélé la problématique liée à la pensée du temps, essayer de voir les enjeux qui restent liés au problème de son commencement. Dans le chapitre huit de son ouvrage intitulé La fin des certitudes, Prigogine posait cette question en ces termes : le temps précède-t-il l'existence ? En effet dit Prigogine, si notre univers a une origine et un commencement situés dans le temps, ce temps auquel correspond cette origine,

40Trinh xuan thuan, La mélodie secrète, Gallimard, 1991, pp 303-304 41 Prigogine, La fin des certitudes, Odile Jacob, Paris, 1998, p 221

ne devrait-il pas lui aussi avoir logiquement existé à un moment donné qui correspondrait à son commencement.

A ce propos Saint Augustin, ce théologien dont la pensée du temps avait bouleversé l'esprit, considérait que le monde n'a probablement pas existé dans le temps, mais avec le temps. Selon cet homme de l'Eglise, le monde et le temps sont co-existentiels, d'où il les situ en un lieu hors de l'existence de Dieu. Dieu, en tant qu'il transcende le temps, se situe en dehors du temps, il est éternel. La question de l'origine du temps, se trouve donc à point nommé entre la réflexion philosophique et les déductions scientifiques.

Poser la question de savoir où commence le temps, revient à se demander la question tant débattue en science, qu'est celle de l'âge de l'univers. En effet, jusqu'à nos jours, aucune théorie scientifique n'est en mesure de déterminer avec précision l'âge de l'univers, même si on sait que la cosmologie contemporaine fixe celui-ci dans une tranche comprise entre dix et vingt milliards d'années. Il y a toujours une incertitude qui reste attachée à toute tentative d'approximation de cet âge. La théorie de la relativité, celle-là même qui sert de base à la cosmologie moderne, se heurte, dans sa tentative de reconstruction des premiers moments de l'univers, à une limite au-delà de laquelle rien n'est donné ; mieux encore, une limite où rien ne peut être connu de manière scientifique. Ce milieu dit-on, correspond à un milieu quantique très dense au point que toutes les hypothèses de la relativité perdent pied. Ce milieu a selon les physiciens une densité de l'ordre de 1096 kg m1-3, densité qu'on s'accorde à nommer en terme scientifique, densité de Planck, en référence au physicien Max Planck. En remontant le temps, ce lieu d'incertitude correspond au temps évalué à 10 - 43 secondes, c'està-dire aux tous premiers instants qui ont suivi le big bang.

A cause de ces deux entraves épistémologiques, la science ne peut plus parler de l'origine de l'univers. Cette question dont on a voulu faire l'objet de la cosmologie, se rebelle et réclame son incompatibilité avec toute tentative de conceptualisation. En effet, nous dit Marc Lachize-Rey « Nous sommes clairement dépourvus du cadre conceptuel permettant de parler d'une éventuelle naissance, d'une création de l'univers. Le processus fondateur de l'univers, s'il en existe un, n'a pu se dérouler dans le cadre de l'univers puisqu'il a abouti, précisément, à créer ce cadre. Il n'a pu se dérouler dans le temps puisque l'existence du temps implique déjà celle de l'univers. Imaginer le contraire conduit vite à des paradoxes, d'ailleurs reconnus depuis longtemps. S'il y avait eu quelque chose (ne serait-ce que le temps) avant le « début » de l'univers, l'univers eût été déjà là, par définition. Il ne se serait

donc pas agi de son début. Si l'on veut aborder ces concepts, il faut se placer d'un point de vue « hors du temps ». Mais la science - et c'est peut-être sa barrière la plus fondamentale - ne peut rien nous dire de l'intemporel. » 42. L'origine du temps n'est donc pas l'objet de la science, d'où celle-ci ne devra s'occuper que de son commencement.

La question du commencement du temps se retrouve en filigrane dans toute l'oeuvre de l'astrophysicien anglais Stephen Hawking. En effet, fasciné par la question des origines, cet homme a tourné son oeuvre entière autour des thèmes des origines, des singularités, du temps, et dans une certaine mesure du caractère inévitable des lois qui décrivent l'univers. Même en relativité générale, cette science qui contrairement à la théorie gravitationnelle, s'occupe des champs à très haute énergie, le temps perd toute signification lorsque nous remontons vers une singularité comme le big bang. Avec la forte densité de la matière et sa température infiniment chaude, l'espace-temps compris dans un tel milieu quantique devient infiniment courbe. Or, écrit Hawking « Et comme toutes les théories scientifiques actuelles sont formulées sur une base spatio-temporelle, ces théories aussi cessent de s'appliquer à ces singularités. Si bien qu'à supposer qu'il y ait des évènements antérieurs au Big bang, on ne pourrait pas prédire à partir de ces évènements l'état actuel de l'univers, parce que la prédictibilité serait rompue au moment du Big bang. »43

A partir de là nous pouvons qu'il n'est pas non plus possible, de déterminer ce qui s'est passé avant le big bang, en partant de la connaissance des faits qui l'ont succédé. L'existence où non d'évènements antérieurs au big bang est purement métaphysique, en ce sens que même s'ils ont existé, ils n'ont aucun effet sur l'état actuel du monde. C'est ainsi que l'on peut affirmer avec Stephen Hawking, que le temps a commencé avec le big bang. Et la fin du temps, si elle est un phénomène possible, adviendra avec l'avènement de ce que l'on appelle par opposition au big bang, le big crunch ce qui signifie la grande implosion. Un tel phénomène de la fin du temps sera identique à celui que l'on observe aux alentours des trous noirs. En effet, un trou noir est une région de l'espace qui reste invisible aux observateurs lointains, parce que le champs de gravitation y est suffisamment intense au point que rien ne puisse s'en échapper, pas même la lumière.

Pour clore cette idée de l'origine ou du commencement du temps, essayons de voir ce qu'en dit Alain Bouquet. Ce physicien écrit, dans la présentation qu'il a faite à l'ouvrage,

42 Klein et Spiro, Le temps et sa flèche « A la recherche du temps cosmique » Flammarion, 1996, p 92

43 S. Hawking, Commencement du temps et fin de la physique ?, Flammarion, 1992, p 104

Commencement du temps et fin de la physique ? de Hawking, ceci : « Au moment du Big bang, le temps est créé en même temps que l'espace et l'énergie, et inversement, c'est pour cela qu'il perd son sens près d'une singularité. Dans un univers dépourvu de singularité grâce à une « régularisation » quantique aussi bienfaisant qu'hypothétique, ce problème-là ne se pose plus. Tous les points de l'espace et du temps sont aussi réguliers les uns que les autres, il n'y a plus d'instant privilégié, distingué des autres. »44

II-3 /Evolution et structures émergentes

Le XXème siècle marque en l'homme, la prise de conscience de sa situation et de son isolement dans l'univers immense et mystérieux. Jusqu'au XIXème siècle, l'homme ne savait pas du tout où il était ni même d'où il venait. Au 17ème siècle déjà, la découverte de l'infinité de l'univers, celle-là même qui a brisé les sphères fixes établies par Aristote, avait rendu Pascal perplexe. L'homme, cet être qui croyait occuper les centres de l'univers et de la création, s'est vu ballotté dans un petit coin fini et insensé aux yeux de l'infinité de l'univers. L'homme on le sait aujourd'hui, est perdu dans un espace étroit de la banlieue de notre galaxie, la voie lactée, qui elle-même ne représente qu'un grain de sable insensible, dans l'immense plage de notre espace cosmique. Dans les Pensées Pascal se demandait « Qu'est-ce que l'homme dans la nature ? [Il répond] un néant à l'égard de l'infini, un tout à l'égard du néant en somme, un milieu entre rien et tout. » Toutes ces questions au caractère énigmatique, étaient toutes placées dans le domaine de la spéculation métaphysique, tant il était difficile d'y répondre avec certitude.

Le XXème siècle ouvre la voie royale à la connaissance de l'homme et du monde. Nous savons maintenant avec Darwin, que l'homme ne constitue plus une singularité par rapport à l'univers. L'histoire de l'homme ne peut être racontée parallèlement à l'histoire de tout l'univers, toutes deux tracent le chemin de la graduation complexe de l'univers. La science moderne, en découvrant que l'univers n'a pas cessé d'évoluer vers une complexité croissante, a éclairé la condition humaine d'un jour nouveau. En effet, nous dit Armand Delsemme « Sorti d'un état d'une simplicité extrême, l'univers a échafaudé des structures de plus en plus complexes dont nous sommes l'aboutissement. L'explosion primordiale a fabriqué d'abord des particules élémentaires, puis les a assemblées en quelques atomes légers, qui ont formé les premières étoiles. Ces étoiles ont fabriqué une grande variété d'atomes lourds

44 S. Hawking, Commencement du temps et fin de la physique ?, Flammarion, 1992, p 43

qu'elles ont dispersés dans l'espace interstellaire. Ces atomes ont fait les premiers grains de
matières solides et les premières molécules organiques. La matière solide allait permettre
l'existence d'une planète comme la Terre ; les molécules organiques allaient y apporter

toutes les substances indispensables à l'apparition de la vie. La croissance de la complexitédes structures biologiques sur notre planète apparaît comme la conséquence inéluctable de

tout ce qui a précédé, de sorte que l'évolution qui a finalement conduit à l'homme en semble l'aboutissement logique. » 45

Ainsi donc, Armand Delsemme raconte par un résumé très succinct, l'histoire de l'univers, de son origine explosive à l'apparition de l'homme sur Terre. Vue de l'extérieur, cette histoire paraît simple et inévitable, mais nous savons que tel n'est pas le cas. En réalité, comme une femme en état de grossesse, l'univers enfante au prix de la douleur et de la patience ; il est en perpétuelle gestation. Comme un architecte, l'univers pose d'abord des briques, les brise, essaye avec de nouvelles briques, encore et encore jusqu'à réaliser un édifice complet. Hubert Reeves le montre bien lorsqu'il dit : « À chaque seconde, quelque chose mûrit quelque part. La nature sourdement fait son oeuvre et s'épanouit en son temps. »46. « La nature ne fait pas de saut » disait Leibniz, tout arrive à son heure. L'histoire et l'évolution de l'univers, sont des phénomènes qui arrivent dans le temps et par le temps : le temps est donc le grand sélecteur.

Comme nous l'avons noté dans le premier chapitre de cette deuxième partie, l'univers, dans ses débuts, était très chaud et extrêmement dense. Ce moment qui correspond aux premières années après le big bang, n'a vu l'existence que d'une soupe homogène de matière fluide. Cette boule de feu chaude et dense, contenait toute la matière dont sera formé tout ce qui existe. L'univers dans ses débuts n'était formé que de quarks. En effet, le quark est défini comme étant la plus petite particule élémentaire qui compose le noyau d'atome. C'est par le jeu de leurs liaisons en nombres très variables, que ces particules subatomiques ont formé les différents noyaux atomiques. Cependant, ces particules essentielles dans la structuration de l'univers, ne peuvent pas exister indépendamment. Selon les physiciens, les quarks existent avec leurs contraires nommés anti-quarks. Ces mêmes physiciens affirment que lorsqu'on associe un quark et un anti-quark de même nature et de charge opposée, ces derniers s'annihilent dans une forte radiation. Or l'univers, parce qu'il était très dense et très chaud au big bang et pendant les premières décennies qui ont suivi cet événement, accélérait grâce à ses conditions le mouvement des particules lesquels s'annihilent perpétuellement.

45 A. Delsemme, Les origines cosmiques de la vie, Flammarion, 1994, pp 16-17

46 H. Reeves, Patience dans l'azur, Seuil, 1988, p 220

Quelques milliers d'années après le big bang, l'univers va par son expansion, baisser se température. Devenu moins chaud qu'auparavant, l'univers, en permettant un ralentissement du mouvement des particules, va favoriser la réalisation des liaisons entre quarks qui vont donner naissance aux protons et aux neutrons. Au fur et à mesure que l'univers s'étend, sa température devient de moins en moins chaude, ce qui permet la formation des premiers noyaux d'atomes et des électrons. Toutes ces phases d'évolution, parce qu'elles se produisent à très hautes température et forte densité, ne mettent en jeu que les forces nucléaires, qui en fait, sont maître dans l'échelle subatomique.

Lorsque la température de l'univers va descendre jusqu'à atteindre les quatre mille degrés Kelvin, les noyaux d'atomes vont se lier aux électrons pour former ensemble les premiers atomes, parmi lesquels ont d'abord existé l'atome d'hydrogène et celui de l'hélium. Ce stade d'évolution est très important et très instructif, si l'on veut comprendre l'histoire de l'univers.

Comme on le sait, à très haute température, la matière et la lumière se lient dans un couple matière-radiation. Pendant longtemps, ce thème a été l'un des débats qui animaient les discussions scientifiques sur la nature de la lumière. Certains affirmaient à l'instar du physicien Maxwell, que la lumière est une onde, tandis que pour les autres, guidés par la figure de Newton, la lumière est une particule. Ce vieux débat a survécu jusqu'à l'époque de Einstein. Reconnu comme le génie des grandes découvertes, Einstein et Louis de Broglie ont été les tous premiers à reconnaître que la lumière est à la fois onde et particule. En effet, Einstein montre que, lorsqu'on chauffe un corps à une température assez élevée pour désintégrer les atomes dont celui-ci est composé, on peut, si on continue le chauffage, voir toute la matière du corps se transformer en une énergie qui se manifeste par une lumière vive. Einstein montre que cette énergie est égale au produit de la masse par le carré de la vitesse de la lumière, d'où la fameuse équation d'Einstein : E = mc2.

Pour revenir à notre évolution, il faut dire que, avant que les noyaux d'atomes se lient aux électrons pour former ensemble les premiers atomes, les électrons, parce qu'ils étaient encore libres dans l'espace, absorbaient la totalité des photons libérés par les radiations. C'est ce phénomène d'absorption des rayons lumineux, qui justifie l'opacité des premiers milliers d'années qui suivirent le big bang.

On voit ainsi que c'est avec la formation des premiers atomes, que l'univers est devenu transparent. De nos jours, astronomes et astrophysiciens s'accordent à dire, que cet événement

date de trois cents mille ans après la grande explosion. A cette époque disent-ils, les électrons emprisonnés dans les structures atomiques, ne pouvaient plus entraver le mouvement des photons, qui depuis lors ne cessent de poursuivre leur voyage vers une sorte d'éternité, donnant ainsi à l'univers la voie de son expansion. La matière, jadis annihilée par le rayonnement, peut maintenant s'épanouir librement. La force de la gravité, la plus faible de toutes les forces, reprend ses droits d'actions et attire la matière vers les excès ou fluctuation de densité pour les amplifier. Ainsi viennent d'être jetées les premières semences de notre univers. La nature se met à révéler le plan de sa structure ultérieure.

Avec le découplage du contenu matière-radition, l'univers entame une nouvelle phase dans sa montée vers la complexité. C'est en effet grâce à l'action de la gravité sur la matière, que l'univers va commencer à se structurer. « La gravité arrive à la rescousse. Elle va donner à l'univers une deuxième chance pour reprendre son ascension vers la complexité, et sauver la situation en créant dans le désert cosmique des oasis qui échapperont au refroidissement continuel et qui permettront à la vie et à la conscience d'émerger. Ces oasis auront pour nom planètes, étoiles et galaxies. »47

Tout juste après le découplage de l'unité matière-radiation, la température de l'univers va baisser considérablement avec la libération des photons de lumière. Devenue de moins en moins chaude, la matière de l'univers va par son mouvement ralentir les collisions des particules, ce qui favorisera la formation d'une pléiade d'atomes variés et de plus en plus complexes. Comme nous l'avons vu, la force de gravité va, avec le refroidissement de l'univers, jouer un rôle fondamental dans la complexité de l'univers. Les fluctuations de densité qui existaient déjà à l'époque de la soupe initiale, vont avec l'expansion de l'univers, se transformer en des lieux de convergence de la matière grâce à la force de l'attraction gravitationnelle. Ces lieux d'attraction vont donner naissance, aux toutes premières mottes de matières que les astronomes appellent les grumeaux. Ces grumeaux constituent les graines de semence, de ce qui sera à l'origine des futures galaxies ou amas de galaxies. Nées du nuage de gaz initial, les galaxies habitent à perte de vue l'espace cosmique. En effet, la distribution actuelle des galaxies, se justifie par le fait qu'au moment du big bang, l'explosion a propulsé un nuage de gaz, qui par son mouvement s'est réparti dans toutes les directions de l'univers. Ce qui fait que nous rencontrons de nos jours, dans n'importe laquelle des directions considérées, une distribution quasi semblable des galaxies et amas de galaxies.

47 Thinh Xuan Thuan, La mélodie secrète, Gallimard, 1991, p 178

Toutefois comment est-il possible d'expliquer la variété de forme observée dans l'univers galactique, s'il est vrai que toutes les galaxies sont issues du même nuage de gaz primordial ? La réponse à cette question dépend en effet selon les astronomes de deux paramètres régulateurs : d'une part, il y a la vitesse d'expansion du nuage, de l'autre, la force de gravitation de la matière composante.

Les astronomes classent les galaxies sous trois catégories différentes, les galaxies elliptiques, les galaxies spirales et les galaxies irrégulières. Ces formes de galaxies varient suivant la densité, la composition chimique du nuage et la masse du nuage de gaz initial. En effet, lorsque le nuage a une répartition gazeuse très hétérogène, les endroits à forte concentration de gaz vont s'agglomérer très rapidement, et donner naissance à des étoiles. L'attraction que ces étoiles exerceront les unes sur les autres, va lentement les rapprocher et former ainsi, un ensemble plus ou moins sphérique allongé, d'où le nom de galaxie sphérique, aussi appelée galaxie elliptique. Par contre, lorsque le nuage de gaz est plus uniforme et homogène, son évolution sera très différente.

Propulsés à très grande vitesse, les multiples frottements des matières vont donner au nuage un mouvement plus ou moins giratoire, à l'image des tourbillons observés dans les eaux d'une rivière. Ces tourbillons vont s'organiser petit à petit et, progressivement, gagner en équilibre un mouvement commun, qui va engendrer un gigantesque mouvement de rotation autour du centre nébulaire. Le nuage de gaz prendra dès lors, la forme de gigantesques spirales enroulées autour du centre, lequel a un mouvement plus rapide que celui des bords. C'est donc par ce phénomène, que sont nées les galaxies dites spirales.

Les galaxies spirales semblent constituer la majorité des galaxies. L'hétérogénéité de leur mouvement de rotation, crée des variations de densité qui, sont à l'origine de l'existence des bras observés chez les galaxies spirales. Dans le cas des galaxies spirales, la formation des étoiles advient après que la galaxie aura pris sa forme. Nous constatons par là, que l'antériorité entre la formation des étoiles et celles des galaxies varie suivant la forme considérée. « Dans le premier cas, celui des galaxies elliptiques, l'étoile préexiste à la finalisation de la galaxie. Dans le second, l'étoile est le produit de la formation de la galaxie spirale, ce n'en est que le sous-ensemble ; l'organe. Tous les intermédiaires sont évidemment possibles entre ces deux cas, d'où la variété des formes réelles des galaxies. »48

48 Claude Allègre, Introduction à une histoire naturelle, Fayard, 2004, p 51

A côté de ces deux catégories, existe une troisième qui en fait, regroupe toutes les autres formes qui ne sont ni elliptiques ni spirales : c'est la catégorie des galaxies dites irrégulières. Comme leur nom l'indique, ces galaxies n'ont pas une forme déterminée. Ce phénomène rend très difficile l'étude de ces galaxies, ce qui justifie la raison pour laquelle l'existence de ces galaxies est seulement soulignée par les astronomes qui jusqu'à nos jours n'ont pas encore maîtrisé le mécanisme de formation de ces dernières.

Les galaxies elliptiques sont plus massives que les galaxies spirales. Cette différence de masse a permis aux astronomes d'expliquer, pourquoi on rencontre beaucoup plus d'étoiles jeunes dans les galaxies spirales, que l'on n'en rencontre dans les galaxies elliptiques. En effet, parce qu'initialement composées par le regroupement d'étoiles massives, les galaxies elliptiques ont fini par absorber la quasi-totalité des gaz propices à la formation des nouvelles étoiles. Car plus les étoiles se rapprochent les unes des autres, plus elles attirent vers elles les matières comprises dans les espaces qui les séparent. Par contre les galaxies spirales, parce qu'elles ont des mouvements variant en fonction des lieux, conservent dans leurs bras, des quantités énormes de gaz nébuleuses capables de former de nouvelles étoiles. De nos jours, il est encore observé dans les bras des galaxies spirales, le phénomène de formation de nouvelles étoiles : les galaxies spirales contiennent beaucoup de gaz, dont beaucoup de futures étoiles potentielles.

Après avoir montré de façon très sommaire, comment à partir de la soupe initiale les galaxies se sont formées, essayons maintenant de voir, comment les étoiles, observées dans le ciel à travers une nuit sans lune, se sont formées et ont vu le jour au sein des galaxies.

Appelé par ailleurs astration, le processus de formation des étoiles qui, illuminent le ciel de myriades de lueurs vives, joue un rôle fondamental dans la construction évolutive de l'univers. Les étoiles fabriquent les espèces chimiques, et de cette fabrication, elles tirent leurs énergies. Hormis les atomes d'hydrogène et d'hélium, qui ont été créés quelques années après le big bang, tous les autres atomes qui existent dans l'univers, ont été fabriqués dans les étoiles. Ces atomes, par leurs assemblages, forment la matière : celle qui nous entoure et celle dont nous sommes constitués. En effet, « Les atomes s'assemblent entre eux pour donner naissance aux molécules et aux cristaux, donc aux matériaux qui nous entourent. Leurs combinaisons sont pratiquement infinies. La combinatoire atomique, c'est la chimie [...]. C'est dans l'infiniment petit que résident toutes les explications du monde sensible et, audelà, de l'infiniment grand. Pourtant, il faut aussitôt préciser que le monde ne serait pas si

varié, si complexe, si multiforme, s'il était composé par un seul type d'atomes, une seule entité répétée et combinée à l'infini. »49

Le destin de l'univers à venir dépend de l'activité qui se passe dans le coeur des étoiles. Cependant, comment les étoiles naissent-elles à partir d'un nuage gazeux ? Comme il en est de la formation des galaxies, la formation des étoiles se fait suivant une logique bien déterminée.

Il faut noter que c'est dans les nuages de gaz suffisamment massifs, que les étoiles se forment. En effet, la formation des étoiles dépend de l'interaction de deux forces à effets strictement opposés. D'une part, il y a la force gravitationnelle, par laquelle le nuage se contracte et rassemble dans une petite surface un volume considérable de gaz, tandis que d'autre part, joue l'agitation thermique par laquelle, le nuage se dilate et occupe par son gaz tout l'espace disponible aux alentours. En fait, dans les nuages stellaires, il existe des lieux de variations de températures et de densité. C'est dans ces milieux à très forte densité que vont se regrouper, par l'effet de la gravitation, des volumes de plus en plus important de gaz. Devenant de plus en plus volumineux, ces régions à forte densité, vont parallèlement se réchauffer de plus en plus, élargissant ainsi leur espace. Il se produit, du fait de la forte densité de ces milieux, une lutte entre la force nucléaire et la force gravitationnelle.

De ce fait, la pression qui règne dans ces milieux augmente les vitesses et les collisions des particules qui, dés lors entraînent l'échauffement de la localité considérée. L'agitation thermique opposée à la force gravitationnelle, produit au coeur de la dite zone, un équilibre entre la température et la gravité.

C'est de cet équilibre que va se déclencher la fusion nucléaire, qui va donner naissance à une nouvelle étoile. Cette réaction thermique se produit lorsque la température du coeur de l'étoile, atteint le cap décisif des dix mille degrés absolus. Comme nous l'avons noté dans les pages précédentes, les étoiles connaissent à l'instar des êtres vivants, une évolution qui les mène irréductiblement de la naissance à la mort qui, dans le cas des étoiles, advient soit par suite de désintégration, soit par perte d'énergie suivant les catégories. Les étoiles, celles qui sont nommées de première génération, c'est-à-dire celles qui sont nées à partir du nuage de gaz initial, sont composées de près de 76% d'hydrogène et de 24% d'hélium. C'est à partir de ces deux gaz, qui, initialement étaient les seuls existants, que va démarrer toute l'alchimie

49 C. Allègre, Introduction à une histoire naturelle, Fayard, 2004, pp 60-61

stellaire des métaux. Cette production d'atomes dans le four ambiant des étoiles, va de la création de l'atome d'hélium à l'apparition de l'atome de fer, et de tous les éléments chimiques qui composent la table de Mendeleïev.

Lorsqu'une étoile apparaît au sein d'un nuage de gaz, celle-ci se sépare du nuage pour entreprendre en solitaire sa vie stellaire, qui se déroule suivant différentes séquences. En effet initialement composées d'hydrogène et d'hélium, les étoiles regroupent leur gaz suivant des couches séparées en fonction de leur composition. Les atomes d'hydrogène, parce qu'étant plus légers que les atomes d'hélium, se concentrent vers le centre de l'étoile et chassent les atomes d'hélium, qui se contentent d'occuper les couches périphériques de l'étoile. De ce fait, l'étoile commencera par brûler sa réserve d'hydrogène en liant les atomes d'hydrogène en atomes d'hélium. Une fois que les atomes d'hydrogène seront tous transformés en atomes d'hélium, l'étoile se rétrécit en condensant sa masse d'hélium vers le centre. Elle entame ainsi une nouvelle phase de fusion nucléaire. Cette nouvelle phase consiste chez les étoiles à lier les atomes d'hélium en une nouvelle catégorie d'atomes, nommée Carbonne. L'univers vient donc, avec la production du carbone, d'accoucher d'un nouvel enfant. Par ce nouvel élément, la nature vient de grimper une nouvelle marche de l'échelle qui mène vers la complexité.

Dés lors, l'étoile achève ainsi la séquence principale de son évolution. Ce stade atteint, l'étoile verra sa température baisser pour pouvoir maintenir en équilibre, sa partie interne extrêmement chaude et sa périphérie qui reste moins chaude. Pour mieux comprendre ce changement de séquences, notons ces lignes de Armand Delsemme lorsqu'il écrit : « Les couches extérieures compriment le coeur qui s'effondre sur lui-même jusqu'à atteindre 60 millions de degrés. Cette température est celle de l'ignition de l'hélium : 3 noyaux d'hélium s'assemblent en un seul noyau de carbone, avec dégagement d'une grande énergie. L'étoile quitte alors la séquence principale : elle réajuste son équilibre intérieur en enflant son extérieur et en diminuant sa température superficielle : elle est passée sur la branche des géantes rouges. »50

Toutefois, il faut souligner que l'évolution des étoiles, varie en fonction de la masse de leur contenu. Plus une étoile est massive, plus elle a de la matière à brûler, et plus vite elle brûlera cette dernière. Les étoiles massives ont une durée de vie très courte, parce qu'elles évoluent vers la complexité à un rythme plus rapide que celui des autres étoiles. Quant aux étoiles les

50 Armand Delsemme. Les origines cosmiques de la vie, Flammarion, 1994, p 75

moins massives, elles mènent une vie de parcimonie. Elles dépensent lentement leur énergie, ce qui fait qu'elles vivent plus longtemps que les étoiles massives.

Essayons de voir de manière abrégée, comment les différentes sortes d'étoiles mènent leur évolution. L'évolution et le destin des étoiles, sont strictement liés à leurs masses de départ. C'est suivant leurs masses, que les astronomes et astrophysiciens étudient l'évolution des étoiles ainsi que le destin qui leur est réservé. Nous allons essayer de faire une petite étude comparative des différentes sortes d'étoiles. Pour ce, nous allons considérer cinq catégories d'étoiles, dont la mesure des masses sera définie en fonction de la masse de notre Soleil. A cet effet nous étudierons les catégories, de trente masses solaires, dix masses solaires, trois masses solaires, une masse solaire, c'est-à-dire égale à notre soleil, et enfin les étoiles dont, la masse constitue le tiers de notre soleil.

Pour la première catégorie, concernant les étoiles à trente masses solaires, il faut noter que leur luminosité correspond à peu près à dix mille fois la luminosité du Soleil. Ces étoiles comme nous l'avons dit tantôt, brûlent en un temps record leur réservoir d'hydrogène et d'hélium. Elles traversent la séquence principale de leur évolution en six mille années, ce qui ne représente presque rien dans la vie d'une étoile. Après avoir vécu leur séquence principale, ces étoiles devenues géantes rouges, prennent seulement mille ans pour brûler tout leur réservoir de carbone, transformant celui-ci en oxygène. De l'oxygène, la matière de ces étoiles passera en peu de temps au silicium, matière qu'elles finiront par brûler en la transformant en atomes de fer. Arrivées au stade du fer, ces étoiles n'auront plus d'énergie suffisante pour assurer la fusion du fer. Ne pouvant plus évoluer vers d'autres atomes, ces étoiles explosent leur matière en supernovae, et éjectent en forme de nuage près de 24 masses solaires, dans l'espace. Le noyau de ces étoiles, marqué par une zone à très grande densité, se transformera en un trou noir dont la masse peut atteindre six masses solaires.

Quant à la deuxième catégorie qui comporte les étoiles de près de dix masses solaires, elle détermine les étoiles dont la luminosité environne mille fois la luminosité du Soleil. Ces étoiles moins massives que celles de la première catégorie, vivent pendant un million d'années la première séquence de leur existence. Une fois géantes rouges, elles y resteront pendant trois mille ans, période pendant laquelle elles brûlent patiemment leur réserve de carbone en oxygène. Puis de l'oxygène, elles produiront progressivement du silicium. Arrivées à ce stade qu'elles ne peuvent plus franchir, ces étoiles, ne pouvant plus entretenir la fusion nucléaire de leur coeur, renoncent à l'existence et explosent en supernovae. De ce fait,

de telles étoiles propulsent dans l'espace interstellaire un volume de gaz de 8,5 fois la masse de notre Soleil. Du résidu de leur noyau, découle une étoile à neutrons très dense qui peut atteindre 1,5 fois la masse du soleil. Avant de continuer, signalons qu'on définit par supernova, l'explosion finale d'une étoile massive, par laquelle l'étoile accroît sa brillance des centaines de millions de fois. La lumière produite par une supernova reste visible de jour ou de nuit pendant plusieurs semaines. On dit même qu'elle est quasi égale à la brillance de toute une galaxie.

L'observation des supernovae est un phénomène rare dans l'univers. L'histoire de l'astronomie retient en général trois supernovae, qui sont en fait les plus célèbres parmi celles qui sont connues. La première a été observée par un astronome de la cour impériale de chine en 1054. Celui-ci après l'avoir observé, a annoncé, d'abord à l'empereur puis à tout l'empire, la venue au monde d'une nouvelle étoile. Cette prétendue nouvelle étoile, sera baptisée par les chinois, « étoile hôte » parce qu'elle était sensé apporter l'abondance dans les récoltes et la stabilité dans l'empire. Quant à la seconde supernova généralement retenue, elle a été découverte par Tycho Brahe en 1573. Comme l'astronome chinois, Tycho Brahe croyait lui aussi avoir assisté à la naissance d'une étoile nouvelle, d'où le nom qu'il lui a donné : « Stella nova » qui signifie en latin étoile nouvelle. L'observation de la Stella nova a permis à Tycho Brahe et à tous les scientifiques de cette époque, de remettre en cause l'immuabilité des cieux, telle que celle-ci a été pensée par Aristote. Enfin, la troisième supernova qui va être considérée, est celle qui a été observée en 1987 plus précisément le 28 mai. Observée par le satellite COBE de la NASA, elle a été baptisée Supernova 1987 A Rings. De nos jours le télescope géant Hubble nous montre, par les très belles images qu'il nous offre, que ce phénomène d'explosion stellaire est une des caractéristiques de notre univers.

Pour revenir à nos étoiles, nous allons continuer et étudier ici le cas des étoiles dont la masse fait trois masses solaires. En effet, ces étoiles brillent cent fois plus que notre Soleil. Elles terminent leur séquence principale, trois millions d'années après leur formation, d'où elles deviennent des géantes rouges. Ces étoiles, moins massives que celles des deux premières catégories, trouvent de moins en moins de l'énergie pour brûler leurs réserves de carbone en oxygène. Cette impuissance physique, fait qu'une fois que ces étoiles terminent après dix millions d'années, de transformer leurs atomes de carbone en oxygène, elles éclatent leurs gaz et forment des nébuleuses planétaires dont les masses peuvent atteindre le seuil des 2,2 masses solaires. Leurs noyaux, très petits à cause de la faiblesse de l'activité nucléaire qui a précédé l'explosion, se transforment en des naines blanches. Une naine blanche est par

définition, une petite étoile très brillante née de l'explosion d'une géante rouge. Initialement brillante, la naine blanche, perd petit à petit son énergie et finit par devenir une naine noire non observable, parce qu'elle n'émet pas de lumière.

La quatrième catégorie d'étoiles, représente celles dont les masses égalent la masse de notre soleil. Ces étoiles ont évidemment la même brillance que le Soleil. Elles peuvent vivre dix milliards d'années avant d'atteindre la séquence principale, stade à partir duquel elles deviennent des géantes rouges. En effet, comme il en sera pour notre soleil, ces étoiles vivent dans leur phase de géante rouge trois millions d'années. N'ayant pas la capacité de lier leurs atomes d'oxygène en atomes de silicium, ces étoiles vont, à leur stade de géantes rouges, éclater en des vents stellaires dont les masses ne représenteront que le tiers de leurs masses initiales. De leurs noyaux vont naître des étoiles naines blanches très petites.

Pour finir avec cette classification, nous allons prendre le cas des étoiles faibles, dont la masse fait le tiers de notre masse solaire. Ces étoiles comme on le sait, ont une très faible brillance, à peine visible à l'oeil nu. Comme c'est déjà affirmé, ces étoiles ont une très longue longévité, qui suivant les cas, peut atteindre 800 milliards d'années avant d'atteindre la séquence principale. En effet, parce qu'elles ont une très faible masse, ces étoiles libèrent leur gaz sous forme de vents stellaires après avoir vécu 80 millions d'années comme géantes rouges. Leurs résidus finiront comme celui de notre soleil en naines blanches.

Après avoir montré le processus par lequel les étoiles et les galaxies se sont formées à partir du nuage de gaz primitif, nous allons à présent nous intéresser à la formation des planètes, plus précisément à celle de notre système solaire. La formation des planètes est une phase importante dans la complexité de l'univers. L'alchimie stellaire, par laquelle les étoiles produisent les atomes lourds, va enrichir l'univers de plusieurs éléments lui permettant de monter avec sûreté vers les plus hautes marches de la complexité. En effet, ce sont les éléments chimiques et les atomes lourds, qui vont servir d'ensemencement à la formation des planètes et à l'émergence de la vie. Cependant, ce ne sont pas toutes les étoiles qui participent à la complexification de l'univers.

Comme nous l'avons noté, les étoiles de faibles masses ne jouent pas un grand rôle dans ce processus. Ces dernières, parce qu'elles ont une longue durée de vie, dépensent très lentement leur matière, d'où elles atteignent rarement les stades où se forment les atomes lourds comme le carbone, l'oxygène etc. Ne pouvant compter sur le travail des étoiles faibles, l'univers mise

tous ses espoirs sur les étoiles massives. Ces dernières sauront, grâce à leur prodigalitéexcessive, relever le défi de la complexité. En effet « Ce sont les étoiles de masse importante
qui jouent le rôle essentiel dans l'ensemencement en atomes lourds du milieu interstellaire.
C'est notamment parce que toutes ces étoiles sont de grande luminosité. De ce fait, elles
développent des vents stellaires considérables, grâce à la pression engendrée par leur intense
radiation sur les couches extérieures de l'étoile. Mais c'est aussi parce qu'elles atteignent
extraordinairement vite le stade explosif qui termine leur existence. »51

Les planètes, à l'image des étoiles, se forment à partir des résidus de nuage issus des supernovae. En effet, lorsque les étoiles massives se transforment en supernovae, il se forme au sein du nuage de gaz éjecté, différentes zones dont les températures sont très hétérogènes. Ces fluctuations de densités vont par l'effet de la gravité, attirer la matière située aux alentours, et augmenter ainsi leurs masses qui deviennent de plus en plus grandes. C'est ce phénomène identique qui a entraîné, dans les milieux à très hautes températures, le déclenchement des réactions nucléaires, responsables en fait de la naissance des étoiles. Dans le cas des planètes, le processus devient plus compliqué. Car pour les planètes, il faut d'abord que le gaz issu des supernovae se condense en particules solides et c'est à partir maintenant de ces particules solides, que va se faire la formation des planètes.

Dans la vie courante, le passage de l'état gazeux à l'état solide s'opère toujours par l'intermédiaire de l'état liquide. Dans l'espace interstellaire, il n'en n'est pas de même. Dans cet espace, lorsque avec l'expansion de l'univers, le nuage de gaz se refroidit, sa pression devient très faible. Avec le mouvement d'extension, ce même nuage se disperse et se dilue dans l'espace. Dès lors, ses particules de gaz refroidies se transforment par leur condensation en particules solides. Nous voyons que dans l'espace interstellaire, le gaz cosmique donne naissance par sa condensation, à des poussières solides. Ce sont ces poussières solides qui, par leurs agglomérations permettront la formation des planètes. Ceci dit, il se pose la question de savoir, comment à partir d'un nuage de gaz interstellaire, notre système solaire, a t-il pu voir le jour ?

Comme cela apparaît d'évidence, le soleil constitue avec les autres planètes un seul et unique système. L'existence du soleil n'est pas séparée de la formation des autres planètes qui l'entourent. Le soleil partage avec tout l'ensemble du système solaire, la même histoire qui les a vu naître. Le soleil ainsi que les dix planètes qui tournent autour de lui, forment une seule et

51 A. Delsemme, Les origines cosmiques de la vie, Flammarion, 1994, p 93

même famille dont l'ancêtre est sans aucun doute, une grosse étoile massive qui a explosé, il y de cela cinq milliards d'années, en supernova. Déjà au XVIII ème siècle, Kant et, après lui, Pierre Simon Laplace avaient pensé que le soleil, pour pouvoir attirer tout le cortège de planètes lié à lui, doit avoir existé au même moment que ces planètes ; d'où ils devaient avoir la même histoire. Cette idée, qui n'est resté pendant longtemps qu'une simple hypothèse scientifiques, a été pour la première fois démontrée comme fait réel par Clair Patterson en 1950.

C'est Patterson qui en effet, a montré que, les météorites, les sédiments marins et terrestres, les basaltes issues des profondeurs de la Terre, avaient tous la même ancienneté. A partir de ses études faite, par le biais de la radioactivité, Patterson affirme que tous ces objets ont existé il y a de cela 4 milliard 550 millions d'années, date qui correspond en fait à la période de formation de notre système solaire.

Le Soleil est donc une étoile de la seconde génération. Il est différent des étoiles de la première génération qui sont initialement composée, d'hydrogène et d'hélium. Le soleil comporte en son sein la quasi totalité des atomes lourds qui composent le tableau de Mendeleïev. La présence de tous ces atomes lourds dans la matière du soleil, ne peut s'expliquer que par son origine résiduelle des supernovae. En effet, la famille des astronomes et astrophysiciens affirme, que c'est à la suite des explosions en grand nombre des premières étoiles massives de l'univers, que s'est formé dans l'espace un immense nuage interstellaire. Ce nuage, appelé aussi nuage protosolaire constitue en fait le lieu où va d'abord émerger le soleil, et après lui les planètes du système solaire, conformément à l'ordre que nous connaissons aujourd'hui

Composé initialement de particules gazeuses, le nuage interstellaire va, sous l'effet de la gravité, concentrer une quantité énorme de matière vers son centre. Cette concentration de volume de gaz au centre du nuage, va accélérer le mouvement des atomes compris à l'intérieur de celui-ci. Ces derniers vont par leurs multiples collisions, se mettre à réchauffer le centre du nuage. Ce réchauffement augmentera au fur et à mesure que les particules se mettront à s'entrechoquer entre elles. De ce mouvement de bouillonnement interne, il va naître au coeur du nuage, une fusion nucléaire à la suite de laquelle le centre du nuage protosolaire s'allumera en donnant naissance à une étoile appelée Soleil.

Dans les premiers millions d'années qui suivirent la formation du Soleil, le nuage interstellaire, composé d'un mélange de gaz et de grains de poussière, continuera à se contracter en direction du centre où la naissance du jeune soleil a engendré de très hautes températures. Ces hautes températures, entraîneront la sédimentation des grains de poussières en particules appelés planètésimales. Ces planètésimales vont par leur nature solide, se séparer par la suite du reste du gaz interstellaire. Les matières gazeuses se mettront à converger vers le centre, en permettant ainsi au nouveau Soleil d'agrandir sa masse. Ce mouvement de convergence, durera pendant tout le temps que le soleil prendra pour atteindre son seuil de stabilité. Lorsque la nouvelle étoile a atteint sa stabilité, elle a propulsé sous forme de vent la matière située autour d'elle. Ce phénomène de propulsion de matière en forme de vent, est défini par les astronomes sous le concept de Vent T Tauri. Le choix de ce concept relève du fait, que ce phénomène a été découvert pour la première fois, à travers l'observation de l'étoile T située dans la constellation du Taureau.

En effet, ce vent T Tauri, propulsera le reste du nuage nébulaire hors du Soleil nouvellement formé. Ce nuage composé essentiellement d'hydrogène et d'hélium, se refroidit lentement, en favorisant l'accumulation des planètésimales qui s'amplifient de plus en plus. L'accumulation des planètésimales, qui gravitent autour des orbites circulaires autour du soleil, se fait par suite des collisions. Ces collisions vont durer pendant quelques centaines de milliers d'années, en formant progressivement des corps de plus en plus massifs, dont certains pouvaient atteindre la taille de la lune.

Il est important de noter au passage, que la formation des planètes est beaucoup plus lente que celle des étoiles. Dans la formation des planètes, les planètésimales, qui se trouvent être des objets solides et rocheux, prennent du temps non seulement pour s'unir en gravillons ; mais encore lorsqu'ils s'agglomèrent en de gros gravillons, ces planètésimales deviennent de plus en plus rares, séparés entre eux par de vastes espaces. Du fait de cet espacement entre gravillons, les unions arrivaient rarement, pire encore, les rencontres pouvaient entraîner dans certains cas, des fragmentations.

Les rencontres, ainsi que l'amplification des planètésimales, n'étaient pas forcément fructueuses. Chaque rencontre comporte une incertitude, dont la probabilité était l'union ou la fragmentation. Mais au fur et à mesure que les planètésimales devenaient massifs et denses, ils attiraient par leur gravité une matière de plus en plus grande ; ce qui fait que leur taille devenait de plus en plus énormes. Les planètes se sont donc formées plusieurs milliers

d'années après la formation de l'étoile Soleil. En effet, nous dit Claude Allègre, « Les planètes ne sont pas nées par effondrement gravitationnel d'un nuage de poussières. Elles se sont construites doucement, lentement, pendant des dizaines de millions d'années, par adjonctions successives d'objets cosmiques un peu particuliers que l'on appelle planètésimales. »52. C'est par ce lent phénomène de construction, que tout notre système solaire s'est formé et s'est étendu, allant de l'astre soleil à ce qui est nommé aujourd'hui la ceinture de Kuiper. La ceinture de Kuiper est située à la quasi extrémité de notre système solaire. Elle se trouve en fait à l'extérieure de l'orbite occupée par la planète Pluton. Cette ceinture, du nom de celui qui la découverte Gérald Pieter Kuiper, astronome américain d'origine néerlandaise, est le lieu de résidence de près de cent trente astéroïdes et comètes neigeuses.

Par ailleurs, les tailles et masses des planètes varient pour chacune suivant la distance qui sépare la planète du Soleil. Plus la planète est proche du soleil, plus chaude sera sa matière, d'où il en résulte que ses particules contiendront moins de matières volatiles. Car avec l'effet de la chaleur, les particules de matières libèrent les gaz qu'elles avaient absorbés, ce qui fait que la planète s'appauvrit et perd ainsi une grande partie de sa masse. Par contre, si la distance qui sépare la planète du Soleil devient considérable, sa matière devient très froide. Par ce fait, la planète devient capable de conserver au sein d'elle même, la quasi totalité des gaz absorbés par ses particules. L'emprisonnement des gaz à l'intérieur de la matière givrée ou glacée, augmente parallèlement la masse de la planète ce qui par conséquent, permet à la planète d'avoir une densité de plus en plus élevée. C'est ce phénomène qui explique, la distribution inégale des masses observées entre les différentes planètes de notre système solaire.

En regardant notre système solaire, nous remarquons qu'il est composé de deux catégories de planètes, que les astronomes nomment habituellement par les concepts de planètes internes et planètes externes. Les planètes internes et les planètes externes sont en fait séparées par une large étendue composée d'astéroïdes, communément nommée la ceinture des astéroïdes.

En regardant à travers les photos astronomiques prises sur notre système solaire, nous pouvons distinguer deux types de planètes. D'un côté, celui qui est plus proche du soleil, nous avons les planètes Mercure, Vénus, Terre, et Mars. Formées de matières rocheuses, ces planètes sont les moins massives de notre système solaire. Situées entre la position du soleil et

52 C. Allègre, Introduction à une histoire naturelle, Fayard, 2004, p 160

l'espace de la ceinture des astéroïdes, ces planètes sont celles qui sont nommées planètes internes.

Dans la seconde catégorie de planètes, nous rencontrons les planètes Jupiter, Saturne, Uranus, Neptune, Pluton et Sedna la dixième planète dont on a observé l'existence en 2001. Située, si l'on s'éloigne du soleil, après la ceinture des astéroïdes, cette catégorie est dans l'ensemble constituée de planètes géantes, et gazeuses pour l'essentiel. L'explication de la forme spécifique de ces planètes est due au fait que, l'environnement glacé de ces planètes alourdit leur matière. Ces conditions climatiques leur permettent d'avoir une grande force d'attraction sur les particules solides qui les entourent. Ces planètes, parce qu'elles captivent dans leur matière presque tous les gaz volatiles rejetés par les planètes internes, ont des masses énormes comparées aux masses de planètes internes.

Arrêtons-nous un instant et essayons d'expliquer le phénomène apparemment étrange, qui est observé dans notre système solaire. Comme nous pouvons le constater, la planète Jupiter est la planète la plus grosse de notre système solaire. Ce phénomène étrange a été pendant très longtemps un constat que les astronomes eux-mêmes n'arrivaient à expliquer. De nos jours, ce phénomène étonnant trouve une explication satisfaisante.

La grande agglomération de matière à travers la planète Jupiter, est en fait due à deux choses. La première explication c'est que, le nuage nébulaire, en s'éloignant du disque d'accrétion du soleil devient de plus en plus froid. Cette baisse de température va en fait favoriser l'attraction des planètésimales, qui en se condensant, formeront en très peu de temps une grande masse, dont le noyau peut faire environ dix fois la masse de la Terre. Cette grande masse, va permettre à la planète d'avoir une très forte densité, qui favorisera l'attraction de beaucoup de corps environnants tels que les astéroïdes, les comètes et les planètésimales.

La seconde cause d'explication de la très grande masse de Jupiter, c'est que la matière volatile, qui s'est échappée des planètes internes où par l'effet de chaleur elle a été libérée, va, en s'éloignant de l'intérieur du système solaire avec le mouvement d'expansion du nuage, s'accrocher sur les objets givrés situés à la surface de Jupiter. La masse et la densité de Jupiter devenant de plus en plus croissantes, vont dès lors permettre à cette planète de pouvoir attirer l'essentiel des objets situés autour d'elle. Il en résulte l'explication de la forte couche de gaz observée dans l'atmosphère de Jupiter.

En attirant sur sa surface l'essentiel de la matière située dans l'actuelle ceinture des astéroïdes, la planète Jupiter a fini par déstabiliser la formation de ce qui aurait pu être la « onzième planète » de notre système solaire. L'essentiel de la matière qui aurait dû participer à la formation d'une onzième planète, étant absorbé par l'effet de gravité de la planète Jupiter, il en résulte que le restant des débris tournera, dans le sens de l'orbite de la ceinture des astéroïdes, autour du soleil à l'image de toutes les autres planètes. Par sa masse et sa densité énormes, la planète Jupiter perturbe, lors de son mouvement de révolution autour du soleil, tous les objets situés dans la ceinture des astéroïdes. C'est ce mouvement perturbateur qui, en fait, justifie les mouvements désordonnés suivant lesquels se comportent les comètes situées dans cette zone. Au delà de la ceinture des astéroïdes, le mouvement de la planète Jupiter, influence toutes les trajectoires des autres planètes.

En effet avec sa vitesse de mouvement de 61 Km/s, la planète Jupiter infléchit le mouvement des comètes et astéroïdes qui se trouvent à son alentour. Ces comètes et astéroïdes, lorsqu'il arrive qu'ils se détachent de la ceinture des astéroïdes, se projettent dans tous les sens de l'univers ; ce qui parfois même, les mène à se perdre hors de notre système solaire. Il faut noter q'une grande partie de ces corps célestes, lorsqu'ils finissent de traverser notre système solaire, ne se perd pas néanmoins dans l'espace interstellaire. Car plusieurs d'entre eux, seront capturés dans une sphère énorme située à l'extrémité du système solaire. Cette sphère, située à plus de 50.000 Unités astronomiques (UA) de la position du soleil, va former dans ces lieux froids de l'espace, ce qui est reconnu être le « nuage de Oort », du nom de l'astronome néerlandais Jan Oort qui en a établi l'existence.

Une autre conséquence causée par le mouvement de la planète Jupiter, c'est qu'en infléchissant l'orbite de la ceinture des astéroïdes, plusieurs comètes vont se détacher de leur résidence, se bombarder lors de leur mouvement d'évasion tous les corps qu'ils rencontrent sur leur trajectoire (planètes et satellites planétaires...). Les traces de ces bombardements cométaires sont encore visibles sur les surfaces de la lune, Mercure, Vénus, Mars et ses satellites. Même les satellites de Jupiter ainsi que celles de Saturne, montrent encore des signes de ces bombardements cométaires. Ce sont ces bombardements, qui ont en fait créé les formes de cratères observées sur la surface de la Lune et sur les satellites de Mars. Même notre planète, la Terre, a elle aussi été victime de ces bombardements, seulement sur la surface de la Terre, le mouvement géologique de notre sol a fini par effacer toutes les traces de ces bombardements.

La dernière conséquence à noter, est celle que le mouvement de Jupiter a occasionnée sur notre planète. En effet d'après les astronomes, la planète Jupiter a aussi perturbé l'excentricité des orbites de planètes internes, entraînant sur celles-ci des collisions orbitales. Certains sont allés jusqu'à dire même, que se sont ces collisions qui ont entraîné des tamponnements entre la Terre et Mercure. Ils affirment que, c'est la fracture causée sur la Terre par ce choc violent, qui a finalement donné naissance à l'actuelle lune, satellite de la Terre. Après avoir longuement discuté sur la formation des planètes, nous revenons sur notre planète, pour essayer de voir comment la vie y est apparue. L'apparition de la vie a été l'un des mystères qui ont, pendant des siècles, habité les esprits des scientifiques. En effet, à cause du fait qu'il n'existait aucune trace fossile relative au premier milliard de l'évolution de la Terre, l'origine de la biosphère est restée un événement sur lequel on n'avait aucune connaissance certaine. La biosphère est en fait, l'ensemble des régions du globe terrestre abritant la vie. La biosphère est constituée des océans, de l'atmosphère et de la mince pellicule de terre qui recouvre et contient les matières organiques, appelée le terreau. Comme nous l'avons noté, l'intervalle géologique qui correspond au premier milliard d'années de la Terre, a été perdu pour les géologues.

Il en résulte que toute évidence, à propos des mécanismes qui ont conduit à l'existence de l'eau des océans, de l'atmosphère et des différents composés de la matière organique, a été complètement oblitérée.

Dans les années 1894, un géologue suédois du nom de Hogbom avait développé l'hypothèse selon laquelle l'eau, l'air ainsi que les composés organiques, étaient originairement dégagés des profondeurs de la Terre par l'effet du volcanisme. Cette hypothèse, même s'il est vrai qu'elle est cohérente et vraisemblable, elle ne semble pas pour autant très plausible. Car, sachant que les gaz dégagés lors des explosions volcaniques ne comportent aucune trace d'oxygène, d'où vient donc le volume d'oxygène qui de nos jours compose notre air ?

Après Hogbom, d'autres scientifiques vont tenter de répondre à cette question de l'origine de l'atmosphère. Selon ces derniers, l'atmosphère date de l'ère primaire, c'est-à-dire de la période géologique qui suivit la formation de la Terre. Ces derniers affirment en effet, qu'à l'image des planètes géantes, la Terre a, au cours de sa formation, capturé une partie des matières volatiles contenus dans le nuage protosolaire. Cette hypothèse, elle non plus ne semble pas très plausible car, comme nous l'avons noté sur les pages précédentes, la masse de notre planète est très faible pour pouvoir retenir cette supposée atmosphère primaire. La seule

hypothèse qui semble être la plus fiable, est celle qui consiste à dire que notre atmosphère serait apparue plusieurs années après la formation de la Terre. Tout au début de son histoire, la Terre était à l'image des planètes Mercure et Vénus dépourvue d'atmosphère.

De nos jours, l'hypothèse acceptée et qui semble être vérifiée, par l'analyse chimique des traces d'eaux, recueillies lors du passage de la comète d'Halley, est celle qui consiste à dire que l'eau des océans, l'atmosphère et l'essentiel des matières organiques, proviennent des comètes. En effet, des études faites en laboratoire, des pluies produites par le passage de la comète d'Halley, montrent des mesures qui, même si elles ne sont pas précises, restent néanmoins analogues à celles qui sont observés dans l'eau des océans. Cette origine cométaire des eaux océaniques, de l'atmosphère etc. est d'autant plus probable, qu'elle seule, est en mesure de justifier les bombardements des comètes survenus sur notre Terre, et dont les reliques expliquent les multiples cratères observés sur la surface lunaire. Mieux encore, cette hypothèse du bombardement cométaire peut aussi expliquer, l'effet de destruction de la quasitotalité des indices fossiles, qui auraient permis aux géologues de pouvoir se renseigner sur ce qui s'est passé lors du tout premier milliard d'année de notre évolution terrestre. C'est le bombardement des comètes, qui, en fait, a labouré en profondeur toute la surface de notre planète. « Ainsi, nous avons maintenant compris que c'est un bombardement de comètes, c'est-à-dire de planètésimales glacées de 5 à 500 kilomètres de diamètre provenant des zones des planètes géantes et dont les orbites ont été perturbées par la croissance de ces dernières, qui pendant un milliard d'années nous a apporté l'eau des océans, les gaz de l'atmosphère et les composés du carbone qui étaient nécessaires à l'éclosion de la vie. »53. Mais si cette hypothèse est avérée, pourquoi la lune n'a pas au même titre que la Terre une atmosphère, s'il est vrai que toutes les deux ont subi au même titre cet effet des bombardements ?

En fait, c'est à cause de sa gravité trop faible, que la lune n'a pas pu retenir l'eau des comètes qui se sont écrasées sur elle, et moins encore les gaz volatiles portés et dégagés par ces dites comètes. En effet, ce phénomène du bombardement cométaire, plus fréquent sur la surface terrestre du fait de sa gravité supérieure à celle de la Lune, connaîtra une suite différente de celle advenue sur la Lune. Sur Terre, la gravité plus dense à l'échelle terrestre qu'à l'échelle lunaire, va réussir à retenir une partie de l'eau libérée, de même qu'une faible quantité des matières volatiles dégagées par les comètes. En plus de l'eau et du gaz éjecté sur la Terre, les bombardements cométaires ont aussi apporté à la surface de la Terre, d'infimes

53 A.Delsemme Les origines cosmiques de la vie, Flammarion, 1994, p 169

poussières microscopiques. Observables à l'oeil nu, ces poussières voyagent sous la forme d'un nuage en traversant tout notre espace atmosphérique.

Lors du passage de la comète d'Halley, ce phénomène a été observé. Ce nuage de poussière est généralement représenté sur les photos de la comète d'Halley, sous la forme d'une queue qui suit la trajectoire de la comète. Ces poussières forment un nuage opaque qui traverse l'atmosphère en finissant sa course à la surface de la Terre. En effet, ce nuage de poussières transporte, sans pour autant la détruire, toute la chimie composée dans l'espace interstellaire. Composées de matières organiques pré biotiques, ces poussières vont s'enfoncer en parties dans l'eau des océans primitifs. Avec l'interaction de l'eau encore très chaude dans les océans nouvellement formées, ces molécules organiques vont permettre l'apparition et la multiplication des microbes et des bactéries : c'est l'apparition de la vie sur Terre.

Au début de son apparition, il n'existait que les formes de vie unicellulaires. Petit à petit, et cela en se diversifiant, la vie va grimper les échelles de la complexité en faisant naître petit à petit, de nouvelles formes de vie qui en fait correspondent à la vie pluricellulaire. Cette nouvelle forme de vie va connaître une explosion démographique extraordinaire, d'où avec la diversité, apparaissent les toutes premières espèces. En effet, c'est après que les microbes et les bactéries sont apparus vers trois milliards et demi d'années, que les premières formes d'espèces pluricellulaires vont apparaître. Armand Delsemme écrit à ce propos, « C'est il y a 700 millions d'années que les organismes pluricellulaires allaient apparaître, conduisant à une accélération de la diversification des espèces et de leur adaptation à des conditions nouvelles. Ainsi les trilobites et les algues vertes allaient apparaître il y a environ 600 millions d'années, suivis de près par les premiers poissons. Il y a 300 millions d'années, les premières plantes et les premiers arthropodes allaient bientôt sortir de la mer, annonçant les fougères arborescentes et les amphibiens, puis les conifères et les reptiles. » 54

Cette citation de Delsemme traduit en fait, de manière très condensée, comment avec l'apparition des premiers organismes pluricellulaires, la vie va progressivement se complexifier et donner naissance à des formes de vie de plus en plus variées. En effet, une fois que la vie commence à se diversifier en développant des formes qui deviennent de plus en plus nombreuses, il va advenir au sein de la biosphère l'apparition des premiers organismes vivants favorisant à la fois la reproduction, qui elle-même va conditionner l'évolution. La reproduction est en fait un processus de copie, qui permet à un être vivant de fabriquer un

54 A. Delsemme, Les origines cosmiques de la vie, Flammarion, 1994, p 174

autre qui lui est identique. Ce processus est basé sur la transmission d'information. Quant à l'évolution, elle s'effectue par une modification extraordinairement lente, de l'information transmise pour la reproduction. Toutefois, il faut dire que l'évolution des formes vivantes se fait suivant deux principes que sont : l'erreur dans la reproduction, qui est à la base de l'apparition des mutations, et la survivance de l'individu le plus apte.

L'erreur dans la reproduction se fait souvent lors de la transmission du code génétique. En effet, il arrive pendant la transmission du code génétique, qu'un message soit reproduit deux fois, ce qui au fait constitue une erreur dans l'écriture du code. Si cette erreur n'est pas éliminée avant que le message ne soit transmis, elle peut créer par cumulations successives, une modification génétique qui se manifestera par une différence accusée dans les formes physiques. C'est cette différence de formes qui, si elle est transmise de génération en génération, va entraîner à long terme l'apparition d'une nouvelle espèce, qui devient de ce fait autonome et totalement spécifique par rapport à son ancêtre généalogique.

Le second élément qui participe à l'évolution, est celui de la survivance de l'individu le plus apte. La notion de survivance de l'individu le plus apte, est un phénomène qui se fait par la possession de certaines caractéristiques qui peuvent, dans le cadre de la compétition, donner un avantage à l'individu qui les développe. Pour se faire, il suffit que, dans une population donnée d'espèce vivante, la caractéristique avantageuse aussi insignifiante qu'elle puisse être, soit multipliée par le processus de la reproduction. Au fur et à mesure que cette population donnée se multiplie et continue de consolider cet avantage physique, il en résultera après quelques générations, que cette dite population va petit à petit dominer sa niche écologique, entraînant par ce fait la disparition progressive, ou mieux encore la réduction en nombre, de toutes les autres espèces qui dès lors deviennent inaptes aux conditions naturelles.

Initialement apparue dans les océans, la vie va progressivement s'étendre hors des eaux et commencer à occuper les espaces continentaux. Ce changement de niche apparemment simple, n'est pas dans la réalité aussi facile qu'on serait amené à le croire. La question qui se pose est de se demander, comment à partir de leurs milieux marins, les premiers êtres vivants vont-ils peupler les continents encore inhabités ?

Comme nous l'avons noté, les premières formes de vie étaient constituées essentiellement de microbes, bactéries et par la suite d'algues. En effet, ce sont ces dernières et plus particulièrement les algues bleues, qui vont frayer une nouvelle voie à l'évolution de la vie.

Concentrées aux bords des rochers sur la plage, les algues vont, par leur activité de photosynthèse, libérer une très forte quantité d'oxygène en absorbant le gaz carbonique encore dominant dans l'atmosphère. De ce fait, les algues se mettent à augmenter la teneur en oxygène de l'atmosphère en diminuant parallèlement celle du gaz carbonique.

Par ce travail intense des algues marines, notre atmosphère va progressivement se transformer passant de l'état réducteur, qui correspond à celui dominé essentiellement par le dioxyde de carbone, à l'état oxydant caractérisé par la prédominance de l'oxygène. Devenus de plus en plus nombreux dans l'atmosphère, les atomes d'oxygène vont eux aussi entrer dans le jeu. Ces derniers vont par la liaison atomique, se regrouper trois par trois pour donner naissance à des atomes d'ozone noté O3. Ces atomes d'ozone vont par leur nature, se séparer du reste de l'atmosphère, s'élever au-dessus de celle-ci et forme la fameuse couche d'ozone dont la destruction, fait aujourd'hui l'objet des débats politiques et écologiques. L'importance de cette couche d'ozone, est qu'elle va permettre de réduire l'énorme chute des rayons cosmiques, dont on sait que la pénétration dans les organismes vivants est une des causes pouvant entraîner des modifications génétiques. Il est visible que la couche d'ozone participe elle aussi, à l'évolution de la vie sur Terre.

D'autres scientifiques évoquent aussi l'hypothèse des pluies torrentielles, dans l'explication de l'oxydation de notre atmosphère. Selon ces derniers, notre planète a connu une période, où des pluies acides se sont déversées sur elle. Ils affirment en effet, que c'est avec l'interaction de ces pluies acides que les molécules de dioxydes de carbone, se sont liées aux molécules d'acide, pour former les premiers rochers sédimentaires de carbonates, plus connus sous le nom de calcaire.

Qu'importe l'origine de ce phénomène, il faut dire que c'est avec l'amélioration des conditions atmosphériques, que la vie commença à se développer et à s'épanouir sous des formes variées. Cet épanouissement va conduire certaines bactéries à produire et à développer, la reproduction sexuée. Cette nouvelle forme de reproduction, aura un intérêt et une importance capitale dans la stimulation de la diversité des espèces. Dans ses débuts, la reproduction sexuée n'était pas ce qu'elle est de nos jours. Jadis dans la reproduction sexuée, les cellules somatiques, c'est-à-dire les cellules ordinaires non sexuelles, contenaient un nombre pair de chromosomes qui sont presque identiques deux à deux. Pour se reproduire sexuellement, une cellule partageait sa double série de chromosomes en deux séries simples, processus appelé en biologie la méiose. Par ce processus, on aboutissait à la production de

deux cellules sexuelles contenant chacune la moitié des chromosomes initiaux. Ces cellules hybrides doivent pour se reproduire, se combiner à d'autres cellules sexuelles. Même si ce phénomène semble à première vue inutile et compliqué, il faut toutefois reconnaître ceci : « La méiose atteint pourtant un double but : d'abord, les enfants héritent de toutes les propriétés communes à l'espèce, qui ont assuré sa survie jusqu'à présent ; ensuite, ils héritent du mélange des variations qui proviennent des différences entre les deux parents, conduisant à une plus grande diversité des enfants et une lus grande variabilité de l'espèce. Cette dernière propriété est favorable à la lutte pour la vie, surtout dans un environnement qui change, par exemple à cause de la première glaciation, puis de l'apparition de l'oxygène dans l'atmosphère. »55

Avec ce phénomène de reproduction sexuée, on assiste parallèlement à une croissance en masse de la variété. Les nouvelles espèces, de plus en plus nombreuses, commencent à se complexifier et vont améliorer ainsi leur taille. Cet accroissement des tailles et poids les mènera, à développer de nouvelles caractéristiques, capables de les maintenir sous l'eau tout en préparant leur probable sortie hors des océans. C'est à cette période, que les mollusques commencent à se couvrir d'une coquille en calcaire, que l'ancêtre de l'espèce des poissons va développer des branchies lui permettant de respirer l'air, mais c'est aussi à cette époque que cette espèce va aussi développer une prémisse d'ossification. Une fois que l'oxygène est devenue assez consistant dans l'atmosphère, on assiste à une remontée en masse de certaines espèces, qui pendant longtemps animaient la vie dans les océans.

Les premières espèces capables de s'adapter hors de l'eau, quittèrent les océans et commencèrent à peupler les continents jusque-là vierges. Cette phase ne va pas durer longtemps. La raison de cette extinction s'explique par le fait qu'en ce moment, les plaques continentales, qui étaient à cette époque très proches les unes des autres, avaient subi de violentes collisions. Ces dernières, par leurs chocs, entraînèrent le réchauffement de la matière, emprisonnée dans les profondeurs de la Terre, c'est cette matière qui s'est projetée sur la Terre sous forme de gigantesques volcans. Les gaz dégagés par l'effet de ces volcans, vont recharger l'atmosphère d'une quantité énorme de dioxyde de carbone. Ces nouvelles conditions fatales pour la vie, vont entraîner la disparition extinctive de plusieurs espèces que nous retracent les reliques fossiles.

55 A.Delsemme, Les origines cosmiques de la vie, Flammarion, 1994, p 235

Le phénomène des extinctions, a été un fait très récurrent dans l'évolution des espèces. En effet, l'histoire de la vie a été rythmée par une succession d'extinctions, dont nous allons ici noter les plus importantes. À la fin de la période géologique dite du Cambrien, il y a 515 millions d'années, est advenue la première grande extinction. Cette extinction d'origine volcanique, a vu disparaître l'espèce des trilobites et des premiers poissons sans mâchoires. Après cette extinction, suivra celle de la période de l'Ordovicien. Cette extinction, aussi d'origine volcanique, a elle aussi diminué plusieurs espèces de crustacés et de mollusques. Elle est advenue il y a de cela 439 millions d'années.

Soixante millions d'années plus tard, une autre extinction va bouleverser l'histoire et l'évolution de la vie : il s'agit de l'extinction du Dévonien. Survenue il y a 367 millions d'année, elle a détruit la faune, jadis dominée par les insectes, les amphibiens, les poissons à mâchoires etc. Cette époque a aussi été celle du développement des premières plantes terrestres. Cette extinction a été suivie de celle du Carbonifère qui, elle même a duré jusqu'à la période du Permien laquelle remonte à 245 millions d'années. Puis il y a celle du Crétacé, qui a éliminé plusieurs espèces de dinosaures et mammifères. Cette extinction date de 65 millions d'années dans le passé. La dernière des extinctions est celle qui est advenue à la fin du quaternaire il y a 50 millions d'années. Cette dernière extinction est restée celle qui a mis fin au règne des dinosaures lesquels, depuis lors ont disparus de la surface de la Terre. Parmi toutes ces extinctions, deux seulement n'ont pas été d'origine volcanique. Celle advenue dans la période du Permien et celle du quaternaire. Ces deux extinctions ont été causées par glaciation. Ceci montre que l'histoire de la vie s'est faite par des va et vient rythmés par des évolutions et destructions. L'un des multiples phénomènes qui ont favorisé l'évolution et l'épanouissement de la vie sur Terre, a été la variation des glaciations.

En effet, avec la variation des périodes de glaciation, le niveau de la mer connaîtra alternativement des périodes de montée et de baisse des eaux. Avec les périodes de baisse du niveau de la mer, les algues situées aux bords des plages commencèrent à se complexifier et former les premières plantes qui, en ce moment n'avaient développé ni racine ni tige. Ces plantes vont se mettre à évoluer et former petit à petit la flore qui, en se développant de son côté, va permettre, progressivement par le jeu des variations, l'apparition des conifères et des premières fougères géantes. L'expansion fleurissante de la flore, va entraîner l'oxydation de l'atmosphère terrestre qui devient de plus en plus favorable à l'épanouissement de la vie

animale. Les êtres vivants commencent à sortir des eaux pour habiter la Terre continentale, les conditions de vie sont de plus en plus améliorées ; c'est le cas des scorpions, des insectes

etc. L'accroissement des forêts va très vite entraîner un épanouissement étonnant de la faune qui, par le processus de la reproduction, va commencer à conquérir les continents par la production d'une multitude de populations variées.

Parmi toute cette multitude d'espèces animales, il y aura tout de même une, qui restera la plus remarquable : il s'agit de l'espèce des dinosaures. Cette espèce va très rapidement s'imposer dans la compétition, et dominer tout le règne animal. Cependant, on distingue dans cette espèce, deux catégories de dinosaures. La première catégorie est composée de grands quadrupèdes herbivores. Ces derniers, très peu variés dans leur genre, peuvent atteindre l'étonnante mesure des trente mètres de long. Quant à la seconde catégorie, elle comprend un très grand nombre de sous-espèces bipèdes, dont la plus part ont entre cinq et six mètres de long. Dans cette catégorie très variée, il y en a de toutes les tailles, y compris de petites espèces dont certaines d'entre elles peuvent atteindre à l'âge adulte la taille d'un poulet. C'est en fait de cette famille de dinosaures très petits, qu'est apparu l'espèce des oiseaux. Ces espèces très petites, ne pouvant s'imposer sur la surface des continents, face à des prédateurs très voraces et très puissants, vont développer une de leurs caractéristiques par modification. C'est ainsi que ces espèces vont développer sur leurs corps, des plumes au lieu des poils comme il en était des autres espèces de dinosaures. L'explication de la possibilité de cette modification, est essentiellement due à la configuration de la nature de l'ossification des dinosaures. En effet souligne Armand Delsemme, « Contrairement aux os des mammifères qui sont denses, les os des dinosaures sont minces et poreux. Ces os légers leur ont d'une part permis d'atteindre de très grandes tailles, puis ont conduit à plusieurs familles de dinosaures volants, de transformer leurs écailles en plumes pour créer les premiers oiseaux, notamment l'archéoptéryx. »56

Par ailleurs, parallèlement à l'existence des dinosaures, on peut aussi noter celle de leurs cousins proches que constitue l'espèce des mammifères. En effet « Il y a 250 millions d'années, le Thécodonte, ancêtre des dinosaures, avait un cousin, reptile à quatre pattes qui allait devenir l'ancêtre des mammifères. Ses descendants étaient devenus, il y a 200 millions d'années de petits animaux fouineurs qui commençaient à ressembler très fort aux petits mammifères rongeurs d'aujourd'hui. Ils devaient sans doute se protéger dans des terriers et ne s'aventurer au dehors que la nuit tombée, car ils constituaient des proies de choix pour les redoutables dinosaures carnassiers. Leur reproduction commençait d'abord par une

56 A. Delsemme, Les origines cosmiques de la vie, Flammarion, 1994, p 244

incubation dans une poche ventrale à la manière des marsupiaux, puis très vite ils devenaient de vrais vivipares. »57. Cependant, l'espèce des dinosaures, va dominer et occuper la quasitotalité de la niche écologique située à la surface des continents. Ce fulgurant développement des dinosaures va, vers la fin de la période du Crétacé, subir une extinction en masse laquelle entraînera fatalement la disparition de tous les animaux dont le poids environne le minimum des vingt kilogrammes ou plus. Cette précision est même révélée par l'étude des résidus fossiles, étude selon laquelle toutes les espèces victimes de cette extinction la plus meurtrière, avaient des tailles et des poids considérables. A cette époque, disparaîtront les grandes familles de dinosaures telles que : les Tyrannosaures, les Diplodocus, les Tricératops, les Stégosaures et les Camptosaures.

La disparition de ces espèces et autres animaux moyens, va libérer l'espace de la niche écologique continentale. Il en résultera un profit pour les autres petits mammifères. Ces derniers, n'étant plus sous la menace de prédateurs dangereux, vont à leur tour connaître un épanouissement et une explosion démographique très rapide. Les mammifères vont remplacer les dinosaures et dominer le règne animal, composé d'oiseaux, de reptiles etc. A cette même période, les poissons, les crustacés et les mollusques animaient la vie dans les océans, où les algues, plus répandues que toutes les autres espèces, dominaient la niche écologique marine.

Toutefois, même s'il est avéré que c'est par une très grande extinction, que la majeure partie de la faune continentale et une partie de la faune des eaux peu profondes, ont été détruites, la cause de cette extinction est restée pendant longtemps un sujet de doute pour les scientifiques. Parmi les différentes thèses soulevées, nous allons considérer deux des plus vraisemblables.

D'abord, il y a l'hypothèse soutenue par le physicien Luis Alvarez et son fils géologue, Walter Alvarez. En effet, c'est Walter Alvarez qui, en étudiant les couches géologiques séparant l'ère secondaire de l'ère tertiaire, découvrit dans ces couches une teneur anormale en iridium. L'iridium est en fait un métal de la même famille que le platine. Comme les autres métaux de sa famille, l'iridium est très rare dans notre planète. Par contre, ce métal est très abondant dans les météorites. A partir de ce constat, Walter Alvarez et Luis Alvarez vont rapprocher les données de leur résultat à la grande extinction survenue à la fin du secondaire. Ils affirment à cet effet, qu'un bolide cosmique a dû percuter la Terre il y a 65 millions d'années, projetant dans le ciel un énorme nuage de poussières. Ce nuage, disent-ils, a constitué un écran pour les rayons de Soleil, plongeant ainsi notre planète dans une nuit

57 A. Delsemme, Les origines cosmiques de la vie, Flammarion, 1994, pp 244-245.

glacée. Ce fait selon eux aurait duré quelques dizaines d'années, ce qui a conduit à la disparition de toutes les espèces n'ayant pas su s'adapter à ces conditions climatiques.

Quant à la seconde hypothèse soutenue par le tectonicien Jason Morgan et son collaborateur paléomagnéticien Vincent Courtillot, elle explique l'extinction en faisant référence aux éruptions volcaniques de la péninsules indienne. Pour eux, ce sont les éruptions des grands volcans situés dans la trappe du Dekkan, qui seraient responsables de la modification climatique survenue à cette époque. De ces deux hypothèses, on ne peut déterminer celle qui est vraie et celle qui l'est le moins ; car toutes les deux s'appuient sur des données dont on peut vérifier la réalité scientifique. Sans chercher à être absolu, on ne peut qu'accepter ces deux propositions comme manifestant une réalité scientifique. C'est ainsi que Claude Allègre, cherchant à faire la synthèse de ces deux hypothèses scientifiquement vraies écrit : « La disparition brutale de milliers d'espèces à la fin du Crétacé, il y a soixante-cinq millions d'années, est un fait désormais établi ; cette extinction résulte d'une modification des conditions climatiques et a éliminé les espèces les moins adaptées à ces conditions extrêmes ; celles qui ont survécu étaient au contraire celles qui étaient « anormales » , peu adaptées aux conditions normales, comme ces espèces de plancton boréal égarées dans la zone équatoriale : alors que l'étude évolutive montre qu'elles étaient en train de disparaître lentement, elles s'emparent du milieu dès la crise du Crétacé. »58. Passer en revue l'idée darwinienne selon laquelle, l'adaptation aux conditions créés par une catastrophe, assure la survie en donnant ainsi un indice d'évolution de l'espèce considérée, est une entreprise légitime.

Pour revenir à notre chronologie de départ, il faut dire qu'avec la disparition des dinosaures, les mammifères vont conquérir l'espace terrestre et se multiplier en très grand nombre. On assiste par cette multiplication des espèces à l'apparition de plusieurs nouvelles espèces. En effet, issue de la famille du Thécodonte, la lignée des mammifères a pris son autonomie avec la famille des Thérapsides, une espèce de reptiles apparue il 230 millions d'années. Les thérapsides étaient de petits carnivores très actifs. Ces derniers dit-on, contrairement à la famille des lézards et des crocodiles, ont amélioré la technique de leur démarche en resserrant leurs membres sous leurs corps. Cette modification semble-t-il, leur a donné un avantage considérable dans la compétition avec les autres carnivores. Car non seulement avec leur vitesse supérieure à celle des autres, ils parvenaient facilement à attraper leur prébende, mais

58 Claude Allègre, Introduction à une histoire naturelle, Fayard 2004, p 309

aussi il était plus facile pour eux d'échapper aux reptiles géants susceptibles de menacer leur vie. Comme il a été de l'évolution des dinosaures, l'évolution des mammifères a aussi donné naissance à une variété étonnante de tailles et de comportement. Ces tailles varient des êtres très minuscules comme les musaraignes, petits mammifères insectivores au museau pointu, aux énormes mammifères tels que les éléphants d'Afrique, les mammouths ou même les baleines.

Parmi la grande famille de mammifères, les rongeurs ont été les plus nombreux. C'est dans ce très vaste zoo de diversification et de compétition, que l'ordre des primates est apparu environ 75 millions d'années, en pleine période du Crétacé. Cette espèce originairement très petite de taille, était composée selon les biologistes de trois grandes familles. Selon ces derniers, ce sont ces trois familles qui ont vraisemblablement donné naissance aux espèces des Tarsiers, des lémuriens et des singes.

Le Tarsier est un insectivore nocturne vivant dans les arbres. Ce petit animal ressemble au regard, à un petit singe de 10 à 15 cm de long. Caractérisé par sa très longue queue, le tarsier a, à l'image des autres familles de primates, des yeux énormes. La deuxième famille de primates, est celle qui a vu naître le lémurien. Cet animal qui existe encore à Madagascar de même que dans les îles Comores, possède une figure qui ressemble à celle du renard et un corps de singe. Il mesure entre 15 et 60 cm. Comme le tarsier, le lémurien a lui aussi de gros yeux. Toutefois cet animal des forêts, contrairement au tarsier, mange un peu de tout : fruits, bourgeons, feuilles, insectes, oeufs d'oiseaux ou même des petits d'oiseaux. Quant à la troisième famille de primates, elle est caractérisée par la catégorie des singes. Cette famille s'est diversifiée en plusieurs espèces qui semblent avoir toutes pour ancêtre commun, une vieille espèce de mammifère appelée «l'ancêtre du proconsul africain ».

Ce singe semble embrasser l'origine commune de tous les singes primitifs tels que, les petits singes à longue queue d'Amérique centrale, le macaque et le babouin d'Afrique. Il est aussi l'ancêtre des singes sans queue desquels on peut compter le chimpanzé, le gorille et l'orangoutang qui est le plus proche cousin de l'homme. C'est en fait, à cette lignée de singes sans queue, qu'appartient l'ancêtre de l'actuelle espèce humaine que les paléontologues appellent Australopithèque.

Apparu il y a environ quatre millions d'années, l'australopithèque avait un crâne d'environ 500 cm3 de volume. Il était essentiellement végétarien et se nourrissait de fruits.

L'australopithèque va, après quelques milliers d'années, donner naissance à l'homo habilis. Son apparition date d'environ deux millions d'années. Plus grand que son ancêtre, homo habilis avait une boîte crânienne d'à peu près 700 cm3 de volume. En plus du fait qu'il était carnivore, homo habilis avait appris à marcher debout sur ses deux pieds, ce qui lui a permis de libérer ses membres supérieurs. Une fois libérées, ses mains vont lui servir à développer la cueillette et à pratiquer la chasse. Cet animal de plus en plus conquérant, vivait en groupe, sans pour autant développer la méthode du langage parlé, qui semble être apparue avec son descendant direct qu'est l'Homo érectus.

En effet, c'est l'homo érectus qui va succéder à l'homo habilis. Cet être va perfectionner sa démarche, et devenir par amélioration un homme de conquête. Homo érectus représentera une étape importante dans l'évolution de l'homme. C'est avec lui que plusieurs découvertes seront faites à savoir, la production et le développement du langage, la découverte du feu, l'organisation en sociétés primitives etc. Apparu il y a environ 1,5 million d'années, l'homo érectus va, par les faits de la compétition, se lancer dans une vaste conquête de l'espace à la recherche de fruits et de gibier. C'est dans le cadre de ce vaste mouvement de lutte pour l'existence que, « Homo érectus découvre le feu et conquiert l'Afrique, l'Europe, l'Indonésie, la Chine. Ces migrations sont attestées par les crânes désormais nombreux que l'on a pu trouver sur tous ces continents et qui traduisent déjà une certaine variabilité dans le type homo. » 59

Enfin, le type homo érectus va donner naissance à l'homo sapiens. C'est avec ce type d'homo, que va advenir véritablement l'éveil de l'intelligence. L'homo sapiens n'a pas connu, de modifications morphologiques majeures. Généralement défini à partir de l'homme du Neandertal apparu il y a 600 milles ans, l'homo sapiens a, depuis lors jusqu'à nos jours, conservé presque les mêmes caractéristiques. Avec son crâne d'environ 2000 cm3, on peut affirmer que « C'est cet homo sapiens qui est l'ancêtre de tous les hommes, quelques soient leur race, leur couleur de peau, leur variété. La biologie moléculaire à établi sans ambiguïté cette généalogie unique en faisant justice de toutes les théories fantaisistes (et dangereuses) sur l'origine multiple des hommes modernes suivant leur race. »60. En définitive, on peut donc dire que l'homme est historiquement situé dans l'évolution animale, même si ce serait commettre une très grave erreur, de ne le considérer que comme un simple animal. Ce qui caractérise l'homme, c'est la faculté de penser, critère de différenciation par rapport aux

59 Claude Allègre, Introduction à une histoire naturelle, Fayard, 2004, p 336

60 Idem Pp 336-337

autres êtres vivants. L'univers a, grâce à sa complexité, monté les marches de l'évolution qui, l'ont conduit par la traversée de différents passages à l'émergence de l'homme. Ainsi retracée, l'évolution de l'univers peut-elle être considérée comme un phénomène né du hasard et de la pure coïncidence ? L'apparition de l'homme ne serait-elle pas une conséquence nécessaire de l'évolution de l'univers ? Ces questions aux attraits plutôt religieux ont pourtant été débattues en des termes scientifiques.

La communauté scientifique a été partagée face à cette question. Pour certains, l'apparition de la vie, et au delà de celle-ci, l'émergence de l'intelligence et de la conscience, sont liées à un simple fait du hasard, un accident de parcours dans la longue marche de l'univers. A côté de ce camp, s'érige un autre qui lui, tente de briser le joug écrasant du hasard, et essaye de rendre l'homme à sa place privilégiée dans le cosmos. Pour ces derniers, l'homme n'a pas émergé par hasard dans un univers indifférent. Ils affirment au contraire, que tous les deux sont en étroite symbiose : si l'univers disent-ils, est tel qu'il est, c'est parce que l'homme est là pour l'observer et se poser des questions. « L'existence de l'être humain est inscrite dans les propriétés de chaque atome, étoile et galaxie de l'univers et dans chaque loi physique qui régit le cosmos. Que des propriétés et des lois de l'univers se modifient un tant soit peu et nous ne serons plus là pour en parler. Le visage de l'univers et notre existence sont donc inextricablement liés. L'univers se trouve avoir, très exactement, les propriétés requises pour engendrer un être capable de conscience et d'intelligence. »61. Cette manière de penser est une façon pour ces scientifiques, de faire ressurgir la question du déterminisme dans la problématique de l'apparition de l'homme.

L'homme est apparu dans l'univers, parce que tout y a été fait tel qu'il ne pouvait pas ne pas exister. Cette hypothèse est ce que l'on appelle en terme scientifique le « principe anthropique ». Défendu dans les années 1974 par l'astrophysicien Brandon Carter, ce principe cherche à redonner à l'homme la place privilégiée où Copernic l'avait chassé.

Il ne s'agit pas selon Brandon Carter de revenir sur la position géographique de l'homme dans l'univers, mais plutôt de voir comment cet être spécifique occupe une place centrale dans le dessein de l'univers. Ce principe aussi appelé par Hubert Reeves « principe de complexité », prétend que l'univers possède, depuis les temps les plus reculés accessibles à notre exploration, les propriétés requises pour amener la matière à gravir les échelons de la gravité.

61 Trinh Xuan Thuan, La mélodie secrète, Gallimard, 1991, pp 277-278

Une telle argumentation est toutefois plus réductionniste que scientifique. Prise dans on ensemble, elle voudrait insinuer que l'évolution a, avec l'home, atteint son summum : d'oüaucune autre espèce ne peut succéder à celle de l'espèce humaine. Néanmoins, il nous est

permis de nous demander si une autre espèce pourrait un jour advenir après l'homme ? Vers quelle autre forme de vie l'espèce humaine peut-elle nous ouvrir ? Toutes ces questions ne semblent pas très scientifiques, mais elles ne restent pas tout de même insensées.

Aujourd'hui on voit qu'avec les travaux entrepris dans le domaine de la génétique, il est possible de stimuler des modifications, et conditionner ainsi de nouvelles brèches à l'évolution. Par ailleurs avec la dégradation de notre environnement, l'homme ne s'expose-til pas à sa propre destruction ? Car s'il est avéré que la couche d'ozone est cet écran qui nous protège des rayons cosmiques, et sachant que ces rayons cosmiques peuvent engendrer dans l'accélération des modifications génétiques, ne serait-il pas plus noble pour toute l'humanité de se donner corps et âme dans le combat pour l'écologie et protéger ce joyau que l'univers nous a offert et qui se trouve être la Terre ? Ces implications sont de nos jours les véritables questions, que la science doit désormais se poser, et qui dans la mesure des débats doivent consolider les discussions sur les enjeux de la bioéthique.

III

Le chaos : un

nouveau paradigme

Comme l'a montré Thomas Samuel Kuhn, à travers l'évolution de la science, toute époque génère une vision générale du monde, un paradigme par lequel elle interprète et construit la réalité. En effet la science moderne, du 17ème siècle jusqu'à nos jours, peut être divisée en deux types de paradigmes : le premier étant celui dominé par les figures de Descartes, Newton et Laplace, tandis que le second est celui encadré par les travaux de Einstein sur la Relativité, de Planck sur la physique quantique et de Lorenz sur le chaos. Le premier paradigme aussi appelé « paradigme de la science absolue » traduit l'image traditionnelle de la science. Selon ce paradigme, la matière, et au-delà de celle-ci l'univers, étaient caractérisés par le déterminisme, la réversibilité et la prévisibilité du phénomène. Dans ce paradigme, pour analyser un phénomène, on procédait par réductionnisme et généralisation. Le raisonnement se réduisait en termes mécanistes, sur des systèmes linéaires, isolés et fermés.

En effet, c'est sous la bannière de cette conception, qu'a été forgée l'image d'un monde immuable et déterministe que la dynamique classique permettait de décrire. Ce qui justifie le fait que la science traditionnelle, à l'image de la dynamique classique, ne s'occupait que des phénomènes dont les comportements étaient à la fois réductibles et réversibles. Le flou, l'accident, l'événement, l'incertain, l'aléa étaient tous rejetés hors du champ de la rationalité, donc hors du domaine de la pensée dominante. Dés lors, toute tentative visant à les réintégrer apparaissait, aux yeux des scientifiques éduqués dans le cadre de l'ancien paradigme, comme anti-scientifique et irrationnel.

Cependant cette vision à la fois réductionniste et contraignante de la science, sera très vite remise en cause à partir du 20ème siècle. En effet nous dit Trinh Xuan Thuan, « Le 20ème siècle a vu s'écrouler l'un après l'autre les murs de certitudes qui entouraient la forteresse de la physique newtonienne. Einstein, avec sa théorie de la Relativité, fit table rase en 1905 de la certitude newtonienne d'un espace et d'un temps absolus. Dans les années 1920 à 1930, la mécanique quantique détruisit la certitude de tout pouvoir mesurer aussi précisément que possible. La vitesse et la position d'une particule élémentaire de matière ne pouvaient plus être mesurées en même temps avec une précision illimitée. Un dernier mur de certitude s'est effondré à la fin du siècle : la science émergente du chaos est venue éliminer la certitude

newtonienne et laplacienne d'un déterminisme absolu de la Nature. Avant l'avènement du chaos, « ordre » était le maître mot. Le mot « désordre »était au contraire tabou, ignoré, banni du langage de la science. La Nature devait se comporter de manière régulière. Tout ce qui était susceptible de montrer des velléités d'irrégularité ou de désordre était considéré comme une monstruosité. La science du chaos a changé tout cela. Elle a mis de l'irrégularité dans la régularité, du désordre dans l'ordre. Elle a enflammé l'imagination non seulement des scientifiques, mais aussi du public, car elle se préoccupe d'objets à l'échelle humaine et parle de la vie quotidienne. » 62

Ce beau texte de Trinh retrace de manière très brève, la révolution scientifique et conceptuelle que la théorie du chaos a établie dans le domaine de la science. En effet, la théorie du chaos est une des rares, des très rares théories mathématiques qui ait connu un vrai succès médiatique. Apparue dans les années soixante en météorologie, cette théorie s'est très rapidement étendue à tous les domaines de la science. Certains spécialistes sont même allés jusqu'à comparer les remous qu'elle a créés, aux brillants succès qu'ont connus en leurs débuts, la mécanique newtonienne, la relativité de Einstein ou même la mécanique quantique.

Tel que le définit le Petit Larousse, le « chaos » signifie un état de grand désordre, de confusion générale. Cette définition, malgré le fait qu'elle ne décrit pas les caractéristiques de la science nouvelle, reste tout de même celle que la grande partie du sens commun retient, lorsqu'on prononce le mot chaos. En effet, tel que le comprend le scientifique, le chaos ne signifie pas « absence d'ordre » ; celui-ci traduit plutôt un état d'imprévisibilité, d'impossibilité de prévoir à long terme. Techniquement, le terme « chaos » correspond à l'état particulier d'un système qui, non seulement ne se répète jamais, mais aussi a une dépendance sensitive par rapport aux conditions initiales. Ce qui veut dire que, des différences extrêmement faibles dans les valeurs des paramètres, peuvent s'amplifier et aboutir à des résultats largement divergents.

Historiquement, la science du chaos s'est établie à la suite des travaux du physicien Américain Edward Lorenz, sur la prévision météorologique. Cependant, bien avant Lorenz, un des anciens génies de la science occidentale, Henri Poincaré, avait posé les jalons de ce qui deviendra la plus brillante révolution de notre siècle. Mathématicien français de grande renommée, Henri Poincaré était un des grands scientifiques qui s'étaient insurgés contre la dictature du déterminisme newtonien dés la fin du 19ème siècle. En effet, Poincaré fut le

62 Trinh Xuan Thuan, Le chaos et l'harmonie, Gallimard, 2000, pp 105-106

premier à réfléchir sur le problème de la dépendance du comportement de certains systèmes, vis-à-vis des conditions initiales. Il s'aperçut que pour de nombreux systèmes, un petit changement au début conduisait à un changement majeur de leur évolution ultérieure. Pour ces systèmes, le futur ne pouvait plus être connu ; ce qui alors rendait les prédictions à long terme complètement vaines.

C'est ainsi que, contre le credo laplacien du déterminisme universel selon lequel, « pour une Intelligence qui embrasserait dans la même formule les mouvements des plus grands corps de l'univers et ceux du plus léger atome, rien ne serait incertain pour elle, et l'avenir comme le passé serait présent à ses yeux » ; Henri Poincaré lança un avertissement prémonitoire dans son ouvrage Science et méthode publié en 1908. En effet, Poincaré écrit dans un extrait de cet ouvrage : « Une cause très petite, qui nous échappe, détermine un effet considérable que nous ne pouvons pas ne pas voir, et alors nous disons que cet effet est dû au hasard. Si nous connaissons exactement les lois de la Nature et la situation de l'univers à l'instant initial, nous pourrions prédire exactement la situation de ce même univers à un instant ultérieur. Mais, lors même que les lois naturelles n'auraient plus de secret pour nous, nous ne pourrions connaître la situation initiale qu'approximativement. Si cela nous permet de prévoir la situation ultérieure avec la même approximation, c'est tout ce qu'il nous faut, nous disons que le phénomène a été prévu, qu'il est régi par les lois ; mais il n'en est pas toujours ainsi, il peut arriver que de petites différences dans les conditions initiales en engendrent de très grandes dans les phénomènes finaux ; une petite erreur sur les premières produirait une erreur énorme sur les derniers. La prédiction devient impossible et nous avons le phénomène fortuit. »

L'un des principaux exemples qui mirent en valeur cette prédiction de Poincaré, est celui connu en physique sous le nom de problème des trois corps. Comme l'indique son nom, le problème des trois corps, traduit la difficulté rencontrée en physique lorsqu'on tente de décrire les trajectoires produites par l'interaction gravitationnelle d'un système composé par trois corps, semblable au triptyque Soleil - Lune - Terre. Dans ce cas précis de notre système solaire, les attractions exercées d'une part par le Soleil sur la Lune, et d'autre part par la Terre sur cette dernière, occasionnent des irrégularités dans les trajectoires de notre gros satellite, la Lune.

En effet, depuis des siècles, les scientifiques et les astronomes qui se sont succédés tout au long de la civilisation humaine, de la tradition greco-babylonienne à l'avènement de la

science moderne, ont tenté, chaque époque avec ses génies, d'expliquer sans réussir véritablement, le mouvement de la Lune. Contrairement aux planètes, la lune décrit un mouvement dont les orbites sont à la fois irrégulières et imprévisibles. A son temps déjà, Newton, à la suite de son prédécesseur Kepler, avait tenté de résoudre ce problème. Pour s'attaquer à cette difficulté, le scientifique Britannique avait tenté d'intégrer le problème du mouvement de la lune, dans une suite d'équations semblables aux équations différentielles par lesquelles on décrivait le mouvement des planètes.

Pour ce dernier, comme il en est pour deux corps, le mouvement de la lune devait pouvoir être résolu en augmentant l'indice de la lune à celle, déjà résolue, de l'interaction entre le Soleil et la Terre. Cependant, malgré les multiples efforts qu'il déploya pour résoudre ce problème majeur de la science du 19ème siècle, Newton n'a pas pu faire mieux que ses prédécesseurs. Ce qui, par conséquent a laissé le problème des trois corps, sans solution véritable jusqu'au 20ème siècle. En effet, le problème de l'interaction de trois corps, ne connaitra une solution véritable qu'en 1889. Lors de cette année légendaire, le Roi Oscar de Suède proposa aux mathématiciens du monde entier un concours, dont l'objet consistait à résoudre le problème du comportement de trois planètes. En guise de récompense, le roi Oscar décida de remettre à celui qui résoudrait ce problème, sur lequel avaient buté Kepler, Newton et Laplace, le Grand Prix International du roi de Suède. En fait, ce problème se formulait comme suit : « Le système solaire est -il stable ? »

Face à une compétition de cette ampleur, Henri Poincaré décida de relever le défi. Poincaré était un personnage hors du commun, un des plus grands mathématiciens de notre époque et sans doute le plus universel. Lorsqu'il se mit à travailler sur ce problème, Poincaré découvrit très vite que les solutions des équations de Newton n'étaient pas intégrables dans le cas de trois planètes. C'est alors qu'il eut l'idée géniale d'aborder le problème d'une toute autre façon : par la géométrie. Il inventa pour se faire le concept « d'espace des phases ». Cette notion purement mathématique, permettait en fait de suivre dans le temps, l'évolution de l'état d'un système physique. En effet, pour réaliser un « espace des phases », on construit d'abord un modèle avec les lois physiques et les paramètres nécessaires et suffisants pour caractériser le système considéré. Dans cette nouvelle vision géométrique, les modèles des systèmes sont caractérisés par des équations différentielles par lesquelles on définira, à un instant donné, un point dans un repère. Ce point caractérisera l'état du système dans l'espace à cet instant. C'est cet espace que l'on nomme « espace des phases ». Dans cet espace, lorsque le temps

s'écroule, le point représentant l'état du système, décrit en général une courbe : on parle alors de son orbite.

A la suite de nombreuses représentations effectuées dans le cadre des mouvements de trois corps, Poincaré tira la conclusion que les trajectoires, de trois planètes s'influençant mutuellement, étaient imprévisibles. Ce qui revient à dire que le système solaire ne fonctionnait pas comme une horloge. Pour la première fois donc, les lois de Newton montraient leurs limites ; sur ce point particulier, l'avenir redevenait imprévisible. N'ayant pas d'ordinateur, Poincaré ne put explorer ni même simuler le comportement de trois planètes dans leur espace des phases, comme le fera cinquante ans plus tard Edward Lorenz sur la météo. Faute de quoi, il aurait pu donc découvrir les attracteurs étranges et le chaos. Personne à cette époque, ne saisit l'importance de la découverte de Poincaré.

Par manque d'intérêt pour la science d'alors, les travaux de Poincaré sont restés sans continuité ; ce qui par conséquent a interrompu momentanément le processus qui aurait permis à la théorie du chaos de voir le jour. C'est ainsi que Lorenz reprendra en 1960, sans pour autant le savoir, le témoin longtemps défendu par Poincaré. La théorie du chaos, née à la suite des travaux de Lorenz, propose pour l'univers un modèle déterministe tout en laissant une place au hasard, une dimension à l'imprévisible.

Dans cette troisième partie, nous allons montrer dans un premier temps comment le hasard, longtemps chassé du domaine de la science, reste malgré tout une caractéristique qui a beaucoup joué aussi bien dans la formation du réel, que dans le comportement de certains phénomènes. Dans une seconde section intitulée « l'effet papillon », nous montrerons que dans les systèmes dynamiques instables à forte dépendance sensitive aux conditions initiales, de petites causes conduisent, dans certains cas, à de grands effets initialement imprévisibles. Enfin dans la dernière section consacrée à la mécanique quantique, nous montrerons comment cette nouvelle branche de la physique a fini par battre en brèche, la certitude newtonienne du déterminisme.

III- 1 / Le hasard

Le hasard est la part maudite de notre vie de tous les jours. Chacun le rencontre, personne ne l'explique. Au regard de notre logique mentale, le hasard est rejeté, dénié. Cette attitude participe en fait de ce qui a rendu négative la définition du hasard : il n'est qu'absence d'ordre. En effet, pour des raisons de commodité et de cohésion sociales, on préfère généralement éviter la confrontation directe avec le hasard, car celui-ci ne se laisse pas facilement apprivoiser par l'explication. Cependant, au cours de l'histoire de la physique, le hasard a suscité dans son explication deux attitudes aussi extrêmes et aussi paradoxales l'une que l'autre. En fait, fondées sur le même refus qu'il puisse exister une absence d'organisation, ces pensées axées autour de l'explication du hasard ont fini par scinder les scientifiques en deux camps qui se heurtent mutuellement. Ceux qui y croient, le font au nom d'un ordre sousjacent ne relevant pas de la causalité cartésienne, tandis que ceux qui refusent d'y croire le font, eux aussi, au nom d'un ordre causal non encore élucidé.

Dans la préface à son ouvrage Hasard et chaos, David Ruelle écrit : « Le hasard a sa raison, dit Pétrone, mais quelle raison ? Et qu'est-ce- que en fait le hasard ? D'où vient-il ? A quel point le futur est-il prévisible ou imprévisible ? A toutes ces questions, la physique et les mathématiques apportent quelques réponses. Des réponses modestes, et parfois incertaines, mais qu'il est bon de connaître. [...]Les lois de la physique sont déterministes. Comment donc le hasard peut-il faire irruption dans notre description de l'univers. »63 Rien que dans la formulation même de cette citation, la succession des interrogations révèle les difficultés auxquelles on se trouve confronté, lorsqu'on tente d'expliquer la notion de hasard.

Si on se réfère aussi bien à l'histoire de la philosophie qu'à l'évolution des idées scientifiques, on se rend compte que la notion de hasard, longtemps chassée du domaine de la rationalité, n'a que tardivement réintégré les champs de celle-ci. En effet, la science occidentale a été, pendant prés de trois siècles, guidée par la philosophie de Descartes et la physique de Newton. Or, comme on le sait déjà, la science newtonienne considérait la Nature comme un Tout ordonné, susceptible d'être expliqué par la raison humaine. Dans ce paradigme galiléo-newtonien, lorsqu'on connaît l'état d'un système physique à un instant donné, aussi nommé instant initial, on peut déduire son état futur à tout autre instant. Car selon Newton, pour tout système donné, les forces de celui-ci sont à chaque instant déterminées par l'état du système à cet instant initial. La conséquence d'une telle idée consiste à dire que, connaissant l'état d'un système à son état initial, on peut calculer comment cet

63 David Ruelle, Hasard et chaos, Odile Jacob, 1991, p 7

instant varie au cours du temps. Ce qui revient à dire qu'on peut parfaitement connaître un système physique, dés lors que l'on connaît les paramètres suivant lesquels celui-ci est déterminé.

C'est en raison de ce credo déterministe, que Laplace a soutenu dans son Essai philosophique sur les probabilités la possibilité, pour une intelligence qui connaitrait pour un instant donné, l'ensemble des paramètres régissant la Nature, d'acquérir une connaissance idéale. Même si Laplace reconnaît la supériorité de cette intelligence par rapport à l'esprit humain, il n'exclut pas pour autant la possibilité pour l'homme d'avoir, à l'image de ce « démon », une connaissance plus ou moins approximative de la réalité. Nous voyons, que selon Laplace tout peut être prédit dans la Nature, connaissant au préalable les conditions initiales. Or, une telle conception scientifique revient à dire que rien n'est fortuit dans la nature : le hasard en tant que tel n'existe pas, il n'est qu'une imperfection de notre connaissance. C'est au regard d'une telle considération philosophique, qu'il devient important de se demander si, le hasard se réduit seulement à une simple attitude psychologique ou à une convention sociale ; ou bien existe-t-il un hasard pur, loin de notre manipulation humaine ?

Comme le souligne David Ruelle, l'étude du hasard, c'est-à-dire son exploitation scientifique, a commencé à partir du 17ème siècle. Selon Ruelle, c'est à partir des travaux de Blaise Pascal, Pierre Fermat, Christiaan Huygens et Jacques Bernoulli, les tous premiers à s'être intéressés à l'analyse des jeux dits de « hasard », que la notion de hasard sera pour la première fois considérée comme objet de science. En effet, comme leur nom l'indique, les jeux dits de hasard comportent de manière intrinsèque une incertitude liée à la connaissance des résultats. Dans ces types de jeux, aucune connaissance des conditions initiales n'est en mesure de procurer au joueur une certitude fiable à propos du résultat final. Ce qui veut donc dire, que quelque soit la perfection de notre connaissance, nous ne pouvons jamais être totalement sûr du résultat qui adviendra. L'analyse de ces jeux a donné naissance à une nouvelle branche des mathématiques appelée « calculs de probabilités ».

Longtemps considéré par les mathématiciens eux-mêmes comme une branche mineure des mathématiques, le calcul des probabilités s'est progressivement posé comme l'un des outils incontournables pour la connaissance de nombreux phénomènes. En effet, à l'opposé des autres branches des mathématiques, « Un fait central du calcul des probabilités est que si l'on joue à pile ou face un grand nombre de fois, alors la proportion des piles (ou des faces) devient voisine de cinquante pour cent. Ainsi, à partir d'une incertitude totale quand au

résultat d'un jet de pièce, on arrive à une certitude à peu prés complète pour une longue série de jets. ». 64 Cependant, en dépit des énormes progrès accomplis par le développement du calcul des probabilités, il faut attendre le 20ème siècle pour voir la notion de hasard intégrer réellement le domaine de la science.

L'étude du hasard comme objet de science, n'a pu être effective qu'avec la création vers 1900 de la mécanique statistique, par Ludwig Boltzmann et l'Américain J. Willard Gibbs. En effet, cette nouvelle branche de la physique, à côté du fait qu'elle permet de décrire les mouvements des molécules contenues dans un gaz, s'intéresse à déterminer la quantité de hasard contenue dans une structure à comportement chaotique. Dans un système dit chaotique, l'état final n'est pas strictement déterminé par les conditions initiales ; car à cause de la non linéarité de ce type de système, des structures nouvelles inattendues peuvent apparaître de manière totalement imprévisible. C'est ainsi que dans ces dits systèmes, l'évolution ne se calcule pas en termes linéaires, mais plutôt en termes de probabilités. Ces dernières consisteront à donner les différentes chances qu'on a, de trouver le système dans un de ses états potentiels. Avec l'avènement de la mécanique statistique, le passage de la négation du hasard à sa domestication par la physique moderne est devenu plus aisé.

Toutefois, malgré les multiples efforts consacrés par les défenseurs de la mécanique statistique en vue d'une reconnaissance du hasard comme caractéristique de la nature, la physique a dû attendre plusieurs années pour reconnaître le rôle véritable, que nous devons, dans notre fabrication du réel, à cette notion. En fait, c'est avec le changement de paradigme établi par l'avènement de la théorie du chaos, que peut être mesurée l'importance jouée par le hasard dans l'élaboration de la Nature. En effet, pendant plusieurs siècles, l'étude de l'univers ainsi que celle de ses composantes, a conduit philosophes et scientifiques à considérer pour la plupart, l'existence de l'univers comme un fait nécessaire ; négligeant ainsi le rôle, à la limite essentiel, que l'impact du hasard a pu y exercer.

En dépit des multiples considérations métaphysico religieuses que l'étude de l'univers a eu à concéder en faveur du postulat de la nécessité, la cosmologie moderne compte aujourd'hui de nombreux exemples, à travers lesquels ce constat du rôle joué par le hasard dans la fabrication du Réel est sans équivoque. En effet, partant d'une étude rétrospective, de la formation de notre système solaire à celle de différentes planètes qui le composent, on se rend compte que la notion de contingence a, pour bien des cas, joué un rôle fondamental. Dans un

64 David Ruelle, Hasard et chaos, Odile Jacob, 1991, p 13

de ses ouvrages, Trinh Xuan Thuan a essayé de montrer l'importance et la nécessité que la science se doit aujourd'hui de tenir compte de l'élément contingent de la Nature. En effet dans un extrait révélateur, l'astrophysicien d'origine vietnamienne écrit : « Nous avons vu que nombre de processus physiques relèvent de l'universel. Mais la contingence joue aussi un rôle non négligeable dans le façonnement du Réel. Et si nous ne reconnaissons pas cet élément de hasard, si nous ne tenons pas compte de cette intrusion de l'histoire, nous courons le risque, dans notre recherche des lois de la Nature, de faire fausse route. »65

Cette remarque de Trinh, est d'autant plus importante, qu'il existe dans l'histoire de la science occidentale des exemples qui peuvent la confirmer. En effet, un des exemples les plus patents, justifiant cet argument de Trinh, est celui advenu dans l'histoire de la cosmologie avec Johannes Kepler. Pour avoir négligé la part de contingence que pouvait avoir la manifestation de la nature, cet astronome Allemand l'apprit à ses dépens, lorsqu'il voulut expliquer la disposition des planètes dans le système solaire. Pour Kepler, Dieu est un fin géomètre, d'où selon lui, la beauté et l'harmonie des mathématiques devaient se refléter dans le ciel, c'est-à-dire dans la disposition des planètes. Pour élaborer sa thèse, Kepler se servit dans son explication d'une ancienne idée émise par le célèbre géomètre Euclide. En effet, Euclide avait démontré que dans l'espace à trois dimensions, il ne peut exister que cinq solides dont les faces sont identiques. Ces solides nommés pythagoriciens en référence au nom de leur découvreur, sont composés du Tétraèdre constitué de quatre triangles, du Cube constitué de six carrés, de l'Octaèdre composé de huit triangles, du Dodécaèdre constitué de douze pentagones et enfin de l'Icosaèdre composé de vingt triangles.

Comme du vivant de Kepler, il n'était connu que six planètes seulement, en raison des planètes Uranus, Neptune et Pluton encore ignorées ; ces six planètes connues étaient séparées par cinq intervalles. Cinq solides, cinq intervalles entre les planètes. Pour Kepler, ce ne pouvait être une simple coïncidence, d'où il supposa que cette concordance expliquait à la fois le problème du nombre de planètes et leur disposition par rapport au Soleil. Une fois que la concordance fut établie, Kepler construisit une image nouvelle du système solaire, où les cinq solides pythagoriciens étaient encastrés dans les six sphères planétaires. Cette nouvelle image était ainsi constituée : Mercure - Octaèdre -Venus -Icosaèdre - Terre - Dodécaèdre - Mars - Tétraèdre - Jupiter - Cube - Saturne.

65 Trinh Xuan Thuan, Le chaos et l'harmonie, Gallimard, 2000, p 44

Aujourd'hui, il est facile de constater jusqu'à quel point, ce précurseur de la science moderne et découvreur des lois qui régissent le mouvement des planètes, s'était fondamentalement trompé. Son erreur lamentable vient du fait qu'il n'a pas su distinguer le hasard de la nécessité, la contingence de l'universel. Il s'était évertué à appliquer son sens de la beauté et de l'harmonie de la Nature, à des phénomènes contingents. De nos jours, on sait que le nombre exacte des planètes aussi bien que leur disposition par rapport au Soleil ne sont pas des données nécessaires, mais relèvent de la succession d'incidents historiques qu'est le hasard de l'agglomération des grains de poussières dans la nébuleuse solaire. Car dans un autre système solaire autour d'une autre étoile, le nombre des planètes et les distances les séparant seront différents. Il est à noter, que la nécessité n'est un bon guide que quand il s'agit de l'universel. Ce qui veut dire, que pour expliquer les phénomènes naturels, il nous faut à la fois découvrir les lois qui régissent le nécessaire et reconstituer les événements fortuits.

Pour continuer toujours sur notre exposé apologétique du hasard, nous allons à présent examiner un autre exemple concernant cette fois-ci notre planète, la Terre. En effet, notre planète manifeste une inclination sur son axe du Zodiaque de 23.5° par rapport à la perpendiculaire. Pendant des siècles déjà, les astronomes savaient que notre planète ne se tenait pas droit par rapport à l'axe du Zodiaque, cependant personne n'était en mesure d'expliquer la raison véritable de cette légère inclination. Longtemps restées mystérieuses, l'inclination de notre planète ainsi que celle de tant d'autres, se révèlent, de nos jours occasionnées par des collisions avec des astéroïdes. Notre planète, de même que tous ses homologues voisins ont connu au cours de leur histoire, une longue période marquée par d'intenses bombardements de comètes et d'astéroïdes. Ces événements scientifiquement avérés seront reconsidérés par le nouveau paradigme du chaos, pour justifier plusieurs phénomènes.

En effet, c'est dans le cadre de ces reconstructions de thèses scientifiques, que de nombreuses considérations cosmologiques stipulent de nos jours, que c'est à la suite d'une de ses nombreuses collisions que notre planète a quitté sa position perpendiculaire par rapport à son axe de rotation. Selon cette même thèse, cet événement de violents tamponnements s'est produit à une époque où la population des astéroïdes est devenue très amenuisée. Ce qui de ce fait, a rendu les collisions tellement rares qu'une correction ultérieure devenait très improbable. Ainsi, faute de collision correctrice, notre planète la terre est restée légèrement penchée, donnant aux hommes l'avantage du changement de saisons que nous remarquons dans la vie. On voit que cette collision aujourd'hui bénéfique aux populations terrestres,

relève pourtant du domaine de la contingence et de l'aléatoire ; puisque celle-ci n'était inscrite de manière fondamentale dans aucune loi de la Nature.

Pour continuer à entendre les « louanges » adressées à « notre dame du hasard », restons encore à l'écoute des chantres de la fabrication du réel. En fait, un des autres faits relevant du hasard, se trouve lié à la formation de la Lune, satellite de la Terre. En dépit des différentes théories et explications soulevées pour justifier aussi bien sa présence que sa parfaite rotation autour de la Terre, notre certitude d'avoir atteint l'explication adéquate à la formation de la Lune est presque établie. En effet, parmi les quatre hypothèses généralement retenues, une seule nous paraît concorder avec la réalité.

La première hypothèse suppose que la Lune est née de la même façon que toutes les autres planètes et autres satellites du système solaire ; c'est-à-dire par le jeu de l'agglomération des planétésimales, il y a quelques 4.6 milliards d'années. Selon cette thèse, l'embryon de la Lune s'est développé au sein d'un anneau de matière gravitant autour de la Terre, tout comme les neuf planètes de notre système solaire se sont développées autour d'anneaux de matière gravitant tous autour de notre étoile le Soleil. Cependant, même si cette hypothèse paraît plausible, elle n'explique pas pour autant pourquoi la Lune est si grosse par rapport à la Terre (la taille de celle-ci fait environ le quart de celle de notre planète), tandis que les satellites de Jupiter, Mars et Saturne sont beaucoup plus petits, comparés à leurs planètes.

La seconde hypothèse, plus étonnante que la première, pose l'idée d'une lune originairement étrangère à notre système solaire. Selon cette dernière en effet, la Lune est un astre errant venu visiter notre système solaire. Cette thèse continue et affirme que c'est lors de cette visite autour de notre système solaire, que la lune sera capturé par la gravite de la terre, ce qui depuis lors l'a maintenue en rotation autour de notre planète. Cette hypothèse, même si elle permet d'expliquer partiellement pourquoi la Terre est la seule des quatre planètes telluriques à posséder un si gros satellite, elle non plus ne tient plus la route dés qu'elle est examinée de prés. La raison demeure, d'une part il faut reconnaître que la capture d'astres s'approchant du voisinage de la Terre par cette dernière est extrêmement improbable ; car nombreux sont les astéroïdes qui viennent régulièrement visiter les abords de la Terre, jamais ils ne s'y attachent, tous repartent vers les confins du système solaire d'où ils sont venus, d'autre part si la Lune était capturée comme le suppose cette hypothèse, elle aurait, selon les lois képlériennes du mouvement des planètes, une orbite en forme d'ellipse aplatie et non

celle presque circulaire observée. Faute de preuve conséquente, cette hypothèse sera très vite reléguée aux oubliettes.

La troisième hypothèse plus originale que les deux premières, a été suggérée par l'astronome anglais Georges Darwin, le fils de Charles Darwin le père de la théorie de l'évolution des espèces. Selon lui, c'est la Terre qui a accouché de son satellite la Lune. Ce dernier stipule que la lune a été éjectée de la Terre, par la force centrifuge résultant de sa rotation. En effet souligne Georges Darwin, « A son origine, la Terre aurait tourné beaucoup plus vite qu'aujourd'hui. La force centrifuge, très supérieure, aurait alors arraché une région entière de l'écorce terrestre et l'aurait propulsée dans l'espace, créant un grand trou à la surface de notre planète, à l'emplacement de ce qui est maintenant le bassin de l'océan Pacifique. Ce morceau expulsé de la Terre se serait ensuite condensé pour former la Lune. »

66

Selon cette hypothèse donc, la Terre aurait dans le passé une vitesse de rotation largement supérieure à celle de 30kms/s que nous lui connaissons aujourd'hui ; condition sans laquelle elle n'aurait pu produire cette supposée force centrifuge. Cependant, des données produites sur la base de simulations faites sur ordinateur, donnent lieu à une improbabilité. Les calculs montrent que, pour qu'une force centrifuge capable d'éjecter la lune se produise, il aurait nécessité que notre planète tournât à une vitesse dix fois supérieure à sa vitesse de rotation actuelle. Ce qui voudrait dire que la Terre faisait un tour sur elle-même en seulement deux heures et demie. Or, à une telle vitesse de mouvement, on imagine mal comment l'agglomération des gravillons qui a conduit à la formation de la Terre, a pu se réaliser. En outre, cette hypothèse de Georges Darwin ne nous explique pas comment et pourquoi la vitesse de la Terre a-t-elle décru jusqu'à atteindre les vingt-quatre heures, nécessaire aujourd'hui à la Terre pour faire un tour complet sur elle-même. Enfin, l'hypothèse de la force centrifuge est irrecevable parce qu'on sait aujourd'hui que les océans sur Terre, se forment non par l'éjection de morceaux de croûte terrestre, mais par la dérive des plaques continentales qui crée de grandes fosses où s'engouffrent leurs eaux. On sait que des quatre hypothèses retenues, trois se révèlent inadéquates.

A présent, comme à la fin d'un roman policier d'Agatha Christie, arrive le moment fatidique où le détective rassemble tous les indices pour exposer la solution du problème. Dans le cas de notre tentative d'explication de l'origine de la lune, l'indice principal se trouve dans ce que

66 Trinh Xuan Thuan, Le chaos et l'harmonie, Gallimard, 2000, pp 59-60

les astronomes ont appelé la théorie du « Grand Impacteur ». En effet, cette théorie explique l'origine de la Lune de la manière suivante : elle postule qu'un très gros astéroïde de la taille d'un dixième de celle de la terre, aurait percuté la planète bleue, faisant ainsi voler en éclat une partie de son écorce. Cette même théorie continue et affirme que : « Sous la violence du choc, des gerbes de matière provenant à la fois de la Terre et du Grand Impacteur jaillissent alors dans l'espace. Une partie de la fantastique énergie d'impact se convertit en chaleur qui liquéfie et volatilise la matière éjectée. L'eau et les éléments volatils s'évaporent et se perdent dans l'espace. De la matière éjectée, la partie qui ne s'est pas évaporée est surtout composée d'éléments réfractaires. Celle-ci s'assemble pour former une Lune pauvre en éléments volatils et riche en éléments réfractaires. Cette théorie d'une collision gigantesque explique encore bien d'autres faits. La Lune a une densité proche de celle de l'écorce terrestre, puisque la première a été arrachée à la dernière par un choc violent. Le coeur de la Lune est pauvre en fer, car la partie centrale de l'astéroïde impacteur, riche en fer, s'est incorporée à la Terre. La puissance des ordinateurs modernes a permis de vérifier la plausibilité d'une telle hypothèse. La théorie du Grand Impacteur est actuellement la meilleure sur le marché pour expliquer l'origine de la Lune. Elle a le vent en poupe car, comparée aux théories rivales, c'est elle qui rend le mieux compte des indices recueillies. »67

Une fois de plus, le hasard et la contingence de la nature ont encore fait parler leur puissance, s'agissant de déterminer le réel et de permettre son harmonie à son niveau le plus profond. Cet événement aléatoire advenu il y a 4.6 milliards d'années, est aujourd'hui responsable non seulement de la clarté obscure qui illumine nos campagnes par les nuits de pleine lune, mais aussi dans une certaine mesure de notre existence. Car comme l'a montré le professeur Trinh, la Lune joue, au-delà du rôle de lanterne nocturne ou de compagnon des jeunes amours, un autre rôle à la limite essentiel pour notre existence. En fait par son rôle de stabilisatrice du climat terrestre, la Lune a été indispensable à l'émergence de la vie. Des simulations faites sur ordinateur ont montré que si on ôtait la Lune de sa position de satellite terrestre, son absence dans notre système solaire aurait engendré sur notre planète d'énormes conséquences.

En effet, Jacques Laskar et ses collègues du bureau des longitudes de Paris, ont montré qu'en l'absence de la Lune, l'axe de rotation de la terre, se comporterait de façon tout à fait fantasque. Ce dernier stipule que si notre planète était démunie de sa très chère Lune, l'état de

67 Trinh Xuan Thuan, Le chaos et l'harmonie, Gallimard, 2000, pp 61-62

déséquilibre dans lequel elle serait plongée, l'aurait amenée à décrire des variations allant d'une position perpendiculaire au plan du Zodiaque, à la position presque couchée, semblable à celle de la planète Uranus. Le plus étonnant dans toutes ces prédictions, c'est qu'en l'absence de la Lune, l'axe de rotation de la Terre qui oscillerait entre plusieurs variations pendant un temps géologiquement court de quelques millions d'années se comporterait de façon tout à fait chaotique. Ce qui, entre autres conséquences, n'aurait pas permis l'émergence ni le développement de la vie. A ce propos Trinh Xuan Thuan écrit : « Ainsi, en freinant le comportement inconstant de la Terre, la Lune a permis à l'homme de faire son apparition. A nouveau nous devons apprécier ici le rôle fondamental de la contingence le façonnage de la réalité. Une collision accidentelle d'un astéroïde avec la Terre, en la faisant accoucher de la Lune, a permis l'émergence de la vie. »68

Par ces quelques exemples tirés de la cosmologie nous voyons, comment des événements célestes totalement fortuits et complètement imprévisibles, ont pu influencer notre vie dans son sens le plus profond. Au contraire des lois physiques, ces événements ne sont pas dictés par la nécessité, mais par le hasard et l'aléatoire. A tous les niveaux, le Réel est construit par l'action conjuguée du déterminé et de l'indéterminé, du hasard et de la nécessité. Dans le cas de notre système solaire, il existe des phénomènes que les théories physiques pouvaient prévoir, comme la formation par agglomération de gaz ou de planétésimales du Soleil et de son cortège de planètes. En effet, les théories physiques auraient pu prédire que les planètes tourneraient sur elles-mêmes et autour du Soleil dans le même sens, d'Ouest en Est, que le Soleil autour de notre centre galactique. Car ce mouvement à la limite prédéterminé leur est dicté par le sens de rotation originelle de la nébuleuse solaire. Toutefois, à côté de ces phénomènes, il existe d'autres qui sont totalement imprévisibles, même pour une Intelligence surhumaine telle que celle imaginée par Pierre Simon Laplace.

C'est dire, au regard de cette constatation, que dans la fabrication du réel, « Tout est mis à contribution : hasard et nécessité, événements aléatoires et lois déterministes. C'est pourquoi le Réel ne pourra jamais être décrit complètement par les seules lois de la physique. La contingence et l'histoire limiteront à tout jamais une explication complète de la réalité. Pour expliquer l'apparition de l'homme, nous pouvons invoquer l'astéroïde qui a paru dans le ciel il y a 65 millions d'années avant de frapper la Terre et d'y tuer les dinosaures, mais nous ne pourrons jamais expliquer pourquoi cet astéroïde est venu percuter notre planète juste à ce

68 Trinh Xuan Thuan, Le chaos et l'harmonie, Gallimard, 2000, p 67

moment-là. Pour expliquer la beauté fleurie du printemps, nous pouvons invoquer le choc d'un astéroïde avec la Terre, mais nous ne pourrons jamais expliquer les conditions du choc qui ont fait que la Terre s'est penchée seulement de 23.5°, au lieu d'être complètement couchée sur le côté comme Uranus, ce qui nous aurait donné de longues nuits et d'aussi longues journées se succédant toutes les demi années L'intrusion de l'histoire n'est pas seule responsable de la libération de la Nature. Les lois de la physique ont aussi perdu de leur déterminisme. Avec le développement de la théorie du chaos, le hasard fit son entrée fracassante dans le monde macroscopique. » 69

Aujourd'hui nombre d'exemples permettent de remettre en cause le postulat de la science newtonienne, à savoir l'idée du déterminisme. En effet, on se rend compte que dans différents domaines de la vie l'illusion de tout pouvoir prédire, qui guida pendant longtemps la science classique, a perdu tout son sens épistémologique. Dans le cas de la psychologie par exemple, on voit que le comportement d'un individu peut être influencé par une cause à la limite très banale. Dans ce domaine précis de la vie de l'individu, on se rend compte qu'il est presque impossible de prédire véritablement le comportement, quelque puisse être la connaissance supposée détenue de l'individu considéré.

Cependant, comment peut-on justifier le fait que, malgré l'impossibilité avérée d'une prédiction indéfiniment certaine, l'hypothèse du déterminisme ait pu prendre le dessus sur l'indéterminisme qui paraît pourtant plus légitime. C'est probablement face à une telle indignation, que s'est trouvé Karl Popper avant la rédaction de son plaidoyer pour l'indéterminisme. Dans cet ouvrage, Popper essaye d'avancer les arguments qui, selon lui, ont poussé les scientifiques à soutenir le déterminisme, plutôt que l'indéterminisme. En effet, Karl Popper stipule que si en matière de science, les gens sont plus portés à exploiter les théories qui de prime abord présentent des implications déterministes et simplistes, cela est dû au fait que ces théories sont en général celles qui, non seulement sont plus faciles à expliquer, mais aussi celles qui apportent le plus de réconfort à l'homme. Car affirme Popper, il est plus facile pour l'endentement humain de s'accommoder à un univers déterminé, plutôt que d'être ballotté dans un monde indéterminé, laissé aux seuls caprices du hasard.

C'est dans le sillage de tels contextes épistémologiques que Karl Popper a pu écrire : « C'est de nos efforts pour décrire le monde avec des théories simples que dépend la méthode de la science. Les théories qui sont d'une trop grande complexité ne peuvent plus être testées même

69 Trinh Xuan Thuan pp 102-103

si elles devaient être vraies. L'on peut décrire la science comme l'art de la sursimplification systématique - comme l'art de discerner ce que l'on peut avantagement omettre. »70 Cette attitude réductrice de la science, va pourtant changer avec l'avènement de la théorie du chaos. Désormais, l'explication du réel tient compte de la Nature dans sa totalité ; comme le dit Trinh Xuan Thuan, tout est mis à contribution : l'ordre coexiste avec le désordre, le déterminé avec l'aléatoire. L'image de la science n'est plus réductionniste, mais plutôt holiste. Car c'est la considération de la nature dans sa totalité, et non pas dans ses composantes, qui est le plus fondamental.

III- 2 / L'effet papillon

Née historiquement avec les travaux du physicien américain Edward Lorenz, la notion de l'effet papillon traduit en substance l'idée que, « le battement d'ailes d'un papillon à Pékin aujourd'hui, engendre dans l'air suffisamment de remous pour influer sur l'ordre des choses et provoquer une tempête le mois suivant à new-york. ». Aussi étrange qu'elle puisse paraître, cette idée se positionne aux antipodes des principes déterministes établis par la mécanique newtonienne, et rigoureusement défendus par le marquis de Laplace. En effet même si ces derniers étaient pleinement conscients du fait que les mesures scientifiques ne pouvaient jamais être parfaites, ils croyaient néanmoins, et cela sous l'égide de l'équivalence établie par Leibniz entre la cause pleine et l'effet entier, que : « étant donné une connaissance approximative des conditions initiales du système et une compréhension des lois de la Nature, on peut déterminer le comportement approximatif du systèmes. »71

En fait, c'est sur cette base philosophique que tout l'édifice de la science classique a été construit. En effet, comme le souligne si bien Arthur Winfree, « L'idée maîtresse de la science occidentale, est que vous n'avez pas à tenir compte de la chute d'une feuille sur une planète dans une autre galaxie, lorsque vous voulez décrire le mouvement d'une bille sur un billard terrestre. Vous pouvez négliger les influences imperceptibles. Il y a convergence dans la façon dont se passent les choses, et des causes arbitrairement petites ne s'amplifient pas pour engendrer des effets arbitrairement grands. »72. Cette croyance à l'approximation, était

70 Karl Popper, L'univers irrésolu, Hermann, 1984, p 37

71 James Gleick, La théorie du chaos, Flammarion, 1991, p 31

72 A. Winfree, cité par J. Gleick, in La théorie du chaos, Flammarion, 1991, pp 31-32

dans une certaine mesure justifiée au regard des lois de la dynamique classique. Car dans cette branche particulière de la science, une erreur minime dans la détermination des conditions initiales, ne peut qu'engendrer une petite erreur dans la prédiction du futur. Comme l'a si bien noté Arthur Winfree, la science classique considérait notre système physique comme un ensemble clos, fermé, n'interagissant nullement avec l'extérieur. C'est sous la bannière d'une telle croyance, que Newton et Laplace ont déterminé les systèmes physiques. Selon ces deux chantres de la science classique, les systèmes physiques sont tous régis par une évolution dynamique, et donc par une suite d'équations linéaires.

Cependant, contrairement à ce que croyait Newton, on sait de nos jours que tous les systèmes dynamiques ne sont pas identiques. C'est ainsi que nous distinguons deux types de systèmes : les systèmes stables et les systèmes instables. Parmi les systèmes instables, on reconnaît désormais une classe particulièrement intéressante, qui est associée au chaos déterministe. En fait, même si dans ce type de systèmes, les lois microscopiques restent déterministes, les trajectoires qui décrivent ces systèmes prennent quant à elles un aspect aléatoire. La raison de ce fait est due à ce que les scientifiques ont appelé « la dépendance sensitive aux conditions initiales », aussi nommée DSCI. En langage plus clair, la DSCI signifie que l'évolution des systèmes sensibles aux conditions initiales, peut être complètement bouleversée par une modification de comportement d'un de leurs éléments qui peut sembler tout à fait insignifiante au départ.

C'est à ce problème de dépendance sensitive aux conditions initiales, que Lorenz s'était confronté, lorsqu'il essaya dans les années soixante d'entreprendre son projet sur les prédictions météorologiques. Même s'il est possible en météo, de prédire le temps qu'il fera demain ou après demain, une limite reste tout de même tracée lorsqu'on veut s'aventurer dans les prédictions à long terme. Ce fait, facilement constaté de nos jours, était dans le passé aussi bien ignoré par les scientifiques que par les météorologues eux-mêmes. En effet jusqu'aux années 60, avant que Lorenz ne découvrit l'imprédictibilité météorologique, on croyait que le temps de même que le climat, étaient des faits que l'on pouvait prédire aussi bien à terme qu'à long terme. Mais, avant de raconter l'histoire qui fit suite à la découverte par Lorenz de l'effet papillon, essayons de rappeler brièvement la situation dans laquelle se trouvait la météorologie à cette époque.

L'objet de la météorologie est l'étude et la prévision du déplacement des masses d'air dans l'atmosphère. Conformément à la tradition classique, on se servait, en matière de prévision,

des équations différentielles de la mécanique classique pour résoudre toute équation portant sur l'étude des mouvements. Il faut rappeler que les équations différentielles, à côté des différents comportements qu'elles pouvaient décrire, permettaient aussi de prévoir le mouvement des objets tels que les planètes, les comètes, les flux et reflux de marée etc. Ainsi, par ces équations différentielles, il devenait possible de prévoir le futur ; car il suffisait pour se faire, de traduire le mouvement en équations puis de résoudre ces dernières.

Dans de telles circonstances, la météorologie consistait donc à prévoir au fil du temps le mouvement de déplacement des masses d'air. Il suffisait selon la logique de la mécanique classique, de traduire par des équations différentielles, le mouvement des masses d'air et ensuite de les résoudre. Ce qui revient à dire que le temps pouvait être aussi prévisible que le mouvement des planètes ou des comètes. Jusqu'avant sa fameuse découverte de l'imprédictibilité météorologique, Lorenz et avec lui la grande partie de la communauté des météorologues, marchait encore dans le sillage de cette conception mécanique de l'évolution du temps.

En fait, c'est dans le domaine de la prévision du temps que l'effet papillon a été mis en évidence de manière mathématique. Comme le raconte le journaliste scientifique James Gleick, tout a commencé pendant un jour d'hiver de l'année 1961 au Massachusetts Institude of Technology (M.I.T). Dans son bureau du département de météorologie ce jour là, Edward Lorenz venait de remettre en marche le programme de simulation météorologique qui tournait dans son ordinateur. Selon Gleick, Lorenz était un spécialiste réputé qui s'intéressait aussi bien aux mathématiques qu'à la météo. Ce dernier dit-on, avait conçu un logiciel au moyen duquel il était possible de simuler l'évolution du temps sur de longues périodes, à partir d'une série d'équations de base. Ces équations reproduisaient en fait, les relations qui existent entre les différents éléments déterminant les conditions atmosphériques à savoir : la température, l'humidité de l'air, sa pression, la vitesse des vents etc. Pour se faire, Lorenz faisait entrer les données de départ dans son ordinateur, puis laissant à ce dernier la charge d'examiner comment ces paramètres de sa météo numérique, évoluaient au cours du temps.

En effet se disait-il, puisque la météorologie est régie par les lois de la nature, et que le monde suit une trajectoire déterministe ; il suffit d'introduire des données plus ou moins précises dans un ordinateur, pour que celui-ci donne une prévision climatique plus ou moins précise. Lorenz constata, à la suite de ces techniques, que ses équations reproduisaient de façon satisfaisante les fluctuations du climat qui pouvait être observé dans la nature.

L'histoire de la découverte de l'effet papillon raconte que c'est à ce jour d'hiver 1961 que Lorenz, en voulant vérifier les calculs d'un bulletin météo interrompu prématurément, apporta son coup de grâce. En effet, ce dernier voulut reconstituer des résultats, mais cette fois-ci en mutilant pour chaque nombre les trois dernières décimales. Car se disait-il, après tout, l'incertitude, en raison du principe de causalité, ne serait que très minime du fait que de petites causes ne peuvent créer que de petites conséquences.

Il entra dans son ordinateur, ces chiffres retranchés afin que la machine poursuive les calculs. Lorsqu'il revint quelques heures plus tard, quelque chose de très étrange venait de se produire. A sa grande surprise les deux bulletins étaient si différents, au point que le premier pouvait représenter une tempête sur le pôle Nord et le second une sécheresse sous les Tropiques. Après avoir beau chercher les raisons de cette disparité fondamentale, Lorenz comprit que cette divergence des résultats, ne pouvait venir que de la présence de termes non linéaires dans les équations du modèle. En effet, Lorenz venait de découvrir que dans des systèmes non linéaires, d'infimes différences dans les conditions initiales engendraient à la longue des systèmes totalement différents. Il comprit alors qu'il serait à jamais impossible de prédire la météo à long terme. Ce qui remettait ainsi en cause, les belles certitudes de la physique classique. Car certains phénomènes dynamiques non linéaires sont si sensibles aux conditions initiales que, même s'ils sont régis par des lois rigoureuses et parfaitement déterministes, les prédictions exactes y deviennent impossibles.

Dans les systèmes climatiques, tous les éléments sont étroitement dépendants les uns les autres. Ce qui implique qu'une variation de température peut entraîner des différences de pression, qui elles mêmes peuvent modifier la vitesse des vents etc. c'est à cause de ces relations, qu'une petite modification d'un des éléments peut se communiquer aux autres et aboutir, à des effets qui s'amplifieront de manière extraordinaire au bout d'un certain temps. Ce qui veut dire que, si les éléments ne sont pas étroitement reliés, l'effet papillon ne pourra pas subsister. A la suite de cette remarque, Lorenz déduisit que les lois de la météo sont si sensibles aux conditions initiales, que le simple battement d'ailes d'un papillon au Brésil peut déclencher une tornade au Texas. Ce qu'il veut dire par là, c'est qu'une donnée infime, imperceptible, peut, si elle s'amplifie de poche en poche, aboutir à une situation météorologique complètement différente de celle qui aurait prévalu, compte non tenu de cette donnée infime.

Ce que nous apprend le modèle de Lorenz, c'est que dorénavant aucune incertitude, aussi négligeable puisse-t-elle paraître, ne doit être négligée ; lorsqu'on veut prédire un système doté d'une sensibilité aux conditions initiales, au regard des conséquences que cette incertitude peut engendrer à long terme. Parallèlement à ce fait, le modèle de Lorenz nous apprend aussi que la prédiction à long terme n'a pas de sens, étant donné que de nombreuses perturbations minimes mais incontrôlées sont toujours sous-jacentes non seulement en météorologie, mais aussi dans beaucoup d'autres systèmes physiques. De tels systèmes sont ceux que les scientifiques appellent les systèmes chaotiques.

Lorsque Lorenz constata l'impuissance de la science de la météorologie à prédire le temps, il rechercha des moyens encore plus simples de décrire le mouvement complexe des systèmes chaotiques. Ce qui l'amena à mettre en place le premier système chaotique expérimental : la roue hydraulique de Lorenz qui en fait, est un système susceptible d'être décrit par trois équations non linéaires. Pour analyser le comportement de cette roue, Lorenz transposa son système dans un espace abstrait aux dimensions multiples ; une construction mathématique appelée l'espace des phases. Ce concept mathématique traduit nous l'avons déjà dit, la manière suivant laquelle il est possible de suivre l'évolution de l'état d'un système physique dans le temps. Pour le faire, le physicien américain construisit d'abord un modèle avec les lois physiques et les paramètres nécessaires et suffisants à la détermination du système. Constitué par des équations différentielles, ce modèle permettra de caractériser dans un repère, l'évolution du système au fur du temps. Les points de ce repère détermineront donc l'état du système dans l'espace. Cet espace a été appelé par Poincaré « l'espace des phases ». Lorsque le temps s'écroule, le point figurant l'état du système décrit en générale une courbe dans cet espace. On parle alors de son orbite.

Ce qu'il faut ici comprendre, c'est qu'il n'existe aucune relation entre notre espace physique tridimensionnel, et un cas d'espace des phases à trois dimensions. Il s'agit là d'un espace purement mathématique qui, comporte autant de dimensions qu'il y a de paramètres dans le système dynamique considéré. La particularité de cet espace est, comme nous le montre si bien James Gleick, qu'aussi nombreux que puissent être les acteurs d'un tel système, un seul point dans cet espace abstrait suffit à représenter la totalité du système. Après avoir construit son modèle, Lorenz constata que, « La courbe présentait en fait une complexité infinie. Elle restait contenue dans certaines limites, sans déborder de la page ni repasser sur elle-même. Elle décrivait une forme étrange, très particulière, une sorte de double spirale en trois dimensions, comme les ailes d'un papillon. Cette forme signifiait la présence d'un désordre à

l'état pur : aucun point ou groupe de points ne réapparaissaient deux fois. Pourtant, elle signalait également la présence d'un ordre insoupçonné. »73

Cette double spirale à l'allure d'un lépidoptère adulte sera plus tard appelée l'attracteur de Lorenz. Ce dernier était stable, de faible dimension et non périodique. Jamais il ne pouvait se recouper, c'est ce qui, en fait, lui donnait toute sa beauté. Ses boucles et ses spirales se serraient à l'infini, sans jamais réellement se joindre, sans jamais s'intersecter. Toutefois, il faut reconnaître que la notion même d'attracteur, n'a intégré le domaine de la science que tardivement. En effet, c'est grâce aux travaux du mathématicien Suisse David Ruelle et de son homologue Néerlandais Floris Takens, que cette notion sera connue. Ces deux mathématiciens ont été les premiers, à constater que de nombreux phénomènes considérés jusque-là comme uniquement marqués par le désordre, se comportent en fait comme s'ils étaient guidés par un ordre sous-jacent invisible. Dans l'espace des phases, la représentation de ces phénomènes produisait des attracteurs aux formes complexes, d'où le nom « d'attracteurs étranges » que ces auteurs leur donnèrent.

Par définition, la théorie du chaos nomme par attracteur étrange, un phénomène de régulation se produisant derrière l'anarchie apparente dictée par le hasard. L'attracteur étrange est en effet une figure qui, représente l'ensemble des trajectoires d'un système marqué par un mouvement chaotique. L'attracteur étrange peut être défini comme étant la carte des états imprévisibles et chaotiques. L'attracteur étrange révèle en fait un ordre, une contrainte cachée, un espace des phases vers lequel convergent des phénomènes chaotiques.

Pour revenir à notre concept de l'effet papillon, nous avons vu que, lorsque les effets d'une variation infime, peuvent s'amplifier jusqu'à produire des changements énormes au bout d'un certain temps, les prédictions à long terme deviennent impossible. C'est ce phénomène appelé effet papillon, qui explique pourquoi les météorologues ne peuvent pas prédire l'évolution du temps au-delà de quelques jours. Cependant, découvert dans le cadre de la prévision météorologique, l'effet papillon présente des conséquences qui dépassent largement le secteur de la météorologie. En l'étudiant de plus prés, des chercheurs ont montré qu'il existe de nombreux domaines dans lesquels l'effet papillon entre en jeu.

En effet, ces derniers ont montré, qu'il existe dans l'évolution de certains systèmes des points de bifurcation, c'est-à-dire des états de crise durant lesquels une infime modification

73 James Gleick, La théorie du chaos, Flammarion, 1991, p 50

peut tout faire basculer. Par contre, lorsque le système ne se trouve pas dans un de ces points, les petites variations de ses éléments n'ont pas d'effets significatifs : elles sont amorties ou annulées et n'engendrent pas de changements notables. Des études faites au cours de ces dernières décennies, ont montré que même notre système solaire sévissait aux coups de l'effet papillon

Comme on le sait, Newton et Laplace pensaient que le système solaire était une mécanique huilée, dont le futur, le présent et le passé, pouvaient être déterminés avec une certitude approximative. Cependant, de nos jours l'astronome Français de l'observatoire de Paris Jacques Laskar a démontré que notre système solaire tout entier est chaotique. Ce dernier a montré en effet, que la séparation entre deux trajectoires d'une planète, avec des conditions initiales très légèrement, double tous les 3.5 millions d'années. Ce qui, selon Laskar, voudrait dire que les trajectoires planétaires ont un passé indéfini et un futur incertain car les mesures des positions des planètes ne sont jamais parfaitement précises. Il en arrive à déduire qu'on ne pourra jamais être absolument sûr, que la Terre restera éternellement sur son orbite présente. Toujours est-il donc, qu'une incertitude plane continuellement sur son destin futur.

Un autre astronome Français, cette fois-ci de l'observatoire de Nice, Michel Hénon a lui aussi consacré une partie de ses recherches à étudier le mouvement des étoiles dans le disque de la galaxie. En se servant de la méthode géométrique du plan vertical de Poincaré, Hénon a montré que, tant que l'énergie de mouvement des étoiles ne dépasse pas une certaine valeur critique, les orbites stellaires resteront stables. Comme Lorenz, Michel Hénon essaya lui aussi de représenter, les trajectoires de l'amas globulaires qu'il étudiait, dans un espace des phases. Comme cela a été avec Lorenz, l'image produite par sa représentation géométrique décrit elle aussi un attracteur étrange. Dans le cas du mouvement des étoiles, la visualisation montre une courbe en forme d'oeuf qui se déforme en une figure plus compliquée, épousant des figures en formes de huit ou bien, se morcelant en boucles distinctes. Cependant, lorsque l'énergie de mouvement des étoiles dépasse la dite valeur critique, alors les orbites deviennent chaotiques, et les trajectoires décrivent dés lors des dessins où des zones de stabilité sont entremêlées avec des zones de chaos. C'est ce qui manifeste la marque du chaos : changeant tant soit peu l'énergie des étoiles, leurs orbites deviennent imprévisibles.

Mais comme dans le cas du système de Lorenz, chaos ne signifie pas désordre total. Car dans l'espace abstrait des phases, les points ne s'éparpillent pas au hasard : ils sont attirés vers des courbes à la forme bien définie nommées attracteurs étranges. Michel Hénon découvrit

que l'attracteur étrange des orbites stellaires a la forme d'une banane, dont l'agrandissement d'une partie montre un dédoublement sans fin des lignes. A la base de ses recherches, Hénon affirma que le mouvement des étoiles est lui aussi chaotique, car il est impossible de prédire à l'avance, sur laquelle de ces géodésiques et à quelle localisation, le point correspondant à l'orbite stellaire suivante tombera.

Au cours de cette dernière décennie, certains historiens et même des philosophes ont tenté d'appliquer à nos sociétés humaines cette caractéristique propre aux systèmes chaotiques. De nombreux écrivains ont jugé notre fin de siècle comme l'avènement d'un « âge chaotique ». En effet, le téléphone, la radio et la télévision ont transformé notre monde en un immense village planétaire. Car de nos jours, des événements qui se déroulent à des milliers de kilomètres, nous sont connus dans les heures qui suivent ; un conflit local dans le golf Persique a une influence quasi immédiate sur le prix de l'essence à Londres ou à Paris. Avec l'entrée en scène des réseaux informatiques, la transmission d'une multitude de données se fait de manière instantanée d'un point à l'autre du globe. De nos jours, il est possible d'affirmer que, les sociétés humaines sont entrées dans l'ère de l'hyper connexion.

Dans ce nouveau millénaire que nous traversons, nous nous rendons compte qu'une perturbation qui a lieu dans une localité stratégique de la vie politique ou économique internationale, va en moins de quelques semaines créer un chamboulement dans presque tous les autres pays du globe. L'exemple le plus révélateur d'une telle situation, est celui des attentats survenus les 11 Septembre 2001 aux Etats-Unis. En effet depuis que cette grande puissance a été meurtrie par ces attentats, nous avons assisté au cours de ces deux dernières années à un bouleversement total de l'ordre géopolitique. Car ces attentats les plus meurtriers de l'histoire de ce pays, ont conduit les autorités de ce géant militaire à entreprendre une guerre, contre ce qu'elles ont appelé le terrorisme. Sans parler des multiples civils innocents, tués lors des deux invasions américaines en Afghanistan et en Irak, on voit aujourd'hui que ces fameux attentats ont eu pour conséquence dans ces deux pays, l'émergence de nouveaux régimes démocratique. Revenant à l'idée de « l'effet papillon », qu'une cause plus ou moins minime a conduit à l'écart de quelques années, à l'apparition d'une crise totale l'ordre géopolitique.

Ce qui montre que nous sommes en crise, crise non seulement de l'économie, mais aussi des valeurs, des croyances et des normes de la vie sociale. L'aspect positif de cette crise, c'est qu'elle ouvre la voie à un renouveau possible, à l'émergence d'un monde différent. Sera-t-il

pire ou meilleur ? Seul l'avenir nous le dira. Puisque notre système a atteint un point de bifurcation, tout se jouera sur des éléments qui sembleront insignifiants au départ.

III- 3 / Le Flou Quantique

Le paradigme de la science classique a assisté au début du 20ème siècle, à un des véritables bouleversements qui ont conduit à son effondrement. La mécanique newtonienne, cette science par laquelle il était possible de prédire le mouvement de tout corps, va vivre au 20ème siècle l'un des plus mauvais épisodes de sa gloire. En effet, si Poincaré avait présenti à la fin du 19ème siècle, les failles de la mécanique classique, ce fut la mécanique quantique qui sonna véritablement le glas du déterminisme sur lequel basée la science classique.

Née historiquement le 14 Décembre 1900 avec les travaux de Max Planck sur « le rayonnement du corps noir », la physique quantique, d'abord considérée par les scientifiques comme un problème mineur, va pourtant bouleverser tout l'avenir de la physique. Cependant, avant d'entreprendre quoi que ce soit, essayons de définir au préalable, qu'est-ce que la physique quantique ? Pour répondre à cette question, proposons à ce propos la définition qu'en a donnée Richard Feynman. Pour ce grand théoricien, « La mécanique quantique est la description du comportement de la matière et de la lumière dans tous leurs détails et en particulier, de tout ce qui se passe à l'échelle atomique. A très petite échelle, les choses ne se comportent en rien comme ce dont vous avez une expérience directe. Elles ne se comportent pas comme des ondes, elles ne se comportent pas comme des particules, elles ne se comportent pas comme des nuages, ni comme des boules de billard, ni comme des poids sur une corde, ni comme rien que vous avez jamais vu. ».74

Cette définition de Feynman, au-delà de son apparence quelque peu énigmatique, marque très bien la rupture établie avec l'avènement de la physique quantique. La physique quantique est apparue à la suite des travaux de Max Planck sur la théorie du rayonnement du corps noir. Pour rappeler le problème, il faut souligner que la théorie du rayonnement était une des difficultés qui avaient le plus de problème aux scientifiques du 19ème siècle. Le problème qui a conduit à la naissance de cette nouvelle science, vient d'un constat longtemps établi en physique. En fait, on avait constaté que, si l'on considère une enceinte chauffée à une température constante, les corps matériels contenus dans cette enceinte émettent et absorbent

74 R. Feynman, cité par Stéphane Déligeorges in Le monde quantique, Seuil, 1985, p 7

du rayonnement au point qu'il finit par s'établir un état d'équilibre dans lequel les échanges d'énergie entre la matière et la radiation restent constantes.

C'est en fait ce phénomène d'échanges d'énergie, qui a posé problème aux physiciens. En effet, pendant longtemps les scientifiques ont cherché, chacun avec sa théorie, à expliquer le mécanisme de ces échanges d'énergie entre matière et radiation. La première théorie due à Gustav Kirchhoff, s'appuie sur les principes de la thermodynamique et stipule que la composition de ce rayonnement dépend uniquement de la température qui règne dans l'enceinte considérée. A la suite de cette proposition, le physicien Autrichien Ludwig Boltzmann a démontré que la densité totale du rayonnement émis, est proportionnelle à la quatrième puissance de la température mesurée. Ces travaux seront suivis par d'autres théories qui, malgré leur particularité, affirmaient toutes que l'émission aussi bien que l'absorption de la lumière par la matière se font de manière absolument continue.

En fait, c'est à cette thèse classique que Max Planck va radicalement s'opposer. Ce physicien Allemand propose d'admettre que, l'émission d'énergie lumineuse par un corps doit se faire de façon discontinue, c'est-à-dire par valeurs discrètes qu'il nomma « quanta ». En effet Planck va poser comme postulat fondamental de la physique quantique, l'hypothèse qui consiste à dire que : « La matière ne peut émettre l'énergie radiante que par quantités finies proportionnelles à la fréquence. »75. Ce facteur proportionnel, nous dit De Broglie, est une constante universelle, ayant les dimensions d'une action mécanique : c'est la fameuse constante h de Planck. Ce fait poussa le physicien Allemand à énoncer en guise d'équation de la physique, que, l'énergie du rayonnement est égale au produit de la constante h, par la fréquence de l'onde radiante v ; d'où l'équation E=h v. en effet souligne Stéphane Déligeorges, « Pour chaque énergie de rayonnement (E) et pour chaque fréquence (v) de ce rayonnement, il existe une certaine constante h, tel que, si l'on divise E par v (E/v), on obtient toujours « h » ou 2 « h » ou 3 « h ». En somme, du fait de cette constante de proportionnalité, il ne peut se produire de rayonnement pour d'autres quantités d'énergie qui ne soient des multiples entiers de h. C'est un peu comme si le rayonnement, donc l'échange d'énergie, était formé de boules. Des boules de plus en plus grosses au fur et à mesure que s'élève la fréquence, donc que l'on va de l'infrarouge à l'ultraviolet. »76. Cette nouvelle conception de la discontinuité du rayonnement, constituera l'un des véritables balbutiements de la physique quantique.

75 Louis de Broglie, La physique nouvelle et les quanta, Flammarion, 1986, pp111-112

76 Stéphane Déligeorges, « La catastrophe ultraviolette », in Le monde quantique, Seuil, 1985, p 25

Cette nouvelle branche aura pour objet, de déterminer le comportement de la matière dans le domaine de l'infiniment petit. Dans ce domaine du monde atomique, les choses ne se comportent pas comme celles que nous observons dans notre monde. En effet dans monde des phénomènes observables, il est possible de déterminer le mouvement de certains objets dés lors que nous avons une certaine valeur de leurs conditions initiales. Cette conception déterministe caractérisant la mécanique newtonienne, ne sera pourtant pas valide lorsqu'on essaye de l'appliquer aux objets quantiques. Dans ce monde, les objets, par leur nature à la fois ondulatoire et corpusculaire, ne peuvent plus être localisés de façon rigoureuse. La preuve de cette affirmation réside dans les travaux que Schrödinger a fait en la matière.

En fait, c'est le physicien Autrichien Erwin Schrödinger qui apporta la justification de ce fait, lorsqu'il tenta de déterminer dans les années 1925 l'onde de choc engendrée par la collision entre un électron et un atome. Ce dernier a montré par expérience que, lorsqu'un électron est mis en collision contre un atome, il devient impossible de déterminer la direction que cet électron empruntera après le choc. Schrödinger a montré en effet qu'après la collision, l'électron peut repartir dans n'importe quelle direction : d'où il établit une équation par laquelle on peut déterminer l'onde de choc. En fait cette fameuse équation de Schrödinger, détermine la probabilité avec laquelle nous pouvons retrouver l'électron dans une direction donnée plutôt que dans une autre.

A la suite de Schrödinger, un autre physicien du nom de Max Born va montrer que cette probabilité est égale au carré de l'amplitude de la fonction d'onde. Ce qui veut dire selon ce dernier que, les chances de rencontrer l'électron, sont plus grandes aux sommets de l'onde, et plus petites à ses creux. Cependant le plus étonnant dans tout cela c'est que, même aux crêtes de l'onde, on ne pourra jamais avoir la certitude que l'électron sera au rendez vous. Il est visible que, dans le monde des atomes, la certitude ennuyeuse et le déterminisme contraignant de la mécanique classique sont bannis. Dans ce domaine de l'infiniment petit, entrent en jeu l'incertitude stimulante et le hasard libérateur de la mécanique quantique.

Malgré les résultats auxquels leurs découvertes les ont conduits, ni Schrödinger ni De Broglie, déterministes, tous deux, ne furent très satisfaits de la tournure probabiliste qu'empruntait leur invention. Pourtant, dans l'année qui suivit la découverte de Max Born, en 1926, un autre physicien Allemand du nom de Werner Heisenberg apporta encore de l'eau dans le moulin de l'indéterminisme. En réfléchissant aux rapports qui pouvaient exister entre l'objet observé et l'observateur, le jeune Heisenberg aboutit à une conclusion remarquable.

Cette dernière consistait à dire que le flou est inhérent au monde subatomique, et que rien ne pouvait le dissiper. En effet, Heisenberg a montré qu'il est impossible de mesurer à la fois la position et la vitesse d'un électron, et cela en raison de la lumière qu'on utilise pour l'éclairage.

Dans le domaine subatomique, pour déterminer la position exacte d'un corpuscule, nous devons employer une radiation dont la longueur d'onde devra être d'autant plus courte que nous désirons plus de précision. Mais du fait de l'existence d'un quantum d'action, sous forme de boules de radiation, il se passe un phénomène étonnant. Car plus nous diminuerons la longueur d'onde de la radiation exploratrice, plus nous augmenterons sa fréquence et par ricochet l'énergie de ses photons, qui par leur mouvement, influeront irrémédiablement le comportement du corpuscule à étudier. Ce qui veut dire que plus nous chercherons à déterminer la position du corpuscule, plus sa vitesse de mouvement nous échappera. Nous pouvons dire que l'observation perturbe la réalité en rendant incertaines les conditions initiales. C'est ce résultat, appelé « principe d'incertitude », qui remit complètement en cause les bases de la physique classique. C'est ainsi que nous pouvons affirmer que : « Les atomes imposent une limite à la connaissance. Nous ne pourrons jamais mesurer à la fois vitesse et position aussi précisément que possible. Le « principe d'incertitude » de Heisenberg oblige à sauter à l'eau et à choisir. L'incertitude est inhérente au monde des atomes. Quoique nous fassions pour accroître la sophistication de notre instrument de mesure, nous buterons toujours contre cette barrière élevée face à la connaissance. Le flou quantique envahit le monde subatomique, chassant le déterminisme si bien chanté par Laplace. La Nature nous demande d'être tolérant et de renoncer au vieux rêve humain du savoir absolu. Ce degré de tolérance est défini par un nombre appelé « constante de Planck ». Heisenberg nous dit que le produit de l'incertitude sur la position par l'incertitude sur la vitesse ne peut jamais être inférieur à la constance de Planck divisée par 2ð. ».77

Toutefois, il faut noter que l'indétermination ne veut pas dire imprécision. Car chaque grandeur caractéristique des éléments atomiques, peut être mesurée si elle est prise séparément. Seulement, si nous voulons mesurer simultanément des grandeurs conjuguées d'éléments quantiques, alors il est impossible de descendre au dessous d'une certaine limite. L'indétermination est ainsi une caractéristique propre à la mécanique quantique qui, fait qu'on peut indiquer précisément les limites du domaine de validité de la connaissance possible. Ce

77 Trinh Xuan Thuan, Le chaos et l'harmonie, Gallimard, 2000, pp 335-336

principe fondamentalement indéterministe heurtait profondément Einstein qui, déterministe convaincu, ne pouvait accepter que des phénomènes puissent être réellement aléatoires. Il résumait sa pensée par une phrase célèbre : »Dieu ne joue pas aux dés ». En effet, dans la lignée des physiciens et mathématiciens du 17ème et 18ème siècles, Einstein était persuadé que le monde était ordonné, d'où il ne pouvait nullement être soumis au hasard.

Einstein est l'un des pères fondateurs de la mécanique quantique. Cependant, malgré l'apport considérable que ce génie de la science a apporté dans l'élaboration de cette nouvelle théorie, Einstein a, pendant presque toute sa vie, combattu avec ferveur les principes sur lesquels repose cette science. Esprit à la fois réaliste et empiriste dans son essence, Einstein n'a pas manqué, au nom du déterminisme, de renoncer à la conception probabiliste à laquelle la mécanique quantique semblait être attachée. En effet, dans sa correspondance du 07 Septembre 1944, à Max Born, Einstein a pu écrire : « Nos espérances scientifiques nous ont conduits chacun aux antipodes de l'autre. Tu crois au Dieu qui joue aux dés, et moi à la seule valeur des lois dans un univers où quelque chose existe objectivement, que je cherche à saisir d'une manière sauvagement spéculative. [...]. Le grand succès de la théorie des quanta dés son début ne peut pas m'amener à croire à ce jeu de dés fondamental, bien que je sache que mes confrères plus jeunes voient là un effet de la fossilisation. On découvrira un jour laquelle de ces deux attitudes instinctives était la bonne. »78

Selon Einstein, une théorie physique digne de ce nom ne pouvait être probabiliste dans ses fondements. Ce dernier considère que, la nécessité d'une description statistique devrait, pour être comprise, être déduite des principes plus fondamentaux s'appliquant à la description de l'état des systèmes individuels. Cependant, malgré tous ses efforts, il ne réussit jamais à prouver que le principe d'incertitude était faux. Aujourd'hui nous constatons, qu'il y a une contradiction entre les principes de la physique microscopique, basés sur la mécanique quantique où le hasard semble jouer un rôle majeur, et les principes de la physique macroscopique, basés sur le postulat déterministe de la mécanique newtonienne.

78 Einstein, cité par Michel Paty, in Le monde quantique, Seuil, 1985, p 52

CONCLUSION

A la fin du 20ème siècle, nous avons assisté à un bouleversement total de notre manière de concevoir l'univers. Après avoir dominé, pendant prés de trois siècles la pensée occidentale, la vision newtonienne d'un Univers fragmenté, mécaniste et déterministe a fait place à celle d'un monde changeant et exubérant de créativité. En effet, la science classique, guidée en cela par les figures emblématiques de Newton et Laplace, considérait l'univers comme une immense machine composée de particules matérielles fixes, soumises à des forces aveugles. Selon la science classique, on pouvait, à partir d'un certain nombre de lois physiques, déterminer l'histoire d'un système physique et prédire son évolution si on pouvait le caractériser à un moment donné. Le futur était dans une certaine mesure contenu dans le passé et le présent, ce qui veut dire que le temps était en quelque sorte aboli.

Par cette conception scientifique, on se trouvait dans une sorte de dichotomie qui mettait en face à face tragique, d'une part des lois de la nature invariantes et intemporelles, d'autre part un univers changeant et contingent ; d'une part des lois de la physique qui ne connaissent pas la direction du temps, d'autre part un temps thermodynamique et psychologique qui va toujours de l'avant. Cette opposition contraignante et incohérente sera très vite remise en cause à la fin du 19ème siècle. La dimension historique entre en jeu dans plusieurs domaines de la science. On se rend compte que rien n'est éternel dans la nature, tout est régi par le changement : comme le disait Héraclite, «Tout coule, tout passe. On ne se baigne jamais deux fois dans les eaux du même fleuve. ». La contingence va occuper une place à part entière dans des domaines aussi variés que la cosmologie, l'astrophysique, la géologie, la biologie, la génétique etc. Le réel n'était plus seulement déterminé par des lois naturelles appliquées à des conditions initiales particulières ; il était aussi modelé et façonné par une suite d'événements contingents et historiques.

Cependant, l'intrusion de l'histoire ne fut pas seulement responsable de la libération de la nature. Les lois physiques perdirent elles-mêmes de leur rigidité. Car l'avènement de la mécanique quantique au début du 20ème siècle, a fait entrer le hasard et la fantaisie dans le monde subatomique. Ce qui, entre autres conséquences, substitua l'ennuyeuse certitude du déterminisme, par l'incertitude stimulante du flou quantique. Cette révolution entreprise dans le domaine de l'infiniment petit, n'épargna pas pour autant le monde macroscopique. Avec la théorie du chaos, le hasard et l'indétermination envahirent non seulement la vie de tous les jours, mais aussi le domaine des planètes, des étoiles et des galaxies. L'aléatoire fit irruption dans un monde qui était par excès minutieusement réglé.

En effet, la théorie du chaos propose pour l'univers un modèle déterministe tout en laissant un espace au hasard, une dimension à l'imprévisible. Prés d'un siècle après que Poincaré eut mis en évidence le caractère imprévisible de certains systèmes dynamiques non linéaires, nombres de physiciens et de mathématiciens se sont mués en véritables « chaoticiens » ; entraînant dans leur sillage turbulent, biologistes, économistes, spécialistes des sciences sociales, philosophes, psychanalystes, journalistes etc. En somme la théorie du chaos a tiré le tapis sous les belles certitudes scientifiques. Certains chercheurs en sciences sociales brandissent la bannière chaotique et évoque pour les plus sages, un changement de paradigme, et pour les plus hardis une révolution qui marque la fin de l'utopie matérialiste. Bien que les équations non linéaires qui régissent la société humaine ne soient pas encore découvertes, certains anthropologues et sociologues sont d'accord pour considérer notre société comme un système « loin de l'équilibre » ; qu'ils préconisent de maintenir au bord du chaos, oscillant entre la sclérose autoritariste et le désordre anarchiste.

Quels que soient leurs buts, tous ces auteurs citent au passage ce qui est devenu l'emblème du chaos : l'effet papillon. Impossible en effet de faire l'économie de cet insignifiant papillon capable, d'un seul coup d'ailes, de déclencher un cyclone. D'abord, parce qu'il désigne un trait essentiel des systèmes chaotiques, la sensibilité aux conditions initiales ; ensuite parce que la théorie des systèmes non linéaires n'est pas facile à vulgariser, d'où le fait d'y introduire un papillon, a l'énorme intérêt de faire image dans un monde très mathématisé.

Pour finir, disons que les conditions initiales, les constantes physiques et les propres propriétés de l'univers, ont été agencées de telle sorte qu'elles permettent l'apparition de la vie et même de la conscience. La destinée de l'univers ne conduirait sans doute pas, vers une dégradation implacable et un chaos généralisé. Au contraire, elle serait marquée par un processus évoluant vers une complexité de plus en plus croissante, une transformation et un progrès reliant les êtres et les choses. L'auto organisation de la matière, démontrée par la théorie du chaos, donne à penser que l'univers n'est pas absurde, que son évolution a un sens. Un ordre caché serait en fait présent au sein des systèmes physiques et phénomènes naturels. Le problème est que pour l'heure, nous n'avons pas connaissance de la totalité de l'univers. L'homme qui commence à peine à explorer son environnement, manque d'assez de moyens pour l'apprécier. La conquête de l'espace, entreprise par les grandes puissances de ce monde, parviendra peut-être, dans les siècles à venir, à nous expliquer la vraie nature de l'univers.

[1]

Allègre, Claude. Introduction à une histoire naturelle, Fayard, 2004

[2] Barberousse Anouk, Kistler Max, Ludwig Pascal, La philosophie des sciences au 20ème siècle, Flammarion « champs », 2000

[3] Beaufay Gabriel, Dinosaures et animaux disparus, « Le livre de Paris » Hachette, 1994

[5] Bergson Henri, L'évolution créatrice, PUF, 1941

[6] Bodei Remo, La philosophie au 20ème siècle, Flammarion, 1999

[7] Cassirer Ernst, La philosophie des lumières, Fayard, 1966

[8] De Broglie Louis, La physique nouvelle et les quanta, Flammarion « champs », 1986

[9]Déligeorges Stéphane (sous la direction de), Le monde quantique, Seuil, 1985

[10] Delsemme Armand, L'origine cosmique de la vie, Flammarion « champs », 1994

[11] Ekeland Ivar, Au hasard : la chance, la science et le monde, Seuil, 1991

[12] Fukuyama Francis, La fin de l'homme, Gallimard, 2002

[13] Gleick James, La théorie du chaos : vers une nouvelle science, Flammarion « champs », 1991

[14] Hawking S. W, Une brève histoire du temps : du big bang aux trous noirs, Flammarion, 1989

[15] Hawking S. W, Commencement du temps et fin de la physique ? Flammarion, 1992

[16] Klein Etienne & Spiro Michel (sous la direction de), Le temps et sa flèche, Flammarion, 1996

[17] Kojève Alexandre, L'idée du déterminisme, Livre de Poche, 1990

[18] Koyré Alexandre, Du monde clos à l'univers infini, Gallimard, 1973

[19] Leibniz G.W, Principe de la nature et de la grâce, suivi de la monadologie, GF. Flammarion, 1996

[20] Michaud Yves (sous la direction de), L'Univers, coll. Université de tous les savoirs, Odile Jacob, 2002

[21] Monod Jacques, Le hasard et la nécessité, Seuil, 1970

[22] Nottale Laurent, La relativité dans tous ses états, Hachette Littératures, 2000

[23] Popper Karl, L'univers irrésolu, Hermann, 1984

[24] Prigogine Ilya & Stengers Isabelle, La nouvelle alliance, Gallimard, 1986

[25] Prigogine & Stengers, Entre le temps et l'éternité, Flammarion « champs », 1992

[26] Prigogine Ilya, La fin des certitudes : temps, chaos et lois de la nature, Odile Jacob, 1998

[27] Prigogine Ilya, Les lois du chaos, Flammarion « champs », 1994

[28] Pucelle Jean, Le temps, PUF, 1959

[29] Reeves Hubert, Patience dans l'azur : l'évolution cosmique, Seuil, 1988

[30] Reeves Hubert, Malicorne : réflexions d'un observateur de la nature, Seuil, 1990

[31] Ruelle David, Hasard et chaos, Odile Jacob, 1991

[32] Saint Augustin, Les confessions, GF. Flammarion, 1964

[33] Trinh Xuan Thuan, La mélodie secrète. Et l'homme créa l'univers, Gallimard, 1991

[34] Trinh Xuan Thuan, Un astrophysicien, Flammarion « champs », 1994

[35] Trinh Xuan Thuan, Le chaos et l'harmonie : la fabrication du réel, Gallimard, 2000

[36] Verdet Jean Pierre, Une histoire de l'astronomie, Seuil, 1990

[37] Yourcenar Marguerite, Le temps, ce grand sculpteur, Gallimard, 1983

Articles tirés sur Internet

@ /Philippe Etchecopar et Cégep de Rimouski, « Quelques éléments sur la théorie du chaos »

@ /Gaston Fischer « Système solaire et chaos - Mort de l'effet papillon », Bulletin 118 (septembre 2003) de l'institut de la méthode, pp 1-8.

@ / « Questions de temps », http:// cdfinfo.in2p3.fr/culture/temps.html @ / « Temps », http://fr.wikipédia.org/wiki/temps.html

@ / « D'où vient la vie ? », http:// www.nirgal.net/ori-where.html

@ / « Météorologie, hasard, incertitude et chaos » http://charlatans.free.fr/météo.

Magazines

§/Le singe, l'homme et après. Enquête sur notre avenir biologique,
Science&vie, n°1036, Janviers 2004

§/ Darwin, coll. Les génies de la science, Pour la science, n° 18, Février - Mai
2004

§/ Mars Express dévoile la planète rouge, Espace Magazine, n°13, Mai - Juin
2005

Vidéo

Hubble : 15 années de découvertes, Présenté par Bob Fosbury

Mémoire de maîtrise/ Philosophie

Sujet : Cosmologie de l'émergence et pensée du chaos :

au-delà de la science classique

Résumé

Nous avons assisté en cette fin de 20ème siècle à un véritable bouleversement dans notre façon de concevoir le monde. Après avoir dominé la pensée occidentale pendant 300 ans, la vision newtonienne d'un univers fragmenté, mécaniste et déterministe a fait place à celle d'un monde holistique, indéterministe et exubérant de créativité.

Pour Newton, l'univers n'était qu'une immense machine composée de particules matérielles inertes, soumises à des forces aveugles. A partir d'un petit nombre de lois physique, l'histoire d'un système pouvait être tout entière expliquée et prédite si l'on pouvait le caractériser à un instant donné. Le futur était déjà contenu dans le présent et le passé, et le temps était en quelque sorte aboli. Si bien que nous nous retrouvions face à une étrange dichotomie : d'une part, des lois de la Nature invariantes et intemporelles ; d'autre part, un monde changeant et contingent ; d'une part, des lois de la physique qui ne connaissent pas la direction du temps ; d'autre part, un temps thermodynamique et psychologique qui va toujours de l'avant. Un château non entretenu tombe en ruines, une fleur se fane et nos cheveux blanchissent au fil du temps, jamais l'inverse. L'univers était enfermé dans un carcan rigide qui lui ôtait toute créativité et lui interdisait toute innovation. Tout était irrémédiablement fixé à l'avance, aucune surprise n'était permise. Ce qui provoqua la célèbre phrase de Friedrich Hegel : « Il n'y a jamais rien de nouveau dans la nature. » C'était un monde où le réductionnisme régnait en maître. Il suffisait de décomposer tout système complexe en ses éléments les plus simples et d'étudier le comportement de ses parties pour comprendre le tout. Car le tout n'était ni plus ni moins que la somme des composantes. Il existait une relation directe entre la cause et l'effet. L'ampleur de l'effet était invariablement proportionnelle à l'intensité de la cause et pouvait être déterminé à l'avance.

Ce déterminisme contraignant et stérilisant, ce réductionnisme rigide et déshumanisant prévalurent jusqu'à la fin du 19ème siècle. Ils furent bousculés, transformés et, en fin de compte, balayés par une vision beaucoup plus exaltante et libératrice au cours du 20ème siècle. La dimension historique entra en force dans nombre de disciplines scientifiques. La contingence occupa une place à part entière dans des domaines aussi variés que la cosmologie, l'astrophysique, la géologie, la biologie et la génétique. Le réel n'était plus seulement déterminé par des lois naturelles appliquées à des conditions initiales particulières ; il était aussi modelé et façonné par une suite d'événements contingents et historiques. Certains de ces épisodes, modifiant et bouleversant la réalité à son niveau le plus profond, étaient à l'origine même de notre existence. Ainsi celui du bolide rocailleux venu percuter la Terre il y a quelques 65 millions d'années : en provoquant la disparition des dinosaures et favorisant ainsi la prolifération de nos ancêtres les mammifères, ce choc contingent fut responsable de notre émergence. Le rêve formulé par Laplace au 18ème siècle d'une intelligence qui « embrasserait dans la même formule les mouvements des plus grands corps de l'univers et ceux du plus léger atome. », et pour laquelle « rien ne serait incertain.... et l'avenir comme le passé serait présent à ses yeux », volait en éclats.

L'intrusion de l'histoire ne fut pas seule responsable de la libération de la nature. Les lois physiques perdirent elles-mêmes de leur rigidité. Avec l'avènement de la mécanique quantique au début du 20ème siècle, le hasard et la fantaisie entrèrent en force dans le monde subatomique. Et à l'ennuyeuse certitude déterministe se substitua la stimulante incertitude du flou quantique. Le réductionnisme étroit et simpliste fut balayé et la réalité morcelée et localisée devint holistique et globale. Le monde macroscopique ne fut pas épargné : avec la théorie du chaos, le hasard et l'indétermination envahirent non seulement la vie de tous les jours, mais aussi le domaine des planètes, des étoiles et des galaxies. L'aléatoire fit irruption dans un monde par trop minutieusement réglé. Une simple relation de cause à effet n'était de mise. L'ampleur des effets n'était plus toujours en proportion avec l'intensité des causes. Certains phénomènes étaient si sensibles aux conditions initiales qu'un infime changement au début pouvait conduire à un changement tel, dans l'évolution ultérieure du système, que toute prédiction devenait vaine. Les propos tenus par Henri Poincaré en 1908 -« Une cause très petite, qui nous échappe, détermine un effet considérable que nous ne pouvons ne pas voir, et alors nous disons que cet effet est dû au hasard » - ne pouvait être plus éloignés de formulations laplaciennes.

Débarrassée de son carcan déterministe, la Nature peut donner libre cours à sa créativité. Les lois intemporelles de la physique lui fournissent des thèmes généraux autour desquels elle peut broder et improviser. Elles délimitent le champ du possible et offrent des potentialités. C'est à la nature de les réaliser. C'est à elle de décider de son destin et de définir son futur. Pour fabriquer la complexité, la nature va miser sur le non-équilibre, dans la mesure où les structures ne naissent qu'à partir de situations hors d'équilibre. La symétrie n'est intéressante que dés l'instant où elle est brisée. C'est éloigné de l'équilibre, que la matière génère de l'inédit. L'ordre parfait est stérile, alors que le désordre contrôlé est créatif, le chaos déterministe, porteur de nouveautés. La nature innove ; elle crée des formes belles et variées qui ne peuvent plus être représentées par des lignes droites ou de simples figures géométriques, mais par des courbes plus complexes que Benoît Mandelbrot a appelées « fractales ».

La matière s'organise selon des lois d'organisations et des principes de complexité, et acquiert des propriétés « émergentes » qui ne peuvent être déduites de l'étude de ses composantes. Le réductionnisme est bien mort. Cette liberté recouvrée de la nature jette un éclairage nouveau sur l'ancienne dichotomie entre les lois physiques intemporelles, éternelles et immuables, et le monde temporel, changeant et contingent : la nature est dans le temps car elle peut innover et créer autour de lois hors du temps.






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"En amour, en art, en politique, il faut nous arranger pour que notre légèreté pèse lourd dans la balance."   Sacha Guitry