Mise à jour le 9 Juin 2014
CONFÉRENCE de
Rémy LESTIENNE,
Physicien
«Émergence : une limite au réductionnisme ? une
porte ouverte au libre arbitre ?»
Organisée par la SAF
Dans ses locaux, 3 rue Beethoven, Paris XVI
Le Samedi 17 Mai 2014 à 15H00
à l'occasion de la réunion de la Commission de Cosmologie.
Photos : JPM pour l'ambiance. (les photos avec plus de résolution
peuvent
m'être demandées directement)
Les photos des slides sont de la présentation de l'auteur. Voir
les crédits des autres photos si nécessaire
(Le conférencier a eu la gentillesse de nous donner sa
présentation complète (en pdf) elle est disponible sur le
site de la commission et également disponible
sur ma liaison ftp au téléchargement et s'appelle.
http://www-cosmosaf.iap.fr/LestienneParis2014.pdf
elle est dans le dossier COSMOLOGIE SAF de la saison
2013-2014).
Ceux qui n'ont pas les mots de passe doivent
me contacter avant.
Pour info les actualités cosmo présentées ce jour là sont aussi
disponibles sur
le site de la commission.
BREF COMPTE RENDU
Rémy Lestienne est à la
fois Physicien et Neurobiologiste.
Cette conférence a
particulièrement favoriser la verve des participants, aussi je vais leur laisser
la parole.
Notre ami Jean Pierre Treuil qui a pris beaucoup de notes, il
nous fait part de ses commentaires que je reproduis en partie ici :
Lors de sa réunion du 17 mai 2014, la commission Cosmologie de la SAF recevait Rémy
Lestienne. pour
l'écouter sur la notion d'émergence. Directeur de Recherche (actuellement
émérite) au CNRS, Rémy Lestienne a été successivement physicien puis
neuro-biologiste. A coté de publications spécialisées, il est l'auteur de
plusieurs ouvrages dans lesquels les thèmes de l'émergence, mais aussi du temps
- temps physique, temps biologique, temps subjectif - occupent une place
importante.
La SAF a rendu l'exposé de
Rémy Lestienne accessible sur la toile. Mon propos est ici, non pas d'en faire
un résumé exhaustif, mais d'en reprendre quelques points essentiels, en essayant
de clarifier certaines interrogations. Avant d'entrer dans le sujet, je veux
souligner l'intérêt que j'ai pris à cet exposé, par les références qui ont été
données et l'accent porté sur des questions touchant à la nature de la Science.
Une introduction sous l'angle de
l'histoire des sciences
La manière dont Lestienne a commencé son exposé a pu surprendre. Il l'a placé en
effet d'emblée dans le cadre d'un débat de
philosophie des Sciences, en parlant deréductionnisme et d'émergentisme,
en retraçant brièvement l'histoire de ces deux notions, et en annonçant un
parti-pris clair en faveur de la seconde.
Et de décrire un mouvement de balancier, alternant les faveurs sur l'une puis
sur l'autre de ces conceptions de la manière dont on peut parvenir à comprendre
(partiellement) notre univers : Lestienne a évoqué brièvement Aristote et une
certaine tendance émergentiste, et Descartes, clairement (?) réductionniste.
Puis il s'est attardé sur le mouvement des idées au XXème siècle, pour affirmer
que le regain de faveur de l'émergentisme tirait en partie son origine des
avancées des sciences physiques, et se trouvait renforcé par les recherches sur
l'apparition de la Vie et les sciences du cerveau. Ces trois domaines
scientifiques ont ensuite structuré son exposé.
Bien sûr, cette introduction s'est accompagnée d'une définition générale de
l'émergence, comme apparition
soudaine -
dans l'Univers - de qualités
nouvelles,
de propriétés non
attendues,
voire non
explicables.
Mais peut-être que devant un public tel que le nôtre, passer un moment sur un
exemple concret et simple eut pu mieux faire percevoir les enjeux du débat et
permettre une meilleure discussion.
Le présent billet est centré sur la problématique de l’émergence en Physique, et
sur ce que j’ai pu saisir de ses enjeux méthodologiques. Les autres domaines
abordés par Lestienne feront l’objet du prochain billet.
L'émergence en Physique
L'émergence, dans sa manifestation la plus simple, me semble être l'apparition
d'uneorganisation au sein
d'une collectivité d'entités
en interactions. Il est
utile de rapporter ici la définition figurant dans la version anglaise de
l'article Emergence de
Wikipédia. Je cite : "a process whereby larger entities, patterns and
regularities arise through interactions amogn smaller or simpler entities that
themselves do not exhibit such properties"
Modèles d'Ising
Un exemple élémentaire d'un tel contexte est fourni par les "modèles d'Ising",
élaborés à l’origine dans le cadre de l’étude du ferromagnétisme, mais
utilisés dans bien d’autres cadres ; ils ont été l’occasion, dans ma vie
professionnelle, de me familiariser avec la question des rapports entre
niveaux individuels et collectifs. C’est pourquoi, bien que non mentionnés par
Lestienne dans son exposé, je les reprends ici pour entrer dans le débat et
les reprendre ensuite dans la discussion.
De tels modèles mettent en oeuvre des systèmes composés d'éléments ou sites disposés
en réseau régulier, en 1, 2 ou 3 dimensions, et s'orientant binairement (par
exemple positivement ou négativement) en fonction de leurs voisins
immédiats. Ces modèles font l'objet d'une abondante littérature en physique
statistique, et se prêtent en informatique à des simulations aisées à
programmer. L'interaction entre un élément du réseau et ses voisins consiste
en une tendance à adopter l'orientation majoritaire observée dans ce
voisinage ; cette tendance est contrariée par une agitation thermique, codée
par un paramètre de température, poussant au contraire à changer
aléatoirement d'orientation.
Différentes variantes existent, selon le nombre de dimensions, la taille du
voisinage, le forçage temporel des transitions (simultanées ou survenant
indépendamment les unes des autres). Les simulations - et parfois, nous le
verrons, les analyses mathématiques - montrent pour certaines de ces variantes
l'existence d'une
température
critique : en dessous de cette
température, on observe une
organisation
du réseau, dans laquelle de vastes régions conservent au cours du temps
une
orientation majoritaire
stable et massive : les
éléments de ces régions gardent quasi-constamment cette orientation commune.
Le franchissement de la température critique provoque une transition de phase
du réseau. On peut consulter pour un exposé approfondi le
cours
de Michel Héritierdu Laboratoire de Physique des Solides de Paris-Sud
De l'individuel au collectif
Retenons donc, pour le moment, ceci : Les
phénomènes émergents sont des phénomènesorganisationnels s'observant
dans des collectivités (ou populations) rassemblant un grand nombre de
constituants élémentaires (ou individus) ; ils sont le signe de l'existence,
dans ces collectivités, d'une organisation particulière. Pour chacune de ces
organisations ouétats organisationnels, l'attention se porte sur les
points suivants :
-
leurs conditions d'apparition et de disparition,
leur comportements face à différents stress,
-
les liens entre 1) ces propriétés globales et 2)
la physique sous-jacente : celle des composants élémentaires des
collectivités concernées et des interactions entre ces composants ;
autrement dit, le lien entre le comportement global de la collectivité et
les comportements individuels
La discussion sur l’émergence se concentre sur
deux questions :
-
connaissant de façon précise les comportements
individuels des composants et leurs interactions, est-il possible de prévoir
de façon certainel’organisation et le comportement de la collectivité ;
les instruments de cette prédiction pouvant être 1) la déduction mathématique
et/ou 2) diversesexpérimentations, modifiant les paramètres des
composants, pour en observer les conséquences sur la collectivité ; et
rapporter ainsi un lien univoque - autrement dit déterministe - entre le
niveau individuel - commecause -
et le niveau collectif - comme effet.
-
réciproquement, connaissant l’organisation et le
comportement de la collectivité, peut-on en induire les propriétés des
composants. Sachant qu’à priori, rien ne s’oppose à ce que l’on aboutisse,
en empruntant ce chemin inverse, à plusieurs possibilités ; une même
organisation collective pouvant par exemple être générée par de nombreux
modes d’interactions différents.
Une réponse entièrement positive à
la première question fonde ce qu’on appelle leréductionnisme. Dans
une vision de la réalité dans laquelle les différents niveaux d’analyse
forment une hiérarchie allant des plus simples (les niveaux inférieurs) aux
plus complexes (les niveaux supérieurs), le réductionnisme affirme que les
caractéristiques des comportements observés à un certain niveau déterminent
de façon univoque celles observées au niveau immédiatement supérieur.
Une version plus faible de
cette conviction affirme
une relation plus lâche : la connaissance des comportements individuels et
des lois d’interaction entre individus (le niveau inférieur) permet de
prévoir une palette possible d’organisations
et de comportements collectifs (le niveau supérieur) ; l’organisation et le
comportement collectif effectivement
observés est simplement l’une des possibilité de cette palette :
l’apparition de telle organisation collective plutôt que de telle autre
semble due alors au hasard, en tout cas à des facteurs inaccessibles
à toute mesure.
Une autre version
faible consiste à
admettre le principe de la dépendance : les comportements du niveau
collectif sont bien en
principe une conséquence de
ceux du niveau individuel, mais en pratique, dans nombre de cas, cette
dépendance est inexploitable :
elle ne peut servir à aucune prédiction. Et chaque niveau doit être étudié
en lui même.
Une réponse
négative radicale conteste
- dans certains cas - la possibilité même de caractériser les comportements
individuels, indépendamment des organisations collectives dont ces individus
font parti. Niveau individuel
et niveau collectif apparaissent alors comme soudés dans une boucle causale,
sans que l’on puisse donner la priorité à l’un d’entre eux. Cette réponse
conduit à affirmer que certains phénomènes collectifs relèvent d’une émergence
«forte» - selon l’expression
utilisée dans le texte de Lestienne, page 9 - irréductible à la seule
analyse des composants ; elle souligne en conséquence, pour de tels
phénomènes, le caractère vain de toute tentative réductionniste. Le seul
objectif scientifique valide est de caractériser les différents types
existants d’organisation collective, de caractériser pour chacun de ces
types les comportements individuels associés, et de mettre en lumière la
cohérence de ces associations.
Primauté de l'individuel ?
Cette formulation de la gradation entre réductionnisme et «émergentisme»
demeure imprégnée d’une vision «classique» de la physique, en ce sens que
l’objet collectif reste appréhendé comme un ensemble d’objets individuels
séparables
et localisables. De plus, ces objets individuels sont considérés comme
préexistant
aux diverses organisations dont ils peuvent être partie prenante :
par exemple les mêmes molécules d’eau, objets individuels, selon les
conditions de température et de pression, vont s’organiser en vapeur, en
eau liquide ou en glaces.
La préexistence des objets individuels introduit une dissymétrie entre le
niveau individuel et le niveau collectif,
le
premier apparaissant inévitablement, dans cette vision classique, comme plus
fondamental. A mon sens, cette dissymétrie rend la quatrième option
(l’émergence forte) plus difficile à défendre. Mais la physique quantique,
en introduisant de sérieuses réserves à la notion d’objet au niveau
microscopique, apporte des éléments nouveaux. J’y reviendrai à propos des
thèses de Robert B. Laughlin, cité par Lestienne.
Retour sur les modèles d'Ising.
La simplicité des modèles d’Ising, du moins dans certaines variantes, permet
un traitement mathématique exact. Ce traitement, à partir d’une
formalisation des interactions entre sites et de la valeur de leurs
paramètres, effectue le calcul de
grandeurs caractérisant organisation et comportement collectifs, savoir :
existence et valeur de la température critique, corrélation entre les
orientations des sites selon la distance qui les séparent, voire taille
moyenne des domaines d’orientation homogène.
Rappelons brièvement comment sont caractérisées interactions individuelles
et organisation collective dans Ising :
-
caractérisation des comportements individuels :
l’interaction entre deux sites quelconques est associée à une grandeur, le potentiel
d’interaction, grandeur qui est minimale lorsque
les deux sites ont la même orientation. La probabilité pour un site,
d’inverser son orientation à un instant donné, est fonction de la valeur
cumulée de tous les potentiels d’interaction auxquels il est soumis, et de
la température : si par exemple cette température est nulle (pas
d’agitation aléatoire) et si lui-même et tous ses voisins partagent la
même orientation, la probabilité de voir son orientation s’inverser est
nulle.
-
caractérisation de l’organisation collective :
s’agissant d’une collectivité en constante agitation (dès que la
température n’est pas nulle), son organisation est caractérisée par des
distributions de probabilités, résumées en pratique par les espérances
mathématiques - prises à
travers le temps - de certaines quantités. Parmi de telles quantités,
citons 1) l’orientation moyenne par siteà
un instant donné ; 2) la corrélation des
orientations observées au même instant sur deux sites séparés d’une
distance donnée ; 3) l’énergie totale du
réseau, somme des potentiels d’interactions observés sur chaque paire de
site à un instant donné.
Le calcul de ces espérances mathématiques passe par celui de la distribution
de probabilités de l’énergie totale, à l’aide d’une formule bien connue en
physique statistique. Cette formule fait intervenir une fonction, dite fonction
de répartition. Cette fonction se présente comme une somme de termes
associés à chaque configuration possible du réseau, configurations qui
diffèrent les unes des autres par l’orientation d’au moins un site.
La formule exacte donnant la fonction de répartition d’Ising a pu être
établie pour des réseaux linéaires et des réseaux à deux dimensions. Une
fois cette formule obtenue, les grandeurs caractérisant l’organisation
collective - et leur comportement en fonction de la température - se
calculent très simplement. On montre ainsi, dans le cas linéaire, qu'il
n’existe pas de température critique : aucune orientation privilégiée ne
subsiste de façon stable, dès que la température n’est pas strictement
nulle. Au contraire, dans le cas d’un réseau à deux dimensions, il existe
bien une température critique et la relation, entre cette température et la
force des interactions individuelles, est établie.
La simplicité des modèles d'Ising :
une illusion ?
Au premier abord, les modèles d’Ising sont une illustration de la validité
du réductionnisme : propriétés d’un collectif calculables, et donc
prévisibles, à partir d’une mise en équation des interactions entre membres
de ce collectif.
Cette conclusion doit cependant être nuancée :
- en
premier lieu, quelques détails techniques ont été omis dans la
présentation précédente. Ces détails concernent, entre autres, la taille
du réseau et la nécessité de passage à la limite, lorsque cette taille
devient infinie. Sont omises également les considérations relatives au
nombre de voisins et à la «portée» des interactions. De tels détails ne
changent pas l’architecture des calculs, mais peuvent les compliquer
notablement.
- en
second lieu, plus important, la possibilité de conduire les calculs de
façon exacte semble limitée : si le cas d’un réseau linéaire (1D) est
simple, celui d’un réseau 2D est nettement plus complexe : à tel point,
par exemple, que la démonstration d’Onsager (1944) n’est pas présentée
complètement dans le cours de Michel Héritier, comme état «hors du cadre»
d’un tel cours ; aucun calcul exact n’existe à ma connaissance pour des
réseaux en trois dimensions ou davantage.
Lorsque de tels calculs ne sont pas possibles, ou bien lorsqu’on désire
faire comprendre plus intuitivement les comportements collectifs, des
raisonnements plus qualitatifs peuvent être mobilisés. Ainsi, un
raisonnement qui s’appuie sur les frontières séparant les régions
d'orientations différentes (Méthode de Peierls), pour un réseau 2D, aboutit
à la certitude de l’existence d’une température critique, sans cependant
être à même d’en donner la valeur. Le recours à des notions physiques de
thermodynamique, telles que l’entropie et l’énergie libre, est également
très utile.
Mais, au bout du compte, les difficultés mathématiques des calculs croissent
très vite avec la complexité spatiale du réseau, et peuvent devenir
insurmontables, alors même que les interactions individuelles sont très
simples, que les individus sont identiques les uns aux autres et qu’ils sont
disposés sur un réseau spatial régulier et rigide.
De telles constatations iraient dans le sens d’un réductionnisme faible,
affirmant un déterminisme de principe du collectif par l’individuel, mais
devant renoncer à exploiter ce déterminisme dans beaucoup de situations.
Robert B. Laughlin et l'Emergence.
Robert B. Laughlin est un
physicien, co-lauréat du prix Nobel de physique en 1998 pour ses travaux sur
l’effet Hall quantique fractionnaire. Dans son livre "un Univers Différent"
paru chez Fayard en 2005 (collection «le Temps des Sciences»), il défend sa
thèse affirmant les illusions et les limites du réductionnisme et,
simultanément, la fécondité de la notion d’émergence pour la Recherche
scientifique. Il appuie sa réflexion sur plusieurs exemples d’organisations
: au sein de populations d'atomes ou de molécules, les
structures
cristallines, l'
état
super-fluide ; au sein de
populations d'électrons dans les métaux, l'état de
supraconductivité, ou
encore l'état lié à l'
effet
Hall quantique.
Je suis un lecteur pour lequel ces domaines de la physique sont largement
inconnus. Je pense cependant pouvoir comprendre certaines prises de
position, mais pour les adopter j’ai besoin d’un minimum de formalisation.
Aussi le livre cité de Robert Laughlin souffre-t-il pour moi d’être trop
littéraire et je reste sur ma faim ; bien qu’intéressé par les
développements sur la nature émergente des phénomènes abordés, et interpellé
par la force des convictions de l’auteur à ce propos, mes connaissances
réduites en la matière me laissent «incapable d’être convaincu».
De ma lecture je retiens qu’un état émergent pour l'auteur est l’état d’un
système macroscopique caractérisé par les propriétés suivantes :
- sa
«solidité», sa résistance aux modifications de son environnement, dans une
large fourchette de valeurs
- son
apparition, ou sa destruction, se manifestant brusquement, comme
conséquence du franchissement d’un certain seuil par un certain paramètre,
telle la température. En termes physiques, la survenance d’un tel état, ou
sa disparition, est une transition
de phase.
- le
fait que ces propriétés, plus précisément les grandeurs et les lois
caractérisant l’état, sont d’autant plus stables, ou plus exactes, que la
taille physique de ce système est importante.
De telles propriétés sont bien la marque de la mise en place d’une
organisation au sein du système considéré : une organisation, selon Laughlin,
ne peut en effet, par nature, exister «approximativement» , elle est
présente ou elle ne l’est pas. Cette organisation structure un ensemble
d’éléments - les atomes dans les liquides ou les structures cristallines,
les électrons dans les supra-conducteurs - lesquels éléments peuvent en
l’occurrence perdre toute individualité. La dite organisation se caractérise
par dessymétries - celles
qu’elle conserve et celles qu’elle a perdues dans la transition qui l’a fait
naître - et des grandeurs comme le paramètre
d’ordre. Elle résulte d’un enchevêtrement d’une multitude de processus
sous-jacents, que l’on peut mettre en équations, sans que nécessairement on
puisse les exploiter.
A cela s’ajoute une idée importante, celle du caractère générique des
organisations émergentes. Savoir, le fait que ces organisations - et les
comportements macroscopiques associés - se regroupent en grandes catégories
identifiées par des structures communes et, pour ainsi dire,
«trans-disciplinaires». Ces structures communes d’organisation et de
comportement se retrouvent pertinentes pour décrire des phénomènes physiques
différents. Laughlin souligne ainsi l’identité de structure des états
super-fluides et des états de supra-conductivité, déjà mentionnés.
Pour lire la suite aller sur son blog :
http://jeanpierretreuil.blogspot.fr/2014/06/remy-lestienne-et-lemergence-i.html
Ensuite, c'est notre Xavier Colas de la Noue national qui
nous écrit :
Cet exposé pose le problème de la vie et c'est le + important
même si je crois sincèrement que le problème de l'émergence repose sur une base
religieuse qui explique tout sans rien expliquer.
Voici ma petite synthèse de Craig Venter en 1/3 de page, les 2/3 restant venant
des Pr. Prochiantz et Edith Heard du Collège de France.
1) Ce petit travail montre que la chimie biogénétique de la scissiparité et de
l'ADN est un pur programme d'instructions séquentielles codées, un "robot
moléculaire" reproductible artificiellement assez facilement. L'émergence n'y a
que peu d'utilité explicative.
2) Par contre la chimie bio-vitale (se nourrir, respirer, excréter) est
impossible à reproduire. Elle est composée de millions de processus biochimiques
avec un nombre immense de boucles de rétroaction positives ou négatives entre
molécules très nombreuses et très complexes. On peut les reproduire une à une
mais il est impossible de faire fonctionner tous ces millions de systèmes comme
"un seul système". C'est un peu comme vouloir faire fonctionner un moteur
d'avion comportant 10 millions de pièces mobiles. D'ailleurs Craig Venter se
sert du cytoplasme d'une levure eucaryote pour les 10 derniers attachements de
l'ADN "artificiel" d'une bactérie procaryote en un seul mono-brin. L'émergence
n'a rien à expliquer sur cette chimie bio-vitale extrêmement complexe mais
basique.
3) Enfin, tout cela n'explique pas l'apparition de la vie (en 1 Md d'années) qui
a réussi à choisir 250 000 protéines "efficaces" parmi les 10^500 autres
protéines possibles combinant différemment les 20 acides aminés sur un gène en
comportant 500 (50 à 500). La nature n'a pu tester toutes ces combinaisons. On
en est réduit à imaginer des pré-ARN, des pré-ribosomes, des pré-membranes
lipidiques, un darwinisme chimique du pré-cytolasme .........tout cela finissant
par constituer le fameux LUCA, la première cellule vivante à ADN-ARN minimal.
L'émergence, là encore, ne résout rien sauf à imaginer des milliers d'émergences
différentes pour expliquer comment LUCA a pu évoluer vers les cellules
eucaryotes infiniment plus complexes. La vie sur les exoplanètes (même s'il y en
avait 10^30) ne pourrait y apparaître.
L'apparition de la vie est un hasard incroyable compte tenu de sa
probabilité 250 000/10^500 !!
J'ai aimé cet exposé parce qu'il pose un problème fondamental,
crucial même si la solution qu'il propose ne peut pas être la mienne.
POUR ALLER PLUS LOIN :
Jean Pierre
Martin SAF
Président de la Commission de Cosmologie
www.planetastronomy.com
Abonnez-vous gratuitement aux astronews du site en envoyant votre e-mail.
PROCHAINES RÉUNIONS DE LA
COMMISSION DE COSMOLOGIE :
Notez dès à présent les dates des prochaines réunions pour la
rentrée : toujours à 15H au siège 3 rue Beethoven P16
Nous sommes satisfaits de la nouvelle réorganisation de la
salle. Merci d’avance de votre aide.
-
samedi 20 Septembre
-
samedi 15
Novembre
-
samedi 17
Janvier 2015
Marquez ces dates dans vos agendas
merci de nous proposer des thèmes et/ou des conférenciers