Le roman des intelligences

 

Pour appréhender toute la diversité et la richesse des intelligences dans leur dynamique (évolutive ou individuelle), nous devons nous défaire d'une conception dualiste qui oppose humain et animal. C'est aussi essentiel pour que demain nous puissions cohabiter au mieux avec les nouvelles formes d'intelligence.

Pascal Picq

 

Sur la fin de sa vie, Charles Darwin se lia d'amitié avec un jeune chercheur du nom de George John Romanes. Leur relation commence par une longue lettre écrite par Romanes en 1874 alors qu'il développe ses recherches sur le système nerveux et locomoteur des méduses et des échinodermes. Darwin perçoit les potentialités de son jeune ami et l'encourage à développer ses recherches sur l'extension de sa théorie de la sélection naturelle à l'évolution mentale, autrement dit, de l'intelligence.

Après une première conférence sur le sujet en 1881, Romanes publie Animal intelligence en 1882, vite traduit et édité en français en 1887. C'est l'année de la mort de Darwin et dix ans après L'Expression des émotions chez l'homme et les animaux, le livre fondateur de l'éthologie qui, initialement, devait faire corps avec La Filiation de l'Homme en relation avec la sélection sexuelle en 1871. Romanes suit à la lettre, si on peut dire, la méthode et l'épistémologie de son maître : recueillir le plus grand nombre d'observations connues parmi les espèces, dont l'homme, faire ses propres recherches et les intégrer dans une approche scientifique évolutionniste. Deux ouvrages récapitulent ses recherches : Mental Evolution in Animals dans lequel il présente le manuscrit inédit de Darwin Essay on Instincts en 1883 et Mental Evolution in Man. Origins of Human Faculty en 1888. C'est dans ce dernier qu'il affirme : « On comprend comment, partie de si haut, la psychologie du singe peut engendrer celle de l'homme ».

Romanes ne part pas de rien, comme le supposent encore trop de théories de la psychologie qui maintiennent le dogme dualiste d'une intelligence humaine dénuée de tout héritage phylogénétique. Il a à sa disposition les notes et réflexions que Darwin lui avait données. De fait, elles étaient nombreuses, car – c'est méconnu – Darwin avait beaucoup étudié ces sujets, notamment le développement de l'intelligence chez l'enfant. D'ailleurs, ses travaux annoncent ceux de Jean Piaget ; ils seront publiés tardivement dans la revue Mind en 1877. Pourquoi avoir autant attendu ?

Parce qu'il considérait que l'état des connaissances et de ses connaissances ne permettait pas d'intégrer cette question dans L'Origine des espèces au moyen de la sélection naturelle, paru en 1859. Il s'en confie à son jeune ami alors qu'il travaille à son dernier livre La Formation de la terre végétale par l'action des vers de terre, publié en 1881. Cet ouvrage porte sur un des aspects les plus fascinants de l'« intelligence écologique » de la nature : le rôle des vers de terre dans la constitution des sols sur lesquels se fondent nos agricultures et nos civilisations. Ce livre prémonitoire sur une catastrophe écologique annoncée resta longtemps ignoré par nos civilisations aveuglées de progrès qui, au fil de l'histoire, ont édifié des représentations du monde considérées d'autant plus avancées qu'elles se distanciaient de la nature.

Vers le monde indéfini des instincts...

Alors, tous les êtres considérés comme proches de la nature se sont vu rejetés dans le monde indéfini des instincts : les femmes ont subi le sexisme, les sauvages le racisme, les animaux l'espécisme… Dans le même temps, la science a forgé des outils « objectifs » pour valider cette mise à l'écart, comme le célèbre qi (quotient intellectuel), inventé par Francis Galton, cousin de Charles Darwin. Le qi est calibré de telle sorte que, par exemple, trop de personnes croient encore que les hommes de Néandertal ou nos ancêtres Cro-Magnon – qui avaient tous un cerveau plus gros que le nôtre – étaient moins intelligents que nous.

Les avancées de Romanes ont été contrées par le psychologue Lloyd Morgan et son canon : « Nous ne devons en aucun cas interpréter une action comme relevant de l'exercice de faculté de haut niveau, si celle-ci peut être interprétée comme relevant de l'exercice de facultés de niveau inférieur ». Cet aphorisme est resté marqué au fer rouge sur la porte d'entrée des laboratoires de psychologie comparée pour un siècle jusqu'à l'affirmation des sciences cognitives modernes.

Ce principe épistémologique est forgé au coin du bon sens scientifique, mais il a une conséquence perverse. Sous prétexte d'éviter les dérives dites anthropomorphiques, il réhabilite de fait le dualisme cartésien pour nos qualités mentales dites supérieures, telles l'empathie, la conscience, la morale... En simplifiant, toutes les grandes écoles de psychologies qui émergent du temps de Romanes et de Morgan, comme celles d'Ivan Pavlov, John Watson, Burrhus Skinner... se basent sur le canon de Morgan.

Il faut attendre les travaux des grands pionniers de l'éthologie tels que Karl von Frisch, Konrad Lorenz et Niko Tinbergen (nobélisés en 1973) pour que les observations sur les comportements s'inscrivent dans une véritable perspective évolutionniste. On doit à Tinbergen une avancée épistémologique majeure avec ses quatre questions fondamentales de l'éthologie. Dans les deux premières, il décrit les causes proximales : comment l'individu acquiert ses caractères (ontogenèse) et comment il interagit avec l'environnement (fonction). Les deux dernières questions, ultimes ou fondamentales, s'intéressent à l'évolution (la phylogenèse) et à l'adaptation de la population. Cette grille d'analyse devrait être au cœur des réflexions à mener dans notre monde actuel envahi par les machines intelligentes au risque de sombrer dans le syndrome de la Planète des singes.

Le syndrome de la Planète des singes

C'est en effet dans la nouvelle de Pierre Boule qu'on trouve une des meilleures explications du canon de Morgan. On y apprend que les grands singes ont pris le pouvoir parce que les humains avaient inventé une civilisation dans laquelle des machines produisaient leurs besoins avec des grands singes domestiqués pour les servir. Alors, au fil du temps, les humains se dissocièrent de la nature et cessèrent d'êtres actifs physiquement et intellectuellement.

Or depuis Romanes et Morgan, les sciences psychologiques mènent une guerre de tranchée neuronale pour sauver le statut ontologique de l'homme, c'est-à-dire son statut à part du propre de l'homme. Il en va ainsi de la conscience et de la morale. D'ailleurs, c'est lors de la première John Romanes Lecture que l'immense Thomas Huxley donne une conférence séminale intitulée Evolution and Ethics en 1893. Il défend la thèse que seuls les humains sont capables de comportements moraux envers leurs congénères. Son petit-fils Julian, premier secrétaire général de l'Unesco, reprend la thèse de son illustre aïeul dans une autre Romanes Lecture exactement cinquante ans plus tard. Cette question de la morale – avec la conscience et l'empathie – se retrouve chez des auteurs actuels notamment Patrick Tort, avec son principe d'effet réversif de l'évolution, qui explique que les humains peuvent agir contre les effets néfastes de la sélection naturelle.

Ce fardeau dualiste marque profondément les recherches sur les origines et l'évolution non pas de l'intelligence, mais des intelligences. Charles Darwin était consterné par la dérive spiritualiste de son époque, notamment chez son collège Russel Wallace, le codécouvreur de la sélection naturelle. Wallace fonde le darwinisme en considérant que tous les phénomènes de la vie ne peuvent et doivent s'expliquer que par la sélection naturelle. Mais il n'arrive pas à comprendre l'émergence de la conscience et des capacités « mentales supérieures », alors il plonge dans le spiritualisme.

Si on admet l'importance du canon de Morgan et sa vertu parcimonieuse, c'est-à-dire sa propension à ne prendre en compte que le minimum de causes, il finit tout de même par heurter un autre principe parcimonieux : celui de la phylogénie. En effet, si deux espèces issues d'un même ancêtre commun manifestent les mêmes caractères, c'est qu'ils proviennent d'un ancêtre commun exclusif ou du dernier ancêtre commun. Et pour reconstituer l'arbre phylogénétique des intelligences, il faut connaître leurs formes d'expressions chez les autres espèces.

À partir de là, une tout autre perspective scientifique s'ouvre à notre entendement trop longtemps borné par les postulats dualistes et cartésiens. Certes, de Descartes à Morgan, on se félicite d'une méthode qui engage les recherches sur des éléments constitutifs de l'intelligence, qui, plus pertinemment, s'orientent vers les intelligences et, in fine, autorise le travail minutieux de la reconstitution phylogénétique. Néanmoins, le spectre dualiste à la peau dure, même si les grands auteurs comme Darwin et Romanes évitent de parler de l'homme et de l'animal en précisant de l'homme et des animaux !

Malgré l'excellence de nombreux chercheurs et laboratoires français, notre grand pays scientifique reste globalement en retard sur les études en éthologie et en psychologie comparée. Pourquoi ? À cause de notre ontologie dualiste. Pourquoi le Japon a-t-il la meilleure école d'éthologie du monde ? Parce que les Japonais sont animistes. Et l'on découvre que nos grands programmes scientifiques reposent sur nos ontologies fondamentales... De fait, en France on doit « prouver » que les chimpanzés ont de l'empathie alors qu'au Japon il faudrait « prouver » qu'ils en sont dépourvus. Et ça, c'est tout à fait humain. Mais prenons garde, ce n'est pas que des avancées des connaissances dont il est question. Notre avenir en dépend dans le monde qui se met en place, car la façon dont on perçoit les animaux est la même qui prévaut envers les robots.

Des articles décrivent la diversité des intelligences dans le règne animal, leur dynamique dans les espèces humaines depuis l'aube de l'humanité ainsi que la dynamique, la complexité et le potentiel de celle que l'on veut bien nous prêter aujourd'hui.

Le « second âge des machines »

Comment situer l'intelligence humaine – qui n'est pas la seule à être munie de différents types de consciences – entre les intelligences naturelles et l'émergence des intelligences artificielles dont les algorithmes ont déjà pénétré tous les aspects de nos vies ? Le « second âge des machines » est déjà là et toutes nos formes d'intelligences associées aux capacités cognitives de notre cerveau gauche (logique, analytique, algorithmique, objectif, rationnel...) se trouvent en concurrence avec des robots et des algorithmes devenant toujours plus performants. Or, nos programmes scolaires et notre éducation privilégient ces capacités cognitives en négligeant celles de notre cerveau droit qui, pour l'instant, échappent aux machines (synthèse, holistique, émotions, artistique, intuitif...). Nous entrons dans la troisième coévolution.

La première coévolution concerne tous les organismes vivants et leurs interactions. La deuxième se met en place avec les premiers hommes (Homo erectus) avec des innovations techniques et culturelles, comme la cuisson et la taille des outils, qui modifient et sélectionnent nos organismes, des gènes aux capacités cognitives. La troisième se manifeste depuis le début du xxie siècle avec l'impact des nbic (nanotechnologies, biologie naturelle et de synthèse, sciences informatiques et cognitives).

Mais contrairement aux sirènes du transhumanisme qui postulent que l'évolution est arrivée à son terme et que nos technologies doivent prendre le relais, il faut penser notre avenir en fonction des interactions de ces trois coévolutions ; l'émergence, en quelque sorte, d'une nouvelle intelligence. Car, fondamentalement, c'est quoi l'intelligence ? Essentiellement des interactions. Des vers de terre aux neurones en passant par les individus et les puces électroniques, toute intelligence est une propriété émergente des interactions.

Le syndrome de la Planète des singes est un signal. Notre humanité doit se remettre en marche. Notre cervelet possède 70 milliards de neurones connectés à l'ensemble de notre corps et de notre cerveau et des études récentes montrent que la marche, et tout particulièrement dans un bout de nature, augmente notre créativité de 60 % ; et c'est encore mieux avec les autres. Dépêchons-nous tant que les robots marchent comme des pantins et tant qu'ils n'ont pas de cerveau gauche. L'avenir déjà engagé de l'humanité se dicte ainsi : soit l'intelligence artificielle nous dépasse, soit nous devenons des humains doués d'intelligences augmentées. Il est temps que j'aille me promener dans la campagne comme ce cher Darwin... pour l'avenir de l'humanité !

Le concept même de conscience minimale est à revoir

Grâce à de nouvelles approches combinant neuro-imagerie et mathématiques, on évalue de mieux en mieux l'état de conscience d'une personne - suffisamment pour réviser la classification des états de la conscience.

Lionel Naccache

Les études sur la conscience se sont multipliées ces 30 dernières années. Qu'est-ce qui a déclenché cet engouement ?

L'étude de la conscience a connu des hauts et des bas. À la fin du xixe siècle, nombre de savants s'interrogeaient sur notre capacité à percevoir et penser le monde, et différentes tentatives de la scientifiser cohabitaient, mais chacune avait des écueils. L'école de psychologie expérimentale dite de l'introspection soutenait que pour savoir comment fonctionne la conscience, il suffisait de sonder soi-même son esprit. Mais l'introspection est souvent erronée et des zones de la subjectivité sont insondables ; l'école s'est effondrée. D'autres gens se sont juste intéressés aux comportements. Cette école, le behaviorisme, était à l'inverse trop déconnectée du subjectif. La psychanalyse a aussi émergé, sorte de mouvement purement subjectif ne s'intéressant qu'à ce que les gens racontent sur eux-mêmes. Tous ces écueils ont relégué la conscience dans un placard : puisqu'elle était subjective, elle ne pouvait être un objet de la science. Les choses ont changé dans les années 1970, quand, lors d'expériences psychologiques, on a commencé non seulement à recueillir le rapport subjectif du sujet, mais à le confronter à l'observation du comportement et de l'activité cérébrale. On s'est ainsi aperçu, par exemple, que des patients ayant une lésion dans le cortex visuel de l'hémisphère gauche, même s'ils disaient ne pas voir un visage qui leur était présenté dans leur champ mort, répondaient correctement à la question : « Le visage est-il effrayant ou non ? » lorsqu'on les forçait à donner une réponse (on parle de vision aveugle). La conscience est alors devenue une variable expérimentale que l'on pouvait croiser avec des données comportementales ou d'imagerie.

Plusieurs théories de la conscience ont alors émergé. Quelles sont-elles ?

Parmi les principales théories, il y a celle de Giulio Tononi, de l'université du Wisconsin, à Madison, souvent vue comme une très belle mathématisation, mais aussi parfois comme un peu spéculative, les conditions de calculabilité du paramètre qu'elle produit étant souvent impossibles à déterminer dans un vrai cerveau. Cette théorie formalise la conscience en termes de traitement de l'information, notamment en considérant deux paramètres, l'intégration et la différenciation : un cerveau conscient doit être capable d'intégrer de grandes quantités d'informations, c'est-à-dire de mettre en relation des opérations de domaines différents, et en même temps de différencier des états, par exemple de distinguer un visage entre mille. Cette théorie est intéressante, mais je trouve qu'elle n'est pas assez imprégnée d'une psychologie de la conscience et assez décorrélée du fonctionnement du cerveau. Bien sûr, l'équipe de Giulio Tononi essaye de la reconnecter au cerveau. Le travail de Marcello Massimini, commencé dans son laboratoire, illustre cette entreprise avec succès . Et les résultats obtenus rejoignent ce que notre laboratoire et d'autres ont publié avec des méthodes différentes. Une idée clé est qu'il n'y a pas une région du cerveau dédiée à la conscience. En revanche, plusieurs études ont montré qu'il est possible d'activer chaque région du cortex de manière inconsciente, par exemple avec des images subliminales : un mot active telle région, un nombre telle autre, etc. La signature de la conscience semble être l'existence d'un mode de communication entre les régions. La théorie que nous avons développée avec Stanislas Dehaene, directeur du Laboratoire de neuro-imagerie cognitive à NeuroSpin au cea (Saclay), et nos collègues a l'avantage d'être très proche de son objet, à la fois psychologique et cérébral. Dans les années 1990, le psychologue Bernard Baars, à l'Institut des neurosciences de La Jolla, en Californie, avait proposé un modèle purement psychologique de la conscience, nommé l'espace de travail global. Initialement, Stanislas avait commencé à travailler avec Jean-Pierre Changeux à un modèle inspiré de celui de Bernard Baars, mais avec un substrat neuronal, en s'intéressant à l'effort mental. Quand j'ai rejoint Stanislas durant ma thèse, nous avons croisé ces éléments et proposé un modèle neuronal des idées de Bernard Baars.

En quoi consiste cet espace de travail neuronal ?

Ce modèle est fondé sur l'idée qu'il existerait deux architectures cérébrales dans le cerveau. La première serait constituée de systèmes indépendants les uns des autres et donc capables de fonctionner en parallèle. Cela expliquerait que des centaines de processus différents aient lieu dans notre cerveau en permanence, reposant sur des réseaux neuronaux qui fonctionnent en parallèle parce qu'ils ne sont pas massivement interconnectés. Ce premier espace est dit modulaire. La seconde architecture serait un système non modulaire qui briserait la modularité : imaginez un réseau de nombreux neurones très interconnectés. À chaque instant, un tel réseau ne peut loger qu'une représentation. Ce système serait le réseau de la conscience. On a beaucoup appris sur la conscience depuis un siècle, notamment qu'on ne peut avoir conscience de plusieurs choses en même temps. L'espace non modulaire reflète bien cette idée : à un moment, l'espace global saisit une scène. Mais parallèlement, de nombreuses informations sont traitées inconsciemment et indépendamment. Chacun des constituants de ce réseau global est dans les régions plutôt associatives du cortex, celles qui, comme les cortex préfrontal et pariétal, communiquent avec les autres régions corticales. Il faut imaginer ce réseau comme un filtre présent un peu partout, mais avec une densité particulière. Chaque bout de ce réseau peut fonctionner inconsciemment. La conscience apparaît quand ces différentes régions fonctionnent ensemble, de manière intégrée. Ce n'est pas toujours le cas.

Quelles approches avez-vous utilisées pour tester ce modèle ?

Par exemple, en 2001, nous avons comparé en imagerie par résonance magnétique (IRM) ce qui se passe lorsqu'une personne voit consciemment un mot versus quand la perception de ce mot devient subliminale. On a alors observé qu'en perception subliminale, seule la région de la lecture s'active, signe qu'il y a une forme de lecture inconsciente du mot. En revanche, de multiples régions s'activent quand le mot est lu consciemment, dont les régions frontopariétales et celle de la lecture. Toutefois, l'IRM est une technique lente, qui ne fournit que la somme de l'activité cérébrale pendant une seconde. En 2009, pour savoir si tout s'activait en même temps ou de façon séquentielle, nous avons reproduit l'expérience avec des patients qui avaient des électrodes implantées dans le cerveau pour soigner leur épilepsie. Chaque électrode permet de suivre en direct l'activité dans la région de l'implant. Par chance, une électrode pointait sur la région de la lecture. Résultat : quand la perception du mot est subliminale, cette électrode a une belle réponse précoce et locale, qui disparaît ensuite. Quand le patient voit le mot consciemment, le point intéressant est que la première étape est exactement la même. Elle n'est donc pas consciente puisqu'elle a lieu dans les deux cas. En revanche, elle est suivie d'un deuxième état où l'électrode s'active, de même que d'autres de la région frontopariétale, signe que la communication entre les différentes régions du cerveau, notamment celle de la première électrode, a augmenté. Nous avons obtenu un résultat similaire à l'aide de l'électroencéphalographie (EEG) chez des patients non communicants soumis à un test auditif. Tout cela conforte l'idée que la conscience est liée à la diffusion d'une information d'un espace modulaire à un espace non modulaire.

L'espace modulaire fonctionne-t-il toujours quand on est inconscient ?

Cela dépend. Tout peut avoir été détruit. Mais dans beaucoup de situations, l'espace modulaire continue de fonctionner. On le voit par diverses techniques comme l'EEG, l'IRM, les caméras à positrons. Un des premiers travaux de Steven Laureys, du Coma science group, à Liège, sur des patients en état végétatif a montré que si on leur envoie des chocs électriques sur la main, leur cortex sensitif primaire continue souvent de traiter l'information, mais n'est plus capable de communiquer avec le cortex pariétal postérieur, une région importante de l'espace de travail global et de la conscience de soi. Nous avons obtenu des résultats similaires avec le cortex auditif en stimulant des personnes dans le coma ou en sommeil profond avec des sons ou des mots : des modules continuaient de travailler de manière très active. Pendant ma thèse, j'avais aussi montré que, de façon inconsciente, on peut traiter le sens d'un mot. Ainsi, la limite n'est pas la complexité psychologique, mais le type de traitement que l'on pourra faire sur ces représentations.

Comment caractériser alors la différence entre un traitement conscient et inconscient ?

À partir du moment où vous êtes conscient d'une information, par exemple d'un mot, vous êtes capable de lui faire subir tout ce que vous êtes capable de faire mentalement : décider de construire une phrase avec, de l'épeler, de compter la valeur numérique de ses lettres, d'en faire une anagramme, de le traduire dans une autre langue, etc. En d'autres termes, quand une information très spécialisée arrive sur la scène de votre espace de travail, vous pouvez la faire circuler dans toutes vos facultés mentales. Dans les états inconscients, en revanche, on peut traiter de manière très efficace beaucoup d'informations, mais on n'aura pas cette souplesse. Cela correspond bien à l'idée que toute l'information peut circuler dans un espace cérébral branché sur toutes vos facultés.

Pour Steven Laureys, il existerait non pas un, mais deux réseaux neuronaux globaux anti-corrélés, l'un se rapportant à la conscience de soi, l'autre à la conscience perceptive. Qu'en pensez-vous ?

Au sein de l'espace de travail global, tous les neurones ne font pas la même chose en même temps. Imaginez une salle avec 100 personnes. Si chacune parle avec 2-3 personnes, elles forment de petits groupes apparentés à nos modules. Toutes ces discussions parallèles font une sorte de brouhaha qui correspond au bruit de fond du cerveau. Mais si brutalement vous passez dans un mode de conversation unifiée, où une personne s'adresse à tout le monde à la fois, l'information, qui au début se trouvait dans un module, se propage. Les modules travaillent de façon cohérente tout en gardant chacun sa personnalité, sa capacité de traiter l'information, de l'échanger. La conscience apparaît alors, mais chaque module garde sa spécificité. Les idées de Steven Laureys s'intègrent tout à fait dans cette logique : certaines parties de l'espace de travail auront plus à voir avec la prise de conscience du monde extérieur, d'autres avec la conscience de soi. Si tous les neurones faisaient la même chose en même temps – la théorie de Giulio Tononi le décrit bien –, on aurait une grande intégration, mais aucune différenciation, car l'information serait très peu complexe. Cela s'appelle une crise d'épilepsie. On peut donc perdre conscience de deux façons : soit par manque de communication dans le réseau – c'est ce que l'on voit malheureusement chez des patients dont les fibres de connexion sont détruites –, soit à cause d'un excès de communication. La conscience exige donc d'être dans une fenêtre de communication.

Cherchez-vous à concevoir un « conscienciomètre », comme Marcello Massimini et ses collègues ?

Oui, bien sûr. En 2014, avec Jacobo Sitt, Jean-Remi King et d'autres, nous avons mis au point un algorithme qui prédit si un sujet est dans un état végétatif ou de conscience minimale. Nous avons entraîné notre algorithme avec deux populations : disons 50 patients en état végétatif et 50 en conscience minimale. On enregistre l'EEG de chaque patient soumis à un stimulus auditif ou non, puis on classe ces EEG à l'aide de 92 « marqueurs », des motifs qui conditionnent le classement. Dans l'hyperespace de ces marqueurs, l'algorithme calcule un hyperplan qui sépare les deux populations. Puis, quand on lui présente un nouveau patient, il est alors capable de dire de quel côté est ce dernier. Nous sommes en train de comparer nos résultats avec ceux de Marcello Massimini.

Comment être sûr que la population de référence est bien caractérisée ?

On part d'un examen clinique devenu le standard, notamment une échelle, la CRS-R (Coma recovery scale-revised), qui classe les patients selon leur comportement. On complète avec l'EEG, l'IRM fonctionnelle, la tomographie à émission de positrons. Et quand toutes ces mesures convergent, on sait que le sujet étudié est bien caractérisé. Si ce n'est pas le cas, le patient n'entre pas dans la population de référence, et c'est justement pour mieux diagnostiquer ces cas difficiles que l'algorithme pourrait être utile. En fait, le concept même de conscience minimale est à revoir. Dans nos échelles cliniques, dès lors que par un mouvement de tête ou des yeux, par exemple, on obtient une communication fonctionnelle avec un malade, il n'est plus en conscience minimale : il est conscient. Ce qu'on appelle conscience minimale est un état seulement décrit par des comportements ne permettant pas de communiquer. On a aucune idée de ce que vit le patient : on n'y a pas accès. Or la plupart des gens imaginent des patients conscients, mais paralysés, ce qui n'a rien à voir.

Que proposez-vous ?

L'échelle CRS-R différencie un état purement végétatif d'un autre état : il suffit d'un seul comportement – des mouvements reproductifs à la commande, par exemple – pour dire qu'il s'agit d'un état de conscience minimale. En analysant les comportements pris en compte, je me suis aperçu que, quand un patient est classé végétatif, ses comportements sont liés à une activité sous-corticale. Mais dès qu'on est classé en conscience minimale, le comportement requiert une activité corticale. Je propose donc de parler d'état médié par le cortex. L'information est importante, car plus le cortex participe au comportement, plus la probabilité que le patient soit conscient est grande. Je propose aussi une nouvelle classification qui ferait intervenir non seulement l'examen comportemental, mais certains marqueurs approchant de près la frontière de la conscience, comme l'indice PCI de Marcello Massimini.

Quelles sont les perspectives pour les patients ?

Si les réseaux corticaux sont détruits, on aura beau les stimuler, leur état ne s'améliorera pas. En revanche, s'ils sont partiellement préservés, plusieurs techniques sont envisageables. Actuellement, la pharmacologie doit progresser. La technique la plus invasive est la stimulation cérébrale profonde. En 2007, l'équipe de Nicholas Schiff, au Weill Cornell Medical College, à New York, a amélioré l'état d'un patient en stimulant son thalamus. Elle devrait reprendre ses travaux bientôt. Une technique intermédiaire est la stimulation du nerf vague, encourageante elle aussi. La moins invasive est la stimulation électrique transcrânienne, que notre équipe et d'autres, dont celle de Steven Laureys, sont en train de tester : vous placez des électrodes et vous dépolarisez le cortex pour l'activer. Nous avons deux essais encourageants en cours.

« Un neuroscientifique à la recherche de ce qui nous rend humains ».

 

 

Le mystère du cerveau humain

Membres fantômes, vision aveugle, autisme… Les lésions du cerveau en révèlent le fonctionnement. Pour Vilayamur Ramachandran, l’anatomie permet ou permettra d’expliquer ce qui nous fait hommes : le langage, la conscience de soi, la créativité, la culture, et jusqu’au sens esthétique. Mais à trop vouloir démontrer ...

Étudier le cerveau est-il un bon moyen de comprendre l’esprit ? La psychologie est-elle à l’anatomie du cerveau ce que la physiologie est à l’anatomie du corps ? La marche, la respiration, la digestion, la reproduction sont en effet étroitement liées à des organes distincts ; il serait mal avisé d’étudier ces fonctions indépendamment de l’anatomie. Pour comprendre la marche, il faut regarder ce que font les jambes. Pour comprendre la pensée, faut-il, de même, regarder les parties du cerveau impliquées ?

V. S. Ramachandran, directeur du Centre du cerveau et de la cognition de l’université de Californie, à San Diego, répond oui sans hésiter. Son travail consiste à scruter la morphologie du cerveau pour tenter de saisir les processus de l’esprit. Il reprend ainsi à son compte la formule de Freud « l’anatomie, c’est le destin », à ceci près qu’il a en tête la morphologie du cerveau, pas celle du reste du corps.

On perçoit d’emblée la difficulté de cette approche : la relation est loin d’être en l’espèce aussi claire que pour le corps. On ne peut se contenter d’observer ce qui fait quoi. Bien que dépourvu d’os et formé de tissus relativement homogènes, le cerveau a bien une anatomie. Mais comment se projette-t-elle dans les fonctions psychiques ? Existe-t-il des aires dédiées à des facultés mentales spécifiques ou bien le lien est-il plus diffus, de nature « holistique » ?

Le consensus actuel décrit une forte spécialisation de l’anatomie cérébrale – jusqu’à la perception fine de la couleur, de la forme, du mouvement –, mais aussi une marge de plasticité. La façon dont un neurologue comme Ramachandran explore le lien entre le morphologique et le psychologique consiste surtout à examiner des cas pathologiques : des patients ayant des lésions dues à une attaque, un traumatisme, une anomalie génétique, etc. Si la lésion d’une aire A entraîne la perte de la fonction F, alors A est (ou est probablement) la base anatomique de F. La méthode consiste à chercher à saisir le fonctionnement normal de l’esprit en examinant le cerveau anormal (1). Comme si nous nous efforcions de comprendre un système politique en analysant la corruption et l’incompétence – une façon de faire un peu oblique, peut-être, mais pas inconcevable. La méthode se juge au résultat.

Ramachandran aborde un nombre considérable de syndromes et de problématiques dans son livre. L’écriture est généralement limpide, pleine de charme ; le texte est dense, mais avec ce qu’il faut d’humour pour alléger les exposés théoriques. Chercheur inventif et infatigable, Ramachandran est une figure de premier plan dans sa discipline. Dans le genre, c’est le meilleur livre que j’ai lu, pour sa rigueur scientifique, son intérêt et sa clarté – même si certains passages seront jugés ardus par un non initié.

Il commence par le membre fantôme, la sensation qu’un membre amputé ou manquant reste attaché au corps. Sans égard pour la victime, il peut choisir de se mettre dans une position douloureuse. Le médecin touche le patient en différents endroits, déclenchant des réactions normales ; puis il touche son visage, éveille des sensations dans sa main fantôme, et peut retrouver la carte complète de ce membre absent sur le visage. Pourquoi ? Parce que, dans la strate du cortex appelée gyrus postcentral, les aires qui gèrent les influx nerveux en provenance de la main et du visage sont mitoyennes. Si celle-ci est amputée, une sorte d’activation croisée se produit et les signaux venus du visage envahissent l’aire destinée à cartographier la main.

L’illusion de Capgras

Où l’on voit un accident de l’anatomie se refléter dans une association de nature psychologique ; si l’aire de la main dans le cerveau avait été proche de celle du pied, chatouiller le pied aurait pu provoquer une démangeaison de la main fantôme. Chez un autre patient, l’amputation d’un pied lui fait ressentir dans son pied fantôme des sensations propres à son pénis – jusqu’à l’orgasme. Ramachandran a mis au point une méthode permettant aux patients de bouger leur bras fantôme paralysé. Un miroir donne la sensation de voir le membre absent en reflétant l’autre bras. Le cerveau croit que le bras est toujours là et permet au patient d’en reprendre le contrôle. Le miroir permet même parfois au patient d’amputer son membre fantôme, et de ne plus souffrir de l’illusion de le posséder.

Le chapitre sur la vue aborde des sujets comme la vision aveugle (2) ou l’illusion de Capgras, dans laquelle un ami ou un proche est perçu comme un imposteur. Dans la première pathologie, un patient apparemment aveugle peut avoir une perception visuelle exacte, preuve que l’information continue de parvenir quelque part dans le cerveau abîmé. Pour Ramachandran, cela montre que la vision dépend de deux trajets nerveux, qui fonctionnent indépendamment. Le « nouveau » (du point de vue de l’histoire de l’évolution) trajet, qui passe par les yeux, est détruit, et avec lui la conscience de voir, mais le « vieil » itinéraire est intact et transmet inconsciemment l’information. Le patient se considère aveugle, mais continue d’enregistrer des données optiques. L’anatomie de la vision comporte une surprenante dualité dont la plupart d’entre nous ne sommes jamais conscients.

Dans le rare syndrome de Capgras, la personne se convainc qu’un proche est un imposteur ; que sa propre mère, par exemple, est en réalité une jumelle qui a pris sa place. Le patient n’a pas de problème de vue, il perçoit parfaitement sa mère mais est persuadé que ce n’est pas elle. Ramachandran explique cette curiosité par l’absence de connexion nerveuse entre la partie du cerveau qui reconnaît les visages et les noyaux amygdaliens, qui traitent la réponse émotionnelle (3). Comme la personne perçue ne déclenche pas de réaction affective, elle ne peut être la vraie mère, et le cerveau fabrique l’idée que c’est un imposteur. L’explication du syndrome est donc anatomique et non psychologique.

Nous passons ensuite au phénomène de la synesthésie, dont Ramachandran apporte d’abord la preuve qu’il est bien réel. Dans cette pathologie, stimuler un type de perception en stimule un autre : un son, par exemple, ou même un nombre, fait apparaître une couleur. Il montre que les chiffres se regroupent en fonction de la couleur que chacun d’eux évoque. Comment expliquer le phénomène ? C’est à nouveau affaire de proximité anatomique. Un important centre de traitement des couleurs, V4, situé dans les lobes temporaux, jouxte une aire dédiée au traitement des nombres. La synesthésie naît donc d’un croisement inhabituel entre les neurones des deux aires. On peut même s’étonner que ce type de phénomène ne se produise pas plus souvent ici ou là dans le cerveau, car un potentiel électrique pourrait aisément passer d’une aire à une autre s’il n’existait quelque frein.

De manière plus spéculative, Ramachandran réfléchit au lien entre la synesthésie et créativité. Il conjecture que la métaphore est peut-être le fondement de la créativité. De fait, la synesthésie est fréquente chez les artistes. Nabokov se souvient qu’enfant il associait le chiffre 5 à la couleur rouge. Dans une phrase bien représentative de son style, Ramachandran écrit : « La meilleure façon de penser la synesthésie est d’y voir un exemple d’interactions transmodales subpathologiques pouvant être une signature ou un marqueur de la créativité. »

Cela le conduit à faire l’hypothèse que le mécanisme fondamental de la synesthésie pourrait exister chez les non-synesthètes, en raison de ce qu’il appelle l’« abstraction transmodale ». Si on présente à un groupe de personnes deux formes, l’une arrondie et l’autre avec des arêtes, et si on leur demande laquelle s’appelle « bouba » et laquelle « kiki », la majorité donne le nom « bouba » à la forme arrondie et le nom « kiki » à la figure comportant des arêtes. Comme si une relation abstraite unissait ce qu’on voit à ce qu’on entend. Ramachandran suggère que c’est dû au mouvement de la langue, qui s’arrondit pour faire « bouba ». Cet « effet bouba-kiki » contribue, pense-t-il, à expliquer l’évolution du langage, des métaphores et de la pensée abstraite.

 

Dans un chapitre hardiment intitulé « Les neurones qui ont modelé la civilisation », il attribue une remarquable puissance créatrice aux fameux « neurones miroirs » : découverts dans les années 1990, ils génèrent le mécanisme de l’imitation, en raison de leur faculté d’être excités par l’effet de la sympathie et donc d’affecter la conscience, quand on voit quelqu’un faire quelque chose. Certains sont stimulés aussi bien quand on observe une action chez autrui et quand on effectue soi-même cette action. Ce phénomène est censé montrer que le cerveau produit automatiquement une représentation du « point de vue » de l’autre : par le biais des neurones miroirs, il engendre une simulation interne de l’action projetée par l’autre (4).

Constatant que notre espèce est particulièrement douée pour l’imitation, Ramachandran suggère que les neurones miroirs nous permettent d’absorber la culture des générations précédentes : « La culture est faite de gigantesques assemblages de savoir-faire et de connaissances complexes qui sont transmis d’un individu à l’autre par deux principaux moyens, le langage et l’imitation. Nous ne serions rien sans notre savante faculté d’imiter autrui. » Les neurones miroirs agissent comme les mouvements de sympathie qui se produisent quand on voit quelqu’un effectuer une tâche difficile – ainsi le bras se balance légèrement quand on voit un joueur frapper la balle avec une batte. Pour Ramachandran, cette activité neuronale spécifique est la clé pour comprendre le progrès de la culture. En rendant possible la prononciation de sons par imitation, les neurones miroirs ont permis l’évolution du langage. Selon lui, nous avons besoin de mécanismes inhibiteurs pour garder le contrôle de nos neurones miroirs, faute de quoi nous serions en danger de faire tout ce que nous voyons faire et de perdre tout sens de notre identité. De fait, l’hyperactivité de nos neurones miroirs fait que nous sommes sans cesse, à un niveau inconscient, en train de nous approprier l’identité d’autrui. Ramachandran voit un lien entre l’effet bouba-kiki et les neurones miroirs, car les deux impliquent l’exploitation d’une cartographie abstraite – en croisant les modalités sensorielles dans le premier cas, en passant de la perception à l’activité motrice dans le second.

Les origines du langage

Ramachandran voit dans l’autisme une défaillance du système des neurones miroirs : la difficulté à jouer, à converser et l’absence d’empathie caractéristiques de cette maladie viennent, soutient-il, d’une déficience cérébrale dans la réaction à autrui. L’enfant autiste ne peut pas adopter le point de vue de l’autre, il ne parvient pas à bien faire la distinction entre soi et l’autre, précisément ce que les neurones miroirs rendent possible. Ramachandran voit une confirmation de sa théorie dans l’absence d’« inhibition des ondes mu (5) ». Chez les personnes normales, les ondes cérébrales dites « mu » sont inhibées chaque fois que la personne fait un mouvement volontaire ou observe une autre personne faire le même mouvement. Chez les autistes, l’inhibition se produit seulement lors du geste volontaire, pas quand le malade observe quelqu’un d’autre. La signature cérébrale de l’empathie est donc absente chez l’autiste. La pathologie résulte donc d’un dysfonctionnement anatomiquement identifiable – des neurones miroirs inactifs.

Ramachandran fait aussi l’hypothèse que les particularités affectives des autistes pourraient être causées par une perturbation du lien entre les cortex sensoriels, d’une part, et les noyaux amygdaliens et le système limbique, impliqués dans les émotions, d’autre part. Les voies neuronales entre les deux seraient bloquées ou modifiées, déréglant le schéma habituel de réactivité émotionnelle aux stimuli. Des stimuli que l’œil humain juge d’ordinaire sans intérêt se chargeraient d’affectivité. Là encore, l’anatomie est reine, pas la psychologie (et l’autisme n’a rien à voir avec le comportement des parents ou un conflit freudien).

Que nous dit la structure du cerveau à propos du langage ? Ramachandran évoque l’aire de Broca, responsable de la syntaxe, celle de Wernicke, responsable de la sémantique, différents types d’aphasie, la question de savoir si nous sommes la seule espèce dotée d’un langage, l’opposition entre nature et culture et la relation entre langage et pensée. Après quoi il se penche sur l’épineux problème des origines : comment le langage a-t-il évolué ? Il a la réponse, pour le moins osée : c’est bouba-kiki ! Pour comprendre comment un lexique a pu surgir du néant, l’abstraction transmodale est la clé. L’expérience bouba-kiki « montre clairement qu’il existe une correspondance intrinsèque, non arbitraire, entre la forme visuelle d’un objet et le son (ou du moins le type de son) qui peut lui servir de “partenaire”. Ce biais préexistant peut être tout à fait réel. Il a pu être très modeste au début, mais cela a suffi pour permettre au processus de s’enclencher ».

Selon ce point de vue, les premiers mots se sont fondés sur une similitude abstraite entre un objet visuellement perçu et un son produit intentionnellement – nous nommons les choses à l’aide de sons qui ressemblent à ce qu’ils désignent, abstraitement parlant. Ramachandran introduit le terme « synkinésie » pour désigner des ressemblances théoriques entre différents types de mouvement : couper avec des ciseaux et fermer les mâchoires, par exemple. L’idée est que la parole exploite des similitudes non seulement entre sons et objets mais aussi entre des mouvements de la bouche et d’autres mouvements du corps. Le geste de la main signifiant « viens ici », la paume vers le ciel et les doigts incurvés vers soi, serait lié aux mouvements de la langue au moment où le mot « ici » est prononcé. Telle serait l’origine du vocabulaire.

Ramachandran suggère de rechercher l’origine de la syntaxe dans l’usage des outils, en particulier dans « la technique du sous-assemblage qui sert à leur fabrication », par exemple fixer une tête de hache à un manche en bois. Cette structure physique composite est comparée à la composition syntaxique d’une phrase. Ainsi, l’usage des outils, bouba-kiki, la synkinésie et la pensée, tout cela se combine pour rendre le langage possible – sans oublier les neurones miroirs, omniprésents. Tout comme l’audition fine est née du masticage dans la structure de la mâchoire reptilienne, des os sélectionnés par l’évolution pour mordre ayant été récupérés par l’oreille (les
évolutionnistes parlent d’« exaption »), le langage humain est né de structures et de facultés prélinguistiques, il
s’est construit sur des traits sélectionnés par l’évolution pour d’autres raisons. Le saut vers le langage n’a donc pas été abrupt, il est le résultat d’une longue médiation.

Non content d’expliquer l’origine du langage, Ramachandran s’attaque à l’évolution du sens esthétique (6). Il aspire à une science de l’art. Énonçant neuf « universaux artistiques », il avance ce qu’il admet être une conception « réductionniste » du phénomène, cherchant à établir les lois cérébrales de la réaction esthétique. Le paon, l’abeille ou l’oiseau jardinier est doté d’une réaction esthétique rudimentaire, et nous ne sommes pas si différents, suggère-t-il. Nous aimons reconnaître une forme dans le désordre, des associations de couleurs, par exemple, et sommes sensibles aux représentations exagérées de la réalité, comme les caricatures ou les images non réalistes des artistes, comme la Vénus paléolithique de Willendorf (7). Ces penchants résultent de notre lointain passé dans les arbres : il nous fallait distinguer les lions à travers les feuilles. Notre goût pour l’art abstrait se compare à l’attirance des mouettes pour tout ce qui présente un gros point rouge, due au fait que toute maman mouette en a un sur le bec. « Je suggère que c’est exactement ce que font les amateurs d’art quand ils regardent ou achètent une œuvre abstraite : ils se comportent comme les bébés mouettes. »

À travers cette réflexion allègrement réductrice, Ramachandran ne distingue pas entre le caractère excitant d’un stimulus et sa valeur proprement esthétique ; il considère comme équivalents le pouvoir émotionnel et la qualité esthétique, du moins à un niveau primitif. « Il pourrait s’avérer que ces distinctions ne soient pas aussi étanches qu’elles le paraissent ; qui nierait qu’éros est vital dans l’art ? Ou que l’esprit créateur d’un artiste tire souvent son inspiration d’une muse ? » En d’autres termes, il ne voit pas de différence notoire entre la qualité esthétique d’une œuvre et sa capacité à capter l’attention – tout est affaire de gros points rouges et de fesses généreuses (il évoque les sculptures de la déesse indienne Parvati). Les distinctions entre un Titien et un Picasso sont hors champ.

« Syndrome du téléphone »

Il termine sur un chapitre encore plus spéculatif sur le cerveau et la conscience de soi. Il nous informe de maux étranges, comme le « syndrome du téléphone », dans lequel un homme ne peut reconnaître son père qu’en lui parlant au téléphone. Dans le « syndrome de Cotard », la personne croit qu’elle est morte. Ramachandran nous parle d’individus obsessionnels qui veulent se faire amputer un membre valide (c’est l’« apotemnophilie »). Dans le « syndrome de Fregoli », les autres paraissent n’être qu’une seule et même personne. Dans le « syndrome de la main étrangère », votre propre membre agit contre votre volonté. Ces curiosités sont censées mettre en lumière l’unité du moi, la conscience de soi et même la conscience elle-même. Ramachandran affirme que le syndrome de la main étrangère « met en évidence le rôle important du cortex cingulaire antérieur dans le libre exercice de la volonté ; un problème philosophique se voit transformé en un problème neurologique ». Le cortex cingulaire antérieur, observe-t-il, est un anneau de tissu cortical en forme de C qui « s’allume » dans de nombreuses – presque trop nombreuses – études sur le fonctionnement du cerveau.

Que tirer de tout cela ? Ces cas bizarres sont fascinants et nous apprenons beaucoup sur la complexité de la machinerie neuronale qui sous-tend notre quotidien. Il me paraît aussi parfaitement légitime de formuler des hypothèses hardies, même si elles paraissent tirées par les cheveux. Comme le remarque souvent Ramachandran, la science se nourrit de conjectures risquées. Mais, par moments, l’impression d’exubérance théorique domine et le réductionnisme neuronal à tous crins devient fracassant. C’est le cas à mesure que croît l’ambition du livre. Ramachandran tempère souvent ses affirmations les plus extrêmes en assurant ne nous raconter qu’une partie de l’histoire, mais il se laisse clairement emporter, ici ou là, par son enthousiasme neuronal.

Par exemple, les neurones miroirs sont une découverte intéressante, mais suffisent-ils à expliquer l’empathie et l’imitation (8) ? C’est bien improbable. Un imitateur professionnel a-t-il plus de neurones miroirs – ou de plus actifs – que vous et moi ? Que faire de la faculté d’analyser l’action d’un autre, et pas seulement de la copier ? D’où vient la souplesse dans la profondeur de l’imitation ? Par ailleurs, le phénomène peut prendre des formes bien différentes, avec divers degrés de sophistication. On ne saurait comparer un mime expérimenté et le bébé qui tire la langue pour singer sa mère.

La discussion sur l’art semble relever d’un tout autre sujet : qu’est-ce qui éveille l’attention humaine ? Quelle est la place de l’abstraction dans l’histoire de la peinture ? C’est tout de même plus qu’une affaire de mouettes et de points rouges. Dans le cas du langage, on voit mal comment l’effet bouba-kiki pourrait expliquer des mots qui n’ont rien en commun avec ce qu’ils désignent – ce qui est vrai de la grande majorité d’entre eux. Et comment l’activité des neurones peut-elle rendre compte de l’expérience consciente ? [Lire encadré]

Ramachandran ne voit aucune limite au réductionnisme neuronal, mais il glisse sur un immense sujet : la relation entre le corps et l’esprit. Il suggère qu’en identifiant la partie du cerveau impliquée dans la décision volontaire, nous transformons un problème philosophique en un problème neurologique. Mais cette thèse ne peut être formulée que par quelqu’un qui ignore le problème philosophique dont il s’agit : pour aller vite, celui de savoir si le déterminisme exclut conceptuellement la liberté de la volonté. II est impossible de répondre à une telle question en étudiant telle ou telle lésion du cerveau. Apprendre des choses sur les zones impliquées dans la volonté ne nous dit pas comment analyser le concept de liberté ni s’il est possible d’être libre dans un monde déterministe. Ce sont là des problèmes conceptuels, pas des questions sur la forme de la machinerie neuronale qui sous-tend le choix.

Une autre thématique présente dans le livre me paraît trop légèrement traitée. Le sous-titre est « Un neuroscientifique à la recherche de ce qui nous rend humains ». Ramachandran se demande avec insistance ce qui fait de l’homme un être « unique », « spécial ». Mais la question est confuse. Si le mot « humain » désigne seulement l’espèce biologique à laquelle nous appartenons, la réponse est dans notre ADN – de la même façon que l’ADN du tigre fait le tigre. L’identité de l’espèce est affaire de génétique. Si nous nous demandons ce qui fait le caractère unique de l’homme, le problème aussi est mal posé. Chaque espèce est unique. Le tigre est aussi uniquement tigre que l’humain est humain.

Ramachandran se rapproche de la question qu’il a en tête quand il parle de notre caractère « merveilleusement unique ». Là, il demande ce qui nous rend supérieurs aux autres espèces. Cela suscite chez moi trois commentaires. D’abord, il se risque à un anthropocentrisme pernicieux : d’autres espèces ne nous sont-elles pas supérieures à certains égards (la vitesse, l’agilité, le soin aux petits, la fidélité, le pacifisme, la beauté) ? Que nos talents de mathématiciens nous soient propres ne confère pas à ce trait une valeur transcendante. Il nous faudrait lire un plaidoyer justifiant le fait que ce qui nous est propre a de ce fait même une valeur unique. À la fin, la notion de supériorité d’une espèce a-t-elle un sens ?

Ensuite, Ramachandran nous sert une vision embellie de l’espèce humaine. Notre face sombre n’entre pas dans ses calculs. Que dire de notre capacité à être violents, dominateurs, conformistes (encore ces neurones miroirs !), trompeurs, maladroits, dépressifs, cruels, etc. ? Quel est le fondement neuronal de ces caractéristiques ? À moins qu’ils n’échappent de quelque manière à notre câblage cérébral ? Le cerveau humain n’est-il pas aussi un cerveau inférieur ?

Enfin, tout ce discours sur le merveilleux et le supérieur n’a rien de scientifique. C’est un discours normatif, qui ne se prête pas à une vérification scientifique. Quand il demande ce qui fait de nous un être spécial, Ramachandran ne procède pas là en scientifique. Il formule des jugements de valeur sur lesquels son expertise est sans incidence. Pourquoi pas ? Mais, alors, il lui faudrait le reconnaître et défendre sa position. Pourquoi la neurologie fascine-t-elle à ce point, plus que la physiologie du corps ? Parce que, je crois, nous sentons que le cerveau est en un sens fondamentalement étranger aux opérations de l’esprit – tandis que nous ne sentons rien d’étranger dans les relations entre les organes et le corps. C’est précisément parce que nous ne nous sommes pas réductibles à notre cerveau qu’il est saisissant de découvrir à quel point notre esprit dépend intimement de lui. Voir que notre âme est liée à la matière, c’est comme découvrir que les chiens font des chats. Cette dépendance de fait nous donne un frisson de vertige : comment l’esprit humain, la conscience, le soi, la liberté, l’émotion et le reste peuvent-ils dépendre d’un vilain assemblage bulbeux de matière spongieuse ? Qu’est-ce que l’excitation d’un neurone peut avoir à faire avec moi ?

La neurologie nous passionne à proportion de son étrangeté. Elle offre le même pouvoir de fascination qu’une histoire d’épouvante : le Jekyll-esprit enchaîné à vie au Hyde-cerveau. Tous ces noms au latin exotique qui désignent les aires cérébrales font écho à l’étrangeté et à l’inconfort de notre condition d’êtres conscients dépendants de cet organe : le langage du cerveau n’est pas celui de l’esprit et nous n’avons qu’un fragile manuel de traduction pour établir le lien entre les deux. Il y a quelque chose d’étrange et de dérangeant dans la manière dont le cerveau se mêle de l’esprit, comme si celui-ci avait été infiltré par une forme de vie étrangère. Cette fusion ne cesse de nous stupéfier. Aussi la neurologie n’est-elle jamais ennuyeuse. Cela reste vrai, en dépit du fait que cette science n’a guère dépassé le stade de la description la plus élémentaire.

 

 Colin McGinn

Cet article est paru dans la New York Review of Books le 24 mars 2011. Il a été traduit par Thomas Fourquet.

Notes

 

1. C’est la méthode classique des chercheurs en neuro-anatomie, introduite par le Français Paul Broca, qui localisa l’aire commandant l’usage de la parole, en 1861.

2. Dans la vision aveugle, le patient dont l’aire visuelle corticale est lésée est certain de ne plus voir les objets, mais, s’il est pressé de le faire, se montre capable de les localiser. Autrement dit, il n’a pas conscience de voir mais il voit.

3. Situés (pour simplifier) entre le tronc cérébral et le cortex, les noyaux amygdaliens font partie de ce qu’on appelle le système limbique, qui joue un rôle central dans la gestion des sensations et des émotions ainsi que dans la formation de la mémoire.

4. Les neurones miroirs ont été découverts par une équipe italienne qui expérimentait sur des macaques. Leur existence chez l’homme est inférée d’études d’imagerie cérébrale et d’expériences avec des épileptiques auxquels on a planté des électrodes dans le cerveau. La question de savoir s’il s’agit de neurones d’un type particulier ou de neurones agissant dans des conditions particulières n’est pas tranchée.

5. Les ondes mu sont des oscillations électromagnétiques de fréquence entre 8 et 13 Hz générées par le cortex sensorimoteur.

6. Le même point de vue est soutenu par Denis Dutton dans The Art Instinct. Beauty, Pleasure & Human Evolution, Bloomsbury Publishing PLC, 2010.

7. Cette Vénus est donnée en exemple par Nigel Spivey dans son livre How Art Made the World (« Comment l’art a fait le monde »), Basic Books, 2005.

8. La philosophe Patricia Curchland, elle-même une « enthousiaste neuronale », donne les raisons d’être prudents sur l’interprétation des neurones miroirs dans son dernier livre, Braintrust. What Neuroscience Tells Us About Morality (« Confiance cérébrale. Ce que les neurosciences nous disent de la morale »), Princeton University Press, 2011.

Pour aller plus loin

 

• François-Xavier Alario, Toutes les questions que vous vous posez sur votre cerveau, Odile Jacob, 2011. Un ouvrage collectif, rassemblant les analyses de spécialistes.

• Georges Chapouthier et Frédéric Kaplan, L’Homme, l’Animal et la Machine, CNRS Éditions, 2011. Dialogue entre un neurobiologiste et un spécialiste de l’intelligence artificielle.

• Chris Frith, Comment le cerveau crée notre univers mental, Odile Jacob, 2010. Par un spécialiste de la neuro-imagerie.

• Alan Turing et Jean-Yves Girard, La Machine de Turing, Seuil, coll. « Points », 1999. Deux textes fondateurs d’Alan Turing, commentés par un logicien.

SOMMAIRE

Cadrage du Transhumanisme

L’Homme augmenté : du mythe à la réalité

Méditation de pleine conscience : comment agit-elle sur le cerveau ?

Méditer pour mieux se soigner

Le cerveau mystique

Questions d'éthique environnementale

Une morale sans dieu ?

Des chercheurs créent de faux souvenirs de guerre chez des soldats

Vers le contrôle des souvenirs 

Le recul de la mort - l'immortalité à brève échéance?

Y-a-t-il une vie avant la mort ?

Plaidoyer pour l'altruisme

Le coma et la conscience

Qu'est-ce que méditer ?

Cedric Villani – La naissance des idées

Le projet fou d'une greffe de tête

Conférence  TED X de Canavero

Greffe de tête ou de corps, une question éthique

Le code de la conscience

La science pourra-t-elle expliquer la conscience ?

Science sans conscience n’est que ruine de l’âme

Testez votre Conscience

The Evolution of the God Gene/ Dieu est un phénomène neurologique

Des spermatozoïdes créés en laboratoire

"Dogmes et Biologie" 

Les neuro-révolutionnaires 

La révolution NBIC (Nanotechnologie/ Biotechnologies / Informatique / sciences Cognitives) 

En 2045, l’homme pourra numériser les informations de son cerveau

L'intelligence artificielle inquiète les grands cerveaux contemporains

Conférence débat sur le Transhumanisme

La fabrique du transhumanisme : mirage de l’économie 2.0

Les députés britanniques autorisent les «bébés à trois parents»

Croire en Dieu au XXIe siècle - La conviction des scientifiques

Misonéisme (néophobie)

Histoire d’un adage : Guérir parfois, soulager souvent, écouter toujours.Citation attribuée à Ambroise Paré, à Pasteur ou à Hippocrate…

Man

Frans de Waal, un humaniste chez les singes

Bâtir une nouvelle société en plaçant l'homme au coeur des débats

André Comte-Sponville - Dictionnaire philosophique

The neurones that shaped civilization

Le cerveau fait de l'esprit

Pour une science sans Foi ni Loi

Impression de "déjà vu"

Comment le cerveau fabrique la religion/Brain Networks Shaping Religious Belief

L'éthique, entre spéculation et action

Journées de l'Espace Éthique du CHU de Poitiers

Avis 121 du Comité Consultatif National d'Ethique CCNE

Fécondation in vitro : bientôt des bébés nés de trois parents ? 

La futurologie médicale est une urgence éthique

Recours aux techniques biomédicales en vue de « neuro-amélioration » chez la personne non malade: enjeux éthiques/La neuro-amélioration à l’épreuve de l’éthique... et de la sémantique   

L'embryon humain n'est pas un objet

L'embryon n'est pas une personne

Éthique et fin de vie, comment tenter de résoudre nos problèmes moraux

Cadrage du Transhumanisme

 

Le mouvement transhumaniste émerge dans les années 1980 aux Etats-Unis, berceau de tant de technologies qui ont radicalement modifié nos manières de travailler et nos modes de vie. A ses débuts, il est facile et souvent justifié de confondre les individus qui s’en revendiquent avec la population bigarrée des amateurs de science-fiction et autres geeks. Mais les années qui suivent montrent une rapide progression de ce mouvement, au vu de sa capacité considérable à mobiliser des financements et de son apparition de plus en plus fréquente dans les médias généralistes. Aujourd’hui, même les esprits les plus sceptiques ne peuvent raisonnablement refuser d’y accorder une quelconque attention. Et pour cause! Qu’il s’agisse de dangereux manipulateurs du vivant, d’entrepreneurs sans scrupules, de nouveaux utopistes, de lobbyistes réalistes ou de doux rêveurs, les transhumanistes posent au fond une question simple : qu’arrive-t-il à l’être humain en ce début de XXI e siècle, à l’heure où il semble avoir acquis une capacité inédite d’intervention sur sa nature biologique?

D’abord développé aux Etats-Unis à partir des années 1980, le mouvement transhumaniste, encore trop souvent considéré comme relevant de la science-fiction réchauffée cent fois, rassemble des acteurs de plus en plus nombreux et de diverses provenances disciplinaires : des ingénieurs et scientifiques bien sûr, mais aussi des philosophes, des anthropologues, des artistes, etc. De très nombreuses associations destinées à développer et propager ce mouvement d’idées sont nées aux quatre coins du monde, notamment dans le sillage de Humanity+ (anciennement World Transhumanist Association fondée en 1998 par Nick Bostrom etDavid Pearce). En France, l’Association Française Transhumaniste : Technoprog a été officiellement fondée le 8 février 2010, venant structurer et dynamiser une liste de diffusion active en ligne depuis fin novembre 2007.

Précisons d’emblée : le mouvement transhumaniste n’est de loin pas complètement homogène (certains allant jusqu’à dire qu’il y a autant de transhumanismes que de transhumanistes), et rassemble toutes sortes de projets et de tendances différentes, de la cryonique à la robotique en passant par les cyberpunks, l’intelligence artificielle ou encore l’allongement de la durée de vie. Malgré cette diversité de projets et de représentations de l’avenir de l’homme, on peut définir le transhumanisme comme reposant sur deux principes. Premièrement, il n’y a pas de raison de considérer que l’espèce humaine soit parvenue à la dernière étape de son évolution. Au contraire, et deuxièmement, elle doit aujourd’hui prendre en charge cette évolution à l’aide des technologies dont elle dispose, pour améliorer ses performances physiques, intellectuelles, psychologiques et émotionnelles. En un mot : pour parvenir à un état supérieur d’évolution. Pour le dire autrement, le transhumaniste se voit comme un être en transition – volontaire et prise en charge – vers une condition post-humaine. Tel est le cœur du mouvement, ce sur quoi tout le monde s’accorde. Et ceci malgré de très fortes différences – entre transhumanistes anglo-saxons et européens notamment.

L’enjeu n’est évidemment pas de savoir si oui ou non les technologies actuelles ou à venir – le registre de la promesse est très fort dans certains discours transhumanistes – sont ou seront en mesure d’améliorer l’humain. Ce sont plutôt les discours sur ce dernier qu’ils véhiculent qui m’intéressent ici. Plus exactement, je tenterai d’élaborer mon propos en me basant sur ce que l’on pourrait appeler le transhumanisme américain radical, s’il est vrai que les discours qu’il émet présentent une radicalité qui permet d’en faire voir rapidement la dynamique. Nous devrons nous contenter de deux points : un mot sur le socle théorique du mouvement, et un mot sur ses acteurs.

Pour le premier point, c’est la convergence des nanotechnologies, biotechnologies, de l’informatique et des sciences cognitives (NBIC) qui doit ouvrir la possibilité de fondre l’humain et la machine et permettre au premier d’atteindre une certaine forme d’immortalité. Plus encore, la convergence doit permettre d’accroître les performances humaines dans tous les domaines en permettant la création de nouveaux matériaux, de nouvelles sources d’énergie et de nourriture. Les espoirs – dont je ne saurais dresser ici la liste exhaustive – portent également sur la lutte contre les maladies et sur une réduction des conflits liés à l’accès aux ressources. Le préfixe nano signifiant milliardième de mètre, voir dix-milliardième de mètre, les nanotechnologies, qui sont la pointe de la convergence NBIC, se caractérisent par la volonté d’atteindre la connaissance – et surtout la capacité d’action – sur les plus petites unités (ou presque) composant la matière concernée : atomes, gènes, bits, neurones. Cette réduction aux plus petits composants devrait permettre, dans un futur paraît-il pas si lointain, de les fondre en une matière indifférenciée et modulable à volonté; d’informatiser les gènes et de biologiser l’informatique par exemple.

Au sujet du second point, retenons que le transhumanisme américain est un large réseau d’acteurs, dont le pouvoir d’action et la capacité à lever des financements (publics et privés) sont particulièrement importants. Si l’on se concentre sur les grandes figures motrices du mouvement, on peut citer d’une part ses ténors, charismatiques et très engagés, par exemple : Aubrey de Grey (spécialiste de la lutte contre le vieillissement), Nick Bostrom déjà cité ou encore, last but not least, Ray Kurzweil, ingénieur, inventeur, patron d’industrie salué et récompensé dans le monde entier. Mais il faut aussi citer les soutiens fidèles (pas seulement financiers), avec lesquels les premiers entretiennent d’étroites relations, parmi lesquels : Bill Gates (cofondateur et CEO de Microsoft) dont la célèbre phrase « Ray Kurzweil est la personne la plus qualifiée que je connaisse pour prédire l’avenir » orne la quatrième de couverture du livre Humanité 2.0; Larry Page (cofondateur et CEO de Google), ou encore la NASA (Agence spatiale américaine). Le plus bel exemple des relations étroites qu’entretiennent les deux groupes d’acteurs est bien sûr la Singularity University. Cofondé par Ray Kurzweil en 2009, cet important événement annuel réunissant de nombreux passionnés de technologies réunis par le slogan «assemble, educate, and inspire leaders who understand and develop exponentially advancing technologies to address humanity’s Grand Challenges», a pour sponsor principal Google et a lieu au centre de recherches californien de la NASA.

Pour résumer cette première étape de caractérisation grossière du transhumanisme, du moins de ce que j’en retiens ici, disons qu’il s’agit d’un mouvement puissant, qui place tous ses espoirs dans la technologie pour qu’elle libère l’humanité des grands maux qu’elle connaît, résolve ses grands problèmes à commencer, si possible, par le fait qu’elle est mortelle. Un véritable paradigme est en train d’émerger et de se structurer, qui remet radicalement en question la conception que nous avons du corps humain (en tant qu’il est soumis à l’épreuve du temps ou de la maladie), et, plus largement, de ce que signifie être un humain.

L’Homme augmenté : du mythe à la réalité

Prométhée était un champion de l’humanité qui a volé le feu à Zeus pour le donner aux mortels

De Prométhée et Icare, jusqu’à Avatar. Des plus anciens textes de la mythologie grecque aux derniers blockbusters de science-fiction. « Le désir de pouvoir un jour dépasser ses limites biologiques ou de s’élever au dessus de sa condition de simple mortel est sans doute presque aussi vieux que l’humanité ». Le mythe de l’homme augmenté n’a pourtant jamais été aussi réel. Quid de ces technologies « transhumanistes », des enjeux et des possibilités, mais aussi des risques et de la légitimité ?

Qui est-il cet homme augmenté ? Il serait le résultat de « toute modification visant à améliorer la performance humaine, permise par des interventions sur le corps fondées sur des principes scientifiques et technologiques [1] ». Courir plus vite, voir dans la nuit, supporter la douleur ou peut-être posséder des capacités intellectuelles accrues seraient autant d’aptitudes à la portée de cet homme postmoderne. « Globalement, tout ce qui augmenterait nos capacités et qui passerait par une action directe sur le corps. »

Ces explications sont tirées de la note d’analyse « Les technologies d’amélioration des capacités humaines » du Centre d’analyse stratégique, datée de décembre 2012. Dans son objectif de prospective économique, sociale, environnementale et technologique, l’institution [2] propose une fine analyse des enjeux des technologies NBIC [3], paradigme scientifique à l’origine de l’homme augmenté.

L’homme amélioré n’est plus un mythe ?

Si la perspective d’un homme augmenté relève encore du mythe et reste encore très hypothétique, cette hypothèse gagne indéniablement en crédibilité. Un certain nombre de signaux convergents poussent aujourd’hui les technologies NBIC sur le devant de la scène. Pourquoi ? « Parce que la connaissance du vivant et la capacité de l’homme à le manipuler ont beaucoup progressé, de même qu’a augmenté sa capacité à intervenir sur la matière à des échelles de plus en plus petite », se positionne Pierre-Yves Cusset, à l’origine de la note d’analyse du Centre d’analyse stratégique.

Il y a dix ans déjà, en 2002, le Converging Technologies for Improving Human Performance [4], rapport sur les technologies NBIC commandé par l’administration américaine [5], considérait sérieusement certaines caractéristiques de l’homme augmenté, notamment en envisageant ouvertement « l’amélioration des capacités physiques et intellectuelles de l’être humain comme un but légitime de recherche », affirme P-Y Cusset.

De son côté, la Commission européenne proposait en 2004 une approche plus méfiante, en mettant notamment en avant la nécessité d’un encadrement éthique de ces technologies. L’institution ne niait pour autant la pertinence de telles recherches. Malgré les divergences, une certitude émergeait déjà de ces deux rapports : l’homme amélioré n’est plus un mythe.

Une demande globale indéniable

Autre certitude : la demande autour de ces technologies existe. Il n’y a qu’à considérer l’engouement autour des procédés aujourd’hui à disposition pour « augmenter ses capacités ». Physiquement à travers la chirurgie esthétique. Intellectuellement par la prise de drogues ou de médicaments dérivés pour accroitre la concentration et la capacité de travail chez certains étudiants. Ou tout simplement à travers le dopage chez les sportifs ou la prise de drogues chez les militaires avant de partir au combat. La tentation de « booster ses capacités » existe et a toujours existé. Une conclusion s’impose : nous faisons partie d’une société qui envisage de plus en plus le corps humain comme « un outil améliorable ».

L’avènement de l’homme réparé

Si on ne parle pas encore de généralisation de ces « procédés d’amélioration », l’homme réparé lui est largement dans l’air du temps. Des prothèses internes composées de matériaux toujours plus « bio-actifs [6]», aux prothèses de membres aujourd’hui capables de retrouver une forme de sensibilité [7]. D’implants toujours plus performants [8], aux différents aspects de la médecine régénérative : l’art de « simuler ou d’imiter la capacité naturelle du corps à réparer des tissus endommagés » s’exécute aujourd’hui avec brio.

C’est dans cette dernière discipline, la médecine régénérative, que certaines des avancées les plus significatives voient le jour. Même si la thérapie cellulaire – ayant pour objet de transférer des cellules vivantes chez un patient – est encore loin de se généraliser [9], les secteurs de l’ingénierie tissulaire et de la thérapie génique pourraient conduire tout droit vers la possibilité d’améliorer les capacités humaines.

Il convient cependant de relativiser : « Ces nouvelles technologies ne visent pas l’amélioration des performances physiques : elles ne sont que thérapeutiques », conclue la note de synthèse sur ce point. Autrement dit, l’homme réparé, sans doute ; l’homme amélioré, pas encore.

Mais ces deux motivations ne sont pas pour autant hermétiquement cloisonnées. Ainsi, les détournements de certains de ces procédés, notamment dans le dopage sportif – on pense aux stéroïdes anabolisants et aux hormones de croissance détournés de leur usage thérapeutique – nous montrent que la frontière entre la réparation et l’amélioration est parfois transgressée. « La possibilité d’un détournement de la thérapie génique dans un but de dopage est prise au sérieux[…] », poursuit dans cette même logique P-Y Cusset.

De l’amélioration des performances cognitives

Les recherches NBIC se focalisent tout particulièrement sur le cerveau. Car si l’homme augmenté bénéficierait de meilleures capacités physiques, il convoiterait également une amélioration de ses capacités cognitives. Dans ce domaine, « trouver le Graal » reviendrait tout simplement « à comprendre et décrire les processus biochimiques et neuroélectriques associés à nos raisonnements, à nos intuitions, à nos sentiments, à nos croyances et de traduire cette connaissance en termes de processus formalisés. » Utopie ? Un homme pense le contraire. William Sims Bainbridge envisage dans le rapport de la National Science Foundation clairement cette possibilité [10].

En poussant cette théorie à l’extrême, d’autres imaginent déjà la possibilité de numériser le contenu d’un cerveau humain et de le télécharger dans un ordinateur. Un homme pourrait donc vivre indépendamment de son enveloppe charnelle !

Mais il semble bien que nous soyons encore loin de ce niveau de compréhension. Ainsi, si on commence à bien cerner les processus en jeu à l’échelle d’un seul neurone et au niveau d’aires cérébrales importantes, le fonctionnement d’ensemble du cerveau est encore trop méconnu.

Mais ce n’est pas faute d’y travailler. Ainsi une équipe de chercheurs allemands – projet FACETS – tend aujourd’hui à concevoir un ordinateur censé fonctionner comme un cerveau humain [11]. Deux autres approches coexistent dans l’objectif de simuler le fonctionnement du cerveau, celle de collecter le plus de données possibles sur le fonctionnement de vrais cerveaux (projet américain Blue Brain) et celle dite « wetware » où l’on étudie le cerveau à travers des neurones de culture.

Quoi qu’il en soit, ces différentes études n’ont pas encore permis d’avancées pharmacologiques significatives en termes d’amélioration des fonctions cognitives (les médicaments souvent détournés pour améliorer la concentration ou lutter contre la fatigue ne sont pas des substances nouvelles). Reste l’éventualité des mutations génétiques ou de la neuromodulation : «ces techniques, mises au point dans un but thérapeutique, donnent des résultats encourageants sans que les mécanismes en jeu soient encore bien compris », expose la note de synthèse. Un rapport du STOA [12] propose une conclusion intéressante sur ce point : « Même si les techniques d’amélioration disponibles à ce jour ne permettent pas à leurs bénéficiaires d’avoir un avantage significatif sur l’humain non-modifié, il existe aujourd’hui des moyens d’amélioration non thérapeutiques de plus en plus efficaces qui pourraient être développés dans un avenir proche. »

Des risques à considérer

Reste que ne modifie pas l’humain qui veut. Aussi tentantes quelles soient, les technologies NBIC soulèvent un grand nombre de questions. Des questions quant aux risques directs, qu’ils soient environnementaux ou sanitaires par exemple : on ne peut éluder la question des effets secondaires ou de l’avènement du principe de non-maîtrise. Pour le premier, il suffit de considérer une fois encore le dopage, un des exemples bien réels d’amélioration humaine, pour se rendre compte que la plupart des produits utilisés par les athlètes viennent avec leur lot d’effets indésirables.

Pour le second, on se trouve face à un enjeu systémique. Jean-Pierre Dupuy, spécialiste émérite de la prospective, a été le premier à parler de cette tendance liée à l’innovation. On serait face à « un mode de fonctionnement de la recherche où l’on crée d’abord des structures complexes avant d’explorer et de se laisser surprendre par leur propriété. » En venir à la création d’un surhomme procéderait sans doute de cette logique. La science-fiction a d’ailleurs largement illustré ce travers de la science via le célèbre mythe du monstre du Dr Frankenstein.

Sans même parler des risques sociaux : « L’amélioration artificielle de l’homme risquerait de devenir une norme imposée directement ou indirectement par les employeurs, l’école ou le gouvernement. » Ne se trouverait-on pas face à « une société de la performance quasi eugéniste ? », s’interroge la Centre d’analyse stratégique. Encore une fois la fiction, notamment dans le film Bienvenue à Gattaca, a déjà envisagé cette dérive.

Jouer à dieu ?

Quant à finalement considérer l’homme augmenté, se pose l’incontournable question de la légitimité morale. La principale critique, omniprésente dans les débats autour de la perspective et largement présente dans la littérature de science-fiction, est celle d’une « intervention illégitime de l’homme dans l’ordre de la nature. » Autre critique celle de l’entrave à la dignité humaine, dénoncée par exemple par la Commission européenne [13] : « les applications non médicales des implants TIC [14] constituent une menace pour la dignité humaine. » Il en va de même de la Charte des droits fondamentaux érigée par l’UE qui tend à protéger l’intégrité du corps humain dans son article 3 [15].

Mais il n’y a évidemment pas qu’un angle d’interprétation. Beaucoup de bioéthiciens favorables aux technologies d’améliorations humaines dénoncent la subjectivité du concept de dignité : Pourquoi un homme amélioré serait-il moins digne qu’un homme non amélioré ?

Le débat moral est donc loin d’être terminé. La note de synthèse du Centre d’analyse stratégique conclue son propos en envisageant deux visions du même phénomène. Pour Miroslav Radman, professeur de biologie cellulaire à l’université Paris 5, «les technologies NBIC nous rendraient moins esclaves des maladies […]. Elles nous rendraient également moins dépendants de nos gènes de primates, qui nous poussent à maximiser la dispersion de nos gènes ou de nos idées par la conquête des individus, des ressources, des territoires et de l’argent. »

En revanche, pour Jean-Michel Besnier, agrégé de philosophie et expert en stratégie de l’innovation à Polytechnique, ces utopies post-modernes « seraient révélatrices d’une fatigue d’un être soi manifeste : si l’homme doit être perfectionné, c’est avant tout pour se montrer digne des machines qu’il a inventées et dont il a peuplé son environnement. » « Ne serions nous pas ainsi devenu les esclaves du monde technicien que nous avons créé ? », se questionne pour conclure J-Y Clusset.

 

Florian Kunckler

***

[1] Coenen C. et al. (2009), Human Enhancement, Science and Technology Options Assessment (STOA), Parlement européen

[2] Le Centre d’analyse stratégique est une institution d’expertise et d’aide à la décision placée auprès du Premier ministre. Il a pour mission d’éclairer le Gouvernement dans la définition et la mise en œuvre de ses orientations stratégiques en matière économique, sociale, environnementale ou technologique : http://www.strategie.gouv.fr/

[3] Nanotechnologies, Biotechnologies, technologies de l’Information et sciences Cognitives

[4] Roco M. C. et Bainbridge W. S. (2002), Converging Technologies for Improving Human Performance : Nanotechnology, Biotechnology, Information Technology and Cognitive Science, NSF/DOC – sponsored report, Arlington.

[5] La US National Science Foundation et le département du Commerce américain

[6] Nouveaux matériaux hybrides intégrant des composés vivants tels que des combinaisons de cellules et d’échafaudages synthétiques.

[7] Elles peuvent être accompagnées de capteurs pour gagner en sensibilité. Voir aussi pour les prothèses motorisées : les interfaces « cerveau-machine » : Oullier O. et Suet P.-H. [2009], « Les interfaces cerveau-machine », La note de veille, n°150, Centre d’analyse stratégique

[8] On pense notamment aux implants cochléaires.

[9] Problèmes du nombre et de l’espérance de vie des cellules transplantées, du risque de contamination par des micro-organismes, de l’impossibilité de standardiser la production des cellules et du risque d’apparition de tumeurs.

[10] Bainbridge W. S.(2006), “SurveyofNBICapplications”, inBainbridge W. S. et Roco M. C. (éd.) (2006), Managing Nano-Bio-Info-Cogno Innovations. Converging Technologies inSociety ,Heidelberg, NewYork, Springer, p.337-345.

Méditation de pleine conscience : comment agit-elle sur le cerveau ?

Alterations in resting state functional connectivity link mindfulness meditation with reduced interleukin-6: a randomized controlled trial

 02/2016 Marie-Céline Jacquier 

Augmentation du taux de connectivité dans le cortex préfrontal et diminution du taux d'interleukine-6, un marqueur de l'inflammation : ce serait les bénéfices tirés de la méditation de pleine conscience, selon une expérience menée aux États-Unis.

La méditation
 de pleine conscience agit sur les connexions dans le cerveau et produit de nombreux bénéfices pour la santé. © Patrick Foto, ShutterstockLa méditation de pleine conscience agit sur les connexions dans le cerveau et produit de nombreux bénéfices pour la santé. 

Tous ont eu un scanner cérébral au repos avant et après leur programme. Les participants ont aussi fourni des échantillons sanguins avant le programme et pendant quatre mois, afin que soit mesurée l’interleukine-6, un biomarqueur de l’inflammation. Les résultats de cette étude paraissent dans Biological Psychiatry (ci dessous).

Les scanners du cerveau ont montré que l’entraînement à la méditation de pleine conscience augmentait la connectivité d’un réseau cérébral au repos : dans des aires importantes pour l’attention et le contrôle exécutif (le contrôle du comportement), à savoir dans le cortex préfrontal dorsolatéral. La relaxation n’avait pas ces effets.

Avec la
 méditation de pleine conscience, la connectivité cérébrale change ; pas avec la relaxation
Avec la méditation de pleine conscience, la connectivité cérébrale change ; pas avec la relaxation. 

Une baisse de l’interleukine-6, biomarqueur de l’inflammation

De plus, les participants qui ont suivi le programme de méditation de pleine conscience ont aussi eu une réduction de leur taux d’interleukine-6. D’après les auteurs, les modifications au niveau du cerveau expliqueraient 30 % de l’effet de la méditation de pleine conscience sur l’interleukine-6. La méditation de pleine conscience permettrait donc de nouvelles connexions dans le cerveau et cette réorganisation neuronale favoriserait une meilleure gestion du stress et de ses conséquences, comme l’inflammation.

C’est ce qu’explique David Creswell, principal auteur de ces travaux et qui effectue sa recherche au Collège Dietrich de sciences humaines et sociales à la Carnegie Mellon University : « Nous pensons que ces changements dans le cerveau fournissent un marqueur neurobiologique d’un meilleur contrôle exécutif et de la résistance au stress, tels que l’entraînement à la méditation de pleine conscience améliore la capacité du cerveau à gérer le stress, et ces changements améliorent un large éventail de résultats de santé liés au stress, tels que votre santé inflammatoire ».

Les bénéfices de la méditation mindfulness pour la santé sont donc dus au fait qu’elle modifie les réseaux cérébraux ; ces changements dans la connectivité cérébrale expliquent les améliorations au niveau de l’inflammation : « Ce nouveau travail éclaire comment cet entraînement de pleine conscience agit sur le cerveau pour produire ces avantages inflammatoires pour la santé ».

 

 

Abstract

Background

Mindfulness meditation training interventions have been shown to improve markers of health, but the underlying neurobiological mechanisms are not known. Building on initial cross-sectional research showing that mindfulness meditation may increase default mode network (DMN) resting state functional connectivity (rsFC) with regions important in top-down executive control (dorsolateral prefrontal cortex, dlPFC), here we test whether mindfulness meditation training increases DMN-dlPFC rsFC, and whether these rsFC alterations prospectively explain improvements in interleukin-6 (IL-6) in a randomized controlled trial.

Method

Stressed job-seeking unemployed community adults (N=35) were randomized to either a 3-day intensive residential mindfulness meditation or relaxation training program. Participants completed a five-minute resting state scan before and after the intervention program. Participants also provided blood samples at pre-intervention and at 4-month follow-up, which were assayed for circulating IL-6, a biomarker of systemic inflammation.

Results

We tested for alterations in DMN rsFC using a posterior cingulate cortex (PCC) seed-based analysis, and found that mindfulness meditation training, and not relaxation training, increased PCC rsFC with left dlPFC (p<.05, corrected). These pre-post training alterations in PCC-dlPFC rsFC statistically mediated mindfulness meditation training improvements in IL-6 at 4-month follow-up. Specifically, these alterations in rsFC statistically explained 30% of the overall mindfulness meditation training effects on IL-6 at follow-up.

Conclusions

These findings provide the first evidence that mindfulness meditation training functionally couples the DMN with a region known to be important in top-down executive control at rest (left dlPFC), which in turn is associated with improvements in a marker of inflammatory disease risk.

Méditer pour mieux se soigner

En France, la méditation est entrée à l'hôpital il y a une quinzaine d'années, avec comme indication la gestion du stress et des troubles anxieux ou encore prévention des rechutes dépressives.

 

Anne Prigent - le 05/02/2016
Après avoir fait ses preuves contre l'anxiété, le stress ou la douleur, la méditation de pleine conscience pourrait aussi aider les enfants obèses à perdre du poids.

 

Débarrassée de sa dimension spirituelle, la mindfulness, ou méditation de pleine conscience, est aujourd'hui largement utilisée dans un but thérapeutique afin de soulager les souffrances psychiques ou physiques. Mise au point dans les années 1980 par le scientifique américain John Kabat-Zin pour réduire le stress, la méditation de pleine conscience a depuis confirmé son intérêt dans diverses indications.

Dernier exemple en date, une étude publiée en janvier dans la revue Helyonsuggère que la méditation de pleine conscience pourrait aider les enfants obèses à perdre du poids. Dans leurs travaux, les chercheurs de l'université de médecine de Vandervilt, dans le Tennessee aux États-Unis, ont montré que les enfants en surpoids ou obèses présentent une connexion de la zone du cerveau liée à l'impulsivité beaucoup plus intense que les enfants de poids normal. Pour les scientifiques, la méditation pourrait corriger ce défaut de connectivité dans le cerveau des jeunes obèses, et ainsi les aider à réduire leurs comportements impulsifs face à la nourriture.

Un outil thérapeutique formidable

«La méditation de pleine conscience, on le sait, est un outil thérapeutique formidable pour maîtriser l'impulsivité. Cette dernière pouvant se définir comme le désir de résoudre immédiatement tout inconfort qu'il soit psychique ou physique», explique le Dr François Bourgognon, psychiatre au CHRU de Nancy et auteur de Savoir pour guérir: la méditation en dix questions (Mona Édition). Chez l'adulte obèse en raison d'hyperphagie boulimique, la pratique de méditation a fait ses preuves depuis longtemps. «Elle entraîne une diminution de la fréquence des crises de boulimie et leur intensité», précise François Bourgognon.

Les preuves de l'efficacité de la méditation se multiplient, mais quel en est le mécanisme? Méditer, c'est s'arrêter, ressentir, observer et laisser les choses être telles qu'elles sont. «Or notre esprit passe son temps à commenter notre vie, à se faire du cinéma. La méditation de pleine conscience va nous apprendre à ressentir nos sensations corporelles et donc à être relié à nos besoins sans que cela passe par le mental », explique Jeanne Siaud-Facchin, psychologue et auteur deTout est là, juste là (Odile Jacob), un livre sur la méditation de pleine conscience pour les enfants et adolescents. La méditation va donc influer sur l'état de santé en permettant une distanciation avec les pensées et en améliorant les capacités d'acceptation envers les émotions et sensations désagréables ou douloureuses.

C'est ce qui explique sans doute pourquoi la liste des troubles et maladies pouvant bénéficier de la méditation ne cesse de s'allonger. En France, elle est entrée à l'hôpital il y a une quinzaine d'années, avec comme indication la gestion du stress et des troubles anxieux ou encore prévention des rechutes dépressives. Dans cette dernière indication, la méditation s'est en effet révélée aussi efficace que la prise d'antidépresseurs, comme l'a confirmé un essai randomisé en double aveugle publié par la très sérieuse revue médicale The Lancet en avril 2015.

Bien se faire accompagner

Certains services hospitaliers la proposent aujourd'hui dans des pathologies aussi difficiles que les troubles bipolaires ou la schizophrénie. «Mais dans ces maladies, comme dans la dépression, la méditation n'est jamais indiquée au cours des phases aiguës », met cependant en garde le Pr Raymund Schwan, chef du pôle de psychiatrie du CHRU de Nancy. La pratique est également proposée aux patients pour gérer la douleur ou leur angoisse face à une maladie chronique. Elle n'a pas d'effets directs sur les symptômes, mais elle va améliorer la qualité de vie des malades.

Mais attention: l'outil est redoutablement efficace, à condition d'être correctement utilisé. «Il n'est pas raisonnable de s'engager dans un programme de mindfulness pour soigner un état pathologique sans avoir consulté au préalable un spécialiste. Les états anxieux et dépressifs peuvent nécessiter des traitements médicamenteux et/ou psychothérapique avant l'étape mindfulness. Dans ce contexte, il n'est pas plus raisonnable de se faire accompagner par des non-soignants qui ne seront pas compétents pour gérer des décompensations anxieuses ou dépressives », souligne le Dr Bourgognon.

Par ailleurs, si méditer ne réclame aucune compétence particulière, cela exige une certaine motivation. Pour constater des résultats, il est en effet nécessaire de pratiquer tous les jours au moins 45 minutes pendant deux mois. «Et contrairement à ce que l'on pense, la méditation ce n'est pas de la relaxation. Cela demande un effort, d'être actif, ce n'est pas toujours confortable», explique le Pr Raymund Schwan.

Le cerveau mystique

Sandro Botticelli, la Nativité mystique, vers 1500-1501, Huile sur toile 108,5 cm × 74,9 cm, National Gallery, Londres. -

 

 

 

https://www.youtube.com/embed/aROapcT1-lo

 

Questions d'éthique environnementale

 

Que veut dire « respecter l'environnement » ? Comment penser le rapport de l'homme à la nature ? Quels sont ses devoirs vis-à-vis des générations futures ? Autant d'interrogations que tente de poser avec rigueur l'éthique de l'environnement.

Le biologiste Edwin P. Pister a passé une bonne partie de sa vie à tenter de sauver de l'extinction différentes espèces de poissons vivant dans de petits îlots aquatiques au milieu du désert, tout particulièrement le Devil's Hole pupfish. On lui demandait souvent pourquoi il dépensait toute cette énergie pour un misérable poisson, dont il était bien obligé de reconnaître qu'il n'avait aucune utilité particulière. Las de se lancer dans des justifications morales qui mettaient ses auditeurs dans l'embarras, E.P. Pister finit par retourner la question de ses interlocuteurs : « Et vous, en quoi êtes-vous bons ? », lançait-il, les invitant ainsi à se demander si ce qui était pour eux évident (un homme vaut par lui-même, quelle que soit son utilité, c'est en cela que consiste la dignité humaine) ne pouvait pas être étendu à d'autres composantes de la nature. Les êtres vivants n'ont-ils pas aussi une dignité qui leur est propre, quelle que soit leur utilité pour nous ?

Cet engagement illustre un changement considérable dans notre rapport à l'environnement. Traditionnellement, on considérait que la nature était à notre disposition, comme un ensemble de ressources : elle avait pour nous une valeur instrumentale. Seuls les êtres humains étaient considérés comme des fins en soi : le champ de la moralité et celui de l'humanité étaient coextensifs. Les nouvelles éthiques environnementales se sont construites dans la remise en cause de cette certitude anthropocentrique.

Valeur instrumentale et valeur intrinsèque

L'idée en a été formulée au milieu des années 1970 : « Is there a need for a new, an environmental ethic ? » (« A-t-on besoin d'une nouvelle éthique, d'une éthique environnementale ? »). En 1973, cette contribution  du philosophe australien Richard Routley (qui allait ensuite se faire appeler Richard Sylvan) marque le début d'une réflexion philosophique et morale sur l'environnement et les rapports de l'homme et de la nature qui, dans les pays de langue anglaise, a donné lieu à un véritable courant philosophique, avec ses associations, ses revues, ses débats, ses congrès... La question s'est engagée comme celle de la valeur intrinsèque de la nature. Après une marée noire, les journaux affichent souvent des photos de mouettes mazoutées, mortes ou bien mal en point. C'est provoquer notre émotion et avec elle notre culpabilité : le pétrole répandu n'implique pas seulement des dommages pour nous, il y a aussi un tort fait directement à la nature, aux êtres vivants qui s'y trouvent. La mouette n'avait-elle pas le droit de vivre ? Ne sommes-nous pas tenus d'éviter de lui faire du mal ? C'est à cette intuition morale que les éthiques environnementales essaient de donner un contenu rationnel en distinguant entre la valeur instrumentale (celle qu'a pour nous un moyen) et la valeur intrinsèque (qui fait qu'une entité vaut par elle-même, est une fin en soi).

Ceux qui étaient en quête de la valeur intrinsèque sont revenus avec deux types de justifications, deux éthiques environnementales. La première considère que toute entité vivante, quelle qu'elle soit, déploie, pour se maintenir dans l'existence et pour se reproduire, des stratégies complexes : elle instrumentalise son environnement à son profit, pour elle-même, c'est une fin qui, comme telle, mérite le respect. Comme cette éthique accorde une valeur morale à chaque entité vivante, on la dit biocentrique. La seconde considère que c'est parce que nous faisons partie de la même communauté d'êtres vivants, ou de la même communauté biotique, que nous avons des devoirs aussi bien à l'égard de ses membres (les entités qui la composent) que de la communauté comme un tout. C'est pourquoi on la dit écocentrique. L'origine s'en trouve dans la réflexion consignée par un forestier américain, Aldo Leopold, dans son Almanach d'un comté des sables (1948, rééd. Flammarion, 2000). Il y expose une éthique environnementale, qu'il nomme « Land Ethic », et dont il donne la formule : « Une chose est juste lorsqu'elle tend à préserver l'intégrité, la stabilité et la beauté de la communauté biotique. Elle est injuste lorsqu'elle tend à autre chose. »

Ces deux courants sont souvent confondus sous l'appellation commune de « deep ecology* » par ceux qui les dénoncent. Ils y voient la mise en scène d'un conflit entre l'homme et la nature, et, dans la dénomination d'anthropocentrisme, on a vu une attaque menée contre l'humanisme. Multiplier les entités vivantes dont on reconnaît la valeur, la dignité, voire les droits, c'est instituer des sujets rivaux de l'être humain, s'inquiète-t-on. Si les hommes sont les principaux responsables des dégradations subies par l'environnement, ne font-ils pas figure d'accusés dans un procès fait contre eux au nom de la nature ? Protéger la nature pour l'homme, comme nous y invite la Convention de Rio, n'est-ce pas d'abord protéger la nature contre l'homme ? Entre l'homme et la nature, faut-il choisir ?

Tout dépend de la façon dont on conçoit les rapports entre l'homme et la nature. Longtemps, une vision statique de la nature a prévalu. C'est encore celle dont se réclament beaucoup d'organisations de défense de la nature : elles accusent les activités humaines (par exemple les biotechnologies) de « perturber les équilibres de la nature ». Dans une telle conception, la nature est définie par son extériorité par rapport à l'homme, et celui-ci apparaît comme un perturbateur des processus spontanés. Le Wilderness Act américain (1964), qui organise la protection de la nature aux Etats-Unis, lui donne comme objectif de préserver une nature sauvage (wilderness), dont l'homme n'est tout au plus qu'un « visiteur temporaire ». Certains défenseurs de la nature se réclament, comme critère éthique, d'un « principe de naturalité », qui se définit par l'état où se trouverait la nature indépendamment de toute intervention humaine. Dans cette perspective, protéger la nature, c'est bien la protéger contre l'homme.

Diversité biologique et diversité culturelle

Cette vision statique est désormais très largement remise en question. Lui a été substituée une conception de la biodiversité qui ne s'en tient plus à la seule classification des espèces, mais concerne tous les niveaux du vivant, des gènes à la biosphère. La biodiversité peut être appréhendée comme un système en devenir, situé dans la dynamique de l'évolution et apprécié dans ses fonctions : la diversité biologique semble être un facteur d'adaptabilité du vivant, qui garantit la poursuite des processus évolutifs. Envisager la biodiversité dans une perspective dynamique, c'est comprendre que les hommes sont également capables d'entretenir et même d'améliorer la biodiversité : la forêt tropicale est le résultat d'une longue coévolution entre les populations indigènes et leur milieu naturel ; le bocage normand ou breton est un exemple de la façon dont les activités humaines améliorent la biodiversité. Diversification biologique et diversification des sociétés sont donc étroitement liées, et la diversité biologique d'une région fait partie de l'identité culturelle d'une société humaine. La protection de la diversité biologique et le maintien de la diversité culturelle vont donc de pair. De même que l'on ne peut pas protéger une espèce sans protéger l'écosystème qui l'abrite, de même il est difficile de concevoir la continuation de l'histoire humaine indépendamment de l'environnement naturel dans lequel les sociétés ont développé la pluralité de leurs formes culturelles. Il n'est plus question de sacrifier l'homme à la nature, mais d'apprécier la façon dont l'homme, qui fait partie de la nature, s'y insère. C'est cette insertion de l'homme dans son environnement, et les tâches qu'elle implique si on veut qu'elle se continue, que permet d'apprécier une éthique écocentrée comme celle de A. Leopold.

On découvre alors que bien des questions, qui engagent la protection de la nature, et qui sont présentées comme un conflit entre l'homme et la nature (les hommes ou les baleines, les agriculteurs ou les réserves de faune sauvage, les bergers ou les loups...) impliquent en fait des choix entre une pluralité de formes de vie humaine. Il en est ainsi du loup. A la différence de certains des ours des Pyrénées, les loups n'ont pas été réintroduits dans le Mercantour. Ils y sont venus tout seuls. Ils gênent tout particulièrement des propriétaires de troupeaux, qui veulent réduire leurs coûts de production, se passer de bergers autant qu'il est possible, tout en continuant à faire de l'élevage extensif, avec estive. La présence des loups ne signifie pas la mort des troupeaux, et encore moins celle des hommes, mais elle incite à changer de mode de vie, à accepter que l'espace où les hommes vivent ne soit pas uniformément et uniquement humain, mais laisse place à d'autres formes de vie. Le choix n'est pas entre l'homme et la nature, mais entre un monde uniforme, modelé aux seuls intérêts économiques et un monde divers, laissant place à la pluralité des aspirations humaines comme à la pluralité des vivants. Le monde uniforme est anthropocentrique, il n'est pas certain qu'il soit humaniste. A tout mesurer à l'aune de l'humain, on risque de ne plus mesurer qu'une partie de l'humain.

Environnement et générations futures

Il n'y a donc pas lieu d'opposer éthiques de l'homme et éthiques de la nature. La Convention de Rio sur la biodiversité associe le souci de la nature (elle affirme « la valeur intrinsèque de la biodiversité ») et celui de la justice (elle souhaite que les « avantages provenant de la conservation et de l'utilisation durable de la diversité biologique » fassent l'objet d'un« partage équitable » entre les communautés humaines). Avec le développement durable, le souci de justice, d'une allocation équitable des droits et des accès aux ressources, se trouve étendu aux générations futures. Que les questions environnementales nous conduisent à prendre en compte l'avenir est une idée largement partagée et acceptée, comme en témoignent certaines formules à succès : celle selon laquelle « nous empruntons la terre à nos enfants », par exemple...

Classiquement, les théories de la justice ne se soucient pas des générations futures. John Rawls, dans la Théorie de la justice (1971), n'aborde la question qu'à propos de la fixation d'un juste taux d'épargne à consentir par les générations présentes en faveur de celles qui suivront : un souci très limité pour une période très courte (des grands-parents aux petits-enfants), alors que, en ce qui concerne l'environnement, la question est globale et porte sur une durée très longue, celle qu'oblige à prendre en considération la portée de nos interventions techniques sur l'environnement : effet de serre et réchauffement climatique, durée de nocivité des déchets nucléaires, modifications génétiques... Souci de l'environnement et souci des générations futures vont de pair. Ils apparaissent en même temps, l'un portant l'autre, comme à la Conférence de Stockholm, en 1972, où la Déclaration de l'Onu pose comme principe que la protection de la nature et la gestion des réserves naturelles doivent se faire pour le bénéfice des générations présentes et futures, ou dans le rapport Brundtland, en 1987, où l'introduction de l'expression « développement durable » accompagne la référence aux générations futures. Mais avant tout, l'éthique environnementale vise à inclure la nature, ou la Terre, dans notre souci moral.

Catherine Larrère

 

Une morale sans dieu ?

Le 24 août 1572, jour de la Saint Barthélémy, le carillon de l’église Saint-Germain l’Auxerrois donne le signal du massacre des protestants. Ici, scène de massacre dans l’appartement de la reine de Navarre, par Fragonard.

 

La non-violence et le respect d'autrui reposent sur des bases cérébrales indépendantes des cultures et des religions. Cette réalité biologique rend a priori possible une morale universelle, dont les neurobiologistes poseraient les fondements.

 

Le contexte international est un triste rappel de la capacité des religions, sous leurs formes extrêmes, à entretenir la violence. Derrière les attentats à l'échelle planétaire et les conflits séculaires au Moyen-Orient, résonnent les discours doctrinaires où se mêlent le bien et le mal, où l'on condamne des infidèles et où l'on promet le paradis en récompense de meurtres commis au nom de la parole divine.

Cette situation n'est pas nouvelle : croisades et guerres de religion ont régulièrement mis l'humanité à feu et à sang. Tout comme la Sainte Inquisition il y a quelque siècles, le djihad prône aujourd'hui l'élimination d'une frange de l'humanité qui ne partage pas ses conceptions du « bon droit ».

Les religions sont-elles coupables de dresser les hommes les uns contre les autres en vertu d'idéaux intransi­geants ? Le plus souvent, les motifs des conflits sont aussi économiques et impérialistes : même si les religions ne constituent pas le principal motif de désaccord entre individus (elles énoncent, au contraire, nombre de principes communs), elles délimitent des frontières entre les communautés, créent des motifs de ralliement, reléguant au second plan l'intérêt pour les préceptes spirituels.

Ces clivages peuvent-ils être dépassés ? Les religions n'ont pas toujours divisé les hommes. Le sociologue Émile Durckheim soulignait que la vocation originelle des religions (songeons aux tables de la loi reçues par Moïse) était d'aider les hommes à se fixer des règles de vie, une « morale » ou une « éthique », en même temps qu'elles expliquaient l'origine du monde à travers une imagerie mythique. La source de la discorde proviendrait plutôt du fait qu'elles ont évolué en parfaite ignorance les unes des autres, s'entourant au fil des millénaires de formulations apparemment contradictoires, mais qui portent le plus souvent sur la lettre que sur l'esprit. Ne peut-on essayer de revenir aux fondements de l'éthique (recherche du bien) que partagent la plupart des religions, et qui pourraient s'appliquer à tous ? Pour ce faire, il faudrait revenir à ce qui caractérise tous les êtres humains : un cerveau et des interactions sociales.

Un système cérébral d'inhibition de la violence

Le cerveau humain dispose d'une capacité unique dans le règne vivant : la capacité de se représenter ce qu'éprouve autrui. Devant une personne qui, les sourcils froncés et le front plissé, remue des papiers sur une table, nous pensons : « Cette personne ne trouve pas ce qu'elle cherche et cela la préoccupe. » Chacun est capable d'opérer ce changement de perspective, chacun est doué d'empathie.

Quand nous voyons une personne tendre la main vers une pile de papiers, certains neurones dans notre cerveau reproduisent l'activité nerveuse qui commande ce geste chez la personne observée. C'est, en quelque sorte, comme si nous répétions le geste en silence. Si nous ne le réalisons pas à proprement parler, c'est parce que d'autres zones cérébrales inhibent l'action et se contentent de la laisser sous forme « virtuelle ».

Les neurones qui imitent l'action d'autrui en silence sont nommés neurones miroirs. Ils ont été mis en évidence chez des singes macaques voici une dizaine d'années, puis récemment chez l'homme lors d'opérations chirurgicales destinées à soigner l'épilepsie.

Outre la faculté d'imiter intérieurement les gestes d'autrui, le cerveau détecte spontanément, derrière ces gestes, des intentions, et ce, dès le plus jeune âge. Le psychologue David Premack a démontré, dans les années 1980, que les nourrissons attribuent des intentions à des objets animés de mouvements, quand ceux-ci se heurtent. S'ils entrent en contact avec douceur, l'enfant leur attribue une intention « bonne » ; s'ils se heurtent violemment, il leur attribue une intention « méchante ». On le voit, les notions morales se développent spontanément chez l'enfant. Cette caractéristique très précoce est indépendante de son contexte culturel : le cerveau détecte des intentions derrièe les mouvements.

Dans les années 1990, le psychiatre James Blair, de l'Université de Bethesda, note que chez les animaux vivant en groupes, aucun animal n'attaque un congénère qui adopte une attitude soumise. Il observe la même attitude de commisération chez des enfants voyant un autre enfant pleurer : ils ressentent de la tristesse et répriment leur agressivité. Dès lors, J. Blair suppose l'existence, dans le cerveau, un système d'inhibition de l'agressivité : le cortex frontal contrôlerait les pulsions agressives issues des noyaux profonds du cerveau, dans le système limbique. Un tel système d'inhibition de l'agressivité identifierait la souffrance chez l'autre et nous la ferait ressentir en stimulant les zones cérébrales habituellement activées lorsque l'on souffre soi-même.

Selon J. Blair, ce système d'inhibition de l'action est une des clés du comportement éthique naturel qui conduit l'être humain à épargner son semblable. Il remarque notamment que, lorsque des lésions cérébrales ont altéré le système d'inhibition de la violence, l'individu peut certes identifier l'état mental ou émotionnel d'autrui grâce à ses neurones miroirs, mais que cela ne l'empêche pas de faire le mal. C'est le cas de certains psychopathes (adultes et enfants) qui évaluent correctement les états mentaux de l'autre, mais se comportent néanmoins violemment sans être le moins du monde touchés par le spectacle de la souffrance qu'ils infligent.

Si l'être humain dispose de structures cérébrales, présentes en germe dès la naissance, qui lui offrent un accès aux émotions et aux pensées d'autrui, et le porte à épargner ses semblables, pourquoi la violence existe-t-elle ?

On le sait, la compassion peut être occultée par le souci de sa propre survie, ou par toute règle sociale conduisant à dégrader l'image de l'autre. Les conduites meurtrières « légalisées », souvent citées dans les massacres ethniques du Rwanda dans les années 1990, ont ainsi été interprétées par le neurologue Itzhak Fried, de l'Université de Californie, comme le résultat d'un dysfonctionnement collectif des aires préfrontales du cerveau, entraînant une « déconnexion » du système d'inhibition de la violence. Dans pareil cas, le contexte social et le discours tenu au sein d'un groupe ont laissé leur empreinte sur le fonctionnement du cerveau. À l'évidence, la morale naturelle fondée sur les neurones miroirs, l'accès aux pensées d'autrui et l'inhibition de la violence, est de peu de poids si elle n'est relayée par une morale institutionnalisée.

Le neurobiologiste Jean-Pierre Changeux a développé, dans les années 1980, le concept d'épigenèse pour rendre compte de la malléabilité du cerveau et de la façon dont il est façonné par les lois du groupe. L'enfant apprenant à se conduire en conformité avec les règles sociales, morales ou religieuses de sa communauté subit un modelage cérébral : les idéaux qu'on lui transmet sont mémorisés sous forme de connexions synaptiques dans son cerveau. Le pouvoir des discours religieux à cet égard est considérable.

La morale est-elle naturelle ou culturelle ?

Pour le neurobiologiste, deux morales coexistent : une morale naturelle reposant sur la compassion et sur l'inhibition de la violence, et une morale culturelle imprimée dans le cerveau par l'éducation. Les règles morales et religieuses s'articulent aussi selon ces deux composantes. Elles comportent des principes proches de la disposition naturelle empathique et un florilège de préceptes contingents, édictés au gré des cultures et des exigences propres à chaque société. Les enfants, dès l'âge de trois ans, ont l'intuition de ce qui est important et de ce qui l'est moins dans ces codes de conduite. Selon le psychologue américain Elliott Turiel, de l'Université de Berkeley, il existe chez les Amish ou les Juifs orthodoxes, un domaine de conventions sociales et un domaine d'impératifs moraux. Les enfants de ces communautés considèrent que les préceptes conventionnels, tels le jour du culte, les habitudes alimentaires ou le port d'un couvre-chef, peuvent être transgressés, tandis que des obligations morales, telle la non-agression physique, sont inflexibles.

Les trois grandes religions monothéistes proposent des formulations similaires de ces règles fondamentales. C'est le cas du commandement : « Tu ne tueras point » du Judaïsme, de l'injonction « Tu aimeras ton prochain comme toi-même » des Chrétiens, et de l'interdiction de tuer pour un Musulman. C'est dans le détail des préceptes secondaires que les religions se distinguent, mais ces divergences sont suffisantes pour enfanter l'intolérance, car, pour chaque communauté, l'ensemble des codes moraux est issu d'une divinité surnaturelle et revêt, par conséquent, un caractère non négociable.

Au XVIIIe siècle, Kant évoqua la notion de dignité humaine, l'interdiction de considérer l'autre comme un moyen, et l'obligation de le considérer comme une fin en soi. Cette dignité est universelle et Kant la voulait indépendante des cultures ou des croyances. Aujourd'hui, les neurosciences nous montrent que ce concept, forgé par l'esprit du philosophe, s'accorde avec une réalité biologique : l'inhibition de la violence et la capacité de reconnaître sa parenté avec l'autre.

À la différence de la religion, les sciences considèrent que l'impératif moral est issu de l'observation et de la réflexion méthodique, consensuelle et débattue. L'universalité des méthodes scientifiques de raisonnement, d'investigation et de réfutation, laisse espérer l'identification de principes éthiques universels, fondés sur la connaissance du cerveau et de la cognition sociale. En outre, la science n'est pas un système dogmatique, ni un édifice achevé. L'éthique fondée sur des bases scientifiques est ainsi sujette à révision, en fonction des circonstances, de l'histoire des idées ou des situations politiques.

Pour éviter les disparités d'interprétation et les sectarismes, une telle éthique se doit d'être légitimée par la faculté d'observation, de délibération et de raisonnement, dont Descartes estimait chacun dépositaire. Après tout, ce transfert d'autorité a déjà été réalisé dans le domaine politique, lors de la transition de la monarchie à la démocratie en France au XVIIIe siècle. Jusqu'alors le roi était de droit divin : il est devenu le roi de droit populaire, c'est-à-dire un chef élu.

Comment mettre en pratique cette éthique démocratique ? La prise en compte des avancées scientifiques, comme œuvre collective et vérifiable par chacun, ne peut que bénéficier à l'universalité des règles éthiques et au dépassement des conflits entre « sous-systèmes » religieux et culturels. Le comité d'éthique travaille en ce sens, mais ses efforts seront vains s'il n'est relayé par un comité mondial, épaulé par la plus grande puissance militaire du moment (dont la réflexion éthique reste, à ce stade, très limitée). Pour l'instant, cette approche peut sembler déstabilisante, car elle donne du bien l'image d'une valeur sujette à révision, redéfinissable en fonction de l'évolution des sociétés, relative dans le temps autant qu'universelle dans l'espace, contrastant en cela avec les certitudes propagées par les religions.

Une éthique universelle : un projet utopique ?

L'approche scientifique admet en outre un présupposé de taille : l'existence d'un lien de causalité entre la nature humaine biologique et les règles du bien et du mal en vigueur dans la société, ce que contestent certains moralistes qui font valoir la dimension historique de la morale. La détermination d'une loi, bonne dans le cadre d'une société donnée et à une époque donnée, ne peut résulter du seul examen des cerveaux des individus, mais reste liée aux données particulières de la morale dans cette société et à cette époque.

C'est la principale critique formulée par le philosophe Paul Ricœur, dubitatif quant au bien-fondé d'une morale naturelle. Selon P. Ricœur, l'éthique ne saurait être fondée sur l'analyse du cerveau humain. Pourquoi ? Parce que rien ne permet d'affirmer que les prédispositions cérébrales pour l'empathie l'emportent sur les prédispositions violentes. Les neurobiologistes qui entendent donner une justification naturelle à la morale partent du fait moral tel qu'il existe aujourd'hui (une production historique et sociale) ; ils constatent que ce fait moral s'articule autour de la règle de non-violence, et cherchent ensuite, par une démarche rétrospective, à dénicher ce qui, dans la lignée évolutive menant à l'homme, justifierait cette morale. Si les repères moraux étaient différents (comme ils l'ont été sous l'idéologie nazie), la même démarche identifierait des faits scientifiques le corroborant.

La persistance du mal comme une possibilité de tous les instants, à part égale avec la notion diffuse du « bon comportement », montre bien que le cerveau ne détient pas à lui seul les clés de l'éthique. Selon P. Ricœur, il faut une norme institutionnelle qui matérialise notre choix d'un bien devant un mal. Mythes et religions sont un espace de décision morale pour l'individu, qui choisit, en adhérant à une entité qu'il veut plus haute et plus forte que lui, de préférer le bien (une visée) au mal (un penchant humain, selon Kant). Les systèmes moraux et religieux doivent, par conséquent, être conservés comme justification des choix de vie, et préférés à la science.

P. Ricœur constate à ce propos la pluralité des systèmes de justification existants : il y a plusieurs morales sur Terre, plusieurs mythes, plusieurs religions. Alors que J.-P. Changeux déplore ce buissonnement source de dissensions, et prône un retour aux sources de la compassion commune à tous les textes sacrés, P. Ricœur soutient que cette pluralité est nécessaire. Chaque culture a besoin de son accès propre au religieux, comme chaque personne a besoin de sa langue pour fournir un socle à sa pensée. Sans langue maternelle, on n'accède pas au signifié ; sans code complet de symboles et de rites, on n'accède pas au fait religieux, dans ce qu'il a de structurant devant le bien et le mal. La pluralité des systèmes moraux ne représente que la diversité des accès à la morale ; on pourrait presque dire, à condition d'un dialogue intelligent entre systèmes éthiques, que le fait moral représente un noyau vers lequel les religions et les systèmes éthiques convergent.

Plutôt que d'abolir les religions, il conviendrait par conséquent d'y introduire une nuance nouvelle : aucune religion « n'a raison », pas davantage qu'une langue n'exprime, mieux qu'une autre, la réalité des choses. Elles sont simplement la déclinaison d'un fait qui nous aide à définir ce que nous pensons être le bien, et à y adhérer.

Quelle position assigner aux neurosciences dans ce débat ? Si la norme morale, dans sa dimension historique, voire spirituelle, conserve un pouvoir législatif indispensable, son application ne peut que s'enrichir de la découverte, dans le cerveau humain, d'un soubassement « naturel » à l'exercice du bien. Le choix reste à faire des méthodes à employer pour faire vibrer cette corde bienveillante. Pour l'instant, la certitude scientifique que nous l'avons tous dans nos gènes doit nous rendre plus attentifs aux circonstances qui en entravent le fonctionnement.

Sébastien Bohler

Des chercheurs créent de faux souvenirs de guerre chez des soldats

"Je me souviens que mon oncle avait une 11 CV immatriculée 7070 RL2." "Je me souviens que j'adorais Le Bal des sirènes avec Esther Williams et Red Skelton, mais que j'ai été horriblement déçu quand je l'ai revu." "Je me souviens que j'étais abonné à un Club du Livre et que le premier livre que j'ai acheté chez eux était Bourlinguer de Blaise Cendrars." Dans son célèbre Je me souviens, Georges Perec recense ces petits riens – des noms, des détails et des anecdotes – qui ont peuplé son enfance et sa jeunesse et font germer des graines de nostalgie. Des fragments d'une époque révolue, qui, à leur manière, l'ont un peu façonné tel qu'il est. Mais, sans vouloir jouer les iconoclastes, on peut se demander lesquels de ces souvenirs sont réels, correspondent à l'expérience de l'homme Perec, et combien sont faux, ont été induits par d'autres au point que l'écrivain les a inconsciemment rendus siens, sans avoir vécu lui-même les événements dont ils sont issus.

Spectaculairement mis en lumière par des affaires judiciaires dans lesquels des faits imaginaires de maltraitance voire de pédophilie ont été implantés dans le cerveau d'enfants mais aussi d'adultes, le phénomène des faux souvenirs s'avère d'autant plus troublant que chacun d'entre nous a tendance à faire confiance à sa mémoire, surtout quand les détails lui reviennent de manière particulièrement vivante et imagée. Pourtant, aussi étonnant que cela paraisse, cela ne garantit pas que nous ayons réellement expérimenté ce que nous nous rappelons et, depuis des décennies, les dysfonctionnements mnésiques qui facilitent l'incorporation dans nos souvenirs de fausses informations sont étudiés par des psychologues, notamment par l'Américaine Elizabeth Loftus.

De nombreux tests ont déjà été réalisés par le passé mais le dernier en date, publié dans le European Journal of Psychotraumatologyest assez impressionnant. Il a été réalisé par des chercheurs de l'université d'Utrecht (Pays-Bas) sur un contingent de soldats néerlandais qui, en 2009-2010, avaient été envoyés en mission en Afghanistan pour quatre mois. L'objectif premier de ces psychologues consistait à étudier les facteurs favorisant l'apparition et la guérison des troubles de stress post-traumatique, que l'on retrouve fréquemment chez les militaires revenant de zones de combat. Mais les chercheurs ont "profité" de ce cadre pour mener, en parallèle, une expérience sur les faux souvenirs.

Les soldats (qui avaient été vus une première fois avant de partir en Afghanistan) ont été invités à un "débriefing" deux mois après leur retour. Il s'agissait d'évaluer le degré d'exposition au stress et au danger auquel ils s'estimaient avoir été soumis sur le terrain. Au cours de l'entretien, les expérimentateurs glissaient une fausse information concernant un événement qui ne s'était pas produit mais aurait plausiblement pu arriver : ils décrivaient une attaque à la roquette du camp la veille du Nouvel An, attaque sans conséquences ni blessés. Quelques détails étaient apportés sur le bruit de l'explosion et les graviers que celle-ci avait projetés, à la fois pour renforcer la crédibilité de l'histoire et pour donner des éléments permettant de l'imaginer. Evidemment, personne ne s'en souvenait.

Sept mois plus tard, les quelque deux cents militaires ont de nouveau été testés. Et là, surprise : 26 %, plus d'un quart d'entre eux, ont assuré avoir été présents lors de l'attaque à la roquette de la Saint-Sylvestre. Selon l'étude, le faux souvenir s'était, en moyenne, installé plus aisément chez les soldats ayant le plus souffert du stress sur le terrain et étant le plus en état d'alerte ainsi que chez les individus ayant le moins bien réussi les tests cognitifs. Dans le premier cas, le stockage de faux souvenirs peut être dû à la facilité avec laquelle les personnes stressées se fabriquent des images et des scénarios. Dans le second, le phénomène peut s'expliquer plus simplement, par une moins bonne précision du processus de mémorisation. Même si les résultats s'inscrivent dans la lignée des travaux précédents sur le sujet, l'étude sort du lot pour plusieurs raisons : d'une part, il ne s'agit pas d'une expérience en laboratoire, contrairement à ce qui se fait le plus souvent, et, d'autre part, l'intervalle de temps entre l'implantation du faux souvenir et sa résurgence est nettement plus long qu'à l'ordinaire. Enfin, la facilité avec laquelle les chercheurs ont pu créer un souvenir de guerre factice chez des soldats de métier ne laisse pas de surprendre et souligne le caractère grandement malléable du cerveau. Avec sa nouvelle Souvenirs à vendre, qui a inspiré les films Total Recall, Philip K. Dick n'était pas loin de la réalité...

Pierre Barthélémy 

 

Vers le contrôle des souvenirs

 

Gommer le souvenir d'une rupture amoureuse, se créer rétrospectivement une enfance heureuse : tout cela devient envisageable grâce aux nouvelles techniques issues des neurosciences. Sur des souris. Pour l'instant.

 

Arnold schwarzeneger dans le film Total Recall

Le film Total Recall imaginait un monde où des faux souvenirs pouvaient être implantés dans les cerveaux. Les neuroscientifiques ont rendu cette idée possible, pour l'instant sur des animaux de laboratoire.

 

C'était il y a un peu plus de 20 ans. Le film Total Recall venait de sortir sur les écrans et nous étions à la fois enthousiasmés et effrayés. Arnold Schwarzenegger y jouait le rôle d'un homme croyant avoir épousé une belle blonde incarnée par Sharon Stone, et qui s'apercevait un jour que tout cela était complètement faux et que ces souvenirs lui avaient été implantés dans le cerveau.

Comme tout cela paraît loin ! À l'époque, le spectateur pouvait se caler dans son fauteuil et se donner des frissons à peu de frais, en piochant avec insouciance dans une boîte de pop-corn. Car après tout, tout cela n'était-il pas de la science-fiction ?

Voire. En deux décennies, l'ambiance a changé. Est-ce vrai, ce qu'on dit à propos des expériences sur des souris dont on manipule les souvenirs ? Il paraît que l'on peut aujourd'hui allumer ou éteindre les neurones comme avec une télécommande...Total Recall ne serait-il qu'une sorte d'avant-goût de ce qui nous attend ?

La réalité est que nous sommes à l'aboutissement d'un processus entamé il y a deux cent cinquante ans. Lorsque, pour la première fois, on découvrit que le fonctionnement de notre cerveau reposait sur les lois de l'électricité. Il a fallu presque trois siècles pour qu'à l'électricité s'ajoute le pouvoir extraordinaire de la lumière et pour que l'une et l'autre enfin réunies soient capables d'interférer avec le fonctionnement de l'esprit. Lumière, électricité et neurones, comment tout cela s'assemble-t-il ? Pour le comprendre, revenons aux tout débuts de cette épopée.

L'épopée du neurone

En 1781, l'Europe vit à l'heure du classicisme. Mozart vient de composer son opéra Idoménée, roi de Crète, qui sera créé à l'opéra de Munich. À peu près au même moment, dans les locaux de l'Université de Bologne, un physicien et médecin, Luigi Galvani, découvre qu'une étincelle peut provoquer la contraction d'une cuisse de grenouille. Il vient de découvrir la notion « d'électricité animale », élément clé d'une révolution scientifique qui se prépare en cette seconde moitié du XVIIIe siècle et dont le point de mire est le Graal des biologistes : la compréhension des phénomènes électriques qui parcourent les membranes excitables du monde animal. Dès lors, l'électricité apparaît comme le lien unique qui relie l'esprit au cerveau. On entrevoit dorénavant les phénomènes électrophysiologiques (la façon dont les cellules vivantes produisent de l'électricité) comme des vecteurs qui permettent d'animer le corps.

Un siècle plus tard, le chercheur allemand Hermann Ludwig von Helmholtz montrera que ce vecteur « électricité » se propage à l'intérieur de notre corps sous la forme de signaux électriques, à une vitesse variant entre 50 à 100 mètres par seconde. Aussi, en 1816, lorsque l'écrivaine Mary Shelley prépare son Frankenstein ou le Prométhée moderne, ouvrage relatant l'histoire d'un démiurge qui utilise la science pour ramener un mort à la vie, c'est tout naturellement à l'électricité que l'auteure attribuera le pouvoir vital de ranimer un corps.

Cinquante ans après la parution de l'ouvrage de Mary Shelley, le neurologue Guillaume-Benjamin-Amand Duchenne (surnommé Duchenne de Boulogne) reprend le mythe de l'électricité vitale pour le rendre réel. Il fonde à l'hôpital de la Salpêtrière une discipline neurologique basée sur l'électrothérapie. L'utilisation de courants électriques dans le cadre thérapeutique se répand : on traite ainsi par des stimulations électriques la douleur, les symptômes de la maladie de Parkinson ou encore certains troubles mentaux comme la dépression, l'addiction ou les troubles obsessionnels compulsifs (TOC).

Aujourd'hui, nous avons parcouru bien du chemin. Nous connaissons l'origine de la production électrique par les cellules nerveuses. Nous savons que les neurones sont des cellules excitables dont la membrane est traversée par des ions (atomes possédant une charge électrique) tels le sodium, calcium, chlorure ou potassium, et que c'est ce mouvement d'atomes chargés électriquement qui suscite des courants… électriques.

Et pourtant, délivrer du courant dans le cerveau pour atteindre précisément un amas de neurones n'est pas chose facile. C'est pour cette raison que l'électrothérapie s'accompagne parfois d'effets secondaires indésirables. C'est ainsi que des patients ont pu développer de multiples formes d'addiction ou encore changer d'humeur immédiatement après avoir reçu, pour traiter leurs symptômes parkinsoniens, des stimulations électriques délivrées dans des structures profondes de leur cerveau.

Fiat lux !

Afin de contourner les difficultés liées à l'application de l'électricité pour modifier l'activité de nos circuits nerveux, les neuroscientifiques ont cherché un moyen d'être beaucoup plus précis et sélectifs pour activer localement les neurones d'un territoire choisi et non leurs voisins. Il semble que ce rêve soit aujourd'hui rendu possible en stimulant des neurones, non plus par l'électricité, mais par une source lumineuse. Pour être réceptives à la lumière, les cellules nerveuses doivent avoir été au préalable génétiquement modifiées pour exprimer une protéine, la channelrhodopsine, qui fait office de récepteur à photons . Née il y a douze ans, cette technique désormais baptisée « optogénétique » est en passe de révolutionner les neurosciences. En alliant la biologie moléculaire (pour modifier spécifiquement le patrimoine génétique de certains neurones) aux méthodes optiques nécessaires pour modifier l'activité des neurones par la lumière, on peut allumer ou éteindre rapidement, comme à l'aide d'un interrupteur, un ensemble de neurones, et par là même contrôler à distance le comportement d'un ver de terre, d'une mouche, d'une souris ou d'un singe. Grâce à l'optogénétique, la lumière permet de maîtriser les fonctions cérébrales des mammifères avec une précision jusque-là inégalée. Fiat lux !

Peut-on manipuler la mémoire ?

Dès lors, la réalité est sur de bons rails pour dépasser la fiction. Ainsi, l'équipe du neuroscientifique japonais Susumu Tonegawa a récemment montré que certains souvenirs pouvaient être modulés à loisir chez des animaux de laboratoire. En cherchant à comprendre les processus mnésiques et leurs défaillances, ces chercheurs de l'Institut technologique du Massachusetts ont montré, en 2012, qu'il était possible de réactiver chez un animal la mémoire d'un événement désagréable, et ce dans un contexte bien différent de celui où ce souvenir s'était formé. Pour cela, il suffit de stimuler par des impulsions lumineuses (délivrées par l'intermédiaire d'une fibre optique pénétrant dans le cerveau) les neurones associés à la mémorisation de l'environnement désagréable, alors que les souris se déplacent dans un environnement... agréable.

Un an plus tard, la même équipe va plus loin : cette fois, il est possible de substituer un souvenir par un autre (et non plus seulement de réactiver le souvenir d'une situation passée), voire d'introduire de faux souvenirs dans la mémoire d'une souris. Pour cela, il a fallu dans un premier temps modifier génétiquement certains neurones des rongeurs situés dans une zone clé du cerveau où sont formés les traces mnésiques : l'hippocampe. Les neurones de l'hippocampe ont été modifiés de manière à les rendre sensibles à des stimuli lumineux sitôt qu'ils sont activés par un nouvel environnement. Concrètement, lorsque ces souris sont placées dans un contexte nouveau, ce contexte active une population bien particulière de neurones dans les circuits de l'hippocampe, y créant une trace mnésique. L'activation de ces neurones entraîne l'expression de la channelrhodopsine quelques heures plus tard. En somme, par la magie de la génétique moderne, les neurones qui ont réagi à un contexte particulier sont devenus sensibles à la lumière, et activables à volonté par ce moyen!

Changeons à présent les souris d'environnement et plaçons-les dans une boîte munie d'une grille électrifiée qui leur envoie des impulsions électriques (d'intensité modérée) dans les pattes. Au moment où la souris sursaute, activons ses neurones photosensibles avec de la lumière : la mémoire du contexte initial est ainsi activée. La souris associe-t-elle la décharge électrique avec le contexte précédent, où elle ne se trouvait pas au moment de la décharge ?

Oui. Replacée dans son contexte initial, la souris se fige de crainte comme si elle se rappelait avoir reçu un courant électrique dans ce premier lieu, alors cela s'est passé dans le second.

Extraordinaire manipulation psychique, qui consiste à créer un faux souvenir douloureux dans un lieu où rien de tel ne s'est jamais produit, et dans le même temps un vrai souvenir de douleur dans un lieu où cela s'est effectivement produit (car les souris se figent aussi de peur si on les place dans la boîte électrifiée où les courants ont été envoyés pour de bon). Il est ainsi possible d'observer la coexistence dans le cerveau de deux souvenirs désagréables : l'un vrai et l'autre faux – un souvenir artificiel pouvant alors rivaliser avec un souvenir authentique…

Mais il y a plus surprenant encore. Lorsque les chercheurs étudient les structures nerveuses vers lesquelles l'hippocampe envoie des signaux pour déclencher des réactions comportementales, ils s'aperçoivent que la mémoire fictive est tout aussi efficace pour les activer que la mémoire réelle. En somme, les faux souvenirs sont bien des souvenirs, et non une vue de l'esprit. La frontière entre le réel et l'imaginaire est plus ténue que jamais. Ce qui incite à la prudence notamment à l'égard de condamnations prononcée sur la base de témoignages oculaires livrés bien après les faits. En effet, de nombreuses expériences ont montré que les témoins d'une scène d'accident se trompent facilement (et peuvent être induits en erreur par des psychologues) en croyant avoir aperçu des détails qui n'existaient pas, et dont ils sont pourtant persuadés de se souvenir. Cette découverte scientifique ébranle aussi le fondement des thérapies psychanalytiques basées sur l'évocation de souvenirs intimes, qui peuvent sécréter de faux souvenirs parfois ravageurs.

Souvenirs de bonheur

À supposer que ces techniques soient un jour adaptées à l'homme, pourrions-nous alors façonner nos souvenirs de manière à les rendre plus idylliques ? Là encore, la réponse pourrait être positive. Récemment, des chercheurs de l'Université d'Urbana et de Suwon en Corée, ont implanté une LED dans le cerveau de souris pour activer une région cérébrale importante qui détecte l'obtention d'une récompense. Cette région s'active dès que nous ressentons un plaisir, qu'il s'agisse d'un carré de chocolat, d'un rapport sexuel ou d'une dose de drogue. Lorsque les chercheurs envoient des impulsions lumineuses dans le cerveau des souris, de façon à stimuler cette partie de leur cerveau quand elles se rendent dans une région particulière d'un labyrinthe, ils trompent les souris qui, croyant être récompensées, apprennent très vite à revenir et à séjourner dans la zone où elles reçoivent cette gratification virtuelle. Une telle expérience conforte les partisans d'une vie spirituelle intense (qui peut reposer sur la méditation et les expériences de pleine conscience) qui ne cessent de clamer haut et fort que la vie virtuelle (ou spirituelle) peut-être aussi belle que la vie réelle.

Le code de la mémoire

En réalité, les outils techniques issus de l'optogénétique sont si puissants qu'ils permettent aujourd'hui de préciser dans quelles conditions un souvenir est gravé dans notre cerveau, et dans lesquelles il est effacé.

Il existe schématiquement plusieurs sortes de mémoire, à court ou à long terme. La mémoire à court terme possède une durée de quelques secondes à quelques minutes, à la manière d'une simple résonnance du temps présent dans nos circuits nerveux. Cette mémoire à court terme nous permet de retenir un code pour ouvrir une porte, pendant qu'on nous le dicte au téléphone sans que nous puissions l'inscrire sur une feuille de papier. La mémoire à long terme, quant à elle, se consolide tous les jours durant plusieurs semaines, notamment grâce au sommeil, et peut persister durant toute une vie. Lorsqu'elle est consciente, cette forme de mémoire se nomme alors mémoire « déclarative » ou « explicite ». Elle correspond à tous les souvenirs que nous pouvons évoquer et décrire à notre entourage. L'autre forme de mémoire à long terme, inconsciente, est qualifiée d' « implicite » ou de « procédurale ».

Les théories modernes des neurosciences stipulent que toutes ces formes de mémoire reposent sur des modifications de l'efficacité de la transmission d'information effectuée grâce aux connexions entre les neurones que l'on nomme « synapses » (ce terme d'origine grecque fut inventé en 1897 par Sir Charles Scott Sherrington et signifie « mécanisme de contact »). Selon ces mêmes théories, la mémoire se forme au sein de réseaux de neurones qui, après avoir été activés de manière intense ou répétée, gardent une trace de cette activation en renforçant leurs contacts. Ce renforcement des synapses permet ultérieurement à l'information électrique de circuler plus aisément au sein des mêmes neurones, favorisant le rappel du souvenir.

Le mécanisme cellulaire de renforcement des synapses a été découvert par le neurobiologiste Eric Kandel, prix Nobel de médecine en 2000, et porte le nom de potentiation à long terme. Ce qui est une façon de dire que les contacts entre neurones engagés dans un souvenir sont « potentiés » (rendus plus puissants) durablement lorsqu'une trace mnésique est formée dans le cerveau. À l'inverse, lorsque des souvenirs sont oubliés, un mécanisme inverse, la dépression à long terme interviendrait – un phénomène indispensable pour pouvoir continuer d'apprendre tout au long de la vie.

Or, si ce concept a été fécond en permettant la découverte de multiples mécanismes moléculaires et cellulaires de l'apprentissage et de la mémoire, sa démonstration expérimentale n'a été délivrée que très récemment. Et là encore, grâce aux techniques de l'optogénétique… L'équipe de Roberto Malinow, professeur de neuroscience à l'Université de Californie à San Diego, a ainsi envoyé des stimulations lumineuses dans une partie du cerveau de souris, l'amygdale, pendant que les rongeurs recevaient des chocs électriques modérés aux pattes. Peu à peu, les souris ont associé les stimulations lumineuses de l'amygdale avec la douleur ressentie. Les conséquences de cet apprentissage au plan comportemental sont notables, puisque les rongeurs ont des réactions de peur violente lorsque leur cerveau est illuminé par des impulsions rapides de lumière produisant une potentiation à long terme, et ce, même si l'animal ne reçoit aucun choc électrique . En revanche, si les photostimulations sont délivrées à un rythme plus lent, ce qui produit au contraire une dépression à long terme dans les synapses de l'amygdale, le souvenir du choc électrique s'évanouit et les animaux restent paisibles. Un peu plus tard, lorsque le cerveau des rongeurs se trouve de nouveau illuminé par des fréquences rapides de stimulation, les souvenirs préalablement oubliés resurgissent et les animaux montrent alors un comportement craintif même si les chocs électriques n'étaient plus délivrés !

Cette découverte démontre que le simple fait d'enclencher un mécanisme cellulaire de potentiation ou de dépression à long terme dans les neurones suffit pour respectivement effacer ou réactiver une mémoire associative dans le cerveau. Elle montre aussi que la trace biologique de la mémoire (l'engramme) n'est pas immuable mais relève plutôt d'un processus dynamique qui permet d'encoder de l'information dans nos circuits nerveux, de stocker cette même information puis de restituer, ou non, ultérieurement nos souvenirs. Au travers de cette découverte neurobiologique se dessine ici la preuve expérimentale qui manquait pour interpréter les succès acquis par la psychothérapie cognitivo-comportementale, laquelle propose de modifier les comportements et les pensées en utilisant la plasticité du cerveau.

L'horizon transhumaniste

Sommes-nous aujourd'hui en mesure d'améliorer la condition humaine par un contrôle de son activité mentale ? La question est pertinente, car ce qui fait l'humain n'est ni dans son sang, ni dans ses muscles, mais surtout dans son cerveau. Dès lors qu'on intervient sur son fonctionnement, les questions fondamentales liées à l'humanité ressurgissent et nous devons plutôt poser la question des conséquences futures qu'entraînerait l'application de ce savoir récent à l'être humain.

La question cruciale est de savoir si nous désirons nous limiter à réparer le cerveau ou si nous acceptons de l'augmenter. Par exemple, si l'on parvient un jour à utiliser de la lumière infrarouge, qui pénètre beaucoup plus en profondeur dans le cerveau, nous pourrions rêver d'applications thérapeutiques exemptes d'effets secondaires en neurologie ou en psychiatrie. Ces « luminothérapies » seraient bien plus efficaces que l'électrostimulation ou les agents pharmacologiques actuels. Mais serons-nous capables de nous limiter à la réparation du cerveau ? Il est possible d'envisager de détourner ces méthodes pour augmenter nos capacités cognitives. On imagine sans peine cette technique utilisée un jour pour inhiber l'anxiété ou la peur des soldats partants au front, ou pour maintenir éveillés des automobilistes au volant de leurs véhicules.

Depuis peu, la question des limites de l'application des techno-sciences à l'humain se pose de façon urgente et répétitive. Rappelons que c'est grâce à l'avènement des technologies convergentes représentées par les nanotechnologies, les biotechnologies, les technologies de l'information et celles des sciences cognitives (NBIC), que les progrès en médecine sont en passe de connaître un élan nouveau. Bien sûr, notre combat contre la mort, la maladie, la douleur, ou la vieillesse n'est pas exclusivement moderne. Il remonte peu ou prou à 250 ans et s'est traduit par une augmentation constante de l'espérance de vie qui, en 1750, n'était que de 25 ans (d'après les estimations de l'INED), pour atteindre aujourd'hui 80 ans. Ce combat pour la vie s'est nourri progressivement de l'hygiénisme, des progrès de la médecine et de l'invention constante de nouvelles molécules appartenant à la pharmacopée, mais il semble être passé à la vitesse supérieure grâce à l'usage d'outils transgressifs que lesNBIC produisent, tels les implants cochléaires, rétines artificielles ou électrodes implantées dans le cerveau pour traiter des parkinsoniens ou des personnes souffrant de troubles psychiatriques. Ces « technologies de la convergence » qui se généralisent nous font rentrer de plain-pied dans l'ère du transhumanisme, c'est-à-dire une époque où l'humain modifié par la technologie pourrait échapper aux diktats des lois de la Nature.

La mémoire augmentée

À titre d'exemple récent, on citera l'appel d'offre lancé l'automne dernier aux États-Unis par l'Agence de projets de recherche avancée en défense (DARPA), auprès des neuroscientifiques pour les inciter à développer un dispositif implantable qui pourrait pallier les pertes de mémoire des vétérans atteints de lésions traumatiques cérébrales. Deux laboratoires particulièrement performants dans le domaine des recherches sur l'épilepsie ont décidé de relever ce nouveau défi. Rappelons que des patients atteints d'épilepsie résistante à tout traitement médicamenteux ne peuvent être soignés autrement que par voie chirurgicale. Pour préparer l'ablation des zones du cerveau où les crises d'épilepsie prennent naissance, les neurochirurgiens recouvrent préalablement le cerveau de centaines d'électrodes puis enregistrent l'activité électrique cérébrale durant des semaines afin de définir précisément le foyer épileptique. Cette opération permet dans le même temps aux chercheurs de dresser une carte précise du lieu de stockage de la mémoire et de la restitution des souvenirs. En cherchant à définir des « biomarqueurs » électriques de formation et de récupération des souvenirs, tant normaux que détériorés, chez les patients épileptiques, le neuroscientifique Michael Kahana, directeur d'une équipe de recherche à l'Université de Pennsylvanie, a détecté les signatures électriques associées au codage approprié d'un souvenir ou au stockage d'un nouveau souvenir. Il vient de construire des algorithmes capables de détecter la formation de souvenirs ou leur détérioration – le tout afin de réparer un jour ces défaillances. De telles recherches demeurent dans le cadre d'un cerveau réparé mais non augmenté.

L'autre laboratoire capable de relever le défi lancé par la DARPA est conduit par le neurologue Itzhak Fried à l'Université de Californie à Los Angeles. Chez ses patients épileptiques, il montre qu'une stimulation d'une région cérébrale, le cortex entorhinal, améliore les performances de patients participant à un jeu électronique qui exige d'apprendre rapidement, puis de se rappeler à quel endroit déposer des passagers d'un taxi dans une ville virtuelle. Opérant sur des sujets sains, l'équipe d'Itzhak Fried montre que la frontière entre le cerveau réparé et le cerveau augmenté peut être franchie.

Le monde de la recherche sur la mémoire est donc en pleine effervescence. Qui sait de quoi demain sera fait ? Les tenants du transhumanisme voient dans ces avancées l'opportunité unique de rêver à un homme débarrassé de ses défauts. Mais encore faudrait-il savoir ce qu'on appelle défaut et qualité. Le progrès doit-il être cherché du côté de soldats du futur ou des progrès de la diplomatie en temps de crise ? De même, les prouesses réalisées dans le transfert d'information de cerveau à cerveau sont-elles les garantes d'un monde meilleur ? Je fais référence ici aux expériences menées en 2013 par des chercheurs de Durham et de l'Institut des neurosciences Edmond et Lily Safra au Brésil, qui sont parvenus à connecter les cerveaux de deux rats distants de plus de 6 000 km, au moyen d'un peigne de micro-électrodes implantées dans leur cerveau. L'un des rats est un « apprenant » qui travaille dans une cage pour apprendre comment obtenir une ration d'eau. L'autre rongeur, dit « receveur », reçoit cette même consigne traduite par l'activité mentale de l'apprenant qui lui est délivrée sous la forme d'impulsions électriques dans son cerveau. Le receveur trouve le moyen d'obtenir de l'eau de la même manière, sans effort d'apprentissage. Grâce à ce dispositif électronique placé à l'interface des deux cerveaux, ces derniers sont non seulement capables de communiquer entre eux mais ils peuvent aussi coopérer. Ces faits spectaculaires montrent que nous ne sommes plus loin des dispositifs permettant de véritablement « lire » les pensées d'autres individus ou d'en prendre le contrôle comme illustré dans le film Avatar.

Malheureusement, le perfectionnement des techniques de communication neuronale ne semble pas aller de pair avec nos capacités de communication humaine. Alors que l'humanité n'a jamais été autant connectée et informée à l'échelle de la planète, nous semblons bien incapables de communiquer au sens noble, c'est-à-dire de nous faire comprendre du voisin, de l'autre, de celui qui habite un autre pays ou croit en d'autres dieux ou d'autres pratiques. Les techniques de modulation neuronale peuvent-elles pallier une telle carence ? Il serait présomptueux de l'avancer. Mais elles nous apprennent que notre cerveau est un bien inestimable où résident nos pensées, désirs, souvenirs et rancœurs. C'est en soi un changement de regard qui peut – qui sait ? – nous faire réfléchir dans le bon sens.

Pierre Marie Lledo 

Le recul de la mort - l'immortalité à brève échéance?

Y-a-t-il une vie avant la mort ?

Plaidoyer pour l'altruisme

Le coma et la conscience

Qu'est-ce que méditer ?

 

 

Pratique centrale du bouddhisme et des religions orientales, 
la méditation se pratique de plus en plus en Occident, 
à des fins thérapeutiques ou de développement personnel. 
Mais quels en sont les principes ?

Depuis une vingtaine d’années, la méditation bouddhiste connaît en Occident un engouement considérable. Dans les années 1970, il était difficile de trouver un enseignant de méditation ou un ouvrage sur le sujet. Mais aujourd’hui, les publications se multiplient. Des enseignants de méditation qualifiés de toutes les traditions bouddhistes propo­sent des conférences, stages et retraites dont la fréquentation est en augmentation constante. Sous le nom de « pleine conscience », la pratique de la méditation se répand jusque dans les hôpitaux et les écoles. Un autre indice révélateur de cet intérêt est l’accélération des recherches scientifiques sur ses effets. Mais qu’est-ce au juste que la méditation ? Une méthode thérapeutique ? Une voie de connaissance, un art de pensée ? Un art de vivre ? En quoi consiste cette pratique ?


Le terme sanskrit que l’on traduit par « méditation » signifie « entraînement ». Méditer, c’est s’entraîner à voir « les choses comme elles sont ». Il s’agit de reconnaître et d’entrer en relation avec ce qui est là : l’expérience que nous vivons, instant après instant. Mais comment se fait-il qu’un tel entraînement soit nécessaire ? Notre expérience n’est-elle pas ce qui est le plus proche de nous, le plus intime ? Qu’est-ce qui pourrait nous y rendre aveugles ? Pourtant, ce que le méditant découvre, et n’en finit pas de découvrir au fil de sa pratique, c’est ce fait incompréhensible et choquant : son expérience lui échappe, il y est absent. 


Accéder à la « pleine conscience »


La première cause d’absence est ce que l’on appelle aujourd’hui la « dérive attentionnelle ». Combien de fois nous arrive-t-il de réaliser, arrivés au bas d’une page, que nous l’avons lue sans la lire, ou arrivés à destination, que nous avons été « absents » à la plus grande partie du voyage ? Comme des études récentes le montrent (1), nous passons au moins la moitié de notre temps à quitter la situation que nous sommes en train de vivre pour rejouer en pensée des scènes du passé ou nous projeter dans l’avenir, sans même nous en rendre compte. Un mot, une odeur, trois notes suffisent à nous emporter. Mais même lorsque nous ne sommes pas ainsi égarés dans le passé ou dans l’avenir, nous nous coupons de notre expérience immédiate de multiples manières. L’une d’elles consiste à glisser vers des registres abstraits : commentaires, jugements ou justifications qui nous éloignent de ce que nous éprouvons concrètement ici et maintenant. Bien souvent, ce sont de subtiles tensions qui font écran à l’expérience immédiate. Si par exemple nous éprouvons une douleur ou une émotion désagréable, nous cherchons immédiatement à nous en protéger, et sans même nous en rendre compte interposons subrepticement une tension pour éviter de la ressentir. Si au contraire nous rencontrons une expérience agréable, nous nous efforçons de la maintenir, par une subtile anticipation qui nous empêche d’y être complètement présents. La tension vers un objectif ou l’absorption dans un contenu, en créant un étroit tunnel attentionnel, jouent aussi un rôle occultant. Par exemple au cours d’une conversation, absorbés dans le contenu de l’échange, nous n’avons pas clairement conscience des émotions qu’il suscite en nous. Si nous marchons pour nous rendre à un rendez-vous, nous ne sommes pas conscients des sensations corporelles que suscite la marche. Absorbés dans notre activité professionnelle, nous ne remarquons pas les tensions physiques et signes de fatigue qui s’installent, et en prenons conscience seulement lorsque nous sommes épuisés. Même les raisons de nos décisions échappent en grande partie à notre conscience (2). Nous passons notre temps à nous quitter nous-mêmes, à nous perdre.


En quoi consiste
 l’entraînement méditatif ? 


Les techniques bouddhistes de méditation ont toutes le même but : apprendre à arrêter de se quitter soi-même, à revenir à soi. Elles se divisent en deux groupes : shamatha etvipashyanâ (7), pour reprendre les termes de la langue sanskrite qui était celle du Bouddha. 


Shamatha est la pratique du « calme mental ». Elle a pour objectif d’apaiser le flot des pensées grâce à la concentration de l’esprit sur un unique objet. La posture du corps est importante car elle a une incidence directe sur la clarté et la stabilité de l’esprit. Elle consiste à se tenir assis le dos bien droit, la tête droite, le menton légèrement rentré. Le méditant peut être assis sur un coussin de méditation, les jambes disposées en lotus ou en demi-lotus, mais aussi sur une chaise, pieds posés à plat sur le sol. Les mains sont disposées soit sur les genoux, soit dans un geste de méditation dont il existe quelques variantes. Les yeux sont fermés ou mi-clos, le regard détendu, dirigé vers le bas, dans le prolongement de l’arête nasale. Le support de concentration le plus courant est le souffle. La méditation consiste à poser son attention sur la respiration, sans la transformer, sans tension ni effort. Si vous-mêmes faites cet exercice pendant quelques minutes, il est fort probable que très rapidement, des pensées vont surgir dans votre esprit. Ces pensées vont tellement vous absorber que vous mettrez un certain temps avant de prendre conscience que votre attention a quitté votre souffle, que vous êtes « parti ». Et au même instant, vous réaliserez que pendant ce temps, vous étiez distrait mais n’aviez pas conscience de l’être. Lorsque le méditant prend ainsi conscience qu’il s’est laissé entraîner par ses pensées, et que son attention a quitté le souffle, il a pour consigne de « lâcher » ce train de pensées, puis de ramener doucement l’attention sur le souffle. Ce « geste intérieur », caractéristique deshamatha, consistant à abandonner les pensées au lieu de les poursuivre, est essentiel dans l’entraînement méditatif. Cessant de s’éparpiller dans le passé et l’avenir, le méditant dépose ses préoccupations et objectifs pour se rassembler ici, dans son corps, dans le présent. En s’entraînant ainsi de manière régulière, il devient capable d’une concentration de plus en plus soutenue, analogue à celle qui est nécessaire pour « traverser un torrent sur un pont fait d’un seul tronc d’arbre », ou encore « transporter un récipient empli d’eau sans en renverser une seule goutte ». Dans le même temps, l’esprit s’apaise. D’abord semblable à une cascade, il devient comme un torrent, puis comme une rivière. Dès lors, les conditions sont réunies pour pratiquer vipashyanâ.


Vipashyanâ, la « vision pénétrante », consiste à appliquer l'attention aiguisée par shamathaau flux des phénomènes ainsi apaisé. Alors que dans shamatha, l’attention est focalisée sur un seul point, dans vipashyanâ, elle s’ouvre largement : elle se porte d’abord sur les sensations corporelles, pour s’étendre progressivement à tout ce qui se produit, sans chercher à le refouler ou le maintenir, ou à générer un état particulier. Cette attention ouverte et néanmoins très fine est réceptive : il ne s'agit pas de se tendre vers les phénomènes pour les scruter et les identifier, mais de les accueillir, avec bienveillance. Contrairement à ce que le terme « vision » pourrait laisser supposer, vipashyanâ ne consiste pas à observer l’expérience comme on observe un objet extérieur. Il ne s’agit pas de prendre de la distance pour la regarder, mais au contraire d’entrer en contact avec elle, de la ressentir, de l’éprouver. 


Le plus souvent, le méditant novice est d’abord surpris par l’importance de son bavardage intérieur. Il découvre aussi, accompagnant cette rumeur incessante, un flot rapide de « films » intérieurs, joués et rejoués sans relâche, qui contribuent à entretenir un flux d’émotions rarement interrompu. La pratique méditative consiste à y rester présent. Il ne s’agit pas d’arrêter les pensées, comme on a pu le dire, mais de rester conscient des pensées qui apparaissent. Si par exemple le souvenir d’une situation désagréable surgit, et qu’il génère spontanément un train de commentaires négatifs, il ne s’agit pas d’inhiber cette réaction, mais de ne pas se laisser emporter par elle sans même le remarquer, comme c’est ordinairement le cas. Cessant de se perdre, le méditant apprend peu à peu à rester au plus près, au centre de son expérience. Le terme « méditation » est en ce sens parfaitement adapté : le méditant est celui qui se tient au milieu. 


Plus l’attention du méditant s’ouvre et s’affine, plus les tensions ordinairement inaperçues dont il prend conscience sont subtiles. Si par exemple une émotion de tristesse apparaît, et qu’une tension s’interpose pour l’éviter, il la reconnaît rapidement. La tension étant reconnue pour ce qu’elle est, elle se dissout, ce qui lui permet d’entrer en contact avec la « texture » particulière de cette expérience. Lorsqu’il cesse de s’en protéger, l’accepte, la tristesse perd sa solidité, sa lourdeur. Le méditant découvre ainsi qu’il est possible de s’ouvrir et d’entrer en relation, de manière précise et douce, avec toute expérience, même douloureuse. Ce contact le rassemble, lui rend son intégrité. Son espace vital se décloisonne, se désencombre, se libère. 


Le relâchement de la tension


Des tensions se dénouent jusqu’au cœur des événements perceptifs. Par exemple ordinairement, lorsque nous entendons un son, notre réaction immédiate consiste à nous focaliser sur l’objet qui est à l’origine du son pour le caractériser. Nous nous quittons nous-mêmes pour nous projeter en quelque sorte vers cet objet, dont le nom et l’image viennent instantanément occulter l’expérience du son. En une fraction de seconde, je reconnais le son comme le chant d’un merle qui arrive par la fenêtre de mon bureau, sans plus m’intéresser aux particularités de ce son ni à la manière dont je le ressens. Le mode d’attention ouvert de vipashyanâ permet de reconnaître cette tension et de la relâcher. Au lieu d’aller chercher le son, de « tendre l’oreille » vers lui, le méditant s’y rend réceptif, laissant le son venir à lui, se laissant toucher, imprégner par le son. Écouter ainsi, un peu comme on écoute une musique, a pour effet d’affaiblir, d’attendrir en quelque sorte, la séparation rigide ordinairement perçue entre un espace « intérieur » et un espace « extérieur », qui devient plus perméable. Le sentiment d’être un « moi » solide devient plus léger, s’estompe. 


Peu à peu, le relâchement de la tension vers des objets amène ainsi le méditant à prendre conscience d’un voile cognitif subtil, qui lui cache la réalité immédiate. Ordinairement, la crispation de l’attention sur des objets donne au sujet un sentiment d’existence, une existence d’emprunt. Nous croyons faire l’expérience d’un sujet au travers des objets. Ce processus de « coproduction » s’origine dans les événements de la perception : dans la fraction de seconde où le phénomène qui surgit est identifié comme le chant d’un merle, « je » viens au monde. Cette confirmation mutuelle se poursuit inlassablement à des niveaux plus grossiers, grâce à des stratégies d’ordre discursif (comme l’incessant discours intérieur), émotionnel ou conceptuel… plus aisément reconnaissables. C’est un effort épuisant. Impossible de se laisser aller, il faut faire « tenir » le monde. Cette tension incessante pour maîtriser, pour maintenir nos frontières, cloisonne, rigidifie, et aboutit à la crispation et à la douleur. Car nous sommes tellement occupés à nous protéger que nous nous protégeons de la vie même.


Vipashyanâ permet de prendre conscience de ce processus de confirmation mutuelle et de le défaire, de ses niveaux les plus grossiers aux plus subtils. Elle consiste à reconnaître et dissoudre toute tension vers quelque chose d’autre, pour se rendre totalement présent, sans résistance, à ce qui est précisément là, en cet instant unique, imprévisible. Le méditant renonce à toute prise, tout appui solide. Ce geste de renoncement caractérise la pratique méditative de ses premiers pas jusqu’à ses stades les plus avancés. Il correspond aussi à une expérience que chacun a pu entrevoir. Un jour, il se produit une rencontre, ou un livre, ou une chanson, ou une certaine lumière le matin au travers du feuillage, et soudain vous abandonnez, vous posez les armes. Quelquefois, cet abandon se produit à l’occasion d’une souffrance morale, d’une maladie, d’un grave accident, ou de la perte d’un être aimé. Tout au bout de la douleur, arrive un moment où vous arrêtez de protester, de lutter, où vous acceptez la perte. Alors quelque chose lâche, se rompt en vous, et vous délivre. 


Des usages thérapeutiques 


Dans l’état de dénuement, « d’épuisement » dit le sanskrit, que suscite ce geste d’abandon au cœur de la pratique méditative, se produit un grand soulagement. Au plus près de l’expérience, l’espace, au lieu de se rétrécir, se déploie largement. Dans un mouvement comparable à celui d’une botte de paille lorsqu’on tranche le lien qui l’attachait, le dénouement des tensions, l’acceptation de ce qui est là, ouvre un espace infiniment vaste et clair. Dans cet espace non obstrué, l’expérience peut s’épanouir dans toute sa profondeur et sa richesse. Les sensations sont plus vivantes et fraîches, les couleurs plus vives, les sons plus clairs. Nous retrouvons notre entièreté, notre dignité. Nous sommes libres, et comme les disciples du Bouddha, « joyeux, paisibles et vivant avec un esprit de gazelles, c’est-à-dire un cœur léger (3) ». 


Comment donc caractériser la méditation ? Tout d’abord, elle n’a rien à voir avec la méditation au sens où l’entendait René Descartes. Elle ne consiste pas à réfléchir, analyser, comprendre intellectuellement, acquérir des connaissances. Cette pratique d’investigation de l’expérience a pourtant débouché sur une théorie de la connaissance élaborée et raffinée, dont l’étude peut guider le méditant dans son cheminement. Mais la compréhension des concepts de non-dualité, de vacuité…, aussi claire et profonde soit-elle, constitue en fin de compte un obstacle subtil dont il faudra se libérer. Le Bouddha encourageait chacun à aller au-delà des enseignements et des concepts, et à ne rien accepter dont il n’ait fait une expérience personnelle et directe, de première main. 


Bien qu’une pratique assidue de la méditation apporte un profond apaisement, elle n’a rien à voir avec une méthode de relaxation physique procurant un gain de bien-être immédiat. Méditer, c’est apprendre à être présent à ce qui est là, calme ou agitation, bien-être ou malaise, tristesse ou gaîté. Lorsque le méditant s’assied pour pratiquer, rien ne lui garantit une session calme. Le désir même d’atteindre ou de maintenir un état particulier génère une tension qui constitue un subtil obstacle au calme. Méditer, c’est ne rien attendre, ne rien vouloir. Cet entraînement exige de la régularité, de la persévérance, une véritable discipline.


La méditation est-elle une méthode psychothérapeutique ? Le Bouddha est considéré comme « le grand médecin », et son enseignement peut se résumer en quatre points : la souffrance, l’origine de la souffrance, la cessation de la souffrance, et le chemin qui mène à la cessation de la souffrance. Des méthodes thérapeutiques basées sur la pratique de la méditation connaissent actuellement un grand succès. La « réduction du stress par la pleine conscience (4) », créée par Jon Kabat-Zinn en 1982, est maintenant utilisée dans des centaines d’hôpitaux aux États-Unis et en Europe. La « thérapie cognitive basée sur la pleine conscience (5) », adaptée de la première, est utilisée pour soigner des personnes qui sont en rémission après avoir souffert d’épisodes dépressifs à répétition. Dans les deux cas, l’outil thérapeutique est le développement de la « pleine conscience » (mindfulness), c’est-à-dire du mode d’attention ouvert de vipashyanâ. Les sujets suivent un programme très précis d’une durée de huit semaines, afin de développer la conscience de leur expérience, instant après instant, sans la juger ni chercher à la transformer. Cet entraînement est efficace, puisqu’il réduit de 50 % la probabilité de rechute dépressive. Qu’est-ce qui explique cette efficacité ? L’une des hypothèses avancées est que c’est l’acceptation de l’expérience comme elle est qui est déterminante dans le processus thérapeutique. En ce sens, l’entraînement méditatif est fondamentalement thérapeutique. Cependant, les conditions de prescription de ce remède – pour quelles pathologies, à quelles étapes de la cure, avec quel type d’accompagnement – restent à définir précisément. Ajoutons que ces thérapies n’explorent que les tout premiers pas du chemin méditatif, qui vise à libérer des causes ultimes de la souffrance. Si quelques semaines ou mois d’entraînement permettent de retrouver le goût de vivre, quelle est l’expérience d’un moine qui totalise 40 000 heures de méditation, quelle sorte de joie éprouve-t-il ?

Lâcher prise pour s'ouvrir au monde

Après l’extase, la lessive, précise le titre d’un ouvrage sur la méditation (6). L’entraînement méditatif ne s’arrête pas à la pratique formelle sur le coussin, il s’étend à toutes les activités de la vie. Il s’agit de rester totalement présent à la situation singulière telle qu’elle évolue d’instant en instant. Le méditant bien entraîné ne cherche pas à la maîtriser en l’identifiant à une situation passée, déjà rencontrée, ou en la contraignant à servir un objectif établi d’avance. Il retrouve la capacité à s’étonner, s’émerveiller, à percevoir ce qui est singulier et neuf dans chaque événement. Il prend le risque d’être ouvert à l’imprévisible, et de lui apporter une réponse spécifique. Le relâchement de la tension sur des objectifs est propice à l’émergence d’idées neuves, créatives. Des solutions insoupçonnées apparaissent spontanément, sans qu’il y ait à les extraire de son esprit avec beaucoup d’effort. Cet état de disponibilité, de vulnérabilité, permet une autre manière d’entrer en relation avec autrui. Le méditant ayant appris à ne plus se protéger de son expérience, moins sur la défensive, devient plus curieux des autres, plus audacieux, et capable d’agir de manière généreuse, sans attendre de retour. Présent à lui-même, il est capable de l’être à autrui. Dans cette détente et cet espace qui s’ouvre, s’élève une sorte de douceur et de tendresse. Enfin, dès ses premiers pas, la méditation est l’apprentissage du lâcher-prise, de la perte. Au cours de ce cheminement, la mort même perd son caractère terrifiant : elle est perçue comme l’occasion d’aller jusqu’au bout de ce mouvement d’abandon qui ouvre un espace infini. 


Ni voie de connaissance, ni pratique corporelle, méthode thérapeutique radicale, discipline de vie exigeante, voie spirituelle dont Dieu et le moi sont absents…, la méditation échappe aux catégories qui permettraient de la cerner. Son essence est de dissoudre les voiles qui nous cachent notre expérience, pour nous amener à « la fine pointe du réel », à la source de l’existence et de son sens. Retrouver le contact avec cet espace pourrait constituer un enjeu considérable pour notre société.

Claire Petitmengin

Les usages de la méditation

Importée en Occident, la méditation, particulièrement 
dans sa version bouddhiste, 
lamindfulness ou pleine conscience, est pratiquée avec différents objectifs.


• Bien-être et psychothérapie


La méditation est largement utilisée aujourd’hui pour lutter contre le stress et la dépression. C’est ce que font les méthodes de mindfulness créées par Kabat-Zin.


• Connaissance de soi


La méditation est également un moyen d’introspection et d’étude de ses propres processus mentaux : pensées, émotions, attention. C’est pourquoi certains chercheurs en sciences cognitives s’intéressent aussi à la méditation bouddhiste.


• Perfectionnement moral


La méditation bouddhiste permet également de se libérer de ses vains désirs personnels, et d’exercer la bienveillance à l’égard d’autrui, en apprenant à ouvrir son attention à l’autre.


• Philosophie
 et spiritualité


La pratique de la méditation peut aussi déboucher sur un nouveau regard sur le monde : l’« éveil », qui correspond à une prise de conscience intime de l’impermanence des choses et de soi. Cet « éveil » est une profonde libération intérieure.

Claire Petitmengin
 

NOTES

1.Matthew Killingsworth et Daniel Gilbert, 
« A wandering mind is an unhappy mind »,Science, vol. CCCXXX, n° 6006, 12 novembre 2010.

2.Voir par exemple Richard Nisbett et Timothy Wilson, « Telling more than we know. Verbal reports on mental processes », Psychological Review, vol. LXXXIV, n° 3, mai 1977.

3.Majjhimanikâya, 89, II, 21.

4.Jon Kabat-ZinnAu cœur de la tourmente, 
la pleine conscience, 2009.

5.Zindel Segal, Mark Williams et John Teasdale, 
La Thérapie cognitive basée sur la pleine conscience pour la dépression. Une nouvelle approche pour prévenir la rechute, De Boeck, 2006.

6.Jack KornfieldAprès l’extase, la lessive, 2001, rééd. Pocket, 2010.

7.shamatha et vipashyanâ

Ce sont les deux noms sanskrits des techniques de méditation bouddhiste.

Shamatha
Ou « calme mental », il a pour objectif d’apaiser le flot des pensées
grâce à la concentration de l’esprit.

Vipashyanâ
Ou « vision pénétrante », il permet de développer un mode d’attention ouvert par lequel le méditant s’ouvre à ses pensées et émotions de manière bienveillante.

 

 

Quelques ouvrages d'initiation à la méditation

• La voie commence là où vous êtes

Pema Chödrön, La Table ronde, 2000.


• La Vision profonde. De la pleine conscience à la contemplation intérieure

Thich Nhat Hanh, Albin Michel, 1995.


• L’Art de la méditation 

Matthieu Ricard, NiL, 2008.


• La Méditation bouddhique. Une voie intérieure

Jean-Pierre Schnetzler, Albin Michel, 1994.


• L’Esprit et la Voie. Réflexions d’un moine bouddhiste sur la vie

Ajahn Sumedho, Sully, 2007.


• Méditation et action

Chogyam Trungpa, rééd. Fayard, 2002. 


• Sermons du Bouddha

Mohân Wijayaratna, rééd. Seuil, 2006.


 

Cedric Villani – La naissance des idées

Le projet fou d'une greffe de tête

Le Dr Sergio Canavero a présenté, dans un congrès de chirurgie américain, son idée de transplanter dans les deux ans une tête humaine. Il a demandé l'aide de ses confrères et la contribution financière de généreux donateurs, mais son projet laisse dubitatif plus d'un scientifique.

 

Quelques difficultés techniques et de menues questions éthiques… La greffe de tête (ou de corps, selon la perspective) consiste à transplanter sur le corps d'un donneur en état de mort cérébrale la tête d'un receveur malade ou handicapé. Un chirurgien chinois l'a fait sur des souris, le neurochirurgien Sergio Canavero le promet chez l'homme. Chez leurs pairs, l'enthousiasme est… mesuré.

«C'est farfelu, sourit le Pr Claude Ecoffey, président de la Société française d'anesthésie et de réanimation. Je ne dis pas que ça ne sera jamais possible, mais pas dans deux ans!» «Quand j'en ai entendu parler, je me suis demandé comment il pouvait s'y prendre et j'ai lu ses publications, se souvient le Pr Laurent Lantieri, pionnier de la greffe de face. Mais il nous parle là de magie, pas de chirurgie!» Impossible à ce jour, disent-ils tous, de réparer la moelle épinière. «S'il y arrive, j'applaudirai des deux mains, ajoute le Pr Lantieri. Mais il y aura plein de paraplégiques intéressés avant de monter un protocole aussi complexe qu'une greffe.»

Refroidir, couper, fusionner

Sergio Canavero a livré à deux reprises (en 2013 puis en 2015) quelques détails de sa recette dans Surgical Neurology International, revue scientifique de faible impact. Il règle en trois verbes la difficulté principale, qui est de fusionner les moelles épinières du receveur et du donneur: refroidir, couper net, recoller grâce à la chimie et l'électricité.

• Refroidir

Refroidir la tête à 12 ou 15 °C protégera le cerveau du décapité avant jonction à son nouveau corps. Une technique très utilisée en chirurgie cardiaque: quand le cœur cesse de battre, le sang n'arrive plus au cerveau qui, privé d'oxygène, présente des dommages irréversibles en quelques minutes ; le froid «ralentit» le métabolisme cérébral et limite les besoins en oxygène. Canavero estime que la tête pourra se passer de flux sanguin pendant une heure, précisément le temps dont il a besoin pour la reconnecter à son nouvel hôte.

• Couper net

Recoudre un trou dans un pantalon est plus simple si le tissu n'est pas effiloché. De même, une coupure très nette des deux moelles épinières réalisée au moyen d'une nanolame bien plus tranchante qu'un banal scalpel est la condition indispensable pour infliger le moins de dommages possibles aux cellules cérébrales et leur permettre de se ressouder. Pure fiction selon le Dr Alain Privat, neuroscientifique et chercheur honoraire à l'Inserm: «Dans les minutes qui suivent un trauma, les axones sectionnés dégénèrent et il se forme un tissu cicatriciel totalement imperméable à toute repousse.»

• Fusionner

Derniers ingrédients: du polyéthylène glycol et du chitosane pour fusionner les cellules, plus un peu d'électricité pour «booster» le processus. Le mélange chimique serait aux cellules nerveuses ce que l'eau bouillante est aux nouilles, explique le New Scientist: plongées dans l'eau, les pâtes collent. Sauf si vous les remuez. Canavero immobilisera donc les spaghettis cérébraux de son patient en le maintenant trois à quatre semaines dans le coma.

«Sur les bases des connaissances scientifiques actuelles, il est impossible de rétablir une connexion fonctionnelle entre les deux extrémités sectionnées de la moelle épinière. Même si la personne survit à la transplantation, elle n'aura aucun contrôle sur l'ensemble des fonctions corporelles situées sous le site de lésion», assène Grégoire Courtine, chercheur en neuroréhabilitation qui, à l'École polytechnique de Lausanne, a pu faire remarcher des rats dont la moelle avait été lésée. Rétablir 10 à 15 % des connexions axonales suffit, accorde-t-il à Sergio Canavero. «Le problème est d'obtenir ne serait-ce que 0,01 % de reconnexions avec une section complète de la moelle. Chez nos rats, la lésion n'était qu'incomplète!»

L'expérience du Dr White

Des détails et suites opératoires, Canavero parle très peu: à peine évoqués, les risques de rejet (mais au fait, qui de la tête et du corps rejetterait l'autre?). Vite abordée, la rééducation. «Comment le patient va-t-il respirer?, s'interroge aussi Laurent Lantieri. Il faut au moins six mois pour que repousse le nerf phrénique, qui permet de respirer…» Quant aux questions éthiques, l'aventureux neurochirurgien les balaie d'un revers de main.

Dessin décrivant une greffe de tête chez le singe, telle que réalisée par le Dr White en 1970. (Crédit: White et al.)
Dessin décrivant une greffe de tête chez le singe, telle que réalisée par le Dr White en 1970. (Crédit: White et al.)

L'homme se revendique comme le successeur du Dr Robert White, qui réalisa en 1970 une greffe de tête sur un macque rhésus. «Le singe a vécu huit jours et ( …) n'a pas souffert de complications», écrit Canavero en juin 2013. Deux ans plus tard, il précise qu'en guise de non-complications l'animal est tout de même devenu paralysé… Peut-être a-t-il, entre les deux publications, rencontré le Pr Jerry Silver qui participa à la recapitation simiesque. Une fois réveillé, l'animal exprimait «une terrible douleur, de la confusion, de l'anxiété. La tête a survécu mais pas très longtemps», a raconté le neuroscientifique américain à CBS News.

Une première greffe humaine dans les deux ans

Canavero promet une première greffe humaine dans les deux ans et évoque des essais sur le singe ou des cadavres… mais sans livrer le début d'un protocole expérimental. Plus prudent, le chirurgien Xiaoping Ren a réalisé quelque 1000 greffes de ce type sur des souris, qui n'ont pas survécu bien longtemps. La prochaine génération, rêve-t-il auprès du Wall Street Journal, saura peut-être greffer des têtes humaines. «Mais aujourd'hui, ce n'est pas possible.»

Le Russe Valery Spiridonov, affligé d'une grave maladie dégénérative, est prêt à se faire cobaye pour le Dr Canavero.
Le Russe Valery Spiridonov, affligé d'une grave maladie dégénérative, est prêt à se faire cobaye pour le Dr Canavero.

Le médecin italien a néanmoins trouvé un client. Le Russe Valery Spiridonov, affligé d'une grave maladie dégénérative, est prêt à se faire cobaye. «Je ne suis pas fou, je ne le ferai que si c'est possible à 99 %», confiait-il récemment au Daily Mail. Pour s'en convaincre, il a accompagné Sergio Canavero ce 12 juin, invité à présenter son projet au congrès annuel de l'Académie américaine de chirurgie neurologique et orthopédique. «Qu'est-ce que la chirurgie? C'est repousser les limites», s'enflammait le programme du congrès. Inviter Canavero n'était donc pas, de la part de l'Académie, lui donner un blanc-seing, mais lui permettre d'en discuter avec ses pairs. Après tout, nul n'aurait parié sur la transplantation cardiaque il y a encore cinquante ans, et «la première fois que j'ai parlé de greffe de face on m'a dit que c'était grotesque», se souvient Laurent Lantieri.

Le projet de Canavero, présenté vendredi pendant deux longues heures et demi, n'a pourtant pas semblé convaincre. Certains ont admis que ses idées sur la possibilité de réparer une moelle épinière peuvent, à long terme, être intéressantes; mais la technique envisagée est très loin d'être encore au point et mériterait, pour être véritablement prise au sérieux, d'être testée chez l'animal et présentée dans des revues scientifiques plus réputées que Surgical Neurology International. Pour le reste, les obstacles sont nombreux et Sergio Canavero a lui-même reconnu qu'il ne savait pas vraiment comment exécuter toute la procédure. «J'ai fait ma contribution avec la moelle épinière, la principale chose, et maintenant je vous demande votre aide», a-t-il lancé, en appelant à l'esprit de conquête de l'Amérique qui a bien su, dans les années 1960, envoyer l'homme sur la Lune. Il en a aussi appelé à des «milliardaires comme Bill Gates [qui] pourraient donner de l'argent pour ce projet ambitieux». Besoins estimés: 100 millions de dollars…

Sergio Canavero a nommé son projet «Heaven» (pour «Head anastomosis venture» - l'anastomose est la connexion entre deux organes). En guise de ciel, si l'aventure était crédible on penserait plutôt à l'enfer…


 

Conférence TED X de Canavero

"David et Goliath" (détail)
Le Caravage Le Prado

https://www.youtube.com/embed/iVfCPeyfmok

Greffe de tête ou de corps, une question éthique

 

 
Le chirurgien Italien Sergio Canavero compte être le premier à greffer une tête sur un corps. Au-delà des doutes sur la faisabilité de l'opération des questions éthiques surviennent.

 

En expliquant comment il compte être le premier à greffer une tête sur un corps, le chirurgien italien Sergio Canavero ne sucite pas uniquement des doutes sur la faisabilité de l'opération: son projet fou produirait un hybride dont la nature humaine pourrait être questionnée. Doit-on appeler cette opération une greffe de tête (dans ce cas on privilégie l'importance du corps) ou une greffe de corps (dans ce cas on privilégie l'importance de la tête), quel est la partie la plus importante?

Le Figaro a questionné plusieurs personnalités à se sujet:

• Joël Bockaert, membre de l'Académie des sciences et professeur émérite de l'Université de Montpellier:

«Sur le plan philosophique on ne peut séparer les influences du corps sur la tête et réciproquement, comme on ne peut séparer l'esprit du corps. Pour la reproduction, il est clair que les gènes seront transmis par le corps. Mais pour la vie de l'individu on peut dire que l'état physiologique ou pathologique du corps influeront sur ses fonction cérébrales. Imaginez un corps diabétique, atteint de la syphilis ou mal oxygéné... le fonctionnement cérébral en sera affecté. Réciproquement si vous avez un cerveau anxieux, dépressif, prenant des risques inconsidéré ou addict à quelques drogue que ce soit (alcool, tabac...), il y aura des effets délétères sur les fonctions corporelles. De plus, on pense aussi avec son corps car toutes les émotions sont d'abord ressenties via le corps (on a peur avec son corps avant d'avoir peur avec sa tête). La mémoire est aussi une mémoire corporelle (elle est dépendante de nos sensations et émotions).»

• Xavier Lacroix , membre du Comité consultatif national d'éthique (CCNE), professeur de philosophie et de théologie morale à la faculté de théologie de l'université catholique de Lyon:

«La question oppose deux éléments du corps tous deux importants alors que le plus significatif est leur réunion. Par ailleurs, la différence principale me paraît résider entre le «corps-sujet», celui que je suis (qui s'exprime dans des gestes, dans des désirs) et le «corps-objet», celui qu'analyse la science et qui est anonyme à lui-même (qui apparaît sous le microscope). Quant à savoir si la «tête» ou le «corps» (le reste) est le plus important, je soulignerais que le «corps» est important, et pas seulement la tête. Je suis largement autant dans mes gestes, mon désir sexuel, que dans mon cerveau, mes neurones, ma «mémoire» (que ce soit au sens scientifique-objectif ou au sens subjectif-affectif). Tout mon corps, c'est moi. Mes jambes, leurs muscles, leurs habitudes comptent largement autant que ma «tête». Je suis en réaction contre un certain cérébralisme actuel, qui fait habiter le «moi» seulement dans le cerveau.

Je pense que le corps, la chair, tout entier est habité par la personne, et pas seulement son cerveau. La nouvelle unité ainsi formée serait vraiment nouvelle ou la personne en serait changée. Tout dépend si l'on est matérialiste ou non: si l'on croit que la personne est «âme», elle demeure la même, si l'on pense que la personne et le corps ne font qu'un (matérialisme), la personne est nouvelle. En l'occurrence, l'expérience nous obligerait à sortir de l'alternative spiritualisme/matérialisme, vers une conception unitaire et duelle de l'être humain: une personne qui demeure, mais qui est changée...»

• Giacomo Cavalli, directeur de recherche au CNRS de Montpellier, expert en génétique et épigénétique:

«La définition de cette opération comme «greffe de tête», consistant à transplanter la tête entière d'une personne sur un corps d'un accepteur en état de mort cérébrale, a des bases historiques. On pourrait très bien et peut-être on devrait définir cette opération comme une greffe de corps, si l'on imagine que l'identité essentielle d'une personne réside dans son cerveau. Simplement, les premiers chercheurs qui ont effectué des telles opérations les ont définies comme greffes de tête et le terme est resté dans la pratique.

Pour ce genre d'opération, qui peut imaginer les conséquences d'une greffe sur le «soi» perçu par la tête greffée? Or, des études en épigénétique suggèrent que les expériences, les stress et les comportements alimentaires peuvent avoir des conséquences héréditaires sur la progéniture au delà de la séquence d'ADN transmise en tant que telle. Les enfants de cet hybride seraient aussi des hybrides qui ne pourraient plus savoir s'ils sont fils de la tête ou des cellules germinales qui les ont générés.

On a aussi à considérer le coté plus dangereusement glissant de cette question. La greffe de tête évoque en quelque sorte le «transhumanisme», un mouvement intellectuel visant la transformation de l'espèce humaine ou du moins l'évolution d'une partie des humains en une forme de vie «surévolué». Un hybride tête-corps pourrait constituer l'un des leviers utilisables pour améliorer une «tête» de «haut niveau» en lui donnant un corps plus jeune. Ces idées rassemblent bien sûr plus à de la science-fiction qu'à une réalité proche, mais il est important d'y songer sérieusement si la proposition du Dr Canavero s'avérait techniquement possible dans des temps proches.»

• Michaël Azoulay, ancien membre du CCNE et rabbin de la synagogue de Neuilly:

«Cette question renvoie à un débat dans le Talmud (texte fondateur de la loi juive), concernant le cas d'un cadavre décapité découvert dans un champ entre deux villes, le Pentateuque (ou Torah) prévoyant un rituel auquel doivent procéder les anciens de la ville la plus proche géographiquement de la dite victime (car il s'agit d'un meurtre, dont l'auteur n'a pas été retrouvé). Deux sages discutent de la question de savoir s'il faut mesurer la distance qui sépare le corps des villes, à partir du corps ou partir de la tête, celle-ci ayant pu rouler assez loin de son corps.

Lévinas (philosophe français) a écrit qu'un débat talmudique exprime une pensée qui oscille entre deux opinions. Le sage qui estime que les mesures doivent être effectuées depuis la tête du mort attribue à celle-ci, siège de la raison et de l'intelligence, la primauté, tandis que son contradicteur soutient quant à lui que sans corps l'intelligence ne peut s'incarner dans des actes. Au-delà de la génétique, il s'agit ici de la place occupée par le corps dans nos vies, et de ses sensations qui nous font nous sentir vivants.»

• André Comte-Sponville, membre du CCNE et philosophe matérialiste français:

C'est évidemment une greffe de corps (c'est la tête, ou plutôt le cerveau, qui prime). Et pour l'instant, c'est de la science fiction. Il y a plus urgent, et plus important!

Nicolas Plantey - 06/2015


 

Testez votre Conscience

2 exemples cités par Stanislas Dehaene
 
 
l'invisibilité à volonté
 
 
whodunnit

Science sans conscience n’est que ruine de l’âme

 


La conscience nous fait réfléchir sur nous-mêmes et nos actions. Ré-fléchir : fléchir sur soi, se replier sur son nombril, contempler sa propre subjectivité. Ce qui est indispensable.

La science, elle, se veut toute objective : elle cherche -et trouve- des explications universellement valables rendant le monde compréhensible. Ce qui est tout aussi indispensable, mais n’a rien à voir. D’un coté, ce qui fait l’unité d’une personne, son intégrité et son existence mêmes ; de l’autre, une connaissance et une maîtrise de l’ordre des choses, objectives.

Il faudrait unir ces deux partis qui règnent sur des territoires bien séparés. Il en va de notre existence concrète, morale, et politique : notre civilisation a fondé d’immenses espoirs sur le progrès scientifique, qui en a profité pour bondir. Nous voilà capables de multiplier par dix millions notre taux de radioactivité, et de bidouiller des gènes de façon à modeler l’essence des générations futures. Mais nous ne savons pas au nom de quoi. De Dieu ? Il est mort : depuis longtemps nous n’agissons plus au nom de sa volonté. Donc nous n’agissons plus qu’au nom de la science que nous avons divinisée, pour prétendre agir en tant que maîtres et possesseurs de la nature. Or l’exemple de l’industrie nucléaire montre que si l’homme est puissant grâce à la science, il est aussi fragile à cause d’elle : il est incapable de maîtriser sa propre maîtrise. Quelle conscience saura diriger ce formidable pouvoir ?

La science devait apporter paix et confort. Elle ne l’a pu : ses progressions ne nous ont pas fait faire de progrès moral, et même nous avons régressé pour devenir plus barbares. Est-ce que la formule de Rabelais nous prévient de ce danger ?

La science est peut-être incapable d’avoir une dimension humaine. Elle ne fait pas de politique, de métaphysique, ni de morale : les comités d’éthique, chartes et autres déclarations de bonne foi ne suffisent pas à combler le vide effrayant qui sépare le scientifique scrutant le réel pour encore et toujours le maîtriser davantage, et l’homme conscient qui dans sa vie concrète pense sa vie et vit sa pensée.

Il faudrait faire une science de l’existence, dans ce monde désenchanté qui en a fini avec les dieux capricieux, les saints auxquels se vouer, qui permettaient de mettre tant de magie et de sens, même contradictoires et incohérents, dans des vies concrètes !

La science ne suffit pas, elle ne dupe personne quand elle se présente comme l’autorité intellectuelle et morale déterminante, alors qu’elle est incompétente en matière de morale !

C’est à cause du scientisme qu'on se répète la sentence de Rabelais en hérissant le poil : on a osé dire que dans la République la science avait pris la place de la religion. Il a donc fallu la fétichiser pour mieux l’adorer. Par exemple en adorant non plus Dieu, m’ais "l’être suprême", ou n’importe quoi, à n’importe quel prix -on a adoré l’atome au Japon, on l’adore encore en France. Auguste Comte déclarait la fin des temps religieux : si à l’aube de l’humanité, on se raccrochait à tout argument pouvant expliciter le monde, à présent que la science a assez de maturité pour pouvoir donner des explications cohérentes, la religion paraît obsolète : pourquoi la conscience irait-elle encore se réfugier dans la foi ?



Parce que la science ne suffit pas. Comte lui-même, après avoir inventé la sociologie, se consacra à élaborer un catéchisme positiviste. Les sociologues prétendant faire de l’homme une chose scientifiquement observable, comme tout élément de l’ordre des choses, reconnaissent que même une société moderne a besoin de croyances communes. Ces croyances ne sont pas de l’ordre d’un savoir objectif, elles ne peuvent pas non plus être fournies par une religion traditionnelle, décrédibilisée par les exigences de l’esprit scientifique. Résultat : la "ruine de l’âme".

La science ne sait pas parler de l’existence, et les religions sont dépassées : il ne reste plus de place pour la conscience. Voilà que fleurissent les pseudosciences, comblant le vide. L’astrologie, la numérologie, la parapsychologie, la graphologie, les médecines parallèles, sont en expansion croissante. Il se développe, de façon de plus en plus raffinée, un discours qui se réfère à la physique, notamment à la physique quantique, plus obscure au sens commun. Par ce biais les hommes s’acharnent à croire que “la nature délire avec eux” 2, suivant des désirs et passions formidables plutôt que de minables causes et effets froidement explicités. C’est ainsi qu’on ne prévoit pas ce qu’on ferait en cas d'explosion d'une centrale atomique car nous avons décidé de CROIRE que cet évènement n’arrivera pas, protégés que nous sommes par notre FOI en nos bons ingénieurs. Louée soit AREVA.

La raison trop froide gèle les cœurs.

Ce constat peut faire la fortune de ceux qui affirment pouvoir donner du sens là où il n’y en a pas... et assurer la relève des gourous. On fait joyeusement un pied de nez à la rationalité dominante, considérée comme limitatrice -et elle l’est ! Le charme, le mystère, ne sont pas intéressants dans une société déshumanisée, une technocratie qui vise la transparence, triant, rangeant, classant chaque chose à sa place déterminée. La vie administrée des Occidentaux laisse apparaître une multitude de rites que Weber avait appelé modes magiques de pensée : on cherche l’âme, éperdument. Le but de la cristalothérapie, par exemple, n’est pas de guérir en accrochant un morceau de cristal à sa fenêtre, mais de permettre (symboliquement évidemment) au corps d’échapper à son enveloppe occidentale.


D.R.

La science n’a pas d’âme

La science nous ruine. Avec elle notre conscience est seulement la conscience d’un individu rationnel calculant ses avantages. Pas exaltant. Il faut reconcevoir l’individu. Pas facile. L’homme, depuis qu’il est conscience, cherche à maîtriser non seulement le monde, mais lui-même ! C’est pourquoi la science vaut, et règne. Faire de l’Homme une œuvre, voilà un projet à la fois technique et éthique. La question technique posée est : "comment bien vivre sa vie ?", comme on opère bien une appendicite, ou comme on joue bien de la flute !? Un individu est bien sûr un paquet d’organes déterminés, ET aussi une âme, une capacité à penser sa vie : un esprit, un souffle, appelez cette conscience comme vous voulez. Cette "âme" a des désirs auxquels aucune connaissance objective ne peut répondre.

Chacun rencontre dans sa vie concrète des phénomènes inexpliqués par la science : l’amour, la poésie, la foi, le rêve.... Que faire de ces savoirs subjectifs, affectifs, que la science ne reconnaît pas puisque seul compte à ses yeux ce qui se mesure, se chiffre, se définit véritablement ? Peut-on choisir, doit-on choisir, entre d’un côté l’absolue certitude scientifique qui plie toute chose sous des lois nécessaires, et d’un autre coté une conscience singulière pour laquelle tout est subjectif ? Choisir la première solution interdiarait de dire désormais “moi je”, mais nous oblgerait à dire “il”, par exemple ne plus dire "je” pense, mais “il” pense, il y a des pensées en moi, ce “il” impersonnel de “il pleut”.

La vérité scientifique est indépendante de moi. À mesure que je m’intéresse à la science, à l’absolu, je me désintéresse de moi (ou plutôt je m’y intéresse d’une tout autre façon : je m’intéresse à moi comme à une chose). Ne demandons pas à la science d’avoir une conscience. Le scientifique, en tant que scientifique, ne se pose pas de question personnelle, ni éthique, ni politique. La décision même de poursuivre ou de lancer des recherches n’appartient pas au scientifique : il n’a pas à avoir une parole singulière ; la recherche est l’engagement d’une société globale qui ne laisse pas place à la conscience individuelle. Le scientifique n’a ni le droit ni les moyens, ni le moindre intérêt à se soucier des conséquences de la vérité qu’il s’emploie à révéler.

La seule vérité qui nous sauve c’est la conscience d’exister. Savoir pour savoir est inutile quand on ne sait qui décidera de nos fins. Seule la conscience le peut, et elle seule rend la science utile. Conclusion : la conscience ne doit jamais appréhender la science que comme comme un outil dont elle peut se servir, et surtout pas comme une maîtresse. 

François Housset



 




La science pourra-t-elle expliquer la conscience ?

 

Boîte noire insondable

 

Il y a ne serait-ce que cinquante ans, ce débat aurait semblé complètement déplacé. La conscience était alors un objet d'études philosophiques et psychologiques, pas biologique. Mais dans les années 1980, Francis Crick, Prix Nobel de biologie pour la découverte de la structure de l'ADN, jette un pavé dans la mare. Il affirme que la conscience peut être étudiée scientifiquement. C'est ce qu'il appelle son hypothèse stupéfiante [1]. Bientôt, d'autres neurologues, et notamment Jean-Pierre Changeux, à l'Institut Pasteur, à Paris, lui emboîtent le pas. Ils remettent ainsi sur la table l'antique débat des matérialistes contre les dualistes : sommes-nous uniquement composés de matière ou la conscience exige-t-elle un élément, immatériel, en plus ?

Les neuroscientifiques font évoluer le débat. Ils n'affirment pas forcément que la conscience est matière, mais qu'elle « émerge » de l'activité des cellules du système nerveux. Et que la science peut étudier ce phénomène d'émergence. L'idée heurte alors les psychologues comportementalistes, pour lesquels la seule manière scientifique et objective d'étudier l'esprit consiste à observer ce qui est scientifiquement rapportable : le comportement, qui est la réponse de l'esprit à un stimulus. L'esprit est considéré comme une boîte noire, insondable. Mais l'hypothèse de Francis Crick trouve un écho favorable chez les adeptes de l'intelligence artificielle. Depuis l'avènement des ordinateurs, certains scientifiques estiment à la suite du mathématicien britannique Alan Turing que les machines pourraient être un jour suffisamment perfectionnées pour être dotées d'une conscience.

Mais de quelle conscience parle-t-on ? Dans le langage courant, le mot recouvre plusieurs sens : on parle parfois de la conscience comme d'un état de vigilance qui s'oppose au sommeil. Il peut s'agir aussi de la capacité d'une personne à développer une pensée réflexive sur elle-même, à pratiquer l'introspection. Les psychologues, eux, étudient la conscience de soi, de son identité propre.

En neurologie, la conscience désigne un processus mental qui hiérarchise et sélectionne des informations sensorielles en provenance, via les sens, du monde extérieur et intérieur pour en donner une représentation, subjective par nature, et unique. Ce processus permettrait au sujet conscient de focaliser son attention sur des tâches nécessitant une plus grande réflexion (par exemple des tâches nouvelles ou complexes), pendant que les tâches habituelles sont réalisées inconsciemment. Au-delà du processus mental, le mot conscience peut aussi faire référence aux sensations subjectives ainsi générées, ce que certains appellent lesqualia : cette conscience dite « phénoménale » des choses perçues, la sensation que cela fait de voir du rouge ou d'avoir chaud.

Personne ne s'accorde aujourd'hui sur la définition de la conscience, ni sur quel type de conscience peut être l'objet d'études scientifiques. Ainsi, Lionel Naccache, de l'Institut du cerveau et de la moelle épinière à Paris, se focalise sur la conscience d'accès : « Une représentation mentale dont on peut rendre compte, sur laquelle on peut communiquer : je ressens ceci, je veux cela, je perçois cela, je me souviens d'untel. » Christof Koch, lui, préfère ignorer les débats qu'il juge stériles sur la définition de la conscience : « Est-ce un épiphénomène, incapable d'influencer le monde, ou bien est-ce que mes intestins sont conscients, mais incapables de me le dire ? Il faudra un jour se préoccuper de ces questions, mais aujourd'hui, s'en inquiéter ne conduit qu'à nous empêcher d'avancer. »

Objet mal défini

 

Les arguments se cristallisent surtout autour des qualia, ce que le philosophe australien David Chalmers appelle en 1995« la question difficile de la conscience » [2]. La science paraît certes capable de décrire les processus d'émergence à la conscience d'une perception (la couleur verte, par exemple). Mais pourra-t-elle expliquer d'où vient l'impression subjective de la vision du vert ? Ne se conduit-elle pas comme un aveugle connaissant tout du phénomène de la vision, mais n'ayant jamais ressenti ce que cela fait de voir ? Parmi les neurologues, beaucoup choisissent d'ignorer ce problème difficile : « Je pense que ce n'est pas une distinction utile aujourd'hui », affirme ainsi Steven Laureys.

Bien que l'objet de leurs recherches ne soit pas clairement défini, les scientifiques accumulent les observations, et avancent des théories. Le philosophe américain John Searle livrait ainsi, lors d'un entretien à l'occasion de la naissance duJournal des études sur la conscience, en 1994 : « On ne sait pas comment ça marche et on a besoin d'essayer toutes sortes d'idées. »

À l'appui de leurs théories, les chercheurs exploitent l'imagerie cérébrale. Celle-ci ne donne certes pas à voir la conscience elle-même, mais ce que les scientifiques ont appelé plus modestement les corrélats neuronaux de la conscience : des changements neuronaux qui se produisent en même temps que la prise de conscience. L'électroencéphalographie (EEG), qui consiste à suivre la progression des ondes électriques nées de la propagation des signaux nerveux via des électrodes posées sur le crâne, est désormais largement complétée par l'imagerie par résonance magnétique fonctionnelle (IRMf), qui permet de visualiser les zones du cerveau qui s'activent lors de la réalisation d'une tâche. L'IRMf donne une vision du cerveau dans sa totalité, là où l'EEG ne détecte que les ondes du cortex, sa couche la plus externe.

Signature neuronale

 

Ainsi armés, les neurologues se sont mis en quête d'une signature neuronale de la conscience : un corrélat de la conscience qui serait nécessaire et suffisant pour qu'une stimulation devienne consciente. Où et quand se produit-il ?

A priori, sur le trajet, relativement bien identifié, des perceptions. Les signaux électrochimiques nés de la stimulation de récepteurs sensitifs aboutissent dans les aires perceptuelles primaires (visuelles, auditives, sensorimotrices, etc.), puis progressent vers l'avant du cerveau, où elles subissent des traitements de plus en plus complexes, impliquant notamment des va-et-vient entre plusieurs aires corticales. La première étape du traitement de l'information, la perception primaire, est en général réalisée dans les 100 millisecondes après le stimulus. Les signaux se répandent ensuite dans le cerveau en 200 à 300 millisecondes.

À quel moment de cette progression la conscience émerge-t-elle ? Une question d'autant plus controversée que les expériences ne permettent pas de trancher. Certes, lorsque les expérimentateurs observent l'activation cérébrale durant un exercice de perception, ils distinguent des signaux qui apparaissent uniquement si le stimulus est conscient. Mais certains se produisent localement et très rapidement (dans les 100 millisecondes qui suivent le stimulus), et d'autres bien après 200 millisecondes. Il semble que la prise de conscience elle-même est noyée entre des processus préparatoires à la prise de conscience en amont et des mécanismes qui sont la conséquence de cette prise de conscience en aval. Dès lors, les avis divergent.

Semir Zeki, de l'University College à Londres, soutient l'existence d'une microconscience précoce (dès 100 millisecondes) se produisant très rapidement [3]. À l'université de Miami, aux États-Unis, le psychiatre Steven Sevush estime même qu'il existerait une conscience à l'échelle du neurone individuel [4].

À l'inverse, Stanislas Dehaene, du laboratoire de neuro-imagerie cognitive, à Gif-sur-Yvette, défend, avec Lionel Naccache et Steven Laureys, l'idée d'une apparition tardive de la conscience. Celle-ci émergerait quand les signaux nés de la perception sensitive sont largement distribués dans le cerveau, environ 300 millisecondes après le stimulus.

Suivi des signaux

 

L'hypothèse tardive a reçu de nombreux soutiens expérimentaux au cours des dernières années. Le plus marqué est sans doute l'expérience menée dans le laboratoire de Giulio Tononi, à l'université du Wisconsin, à Madison, aux États-Unis [5]. En installant une bobine électrique sur le crâne de ses volontaires, il stimule des groupes de neurones sous-jacents, qui se mettent à émettre des signaux électrochimiques dont il observe la propagation en EEG. Chez les personnes éveillées, des ondes électriques entre 10 et 40 hertz se propagent ainsi pendant environ un tiers de seconde, gagnant diverses zones corticales. Mais chez des personnes endormies, ou en état végétatif, il constate que le signal ne se propage pas.

L'idée de l'émergence tardive de la conscience, si elle fait toujours débat, sous-tend cependant les deux grandes théories de la conscience proposées aujourd'hui. La première est la théorie de l'espace de travail global. Elle s'inspire des travaux publiés en 1989 par un psychologue néerlandais, Bernard Baars. Elle a été transposée en neurologie notamment par Stanislas Dehaene, Jean-Pierre Changeux et Lionel Naccache [6]. Selon cette théorie, l'information sensorielle qui parvient au cerveau est traitée en permanence par des ensembles de neurones qui travaillent en parallèle, de manière inconsciente. Pour que leur information accède à la conscience, il faut que leur activité soit suffisante, mais aussi qu'ils bénéficient d'une amplification de la part des réseaux neuronaux où va émerger la conscience, à la manière d'une attention préconsciente. Une activité cohérente entre plusieurs populations de neurones distribués dans le cerveau s'installe alors.

Les connexions à longues distances qui s'établissent ainsi constituent l'espace de travail global. Cet espace met à disposition du cerveau cette information consciente qui peut dès lors être évaluée, mémorisée à long terme, donner lieu à des actions intentionnelles, etc. Cette mise à disposition généralisée d'un ensemble perceptif cohérent constituerait l'état conscient.

Des cellules impliquées dans cette distribution ont même été identifiées : les neurones pyramidaux du cortex préfrontal. Dotées d'un corps de forme triangulaire caractéristique, elles possèdent de longs axones qui connectent des zones très éloignées du cerveau.

La seconde théorie parie, elle aussi, sur ces échanges d'information à longue distance pour expliquer l'émergence de la conscience. Elle a été proposée en 2008 par Giulio Tononi[7]. Sa théorie de l'information intégrée est avant tout une théorie mathématique qui peut s'appliquer aux neurones. Elle repose sur deux constats : d'une part, l'information qui arrive à la conscience est une sélection de toutes celles disponibles dans le système, d'autre part, cette sélection constitue un tout que l'on ne peut plus fragmenter.

Information intégrée

 

Pour Giulio Tononi, il existe donc un continuum allant de l'absence totale de conscience à des niveaux de conscience bas que l'on trouverait chez les animaux ou lorsque nous sommes partiellement éveillés, jusqu'à des niveaux de conscience supérieurs. Ce continuum peut se décrire sous forme mathématique, qui lui permet de quantifier les niveaux de conscience. Ainsi, un animal, un humain, un nouveau-né, une personne dans le coma disposeraient de degrés de conscience différents et calculables.

La théorie de l'information intégrée de Giulio Tononi est une théorie fonctionnaliste, elle peut s'appliquer à n'importe quel système d'entités échangeant de l'information : neurones, mais aussi transistors des ordinateurs connectés via le Web, ou même... populations de planètes. Le cosmos entier serait donc empli de conscience.

Même si elle a été très favorablement accueillie par de nombreux neuroscientifiques, comme Christof Koch ou le groupe de Stanislas Dehaene, l'idée se révèle pour le moins déstabilisante. Pour des philosophes comme John Searle, imaginer qu'un système de deux diodes possède un fragment de conscience, même infime, dépasse les bornes. Reste que les développements de la théorie de l'information pourraient avoir des applications cliniques en aidant à déterminer si un patient a priori plongé dans un état végétatif dispose, ou non, d'une conscience. Une manière de mettre à l'épreuve ces hypothèses.

Par Anne Debroise
 
Références : 

[1] F. Crick, L'Hypothèse stupéfiante, Plon, 1995.

[2] D. Chalmers, J. Consc. Stud., 2, 200, 1995.

[3] S. Zeki, Trends in Cognitive Neuroscience, 7, 214, 2003.

[4] S. Sevush, J. of Theo. Bio., 238, 704, 2006.

[5] M. Massimi et al., Cogn. Neurosci., 1, 3, 176, 2010.

[6] J.-P. Changeux et S. Dehaene, in Learning and Memory: A Comprehensive Reference (vol.1), 729, J. Byrne and R. Menzel (dir.), Elsevier, 2008.

[7] G. Tononi, Biological Bulletin, 215, 216, 2008.


 

Le code de la conscience

 Conférence de Stanislas Dehaene  

https://www.youtube.com/embed/Tbap_3ZjbK4


 

The Evolution of the God Gene/ Dieu est un phénomène neurologique

 

 

 

Ces découvertes conjuguées avec d'autres recherches, met en lumière une nouvelle vision de la religion, une vision qui tend à expliquer pourquoi les comportements religieux se sont produits dans les différentes sociétés, à tous les stades du développement, et dans le monde entier. La religion porte le sceau d'un comportement évolué. Le New York Timesexplique les implications:

La religion existe parce qu'elle a été favorisée par la sélection naturelle. C'est universel parce que cela a été introduit dans notre circuit neurologique avant que nos ancêtres préhistoriques ne se dispersent de leur berceau africain.

Pour les athées, l'idée que la religion se soit perpetuée parce qu'elle apporte aux sociétés humaines des bienfaits essentiels n'est pas particulièrement la bienvenue: «si la religion est une ceinture de sécurité, il devient difficile de la dépeindre comme inutile».

Pour les croyants au contraire, il pourrait sembler dangereux de penser que l'esprit a été forgé pour croire en Dieu.

Cette nouvelle vision de la religion est révolutionnaire; les sciences sociales consièderent depuis longtemps la religion comme un fait culturel, commun à tous les hommes et marque de l'écartement de l'état de nature. Les travaux en cours suggèrent au contraire que la religion, fruit de l'évolution de l'espèce, serait naturelle.

 

The Evolution of the God Gene

In the Oaxaca Valley of Mexico, the archaeologists Joyce Marcus and Kent Flannery have gained a remarkable insight into the origin of religion. 

Universal Religion has been found in societies at every stage of development. Catholic Bishops as they filed into St. Patrick’s Cathedral in 2008, and at a temple in South Korea, Buddhist monks paid homage to the Buddha.

During 15 years of excavation they have uncovered not some monumental temple but evidence of a critical transition in religious behavior. The record begins with a simple dancing floor, the arena for the communal religious dances held by hunter-gatherers in about 7,000 B.C. It moves to the ancestor-cult shrines that appeared after the beginning of corn-based agriculture around 1,500 B.C., and ends in A.D. 30 with the sophisticated, astronomically oriented temples of an early archaic state.

This and other research is pointing to a new perspective on religion, one that seeks to explain why religious behavior has occurred in societies at every stage of development and in every region of the world. Religion has the hallmarks of an evolved behavior, meaning that it exists because it was favored by natural selection. It is universal because it was wired into our neural circuitry before the ancestral human population dispersed from its African homeland.

For atheists, it is not a particularly welcome thought that religion evolved because it conferred essential benefits on early human societies and their successors. If religion is a lifebelt, it is hard to portray it as useless.

For believers, it may seem threatening to think that the mind has been shaped to believe in gods, since the actual existence of the divine may then seem less likely.

But the evolutionary perspective on religion does not necessarily threaten the central position of either side. That religious behavior was favored by natural selection neither proves nor disproves the existence of gods. For believers, if one accepts that evolution has shaped the human body, why not the mind too? What evolution has done is to endow people with a genetic predisposition to learn the religion of their community, just as they are predisposed to learn its language. With both religion and language, it is culture, not genetics, that then supplies the content of what is learned.

It is easier to see from hunter-gatherer societies how religion may have conferred compelling advantages in the struggle for survival. Their rituals emphasize not theology but intense communal dancing that may last through the night. The sustained rhythmic movement induces strong feelings of exaltation and emotional commitment to the group. Rituals also resolve quarrels and patch up the social fabric.

The ancestral human population of 50,000 years ago, to judge from living hunter-gatherers, would have lived in small, egalitarian groups without chiefs or headmen. Religion served them as an invisible government. It bound people together, committing them to put their community’s needs ahead of their own self-interest. For fear of divine punishment, people followed rules of self-restraint toward members of the community. Religion also emboldened them to give their lives in battle against outsiders. Groups fortified by religious belief would have prevailed over those that lacked it, and genes that prompted the mind toward ritual would eventually have become universal.

In natural selection, it is genes that enable their owners to leave more surviving progeny that become more common. The idea that natural selection can favor groups, instead of acting directly on individuals, is highly controversial. Though Darwin proposed the idea, the traditional view among biologists is that selection on individuals would stamp out altruistic behavior (the altruists who spent time helping others would leave fewer children of their own) far faster than group-level selection could favor it.

But group selection has recently gained two powerful champions, the biologists David Sloan Wilson and Edward O. Wilson, who argued that two special circumstances in recent human evolution would have given group selection much more of an edge than usual. One is the highly egalitarian nature of hunter-gatherer societies, which makes everyone behave alike and gives individual altruists a better chance of passing on their genes. The other is intense warfare between groups, which enhances group-level selection in favor of community-benefiting behaviors such as altruism and religion.

A propensity to learn the religion of one’s community became so firmly implanted in the human neural circuitry, according to this new view, that religion was retained when hunter-gatherers, starting from 15,000 years ago, began to settle in fixed communities. In the larger, hierarchical societies made possible by settled living, rulers co-opted religion as their source of authority. Roman emperors made themselves chief priest or even a living god, though most had the taste to wait till after death for deification. “Drat, I think I’m becoming a god!” Vespasian joked on his deathbed.

Religion was also harnessed to vital practical tasks such as agriculture, which in the first societies to practice it required quite unaccustomed forms of labor and organization. Many religions bear traces of the spring and autumn festivals that helped get crops planted and harvested at the right time. Passover once marked the beginning of the barley festival; Easter, linked to the date of Passover, is a spring festival.

Could the evolutionary perspective on religion become the basis for some kind of detente between religion and science? Biologists and many atheists have a lot of respect for evolution and its workings, and if they regarded religious behavior as an evolved instinct they might see religion more favorably, or at least recognize its constructive roles. Religion is often blamed for its spectacular excesses, whether in promoting persecution or warfare, but gets less credit for its staple function of patching up the moral fabric of society. But perhaps it doesn’t deserve either blame or credit. If religion is seen as a means of generating social cohesion, it is a society and its leaders that put that cohesion to good or bad ends.

Nicholas Wade, a science reporter for The New York Times, is the author of “The Faith Instinct: How Religion Evolved and Why It Endures.”


 

Des spermatozoïdes créés en laboratoire

 

 
Des chercheurs français affirment avoir, pour la première fois, obtenu la formation de gamètes d'hommes in vitro.

 

Les progrès de la médecine régénérative profitent aussi à l'assistance médicale à la procréation. À travers le monde, plusieurs équipes travaillent à la création de spermatozoïdes fonctionnels à partir de cellules ou de tissus provenant du corps même de l'homme qui souhaite devenir père. Avec pour avantage évident, en cas de succès, que l'enfant à naître présentera pour moitié le patrimoine génétique de son père.

Dernière avancée en date, la société française Kallistem a annoncé cette semaine avoir franchi le dernier obstacle la séparant de son objectif final, la création de spermatozoïdes humains in vitro. «L'équipe scientifique des Drs Marie-Hélène Perrard et Philippe Durand est la seule à avoir mis au point un bioréacteur qui permet de réaliser une spermatogénèse in vitro totale à partir de tissu testiculaire prélevé par biopsie, un processus extrêmement complexe qui prend 72 jours», affirme la PDG de Kallistem, Isabelle Cuoc.

En attendant la publication, le 23 juin, du brevet sur ce procédé, baptisé Artistem, la jeune société française se refuse à diffuser ses résultats scientifiques. Mais, affirme Isabelle Cuoc, «nous avons obtenu, sur la base du prélèvement de quelques millimètres cubes de tissu testiculaire, assez de spermatozoïdes pour donner naissance à un enfant par fécondation in vitro».

De grandes perspectives

Lors de la phase clinique, prévue pour 2017, ces spermatozoïdes seront utilisés pour des fécondations in vitro. Mais cette phase sera précédée de tests précliniques visant à vérifier le bon état des spermatozoïdes, notamment sur le plan génétique, mais aussi épigénétique (expression des gènes). Ainsi que des tests sur l'animal. «Nous respecterons toutes les contraintes réglementaires», insiste Isabelle Cuoc.

Ce procédé pourrait notamment bénéficier aux petits garçons traités pour un cancer et à qui on aurait prélevé avant leur chimiothérapie et/ou radiothérapie du tissu testiculaire, riche en cellules germinales immatures qui produisent les spermatozoïdes à partir de l'adolescence. «Même si la congélation permet de conserver longtemps ce tissu, le réimplanter tel quel à l'âge adulte comporte un risque de transmission de cellules cancéreuses. Il est donc plus sûr de les utiliser pour créer des gamètes in vitro», poursuit Isabelle Cuoc.

Kallistem présente aussi son procédé comme une réponse à l'infertilité des hommes atteints d'azoospermie non obstructive, dont les testicules ne produisent pas de spermatozoïdes malgré la présence de cellules germinales.

En l'absence de résultats publiés dans une revue spécialisée, les experts extérieurs à ces recherches affichent une grande prudence, tout en saluant la qualité professionnelle de l'équipe Perrard- Durand. «S'il fonctionne, ce procédé ouvre de grandes perspectives», commente le Pr Nathalie Rives, responsable du centre d'assistance médicale à la procréation au CHU de Rouen, dont l'équipe est parvenue à créer des spermatozoïdes de souris in vitro. «Je serais néanmoins beaucoup plus réservée sur l'ampleur de leurs débouchés. Il n'est pas exclu que les adultes souffrant d'azoospermie présentent des anomalies génétiques qui empêcheront aussi la spermatogénèse in vitro.»

Débat éthique et sociétal

Selon un bilan international publié en mai par des chercheurs néerlandais dans Human Reproduction Update, plusieurs équipes internationales sont parvenues à produire des gamètes artificiels (spermatozoïdes et ovocytes) dans le monde, mais en utilisant différents procédés. Certains sont appelés un peu abusivement «artificiels» car ils ont été élaborés à partir de cellules souches embryonnaires ou pluripotentes induites (cellules souches obtenues en reprogrammant des cellules spécifiques comme des cellules de peau), qu'ils ont fait évoluer en spermatogonies (les cellules produisant les spermatozoïdes).

«Nos recherches ne sont pas concurrentes, estime Isabelle Cuoc. D'abord parce qu'elles s'adressent à des pathologies différentes, en l'occurrence, pour eux, des hommes n'ayant pas du tout de cellules germinales, et parce que leurs techniques n'aboutissent pas encore au stade définitif du spermatozoïde. En ce sens, le procédé Artistem pourrait les aider à aboutir à une forme mature de gamète.»

Ces gamètes «artificiels» ont déjà donné naissance à des bébés… animaux, mais pas humains, écrivent les chercheuses néerlandaises. Qui rappellent l'importance d'un débat éthique et sociétal en amont de toute expérience de ce genre.

Pauline Fréour   05/2015


 

"Dogmes et Biologie"

La séquence complète du Mimivirus, le plus grand virus à ADN connu, est publiée en ligne dans la revue Science, par les équipes du CNRS à l'origine de sa découverte il y a un an, les groupes de Didier Raoult (1) et de Jean-Michel Claverie (2) (Marseille). Le génome de ce virus qui approche la taille d'une petite bactérie contient des gènes inhabituels pour un virus, en particulier plusieurs gènes codant pour des éléments de la machinerie de synthèse des protéines. L'analyse de la séquence du Mimivirus modifie notre vision de l'évolution de la vie en général, et de l'origine des virus à ADN au cours de l'évolution en particulier. Les Mimivirus constitueraient une nouvelle branche évolutive de l'arbre de la vie, distincte des trois branches connues, eucaryotes, bactéries et archaebactéries.

 Didier Raoult aux JNLF 2015 de Marseille

   mardi 31 mars 2015 17 h

www.youtube.com/embed/Cscoc2296WQ

 

Et si Darwin s'était trompé...

"Dépasser Darwin", de Didier Raoult (éditions
 Plon). 

 
 

C'est l'un des plus grands chercheurs français en microbiologie. Le professeur Didier Raoult dirige l'unité de recherche en maladies infectieuses et tropicales émergentes à la faculté de médecine de Marseille. On lui doit des découvertes fondamentales comme celle des virus géants et peut-être même d'une nouvelle forme de vie. Dans son dernier livre, Dépasser Darwin (Plon), Didier Raoult explique pourquoi le darwinisme, érigé en dogme, est en train de voler en éclats.

Le Point : Vous racontez que, dans leurs laboratoires, les chercheurs en biologie sont en train de révolutionner la vision du monde. Aujourd'hui, Copernic n'a pas l'oeil collé à une lunette astronomique, mais à un microscope électronique ?

Didier Raoult : Quand Copernic puis Galilée affirment que la Terre tourne autour du Soleil, c'est la façon dont nous avons ordonnancé le monde dans nos têtes qui vole en éclats. L'homme n'est plus au sommet de la création, le centre d'un univers immuable. Avec la révolution génomique, nous vivons les débuts de la biologie. On découvre que l'homme est un écosystème à lui tout seul, un monde dans lequel cohabitent des millions de micro-organismes. Cet écosystème ambulant évolue dans d'autres écosystèmes qu'il modifie et qui le modifient. Tous les êtres vivants passent leur temps à s'échanger des gènes. Pas uniquement par la reproduction, mais aussi par les virus et les bactéries. Le monde du vivant est une immense orgie collective. On sait aujourd'hui que 8 % de l'ADN humain est constitué de vestiges de gènes qui nous ont été transmis par des virus.

C'est pourquoi vous dites que l'homme est une "chimère" ?

Pendant longtemps, on a pensé que nous descendions d'un ancêtre commun : le Sapiens. En mai 2010, coup de théâtre : les résultats d'une analyse de l'ADN prélevé sur des os de néandertaliens ont révélé que 1 à 4 % de nos gènes viennent de Neandertal. Que cela nous plaise ou non, nous sommes apparentés à ce lourdaud, et non pas uniquement à Sapiens"l'intello". Les deux se sont rencontrés et métissés. L'arbre généalogique de l'espèce humaine est anti-darwinien parce que notre ancêtre est tout à la fois Sapiens, néandertalien, une bactérie et un virus !

Vous avez récemment affirmé que quatre formes de vie, et non pas trois comme il a toujours été admis, sont apparues il y a plus d'un milliard d'années. De quoi mettre en ébullition les spécialistes de l'évolution !

Le virus géant mimivirus que mon équipe a découvert en 2003, et dont nous avons décrypté le génome, me permet d'émettre l'hypothèse selon laquelle, à côté des trois grandes formes de vie acceptées - bactéries, eucaryotes et Archaea -, il en existerait une quatrième : celle des grands virus à ADN. Mimivirus en fait partie, tout comme trois autres virus dont nous avons aussi révélé l'existence. Ce monde de virus géants constitue un quatrième groupe entièrement parasitaire, distinct des trois autres. Cela suscite un large débat chez les scientifiques. Ce n'est pourtant qu'une étape dans la remise en question nécessaire du classement darwinien du vivant. Les virus en sont aujourd'hui exclus, alors que ce sont les entités biologiques les plus abondantes et la source de plus de la moitié des gènes de l'univers connu !

D'après vous, il faudrait abattre l'"arbre de Darwin" ?

L'arbre darwinien n'existe pas. C'est un fantasme. L'idée du tronc commun avec les espèces qui divergent comme des branches est un non-sens. Un arbre de la vie, pourquoi pas, mais alors planté la tête en bas, les racines en l'air ! Si les espèces s'étaient définitivement séparées il y a des millions d'années, il n'y aurait en fait plus d'espèces vivantes sur la planète. Chacune aurait dégénéré dans son coin faute d'avoir pu suffisamment renouveler son patrimoine génétique. Pour survivre, il faut savoir s'encombrer de gènes inutiles. Ne pas être économe.

L'évolution, c'est un peu l'éloge du gaspillage ?

La nature n'est pas parcimonieuse, elle est futile. L'idée darwinienne que tout ce qui existe sert à quelque chose et que tout ce qui ne sert pas est éliminé ne tient pas. Depuis, on a découvert le "gène égoïste". Notre génome est plein de gènes égoïstes qui ne cherchent qu'à se reproduire et se fichent bien d'améliorer ou non l'organisme. Certaines bactéries ont jusqu'à 40 % de gènes qui ne servent à rien. L'évolution peut sélectionner une capacité qui n'est pas du tout un avantage à un moment T, mais qui peut le devenir plus tard. Quand un organisme vivant n'a pas l'occasion de manifester ses qualités, cela ne signifie pas qu'il soit inutile. Notre répertoire génomique est une sorte de dépôt de munitions. Plus il est riche, plus on a de chances d'y trouver, le moment voulu, l'arme adaptée à une menace imprévue. La superspécialisation de l'homme est un avantage qui n'est que conjoncturel. Idem pour l'agent de la variole : il s'était tellement spécialisé qu'il était devenu hyperadapté à l'homme ; quand cet hôte unique a trouvé la parade, un vaccin, la variole a été éradiquée, même si le virus n'a pas disparu puisque les militaires, américains notamment, en détiennent des stocks.

Darwin s'est trompé, "évoluer" n'est pas progresser ?

L'évolution vue par Darwin est forcément avantageuse : la sélection fait progresser les espèces, et tout évolue vers le meilleur, tout s'améliore. Darwin était trop optimiste. Les organismes survivants ne sont pas meilleurs que les autres, ils n'ont pas de meilleures raisons de survivre. Une espèce qui a perdu la "guerre du vivant" à une époque et dans un contexte donné aurait pu la gagner en d'autres temps et d'autres lieux. Bien avant l'arrivée des Espagnols en Amérique, les chevaux avaient disparu de ce continent pour une raison inconnue. Leur réintroduction par les conquistadores a montré qu'ils étaient parfaitement adaptés à ce continent. En fait, l'évolution, c'est le "chacun-pour-soi". Le virus ou la bactérie pathogène qui vous infecte ne cherche pas à vous détruire, pas plus que le gène ne collabore intentionnellement à votre bien. C'est peut-être vexant, mais la nature est parfaitement indifférente à notre sort !

Bref, l'évolution est imprévisible ?

L'imagination de la nature est colossale. Nous l'avons largement sous-estimée et nous sommes en train de nous en apercevoir. Prenez Escherichia coli, qui a tué 43 personnes récemment. 30 % de son génome se renouvelle en permanence. Il se crée des Escherichia coli tous les jours. Demain, l'une d'elles pourrait fabriquer un cocktail mortel pour l'espèce humaine. La bactérie Klebsiella pneumoniae, qui a sévi en Europe en début d'année, profite d'un gène qui la rend résistante à tous les antibiotiques. Ces bactéries mutantes nous apprennent l'étendue de notre ignorance. On ne comprend pas d'où leur viennent ces gènes de résistance et pourquoi ils émergent soudainement. Il faut passer au séquençage systématique du génome de ces bactéries. La bonne nouvelle, c'est que plus une bactérie est résistante, moins elle est virulente.

La nature continue de créer ?

Dans la vision darwinienne de l'évolution, tout a été créé une bonne fois pour toutes, et s'il apparaît de nouvelles espèces, c'est uniquement par adaptation graduelle des espèces existantes. En fait, la nature ne se contente pas d'évoluer, elle continue d'inventer des espèces. On s'est aperçu qu'une bactérie nommée Wolbachia avait réussi, en infectant un ver, à intégrer 80 % de son chromosome. Elle avait, de fait, fabriqué une nouvelle espèce de ver ! Une évolution brutale et massive qui n'a rien à voir avec l'évolution lente et verticale décrite par Darwin. Si une femme porteuse de l'herpès HV6 est enceinte, le virus s'étant intégré dans son chromosome, son fils aura le virus dans ses gènes. Le grand-père de ce garçon sera donc en partie un virus !

Si l'on vous suit, de nouvelles espèces surgissent par échange de gènes et surtout de nouveaux gènes apparaissent...

Ces gènes sont tellement inédits que nous n'arrivons pas à les rattacher à quoi que ce soit. Impossible de dresser leur arbre généalogique. On les appelle les "gènes orphelins" justement parce que l'on ne retrouve pas leurs "parents". Ces gènes "nés sous X" sont pléthoriques. Le génome humain contient 10 à 15 % de gènes inconnus. Nous ne sommes pas là devant un phénomène d'"évolution", mais bien de "création". Contrairement à ce que pensait Darwin, la création ne s'est jamais figée.

Les microbes seraient donc la clé pour comprendre le monde du vivant ?

L'homme est un sac à microbes. Nous avons plus de bactéries que de cellules humaines dans le corps. À lui seul, notre tube digestif contient 100 milliards de bactéries, et c'est un lieu de batailles permanent. Toutes ces bestioles ont besoin de se nourrir, elles se font la guerre en se détruisant à coups de toxines, en se dévorant, ou alors choisissent de collaborer en échangeant des informations : un gène utile peut sauter d'une bactérie à l'autre. La plupart de nos antibiotiques ont été inventés par des microbes qui voulaient empêcher leurs voisins de leur piquer leur repas. Chaque fois que vous mangez, vous favorisez sans le savoir une population au détriment d'une autre. Une gastro-entérite, c'est la conquête espagnole en Amérique avec le massacre des populations indigènes. Une civilisation entière de microbes qui colonisaient votre tube digestif va disparaître à cause des salmonelles de votre déjeuner. De nouvelles espèces de bactéries vont en profiter pour annexer le terrain.

L'évolution ne se fait que par grandes catastrophes ?

Un monde sans catastrophes cesserait d'évoluer, ce serait un monde mort. Le monde des hommes et celui des bactéries et virus cohabitent à deux échelles différentes et interfèrent profondément tout en s'ignorant. Pour en avoir la meilleure image, il faut lire Philip K. Dick ! Dans ses romans, le monde du paravivant fait irruption dans l'univers des humains lorsqu'une faille temporelle ouvre un passage entre les deux, comme nous prenons conscience de l'existence des microbes à l'occasion d'une épidémie.

Le réel serait en quelque sorte en train de prendre sa revanche sur la théorie ?

Pour avancer en science, il faut déconstruire les dogmes. Souvent, paralysés par des théories construites a priori, et même en disposant des nouveaux outils qui permettraient de s'en libérer, nous avons intellectuellement du mal à sauter le pas. Ainsi, sur le front du cancer, les premières causes identifiées étant physico-chimiques, on s'est entêté pendant des années à chercher des causes physico-chimiques à tous les cancers. Ce qui nous a empêchés de penser autrement et de travailler sur la cause infectieuse. Or il est désormais acquis que 25 % des cancers sont causés par des virus. On s'est aussi rendu compte que le cancer du col de l'utérus est provoqué par un virus sexuellement transmissible et que ce même virus est à l'origine de 70 % des cancers de la gorge...

La science est donc si conformiste ?

Pendant des décennies, dans ma discipline, les maladies infectieuses, la méthode de recherche dominante était de poser une hypothèse puis de la vérifier par l'observation et enfin de généraliser. On partait d'une chose pour laquelle on avait une explication claire et on l'étendait à des choses connexes pour lesquelles ça ne marchait plus. La révolution génomique a permis d'inverser cela. Quand vous découvrez, par exemple, que les virus géants sont constitués de gènes provenant à la fois d'animaux, de plantes, de bactéries et d'autres virus géants, vous pulvérisez la notion d'ancêtre commun chère à Darwin.

Il y a deux ans, vous avez révélé ce qui était considéré comme impossible : l'existence d'un virus capable d'infecter d'autres virus...

Jusqu'alors, il était établi qu'un virus avait besoin d'une cellule hôte pour se multiplier et que chaque organisme vivant était parasité par des virus qui lui étaient propres. L'analyse du génome du virophage a montré que non seulement il échangeait des gènes avec le virus infecté, mais qu'il avait aussi importé des gènes d'autres virus. Ce nouveau venu dans le monde des virus a apporté une preuve de plus du transfert de gènes entre différentes espèces. Depuis une dizaine d'années, la recherche fondée sur l'hypothèse perd du terrain. Et, contrairement à ce que l'on peut entendre ici ou là, la science est redevenue productive. Si l'on part du principe qu'une théorie établie ne peut jamais se révéler fausse, c'est qu'elle relève de la croyance. Ce que disait Lacan en substance : si vous pensez avoir compris, c'est que vous avez tort. C'est le cas du darwinisme.

À vous entendre, Charles Darwin aurait carrément inventé une religion ?

Le darwinisme a cessé d'être une théorie scientifique quand on a fait de Darwin un dieu. En introduisant après Lamarck la notion d'évolution, Darwin est venu chambouler la conception figée des créationnistes, qui pensaient que le monde était stable depuis sa création. Mais, dès lors, il est devenu l'objet d'un double mythe. Le mythe du diabolique pour les créationnistes, ceux qui pensent que tout s'est créé en une semaine, et le mythe des scientistes, qui font de "l'origine des espèces" le nouvel Évangile.

Pourquoi dites-vous que Darwin était inévitable dans notre culture judéo-chrétienne ?

Si vous croyez au Dieu judéo-chrétien, Darwin permet même de mieux le comprendre. Avec ce que nous découvrons sur la biologie, on en revient plutôt aux dieux de l'Antiquité. Les hommes de l'Antiquité étaient peut-être animés d'un pressentiment juste lorsque, dans les récits mythologiques, ils mettaient en scène des êtres hybrides, des chimères : Satyres, Centaures et Minotaure. Imaginez maintenant une histoire de l'évolution écrite par un scientifique bouddhiste. Il serait question de cycle, voire de recyclage, et d'êtres mosaïques, ce que l'on retrouve chez Nietzsche.

Le darwinisme est dépassé, mais que met-on à la place ?

La vision de la vie que nous commençons à affiner aujourd'hui est plus nietzschéenne que darwinienne. Avec, d'un côté, Apollon, beau, rationnel et organisé, et l'éruption de Dionysos, qui entraîne le désordre, le chaos, des événements imprévus et les recombinaisons succédant aux bacchanales. Le transfert vertical des gènes à l'intérieur d'une même espèce, avec ses modifications progressives sélectionnées par l'environnement, ressemble au monde d'Apollon. Le transfert latéral des gènes entre espèces différentes via les microbes évoque par sa brutalité et sa radicalité l'univers de Dionysos. Toutes les théories scientifiques sont faites pour être dépassées un jour, d'autant que la science avance de plus en plus vite. Il y a quinze ans, on connaissait 2 000 espèces de bactéries. Aujourd'hui, nous en avons identifié plus de 10 000. Demain, nous nous attendons à en distinguer au moins 150 000...

 

Propos recueillis par Christophe Labbé et Olivia Recasens

 

"Dépasser Darwin", de Didier Raoult (Plon, 164 p.).

 Repères 

1952 : Naissance à Dakar (Sénégal).

1960 : Arrivée à Marseille.

1970 : Bac littéraire.

1970-1972 : Part travailler sur des bateaux.

1978 : Internat en médecine.

1985 : Doctorat en biologie humaine.

1986-1987 : Stage postdoctoral à Bethesda (Etats-Unis).

1984 : Création de son unité de recherche.

1984-1999 : Président de l'Université de la Méditerranée.

1991 : Directeur du laboratoire de bactériologie-virologie de l'hôpital de la Timone.

1992 : Découvre le premier virus géant.

1998 : Identifie l'agent de la peste du Moyen Age.

2003 : Découverte de mimivirus, le plus gros virus du monde.

2009 : Découvre le virophage et le marseillevirus, une nouvelle famille de virus géants.

2010 : Grand Prix Inserm.

2011 : Nommé à la tête de Polmit à Marseille.


 

 

Les neuro-révolutionnaires - Laurent Alexandre

La révolution NBIC (Nanotechnologie/ Biotechnologies / Informatique / sciences Cognitives)

Laurent Alexandre at TEDxParis 2012

https://www.youtube.com/embed/KGD-7M7iYzs

 


 

En 2045, l’homme pourra numériser les informations de son cerveau

 

humanoides_fr_futur_2045_homme_machine
 

Un jour, stocker notre savoir sera possible. Sous quelle forme ? On ne sait pas. Qui sera capable de le faire ? Non plus. Derrière cette théorie, un homme : Ray Kurzweil, directeur de l’Ingénierie chez Google. Il prévoit même que nos corps seront robotisés d’ici cent ans.

Remplacer certaines parties de nos corps par des prothèses bioniques, nous en connaissons différents exemples. Cette pratique n’est pas encore courante car très coûteuse. Mais dans quelques années, les prix vont baisser et la société va avoir accès plus facilement à ces solutions de substitution.

humanoides fr futur 2045 ray
 kurzweil

Ray Kurzweil en est convaincu et l’a redit ce week-end lors du congrès Global Futures 2045 à New York. Organisé par un milliardaire russe Dmitry Itskov, cet évènement rassemblait des personnes autour du thème  »le monde en 2045 ».

Il a affirmé que dans trente ans, les hommes pourront télécharger leur esprit dans un ordinateur et qu’à partir de 2100, nos parties biologiques seront remplacées par des pièces robotisées.

Sur quoi Ray Kurzweil se base-t-il ?

Sa théorie est celle de la singularité technologique que défend le courant de pensée transhumaniste. Cette théorie part du constat que les avancées technologiques avancent à une vitesse telle que l’homme ne pourra plus les assimiler à partir d’un certain point. Ce point de rupture débutera vers 2045 selon Ray Kurzweil.

En se basant sur la loi de Moore, Ray pense qu’avec l’augmentation de la puissance de calcul (tous les deux ans en moyenne la puissance de nos ordinateurs double), les ordinateurs pourront contenir toutes les informations que nous stockons dans notre mémoire humaine, comme le montre cette courbe :

humanoides fr loi moore singularite technologique

La mèdecine avance elle aussi

Mais la loi de Moore ne fera pas tout. Ray Kurzweil se base également sur les progrès de la mèdecine, ceux qui permettent à l’homme de retrouver la vue avec ces yeux bioniquess ou récupérer son ouïe grâce à un implant sur un des nerfs auditifs.

humanoides fr futur 2045 avatar

Ray va même jusqu’à parler d’immortalité : « Nous allons devenir de plus en plus non-biologiques, au point où les parties non-biologiques domineront et que les parties biologiques ne seront plus importantes. En fait, la partie non biologique, la partie machine, sera si puissante qu’elle pourra totalement modeler et comprendre la partie biologique. Du coup, même si cette partie biologique était retirée, cela ne ferait aucune différence. (…) Nous aurons également des corps non biologiques – nous pouvons créer des corps virtuels et une réalité virtuelle aussi réaliste que la réalité réelle ».

Toujours d’après Ray : « Avec l’extension radicale de la durée de vie, nous allons connaitre une expansion de vie radicale. Nous aurons des millions d’environnements virtuels à explorer qui vont littéralement étendre nos cerveaux. Actuellement nous n’avons que 300 millions de modèles organisés selon une grande hiérarchie que nous créons nous-mêmes. Mais cela pourrait devenir 300 milliards ou 300 trillions. La dernière fois que nous avons étendu le cortex frontal, nous avons créé le langage, l’art et la science. Pensez seulement aux sauts quantitatifs que nous ne pouvons même pas imaginer encore aujourd’hui et que nous réaliserons lorsque nous développerons encore notre cortex » .


 

L'intelligence artificielle inquiète les grands cerveaux contemporains

 

 

02/2015 Sébastian Seibt

Plusieurs personnalités de renom, comme le multimilliardaire Bill Gates et le très médiatique physicien Stephen Hawking, mettent en garde contre les dangers de l’intelligence artificielle, une avancée qui menacerait l’humanité.

Qu’ont en commun Bill Gates, l’homme le plus riche au monde, Stephen Hawking, le plus célèbre des physiciens et Elon Musk, le roi des voitures électriques et pionnier du tourisme spatial ? Ils craignent tous que l’intelligence artificielle (IA) se transforme en menace pour l’homme.

"Je suis de ceux qui redoutent la montée en puissance des superintelligences et je ne comprends pas qu’on puisse ne pas être inquiet",a ainsi affirmé Bill Gates lors d'un échange avec des internautes sur le site Reddit, jeudi 29 janvier. Le fondateur de Microsoft et inventeur de Windows rejoint ainsi un cortège de plus en plus peuplé de personnalités qui mettent en garde contre la montée en puissance des IA.

Fin de l’humanité ?

Stephen Hawking a ouvert le bal des hostilités en novembre 2014. Sur un ton quasi-apocalyptique, il avait assuré à la chaîne britannique BBC que "le développement d’une intelligence artificielle pourrait mettre fin à l’humanité". Clive Sinclair, inventeur britannique et pionnier de l’informatique, voit également l’avenir en noir. "À partir du moment où vous développez des machines qui rivalisent avec l’homme en termes d’intelligence, nous allons avoir du mal à survivre", a-t-il affirmé à la BBC.

Quant à Elon Musk, pour ne pas être en reste dans la guerre des prédictions anxiogènes, il a assuré sur Twitter que l’IA était aussi dangereuse, sinon plus, que "les armes atomiques". Même l’institut américain Future of Life, pourtant ouvert aux innovations technologiques et scientifiques, a publié, mi-janvier, une lettre ouverte cosignée par plusieurs centaines de scientifiques qui appellent à une plus grande vigilance dans la recherche sur l’intelligence artificielle.

Les Terminator - ces robots qui ont pris le pouvoir dans le film éponyme de James Cameron - ne sont pourtant pas aux portes des villes. La montée au créneau des scientifiques et autres pontes des nouvelles technologies vient de ce qu’ils sont les plus exposés "à la prédominance du web dans la vie quotidienne et à un monde qui devient de plus en plus connecté donc vulnérable", analyse Peter Ford Dominey, chercheur au CNRS spécialiste des robots et de l’étude du cerveau.

Quand les robots traders dérapent

"Ce qui a, aussi, mis la puce à l’oreille de beaucoup, c’est le travail des robots traders", ajoute Jean-Michel Besnier, philosophe et chercheur au CNRS spécialiste des problématiques liées à l’intelligence artificielle. Les transactions financières par algorithme assisté - le fondement du trading à haute fréquence - ont déjà causé en mai 2010 un crash à la bourse de New York. Pour Peter Ford Dominey, "ces formes assez simples d’intelligence artificielle peuvent entraîner des problèmes sérieux" capables d’affecter l’économie réelle.

Qu’adviendra-t-il lorsque l’intelligence artificielle sera en mesure de prendre des initiatives plus complexes que de décider d’acheter ou vendre des actions ? L’idée d’un système entièrement automatisé qui gèrerait les infrastructures critiques d’un pays a, pour ces chercheurs, de quoi faire froid dans le dos. "Je souscris pleinement à l’appel à la vigilance des scientifiques et autres personnalité s’il s’agit de mettre en garde contre une dominance de l’algorithme [dans le processus de prise de décision, NDLR]", précise Jean-Michel Besnier.

Le spectre d’une "intelligence non-biologique" - comme l’ordinateur de bord du vaisseau dans "2001 : l’Odyssée de l’espace" - qui reléguerait l’homme au second plan relève davantage de la science-fiction pour ces scientifiques.

Les vrais Terminator seraient plutôt des petits bouts de code qui, sous prétexte de simplifier la vie de tout un chacun, priverait l’homme de prises d’initiative. En ce sens, comme le souligne le quotidien "Les Echos", les sorties de Bill Gates ou d’Elon Musk pourraient être autant de critiques dissimulées de Google. Entre son initiative en faveur des voitures sans conducteur et sa frénésie de rachat des sociétés spécialisées dans l’IA (Dark Blue Labs et Vision Factory), le géant de l’Internet paverait l’enfer de bonnes intentions numériques.

Remède à la pauvreté

Mais ce n’est pas, pour autant, une raison pour mettre le holà à toute recherche dans ce domaine, jugent ces spécialistes. "Je ne suis pas de ceux qui croient que la technologie a tendance à s’auto-améliorer toute seule et à croître sans contrôle possible", assure Jean-Michel Besnier. Il suffit de mettre en place les garde-fous à temps.

"Toute technologie à risque, comme le nucléaire ou les OGM, sont soumises à une réflexion sérieuse menée par les politiques et la société civile", rappelle le chercheur Peter Ford Dominey. Il doit en être de même, d’après lui, pour l’intelligence artificielle.

Reste que l’IA, contrairement à l’arme nucléaire, n’est pas intrinsèquement dangereuse. "Le risque provient des responsabilités que nous donnons aux machines", précise Peter Ford Dominey. Dans sa lettre ouverte, l’institut Future for Life souligne d’ailleurs que le risque peut être une chance si la recherche est bien orientée. "Les bénéfices sont énormes puisque l’intelligence artificielle pourrait permettre de trouver des solutions à la pauvreté et mettre au point des remèdes pour la plupart des maladies", assurent les scientifiques qui ont rédigé ce texte. Après tout, si Stephen Hawking a pu lancer son appel à la vigilance, c’est en partie grâce à un ordinateur très avancé qui permet à ce physicien atteint de la maladie de Charcot de s’exprimer.


 

Fin et conclusion de cet interview :
"Alors, au lieu de s’opposer à une évolution banale et naturelle du mariage laïc, qui ne les concerne pas, les Eglises devraient plutôt se préoccuper de réfléchir, avec les laïcs, à ces sujets bien plus importants: comment permettre à l’humanité de définir et de protéger le sanctuaire de son identité? Comment poser les barrières qui lui permettront de ne pas se transformer en une collection d’artefacts producteurs d’artefacts? Comment faire de l’amour et de l’altruisme le vrai moteur de l’Histoire?"

Jacques Attali et le Meilleur des mondes

 

Jacques Attali n’invente rien. Le futur qu’il décrit a été dépeint avec génie en 1932 par Aldous Huxley dans Le Meilleur des mondes, sauf en ce qui concerne l’immortalité. Dans ce livre, il n’y a plus de famille, les enfants sont conçus industriellement dans des machines. La sexualité est totalement libre et cela dès l’enfance (!). « Chacun appartient à tous les autres » comme le répète toujours les héros du livre. Egalité totale, liberté totale, mais fin des différences, fin des groupes, des familles… et, bien sur, tout est conçu pour que chacun soit un parfait travailleur et un excellent consommateur ! 

Jacques Attali a raison de s’inspirer d’Aldous Huxley car les avancées techniques, les changements culturels et spirituels de notre époque marquent une profonde révolution. Il reconnaît que nous vivons une mutation sociétale, et que le mariage pour tous est une étape de ce changement de civilisation. Nous cheminons vers ce monde et les évolutions qu’Attali décrit, comme l’évolution physique de l’Homme, ou son immortalité, sont recherchées dans certains laboratoires. Il est d’ailleurs intéressant de lire le livre du philosophe Suisse Jean-David Ponci, la biologie du vieillissement, pour constater que la quête d’éternité intéresse de près la recherche scientifique.

L’idéologie désirant faire de l’Homme une créature surpuissante, voire immortelle, par le biais de la technique se nomme le transhumanisme. Elle est sans doute une des folies du début du XXIème siècle car en transformant radicalement l’Homme, on fini par le dénaturer et, in fine, le remplacer par une nouvelle espèce. Jean-Claude Guillebaud a parfaitement décrit cette idéologie dans son livre "La vie vivante" : « Le technoprophétisme apparaît comme une utopie de substitution.(…) Le transhumanisme, en somme, vient combler le décalage existant entre les réalisations techniques dont l’homme s’est montré capable au cours de l’Histoire et l’infirmité meurtrière de son cheminement éthique, moral et politique. (…) Il poursuit des objectifs qui dépassent ceux du Titan Prométhée : accession à l’immortalité, à la puissance absolue, à l’autonomie, à la jouissance parfaite. Même si ses adeptes s’en défendent, il se présente bien comme une eschatologie (du grec eskhatos, « dernier », et logos, « discours »), c’est-à-dire une annonce des fins ­dernières de l’homme et du monde. Rejetant les idéologies mortifères du XXe siècle, il indique un autre chemin pour parvenir à des lendemains qui chantent. Une préoccupation, en revanche, lui est étrangère : l’éthique. » 

Est-ce de la science-fiction ? Jean-Claude Guillebaud répond à cette question par la négative : « En réalité, le projet transhumaniste – il se qualifie ainsi – ne relève plus du futurisme ni du délire. (…) Il inspire dorénavant des programmes de recherche, la création d’universités spécialisées et d’une multitude de groupes militants. Il influence une frange non négli­geable de l’administration fédérale américaine et, donc, le processus de décision politique. Voilà près de dix ans que ledit projet, pour ce qui le concerne, n’est plus cantonné dans le ciel des idées. Il génère l’apparition de lobbies puissants. Les hypothèses qu’il propose ne cessent d’essaimer dans les différentes disciplines du savoir universitaire. » Parmi ces groupes militants, nous pouvons citer l’association "transhumanistes : technoprog".

Mais alors quel est le lien entre le mariage pour tous et cette évolution ? Pourquoi Jacques Attali lie ces deux choses ? Le mariage pour tous marque une réforme essentielle de la famille. Avec ses conséquences directes que sont l’adoption, la PMA et la GPA, il consacrera la procréation artificielle comme un moyen normal d’engendrement.L’ectogenèse, quant à elle, s’imposera d’elle-même dès qu’elle sera au point. Signalons que certaines féministes la réclament déjà. Marcela Lacub, juriste féministe, affirme :« Cela (l’ectogenèse) permettra d’arriver enfin à l’égalité homme-femme, de supprimer la dissymétrie fondamentale entre les sexes, entre les femmes stériles et les femmes fécondes.(…) L’utérus artificiel permet de penser un destin différent pour l’humanité et pour l’identité sexuelle. Rien que pour ça, je suis pour. »

Les règles de l’engendrement ainsi changées, ce sera toute la structure familiale, tous les repères, toutes les généalogies qui seront ainsi modifiées. A cela s’ajoute la tentation du bébé parfait. Si un enfant est conçu dans un utérus artificiel, rien n’empêchera la sélection d’embryons pour correspondre à un projet parental taillé sur mesure. C’est tout le rapport parents/enfant qui sera modifié : l’enfant ne sera plus un don que l’on accueille, que l’on accepte comme il est, mais un projet conçu de A à Z… Projet parfait, à la carte, dont l’accès deviendrait un droit : version ultime d’un droit à l’enfant qui commence à s’installer dans notre droit civil. Comment vivrons ces enfants « parfaits » et surtout comment seront-ils accueillis quand ils ne correspondront pas aux rêves de leurs parents ? 

Mais aussi que deviendra cette humanité « transhumaine » transformée et surtout dénaturée par une technique tout puissante ?  Cette question est vertigineuse et elle est une problématique d’ordre écologique. Ainsi conçu artificiellement, l’Homme nouveau sera totalement sorti de son milieu naturel. Ainsi coupé de sa généalogie, de sa filiation, détaché de son père et de sa mère, l’Homme perdra ses repères naturels. Quel sera son devenir ? 

Jacques Attali s’interroge sur ces lendemains angoissants et il suggère : « Alors, au lieu de s’opposer à une évolution banale et naturelle du mariage laïc, qui ne les concerne pas, les Eglises devraient plutôt se préoccuper de réfléchir, avec les laïcs, à ces sujets bien plus importants: comment permettre à l’humanité de définir et de protéger le sanctuaire de son identité? Comment poser les barrières qui lui permettront de ne pas se transformer en une collection d’artefacts producteurs d’artefacts? Comment faire de l’amour et de l’altruisme le vrai moteur de l’Histoire? » Il pose une bonne question, mais se contredit quand il considère le mariage pour tous comme une évolution banale et naturelle du mariage laïc, alors qu’il est la première étape de ce processus. Mais Jacques Attali a raison en reconnaissant que l’enjeu des prochaines décennies et des prochains siècles sera de protéger le sanctuaire de l’identité humaine. Comment ? Certainement en protégeant l’Homme de lui-même et de sa propension à se prendre pour un dieu à l’aide de la technique. Certainement en développant une écologie humaine qui visera à maintenir la conception naturelle de l’Homme, en lui permettant de s’inscrire dans une filiation humaine, dans une famille avec un père et une mère. C’est exactement ce qu’on fait les Eglises, mais aussi d’autres confessions et des intellectuels non-croyants en s’opposant au mariage pour tous et à ses dérives. 

Le débat actuel est un débat de civilisation. Il nous interroge quant à la société que nous voulons : une société construite sur des repères naturels, ou un monde conçu à partir d’une idéologie techniciste faisant croire à  l’Homme qu’il est un dieu.

 

Commentaire de Hubert Déchy 22/03/2015

Jacques Attali serait- il un pur esprit, a l'oppose de son grand ami DSK? Il semble bien oublier que l'attraction entre les deux sexes est un phenomene naturel, hormonal, irresistible que les theories les plus abstraites ne pourront reduire de si tôt. Commençons au contraire a travailler a la disparition du harcelement sexuel dans les transports en commun ou au travail, au respect des corps dans le droit a en disposer volontairement et a mieux vivre notre egalite dans la vie courante entre femmes et hommes. Sinon, il faudra des neuroleptiques dans l'eau du robinet pour atteindre " le meilleur des mondes" de Huxley ou d'Attali.


 

Conférence débat sur le Transhumanisme avec F. Hadjadj et J-M Le Méné

Fabrice Hadjadj 

Écrivain et philosophe français qui se contente de se présenter comme « juif de nom arabe et de confession catholique »

Jean-Marie Le Méné

Président-fondateur de la Fondation Jérôme Lejeune qu'il fonde en 1996 afin de poursuivre l’œuvre de son beau-père mort en 1994 : « Nous donnons une réponse sur les plans médical, scientifique et éthique parce que nous considérons que le plus faible doit être protégé »,et magistrat à la Cour des Comptes.

 

https://www.youtube.com/embed/0NVIwW6b7kk

 


 

La fabrique du transhumanisme : mirage de l’économie 2.0

 

 

« Science sans conscience n’est que ruine de l’âme. »
François Rabelais, Pantagruel, 1542, chap. VIII.

 

National Geographic - février 2015 : prospective médicale

 

Ruine de l’âme et de l’homme… Il y a infiniment plus dérangeant, dans le registre des curiosités modernes, que le transgenre, c’est le transhumain. Le transgenre est un homme qui se cherche, le transhumain, un homme qui se perd. La journaliste Corine Lesnes, auteure d’un article récent sur le sujet dans le supplément culture du Monde, définit ainsi la philosophie transhumaniste : « Un jour, l’homme ne sera plus un mammifère. » Le transhumain est une créature dénaturée qui mécanise la part encore vivante d’elle-même pour décupler ses capacités déclinantes ou altérées et se rendre à terme immortelle. Le transhumanisme se développe dans un contexte d’effondrement du vivant qui trouve son origine dans l’avènement, il y a deux siècles et demi, au sein des sociétés humaines, d’une économie vampirique : le capitalisme. À l’heure où nous commençons à voir, à l’échelle de tout le globe, en quels abîmes nous précipite la courbe exponentielle du progrès technique, le transhumanisme prend le parti non pas de freiner mais d’accélérer la chute en parlant de nous élever au rang de dieux. Par la faute de l’homme, la source unique de vie dans l’univers (jusqu’à preuve du contraire) se tarit, y compris en l’homme, mais l’homme aspire encore à régner, dût-il, mort à lui-même, régner sur un monde mort.

Le transhumanisme promeut l’homme bionique, l'homme « augmenté », l’homme-cyborg, pour faire pièce (si j’ose dire) à l’androïde façon Z6PO ou, mieux, « hubot » (cf. la série Real Humans). Le transhumaniste est un diable animé de bonnes intentions. Il financera le perfectionnement de l’intelligence artificielle sans y mettre de bornes, jusqu’à ce qu’elle prenne conscience d’elle-même (et alors elle nous surclassera). Comme il veut sauver les apparences de l’humanité, il cherchera parallèlement à perfectionner l’homme par tous les moyens, génétiques, électroniques et mécaniques. En faisant croire qu’il n’est de solution que technique aux maux de l’humanité, le transhumaniste donne un second souffle à un capitalisme moribond. C’est ce dernier qu’il « augmente », et non l’homme. La courbe du progrès technique, fléchage pavlovien pour peuples déboussolés et garantie de profits continus, ne doit surtout pas s’infléchir. La démesure dans un domaine ne peut se soigner que par la démesure dans un autre domaine. Si la technologie devient indispensable à l’homme, il ne faudra pas s’étonner que la technologie, quelque jour prochain, trouve l’homme dispensable. Voilà où nous en sommes, à peine sortis de la préhistoire : déjà au bord de l’extinction.

Le pire est que le transhumanisme est un totalitarisme doux qui, depuis une dizaine d’années, a débordé largement le cadre de la culture geek et du roman d’anticipation pour s’imposer à nous de la manière la plus naturelle du monde, à travers les gadgets du quotidiens, devenus extensions de nous-mêmes, qui seront des prothèses demain, des implants après-demain. Le premier propagandiste du transhumanisme est la société Google, comme aime à le rappeler Laurent Alexandre, chirurgien, expert en nouvelles technologies et intelligence artificielle, président de DNA Vision, société spécialisée dans le séquençage du génome humain, et accessoirement fondateur de Doctissimo.fr. Larry Page, cofondateur de Google, expliquait récemment que 9 emplois sur 10 sont menacés à brève échéance par l’automatisation des tâches. Google est leader mondial dans le développement de la robotique utilitaire et a investi massivement dans une myriade de start-ups biotechnologiques comme CALICO qui se sont donné pour objectif d’« euthanasier la mort ». Bill Gates, technophile modéré, prophétise la disparition des infirmières d’ici 2030-2035. Le même s’alarme de voir qu’il n’y a quasiment aucun débat sur les problèmes éthiques posés par l’intelligence artificielle. Le premier colloque sérieux sur le transhumanisme en France s’est tenu en novembre 2014.

Entretemps, la technique aura suivi sa courbe ascensionnelle, indifférente aux soubresauts du scrupule qui agitent la conscience des rares humanistes du monde savant. Le premier séquençage de l’ADN date de 2003 et depuis, on a séquencé des millions d’ADN. Le coût du séquençage a été divisé par 3 millions en 10 ans. En 31 ans, la puissance des serveurs informatiques a été multipliée par 1 milliard. Le neurone, qui existe depuis 550 millions d’années, est en passe d’être dépassé par le transistor, né il y a à peine 60 ans. Actuellement, la fabrication d’une enzyme capable de modifier vos chromosomes  ne coûte que 11 $. Quant à l’homme bionique, il existe déjà, puisqu’en 2013, un cœur artificiel a été implanté pour la première fois sur un homme. 100 % des Français, paraît-il, sont favorables au développement des cœurs artificiels. Personne ne s’interroge sur les implications profondes de cette remarquable « première ». Pourvu qu’on souffre moins, qu’on cesse de vieillir et de mourir, on serait prêts à accepter toutes les formes d’artificialisation du vivant, comme on accepte l’artificialisation des terres arables, sur lesquelles les promoteurs font pousser leurs temples de la consommation et du loisir.  

Bientôt, dès demain peut-être, grâce aux imprimantes 3D qui mettent en transe le ludion Jeremy Rifkin, le transhumain pourra s’artificialiser lui-même, à domicile. Mirage de l’autoproduction ! Comme elle fait rêver, cette imprimante 3D ! Les bricoleurs du dimanche se pâment et tous ceux qui ne savent pas quoi faire de leurs mains et maîtrisent mal l’outil informatique (90 % des gens) s’imaginent déjà en « créatifs », même si le travail de conception est fait par d’autres et le travail de production par la machine elle-même. Philippe Bihouix, dans L’Âge des low tech (Paris, Le Seuil, « Anthropocène », 2014), montre bien quelles sont les limites de ce nouveau gadget qui prétend résoudre en aval, du reste en l’amplifiant, un problème qu’il conviendrait de résoudre en amont : celui de la complexification des procédures de production, qui a pour corollaires la mort des savoir-faire simples et la perte de la maîtrise des outils de production. L’imprimante 3D, qu’elle soit un bien personnel ou un bien prêté ou loué par un Fab Lab (FABrication LABoratory), ne révolutionne en rien les modes de production et ajoute même un étage à l’édifice compliqué de l’économie industrielle en tant que collectivisation de l’impuissance. L’imprimante 3D étant incapable de s’imprimer elle-même, il faut bien une usine et même plusieurs pour en fabriquer tous les composants, ainsi que des mains pour les assembler. Ils sont peu nombreux ceux qui disposent des matériaux et du savoir technique pour s’en fabriquer une eux-mêmes. Par ailleurs, il faut des usines chimiques bien traditionnelles et bien polluantes pour élaborer le polymère thermoplastique qui est utilisé par les modèles standards accessibles au commun des mortels. Il existe des modèles qui travaillent l’aluminium, le titane ou l’acier inox en portant le métal à la température de fusion, mais ils sont inabordables et dépendent de l’industrie métallurgique. Une imprimante 3D n’est pas une petite unité de production industrielle. Les produits « monomatériaux » qu’elle imprime ne sont pas usinés. Son procédé est additif (elle dépose une couche après l’autre), alors que le procédé industriel est soustractif (filetage, perçage, découpage). Enfin, si par aventure vous parveniez à concevoir et à imprimer plusieurs parties de l’objet complexe utile qui vous intéresse (une prothèse bon marché pour handicapé, par exemple, et non une prothèse pour homme augmenté), la charge du montage vous reviendrait de toute façon. En attendant, impossible à l’heure actuelle d’imprimer un bon vieux clou.

L’imprimante 3D peut d’ores et déjà être remisée dans le cimetière des gadgétoïdes du transhumanisme béat qui en dénoncent la péremption prochaine. Les transhumanistes et leurs détracteurs pensent qu’on a déjà atteint le point de bascule. Erreur ! Comme très souvent, la sottise humaine est rappelée à l’ordre par ce qu’elle foule aux pieds : la nature. Lesdits gadgétoïdes du transhumanisme engloutissent des ressources non renouvelables ou mal recyclables (la faute aux alliages complexes et aux insuffisances irrémédiables, deuxième principe de la thermodynamique oblige, de l’industrie du recyclage[*]). L’artificialisation de l’être humain bute sur cette limite physique. Les premières applications industrielles des nanotechnologies versent dans le ridicule. Pour chasser les mauvaises odeurs des chaussettes, des ingénieurs ont eu cette idée géniale, assurément digne de l’eurêka d’Archimède, de mêler au tissu des nanoparticules d’argent, un métal réputé antiseptique et antibactérien. Impossible de récupérer des nanoparticules d’argent. C’est de l’argent (mal)proprement jeté par les fenêtres. L’économie 2.0 ne verra pas le jour, du moins pas pour la majorité des hommes, qui devra faire face, dans les années qui viennent, à la pénurie de tout ce sur quoi la civilisation capitaliste s’est construite. L’avenir n’est pas au surhomme artificialisé mais à l’homme décroissant, et tels que nous sommes partis, cette décroissance ne sera pas un choix de société mais un retour de bâton plutôt sévère et peut-être définitif.

   

[*] Le recyclage du nickel, métal pourtant aisément repérable dans l’acier inox par exemple, coûte très cher et ne concerne que 55 % de la matière initiale. Au bout de trois cycles de recyclage, on a perdu 80 % de la ressource. Or, le nickel est ce qui se recycle le mieux... Le pourcentage de récupération des petits métaux est généralement de l’ordre de 25 %. Quant aux alliages complexes, il faudrait trop d’énergie pour casser les chaînes atomiques et désamalgamer les métaux de base. Aussi finissent-ils comme armature pour le béton.   

 Real Humans (extraits) :

https://www.youtube.com/embed/NzhJIterdog

 


 

Les députés britanniques autorisent les «bébés à trois parents»

 

Soline Roy  Anne-Laure Frémont - 02/2015
Les députés britanniques ont décidé ce mardi que la Grande-Bretagne deviendrait le premier pays autorisant la « fabrication » de bébés à trois ADN, en autorisant une technique de fécondation in vitro avec remplacement mitochondrial.

 

Pour la ministre de la Santé britannique, c'est «la lumière au bout d'un noir tunnel». «Il ne pourra pas y avoir de retour en arrière pour la société», répondent certains députés. Les députés britanniques ont décidé ce mardi, par 382 voix contre 128, de devenir le premier pays autorisant la «fabrication» de bébés… à trois parents.

Le vote à la Chambre des Communes doit, techniquement, être confirmé le 23 février par un scrutin à la Chambre des Lords ; mais la tradition parlementaire britannique veut que les Lords n'invalident jamais un choix fait par les Communes. Le suspens a pourtant duré toute la journée: le vote organisé ce mardi après un débat de 90 minutes était un vote «libre», sans consigne donnée par les partis, donc au résultat difficilement prévisible.

«Si la science peut aider»

Après une longue consultation, le gouvernement britannique avait en septembre donné son feu vert à la mise en place d'un cadre légal pour expérimenter la fécondation in vitro (FIV) avec remplacement mitochondrial, technique développé à l'université de Newcastle. «Étant moi-même père d'un enfant sérieusement handicapé, je sais à travers quoi passent les parents concernés par ces situations», justifie le premier ministre David Cameron, qui a perdu en 2009 un garçon âgé de 6 ans. «Alors si la science peut aider (…), nous devons nous assurer que ces traitements sont disponibles».

En pratique, il s'agit de réaliser des fécondations in vitro avec des ovocytes maternels dont on n'a gardé que le noyau, réintroduit ensuite dans l'ovocyte énucléé d'une donneuse. Car autour du noyau d'une cellule se trouvent les «mitochondries», organites dont le rôle essentiel est de fournir de l'énergie à la cellule ; or ces mitochondries peuvent présenter des anomalies responsables de nombreuses maladies transmises par la mère; dans le monde, 1 enfant sur 6500 naîtrait ainsi chaque année avec des problèmes liées aux mitochondries, risquant une mort prématurée, des souffrances et des maladies à long terme. Remplacer ces mitochondries malades par celles, saines, d'une donneuse permettrait, selon la BBC, d'aider quelques 150 familles par an en Grande-Bretagne.

 

 

ovocyte parents

Réserves éthiques, médicales, légales et sociales

Parmi les réserves évoquées lors des débats à Westminster, les questions éthiques se sont bousculées. Les opposants craignent en effet qu'une telle autorisation ouvre la porte à d'autres types de manipulations génétiques, avec un risque de dérive eugéniste, disent-ils. Certains s'interrogent aussi sur l'identité de l'enfant. Et quel sera le statut de la donneuse? La régulation votée ce mardi assure que cette dernière ne sera pas traité comme un parent... mais que ce passera-t-il dans les faits? Les Eglises catholique et anglicane d'Angleterre ont elles aussi émis des réserves et l'opinion publique y est en majorité défavorable: 41% des personnes interrogées par l'institut ComRes sont contre pour un changement de la loi sur l'embryologie et la fertilisation humaine, qui date de 2008, tandis que 20% sont pour.

Le manque de recul lié à ces techniques pose également question, avec un risque inconnu pour les bébés concernés et leurs descendants. «Nous ne connaissons pas encore l'interaction entre les mitochondries et l'ADN nucléaire. Dire que c'est comme changer une pile est trop simpliste, c'est beaucoup plus compliqué», explique ainsi le Dr Trevor Stammers, de l'Université St Mary de Twickenham, dans le Daily Telegraph. Ces procédés n'ont jusqu'à présent été testés que sur des animaux, et beaucoup de questions restent en suspens. «Je pense qu'il nous manque des données scientifiques pour envisager un passage chez l'homme alors que des alternatives existent pour dépister ces maladies rares», a déclaré mardi à l'AFP le professeur René Frydman, père scientifique du premier bébé éprouvette français, qui préfère développer l'alternative du diagnostic préimplantatoire (DPI) consistant à détecter des anomalies génétiques ou chromosomiques dans les embryons après fécondation in vitro.

Deux ou trois parents?

Le débat éthique achoppe aussi sur la notion d'«enfant à trois parents». Car les mitochondries contiennent elles aussi un peu d'ADN, distinct de celui contenu dans le noyau de l'ovocyte. Lors d'une fécondation classique, le père transmet son seul ADN nucléaire (du noyau) tandis que la mère transmet du nucléaire, mais aussi un peu d'ADN mitochondrial. Un génome certes très réduit: seulement 37 gènes mitochondriaux chez l'humain, contre plus de 20.000 pour l'ADN nucléaire. Parler d'enfant à trois parents n'a donc pas de sens, estime le ministère de la Santé britannique :  «L'enfant aura l'ADN nucléaire (99,9 %) venant du père et de la mère et l'ADN mitochondrial (0,1 %) venant de la donneuse.» Manipuler l'ADN mitochondrial ne permettrait donc pas de choisir la couleur des yeux, l'intelligence ou les goûts de son bébé, mais simplement de lui octroyer des cellules dotées d'un «moteur» en bon état de fonctionnement. Afin d'éviter toute dérive, Londres se veut très clair: la technique ne sera pas utilisée pour pallier des problèmes de fertilité, mais seulement pour les personnes ayant développé des maladies mitochondriales sévères.

La HFEA, autorité chargée d'encadrer les FIV en Grande-Bretagne, répète pour sa part que des recherches plus approfondies sont encore essentielles avant de mettre en place ces pratiques. Si la modification de la loi est adoptée, les femmes qui voudront en profiter devront d'abord obtenir l'autorisation de ce organisme. Les premiers bébés nés de cette technique qui combinera les ADN de deux femmes et un homme, pourraient ensuite naître dès l'automne 2016.


 

Croire en Dieu au XXIe siècle - La conviction des scientifiques

 

6612654-9974684

« La probabilité que notre univers soit issu du hasard est comparable à celle d'un archer réussissant à planter sa flèche au milieu d'une cible carrée de 1 cm de côté et située à l'autre bout de l'univers. » Trinh Xuan Thuan (Astrophysicien)

 Le titre assez provocateur est là pour attirer l'attention sur le débat sur l'existence de Dieu dans ce XXIe siècle où la science réalise des prouesses et où l'homme est de plus en plus barbare. « Si Dieu n'existe pas, alors tout est permis. » écrivait Dostoyevski dans les « Frères Karamazov » Pourtant, des scientifiques et non des moindres ne confondant pas leur travail scientifique avec leur conviction personnelle sont dans le doute. Beaucoup d'entre eux ont fait le saut. Ils revendiquent leur croyance en un « principe créateur » qui règle d'une façon parfaite le mouvement de l'Univers.

 Il est vrai que plus on plonge dans l'infiniment petit, plus on trouve que les limites nous échappent, Plus on plonge dans l'infiniment grand, on s'aperçoit que la Terre est une poussière dans le tohu-bohu, une sorte de chaos initial universel que Dieu a mis en ordre. De l'infiniment petit à l'infiniment grand, l'homme se donne un sentiment de puissance bâti sur du vent et chaque événement survenu le remet à sa place. Le mythe de Prométhée a toujours accompagné l'homme ce tard venu dans la création, dans sa folie des grandeurs insultant de ce fait, l'ordre harmonieux du monde qui fait que chaque astre tourne sur une orbite et il suffirait d'une petite erreur dans « les calculs », dans la précision des vingt constantes universelles pour que le système de l'univers tel que nous le voyons n'ai jamais paru. Et pourtant, il est là disent les physiciens, depuis le big bang il y a 15 milliards d'années.



Ce que dit la Physique :

 

On sait justement que le big bang nous a fait découvrir une histoire imprévue et fantastique. Il a eu une naissance, grandiose, il grandit maintenant, et peut-être connaîtra-t-il un jour la vieillesse, et la mort. L'histoire connue commence alors que l'univers avait déjà atteint l'âge de 10-43 secondes. le temps de Planck. Avant, on ne sait rien. Cette période inconnue est d'une brièveté inouïe : A cet « âge » de 10-43 secondes l'Univers était vraiment tout petit : il était alors des millions de milliards de fois plus petit qu'un atome ! Il était chaud, une fièvre gigantesque, cosmique ! Des milliards de milliards de degrés ! Puis, pour une raison inconnue, que les scientifiques ne s'expliquent pas, le vide si vivant s'est mis à enfler. C'est comme si quelqu'un a donné le signal du début. En moins de temps, nous dit Françoise Harrois-Monin, qu'un battement de cil (entre 10-43 et 10-32 seconde), son volume a été multiplié par 1050 ! Et sans que l'on sache pourquoi, sont apparues les premières particules de matière. Après cette barrière fatidique des trois cent mille ans, des nuages de gaz se sont formés. Ils donnèrent naissance aux milliards de galaxies pendant près de 15 milliards d'années. Une minuscule poussière - Notre Terre - en faisait partie. (1)

 Le « visage de Dieu » ? C'est l'expression qu'utilisa l'astrophysicien George Smoot (prix Nobel 2006) lorsque le 23 avril 1992, il réussit, grâce au satellite Cobe, à prendre des photos de la naissance de l'Univers tel qu'il émergeait des ténèbres cosmiques tout juste 380.000 ans après le big bang. Depuis, cette expression a fait le tour du monde. Les frères Bogdanov, auteurs d'un ouvrage : « Le visage de Dieu », résument pour Anne Catherine Renaud leur ouvrage : Oui, Dieu existe. L'image d'un ordre extrêmement précis est associée à la première lumière qui précède le big-bang. Robert W.Wilson tout à fait par hasard, en 1965, a découvert le rayonnement fossile, qui est l'écho de l'immense explosion originelle.(2)

 Cette réflexion élégante du mystère de l'harmonie de l'univers nous est donnée par une série d'entretiens du philosophe Jean Guitton avec les deux astrophysiciens biens connus Igor et Grichka Bogdanov. Ecoutons-les : « Rappelons-nous que la réalité tout entière repose sur un petit nombre de constantes cosmologiques : moins de quinze. Il s'agit de la constante de gravitation, de la vitesse de la lumière, du zéro absolu, de la constante de Planck, etc. Nous connaissons la valeur de chacune de ces constantes avec une remarquable précision. Or, si une seule de ces constantes avait été un tant soit peu modifiée, alors l'univers - du moins tel que nous le connaissons -, n'aurait pas pu apparaître. Un exemple frappant est donné par la densité initiale de l'univers:si cette densité s'était écartée un tant soit peu de la valeur critique qui était la sienne dès 10-35 seconde après le big bang, l'univers n'aurait pas pu se constituer. Aujourd'hui, le rapport entre la densité critique de l'univers et la densité critique originelle est de l'ordre de 0,1 ; or il a été incroyablement près de 1 au départ, jusqu'à laquelle nous remontons. L'écart avec le seuil critique a été extraordinairement faible (de l'ordre de 10-40) un instant après le big bang de sorte que l'univers a donc été « équilibré » juste après sa naissance. Ceci a permis le déclenchement de toutes les phases qui ont suivi. »(3)

 Ceci rejoint la probabilité de l'astrophysicien Trinh Xuan Thuan cité plus haut. De plus, « l'origine de la vie, déclare Francis Crick, prix Nobel de Biologie, paraît actuellement tenir du miracle, tant il y a de conditions à réunir pour la mettre en oeuvre ». Nous sommes donc en présence du mystère de la création de l'Univers, de la vie sous toutes ses formes et de l'avènement de l'homme ce tard venu dans l'échelle du temps. De même, George Ellis, astrophysicien anglais avoue que l'ajustement si précis des lois de l'univers est un miracle : ´´Un ajustement stupéfiant se produit dans les lois de l'univers, rendant la vie possible. En réalisant cela, il est difficile de ne pas utiliser le terme ´´miracle´´ sans prendre position sur le statut ontologique de ce monde´´ (G.Ellis, le principe anthropique) Enfin, Paul Davies, célèbre astrophysicien britannique, s'émerveille lui aussi de l'ajustement de cette horloge : ´´Il y a pour moi des preuves très fortes que quelque chose se passe derrière tout ça...on a l'impression que quelqu'un a ajusté ces nombres des lois de la nature afin de créer l'univers...la sensation d'un dessein intelligent est débordante´´ (P.Davies, l'empreinte cosmique, p.203.)

 

 

Ce que disent les scientifiques de l'existence de Dieu :

 

On dit que beaucoup de scientifiques ont un rapport à Dieu de plus en plus net car basé sur une foi qui n'est pas celle du « charbonnier ». Pour l'écrivain Jim Holt dans son livre ´´La Science a ressuscité Dieu´´, il écrit : « Je me rappelle avoir vu il y a quelques mois un sondage dans le magazine scientifique « Nature » qui indiquait que presque la moitié des physiciens, biologistes et mathématiciens américains croyaient en Dieu, et pas seulement en une abstraction métaphysique mais en une entité qui se soucie des affaires humaines et qui entend nos prières, c'est-à-dire le Dieu d'Abraham, d'Issaac et de Jacob » www.thesigns.fr 25 Août, 2011 (4)

Ainsi, même si « on a longtemps pensé que la science allait chasser la fonction religieuse, c'était une erreur », comme le souligne l'astrophysicien Hubert Reeves. On rapporte l'angoisse d'Einstein qui n'hésitait pas à écrire que « la science s'arrête aux pieds de l'échelle de Jacob ». Si Einstein est respecté et écouté, il n'en est pas moins, à la fin de sa vie en butte aux jeunes physiciens qui proposent une théorie basée sur les incertitudes (Heisenberg, Bohr). Einstein n'adhère pas à cette vision probabiliste de la réalité. Pour lui, Dieu ne joue pas aux dés. Il refuse que le résultat d'une expérience ne puisse être unique et prédit avec certitude.

Dans ce qui suit nous allons rapporter, et sans être exhaustif les réflexions de scientifiques connus. Le savant anglais Sir William Herschel (1738-1822), fondateur de l'astronomie stellaire écrit :»Plus le domaine de la science s'étend, plus nombreux deviennent les arguments puissants et irréfutables prouvant l'existence d'un Créateur éternel à la puissance illimitée et infinie. Les géologues, les mathématiciens, les astronomes et les naturalistes ont tous collaboré à bâtir l'édifice de la science qui est, en vérité, le socle de la Grandeur suprême de Dieu l'unique » (4)

 Le plus grand nom de la bactériologie, Louis Pasteur affirme : « Un peu de science éloigne de Dieu, mais beaucoup y ramène. » William Thomson (1824,1907) fondateur de la thermodynamique, disait : « La science affirme positivement l'existence d'un pouvoir créateur qu'elle nous pousse à accepter comme un article de foi. » il dit aussi : « Ne soyez pas effrayés d'être des penseurs libres. Si vous pensez suffisamment fort, vous serez contraints par la science à croire en Dieu. » Thomas Edison (1847,1931) celui qui inventa l'ampoule electrique affirme : « J'admire tous les ingénieurs, mais surtout le plus grand d'entre eux : Dieu ! ». (4)

Anthony Flew est un des plus grands philosophes athées de ce siècle, il a choisi l'athéisme à l'âge de 15 ans, et après l'avoir défendu pendant plus de 54 ans, à 81 ans il annonce avec regret : « Comme les gens ont été certainement influencés par moi, je veux essayer de corriger les énormes dommages que j'ai dû occasionner. » Il affirme, expliquant les raisons de son retour : « Les recherches des biologistes sur l'ADN ont montré, par la complexité presque inconcevable des arrangements nécessaires pour produire [la vie], qu'une intelligence devait nécessairement être impliquée. » Max Planck, physicien allemand fondateur de la physique quantique moderne disait : « Toute personne s'intéressant sérieusement à la science, quel que soit le domaine, lira les inscriptions suivantes sur la porte du temple de la connaissance : « Crois. » La foi est une caractéristique dont ne peut se passer un scientifique. » (Max Planck, Where Is Science Going ?, Allen & Unwin, 1933, p. 214 (4)

Ancien directeur à la Nasa, l'homme qui a fait alunir Armstrong, Werner Von Braun a déclaré : « On ne peut être confronté à la loi et à l'ordre de l'univers sans conclure qu'il doit exister une conception et un but derrière tout ça... Plus nous comprenons les complexités de l'univers et ses rouages, plus nous avons des raisons de nous étonner de la conception inhérente qui le sous-tend... Etre forcé de ne croire qu'en une seule conclusion - que tout dans l'univers soit apparu par le fait du hasard - violerait l'objectivité de la science elle-même... Quel processus aléatoire pourrait produire le cerveau d'un homme ou le système de l'oeil humain ?... » (Dennis R. Petersen, Unlocking the Mysteries of Creation, Creation) (4)

Dembski, un des savants mathématiciens renommés de notre époque, souligne que la science est une tentative pour comprendre le monde : « Le monde est la création de Dieu, et les savants dans leur compréhension du monde reconstituent simplement les pensées de Dieu. Les savants ne sont pas des créateurs mais des découvreurs... La chose importante concernant l'acte de création est qu'elle révèle le Créateur. L'acte de création porte toujours la signature du Créateur. » (William Dembski, The Act of Creation)

Enfin, le physicien Mehdi Golshani, de l'Université de Technologie Sharif à Téhéran, dans une interview à Newsweek, a souligné sa croyance en Dieu et que la recherche scientifique complète la religion : « Les phénomènes naturels sont les signes de Dieu dans l'univers et les étudier est pratiquement une obligation religieuse. Le Coran demande aux humains de « parcourir la terre, et de voir comment Il a initié la création ». Les recherches sont un acte d'adoration, puisqu'elles révèlent les merveilles de la création de Dieu. « Science finds god news week 20 July 1998 » (4)



Dieu pour les philosophes :

 

Les philosophes sont en première ligne de par leur vocation à s'interroger sur l'existence ou non de Dieu. Peut-on décider qu'un événement est bon ou mal. Si « Mais alors, que deviendra l'homme, sans Dieu et sans immortalité ? Tout est permis, par conséquent, tout est licite ? » Personne n'a rien à nous dire sur notre manière de vivre. En effet, s'il n'y a pas de Dieu, alors il n'y pas de règles objectives qui dictent ce qui est bon ou mauvais. Par conséquent, dans un monde sans Dieu, qui est en droit de dire ce qui est bien ou mal ? Est-ce par exemple par hasard que l'univers s'est formé ?

 Pour le philosophe Jean Guitton : « (...) Ni les galaxies et leurs milliards d'étoiles, ni les planètes et les formes de vie qu'elles contiennent ne sont un accident ou une simple « fluctuation du hasard. » Nous ne sommes pas apparus « comme ça », un beau jour plutôt qu'un autre, parce qu'une paire de dés cosmiques a roulé du bon côté. Pour les frères Bogdanov : les lois de probabilité indiquent que ces ordinateurs devraient calculer pendant des milliards de milliards d'années, c'est-à-dire pendant une durée quasiment infinie, avant qu'une combinaison de nombres comparable à ceux qui ont permis l'éclosion de l'univers et de la vie puisse apparaître. Autrement dit, la probabilité que l'univers ait été engendré par le hasard est pratiquement nulle.(...) » (3)

 Jean-Paul Sartre (1905-1980) est un philosophe et écrivain français qui reçut le prix Nobel de littérature en 1964. Il est considéré comme étant le fondateur de l'existentialisme athée, un courant de pensée et une forme d'athéisme qui aborde et la question de l'existence de l'Homme sans référence à un être divin et qui prétend que Dieu et la nature humaine sont des concepts inéxistants. Vers la fin de sa vie, Jean-Paul Sartre s'est mis à reconnaître l'existence d'un créateur.

 Voici ci-dessous ce que rapporte le magazine américain « National Review » (Examen National) le 11 juin 1982. L'article a été écrit par Thomas Molnar, professeur de littérature française à l'université de Brooklyn : Au printemps1980 un mois avant sa mort, le Nouvel Observateur publie une série d'interviews que Sartre a eues avec l'un de ses amis, Pierre Victor (Benny Levy) « Je ne pense pas être le résultat d'un pur hasard de simple poussière de l'univers mais plutôt quelqu'un qui était attendu, préparé, en bref, un être que seulement un créateur aurait pu créer et cette idée d'une main créatrice se réfère à Dieu. » Après sa mort, sa compagne Simone de Beauvoir publie la « cérémonie des adieux » dans laquelle elle attaque Sartre « Tous mes amis, tous les sartriens me supportent dans ma consternation » (5).

 Enfin, il faut mentionner à en croire les éditeurs du magazine « Wired », qui rapportent en 1996 qu'en réalité, Jean-Paul Sartre se serait converti au judaïsme probablement influencé par son ami et confident Benny Levy, juif orthodoxe (6).

 Il y aurait de fait un consensus des scientifiques sur l'existence d'un horloger transcendant réglant l'univers et de ce fait observant les actes des humains qui ont le vertige de la puissance, eux qui ne sont qu'une poussière dans l'espace et un battement de cils dans le temps de la civilisation humaine dont l'homme est à tort si imbu. Il reste que le Dieu des scientifiques amène à une foi plus forte et plus assumée d’autant qu’elle ne sert pas de faire valoir ni en science encore moins en politique . L’Abbé Lemaitre, l’un des pères du Big bang,  la théorie de l’Expansion de l’Univers, avait l’habitude de dire : « quand je rentre au Laboratoire je laisse ma soutane au vestiaire ». Tout est dit.

 

 

Les scientifiques confirment les signes de dieu



Comme nous avons pu le constater à travers les article précédent, la science ne fait que confirmer la foi en dieu et défaire les allégations matérialistes. Un autre point marquant cette réalité :le grand nombre de savants qui ont apporté d'importantes contributions à la science et qui avaient une foi enracinée en l'existence du créateur et son unicité .
Dans la suite de cet article vous pourrez nous allons présenter des savants du passé et du présent et présents, qui ont fondé et développé la science moderne, et qui croyaient que l'univers et toutes les formes de la vie étaient créés par Dieu.

Louis Pasteur

Le plus grand nom de la bactériologie , Louis Pasteur affirme : « Un peu de science éloigne de Dieu, mais beaucoup y ramène. »   il affirme aussi , faisant allusion aux athées :  «Tant pis pour ceux dont les idées philosophiques sont gênées par mes études»




 

Einstein


Albert Einstein disait:
« Je n'arrive pas à concevoir un scientifique dépourvu d'une foi profonde. Ceci pourrait être formulé de la façon suivante: il est impossible de croire à une science sans religion. »

Anthony flew


Anthony flew est un des plus grand philosophes athées de ce siècle , il a choisi l'athéisme à l'age de 15 ans , et après l'avoir défendu pendant plus de 54 ans , aujourd'hui à 81 ans il annonce avec regret :
« "Comme les gens ont été certainement influencés par moi, je veux essayer de corriger les énormes dommages que j’ai dû occasionner." »
Il affirme , expliquant les raisons de son retour :
« "Les recherches des biologistes sur l’ADN ont montré, par la complexité presque inconcevable des arrangements nécessaires pour produire [la vie], qu’une intelligence devait nécessairement être impliquée. »

Max Planck


Max Planck, physicien allemand fondateur de la physique moderne disait:
« Toute personne s'intéressant sérieusement à la science, quel que soit le domaine, lira les inscriptions suivantes sur la porte du temple de la connaissance: "Crois." La foi est une caractéristique dont ne peut se passer un scientifique. »Max Planck, Where Is Science Going?, Allen & Unwin, 1933, p. 214

 

1. Chems Eddine Chitour : Science, foi et désenchantement du monde. Réed. OPU 2007

2. Anne-Catherine Renaud : Les frères Bogdanov : « Le visage de Dieu » Le Matin 05.06.2010

3. Jean Guitton, Igor et Grichka Bogdanov. Dieu et la science, Entretiens Ed Grasset 1991.

 

 

www.youtube.com/embed/vK-v1MRl5Wc    "sands of time"

(la qualité du message excuse les fautes d'orthographe -BM-)

 

message de Hubert Déchy 

"Le problème n'est pas tant l'existence de Dieu que les conséquences de ce choix possible mais non obligatoire : faut-il autant investir dans les lieux de culte : objets en or, églises somptueuses, fêtes multiples et couteuses? Faut-il lier religions et politique dans des guerres sans fin autour des lieux saints? D'où les hommes tirent-ils ce besoin de rendre ce débat au sujet de Dieu aussi polémique? Après tout, si Dieu existe, il doit être UN quels que soient les cultes, ou un concept pas forcément à forme humaine puisque celle-ci ne semble pas exister en dehors de la Terre : un nuage? Une étoile? Une galaxie? Peu importe, mais ne tuons plus au nom de Dieu! Surtout aujourd'hui 7-1-2015."


 

Misonéisme (néophobie)

Une récente étude scientifique britannique a démontré que la zone du cerveau responsable de la mémoire spatiale, l'hippocampe, était significativement plus développée chez les conducteurs de taxis qui n’utilisent pas de GPS. Ils ont une hippocampe plus développée.

L’hippocampe est une structure en forme recourbée, comme l’animal, impliquée dans les processus de mémoire, en particulier de mémoire spatiale. C’est le siège de nombreux phénomènes de plasticité, qu'il s'agisse de neurogenèse ou naissance de nouveaux neurones, ou de changements morphologiques dans les "synapses", ce qui fait le contact entre les neurones. Indispensables  pour l'apprentissage et la mémoire.

Cette constatation faite chez les chauffeurs de taxi en apparence ne nous apprend rien de nouveau. C’est une chose qu’on sait bien : l’exercice quotidien de la mémoire, vivement sollicitée un grand nombre de fois par jour, l’entretient et contribue même à la développer. On le sait, puisqu’on recommande aux personnes âgées d’ « entretenir » leur mémoire pour éviter la dégradation de leur cerveau.

Mais l’autre conséquence de cette observation est beaucoup plus importante. Elle porte sur l’effet inverse : utiliser un GPS au lieu de mémoriser des trajets, aurait ainsi pour effet d’atrophier l’hippocampe. Ça, c’est grave ! Le GPS ou certaines machines d’enregistrement ou de calcul en se substituant au travail de nos neurones, conduirait à les atrophier ou à en diminuer le nombre.

Beaucoup de gens, qui sont fous de la modernité et de ses inventions vont s’agiter en entendant cela, et s’agacer. Est-ce que ce ne serait pas une manière bien connue  de refuser le progrès, les machines, et notamment les techniques modernes de communication ? Est-ce que ce ne serait pas en somme une forme actuelle de ce qu’on appelait autrefois le « misonéisme », ou refus de ce qui est nouveau ? Le psychanalyste Carl Young utilise ce mot pour désigner la résistance à ses propres théories, qu’il jugeait donc très sévèrement. « C’est cela le misonéisme, écrit-il, une peur profonde, superstitieuse, de la nouveauté » Typique, dit-il des « primitifs »

Tel est exactement le raisonnement des grandes compagnies soucieuses d’un profit toujours croissant quand elles nous suggèrent que nous ne pouvons vivre sans toute une série de prothèses techniques censées améliorer nos performances. Et que nous sommes donc des misonéistes, des conservateurs attardés quand nous tirons la sonnette d’alarme devant certains effets..

Il ne faut pas se laisser intimider par ce raisonnement. Il ne s’agit pas du tout de misonéisme dans cette inquiétude devant le GPS ou la calculette. Il s’agit de tenir bon devant un usage excessif et inutile de certaines « prothèses » techniques. Tout est une question de degré, donc d’une mesure à garder : oui, évidemment l’ordinateur multiplie notre puissance de calcul. Qui songerait à le refuser ? Mais pour multiplier 12 par 345, il vaut mieux connaître les règles du calcul mental. C’est meilleur pour notre cerveau.


 

 

 

Histoire d’un adage : Guérir parfois, soulager souvent, écouter toujours.Citation attribuée à Ambroise Paré, à Pasteur ou à Hippocrate…

 Jean-pierre Polydor
 


Un acte symbolique fort qui nous tous marqué. Nous étions de jeunes internes contestataires, cheveux longs, tee-shirts Che Guevara et jeans délavés. On nous met une robe noire à jabot, nos professeurs ont leurs robes à hermine, accoutrement dont nous nous moquions la veille. Le silence, la gravité du moment, le rituel solennel nous imprègne, on se sent, en un instant, inscrit dans la perspective d’une histoire très ancienne qui convoque des valeurs fondamentales immuables, qui transcendent les époques et leurs valeurs, leurs idées, leurs conceptions fugaces. Après les commentaires sur notre thèse et quelques éloges parfois immérités sur notre parcours d’étudiant et d’interne, arrive le moment du serment, depuis la plus haute antiquité, même sous les régimes théologiques les plus intolérants au regard du monothéisme, nous jurons « par tous les dieux », symbole de l’intemporalité de l’Art de soigner. Soigner, pas guérir. Nulle part, dans le serment d’Hippocrate il n’est question de guérir. Ce n’est pas un oubli. C’est la manifestation de notre humilité. On soigne et on espère. On a des statistiques qui nous disent qu’on guérit x % de cancers, d’infections urinaires ou de pneumonie. On ne peut jamais garantir la guérison même pour la plus bénigne des affections. Juridiquement, on ne nous condamnera jamais si nous avons échoué à guérir alors que nous avons mis en oeuvre les moyens adaptés, selon les meilleurs critères de la science, pour soigner le mal.


La médecine préventive, y compris dans l’antiquité, fut toujours considéré comme fondamentale, il vaut mieux prévenir que guérir comme le dit l’adage populaire. On soigne pour limiter des risques, en traitant l’HTA on sait qu’on aura moins d’infarctus. On conseille des règles de vie, par des examens de dépistage on détecte des maladies à des stades où on peut presque toujours les guérir.


Mais guérir à tout coup est une promesse que nul médecin ou chirurgien ne peut exprimer car il ne peut rien garantir sans mentir. On ne peut vous garantir que vous n’aurez plus jamais mal au dos ni de sciatique en vous otant une hernie discale, dire cela est considerer la cause comme une mécanique simple, comme changer une pièce sur votre aspirateur. Or, par exemple, dans ce cas précis, dans les mois qui suivent la courbure progressive de votre colonne va changer et peut, mais ce n’est obligatoire, occasionner des nouvelles douleurs. Le raisonnement un peu simpliste, il y a une cause, je l’enlève, vous êtes guéri ne peut pas être dit par un chirurgien intelligent. On peut être considéré comme guéri si rien ne se produit dans les suites, y compris quand on ôte une tumeur, mais nul ne peut le garantir avant ou juste après une opération et jamais avant un délai assez long en général.


Le pouvoir de soigner est une activité dont nous ne prenons la mesure qu’après des années de pratique, de confrontation à la difficulté, à la souffrance d’autrui et de nos propres souffrances, à nos échecs, nos erreurs, notre impuissance face à la force de certains maux et aux limites de la science.Après une réflexion sur ces limites et un vécu qui fait sédimenter nos expériences lumineuses de vies sauvées et traumatisantes de vies perdues. 

 

Soigner est un grand pouvoir. C’est un acte technique, de plus en plus technique car la science nous donne de nouvelles armes toujours plus performantes d’années en années. Mais c’est aussi un acte qui touche au sacré car de lui dépend la vie de chaque jour, la qualité de la vie physique et psychologique, la souffrance, la mort aussi. Ce pouvoir crée un respect chez nos patients, un respect que tout médecin, même celui qui feint le cynisme style Dr House, prend à coeur de respecter... nous passons des années à nous consacrer à ingurgiter des sommes de connaissances et à apprendre de nombreuses techniques. C’est difficile, un grand pouvoir exige un sacrifice : notre jeunesse. Mais nous le faisons sans nous plaindre car nous avons une compensation nécessaire, la décompression de la vie truculente de carabin adeptes de Rabelais et surtout nous sommes confrontés à un absolu qui rend toute chose dérisoire : la souffrance, le handicap et la mort. Et ces trois piliers de la fragilité de l’existence font trois victimes : la personne malade, sa famille et la société.


Le soin ne comprend pas juste cette connaissance du bon médicament pour la bonne maladie... Soigner inclut aussi une instance de discussion et d’échange, de compassion. L’empathie est, elle aussi, un "soin" en soi... un malade est, in fine, diminué physiquement et il est touché ou fragilisé psychologiquement, il a besoin de se sentir pris en charge et soutenu, pour espérer sa guérison... Idéalement, il participe à sa prise en charge, à son traitement. Passer du temps pour expliquer et écouter est donc un bon investissement pour mieux traiter. La maladie est un traumatisme de l’âme. Pour que le malade soit sur la voie de la résilience, de la reconstruction, il a besoin de tuteurs de résilience, qui vont l’aider à faire grandir sa nouvelle représentation des évènements. Et parmi ces tuteurs de résilience, outre les proches, le médecin est essentiel. L’alliance thérapeutique rassemble le médecin, le malade, les proches pour que les soins techniques soient plus efficaces, acceptés, que l’adhésion du malade soit totale car il en comprend les enjeux. Mais aussi pour que sa vie soit changée, qu’il accepte la vulnérabilité de son corps, la finitude de son être, dans un monde qui croit que le corps est un robot qu’on peut toujours réparer, que la jeunesse ne finira pas et que la mort est virtuelle, quesa propre mort est virtuelle.


Guérir, vivre diminué ou mourir ne sont pas des théories lointaines. La seule certitude est d’être soumis à au moins 2 d’entre elles.

 

 La mort est désormais totalement, presque excessivement, médicalisée. On demande logiquement à la médecine d’adoucir la mort comme elle a adouci la vie, redoutant bien sûr l’acharnement thérapeutique et refusant que cette médecine trop technique vole ces derniers instants, à nous-mêmes ou à ceux que nous aimons.
Dans nos sociétés éblouies par les prouesses de la médecine, le caractère inévitable de la mort est encore tabou. Le vaste problème de la fin de vie est souvent abordé de manière binaire, sous le seul angle de l’euthanasie ou du « droit à la mort », de sorte que sont niées à la fois sa complexité et la diversité des situations humaines rencontrées.


Se replacer dans une perspective historique de l’acte de soigner n’est pas vain. Quand a-t-on commencé a soigner ? Quelle fut l’évolution de la pratique et peut-on en déduire quelque chose sur l’espoir de guérir ?


Le docteur des cavernes pratiquait déjà la neurochirurgie. On a retrouvé des cranes trépanés à la préhistoire et on sait que les patients ont survécus des années car l’os s’est reformé ! Ce niveau de technique laisse penser que dès la préhistoire, on traite avec ce qu’on trouve dans l’environnement.
Ceci se prolonge : les égyptiens extraient l’aspirine du saule d’où son nom de salicylate, ils opéraient la cataracte et les hématomes cérébraux. Le vaudou, héritage des rites africains, se sert du datura, qui contient un analogue de la Dopa, hallucinogène, pour entrer en contact avec les esprits en s’enduisant la peau : la forme transcutanée des dopaminergiques ne sortira qu’en 2010 pour le Parkinson. Les animaux ? La sangsue sécrète la hyaluronidase qui dissout les caillots et traite les infarctus cardiaques et cérébraux ce que la science moderne ne fera que dans les années 80. Les minéraux ? On utilise des sables, des roches réduites en poudre, et de nos jours le Lithium traite les psychoses bipolaires… Dans l’antiquité Galien invente le remède miracle, la panacée universelle, un mélange de 64 ingrédients: la thériaque. En 1886 Pemberton, un pharmacien d'Atlanta (Géorgie), invente une nouvelle potion « guérit tout ». Un mélange de noix de kola, sucre, caféine, quelques feuilles de coca et d’autres extraits végétaux. La boisson est en vente à la « soda-fountain » de la Jacob's Pharmacy. Un serveurd ilue le sirop avec de l'eau gazeuse : succès immédiat ! Le Coca-Cola est né. Pemberton s’est-il inspiré du vin Mariani, un vin corse auquel Mariani avait ajouté de la cocaïne ? Le Vidal du 13ème siècle est un traité Byzantin, de Nicholas Myrepsos. Il restera le codex pharmaceutique de la faculté de médecine de Paris jusqu'en 1651.


Quant aux Arabes de l’époque, ils connaissaient les antibiotiques ! Ils prélevaient la pénicilline sur les harnachements des ânes et des buffles et en faisaient une pommade qu'ils appliquaient sur les plaiesinfectées et pour soigner une laryngite, ils en soufflaient dans la gorge du malade.
La médecine est moquée par Molière dans ses pièces, Médecin malgré lui, Le malade imaginaire… un dieu taquin le fait mourir en scène !
De fait, trois grandes méthodes règnent : le clystère, puis saigner et enfin purger… La purge a un adepte : Jean de La Fontaine. Il écrit :


« Rien ne sert de courir : il faut partir à point.
Le lièvre et la tortue en sont un témoignage.
Gageons, dit celle-ci, que vous n'atteindrez point
Sitôt que moi ce but. Sitôt ! Etes-vous sage ?
Repartit l'animal léger : Ma commère, il vous faut purger
Avec quatre grains d'ellébore. »
Ah ! l’éllébore


En 1800, le Dr Hahnemann décide de tester, alors qu’il n’était pas malade, la quinine sur lui-même ! Ilconstate que les effets secondaires, fièvre, sueurs, sont les mêmes que ceux de la malaria. Il en déduit que l'action d’une molécule pouvait reposer sur la similarité entre les symptômes de la maladie et ses effets secondaires produits par le médicament. D'où découle la première loi de l'homéopathie : « les semblables guérissent les semblables ». Hahnemann nomma cette nouvelle thérapie « Homéo » (semblable) « pathie » (souffrance). La méthode doit être efficace puisqu’il mourût à 88 ans à une époque où l’espérance de vie était de 33 ans…
Le film « vol au dessus d’un nid de coucou ». Le portugais Egas Moniz (1874-1955) invente en 1936 la psychochirurgie ou lobotomie. Sa méthode ? La destruction de certaines zones du lobe frontal. Moniz reçu le prix Nobel en 1949. Il mourut assassiné par un patient qu’il avait donc échoué à rendre heureux… Le Pr Benabid invente la neurochirurgie fonctionnelle par stimulation électrique pour traiter le Parkinson. Benabid ouvrait la voie à la psychoneurochirurgie tombée en désuétude après les errements de la lobotomie. Hélas, des dérives se font jour et on voit en Russie des drogués traités par neurochirurgie.


La psychopharmacologie naît avec la découverte en 1952 par Jean Delay (1907-1987) et Pierre Deniker des effets antipsychotiques de la chlorpromazine, et inaugure la classe des neuroleptiques. En 1954, le Suédois Mogens Schou découvre les sels de lithium, premier traitement préventif de troubles mentaux (dans la psychose maniaco-dépressive). Il ignorait qu’un psychiatre français avait déjà publié le résultat du Li dans la PMD…avant de s’adonner à la psychanalyse ! Son absence de renommée avait fait mépriser sa publication.
Toujours, dans les années 1950, sont découverts les premiers antidépresseurs (Imipramine et
Iproniazide en 1957), et les premiers hypnotiques et tranquillisants.


Pour les adeptes de la phytothérapie quelques anecdotes…
Le premier traitement du Parkinson fut la belladone (belle femme en italien) riche en atropine. L'amanite tue-mouche (amanita muscaria) est un joli champignon vénéneux. On le voit sur la couverture de l'album de Tintin « L'ile mystérieuse». Corolle blanche à ronds rouges. Son principal composant est la mycoatropine (atropine de « myco » qui veut dire champignon), présente dans le revêtement coloré du chapeau. En séchant elle se transforme en muscarine, dix fois plus active que l’atropine. Ce champignon, consommé par les rennes, est un puissant hallucinogène très prisé par les chamans des peuples de l'Arctique. On pense d’ailleurs que les rennes du père Noël « croient » qu’ils planent après
avoir absorbé ce champignon d’où la légende… Les toxines de l’amanite provoquent des convulsions suivies d'une sensation d’ivresse puis d'une période de sommeil ou d’état second avec des hallucinations très vives. L’initié se réveille très joyeux et stimulé, en pleine forme. Il ressent toutes choses avec une acuité démultipliée.


Des chercheurs scandinaves ont annoncé avoir réussi à extraire de l'amanite tue-mouche un autre composant, la THIP (tetrahydro-oxalopyridine), susceptible d’applications lors de transplantations cardiaques et en neurologie. La THIP pourrait empêcher la production d'anticorps lors de greffes d'organes et diminuerait donc les risques de rejet.
La datura contient un analogue végétal de la L Dopa, médicament du Parkinson mais dont on se sert dans le vaudou.
Autres plantes utiles…Un de médicaments de la maladie d'Alzheimer est très simplement issu d’une jolie fleur : le perce-neige…
Les anticancéreux ne sont pas en reste, l’if de nos haies donne le Taxol et la petite pervenche de Madagascar, la pervincamine. Quand aux anti-rejets de greffe, ils sont issus d’une moisissure des troncs scandinaves…


L'ergot du seigle est responsable de l'ergotisme, spasme des petites artères qui donnent l'impression que le corps brule: au Moyen Age, surtout dans le Limousin, une épidémie de ces moisissures du seigle donnât ce qu'on appela le « mal des ardents» (brulaient) mais l'église ne l'imputa pas au diable car des prêtres étaient touchés! On chercha donc la cause et c'est le vrai début de la médecine moderne...


 

Man

Frans de Waal, un humaniste chez les singes

 

"Les grands singes sont dotés de valeurs morales"

France Info

http://www.dailymotion.com/embed/video/x1717kn

 

Moral behavior in animals :

TED Talks

(sous-titré en Français)

http://embed.ted.com/talks/lang/fr/frans_de_waal_do_animals_have_morals.html

NE RATEZ PAS LES VIDÉOS DES EXPÉRIENCES CONCOMBRE/RAISIN EN FIN DE CONFÉRENCE !

 

 

 

LE MONDE  Jérôme Grenèche

Nul autre que lui n'a su décrypter les comportements des grands singes pour propose un regard objectif sur les sociétés humaines. Célèbre pour ses recherches sur les chimpanzés et les bonobos, dont il étudie la vie sociale depuis près de quarante ans, Frans de Waal remonte le fil de l'évolution de nos propres comportements. Après la politique, la compétition, la réconciliation et l'empathie, il s'interroge sur les prémices du comportement éthique dans les sociétés de primates dans son nouvel ouvrage, Le Bonobo, Dieu et nous (Les liens qui libèrent, 362 p., 23,80 euros). Son objectif ?Dévoiler la face cachée de notre moralité, qu'il dépeint plus comme le fruit de l'évolution que comme un héritage de la religion. 

Installé aux Etats-Unis depuis 1981 où il enseigne l'éthologie à l'université Emory, Frans de Waal livre une réflexion originale sur la moralité humaine. « Beaucoup d'Américains pensent que le sens moral vient de la religion. Mais il est bien plus ancien puisqu'il est ancré en profondeur dans notre héritage primate », précise le primatologue qui a montré que les gestes de consolation des chimpanzés et des bonobos relevaient en réalité de l'empathie, une aptitude - commune à tous les mammifères - à l'origine de notre moralité.

"COMPRENDRE LES MOTIVATIONS DES PRIMATES"

Membre de l'Académie des Sciences aux Pays-Bas et aux Etats-Unis, Frans de Waal a mené une brillante carrière aux Pays-Bas, dont il est originaire, puis aux Etats-Unis dans plusieurs centres dédiés à l'étude des primates, dont celui de Yerkes près d'Atlanta, qu'il dirige depuis 1997. « C'est un chercheur incroyable qui a une capacité naturelle à comprendre les motivations des primates au-delà de leurs comportements », s'enthousiasme Darby Proctor, sa collègue qui sait à quel point l'éthologue néerlandais a contribué à la façon dont nous percevons les bonobos et les chimpanzés aujourd'hui.

A la fois psychologue théoricien et éthologue de terrain, « il est l'un des rares à avoir combiné vingt ans d'observations de la vie sociale de chimpanzés vivant en captivité ou dans la nature à des expériences qui valident scientifiquement ses idées », note Filippo Aureli, de l'université de Veracruz (Mexique). En tirant profit de ses observations de terrain pour évaluer les aptitudes sociales des grands singes dans des dispositifs expérimentaux adaptés aux primates captifs, Frans de Waal se distingue de primatologues rendus célèbres par leurs études menées en Afrique au coeur de l'habitat des chimpanzés pour Jane Goodall, et des gorilles pour Dian Fossey.

DANS LES PAS DE DONALD GRIFFIN

D'une énergie à toute épreuve, à 65 ans, il fait figure d'exception parmi les primatologues. Car il a été l'un des premiers à suivre les pas de Donald Griffin, le pionnier de l'éthologie cognitive en 1978, en proposant, dès le début des années 1980, cette nouvelle voie d'étude des grands singes qui donnera un nouvel élan à la primatologie. « Pour décrire les comportements des chimpanzés, j'ai dû utiliser des termes qui n'existaient pas dans les livres de biologie», souligne ce chercheur qui cultive l'interdisciplinarité pour mieux examiner les traits génétiques, anatomiques et comportementaux communs aux grands singes et à l'homme. Au point de partager le prix Ig Nobel d'anatomie avec son étudiante Jennifer Pokorny, en 2012, pour leur étude révélant que les chimpanzés reconnaissent aussi leurs congénères à leur postérieur.

Ensuite, plus que les autres, Frans de Waal est un théoricien qui s'est toujours efforcé de vulgariser ses recherches. « Ma double carrière de scientifique et d'écrivain m'a permis d'être connu du grand public et reconnu par mes pairs », confie l'intéressé. Classé parmi les 100 personnalités les plus influentes par le magazine Time en 2007, Frans de Waal n'hésite pas, au fil de ses ouvrages, à se heurter aux a priori dogmatiques pour imposer sa vision fondée sur la biologie évolutionniste et la philosophie.

LES ALLIANCES DES MACAQUES À LONGUE QUEUE

Ses influences, en partie inspirées de ses travaux en éthologie menés depuis les années 1970, remontent notamment à sa rencontre avec Jan van Hooff, éthologue à l'université d'Utrecht, qui lui ouvrira la voie aux émotions des primates. Dès 1975, son mentor lui confiera un projet de six ans, au zoo d'Arnhem, sur la plus grande colonie captive de chimpanzés au monde, en marge de son doctorat en biologie sur les alliances des macaques à longue queue. « Déjà très intéressé par les conflits chez cette espèce, j'ai pu mieux appréhender les alliances chez les chimpanzés », ajoute Frans de Waal, conscient de l'opportunité qu'il a eue d'explorer l'univers émotionnel des primates sociaux.

Et pour cause. Il découvre ensuite que les chimpanzés se réconcilient à l'issue d'un conflit, un comportement pourtant considéré comme une spécificité humaine par de nombreux psychologues de l'époque. Et le jour où deux chimpanzés en tuent un troisième, il comprend, dans la douleur, l'importance de la réconciliation dans la survie de ces grands singes qu'il décide d'étudier en détail avant d'y consacrer son premier livre en 1982, La Politique du chimpanzé (Editions du Rocher, 1992).

OBLIGATIONS MORALES

Frans de Waal y décrit, pour la première fois, « les manoeuvres politiques »utilisées par les chimpanzés pour gravir les échelons de la hiérarchie sociale. « Grâce à sa capacité unique à identifier chez les primates ce que nous voyons en nous, il a montré que la réconciliation, la coopération, l'altruisme et même notre sens de l'équité avaient leurs racines dans leurs comportements », relève Harold Gouzoules, son collègue à l'université Emory. « Il n'a cessé de montrer que les chimpanzés et les autres primates nous ressemblaient plus que ce que l'on pouvait imaginer », conclut Darby Proctor. Sans compter que le risque de  voir disparaître « ces proches cousins » si empathiques nous renvoie à nos obligations morales vis-à-vis d'eux.


 

 

Bâtir une nouvelle société en plaçant l'homme au coeur des débats

André Comte-Sponville - Dictionnaire philosophique

The neurones that shaped civilization

Le cerveau fait de l'esprit

 Vilayanur Ramachandran

 

Enquête sur les neurones miroirs

 

« (…) nous sommes aujourd’hui au même stade que la chimie au XIXe siècle : découvrir les éléments basiques, les grouper en catégories et étudier leurs interactions. Nous cherchons toujours l’équivalent du tableau périodique des éléments, et nous sommes encore loin de la théorie atomique. [1] »

Les questions soulevées par cet ouvrage – consacré en grande partie aux neurones miroirs, mais pas seulement, comme le laisserait un peu faussement croire le sous-titre, (il s’agit en réalité d’une synthèse d’ensemble sur les systèmes d’interactions à la base des phénomènes complexes que sont le langage humain et son origine, le sentiment esthétique, l’autisme ou encore la conscience de soi ), sont nombreuses. Les enjeux en sont la complexité cérébrale humaine, les ressorts de sa plasticité examinés in situe – enquête pour laquelle les neurones miroirs offrent selon l’auteur un fil conducteur inestimable [2]. Considéré par Richard Dawkins comme le Marco Polo des neurosciences, nobélisable depuis plusieurs années, Ramachandran jongle avec les questions et les paramètres, et à la formulation d’hypothèses radicales et tranchées, préfère suivre les méandres des interactions et interdépendances entre phénomènes dans toute leur subtilité : « (…) pourquoi ne pourrions-nous pas être une branche du règne animal et unphénomène unique et glorieusement nouveau dans l’univers ? » [3] Procédant par petites expériences – dont les procédés de vérification sont simples, mais dont on se dit à la lecture qu’il fallait y penser, autant qu’utilisant les moyens techniques de la science lourde, il fournit ici – dans un style qui manque peut-être parfois trop d’unité et de continuité – un ensemble de résultats et de propositions que le philosophe contemporainse doit de connaître, et qui impliquent de fond en compte sa discipline et les questions dont elle s’occupe. Tout chercheur s’occupant de phénoménologie, en particulier, gagnera à l’étudier de près pour y retrouver traités – certes, en miroir – les problèmes les plus classiques de sa pratique et voir réapparaître, transposés, les débats qui l’ont traversée au cours du XXe siècle [4].

Ramachandran insiste sur les discontinuités (entre cerveau humain et cerveau simiesque, entre langage humain et communication animale) et sur la nécessité d’en prendre acte, tout en soulignant bien qu’elles n’impliquent pas d’intervention divine ou d’élection de l’humanité : des changements graduels peuvent engendrer des mutations brutales, d’autant plus quand la complexité des structures est importante lorsqu’un paramètre engendre une rupture de phase globale. Ainsi, le cerveau humain est stable depuis environ 300000 ans, mais une véritable explosion dans la sophistication mentale a eu lieu il y a environ 60000 ans : développement du langage, complexification de la technique, des structures proto-sociales, etc. Le développement d’un élément nouveau peut ainsi entraîner une série de boucles de rétroactions, exprimer des capacités latentes par des phénomènes d’évolution opportuniste (selon les termes de Gould). Pour l’auteur, les neurones miroirs sont capitaux pour comprendre la mise en place de certaines de ces boucles (en particulier : ils permettent une meilleure transmission des capacités ou attitudes acquises par hasard). Il ne faut pas oublier en effet que les systèmes biologiques se caractérisent par unité profonde entre fonction, structure et origine : qu’on ne peut séparer leur architecture fonctionnelle de la façon dont elle est inscrite sur une base déjà existante de structures biologiques (elles-mêmes d’ailleurs émergeant de structures chimiques dotées de leur matérialité propre), ni que l’enchevêtrement du fonctionnel et de ce qui lui sert de base est téléguidé par des nécessités évolutives.

Membres fantômes et cerveaux plastiques

La plasticité n’est pas quelque chose de proprement humain – mais elle est particulièrement développée chez l’humain, en particulier du fait de sa néoténie. Cette plasticité, précisons-le, n’est pas en elle-même, comme on l’entend parfois, une clause de restriction du déterminisme (ni d’ailleurs une réfutation du problème de l’inné) et fonctionne dans le détail de façon parfaitement déterministe. En conduisant (avec d’autres découvertes) à déplacer l’investigation vers la mise à jour de systèmes auto-organisés globaux [5], elle peut certes inciter à raisonner – fut-ce simplement de façon heuristique - en terme de causalité descendante [6] mais c’est une tout autre question.

L’auteur évoque quelques exemples intéressants de plasticité liés au phénomène de membre fantôme ; il s’agit ici en quelque sorte d’une entrée en matière, illustrant la richesse de la problématique des enchevêtrements fonctionnels au sein du cerveau et de la façon dont des expériences simples peuvent en révéler certains mécanismes. En bandant les yeux d’un certain patient et en touchant la partie gauche de son visage avec un coton-tige, raconte-t-il, on provoque une sensation ainsi sur son membre fantôme. Une carte entière, précise et cohérente, peut même être dessinée sur le visage du patient ; il y a en quelque sorte persistance de la carte cérébrale de la main et superposition de celle-ci et d’une partie de celle du visage après amputation. Cette superposition indique-t-elle alors une invasion de la carte du bras par des connexions et signaux de la carte du visage, un renforcement de connexions existaient déjà avant ?

Les cas de « membres fantômes » mobilisent entre autres la question de la coordination des signaux moteurs envoyés aux muscles et des signaux sensoriels émanant de la peau, des yeux, par les lobes pariétaux : en cas de membre fantôme, aucun feed-back sensoriel ne peut corriger l’impression de mouvement qui persiste dès lors. Certains patients signalent même une impression de paralysie du membre fantôme (de patients ayant souffert de telles paralysies avant l’amputation, celle-ci semblant avoir été « apprise », puis transmise au membre fantôme. L’auteur montre alors qu’un traitement peut-être mis au point en redonnant au patient l’impression d’avoir deux mains grâce à un miroir et en « rééduquant » le membre fantôme (le coordonnant, dans un premier temps, les signaux moteurs et les influx sensoriels, pour ensuite procéder à une sorte d’amputation du membre fantôme sur le Leib. La façon cependant dont, par le jeu du miroir, un membre peut être pris pour le membre fantôme par le cerveau atteste de fortes capacités d’imitation en lui, et de leur importance pour son fonctionnement.

Voir et savoir

Les humains ont une trentaine d’aires visuelles, un système particulièrement développé : l’indépendance des doigts, les pouces opposables et la coordination visuelle importante que nécessite l’utilisation de l’outil main a sûrement joué un rôle important dans le développement et la spécialisation de ces aires visuelles, note l’auteur, par ailleurs interconnectées par de permanents feed-back. Les centres de la vision sont localisés dans les lobes occipitaux, une partie des lobes temporaux et pariétaux et se distinguent par deux voies d’entrées : la voie ancienne (qui part de la rétine et aboutit aux lobes temporaux) est impliquée dans les aspects spatiaux de la vision, sa capacité d’orientation vers les objets, etc., tandis que l’autre voie (chez les primates et les humains), appelée aussi la voie du quoi (dont les centres sont situés dans le lobe pariétal), traite les relations à l’intérieur des objets visuels. L’auteur insiste sur l’intérêt d’une certaine classe de neurones, appelées neurones canoniques (situés dans les lobes frontaux), semblables par certains aspects aux neurones miroirs, qui sont stimulés par certains éléments habituellement associés aux actions et non aux actions elles-mêmes (la vue du bâton éveille la réminiscence de l’action de saisie, etc.). Avec eux, dans le cerveau humain, la distinction entre perception et action s’estompe, de la même façon que s’atténue la distinction entre perception et imagination. Ajoutons à notre compte que plus globalement, l’intrication des aires est telle qu’il semble difficile de continuer à distinguer un « voir » et un « voir comme » ; dans son fonctionnement normal, ce qui est vu – sélectionné dans un système complexe d’interactions entre circuits et entre l’espace sensori-moteur et le monde – c’est le résultat de ce « nœud-là » de fonctions, c’est cette chose-là – qui peut aussi bien être un lapin, un canard, un ensemble de ligne, un artefact philosophique classique, etc.

Pour illustrer la complexité des enchevêtrements fonctionnels au sein de la vision humaine, l’auteur évoque un certains nombre de cas exemplaires. Ainsi, celui d’un patient dont la vue fonctionne, mais qui ne peut plus reconnaître les objets comme des objets (il ne voit plus une carotte, mais une chose longue terminée par une touffe, même s’il lui reste des capacités de discrimination génériques entre grandes catégories : animaux, objets inanimés, etc.). Il n’a pas été testé si les réactions émotionnelles du patient avaient subie une altération correspondante (sans le reconnaître, le patient aurait-il eu la réaction appropriée en voyant un serpent ?) De la même façon, certains patients sujets à certains dérèglements des processus de segmentations qui décomposent les objets perceptifs, ne voient plus les mouvements, mais des séquences décomposées de plans. Le syndrome de Capgas (l’homme qui ne reconnaît lus sa femme) enfin, dont l’auteur reconnaît avoir douté : ceux qui en sont atteints ne reconnaissent plus les personnes qu’elles connaissent, même si elles admettent qu’elles leurs ressemblent. Ici, c’est sans doute une altération des émotions liées à la reconnaissance qui est en cause : le cerveau s’attend à une émotion en voyant quelqu’un, et si celle-ci ne vient pas, ne reconnaît pas la personne pour ce qu’elle est, même si elle lui ressemble complètement. Ironiquement, l’auteur suggère de générer artificiellement le syndrome de Capgas pour rendre une personne perpétuellement nouvelle aux yeux d’une autre et réduire ainsi les problèmes de couple. [7]

Couleurs musicales et numériques : la synesthésie

La synesthésie est un autre exemple passionnant de l’intrication des fonctions perceptives. En effet, comment fonctionne la synesthésie, sachant qu’il n’y a pas en elle de fusion, d’indistinction des sensations (elle ne renvoie donc pas à un état antérieur de non spécialisation des sens), ni, semble-t-il (des expériences le prouvent) simple mnésique. Pour l’auteur la synesthésie n’est par ailleurs pas non plus l’effet d’une expression métaphorique, mais un processus concret permettant au contraire de mieux appréhender les mécanismes de production des métaphores. Comme le montrent des expériences réalisées sur des synesthètes, c’est bien par exemple le chiffre représenté (mais le chiffre représenté compris comme chiffre 7) qui a une couleur : la synesthésie n’a pas lieu avec le chiffre romain pour qui est habitué au chiffre arabe. La couleur n’est pas perçue de la même façon si on montre au sujet des photos en noir et blanc d’objet de couleurs – (elle est alors conçue, imaginée) alors qu’elle est bien ressentie avec le chiffre (indice que l’association mnésique n’est pas à l’origine du phénomène). Les couleurs synesthétiquement induites sont même aussi efficaces que les vraies couleurs pour éveiller des réactions instinctives, attirer l’attention, ouvrir et configurer des scènes perceptives (et non seulement se manifester en elles) ; elles sont donc de vraies données sensorielles [8].

 

 

Peut-on interpréter les synesthésies comme l’effet d’un câblage croisé entre zone numérique et zone des couleurs ? Il faut en effet souligner l’importance des contiguïtés des zones dans le cerveau : plus des zones sont contiguës, plus les formes synesthésies sont proportionnellement fréquentes. Mais le câblage croisé n’est pas une explication suffisante car d’autres facteurs entrent en compte (ainsi, le LSD peut provoquer des expériences de synesthésies, inversement, les synesthètes peuvent être temporairement inhibées par des anti-dépresseurs.) ; il y a par ailleurs de telles connections pour tout le monde, mêmes certains en ont plus. S’agit-il alors d’un manque d’isolation chez les synesthètes ? L’étude des métaphores permet de révéler une réalité virtuelle du cerveau : celui-ci en effet a pu être amené au cours de l’évolution à établir des liens inter-structures (entre des formes, des sons, etc., on y reviendra plus bas). De la même façon, opportuniste, l’évolution a pu utiliser les zones de représentations de l’espace physique pour y représenter la séquentialité (numérique, etc.) ; ainsi, même si une spécialisation plus avancée a pu se produire par la suite, une porosité des fonctions a pu demeurer, accentuée par certaines mutations [9].

Ces neurones qui ont modelé la civilisation

Découverts chez les chimpanzés, les neurones miroirs (ou neurones de Rizzolatti) ont connu une sophistication remarquable chez les humains permettant l’interprétation de situations complexes (et permettent en particulier de mimer le mouvement des lèvres, indispensable au développement du langage parlé). Placés dans le cortex préfrontal, ils simulent l’action de celui que je regarde et parfois en anticipent même le déroulement, formulent des hypothèses sur son déroulement. Ils sont ainsi supposés être à la base du développement de ce qu’on appelle une théorie de l’esprit – mais aussi d’autres aptitudes propres à quelques grands singes et surtout aux humain, comme les capacités de décentrement dans l’espace. Ils sont ainsi, Jean-Luc Petit le souligne par exemple dans un article intéressant, la base physiologique de la thématique husserlienne de l’intropathie et de son lien à l’ancrage du Leib dans le Leibkörper : de telle façon cependant que c’est l’action qui devient la clef des différents couplages de ce développement [10].

Comment, cependant, se régule l’activité des neurones miroirs (on ne partage pas vraiment la souffrance d’autrui, on n’imite pas tout ce qu’ils font, etc. : pour, l’auteur le libre-arbitre est introduit ici, de façon d’abord négative, comme aptitude d’inhibition des imitations) ? Quels sont leurs mécanismes d’activation – sont-ils innés, acquis ? En réponse à cette dernière question, l’auteur se dit tenté de croire que les neurones miroirs sont responsables de comportements génétiques précoces. Les neurones miroirs seraient impliqués dans la répétition première des sons par le petit enfant, et cette imitation immédiate, instinctive, se transposerait plus tard en imitation d’intentions. Il souligne également leur rôle dans les processus d’abstraction intersensorielle, intermodale, l’intérêt de l’étude des neurones miroirs pour la compréhension de la genèse des métaphores. Les neurones miroirs s’avèreraient même, selon l’auteur, des accélérateurs formidables pour la transmission de compétences, nous sortant des lenteurs de la contingence de la seule sélection naturelle en favorisant la diffusion des inventions accidentelles par mimétisme. En ce sens, l’explosion de la sophistication mentale survenue il y a 60000 ans serait un effet de leur développement.

L’autisme

Le rôle des neurones miroirs est en particulier étudié dans l’analyse de l’autisme et du Syndrome Asperger (que l’auteur ne distingue sans doute pas autant qu’il le faudrait). On reconnaît normalement que les autistes ont du mal à élaborer une théorie de l’esprit (c’est la en quelque sorte la description du syndrome) – mais précisément, pourquoi une telle difficulté ? Si l’existence d’un circuit spécialisé de la cognition sociale a été suggéré dès 1970 par David Premack, c’est bien la découverte des neurones miroirs qui fait avancer cette question. L’imagerie cérébrale révèle chez les autistes des cerveaux plus développés (en particulier, une configuration singulière du cervelet) mais les changements cérébelleux chez l’autiste pourraient n’être que les effets d’une mutation responsable des symptômes sans y être eux-mêmes liés – étudier ces manifestations liées peut nous aider à remonter vers cette cause, même si elles n’ont pas nécessairement d’importance pour la compréhension de l’autisme même et au-delà, car « (…) l’autisme pourrait être fondamentalement considéré comme un désordre de la conscience de soi, et si tel est le cas, les recherches menées sur ce syndrome pourraient nous aider à comprendre la nature de la conscience elle-même. [11] » Si l’autisme a de nombreuses causes (là encore, le syndrome est inséparable d’un ensemble de boucles de rétroactions), mais l’amorce, la cause initiale serait une anomalie de fonctionnement des neurones miroirs

Cette interprétation permettrait également de comprendre pourquoi les autistes ou personnes atteintes du Syndrome Asperger ont une tendance à tout interpréter littéralement. On a vu en effet que les neurones miroirs sont impliqués dans le développement de la capacité métaphorique (certaines lésions croisées le laissent penser). D’un autre côté, on a remarqué que les asperger avaient aussi parfois une grande capacité à entrer dans la texture métaphorique du langage (en ce sens, ils peuvent au moins autant que les synesthètes, contribuer à l’étude des neurones miroirs, car si certaines aptitudes liées à la métaphore sont affaiblies et d’autres amplifiées, c’est bien dans la complexité même des soubassements neuronaux de la métaphore qu’ils permettent d’entrer.) D’autres symptômes plus physiologiques de l’autisme comme le balancement, l’hypersensibilité, etc., renvoient à des dysfonctionnements de l’amygdale qui coordonne la surveillance émotionnelle du monde (permet en quelque sorte de créer un paysage émotionnel du monde qui peut se détraquer). L’autiste aurait ainsi un paysage émotionnel dysfonctionnel (ou disons : excessivement accidenté) du fait d’accroissement des connexions aléatoires, engendrant des sur-réactions à certains objets ou événements triviaux (d’où, de manière compensatoire, la propension des autismes à la routine ; d’un autre côté, de tels dysfonctionnements peuvent aussi rendre l’autiste attentif à certains détails peu saillants pour d’autres, et conduire au développement de talents exceptionnels). Les réactions des autistes à l’environnement sont ainsi moins cohérentes. Le balancement permettrait ainsi d’apaiser cette surcharge émotionnelle (le circuit de l’équilibre est lié à celui des émotions) mais aussi d’ancrer son moi dans son corps. Une perturbation des allers-retours entre les aires sensorielles supérieures et l’amygdale peut en effet altérer le sens même de l’incarnation. Quels liens, demande alors l’auteur, entre neurones miroirs et système limbique ? Peut-on montrer que dérèglement du système limbique est lié à celui des neurones miroirs ?

Plusieurs pistes thérapeutiques sont finalement suggérées à la suite de ces considérations : employer certaines drogues amplifiant l’abondance de neurotransmetteurs empathogènes, ralentir le processus de feed-back émotionnel en provoquant une fièvre élevée pour réinitialiser le circuit, voire intervenir de façon assez précoce pour empêcher la cascade d’événements conduisant au plein développement de l’autisme…

Le pouvoir du babillage. Evolution du langage

Le chapitre consacré à l’origine est sans toute le plus audacieux de l’ouvrage, même si le déroulé de l’argumentation n’est pas toujours très clair. L’auteur s’interroge sur la phase transitionnelle conduisant de la communication par signaux (qui n’ont pas, à proprement parler, de sens, le cri de l’antilope ne dit pas « léopard », « fuyez », ni même « gavagai »), au langage, toujours décontextualisable, et la mise en place de ses structures complexes [12]. Il rappelle à ce propos les 5 spécificités du langage humain communément admises : 1) extension du langage, riche lexique, 2) usage de termes fonctionnels, 3) capacité de parler de ce qui n’est pas là, ni n’est lié à un besoin immédiat, 4) usage de métaphores, d’analogies, 5) syntaxe flexible et récursive. Les 4 premiers points caractérisent déjà ce qui a été appelé par les paléontologues et les linguistes le proto-langage, cette étape intermédiaire – dont il n’existe pas de traces directement attestables, le langage ne « fossilisant pas », mais dont on tente malgré tout de comprendre les structures propres, les déterminants évolutionnistes, la relation précise au langage tel que nous le parlons. Celui-ci ne peut s’expliquer que par le développement conjoint d’éléments combinés pour former des systèmes complexes alors sélectionnés par la sélection naturelle. Selon Gould, le langage procède d’un mécanisme plus général, disons de la pensée, modifié par exaptation – les centres du langage étant à présent distincts des centres de la pensée dans le cerveau. Selon Pinker au contraire, le langage procède d’un instinct ensuite complexifié. D’une autre manière encore : le langage est-il véhiculé par un organe du langage mental (Chomsky) irréductible à toute structure antérieure, procédant d’une émergence complexe, ou un système de communication gestuel primitif a pu servir d’échafaudage à l’émergence du langage vocal ?

L’auteur développe de son côté une théorie synesthétique de l’amorce qui vise à rendre compte des différentes boucles à l’œuvre dans ce développement (on aimerait cependant savoir si cette théorie e est hypothétique, ou réellement discutée - si l’auteur envisage des directions de recherches concrètes pour la développer par ailleurs. On notera d’emblée que, s’il ne cite pas Lakoff, l’auteur n’en évoque pas moins le concept de cognition incarnée, et qu’en insistant (on va le voir) sur la façon dont des associations synesthésiques et des structures métaphoriques structurent nos concepts, il se situe bien dans une perspective congruente à la sienne. D’un point de vue évolutionniste explique Ramachandran, on ne peut se satisfaire sans plus de la thèse de l’arbitraire du signe – même si l’étude du fonctionnement du langage dans son plein développement s’accommode bien d’un formalisme ou d’un structuralisme : à l’origine, non pas les mots certes, mais les données sensorielles ont bien du « se ressembler un peu » avant, précisément, de s’agréger en mots que l’usage généralisé a pu alors détacher de tels ancrages et rendre peu ou prou indépendants de leurs contextes de naissance. De la même façon, la facilité à apprendre procède de règles innées – (qui expliquent l’adoption immédiates de certaines structures syntaxiques sans nécessité mimétiques, ou plus encore la naissance rapide des pidgins et leur grammaticalisation, au bout d’une génération, en créoles) mais l’exposition est requise pour l’activation de ces facultés qui servent d’amorce à un processus d’interaction apprentissage – enrichissement des structures pré-existantes – activation de nouvelles capacités. La question de l’inné ou de l’acquis, rappelle judicieusement Ramachandran, est aussi une question de contextualité : on considèrera comme inné ou comme acquis un même syndrome selon que les conditions de sa manifestation seront générales ou occasionnelles dans un environnement. Le proto-langage est amorcé par une intrication d’associations synesthétiques : associations formes de sons/formes d’objets fondées sur des ressemblances structurelles des sons et des choses dans un espace mental abstrait, traduction des contours visuels et auditifs en contours sonores (les mouvements de la langue seraient liés eux-mêmes à des mouvements des mains associés à certains objets, propose l’auteur de façon peut-être un peu spéculative). De cette façon, une telle activation croisée des aires cérébrales (visuel et auditif/sensori-visuel et vocalisation motrice/ puis plus tard aires de Broca et mouvements manuels) permet d’amorcer un processus de traduction et d’abstraction essentiel au le développement du proto-langage. Le discernement intersensoriel et transphénoménal de la forme constitue un premier niveau d’abstraction, même si un autre saut qualitatif doit intervenir pour le développement des capacités d’abstraction de nombres, d’isolations de fonctions logiques, etc [13]. On demandera ici si une telle conception n’invite pas aussi à s’interroger, dans le sillage de René Thom et de Jean Petitot sur ce qui, dans la nature même, permet ces regroupements, c’est-à-dire de la prégnance ontologique du niveau morphologique, et l’élaboration d’une véritable esthétique transcendantale naturalisée [14]. Sans aller jusque-là, les considérations développées par l’auteur rappellent que la théorie évolutionniste n’est peut-être pas séparable de la physique, que les systèmes biologiques sont des systèmes dynamiques dont les possibilités de convergence vers des points attractifs ne sont pas infinies – que la dimension physico-morphologique, dont l’importance a encore été soulignée par Simon Conway Morris pour traiter la question des (possibles) convergences évolutives.

Ces amorces, bien sûr, ne rendent pas compte de toute la complexité du langage humain. Le lexique, la sémantique et la syntaxe dépendent d’ailleurs d’aires bien identifiées : ainsi l’aire de Broca, spécialisée dans la syntaxe (et peut-être aussi dans les langages formels, algébriques, même si leur disfonctionnement n’entraîne pas la perte de toute capacité à accomplir des opérations logiques ou arithmétiques simples). Bien sûr, ces aires spécialisées n’en sont pas moins connectées. Les aphasiques de Wernicke, dont la capacité sémantique est altérée, ont un langage syntaxiquement construit, mais, à l’examen, sans récursivité : leurs différents segments sont liés par des série de termes syncatégorématiques utilisés pour leur aspect associatif et non leurs fonctions logiques. La modularité des capacités sémantiques et syntaxiques n’interdit de toute façon en rien, précise l’auteur, que l’une puisse être issue de l’autre. L’auteur souligne alors plus spécifiquement l’intérêt de l’étude du gyrus angulaire pour la compréhension du développement des capacités syntaxiques. La syntaxe procède selon lui d’une exaptation à partir d’une autre capacité : même l’action la plus simple comme briser une noix demande en effet le codage d’une séquence, capacité qui peut alors été transposée au langage, à l’assemblage logique qu’est la syntaxe [15]. Une duplication d’une aire ancestrale affectée à cette capacité en deux nouvelles aires spécialisées : l’une restant dévolue à la manipulation d’objets, toujours, l’autre devenant l’aire de Broca. Ces deux aires ; justement, sont également riches en neurones miroirs : indice, peut-être, d’une origine commune, et signe, tout aussi bien, de l’importance de tels neurones pour leurs fonctions réciproques et des fonctions non-stéréotypiques, impliquées dans des actions complètes, globales, sont spécifiquement câblées dans des zones localisées

De sorte finalement « Ajoutez à ce cocktail [les synesthésies] l’influence de la sémantique, importée de l’aire de Wernicke, ainsi que des aspects abstraits issus du gyrus angulaire, et vous obtenez un mélange potentiel prêt au développement explosif du langage à part entière [16] »

Beauté et cerveau. Emergence de l’esthétique

Comment le cerveau humain crée-t-il la beauté, demande enfin plus classiquement l’auteur qui commence – heureusement – par distinguer l’art et du concept général d’esthétique (même si pour l’auteur, il n’y a pas d’art sans une certaine observance des principes de l’esthétique : l’art joue (dans une perspective évolutionniste) avec l’esthétique pour faciliter la communication entre le langage et les émotions – de cette façon, affine le langage parlé, et donne de l’intelligibilité aux émotions. Quelle est alors la différence, demande-t-il dans la foulée, y a-t-il entre l’art et le kitch ? « (…) l’art véritable (…) implique le déploiement approprié de certains universaux artistiques que le kitch se contente de reproduire machinalement » [17] Cette partie est sans doute, d’un point de vue théorique, celle dont les faiblesses sautent le plus immédiatement aux yeux d’un lecteur de culture plus philosophique que neurologique, mais les distinctions proposées semblent malgré tout souvent pertinentes - et si de nombreux éléments intéressant n’y sont pas moins introduits malgré le caractère un peu rapide des développements - éléments à reprendre, donc, dans une étude esthétique plus documentée.

9 lois selon l’auteur permettent de rendre compte du sentiment esthétique. 1) Le groupement évolutivement liée à la nécessité de repérer des prédateurs (de discriminer par exemple les tâches qui forment un lion) : l’art joue avec cette tendance du cerveau en créant des formes groupables – cette tension au groupement conduit à une synchronisation des influx nerveux liés aux proto-impressions coordonnées dans une perception unitaire (mais c’est bien sûr : c’est un lion !), 2) Le contraste, complémentaire au groupement, 3) L’exagération lié au principe de discrimination des formes dans la nature : pour distinguer un carré d’un rectangle, c’est la propriété de rectangularité qui sera utilisée par le cerveau (un singe choisira de préférence un rectangle plus aplati, et pas celui qu’on lui aura présenté, si le schème de rectangularité est associé par lui à une perspective de récompense). Plus généralement : les choses sont structurées à partir de propriétés ou structures saillantes qui permettent d’ancrer les scènes perceptives – ainsi, certaines exagérations soulignant précisément ces structures saillantes activent au contraire des réactions d’attractions ou de fascinations plus fortes (puissance de Picasso et d’autres), 4) L’isolement, consistant à mettre certains aspects en exergue en en estompant d’autres, ainsi l’impressionnisme qui estompe les lignes pour faire ressortir les couleurs, 5) Le « coucou me voilà », consistant à rendre un objet plus attractif en le rendent moins visible, suscitant un plaisir éprouvé dans le dévoilement, dans la reconnaissance du non-immédiat. En stimulant les aires visuelles on provoque la synchronisation des impulsions nerveuses quand il y a reconnaissance d’une forme globale [18] : ainsi, à la différence pur plaisir visuel (lorsqu’on voit une pin-up) la réaction visuelle esthétique à la beauté semble une expérience plus riche, pluridimensionnelle. Bien sûr, s’il est maintenant question d’art, cette base neurologique de l’émotion esthétique est à son tour inséparable de paramètres historiques et d’une élaboration symbolique : le cerveau peut « éprouver » la beauté, mais c’est la culture qui fait ensuite « quelque chose » de cette faculté, la travaille, l’explore, l’affine, la questionne, la pousse à ses limites… 6) L’horreur des coïncidences (il y a plus d’information dans l’arbitraire que dans le régulier), 7) L’ordre, 8) Les symétries, 9) La métaphoricité.

Évidement, on pourra se demander pourquoi précisément ces 9 lois, comparer par exemple cette démarche avec celle de René Thom (articulant de son côté l’esthétique aux 7 formes possibles de catastrophes, avec les analyses particulièrement détaillées que Jean Petitot consacre aux fondements morpho-dynamiques de l’esthétique [19].

Le grand singe et son âme

L’ouvrage conclut par un examen des déterminants cérébraux de la conscience de soi en évoquant quelques pathologies intéressantes (par exemple, à la suite d’un AVC, la perception d’un double, le sentiment classique de sortie de corps, l’impression d’être mort – une perte de réactions émotionnelles qui rend le monde vide, cadavérique, ou au contraire une surcharge de l’empathie qui rend le monde ultra-signifiant et donne l’impression d’être un avec Dieu). L’auteur rappelle la distinction de différents types de mémoires, souligne en particulier que le souvenir proprement dit semble proprement humain : en lui, on se souvient d’y avoir été, l’implication du moi passé dans le souvenir se donne au moi présent (on touche à nouveau ici des thèmes très phénoménologiques, car pour Husserl : eidétiquement, implique cette dimension d’avoir été donné qui en est inséparable). On pourra ainsi profiter de l’ouvrage pour affiner une fois encore la compréhension qu’on a du couple de nature et de subjectivité : naturalité du ou dans le sujet, sujet dans la nature, en la nature, par la nature…

On conclura cette critique en soulignant qu’on ne se situe pas du tout, ici, dans un paradigme computationnaliste et que l’auteur ne cesse de souligner l’importance de l’ensemble des systèmes de feed-back qui interdisent la hiérarchisation stricte des fonctions, ébrèchent la modularité de l’esprit, ne cessent, au moins implicitement, d’en appeler à l’usage – au moins heuristique – de processus de causalité descendante. Les domaines de recherche ouverts ou prolongés par les neurones miroirs sont nombreux – on ajoutera, à ceux déjà évoqués, l’économie cognitive (en particulier, la neuroéconomie) dont les thématiques sont concernées au premier chef par le types de problématiques au sein desquelles interviennent les neurones miroirs. Le philosophe est moins désorienté ici qu’il a pu l’être par les conceptions, plus radicales, de Churchland ou de Dennett : la façon par exemple dont le système sensori-moteur est disposé, tamisant ce qu’il repère, puis se reconfigurant à son contact, mobilise quelque chose comme un système d’ensemble où l’organisme et son environnement ne peuvent être appréhendés qu’en ce qu’ils forment un tout, au sens des totalités métaphysiques évoquées par Husserl. Le cadre ou le paradigme pour comprendre les enjeux des travaux de Ramachandran est ainsi plutôt celui d’une neurophénoménologie qui n’implique pas de faire congruer a priori le niveau phénoménal et le niveau physique (dire que le monde est Un est un idéal transcendantal, rien a priori n’indique qu’on parle exactement de la même chose d’un côté ou de l’autre de la barrière, mais il faut bien supposer qu’il y a un rapport entre les deux, puisque dans les deux cas, on part des mêmes mots). Si la neurologie apparaît, à la lecture de l’ouvrage, indispensable à la phénoménologie, à laquelle elle fournit un outil de distanciation et de décentrement efficace, la phénoménologie se révèle, en retour, utile à la neurologie : l’expérience telle qu’elle est vécue, ne cesse de montrer l’ouvrage, est une expérience intriquée, en laquelle la phénoménologie dévoile précisément des structures d’interdépendances, des niveaux d’entre appartenance de formes et de paramètres de manifestation (le type de conscience de soi, ou de rapport à soi au sein de la conscience, lié à tel type de structuration de la manifestation) qui peuvent guider les neurosciences vers les systèmes qu’elle doit appréhender pour comprendre l’ensemble des interactions qui constituent un type d’expérience. Ce n’est bien sûr pas ici vers une phénoménologie transcendantale réflexive que nous sommes guidés, mais vers quelque chose demétaphysique (au sens husserlien d’un fait métaphysique) dont aucune constitution ne peut rendre compte, et qu’il s’agit en quelque sorte ici de saisir au vol : les neurones miroirs suggèrent en effet d’adopter comme cadre phénoménologique une phénoménalité engagée – ancrée dans des concrétudes ou des systèmes de prégnances, toujours déjà structurée par une implication active antérieure à toute phénoménalisation.

Répétons, pour terminer, que la richesse de l’ouvrage est telle que tout philosophe, chercheur, enseignant, ou amateur, gagnera quoi qu’il en soit, à s’y plonger.

Notes

[1] Vilayanur Ramachandran, Le cerveau fait de l’esprit. Enquête sur les neurones miroirs, Dunod, 2011, p. 334

[2] Une des limites de l’ouvrage est de présenter à la fois des résultats connus, des résultats nouveaux, mais attestés et des hypothèses plus spéculatives sans qu’on puisse toujours bien faire la par des choses – par exemple, en étant systématiquement renvoyé à des publications précises et datées. Le style d’écriture de l’ouvrage – on y passe un peu du coq à l’âne – accentue cette difficulté. De la même façon d’ailleurs, on ne sait pas toujours si les thérapies proposées par l’auteur sont standards, nouvelles, expérimentales ou spéculatives.)

[3] p. 2

[4] II gagnera également à considérer avec une certaine attention les schémas proposés – malgré tout ce qu’ils peuvent avoir de rébarbatif au premier abord – et à lire les présentations génériques du fonctionnement du cerveau en tâchant de se faire une idée claire de sa structure d’ensemble, de ces zones et de leurs fonctions, de ce qu’on sait de leur « désenveloppement » progressif au cours de l’évolution, etc.

[5] Sur l’auto-organisation, cf. Atlan, Le Vivant post-génomique, ou Qu’est-ce que l’auto-organisation ?, et la recension que nous en avons proposée : http://www.nonfiction.fr/article-50...

[6] A ce sujet, cf. http://max.kistler.free.fr/articles...

[7] Plus loin, il renvoie à une expérience faite en indiquant qu’en inhibant certains centres nerveux supérieurs, on peut éveiller des talents de dessin impressionnants, sans doute par réactivation de fonctions cérébrales inférieures

[8] Il est en particulier fascinant, note l’auteur, de s’interroger sur la façon dont un synesthète achromate perçoit les couleurs

[9] Notons que de nombreuses autres questions sont abordées dans ce chapitre : les synesthésies pourraient également aider à la distinction des émotions, se demandant si certaines nuances émotives relèvent de qualités affectives intrinsèquement différentes ou simplement de différentes interprétations selon un contexte social ?

[10] « La constitution par le mouvement », Naturaliser la phénoménologie. On notera ici que l’intérêt phénoménologique des neurones miroirs est immense à plusieurs titres : ceux-ci fournissent ainsi une base explicative à la façon dont le social est « phénoménalisé » et « vécu », c’est-à-dire directement comme social, et non comme échafaudé sur la base de phénomènes plus primitifs. Comme le souligne Jocelyn Benoist, en société, nous y sommes immédiatement, les objets sociaux n’ont pas moins (ni plus) de réalité que les autres types d’objets. Cf. http://www.actu-philosophia.com/spi...

[11] p. 176

[12] On pourrait cependant mitiger ces affirmations au regard de travaux comme ceux de Dominique Lestel dans Les origines animales de la culture : il n’est pas déraisonnable, selon lui, de parler d’une véritable culture animale, qui se transmet de générations en générations, même si, celle-ci n’a jamais de dimension historique ou proto-historique

[13] Il faudrait encore ici, avec Husserl, distinguer l’usage pratique de catégories arithmétiques et logiques et leur saisie en tant que telles par un processus réflexif de second degré. On remarquera en tout cas la proximité des processus évoqués ici et des conceptions de Husserl : pour celui-ci également, l’intentionnalité d’abord écrasée sur ses proto-objets y discrimine, sur la base de leur organisation hylétique, des proto-formes à partir desquelles elle s’en détache partiellement, pour en ressaisir dans un premier temps l’organisation en les structurant et les typologisant, puis dans un second temps, ressaisit ses structures à leur tour par un processus d’abstraction catégorial, cette fois ; ce second passage d’une intentionnalité rendue plastique par l’entretissement du perceptif et de l’imaginatif, à une intentionnalité plus nettement déprise de ses objets par le développement quasi-autonome de la sphère du sens et de la signification – en débordement par rapport à celle de l’objet – est cependant plus problématique, car si l’homologie structurelle de la perception et de l’imagination est forte, le passage de l’imagination, qui procède par ressemblance, au signe, qui fonctionne par contiguïté, puis à la signification proprement dite, demande l’élucidation de nombreuses étapes intermédiaires et ne se comprend pas, dans les faits, sans référence à une proto-historicité, et à une dimension intersubjective et culturelle.

[14] Une telle esthétique conduit bien sûr elle-même à des problèmes transcendantaux redoutables, puisqu’il s’agit alors de caractériser à son tour la dimension d’ouverture – de passibilité – qui caractérise le vivant dans sa capacité à se « retenir soi-même » tout en saisissant – ou recevant – quelque chose de ces formes naturelles. A ce sujet, qui sort totalement du domaine des neurosciences, on gagnera à lire le splendide ouvrage de Roger Chambon : Le monde comme perception et réalité

[15] On pourra mettre la conception de l’auteur en parallèle avec celle de Bernard Victorri, davantage tournée vers le versant syntaxique, et pour qui la disparition des freins instinctifs et le développement de la violence intraspécifique a nécessité de nouveaux moyens de contenir cette violence – en particulier la formulation et structuration d’impératifs. Ici, pourrait-on extrapoler, les neurones miroirs auraient un rôle double puisqu’en développant l’imitation, ils peuvent aussi avoir exacerbé la rivalité et contribués par la à l’explosion de la violence intraspécifique

[16] p. 211

[17] p. 224

[18] A ce sujet, l’auteur ajoute de façon très intéressante que : « La frontière entre la perception et l’hallucination n’est pas aussi nette qu’on le pense (…) » (p. 264) et poursuit : « On pourrait presque considérer la perception comme le choix de l’hallucination qui correspond le mieux aux données entrantes, souvent fragmentées et floues. » (p. 264). Cette idée a une résonance certaine avec le thème de la terre chez Husserl – celle-ci fournissant les points fixes, quasi-transcendantaux, qui permettent l’adoption, ou l’ancrage des espaces perceptifs dans un système de coordonnées – la réduction de la multiplicité pure en multiplicité tridimensionnelle

[19http://www.crea.polytechnique.fr/Je..., brillamment recensé par Herman Parret :http://www.scribd.com/doc/29091793/....

12/2011 Florian Forestier Actu Philosophia


 

 

Pour une science sans Foi ni Loi

Alain PROCHIANTZ  (neuroscientifique)

Alain CONNES (mathématicien)

Jacques De Longeaux (théologien) 

 

www.youtube.com/embed/2zGxbjzXlA8


 

 

Impression de "déjà vu"

Fabrice BARTOLOMEI

PDF

 

http://pdf.lu/a5mT


 

 

Comment le cerveau fabrique la religion/Brain Networks Shaping Religious Belief

 

Une expérience renforce l'idée que la croyance religieuse serait associée à un hyperfonctionnement des zones du cerveau servant à détecter les intentions.

Sébastien Bohler
  
Vue d'artiste d'un cerveau
 
 

Les chiffres, grosso modo, livrent toujours à peu près la même estimation : environ 90 pour cent des êtres humains croient à une divinité ou une entité surnaturelle. Cette majorité quasi-soviétique invite les neuroscientifiques à se demander si la croyance religieuse ne serait pas l'expression d'une capacité cognitive très générale dans l'espèce humaine. Une de ces capacités fondamentales, étudiées par les scientifiques, est la « détection d'agents ». De quoi s'agit-il ? Pour ceux qui comprennent bien l'anglais, cette vidéo en donne une bonne explication.

Récapitulons, et résumons pour ceux qui n'auront pas vu la vidéo. Nous avons tous la capacité, quasi automatique, d'interpréter les changements qui nous entourent comme le résultat d'actions, voulues et exécutées généralement par des êtres humains. Par exemple, si vous remarquez que votre bureau a été dérangé, ou que vos affaires ont été déplacées, vous cherchez qui a pu le faire - vous faites de la « détection d'agents ». Cette capacité de détection d'agents repose sur l'activité de certaines zones du cerveau, le cortex frontal inférolatéral et le cortex dorsomédian.

Jusque là tout va bien, et la détection d'agent est même un avantage pour se débrouiller dans un monde peuplé d'agents humains. En fait, comme le rappelle la vidéo ci-dessus, les personnes n'ayant pas cette capacité ont généralement des troubles neurologiques invalidants. Donc, vive la détection d'agents. Mais là où ça se complique, c'est si , en apprenant que le Japon est submergé par un tsunami, vous cherchez qui a bien pu le faire... Comme 40 pour cent des personnes interrogées dans cette vidéo ! Vous êtes alors dans une situation où votre système de détection d'agent fait, à tout le moins, de la surchauffe : vous essayez d'attribuer à une force surnaturelle le cataclysme qui a frappé les côtes japonaises. Et si nous franchissons un pas de plus dans la détection d'agents, libre à chacun de chercher, en observant les montagnes, les forêts, les océans et les étoiles, qui a bien pu faire tout ça. Quel AGENT a fait tout ça.

Chez des personnes qui détectent un agent derrière la création (on pourrait l'appeler poétiquement « le grand horloger », ça sonne plutôt bien, non ?), il faudrait donc s'attendre à voir un fonctionnement particulièrement intense des zones du cerveau sous-tendant la détection d'agent. Or des neuroscientifiques de l'Université du Maryland ont fait l'expérience, qui a livré exactement les résultats attendus : non seulement les croyants mobilisent plus ces zones du cerveau, mais en plus ils les mobilisent des deux côtés du cerveau (dans chaque hémisphère) alors que la détection d'agents à des fins rationnelles (qui a dérangé mon bureau ?) mobilise un seul hémisphère.

Qui a dérangé mon bureau ? Et puis, qui a créé l'Univers ? C'est finalement une seule et même question, dont la réponse peut toutefois varier considérablement, selon la quantité d'énergie cérébrale que vous y mettez. La voie de la raison est toujours difficile à trouver...

 

Brain Networks Shaping Religious Belief

 Brain Connectivity. February 2014, 4(1): 70-79. doi:10.1089/brain.2013.0172.

 Dimitrios Kapogiannis,1 Gopikrishna Deshpande,2 Frank Krueger,3 Matthew P. Thornburg,4 and Jordan Henry Grafman5

1Laboratory of Clinical Investigation, National Institute on Aging (NIA/NIH), Baltimore, Maryland.
2Department of Electrical and Computer Engineering, MRI Research Center, Auburn University, Auburn, Alabama.
3National Institute of Neurological Disorders and Stroke, Bethesda, Maryland.
4George Mason University, Arlington, Virginia.
5Cognitive Neuroscience Laboratory, Rehabilitation Institute of Chicago, Chicago, Illinois.
Address correspondence to:
Dimitrios Kapogiannis
Laboratory of Clinical Investigation
National Institute on Aging (NIA/NIH)
3001 South Hanover Street, NM 531
Baltimore, MD 21230
E-mail: kapogiannisd@mail.nih.gov
ABSTRACT

We previously demonstrated with functional magnetic resonance imaging (fMRI) that religious belief depends upon three cognitive dimensions, which can be mapped to specific brain regions. In the present study, we considered these co-activated regions as nodes of three networks each one corresponding to a particular dimension, corresponding to each dimension and examined the causal flow within and between these networks to address two important hypotheses that remained untested in our previous work. First, we hypothesized that regions involved in theory of mind (ToM) are located upstream the causal flow and drive non-ToM regions, in line with theories attributing religion to the evolution of ToM. Second, we hypothesized that differences in directional connectivity are associated with differences in religiosity. To test these hypotheses, we performed a multivariate Granger causality-based directional connectivity analysis of fMRI data to demonstrate the causal flow within religious belief-related networks. Our results supported both hypotheses. Religious subjects preferentially activated a pathway from inferolateral to dorsomedial frontal cortex to monitor the intent and involvement of supernatural agents (SAs; intent-related ToM). Perception of SAs engaged pathways involved in fear regulation and affective ToM. Religious beliefs are founded both on propositional statements for doctrine, but also on episodic memory and imagery. Beliefs based on doctrine engaged a pathway from Broca's to Wernicke's language areas. Beliefs related to everyday life experiences engaged pathways involved in imagery. Beliefs implying less involved SAs and evoking imagery activated a pathway from right lateral temporal to occipital regions. This pathway was more active in non-religious compared to religious subjects, suggesting greater difficulty and procedural demands for imagining and processing the intent of SAs. Insights gained by Granger connectivity analysis inform us about the causal binding of individual regions activated during religious belief processing.


 

L'éthique, entre spéculation et action

 Roger GIL

Il y a une éthique déclarative et une éthique performative. La première est prompte à  déclamer des propositions édifiantes sans s'attarder sur les modifications qu'elles devraient susciter dans les comportements. La seconde est dite performative car elle s'efforce de faire passer en acte ce qu'elle se propose de dire. Car si l'éthique est un questionnement posé à la conscience, l'éthique ne peut se résumer en une spéculation. La délibération de la conscience ne prend sens que pour moduler les actions. L'éthique doit inspirer une manière d'être au sein du monde, dans le monde, pour le monde. Ainsi en est-il par exemple quand on proclame le respect de la dignité de la personne humaine. On peut se gargariser de cette proposition sans saisir les trois termes qu'elle additionne dans la plénitude de leurs sens et de leurs exigences.

 

Le respect tout d'abord. Ce mot, issu du latin respicio veut dire regarder, poser son regard, en arrêtant sa marche, devant un Autre offert à notre considération. Respecter l'Autre, c'est donc interrompre sa marche pou lui, et se mettre à son égard en posture d'attente, d'écoute et, pourrait-on dire aussi, de service. Car en cet Autre est reconnue une dignité. La dignité caractérise la personne en ce que la personne s'oppose à la chose. La chose, disait Kant, est ce qui peut s'acheter, se vendre, se remplacer. La personne est ce qui est unique, ce qui n'a pas d'équivalent, ce qui est au-dessus de tout prix, et c'est cela qui définit sa dignité. Et c'est cette dignité qui fait qu'une personne ne peut pas être instrumentalisée mais doit être considérée comme une fin en soi.

 

Mais quel est donc cet Autre ? Si le respect consiste étymologiquement à poser son regard, il faut se mettre en condition d'apercevoir puis de percevoir l'Autre. Car l'Autre est celui dont nous nous approchons, dont nous nous faisons proche. Ce travail de rapprochement indique que l'Autre est loin de toujours surgir comme une évidence le long du parcours de la vie. Respecter implique d'abord une quête, un discernement qui témoigne d'une attention portée à la vulnérabilité, à la fragilité. Car l'Autre qui nous espère ou qui a perdu toute espérance peut ne pas crier son attente comme cette personne handicapée, cet enfant trisomique, cette personne malade que nos regards peuvent enjamber sans les rencontrer.Et une éthique dite minimaliste tend aujourd'hui à faire croire qu'il ne suffit de ne pas faire de mal pour mener une vie socialement irréprochable. L'attention à la fragilité appelle à d'autres exigences et d'abord à se sentir comptable de l'Autre dans un monde qui a moins besoin d'empiler des lois fussent-elles relatives à la bioéthique que d'éveiller et de faire grandir les coeurs et les consciences.

 

Roger Gil  

Doyen honoraire de la Faculté de médecine pharmacie de Poitiers 

Professeur émérite de neurologie, Université de Poitiers

Directeur de l''Espace de réflexion éthique régional Poitou-Charentes, CHU de Poitiers 


 

Journées de l'Espace Éthique du CHU de Poitiers

Roger GIL

envoi du Professeur Roger GIL de Poitiers

LA LETTRE DE L'ESPACE DE REFLEXION ETHIQUE   N°6  MAI 2014

http://pdf.lu/wMG2

 

2° JOURNÉE  "MOURIR AUJOURD'HUI"   1° octobre 2013

http://pdf.lu/2r02

 

 1° JOURNÉE   25 septembre 2012

http://pdf.lu/TRSb

 


 

  

 

 

Avis 121 du Comité Consultatif National d'Ethique CCNE

Joséphine Bataille  "La Vie" 01/07/2013

 

© PFG/SIPA/SIPA
 
 

Dans son avis 121, rendu public ce matin, le 1er juillet, le CCNE s'oppose à la légalisation de l'euthanasie, mais dit oui à un «droit à la sédation » pour le malade en fin de vie.

 

Dans la lignée du rapport Sicard, remis en décembre à François Hollande, le Comité consultatif national d'éthique (CCNE) a dit non, ce 1er juillet, à une modification de la loi de 2005 sur la fin de vie qui irait dans le sens de la légalisation d'une forme d'euthanasie ou de suicide assisté. Il a aussi fait un certain nombre de préconisations pour porter un terme « à la situation d'indignité réelle » dans laquelle meurent bon nombre de Français.

Lire l'intégralité de l'avis du CCNE

 

Désormais, il reste à organiser, à l'automne, des états généraux sur la fin de vie. Le gouvernement espère ainsi être en mesure de déposer un projet de loi, comme François Hollande l'a confirmé aujourd'hui, avant la fin de l'année.

Sur l'euthanasie

La loi Leonetti actuelle « opère une distinction essentielle et utile entre 'laisser mourir' et 'faire mourir', même si cette distinction peut, dans certaines circonstances, apparaître floue », détaille le président du CCNE Jean-Claude Ameisen, considérant que « le maintien de l’interdiction faite aux médecins de 'provoquer délibérément la mort' protège les personnes en fin de vie, et qu’il serait dangereux pour la société que des médecins puissent participer à 'donner la mort' ».

Le CCNE a exprimé une position majoritaire, mais cependant pas unanime, et a tenu à faire droit, dans son texte, à l'argumentaire opposé d'une partie de ses membres. « En réalité, débrancher un respirateur est un acte de mort. Nous avons déjà franchi la limite communément admise. Dans ce cadre, la loi doit être cohérente. Laisser quelqu'un seul devant son choix de mettre fin à ses jours est un abandon », déclare ainsi le généticien Philippe Gaudray. « Le choix d'une mort anticipée doit rester le choix de l'exception, envisagé seulement au terme d'un parcours palliatif de qualité. Mais pour exceptionnel qu'il serait, il ne devrait pas rester clandestin. »

En 2000, le CCNE avait tenté d'avancer dans le débat en parlant d'« exception d’euthanasie », qui aurait permis aux juges, sans que soit levé l'interdit de l'homicide, de mettre fin aux poursuites judiciaires, en fonction des circonstances et des mobiles de l’euthanasie. Le CCNE se situe dans un esprit semblable lorsqu'il évoque, dans cet avis, la nécessité « pour les cas limites », de trouver une « troisième voie » qui sorte le médecin de la clandestinité. Il appelle au lancement d'une véritable étude de ce que sont ces situations comme base à une réflexion qui devra être transversale à la médecine et à la justice.

Sur la sédation

Déjà travaillée par Didier Sicard, par le conseil national de l'Ordre des médecins, et par le député Jean Leonetti, la proposition de faire de la sédation un « droit » du malade est reprise par le CCNE. Le patient pourrait ainsi demander, lorsqu'il est en fin de vie, atteint d'une maladie grave et incurable, d'être plongé dans le sommeil, jusqu'au moment de sa mort.

Cette pratique est déjà autorisée par la loi Leonetti, elle n'est qu'exceptionnellement utilisée (hormis dans les cas particuliers posés par la réanimation ou la néo-natologie). Car les médecins sont rarement confrontés à des symptômes absolument réfractaires à toute autre médication, imposant une sédation à la fois profonde et continue.

La sédation est-elle une euthanasie qui ne dit pas son nom ? Le CCNE s'est prononcé très clairement contre un surdosage des sédatifs, qui aurait pour objectif d'écourter l'agonie plutôt que d'altérer la conscience pour épargner la souffrance. Il reconnaît ainsi que l'agonie pourra durer plusieurs semaines — lorsqu'on arrête l'alimentation artificielle d'un malade, par exemple. Dans ce cas de figure, la mort survient naturellement, du fait de la maladie ou de l'arrêt des traitements.

Une situation d'exception toutefois : la néonatologie, où la loi « devra être interprétée avec humanité » afin que « l'agonie ne se prolonge pas au delà du raisonnable ». En jeu, les situations où l'on retire les appareillages de survie à des bébés cérébro-lésés. « Lorsque la survie se prolonge, parfois plusieurs semaines, il semble que le temps ait un effet destructeur sur les parents qui assistent à une détérioration physique progressive du nouveau-né, avec un sentiment très fort de culpabilité du fait qu'ils ne remplissent pas leur rôle de nourriciers », fait ainsi remarquer le CCNE.

Sur les directives anticipées

Concrètement, le CCNE se situe dans la lignée du rapport Sicard, en préconisant de rendre contraignant, pour le médecin, le dispositif des directives anticipées. Dans les cas exceptionnels où il ne pourrait y faire droit (urgence, inadéquation de l'état du malade par rapport à ce qui avait été anticipé...), il devrait s'en justifier par écrit.

Cela suppose d'améliorer l'ensemble du dispositif, notamment en matière d'information et d'accompagnement dans la rédaction de ces directives.

Plus précisément, le CCNE suggère de créer des « déclarations anticipées de volonté », que toute personne, malade ou pas, songeant à sa fin de vie serait invitée à rédiger. Elles se distingueraient ainsi des directives anticipées proprement dites, que toute personne atteinte d’une maladie grave ou potentiellement létale a déjà la possibilité de rédiger.

Dans les deux cas, les directives anticipées doivent être intégrées au dossier médical personnel informatisé, voire enregistrées dans un registre national. Les règles limitant leur durée de validité pourraient être assouplies à la faveur de mesures propres à inciter à leur réitération dans un délai raisonnable.


 

 

 

 

  

 

 

 

 

Fécondation in vitro : bientôt des bébés nés de trois parents ?

http://www.maxisciences.com/b%e9b%e9/fecondation-in-vitro-bientot-des-bebes-nes-de-trois-parents_art32074.html

 www.dailymotion.com/embed/video/x104rte

L''Agence américaine des médicaments (FDA) a entendu un comité d'experts sur une question délicate : une technique qui permettrait de concevoir un bébé par fécondation in vitro en utilisant les cellules et donc l'ADN de 3 parents.

La fécondation in vitro (FIV) est une technique de procréation médicalement assistée (PMA) consistant à mettre en contact en laboratoire l'ovocyte d'une femme avec le spermatozoïde d'un homme. Ce procédé permet de concevoir des embryons lorsque les parents rencontrent des difficultés à procréer "naturellement". Mise au point dans les années 1970, la FIV est aujourd'hui couramment utilisée. Son succès a ainsi ouvert de nouvelles voies en matière de procréation. Mais certaines sont pour le moins controversées : c'est le cas de la "fécondation in vitro avec trois parents". Comme son nom l'indique, cette technique consiste à concevoir un embryon en utilisant les cellules (et l'ADN) de trois parents au lieu de deux. L'objectif ? Créer un embryon qui ne présenterait par certains défauts génétiques responsables de maladies héréditaires incurables. Il s'agirait surtout de défauts génétiques présents dans l'ADN des mitochondries (le générateur d'énergie des cellules) qui est uniquement transmis par la mère. Ces défauts peuvent être responsables de problèmes cardiaques graves, de dysfonctionnement au niveau du foie, de troubles neurologiques, de cécité ou encore de dystrophie musculaire. Une mère, un père, une donneuse Chaque année, de 1.000 à 4.000 enfants qui naissent aux Etats-Unis développent une maladie mitochondriale, pour la plupart avant l'âge de dix ans. Des maladies aux conséquences lourdes. La FIV avec trois parents permettrait alors à un couple dont la femme est porteuse d'un tel défaut génétique de contourner le risque que leur futur enfant soit atteint d'une maladie, ceci en remplaçant la mitochondrie "défectueuse" par une fonctionnelle. Concrètement, l'embryon serait conçu à partir des cellules et de l'ADN de trois individus, de la mère, du père et d'une femme donneuse. La technologie la plus couramment évoquée consiste à prélever le noyau de l'ovule de la mère et à l'insérer dans la cellule sans noyau d'une donneuse dont la mitochondrie n'est pas défectueuse. L'ovule peut alors être mis en contact avec le spermatozoïde du père pour créer un embryon qui sera implanté dans l'utérus de la mère. La grossesse se déroulerait ensuite normalement. Au cours des années précédentes, cette technique a été testée à plusieurs reprises par les scientifiques, surtout chez des singes mais aussi sur des cellules humaines. Toutefois, si des singes sont nés en parfaite santé, ce procédé n'a jamais conduit à la création d'un vrai embryon humain et pour cause, le sujet est controversé. La technique de la FIV avec trois parents pose en effet des questions éthiques qui ont poussé de nombreux pays à l'interdire, notamment les Etats-Unis. Les détracteurs estiment qu'il s'agit de manipulations génétiques destinées à concevoir des bébés sur mesure. Un premier pas au Royaume-Uni En juin 2013, le sujet a été relancé par le Royaume-Uni qui a franchi un pas crucial en ouvrant pour la première fois la voie à la technique de la FIV avec trois parents. "Les scientifiques ont développé de nouvelles procédures révolutionnaires qui pourraient empêcher que ces maladies soient transmises, offrant de l'espoir à de nombreuses familles qui cherchent à éviter que leur enfant en héritent", a expliqué en juin Sally Davies, chief medical officer du gouvernement. Cette décision a sans surprise été vivement critiquée par les détracteurs de la FIV avec trois parents. "Les technique sont inutiles et leur utilisation est éthiquement non acceptable. Ils ont passé la ligne éthique qui a été reconnue par les gouvernements à travers le monde qui dit que nous ne devons pas génétiquement modifier les êtres humains", a commenté David King, directeur du groupe Human Genetics Alert. Aujourd'hui, c'est aux Etats-Unis de plancher sur le même sujet. Mercredi, l'Agence américaine des médicaments (FDA) doit entendre un comité d'experts établir leurs recommandations sur la sûreté de cette procédure pour des essais cliniques. Les experts ne se prononceront pas sur l'aspect éthique de la technique. A peine annoncée, l'initiative a vivement fait réagir plusieurs  organismes dont le Center for Genetics and Society qui est opposé à cette pratique.  Une procédure controversée "Il s'agit d'une procédure biologiquement extrême qui pose un risque pour tout enfant conçu de cette manière et qui remet en question un consensus international de longue date contre la conception d'humains fabriqués génétiquement", juge dans un communiqué Marcy Darnovsky, directrice de cet organisme qui a lancé une pétition. Elle "soulève de sérieuses questions de sûreté et d'éthique pour la société". "Cette technique comporte un nombre étendu de risques prévisibles et imprévisibles pour tout enfant né de cette manière, ainsi que pour les générations futures. Elle pourrait ouvrir la voie à d'autres manipulations génétiques des cellules germinales", poursuit-elle reprise par l'AFP. Des craintes vivement rejetées par Susan Solomon, PDG de la New York Stem Cell Foundation qui estime que "la recherche ne devrait pas être motivée par la peur de l'inconnu". "Il n'est pas question de bébés fabriqués génétiquement, nous essayons seulement d'empêcher des maladies horribles", a-t-elle confié au Washington Post. Actuellement, plusieurs procédures  sont en test dans les laboratoires du monde mais aucune n'est actuellement autorisée à être proposée aux parents. Au Royaume-Uni, le Parlement devra encore se prononcer avant que la chose ne soit possible.  S'il donne son accord, la FIV à trois parents pourrait devenir disponible dès 2014 au Royaume-Uni. Néanmoins, il faudra surement encore quelques années avant d'être pleinement prêt à concevoir un bébé avec cette technique. Quant aux Etats-Unis, la FDA n'est pas tenue d'adopter les recommandations des comités d'experts qu'elle consulte, même si elle les entérine le plus souvent, explique l'AFP.

27/02/2014




 

 

La futurologie médicale est une urgence éthique

 

LE MONDE SCIENCE ET TECHNO 03.2014

 Laurent Alexandre

Nous allons bientôt connaître la totalité des prédispositions génétiques des bébés. Grâce à l’effondrement du coût du séquençage ADN, un diagnostic génomique complet est déjà possible très tôt dans la grossesse à partir d’une simple prise de sang chez la mère. Il est inéluctable que ce séquençage remplace l’amniocentèse, technique beaucoup plus risquée, qui entraîne une fausse couche dans 0,5 à 1 % des cas. Le Comité consultatif national d’éthique (CCNE) vient d’ailleurs de recommander aux pouvoirs publics d’accepter le séquençage prénatal par prélèvement sanguin maternel qui ne présente aucun risque pour la mère et le bébé. Il a toutefois souligné que la possibilité de lire tout le patrimoine génétique du bébé – au lieu de ne dépister que les trisomies – allait poser des questions éthiques majeures. 

En effet, le séquençage intégral de l’ADN de l’enfant va bouleverser notre rapport à la procréation puisque des milliers de maladies pourront être dépistées systématiquement pendant la grossesse. Aujourd’hui, 97 % des trisomiques dépistés sont avortés. Ferons-nous demain différemment avec les autres pathologies alors que le désir de l’enfant parfait habite la plupart des parents ? Il est hautement probable que l’interruption volontaire de grossesse (IVG) sera privilégiée dans un nombre élevé de prédispositions génétiques. L’encadrement de cette technique sera d’autant plus difficile que le séquençage prénatal, contrairement à l’amniocentèse, se pratique en début de grossesse, période où l’IVG est totalement libre.

Nous dévalons le toboggan eugéniste sans débat philosophique. Certains parents avortent déjà leurs bébés présentant une mutation des gènes BRCA1-2 qui indique une forte probabilité (70 % et 40 %) de développer à l’âge adulte un cancer du sein ou des ovaires. Indépendamment de toute considération morale, ce choix est irrationnel : il est très probable que le cancer du sein sera contrôlé en 2040 ou 2050. Autre exemple, la mutation du gène LLRK2 entraîne deux risques sur trois de développer la maladie de Parkinson, qui débute rarement avant 40 ans. Un enfant dépisté en 2015 pour cette mutation ne serait pas malade avant 2055. La décision d’interrompre une grossesse doit être prise non pas en fonction de la gravité de la maladie en 2015, mais à l’époque où la maladie toucherait l’enfant.

 

Voilà médecins et parents confrontés à un pari technologique : comment va évoluer la prise en charge des pathologies dans les décennies qui viennent ? Telle maladie sera-t-elle encore mortelle en 2030, 2040 ou 2060 ? Aucune structure médicale ne maîtrise la prospective à aussi long terme et le corps médical n’y a jamais réfléchi. Pourtant, il est crucial de former les médecins à la prospective technologique sauf à accepter l’avortement de nombreux bébés qui grâce aux progrès de la médecine pourraient facilement être traités dans le futur. Le CCNE pourrait structurer cette démarche. Son président, le professeur Jean-Claude Ameisen, cumule une expertise en génétique, une grande humanité et une remarquable vision prospective. Des compétences nécessaires pour ce sujet sensible qui, s’il n’est pas traité rapidement, risque de condamner, dans le silence des laboratoires et sans débat éthique, des milliers d’enfants chaque année en France.

Laurent Alexandre est chirurgien urologue, président de DNAVision. l.alexandre@dnavision.be

 


 

Recours aux techniques biomédicales en vue de « neuro-amélioration » chez la personne non malade: enjeux éthiques/La neuro-amélioration à l’épreuve de l’éthique... et de la sémantique

 

avis n° 122 du Comité consultatif national d'éthique (CCNE)  12/02/2014

 

Recours aux techniques biomédicales en vue de « neuro-amélioration » chez la personne non malade: enjeux éthiques

avis complet en PDF :

http://pdf.lu/8R89

 

 

La neuro-amélioration à l’épreuve de l’éthique... et de la sémantique

 

Paris, le vendredi 14 février 2014 – La formule de Boileau est souvent répétée : « Ce que l’on conçoit bien s’énonce clairement ». Les sages du comité d’éthique ont récemment pu vérifier la sagesse de cet adage en s’intéressant « aux techniques biomédicales en vue de "neuro-amélioration" chez la personne non malade ». Leur longue introduction met en effet en évidence la difficulté de trouver un terme français qui puisse rendre compte des aspects recouverts par les notions de « brain enhancement » ou « neuro enhancement ». Les expressions «d’augmentation cérébrale », « amélioration cérébrale » ou encore « optimisation cérébrale » ont en effet été tour à tour proposées, diversité qui met en évidence « la difficulté de rendre compte en français de la dimension à la fois quantitative (augmentation) et qualitative (amélioration) du terme « enhancement ». Finalement, les sages ont décidé de retenir le terme de "neuro-amélioration".

Des données très parcellaires

Cette expression choisie, fallait-il encore circonscrire le champ de la « neuro-amélioration». De tout temps en effet, comme le notent les sages, les hommes ont cherché, par diverses méthodes, à améliorer les performances de leur esprit. Mais il s’agit aujourd’hui de s’intéresser plus précisément à la « neuro-amélioration biomédicale ». C'est-à-dire finissent par préciser les sages « le recours par des sujets non malades à des techniques biomédicales (médicaments et dispositifs médicaux) détournés de leur utilisation en thérapeutique ou en recherche dans un but d’amélioration psycho-cognitive ». Le sujet promet d’être passionnant, mais il conviendrait en préambule, avant de s’intéresser aux enjeux éthiques de la neuro-amélioration de déterminer dans quelle mesure elle est une tentation pour nos contemporains . Premier constat du Comité d’éthique : « Il n’y a pas d’études en France (…) qui permettrait de mieux cerner sa fréquence » observe le professeur Marie-Germaine Bousser, co rapporteur de l’avis publié cette semaine. Le manque de données touche tous les domaines. Il est par exemple impossible de déterminer la part de jeunes enfants Français utilisant la ritaline aux seules fins d’améliorer leurs résultats scolaires. Aux Etats-Unis, les enquêtes sur ce thème sont plus nombreuses. On sait par exemple que 8 à 25 % des étudiants ont recours à des médicaments neurostimulants. Par ailleurs, les projets de recherche sur ce thème se multiplient soutenus notamment par les militaires.

Invitation à la prudence

Prise de médicaments (anxiolytiques, antidépresseurs, inhibiteurs de la cholinestérase mais surtout stimulants), stimulation cérébrale transcrânienne non invasive, neurofeedback ou encore stimulation cérébrale profonde : les méthodes employées afin d’améliorer l’homme sont très nombreuses et très différentes. Leur efficacité « a pu être observée mais elle est inconstante, modeste, parcellaire et ponctuelle » estiment les sages. Ils notent également que « le rapport bénéfice/risque à long terme » est « totalement inconnu ». Aussi, invitent-ils à la plus grande prudence. Signalant un « risque probable d’addiction », ils recommandent notamment de soustraire les sujets les plus vulnérables, les enfants et les adolescents, à ce type de pratiques. Ils soulignent par ailleurs la nécessité de disposer de davantage d’études sur le sujet. Leur message s’adresse en outre au « corps médical », dont il « est indispensable » qu’il soit « informé des divers enjeux de la neuro-amélioration biomédicale ». A cet égard, le Comité d’éthique relève que « l’élargissement du champ de la médecine à la neuro-amélioration biomédicale du sujet non malade, comporterait un risque majeur de distorsion des priorités de santé, risque qui ne pourrait que s’aggraver si les ressources publiques étaient engagés ».

Une portée politique

On le voit, la portée de cet avis est également politique. D’ailleurs, les sages soulignent que l’un des risques de la neuro-amélioration est de voir émerger d’une part un « culte de la performance favorisant une coercition souvent implicite » et d’autre part une caste privilégiée d’individus augmentés qui ne viendrait que renforcer les différences entre riches et pauvres. Plus globalement, les sages observent que la neuro-amélioration entraîne une vision probablement « fragmentée » de l’être humain. En tout état de cause, ils estiment qu’une « veille éthique » est indispensable face à un sujet où il faudrait se garder « de verser tant dans l’optimisme des mélioristes que dans le pessimisme des antimélioristes ».

Ce sujet passionnant et la prise de position des sages qui, une nouvelle fois, se refusent à envisager l’homme comme une machine, susciteront sans doute de très nombreuses réflexions.

A.H.


 

 

 

 

 

L'embryon humain n'est pas un objet

Professeur Alain Privat

  • Publié le 17/07/2013 

TRIBUNE - Après le vote de la loi de bioéthique mardi, Alain Privat, membre correspondant de l'Académie nationale de médecine, explore d'autres pistes de recherche pour obtenir des cellules souches.

La loi de bioéthique qui permet l'expérimentation sur l'embryon humain a été votée au Parlement en début de semaine. La loi précédente, qu'elle remplace, interdisait ces expérimentations, mais prévoyait des dérogations faisant l'objet d'autorisations très réglementées. Cette loi était sage, car elle évitait des débordements que l'on constate dans certains pays permissifs, tout en laissant la porte ouverte à des recherches spécifiques.

Certains scientifiques activistes, qui se disent abusivement les porte-parole de la communauté, ont demandé la révision de la loi de bioéthique, au prétexte qu'elle restreignait la liberté des chercheurs et faisait prendre à notre pays un retard inacceptable en matière de recherche fondamentale et de thérapies innovantes. Il n'en est rien. L'examen attentif des bases de données internationales sur la recherche biomédicale révèle plusieurs choses.

D'une part, l'énorme majorité des travaux de recherche fondamentale sur l'embryon a été et est toujours conduite sur des modèles animaux, qui, par nature, se prêtent mieux que l'embryon humain à une expérimentation scientifique rigoureuse. Ces modèles vont du poisson rouge au primate, en passant évidemment par les modèles phares que sont les rongeurs, rats ou souris, qui constituent aujourd'hui l'étalon de base de toute recherche biomédicale. D'autre part, le nombre déjà réduit des travaux conduits sur l'embryon humain est en régression constante depuis une vingtaine d'années, y compris dans des pays, comme la Grande-Bretagne, qui ne posent pas de limites à ces recherches.

«Les sources de cellules souches sont multiples. Le cordon ombilical en est très riche. Par ailleurs, tous les tissus d'un homme adulte contiennent des cellules souches, y compris le cerveau et la moelle épinière, où elles ont été détectées il y a quelques années»

L'autre argument mis en avant par les tenants de l'expérimentation sur l'embryon humain est l'utilisation possible de cellules souches, dont il serait la source exclusive. Les cellules souches, dont les deux caractéristiques sont de se multiplier quasiment à l'infini et de pouvoir se différencier dans tous les types cellulaires de l'organisme, sont des outils potentiels de thérapies pour des maladies actuellement incurables. Là encore, cet argument est fallacieux, car les sources de cellules souches sont multiples. Le cordon ombilical en est très riche. C'est la découverte en France de l'équipe d'Éliane Gluckman, qui depuis vingt-cinq ans traite des anémies sévères par ce moyen. Par ailleurs, tous les tissus d'un homme adulte contiennent des cellules souches, y compris le cerveau et la moelle épinière, où elles ont été détectées il y a quelques années. Enfin, et c'est une découverte majeure de la dernière décennie, les cellules adultes inductibles dites «iPS», qui ont valu à leur inventeur, le professeur Yamanaka, le prix Nobel de médecine en 2012, apportent un outil de recherche et de thérapie exceptionnel. Ces cellules, qui peuvent être obtenues à partir d'un fragment de peau prélevé sur un individu sain ou malade, ont déjà permis, depuis leur invention en 2006, de progresser considérablement dans la modélisation de certaines maladies rares et, très récemment au Japon, de mettre en œuvre un essai clinique dans une maladie de la rétine. L'avantage considérable, et exclusif, par rapport aux cellules embryonnaires, toujours passé sous silence par leurs défenseurs, est la possibilité d'utiliser les cellules mêmes du malade et donc de ne pas avoir recours après greffe à une immunosuppression lourde, génératrice d'effets secondaires.

Un dernier argument des partisans de l'utilisation des cellules souches embryonnaires humaines serait le risque de tumeurs avec les cellules iPS. Or, d'une part, le même risque existe avec des cellules souches embryonnaires et, d'autre part, les derniers progrès dans l'obtention des iPS permettent de contrôler étroitement les gènes qui gouvernent la prolifération, et donc les tumeurs potentielles. Enfin, les essais thérapeutiques conduits avec les cellules souches humaines embryonnaires se sont tous révélés décevants, quand ils n'ont pas été interrompus, comme récemment en Allemagne, à la suite de décès.

Un dernier point capital mêle le scientifique à l'éthique: l'autorisation d'expérimenter sur l'embryon humain va conduire inéluctablement à la marchandisation de ces embryons, qui, depuis la rencontre d'un ovule et d'un spermatozoïde constituent un être humain. Le «stock» d'embryons humains surnuméraires, sans projet parental, et donc voués à la destruction, va inévitablement se tarir, en raison de la mise en œuvre en France de la technique de vitrification, qui beaucoup plus efficace, ne nécessite plus lors d'une PMA des fécondations multiples. De puissants lobbys industriels ont agi dans l'ombre pour libéraliser l'expérimentation sur l'embryon et vont désormais pouvoir constituer des batteries de cultures pour tester des médicaments, à un coût bien moindre que celui des iPS ou de l'expérimentation animale. Dans certains pays particulièrement permissifs, de tels trafics d'«embryons médicaments» existent déjà, et tous les garde-fous législatifs à une loi permissive ne pourront les empêcher en France. L'expérimentation sur l'embryon humain, qui n'a plus aujourd'hui de justification scientifique ni thérapeutique, constitue, à l'égal de la gestation pour autrui (GPA), l'instrumentalisation de l'autre à ses propres fins, contraire à tout principe éthique.


 

L'embryon n'est pas une personne

Pr René Frydman :

 

INTERVIEW - Pour le père du premier bébé-éprouvette français, la recherche sur l'embryon, discutée ces jours-ci à l'Assemblée, est indispensable à la recherche scientifique.

Le Pr René Frydman a permis la naissance du premier bébé-éprouvette français en 1982 et des premiers bébés français à partir d'ovocytes congelés. Ce pape de la procréation médicale assistée, qui a rejoint l'hôpital Foch de Suresnes, explique pourquoi il est résolument favorable à la recherche sur l'embryon et, donc, à la proposition de loi qui est examinée actuellement par l'Assemblée et sera soumise au vote mardi.

Le Figaro.- Si la loi autorisant la recherche sur l'embryon était votée, que changerait-elle concrètement?

Pr René Frydman.- Elle mettrait fin à une incohérence et à une instabilité juridique. En résumé, le texte propose de parler «vrai» au lieu de parler «caché». Car aujourd'hui, en matière de recherche sur l'embryon en France, on parle «caché». La loi telle qu'elle existe actuellement dit que la recherche sur l'embryon est interdite sauf dérogation. La proposition de loi stipule, elle, que la recherche est autorisée de façon encadrée. Une quinzaine de plaintes ont été déposées contre des médecins et l'Agence de biomédecine par des associations. Or il est très difficile de mener à bien des travaux de recherche dans un climat scientifique serein quand on fait l'objet d'une plainte.

D'où viennent ces embryons?

Aujourd'hui, dans le cadre de la fécondation in vitro, il existe en France des embryons «surnuméraires» qui sont congelés. On en compte environ 50.000 qui ne font plus l'objet d'un projet parental. Si un couple choisit de ne plus faire d'enfants ou qu'il a décidé de se séparer, la législation a prévu plusieurs possibilités. Il est possible de faire don de l'embryon à un couple qui ne peut pas avoir d'enfant (seulement 150 à 200 sont donnés par an en France), de faire le choix de les détruire ou de mettre fin à la conservation en autorisant des travaux de recherche. Il faut savoir que sans nouvelles du couple, les laboratoires détruisent les embryons congelés au bout de cinq ans.

Donc la destruction d'embryons est de facto déjà autorisée par la loi française! Pour les opposants, ce sont les connaissances que l'on pourrait obtenir de ces embryons - qui de toute façon seront détruits -, qui sont condamnables, plus, finalement, que la destruction en elle-même.

Vous réfutez donc tous les arguments dits «éthiques» qui sont avancés pour justifier l'interdiction de recherche sur l'embryon?

Peut-on interdire la connaissance sous prétexte que l'on a des réticences éthiques? Je ne pense pas. L'histoire montre d'ailleurs le contraire. Prenons un exemple. On peut connaître le sexe de l'enfant à 7 ou 8 semaines de grossesse par une simple prise de sang de la mère. Or, en France, on ne fait pas ce diagnostic sur simple demande des parents. Cet exemple montre que l'on peut avancer sur le plan de la connaissance et se limiter sur son application. Même chose pour l'énergie atomique! On utilise ces connais­sances pour l'électricité alors qu'on a la capacité scientifique de faire des bombes atomiques. Comme dit mon ami Hervé Chneiweiss, qui dirige le comité d'éthique de l'Inserm: «Ce n'est pas en cultivant l'ignorance que l'on fera pousser les idées de ­progrès.»

L'argument de ceux qui s'opposent à la recherche sur l'embryon est de dire que l'embryon est une personne humaine. Que leur répondez-vous?

Pour moi, l'embryon n'est pas une personne humaine. C'est une personne humaine en devenir que s'il est dans un projet parental. Le distinguo est important. Effectivement, il y a ceux qui considèrent que l'embryon est une personne dès la fécondation et ceux qui estiment que l'embryon devient une personne en se constituant au cours de l'évolution. Que ce soit à la naissance ou avant d'ailleurs. La notion de datation du moment où l'embryon devient une personne a de toutes façons évolué dans l'histoire. Pour Saint Thomas d'Acquin, l'âme ne venait que 40 jours après la fécondation. On retrouve d'ailleurs ce chiffre dans le Talmud: l'embryon n'est que de l'eau jusqu'à 40 jours. Pour le Coran, l'embryon se constitue par étapes de 40 jours. Et il faut plusieurs étapes pour estimer que ce dernier est bien fixé dans l'utérus. Cette date de 120 jours correspond effectivement à la période des fausses couches. Le document du ­Vatican, Donaem vitæ, rédigé par le cardinal Ratzinger, futur Benoît XVI, influence certains de nos députés. Ils estiment qu'il faut protéger la personne humaine en devenir, et donc les embryons.

L'embryon mesure une dizaine de millimètres et n'a aucune forme humaine. Un œil non averti ne peut pas différencier un embryon de souris d'un embryon humain. Il faut également savoir que quand on parle d'embryons congelés, il s'agit d'embryons qui ont 2, 4 ou 6 jours maximum.

En résumé, vous estimez qu'il est rétrograde en 2013 d'interdire la recherche sur l'embryon?

Oui! C'est incohérent et rétrograde. De toute façon, la recherche sur l'embryon se fait déjà en France et de manière légale! Une vingtaine d'autorisations de recherche ont été données par l'Agence de biomédecine. N'oubliez pas que la recherche sur l'embryon est également une recherche pour améliorer les performances de la procréation médicalement assistée (PMA).

«Avec la GPA, on franchit une limite : celle de l'instrumentalisation de l'autre à ses propres fins (...) Je suis opposé à toute commercialisation du corps de la femme et du corps de l'homme également»

Pr René Frydman

Autre argument: comme il est possible de faire de la recherche sur des cellules fabriquées en laboratoire depuis des cellules humaines, les cellules souches pluripotentes induites (dites IPS), pourquoi travailler sur des cellules embryonnaires?

C'est le grand argument des opposants à la recherche sur l'embryon. Les cellules IPS ont la faculté de pouvoir devenir n'importe quelle cellule de l'organisme. Par exemple, certaines parties de la cellule se contractent et deviennent des cellules cardiaques, d'autres se solidifient et donnent des os. Si l'on parvient à constituer des cellules organe par organe, on pourrait en injecter pour réparer un organe au lieu de devoir en transplanter un autre par exemple. Que ce soit pour les IPS ou les cellules embryonnaires, l'objectif est le même. Sauf qu'il y a des limites aux IPS puisqu'elles peuvent induire une prolifération de cellules oncogènes. Dans ce cas, on injecterait une cellule cancéreuse ou lieu d'une cellule médicament.

Vos travaux portent sur la PMA, que pensez-vous de la gestion pour autrui (GPA)?

Je suis contre. Avec la GPA, on franchit une limite: celle de l'instrumentalisation de l'autre à ses propres fins. Or j'estime que l'on ne peut pas utiliser la personne humaine existante - pour moi, vous l'avez compris, l'embryon n'est pas une personne humaine mais une potentialité - pour satisfaire ses propres désirs, en l'occurrence avoir un enfant. Je suis contre cette aliénation, cette exploitation de l'autre, sachant, je le rappelle, que dans ce cas, cet autre existe déjà. Je suis opposé à toute commercialisation du corps de la femme et du corps de l'homme également.

Il y a un mois, Amandine, née d'une fécondation in vitro que vous avez réalisée en 1982, a accouché d'une fille conçue de manière naturelle. Amandine a souhaité médiatisé cette naissance. Pourquoi?

L'idée est simple: il n'y a pas plus de stérilité chez les enfants conçus in vitro que chez les autres. Les enfants nés par PMA peuvent devenir parents, au même titre que les autres. Sauf dans le cas de certaines ICSI (Intra Cytoplasmic Sperm Injection, ces FIV avec injection directe d'un spermatozoïde dans l'ovocyte) réalisées lorsque l'homme a une stérilité d'origine génétique. Dans ces cas très précis, il peut être possible de transmettre l'infertilité, comme pour toute transmission génétique. Si l'enfant est un garçon, bien sûr.


 

ETHIQUE ET FIN DE VIE, COMMENT TENTER DE RESOUDRE NOS PROBLEMES MORAUX

http://www.jnlf.fr/Data/02-congres/2013/27/FLCV/index.htm

Conférence plénière des JNLF 2013


 

 

Freeing human eggs of mutant mitochondria

Transmission of mitochondrial diseases from mother to offspring could be prevented.

mitochondrion
Transferring DNA from one fertilized egg to another could help prevent the transmission of some inherited diseases.

Researchers have successfully transplanted the genetic material in the nucleus of a fertilized human egg into another fertilized egg, without carrying over mitochondria, the energy-producing structures of the cell. The technique could be used to prevent babies from inheriting diseases caused by mutations in the DNA of mitochondria, which are present in the cytoplasm of the egg.

The British team carrying out the study used fertilized eggs donated by couples undergoing fertility treatment, and which were unsuitable forin vitro fertilization (IVF). At this early stage the sperm and egg nuclei, which contain most of the parental genes, have not yet fused. The researchers removed these nuclei and transferred them into another fertilized egg cell which had had its own nuclei removed.

As very little cytoplasm was transferred with the nuclei, the transfer left behind almost all the mitochondria from the donor egg. The researchers then grew the manipulated embryos for 6 to 8 days to determine whether they were able to continue development, and tested for the presence of donor mitochondrial DNA. Their work is published online by Nature today.

Last year, researchers in the United States used a similar technique in monkeys ; four embryos developed to term, and so far seem to be healthy and normal.

"It's very exciting," says David Thorburn, a geneticist who studies mitochondrial diseases at the Murdoch Childrens Research Institute in Melbourne. "It's a real shot in the arm for families that have had their children die from these various diseases."

Proof of principle

As many as 1 in 250 people carry a potentially disease-causing mitochondrial mutation. Mutations in mitochondrial DNA, when passed down from a mother to her offspring, are linked to diseases causing neurological, muscle and heart problems, as well as deafness and type 2 diabetes.

Many people carry a mixture of normal and mutated mitochondrial DNA — a proportion of more than 50% or so of mutant mitochondria is needed to cause disease — but the percentage of mutated mitochondrial DNA that will be transmitted from mother to child is almost impossible to predict, says Thorburn.

“We've proved in principle that this sort of technique can be used to prevent transmission of mitochondrial diseases in humans.”

 

Porting the nuclear DNA of an affected egg into an unaffected one could provide a solution for women at high risk of bearing severely affected children, says Douglass Turnbull at Newcastle University, one of the lead authors of the new study. Working with abnormally fertilized eggs unsuitable for IVF — for example, those fertilized by two sperm instead of one — Turnbull and his team transferred nuclei from 80 embryos just after fertilization. Of those, 18 continued to develop to beyond the eight-cell stage, and a small number of those reached the blastocyst stage of 100 cells. On average, the procedure carried over about 2% of mitochondrial DNA from the donor to the recipient embryo, which would not be enough to cause disease.

"We've proved in principle that this sort of technique can be used to prevent transmission of mitochondrial diseases in humans," says Turnbull. The task now, he says, is to show that the technique is safe and to boost the survival rate of manipulated embryos — factors that were difficult to assess in this study because abnormally fertilized eggs develop less well than normal embryos.

Human hopes

Nevertheless, twice the number of unmanipulated abnormally fertilized eggs developed to blastocyst stage compared with the manipulated eggs, suggesting that the technique needs some tweaking, notes Shoukhrat Mitalipov at Oregon Health & Science University in Portland, whose lab published the work on monkeys. Mitalipov's group used a slightly different method, transferring the nuclear DNA from unfertilized eggs. Using fertilized eggs may pose an ethical problem, he says, as the transplantation procedure destroys the donor embryo. 

Turnbull and his colleagues are currently working with the Human Embryology and Fertilisation Authority, the UK body that licenses research on embryos, to determine what further studies must be done before a human embryo that has undergone the procedure can be brought to term. "There isn't a license in place to do this at the moment," he says. Mitalipov, too, plans to seek approval from the US Food and Drug Administration to use his technique in vivo, which is likely to prove challenging because gene therapy involving human eggs and sperm is highly restricted on ethical grounds.

Regardless of the technique, says Thorburn, the researchers will have to show that mixing different nuclei and cytoplasms does not affect normal development. Even succesful trials in monkeys will not prove that the technique will be succesful in humans, he notes. "I guess every IVF approach has been to some extent a leap of faith." 

References

Craven, L., et al. Nature advanced online publication, doi: 10.1038/nature08958 (2010).

Tachibana, M., et al. Nature461, 367-372 (2009).