"He who receives ideas from me, receives instruction himself without lessening mine; as he who lights his taper at mine receives light without darkening me”

Thomas JEFFERSON    3rd US President

COMMUNIQUÉ

Déremboursement des médicaments contre la maladie d’Alzheimer

La Fédération des Centres Mémoire, la Fédération Française de Neurologie, la Société Française de Neurologie, la Société Française de Gériatrie et de Gérontologie et la Société Francophone de PsychoGériatrie et de Psychiatrie de la Personne Âgée tiennent à rappeler leur avis concernant les approches thérapeutiques en vigueur dans le monde. Les grandes études scientifiques internationales prônent une prise en soins de la maladie d’Alzheimer et des maladies apparentées combinant des approches médicamenteuses et non médicamenteuses complémentaires. Selon plusieurs méta-analyses, les médicaments symptomatiques qui pourraient ne plus être remboursés demain, ont prouvé leur efficacité sur la cognition dans la maladie d’Alzheimer, la maladie à corps de Lewy et la démence de la maladie de Parkinson. Cet effet dont l’amplitude est modeste est démontré. La pertinence clinique de ces médicaments ne se conçoit que s’ils sont associés à l’ensemble des mesures non médicamenteuses, psycho-sociales notamment. De nombreuses familles en témoignent tous les jours en consultation et par la voix de France Alzheimer. Ces médicaments n’ont pas montré d’effet délétère s’ils sont bien utilisés en respectant les contre-indications et précautions d’emploi, comme en témoigne l’absence de signal de pharmacovigilance de la part des instances sanitaires des grands pays. Sans grande économie (30 euros par mois par patient), un déremboursement introduirait une iniquité importante chez les patients pour lesquels ces médicaments seraient indiqués, porteurs d’une maladie d’Alzheimer, ou d’une maladie à corps de Lewy qui répond tout particulièrement à ces traitements. Les conditions dans lesquelles la Commission de Transparence de la Haute Autorité de Santé a instruit le service médical rendu par ces traitements et émis l'avis qui justifierait aujourd'hui leur déremboursement nous semblent de nature à susciter de grandes réserves sur les conclusions de ses débats. Du fait de l’absence de sérénité accompagnant cette question majeure de santé publique, nous plaidons pour un nouvel examen des résultats scientifiques réels des grandes études internationales avant de prendre une décision définitive qui isolerait la France et surtout, serait délétère pour les patients français et leur entourage. Fédération des Centres Mémoire Fédération Française de Neurologie Société Française de Neurologie Société Française de Gériatrie et de Gérontologie Société Francophone de PsychoGériatrie et de Psychiatrie de la Personne Âgée

 

REGARDS SUR LE REGARD

Juin 2018

L'ÉCHANGE PAR LE REGARD

Alain Berthoz

Professeur au Collège de France,

Membre de l’Institut,

Directeur du Laboratoire de Physiologie de la Perception et de l’Action.

 

 

 

« La vision est palpation par le regard. »

M. Merleau-Ponty

 

Le regard n’est pas seulement l’orientation de l’œil  vers un point de l’espace pour y récolter les informations sur le monde que la vision donnera, il est projection sur le monde de préperceptions, il est décision de regarder en fonction des intentions du sujet ; le regard est capture du monde et d’autrui, il est anticipation, il est construction d’un monde par le sujet percevant en fonction de ses expériences passées, de sa visée vers le futur, de ses désirs et de ses craintes, de ses croyances et des règles sociales qui le guident. Nombreux sont aujourd’hui les ouvrages qui tentent de décrire l’importance du regard et d’en dévoiler la fonction et les mystères . Le regard qui établit le contact avec l’autre peut être le « mauvais œil », familier à toutes les civilisations méditerranéennes. Au Maghreb et au Proche-Orient, il est ressenti comme un organe ambivalent : à la fois récepteur du monde et émetteur de force vivante. Cette force s’écoule comme l’eau d’une source dont l’œil, en langue arabe, porte le nom.

Le regard échappe donc à la seule approche de la physiologie car il est condensé de biologie et de culture. C’est la première interaction de l’enfant avec le monde. Avant de marcher avec ses jambes, il marche avec son regard, il interroge sa mère. Il suffit de contempler un moment cet extraordinaire échange entre la maman et son jeune bébé lorsqu’ils se regardent pour comprendre qu’il s’agit là de beaucoup plus qu’un simple mouvement, une simple « visée », la simple création d’une image. Il s’agit d’une pénétration réciproque, d’une « commune union » ou communion au sens plein du terme ; le monde extérieur n’existe plus pour deux êtres complètement absorbés par cette fascination réciproque où l’on sent que s’échangent, se donnent et se prennent de multiples messages, mais surtout s’élabore un vécu partagé.

Dans cet immense champ des possibles, que peut-on dire sur le regard et l’autisme ? Je ne suis pas un spécialiste de l’autisme et de surcroît, n’étant pas médecin, je ne puis ici que proposer quelques idées des mécanismes concernant la physiologie du regard. C’est dans cette perspective que se place ce texte. Il n’a pas pour objectif de résumer toutes les connaissances sur les bases neurales du contrôle du regard. De nombreuses revues récentes accomplissent cette tâche. Je ne puis qu’indiquer quelques aspects essentiels et proposer quelques idées simples. Je tenterai, toutefois, de proposer quelques pistes de réflexion plus générales sur le regard échangé.


Leon Battista Alberti - 1472 -
(Sant'Andrea (Mantua, Italy))

LES REGARDS

Le regard qui se projette

L’idée que le regard est une projection du cerveau sur le monde n’est pas nouvelle. Déjà à Babylone le regard était mâle et se projetait, ou femelle et recevait la lumière. Chez les Grecs, Empédocle (490-430 av. J.-C.) déclare que l’intérieur de la vue est du feu, autour duquel se trouvent de l’eau, de la terre et de l’air à travers lesquels il peut passer grâce à sa subtilité, à la façon de la lumière dans les lanternes. Les pores du feu et de l’eau sont disposés en quinconces. À travers le feu, nous percevons les objets blancs, à travers l’eau les noirs. Chaque donnée sensible s’harmonise à chaque type de pore. Les couleurs viennent à la vue par l’« effluve ». Sa théorie dite de l’ « extra-mission » suppose que ce feu interne produit de la lumière qui se reflète sur les objets et retourne vers l’œil. Platon (426-348 av. J.-C.) a proposé une théorie dite de l’« interaction ». Des rayons visuels seraient produits par l’organisme et entreraient en interaction avec la lumière ambiante et formeraient le « cône de vision » dont le sommet est dans l’œil et la base sur l’objet. Ce cône touche l’objet qui le met en vibration, laquelle est transmise à l’œil. Ce signal vient activer les composantes cognitives de l’âme qui sont situées dans le cerveau. Alahazen (965-1038) a lui aussi proposé une théorie « interactionniste » du regard : des signaux visuels efférents produits par le cerveau (spiritus visibilis), au niveau du chiasma optique, pénètrent dans l’œil et interagissent avec les ondes visuelles produites par les objets. Cette interaction est ensuite renvoyée dans le cerveau et se combine avec les informations de l’autre œil pour donner une perception.

L’art de la Renaissance italienne est en partie fondé sur l’exploitation de la perspective. Le regard y est un « point de vue » sur le monde. La révolution qu’ont entraînée les théories d’Alberti sur la perspective vient de l’idée que le monde est décrit du « point de vue » du sujet percevant dont on reproduit la visée, il est guide des rapports de l’architecture. Cette idée des mouvements du regard comme moyen de changer de « point de vue » sera très importante dans l’école soviétique des années 1950 dont les travaux, malheureusement, ont été oubliés par la littératureoccidentale.

Le regard qui palpe

« La vision est palpation par le regard », écrivait Merleau-Ponty. L’équivalence entre les perceptions visuelle et tactile a été démontrée par Bach-y-Rita dans ses expériences célèbres qui ont permis de faire « voir » des aveugles de naissance en leur appliquant sur la peau des vibrations. Cette technique est limitée et n’est pas aussi efficace que la lecture en braille, qui utilise sans doute l’exploration active tactile par le sujet, mais elle a démontré que les prévisions de Sartre qui avait annoncé que le sens tactile était l’« analogon » de la vision étaient justes. Une expérience récente d’imagerie cérébrale vient de confirmer l’intuition du philosophe (Keysers et coll., 2004). Lorsqu’on présente à des sujets une image de leur propre jambe en train d’être caressée par  une main, il se produit une activation dans les aires du cerveau qui sont aussi activées lorsqu’on touche réellement la jambe du sujet (aires somato-sensorielles S2) 4. La vision est donc bien palpation par le regard.

Je suggère que, d’une certaine façon, le « contact » par le regard est l’équivalent du contact par la main. Merleau-Ponty écrivait : « L’objet est au bout du regard. »

 

Le regard qui oriente l’attention et guide l’action

Le regard est d’abord orientation. Elle peut être déterminée soit par un événement dans le monde extérieur, soit de façon endogène par l’intention du sujet. Les « réactions d’orientation » dirigent le regard, et parfois le corps vers un site ou une cible d’intérêt. Ces mouvements sont en général faits sur place, sans locomotion. Nous désignons aussi par ce terme des changements implicites de la direction de l’attention.

L’orientation vers une source sensorielle est un comportement que l’on retrouve chez les organismes les plus simples. Il a été généralement décrit sous le nom de « taxie » par les éthologistes qui ont ainsi distingué « phototaxie », « héliotaxie », « thermotaxie», etc. Chez les insectes comme la mouche, les mouvements d’orientation sont réalisés grâce à des mécanismes automatiques d’une grande subtilité. Mais ces circuits sont relativement rigides en ce sens qu’ils ne comprennent que très peu de stations. Lorenz a beaucoup insisté sur le rôle fondamental qu’a joué l’insight. Il a montré par exemple que les mouvements d’orientation des bébés oiseaux vers la mère revenant au nid avec de la nourriture contiennent en réalité deux éléments du répertoire moteur : un mouvement d’élévation du bec vers la mère, distinct d’un véritable mouvement d’orientation qui, lui, dépend de la direction de laquelle vient la mère. Il a par ailleurs insisté sur le fait qu’une partie des synergies qui sont mises en jeu dans les mouvements sont parfaitement indépendantes des entrées sensorielles. Chez les psychologues, bien qu’elle soit loin de l’analyse des mécanismes neuronaux, la théorie dite « écologique » de Gibson nous rappelle que le développement de la vision fovéale qui s’est accompagnée de la migration des yeux d’une position latérale à une position frontale a permis la mesure de la distance frontale des objets, sans doute pour faciliter la capture manuelle et pour la poursuite oculaire. Mais les avantages de la vision frontale ont eu pour conséquence que les animaux ont dû développer des mécanismes pour prélever successivement des échantillons du monde visuel.

Il fallut que des mouvements de la tête apparaissent et que la coordination des mouvements d’exploration permette un recouvrement des images successives qui, d’après Gibson, est essentielle pour assurer la cohérence de la représentation de l’ensemble d’une pièce dans laquelle on se trouve, par exemple. Gibson se demande, au sujet de la réaction d’orientation, comment sont guidés les déplacements du regard, et ce qui conduit le regard à se diriger dans une direction et non pas dans une autre et à s’arrêter à un endroit de l’espace plutôt qu’à un autre. La réponse, d’après lui, doit être que des structures intéressantes de la scène – et des morceaux intéressants de structure, plus particulièrement des mouvements – entraînent la fovéa vers elles. Les variables de la structure optique contiennent de l’information et du sens et spécifient les actions qu’ils permettent de faire (affordances, en anglais). La capacité d’explorer l’espace activement par des mouvements d’orientation produits non pas seulement en réponse à des stimulations de l’environnement, mais en fonction des désirs du sujet, est donc un aspect important des mouvements d’orientation qui nous intéressent.

Parmi les physiologistes, Pavlov (1927) a donné cette description de la réaction d’orientation : « L’apparence d’un stimulus nouveau évoque immédiatement un réflexe de recherche, l’animal fixe tous ses récepteurs sensoriels pertinents vers la source de perturbation, élevant les oreilles, dirigeant son regard vers la source et reniflant l’air. » Le réflexe d’orientation est donc un état d’éveil généralisé qui n’est pas spécifique à une seule modalité sensorielle.

Pour expliquer le fait que la réponse au stimulus disparaît avec la répétition (extinction), Sokolov a introduit un concept fondamental de « modèle neuronal du stimulus ». On retrouve aujourd’hui ce concept dans bien des spéculations sous les noms de « modèle interne », « estimation centrale », « prédiction », « hypothèse intrinsèque ». Ce concept est celui d’une trace qui enregistre les propriétés du stimulus. Donc le réflexe d’orientation n’implique pas seulement des boucles sensori-motrices courtes : il implique une connexion entre le néocortex comme mécanisme de base de l’analyse des signaux et l’hippocampe comme système détecteur de nouveauté. Dans la littérature soviétique, la réaction d’orientation est donc plus une préparation à l’action qu’une simple réaction.

On doit aussi citer les travaux de Hess en Allemagne. Il fit de nombreuses expériences de stimulation électrique concernant le rôle des structures du diencéphale et du tectum dans l’organisation des réactions d’orientation. Il a bien établi que l’orientation du regard est une action qui implique l’ensemble de la posture de l’animal et que les réactions d’orientation sont comprises dansl’expression corporelle des émotions. Elles ont par conséquent une signification liée aussi au contexte de l’action. Les mécanismes automatiques de l’orientation du regard, c’est-à-dire le mouvement combiné de la tête et des yeux, incluent aussi des prédictions de l’effet de la gravité sur la tête, par exemple. Ils sont donc prédictifs. Ma propre conception de la réaction d’orientation est qu’elle permet au système nerveux central de diriger l’attention ou de capturer un objet d’intérêt en construisant une configuration d’états de capteurs sensoriels définie par une hypothèse, formulée par le cerveau, sur la nature possible de l’objet visé ; elle est préparation à l’action. D’où l’intérêt porté aujourd’hui sur la « désignation » par le regard.

Le regard est donc guide pour l’action. Johansson a montré récemment que le regard se porte toujours en premier, avant la main, sur l’objet que l’on va saisir. Il sert de référentiel à l’action de préhension. Dans ce contexte, l’orientation du regard est toujours accompagnée d’une hypothèse à la fois sur l’objet de l’orientation et sur l’action envisagée. C’est ce qui fait la difficulté de son étude. Elle n’est pas seulement un mouvement, mais un mouvement orienté vers un but et préparatoire de l’action. Il y aura donc plusieurs façons de s’orienter vers un même but. De plus, elle fait sans doute appel à un répertoire, prédéterminé génétiquement, de comportements d’orientation.

Le regard guide de l’action

Lorsque l’orientation est volontaire, endogène, qu’elle procède de l’intention de saisir un objet, elle anticipe l’action. Nous avons montré que, chez l’adulte, au cours de la locomotion, la trajectoire est anticipée par le regard, comme si le cerveau la planifiait et la simulait en interne. Le regard projetterait ainsi sur l’espace la trajectoire imaginée et le guidage visuopostural de lalocomotion serait ainsi le fait du regard. Cette fonction anticipatrice du regard correspond aussi à la stabilisation de la tête pendant les mouvements complexes du corps. Elle n’est pas présente chez l’enfant très jeune mais apparaît toutefois au cours des premières années. Tout déficit dans la capacité de construire une visée unique du regard dans l’espace induira ainsi des déficits dans la capacité de produire des trajectoires locomotrices vers un but. Il y a peut-être là aussi une piste à suivre dans les recherches sur l’autisme mais, à ce stade, il ne s’agit que de spéculations.

Les déficits du regard dans l’autisme pourraient aussi induire un déficit dans l’usage du regard comme référentiel pour l’action. En effet, de nombreux travaux récents indiquent que, lors de la saisie, d’abord le regard se porte sur l’objet qui va être saisi et ensuite la main se déplace vers lui, comme si la direction du regard était en fait utilisée comme référence pour le geste de saisie. La découverte d’une région du cortex pariétal appelée « région pariétale de la saisie », où l’on trouve des activités qui pourraient être liées à la coordination entre les gestes de la main et le regard, comme la découverte de neurones dans le colliculus qui codent à la fois les mouvements du regard et de la main, suggère cette intime liaison entre la saisie et le regard, déjà si évidente chez l’enfant dès le plus jeune âge. Il serait intéressant d’étudier chez l’autiste le fonctionnement de cette coordination car, si elle se révélait déficitaire, il serait peut-être possible d’aider les enfants à retrouver une coordination par l’entraînement.

 

 

Le regard qui s’échange

Le regard qui nous intéresse est donc aussi le regard qui régule les relations sociales. Le regard a une fonction de prise d’information, il a aussi un rôle fondamental d’« équilibre interactionnel». L’échange du regard est vital pour la sélection naturelle. On doit à l’éthologiste Golani une extraordinaire description des échanges de regard entre deux chiens qui vont s’égorger. Il utilisa la technique de description des mouvements utilisée par la chorégraphe israélienne Eshkol. Cette technique consiste à décrire par une simple notation manuelle les mouvements des danseurs dans trois référentiels différents et simultanés : un référentiel dit « corporel » que nous pourrions appelerégocentrique, un référentiel « environnemental » que nous pourrions nommer allocentrique, et enfin un référentiel « lié aux deux partenaires » lorsque deux danseurs dansent ensemble. C’est enexploitant ce dernier référentiel que Golani pu décrire un lien extraordinairement rigide entre les yeux des deux chiens qui s’observent avant de se sauter à la gorge. En effet, les conditions concrètes qui permettent à un chien de sauter à la gorge de l’autresont telles qu’il suffit d’un écart de position relative de quelques centimètres entre l’un et l’autre pour induire l’agression fatale. Ainsi se construit entre les yeux des deux chiens une ligne de regard aussi dure qu’une tige d’acier puisque toute déviation par rapport à cette ligne signifie la mort pour l’un des chiens. Cette ligne de regard est tellement solide qu’il suffit au chien dominant d’incliner soudain la tête pour éventuellement faire tomber l’autre chien sans même le toucher.

Cet échange est aussi celui qui conditionne le statut social de l’individu dans un groupe. Dans Le sens pratique, Pierre Bourdieu décrit ainsi les « habitus » en matière de maintien du regard : « L’homme viril qui va droit au but, sans détours, est aussi celui qui, excluant les regards, les mots, les gestes, les coups tors et retors, fait front et regarde au visage celui qu’il veut accueillir où vers qui il se dirige toujours en alerte parce que, toujours menacé, il ne laisse rien échapper de ce qui se passe autour de lui, un regard perdu en l’air ou rivé au sol étant le fait d’un homme irresponsable, qui n’a rien à craindre parce qu’il est dépourvu de poids au sein de son groupe. Au contraire, on attend de la femme bien élevée, celle qui ne commet aucune inconvenance “ni avec sa tête ni avec ses mains, ni avec ses pieds” qu’elle aille légèrement courbée, les yeux baissés, se gardant de tout geste, de tout mouvement déplacé du corps, de la tête ou des bras, évitant de regarder rien d’autre que l’endroit où elle posera le pied, surtout si elle passe devant l’assemblée des hommes…

Bref, la vertu proprement féminine, la lah’ia, pudeur, retenue, réserve, oriente tout le corps féminin vers le bas, vers la terre, vers l’intérieur, vers la maison, tandis que l’excellence masculine, le nif, s’affirme dans le mouvement vers le haut, vers le dehors, vers les autres hommes. »

Dans cette définition extrême de la réaction d’orientation, le stimulus n’est plus simplement une configuration de stimuli sensoriels. Comme le précise Bourdieu dans les définitions qu’il donne, « les stimuli n’existent pas pour la pratique dans leur vérité objective de déclencheurs conditionnels et conventionnels, n’agissant que sous condition de rencontrer des agents conditionnés à les reconnaître… L’habitus ne peut produire la réponse objectivement inscrite dans sa “formule” que pour autant qu’il confère à la situation son efficacité de déclencheur en la constituant selon ses principes, c’est-à-dire en la faisant exister comme question pertinente par référence à une manière particulière d’interroger la réalité ». Ce texte est à mon avis fondamental, car il montre que le sociologue, comme le physiologiste, arrive à la conclusion que le cerveau ne se contente pas de subir l’ensemble des événements sensoriels du monde environnant, mais au contraire l’interroge en fonction de présupposés sur la réalité. Une véritable physiologie de l’action est fondée sur ce principe.

 

 

Le regard absent

Le regard peut aussi être absent. Uta Frith décrit ainsi le petit Pierre, enfant autiste : « Contrairement à ce que tout le monde espérait, le langage n’ouvrit pas les portes de la communication. Curieusement, Pierre répétait souvent ce que disaient les autres. Par ailleurs, il était incapable de jouer à faire semblant ou de participer à une quelconque activité de groupe… Souvent, la famille avait l’impression qu’un mur invisible les empêchait d’entrer en contact avec Pierre… La plupart du temps, il semblait regarder les gens sans les voir. » Le regard des enfants de la guerre et des prisonniers de la Shoah est aussi un regard qui regarde sans voir. Le cerveau est fermé sur lui-même et n’interroge plus un monde d’où ne vient que l’horreur.

 

 

Le regard narrateur

Enfin, le regard peut être le véhicule des narrations, des contes et légendes, de l’histoire vécue et de la mémoire comme dans le théâtre. Un des exemples les plus remarquables et les plus anciens d’usage du regard au théâtre est celui du Kathakali qui a influencé de nombreux metteurs en scène modernes comme Mnouchkine. Voici quelques aspects de l’usage du regard dans cet art chorégraphique hindou tels qu’ils sont rapportés par Eugenio Barba. Une des règles qu’enseignent les maîtres du Kathakali à leurs élèves stipule que là où vont les mains pour représenter une action, là doivent se poser les yeux ; là où vont les yeux, là doit suivre l’intellect, et l’action représentée par les mains doit donner naissance à un sentiment déterminé qui se reflète sur le visage de l’acteur.

Le Kathakali joue donc sur deux registres : le visage qui exprime l’émotion et les réactions subjectives du personnage dans les situations où il se trouve, et les mains et le corps qui communiquent l’aspect narratif des épisodes. Le regard est l’objet d’exercices nombreux. Voici par exemple un exercice pratiqué par les Chakyars, communauté de Kérala connue pour ses acteurs excellents. Le premier jour, l’élève s’assied pour exercer ses yeux dès que la lune fait son apparition. Ses yeux sont oints avec du beurre. Il tourne ses iris autour de la lune sans cesse jusqu’à la disparition de l’astre. Le premier jour, cet exercice dure environ une heure, temps de passage de la lune dans le ciel. Le deuxième jour, l’élève s’assied à la même heure en s’appliquant au même genre d’exercice qui, cette fois, durera deux fois plus longtemps, car tel est le laps de temps entre l’apparition et la disparition de l’astre nocturne. De même le troisième jour. Il continue ainsi à exercer ses yeux chaque nuit, la durée de l’exercice augmentant toujours. Le quinzième jour, nuit de pleine lune, l’élève est assis de six heures du soir à six heures du matin, bougeant sans interruption ses iris en haut et en bas, à gauche et à droite, en rond et en diagonale, d’un coin à l’autre. Il ne s’arrête qu’à l’aube. Le beurre est utilisé pour donner un effet rafraîchissant à la rotation continuelle des iris. Ce système est connu sous le nom de Nilavirikkuka, littéralement « être assis au clair de lune ». Les acteurs s’entraînent au moins une heure par jour pendant huit ans ! L’entraînement à l’orientation vers un objet est le suivant : les yeux sont grands ouverts et la tête tourne tout en observant, comme si les iris conduisaient les mouvements de la tête. Soudain, d’un mouvement brusque, la tête s’arrête, et les iris se fixent sur un objet qui n’est pas le but décidé. La tête reste dans sa position immobile tandis que les iris se déplacent (lentement ou rapidement selon l’intention) vers le but fixé à l’avance et l’atteignent. Alors seulement la tête se tourne vers le but et, au moment où elle arrive sur celui-ci, le visage assume une expression particulière (haine, mépris, joie, etc.).

 

Une neuroéthologie du regard échangé ?

La difficulté de comprendre les déficits de la communication par le regard dans l’autisme vient sans doute du fait qu’il n’y a pas qu’un seul mode d’échange par le regard (Emery, 2000 ;Emery et coll., 1997). Il faudrait construire une véritable « neuroéthologie du regard » échangé. Emery a tenté une classification en cinq catégories :

– le regard partagé ou échangé dont l’exemple typique est l’échange entre la mère et le bébé. Il distingue ici deux classes : le regard direct et le regard dévié comme deux variantes de la même classe ;

– le fait de suivre du regard ; c’est encore un mode de lien mais dynamique qui met en jeu, nous le savons, la poursuite oculaire ;

– l’attention conjointe. Dans sa forme élémentaire, elle n’implique pas la désignation par le regard ni l’échange, mais simplement le fait que le regard de l’autre induit une attention portée au même objet ;

– l’attention partagée dans laquelle il y a une triade entre les deux agents et l’objet regardé. Ce n’est pas encore la « désignation » de Degos et Bachoud-Lévi qui exige une implication actived’autrui dans le partage de l’attention. On a proposé récemment que, chez le primate en tout cas, la capacité d’imiter un geste soit liée à la capacité d’attention conjointe ;

– la théorie de l’esprit dans laquelle le sujet attribue à autrui une intention sur l’objet comme dans le cas de l’enfant qui attribue à la personne qu’il voit l’intention de saisir la peluche par la seule  observation de son regard.

Autrement dit, il existerait bien une véritable hiérarchie de mécanisme de l’échange du regard qui se construit au cours de l’ontogenèse (y compris l’utilisation du regard dévié). Cela montre clairement que le contrôle des déplacements du regard et l’échange du regard sont produits par des mécanismes hiérarchisés emboîtés les uns dans les autres et en compétition. Le fait que les structures préfrontales n’interviennent que tardivement au cours de l’ontogenèse est peut-être la raison de l’apparition progressive, au cours de l’enfance, des formes les plus sophistiquées du regard conjoint, de ses contrôles cognitif, affectif et social.

 

Regard et émotion

Les bases neurales des émotions et leur relation avec les processus cognitifs sont maintenant mieux connues. Le regard échangé est chargé d’émotion et il n’est pas possible d’évoquer l’échange du regard sans insister sur l’importance de l’émotion dans la détection du regard d’autrui. La première preuve en est l’activation de l’amygdale par le contact direct du regard d’autrui. Elle est bien sûr concomitante de l’activation des aires visuelles consacrées à la perception des visages le long de la voie temporale. Mais il n’est pas nécessaire de percevoir la totalité du visage pour que cette activation par le regard direct entraîne l’activation de l’amygdale ; il suffit par exemple de voir le « blanc de l’oeil » pour que l’amygdale soit activée de façon massive si le visage dont on a extrait le blanc de l’oeil exprime la peur par exemple (Whalen et Schreibman, 2003). De plus, les cortex cérébraux droit et gauche ne traitent pas les visages de la même façon. L’implication de l’amygdale dans les mécanismes émotionnels est bien connue.

Le cortex droit semble être impliqué de façon prépondérante et non consciente dans le caractère émotionnel de l’expression faciale. De même, dans le cas du syndrome de Capgras, on a fait l’hypothèse que l’impossibilité pour le patient d’identifier le visage d’autrui est due à une interruption du lien entre le traitement cognitif de l’identité du visage, le long des voies du lobe temporal, et la reconnaissance des aspects affectifs du visage (qui incluent nécessairement le regard), qui impliquent l’amygdale et le cortex préfrontal ventro-médian (Adolphs, Baron-Cohen et Tranel, 2002 ; Damasio, Tranel et Damasio, 1990). II ne faut d’ailleurs pas, comme le suggère trop souvent l’imagerie cérébrale, limiter au cortex la contribution des aspects motivationnels ou affectifs au contrôle du regard. Les ganglions de la base sont aussi un site de convergence (dans le noyau caudé par exemple) car les neurones de cette structure qui sont impliqués dans le contrôle de la direction du regard sont influencés par la récompense ou même l’attente d’une récompense.

Je voudrais proposer que les différentes classes d’échange du regard correspondent à la mise en jeu de systèmes neuronaux qui se mettent en place au cours de l’ontogenèse et qui répondent, d’une certaine façon, à la phylogenèse. Le simple contact par le regard, la fixation réciproque, est sans doute un mécanisme très ancien, apparaissant en premier au cours du développement, qui implique les colliculus supérieur et inférieur et l’amygdale, les premiers apportant la réaction d’orientation et l’amygdale l’évaluation par l’émotion. Plus tard apparaît le « désengagement » du regard, rendu possible grâce à une série de mécanismes d’inhibition dont certains impliquent les ganglions de la base et d’autres des projections inhibitrices venant du cortex frontal. Les cortex frontal et préfrontal de l’enfant ne se développent que tardivement, et le bébé reste donc plus facilement ancré sur le regard ou au contraire est plus facilement distrait par une stimulation sensorielle. II maîtrise moins son regard. Le subtil jeu inhibiteur ou désinhibiteur que permet le cortex frontal et préfrontal n’est pas à sa disposition (Diamond et Goldman-Rakic, 1989).

L’attention conjointe simple, sans échange réciproque, suppose l’apparition chez l’enfant d’un mécanisme qui intègre la perception de l’espace égocentré liant les objets au corps propre, ce qui correspond à des stades décrits par Piaget sur l’appréhension de l’espace et la différentiation du corps propre et des objets par exemple. C’est pour cela que les parties du lobe temporal qui sont impliquées dans l’élaboration multimodale du corps propre, la perception du mouvement biologique, la perception des visages seront concernées, ce que suggèrent à mon avis les travaux de M. Zilbovicius.

L’attention conjointe avec désignation suppose, elle, comme l’ont proposé Degos et Bachoud-Lévi, l’établissement d’une triade (je-tu-il) et un changement de référentiel qui permette à l’enfant de sortir de son référentiel égocentré, de changer de point de vue, ce qu’il ne fait qu’à partir de 1 an. Mais le développement complet de la capacité de partager avec l’autre ses intentions à travers le regard n’apparaît que tardivement, sans doute autour de 7-8 ans, en même temps que l’enfant peut réellement envisager, comme dans l’expérience des « trois montagnes » de Piaget(Piaget et Inhelder, 1981), le monde perçu de plusieurs points de vue.

 

QUELQUES HYPOTHÈSES

L’idée qu’il est possible de proposer une théorie fonctionnelle qui rende compte des déficits de communication induits par les anomalies génétiques de l’autisme a été renforcée par les travauxpionniers du groupe de Baron-Cohen qui a proposé une « théorie amygdalienne de l’autisme » (Baron-Cohen, 2004 ; Baron-Cohen et coll., 2000) après avoir observé une très faible activation de l’amygdale chez les autistes dans des tâches d’inférence de l’intention d’autrui par leur regard. Mais, dès sa première publication, ce groupe a précisé, tout en attribuant un rôle essentiel à l’amygdale, que celle-ci n’était qu’une des régions anormales dans l’autisme. Par exemple, deux aires du système limbique sont impliquées dans l’émotion : l’amygdale et le cortex orbito-frontal. On sait maintenant le rôle décisif du cortex orbito-frontal à la fois dans l’évaluation (appraisal) de l’environnement et dans la capacité de changer le jugement que l’on fait de la valeur d’un stimulus (reversal), alors que l’amygdale est, semble-t-il, plus impliquée chez l’animal en tout cas dans l’association assez rigide d’une valeur à une configuration de stimuli.

Il est, à mon avis, important d’explorer aussi plus avant la fonction du lobe temporal dans ses fonctions d’élaboration de la conscience de soi : il joue un rôle essentiel dans l’orientation spatiale (Kahane et coll., 2003).

Le véritable défi aujourd’hui est de comprendre le réseau des aires du cerveau qui contribuent à l’élaboration du regard partagé et surtout de comprendre les informations qui y sont traitées, car le problème n’est pas de faire une simple phrénologie mais de comprendre les processus mis en jeu. Pour cela, je voudrais proposer quelques hypothèses qui guideront notre examen des bases neurales du regard.

Une hiérarchie des regards

La première hypothèse est que le regard est sous-tendu par des mécanismes neuronaux hiérarchisés qui se sont précisés au cours de l’évolution. Il n’y a donc pas un, mais de multiples regards, certains automatiques, réactifs, d’autres élaborés, exploratoires, d’autres encore projectifs, ou même libérés du mouvement de l’œil comme dans l’expression « jeter un certain regard sur ». C’est le regard symbolique de la pensée sur le monde et sur soi-même qui est visé. Il faut donc élaborer une théorie physiologique hiérarchique des mécanismes des regards. L’histoire nous a montré que toutes les grandes notions inventées par la langue pour désigner les fonctions cérébrales (mémoire, émotion, langage, attention) recouvrent en réalité des mécanismes très variés et que toutes ces notions doivent aujourd’hui être mises au pluriel !

Le regard évité

Ensuite, ce n’est pas parce qu’une personne ne dirige pas son regard vers autrui ou vers un objet qu’elle ne les perçoit pas. Elle peut en réalité avoir déplacé son regard pour éviter ce que l’on appelle le « contact » par le regard. L’évitement du regard est une certaine façon de regarder dans laquelle il n’y a pas de visée. La périphérie de la rétine, même si elle ne donne pas une image précise, permet quand même de « percevoir » le monde, de le saisir dans ses mouvements, ses relations, etc. Elle permet aussi beaucoup plus d’analyse fine que l’on croit : des expériences de psychologie réalisées dans les années 1950 ont montré par exemple que, si l’on demande à un sujet de fixer un point et qu’on lui présente à la périphérie du champ visuel un chiffre, il dira qu’il ne peut pas lire ce chiffre. Toutefois, si on lui demande de dire un chiffre au hasard, celui-ci est souvent parfaitement correct ! J’ai parlé dans Le sens du mouvement de ces enfants amblyopes profonds qui, au lycée pour aveugles de Montgeron, pouvaient jouer au ping-pong. Ils ne pouvaient pas lire car leur vision fovéale était très pauvre mais pouvaient percevoir le mouvement, sans doute avec la vision sous-corticale. Attention donc à ce que j’appelle la « perception inconsciente ».

On accorde aujourd’hui beaucoup trop d’importance aux formes conscientes de perception, alors qu’une partie importante de notre perception résulte de mécanismes sous-corticaux parfaitement inconscients qui pourtant influencent profondément nos,pensées et notre relation avec le monde.

 

Regard et attention

Un grand débat du siècle dernier a porté sur les relations entre attention et regard. Déjà à Moscou, il y a plus de cinquante ans, nos amis russes avaient appelé « fovéa fonctionnelle » cette  pseudo-fovéa qui peut balayer le monde sans que les yeux bougent. On appelle aujourd’hui « attention » ce balayage du champ visuel sans mouvement des yeux. L’autiste pourrait-il non seulement percevoir le monde avec la périphérie de son champ visuel, comme nous l’avons suggéré plus haut, mais aussi « regarder » autrui ou le monde avec ce regard de l’œil dévié et figé ?

Pour certains, l’attention est un processus indépendant, superposé aux fonctions motrices et cognitives, mettant en jeu des modules cérébraux distincts et spécialisés qui exercent des actions de filtrage, de modulation, etc., sur les traitements sensoriel et moteur. Je pense personnellement que cette vue est erronée : l’« attention » est, comme la « décision », un terme qui désigne un ensemble complexe hiérarchisé de processus fondamentaux du fonctionnement cérébral lié au fait que le cerveau est essentiellement une machine qui prédit, présélectionne, anticipe, etc. S’il est juste d’étudier les mécanismes de cette sélection il est, à mon avis, faux de les séparer dans une fonction unique que l’on appellerait l’« attention » au singulier.

En ce qui concerne le regard, on a proposé une théorie appelée « théorie motrice de l’attention » (Barton et Rizzo, 1994 ; Rizzolatti et coll., 1987 ; Sheliga, Riggio et Rizzolatti, 1994) qui suggérait qu’en réalité, comme l’avaient pressenti les chercheurs russes, les mêmes mécanismes sont impliqués dans l’organisation motrice de l’orientation du regard et dans les déplacements attentionnels. Nous avons été les premiers à démontrer, par imagerie cérébrale, que les mêmes aires du cortex sont activées par ce que nous avions appelé des « saccades imaginées » et des « saccades exécutées » (Lang et coll., 1994). Par la suite, de nombreux travaux ont confirmé ce résultat et ont proposé l’idée d’un réseau commun pour le contrôle de l’attention visuelle et le contrôle du regard (Corbetta et coll., 1993 ; Corbetta, 1998 ; Corbetta et coll., 1998). Toutefois, une dissociation a aussi été montrée (Astafiev et coll., 2003 ; Simon et coll., 2002). Le débat n’est donc pas clos sur ce sujet, et mon sentiment est que la tâche dans laquelle est impliqué le sujet est déterminante pour l’étroitesse du couplage entre attention et action.

Regard et conscience de soi

Une quatrième hypothèse est qu’échanger un regard exige que le sujet ait construit une perception cohérente de lui-même et de ses relations avec le monde. En effet, pour mettre en œuvre les mécanismes les plus cognitifs que nous utilisons pour la communication avec autrui, il faut que soit constituée une unité des trois niveaux que je distingue dans la perception du corps : le corps perçu, le corps vécu, le corps conçu. Or toute la physiologie moderne révèle l’extraordinaire éclatement des codages et des référentiels dans lesquels sont organisées les perceptions du corps et de l’espace. Diriger son regard, c’est décider d’une seule visée, c’est faire un choix unique et drastique. Chaque saccade est une décision sans retour, et il existe d’ailleurs un mécanisme dans le cerveau qui s’appelle « inhibition du retour » et qui empêche que notre regard se porte deux fois de suite sur le même lieu (les bases neurales de cette inhibition du retour ne sont pas connues).

Mon hypothèse est que si, comme le suggèrent de nombreux travaux, l’enfant autiste a du mal à construire une perception cohérente des relations entre son corps et le monde, comment pourrait-il prendre cette décision de consacrer, même un instant, toute son attention à un seul petit morceau du monde – puisqu’il n’a pas construit un monde qui ait un sens pour lui ? II est absolument nécessaire d’étudier plus à fond les stratégies d’utilisation du regard chez le patient autiste à la fois pour comprendre et peut-être pour rééduquer cette fonction si cruciale.

 

Regard et changements de points de vue

Une cinquième hypothèse suggère que, bien que le contrôle des mouvements du regard soit par essence « égocentré », c’est-à dire dirigé du point de vue de celui qui regarde, l’échange des regards exige que soient possibles à la fois le maintien du point de vue du sujet (égocentré) et le changement de point de vue qui le met à la place d’autrui (allocentré). Je ne peux échanger un regard avec autrui que si je me vois de sa place et avec ses intentions. Mais il s’agit ici de relever un défi : il faut adopter le point de vue de l’autre en entrant dans l’autre (Einfühlung), c’est-à-dire en adoptant un point de vue égocentré mais du point de vue de l’autre. Et sans doute tout cela en restant soi-même. J’appellerais cette opération remarquable une « multiperspective simultanée ». On voit ici le défi que va représenter l’espoir de comprendre ce mécanisme visiblement plus complexe que ce que laisse entendre la physiologie des « neurones miroirs ». Une théorie complète des mouvements du regard exigera donc que nous comprenions le rôle du regard d’autrui sur mon propre regard. Une véritable théorie de l’interaction des regards est donc à construire.

Regard, mémoire et émotion

Enfin, nous devons formuler une dernière hypothèse : le contrôle du regard est influencé par la mémoire mais aussi par le système limbique qui contrôle les émotions, si bien que toute interruption des relations entre émotion et perception aura des conséquences délétères sur le contrôle du regard. On voit ici la complexité du problème et le défi que va représenter dans les années à venir la compréhension des relations entre regard et autisme. Il faut donc se garder de tirer des conclusions trop hâtives de données partielles.

SUGGESTIONS DU MOIS

 

onglet " LES SENS = NOS OUTILS":

 

La jeune fille à la perle

 

 "En peinture, comme dans nombre de disciplines artistiques, le regard est un élément

important du portrait, de l’autoportrait et de la représentation des relations entre

différents protagonistes. Il établit entre le sujet et le spectateur une relation réciproque

dont l’intensité de perception des émotions peut atteindre un paroxysme et formuler

avec force une présence précédant les mots." Gérard Saccoccini

*

 

 

Modigliani : les yeux des autres

 

" Le regard d’un œil effacé ou voilé manifeste la volonté de défendre l’accès de son jardin  secret, la partie de l’âme qu’on ne livre jamais, comme dans les portraits de Modigliani." Gérard Saccoccini

*

Des yeux ... au caractère

 

" La couleur des yeux livre de précieuses indications sur le tempérament d'une

 

personne. Mais jusqu'où tirer des conclusions, sans verser dans le

 

réductionnisme ?" Nicolas Guéguen  

 

*

À quoi servent nos sourcils ? Des évolutionnistes suggèrent une réponse 

 

Savez-vous que vos sourcils sont un de vos principaux outils de socialisation ?

 

Ricardo Miguel Godinho

 

 

Cordialement

 

 

 

 

HISTOIRES EXTRAORDINAIRES

 

MAI 2018

La véritable histoire de Phineas Gage,

le patient le plus célèbre des neurosciences 

Phineas Gage, présentant un ptosis de la paupière après son accident. Cette photo, étant à l'origine un daguerréotype a été retournée  

A chaque génération, on revisite le mythe de cet homme dont le traumatisme crânien nous a appris que le cerveau est la manifestation physique de la personnalité et du sentiment de soi. Cet homme, dont la personnalité aurait complètement changé après un accident de barre à mine. Son histoire n'est peut-être pas celle qu'on vous a racontée, elle n'en est pas moins fascinante.

1.Du contremaître bien sous tout rapport au vagabond sociopathe

C'était le 13 septembre 1848, aux alentours de 16h30, ce moment de la journée où l'esprit aime à divaguer. Phineas Gage, un contremaître des chemins de fer, bourre de poudre un trou de dynamitage puis tourne la tête vers ses ouvriers. Ce fut le dernier moment normal de son existence.

Dans les annales de la médecine, les malades et les victimes sont presque toujours désignés par leurs initiales ou des pseudonymes. Pas Gage: son nom est le plus célèbre des neurosciences. Le paradoxe, c'est que nous en savons très peu sur cet homme –et dans ce que nous croyons savoir, notamment sur sa vie après son accident, il est très probable que les contre-vérités soient légion. 

Cet automne-là, la Rutland and Burlington Railroad avait embauché Gage et son équipe pour venir à bout de gros rochers, à quelques kilomètres de Cavendish, dans le Vermont.

La réputation de Gage n'était plus à prouver, c'était même le meilleur contremaître des environs. Entre autres tâches, l'homme devait verser de la poudre à canon dans des trous de dynamitage, puis la tasser doucement à l'aide d'une barre à mine. Après cette étape, un assistant bouchait le trou avec du sable ou de l'argile afin de contenir la détonation.

Sa barre à mine, Gage l'avait spécialement commandée auprès d'un forgeron de la région. Fuselée comme un javelot, elle pesait plus de 6 kilos pour 1,10 m de long (Gage mesurait 1,68m). A son plus large, le diamètre de la barre avoisinait les 3 cm, mais sa dernière partie –celle que Gage avait près de la tête– était aussi effilée qu'une pique.

Des ouvriers étaient en train de hisser un énorme morceau de rocher dans un chariot, ce qui aurait déconcentré Gage.

Quant à ce qui s'est passé ensuite, les témoignages divergent. Pour certains, Gage aurait tamponné la poudre tout en gardant la tête tournée et sa barre à mine aurait frotté contre le bord du trou, créant une étincelle. Pour d'autres, c'est l'assistant de Gage (peut-être lui aussi distrait) qui avait oublié de mettre le sable dans le trou. Gage aurait alors tapé de toutes ses forces sur sa barre à mine en pensant tasser une substance inerte. Dans tous les cas, il y a forcément eu étincelle, embrasement de la poudre, explosion, et une barre à mine qui décolle du sol avec la force d'une fusée.

 
Le crâne et la barre à mine de Gage, après leur exhumation en 1870 / via J.B.S. Jackson/A Descriptive Catalog of the Warren Anatomical Museum

C'est par sa pointe et sous la pommette gauche que la barre à mine rencontre alors la tête de Gage. Une molaire explose, la barre passe sous l’œil gauche et déchire la face inférieure du lobe frontal du cerveau. Elle perfore ensuite le haut du crâne, pour sortir au niveau de sa ligne médiane, tout près du front et de l'implantation des cheveux.

Dans un mouvement parabolique, la barre continue un moment sa course –certains témoins disent même l'avoir entendue siffler– pour atterrir toute droite dans le sable, vingt mètres plus loin. On la décrit sanglante et dégoulinante d'une substance collante –le gras du tissu cérébral. 

La violence du choc bascule Gage en arrière, qui tombe brutalement sur le sol. Le plus étonnant, c'est qu'il affirme ne jamais avoir perdu connaissance.

Il est simplement pris de légères convulsions, mais se remet à marcher et à parler en quelques minutes. Il se sent même suffisamment d’aplomb pour grimper dans une charrette à bœuf et, si ce n'est pas lui qui la conduit, rester debout pendant tout le trajet (un kilomètre et demi) qui le sépare de Cavendish.

Arrivé à son hôtel, il s’assoit sur une chaise, sous le porche de l'établissement, et discute avec les passants. Le premier médecin qui arrive pour l'examiner peut voir, de la rue, le crâne de Gage ouvert et le volcan d'os éclaté qui jaillit de son cuir chevelu. Gage le salue en inclinant la tête et lui lance un sarcastique:

«Je crois que vous allez avoir du boulot.»

Il ne sait pas combien sa phrase est prophétique. Cent soixante-six ans plus tard, Gage donne toujours énormément de travail aux scientifiques. 

 
 
 
Une carte de 1869 de Cavendish, dans le Vermont, indiquant de deux lieux possibles de l'accident. T: Taverne de Joseph Adams ; H: Demeure du Dr. Harlow

En général, nous avons entendu parler pour la première fois de Gage lors d'un cours de neurosciences ou de psychologie, et la leçon à retirer de son accident est aussi simple qu'éloquente: le lobe frontal est le siège de nos facultés mentales les plus élevées; elles sont l'essence de notre humanité, l'incarnation physique de nos capacités cognitives les plus complexes.

Ce qui fait qu'au moment où le lobe frontal de Gage est réduit en miettes, le contremaître sérieux et bien sous tous rapport qu'il était devient un vagabond crasseux, effrayant et sociopathe. C'est aussi simple que cela. 

L'histoire est d'une importance cruciale pour la compréhension du cerveau, que ce soit dans la communauté scientifique ou auprès du grand public. Son corollaire le plus douloureux, c'est que les gens souffrant de lésions au lobe frontal –les soldats, les victimes d'accidents vasculaires cérébraux ou encore les malades d'Alzheimer– sont susceptibles de voir disparaître en eux quelque chose d'essentiellement humain.

Pour autant, selon de récents travaux historiques, le récit canonique de Gage serait globalement du gros n'importe quoi, un mélange de préjugés scientifiques, de licence artistique et d'invention pure et dure.

De fait, chaque génération semble remodeler Gage à son image et nous ne disposons que de très peu de données véritables sur sa vie et son comportement post-accident.

Aujourd'hui, pour certains scientifiques, loin d'être passé du côté obscur, Gage se serait relevé sans trop de séquelles de son traumatisme et aurait retrouvé une vie à peu près normale –une éventualité qui, si elle s'avère exacte, pourrait transformer notre compréhension du cerveau et de sa capacité d'autoguérison.

 2.Gage «n'était plus Gage»

La première histoire à apparaître sur Gage contenait déjà une inexactitude. Le lendemain de l'accident, un journal local se trompe sur le diamètre de la barre de fer. Une petite erreur, mais qui en augure de bien plus graves.

Pour Bigelow, Gage pouvait parler, marcher, voir, entendre. Il avait recouvré ses facultés

 

Le psychologue et historien Malcolm Macmillan, aujourd'hui affilié à l'Université de Melbourne, les catalogue depuis quarante ans. La carrière du chercheur est des plus protéiformes: entre autres sujets, il a étudié les enfants handicapés, la scientologie, l'hypnose et le fascisme. Dans les années 1970, son attention se tourne vers le cas Gage et il décide de partir à la recherche de ses sources primaires. Il en trouve extrêmement peu et réalise alors combien les données censées justifier les conclusions scientifiques sur cette affaire sont affreusement lacunaires.

Depuis cette époque, Macmillan trie les faits de la fiction, un sacerdoce qui se soldera par la publication d'un ouvrage universitaire sur l'accident de Gage et sa destinée, An Odd Kind of Fame.

S'il est aujourd'hui ralenti par une prothèse de hanche défectueuse –il a du mal à atteindre les livres du haut de sa bibliothèque–, Macmillan continue à se battre pour redorer la réputation de Gage. Au cours des années, il s'est tellement rapproché de son sujet qu'il en parle en le désignant par son prénom, Phineas. Avant toute chose, Macmillan fait valoir le décalage entre ce que nous savons réellement de Gage et ce que nous en pensons couramment:

«La description du changement comportemental de Gage comporte peut-être 200 ou 300 mots, mais nous en avons tiré des conclusions générales sur la fonction des lobes frontaux.»

En matière de sources directes, les informations les plus conséquentes proviennent de John Harlow, qui se décrivait lui-même comme un «obscur médecin de campagne». C'est le deuxième médecin à ausculter Gage le jour de l'accident en arrivant sur les lieux aux alentours de 18h.

Harlow est là quand Gage monte d'un pas lourd vers sa chambre d'hôtel et s'écroule sur son lit –en ruinant bien évidemment les draps, vu que quasiment tout son corps dégouline de sang et de substances diverses.

Quant à la suite des événements, les lecteurs à l'estomac sensible ont le droit de passer directement au paragraphe suivant.

Harlow rase le crâne de Gage et y retire un mélange de sang et de bouts de cervelle collés. Il extraie ensuite des morceaux de la boîte crânienne en insérant ses doigts des deux côtés de la plaie, un peu comme avec des menottes siamoises. Toutes les vingts minutes environ, Gage a un haut-le-cœur, car du sang et des morceaux graisseux de cervelle ne cessent d'obstruer l'arrière de sa gorge et de l'étouffer. Mais le plus incroyable, c'est que Gage ne semble pas du tout paniqué ni même décontenancé. Pendant tout le processus, il reste aussi conscient que loquace. Il affirme même qu'il retournera casser des cailloux d'ici deux jours. 

L'hémorragie s'arrête sur le coup des 23h, et Gage passe la nuit à se reposer. Le lendemain matin, sa tête est entourée d'un épais bandage et son œil gauche pend d'un bon centimètre à l'extérieur de son orbite, mais Harlow lui autorise des visites. Il reconnaît sa mère et son oncle, ce qui est bon signe.

Mais quelques jours plus tard, sa santé se détériore. Son visage gonfle, son cerveau suinte et il commence à délirer, jusqu'à demander qu'on lui porte instamment son pantalon pour qu'il puisse aller se promener. Son cerveau a contracté une infection fongique et il tombe dans le coma. Un menuisier des environs vient prendre ses mesures pour son cercueil.

 
 
Le médecin américain John M. Harlow
 

Quatorze jours plus tard, Harlow lui fait subir une opération de la dernière chance, en ponctionnant le tissu cérébral à travers la cavité nasale pour drainer la plaie.

Pendant des semaines, la santé de Gage est plus qu'aléatoire et il perd la vue de son œil gauche, qui restera suturé jusqu'à la fin de sa vie.

Néanmoins, il finit par se stabiliser et, à la fin novembre, rentre chez lui à Lebanon, dans le New Hampshire –en compagnie de sa barre à mine, qu'il se met désormais à trimballer partout avec lui.

Dans son journal, Harlow joue les modestes et minimise son rôle dans la guérison de Gage: «Je l'ai pansé, écrit-il, Dieu l'a soigné.»

Pendant sa convalescence, des histoires sur Gage commencent à fleurir dans les journaux, avec divers degrés d'exactitude.

Dans la plupart, le ton est au sensationnalisme, et on met surtout en avant le caractère radicalement invraisemblable de sa survie. Le cas fait aussi jacasser les médecins –même s'ils demeurent des plus sceptiques. Un praticien y voit une «invention yankee» et, selon Harlow, d'autres se comportent avec Gage comme Saint Thomas avec Jésus:

«Ils refusaient de croire que l'homme avait survécu tant qu'ils n'avaient pas fourré leurs doigts dans le trou de son crâne.»  

En 1849, le Dr. Henry Bigelow convoque Gage à la faculté de médecine de Harvard pour une évaluation. Même si Gage reste pour lui une curiosité –il le présente à ses collègues parallèlement à une stalagmite «remarquable pour sa ressemblance avec un pénis pétrifié»– cette visite est, avec le compte-rendu de Harlow, le seul témoignage détaillé et direct que nous avons sur Gage et son accident. Etonnamment, Bigelow estime que Gage a«passablement recouvré ses facultés de corps et d'esprit». Il convient cependant de noter que, comme le voulaient les examens neurologiques de l'époque, Bigelow n'a sans doute testé Gage que pour des déficiences sensorielles et motrices. Et parce que Gage pouvait encore marcher, parler, voir et entendre, Bigelow en a conclu à la bonne santé de son cerveau.

C'est en dehors du laboratoire que les problèmes commencent

 

Les conclusions de Bigelow sont conformes au consensus médical de l'époque, selon lequel les lobes frontaux ne servaient pas à grand-chose –notamment parce qu'il n'était pas rare de voir des gens souffrir de graves lésions dans cette zone et continuer leur vie. Aujourd'hui, les scientifiques savent que cette zone est impliquée dans quasiment toute l'activité cérébrale. L'extrémité des lobes en particulier, la région dite préfrontale, joue un rôle des plus importants dans le contrôle des impulsions et de la planification.

Mais même aujourd'hui, les scientifiques n'ont qu'une vague idée de la manière dont les lobes préfrontaux exercent ce contrôle. Et les victimes de lésions préfrontales réussissent souvent haut la main la plupart des examens neurologiques. Quasiment tout ce que vous pouvez mesurer en laboratoire –la mémoire, le langage, les fonctions motrices, le raisonnement et l'intelligence– semble demeurer intact chez ces personnes.

C'est en dehors du laboratoire que les problèmes commencent. On assiste notamment à des changements de personnalité et les lésions préfrontales s'accompagnent souvent d'un manque d'ambition, de prévoyance, d'empathie, et autres traits ineffables. Pas le genre de déficiences qu'un étranger pourrait remarquer en quelques minutes de conversation. La famille et les amis, par contre, saisissent parfaitement que quelque chose ne va pas. 

 
 
Daguerréotype de Henry Jacob Bigelow
 

Ce qui est frustrant, c'est que le compte-rendu de Harlow sur l'état mental de Gage se limite à quelques centaines de mots, mais on comprend quand même que Gage a changé –d'une certaine manière.

Individu déterminé avant l'accident, Gage est désormais décrit comme capricieux et versatile, incapable de suivre une idée ou un projet. Avant, il mettait un point d'honneur à satisfaire les souhaits d'autrui, désormais, il n'y a que ses propres désirs en tête, et sans le moindre scrupule. Lui qui était un «homme d'affaires intelligent et avisé» semble désormais avoir perdu toute notion d'économie. Et s'il était auparavant courtois et révérencieux, Gage est désormais «vulgaire [et] malpoli, et se laisse même de temps en temps aller à la pire des insanités». Pour résumer le changement de personnalité de Gage, Harlow écrit que «l'équilibre (…) entre ses facultés intellectuelles et ses propensions animales semble avoir été détruit». Plus laconiquement encore, des amis disent que Gage «n'était plus Gage».

L'une des conséquences de ce changement, c'est que la compagnie de chemin de fer refuse de reprendre Gage comme contremaître. Le voilà qui commence alors à errer en Nouvelle Angleterre et à se présenter de lui-même comme bête de foire en compagnie de sa barre à mine, histoire de se faire un peu d'argent.

Il participe même à une exposition du musée P.T. Barnum de New York –qui n'est pas le cirque ambulant Barnum, comme l'affirment certaines sources. Pour quelques pièces de plus, les visiteurs les plus sceptiques ont le droit d'«écarter les cheveux de Gage et de voir les pulsation de sa cervelle», sous son cuir chevelu. Quelques temps plus tard, Gage trouve enfin un nouvel emploi stable: conducteur de diligence dans le New Hampshire.

Au-delà de ces quelques éléments, aucune archive ne permet de savoir ce que Gage a réellement fait dans les mois qui ont suivi son accident –et on en sait encore moins sur son comportement.

Le compte-rendu de Harlow ne comporte aucune chronologie qui permettrait de déterminer quand les symptômes psychologiques de Gage ont commencé à se manifester, ni s'ils se sont aggravés ou atténués avec le temps. Et quand on le lit de plus près, même les détails soi-disant spécifiques sur le comportement de Gage semblent finalement bien ambigus, si ce n'est cryptiques.

Que veut dire «changer» si personne qui le connaissait avant ne témoigne?

 

Par exemple, quand Harlow mentionne les soudaines «propensions animales» de Gage, que veut-il dire? Idem pour ses «passions animales». On a l'impression d'avoir affaire à quelque chose d'impressionnant, mais quoi? Un appétit d’orgre, des pulsions sexuelles incontrôlables, des hurlements à la lune? Harlow écrit aussi que Gage jure «de temps en temps», mais à quelle fréquence, précisément? Et quel est le contenu de ces jurons? S'agit-il de petites grossièretés comme «bordel» voire «merde», lancées avec parcimonie, ou de formules bien plus obscènes? Harlow note aussi que Gage se met à raconter des fables incroyables à ses neveux et nièces sur ses aventures. S'agit-il là de véritables affabulations, un symptôme fréquent de lésion frontale, ou un simple goût pour les histoires à dormir debout? Même la conclusion voulant que «Gage n'était plus Gage» peut dire à peu près n'importe quoi et son contraire. 

Et, de fait, c'est ce qu'on s'est mis à lui faire dire. Si le diagnostic de lésion du lobe frontal est si difficile à poser, c'est que les comportements des gens varient énormément à l'état normal: naturellement, il se peut que nous soyons violent, rustre, cruel, querelleur, etc. Pour juger si une personne a changé après un accident, vous devez l'avoir connue avant. Malheureusement, aucun intime de Gage n'a laissé le moindre témoignage. Et avec si peu de données factuelles susceptibles de cadrer l'imagination des gens, il ne faudra que quelques années pour que les rumeurs se mettent à enfler sur le compte de Gage, jusqu'à ce qu'un tout nouveau Phineas fasse son apparition.

Macmillan résume ainsi la caricature de Gage:

«Un bon à rien paresseux, instable, impatient, poissard et ivrogne, errant de cirque en foire, incapable de s'occuper de lui-même, jusqu'à mourir sans le sou.»

Parfois, ses nouveaux traits se contredisent: des sources décrivent Gage comme complètement apathique sur un plan sexuel, d'autres comme un insatiable obsédé; pour certains, il est atrabilaire et irascible, pour d'autres, il est totalement vide à l'intérieur, comme lobotomisé.

Et certaines anecdotes sont des inventions pures et simples. On raconte notamment que Gage aurait vendu, en exclusivité, les droits de son squelette à une école de médecine –avant de changer de ville et de faire une offre identique à un autre établissement, puis encore à un autre, au gré de ses errances, en empochant à chaque fois l'argent de son arnaque. Dans une autre histoire, à vous plier en deux, Gage aurait passé les vingt dernières années de sa vie avec la barre à mine toujours empalée dans le crâne.  

Mais le plus délicat, c'est que certains scientifiques ont remis en question l'humanité de Gage. L'Erreur de Descartes, le célèbre livre publié en 1994, véhicule plusieurs schémas connus: que la présence de Gage était insupportable aux femmes, qu'il s'était mis à «boire et à faire du tapage dans des quartiers douteux (1)», qu'il était un fier-à-bras, un menteur, un sociopathe. Plus loin, l'auteur et neurologue passe à la métaphysique. Il estime que le libre-arbitre de Gage a été compromis et fait l'hypothèse que «ses facultés mentales étaient affaiblies, ou qu'il avait perdu son âme».

On passe de ce qui a existé à ce qui aurait dû se passer

 

Bien sûr, les gens charcutent tout le temps l'histoire et pour des tas de raison. Mais quelque chose de spécifique semble avoir eu lieu avec Gage. Pour Macmillan, il s'agit de«licence scientifique».

«Quand vous analysez les histoires que l'on raconte sur Gage, déclare-t-il, vous avez l'impression que [les scientifiques] se laissent aller à une sorte de licence poétique –pour que le récit soit plus vivant, qu'il s'adapte mieux à leurs idées préconçues.»

La puissance de telles idées préconçues, Douglas Allchin, historien des sciences, la remarque aussi:

«Si les récits [en science] sont tous d'ordre historique –des événements qui ont existé, écrit Allchin, ils divaguent parfois vers des histoires qui “auraient” dû exister.»

 
 
Portrait de Phineas Gage tenant la barre à mine responsable de son accident.
 

Dans le cas de Gage, ces histoires qui «auraient» dû exister pour les scientifiques sont modulées par leurs propres connaissances médicales et contemporaines. Les lésions préfrontales s'accompagnent en effet d'un taux légèrement plus élevé de comportements criminels et antisociaux. Et même si tous les gens touchés ne tombent pas aussi bas, bon nombre changent d'une manière assez irritante: ils se mettent à uriner en public, à griller des feux rouges, à se moquer de personnes défigurées, à abandonner un bébé pour aller regarder la télévision.

Pour Macmillan, il est probablement inévitable que des anecdotes aussi fortes influencent l'avis que les scientifiques se font de Gage, a posteriori.

«Ils voient un patient et ils se disent, “tiens, c'est comme ça que Phineas Gage devait être”.»

Pour le dire clairement, Harlow ne fait jamais part d'éléments criminels ou manifestement déséquilibrés dans la nouvelle psychologie de Gage. Mais si vous êtes un expert des lésions cérébrales, la licence scientifique peut vous pousser à vouloir lire entre les lignes et à faire de la «pire des insanités» ou des «passions animales» des comportements bien plus répréhensibles.  

Si on les répète souvent, de telles histoires acquièrent un semblant de véracité.

«Et dès que vous obtenez un mythe quelconque, scientifique ou autre, explique Macmillan, c'est quasiment impossible de le détruire.»

Macmillan déplore notamment «la rigidité cadavérique des manuels universitaires» qui touchent un public aussi conséquent qu'impressionnable et répètent les mêmes anecdotes sur Gage, édition après édition. «Les auteurs de manuels sont extrêmement paresseux», ajoute-t-il.

Sans surprise, les historiens remarquent aussi que les mythes sont d'autant plus résistants qu'ils sont de bonnes histoires –et celle de Gage est tout simplement sensationnelle.

Il était une fois, un homme au patronyme bizarre qui se fait transpercer le crâne par une barre à mine et qui survit. L'histoire est tragique, macabre, époustouflante, et obtient même l'imprimatur d'une leçon de sciences. Mais contrairement à d'autres fables scientifiques, sa trame est surprenante. Dans la plupart des mythes scientifiques, on part de la réalité pour exalter des héros (en général, scientifiques eux-mêmes) et en faire des créatures divines, intégralement pures et intégralement vertueuses. Gage, par contre, est diabolisé. Il est Lucifer, l'ange déchu. Si le mythe de Gage est si tenace, c'est aussi parce que l'avilissement d'un individu a quelque chose de fascinant à regarder.   

3.Le périple d'une barre à mine

Avec le développement de nouvelles technologies informatiques et d'imagerie médicale, un nouveau chapitre de l'histoire de Gage s'est ouvert depuis un quart de siècle. Malheureusement, personne n'a conservé le cerveau de Gage après sa mort et les scientifiques n'ont à leur disposition que les quelques reliques qui nous restent de sa vie, notamment son crâne et la fameuse barre à mine, exposés au Musée d'anatomie Warren de la faculté de médecine de Harvard.

Conservateur du musée depuis six ans, Dominic Hall est devenu expert en «gagéologie». Il montre souvent le crâne et la barre à mine à des groupes d'étudiants et trouve que les visiteurs sont très attentifs quand on leur raconte l'histoire du traumatisme de Gage, même dans ses détails les plus scabreux. «Il a quelque chose, c'est indéniable», déclare-t-il.

Le crâne de Gage et la barre à mine justifient d'ailleurs à eux seuls l'existence du Musée Warren, affirme Hall, même si appeler l'endroit «musée» est plutôt généreux. En réalité, il s'agit simplement de deux rangées de vitrines en bois, hautes de 2,5 m chacune et se faisant face dans une grande salle de la bibliothèque médicale de Harvard, au cinquième étage. On peut aussi y admirer des têtes de phrénologie, un masque mortuaire de Samuel Taylor Coleridge et des siamois morts-nés conservés dans du formol, entre autres curiosités.

 

Tête phrénologique du XIXe siècle, recadrée pour montrer les «organes» au sommet et à l'avant du crâne.

 

Sur le crâne de Gage, l'orbite gauche, près de la plaie d'entrée, semble dentelée. Sur le haut du crâne, la plaie de sortie consiste en deux trous irréguliers, séparés par un bout d'os, comme un vieux reste de chewing-gum blanc. La barre à mine est posée sur l'étagère du dessous.

Hall la dit lourde, sans pour autant trouver le qualificatif adéquat.

«Ce n'est pas comme avec une batte de base-ball ou une pelle, ajoute-t-il, parce que le poids est bien distribué tout du long.»

Il poursuit simplement par un «on y croit». La pointe de la barre est émoussée, comme le serait un crayon mal taillé, et son corps comporte une annotation calligraphiée en blanc, expliquant le cas Gage. Phineas y est mal-orthographié deux fois.  

Sur le crâne, les traces manifestes des plaies d'entrée et de sortie ont incité plusieurs scientifiques à recréer numériquement le trajet de la barre à mine. Leur espoir, c'est de déterminer les zones du cerveau qui ont été détruites, pour que les déficiences de Gage gagnent en clarté. Ce genre de modélisation sophistiquée du cerveau aide aussi les scientifiques à comprendre ses fonctions normales, mais recréer l'accident le plus célèbre de l'histoire de la médecine a quelque chose d'indéniablement tape-à-l’œil. 

La modélisation la plus célèbre de cet accident a été réalisée par l'équipe formée par Antonio et Hanna Damasio, mari et femme, deux neurologues travaillant aujourd'hui pour l'Université de Californie du Sud (USC).

La barre à mine a-t-elle touché un hémisphère? Les deux?

 

Antonio Damasio est l'auteur d'une célèbre théorie sur le fonctionnement des émotions, notamment quand elles complètent ou améliorent nos facultés de raisonnement. Pour ce faire, il s'est appuyé sur certains de ses patients souffrant de lésions des lobes préfrontaux. Mais il s'est aussi appuyé sur Gage (Damasio est l'auteur de L'Erreur de Descartes, c'est le scientifique pour qui Gage était devenu un vagabond sociopathe).

Si les Damasio ont modélisé l'accident de Gage, c'est qu'ils voulaient trouver des preuves que ses lésions avaient concerné les deux hémisphères cérébraux, un type de traumatisme qui induit des changements de personnalité d'autant plus spectaculaires. Ils trouvèrent ce qu'ils étaient venus chercher, et leur étude fit la une de Science en 1994.

Aujourd'hui, les Damasio soutiennent toujours les conclusions de leur article, mais deux autres études ultérieures, fondées sur des modélisations plus précises et réalisées sur des ordinateurs bien plus performants, remettent leurs résultats en question.

En 2004, une équipe menée par Peter Ratiu, qui enseignait à l'époque la neuro-anatomie à Harvard et qui travaille aujourd'hui aux urgences d'un hôpital de Bucarest, en Roumanie, conclut que la barre n'a pas pu traverser la ligne médiane du crâne et endommager l'hémisphère droit. Par ailleurs, compte-tenu de l'angle de la plaie d'entrée et des lésions minimes de la mâchoire, Ratiu conclut que Gage devait ouvrir la bouche et parler au moment de l'impact.

Quand Ratiu décrit sa version des faits –avec la barre à mine qui transperce une bouche grande ouverte– l'image des tableaux de Francis Bacon et de ses papes hurlant vient immanquablement à l'esprit.

En 2012, un spécialiste en neuro-imagerie, Jack Van Horn, publie une autre étude sur le crâne de Gage. Contrairement à Macmillan, Van Horn parle de Phineas comme de «M. Gage». La première fois qu'il s'est intéressé au cas, il vivait dans le New Hampshire, tout près de l'ancienne ferme de Gage, sur Potato Road. Van Horn travaille aujourd'hui à l'USC, dans le même département que les Damasio.

Van Horn explique que son étude passe au crible les millions de trajectoires que la barre à mine a pu emprunter, pour ne retenir que celles qui n'ont pas «détruit sa mâchoire, fait exploser sa tête, ni d'autres choses encore» (à titre de comparaison, l'étude des Damasio ne se fonde que sur une demi-douzaine de trajectoires). Le travail de Van Horn confirme celui de Ratiu: la barre à mine n'a pas pu traverser l'hémisphère droit.

Tout en introduisant une petite nouveauté. Van Horn est spécialiste de connectivité cérébrale, ce champ de recherche émergent qui dit que si les neurones sont nécessaires pour comprendre les fonctions du cerveau, les connexions entre les neurones sont d'une importance tout aussi vitale. En particulier, les blocs de neurones qui gèrent le traitement de l'information dans le cerveau (la substance grise) atteignent tout leur potentiel seulement s'ils se connectent, via les axones (la substance blanche) à d'autres centres de calcul neuronal. Et si Gage, selon les conclusions de Van Horn, a pu souffrir d'une lésion atteignant 4% de sa substance grise, 11% de sa substance blanche ont été touchés, dont des axones reliant les deux hémisphères.

 
Modélisation informatique du crâne de Gage, avec la reconstitution du trajet le plus probable emprunté par la barre à mine (en gris). Les fibres colorées représentent la substance blanche du cerveau et montrent celles qui auraient pu être détruites par la barre. A droite, les fibres de substance blanche probablement lésées vues sous un autre angle / Van Horn JD, Irimia A, Torgerson CM, Chambers MC, Kikinis R, et al.
 

En d'autres termes, le traumatisme fut «bien plus conséquent que ce qu'on pensait jusqu'ici», ajoute-t-il.  

Par contre, les conséquences de ces lésions sur le comportement de M. Gage sont bien plus difficiles à déterminer.

Van Horn a lu attentivement le livre de Macmillan, mais avoue que certaines des hypothèses gratuites qu'il a pu y trouver l'ont un peu effrayé.

«Je ne voudrais pas m'attirer les foudres [de Macmillan]», dit-il sur le ton de la plaisanterie. Pour autant, Van Horn compare une telle destruction de la substance blanche au type de lésions que peuvent induire des maladies neurodégénératives, à l'instar d'Alzheimer. Il est même possible que Gage ait manifesté les symptômes les plus courants d'Alzheimer, comme les sautes d'humeur ou l'incapacité à compléter des tâches.

Le premier compte-rendu de John Harlow mentionne que les changements de Gage «n'avaient rien à voir avec de la démence», reconnaît Van Horn. Mais Harlow a examiné Gage juste après son accident, ajoute Van Horn, et non pas des mois ou des années après, quand ce genre de symptômes étaient le plus susceptibles d'apparaître.

En dépit de leurs différences d'interprétation, Damasio, Ratiu et Van Horn sont d'accord sur un point: leurs modèles ne sont, fondamentalement, que des conjectures sophistiquées.

A l'évidence, la barre a mine a détruit du tissu cérébral. Mais les éclats d'os et l'infection fongique ont pu en détruire encore davantage –et cette destruction est impossible à quantifier. Par ailleurs, et c'est sans doute encore plus important, la position du cerveau dans la boîte crânienne et la localisation précise de diverses structures cérébrales peuvent varier énormément d'une personne à l'autre –les cerveaux sont aussi différents entre eux que le sont les visages. L'inventaire des lésions cérébrales se joue en millimètres. Et personne ne sait combien de millimètres de tissu cérébral ont effectivement été détruits dans le cas de Gage.

Mais l'ignorance n'a pas ralentit le rythme des spéculations. A chaque génération, Phineas Gage renaît, mais sous un nom différent: chaque génération réinterprète à neuf ses symptômes et ses déficiences.

Au milieu du XIXe siècle, par exemple, les phrénologues expliquaient la grossièreté de Gage par le fait que son «organe de la vénération» avait été réduit en bouillie. Aujourd'hui, des scientifiques citent Gage en appui de leurs théories sur les intelligences multiples, l'intelligence émotionnelle, la nature sociale du moi, la plasticité cérébrale, la connectivité cérébrale –autant de neuro-obsessions contemporaines. Macmillan ne fait pas exception: après avoir étudié la fin de la vie de Gage, il ne se contente plus de débusquer les erreurs des autres, mais formule sa propre théorie sur la rédemption de Phineas Gage. 

4.«J'ai compris qu'il y avait quelque chose de contradictoire»

Pour continuer dans l'incroyable, en 1852 et après avoir travaillé pendant dix-huit mois dans une étable du New Hampshire, Gage embarque sur un bateau direction l'Amérique du Sud. Il a le mal de mer pendant tout le voyage. Il a été embauché par un entrepreneur qui espère profiter de la ruée vers l'or au Chili et, dès qu'il pose le pied à terre, Gage reprend son boulot de conducteur de diligence, cette fois-ci sur les pistes escarpées et caillouteuses ralliant Valparaiso à Santiago.

Combien de passagers connaissaient la petite histoire de leur conducteur borgne? On peut se le demander. Quoi qu'il en soit, Gage garde ce travail pendant sept ans.

C'est en regardant le mari de la reine d'Angleterre que Macmillan a compris. 

Du fait de sa santé précaire, Gage est obligé de quitter le Chili en 1859 à bord d'un bateau à vapeur qui le mène à San Francisco. Sa famille vient d'emménager dans la région. Après quelques mois de repos, il trouve un poste d'ouvrier agricole et semble reprendre des forces.

Mais en 1860, une dure journée de labour finit par avoir raison de lui. Le lendemain, il fait une crise d'épilepsie pendant le dîner. D'autres suivent, et après un ultime épisode particulièrement violent, il meurt le 21 mai, à 36 ans, près de douze ans après son accident. Sa famille l'enterre deux jours plus tard, sans doute en compagnie de sa chère barre à mine.

L'histoire de Gage aurait pu s'arrêter là –une sombre tragédie paysanne, rien de plus– s'il n'y avait pas eu le Dr. Harlow.

Depuis quelques années, il avait perdu la trace de Gage, mais avait réussi à obtenir l'adresse de sa famille en 1866 (par le biais d'une «bonne fortune» qu'il ne précise pas davantage) et lui avait écrit pour prendre des nouvelles.

A force d'insistance, en 1867, il convainc la sœur de Gage, Phebe, d'ouvrir sa tombe pour lui permettre de récupérer son crâne. L'exhumation eut visiblement tout d'un événement, avec la présence de Phebe, de son mari, du médecin de famille, d'un croque-mort, sans oublier le maire de San Francisco et un certain Dr. Coon, tous là pour jeter un œil au cercueil rouvert.

Quelques mois plus tard, la famille de Gage fait le déplacement à New York pour remettre le crâne et la barre à mine en mains propres à Harlow. C'est là que le médecin rédige son étude de cas sur Gage, qui contient à peu près tout ce que nous savons de son état mental et de son périple en Amérique du Sud.

La plupart des biographies de Gage font l'impasse sur le Chili. Même Macmillan ne savait pas quoi en faire pendant des décennies. Mais depuis quelques années, il en est convaincu: le Chili est la clé pour comprendre Gage.

 
 
Le crâne de Phineas Gage dans sa vitrine / Musée d'anatomie Warren de la faculté de médecine de Harvard
 

Son eurêka, Macmillan l'a poussé un soir, devant sa télévision. Sur l'écran, le mari de la Reine Elizabeth, le Prince Philip, célèbre pour son goût pour les sports traditionnels, manœuvrait une calèche comparable à celles que Gage devait conduire pour gagner sa vie.

C'est en voyant la complexité du jeu des rênes et la difficulté de la manœuvre que Macmillan comprend. Un conducteur de calèche doit contrôler les rênes de chacun de ses chevaux avec un doigt différent, ce qui fait que prendre le plus simple des virages requiert une incroyable dextérité (imaginez-vous conduire une voiture en ayant à gérer chaque roue indépendamment).

De plus, les routes empruntées par Gage étaient très fréquentées, ce qui devait l'obliger à des arrêts fréquents, que ce soit pour prendre des gens ou éviter d'en écraser. Et parce qu'il prenait forcément de temps à autre ces routes de nuit, il fallait qu'il en mémorise la configuration, tout en faisant attention aux bandits. Il avait aussi probablement à s'occuper des chevaux et à collecter l'argent des voyageurs. Sans oublier les rudiments d'espagnol qu'il avait dû apprendre pour se faire comprendre.

«Qu'un individu réputé si impulsif, si incontrôlable, ait réussit à acquérir toutes les compétences nécessaires pour être conducteur de diligence, explique Macmillan, là, j'ai compris qu'il y avait quelque chose de contradictoire.»

Il suit son intuition et, après s'être plongé et replongé dans la vague chronologie de Harlow et de son étude de cas, Macmillan pense désormais que les troubles comportementaux de Gage n'ont été que temporaires et qu'il a fini par recouvrer certaines de ses fonctions mentales perdues.

Des sources indépendantes permettent d'asseoir cette théorie. En 2010, Matthew Lena, un informaticien et consultant en propriété intellectuelle qui collabore de temps en temps avec Macmillan, tombe sur les propos d'un médecin ayant vécu au XIXe siècle au «Chili» et qui connaissait bien Gage. «Il était en pleine jouissance de sa santé, écrit le médecin,sans la moindre infirmité quant à ses facultés mentales.»

Bien sûr, Macmillan ne croit pas que Gage ait pu recouvrer comme par magie l'intégralité de ses fonctions cérébrales et qu'il soit «redevenu Gage». Mais il pense qu'il en a recouvré suffisamment pour reprendre une vie à peu près normale.

Les connaissances neurologiques actuelles font de la guérison de Gage une idée parfaitement plausible. Autrefois, les neurologues pensaient que les lésions cérébrales causaient des déficiences permanentes: une fois qu'une faculté était perdue, elle ne revenait plus. Mais de plus en plus, ils admettent que le cerveau adulte est capable de réapprendre des compétences perdues. Cette faculté d'adaptation, que l'on appelle plasticité cérébrale, demeure relativement mystérieuse et œuvre avec une douloureuse lenteur. Mais l'essentiel, c'est que le cerveau est capable de recouvrer des fonctions perdues dans certaines circonstances.

L'exemple de Phineas Gage peut peut-être aider de nouvelles victimes

 

De fait, Macmillan estime que le quotidien très discipliné de Gage au Chili a contribué à sa guérison. Les victimes de lésions frontales ont souvent du mal à mener à bien des tâches, notamment des tâches ouvertes, parce qu'ils ont de grandes difficultés de concentration et de planification. Mais au Chili, Gage n'avait jamais à réfléchir à l'organisation de sa journée: préparer une diligence, c'est suivre chaque matin les mêmes étapes et la conduire, c'est suivre tous les jours la même route jusqu'à l'heure de faire demi-tour. Avec une telle routine, sa vie allait gagner en structure, et sa capacité de concentration aller en s'améliorant.

Un tel régime pourrait, en théorie, aider les victimes de lésions cérébrales comparables à celles de Gage. En 1999, un article assez sordide («Blessures cérébrales transcrâniennes causées par des tubes ou des barres de fer au cours des 150 dernières années») rapporte une douzaines de ces cas, dont un survenu lors d'un jeu de «Guillaume Tell» visiblement trop arrosé. Un autre accident similaire se produit en 2012 au Brésil, sur un chantier: une barre de fer tombe de cinq étages, atterrit sur le casque d'un ouvrier, le perce, et ressort entre ses deux yeux. De manière plus ordinaire, des soldats ou des accidentés de la route peuvent être victimes de lésions cérébrales.

Si on en croit l'interprétation traditionnelle du cas Gage, leur pronostic est des plus pessimistes. Mais selon celle de Macmillan, pas forcément. Que Phineas Gage ait réussi à reprendre du poil de la bête, voilà un puissant message d'espoir.

5.Fier, bien habillé, d'un charme désarmant

Phineas Gage n'a probablement jamais été aussi populaire. Plusieurs musiciens lui ont rendu hommage dans des chansons. Quelqu'un a lancé un blog, le Phineas Gage Fan Club, et un autre fan a même tricoté le crâne de M. Gage.

 Sur YouTube, on trouve des centaines de vidéos sur Gage, y compris plusieurs reconstitutions de l'accident (avec des Barbies, des Legos ou en dessin animé avec l'inévitable commentaire " fracassanr").

Qui plus est, son crâne est devenu l'équivalent contemporain des saintes reliques médiévales: sur le livre d'or du musée de Harvard, au cours de l'année écoulée, on peut lire les témoignages de pèlerins venus de Syrie, d'Inde, du Brésil, de Corée, du Chili, de Turquie et d'Australie: «Un délice»«Il fallait que je vois Phineas Gage avant de mourir».

Mais le plus important, c'est que de nouveaux documents sur Gage continuent à être exhumés.

En 2008, on débusque la première image connue de Gage. Un daguerréotype sépia qui le montre tenant sa barre à mine (une seconde photo a depuis été retrouvée).

Les propriétaires de la photo, les collectionneurs Jack et Beverly Wilgus, l'avaient au départ intitulée «le chasseur de baleine», en pensant que, tel le Capitaine Achab, le jeune homme sur l'image avait perdu son œil dans un combat avec un «cachalot énervé». Mais après avoir posté leur photo sur Flickr, ils recueillent les protestations de spécialistes de la chasse à la baleine, pour qui la barre lisse que l'homme tient dans ses mains n’a rien d'un harpon.

Puis un commentateur fait l'hypothèse qu'il peut s'agir de Gage. Pour le vérifier, les Wilgus comparent leur image à un moulage du visage de Gage, réalisé en 1849: la ressemblance est parfaite, y compris avec la cicatrice que Gage avait au front. Ce n'est qu'une seule image, mais elle fait voler en éclat la représentation classique d'un Gage en paumé crasseux et bestial. Ce Phineas là est fier, bien habillé, d'un charme désarmant.

 

 
Daguerréotype de Phineas P. Gage tenant la barre à mine responsable de son accident / Collection Jack et Beverly Wilgus
 

Scientifiquement parlant, l'héritage de Gage est encore plus ambigu.

A l'évidence, son histoire stimule l'imagination et attise l'intérêt des gens pour les neurosciences. Dès que je mentionne, en soirée ou autre, que j'ai écrit un livre sur les traumatismes les plus fascinants de l'histoire des neurosciences, il y a toujours quelqu'un pour s'écrier «Oh, comme Phineas Gage!». Mais il s'agit aussi d'une histoire insidieuse, du moins dans sa forme traditionnelle.

La nouvelle version qu'en donne Macmillan, fondée sur des interviews et des citations, semble gagner du terrain. Mais le chemin est rude.

«De temps en temps, soupire Macmillan, il m'arrive de me [demander]: mais dans quelle galère je me suis embarqué à travailler là-dessus?»

Rapportée aux recherches les plus récentes sur Gage –en particulier celles concernant la connectivité et la plasticité cérébrales– cette nouvelle théorie a l'air solide. Mais ce sera à la postérité de juger. Chaque nouvelle théorie nous rapproche peut-être un peu plus de la vérité. D'un autre côté, il y a peut-être une malédiction Gage: être à tout jamais un test de Rorschach historique qui ne révèle que les passions et les obsessions du temps présent, forcément fugaces.

Face à toutes ces incertitudes, Ratiu, le médecin de Bucarest, conseille aux neuroscientifiques de ne plus prendre Gage comme cas d'école. «Bordel, qu'on laisse ce pauvre type tranquille!», s'exclame-t-il (pour faire peut-être corps avec leur sujet, les gens qui parlent de Gage se laissent parfois aller à la «pire des insanités»). Mais la chose est peu probable. Dès qu'un professeur aura besoin d'une anecdote sur les lobes frontaux«il tirera cette carte de sa poche», admet Ratiu.

«C'est comme quand vous parlez de la Révolution française, vous évoquez forcément la guillotine, parce que c'est trop cool.»

Le cerveau est la manifestation physique de la personnalité et du sentiment de soi

 

Quoi qu'il en soit, conclut Macmillan, «l'histoire de Phineas mérite de rester dans les esprits car elle illustre avec quelle facilité une quantité dérisoire de faits peut se transformer en mythe scientifique et collectif». Et l'usine à mythe tourne encore à plein régime. «On m'a souvent contacté pour faire un film ou une pièce de théâtre», dit-il. L'un de ces scénarios mettait en scène un Gage tombant amoureux d'une prostituée chilienne qui le sauvait de sa vie de débauche. Dans un autre, Gage revenait aux Etats-Unis, copinait avec un esclave, qu'il libérait, et ensemble ils gagnaient la Guerre de Sécession aux côtés d'Abraham Lincoln.

Une dernière raison, plus profonde, explique pourquoi Gage restera probablement toujours avec nous, malgré toutes les zones d'ombre qui peuvent l'entourer.

Il est l'indice d'un fait d'importance: que le cerveau et l'esprit ne font qu'un. Comme l'a écrit un neuroscientifique «sous toutes ces histoires à dormir debout et ce sensationnalisme échevelé, il y a une vérité bien plus fondamentale dans l'histoire de Gage, une vérité qui aura façonné les neurosciences modernes comme aucune autre: le cerveau est la manifestation physique de la personnalité et du sentiment de soi».

C'est une idée essentielle, une vérité que nous avons percée grâce à Phineas Gage.

 Sam Kean

 

 

Suggestions du mois

 

 

" ENVIRONNEMENT ET SN" "HISTOIRE" :

Ergotisme, mal des ardents ou feu de Saint-Antoine du Moyen Âge aux temps modernes : le "triangle de Saint-Antoine" et le démarrage d’une importante industrie pharmaceutique au coude du Rhin

 

L’ergot de seigle (Claviceps purpurea) est un champignon toxique qui a fait de terribles ravages pendant le Moyen Âge et encore au cours des temps modernes, provoquant la gangrène des membres, des hallucinations, des accès de folie et souvent la mort. Plusieurs artistes, tels que Mathias Grünewald ou Jérôme Bosch, ont fixé sur toile ces drames humains. Les moines hospitaliers de Saint-Antoine ont eu pour mission de soigner dans leurs hospices religieux les malades atteints d’ergotisme dont les causes demeuraient néanmoins incompréhensibles pendant bien des siècles. Jacques Streith

 

"MALADIES ET ENVIRONNEMENT" "EXTRA-PYRAMIDAL" :

Danse de Saint Guy

"Au quatorzième siècle, le premier danger n’était pas le moins grand. Il éclata, vers 1350, d’une effrayante manière par la danse de Saint-Guy, avec cette singularité qu’elle n’était pas individuelle ; les malades, comme emportés d’un même courant galvanique, se saisissaient par la main, formaient des chaînes immenses, tournaient, tournaient, à mourir. Les regardants riaient d’abord, puis, par contagion, se laissaient aller, tombaient dans le grand courant, augmentaient le terrible cœur." Michelet

 

"MALADIES ET ENVIRONNEMENT" "AUTRES" :

 

Tarentisme

Que penser d'un peuple qui, pour exorciser ses souffrances, choisit de se lancer corps et âme dans la danse et la musique ? D'autres se jetteraient dans la bataille comme on part en guerre ou en croisade. Les habitants des Pouilles, eux, préfèrent un rituel choréo-musical (la Tarentelle) envoûtant et libérateur. Régine Cavallaro




"AU DELÀ DU SN":

 

Un cadavre qui donne des "signes de vie" : le cas de l'enfant mort-né au sanctuaire à répit

 

Le nouveau-né est le symbole même de l'innocence et de la fragilité et l'on sait le drame que constitue aujourd'hui la naissance d'un enfant mort-né : le fruit mort avant même d'avoir vécu, la désespérance des parents, le sentiment d'avoir commis quelque erreur, la culpabilisation ...
Or, l'arrivée d'un enfant mort, alors qu'on s'attendait de lui le prolongement du couple et de la lignée, était sans doute encore plus vivement ressentie aux siècles passés, au temps du catholicisme triomphant. Jacques Gélis

 

Cordialement

 

 

 LES CRAPAUDS FOUS

avril 2018

 

COMMENT PENSENT LES ANTICONFORMISTES ?

Les neurosciences s'intéressent depuis de nombreuses années aux personnalités anticonformistes. L'enjeu est important : ces individus permettent de faire évoluer la société et progresser la science.
 

Peu nombreux sont les chercheurs à remettre en cause les dogmes et à prendre le risque d’être attaqués voire marginalisés par leurs pairs. L’histoire est pourtant riche de ces scientifiques qui, comme Albert Einstein ou Marie Curie, sont sortis des clous et ont révolutionné leur discipline.

La sélection naturelle semble privilégier le conformisme chez les individus. En même temps, l’évolution préserve une minorité aux idées hors normes, dont la créativité pourrait bien conditionner, ni plus ni moins, la survie de l’espèce.

Le mathématicien Cédric Villani et l’ingénieure Thanh Nghiem appellent à valoriser ces individus atypiques. Ils estiment que ceux qu’ils ont rebaptisés les «crapauds fous» sont les plus à même d’inventer de nouveaux modèles dans un monde secoué par le changement climatique, le bouleversement numérique et le terrorisme.

L’anticonformisme existe à toutes les époques. Parmi les chercheurs d’aujourd’hui, on voit se dessiner des profils dont les idées suscitent des réactions de rejet chez leurs confrères.

( note du rédacteur : selon l’Académie de médecine, l’inquiétude à l’égard de la maladie de Lyme est attisée par la diffusion d’assertions sans fondement scientifique, ce qui ne perturbe pas le fond de l'article)

Combat solitaire contre la maladie de Lyme

C'est notamment le cas dans des domaines polémiques comme celui de la maladie de Lyme, une infection de plus en plus fréquente transmise par les tiques.

Un scientifique solide comme Christian Perronne, spécialiste des maladies infectieuses et tropicales, se retrouve sous le feu des critiques parce qu’il réclame la reconnaissance d’une forme chronique de la maladie.

Pendant une dizaine d’années, ce professeur à l’université de Versailles Saint-Quentin-en-Yvelines a mené un combat solitaire, dénonçant l’abandon dans lequel se trouvaient les personnes souffrant d’une maladie de Lyme non soignée. Les douleurs dont elles se plaignaient n’étaient pas prises en considération et leur valaient des diagnostics psychiatriques.

À l’automne 2016, l’annonce par le gouvernement d’un plan de lutte contre la maladie de Lyme est venu confirmer les positions de cet iconoclaste. Dans son livre publié six mois plus tard, La vérité sur la maladie de Lyme (Odile Jacob), Christian Peronne détaille les études montrant qu’un traitement antibiotique prolongé améliore nettement la qualité de vie des patients. Le cas de ce chercheur montre comment la société tire finalement bénéfice des personnalités anticonformistes.

Marie Curie, un destin hors normes

L’histoire a retenu des destins hors normes comme celui de Marie Curie, lauréate des prix Nobel de physique et de chimie. Née en Pologne, elle débute sa carrière en France –les études supérieures étant interdites aux femmes dans son pays d’origine.

En 1906, elle devient la première femme professeure, mais sa nomination à l’Académie des sciences lui est refusée à cause d’un jury conservatiste et anti-féministe.

Son éloge de l’anticonformisme, cité dans le livre Madame Curie de sa fille Ève (The Da Capo Series in Science), mérite d’être relu aujourd’hui:

«Nous ne devrions pas laisser croire que tout progrès scientifique peut être réduit à des mécanismes, des machines, des rouages, quand bien même de tels mécanismes ont eux aussi leur beauté. Je ne crois pas non plus que l’esprit d’aventure risque de disparaître dans notre monde. Si je vois quelque chose de vital autour de moi, c’est précisément cet esprit d’aventure, qui me paraît indéracinable et s’apparente à la curiosité. Sans la curiosité de l’esprit, que serions-nous? Telle est bien la beauté et la noblesse de la science: désir sans fin de repousser les frontières du savoir, de traquer les secrets de la matière et de la vie sans idée préconçue des conséquences éventuelles.»

Albert Einstein dans le spectre autistique?

Célèbre pour sa théorie de la relativité, Albert Einstein incarne lui aussi l’anticonformisme, bien au-delà de son époque.

Né en Allemagne en 1879, Albert Einstein se confronte dès le début de sa scolarité à ses professeurs, dont il conteste l’autorité. Considéré comme un mauvais élève à cause de ses difficultés à s’exprimer et à s’adapter au système scolaire, il subit de nombreux échecs.

Renvoyé du collège de Munich, il est n'est pas bachelier et échoue à l’examen d’entrée à l’école Polytechnique fédérale de Zurich. Il se distingue toutefois par d’excellentes capacités en mathématiques, reconnues par des spécialistes de renom.

Le destin d’Albert Einstein suscite de nombreuses questions chez les neurobiologistes cherchant à élucider les mystères de l’intelligence. Une équipe de chercheurs canadiens a étudié des photographies de l’autopsie de son cerveau et les a comparées à celles d’un cerveau «banal».

Leur étude, parue dans la revue  The Lancet en 1999, a révélé des connexions anormalement nombreuses entre les deux hémisphères du cerveau d’Albert Einstein, qui présente également des circonvolutions anormales. Il s’agit de deux caractéristiques observées dans le spectre de l’autisme, suggérant que le prix Nobel aurait pu y appartenir.

Les difficultés d’expression d’Albert Einstein pendant l’enfance sont un autre indice allant dans ce sens. Des scientifiques comme le professeur britannique de mathématiques Ioan James, dans son article sur les "scientifiques singuliers", ou le professeur irlandais de pédopsychiatrie Michael Fitzgerald, dans son article "Einstein, cerveau et comportement", considèrent qu’Einstein aurait pu être concerné par le syndrome d'Asperger.

Cette forme d’autisme associe des capacités intellectuelles normales voire supérieures, et des déficits dans la sociabilité. Le non-conformisme de certaines personnalités pourrait peut-être s’expliquer par un syndrome d’Asperger.

 À l'origine du conformisme

 

De nombreuses études ont été menées ces dernières années sur «l’influence sociale», pour décrypter les ressorts du conformisme.

Chez l’homme, il a été démontré qu'il dépend notamment de l’attitude adoptée par l’individu vis-à-vis des «informations sociales» –par exemple, un échange d’opinion avec un autre individu.

Une expérience menée par une équipe britannique de l’Université de St Andrews, publiée en 2012, en atteste. Différents objets comme un cube, une boule ou un cône étaient présentés aux sujets de l’étude sous des angles différents, ce qui les rendait difficiles à reconnaître. Ces personnes devaient dire si, d’après elles, ces objets avaient ou non la même forme et déterminer s'il s’agissait du même objet.

Chacun des sujets montrait ensuite ses résultats à un autre groupe de participants. Ces derniers avaient passé plus tôt le même test et partageaient également leurs conclusions –cet échange correspond à ce qu’on appelle de «l’information sociale».

Les sujets repassaient alors le test de départ. Ce deuxième passage permettait de voir si ses réponses avaient changé, donc de mesurer à quel point l’information sociale l’avait influencé.

Cette expérience a montré que davantage de sujets se rangeaient à la décision de la majorité quand deux conditions étaient remplies: quand le groupe donnant les avis était important (douze personnes) et quand les sujets étaient incertains de leurs choix.

Capacité à s'adapter à l'inhabituel

L’anatomie du cerveau chez des individus anticonformistes a pu être étudiée par une équipe internationale en 2012. Grâce à une analyse d’IRM fonctionnelle de leur cerveau, ces chercheurs ont montré que chez les personnes en question, la matière grise du cortex orbito-frontal latéral est moins importante que chez les individus conformistes. Cette région, située à l’arrière des yeux, contrôle le comportement social et la prise de décision.

Les chercheurs britanniques de St Andrews ont passé en revue les études réalisées sur les bases biologiques du conformisme, dans un article publié en 2012. De l’ensemble de ces travaux, ils concluent que le conformisme aurait contribué, au cours de l’évolution, au développement d’adaptations cognitives spécifiques destinées à faciliter l’apprentissage social chez l’être humain. Autrement dit, le cerveau humain se serait adapté pour permettre d’apprendre de ses congénères.

Il semblerait que la sélection naturelle ait fait son choix en favorisant le conformisme, sans pour autant renier les individus hors normes: ces derniers apparaissent davantage capables de s’adapter à des situations inhabituelles.

Théorie du «crapaud fou»

La diversité des types de cerveaux, ou neurodiversité, permettrait ainsi la survie de l’espèce. C’est l’hypothèse sur laquelle repose également la théorie "du crapaud fou", défendue par le mouvement du même nom, lancé à l'automne 2017 par trente-quatre scientifiques et autres personnalités inclassables. «Le changement commence toujours par les quelques pourcents que l'on traite de fous au départ», écrivent-ils sur leur site.

L’initiative vise à identifier les anticonformistes dans notre société et à les encourager à prendre la parole. Elle emprunte son argumentation à l’étude des animaux:

«Les crapauds vivent dans une zone et se reproduisent dans d’autres. Chaque année, de manière grégaire, tous migrent dans le même sens. Lorsque nous construisons de nouvelles routes en travers, ils se font massivement écraser. Sauf que… quelques-uns vont dans l’autre sens, ou trouvent les tunnels que des écologistes font creuser pour eux sous les routes. Parce qu’ils s’aventurent dans des directions non conventionnelles, ces crapauds fous inventent des voies d’avenir et sauvent l’espèce.»

Pour en revenir à la communauté scientifique, le caractère anticonformiste ne semble pas apporter aux individus une situation confortable. L’absence de reconnaissance par les pairs peut même mener à l’arrêt des recherches, par manque de financement.

L’histoire des sciences montre pourtant l’importance des anticonformistes pour le progrès des connaissances. Qu’en aurait-il été si de grands chercheurs comme Marie Curie ou Albert Einstein n’avaient pas persisté dans leurs travaux? On peut espérer que les neurosciences nous viennent en aide pour mieux repérer de tels individus et, à terme, stimuler le progrès scientifique.

Amandine Bery

 

Suggestions du mois

Les crapauds fous 

 Chaque espèce a ses stratégies pour survivre

Celle des crapauds est d'avoir dans chaque groupe des individus divergents : les crapauds fous.

Malgré les apparences c'est souvent sur eux que repose la survie du groupe. Un exemple à suivre ?

("SN ET ENVIRONNEMENT" "PSYCHO-SOCIAL 2")

 

 Les bienfaits de la curiosité

Dans un monde où nous avons parfois l'illusion d'être informés de tout, que reste-t-il de la curiosité ?
Le récit d'un voyageur du XIVe siècle nous rappelle les vertus d'une qualité éternelle, aujourd'hui fragilisée.

("SN ET ENVIRONNEMENT" "PSYCHO-SOCIAL 2")


Sérendipité : Heureux hasards en médecine

La stimulation cérébrale profonde chez le Malade Parkinsonien : la curiosité du Professeur Benabid.

Des centaines de milliers de malades dans le monde ont pu en bénéficier.

(" MALADIES ET ENVIRONNEMENT" "PARKINSON")

 

Paracelse : un anticonformiste

"... si, d’aventure, il se trouvait un marginal capable de guérir avec des méthodes différentes, on peut être certain qu’il serait accueilli avec joie, fraternité et tolérance par toute la Faculté. C’est probablement pour cela que l’éthique développée par Paracelse n’a pas besoin d’être enseignée : ses critiques ne concernent plus personne ... "

( "SN ET ENVIRONNEMENT"  "HISTOIRE")

 

Les mathématiques de haut niveau, au cœur de l’étude du cerveau

La journée de pi, c'est mercredi 3/14 !

A l'initiative du ministère de l'Éducation nationale, une Semaine des mathématiques se tient chaque année pendant la semaine du 14 mars.

L'occasion de s'intéresser au cerveau mathématicien.

(" SN ET ENVIRONNEMENT" "IMAGERIE")

 

UN GÉNIE PEUT ÊTRE UNE CRUCHE

mars 2018

La fouille d’une nécropole de la ville de Yehud a livré un penseur vieux de presque 4 000 ans !

Le cerveau des génies

 

Wolfgang Amadeus Mozart (1756-1791), a composé son premier opéra à l'âge de 11 ans. Combien d'enfants, ayant reçu la même formation musicale, auraient déployé un tel génie ?

 

Qu'est-ce qui permet aux surdoués de penser différemment ? Sans doute un cerveau plus connecté et qui suit une maturation accélérée au cours de l'enfance et de l'adolescence

Michel Habib

En 2013, les médias diffusèrent divers reportages sur Maximilian, un jeune Suisse âgé de dix ans qui venait de passer son baccalauréat de mathématiques et se préparait à entrer à l'Université. Le père de Maximilian, lui-même professeur de mathématiques, fut longtemps interrogé à la radio ou à la télévision sur le talent de son fils. Le cas ne fut pas sans évoquer l'enfance de Mozart, le compositeur prodige écrivant son premier opéra à l'âge de 11 ans, poussé par un père, lui-même compositeur, et baignant dans un univers tout entier consacré à la musique.

Mais combien d'enfants, mêmes plongés dans pareil environnement, deviendraient Maximilian ou Mozart ? Sans doute moins de un sur 10 000 ! Le génie est l'exemple typique d'une faculté issue de la rencontre entre un milieu, d'une part, et un « potentiel », un « talent » ou encore des « dispositions », d'autre part. Ne dit-on pas que le surdoué possède un don, sans que l'origine de ce don soit connue ? Aujourd'hui, les neurosciences s'intéressent naturellement à ce qui se passe dans le cerveau de ces personnes dotées d'un don particulier. Fonctionnement différent, agencement particulier des neurones ou des aires cérébrales ? Les découvertes récentes nous permettent aujourd'hui de percer quelques secrets des génies.

Un cortex plus plastique

Nous commencerons cette histoire par la fin, au moment où les techniques de mesure du cerveau ont atteint un stade critique de perfectionnement. Ainsi, une équipe de neurobiologistes du Centre américain de la santé du Maryland, conduite par le neuroscientifique Jay Giedd, a examiné, au moyen des techniques d'imagerie cérébrale, le cerveau de 307 hommes et femmes à plusieurs moments de leur vie, de l'enfance jusqu'à l'âge adulte. Cette équipe s'est particulièrement intéressée à l'épaisseur du cortex, la partie la plus externe du cerveau où sont traitées les informations sensorielles et motrices, et où ces sensations sont combinées pour donner lieu à des raisonnements et des intentions. En mesurant l'épaisseur du cortex au fil des ans, il a vu se dégager trois tendances.

Les personnes d'intelligence normale (au quotient intellectuel compris entre 83 et 108) voient leur cortex s'amincir progressivement entre 7 et 19 ans (voir figure 3). Les personnes d'intelligence élevée (entre 109 et 120 points de QI) ont également un cortex qui s'amincit progressivement au fil des ans, mais en partant d'une épaisseur supérieure au début. Enfin, les personnes d'intelligence supérieure (121 à 149, en grande partie des surdoués) présentent un profil nettement différent. À l'âge de sept ans, leur cortex cérébral est beaucoup plus mince que celui des autres enfants. Puis, de 7 à 11 ans, il s'épaissit à un rythme élevé, pour ensuite s'amincir comme les autres, mais plus rapidement.

Que signifie donc ce profil si particulier observé chez les surdoués : un cortex qui s'épaissit, puis s'amincit rapidement, alors qu'il ne fait que s'amincir doucement chez les autres enfants ? L'épaisseur du cortex dépend à la fois du nombre des neurones et de la quantité des connexions (synapses) qui les relient. Chez le tout jeune enfant, ce nombre atteint son maximum entre un et deux ans pour les neurones, et deux et trois ans pour les synapses. D'autres facteurs peuvent moduler l'épaisseur du cortex, par exemple la quantité de cellules gliales (qui entourent, soutiennent et protègent les neurones) et la présence d'une gaine isolante à base de lipides qui entoure les principaux prolongements (axones) des neurones.

Quand le maximum est atteint, le nombre global de neurones dans le cortex tend à diminuer, tout comme celui de synapses. On pense que l'élimination de certaines synapses permet l'apprentissage en créant des voies privilégiées de traitement de l'information. Dans ces conditions, il est assez naturel d'observer un amincissement du cortex chez les personnes d'intelligence moyenne ou élevée.

Le fait que le cortex continue de s'épaissir chez l'enfant surdoué jusqu'à l'âge de 11 ans suggérerait que ce processus pourrait être décalé : les neurones continueraient de développer leurs connexions et leurs arborisations à l'âge où se mettent en place les premiers apprentissages, tels que la lecture ou les mathématiques, créant des voies de traitement de l'information qui mobilisent du matériel neuronal de façon dynamique. Ensuite, la phase d'élagage et d'élimination des synapses serait plus rapide, permettant l'acquisition de nouvelles compétences avec une efficacité accrue.

Les mécanismes à l'œuvre dans le cerveau en phase de construction sont multiples et étroitement imbriqués. Le schéma proposé ici n'est donc qu'une façon d'imaginer ce qui se produit chez les surdoués. Une certitude demeure : le cortex des surdoués semble plus changeant et plastique que celui des personnes d'intelligence normale.

La raison de cette différence biologique est difficile à identifier. Des facteurs génétiques seraient en cause, même si leur complexité et leur nombre rendent sans doute illusoire la recherche de bases génétiques de l'intelligence. Mais l'environnement initial dans lequel grandit l'enfant joue certainement un rôle, les expériences du psychologue canadien Donald Hebb ayant montré, dès les années 1950, que les milieux dits enrichis (comportant de nombreuses stimulations) accélèrent la production de neurones dans le cerveau.

 Deux faisceaux de fibres neuronales dans le cerveau des surdoués sont plus développées que chez les sujets moyens. Il s'agit du faisceau longitudinal (en bleu clair) et du faisceau arqué (en vert). Ces structures reliant des territoires éloignés du cortex peuvent ainsi coopérer plus efficacement.

Un câblage hors normes

Mais il n'y a pas que l'épaisseur du cortex qui change chez les surdoués. Les voies de communication entre différentes parties du cerveau jouent aussi un rôle déterminant. Ces connexions sont formées de faisceaux de fibres ressemblant à des câbles optiques et que les récents clichés obtenus par imagerie par tenseur de diffusion ont permis de visualiser.

Il y a quelques mois, des chercheurs madrilènes ont observé ces faisceaux de fibres (aussi nommés substance blanche, car les produits chimiques utilisés initialement pour leur conservation en laboratoire les faisaient apparaître blancs) chez des adolescents âgés de 12 à 14 ans d'intelligence moyenne et chez des surdoués en mathématiques. Ils ont constaté deux types de faisceaux de fibres plus denses et robustes : d'une part, le corps calleux qui relie les deux hémisphères cérébraux ; d'autre part, le faisceau longitudinal qui relie le cortex frontal (à l'avant du cerveau) et le cortex pariétal (à l'arrière du cerveau). Ainsi, chez ces surdoués en mathématiques, la communication entre les deux hémisphères, mais aussi entre les parties antérieures et postérieures du cerveau, serait plus concertée et efficace.

Effectivement, le développement de ces fibres de substance blanche semble lié à l'intelligence : plus le QI est élevé, plus ces deux structures semblent développées. Plusieurs études ont confirmé l'existence d'un lien statistique entre l'intelligence mesurée et la taille des faisceaux de substance blanche, principalement du faisceau arqué, et surtout de sa partie moyenne nommée territoire de Geschwind, plaque tournante des informations sensorielles, dont les neurones se projettent sur les aires impliquées dans la motricité.

Parmi ces études, citons celle du neuroscientifique japonais Hikaru Takeushi de l'Université de Sendai. Il a mesuré les différents faisceaux de substance blanche et a relié ces résultats au degré de créativité, qu'il évaluait grâce à une forme particulière d'intelligence nommée « pensée divergente », la capacité d'imaginer plusieurs solutions à un problème en proposant des idées nouvelles. Cette faculté peut se mesurer au moyen de questionnaires où les questions posées sont, par exemple : « En plus de la lecture, à quoi peut servir un journal ? » (par exemple, à envelopper les objets) ; « Quelles sont les caractéristiques d'un bon téléviseur ? » (recevoir des émissions du monde entier) ; « Qu'arriverait-il s'il n'y avait plus de souris sur Terre ? » (par exemple, le monde serait plus propre).

Plusieurs types de mesure sont alors effectués : la fluence – ou aptitude à donner le plus grand nombre de réponses différentes –, la flexibilité – ou capacité à donner des réponses relevant de champs différents –, l'originalité – ou caractère inattendu et peu commun des réponses –, et enfin l'élaboration – ou aptitude à offrir des réponses détaillées. Le tout fournit un score de créativité que les chercheurs ont trouvé être directement lié à ces structures du cerveau déjà évoquées : le faisceau arqué et une portion du corps calleux.

Les preuves convergent donc vers un rôle particulier joué par ces faisceaux de substance blanche. En 2008, Jessica Tsang et son équipe de l'Université Bar-Ilan en Israël ont constaté que les compétences mathématiques de jeunes élèves âgés de 10 à 15 ans étaient reliées à la densité de fibres dans le faisceau arqué qui, rappelons-le, relie les aires frontales et pariétales du cerveau.

La puissance des réseaux

Quel est le rôle de ces câbles de substance blanche ? Pourquoi semblent-ils associés à des facultés particulières chez les enfants ? La substance blanche permet de véhiculer l'information sur de grandes distances au sein du cerveau, de sorte que des territoires distants peuvent travailler ensemble pour résoudre des problèmes. Le faisceau arqué, par exemple – dont la densité semble associée au score de quotient intellectuel – relie les régions corticales postérieures aux parties inférieures du lobe frontal. Le corps calleux, quant à lui, permet aux deux hémisphères de communiquer. Et le faisceau longitudinal, l'ensemble de fibres connectant les parties frontales et pariétales du cerveau, est particulièrement développé chez les surdoués en mathématiques.

Insistons sur ce dernier point. La communication renforcée entre les parties frontales et pariétales du cerveau semble constituer une composante clé du très haut potentiel intellectuel. Des spécialistes de l'étude des jeunes à haut potentiel, les psychologues américains Rex Jung et Richard Haier, ont recensé 37 études sur ce sujet et constaté qu'elles pointent vers l'implication de réseaux de neurones particulièrement intégrés entre les parties frontales et pariétales du cerveau chez ces sujets. Ils ont alors proposé une théorie dite de l'intégration fronto-pariétale pour rendre compte de certaines formes d'intelligence.

La théorie fronto-pariétale de l'intelligence

Cette vision repose sur un certain nombre d'observations : celles du neuroscientifique John Geake, de l'Université d'Oxford, par exemple, qui a constaté que ces réseaux fronto-pariétaux sont particulièrement actifs lors de tâches faisant intervenir ce que l'on nomme l'intelligence fluide (qui permet de produire des réponses multiples et variées à un problème, par exemple « si abc donne abd, que donne kij ? ») par opposition à une forme d'intelligence dite cristallisée, qui suppose de trouver la solution unique à un problème (« si abc donne abd, que donne ijk ? »).

D'autres neuroscientifiques en Corée ont enregistré l'activité cérébrale chez des sujets passant des tests de quotient intellectuel évaluant l'intelligence générale, à savoir la capacité à obtenir des scores d'intelligence élevés indépendamment du type de test passé, qu'il s'agisse de tests verbaux ou purement géométriques par exemple. Ils ont constaté que chez les sujets ayant une intelligence générale supérieure à 99 pour cent de la population, les réseaux fronto-pariétaux s'activent beaucoup plus que chez les personnes ayant une intelligence générale légèrement au-dessus de la moyenne de la population.

Enfin, l'implication du réseau fronto-pariétal est aussi observée chez les surdoués en mathématiques. L'équipe du neuroscientifique Michael O'Boyle, à l'Université du Texas, a ainsi constaté que, chez ces surdoués, ces réseaux fronto-pariétaux s'activent lors de tâches consistant à faire tourner mentalement une figure géométrique, ce qui n'est pas le cas chez des sujets « normaux ».

Pourquoi le développement particulier de telles connexions entre l'avant et l'arrière du cerveau procure-t-elle des capacités mentales hors du commun ? Selon le neuroscientifique Marcus Raichle, le réseau fronto-pariétal remplirait des fonctions de « contrôle cognitif », permettant de prendre en compte les informations extérieures et de puiser dans les connaissances stockées en mémoire. Chacune de ces deux fonctions semble reposer sur des réseaux de neurones distincts, l'un parcourant la partie supérieure et dorsale du cerveau, l'autre mobilisant des régions plus internes dont l'hippocampe et le cortex préfrontal. Le réseau fronto-pariétal, de par sa localisation intermédiaire par rapport à ces deux systèmes, permettrait de réguler leur activité de façon optimale pour les faire interagir efficacement.

Quand le surdoué se repose

Être surdoué, c'est donc avoir un cerveau où certaines connexions seraient peut-être plus robustes ou efficaces, se traduisant par un fonctionnement cérébral particulier dans certaines tâches. Mais que font les surdoués lorsqu'on ne leur demande pas de résoudre des équations ardues ? Leur cerveau fonctionne, là aussi, différemment. C'est le constat fait par certaines études où l'IRM fonctionnelle est utilisée non plus pour observer les zones cérébrales activées lors d'une tâche mentale, mais pour repérer celles qui ont tendance à s'activer simultanément quand la personne est au repos. Les régions qui s'activent de façon conjointe sont considérées comme connectées les unes aux autres, au moins sur un plan fonctionnel – et probablement aussi par des fibres de substance blanche.

Cette approche dite de « connectivité au repos » a permis de montrer que les sujets à haut potentiel présentent une plus forte connectivité dans le lobe frontal et entre les lobes frontaux et pariétaux, y compris lorsque ces sujets ne font rien de particulier. Le fait que cette différence existe même au repos prouve que les enfants précoces diffèrent des autres par une caractéristique de leur cerveau, déjà perceptible en l'absence de toute tâche cognitive.

Mais alors, d'où vient cette connectivité si particulière au cerveau des surdoués ? « La vertu ne s'apprend pas plus que le génie », disait Schopenhauer, une autre façon de dire que la question du caractère inné de ces très hauts potentiels reste intacte. Et elle sera très difficile à trancher, car les recherches en génétique, tout en faisant apparaître une composante héréditaire pour l'intelligence, ne laissent guère entrevoir un nombre limité de gènes qui sous-tendraient ces particularités. Génétique et neurosciences sont encore loin de nous avoir livré le code du génie !

Suggestions du mois :

La légende noire des surdoués
 
Si l’on en croit ce qu’on lit dans les médias et dans les livres spécialisés, les surdoués sont les véritables damnés de la Terre: ils sont en échec scolaire, inadaptés, hypersensibles, anxieux, dépressifs, dyslexiques, et plus si affinités. Comment est-ce possible, alors que le sens commun suggèrerait au contraire que les enfants les plus intelligents ont les meilleures chances de réussite dans tous les domaines ? Dans cet article, nous allons montrer que la plupart de ces allégations, sinon toutes, sont des mythes sans fondement.

"ENVIRONNEMENT ET SN" "PSYCHO-SOCIAL1"
*
Émile Zola : entre génie et folie

Le grand écrivain français était-il un génie un peu fou ? Au XIX° siècle, différents médecins et psychiatres, dont Édouard Toulouse, étudièrent son esprit sous tous les angles.

"ENVIRONNEMENT ET SN" "PSYCHO-SOCIAL1"

*
 

Fabriquer des surdoués grâce à la génomique ?

Et si la génomique permettait de localiser les gènes du très haut potentiel intellectuel ? C'est le projet démiurgique de chercheurs chinois... pour améliorer la population.

"ENVIRONNEMENT ET SN" "GÉNÉTIQUE"


 

LA MÉMOIRE : D'UN ART HERMÉTIQUE  À L'ENCYCLOPÉDIE PARTICIPATIVE

février 2018

Giotto. Chapelle des Scrovegni de Padoue . 1303/1306

L'ART PERDU DE LA MÉMOIRE

Mnémosyne d'après Dante Gabriel Rossetti, 1875-1881, Delaware Art Museum. Le mot « mémoire » vient de la déesse Mnémosyne. Mystérieuse, elle n’a laissé aucune représentation dans l’Antiquité. Il a fallu le talent de Rossetti pour l’imaginer.

 

Avant l’avènement du livre imprimé, c’était la mémoire qui régissait la vie quotidienne aussi bien que le savoir occulte. « L’art qui conserve tous les arts » (Ars artium omnium conservatrix) : ce titre donné plus tard à l’imprimerie aurait pu être le sien. C’était la mémoire des individus et des communautés qui véhiculait le savoir à travers le temps. Pendant des millénaires, ce fut elle, la mémoire personnelle, qui régna sur les divertissements comme sur l’information, sur la transmission et le perfectionnement des techniques, la pratique du commerce et celle des diverses professions. C’était par elle et en elle qu’étaient engrangés, préservés, accumulés les fruits de l’éducation. Elle était une faculté impressionnante, que chacun se devait de cultiver selon des méthodes et pour des raisons que nous avons depuis longtemps oubliées. Depuis cinq siècles, nous ne voyons plus de cet empire, de ce pouvoir de la mémoire, que quelques pitoyables vestiges. 

À cette réalité qui gouvernait leur vie, les Grecs donnèrent une forme mythologique. La déesse de la mémoire (Mnémosyne), était de la race des Titans, fille d’Uranus (le ciel) et de Gaia (la Terre) ; elle était aussi la mère des neuf Muses. Celles-ci, selon la légende, étaient la poésie épique (Calliope), l’histoire (Clio), la flûte (Euterpe), la tragédie (Melpomène), la danse (Terpsichore), la lyre (Erato), le chant sacré (Polymnie), l’astronomie (Uranus) et la comédie (Thalie).                                                      

Lorsque les neuf filles du roi Piéros les défièrent, dit-on, dans un concours de chant, leur punition fut d’être changées en pies, tout juste capables de répéter inlassablement une même note. Chacun avait besoin de la mémoire. Tout comme les autres arts, elle pouvait être cultivée et l’on connaissait d’habiles moyens de la parfaire. Elle possédait ses virtuoses que l’on admirait. Ce n’est qu’à une époque toute récente que les « exercices de mémoire » sont devenus un sujet de dérision et un refuge pour charlatans.  Les arts traditionnels de la mémoire, dont Frances A. Yates a retracé l’histoire avec tant de charme, prospérèrent en Europe pendant des siècle.

L’inventeur de la mnémotechnie fut, dit-on, le poète lyrique grec Simonide de Céos (env. 556-468 ? av. J.-C.). Homme aux talents variés, il semble par ailleurs avoir été le premier à accepter le paiement de ses poèmes. Cicéron, lui-même connu pour l’excellence de sa mémoire, nous conte dans son ouvrage sur l’art oratoire les origines de la réputation de Simonide. Lors d’un banquet que Scopas donnait en sa maison de Thessalie, le poète avait été invité à chanter, moyennant finances, les louanges de son hôte. En fait, seule une moitié de ses vers furent dédiés à Scopas, le reste de son chant étant un éloge des divins jumeaux, Castor et Pollux. Scopas, irrité, refusa de payer davantage que la moitié de la somme promise. De nombreux invités étaient encore attablés lorsqu’on vint dire à Simonide que deux jeunes gens l’attendaient à la porte. Il sortit et ne vit personne. Bien entendu, ces mystérieux visiteurs n’étaient autres que Castor et Pollux en personne ; ils avaient trouvé ce moyen de récompenser Simonide pour leur part du panégyrique. En effet, à peine le poète avait-il quitté la salle que le toit s’écroulait, enfouissant tous les autres convives sous un monceau de décombres. Lorsque les parents des victimes vinrent chercher les cadavres pour leur rendre les derniers honneurs, il fut impossible de les identifier tant ils étaient défigurés. C’est alors que Simonide exerça sa remarquable mémoire,  indiquant à chacun des parents endeuillés quel était le corps qui leur revenait. Il se souvenait parfaitement de leur place avant l’accident, et c’est ainsi qu’il put identifier les dépouilles - illustration ci-contre -. 

 
 
 

Cette expérience devait lui suggérer la forme classique de l’art de la mémoire dont il est censé être l’inventeur. Cicéron, pour qui  la mémoire était l’une des cinq composantes de la rhétorique, explique ainsi la démarche de Simonide :

Il déduisit que les personnes désireuses d’éduquer cette faculté devaient choisir des lieux, puis former des images mentales des choses dont elles souhaitaient se souvenir ; elles pourraient alors emmagasiner les images dans ces différents lieux, de sorte que l’ordre de ces derniers préserveraient l’ordre des choses, tandis que les images évoqueraient les choses elles-mêmes ; nous utiliserions ainsi les lieux et les images de la même façon qu’une tablette de cire et les lettres qu’on y trace.

L’art de Simonide, qui domina la pensée européenne pendant tout le Moyen Âge, était donc fondé sur deux principes simples, celui des lieux (loci) et celui des images (imagines) ; ces principes allaient servir de base durable aux procédés mnémotechniques des rhéteurs, des philosophes et des savants.

L’ouvrage le plus couramment utilisé fut un traité écrit vers 86-82 avant J.-C. par un maître de rhétorique romain. Ce texte, connu sous le nom de Ad Herennium - illustration ci-contre-, sa dédicace, était d’autant plus estimé que certains en attribuaient la rédaction à Cicéron lui-même. L’autre grand maître latin de la rhétorique, Quintilien (env. 35-95 de notre ère), devait préciser les choses en élaborant une méthode « architecturale » destinée à graver la mémoire de lieux.  Pensez, dit-il, à un grand bâtiment dont vous traverserez successivement les nombreuses salles en en mémorisant tous les ornements et le mobilier. Attribuez ensuite une image à chacune des idées dont vous désirez vous souvenir et, traversant à nouveau le bâtiment, déposez chacune de ces images selon cet ordre dans votre imagination. Si, par exemple, vous déposez mentalement une lance dans le salon et une ancre dans la salle à manger, vous saurez, plus tard, qu’il vous faut parler d’abord de la guerre et ensuite de la marine … Ce système n’a rien perdu de son efficacité.

Au Moyen Âge, il s’établit tout un jargon technique distinguant entre la mémoire « naturelle », que chacun possède en naissant et qu’il utilise sans aucun entraînement particulier, et la mémoire « artificielle », que l’on peut développer. Les techniques étaient différentes selon qu’il s’agissait de mémoriser des choses ou des mots, les opinions variaient quant au lieu où on devait se trouver pour faire ses exercices, et quant aux endroits les plus appropriés pour servir d’entrepôt imaginaire aux loci et images de la mémoire. Certains maîtres conseillaient de choisir un endroit tranquille où l’esprit puisse procéder à son travail de fixation sans être gêné par les bruits ambiants ou le passage des gens. Bien entendu, une personne observatrice et qui avait voyagé possédait l’avantage de pouvoir s’équiper de « lieux » nombreux et variés. Il n’était pas rare à l’époque de voir les étudiants en rhétorique arpenter fébrilement l’intérieur de bâtiments déserts, notant la forme et l’ameublement de chaque pièce afin de fournir à leur imagination les moyens d’une mise en mémoire.

 
 
 

 Sénéque le Père -illustration ci-contre- (v.55 av. J.-C./ 37 ap. J.-C.), célèbre professeur de rhétorique, était capable, disait-on, de reproduire fidèlement de longs passages de discours qu’il n’avait entendus qu’une seule fois, bien des années auparavant. Il impressionnait vivement ses élèves en demandant à une classe de deux cents d’entre eux de réciter chacun un vers tiré de quelque poésie, pour les répéter tous, ensuite, dans l’ordre inverse. Quant à Saint Augustin, qui avait lui aussi, à ses débuts, enseigné la rhétorique, il cite avec admiration le cas d’un de ses amis qui pouvait réciter tout Virgile – à l’envers.

 Les exploits, et surtout les acrobaties, de la mémoire « artificielle » étaient fort appréciés. « La mémoire, dit Eschyle, est la mère de toute sagesse.» Opinion partagée par Cicéron : «  La mémoire est trésor et gardien de toutes choses. » À l’apogée de la mémoire, avant la diffusion de l’imprimerie, la mnémotechnie était une nécessité pour l’amuseur, le poète et le chanteur, tout comme pour le médecin, l’homme de loi ou le prêtre. 

 
 
 

Les premières grandes œuvres épiques d’Europe naquirent de la tradition orale, ce qui revient à dire qu’elles furent préservées et récitées grâce aux arts de la mémoire. L’Iliade et l’ Odyssée - illustration ci-contre- se transmirent d’abord de bouche à oreille.  Pour désigner le poète, Homère emploie le mot « chanteur » (aoidos). Et ce « chanteur », avant Homère, semble avoir été celui qui récitait un seul poème, suffisamment court pour être dit en une seule fois devant le même auditoire. Le brillant chercheur américain Milman Parry nous a décrit, en Serbie musulmane, la survivance d’une pratique similaire, sans doute proche de celle de l’antiquité homérique. Il montre qu’à l’origine la longueur du poème était fonction de la patience des auditeurs et de l’étendue du répertoire de chaque chanteur. La grandeur d’Homère quelle que soit, par ailleurs, la réalité que recouvre ce nom – homme, femme ou ensemble de personnes – est d’avoir songé à réunir divers chants d’une heure en un seul poème épique, plus ambitieux dans son propos, plus développé dans ses thèmes et de structure complexe.

Les premiers livres de la Méditerranée antique furent écrits sur des feuilles de papyrus collées à la suite les unes des autres puis roulées. Le déroulement de ces livres était peu commode, et lorsque l’opération se répétait trop souvent, elle avait pour effet d’effacer l’écriture. Comme il n’y avait pas de pages numérotées, la vérification d’une citation était si fastidieuse que les gens préféraient s’en remettre à leur mémoire.

C’est par la mémoire aussi qu’étaient conservées les lois, avant de l’être par des documents. La mémoire collective fut donc le premier registre d’archives légales. Le droit coutumier anglais était un usage « immémorial », c’est-à-dire qui remontait en fait « aussi loin que mémoire d’homme n’avait point de souvenir contraire ». Sir William Blackstone -illustration ci-contre- pouvait écrire en 1765 : « Jadis, l’ignorance des lettres était, dans le monde  occidental, aussi profonde qu’universelle. Elles étaient figées dans la tradition, et ceci pour la simple raison que les nations n’avaient qu’une faible idée de ce que pouvait être l’écriture. Ainsi, les druides celtes et gaulois s’en remettaient à leur mémoire pour leurs lois comme pour leur savoir ; parlant des Saxons primitifs qui s’établirent en notre pays ou leurs frères du continent, on a pu dire : leges sola memoria et usu retinebant *. »

* Ils ont retenu les lois uniquement par la mémoire et l'usage

 
 
 

 Rites et liturgie étaient également préservés par la mémoire, avec les prêtres pour gardiens. De fréquents services religieux servaient à fixer les prières et le rituel dans l’esprit des jeunes fidèles. La prépondérance des textes versifiés et de la musique en tant que procédés mnémotechniques témoigne de l’importance que pouvait avoir la mémoire en ces temps d’avant l’imprimerie. Pendant des siècles, l’ouvrage de base pour la grammaire latine fut le Doctrinale, écrit au XIIe siècle par Alexandre de Villedieu, et qui se composait de deux mille vers de mirliton. Ces règles en vers étaient plus faciles à retenir, même si leur grossièreté était telle qu’elle consterna Aldus Manutius lorsqu’en 1501 il eut à réimprimer l’ouvrage.

Pour les philosophes scolastiques du Moyen Âge, il ne suffisait pas que la mémoire fût un procédé; ils en firent une vertu, l'un des aspects de la prudence. Après le XIIe siècle et la réapparition, sous forme de manuscrit, du classique Ad Herennium, les scolastiques semblent s'être intéressés bien moins à la technique de la mémoire qu'à son aspect moral. Il s'agissait de savoir en quoi elle pouvait encourager à une vie chrétienne.

Saint Thomas d'Aquin (1225-1274), proclament ses biographes, se souvenait parfaitement de tout ce qu'on lui avait enseigné à l'école. À Cologne, Albert le Grand l'avait aidé à développer sa mémoire. Les paroles des Pères de l'Église que Thomas rassembla pour Urbain IV après avoir visité de nombreux monastères furent couchées sur le papier non pas d'après des notes prises de sa main, mais au seul souvenir des textes qu'il avait parcourus. Il lui suffisait de lire un texte pour le retenir. Dans la Summa Theologiae (1267-1273), il reprend la définition de Cicéron, pour qui la mémoire est un élément de la prudence, et en fait l'une des quatre vertus cardinales. Puis il propose quatre règles pour le perfectionnement de cette mémoire, qui prévaudront jusqu'au triomphe du livre imprimé et seront inlassablement reproduites.  Si Lorenzetti et Giotto peignirent les vertus et les vices, ce fut surtout, comme l'explique Frances A. Yates, pour aider le public à appliquer les règles thomistes de la mémoire artificielles. La fresque de la salle capitulaire de Santa Maria Novella, à Florence, offre à la mémoire du spectateur une représentation frappante de chacune des quatre vertus cardinales de saint Thomas ainsi que de leurs différentes parties. "Nous devons nous souvenir assidûment des joies invisibles du Paradis et des tourments éternels de l'Enfer",  peut-on lire dans cet ouvrage fondamental du Moyen Âge qu'est le traité de Boncompagno. Pour celui-ci, la liste des vertus et des vices n'est qu'une série de "mémoratifs" dot le but est d'aider l'âme pieuse à fréquenter "les chemins de souvenance".

Dans la Divine Comédie de Dante (ci-contre), avec son plan de l'Enfer, du Purgatoire et du Paradis, lieux et images, conformément aux préceptes de Simonide et de saint Thomas, nous sont présentés de façon prégnante et dans un ordre facile à retenir. Sans compter d'autres exemples plus humbles. Les manuscrits des moines anglais du XIVe siècle contiennent des descriptions - l'idolâtrie en prostituée, par exemple-  dont le but n'est pas tant d'être perçues par l'œil du lecteur que de fournir à sa mémoire des images invisibles. 

 
 
 

Pétrarque (1304-1374)avait lui aussi la réputation d'être une autorité quant à la mémoire et à la meilleure façon de la cultiver. Il propose ses propres règles pour le choix des "lieux" où emmagasiner les images pour un usage ultérieur. L'architecture imaginaire de la mémoire, dit-il, doit comporter des lieux de rangement d'une taille moyenne, ni trop vastes ni trop petits pour l'image qu'il s'agit d'y mettre en réserve.

 Lorsque naquit l'imprimerie, d'innombrables systèmes avaient été élaborés au service des arts de la mémoire. Au début du XVIe siècle, l'ouvrage le plus connu du genre était un texte pratique, Phœnix, sive Artificiosa Memoria (Venise, 1491). Ce manuel connut une grande popularité, comme en témoignent les nombreuses rééditions et traductions dont il fut l'objet. L'auteur Pierre de Ravenne y assure que les meilleurs loci sont ceux d'une église déserte. Une fois celle-ci trouvée, dit-il, il faut en faire le tour trois ou quatre fois en fixant dans son esprit tous les endroits où l'on déposera par la suite ses images mnémotechniques. Chaque locus devra être distant de cinq à six pieds des autres. Pierre se vante d'avoir pu, tout jeune encore, fixer de la sorte près de 100 000 lieux mémoratifs ; par la suite, ses voyages lui permirent d'en ajouter des milliers d'autres. L'efficacité de son système, disait-il, se trouvait suffisamment démontrée par le fait qu'il était capable de reproduire mot pour mot l'ensemble du droit canon, deux cents discours de Cicéron et vingt mille  points de droit civil.

Après Gutenberg, tout ce que la mémoire avait, dans la vie quotidienne, à la fois régi et servi passa désormais sous l'égide de la page imprimée. À la fin du Moyen Âge, les livres manuscrits avaient été, parmi la classe restreinte des lettrés, une aide, un substitut parfois, à la mémoire. Mais le livre imprimé était infiniment plus transportable; il était aussi plus exact, plus facile à consulter, et touchait, bien sûr, un public plus large. Ce qui s'imprimait d'un auteur était connu de l'imprimeur, du correcteur et de quiconque se trouvait avoir en main la page imprimée. On pouvait maintenant se référer aux règles grammaticales, aux discours de Cicéron, aux textes théologiques, au droit canon, à la morale sans avoir à les porter en soi.

Le livre imprimé était un nouveau dépositaire de la mémoire, supérieur de mille manières à ces réserves individuelles, intérieures et invisibles, que chacun avait pu constituer jusqu'alors.Déjà, lorsque le codex de pages manuscrites reliées avait remplacé le long rouleau des origines, il était devenu bien plus commode de faire référence à une source écrite.

Après le XIIe siècle, certains livres manuscrits comportent même des tables, des titres courants, voire des index rudimentaires, ce qui montre que la mémoire commence alors à perdre du terrain. Mais la recherche deviendra plus facile encore lorsque les livres imprimés auront des pages de titre et des pages numérotées. El lorsqu'ils seront équipés d'un index - ce qui est le cas dès le XVIe siècle pour certains ouvrages-, le travail de la mémoire ne consistera plus qu'à connaître par cœur l'ordre alphabétique. Avant la fin du XVIIIe siècle, l'index alphabétique placé à la fin du livre était devenu chose courante. Les procédés mnémotechniques, bien qu'encore nécessaires, perdirent une bonne part de l'importance qu'ils avaient eue dans les hautes sphères de la religion, de la pensée et du savoir. Les performances spectaculaires cessèrent d'être admirées, devenant de simples curiosités.

Certaines des conséquences de cet état de choses avaient été annoncées quelque deux mille ans plus tôt. Dans son dialogue avec Phèdre, tel qu'il nous est rapporté par Platon, Socrate, en effet, regrette que le dieu égyptien Thot, inventeur de l'écriture, ait mal pesé les conséquences de son invention. Le dieu Thamos, alors roi d'Égypte, lui en fait le reproche : "Toi, père de l'écriture' tu lui attribues une efficacité contraire à celle dont elle est capable; car elle produira l'oubli dans les âmes en leur faisant négliger la mémoire; confiants dans l'écriture, c'est du dehors, par des caractères étrangers, et non plus du dedans, du fond d'eux-mêmes, que ceux qui apprennent chercheront à susciter leurs souvenirs; tu as trové le moyen, non pas de retenir, mais de renouveler le souvenir; et ce que tu vas procurer à tes disciples, c'est la présomption qu'ils ont la science, non la science elle-même; car, quand ils auront beaucoup lu sans apprendre, ils se croiront très savants, et ils ne seront le plus souvent que des ignorants de commerce incommode, parce qu'ils se croiront savants sans l'être"

 
 
 

Si déjà la parole écrite, selon Socrate, comportait pareils dangers, alors combien de fois ceux-ci allaient-ils être multipliés par l'introduction du texte imprimé ?

Victor Hugo nous le suggère avec bonheur dans un passage bien connu de Notre-Dame de Paris (1831)*. Le savant, tenant en main son premier livre imprimé, se détourne de ses manuscrits et, regardant la cathédrale : "Ceci, dit-il, tuera cela." L'imprimerie allait également détruire "les cathédrales invisibles de la mémoire", dès lors qu'il n'était plus indispensable d'associer choses ou idées à des images frappantes pour les mettre dans les lieux de mémoire.

Mais l'ère qui vit décliner l'empire de la mémoire sur le quotidien fut aussi celle de l'émergence du néo-platonisme,  cet empire nouveau, mystérieux, où tout était caché, secret, occulte. Ce renouveau des idées platoniciennes en pleine Renaissance redonna vie et importance à la mémoire. Platon, en effet, disait que l'âme "se  souvient" des formes idéales. Or voici que toute une constellation de talentueux mystiques inventait une nouvelle technologie de la mémoire. Elle cessait d'être un simple aspect de la rhétorique, une servante du discours, pour devenir une alchimie, un lieu d'entités ineffables; l'art hermétique découvrait les replis cachés de l'âme humaine. L'étrange théâtre de la Mémoire de Giulio Camillo, que l'on put voir à Venise et à Paris, proposait ses "lieux" non plus comme de simples commodités destinées au classement des souvenirs, mais, disait-il, dans le but de révéler " la nature éternelle des choses en des lieux éternels". Membres de l'Académie néo-platonicienne qu'avait fondée à Florence Cosme de Médicis, Marsile Ficin (1433-1499) et Pic de la Mirandole - illustration ci-contre - (1463- 1494) incorporèrent à leur fameuse philosophie tout un art occulte de la mémoire. 

 
 
 

L'explorateur le plus remarquable de ces continents obscurs fut un vagabon inspiré, Giordano Bruno (1548- 1600). Dans sa jeunesse, il avait été moine, à Naples, où les dominicains l'avaient instruit dans leur art fameux de ma mémorisation. Lorsqu'il quitta son ordre, les laïcs espérèrent qu'il leur révèlerait quelques-uns de ses secrets. Ils ne furent pas déçus. Dans son livre Circé, ou les Ombres des Idées (1582), Bruno leur faisait savoir que cette habileté particulière n'était ni naturelle ni magique, mais qu'elle était le produit d'une science. L'ouvrage s'ouvre par une incantation émanant de Circé en personne, puis évoque l'étrange pouvoir que possèdent  les décans du Zodiaque et les images qui les représentent. Les images sidérales, ombres des Idées, représentant des objets célestes, sont donc plus proches de la réalité que celles du monde transitoire d'ici-bas. Son système consistant à " se souvenir de ces ombres d'Idées, contractées pour une lecture intérieure" à partir des images célestes, devait permettre ainsi à ses disciples d'accéder à un plan supérieur.

" Il s'agit de donner forme au chaos informel. (...) Pour le contrôle de la mémoire, il faut que les nombres et les éléments soient disposés dans un certain ordre (...) à l'aide de certaines formes mémorable (les images du Zodiaque) ... J'affirme que, si vous méditez attentivement ces choses, vous atteindrez un art si justement figuratif que non seulement il vous aidera en votre mémoire, mais aussi, de façon merveilleuse, en tous les pouvoirs de votre âme"

 

Un moyen garanti d'accéder à l'Un qui se cache derrière la multiplicité des choses, de parvenir à l'Unité Divine !

Mais la mémoire au quotidien ne retrouva jamais l'importance qu'elle avait eue avant l'avènement du papier et de celui de l'imprimerie. Elle perdit de son prestige. En 1580, Montaigne écrit qu'une bonne mémoire est généralement synonyme d'absence de jugement. Et les intellectuels  du temps de renchérir : " Rien n'est plus commun, disaient-ils, qu'un imbécile doué de mémoire".

 
 
 

 

Au cours des siècles qui suivirent l'invention de l'imprimerie, l'attention allait se déplacer des techniques de mémorisation à la pathologie de la mémoire. En cette fin du XXe siècle, les chercheurs mettent plutôt l'accent sur l'aphasie, l'amnésie, l'hystérie, l'hypnose et, bien entendu, la psychanalyse, tandis que les pédagogues se détournent des arts de la mémoire au profit de l'art d'apprendre, conçu, de plus en plus, comme un processus social.

Dans le même temps se manifeste un regain d'intérêt pour l'art de l'oubli. Selon Cicéron, lorsque Simonide offrit à Thémistocle de lui enseigner l'art de la mémoire, l'homme d'État athénien refusa, disant : " Ne m'apprends pas à me souvenir, mais plutôt à oublier, car je me souviens de choses que je préfèrerais laisser dans l'oubli, tandis que je ne puis oublier ce que je souhaiterais effacer de ma mémoire".

 L'étude de l'oubli devint un des secteurs de pointe de la psychologie moderne, pour laquelle les processus mentaux devaient avant tout être examinés de façon expérimentale et mesurés. " La psychologie, déclare Hermann Ebbinghaus (1850-1909), a un long passé, mais son histoire est courte." Ses expériences, que William James qualifie d' "héroïques", étaient aussi remarquablement simples. Décrites dans l'ouvrage intitulé De la mémoire, contribution à la psychologie expérimentale (1885), elles jettent les bases de toute la psychologie moderne.

Pour les expériences, Ebbinghaus utilise des syllabes dépourvues de sens. En prenant deux consonnes au hasard, et en y intercalant une voyelle, il obtient quelque deux mille trois cents phonèmes mémorisables (et oubliables), qu'il dispose ensuite en séries. Ces syllabes présentaient l'avantage d'éviter toute association. Pendant deux années, il se prit lui-même comme cobaye afin de tester les capacités de mémorisation et de reproduction de ces syllabes, prenant scrupuleusement note de chaque expérience, des temps nécessaires à la remémoration, des intervalles entre deux tentatives. Il expérimenta également les techniques de "réapprentissage". Ses travaux auraient pu être de peu d'utilité s'il n'avait eu la passion des statistiques.

Ce livre était dédié à Gustave Fechner (1801- 1887) qui avait commencé l'étude des perceptions sensorielles. Ebbinghaus espérait que ces dernières ne seraient plus seules "à faire l'objet d'un traitement expérimental et quantitatif" , mais que les phénomènes proprement mentaux pourraient être abordés de la même manière. La "courbe d'Ebbinghaus" montrait l'existence d'une corrélation entre l'oubli et le temps. Les résultats de ses expériences, qui conservent aujourd'hui toute leur valeur, montraient que l'on oublie le plus souvent peu de temps après avoir "appris".

 
 
 

C'est de cette manière inattendue que débuta le balisage de notre monde intérieur au moyen d'instruments offerts par les mathématiques. D'autres expérimentateurs, cependant, poursuivant la tradition néo-platonicienne, continuaient à s'intéresser aux mystères de la mémoire. Ebbinghaus lui-même avait étudié "la résurgence involontaire des images mentales, passant des ténèbres de la mémoire à la lumière de la conscience". Quelques autres psychologues s'engouffrèrent derrière lui dans ces "ténèbres" de l'inconscient, affirmant qu'ils venaient d'inventer une "science" nouvelle.

Les fondateurs de la psychologie moderne portaient un intérêt croissant aux phénomènes d'oubli, tels qu'ils se manifestent dans la vie quotidienne. L'incomparable William James (1842-1910) écrivait ceci : " Dans l'usage pratique de notre intellect, l'oubli possède une fonction aussi importante que la mémoire ... Si nous nous souvenions de tout, nous serions, dans la plupart des cas, aussi mal lotis qu'en ne nous souvenant de rien. Pour nous rappeler une période écoulée, il nous faudrait autant de temps que cette période en a pris, et notre pensée n'avancerait pas.Toute durée remémorée implique des raccourcis et ceux-ci sont dus à l'omission d'une énorme quantité de faits qui remplissaient la durée en question. Nous arrivons, dit M. Ribot, à ce résultat paradoxal que l'une des conditions nécessaires au souvenir est justement d'oublier. Sans l'oubli total d'une quantité prodigieuse d'états de conscience, sans l'oubli momentané d'un grand nombre d'entre eux, nous ne pourrions nous souvenir de rien ..."

 

En un siècle où la quantité disponible de savoir humain et de mémoire collective allait être augmentée et diffusée comme elle ne l'avait jamais été, l'oubli devenait, plus que jamais, la condition première d'une certaine santé mentale.

Mais que devenaient les souvenirs "oubliés" ? Où étaient les neiges d'antan ? Au XXe siècle, le monde de la mémoire allait connaître une nouvelle  mutation : on allait le redécouvrir dans les vastes territoires de l'Inconscient. Dans sa Psychopathologie de la vie quotidienne (1904), Sigmund Freud (1856- 1939) prenait pour point de départ des exemples simples tels que l'oubli des noms propres, celui des termes étrangers ou de l'ordre des mots. Le nouvel art  de la mémoire qui fit la  célébrité de Freud possédait à la fois les prétentions scientifiques de Simonide et de ses successeurs, et le charme occulte des néo-platoniciens. L'homme, bien sûr, s'était toujours interrogé sur le mystère des rêves. Or voilà que Freud, dans ce mystère, débusquait tout un vaste trésor de souvenirs. Son Interprétation des rêves (1900) montrait que la psychanalyse pouvait devenir un art et une science du souvenir.

D'autres, stimulés par Freud, poussèrent plus loin encore cette recherche. La mémoire latente, ou inconscient, devint une ressource nouvelle pour la thérapie, l'anthropologie, la sociologie. L'histoire d'Œdipe n'était-elle pas applicable à la vie intérieure de tout être humain ? Les  métaphores mythologiques de Freud suggéraient que nous étions tous les héritiers d'une expérience commune et fort ancienne, mais ce fut Carl Jung (1875-1961) qui, plus proche de la tradition hermétique, popularisera la notion d' "inconscient collectif". Ainsi Freud, ses disciples et dissidents avaient-ils redécouvert, et peu-être reconstruit à leur manière, les cathédrales de la Mémoire.

 

Daniel BOORSTIN ( Les Découvreurs )


 

 
 
 

DES GÈNES SAUTEURS  

DANS LE CERVEAU

Janvier 2018

LES TRANSPOSONS (ici, en fausses couleurs et grossi 40 000 fois) sont des éléments génétiques mobiles. Ils se déplacent au hasard dans l'ADN de la cellule qui les héberge. Ces mouvements seraient nombreux dans les neurones.

Le génome des neurones n'est pas immuable. Des fragments d'ADN s'y déplacent, expliquant en partie comment des vrais jumeaux, élevés de la même façon, peuvent avoir des personnalités différentes. Ce phénomène participerait également à l'apparition de troubles mentaux, tels l'autisme et la schizophrénie.

Fred Gage et Alysson Muotri

 
Prenez deux individus au hasard et étudiez leur cerveau. Des différences apparaissent, de la cellule à l'architecture macroscopique : le cerveau humain contient 100 milliards de neurones, qui se déclinent en milliers de types distincts ; en outre, il existe plus de 100 000 milliards de connexions entre ces neurones. Au final, deux cerveaux ne sont jamais parfaitement identiques. Ces différences favorisent la diversité de la pensée et des comportements, et influent sur la sensibilité aux maladies mentales. Cette diversité des réseaux de neurones et des fonctions cérébrales résulte en partie de celle du patrimoine génétique. Les expériences vécues interviennent également, par exemple en influant sur l'intensité des connexions entre des ensembles particuliers de neurones.
Ces variations se retrouvent-elles chez des vrais jumeaux, élevés par les mêmes parents ? Oui, on peut observer des différences marquées de caractère, de comportement et de sensibilité aux maladies du cerveau. Ainsi, des souris génétiquement semblables, d'âge et de sexe identiques et traitées de la même façon en laboratoire, n'ont ni les mêmes capacités d'apprentissage ni les mêmes réactions d'évitement et de réponse au stress.
Des facteurs différents de l'hérédité et de l'environnement sont donc à l'œuvre. Susceptibles d'intervenir à un stade précoce du développement embryonnaire ou plus tard au cours de la vie, ils modifient par exemple les gènes ou la production de protéines. Ainsi, lors de l'épissage alternatif, les ARN issus de la transcription d'un gène sont « taillés » de diverses façons, de sorte qu'un même gène peut coder deux protéines différentes, voire davantage. Les protéines effectuant la plupart des opérations dans les cellules, cela influe sur le fonctionnement des tissus. De nombreux chercheurs étudient également le rôle des modifications épigénétiques, qui changent l'activité des gènes (en augmentant ou en diminuant la quantité de protéines synthétisées) sans modifier le code génétique.
Des gènes sauteurs
Ces dernières années, nous avons découvert, avec nos collègues, un mécanisme étonnant, qui semble plus actif dans le cerveau que dans d'autres tissus : il s'agit des gènes sauteurs, aussi nommés éléments mobiles. Identifiés chez presque toutes les espèces, y compris chez l'homme, ces derniers sont capables de se dupliquer et de s'insérer dans diverses régions du génome. En d'autres termes, ils sont autonomes, ou anarchistes. Ils peuvent ainsi changer le fonctionnement d'une cellule, qui ne se comporte plus comme ses voisines. En grand nombre, ces sauts de gènes modifieraient certains aspects du fonctionnement du cerveau.
Pourtant, le cerveau ne doit pas se dérégler. Dès lors, pourquoi l'évolution a-t-elle permis à un processus qui modifie sa programmation génétique de persister ? Nous l'ignorons, mais nous pensons qu'en créant de la variabilité dans les cellules cérébrales, les gènes sauteurs rendent les organismes plus flexibles et plus aptes à s'adapter rapidement à un nouvel environnement. Ces gènes sauteurs auraient donc été conservés par l'évolution, car le bénéfice serait supérieur aux risques.
On sait depuis longtemps que des éléments mobiles se déplacent dans le génome. Toutefois, on découvre chaque jour un peu plus l'importance de leur activité dans le cerveau. Le saut de gènes a été découvert pour la première fois dans des plantes, avant même que James Watson et Francis Crick ne décrivent la structure en double hélice de l'ADN en 1953.
Dans les années 1940, Barbara McClintock, du Laboratoire de Cold Spring Harbor, a observé que des éléments contrôlant l'expression des gènes se déplaçaient d'un endroit à un autre dans le génome du maïs. Sous l'effet du stress, certaines régions du génome migraient et activaient ou inactivaient des gènes à proximité de leur nouvel emplacement. Lors de ses expériences, McClintock a produit des épis de maïs aux grains de couleurs différentes. Elle a ainsi créé des mosaïques génétiques, où les gènes étaient activés et inactivés selon des schémas parfois différents d'une cellule à la cellule voisine.
Une mosaïque génétique
Les recherches de McClintock, qui se sont d'abord heurtées au scepticisme de la communauté scientifique, lui ont valu le prix Nobel en 1983. Progressivement, on a découvert que le phénomène des mosaïques génétiques ne se limite pas aux plantes, mais concerne de nombreux organismes, dont l'être humain.
McClintock a étudié des transposons, des éléments mobiles qui se déplacent dans le génome de la cellule par un mécanisme de « couper-coller » : ils s'extraient de l'ADN environnant, puis s'insèrent en un nouvel endroit. Des recherches plus récentes sur les éléments mobiles du cerveau portent sur des rétrotransposons, qui agissent plutôt par copier-coller : ils se répliquent au lieu de s'extraire de l'ADN, et c'est la copie qui se déplace.
Les rétrotransposons représentent la moitié de l'ADN du génome humain. En comparaison, les quelque 23 000 gènes codant des protéines constituent moins de deux pour cent de notre ADN. Les gènes sauteurs sont des descendants des premiers systèmes moléculaires de réplication qui ont envahi les génomes des eucaryotes (des organismes dont les cellules ont un noyau). On les a longtemps considérés comme de l'ADN non fonctionnel, mais en 1988, un groupe dirigé par Haig Kazazian, de l'Université de Pennsylvanie, a montré qu'ils étaient actifs chez l'homme.
En particulier, un type de rétrotransposon nommé LINE 1 ou L1 (pour Long Interspersed Nuclear Element, soit Long élément nucléaire disséminé) joue un rôle clé dans le génome humain. Il se déplace souvent, probablement parce que, à l'inverse d'autres éléments mobiles, il code sa propre machinerie de saut ; elle lui permet d'insérer des copies dans des endroits éloignés du génome cellulaire. L'élément L1 est d'abord transcrit en un brin d'ARN qui passe du noyau dans le cytoplasme, où il sert de modèle pour la production de protéines. Celles-ci forment ensuite un complexe moléculaire avec l'ARN, puis l'ensemble retourne dans le noyau, à un nouvel emplacement.
Là, une de ces protéines, une enzyme nommée endonucléase, coupe l'ADN en des sites spécifiques. Elle utilise l'ARN comme modèle pour fabriquer une copie du double brin d'ADN du rétrotransposon L1. Enfin, elle insère cette copie dans le génome, à l'endroit d'une coupure. Une telle transcription inverse, d'ARN en ADN, n'est pas rare : le virus VIH, dont le génome est constitué d'ARN, se sert de ce mécanisme pour convertir son ARN en ADN, ce qui lui permet de l'intégrer de façon permanente dans le génome des cellules qu'il infecte.
La rétrotransposition échoue souvent en cours de route, produisant des copies tronquées de l'ADN d'origine. Quelles sont les conséquences de l'insertion d'un fragment ou d'une copie entière de l'élément L1 ? Parfois, il ne se passe rien, parfois les effets sont positifs, parfois ils sont délétères. Dans certains cas, par exemple, des éléments mobiles s'insèrent dans la région codante d'un gène et la modifient. Une nouvelle protéine – potentiellement bénéfique ou nuisible – est codée par ce gène. L'insertion peut aussi arrêter la synthèse protéique. Dans d'autres cas, l'ADN s'insère dans une région non codante, mais agit comme un promoteur (un « interrupteur » activant les gènes proches) : il modifie le degré d'expression du gène (la quantité de protéines produites à partir du gène). Là encore, les résultats peuvent être favorables ou non pour la cellule ou l'organisme.
Récemment encore, la plupart des biologistes supposaient que la rétrotransposition d'éléments L1 survenait surtout dans les cellules germinales (à partir desquelles sont formés les ovules et les spermatozoïdes), au sein des ovaires et des testicules. On avait trouvé quelques indices suggérant qu'elle intervenait aussi dans les tissus somatiques (les tissus qui ne sont pas constitués de cellules germinales) pendant le développement embryonnaire, voire plus tard, mais ils avaient été réfutés. La localisation spécifique de la rétrotransposition dans les cellules germinales semblait logique : si les gènes ont pour finalité de se propager, comme le prétend une théorie évolutionniste, le saut de gènes a peu de raisons de rester actif dans les cellules somatiques, puisqu'elles disparaissent en même temps que l'individu qui les porte.
Cependant, de meilleurs outils de détection ont permis de réfuter cette hypothèse. Ils ont révélé que les rétrotransposons se déplacent aussi dans le génome des tissus somatiques, même après le développement embryonnaire. Dans notre laboratoire, nous avons étudié les rétrotranspositions chez une souris. Ses cellules avaient été génétiquement modifiées pour émettre une fluorescence verte lorsqu'un élément L1 s'insérait dans le génome, quel que soit l'endroit dans l'organisme. Nous avons observé une fluorescence dans les cellules germinales, comme prévu, mais aussi dans certaines régions du cerveau, dont l'hippocampe (une région importante pour la mémoire et l'attention).
Les éléments L1 se déplaceraient donc davantage dans le cerveau que dans d'autres tissus somatiques. Cela contredit un dogme ancien, selon lequel les codes génétiques des cellules cérébrales chez les adultes sont identiques et stables pendant toute la vie des cellules.
On a constaté que les rétrotranspositions survenaient dans les cellules dites progénitrices : de telles cellules sont en attente, prêtes à se diviser et à engendrer des cellules spécialisées (ici de nouveaux neurones de l'hippocampe) ; leur division est déclenchée par un signal d'activation, émis par exemple après la mort de certaines cellules – qui sont alors remplacées. De nombreux tissus abritent des populations de cellules progénitrices. L'hippocampe est l'une des régions du cerveau où siège une neurogenèse (la production de nouveaux neurones). Ainsi, les éléments L1 seraient actifs lorsque des neurones naissent, soit à un stade précoce du développement, soit dans les quelques régions du cerveau où la neurogenèse persiste à l'âge adulte.
Pour confirmer que les rétrotrans-posons sont plus actifs dans le cerveau qu'ailleurs, nous avons effectué des analyses post mortem chez l'homme. Nous avons compté le nombre d'éléments L1 présents dans les noyaux cellulaires des tissus cérébral, cardiaque et hépatique, et constaté qu'il était beaucoup plus élevé dans le tissu cérébral que dans les deux autres.
Des sauts de gènes par milliers
La plupart des rétrotranspositions ont dû se dérouler lors du développement du cerveau. En effet, la rétrotransposition semble nécessiter des divisions cellulaires – on ne l'a jamais observée dans des cellules qui ne se divisent pas. Or, dans le cerveau, les divisions s'arrêtent après la petite enfance, sauf dans les régions progénitrices. Selon une étude réalisée notamment par Nicole Coufal, de notre laboratoire, chaque neurone humain connaîtrait en moyenne 80 intégrations d'éléments L1. Une telle fréquence entraîne une grande variabilité entre cellules chez une même personne et entre individus.
L'activité des éléments L1 dans le cerveau humain a été confirmée en 2011 par Kenneth Baillie, de l'Institut Roslin, près d'Édimbourg, en Écosse, et ses collègues. Les chercheurs ont identifié 7 743 insertions d'éléments L1 dans l'hippocampe et le noyau caudé (une zone intervenant également dans la mémoire) chez trois personnes décédées.
Lors de son étude, l'équipe de l'Institut Roslin a fait une découverte inattendue : elle a trouvé environ 15 000 exemplaires d'une autre classe de rétrotransposons, les SINE (pour Short Interspersed Nuclear Elements, ou Élément nucléaire court et disséminé). Le SINE le plus abondant, membre d'une famille nommée Alu, n'avait jamais été observé dans le cerveau.
Nous nous sommes alors demandé ce qui déclenche l'activité des éléments L1. Comme la neurogenèse se déroule notamment dans l'hippocampe et qu'elle est stimulée par l'exercice physique, ce dernier est-il l'élément déclencheur des rétrotranspositions ? Pour le savoir, nous avons fait courir des souris transgéniques dans une roue : le nombre de cellules fluorescentes vertes a presque doublé dans leur hippocampe.
Les nouvelles situations et les défis stimulant aussi la neurogenèse constituent-ils d'autres facteurs déclenchant la rétrotransposition ? Si les sauts d'éléments L1 augmentent lorsque le système nerveux apprend et s'adapte au monde extérieur, cela signifie que le cerveau est en constante évolution génétique et change à chaque nouvelle expérience. Des différences notables pourraient en résulter, même entre des vrais jumeaux.
Pour étayer l'hypothèse que les gènes sauteurs contribuent à la diversité cérébrale chez l'homme, nous ne nous sommes pas contentés de compter les éléments L1 dans l'ADN. Nous avons aussi cherché un lien entre nos résultats et des événements visibles, telles des maladies mentales. Les conséquences délétères sont plus faciles à mettre en évidence que les effets positifs.
En 2010, nous avons montré qu'une mutation d'un gène nommé MeCP2modifiait la rétrotransposition des éléments L1 dans le cerveau. Or des mutations de ce gène sont à l'origine de plusieurs maladies du cerveau, dont le syndrome de Rett, un trouble grave du développement cérébral qui touche presque exclusivement les filles. Il nous reste à comprendre les mécanismes moléculaires et cellulaires de ces troubles. Chez les souris et les êtres humains atteints du syndrome de Rett, la mutation du gène MeCP2 que nous avons identifiée entraîne la multiplication des insertions de L1 dans les neurones. Les gènes sauteurs seraient-ils responsables de certains des symptômes du syndrome de Rett ?
Un rôle dans la schizophrénie et l'autisme ?
L'activité des éléments L1 est aussi élevée dans d'autres maladies cérébrales. Une analyse du cortex frontal chez des sujets atteints de schizophrénie a révélé une augmentation du nombre de séquences L1 par rapport à des personnes indemnes. On pense également que les éléments L1 interviennent dans des troubles tels que l'autisme. La compréhension du rôle que jouent les éléments mobiles dans les maladies psychiques conduira peut-être à de nouvelles méthodes de diagnostic, de traitement et de prévention.
Les études sur les gènes sauteurs dans le cerveau pourraient stimuler divers champs de recherche. Les généticiens du comportement suivent souvent des groupes de jumeaux sur de longues périodes pour étudier les effets des gènes et déterminer les contributions de l'environnement à des troubles tels que la schizophrénie. Les gènes sauteurs remodelant le génome après la période du développement embryonnaire, les vrais jumeaux ne sont pas aussi génétiquement semblables qu'on l'admettait jusqu'à présent. Ce résultat complique alors la tâche consistant à démêler la part de l'inné et de l'acquis.
Une question subsiste : pourquoi l'évolution n'a-t-elle pas détruit ces vestiges d'anciens virus qui risquent d'introduire des défauts génétiques fatals dans nos cellules ? L'être humain a toujours subi les attaques de parasites viraux et d'autres envahisseurs qui ont inséré leur génome dans celui de l'individu attaqué. Nos ancêtres n'ont pas été capables d'éliminer totalement ces intrus, mais ils se sont adaptés pour coexister avec eux : ils les ont rendus silencieux grâce à différents mécanismes qui les ont fait muter et les ont désactivés. Dans certains cas, l'insertion de nouveaux éléments a été bénéfique. C'est l'une des raisons pour lesquelles les cellules permettent parfois, voire encouragent, le saut d'éléments L1 à l'intérieur du génome, dans des conditions soigneusement contrôlées.
Nous en apprendrons peut-être plus en analysant pourquoi la réponse au stress de souris génétiquement identiques et élevées dans les mêmes conditions varie à ce point. Les différences de comportement observées présentent une distribution caractéristique dans la population, dessinant une courbe en forme de cloche. Cela suggère que les mécanismes à l'origine de cette variabilité sont aléatoires, comme semblent l'être les sites d'insertion des rétrotransposons L1.
La nature aléatoire présumée des déplacements des éléments L1 dans le génome évoque un mécanisme de sélection naturelle, où les bénéfices des insertions utiles sont supérieurs aux conséquences délétères des autres. En jetant souvent les dés dans les cellules neurales progénitrices de l'hippocampe, la nature optimise la possibilité qu'émerge une population de neurones adaptés aux tâches auxquelles le cerveau est confronté.
Un processus voisin a lieu lorsque l'ADN des cellules immunitaires se réarrange, les conduisant à produire de nouvelles gammes d'anticorps. Les mieux adaptées à la lutte contre un agent pathogène sont ensuite sélectionnées.
Les effets des insertions n'ont pas besoin d'être importants ni de concerner un grand nombre de cellules pour influer sur le comportement. Chez les rongeurs, un changement dans les modalités d'activation d'un seul neurone suffirait à faire apparaître une différence.

L'idée d'insertions utiles est étayée par la découverte que la seule sous-famille d'éléments sauteurs L1 active dans le génome humain est apparue il y a environ 2,7 millions d'années, à une époque où nos ancêtres ont adopté des outils en pierre. Les éléments L1 pourraient donc avoir contribué à la construction de cerveaux inventifs, susceptibles de s'adapter à des conditions environnementales et climatiques changeantes. Ainsi, les rétrotransposons L1 auraient bien participé à l'évolution d'Homo sapiens.

SANS EUX SERIONS-NOUS DANS LA PRÉHISTOIRE ?  

20 avril 2017

les lions de la grotte Chauvet, créés il y a 30 000 ans, sont-ils l'oeuvre d'un artiste autiste ?

Comment nos ancêtres autistes ont joué un rôle clé dans l'évolution

 

 

 

Les gènes de l'autisme ont pesé lourd au cours de l'évolution humaine. De quoi porter un autre regard sur ce handicap. Mais aussi sur la préhistoire.

 
L'archéologie
 et l'histoire des origines de l'homme commencent seulement à prendre en compte le rôle important des personnes autistes.

L'archéologie et l'histoire des origines de l'homme commencent seulement à prendre en compte le rôle important des personnes autistes.