"He who receives ideas from me, receives instruction himself without lessening mine; as he who lights his taper at mine receives light without darkening me”

Thomas JEFFERSON    3rd US President

 

LA MÉMOIRE : D'UN ART HERMÉTIQUE  À L'ENCYCLOPÉDIE PARTICIPATIVE

février 2018

Giotto. Chapelle des Scrovegni de Padoue . 1303/1306

L'ART PERDU DE LA MÉMOIRE

  

Avant l’avènement du livre imprimé, c’était la mémoire qui régissait la vie quotidienne aussi bien que le savoir occulte. « L’art qui conserve tous les arts » (Ars artium omnium conservatrix) : ce titre donné plus tard à l’imprimerie aurait pu être le sien. C’était la mémoire des individus et des communautés qui véhiculait le savoir à travers le temps. Pendant des millénaires, ce fut elle, la mémoire personnelle, qui régna sur les divertissements comme sur l’information, sur la transmission et le perfectionnement des techniques, la pratique du commerce et celle des diverses professions. C’était par elle et en elle qu’étaient engrangés, préservés, accumulés les fruits de l’éducation. Elle était une faculté impressionnante, que chacun se devait de cultiver selon des méthodes et pour des raisons que nous avons depuis longtemps oubliées. Depuis cinq siècles, nous ne voyons plus de cet empire, de ce pouvoir de la mémoire, que quelques pitoyables vestiges.

 

                                                                       

 

Mnémosyne d'après Dante Gabriel Rossetti, 1875-1881, Delaware Art Museum. Le mot « mémoire » vient de la déesse Mnémosyne. Mystérieuse, elle n’a laissé aucune représentation dans l’Antiquité. Il a fallu le talent de Rossetti pour l’imaginer.

 

 

 

 

 

 

 

À cette réalité qui gouvernait leur vie, les Grecs donnèrent une forme mythologique. La déesse de la mémoire (Mnémosyne), était de la race des Titans, fille d’Uranus (le ciel) et de Gaia (la Terre) ; elle était aussi la mère des neuf Muses. Celles-ci, selon la légende, étaient la poésie épique (Calliope), l’histoire (Clio), la flûte (Euterpe), la tragédie (Melpomène), la danse (Terpsichore), la lyre (Erato), le chant sacré (Polymnie), l’astronomie (Uranus) et la comédie (Thalie).

 

 

 

 

 

                                                                                                                         

 

Sarcophage des Muses représentant les neuf Muses et leurs attributs. Sarcophage en marbre datant de la première moitié du IIe siècle après J.-C. et découvert sur la Via Ostiense (de gauche à droite : Calliope, Thalia, Terpsichore, Euterpe, Polymnie, Clio, Érato, Uranie et Melpomène).

                                                                                                                    

Lorsque les neuf filles du roi Piéros les défièrent, dit-on, dans un concours de chant, leur punition fut d’être changées en pies, tout juste capables de répéter inlassablement une même note. Chacun avait besoin de la mémoire. Tout comme les autres arts, elle pouvait être cultivée et l’on connaissait d’habiles moyens de la parfaire. Elle possédait ses virtuoses que l’on admirait. Ce n’est qu’à une époque toute récente que les « exercices de mémoire » sont devenus un sujet de dérision et un refuge pour charlatans. Les arts traditionnels de la mémoire, dont Frances A. Yates a retracé l’histoire avec tant de charme, prospérèrent en Europe pendant des siècle -illustation ci-contre-.

 

L’inventeur de la mnémotechnie fut, dit-on, le poète lyrique grec Simonide de Céos (env. 556-468 ? av. J.-C.). Homme aux talents variés, il semble par ailleurs avoir été le premier à accepter le paiement de ses poèmes. Cicéron, lui-même connu pour l’excellence de sa mémoire, nous conte dans son ouvrage sur l’art oratoire les origines de la réputation de Simonide. Lors d’un banquet que Scopas donnait en sa maison de Thessalie, le poète avait été invité à chanter, moyennant finances, les louanges de son hôte. En fait, seule une moitié de ses vers furent dédiés à Scopas, le reste de son chant étant un éloge des divins jumeaux, Castor et Pollux. Scopas, irrité, refusa de payer davantage que la moitié de la somme promise. De nombreux invités étaient encore attablés lorsqu’on vint dire à Simonide que deux jeunes gens l’attendaient à la porte. Il sortit et ne vit personne. Bien entendu, ces mystérieux visiteurs n’étaient autres que Castor et Pollux en personne ; ils avaient trouvé ce moyen de récompenser Simonide pour leur part du panégyrique. En effet, à peine le poète avait-il quitté la salle que le toit s’écroulait, enfouissant tous les autres convives sous un monceau de décombres. Lorsque les parents des victimes vinrent chercher les cadavres pour leur rendre les derniers honneurs, il fut impossible de les identifier tant ils étaient défigurés. C’est alors que Simonide exerça sa remarquable mémoire, indiquant à chacun des parents endeuillés quel était le corps qui leur revenait. Il se souvenait parfaitement de leur place avant l’accident, et c’est ainsi qu’il put identifier les dépouilles - illustration ci-contre -.

Cette expérience devait lui suggérer la forme classique de l’art de la mémoire dont il est censé être l’inventeur. Cicéron, pour qui  la mémoire était l’une des cinq composantes de la rhétorique, explique ainsi la démarche de Simonide :

Il déduisit que les personnes désireuses d’éduquer cette faculté devaient choisir des lieux, puis former des images mentales des choses dont elles souhaitaient se souvenir ; elles pourraient alors emmagasiner les images dans ces différents lieux, de sorte que l’ordre de ces derniers préserveraient l’ordre des choses, tandis que les images évoqueraient les choses elles-mêmes ; nous utiliserions ainsi les lieux et les images de la même façon qu’une tablette de cire et les lettres qu’on y trace.

L’art de Simonide, qui domina la pensée européenne pendant tout le Moyen Âge, était donc fondé sur deux principes simples, celui des lieux (loci) et celui des images (imagines) ; ces principes allaient servir de base durable aux procédés mnémotechniques des rhéteurs, des philosophes et des savants.

L’ouvrage le plus couramment utilisé fut un traité écrit vers 86-82 avant J.-C. par un maître de rhétorique romain. Ce texte, connu sous le nom de Ad Herennium - illustration ci-contre-, sa dédicace, était d’autant plus estimé que certains en attribuaient la rédaction à Cicéron lui-même. L’autre grand maître latin de la rhétorique, Quintilien (env. 35-95 de notre ère), devait préciser les choses en élaborant une méthode « architecturale » destinée à graver la mémoire de lieux. Pensez, dit-il, à un grand bâtiment dont vous traverserez successivement les nombreuses salles en en mémorisant tous les ornements et le mobilier. Attribuez ensuite une image à chacune des idées dont vous désirez vous souvenir et, traversant à nouveau le bâtiment, déposez chacune de ces images selon cet ordre dans votre imagination. Si, par exemple, vous déposez mentalement une lance dans le salon et une ancre dans la salle à manger, vous saurez, plus tard, qu’il vous faut parler d’abord de la guerre et ensuite de la marine … Ce système n’a rien perdu de son efficacité.

Au Moyen Âge, il s’établit tout un jargon technique distinguant entre la mémoire « naturelle », que chacun possède en naissant et qu’il utilise sans aucun entraînement particulier, et la mémoire « artificielle », que l’on peut développer. Les techniques étaient différentes selon qu’il s’agissait de mémoriser des choses ou des mots, les opinions variaient quant au lieu où on devait se trouver pour faire ses exercices, et quant aux endroits les plus appropriés pour servir d’entrepôt imaginaire aux loci et images de la mémoire. Certains maîtres conseillaient de choisir un endroit tranquille où l’esprit puisse procéder à son travail de fixation sans être gêné par les bruits ambiants ou le passage des gens. Bien entendu, une personne observatrice et qui avait voyagé possédait l’avantage de pouvoir s’équiper de « lieux » nombreux et variés. Il n’était pas rare à l’époque de voir les étudiants en rhétorique arpenter fébrilement l’intérieur de bâtiments déserts, notant la forme et l’ameublement de chaque pièce afin de fournir à leur imagination les moyens d’une mise en mémoire.

Sénéque le Père -illustration ci-contre- (v.55 av. J.-C./ 37 ap. J.-C.), célèbre professeur de rhétorique, était capable, disait-on, de reproduire fidèlement de longs passages de discours qu’il n’avait entendus qu’une seule fois, bien des années auparavant. Il impressionnait vivement ses élèves en demandant à une classe de deux cents d’entre eux de réciter chacun un vers tiré de quelque poésie, pour les répéter tous, ensuite, dans l’ordre inverse. Quant à Saint Augustin, qui avait lui aussi, à ses débuts, enseigné la rhétorique, il cite avec admiration le cas d’un de ses amis qui pouvait réciter tout Virgile – à l’envers.

 Les exploits, et surtout les acrobaties, de la mémoire « artificielle » étaient fort appréciés. « La mémoire, dit Eschyle, est la mère de toute sagesse.» Opinion partagée par Cicéron : «  La mémoire est trésor et gardien de toutes choses. » À l’apogée de la mémoire, avant la diffusion de l’imprimerie, la mnémotechnie était une nécessité pour l’amuseur, le poète et le chanteur, tout comme pour le médecin, l’homme de loi ou le prêtre.

Les premières grandes œuvres épiques d’Europe naquirent de la tradition orale, ce qui revient à dire qu’elles furent préservées et récitées grâce aux arts de la mémoire. L’Iliade et l’ Odyssée - illustration ci-contre- se transmirent d’abord de bouche à oreille. Pour désigner le poète, Homère emploie le mot « chanteur » (aoidos). Et ce « chanteur », avant Homère, semble avoir été celui qui récitait un seul poème, suffisamment court pour être dit en une seule fois devant le même auditoire. Le brillant chercheur américain Milman Parry nous a décrit, en Serbie musulmane, la survivance d’une pratique similaire, sans doute proche de celle de l’antiquité homérique. Il montre qu’à l’origine la longueur du poème était fonction de la patience des auditeurs et de l’étendue du répertoire de chaque chanteur. La grandeur d’Homère quelle que soit, par ailleurs, la réalité que recouvre ce nom – homme, femme ou ensemble de personnes – est d’avoir songé à réunir divers chants d’une heure en un seul poème épique, plus ambitieux dans son propos, plus développé dans ses thèmes et de structure complexe.

Les premiers livres de la Méditerranée antique furent écrits sur des feuilles de papyrus collées à la suite les unes des autres puis roulées. Le déroulement de ces livres était peu commode, et lorsque l’opération se répétait trop souvent, elle avait pour effet d’effacer l’écriture. Comme il n’y avait pas de pages numérotées, la vérification d’une citation était si fastidieuse que les gens préféraient s’en remettre à leur mémoire.

C’est par la mémoire aussi qu’étaient conservées les lois, avant de l’être par des documents. La mémoire collective fut donc le premier registre d’archives légales. Le droit coutumier anglais était un usage « immémorial », c’est-à-dire qui remontait en fait « aussi loin que mémoire d’homme n’avait point de souvenir contraire ». Sir William Blackstone -illustration ci-contre- pouvait écrire en 1765 : « Jadis, l’ignorance des lettres était, dans le monde occidental, aussi profonde qu’universelle. Elles étaient figées dans la tradition, et ceci pour la simple raison que les nations n’avaient qu’une faible idée de ce que pouvait être l’écriture. Ainsi, les druides celtes et gaulois s’en remettaient à leur mémoire pour leurs lois comme pour leur savoir ; parlant des Saxons primitifs qui s’établirent en notre pays ou leurs frères du continent, on a pu dire : leges sola memoria et usu retinebant *. »

* Ils ont retenu les lois uniquement par la mémoire et l'usage

 Rites et liturgie étaient également préservés par la mémoire, avec les prêtres pour gardiens. De fréquents services religieux servaient à fixer les prières et le rituel dans l’esprit des jeunes fidèles. La prépondérance des textes versifiés et de la musique en tant que procédés mnémotechniques témoigne de l’importance que pouvait avoir la mémoire en ces temps d’avant l’imprimerie. Pendant des siècles, l’ouvrage de base pour la grammaire latine fut le Doctrinale, écrit au XIIe siècle par Alexandre de Villedieu, et qui se composait de deux mille vers de mirliton. Ces règles en vers étaient plus faciles à retenir, même si leur grossièreté était telle qu’elle consterna Aldus Manutius lorsqu’en 1501 il eut à réimprimer l’ouvrage.

Pour les philosophes scolastiques du Moyen Âge, il ne suffisait pas que la mémoire fût un procédé; ils en firent une vertu, l'un des aspects de la prudence. Après le XIIe siècle et la réapparition, sous forme de manuscrit, du classique Ad Herennium, les scolastiques semblent s'être intéressés bien moins à la technique de la mémoire qu'à son aspect moral. Il s'agissait de savoir en quoi elle pouvait encourager à une vie chrétienne.

Saint Thomas d'Aquin (1225-1274), proclament ses biographes, se souvenait parfaitement de tout ce qu'on lui avait enseigné à l'école. À Cologne, Albert le Grand l'avait aidé à développer sa mémoire. Les paroles des Pères de l'Église que Thomas rassembla pour Urbain IV après avoir visité de nombreux monastères furent couchées sur le papier non pas d'après des notes prises de sa main, mais au seul souvenir des textes qu'il avait parcourus. Il lui suffisait de lire un texte pour le retenir. Dans la Summa Theologiae (1267-1273), il reprend la définition de Cicéron, pour qui la mémoire est un élément de la prudence, et en fait l'une des quatre vertus cardinales. Puis il propose quatre règles pour le perfectionnement de cette mémoire, qui prévaudront jusqu'au triomphe du livre imprimé et seront inlassablement reproduites. Si Lorenzetti et Giotto peignirent les vertus et les vices, ce fut surtout, comme l'explique Frances A. Yates, pour aider le public à appliquer les règles thomistes de la mémoire artificielles. La fresque de la salle capitulaire de Santa Maria Novella, à Florence, offre à la mémoire du spectateur une représentation frappante de chacune des quatre vertus cardinales de saint Thomas ainsi que de leurs différentes parties. "Nous devons nous souvenir assidûment des joies invisibles du Paradis et des tourments éternels de l'Enfer",  peut-on lire dans cet ouvrage fondamental du Moyen Âge qu'est le traité de Boncompagno. Pour celui-ci, la liste des vertus et des vices n'est qu'une série de "mémoratifs" dot le but est d'aider l'âme pieuse à fréquenter "les chemins de souvenance".

Dans la Divine Comédie de Dante, avec son plan de l'Enfer, du Purgatoire et du Paradis, lieux et images, conformément aux préceptes de Simonide et de saint Thomas, nous sont présentés de façon prégnante et dans un ordre facile à retenir. Sans compter d'autres exemples plus humbles. Les manuscrits des moines anglais du XIVe siècle contiennent des descriptions - l'idolâtrie en prostituée, par exemple-  dont le but n'est pas tant d'être perçues par l'œil du lecteur que de fournir à sa mémoire des images invisibles.

 

 

 

 

                                               Giotto . Jugement Dernier . Chapelle Scrovegni Padoue . 1306       

 

 

 

 

Pétrarque (1304-1374)avait lui aussi la réputation d'être une autorité quant à la mémoire et à la meilleure façon de la cultiver. Il propose ses propres règles pour le choix des "lieux" où emmagasiner les images pour un usage ultérieur. L'architecture imaginaire de la mémoire, dit-il, doit comporter des lieux de rangement d'une taille moyenne, ni trop vastes ni trop petits pour l'image qu'il s'agit d'y mettre en réserve.

 

Lorsque naquit l'imprimerie, d'innombrables systèmes avaient été élaborés au service des arts de la mémoire. Au début du XVIe siècle, l'ouvrage le plus connu du genre était un texte pratique, Phœnix, sive Artificiosa Memoria (Venise, 1491). Ce manuel connut une grande popularité, comme en témoignent les nombreuses rééditions et traductions dont il fut l'objet. L'auteur Pierre de Ravenne y assure que les meilleurs loci sont ceux d'une église déserte. Une fois celle-ci trouvée, dit-il, il faut en faire le tour trois ou quatre fois en fixant dans son esprit tous les endroits où l'on déposera par la suite ses images mnémotechniques. Chaque locus devra être distant de cinq à six pieds des autres. Pierre se vante d'avoir pu, tout jeune encore, fixer de la sorte près de 100 000 lieux mémoratifs ; par la suite, ses voyages lui permirent d'en ajouter des milliers d'autres. L'efficacité de son système, disait-il, se trouvait suffisamment démontrée par le fait qu'il était capable de reproduire mot pour mot l'ensemble du droit canon, deux cents discours de Cicéron et vingt mille  points de droit civil.

Après Gutenberg, tout ce que la mémoire avait, dans la vie quotidienne, à la fois régi et servi passa désormais sous l'égide de la page imprimée. À la fin du Moyen Âge, les livres manuscrits avaient été, parmi la classe restreinte des lettrés, une aide, un substitut parfois, à la mémoire. Mais le livre imprimé était infiniment plus transportable; il était aussi plus exact, plus facile à consulter, et touchait, bien sûr, un public plus large. Ce qui s'imprimait d'un auteur était connu de l'imprimeur, du correcteur et de quiconque se trouvait avoir en main la page imprimée. On pouvait maintenant se référer aux règles grammaticales, aux discours de Cicéron, aux textes théologiques, au droit canon, à la morale sans avoir à les porter en soi.

Le livre imprimé était un nouveau dépositaire de la mémoire, supérieur de mille manières à ces réserves individuelles, intérieures et invisibles, que chacun avait pu constituer jusqu'alors.Déjà, lorsque le codex de pages manuscrites reliées avait remplacé le long rouleau des origines, il était devenu bien plus commode de faire référence à une source écrite.

Après le XIIe siècle, certains livres manuscrits comportent même des tables, des titres courants, voire des index rudimentaires, ce qui montre que la mémoire commence alors à perdre du terrain. Mais la recherche deviendra plus facile encore lorsque les livres imprimés auront des pages de titre et des pages numérotées. El lorsqu'ils seront équipés d'un index - ce qui est le cas dès le XVIe siècle pour certains ouvrages-, le travail de la mémoire ne consistera plus qu'à connaître par cœur l'ordre alphabétique. Avant la fin du XVIIIe siècle, l'index alphabétique placé à la fin du livre était devenu chose courante. Les procédés mnémotechniques, bien qu'encore nécessaires, perdirent une bonne part de l'importance qu'ils avaient eue

dans les hautes sphères de la religion, de la pensée et du savoir. Les performances spectaculaires cessèrent d'être admirées, devenant de simples curiosités.

Certaines des conséquences de cet état de choses avaient été annoncées quelque deux mille ans plus tôt. Dans son dialogue avec Phèdre, tel qu'il nous est rapporté par Platon, Socrate, en effet, regrette que le dieu égyptien Thot, inventeur de l'écriture, ait mal pesé les conséquences de son invention. Le dieu Thamos, alors roi d'Égypte, lui en fait le reproche : "Toi, père de l'écriture' tu lui attribues une efficacité contraire à celle dont elle est capable; car elle produira l'oubli dans les âmes en leur faisant négliger la mémoire; confiants dans l'écriture, c'est du dehors, par des caractères étrangers, et non plus du dedans, du fond d'eux-mêmes, que ceux qui apprennent chercheront à susciter leurs souvenirs; tu as trové le moyen, non pas de retenir, mais de renouveler le souvenir; et ce que tu vas procurer à tes disciples, c'est la présomption qu'ils ont la science, non la science elle-même; car, quand ils auront beaucoup lu sans apprendre, ils se croiront très savants, et ils ne seront le plus souvent que des ignorants de commerce incommode, parce qu'ils se croiront savants sans l'être"

Si déjà la parole écrite ,selon Socrate, comportait pareils dangers, alors combien de fois ceux-ci allaient-ils être multipliés par l'introduction du texte imprimé ?

Victor Hugo nous le suggère avec bonheur dans un passage bien connu de Notre-Dame de Paris (1831)*. Le savant, tenant en main son premier livre imprimé, se détourne de ses manuscrits et, regardant la cathédrale : "Ceci, dit-il, tuera cela." L'imprimerie allait également détruire "les cathédrales invisibles de la mémoire", dès lors qu'il n'était plus indispensable d'associer choses ou idées à des images frappantes pour les mettre dans les lieux de mémoire.

Mais l'ère qui vit décliner l'empire de la mémoire sur le quotidien fut aussi celle de l'émergence du néo-platonisme, cet empire nouveau, mystérieux, où tout était caché, secret, occulte. Ce renouveau des idées platoniciennes en pleine Renaissance redonna vie et importance à la mémoire. Platon, en effet, disait que l'âme "se  souvient" des formes idéales. Or voici que toute une constellation de talentueux mystiques inventait une nouvelle technologie de la mémoire. Elle cessait d'être un simple aspect de la rhétorique, une servante du discours, pour devenir une alchimie, un lieu d'entités ineffables; l'art hermétique découvrait les replis cachés de l'âme humaine. L'étrange théâtre de la Mémoire de Giulio Camillo, que l'on put voir à Venise et à Paris, proposait ses "lieux" non plus comme de simples commodités destinées au classement des souvenirs, mais, disait-il, dans le but de révéler " la nature éternelle des choses en des lieux éternels". Membres de l'Académie néo-platonicienne qu'avait fondée à Florence Cosme de Médicis, Marsile Ficin (1433-1499) et Pic de la Mirandole - illustration ci-contre - (1463- 1494) incorporèrent à leur fameuse philosophie tout un art occulte de la mémoire.

L'explorateur le plus remarquable de ces continents obscurs fut un vagabon inspiré, Giordano Bruno (1548- 1600). Dans sa jeunesse, il avait été moine, à Naples, où les dominicains l'avaient instruit dans leur art fameux de ma mémorisation. Lorsqu'il quitta son ordre, les laïcs espérèrent qu'il leur révèlerait quelques-uns de ses secrets. Ils ne furent pas déçus. Dans son livre Circé, ou les Ombres des Idées (1582), Bruno leur faisait savoir que cette habileté particulière n'était ni naturelle ni magique, mais qu'elle était le produit d'une science. L'ouvrage s'ouvre par une incantation émanant de Circé en personne, puis évoque l'étrange pouvoir que possèdent  les décans du Zodiaque et les images qui les représentent. Les images sidérales, ombres des Idées, représentant des objets célestes, sont donc plus proches de la réalité que celles du monde transitoire d'ici-bas. Son système consistant à " se souvenir de ces ombres d'Idées, contractées pour une lecture intérieure" à partir des images célestes, devait permettre ainsi à ses disciples d'accéder à un plan supérieur.

" Il s'agit de donner forme au chaos informel. (...) Pour le contrôle de la mémoire, il faut que les nombres et les éléments soient disposés dans un certain ordre (...) à l'aide de certaines formes mémorable (les images du Zodiaque) ... J'affirme que, si vous méditez attentivement ces choses, vous atteindrez un art si justement figuratif que non seulement il vous aidera en votre mémoire, mais aussi, de façon merveilleuse, en tous les pouvoirs de votre âme"

 

Un moyen garanti d'accéder à l'Un qui se cache derrière la multiplicité des choses, de parvenir à l'Unité Divine !

Mais la mémoire au quotidien ne retrouva jamais l'importance qu'elle avait eue avant l'avènement du papier et de celui de l'imprimerie. Elle perdit de son prestige. En 1580, Montaigne écrit qu'une bonne mémoire est généralement synonyme d'absence de jugement. Et les intellectuels  du temps de renchérir : " Rien n'est plus commun, disaient-ils, qu'un imbécile doué de mémoire".

 

Au cours des siècles qui suivirent l'invention de l'imprimerie, l'attention allait se déplacer des techniques de mémorisation à la pathologie de la mémoire. En cette fin du XXe siècle, les chercheurs mettent plutôt l'accent sur l'aphasie, l'amnésie, l'hystérie, l'hypnose et, bien entendu, la psychanalyse, tandis que les pédagogues se détournent des arts de la mémoire au profit de l'art d'apprendre, conçu, de plus en plus, comme un processus social.

Dans le même temps se manifeste un regain d'intérêt pour l'art de l'oubli. Selon Cicéron, lorsque Simonide offrit à Thémistocle de lui enseigner l'art de la mémoire, l'homme d'État athénien refusa, disant : " Ne m'apprends pas à me souvenir, mais plutôt à oublier, car je me souviens de choses que je préfèrerais laisser dans l'oubli, tandis que je ne puis oublier ce que je souhaiterais effacer de ma mémoire".

L'étude de l'oubli devint un des secteurs de pointe de la psychologie moderne, pour laquelle les processus mentaux devaient avant tout être examinés de façon expérimentale et mesurés. " La psychologie, déclare Hermann Ebbinghaus (1850-1909), a un long passé, mais son histoire est courte." Ses expériences, que William James qualifie d' "héroïques", étaient aussi remarquablement simples. Décrites dans l'ouvrage intitulé De la mémoire, contribution à la psychologie expérimentale (1885), elles jettent les bases de toute la psychologie moderne.

Pour les expériences, Ebbinghaus utilise des syllabes dépourvues de sens. En prenant deux consonnes au hasard, et en y intercalant une voyelle, il obtient quelque deux mille trois cents phonèmes mémorisables (et oubliables), qu'il dispose ensuite en séries. Ces syllabes présentaient l'avantage d'éviter toute association. Pendant deux années, il se prit lui-même comme cobaye afin de tester les capacités de mémorisation et de reproduction de ces syllabes, prenant scrupuleusement note de chaque expérience, des temps nécessaires à la remémoration, des intervalles entre deux tentatives. Il expérimenta également les techniques de "réapprentissage". Ses travaux auraient pu être de peu d'utilité s'il n'avait eu la passion des statistiques.

Ce livre était dédié à Gustave Fechner (1801- 1887) qui avait commencé l'étude des perceptions sensorielles. Ebbinghaus espérait que ces dernières ne seraient plus seules "à faire l'objet d'un traitement expérimental et quantitatif" , mais que les phénomènes proprement mentaux pourraient être abordés de la même manière. La "courbe d'Ebbinghaus" montrait l'existence d'une corrélation entre l'oubli et le temps. Les résultats de ses expériences, qui conservent aujourd'hui toute leur valeur, montraient que l'on oublie le plus souvent peu de temps après avoir "appris".

C'est de cette manière inattendue que débuta le balisage de notre monde intérieur au moyen d'instruments offerts par les mathématiques. D'autres expérimentateurs, cependant, poursuivant la tradition néo-platonicienne, continuaient à s'intéresser aux mystères de la mémoire. Ebbinghaus lui-même avait étudié "la résurgence involontaire des images mentales, passant des ténèbres de la mémoire à la lumière de la conscience". Quelques autres psychologues s'engouffrèrent derrière lui dans ces "ténèbres" de l'inconscient, affirmant qu'ils venaient d'inventer une "science" nouvelle.

Les fondateurs de la psychologie moderne portaient un intérêt croissant aux phénomènes d'oubli, tels qu'ils se manifestent dans la vie quotidienne. L'incomparable William James (1842-1910) écrivait ceci : " Dans l'usage pratique de notre intellect, l'oubli possède une fonction aussi importante que la mémoire ... Si nous nous souvenions de tout, nous serions, dans la plupart des cas, aussi mal lotis qu'en ne nous souvenant de rien. Pour nous rappeler une période écoulée, il nous faudrait autant de temps que cette période en a pris, et notre pensée n'avancerait pas.Toute durée remémorée implique des raccourcis et ceux-ci sont dus à l'omission d'une énorme quantité de faits qui remplissaient la durée en question. Nous arrivons, dit M. Ribot, à ce résultat paradoxal que l'une des conditions nécessaires au souvenir est justement d'oublier. Sans l'oubli total d'une quantité prodigieuse d'états de conscience, sans l'oubli momentané d'un grand nombre d'entre eux, nous ne pourrions nous souvenir de rien ..."

 

En un siècle où la quantité disponible de savoir humain et de mémoire collective allait être augmentée et diffusée comme elle ne l'avait jamais été, l'oubli devenait, plus que jamais, la condition première d'une certaine santé mentale.

Mais que devenaient les souvenirs "oubliés" ? Où étaient les neiges d'antan ? Au XXe siècle, le monde de la mémoire allait connaître une nouvelle mutation : on allait le redécouvrir dans les vastes territoires de l'Inconscient. Dans sa Psychopathologie de la vie quotidienne (1904), Sigmund Freud (1856- 1939) prenait pour point de départ des exemples simples tels que l'oubli des noms propres, celui des termes étrangers ou de l'ordre des mots. Le nouvel art  de la mémoire qui fit la  célébrité de Freud possédait à la fois les prétentions scientifiques de Simonide et de ses successeurs, et le charme occulte des néo-platoniciens. L'homme, bien sûr, s'était toujours interrogé sur le mystère des rêves. Or voilà que Freud, dans ce mystère, débusquait tout un vaste trésor de souvenirs. Son Interprétation des rêves (1900) montrait que la psychanalyse pouvait devenir un art et une science du souvenir.

D'autres, stimulés par Freud, poussèrent plus loin encore cette recherche. La mémoire latente, ou inconscient, devint une ressource nouvelle pour la thérapie, l'anthropologie, la sociologie. L'histoire d'Œdipe n'était-elle pas applicable à la vie intérieure de tout être humain ? Les  métaphores mythologiques de Freud suggéraient que nous étions tous les héritiers d'une expérience commune et fort ancienne, mais ce fut Carl Jung (1875-1961) qui, plus proche de la tradition hermétique, popularisera la notion d' "inconscient collectif". Ainsi Freud, ses disciples et dissidents avaient-ils redécouvert, et peu-être reconstruit à leur manière, les cathédrales de la Mémoire.

 

Daniel BOORSTIN ( Les Découvreurs )

 

"Ceci tuera cela"

Dans Notre-Dame de Paris, Victor Hugo raconte l’histoire d’un prêtre, Claude Frollo, qui observe tristement les tours de sa cathédrale. L’histoire du roman se situe au XVe siècle, après l’invention de l’imprimerie. Jusque-là, les manuscrits étaient réservés à une élite restreinte de lettrés, et les images d’une cathédrale étaient la seule chose qui pût faire connaître aux masses les histoires de la Bible, la vie du Christ et des saints, les principes moraux, voire les épisodes de l’histoire nationale ou les notions les plus élémentaires de géographie et de sciences naturelles (la nature des peuples inconnus, les vertus des herbes et des pierres). Une cathédrale médiévale était une sorte de programme de télévision permanent et immuable, censé apprendre aux gens tout ce qui était indispensable à leur vie quotidienne et à leur salut éternel.

dans "BIBLIOGRAPHIE"

 
 

Peut-on se fier à Wikipédia ?

Une mémoire encyclopédique gratuite et en ligne connaît une réelle ferveur. Forcément inachevée, son mode d'élaboration participative ne peut pas la préserver d'erreurs ou de manipulations.

dans "ENVIRONNEMENT ET SN" "PSYCHO-SOCIAL 2"

 

Les conseils du mnémoniste

Démonstration par l'exemple des ressorts de la mémoire de travail. Avec de l'entrainement mémoriser est à la portée de tous.

dans "ENVIRONNEMENT ET SN" "PSYCHO-SOCIAL 2"

 

DES GÈNES SAUTEURS  

DANS LE CERVEAU

Janvier 2018

LES TRANSPOSONS (ici, en fausses couleurs et grossi 40 000 fois) sont des éléments génétiques mobiles. Ils se déplacent au hasard dans l'ADN de la cellule qui les héberge. Ces mouvements seraient nombreux dans les neurones.

Le génome des neurones n'est pas immuable. Des fragments d'ADN s'y déplacent, expliquant en partie comment des vrais jumeaux, élevés de la même façon, peuvent avoir des personnalités différentes. Ce phénomène participerait également à l'apparition de troubles mentaux, tels l'autisme et la schizophrénie.

Fred Gage et Alysson Muotri

 
Prenez deux individus au hasard et étudiez leur cerveau. Des différences apparaissent, de la cellule à l'architecture macroscopique : le cerveau humain contient 100 milliards de neurones, qui se déclinent en milliers de types distincts ; en outre, il existe plus de 100 000 milliards de connexions entre ces neurones. Au final, deux cerveaux ne sont jamais parfaitement identiques. Ces différences favorisent la diversité de la pensée et des comportements, et influent sur la sensibilité aux maladies mentales. Cette diversité des réseaux de neurones et des fonctions cérébrales résulte en partie de celle du patrimoine génétique. Les expériences vécues interviennent également, par exemple en influant sur l'intensité des connexions entre des ensembles particuliers de neurones.
Ces variations se retrouvent-elles chez des vrais jumeaux, élevés par les mêmes parents ? Oui, on peut observer des différences marquées de caractère, de comportement et de sensibilité aux maladies du cerveau. Ainsi, des souris génétiquement semblables, d'âge et de sexe identiques et traitées de la même façon en laboratoire, n'ont ni les mêmes capacités d'apprentissage ni les mêmes réactions d'évitement et de réponse au stress.
Des facteurs différents de l'hérédité et de l'environnement sont donc à l'œuvre. Susceptibles d'intervenir à un stade précoce du développement embryonnaire ou plus tard au cours de la vie, ils modifient par exemple les gènes ou la production de protéines. Ainsi, lors de l'épissage alternatif, les ARN issus de la transcription d'un gène sont « taillés » de diverses façons, de sorte qu'un même gène peut coder deux protéines différentes, voire davantage. Les protéines effectuant la plupart des opérations dans les cellules, cela influe sur le fonctionnement des tissus. De nombreux chercheurs étudient également le rôle des modifications épigénétiques, qui changent l'activité des gènes (en augmentant ou en diminuant la quantité de protéines synthétisées) sans modifier le code génétique.
Des gènes sauteurs
Ces dernières années, nous avons découvert, avec nos collègues, un mécanisme étonnant, qui semble plus actif dans le cerveau que dans d'autres tissus : il s'agit des gènes sauteurs, aussi nommés éléments mobiles. Identifiés chez presque toutes les espèces, y compris chez l'homme, ces derniers sont capables de se dupliquer et de s'insérer dans diverses régions du génome. En d'autres termes, ils sont autonomes, ou anarchistes. Ils peuvent ainsi changer le fonctionnement d'une cellule, qui ne se comporte plus comme ses voisines. En grand nombre, ces sauts de gènes modifieraient certains aspects du fonctionnement du cerveau.
Pourtant, le cerveau ne doit pas se dérégler. Dès lors, pourquoi l'évolution a-t-elle permis à un processus qui modifie sa programmation génétique de persister ? Nous l'ignorons, mais nous pensons qu'en créant de la variabilité dans les cellules cérébrales, les gènes sauteurs rendent les organismes plus flexibles et plus aptes à s'adapter rapidement à un nouvel environnement. Ces gènes sauteurs auraient donc été conservés par l'évolution, car le bénéfice serait supérieur aux risques.
On sait depuis longtemps que des éléments mobiles se déplacent dans le génome. Toutefois, on découvre chaque jour un peu plus l'importance de leur activité dans le cerveau. Le saut de gènes a été découvert pour la première fois dans des plantes, avant même que James Watson et Francis Crick ne décrivent la structure en double hélice de l'ADN en 1953.
Dans les années 1940, Barbara McClintock, du Laboratoire de Cold Spring Harbor, a observé que des éléments contrôlant l'expression des gènes se déplaçaient d'un endroit à un autre dans le génome du maïs. Sous l'effet du stress, certaines régions du génome migraient et activaient ou inactivaient des gènes à proximité de leur nouvel emplacement. Lors de ses expériences, McClintock a produit des épis de maïs aux grains de couleurs différentes. Elle a ainsi créé des mosaïques génétiques, où les gènes étaient activés et inactivés selon des schémas parfois différents d'une cellule à la cellule voisine.
Une mosaïque génétique
Les recherches de McClintock, qui se sont d'abord heurtées au scepticisme de la communauté scientifique, lui ont valu le prix Nobel en 1983. Progressivement, on a découvert que le phénomène des mosaïques génétiques ne se limite pas aux plantes, mais concerne de nombreux organismes, dont l'être humain.
McClintock a étudié des transposons, des éléments mobiles qui se déplacent dans le génome de la cellule par un mécanisme de « couper-coller » : ils s'extraient de l'ADN environnant, puis s'insèrent en un nouvel endroit. Des recherches plus récentes sur les éléments mobiles du cerveau portent sur des rétrotransposons, qui agissent plutôt par copier-coller : ils se répliquent au lieu de s'extraire de l'ADN, et c'est la copie qui se déplace.
Les rétrotransposons représentent la moitié de l'ADN du génome humain. En comparaison, les quelque 23 000 gènes codant des protéines constituent moins de deux pour cent de notre ADN. Les gènes sauteurs sont des descendants des premiers systèmes moléculaires de réplication qui ont envahi les génomes des eucaryotes (des organismes dont les cellules ont un noyau). On les a longtemps considérés comme de l'ADN non fonctionnel, mais en 1988, un groupe dirigé par Haig Kazazian, de l'Université de Pennsylvanie, a montré qu'ils étaient actifs chez l'homme.
En particulier, un type de rétrotransposon nommé LINE 1 ou L1 (pour Long Interspersed Nuclear Element, soit Long élément nucléaire disséminé) joue un rôle clé dans le génome humain. Il se déplace souvent, probablement parce que, à l'inverse d'autres éléments mobiles, il code sa propre machinerie de saut ; elle lui permet d'insérer des copies dans des endroits éloignés du génome cellulaire. L'élément L1 est d'abord transcrit en un brin d'ARN qui passe du noyau dans le cytoplasme, où il sert de modèle pour la production de protéines. Celles-ci forment ensuite un complexe moléculaire avec l'ARN, puis l'ensemble retourne dans le noyau, à un nouvel emplacement.
Là, une de ces protéines, une enzyme nommée endonucléase, coupe l'ADN en des sites spécifiques. Elle utilise l'ARN comme modèle pour fabriquer une copie du double brin d'ADN du rétrotransposon L1. Enfin, elle insère cette copie dans le génome, à l'endroit d'une coupure. Une telle transcription inverse, d'ARN en ADN, n'est pas rare : le virus VIH, dont le génome est constitué d'ARN, se sert de ce mécanisme pour convertir son ARN en ADN, ce qui lui permet de l'intégrer de façon permanente dans le génome des cellules qu'il infecte.
La rétrotransposition échoue souvent en cours de route, produisant des copies tronquées de l'ADN d'origine. Quelles sont les conséquences de l'insertion d'un fragment ou d'une copie entière de l'élément L1 ? Parfois, il ne se passe rien, parfois les effets sont positifs, parfois ils sont délétères. Dans certains cas, par exemple, des éléments mobiles s'insèrent dans la région codante d'un gène et la modifient. Une nouvelle protéine – potentiellement bénéfique ou nuisible – est codée par ce gène. L'insertion peut aussi arrêter la synthèse protéique. Dans d'autres cas, l'ADN s'insère dans une région non codante, mais agit comme un promoteur (un « interrupteur » activant les gènes proches) : il modifie le degré d'expression du gène (la quantité de protéines produites à partir du gène). Là encore, les résultats peuvent être favorables ou non pour la cellule ou l'organisme.
Récemment encore, la plupart des biologistes supposaient que la rétrotransposition d'éléments L1 survenait surtout dans les cellules germinales (à partir desquelles sont formés les ovules et les spermatozoïdes), au sein des ovaires et des testicules. On avait trouvé quelques indices suggérant qu'elle intervenait aussi dans les tissus somatiques (les tissus qui ne sont pas constitués de cellules germinales) pendant le développement embryonnaire, voire plus tard, mais ils avaient été réfutés. La localisation spécifique de la rétrotransposition dans les cellules germinales semblait logique : si les gènes ont pour finalité de se propager, comme le prétend une théorie évolutionniste, le saut de gènes a peu de raisons de rester actif dans les cellules somatiques, puisqu'elles disparaissent en même temps que l'individu qui les porte.
Cependant, de meilleurs outils de détection ont permis de réfuter cette hypothèse. Ils ont révélé que les rétrotransposons se déplacent aussi dans le génome des tissus somatiques, même après le développement embryonnaire. Dans notre laboratoire, nous avons étudié les rétrotranspositions chez une souris. Ses cellules avaient été génétiquement modifiées pour émettre une fluorescence verte lorsqu'un élément L1 s'insérait dans le génome, quel que soit l'endroit dans l'organisme. Nous avons observé une fluorescence dans les cellules germinales, comme prévu, mais aussi dans certaines régions du cerveau, dont l'hippocampe (une région importante pour la mémoire et l'attention).
Les éléments L1 se déplaceraient donc davantage dans le cerveau que dans d'autres tissus somatiques. Cela contredit un dogme ancien, selon lequel les codes génétiques des cellules cérébrales chez les adultes sont identiques et stables pendant toute la vie des cellules.
On a constaté que les rétrotranspositions survenaient dans les cellules dites progénitrices : de telles cellules sont en attente, prêtes à se diviser et à engendrer des cellules spécialisées (ici de nouveaux neurones de l'hippocampe) ; leur division est déclenchée par un signal d'activation, émis par exemple après la mort de certaines cellules – qui sont alors remplacées. De nombreux tissus abritent des populations de cellules progénitrices. L'hippocampe est l'une des régions du cerveau où siège une neurogenèse (la production de nouveaux neurones). Ainsi, les éléments L1 seraient actifs lorsque des neurones naissent, soit à un stade précoce du développement, soit dans les quelques régions du cerveau où la neurogenèse persiste à l'âge adulte.
Pour confirmer que les rétrotrans-posons sont plus actifs dans le cerveau qu'ailleurs, nous avons effectué des analyses post mortem chez l'homme. Nous avons compté le nombre d'éléments L1 présents dans les noyaux cellulaires des tissus cérébral, cardiaque et hépatique, et constaté qu'il était beaucoup plus élevé dans le tissu cérébral que dans les deux autres.
Des sauts de gènes par milliers
La plupart des rétrotranspositions ont dû se dérouler lors du développement du cerveau. En effet, la rétrotransposition semble nécessiter des divisions cellulaires – on ne l'a jamais observée dans des cellules qui ne se divisent pas. Or, dans le cerveau, les divisions s'arrêtent après la petite enfance, sauf dans les régions progénitrices. Selon une étude réalisée notamment par Nicole Coufal, de notre laboratoire, chaque neurone humain connaîtrait en moyenne 80 intégrations d'éléments L1. Une telle fréquence entraîne une grande variabilité entre cellules chez une même personne et entre individus.
L'activité des éléments L1 dans le cerveau humain a été confirmée en 2011 par Kenneth Baillie, de l'Institut Roslin, près d'Édimbourg, en Écosse, et ses collègues. Les chercheurs ont identifié 7 743 insertions d'éléments L1 dans l'hippocampe et le noyau caudé (une zone intervenant également dans la mémoire) chez trois personnes décédées.
Lors de son étude, l'équipe de l'Institut Roslin a fait une découverte inattendue : elle a trouvé environ 15 000 exemplaires d'une autre classe de rétrotransposons, les SINE (pour Short Interspersed Nuclear Elements, ou Élément nucléaire court et disséminé). Le SINE le plus abondant, membre d'une famille nommée Alu, n'avait jamais été observé dans le cerveau.
Nous nous sommes alors demandé ce qui déclenche l'activité des éléments L1. Comme la neurogenèse se déroule notamment dans l'hippocampe et qu'elle est stimulée par l'exercice physique, ce dernier est-il l'élément déclencheur des rétrotranspositions ? Pour le savoir, nous avons fait courir des souris transgéniques dans une roue : le nombre de cellules fluorescentes vertes a presque doublé dans leur hippocampe.
Les nouvelles situations et les défis stimulant aussi la neurogenèse constituent-ils d'autres facteurs déclenchant la rétrotransposition ? Si les sauts d'éléments L1 augmentent lorsque le système nerveux apprend et s'adapte au monde extérieur, cela signifie que le cerveau est en constante évolution génétique et change à chaque nouvelle expérience. Des différences notables pourraient en résulter, même entre des vrais jumeaux.
Pour étayer l'hypothèse que les gènes sauteurs contribuent à la diversité cérébrale chez l'homme, nous ne nous sommes pas contentés de compter les éléments L1 dans l'ADN. Nous avons aussi cherché un lien entre nos résultats et des événements visibles, telles des maladies mentales. Les conséquences délétères sont plus faciles à mettre en évidence que les effets positifs.
En 2010, nous avons montré qu'une mutation d'un gène nommé MeCP2modifiait la rétrotransposition des éléments L1 dans le cerveau. Or des mutations de ce gène sont à l'origine de plusieurs maladies du cerveau, dont le syndrome de Rett, un trouble grave du développement cérébral qui touche presque exclusivement les filles. Il nous reste à comprendre les mécanismes moléculaires et cellulaires de ces troubles. Chez les souris et les êtres humains atteints du syndrome de Rett, la mutation du gène MeCP2 que nous avons identifiée entraîne la multiplication des insertions de L1 dans les neurones. Les gènes sauteurs seraient-ils responsables de certains des symptômes du syndrome de Rett ?
Un rôle dans la schizophrénie et l'autisme ?
L'activité des éléments L1 est aussi élevée dans d'autres maladies cérébrales. Une analyse du cortex frontal chez des sujets atteints de schizophrénie a révélé une augmentation du nombre de séquences L1 par rapport à des personnes indemnes. On pense également que les éléments L1 interviennent dans des troubles tels que l'autisme. La compréhension du rôle que jouent les éléments mobiles dans les maladies psychiques conduira peut-être à de nouvelles méthodes de diagnostic, de traitement et de prévention.
Les études sur les gènes sauteurs dans le cerveau pourraient stimuler divers champs de recherche. Les généticiens du comportement suivent souvent des groupes de jumeaux sur de longues périodes pour étudier les effets des gènes et déterminer les contributions de l'environnement à des troubles tels que la schizophrénie. Les gènes sauteurs remodelant le génome après la période du développement embryonnaire, les vrais jumeaux ne sont pas aussi génétiquement semblables qu'on l'admettait jusqu'à présent. Ce résultat complique alors la tâche consistant à démêler la part de l'inné et de l'acquis.
Une question subsiste : pourquoi l'évolution n'a-t-elle pas détruit ces vestiges d'anciens virus qui risquent d'introduire des défauts génétiques fatals dans nos cellules ? L'être humain a toujours subi les attaques de parasites viraux et d'autres envahisseurs qui ont inséré leur génome dans celui de l'individu attaqué. Nos ancêtres n'ont pas été capables d'éliminer totalement ces intrus, mais ils se sont adaptés pour coexister avec eux : ils les ont rendus silencieux grâce à différents mécanismes qui les ont fait muter et les ont désactivés. Dans certains cas, l'insertion de nouveaux éléments a été bénéfique. C'est l'une des raisons pour lesquelles les cellules permettent parfois, voire encouragent, le saut d'éléments L1 à l'intérieur du génome, dans des conditions soigneusement contrôlées.
Nous en apprendrons peut-être plus en analysant pourquoi la réponse au stress de souris génétiquement identiques et élevées dans les mêmes conditions varie à ce point. Les différences de comportement observées présentent une distribution caractéristique dans la population, dessinant une courbe en forme de cloche. Cela suggère que les mécanismes à l'origine de cette variabilité sont aléatoires, comme semblent l'être les sites d'insertion des rétrotransposons L1.
La nature aléatoire présumée des déplacements des éléments L1 dans le génome évoque un mécanisme de sélection naturelle, où les bénéfices des insertions utiles sont supérieurs aux conséquences délétères des autres. En jetant souvent les dés dans les cellules neurales progénitrices de l'hippocampe, la nature optimise la possibilité qu'émerge une population de neurones adaptés aux tâches auxquelles le cerveau est confronté.
Un processus voisin a lieu lorsque l'ADN des cellules immunitaires se réarrange, les conduisant à produire de nouvelles gammes d'anticorps. Les mieux adaptées à la lutte contre un agent pathogène sont ensuite sélectionnées.
Les effets des insertions n'ont pas besoin d'être importants ni de concerner un grand nombre de cellules pour influer sur le comportement. Chez les rongeurs, un changement dans les modalités d'activation d'un seul neurone suffirait à faire apparaître une différence.

L'idée d'insertions utiles est étayée par la découverte que la seule sous-famille d'éléments sauteurs L1 active dans le génome humain est apparue il y a environ 2,7 millions d'années, à une époque où nos ancêtres ont adopté des outils en pierre. Les éléments L1 pourraient donc avoir contribué à la construction de cerveaux inventifs, susceptibles de s'adapter à des conditions environnementales et climatiques changeantes. Ainsi, les rétrotransposons L1 auraient bien participé à l'évolution d'Homo sapiens.

SANS EUX SERIONS-NOUS DANS LA PRÉHISTOIRE ?  

20 avril 2017

les lions de la grotte Chauvet, créés il y a 30 000 ans, sont-ils l'oeuvre d'un artiste autiste ?

Comment nos ancêtres autistes ont joué un rôle clé dans l'évolution

 

 

 

Les gènes de l'autisme ont pesé lourd au cours de l'évolution humaine. De quoi porter un autre regard sur ce handicap. Mais aussi sur la préhistoire.

 
L'archéologie
 et l'histoire des origines de l'homme commencent seulement à prendre en compte le rôle important des personnes autistes.

L'archéologie et l'histoire des origines de l'homme commencent seulement à prendre en compte le rôle important des personnes autistes.  

Dis-moi qui tu es, je te dirai pour qui tu votes

 

Pour la science 
politique, 
il existe quatre 
grands modèles 
pour expliquer 
les comportements 
électoraux.

Toute élection au suffrage universel semble à première vue le résultat d’autant de choix individuels qu’il y a d’électeurs. Or, même si les vainqueurs d’une élection particulière diffèrent à chaque fois, ses résultats ressemblent beaucoup à ceux de celles qui l’ont précédée. Ainsi, aux États-Unis, les suffrages se concentrent régulièrement sur les deux partis historiques du pays, le Parti démocrate et le Parti républicain. Ils obtiennent au minimum plus de 95 % des suffrages à eux deux. En France, le rapport de force entre droite et gauche témoigne depuis des décennies d’un partage à peu près équilibré de l’électorat. Comment expliquer de telles régularités au fil du temps dans la répartition des suffrages, sinon par des logiques tout aussi permanentes au niveau des choix des électeurs ? La science politique a distingué de fait quatre mécanismes – non exclusifs les uns des autres – qui influencent le choix électoral des individus : la géographie, la sociologie, l’identification politique et la rationalité économique.

 

1 - Dis-moi 
où tu habites…


La première source de régularité dans le vote tient à la répartition des électeurs dans l’espace, à la géographie. Dis-moi où tu habites, je te dirai pour qui tu votes. C’est au Français André Siegfried que nous devons la première grande démonstration en ce sens avec son célèbre Tableau politique de la France de l’Ouest, paru dès 1913. Étudiant les élections des députés au suffrage universel masculin organisées depuis l’instauration de la IIIe République, il montrait, sur les cas bretons, normands et vendéens, qu’au-delà des étiquettes partisanes changeantes et encore largement floues de l’époque, l’observateur pouvait distinguer des terroirs aux électeurs plus ou moins acquis aux valeurs de la République. Surtout, A. Siegfried indique que, si les électeurs votent « conservateur », « républicain », ou « républicain avancé », pour reprendre les termes de l’époque, c’est en raison des influences sociales qu’ils subissent sur leur lieu d’habitation. Par cette notion d’influence sociale, il souligne toutes les pressions, économiques ou morales, que peut alors subir un électeur rural, aussi bien celles du curé de son village que celles du grand propriétaire terrien.


De fait, cette découverte des régularités géographiques dans les résultats électoraux ne sera jamais démentie par la suite : toutes les cartes électorales que l’on a pu établir dans tous les pays qui pratiquent sur la durée le suffrage universel montrent des régularités étonnantes. Pourquoi de telles permanences géographiques ? Trois lignes d’explication peuvent être proposées. En premier lieu, elles peuvent provenir d’un traumatisme historique qui a durablement clivé l’électorat sur une base géographique, comme par exemple celui lié à la Révolution française en Vendée. En deuxième lieu, ces permanences tiennent au fait que les partis, une fois à la tête du pouvoir local d’une région, peuvent tenir un territoire par leur réseau d’élus et de militants : les électeurs votent alors pour ce dernier parce qu’ils en attendent des aides pour leur vie quotidienne. La domination électorale du Parti socialiste (belge) en Wallonie tient à ce genre de processus où une force politique s’est rendue indispensable à une majorité des électeurs. Enfin, cette permanence peut tenir à des lieux qui accueillent au fil des époques des électeurs de niveau social semblable. Ainsi les beaux immeubles de l’ouest parisien accueillent au fil des générations – depuis qu’ils ont été construits au xixe siècle – des électeurs d’orientation tout aussi conservatrice que leurs prédécesseurs.


 

2 - Dis-moi quelle 
est ta place 
dans la société…


La deuxième source de régularité dans les choix des électeurs n’est autre que le poids de la classe sociale, du sexe et de la religion dans l’orientation électorale. Dis-moi quelle est ta place dans la société, je te dirai comment tu votes.


Cette découverte se confond avec des revendications de la part d’acteurs politiques. En effet, depuis la fin du XIXe siècle, tout au moins en Europe, des partis revendiquent leur capacité à rassembler les électeurs sur une base de classe ou sur une base religieuse – au moment même où les femmes doivent, elles, encore se battre pour se voir accorder le droit de vote. D’une part, les partis travaillistes, socialistes, communistes prétendent regrouper tous les votes de la classe ouvrière, pour défendre ses intérêts supposés distincts de ceux du reste de la population. D’autre part, les partis chrétiens-démocrates, chrétiens sociaux, confessionnels prétendent de leur côté regrouper tous les croyants en une seule force électorale, pour défendre les raisons du christianisme contre la modernité issue des Lumières.


La science politique a été sommée de vérifier la validité de ces prétentions – l’ouvrier d’usine qui va à la messe, pour qui vote-t-il ? –, et le grand instrument de cette vérification fut le sondage d’opinion. Celui-ci permet dès les années 1960 de vérifier s’il existe au niveau individuel des corrélations significatives entre la classe sociale, la religion d’une part, et l’orientation politique d’autre part. Pour la France, dans les années 1970, Guy Michelat et Michel Simon, sur des entretiens semi-directifs, ont montré que l’espace politique français se structurait effectivement sur une opposition entre l’électeur communiste, ouvrier et athée à gauche, et l’électeur catholique à droite.


Cependant, la science politique, en France comme dans les autres pays de vieille démocratie, tend plutôt à souligner le déclin du « vote de classe » et de celui de la religion dans les orientations politiques des électeurs. Ce double déclin, observable partout en Europe, tient aussi au fait que les grands partis politiques se sont, respectivement, « social-démocratisés » ou « déconfessionalisés ». À l’image des partis nord-américains des années 1960, ces derniers prétendent en appeler à tous les électeurs sans distinction de classe ou de religion. De même, la science politique avait pu montrer pour la France que le vote des femmes – acquis seulement en 1944 – était plus conservateur en moyenne que celui des hommes ; aujourd’hui, on observe plutôt la situation inverse, sans doute sous l’effet conjoint de la baisse de la pratique religieuse catholique et de l’entrée massive des femmes sur le marché du travail.


Malgré tout, cette ligne d’explication reste valable, surtout si l’on adapte la notion de « classe sociale » aux actuelles conditions de la vie économique – par exemple en tenant compte de la détention par certains électeurs d’un patrimoine investi sur les marchés financiers –, ou celle de « religion » aux nouvelles manières de croire et aux nouvelles religions présentes en Europe.


Par ailleurs, pour les États-Unis, on observe au contraire depuis un quart de siècle un poids de plus en plus important des mouvements protestants évangéliques dans l’orientation républicaine des électeurs. Classe, sexe et religion ne sauraient donc être oubliés dans une explication globale du vote.


 

3 - Dis-moi pour qui ton père votait…


La troisième source de régularité dans les choix des électeurs est l’identification partisane. Aux États-Unis, dans les années 1960, en se fondant sur des sondages d’opinion, des chercheurs basés à l’université du Michigan se sont rendu compte que le facteur le plus important du point de vue statistique pour expliquer une orientation lors d’une élection présidentielle n’est autre que le simple fait de se déclarer « démocrate » ou « républicain ». Les électeurs républicains déclarent voter républicain…, parce qu’ils sont républicains. Les chercheurs découvrent par la même occasion que la majorité des électeurs ne connaît rien à la politique entendue comme les affaires de l’État. Ils semblent donc simplement voter en se fiant à une tradition de vote, soit républicaine, soit démocrate, elle-même largement liée à une transmission familiale. Dis-moi pour qui ton père votait, je te dirai comment tu votes. Cette vision de l’électeur, qui fait de la plupart des votants l’équivalent d’un supporter d’une équipe sportive ou du tenant d’une marque de voiture, n’est pas allée sans déclencher de vives controverses aux États-Unis. En effet, elle sape à la base la croyance en un choix électoral raisonné de la part du peuple souverain.


En France, en raison des changements incessants connus par les partis en lice, les chercheurs ont eu tendance à transposer la notion d’identification partisane en une notion équivalente de positionnement sur l’axe gauche/droite. Une équipe de chercheurs a ainsi pu montrer récemment, sur des données de sondage, que le déterminant principal du point de vue statistique du vote au second tour des trois dernières élections présidentielles (1988, 1995, 2007) ayant eu une configuration ordinaire (2002 étant à part avec le vote « républicain » des personnes s’identifiant à la gauche pour Jacques Chirac) n’était autre que le positionnement déclaré des électeurs interrogés sur cet axe gauche/droite.


 

 

4 - Dis-moi 
ce qui compte 
le plus pour toi…


Enfin, la quatrième source de régularité dans le choix des électeurs intervient largement comme une réaction interne à la science politique face aux trois précédentes. Se développant essentiellement à compter des années 1970, elle consiste à poser que l’électeur est « rationnel », au sens où ce dernier examine les propositions des différentes forces politiques en lice lors d’une élection et vote pour celle qui lui paraît la plus favorable à ses intérêts matériels ou symboliques. Dis-moi ce qui t’importe, je te dirai comment tu votes. C’est aussi ce que l’on a appelé le vote « sur enjeux ». Cette nouvelle vision permet d’expliquer la plus grande mobilité électorale que l’on observe depuis cette époque, et la progression de nouvelles forces politiques (écologistes, extrême droite, régionalistes, etc.). Cet électeur « stratège » ou « sophistiqué » correspondrait à l’élévation du niveau général d’éducation de la population depuis 1945. Plus éduqué en moyenne, plus intéressé par la politique que ses prédécesseurs, l’électeur occidental voterait désormais pour le candidat incarnant la politique publique qu’il considère comme la meilleure pour lui ou pour le pays.


Ce vote rationnel correspond surtout à la prise en compte des effets de la situation économique générale du pays sur les orientations électorales. En effet, les électeurs rendent responsable l’équipe gouvernementale sortante de l’état de l’économie, et sanctionnent un haut niveau d’inflation et/ou de chômage. Pour les élections présidentielles américaines, ce poids de la situation économique sur la décision électorale semble avéré, et les dernières élections en Europe occidentale depuis 2008 tendent à confirmer ce modèle. Toutefois, la rationalité dont il est ici question est « myope » au sens où les électeurs ne prennent en compte que la situation économique aux alentours immédiats de l’élection (une année tout au plus, voire un semestre), sans voir des trajectoires de redressement de l’économie de plus long terme – donc en opposition éventuelle à la rationalité économique telle que la définiraient certains économistes. Par ailleurs, les recherches les plus récentes tendent à mettre en lumière à quel point la rationalité de l’électeur ne peut pas s’étudier en mettant à part les émotions qu’il ressent et les informations dont il dispose au moment de faire son choix.


De fait, dans les pays de vieille démocratie, toutes ces lignes d’analyse s’additionnent pour aboutir à des changements d’orientation électorale mesurés et graduels. C’est pourquoi l’on observe une inertie de l’électorat, observation renforcée par la prise en considération des raisons pour lesquelles les électeurs participent au rite électoral. Or, pour un pays comme la France contemporaine, la raison majeure de la non-inscription sur les listes électorales, ou de la non-participation régulière aux élections lorsque l’on se trouve inscrit, demeure la plus ou moins grande insertion dans la société. De fait, les personnes qui se trouvent le plus marginalisées par le fonctionnement global de la société – les jeunes sans qualification scolaire par exemple – sont aussi celles qui participent le moins aux élections. On doit sans doute tenir présent cet aspect à l’esprit lorsque l’on s’essaye à comprendre pourquoi la démocratie représentative semble représenter de moins en moins les aspirations de toute la population.



Les médias : un rôle limité

Les hommes et femmes politiques portent une attention constante à leur image médiatique. Ils semblent croire qu’une bonne prestation télévisée de leur part les fera élire. De ce fait, la professionnalisation de la communication politique depuis le milieu des années 1960 est indéniable sous la pression des politiques eux-mêmes qui cherchent à rationaliser les conditions de leur élection. Le storytelling, méthode consistant à raconter une histoire, captivante si possible, pour retenir l’attention de l’électeur, a été mis en évidence par le sociologue Christian Salmon à propos de l’élection présidentielle de 2007. Elle n’est que le dernier épisode en date de ces visées de manipulation des électeurs qui commencent au XIXe siècle avec l’usage d’images d’Épinal à la gloire du général Boulanger, largement diffusées par ses partisans.


En fait, les électeurs ne se laissent pas si facilement manipuler, et les capacités de décryptage, de filtrage, de sélection de l’information de chacun d’entre nous ne sont nullement négligeables 
– y compris chez certains électeurs en dépolitisant complètement un message politique. En revanche, si les médias ne nous disent pas quoi penser, ils nous invitent, par leur focalisation partagée sur certains thèmes d’actualité, à quoi réfléchir. Collectivement, ils possèdent un fort pouvoir de « mise sur agenda » des thèmes de la campagne électorale. C’est la théorie l’« agenda setting », formulée par Maxwell McCombs et Donald Shaw dès les années 1970. Elle montre la capacité des médias à influencer le choix des électeurs dans la mesure où certaines forces politiques semblent plus à même de traiter un sujet particulier parce qu’elles furent les premières à en parler dans l’espace public. Dans le cas français, la focalisation des médias lors de la campagne présidentielle de 2002 sur les problèmes d’insécurité – au sens de délinquance de rue – n’a sans doute pas été sans avantager les candidats de droite et d’extrême droite dans la mesure où, depuis les années 1970, ces forces en avaient fait l’un de leurs thèmes favoris. De même, selon que les médias insistent sur le problème économique prioritaire 
que constitue le chômage ou l’inflation, ce ne 
sont pas les mêmes forces qui en profiteront électoralement.

Christophe Bouillaud


 

 

La Mémoire du Vin

 Conférence de Dominique Pringuey

 

11 Mars 2017  Abbaye de La Celle

« Comment briller en société sans sortir son smartphone »

Journée conçue et réalisée par Pierre Lemarquis

 


A la question « Comment briller en société sans sortir son smartphone », et même sans être un expert en oenologie ni un nez reconnu à Grasse, on saura agrémenter un repas gastronomique d’appréciations utiles tenant à la dégustation des vins, commentaires toujours bienvenus et ajustés aux convives du jour. Mais, y a-t-il vraiment une mémoire du vin ? Google – inévitable -donne ce jour 12.200 liens à « mémoire du vin », et les plus divers. On cite dans l’ordre de l’affichage :
- En premier, la proposition d’un mobilier électronique sophistiqué destiné à la gestion de votre cave
- Un cru : le Château Mémoires, du Lieu-Dit Cussol, 33490 à Saint Maixant
- Les coordonnées d’un club « Mémoire des vins suisses »
- La proposition d’un Weekend de formation Théma : « Mémoire et oubli/ Mémoire olfactive » à la Cité du Vin à Bordeaux dans le cadre de l’Obervatoire B2V des mémoires
- Une entreprise de distribution par internet : La mémoire des Vins, 12 rue Léo Lagrange 51700 Leuvrigny
- La Vitisphère : Institut Universitaire de la vigne et du vin de Dijon : « La mémoire du vin » signalant les travaux du Helmholz Center de Munich décryptant la signature biologique des forêts d’origines des fûts de chêne qui ont servi au vieillissement des bourgognes
- OEnologie.fr : site qui rappelle que le « Le vin rouge pourrait améliore la mémoire....... »


Cet effet bénéfique, essentiellement attaché à la fermentation des vins rouges, est porté par le Resvératrol, un stilbène de la famille des phytoalexines, composé biphénolique de la classe des flavonoïdes. Ce polynutriment extrait du raisin manifeste une action cardio-protectrice inattendue. C’est un antioxydant puissant, anti-inflammatoire, possiblement anti-cancéreux. La molécule entre en compétition avec la CoQ10, diminuant la chaine oxydative complexe III, détruit les radicaux superoxides mitochondriaux et inhibe la peroxydation lipidique et la fixation membranaire des LDL. Ce composé est donc un protecteur de la mémoire, ce qui console des effets dévastateurs de l’alcoolisme, ce dont le Korsakoff ne saura jamais témoigner.


Le vin et le cerveau La question fait l’objet d’abondantes recherches, publications et conférences, ce qu’illustre par exemple Jan De Maere : à la fois historien de l’Art, expert juridique « post gradué » et Ph D en Neurosciences, il propose sur le web et sous ce titre une synthèse brillante actualisée d’une neurobiologie socio-culturelle des rapports entre « le vin et le cerveau », signant ses compétences en « Evaluation and Connoisseurschip of Fine Art chez IPAVUB ».


De l’étude des multiples médiations mises à jour entre le vin et le cerveau, le vin apparait comme un psychotrope magique tenant d’avantages neurochimiques d’une activation Gaba, 
proche de celle des anxiolytiques, couplée d’une facilitation DA, d’où une stimulation cérébrale de type psychostimulant, bénéficiant d’une prise olfactive corticale basale directe, et d’un relais thalamique simple pour les saveurs. On sait l’importance de son apport métabolique en vitamine B1. Son action psychotrope finale se joue au plan comportemental dans son effet désinhibiteur spécifique de type BZD par levée de l’inhibition suppressive des comportements appétitifs à renforcement positif.


Cette chimie superbe qui relève d’une sollicitation habile des systèmes du plaisir, lui octroie une puissance hédonique majeure, ce qui aura sans doute animé la thèse veillotte mais bien émouvante de Paulhan (1903) en faveur d’une fondation des mémoires sur le souvenir affectif. Le bonheur de la dégustation, son histoire humaine et ses fondations culturelles sont célébrés depuis les temps, ce que rappelle récemment Michel Onfray (Poche 2009, pp 86) dans un opuscule intitulé « Les formes du temps » sous titré « Théorie du Sauternes », essai consacré à une métaphysique de l’hédonisme au travers d’une ontologie du vin, texte érudit, nerveux, mais aussi divertissant visant seulement à penser le réel à partir de sa manifestation. Gouleyant, en quelque sorte !


La démonstration scientifique des effets psychotropes spécifiques de l’alcool rapportée dans son travail de thèse par Kraepelin lui-même – ce père incontournable de la psychiatrie – confirme la puissance hédonique du vin. Et cela, au delà d’une abondance de facteurs confondants où il convient de « contrôler » l’époque biographique soit l’âge et l’expérience acquise du sujet qui teste le vin, le contexte social du moment, la tradition, les attentes, le respect du rituel, les rencontres qui y sont faites, les dimensions de jeu et de défi .... Il y a là pourtant un petit bonheur logé dans une expérience de plaisir, d’accord, de partage, une fête qui fait lien, souvenir, qui peut devenir passion, et même métier et expertise.


« La mémoire du vin » est ici aussi celle de nos amis Pierre Lemarquis et Benoit Kullmann et de leur souvenir d’une dégustation proposée lors d’un cours du Diplôme Universitaire de Phénoménologie Psychiatrique illustrant la thèse de Hubertus Tellenbach selon laquelle le Goût (au sens figuré) et l’atmosphère de toute expérience sont au fondement de la constitution de l’être humain (Goût et Atmosphère PUF Psychiatrie ouverte Paris, 1983 pp144). Ils forment un opérateur précis et essentiel pour la mise en place de la fonction orale biologique couplant odeurs, contact de la muqueuse buccale et saveurs.


La mémoire du vin assume une mise en proportion entre le souvenir et la confiance. Certes le souvenir s’altère dans l’oubli, mais rappelons que l’oubli est nécessaire à la gestion informationnelle « cognitive » en vue d’une sélection motivée (affective) des souvenirs à sauvegarder et ainsi d’éviter la saturation du système. L’oubli est évalué à 5% par mois en comptes événementiels dans les études dites des « Life events ». Un collègue anglo-saxon s’est employé à démontrer que la mémoire est faite pour oublier et suggère que les troubles psychiatriques valent pour des pathologies de la mémoire, quand notamment ils tiennent à un échec de l’oubli (dépression) ou à son excès (état maniaque, schizophrénies). Le souvenir est ressouvenu, jusqu’à être inventé dans les confabulations...


Or la mémoire du vin contient aussi cette validation de contenu qui s’élabore, grandit, pour atteindre à un acquis culturel fondamental que l’on appelle la confiance, « cum fidere ». Avoir confiance en quelqu'un, en un projet ... c’est se fier, s’abandonner à la bienveillance et à la bonne foi, c’est une assurance, une sécurité. C’est le fruit d’une compréhension, bien plus que d’une explication à laquelle d’ailleurs on ne parvient jamais totalement. D’une compréhension immédiate et totale. On y saisit une signification, un sens. C’est une certitude absolue, celle d’un consensus global, certitude totale, « digitale », en on/off. Cette compréhension résulte d’une communication de « haute fidélité » relevant d’une assise relationnelle première et majeure. Parmi les exemples, on peut renvoyer à ce repérage immédiat de l’état de colère de quelqu’un : c’est d’une évidence telle que cela appelle surtout en retour précautions et stratégie... avant d’en explorer les motifs et d’en détailler l’historique.


Cette communication de « haute fidélité » est immédiate, instantanée, claire et simple, sûre, efficace, « sécure » même, soit sans risque de piratage. C’est un fonctionnement « High Tech » qui répond d’un processus énergétique autonome - sans batterie ni chargeur ni connexions, d’une base naturelle depuis les fonctions organiques aisément disponibles. Ce fonctionnement présente un mode de transfert peu couteux puisque emprunté à l’environnement, l’atmosphère, et fonctionne sur un code universel simple. Il véhicule un message vital, essentiel. Il construit à chaque instant l’un des fondamentaux de l’existence – l’un des « existentaux » dit-on en phénoménologie – la confiance, que le psychiatre envisage dans son antinomie régulatrice, l’angoisse (Binswanger).


Dans l’expérience du quotidien, cette fabrique de la confiance unifie odeurs, saveurs et contact buccal en une sensorialité orale qui tient pour référent le Goût, dans son sens figuré, le flair relationnel, et qui s’élabore depuis le vécu d’émotions positives comme la joie ou l’amour qui font face aux dimensions négatives de la peur et de la tristesse. L’établissement du sens oral relève selon l’écologie humaine de processus « ancrés » élémentaires tels :
- la biophilie – amour du vivant, caractère fondamental de notre système relationnel
- la résonnance – mode archaïque premier de relation, situé en deçà de la multimodalité perceptive, qui est fondé sur des partages rythmiques qui ensuite soutiennent l’élaboration de l’auditif, des cohérences formelles qui président ensuite au visuel, des modules de compétence transactionnelle qui fournissent au nouveau né de précieuses clefs de communication.


La genèse maternelle, infantile et familiale, de la fonction orale, est garantie de sincérité et de loyauté, pour accomplir un objectif d’importance : la formation de l’identité, une signature et un lien à la communauté.


L’approche herméneutique du sens oral procède du même renversement phénoménologique du sens (comme direction) que le renversement de la flèche augustinienne du temps vécu, qui elle déroule classiquement la temporalité depuis le passé dans un présent orienté vers l’avenir. La vue existentielle considère au contraire que le devenir (et la chance d’en disposer) ouvre dans notre futur des possibilités qui vont nous permettre dans chaque présent de construire notre passé. De même le renversement de la flèche psycho-physique du goût, qui depuis la perception et par intégration fournit le Goût (fig.) soit le flair, offre une genèse existentielle inverse : c’est le Goût-(fig.) qui va éduquer notre affectivité (comme être-affecté-par) pour élaborer les qualités perceptives du goût et affiner les dimensions du sens oral.


Le caractère composite du sens oral, associant olfaction, gustation, sentir contact buccal, l’ordonne en maître de la sensorialité en ce qu’il prévaut sur la vue - le visuel certes donne la forme, et l'ouïe - le sonore, la force – le tact jouant dans une autre dimension. Le sens oral tient sa puissance de ce qu’à partir des odeurs et des saveurs, il donne l'atmosphère, l'ambiance, le climat, et livre ainsi une compréhension précise et exacte du monde. Celle que nous ressentons par exemple lorsque nous pénétrons dans cette magnifique salle conventuelle voutée de l’abbaye de la Celle, chargée d’histoire, de foi et de dévotion.


Plus, cette fonction orale détient le sens d'une propriété spécifique dans l’ordre de la communication : la faculté de son message de se répandre au dehors et de pénétrer au-dedans, et par là d’une communication immédiate. Dans un sens émanatif, l'homme sent une odeur spécifique, propre, déterminante. Un chien sait reconnaitre son maître. Bébé dès sa naissance, l’odeur du sein maternel. Dans un sens réceptif : l'homme sent les odeurs du monde, et par là s’y trouve lié, soumis. Cette dualité est génératrice de la tonalité affective : on sait que l’arôme appelle l’union, évoque la liberté, et aussi combien la mauvaise odeur déclenche la fuite, l’isolement. Le sens oral apparait alors comme le grand sens médiateur qui crée le milieu humain, rapprochant le lointain, éloignant le proche.


De fait l’espace de l'odeur est sans distance, illimité, se déployant depuis le plus intime, en fusion naïve, jusqu’au loin, selon la puissance des fragrances, mais sans limites imposées. Il fait lien à l'ambiance. La bonne odeur (maternelle, familiale, religieuse) incite à l’intimité, à la proximité, à la confiance. La mauvaise odeur provoque éloignement, exiguïté, refus, interruption : la mauvaise odeur ne rend-elle pas méprisable ? Le temps de l'odeur a la forme vide du maintenant, d’une temporalité immédiate, naïve, saisie fugace dans l'instant, mais qui est assez puissante pour réveiller le souvenir et annoncer le futur. Il est sens de la répétition (la « madeleine » de Proust). Il augure une heureuse issue de la rencontre. Mais avec une intelligence prudente : une odeur agréable ne peut être vécue avec plaisir que si elle est perçue pendant une durée limitée, comme pour se protéger du risque addictif !


Ainsi le sens oral est sens des substances, censeur de l'incorporation, avertisseur des nuisances et protecteur. L'atmosphérique provient de fonctions organiques et produit le flair. Le Sens oral est thymique : il rend possible le sentiment "d'être-affecté-par " qui est une mise en ambiance et en même temps une homogénéisation de l'être humain. Lié à la vitalité végétative, il détermine leur sphère vitale et en gouverne les actes: le respiratoire par le parfum, le digestif dans le culinaire, le sexuel pour l'érotique.


Mais et c’est son sens premier, le sens oral fonde d’abord la confiance. Savoir faire confiance est une condition élémentaire de l’existence qui forme l’assise du rapport à Soi et à l’autre. Et son prototype est largement illustré notamment de puis la renaissance : l'enfant dans les bras de sa mère – superbes Madones col bambino - qui unifie présence diffuse, abandon, sincérité, loyauté, dans une perception absolument immédiate.


« La présence maternelle est faite de l'odeur et du goût de ce qu'elle donne. Dans cette aura maternelle qui plus tard s'étend à la cellule familiale, s'élabore le sens de la présence d'autrui. » Tellenbach H


Et si l’on reconnait, aux fondements de la confiance, l’expérience de la fête comme « festum », comme le suggère Bin Kimura dans un prolongement qui analyse la formation du Soi, ce qui reprend aussi le concept de « nous » originaire ou « nostrité » de Binswanger, ce qui conforte aussi au plan anthropologique le primat humain de la verticalité, c’est affirmer que seule la rencontre avec l’autre, et plus particulièrement dans son acception médicale, permet de structurer l’organisation du soin et de guider le rituel qui consiste à « S’occuper de ». En atteste dans le registre le plus banal au quotidien, l’expérience d’une dégustation.

 

Pr Dominique Pringuey
Faculté de Médecine de Nice &
Société de Phénoménologie Clinique et de Daseinsanalyse
pringuey@unice.fr

En remerciement à Pierre Lemarquis, son association Sirènes et les partenaires industriels soutiens de la manifestation : Sanofi Genzyme, Orkyn Neurologie et Aguettant.

 

Annexe


La dégustation


L’OEIL
Saisissez le verre sous le pied et penchez-le sur fond blanc. Scrutez la robe du vin, sa couleur ; sa limpidité vous informe sur son âge et sur son état. Bien fait, il doit être limpide brillant et le rester
Les vins blancs jeunes sont peu colorés et avec des reflets verts. Ils évoluent avec une teinte plus marquée
Noter :
Intensité : pâle, claire, légère, moyenne, soutenue, foncée, sombre
Couleur (Blancs) : paille, citron, canari, jaune-vert, ambré, doré , topaze
(Rosés : cerise, abricot, violet, pivoine, orangé
Rouges : rubis, grenat, violacé, vermillon, acajou)
Limpidité : limpide, brillant, cristallin, net , voilé, flou, trouble
(Effervescence) : faible, moyenne ….la mousse ajoute vie et fraicheur


LE NEZ 70% des informations
Reniflez le vin en vous penchant sur le verre : ainsi vous percevez une première information globale : l’intensité perçue. Faites doucement tourner le vin et replongez le nez dans le verre. S’élèvent alors les arômes les plus denses. Détaillez les composantes du bouquet : florales, végétales, animales, fumées, épicées, minérales (Arômes primaires (cépage) secondaires (fermentation) tertiaires (maturité))
Jugez de la qualité, du caractère , de l’élégance


Noter
Intensité : faible, fermée, discrète, moyenne, expressive, puissante, lourde
Nuances Aromatiques :
cerise, fraise, cassis, mure, groseille
pomme, poire, abricot, prune, prunelle, coing, figue, amande, rhubarbe, confit, menthe
poivre, citronnelle, violette, acacia, aubépine, noix
miel, beurre, caramel, vanille, cannelle, levure, banane
sous-bois, champignon, herbe, fougère, mousse, foin coupé, humus
tabac, café, pain grillé, musc, fumé, brioche
minérale, pierre à fusil, silex, craie, terreux, souffre
Qualité : simple, fin, moyen, élégant, complexe


LA BOUCHE
Mettez le vin en bouche : les papilles gustatives et la langue perçoivent les 4 goûts fondamentaux : sucré (pointe), salé (avant latéral), acide( postérieur latéral), amer (postérieur)
Le sucré est associé au « fruit »: moelleux, souplesse, gras (richesse en alcool). L’acidité, colonne vertébrale, apporte fraicheur, souligne le fruit. Amer, tanins.
Astringence modérée des tanins, toucher régulier et doux des effervescents
Rétroolfaction (garder le vin en bouche et respirer de l’air, Cracher ou déglutir (persistance aromatique). Harmonie = cohérence des différentes étapes


Noter
Attaque : discrète, molle, souple, douce, dure, fruitée, fine, droite, ferme, directe, riche, vive, imposante, massive, chaleureuse
Milieu de bouche
Acidité : absente, plate, faible, fraiche, agrume, fondue, marquée, mordante, acide, permanente, agressive
Fruité : sec, suave, souple, rond, mûr, mature, fondu, sec, sucré, concentré, épais, dur
Alcool : faible, discret, léger, corsé, chaud, chaleureux, brûlant
La Mémoire du Vin - Dominique Pringuey - Abbaye de La Celle - Samedi 11 Mars 2017
(Tanins : absents, légers, moyens, souples, durs, dominants)
Sensation tactile : asséchant, sec, fluide, gras, onctueux, rond, moelleux, fondu, souple, vif, ferme, dur, épais, lourd (effervescent)


ARRIERE BOUCHE - PERSISTANCE
Longueur : court, moyen, soutenu, long, très long, persistant
Dominante : acidulé, doux, fruité, alcool, sec, nerveux, amer,
vif, épices, poivre, gingembre, amande , citronnelle,
frais, agréable, gourmand , savoureux, plat, dur


CONCLUSION
Sensation : modeste, sec, court, frais, aromatique, doux, élégant, onctueux
Intensité : vif, friand, franc, direct, dur
Densité : riche, expressif, ample, opulent, chaleureux, désaltérant, généreux, puissant
Structure : équilibré, harmonieux,
Fruité, rafraichissant, madérisé, lourd, décharné, grossier,


APERITIF
Conseils de dégustation
Apéritif, du latin "aperire" = qui ouvre l'appétit
(ne pas le couper avec des cocktails, du sucré ou alcoolisé)
Objectif : Mise en bouche pour réveiller les papilles en douceur
Il doit être léger, fruité et pertinent avec les mets qu’il accompagne
Champagne (le plus classique) ou même simplement un blanc sec « tranquille » (pas un grand cru)
(compter 7 verres par bouteille)
Sancerre (parfait avec des crudités à dipper)
Chablis

 



 

 

CONFIANCE

20 mars 2017

"Samson et Delilah" Rubens

Ce que les neurosciences nous disent sur le travail journalistique

Pour le journaliste de Pour la science, ce qui frappe en premier lieu est « l’omniprésence de l’émotion et plus particulièrement de la peur. La peur comme moteur de la diffusion d’information, et comme agent de transformation des opinions ».

Les études des sociologues des médias Robert Reid et Curtis MacDougall ont montré ce que savent plus ou moins intuitivement les journalistes : « Les informations les plus largement répercutées par la presse se distinguent par quatre critères : la récence (ça s’est passé hier, aujourd’hui), la proximité (c’était près de chez vous), l’ampleur (cela a touché 30, 40, 100 personnes) et le caractère choquant, générateur de sensations (c’est effrayant, il y a des dégâts, des morts, de la souffrance, ou il y a quelque chose de très étonnant, de scandaleux) ».

La théorie de la gestion de la peur

Les journaux télévisés nous le rappellent à longueur d’année : la peur fait recette. « On comprend pourquoi si l’on s’attarde un peu sur le fonctionnement du cerveau. Cette émotion négative suspend la réflexion critique en libérant dans le cerveau une molécule, le cortisol, lequel perturbe le fonctionnement des zones frontales du cerveau, nécessaires à l’évaluation rationnelle de la situation (Rozendaal 2004). Lorsqu’un danger insaisissable est présenté (pédophilie, vache folle, épidémie de grippe aviaire), le cerveau du consommateur d’information doit évaluer la validité de l’information et l’étendue de la menace à partir de moyens cognitifs, de moyens mentaux limités.

« La tendance naturelle est de considérer qu’une information effrayante est vraie. Pour la simple raison que la peur est une réaction de l’urgence, principalement destinée à fuir un danger ou à le combattre, sans place pour les grandes délibérations. » En termes évolutionnistes, « les chances de survie étaient augmentées lorsqu’une information potentiellement dangereuse était considérée comme vraie par défaut ».

Quelles conséquences pour nos comportements ? La théorie de la gestion de la peur, ou Terror management theory, part du point de vue qu’un grand nombre de comportements humains sont motivés par la peur de la mort.

Selon cette théorie (Sheldon Solomon, Tom Pyszczynski, et Jeff Greenberg), les symboles qui forment la culture propre de l’individu sont alors renforcés : « Lorsqu’on amène expérimentalement des sujets à se représenter leur propre mort, on constate une exaltation de tels symboles d’unité tels le drapeau, la nation, l’armée, même la cuisine locale. L’idée étant que ces symboles rassurent et donnent un sentiment d’appartenance qui transcende l’individu. »

L’autre effet de la terreur dans le cadre de cette théorie concerne l’autoritarisme : « La théorie de la gestion de la terreur prévoit en effet que, face à une fragilisation de l’ordre social, le souci de l’individu est d’affermir les institutions ou interventions policières visant à consolider l’ordre ».

Le biais de confirmation

Dix jours après les attentats du 11 septembre 2001 à New York, l’usine AZF de Toulouse explose, tuant 31 personnes et en blessant 2500 autres. Bien que l’enquête conclue rapidement à un probable accident dû à une erreur de manutention, la presse évoque périodiquement la possibilité d’un attentat. « On est là face à un exemple typique d’une pratique médiatique consistant à toujours donner au lecteur ou au téléspectateur ce qu’il attend. Évidemment, dans les consciences, on s’attend à un attentat puisqu’on est encore sous le choc des attentats de New York. L’opinion est en attente d’une confirmation. Elle est sujette au biais de confirmation. »

Le biais de confirmation a été étudié par le psychologue Stuart Oskamp (Oskamp, 1965) qui avait constaté que dès qu’une hypothèse est formulée, on ne prend plus en compte les pièces nouvelles d’un dossier qu’on nous donne et qui auraient pu pourtant suggérer le contraire. On ne retient que les éléments confirmant notre hypothèse initiale, c’est ce qu’on a appelé le biais de confirmation. « Ce biais psychologique se manifeste dans une multitude de situations de notre vie. Dans la lecture d’un texte, il permet de comprendre comment l’énoncé initial est décisif et peut tordre l’analyse du lecteur dans le sens désiré. Le biais de confirmation déforme l’analyse d’une façon pernicieuse et imparable. Car rien n’empêche de lire un titre tel que « Le virus H5N1 pourrait frapper l’Europe », il n’y a aucune raison de le rejeter d’emblée, car logiquement le texte doit permettre de se faire son avis sur cette question. Le problème, c’est qu’une fois le titre lu, la lecture est orientée, et on n’assimile plus de façon égale les différentes parties du message, celles qui informent l’énoncé premier et celles qui le confirment. Du coup, on entre sans s’en rendre compte dans une machine à former des croyances – en l’occurrence celle du déferlement d’un virus en Europe – par la présence innocente d’un titre. »

Le cerveau est attiré par les éléments confirmant son hypothèse première

D’où vient le biais de confirmation ? « Des études sur le cerveau ont été réalisées pour répondre à cette question. Doll et al. (2011) ont ainsi montré que le cortex préfrontal enregistre l’information initiale et guide la recherche d’informations par des structures d’apprentissage tel le striatum en favorisant la recherche d’informations allant dans le sens de l’hypothèse initiale, et en diminuant l’importance accordée aux informations contradictoires. »

Doll et coll. font remarquer que ce sont vraisemblablement les mêmes structures qui identifient les mécanismes d’action causale, qui expliquent également le biais de confirmation : « Lorsqu’on cherche à identifier la cause d’événements se produisant dans notre environnement, le cerveau formule des hypothèses dont il vérifie les conséquences afin de valider l’explication causale. En ce sens, il est normal et nécessaire qu’il soit prioritairement attiré par les éléments confirmant son hypothèse.

« Simplement, cette situation devient contre-productive quand l’environnement extérieur se travestit lui-même de manière à éliminer ou atténuer les éléments contradictoires, comme c’est le cas en partie de l’environnement médiatique.

La théorie du renforcement

« Le lecteur, l’auditeur ou le téléspectateur en constatent les conséquences. Une fois qu’une idée est implantée dans les esprits, les médias l’exploitent jusqu’au bout : Outreau, chiens tueurs, manèges tueurs, enfants oubliés dans les parkings. Par bouffées, des phénomènes s’enflamment et le citoyen croit réellement à des épidémies de chiens tueurs d’enfants, alors que les médias décident simplement d’y consacrer des reportages pendant quelques semaines, constatant que l’idée « prend ». Le psychologue social spécialiste des médias Joseph Klapper l’avait saisi, il y a un demi-siècle, à travers sa théorie du renforcement. Selon lui, le rôle des médias n’était pas tant de créer des attitudes ou des opinions, ni de les changer, que de renforcer ces attitudes et croyances préexistantes dans le public. »

Voilà qui peut expliquer les phénomènes de surenchère et d’emballement médiatique.

Mais on ne s’arrête pas là. Tout cela va être précipité par deux autres phénomènes : la loupe médiatique et le pouvoir de la peur.

« Souvenez-vous de Papy Voise. On est au mois d’avril 2002 et ce vieux Monsieur vient de se faire agresser par des jeunes dans son pavillon, la photo fait la une des magazines. Le reportage sera diffusé 19 fois dans la seule journée du 19 avril sur LCI. » Difficile pour le téléspectateur d’échapper à l’idée que l’insécurité a réellement augmenté. Or, il s’agit d’un pur effet de loupe médiatique, les chiffres du ministère de l’intérieur ne faisant état d’aucune hausse significative sur cette même période.

L’heuristique de disponibilité

« Nous sommes là face à une heuristique, à savoir un raccourci opéré par l’esprit pour apprécier un risque, d’après des indices environnants. »

L’heuristique de disponibilité a été mise en évidence par les économistes Amos Tversky et Daniel Kahneman. C’est le fait que nous nous fondons sur la facilité avec laquelle des exemples d’un fait nous viennent à l’esprit, pour juger de l’importance de ce fait. Ainsi, plus nous trouvons facilement un grand nombre d’images ou descriptions d’un risque, plus nous en déduisons que ce risque est élevé.

« Un exemple bien connu est celui des accidents d’avion. Beaucoup de gens croient que l’avion est plus dangereux que la voiture, alors que c’est l’inverse. Simplement, les médias nous livrent des descriptions plus détaillées des crashes aériens, et notre cerveau dispose de banques d’images plus fournies de ce risque. Il en déduit une probabilité plus élevée. (…) Les médias jouent ici avec le feu. En surfant sur une demande supposée (le biais de confirmation), ils nourrissent une psychose qui finit par se détacher du monde réel. »

Le syndrome du « grand méchant monde »

Dans les années 1980, le psychologue social George Gerbner a englobé ce phénomène sous le concept de « grand méchant monde ». « C’est la représentation du monde comme un endroit fondamentalement dangereux. Cette représentation noircie résulte du bombardement d’informations catastrophistes dont fait l’objet le citoyen moderne connecté à l’actualité internationale. Les faits divers, catastrophes nucléaires, viols, attentats, épidémies de grippe aviaire, tremblements de terre, déraillements, crashs d’avions, scandales de l’amiante ou du sang contaminé, maladie de la vache folle, enfants oubliés dans des voitures sur des parkings, manèges défaillants ou autres massacres en milieu scolaire convergent vers son salon. Et c’est finalement la représentation, déformée, du monde qui s’impose. »

Gerbner a constaté, par exemple, que « les plus gros consommateurs de médias surestiment d’un facteur 50 environ la probabilité d’être victime d’une agression en sortant de chez soi. C’est là qu’il aura cette image d’un monde devenu, dans sa représentation, une menace en soi ». 

Les mots de la peur

Dernier point de l’analyse de M. Bohler, « le type de lexique employé par les médias peut orienter le jugement des auditeurs, lecteurs ou téléspectateur vers un traitement rationnel ou émotionnel de l’information, inspirant la peur ou la confiance, soufflant le chaud et le froid à partir d’une même information factuelle. La question a été étudiée par des psychologues de l’Université de Stanford, qui ont recensé l’emploi de termes à connotation émotionnelle ou au contraire technique à propos d’une même thématique, la maladie de la vache folle, dans deux journaux français, le Monde et les Echos, entre 1991 et 2002 (Sinacoeur et al., 2005). Le but était d’observer les effets de l’emploi d’une terminologie émotionnelle ou technique sur l’attitude des citoyens vis-à-vis du danger représenté par la viande bovine en consommation courante, et sur les achats de viande.

« Les scientifiques ont ainsi dénombré le nombre d’occurrences, semaine après semaine, des termes « vache folle » (connotation émotionnelle) et « encéphalite bovine spongiforme » (connotation technique). Parallèlement, ils ont suivi le niveau total de consommation de viande bovine à l’échelle nationale sur cette même période. Les résultats montrent que la consommation baisse pendant les périodes d’emploi du terme de vache folle et augmentent lorsqu’est employé le terme encéphalite bovine spongiforme.

Les journalistes ne doivent plus ignorer ces effets cognitifs

« Cette expérience montre toute la difficulté de transmettre une juste évaluation du danger dans l’opinion. Le mode de traitement émotionnel, enclenché par certaines images, oriente l’esprit vers une réaction de rejet ou d’adhésion instinctive. Les termes techniques incitent au contraire à une analyse. Que signifie encéphalite ; que signifie spongiforme. On se renseigne, on s’informe sur les mécanismes de réplication du prion, l’agent infectieux. On prend une décision fondée sur une appréciation rationnelle des risques. Deux approches fondamentalement différentes, qui ont des impacts économiques contrastés.

« Introduire une régulation à cet échelon semble difficile, estime Sébastien Bohler. Les journaux sont libres de choisir leur terminologie et leur style d’écriture. En revanche, les journalistes doivent être informés de ces effets, pour ne plus les ignorer, et pour gagner en niveau de responsabilisation. On se heurte aussi aux impératifs d’un média : gagner et fidéliser des lecteurs. Un traitement émotionnel est souvent plus efficace à cet égard qu’un traitement analytique. L’action citoyenne devra peut-être plus porter sur l’information du public à propos de ces effets, pour conférer au consommateur de médias une capacité de recul par rapport aux réflexes viscéraux auxquels l’exposent ses lectures. »

Sébastien Bohler

 

Comment faire mieux dans l’avenir ?« Les quelques mécanismes psychologiques décrits ici permettent de décortiquer, conclut Sébastien Bohler, la nature anxiogène des médias. La peur est un bon fonds de commerce car elle est une émotion qui fixe l’attention, et qui tend à faire accepter les informations comme étant vraies. Le biais de confirmation provoque facilement le gonflement et l’agrégation des informations similaires. L’heuristique de disponibilité agit enfin pour nous faire surestimer les risques. L’opinion est ainsi constituée et débouche sur des choix, notamment politiques.« Qui est le coupable, dans cet enchaînement ? Le journaliste. Il doit être informé de ces mécanismes, pour ne pas y céder. Les informations anxiogènes doivent être délivrées de façon mesurée, et sur un ton objectif. La tentation de les reprendre en boucle pour faire de l’audience en surfant sur le biais de confirmation me semble devoir être combattue. L’inflation d’images doit être contenue, pour ne pas alimenter l’heuristique de disponibilité.« Les conséquences sont potentiellement importantes pour une appréciation juste de l’état du monde par l’opinion, et pour des choix éclairés. Mais elles sont aussi sociétales et épidémiologiques : l’état d’anxiété d’une population se répercute sur la santé mentale (dépression, anxiété pathologique, phobies, tocs) et physique (obésité, maladie d’Alzheimer). Nos médias doivent se tenir à une ligne de conduite par rapport à cela. »

Peut-on gouverner par la confiance ?

 

 

L’histoire de Ralph, cadre dans un groupe, montre que la confiance est un enjeu 
déterminant des relations au travail. 
Elle se construit à certaines conditions. 
Quand elle est trahie, le collectif du travail peut s’effondrer. Démonstration en trois étapes.

Gouverner par la confiance ? Pour répondre à cette question, j’ai, heureusement, comme Montaigne, une bibliothèque-thébaïde. Le livre de Diego Gambetta Trust me donne un conseil éclairé : « Demander trop peu à la confiance est aussi mal avisé que lui en demander trop… Soyez économes de votre confiance. » (1).


Voilà un bon point de départ. À partir de ce principe, un cas concret, celui de Ralph, permet d’illustrer ce que l’on peut attendre de la confiance, en s’appuyant sur ce que nous enseignent les sciences humaines et Paul Ricœur.


De l’engagement


à l’amertume


Les salariés entretiennent avec leur entreprise un rapport qui dépasse ce que prévoit explicitement leur contrat de travail. Ils s’investissent et s’engagent souvent au-delà de ce qui leur est demandé et, en retour, attendent des récompenses (en matière de carrière ou d’équité). Mais la vie apporte souvent des désillusions, entraînant parfois de l’amertume, voire le sentiment d’avoir été trahi.


Prenons le cas de Ralph, cadre à « haut potentiel » dans un groupe. Il a accepté d’aller remettre à flot une unité en difficulté. De nouveaux investissements devaient permettre de sauver l’activité. Le contrôleur de gestion lui a montré des chiffres sur lesquels fonder son action, et son chef hiérarchique lui a promis la reconnaissance de la société. Ralph a donc déménagé. Mais le soutien financier n’a pas été à la hauteur des engagements ; Ralph a été obligé de couper dans les coûts, jusqu’au moment où il a dû alerter sa hiérarchie sur le risque de mettre en danger les compétences mêmes de l’unité. Bien que tiraillé entre des objectifs contradictoires, Ralph a poursuivi son travail avec loyauté. Pourtant, plus tard, le contrôleur de gestion a écrit sur lui un rapport négatif, et son supérieur hiérarchique a publiquement « admis » s’être trompé sur son compte.


Voilà un cas malheureusement courant : un cadre qui s’engage en échange d’une promesse de reconnaissance, une situation ambiguë – des problèmes de terrain complexes, un soutien financier insuffisant, peut-être à cause d’un changement de conjoncture. Toujours est-il qu’à la fin de l’épisode, Ralph était fondé à se sentir amer. De son côté, la direction avait peut-être de bonnes raisons de penser que Ralph n’avait pas été à la hauteur de sa tâche. Perte de confiance réciproque donc…


Agonismes et antagonismes


Pour analyser l’histoire de Ralph et de sa firme, nous aurons recours à deux sociologues allemands, Georg Simmel (1858-1918) et Niklas Luhmann (1927-1998), et à deux philosophes, l’un allemand lui aussi, Axel Honneth (né en 1949), l’autre français, Paul Ricœur (1913-2005). 


Les dirigeants font souvent appel à la confiance comme s’il s’agissait d’une croyance magique, comme s’il suffisait d’y croire pour qu’elle advienne. Mais il semble plus raisonnable de suivre G. Simmel et de parler, plutôt que de confiance, d’un continuum confiance-défiance que les acteurs sociaux peuvent parcourir dans un sens comme dans l’autre ou, plus précisément, d’un état de « suspension temporaire » (« Aufhebung ») de la confiance ou de la défiance. Accorder sa confiance à un autre acteur ou à une organisation est un acte de foi tout à fait réversible.


Le travail de N. Luhmann complète celui de G. Simmel sur les conditions qui fondent la confiance et la défiance :


• la mémoire des épisodes passés et de l’expérience de l’acteur dans des situations similaires, parfois avec les mêmes partenaires ;


• les anticipations de ce qui peut advenir, des bénéfices à attendre et des risques de l’action, le niveau de l’incertitude et la stratégie proposée pour y faire face ;


• les spécificités du contexte de l’interaction – règles du jeu, teneur des contrats entre les acteurs, « encastrement » dans des ensembles sociaux plus larges ;


• la réalité des interactions entre les acteurs : ce que les uns et les autres disent, font, décident, les responsabilités qu’ils prennent, les valeurs qu’ils défendent (2).


A. Honneth ajoute une autre dimension à la compréhension de la confiance. La vie sociale en général, et celle des entreprises en particulier, est tout sauf angélique. Par essence, les organisations sont marquées par des asymétries de pouvoir et d’intérêts, horizontales et verticales. La confiance se crée et se perd dans un jeu d’« agonismes » et d’antagonismes. Elle ne peut advenir que si, au préalable, chacun se décentre de lui-même pour « reconnaître » l’autre, ses droits, sa valeur et ses capacités. Or, cette reconnaissance ne va pas de soi : c’est un combat ou, comme l’écrit P. Ricœur, un « parcours », que je propose de dérouler en trois étapes.


Première étape - Michel Crozier, le Nobel d’économie et le chien de Jack Welsh. Ralph est un grand naïf. Il a cru en la parole du pouvoir et aux chiffres qu’on lui montrait ; il s’est engagé et a agi, mais sans comprendre le jeu politique dans lequel il était inséré, ni les bonnes raisons qu’avaient les autres acteurs de s’allier contre lui pour se protéger. M. Crozier aurait dit que les cartes qu’il détenait n’étaient pas suffisantes et que les autres acteurs maîtrisaient trop de variables (les cordons de la bourse, le choix des indicateurs d’évaluation). Le prix Nobel – Oliver Williamson – aurait dit, comme François Ier : « Bien fol est qui s’y fie. » En d’autres termes : rédigez des contrats détaillés, prévoyez des parachutes dorés et des bonus, ne dépendez jamais de l’arbitraire d’autrui, n’ayez jamais confiance. Quant à J. Welsh, le dirigeant de General Electric et grand gourou du management, il aurait sans doute conclu : les entreprises ne vivent pas de sentiment, mais de réalisme économique : un chef doit se faire craindre, surveiller et punir, manier la carotte et le bâton. Autrement dit : « If you look for loyalty, get a dog. »

Les groupes humains finalisés et structurés ont tendance à être ingrats et amnésiques. Ils vivent dans le court terme de l’action et dans l’illusion de l’équivalence entre discours et réalité. Malgré tout, ils savent d’expérience que la confiance peut leur être utile pour réduire l’incertitude et gagner du temps. Mais l’on oublie volontiers ses engagements quand cela nous arrange.
Les organisations sont condamnées à affronter le temps. Si, dans l’immédiat, la confiance n’est pas utile, les contrats donnant-­donnant suffisant théoriquement à définir les relations, dans la durée, cela n’est pas possible : le jeu n’est pas à un seul coup, la mémoire des coups passés comme l’anticipation des coups à venir marquent les décisions des acteurs.


Deuxième étape - Le don/contre-don. La construction d’espaces sociaux, où des acteurs vont partager des histoires et des anticipations, de l’imaginaire et du symbolique, et former des engagements mutuels est nécessaire pour qu’existe une action collective. Le principe du don/contre-don mis au jour par l’anthropologue Marcel Mauss permet de conceptualiser ce processus. 


« Envoyer et renvoyer l’ascenseur » sont des pratiques courantes dans les organisations : on offre un appui, on donne une information, on met en contact avec un client, etc. Ce petit service appelle en retour un contre-don, qui viendra à son heure.


La vraie coopération repose sur ce principe, qui échappe au calcul rigoureux de l’échange marchand, mais pas à une forme d’échanges informels inscrits dans les relations de travail. Le don implicite fabrique une forme de coopération qui va bien au-delà de la coordination managériale ; la force du lien peut ajouter le plaisir d’être ensemble à celui de produire une action collective efficace. Ce plaisir d’être ensemble peut être célébré par des fêtes et des moments de complicité et de partage. Il implique de l’affect et de la compréhension mutuelle : complicité et connivence.


Le niveau pertinent d’analyse est alors le rapport entre l’ensemble des salariés et la firme ; celle-ci peut être considérée comme un lieu où l’on peut s’identifier à quelque chose ou à quelqu’un et se construire en la construisant. On arrive alors à la troisième étape de la construction de la confiance.


Troisième étape - L’identité narrative. L’œuvre de P. Ricœur, notamment le concept d’identité narrative, donne des clés essentielles pour comprendre la confiance. Résumons : tout comme les individus, les organisations, les entreprises et les institutions en général possèdent une identité. Celle-ci n’est pas une pure construction managériale, produite par l’affirmation de valeurs par un comité exécutif (et révélée au cours d’un séminaire dans un château…). L’identité est une construction narrative, c’est-à-dire un récit dont les épisodes sont fournis par l’action réelle autant que par ce que les dirigeants en disent car le réel est toujours infiniment plus riche et contradictoire que le discours que l’on tient sur lui. 


L’identité narrative a un ancrage dans le temps. Vers le passé, elle renvoie à une mémoire, toujours réorganisée. Vers l’avenir, elle pose la question : quel est notre problème majeur ? Qu’est-ce qui est vital pour nous ? Que faire ? P. Ricœur dit que l’identité narrative « énonce des promesses » – ce qui est, au final, l’essence de la stratégie.


L’identité possède une deuxième dimension : l’altérité. L’identité collective doit répondre à la question : qui sommes-nous ? Cela implique de savoir ce qui nous rassemble, ce qui peut nous diviser et enfin qui sont nos ennemis. Bref, l’identité s’affirme dans une relation aux autres : les adversaires, les partenaires, les concurrents.


L’identité narrative, lorsqu’elle est crédible, a pour fonction d’apaiser les conflits internes et de donner du sens à l’engagement individuel et à la coopération entre les agents d’une même collectivité. Elle permet à chacun de s’identifier à un collectif, être imaginaire, mais qui s’impose alors à tous. Son critère de réussite est simple : quand l’intérêt collectif prime sur l’intérêt individuel, chacun peut agir en confiance, sachant que cet effacement devant le collectif sera source de bénéfices et le protégera contre l’iniquité et l’injustice. La théorie économique le confirme : confiance et coopération réduisent les coûts d’organisation et de transaction et constituent par là une ressource rare et pertinente, qui ne peut s’acheter ou être imitée – la source même de l’avantage concurrentiel.


Affirmer une identité narrative, formuler des promesses, proposer des valeurs ou un idéal confrontent le détenteur du pouvoir – leader ou manager de proximité – à un problème fondamental : il n’est crédible que s’il arrive à surmonter la suspicion et la défiance attachées spontanément à la différence hiérarchique. Détenant l’autorité formelle, il a le pouvoir de renier sa parole, de récompenser et de punir selon son désir, d’interpréter les valeurs ou l’idéal comme cela lui convient. Mais s’il le fait, il casse la confiance, le respect et la reconnaissance se retournent en haine et mépris.


La confiance passe donc par la reconnaissance d’une sorte de transcendance : il existe des principes, des valeurs, qui sont supérieurs, qui s’imposent à tous et dont le chef est le garant : l’équité et la justice, la raison, le primat de la réalité. Sans ce « tiers-garant », le don/contre-don n’est plus possible.


Trahir le rôle de tiers-garant ouvre la porte au primat des intérêts particuliers sur les intérêts collectifs, à la jouissance du pouvoir par une caste au détriment du collectif, justifiant la critique de Pierre Legendre dans Dominium Mundi (3).


Le pouvoir de trahir sa promesse : Gambetta, Ricœur et Montaigne pour viatique. L’histoire de Ralph le rappelle : les promesses n’engagent que ceux qui y croient. Les dernières pages du Parcours de la reconnaissance de P. Ricœur nous mettent en garde : il ne faut pas méconnaître l’asymétrie des pouvoirs et des positions. Celui qui s’engage aujourd’hui n’est pas celui qui accepte la promesse, et il ne sera plus vraiment le même quand, à l’avenir, il aura à la tenir ou à la trahir. On échange des dons et non pas des places. « Je » n’est pas l’autre, même s’il peut parfois faire illusion en se traitant « soi-même comme un autre ».


Ne gaspillez pas la confiance, réservez-la aux situations où, comme Montaigne, vous pouvez dire : « Parce que c’était lui, parce que c’était moi. »

 Roland Reitter

1. Diego GambettaTrust. Making and breaking cooperative relations, Basil Blackwell, 1988.
 
2. Niklas LuhmannLa Confiance. Un mécanisme de réduction de la complexité sociale, 1968, trad. fr. Economica, 2006. 

 
3. Pierre LegendreDominium Mundi. L’empire du management, Mille et Une Nuits, 2007.
 
 

Confiance, moralité et ocytocine

Aussi dans ce N° :

"Environnement et SN"  "Psycho-Social 1"
 

- La politique française à l'âge de la défiance 

- Qu'est-ce que la confiance ?
 
- La confiance, vitale et faillible 
 
- Plus on ment, plus il est facile de mentir et plus le cerveau est endommagé
 
- La psychologie de la crédulité

 

MANIPULATION

20 février 2017 : Atteinte de la 500 000° visite ! 

Merci de votre fidélité 

Jérôme BOSCH, "l'escamoteur"​

La manip pour tous

Sommes-nous tous manipulés ? Oui ! Mais pas comme nous l’imaginons. Mieux encore, serions-nous tous des manipulateurs, sans le savoir ?

Un soir, un jeune commercial en formation est passé à la maison dans l’espoir de me faire souscrire un abonnement. Il m’a posé une série de questions auxquelles je ne pouvais répondre que par l’affirmative, a insisté, tout sourire, sur le fait que ma signature n’engageait à rien et que du reste, bien sûr, j’étais libre de ne pas signer. J’ai refusé tout net, en claironnant qu’il employait des techniques de manipulation que je connaissais par cœur. « C’est pas de la manipulation !, s’est-il récrié. C’est mon chef qui me dit de faire comme ça ! – Alors c’est votre chef qui vous manipule, en dissimulant qu’il vous forme à manipuler ! – De toute façon, si c’est vraiment de la manipulation, moi je vais démissionner ! » Il est reparti blême et penaud. Ce malheureux pouvait-il manipuler ses clients potentiels sans le savoir ?

Les grosses ficelles du marionnettiste

Si l’on se fie au sens commun (mais on se doute bien qu’il a tort), le manipulateur apparaît comme un stratège supérieurement intelligent qui, parfois sans l’air d’y toucher, obtient ce qu’il veut d’une victime impuissante, voire inconsciente de ce qui l’attend. Cette conception hante l’imaginaire collectif, depuis les hypnotiseurs de spectacles aux méchants supérieurement intelligents du cinéma, en passant par la vogue des pervers narcissiques et les théories du complot plus ou moins étayées. À défaut d’être toujours faux, voilà qui semble en tout cas très limitatif. Car les recherches en psychologie sociale, notamment, présentent un panel extrêmement varié des techniques de manipulation.

Veut-on, par exemple, manipuler par la persuasion ? Élaborés voici une trentaine d’années, le modèle de probabilité d’élaboration (ou ELM) signé Richard Petty et Tom Cacioppo, ou encore le modèle du traitement heuristique/systématique de Shelly Chaiken, restent très influents aujourd’hui : ils montrent que la persuasion se révèle d’autant plus efficace que l’individu concerné est intéressé par le sujet dont il est question, et capable d’apprécier une argumentation de qualité. À défaut, il doit jouer le béni-oui-oui face à un interlocuteur perçu comme un expert. Voilà qui fait, certes, beaucoup de conditions ! Cependant, les modèles issus de la théorie de la dissonance cognitive (Leon Festinger, 1957) ne s’embarrassent pas de telles fioritures : ils insistent sur le bricolage intérieur permettant d’harmoniser nos pensées conflictuelles (ou de « réduire la dissonance »), quand nous sommes prêts à toutes les acrobaties pour justifier a posteriori, en y croyant nous-mêmes, nos contradictions, nos changements d’avis, et surtout nos comportements inhabituels. La manipulation la plus efficace, en effet, se base avant tout sur les actes. On agit d’abord, on se convainc ensuite qu’on a bien fait. Le paradigme d’« hypocrisie induite » joue par exemple sur la mauvaise conscience des individus pour leur faire modifier leurs comportements : à la piscine, interroger des nageurs sur leur gaspillage d’eau ordinaire leur fait prendre « spontanément » des douches plus courtes…

Auteurs du célébrissime (et toujours d’actualité) Petit traité de manipulation à l’usage des honnêtes gens (1987), Robert-Vincent Joule et Jean-Léon Beauvois décrivent de leur côté la « soumission librement consentie » comme consécutive à la mise en œuvre d’un acte anodin, produit devant témoin(s) et en toute liberté. Le tour de passe-passe le plus classique est celui du pied dans la porte, scientifiquement démontré avec l’exemple d’un gigantesque panneau publicitaire en faveur de la prévention routière que les citadins doivent accepter dans leur jardin. Si vous leur demandez de but en blanc, le plus probable est qu’ils refusent tout net. Si vous leur proposez simplement d’apposer un autocollant sur leur boîte aux lettres, vous aurez beaucoup plus de chances de parvenir à vos fins en leur proposant ultérieurement le fameux panneau. Un tout petit oui qui ne mange pas de pain augmente les chances d’accepter ensuite, graduellement, ce qui aurait dû paraître inacceptable.

Persuasion et manipulation par l’engagement sont-ils inconciliables ? Pas forcément : la « communication engageante » testée par les mêmes Joule et Beauvois articule ces deux dimensions : l’accomplissement d’un acte anodin favorise alors une tentative de persuasion consécutive. Mais pour quoi faire ? Eh bien, de même que selon Pierre Desproges il n’y a qu’une différence d’intention entre une mauvaise cuisinière et une empoisonneuse, tout dépend de ce que le manipulateur a en tête. Il peut vous faire accepter avec gourmandise d’acheter une encyclopédie volumineuse et onéreuse que vous ne consulterez jamais, alors que tout son contenu est disponible en libre accès sur Internet et ne vous a jamais intéressé. Il peut aussi vous amener à faire des économies d’énergie, utiliser plus souvent des préservatifs ou grignoter des vers de terre (tout cela, des psychologues l’ont vérifié) : disons qu’on donne alors un gros coup de pouce pour obtenir le meilleur comportement possible, pour l’intéressé et la communauté.

Je manipule, tu manipules

Ainsi le schéma intuitif de la manipulation, se jouant entre un tireur de ficelles démoniaque et un gentil pantin, se voit-il mis à mal. Les techniques comportementales les plus rapides et les plus efficaces font les délices de certains commerciaux qui ne sont ni machiavéliques ni psychopathes ni stratèges hors pair… mais pragmatiques. Si aucune n’est infaillible, leur combinatoire et l’art de les amener peuvent susciter des comportements qui n’auraient jamais été obtenus spontanément, parfois aberrants et contre-productifs. Et nous sommes tous des manipulateurs, peu ou prou, au quotidien. Des parents triomphants parce qu’ils ont trouvé une astuce pour faciliter (pour quelques soirs, en tout cas…) le coucher de leurs enfants surexcités, des enseignants se faisant part mutuellement des stratagèmes propres à décourager l’insolence d’un élève notoirement pénible, un sourire pour mieux faire passer la pilule en délivrant une facture, ou tout simplement l’usage du puissant « s’il vous plaît », qui insiste sur le sentiment de liberté de l’interlocuteur et limite ainsi nos chances d’essuyer un refus, tout cela relève de la manipulation, ou, si le terme vous gêne, d’une influence, mais sciemment exercée. Tous, nous manipulons au quotidien les images que nous arborons sur Facebook, non pas en les retouchant comme voici quelques décennies, mais en sélectionnant les meilleures, celles qui présentent des facettes de notre vie valorisantes aux yeux de notre communauté.

D’une manière ou d’une autre, personne n’échappe à l’influence : on ne peut pas ne pas être influencé, et on ne peut pas ne pas influencer. Peut-on ne pas être manipulé ? Et ne pas manipuler, même avec les meilleures intentions du monde ? La différence entre influence, persuasion et manipulation ordinaire n’est sans doute qu’une question de degré, de vocabulaire et d’intention.

Jean-François Marmion

Expérience de Milgram-Soumission à l'autorité (I comme Icare)

Machiavel, la machine du pouvoir

  

 

 

 

 

Comment garantir la stabilité et la grandeur d’un État ? Cette question a obsédé l’auteur du Prince et des Discours sur la première décade de Tite-Live. Il en a tiré une œuvre subversive sur les ressorts du pouvoir politique.

 

L’un des portraits les plus célèbres de Nicolas Machiavel (1469-1527), exposé au Palazzo Vecchio de Florence, en Italie, le représente avec un étrange sourire pincé (ci-contre). Diabolique pour les uns, subtil pour les autres, ce rictus incarne à lui seul l’énigme qui embrasse les écrits du diplomate florentin. Cinq siècles après sa mort, ceux-ci n’en finissent pas d’être étudiés, commentés, décriés ou loués.

Peu d’auteurs peuvent en effet se targuer d’avoir influencé la pensée politique au point de voir leur patronyme faire irruption dans le langage courant. C’est le cas de Machiavel : ne dit-on pas d’un esprit fourbe et calculateur qu’il est machiavélique ? Son ouvrage le plus célèbre, Le Prince, y est pour beaucoup. Écrit en 1513, ce court traité fait scandale dès sa publication posthume en 1532 – autant chez les protestants que chez les catholiques, qui allaient bientôt s’entredéchirer pendant toute la seconde moitié du 16e siècle. Y sont exposées sans détours les recettes pour fonder l’autorité du gouvernant, la renforcer. Machiavel explique notamment que le prince doit savoir « entrer au mal » s’il y a nécessité, par exemple en éliminant les éventuels rivaux qui menacent son autorité. On aurait tort cependant de résumer Machiavel à une apologie du mal en politique. Son œuvre est complexe, sujette à des interprétations variées et parfois contradictoires. Si dans Le Prince, il semble se faire l’apôtre de la monarchie et de la domination d’un seul, d’autres écrits, comme le Discours sur la première décade de Tite-Live, révèlent un attachement sincère à la république, et font entrevoir Machiavel comme un authentique penseur de la vie libre.

« Il suffit de l’initiation la plus rapide à l’histoire de la société où vivait Machiavel, et d’une lecture, si superficielle soit-elle, de ses ouvrages, pour se persuader qu’il ne fut ni le pratiquant, ni l’auteur de cette perversion politique », soutiendra le philosophe Claude Lefort dans l’ouvrage de référence Le Travail de l’œuvre, Machiavel (1972).

Au service de Florence

La pensée de Machiavel est étroitement liée au contexte historique qui l’a vue naître : celui de « l’air chaud et subtil de Florence  (1) ». Niccolò Machiavelli y voit le jour en 1469. L’Italie est à l’époque un pays morcelé, et ses cités autonomes sont régulièrement victimes d’invasions étrangères – quand elles ne se font pas la guerre entre elles. Une instabilité chronique qui se prête du reste aux expériences politiques. Le 15e siècle florentin est émaillé de turbulences : son régime républicain est à l’agonie depuis que la puissante famille de Médicis en a pris le contrôle en 1434 ; leur règne est jalonné de conjurations, de soulèvements populaires et de coups d’État.

En 1494, alors que la cité se voit décimée par de nouvelles invasions barbares, les Médicis sont chassés par une révolte d’aristocrates florentins, partisans de Jérôme Savonarole. Qui est J. Savonarole ? Un prédicateur dominicain qui dit recevoir ses ordres directement de Dieu, un bretteur terrible et enflammé qui entend abolir la débauche et redonner à Florence son lustre d’antan. La république théocratique qu’il institue s’effondre quatre ans plus tard, son architecte avec elle : J. Savonarole est pendu puis brûlé place de la Seigneurie le 23 mai 1498 pour hérésie. Machiavel assiste à l’exécution, et entre en scène quelques jours plus tard.

Il a alors 29 ans et prend la tête de la deuxième chancellerie de Florence. Le poste est prestigieux, et les réseaux humanistes fréquentés par son père, issu de la petite noblesse, sont sûrement pour beaucoup dans cette nomination. Sa tâche consiste à superviser les correspondances entre la cité et les provinces qu’elle contrôle. C’est un observatoire idéal du jeu politique, à un moment où les Italiens se posent des questions cruciales pour leur avenir : comment sortir de la crise ? Comment restaurer une stabilité politique ? Comment moderniser les institutions ? Quel sort attend les petits États italiens face à l’émergence de grandes puissances européennes ?

Rapidement, les prérogatives du jeune secrétaire sont élargies, et il effectue sa première mission diplomatique en Romagne un an seulement après être entré au Palazzo Vecchio. En 1500, Florence est alors embourbée dans une guerre contre la cité voisine de Pise. Lors d’une énième tentative de reconquête, les mercenaires franco-suisses embauchés par les Florentins ont déserté. Machiavel a alors pour mission de convaincre les Français que cette défaite découle non de l’impéritie du commandement florentin mais de la déloyauté du camp français. Son séjour à la cour de Louis XII instille dans la tête du jeune diplomate une idée féconde qu’il exposera dans plusieurs ouvrages  (2) : mieux vaut se doter de sa propre milice que de confier son sort aux « armes d’autrui » et aux mercenaires. Autrement dit, tout gouvernant doit avoir son armée, composée par des citoyens et animée par un élan patriotique. La guerre n’est pas seulement l’affaire des grands, mais aussi celle du peuple. Il ira même jusqu’à encourager l’immigration dans le Discours sur la première décade de Tite-Live pour permettre à la cité de se doter d’une armée fidèle à la patrie.

César Borgia et la « bonne » cruauté

Le sens politique et la discrétion du jeune diplomate forcent le respect. Son ascension durant cette première décennie du 16e siècle mérite d’être mis en parallèle avec celle, beaucoup plus fulgurante, d’un autre personnage emblématique de la Renaissance italienne, César Borgia. Fait duc de Romagne par son père le pape Alexandre VI, il se lance rapidement dans une série de campagnes militaires, et réclame en 1501 une alliance avec Florence. Machiavel est alors mandaté par le Palazzo Vecchio pour engager des pourparlers officieux avec ce nouveau souverain qui s’agite aux frontières de la République.

Impressionné par l’audace du duc auprès duquel il demeure pendant quatre mois et avec qui il s’entretiendra régulièrement, Machiavel rédigera de nombreux rapports diplomatiques qui seront repris quasiment à l’identique dans le chapitre VII du Prince. Le personnage de Borgia sera l’un des points d’appui empiriques essentiels dans les théories politiques que formulera le diplomate. En ce qui concerne le « bon » et le « mauvais » usage de la cruauté, notamment. Il relate par exemple l’épisode où le duc de Romagne, soucieux de résoudre les troubles qui secouaient ses provinces nouvellement acquises, charge l’un de ses barons, Rimiro de Orco, d’y rétablir l’ordre. La besogne est accomplie de la manière la plus cruelle et expéditive qui soit selon Machiavel, mais le résultat est là : le territoire est pacifié. L’efficacité du baron aurait pu être récompensée, mais César Borgia décide du contraire. Pour se désolidariser de son lieutenant zélé et se prémunir de la haine du peuple et des petits seigneurs qu’il lui a ordonné de violenter, il le fait traduire devant un tribunal public. Rimiro de Orco est condamné à mort et, en guise de caution cathartique, son corps « en deux morceaux » est exposé publiquement à la foule.

Une manœuvre calculée que l’on pourrait sûrement juger odieuse, mais qui préfigure en un sens les gouvernements-fusibles d’aujourd’hui, nommés pour remplir des missions impopulaires et, une fois leur tâche accomplie, sont évincés en guise d’apaisement. Face à une telle hardiesse dans ses prises de décision, Machiavel ne cache en tout cas pas son admiration pour Borgia. Il en fait même un exemple à suivre : « Qui donc juge nécessaire (…) de s’assurer de ses ennemis, s’attacher des amis, vaincre par force ou par ruse, se faire aimer et craindre du peuple, suivre et respecter des soldats, ruiner ceux qui nous peuvent ou doivent nuire, (…) celui-là ne peut choisir plus frais exemples que les faits du duc  (3). »

Comme l’intrigant Borgia qui ne profita guère longtemps de son titre (le pape Jules II le fit arrêter en 1504 et démantela ses domaines et conquêtes), la glorieuse carrière de diplomate qui s’offrait à Machiavel s’achève de manière abrupte. Après avoir été l’émissaire privilégié de Florence auprès de Borgia, il parvient à convaincre le conseil exécutif de sa ville natale de créer sa propre milice en 1506, et continue d’être régulièrement sollicité pour des missions diplomatiques auprès de l’empereur du Saint-Empire romain germanique Maximilien, Ferdinand d’Espagne ou encore le pape Jules II, hommes d’État dont les choix, succès et égarements ne manqueront pas d’alimenter ses conceptions politiques. En 1512, les deux derniers souverains cités concluent une alliance et parviennent à renverser le gouvernement florentin pour y replacer… la famille Médicis. Machiavel, révoqué de son poste, accusé à tort d’avoir fomenté un complot contre le nouveau gouvernement, est emprisonné, torturé, puis assigné à résidence.

 

Fortuna et virtù

S’ouvre alors la période (1512-1527) où il va, jusqu’à sa mort, rédiger tous ses grands textes. Il s’attaque à un opuscule, De principatibus, achevé en 1513 qui deviendra Le Prince. « Reçoive donc Votre Magnificence ce petit don de tel cœur que je lui envoie ; (…) et si (elle) du comble de sa hautesse, tourne quelquefois les yeux vers ces humbles lieux, elle connaîtra combien indignement je supporte une grande et continuelle malignité de fortune », préface-t-il à l’attention de Laurent II de Médicis, sur lequel il compte pour revenir aux affaires. La démarche initiale a beau être intéressée, elle n’en atténue pas la révolution contenue dans ce traité.

Machiavel évoque dans sa dédicace son manque de fortune (du latin fortuna, chance), l’un de ses concepts clés. Selon lui, la grandeur et la ruine des souverains sont en grande partie liées à des aléas providentiels avec lesquels il faut savoir composer. Il associe par exemple les succès de Jules II, personnage qu’il qualifie pourtant d’« impétueux », à sa faculté de s’attirer les faveurs de la fortuna  (4). La fortune, écrit-il, « nous élève et nous ruine sans pitié, sans lois ni raison ». À l’instar des marchands florentins qui devraient anticiper la « fortune de mer », c’est-à-dire les risques encourus, un gouvernant doit savoir qu’il existe en toute chose de l’imprévisible, bon ou mauvais… Pour lui, la fortuna est « maîtresse de la moitié de nos œuvres », et sourit en priorité aux personnes vertueuses (virtuoso), qui savent la dompter et la retourner pour la mettre à leur service.

S’adapter aux situations imprévues

La virtù est l’autre idée fondamentale du système machiavélien. Cette fois, l’ancien diplomate s’affranchit totalement de ses prédécesseurs, notamment de la liste exhaustive des qualités du souverain modèle, dressée par les moralistes classiques (Platon, Cicéron, Sénèque) et reprise par ses contemporains (Francesco Patrizi). Il se sert à rien, selon Machiavel, de tenter à la fois d’être « pitoyable, fidèle, humain, intègre, religieux » – autant de traits de caractère qui composent la virtù classique. Et ce pour deux raisons. D’une part, parce que c’est impossible : l’homme a un penchant naturel pour le vice, et ne peut atteindre le degré de perfection enjoint. D’autre part, toutes ces qualités irréprochables sur le plan moral peuvent aussi mener un chef d’État à la ruine : « Il faut qu’il ait l’entendement prêt à tourner selon les vents de la fortune », soutient Machiavel, qui l’invite à « ne pas s’éloigner du bien, s’il peut, mais savoir entrer dans le mal  (5) ». La virtù est donc une capacité à s’adapter aux situations imprévues et à les surmonter, symbolisée au chapitre XVIII par une métaphore devenue célèbre : le prince doit se faire lion pour la force, et renard pour la ruse. Machiavel proclame ainsi la primauté de l’efficacité politique sur l’éthique. Pis, il encourage le souverain à duper ses sujets en leur faisant croire qu’il possède toutes les qualités.

Le Prince serait-il donc un « manuel pour gangsters », comme l’a désigné le moraliste britannique et prix Nobel de littérature Bertrand Russell (1872-1970) ? On peut en douter. Les exhortations à trahir, tromper et assassiner apparaissent sous la plume de Machiavel plutôt comme un mal nécessaire dont le peuple serait en fin de compte le bénéficiaire que comme une invitation à la domination tyrannique. N’affirme-t-il pas que la cruauté ne doit s’exercer que « par nécessité et par sûreté » et à condition de « se converti(r) en profit des sujets » ? Dans Le Prince, il s’interroge certes sur les réponses à donner à certaines situations, mais sa réflexion porte davantage sur la nature du pouvoir. Lui, qui connaîtra quatre renversements de régime, pense que l’instabilité est le lot commun de toute politique et que le gouvernant doit chercher autant que possible à limiter cette instabilité. Mais comment y parvenir ?

Le Discours sur la première décade de Tite-Live, son autre ouvrage majeur, prend cette question à bras-le-corps. Mais cette fois, Machiavel s’intéresse à un tout autre type de régime : la république. « L’expérience prouve que jamais les peuples n’ont accru et leur richesse et leur puissance sauf sous un gouvernement libre  (6) », écrit-il, bien loin de sa renommée de cajoleur de tyrans. Se fondant sur l’Histoire romaine de Tite-Live, il tente d’identifier les raisons de la grandeur de la ville de Rome, qui est parvenue à allier pendant plusieurs siècles grandeur, richesse, puissance militaire et liberté populaire.

Le primat des intérêts personnels

L’une de ses idées phare avait été brièvement évoquée dans son précédent opuscule. Selon lui, le peuple est affecté par deux « humeurs » : les grands veulent nécessairement oppresser le peuple, et le peuple ne veut pas être oppressé. Les deux, de par leur condition d’homme, ont un point commun : ils cherchent à faire primer les intérêts personnels sur le bien commun. Dès lors, il n’est pas souhaitable que l’une ou l’autre des deux factions prenne unilatéralement le pouvoir, au risque d’en voir une légiférer contre les intérêts de l’autre, dérive ouvrant la voie à la division et aux coups d’État. Cette observation, comme le fait remarquer Quentin Skinner, place le Florentin devant un dilemme : pour qu’une cité atteigne la grandeur, il est essentiel que le corps social tout entier soit détenteur de la virtù. Mais comment y parviendrait-il s’il en est dénué au départ ?

La réponse se situe selon Machiavel dans ce rapport conflictuel, seul à même d’accoucher de lois équilibrées, et donc de parvenir à la vie libre des citoyens. Dès l’origine, si des lois constitutionnelles fortes, inspirées par un chef d’État créateur – Machiavel prend l’exemple du fondateur de Rome, Romulus –, parviennent à retourner cette opposition naturelle entre grands et peuple de manière à leur faire acquérir cette volonté d’œuvrer au bien collectif de la cité, alors sa prospérité est garantie. Tout du moins pour un temps. Car la difficulté est alors de régénérer régulièrement cette virtù civique originelle, qui a une fâcheuse tendance à s’étioler. Dans l’idéal, Machiavel suggère que l’État républicain se dote régulièrement d’un chef qui « rend(rait) à ses lois leur première virtù, et qui l’empêch(erait) de courir à la décadence  (7) ». Sinon, il faut que les citoyens redoutent suffisamment de défier leurs lois pour en prévenir la désuétude.

De l’utilité de Dieu

La religion peut alors être d’un grand secours, et la crainte de Dieu, agir comme ciment social. L’association entre non-respect des lois et blasphème, comme au temps de la Rome antique ou de J. Savonarole à Florence, permet de garantir une certaine discipline des citoyens. Cette conception purement utilitariste de la religion constituera, on s’en doute, une raison de plus donnée à ses contemporains pour haïr Machiavel.

Par chance, ces derniers n’auront pas le plaisir de le maudire de son vivant. Hormis L’Art de la guerre (1521), tous ses écrits politiques seront publiés de manière posthume. Au cours de ses dernières années, Machiavel parvient finalement à gagner les faveurs des Médicis, qui lui confient la rédaction des Histoires florentines. S’il ne boude pas son retour en grâce, la tâche est plutôt délicate : les Médicis sont pour Machiavel responsables de nombreux désastres qui ont terni la grandeur de sa ville natale. Coup du sort, la puissante famille est de nouveau renversée en 1527, et une république est instaurée. Le diplomate reconverti en historien est, une fois de plus, mis de côté. Sa collaboration avec les Médicis l’a sans aucun doute discrédité aux yeux de la république qui se constitue, quand bien même ce nouveau régime bénéficierait de toute sa bienveillance.

Machiavel meurt un mois plus tard. Sur sa tombe de la basilique Santa Croce est toujours inscrite l’épitaphe : « Aucun éloge n’atteindra jamais à la grandeur de ce nom. »

Clément Quintard  

NOTES

1. Friedrich NietzschePar-delà le bien et le mal, 1886, rééd. Hachette/BnF, 2013. 

2.Le Prince (chap. XII et XIII) et L’Art de la guerre, où il revient tout au long du livre I sur la constitution d’une armée de citoyens. 

3.Nicolas MachiavelLe Prince in Œuvres complètes, La Pléiade, 1982. 

4.Ibid, chap. XXV. 

5.Ibid., chap. XVIII. 

6.Nicolas MachiavelDiscours sur la première décade de Tite-Live in Œuvres complètes,op. cit. 

7.Ibid.

Aussi dans ce N° :

"Environnement et SN"  "Psycho-Social 2"
 

- Pervers narcissiques : de purs manipulateurs ?

- Les neurones de la pensée libre

 

- L'attribution causale
 
- L'erreur fondamentale d'attribution
 
- Et pourtant je comm'unique (spot de l'AFP) 
 
 
"Bibliographie"
 
Rumeurs : le plus vieux média du monde
 
 "Au delà du SN"
 
Laurent Alexandre au Sénat ("Intelligence Artificielle" et Société de demain)

 

FAUX SOUVENIRS

20 janvier 2017

Colette Degouy "fausses notes"

Je me souviens donc je me trompe

 

Hippocampal slice culture stained for neurons (blue), astrocytes (green) and proliferating cells (red) (20x)

http://tinyurl.com/h2zwzsk

 

Petite histoire des recherches sur les « faux souvenirs »

 

 

 

Francis Bacon, Extrait de De dignitate et augmentis scientiarum

Les erreurs dans les témoignages

La recherche sur les faux souvenirs est née, dès la fin du XIXe siècle, d’un doute portant sur l’exactitude et la fiabilité des témoignages. En 1893, James McKeen Cattell (1860-1944) mit au point à l’Université de Columbia une expérience informelle pour mesurer la fiabilité des souvenirs et publia dans Science le premier article américain sur la psychologie des témoignages. Cette expérience portant sur 56 étudiants l’amena à constater avec étonnement des différences importantes entre leurs témoignages1. Il conclut son étude en exprimant l’espoir que la mesure de la fiabilité des souvenirs puisse être utilisée dans le domaine judiciaire :  » Comme dernier exemple de l’utilité des mesures de la précision des observations et des souvenirs, je veux parler de leurs applications dans les cours de justice. L’exactitude probable d’un témoin pourrait être mesurée et son témoignage serait pondéré en fonction du résultat. Une correction numérique pourrait être introduite selon le temps écoulé, l’insuffisance moyenne (« average lack ») de véracité, l’effet moyen de l’intérêt personnel, etc. Le témoignage pourrait être recueilli de façon indépendante et communiqué à des experts qui pourraient affirmer, par exemple, que les chances que l’homicide ait été commis par l’accusé sont de 19 sur 1, et de 4 sur 1 qu’il ait été prémédité. »2

L’expérience de Cattell influença d’autres pionniers de la psychologie du témoignage comme le psychologue français Alfred Binet (1857-1911) et le psychologue allemand William Stern (1871-1938).

Dès 1916, on s’interrogea sur l’exactitude et la fiabilité du témoignage oculaire, dans les interrogatoires de police et dans les procès, bien avant l’examen des traces et des indices. Elizabeth Loftus, dans la riche littérature qu’elle a consacrée à l’étude de la mémoire et de ses illusions, raconte, entre autres faits, qu’en 1979, dans l’État du Delaware, un prêtre catholique avait été soupçonné de vols à main armée sur la base de témoignages oculaires. Sept témoins lui avaient donné le nom de « bandit gentleman », pour décrire le raffinement et l’élégance du voleur. Au cours du jugement, plusieurs personnes identifièrent le prêtre voleur. Mais, coup de théâtre, un autre individu reconnut avoir commis ces vols, et le jugement fut cassé.

C’est ainsi que quantité de gens sont accusés à tort sur la base de témoignages oculaires erronés. Le témoignage oculaire est propice à la création de faux souvenirs. De plus, il donne lieu à un récit dont le risque est d’être subjectif en raison de la difficulté à différencier ce qui relève des faits observés et des « connaissances préalables », c’est-à-dire acquises avant d’avoir assisté à un délit ou à un crime.

En 1992, aux États-Unis, une jeune femme adulte, Holly Ramona, consulte une thérapeute pour venir à bout des troubles nutritionnels dont elle souffre depuis l’adolescence. La thérapie est accompagnée d’injections de penthotal, familièrement appelé « sérum de vérité » et censé garantir la véracité des souvenirs. Au bout de quelques mois, Holly retrouve le souvenir ignoré jusque-là d’actes d’inceste commis dans son enfance par son père. Elle accuse celui-ci, lui fait un procès. La famille Ramona est détruite, les parents divorcent. Puis, grâce au témoignage au procès d’Elizabeth Loftus, spécialisée dans les recherches sur les faux souvenirs induits par certaines thérapies, le père de Ramona est disculpé. Le « cas Ramona » est devenu paradigmatique, mais d’autres semblables à lui vont surgir dans l’actualité brûlante des années 1990 et conduire des équipes de chercheurs états-uniens, Elizabeth Loftus en tête, à étudier le « syndrome des faux souvenirs »3.

Les étapes successives de la recherche sur le témoignage et les faux souvenirs

1916 – Estimation de la vitesse de véhicules

L’une des premières études de psychologie sur ce sujet a été publiée en 1916 par F.E. Richardson. Les participants de l’expérience devaient juger la vitesse d’une Cadillac à huit cylindres et de deux modèles Ford, passant devant leurs yeux.

Les conclusions de l’expérience montrèrent que les participants développaient des stéréotypes sur les conducteurs de différents types de véhicule, qui influençaient leur estimation. Par exemple, dans l’une des études, ils décrivaient le conducteur d’une grosse cylindrée comme étant plutôt un homme, peu soucieux des limitations de vitesse, menant une vie plus stressante, s’habillant mieux, plus impatient, bénéficiant d’un salaire et d’une situation professionnelle plus élevés, et ayant eu un plus grand nombre de contraventions que le conducteur d’une petite cylindrée. Toutefois, on constate que ces stéréotypes influencent plus fortement les participants lorsqu’on leur demande une estimation un jour après le visionnage des vidéos, ou sans les avoir vues.

L’expérience conduisit à la conclusion que l’estimation de la vitesse des véhicules est beaucoup plus influencée par les stéréotypes, quand l’accès aux informations n’est pas immédiat ou direct.4

1974-1975 – L’effet des questions dirigées sur la mémoire des témoins

L’objet de cette étude, menée par Loftus et Palmer, était de voir si la formulation des questions avait un impact sur l’estimation de la vitesse de véhicules. Cette expérience a apporté la conclusion que les témoins oculaires jugent la vitesse d’un véhicule plus élevée, si le verbe utilisé dans la question suggère une collision violente entre les automobiles (« elles se sont télescopées », « il a fallu désincarcérer le conducteur et les passagers »...) Dans ce cas, les témoins « se souviennent » avoir vu du verre cassé, du sang sur les lieux de l’accident, si on leur pose la question. L’objectif de cette expérience est de déterminer de quelle manière la mémoire est influencée par l’incitation entourant la mise en mémoire et le rappel. Les études ont établi que les souvenirs n’étaient pas nécessairement des souvenirs fidèles d’évènements présentés, mais étaient en fait construits en utilisant des expériences passées et d’autres influences.5 Une série d’expériences publiées récemment (2009) par le psychologue Graham Davies, de l’Université de Leicester au Royaume-Uni, montre que l’estimation de la vitesse de deux véhicules est à peu près exacte quand les participants la jugent au moment où ils visionnent des vidéos de ces deux automobiles roulant à différentes allures. Elle l’est moins quand ils doivent évaluer les vitesses rétrospectivement, un jour après le visionnage.6

1978 – Paradigme des informations trompeuses

Loftus, Miller et Burns ont mis au point une méthodologie pour étudier l’influence de suggestions trompeuses sur la mémoire des témoins. Ceux-ci assistent tout d’abord à un évènement. Certains d’entre eux sont ensuite soumis à leur insu à des informations erronées le concernant. Ces témoins sont ensuite plus enclins à considérer comme vrais ce qu’on leur a suggéré, plutôt que ce qui s’est passé.

Depuis ces travaux pionniers d’Elizabeth Loftus, de nombreuses études ont confirmé que des témoins peuvent incorporer dans leurs souvenirs des informations trompeuses présentées après l’événement auquel ils ont assisté. Il s’agit de l’« effet de fausse information ».7 En 2006, Itskushima, Nishi, Maruyama et Takahashi ont montré que des témoins, exposés à une conversation entre deux personnes ayant assisté au même évènement qu’eux, intègrent dans leur mémoire des informations fausses qui ont fait partie de cet échange. L’effet des fausses informations est plus important lorsque cette conversation est présentée aux témoins de façon écrite plutôt qu’audiovisuelle. Dans le premier cas, les témoins intègrent des informations trompeuses portant sur la couleur et la taille d’objets et, dans le second cas, uniquement la fausse information portant sur la couleur. En revanche, les sujets de ces deux expériences sont peu sensibles à la suggestion portant sur le mouvement du personnage de l’événement original.

Ces deux expériences confirment l’influence d’une conversation trompeuse sur la mémoire d’un témoin. Elles indiquent également que les fausses informations sous forme écrite sont mieux retenues que leurs équivalents audiovisuels. Par conséquent, l’interférence rétroactive sur le souvenir de l’événement original est dans ce cas plus importante.

En 1979, Elizabeth Loftus publie un livre : Eyewitness Testimony, montrant que le jugement oculaire a un fort impact sur les juges et les jurés.

1981 – Théorie du contrôle de la réalité de la source des souvenirs

Cette théorie a été élaborée par Johnson et Raye. Elle stipule qu’il existe des différences qualitatives entre les souvenirs réels et les faux souvenirs obtenus expérimentalement par l’« effet de fausse information ». Les souvenirs réels contiennent de nombreuses informations sensorielles, spatiales et temporelles. Les faux souvenirs font plus souvent référence à des opérations cognitives (pensées, raisonnements...). Cependant, dans certaines circonstances, la distinction devient plus difficile. Un souvenir peut alors être attribué par erreur à la réalité, alors qu’il provient en fait d’une autre source.8

1985 – Schéma cognitif et faux souvenirs

D. Schacter, E. Loftus et d’autres montrent l’influence des schémas cognitifs sur la remémoration. Les « schémas cognitifs » ou « postulats silencieux » sont des connaissances élaborées à partir de l’expérience quotidienne par un apprentissage involontaire. Ils s’expriment sous la forme de pensées automatiques, de monologues intérieurs, d’auto-verbalisations ou d’images mentales. Ils constituent des croyances de base, telles que « les gens sont égoïstes », « je ne serai jamais bon en maths, « les femmes ont plus d’accidents que les hommes », « les hommes sont plus intelligents que les femmes », etc. Durant les années 80, des recherches montrent que les faux souvenirs peuvent être générés à partir de la représentation schématique et réductrice d’un évènement remémoré.

1991 – Théorie des traces floues (Fuzzy-trace theory)

Selon cette théorie, développée par Charles Brainerd et Valérie Reyna, les souvenirs sont stockés en parallèle sous deux formes : les traces représentant les détails des évènements (« verbatim traces ») et celles représentant leur sens général (« gist traces »). Une forme relativement générale de récupération des expériences en mémoire serait liée au sens attribué à l’évènement (« gist traces »). Les faux souvenirs reposeraient sur ces traces mnésiques générales non différenciées qui résultent de l’attribution de sens et d’organisation en mémoire de l’information. L’utilisation préférentielle de ces dernières serait responsable de la formation de faux souvenirs. Par la suite, cette théorie a permis de comprendre que si les jeunes enfants commettent moins d’erreurs dans la tâche DRM (cf. plus loin), c’est parce qu’ils sont moins sensibles au sens général des listes de mots proposées, comparativement à leurs camarades plus âgés et aux adultes.9

1994 – Le mythe des souvenirs retrouvés

Elizabeth Loftus publie avec Katherine Ketcham The Myth of Repressed Memory10, dans lequel elle rapporte la controverse sur les souvenirs retrouvés d’agressions sexuelles infantiles et développe le sens de ses recherches et leurs conclusions. La traduction française de l’ouvrage sera publiée en 1997 sous le titre Le syndrome des faux souvenirs et le mythe des souvenirs refoulés.11

Ce livre est fondamental pour aborder la question des faux souvenirs induits par les thérapies de la mémoire retrouvée et évaluer leur impact sociologique.

1995 – Paradigme DRM

Roediger et McDermott redécouvrent et étendent les travaux de Deese (1959). « Dans l’expérience de Roediger et McDermott de 1995, les sujets devaient étudier une liste de 15 mots : bed, rest, awake, tired, dream, snooze, blanket, wake, doze, slumber, nap, peace, yawn, drowsy, snore. Vous remarquerez que tous ces mots sont associés au mot critique sleep (sommeil) mais qui n’est pas présent dans la liste.

Les résultats montrent que les sujets rappellent 65 % des mots étudiés (i.e., ceux présents dans la liste) mais que le rappel du mot critique (absent de la liste étudiée) atteint 40 %. Les résultats pour la reconnaissance ont une orientation similaire : la confiance dans la reconnaissance du leurre critique (sommeil) est supérieure (3.3) à la confiance dans la reconnaissance de leurres non associés (1.2), alors que la confiance dans la reconnaissance des mots étudiés est de 3.6. Le paradigme DRM engendre donc de faux rappels et de fausses reconnaissances de mots en raison de leur association avec des mots étudiés. »12

1995 – Paradigme « Perdu dans un centre commercial »

Loftus et Pickrel montrent l’efficacité de la suggestion pour « implanter » des faux souvenirs d’enfance.

L’expérience paradigmatique, « Perdu dans un centre commercial », consistait à présenter à des sujets un résumé de quatre histoires d’enfance, reconstituées avec l’aide de leur famille. Trois histoires sont vraies, et la quatrième est inventée de toutes pièces, donc fausse. On leur raconte qu’ils se sont perdus dans un centre commercial alors qu’ils faisaient des courses avec leur mère, qu’ils ont été recueillis par une vieille dame, qu’ils ont été ramenés à leurs parents et que tout s’est bien terminé. Puis au cours de plusieurs entretiens, on leur demande de se rappeler le plus de détails possible concernant cet évènement. 25 % des sujets reconstruisent un souvenir fictif de cet incident, y croient fermement et ajoutent à leur récit une foule de détails sensoriels et émotionnels (je me souviens que la dame qui m’a recueilli avait les cheveux blancs coiffés en chignon, elle portait des lunettes, elle avait une robe noire, j’étais affolé et elle m’a consolé, etc.).

On a objecté à Loftus que de tels évènements pouvaient s’être malgré tout produits et que ces souvenirs pouvaient être vrais. Loftus a refait cette expérience en implantant des souvenirs impossibles, tels que Bugs Bunny rencontré à Disneyland, alors qu’il est un personnage de la Warner Bros, Plus de 60 % des personnes adultes testées, qui sont allées à Disneyland, se rappellent y ainsi avoir serré la main de Bugs Bunny, 50 %, l’avoir serré dans leurs bras, 69 % lui avoir touché l’oreille, et un seul l’avoir vu tenir une carotte. Les expériences ont porté aussi sur des souvenirs improbables, tels qu’avoir été léché avec dégoût par Pluto. Après avoir nié l’évènement au départ, 30 % affirment en avoir le souvenir et refusent d’acheter les gadgets à l’effigie de Pluto !13

1996 – Inflation par imagination

Maryanne Gary et ses collaborateurs découvrent que les personnes sont plus certaines qu’un évènement d’enfance a existé après l’avoir imaginé. Par exemple si on leur demande : « Lorsque vous étiez enfant, avez-vous brisé une vitre ? Imaginez la scène avant de répondre ! », les sujets retrouvent plus fréquemment un tel « souvenir » que lorsqu’on leur pose la question directe : « Avez-vous cassé une vitre dans votre enfance ? »14

1998 – Interprétation des rêves et faux souvenirs

Guliana Mazzoni et ses collaborateurs montrent que l’interprétation d’un rêve peut modifier les croyances à la véracité d’un souvenir d’enfance en réalité fictif.15 Le rêve a été défini par Freud comme la « voie royale qui mène à l’inconscient » et son interprétation comme devant permettre de dénicher des souvenirs d’expériences infantiles traumatisantes. Certains cliniciens voient dans les rêves la réplique fidèle des traumatismes de l’enfance. Les rêves associent des symboles dont les connotations seraient invariablement sexuelles, selon la théorie freudienne. Par exemple, une cavité (grotte, caverne, vase, etc.) symbolise un vagin ; une aspérité ou forme pointue (couteau, pistolet, serpent, etc.) un pénis. C’est dans cette optique freudienne que toute scène vécue comme désagréable, pénible, etc. sera interprétée comme une scène d’abus sexuel.

Pour chacun, le rêve est un événement confidentiel, secret, et il est facile de le prendre pour un langage crypté de l’inconscient. Son décodage par le biais de la suggestion le rend perméable à l’interprétation donnée par un expérimentateur ou un thérapeute.16

2002 – L’effet de révélation

Daniel Bernstein et ses collaborateurs de l’Université de Washington rapportent que les sujets de leur expérience affirment avoir plus de certitude d’avoir vécu différents évènements dans leur enfance, si la description de ces derniers contient un mot qui nécessite d’être déchiffré ; (par exemple : « avoir brisé une « tvrei » avec un ballon » (au lieu de « vitre »). Ce phénomène, l’« effet de révélation », déjà connu avec des stimuli verbaux, est alors observé pour la première fois dans une tâche de mémoire autobiographique. Dans un test de reconnaissance, l’« effet de révélation » est « la tendance à juger comme anciens des items qui sont dégradés, distordus, révélés par étapes et qui doivent être découverts. »17

2004 – Photographies d’enfance et faux souvenirs

Lindsay et Loftus montrent que la présentation d’une véritable photographie de classe facilite la formation de faux souvenirs d’enfance. Selon l’orientation des questions, la lecture actuelle de la photo ancienne peut devenir fantaisiste.

Des recherches récentes montrent que la présentation d’images truquées peut modifier notre vision du passé, (voir, par exemple, Nash, Wade et Lindsay, 2009). En effet, les images truquées créent une illusion de familiarité avec les faits et constituent des sources d’information perçues comme crédibles. C’est ainsi que les souvenirs peuvent être encore plus facilement déformés à l’aide d’images. Notamment dans l’expérience de Wade et Gary, on insère une photo du sujet enfant avec un membre de sa famille dans celle d’une montgolfière en vol. Par la suite, la moitié des sujets sont persuadés d’avoir fait ce vol en ballon et racontent ce « souvenir » avec quantité de détails sensoriels.

2007 – Souvenirs d’agressions sexuelles infantiles spontanés ou retrouvés en thérapie

Elke Geraerts et ses collaborateurs montrent18 que les souvenirs d’agressions sexuelles retrouvés spontanément après une période d’oubli sont corroborés par des preuves externes tout aussi fréquemment que les souvenirs continus (sans période d’oubli) de tels sévices. En revanche, ceux retrouvés au cours d’une thérapie suggestive ne le sont jamais.19

2009 – Faux souvenirs, vraies impressions : la matière blanche nous joue des tours

L’ADIT (Agence pour la diffusion de l’information technologique) publie dans son Bulletin Électronique du 1er Septembre 2009 un travail de recherche intitulé : « Faux souvenirs, vraies impressions : la matière blanche nous joue des tours »20, dont voici un extrait : « Une étude, issue de la collaboration de l’Instituto de Investigación Biomédica de Bellvitge (IDIBELL) et de l’Universidad de Barcelona, lève enfin le voile sur les zones cérébrales impliquées.... Ils ont ainsi découvert que les vrais souvenirs sont « localisés » dans la substance blanche reliant l’hippocampe et le para-hippocampe, alors que les faux souvenirs sont « situés » dans la substance blanche reliant les structures frontales pariétales. » Cette découverte, publiée dans The Journal of Neuroscience, si elle se confirme, donnera sans doute lieu à des applications intéressantes dans le système judiciaire et dans le cas des « souvenirs retrouvés » dans les thérapies de la mémoire retrouvée.21

2008 – 2009 – Suggestion et modification du comportement

Plusieurs recherches publiées en 2008 mettent en évidence que les suggestions modifient les croyances et les attitudes, mais aussi les comportements réels des personnes (par exemple, Scoboria, Mazzoni et Jarry 2008)

2009 – Comprendre l’expérience vécue des souvenirs retrouvés22

Richard McNally et Elke Geraerts publient l’étude : « Comprendre l’expérience vécue des souvenirs retrouvés. Une solution nouvelle au débat de la mémoire retrouvée ». Les auteurs tirent les conclusions des multiples expériences et interviews réalisées par les équipes de recherche de l’Université Harvard, de 2005 à 2009, et donnent la liste des dix facteurs qui, chacun, suggèrent une plus forte probabilité qu’un souvenir soit authentique :

1- La victime a expérimenté les mauvais traitements comme une source de confusion lui inspirant du dégoût ou de la frayeur, mais pas comme un traumatisme terrifiant.

2- L’abus a eu lieu seulement une fois ou, au plus, quelques fois.

3- La victime n’a pas compris ces expériences comme sexuelles ou d’abus.

4- La victime a évité, avec succès, de repenser à cette expérience.

5- L’absence de rappels a favorisé l’oubli.

6 – La victime a oublié les souvenirs qu’elle avait eus antérieurement de l’abus, ce qui lui donne l’illusion d’un oubli permanent.

7- Le souvenir retrouvé soudainement à l’âge adulte s’accompagne du choc d’avoir oublié cette expérience.

8- Le souvenir se produit spontanément en réponse à un rappel en dehors d’une psychothérapie suggestive.

9-Les souvenirs survenant spontanément en dehors de la psychothérapie sont plus susceptibles d’être corroborés que ne le sont ceux qui émergent progressivement au cours de certaines formes de psychothérapies suggestives.23

10- La recherche en laboratoire indique que ceux qui retrouvent progressivement leurs souvenirs au cours d’une psychothérapie montrent une propension accrue à de faux souvenirs lors du test DRM24 par rapport à ceux qui récupèrent spontanément leurs souvenirs en dehors d’une psychothérapie.

À l’inverse, ceux qui recouvrent spontanément leurs souvenirs en dehors d’une psychothérapie montrent un effet FIA25 accru en laboratoire par rapport à ceux qui récupèrent leur souvenir en psychothérapie.

Ces facteurs, qui permettent de distinguer les faux souvenirs et les souvenirs retrouvés véritables, ne sont toutefois pas infaillibles. Un souvenir retrouvé véritable d’abus sexuel dans l’enfance n’implique, selon les auteurs de l’étude, ni le refoulement, ni un traumatisme, ni même l’oubli total.

2009 – Implantation de faux souvenirs et modifications du comportement

Les dernières expériences menées par les équipes de chercheurs autour d’Elizabeth Loftus26montrent qu’en induisant un faux souvenir d’enfance, comme dans l’expérience « Perdu dans un centre commercial », on peut créer, par le rappel d’un faux événement, un comportement de rejet d’un aliment en suscitant le dégoût et/ou une attirance vers un autre.

Pour illustrer son propos (sans intention d’en faire une « preuve ») Elizabeth Loftus raconte avec un sourire comment elle a réussi à tromper Alan Alda, animateur de Scientific American Frontiers, en lui faisant croire qu’il n’aimait pas les œufs durs parce qu’il en avait trop mangé dans son enfance et en était tombé malade. Alda avait reçu une semaine avant son arrivée à l’UCI un résumé de son histoire personnelle dans lequel on avait intégré cette anecdote. Pendant le lunch avec les membres du laboratoire de Loftus, Alda a refusé de manger des œufs durs, scène qui a été filmée et diffusée devant des millions de téléspectateurs !

Loftus cite l’une des dernières expériences menée en 2008 avec Cara Laney et son équipe, « Asparagus, a love story » (« Les asperges, une histoire d’amour »), ou comment s’alimenter mieux grâce à un faux souvenir. Les enfants détestent souvent le goût de certains aliments, tels que les choux de Bruxelles ou les asperges. En persuadant les étudiants testés qu’ils adoraient les asperges dans leur enfance contrairement à ce qu’ils avaient prétendu au départ, l’expérience leur a donné non seulement le goût pour les asperges, mais encore l’envie d’en manger le plus souvent possible et même de les payer beaucoup plus cher à l’épicerie !

2010 -Tous les faux souvenirs ne se ressemblent pas

Comment différencier les faux souvenirs spontanés des faux souvenirs implantés est devenu l’un des sujets d’étude majeur pour les chercheurs en psychologie. Le paradigme DRM est l’outil le plus utilisé pour provoquer la formation de faux souvenirs (les illusions DRM).

A mesure que les enfants grandissent27, les illusions DRM deviennent plus fréquentes, alors que la sensibilité aux faux souvenirs suggérés décroit. Chez l’adulte28, on constate, que les personnes ayant formé de faux souvenirs autobiographiques naturellement, sont plus sensibles aux illusions DRM.29

Est-il légitime d’implanter des faux souvenirs pour résoudre certaines difficultés de la vie courante ?

Il est donc possible d’implanter des faux souvenirs expérimentalement ou dans les thérapies de la mémoire retrouvée. Une fois le souvenir implanté, la personne croit fermement à la véracité de ce faux souvenir. Dans le cas des expériences, il est nécessaire d’aider le sujet à prendre conscience que ce souvenir est faux et à l’abandonner. Dans le cas des thérapies de la mémoire retrouvée, cette prise de conscience très rare est le fruit du hasard, d’une lecture, d’une rencontre, d’un évènement imprévisible ou du temps…

Des expériences d’Elizabeth Loftus montrent qu’on peut implanter un faux souvenir d’une affection infantile qui conduit le sujet à rejeter la consommation de certains aliments. Ceci l’amène à se demander s’il serait légitime d’exploiter cette technique pour détourner des gens de la consommation d’aliments gras, d’alcool, ou de drogue.

Est-il plus contraire à l’éthique d’utiliser ces techniques pour aider, par exemple, des enfants à acquérir la maîtrise de leur alimentation, que de leur raconter l’histoire du Père Noël ?

Question délicate, car manipuler l’esprit pose toujours, quel que soit l’objectif, un problème de conscience, tant cette emprise mentale est efficace.

Brigitte Axelrad

 

1 Rappeler, par exemple, le temps qu’il faisait une semaine ou deux semaines auparavant, estimer le poids d’un objet, la distance entre deux bâtiments, le temps nécessaire pour effectuer un parcours dans l’université, dessiner de mémoire le plan du hall d’entrée du bâtiment où a lieu le cours…

2 Nous nous sommes beaucoup appuyés dans cet article sur le travail de Franck Arnould, qui met régulièrement à jour l’état des recherches sur les faux souvenirs sur le site du CNRS Inist.

3 Entretien avec Elizabeth Loftus : Les faux souvenirs : « le travail de ma vie ».

4 Richardson, F.E. (1916). « Estimations of speeds of automobiles », Psychological Bulletin, 13(2), 72-73.

5 Loftus & Palmer, (1974), article sur la suggestibilité de la mémoire dans Journal of Verbal Learning and Verbal Behavior

6 Davies, G.M. (2009), « Estimating the speed of vehicles : the influence of stereotypes » Psychology, Crime & Law, 15(4), 293-312.

7 Loftus 1979 ; Loftus, Miller, Burns, 1978, Loftus et Greene 1980

8 Johnson & Raye Kashtroudi & Lindsay 1993 ; Johnson & Raye 1981 ; 1998

9 Brainerd, Reyna & Ceci, 1991, 1996, 1998, 2008 Fuzzy-trace theory, Psychological Bulletin
http://psychotemoins.veille.inist.f....

10 E. Loftus, K. Ketcham, 1994, The Myth of repressed Memory, New York, St. Martin’s Griffin

11 E. Loftus, K. Ketcham, 1997, Le syndrome des faux souvenirs et le mythe des souvenirs refoulés, Editions Exergue

12 http://memovocab.perso.neuf.fr/glos....

13 Loftus, « Les illusions de la mémoire », 2009, conférence à Genève.
Le pouvoir de la suggestion.

14 Maryanne Garry, Charles G. Manning, Elizabeth F. Loftus (University of Washington), Steven J. Sherman (Indiana University), « Imagination Inflation : Imagining a Childhood Event Inflates Confidence that it Occurred », Psychonomic Bulletin & Review, 3(2), 208-214

15 Mazzoni et Loftus 1998 ; Mazzoni, Lombardo, Malvagia et Loftus 1999

16 Pour l’exposé de cette expérience, voir faculty.washington.edu

17 Watkins et Peynircioglu, 1990, « The revelation effect : when disguising test items induces recognition », Brian H. Bornstein and Craig B. Neely, « The revelation effect in frequency judgment », Memory & Cognition, 2001, 29 (2), 209-213http://mc.psychonomic-journals.org/... et http://psychotemoins.veille.inist.f....

18 Geraerts, Schooler, Merckelbach, Jelicic, Hauer et Ambadar, article paru dans Psychological Science, 2007

19 Voir plus loin « 2009 – Comprendre l’expérience vécue des souvenirs retrouvés »

20 http://www.psyfmfrance.fr/documents...
Article complet.

21 « Difference in True and False Memory Retrieval are related to white matter brain microstructure. » – The Journal of Neuroscience, 2009 Jul.8 ; 29(27) :8698-403.

22 McNally, R. J. & Geraerts, E. 2009, « A new solution to the recovered memory debate » Perspectives in Psychological Science, 4, 126-134

23 Extrait de l’article, p. 131  : « De façon étonnante, les souvenirs qui ont été récupérés spontanément, en dehors de la thérapie, ont été corroborés à un taux (37 %) statistiquement impossible à distinguer du taux de corroboration (45 %) pour les sujets qui n’avaient jamais oublié l’abus. » Aucun souvenir retrouvé grâce à la thérapie suggestive n’a pu être corroboré. Bien que ce taux (0 %) ne signifie pas nécessairement que les souvenirs revenus à la surface au cours du traitement soient faux, il recommande la prudence dans l’interprétation des souvenirs récupérés dans une thérapie suggestive.

24 Le test DRM (Deese-Roediger-McDermott paradigm) est utilisé notamment pour explorer la propension du sujet aux faux souvenirs. http://www.lurj.org/article.php/vol...

25 Forgot-it-all-along (FIA) : « L’effet FIA se réfère à un phénomène de la mémoire dans lequel les épisodes antérieurs de remémoration sont oubliés. » « FIA refers to a memory phenomenon wherein prior episodes of remembering are forgotten. »

26 Bernstein et Loftus, 2009, in Perspectives on Psychological Science

27 Otgaar, & Candel. (sous presse). Children’s false memories : Different false memory paradigms reveal different results, Psychology, Crime & Law. Les illusions DRM : Les sujets mémorisent tout d’abord des listes de mots. Les mots de chaque liste sont associés sémantiquement à un autre mot qui, lui, n’est pas présenté (le leurre). De nombreuses études montrent que les sujets rappellent et reconnaissent ensuite à tort le leurre comme étant un mot ayant été étudié.

28 Gallo, D. A. (2010). « False memories and fantastic beliefs : 15 years of the DRM illusion. », Memory & Cognition, 38(7), 833-848

29 http://psychotemoins.veille.inist.f....

La Science du témoignage

 

Alfred BINET 1904

http://pdf.lu/Z014

 

ÉTHOLOGIE VÉGÉTALE ...

20 décembre 2016

orchidée présentée à Tourrettes-Héritage ​(Thierry Ménard)

L'Intelligence des Plantes Révélée

Communication, odorat, mémoire... Qui l'eût cru ! Les plantes ont le sens de l'ouïe, elles savent se mouvoir et communiquer, elles ont l'esprit de famille et elles ont même de la mémoire ! En un mot : ce sont des êtres "intelligents". Telle est l'étonnante découverte de biologistes, dont les travaux révolutionnent totalement notre regard sur le monde végétal. Mieux, ils le réhabilitent dans l'ordre du vivant.

C'était il y a juste trente ans. Alors qu'il est en pleine conversation avec ses étudiants, le téléphone de lack Schultz, biologiste à l'université américaine de Dartmouth, sonne. Au bout du fil, Ian Baldwin, chimiste doctorant d'à peine 25 ans, que Schultz a recruté pour vérifier ce qui, à l'époque, semble une hypothèse folle : l'existence d'une télécommunication chimique entre végétaux. Le résultat grésille dans le combiné : les arbres testés se sont bel et bien transmis un signal d'alerte par voie aérienne. Baldwin, bouleversé, parvient seulement à articuler : "Les peupliers parlent". Schultz se fige. Ainsi commencent les révolutions scientifiques.
L'expérience, publiée dans Science en juillet 1983 sous leurs deux signatures, inaugure un complet bouleversement du regard de la science sur l'univers végétal. En trois décennies, les plantes vont passer du statut d'automates rudimentaires à celui d'organismes à la complexité comparable à celle des animaux ! Sensibilité hors normes, capacités de réaction et de communication multiples, liens sociaux variés... Le comportement des arbres et herbacées se révèle aujourd'hui si subtil qu'il serait aisément qualifié d'intelligent s'il était l'œuvre d'un de ces êtres que l'on dit animés. "Les physiologistes végétaux ont mis 20 ans à cesser de ricaner de la notion de communication végétale, se souvient Ian Baldwin, aujourd'hui directeur de laboratoire à l'Institut d'écologie chimique Max-Planck, en Allemagne. Car, au fond, cette révolution est venue de spécialistes du comportement animal, notamment David Rhoades, qui nous a inspiré notre expérience. Ils se sont mis à s'intéresser aux plantes et ont exporté leurs méthodes dans une discipline qui n'était pas la leur. Ainsi s'est peu à peu constituée une nouvelle branche de la physiologie végétale, inspirée de la zoologie et basée sur l'observation objective du comportement des plantes. Leur but : comprendre leurs réactions, en chercher les ressorts, questionner leur utilité écologique, leur origine évolutive et les raisons pour lesquelles elles ont été sélectionnées... Autrement dit, une véritable "éthologie végétale", une expression encore difficile à faire accepter.


"Dans les années 1990 encore, les plantes étaient fondamentalement vues comme des objets quasi inertes. Pour parler de ce qu'elles font, il fallait utiliser du jargon comme ‘plasticité adaptative’, résume James Cahill, jeune professeur à l'université canadienne d'Alberta. Enfin, depuis dix ans, on ose dire ‘comportement végétal’. Et des groupes comme le mien étudient les plantes en posant les mêmes questions que si elles étaient des animaux, cherchant non seulement le comment, mais le pourquoi". La greffe a profité des progrés technologiques : c'est grâce à eux que le changement dans les mentalités a pu devenir tangible. La chromatographie en phase gazeuse a permis l'analyse des concentrations ténues des composés émis par les plantes, qui jouent un rôle crucial pour la communication. Les avancées fulgurantes des biotechnologies permettent de fabriquer des plantes avec des gènes surexprimés, ou éteints, qui renseignent sur leur fonction. Des dispositifs de plus en plus ingénieux permettent d'épier les racines, dont le rôle est essentiel. Les films en accéléré, qui rendent perceptibles les mouvements des végétaux, se sont généralisés...


 Cette exploration des capacités sensorielles et comportementales des plantes a d'abord révélé l'extrême sensibilité végétale, "comparable, voire supérieure à celle des animaux", assène Ian Baldwin. A ce jour, plus de 700 sortes de capteurs sensoriels différents ont été recensés chez les plantes : mécaniques, chimiques, lumineux, thermiques... et ils sont en général plus sensibles que les nôtres. Concernant la lumière, les plantes détectent à la fois des longueurs d'ondes (dans l'ultraviolet et dans l'infrarouge) que nous ne voyons pas, et des intensités si faibles qu'elles nous sont imperceptibles. Et leur sens du toucher est sidérant : elles réagissent à des effleurements insensibles et détectent la moindre inclinatison des branches ou des racines. Quant à la chimie, c'est leur grande spécialité : dans un pré où le nez humain ne sent rien, elles captent en continu des centaines de signaux, comme autant d'indices de ce qui se passe autour.


Au-delà de la perception, l'éthologie végétale a surtout révélé que les plantes agissent, loin de l'image d'objet inerte qui leur colle à la peau, en modifiant sans cesse leur forme et leur composition chimique. "Leurs actions passent inaperçues parce que leurs mouvements sont trop lents pour nous, et que la chimie est invisible sans instruments", explique Stefano Mancuso, professeur à l'université de Florence. On mesure mieux aujourd'hui leur capacité de mouvement, le nombre de gènes impliqués, les multiples capteurs qui leur indiquent leur posture, les petits “moteurs” moléculaires qui les animent... Et on sait qu'une plante peut bouleverser son métabolisme et se saturer de composés toxiques sans que son apparence change : une bouffée de vent, une morsure d'insecte, un rayon de soleil... au moindre évènement, des milliers de gènes végétaux, restés à l'affût, s'allument, fournissant à la demande leurs précieux services.

UNE PANOPLIE DE COMPORTEMENTS

Certains de ces services concernent la communication. Grâce aux bouquets de composés qui s'envolent du feuillage ou des signaux chimiques émis par les racines, les plantes s'envoient des messages à elles-mêmes d'une branche à l'autre, “parlent” à leurs congénères alentour, convoquent les insectes prédateurs de leurs agresseurs. Et ce n'est pas tout. "Elles ont un comportement social, s'enthousiasme Stefano Mancuso. Elles distinguent le soi du non-soi, les membres de leur espèce des autres et rivalisent plus ou moins âprement avec leurs voisines selon leur degré de parenté. En ce sens, on peut même dire qu'elles forment des familles ou des tribus"... Des comportements aussi sophistiqués interrogent. Peut-on parler de “cognition végétale” ? Si l'intelligence se mesure à de telles capacités d'adaptation aux évènements, peut-on comparer leurs capacités intellectuelles à celles de certains animaux ? Et si les plantes sont si intelligentes, où se situe leur cerveau ? Par ailleurs, de telles découvertes ne nous invitent-elles pas à revoir nos classifications, nos pratiques agricoles, nos politiques de conservation des plantes menacées ?


En attendant les réponses, force est de constater que le butin des dernières années de recherche en éthologie végétale est fabuleux. Des expériences très variées, réalisées un peu partout dans le monde sur différentes espèces, révèlent tout une panoplie de comportements qu'il est difficile de ne pas qualifier d'intelligents. Pour en juger, les pages qui suivent vous invitent dans les coulisses enfin révélées de nos jardins, prairies et forêts. Nous nous y sommes trop longtemps promenés ignorants des prodiges qui s'y trament.

 

Stefano Mancuso: Les racines de l'intelligence végétale

Pour la suite cliquer sur l'onglet " AU DELÀ DU SN "

  - Les arbres savent se mouvoir et possèdent le sens de l'équilibre

  - Le tabac peut appeler au secours mais sait aussi se défendre seul

  - Le comcombre a le sens du toucher

  - Le tremble ou le mimosa sont doués de mémoire

  - La cuscute a le sens de l'odorat

  - Le maïs a le sens de l'ouïe

  - Les vieux pins font preuve de solidarité

  - La tomate a des moyens de communiquer

  - Esprit de famille chez la fraise, le trèfle, le lierre ...

  - Un Règne Végétal à Repenser

LÈVE-TOI ET MARCHE

20 novembre 2016

Lève-toi et marche : un grand espoir pour les paralysés paraplégiques

 

http://www.nature.com/news/brain-implants-allow-paralysed-monkeys-to-walk-1.20967

 

Quasi miraculeux : des macaques paralysés équipés d'une neuroprothèse ont été capables de se remettre à marcher après seulement quelques jours.

 
Deux macaques ont été équipés avec cette neuroprothèse.

Deux macaques ont été équipés avec cette neuroprothèse.  

 

2016 Photomicrography Competition

Brain cells from skin cells : Specifically, this is a culture of neurons (stained green) derived from human skin cells, and Schwann cells, a second type of brain cell (stained red), which have started to cover the neuron in the same way these cells interact in the brain. (20x)

Human HeLa cell undergoing cell division (cytokinesis). DNA (yellow), myosin II (blue) and actin filaments (red) (60x)


Mouse retinal ganglion cells (40x)

Human neural rosette primordial brain cells, differentiated from embryonic stem cells in the culture dish (used to study brain development and Huntington’s disease) (10x)

Retinal ganglion cells in the whole-mounted mouse retina (20x)

Dentate gyrus of a optically-cleared transgenic mouse brain in 3D (10x)

Hippocampal neurons (10x)

Hippocampal slice culture stained for neurons (blue), astrocytes (green) and proliferating cells (red) (20x)

Cerebellum brain section of a rat showing Bergmann glia (white) and nuclei (green) (20x)

Section of the cerebellum (in a brain) stained for Purkinje cells (red) and nuclei (blue) (40x)

DE LA TCC 3°VAGUE À L'ETHNOTHÉRAPIE

20 octobre 2016

Thérapie les 3 vagues comportementalistes

 
 
 

 

 https://www.youtube.com/embed/q1c2VBA0gHg 

 

  Parmi la pléthore de thérapies, le vent de la nouveauté souffle actuellement du côté des approches comportementales et cognitives, dont certaines s’inspirent désormais du bouddhisme. Mais attention, les requins aussi surfent sur cette nouvelle vague…

L’histoire des TCC (thérapies comportementales et cognitives) commence dans les années 1950, alors que l’efficacité de la psychanalyse en tant que psychothérapie commence à être contestée aux États-Unis, et que plusieurs psychiatres expérimentent des prises en charge alternatives. Les thérapies comportementales s’attaquent principalement aux phobies et troubles anxieux, vus comme des conditionnements qu’il s’agit de briser en redonnant le contrôle de la situation anxiogène au patient. Parmi les techniques privilégiées figurera la désensibilisation systématique (se confronter par petites étapes à la source d’une phobie, par exemple, en imagination ou dans la réalité) testée par Joseph Wolpe et Isaac Marks, tous deux originaires d’Afrique du Sud et professeurs de psychiatrie, le premier à l’université Temple de Philadelphie, le second à Londres.

Quant aux thérapies cognitives, dont la figure de proue est Aaron Beck, professeur de psychiatrie à l’université de Pennsylvanie, elles visent par exemple à repérer et modifier les croyances erronées et les pensées automatiques que nous ruminons tous (« Tu es nul, tu n’y arriveras pas, c’est toujours pareil… »), et qui sont censées générer ou aggraver une multitude de troubles, au premier rang desquels l’anxiété et la dépression. Thérapies comportementales et cognitives se sont développées parallèlement avant de s’avérer complémentaires dans les années 1980, d’où la notion approximative de deux « générations ».

 

Une improbable alchimie

Avec le nouveau siècle surgit une troisième vague, centrée sur les émotions. Certes, hormis les comportements et cognitions, les TCC traditionnelles s’attachaient aussi à l’analyse des composantes émotionnelles accompagnant nos difficultés quotidiennes, mais de manière plus périphérique. Les nouvelles thérapies franchissent donc un palier supplémentaire dans leur ambition de soigner l’être humain dans toutes ses dimensions. Comment avoir prise sur les émotions ? Par la pratique d’une méditation dite de pleine conscience (mindfulness), venue du bouddhisme, et qui permet de se focaliser sur l’instant présent jusqu’à devenir un spectateur détaché de ses propres souffrances. Certes, dans les années 1960, Albert Ellis, professeur aux universités de New York et Rutgers et précurseur des thérapies cognitives avec sa « thérapie rationnelle-émotive », prônait déjà une acceptation plus sereine des aléas de l’existence, le refus irrationnel de notre imperfection étant considéré comme la source de nos désordres émotionnels. Mais cette théorie s’inspirait du stoïcisme, pas du bouddhisme. Et si, à la même époque, des courants rattachés au développement personnel, comme la méditation transcendantale, s’intéressaient à des pratiques orientales, c’était sans aucun souci d’adoubement par la communauté scientifique.

Or les TCC, elles, ont toujours affiché une exigence de crédibilité scientifique. Leur rapprochement avec une pratique spirituelle comme la méditation ne manque donc pas de piquant, surtout quand on sait que les thérapies comportementales sont en partie inspirées des travaux on ne peut plus matérialistes du physiologiste Ivan Pavlov sur le conditionnement. Pour autant, les TCC n’ont pas viré casaque au point de prétendre entraîner les patients sur les cimes de la béatitude. Si les nouvelles thérapies paraissent a priori hétéroclites, leurs défenseurs ont recours aux statistiques ou à l’imagerie cérébrale pour attester de leur efficacité, et revendiquent leur inscription dans la médecine fondée sur les preuves (evidence-based medicine).

 

La pleine conscience en thérapie

Le premier à s’intéresser à l’impact de la méditation sur la santé mentale est Jon Kabat-Zinn, professeur émérite de médecine à l’université du Massachusetts et codirecteur du Mind and Life Institute, qui travaille à rapprocher bouddhisme et neurosciences. Il est le créateur, à la fin des années 1970, de la MBSR (mindfulness-based stress reduction, réduction du stress basée sur la pleine conscience) : il s’agit bien d’une technique de gestion du stress, de l’anxiété, de la perception subjective de la douleur, mais pas d’une psychothérapie en tant que telle. C’est en 2002 que Zindel Segal, professeur de psychiatrie à l’université de Toronto, propose de coupler cette forme de méditation aux thérapies cognitives pour traiter la dépression. Le cocktail a pour nom MBCT (mindfulness-based cognitive therapy, thérapie cognitive fondée sur la pleine conscience). Celle-ci se veut donc une thérapie, mais paradoxalement basée sur une pratique, la méditation de pleine conscience, qui n’en est pas une. John Teasdale et Mark Williams, respectivement professeurs de psychiatrie et de psychologie clinique à Oxford, s’inscrivent aussi dans cette démarche.

La thérapie ACT (acceptance and commitment therapy, thérapie d’acceptation et d’engagement) est proposée par Steven Hayes, professeur de psychologie à l’université du Nevada. Elle aussi inclut la méditation de pleine conscience, quoique dans une moindre mesure : en substance, elle se fonde sur la nécessité de définir ses valeurs personnelles, d’agir en conséquence, et de lâcher prise sur le reste. Elle paraît préférentiellement indiquée pour les troubles anxieux et dépressifs.

La TCD (thérapie comportementale dialectique, pour DBT, dialectical behavior therapy), est défendue par Marsha Linehan, professeure de psychologie à l’université de Washington. Elle exige un lourd travail d’équipe pour la prise en charge de troubles mentaux induisant une instabilité émotionnelle et comportementale importante, où l’on représente un danger pour soi-même, surtout les troubles de la personnalité borderline, mais aussi l’automutilation par exemple. Elle doit notamment aider le patient à reconnaître et surmonter ses contradictions pour se stabiliser. Imprégnée de bouddhisme, elle inclut un volet d’acquisition de la pleine conscience.

 

Est-ce que ça marche vraiment ?

Malgré une plus grande rigueur ces dernières années, deux tiers des protocoles d’évaluation de ces nouvelles thérapies souffrent de curieuses failles méthodologiques : absence de groupes témoins pour s’assurer que l’amélioration des sujets est bien due à la méditation uniquement ; patients en nombre trop restreint pour en tirer des conclusions statistiquement significatives ; flou artistique autour de la technique précisément employée par chaque praticien pour amener ses patients à ce qu’il considère comme la pleine conscience… Même les plus célèbres expériences effectuées voici une dizaine d’années pour montrer que la méditation modifiait le cerveau ou augmentait la production d’anticorps sont sujettes à caution, puisque les sujets observés étaient des moines bouddhistes, par conséquent des méditants assidus et de longue date. Les évaluations vraiment irréprochables attestent de succès thérapeutiques, il est vrai. Mais rien à voir avec une baguette magique : la MBCT, par exemple, a fait ses preuves contre la dépression… Cependant, elle ne s’attaque pas à la dépression elle-même, qu’il faut traiter par ailleurs. Elle augmente les chances de ne pas rechuter, surtout pour les personnes qui ont déjà connu deux épisodes sévères. La nuance est de taille ! Et si la TCD donne de bons résultats pour les patients borderline, elle repose sur une théorie complexe dont les hypothèses ne peuvent être testées. Dans l’attente d’évaluations plus strictes, la méditation n’apparaît certainement pas comme une panacée thérapeutique, mais s’inscrit plutôt dans une démarche de développement personnel. Elle n’opère aucun miracle, tout au plus contribue-t-elle à améliorer le bien-être de ceux qui la pratiquent. À l’heure actuelle, la prudence exige de s’en tenir là.

Quant à la pleine conscience en particulier, c’est l’arbre qui cache la forêt. Si MBSR, MBCT, ACT et TCD intéressent les spécialistes, c’est bien la mindfulness qui est perpétuellement mise en avant par des individus plus ou moins sérieux pour alpaguer le lecteur, remplir les ateliers de travail, renforcer l’arsenal des coaches. Vu la fréquence de son emploi à tort et à travers, ce mot magique fait vendre, comme s’il s’agissait d’un simple antidote pour nostalgiques du New Age ou cadres stressés. Au sens strict, entre les mains de praticiens bien intentionnés (et bien formés), la méditation de pleine conscience est un outil thérapeutique à utiliser parmi d’autres, principalement pour atténuer le stress, mais au sens large, c’est une aubaine pour les margoulins : mindfulness is business.

Jean-François Marmion

 

 

Ethnothérapie : Chamanes et guérisseurs, des mondes à découvrir

 

 
 

La transe chamanique, capacité du cerveau ? : 

https://www.youtube.com/embed/Ym0kIECFi0U 

 

 

Selon l’ethnopsychiatrie, c’est au praticien de s’adapter à la culture de son patient, aussi éloignée soit-elle de la nôtre. Au prix de l’abandon de toute certitude en matière de santé mentale.

J’ai été en poste à Conakry, en Guinée, de 2009 à 2011, en tant que conseiller de coopération et d’action culturelle. Le 28 septembre 2009, le pouvoir en place a réprimé une manifestation d’opposants politiques avec la plus extrême violence. Expédiant ses « bérets rouges » dans le stade où s’était réunie la manifestation, il a fait tirer dans la foule. Les soudards se sont aussi livrés à toutes sortes de brutalités. On ne connaît pas le chiffre exact des morts, mais on l’estime à plus de 200. Plus de 150 femmes ont été violées. Les blessés – plus de 2000 –, les femmes violées, les survivants qui ont assisté aux exactions, avaient besoin de toute une variété de soins, y compris psychologiques.

L’Organisation mondiale de la santé (OMS) estime qu’en Guinée la proportion de personnels de santé par habitant est de l’ordre de 1 médecin pour 10 000 habitants (Soudan : 3 ; France : 30 ; Italie : 34 ; Autriche : 48) et de 1 infirmier pour 6 343 habitants. Un seul hôpital national public (l’hôpital Donka) possède un service de psychiatrie (environ une centaine de lits). Il n’existe aucun lit de psychiatrie dans les hôpitaux généraux. Selon les années, on peut trouver entre 1 à 3 psychiatres pour tout le pays (tous à Conakry) – lors des événements que j’évoquais, il y en avait un seul. Il n’existe pas de psychologues en Guinée ; la discipline n’y est pas enseignée. À qui donc s’adressent les malades ? Nous le savons : ils se rendent chez les guérisseurs musulmans (karamokos) ; au village, chez les guérisseurs traditionnels (djinnatigisnyamakalas, féticheurs) ; ou encore, pour les chrétiens, dans les églises évangéliques, d’obédience pentecôtiste.

Comprendre la façon dont les désordres – appelons-les « psychiques » pour l’instant – sont pensés et pris en charge dans ces lieux « traditionnels », est une exigence à la fois méthodologique et politique.

 

Techniques traditionnelles

Existe-t-il un lien entre la psychothérapie et les techniques thérapeutiques traditionnelles ? Une définition de la psychothérapie en tant que thérapeutique par l’esprit exclut de fait les thérapeutiques auxquelles recourent la majorité des malades à travers le monde. Car ces thérapeutiques prétendent agir sur des invisibles (divinités, esprits, démons) ou sur la conséquence d’actions invisibles (sorcellerie, maléfices, envoûtement) et non pas sur une hypothétique « psyché ». Elles procèdent à l’aide de rituels, de sacrifices animaux, de fabrication d’amulettes, de prières ou d’extraction d’objets-sorts… Elles laissent rarement place à la parole et, quand c’est le cas, il s’agit d’une parole ambiguë, parfois dans un langage ésotérique que ne comprend pas le patient. Tenter à tout prix de faire entrer ce genre de dispositif de soin dans le carcan des concepts de notre psychologie, aboutit à disqualifier les patients et les professionnels de ces mondes.

Soit du fait de nécessités économiques, comme dans l’exemple guinéen évoqué en préambule, soit à cause de l’attachement des populations envers leurs techniques « traditionnelles », les malades continuent à fréquenter ces lieux de soin. Pour exemple, selon des statistiques récentes, 90 % des malades consultent un guérisseur aujourd’hui encore au Sénégal. Après plus d’un siècle d’existence, la psychothérapie n’est pas parvenue à convaincre les usagers de l’universalité, décrétée a priori, de ses concepts.

Il serait même difficile de retenir une définition plus large, telle par exemple que « thérapie », sans préciser « psycho », qui engloberait dans la même catégorie les psychothérapies et les techniques des mondes éloignés, tant ces dernières semblent relever d’une autre logique. À vrai dire, elles se rapprocheraient davantage des médecines organiques, définissant des êtres invisibles à l’œil nu (ici des microbes ou des bactéries, là-bas des esprits), usant de méthodes de diagnostic incluant des appareillages complexes (divination par les cauries, par le sable, par les boîtes à souris, par le déplacement d’animaux tels que le « renard pâle »  ou la grenouille). Un guérisseur béninois me désignait son dispositif de divination à l’aide du chapelet de noix (le Fa), comme étant son scanner.

Pour le dire de manière schématique, les thérapies traditionnelles ont peu de choses en commun avec les psychothérapies. Les théories du mal, les êtres incriminés, les objets utilisés, les techniques d’intervention, les caractéristiques du thérapeute, son initiation, ses relations avec le groupe social…, autant d’éléments qui spécifient une forme de thérapie, sont radicalement distincts.

L’erreur des études de type « psychiatrie transculturelle » (encadré ci-desous) a été de partir de l’observation des malades, postulant que l’on appliquait à un mal identique (schizophrénie ou dépression, par exemple) des traitements différents selon les cultures. Cette proposition, provenant la plupart du temps de cliniciens recherchant dans les observations anthropologiques la confirmation de leurs théories, a nécessairement conduit au rejet des concepts des mondes éloignés.

L’ethnopsychiatrie a posé la question de manière toute différente. Elle a considéré que les entités, tant celles des psychothérapies que celles des thérapies traditionnelles, sont des sortes « d’êtres vivants », recrutant des sujets – on devrait parler ici de « captures », au sens de Gilles Deleuze. On doit donc considérer que les malades sont « fabriqués » par ces entités que sont, par exemple, ici « la dépression », là-bas « la possession ». Ces entités occupent des « niches écologiques »  comportant à la fois la définition du désordre, la forme qu’il peut prendre, mais aussi la nature du thérapeute susceptible de le prendre en charge et les moyens techniques dont il dispose. Pour exemple, la dépression a éclaté en Occident comme une véritable épidémie  , au même moment que de nouvelles molécules appelées « antidépresseurs » ont été mises sur le marché. On a donc assisté à la création d’une telle niche écologique. Cette entité a eu un tel succès que l’on considère aujourd’hui que 15 à 20 % des personnes en présenteront les symptômes à un moment ou un autre de leur vie. De même, doit-on considérer la possession, non pas comme une « maladie » qui frapperait un individu, mais bien comme une niche écologique dans laquelle seraient regroupés les esprits susceptibles d’investir les personnes, leurs noms, leurs modalités d’entrée en relation avec les humains, le type de guérisseur susceptible de médiatiser cette relation, les façons de les apaiser…

Ainsi s’agit-il d’observer les systèmes thérapeutiques et non les patients – tous les systèmes, sans exclusive ni hiérarchie, qu’ils se revendiquent « savants » ou qu’ils se présentent comme spécifiques d’un collectif ou d’une communauté ethnique, religieuse ou sociale.

 

Les applications de l’ethnopsychiatrie

Rebelle par nature dès sa création, l’ethnopsychiatrie a conservé dans ses applications une dimension politique. Elle a pris conscience très tôt de la métamorphose de la société française, désormais multiculturelle. Elle s’est révélée d’une particulière efficacité dans la prise en charge des patients migrants provenant de mondes éloignés.

J’ai créé la première consultation d’ethnopsychiatrie, il y a de cela plus de trente ans, dans le service de psychiatrie de l’hôpital Avicenne, alors dirigé par Serge Lebovici à Bobigny. Au début, nous recevions encore des patients portugais et maghrébins. Par la suite, sont arrivés les patients originaires d’Afrique subsaharienne, les Sénégalais, les Maliens, les Ivoiriens, les Congolais. Puis ceux provenant d’Asie du Sud-Est, les Cambodgiens, les Vietnamiens, les Chinois. Nous avons accueilli dans ces consultations les migrants chassés de leurs pays au rythme des déflagrations de la planète.

Conformément à la méthodologie ethnopsychiatrique, telle que j’en ai schématiquement brossé les contours, nous avons tout fait pour les comprendre à partir des langues, des pensées et des techniques de leur monde. Nous avons dû à chaque fois nous adapter, inviter des interprètes, mobiliser des recherches dans les cultures d’origine des patients, tenter d’apprendre leur monde – ou plutôt d’en apprendre un peu plus sur leur monde .

Le clinicien qui pratique ce type de consultation, quelle que soit par ailleurs sa compétence, se trouve perpétuellement en apprentissage, plongé par méthode dans des univers qui le fracturent. Il lui faut par exemple manier avec gravité des notions qui le disqualifient en tant que savant aux yeux de ses pairs. Il est ainsi conduit à prendre au sérieux les êtres invisibles dont l’action a désorganisé l’univers de ses malades. Il devient inéluctablement partenaire d’esprits de la brousse, de génies ou d’ancêtres. Il lui faut parcourir avec ses patients l’écologie des djinns maghrébins , les modalités d’installation des vodúns béninois, les précautions indispensables à l’entretien des kriss malais, que sais-je encore… Le principe est toujours de connaître au plus près les procédures auxquelles se soumettraient les patients s’ils étaient restés au pays, ou quelquefois s’y soumettent en France. Il devra adopter une position intérieure qui évite à la fois le piège de la condescendance (je fais mine d’y croire puisqu’ils y croient) et le leurre de la naïveté. Pour prendre ce seul exemple, les rituels de possession ne sont pas seulement des thérapies ; ils relèvent aussi de la religion, de « la fête », de l’activité politique, de l’écologie… Ils font partie de la part la plus sensible des personnes, leur identité, fût-elle transitoire, leur adhésion à leur communauté.

Nous avons donc appris une forme de psychothérapie qui nous met en relation avec des humains attachés et non pas des « hommes nus » – attachements à des langues, à des idéologies, à des lieux, à des groupes, à des forces, à des « choses ». Et nous avons découvert que ces attachements méritent d’être étudiés, même s’il arrive souvent aux humains de se révolter contre les forces qui les lient, de se démarquer de leurs fidélités, de se séparer de leur famille ou de se détacher de leurs dieux…

 

Modernités

Cet apprentissage indispensable à la prise en charge des patients provenant de mondes éloignés nous a rendus familiers avec les groupes. L’ethnopsychiatrie se pratique en effet en groupe, incluant nécessairement des représentants des mondes du patient – sa famille, ses référents, les assistantes sociales qui ont accompagné ses démarches, les médecins qui l’ont suivi un temps, ses voisins peut-être. Les cliniciens se retrouvent aussi en groupe, incluant des interprètes, des anthropologues, des chercheurs, des philosophes. Il nous faut penser plus avant, ne pas craindre les innovations, oser des idées inattendues. Il n’est pas rare que de telles consultations rassemblent jusqu’à 15 personnes pour traiter du même problème.

Riches de cette expérience, nous avons appliqué la même méthodologie à certaines situations spécifiques que l’on rencontre dans les mondes modernes. Nous avons organisé des consultations, sur le même modèle, avec les sortants de sectes , avec les transsexuels en demande d’intervention chirurgicale, avec les boulimiques, les bipolaires… À chaque fois, nous les avons abordés à partir de leurs attachements, nous alliant aux associations dans lesquelles ils s’étaient regroupés. Nous avons ainsi transformé l’espace psychothérapique, manquant pour le moins de transparence, en un lieu de débat contradictoire.

L’ethnopsychiatrie, pratiquée avec les patients migrants, nous aura enseigné quelques principes qui balisent aujourd’hui notre philosophie de l’action :

1) Penser les patients « attachés », ce qui conduit nécessairement à collaborer avec les collectifs auxquels ils adhèrent ou bien avec ces forces sociales montantes que sont aujourd’hui les associations de patients regroupés autour d’une même entité.

2) Participer à la diffusion démocratique des connaissances – notamment via Internet afin de rendre les malades aussi savants que leurs thérapeutes.

3) Renoncer au secret – dont on sait qu’il n’est que de polichinelle, puisque réservé au seul patient alors que les thérapeutes communiquent librement entre eux. Autrement dit, expliciter au patient la théorie que l’on nourrit au sujet de son mal.

4) Favoriser le témoignage des patients sur leur propre mal, plutôt que les traditionnelles « études de cas ». Ainsi compareront-ils leurs symptômes pour constituer des corpus enfin fiables.

5) Une telle thérapie, lorsqu’elle se révèle efficace, finit par transformer le patient en témoin, dont l’expérience du mal constitue une richesse à partager avec le monde.

À condition de respecter ces principes, l’ethnopsychiatrie se révèle une psychothérapie particulièrement adaptée à un monde moderne, ouvert et démocratique .

Tobie Nathan

SUMMER HITS

30 septembre 2016

Un soir en été Jean-Paul Taillandier

"Les Vedettes de l'Été" 

 

BÂILLER , POURQUOI ?

un dossier de Olivier Walusinski

10 juillet 2016 

 

"LE CERVEAU DES ATTENTATS"

20 juillet 2016 

 

NEUROLOGIE DU NÉANDERTAL

10 août 2016 

 

PATCHWORK ESTIVAL

1° septembre 2016

 

SACKS, L'AVENTURIER 

10 septembre 2016 

 

PRÉCIEUSE AMBIANCE 

20 septembre 2016 

 

LE CERVEAU DE STING 

30 septembre 2016

 

Un chercheur de McGill explore le cerveau musical de Sting

Comparison of the motifs of “Libertango” by Piazzolla and “Girl” by Lennon & McCartney

 

 

 
 
 

Qu’ont en commun Girl (  https://www.youtube.com/embed/B-UMKxUR2tU ),

grand succès des années 1960 des Beatles,

et Libertango(https://www.youtube.com/embed/vaXNdVTGT0k),  

tango évocateur d’Astor Piazzolla ?

 

De prime abord, probablement bien peu de choses. Pourtant, dans le cerveau d’un célèbre auteur-compositeur-interprète aux goûts éclectiques, ces deux pièces se ressemblent énormément. C’est l’un des étonnants constats posés après l’examen de documents d’imagerie du cerveau de Sting, lors d’une étude inédite en neurosciences.

L’étude, dont les résultats ont été publiés dans la revue Neurocase, repose sur des techniques d’analyse toutes récentes. Dans le cas présent, elles ont fait de documents d’imagerie une véritable fenêtre ouverte sur le cerveau d’un musicien accompli. Toutefois, appliquées à d’autres domaines – arts, politiques, sciences, etc. – elles pourraient permettre de lever le voile sur cette capacité qu’ont les gens doués de faire des liens entre des éléments apparemment dissemblables.

« Ces techniques de pointe nous ont littéralement permis de cartographier l’organisation de la musique dans le cerveau de Sting », explique le Pr Daniel Levitin, auteur principal et psychologue cognitiviste à l’Université McGill. « C’est capital, dans la mesure où tout l’art de la musique réside dans la capacité du cerveau d’assembler des sonorités pour façonner un paysage sonore. »

Un service en attire un autre

L’étude résulte d’un heureux concours de circonstances, qui remonte à quelques années. L’étincelle : un livre du Pr Levitin, This Is Your Brain on Music, que Sting avait lu. Le chanteur avait un concert prévu à Montréal. Son équipe a donc communiqué avec le professeur pour lui demander s’il accepterait de faire visiter son laboratoire à Sting. De nombreuses vedettes du monde de la musique avaient déjà foulé le sol de cette enceinte. Le chercheur a donc accepté avec plaisir, mais il avait lui aussi une faveur à demander au chanteur : est-ce que Sting accepterait de se soumettre à des examens d’imagerie cérébrale?

C’est ainsi que des étudiants de McGill se sont retrouvés dans un ascenseur du Pavillon de biologie Stewart en compagnie du chanteur du défunt groupe The Police, gagnant de 16 prix Grammy.

Par un après-midi caniculaire pré-concert, Sting s’est présenté au service d’imagerie cérébrale de l’Institut et hôpital neurologiques de Montréal de l’Université McGill pour se soumettre à des examens d’imagerie fonctionnelle et structurale. L’expérience a failli ne jamais avoir lieu en raison d’une panne de courant qui a paralysé le campus pendant plusieurs heures. Comme il fallait plus d’une heure pour redémarrer l’appareil d’IRM fonctionnelle, le temps commençait à manquer. Mais Sting, plutôt que de se rendre à un test de son pour son spectacle, a généreusement accepté de rester sur place afin de pouvoir se soumettre aux examens.

Par la suite, le Pr Levitin a fait équipe avec le Pr Scott Grafton, grand spécialiste en imagerie cérébrale rattaché à l’Université de Californie à Santa Barbara, afin d’étudier les documents d’imagerie au moyen de deux techniques novatrices : l’analyse de modèle multivoxel et l’analyse de dissimilarité représentationnelle. Les chercheurs souhaitaient déterminer si, aux oreilles de Sting, les pièces entendues étaient semblables ou différentes. Et ils comptaient le faire non pas au moyen de tests ou de questionnaires, mais bien en mesurant l’activation de divers territoires du cerveau de Sting.

« Grâce à ces méthodes, nous pouvons déterminer si les schémas d’activation cérébrale se ressemblent davantage lorsque les styles de musique entendus sont semblables. C’est une démarche inédite en matière d’étude de la musique par l’imagerie cérébrale », fait observer Scott Grafton.

Des similitudes qui étonnent

« Les documents d’imagerie du cerveau de Sting ont fait ressortir plusieurs similitudes entre des pièces que je connais bien, mais entre lesquelles je n’avais jamais fait de lien », souligne le Pr Levitin. Ainsi, deux des pièces les plus proches l’une de l’autre étaient Libertango, de Piazzolla, et Girl, des Beatles. Les deux sont en mode mineur, et le motif de la mélodie est semblable, peut-on lire dans l’article. Autre exemple : la pièce de Sting Moon over Bourbon Street et celle de Booker T. and the M.G.’s Green Onions, deux pièces en fa mineur ayant le même tempo (132 battements par minute) et un rythme de swing.

Les méthodes exposées dans l’article, précise le Pr Levitin, « peuvent servir à l’étude de nombreux autres sujets, par exemple l’organisation des pensées de l’athlète qui doit accomplir certains mouvements, de l’écrivain qui doit bâtir un personnage ou du peintre qui doit agencer couleurs, formes et espaces ».

 

Measuring the representational space of music with fMRI: a case study with Sting

Localization of music related listening versus silence. Significant differences of fMRI BOLD activity during listening to 16 familiar songs are compared to a set of quiet resting conditions (p < 0.001, cluster >10 voxels). Results are projected onto the surface of the participant’s own structural? MRI scan for visualization.

http://www.tandfonline.com/doi/full/10.1080/13554794.2016.1216572

 

 

PRÉCIEUSE AMBIANCE 

20 septembre 2016

Prématuré Dessin au crayon à papier Verdier Cardinal Florie

Bébés prématurés : la voix de leur mère booste leur cerveau

 

Entendre un enregistrement de la voix et des battements cardiaques de leur mère serait bénéfique pour le cerveau des enfants nés avant terme. Explications.

On considère qu’un enfant naît
 prématurément avant 37 semaines d’aménorrhée (avant le début du 9e mois de grossesse), la grande prématurité se situant entre 22 semaines (5 mois) et 31-32 semaines (7 mois). © Ben Jary/AP/SIPA
 
On considère qu’un enfant naît prématurément avant 37 semaines d’aménorrhée (avant le début du 9e mois de grossesse), la grande prématurité se situant entre 22 semaines (5 mois) et 31-32 semaines (7 mois).
Partager sur Facebook

Les nourrissons nés prématurément sont deux fois plus susceptibles d'avoir des difficultés à entendre et comprendre les mots que ceux nés à terme, leur cortex auditif n'étant pas toujours suffisamment mature à leur naissance. Mais cette difficulté peut être palliée en recréant un environnement in utero, grâce à des enregistrements de la voix et des battements cardiaques de leur mère, révèle une nouvelle étude publiée dans PNAS.

Un cortex auditif plus épais

EXPÉRIENCE. Amir Lahav, neuroscientifique à la Harvard Medical School de Boston, et son équipe ont demandé aux mères de 40 bébés prématurés (nés entre la 25e et la 32e semaine de gestation - voir encadré ci-dessous) d'enregistrer une chanson et une histoire en studio. Les scientifiques ont également enregistré leurs battements cardiaques grâce à un stéthoscope relié à un microphone. Puis ils ont enlevé les sons à fréquence élevée des enregistrements. 21 nourrissons ont eu droit à des sessions d'écoute de 45 minutes, totalisant trois heures par jour (les autres nourrissons recevaient seulement des soins standards). Au bout de 30 jours, ils ont comparé les cerveaux des deux groupes par examen échographique. 

Verdict : les prématurés ayant été exposés au son de la voix et du cœur de leurs mères présentent un cortex auditif plus épais que ceux du groupe témoin. Or "des études ont montré que plus ce cortex auditif est épais, et mieux il fonctionne", a déclaré Amir Lahav. Ce dernier précise que ces travaux doivent se poursuivre pour vérifier l’évolution du système auditif et du développement du langage de ces enfants. Il estime toutefois qu'une exposition de trois heures par jour à des sons in utero suffit à mettre le cerveau des prématurés sur la bonne piste.

GROSSESSE. La durée moyenne normale d’une grossesse est de 40 semaines. On considère qu’un enfant naît prématurément avant 35 semaines d’aménorrhée (avant le début du 9e mois de grossesse), la grande prématurité se situant entre 22 semaines (5 mois) et 31-32 semaines (7 mois). 
Source : Inserm

L'audition fragile des prématurés

Un fœtus commence à entendre à environ 24 semaines de grossesse (6e mois), lorsque les neurones forment des connexions dans le cortex auditif, une région du cerveau qui traite les sons. Il entend la plupart du temps les sons basse fréquence, en particulier le rythme cardiaque et la mélodie de la voix de sa mère. Les sons à haute fréquence produits par une autre personne que la mère, comme les consonnes, sont largement étouffés. "En plus d'être bombardés par les lumières, les odeurs chimiques, et les sons aigus de l'unité de soins intensifs d'un hôpital, les bébés prématurés sont largement dépourvus des sensations qu'ils recevaient dans l'utérus, tels que le rythme cardiaque et la voix de leur mère", explique à Science Amir Lahav. 

Bien que les mères soient parfois autorisées à garder près d'elles leur bébé prématuré pendant de courtes périodes, il est souvent trop fragile pour quitter sa couveuse, dont la température et le taux d'humidité sont régulés."Les prématurés gardent souvent leurs yeux couverts pour bloquer la lumière, et des études précédentes ont montré que la réduction des niveaux de sons à haute fréquence dans une unité de soins intensifs peut améliorer leur écoute, ajoute-t-il. Cependant, peu d'études avant la nôtre avaient tenté de simuler un environnement in utero et d'en observer les effets."

 Lise Loumé

 

 

Prématurés : le retard cognitif rattrapé avant l'adolescence

 

 

Selon une étude, le facteur "prématurité" serait moins déterminant que l'environnement postnatal pour combler l'éventuel retard cognitif des prématurés.

Le facteur
 
 
Le facteur "prématurité" serait moins déterminant que l'environnement postnatal pour combler l'éventuel retard cognitif des prématurés.  

 

PRÉMATURÉS. Les parents d’enfants prématurés s’inquiètent souvent de l’éventuel retard cognitif que leur bébé peut connaître, du fait de sa venue au monde avant la maturation in utero de ses fonctions. Voici de quoi les rassurer : ce retard cognitif rencontré par les bébés prématurés est très bien rattrapé entre la naissance et l’adolescence selon une étude parue dans le Journal of Pediatrics.

Le facteur prématurité aurait même un impact mineur sur le développement cognitif de l’enfant selon les chercheurs de l’université Adélaïde en Australie qui ont examiné 145 jeunes adolescents âgés de 12 ans nés prématurés et à terme. Si l'échantillon étudié est relativement restreint, les résultats restent encourageants.

Les chercheurs ont mesuré chez chacun des adolescents les capacités de mémoire du travail et de raisonnement. Ils ont également mesuré l’excitabilité cortico moteur – relatif aux fonctions motrices du cortex cérébral – à l’aide d'une méthode de stimulation magnétique transcrânienne.

 

Résultat : si un très léger avantage des enfants nés à terme a pu être constaté, il ne serait pas significatif. Il est même apparu que des adolescents nés prématurés faisaient parfois mieux que ceux né à terme.

L'environnement post-natal déterminant

Les chercheurs soulignent ainsi l’importance de l’environnement post-natal pour combler le retard cognitif des prématurés. La stimulation du bébé pendant sa période d’éveil serait ainsi déterminante pour rattraper ce retard.

Selon Julia Pitcher, citée par le site Santélog et co-auteur de l'étude, "bien plus importants sont le degré de désavantage social tôt après la naissance ainsi que les facteurs génétiques".

En d'autres termes, l'encadrement dont bénéficie l'enfant à sa naissance et la façon dont son éveil est stimulé par son entourage pourraient être des facteurs plus déterminants dans son développement cognitif.

 Hugo Jalinière

 

Le stress prénatal affecte l'espérance de vie

 

 

Un orphelinat à Nice, vers 1918, où étaient notamment accueillis des pupilles de la Nation.

 

 
 
Les enfants dont le père est mort au combat pendant la Première Guerre mondiale ont eu une vie plus courte.

 

Barrière protectrice du fœtus, le placenta n'arrête pas le stress. Et lorsqu'une future mère vit un événement difficile durant sa grossesse, le bébé qu'elle porte semble en subir les conséquences, parfois jusqu'à en perdre des mois de vie, suggère une étude française présentée lundi à Paris au congrès annuel de la Société européenne d'endocrinologie pédiatrique.

Sous la direction du pédiatre et professeur d'endocrinologie Pierre Bougnères et avec l'épidémiologiste Alain-Jacques Valleron, Nicolas Todd, épidémiologiste à l'Inserm, a scruté pour sa thèse des dizaines de registres de naissance parisiens et bordelais. Il a ainsi pu identifier les enfants nés entre août 1914 et décembre 1916 ayant reçu la qualité de «pupille de la nation», leur père étant décédé, gravement blessé ou tombé malade au service de la France. «Nous en avons recensé 5671, explique l'épidémiologiste, et avons associé à chacun l'enfant non pupille de la nation le plus proche sur le registre, donc né au même endroit et au même moment, du même sexe, et dont la mère avait le même âge que celle du pupille.» En croisant ces données avec une base recensant 1.4 million de militaires français décédés entre 1914 et 1919, les chercheurs ont pu distinguer ceux dont le père avait été rendu invalide par la guerre de ceux dont le père était mort, et pour ces derniers savoir si le décès avait eu lieu avant ou après la naissance. Objectif: découvrir si l'espérance de vie à l'âge adulte était réduite en cas de stress psychologique subi par la mère durant la grossesse.

Résultat: les enfants déclarés pupilles de la nation ont vécu en moyenne, après contrôle pour le milieu social d'origine, 1,1 année de moins que leurs alter ego non pupilles ; l'écart était maximal pour les enfants ayant perdu leur père avant de naître, leur durée de vie étant réduite de 2,2 ans par rapport aux non-pupilles associés. «Ces résultats suggèrent que le stress psychologique vécu par la mère et transmis à l'enfant a un effet suffisamment fort pour agir sur la mortalité. Un ou deux ans de différence, cela semble très court, précise Nicolas Todd. Mais en réalité c'est important, car il en faut beaucoup pour faire bouger l'espérance de vie d'une population. Un exemple: imaginons que l'on découvre un traitement soignant l'intégralité des cancers. Des chercheurs ont étudié que l'espérance de vie de femmes américaines nées en 1964 n'augmenterait, grâce à l'arrivée d'un tel traitement “miracle”, que de 2,5 ans au mieux !»

Schizophrénie à l'âge adulte

La littérature médicale montre bien que le stress vécu par la mère durant la grossesse affecte le développement chez le fœtus, en particulier son système de réponse au stress. Ainsi, chez l'animal, des rats ayant subi un stress prénatal présentent à l'âge adulte des troubles des apprentissages ou des comportements dépressifs ou anxieux . Chez l'homme, des études ont montré que les personnes exposées in utero à une situation traumatique (en Israël lors de la guerre des Six Jours) ou à une famine (en Chine en 1959) avaient davantage de risque de développer une schizophrénie à l'âge adulte.

Dans l'étude française, l'espérance de vie semblait en revanche moins affectée lorsque le père mourait après la naissance de son enfant. «La position de la mort du père dans le calendrier de développement de l'enfant semble donc importante», conclut l'épidémiologiste. Les seuls facteurs socio-économiques ne peuvent pas être l'explication principale de ces différences dans l'espérance de vie, plusieurs mécanismes permettant de compenser les pertes financières liées au décès ou à l'incapacité du père (aide de la famille ou d'institutions charitables, pensions, remariage…).

«La prochaine étape, explique Nicolas Todd, serait de déterminer la cause de la mort de ceux devenus orphelins avant de naître, pour renseigner les mécanismes impliqués.» Le jeune épidémiologiste rêverait aussi de «comparer les résultats scolaires des enfants selon que leur père est ou non mort durant la grossesse. Mais pour cela il faudrait trouver et combiner les données. Et là encore, nous dépendons de ce que les archives conservent…».

  Soline Roy

 

Un an de la vie d'un bébé grand prématuré en 6 minutes

https://www.youtube.com/embed/EEPHLC6dMGA 

 

Un an de la vie d'un bébé grand prématuré
 en 6 minutes

Ward Wiles dans sa couveuse.  

VIDEO Ward Miles n'est pas un bébé comme les autres. Grand prématuré, sa première année de vie avait été vue par plusieurs millions de personne. 

Internet recèle quelques belles histoires qui mettent de bonne humeur. C’est le cas de cette vidéo de Benjamin Scot, qui raconte la première année de son fils Ward Wiles, un "bébé miracle" grand prématuré. Né le 16 juillet 2012 au Nationwide Children’s Hospital de Columbus, dans l’Ohio, Ward Miles, 700 grammes, n’avait passé que cinq mois et demi dans le ventre de sa mère. C’est la limite de viabilité pour les prématurés aux Etats-Unis et ses chances de survie sont très faibles.

Son fils est véritablement entre la vie et la mort quand Benjamin Scot, de son vrai nom Benjamin Miller, vidéaste et photographe de profession, prend sa caméra pour immortaliser ses fragiles premiers moments. Quant à la vidéo, qui montre "qu'il venait de très loin", il explique en légende que c'est un cadeau d'anniversaire à sa femme et à l'équipe médicale qui a sauvé son fils.

De la première rencontre de la mère et de son fils, 4 jours après la naissance de Ward Wiles, à son retour à la maison où il grandit normalement, en passant par sa lutte pour la survie à l’hôpital, un an de sa vie est donné à voir en six minutes. Deux semaines après sa mise en ligne, ces moments intimes ont été visionnés plus de 2,4 millions de fois.

 

SACKS, L'AVENTURIER 

10 septembre 2016

Oliver Sacks at his New York City home in 2015

Le cas Oliver Sacks

 

Oliver Sacks en 1961, dans le quartier de Greenwich Village, à New York.
 
Oliver Sacks en 1961, dans le quartier de Greenwich Village, à New York.  

Il s’est caché à plusieurs reprises dans ses livres – il est le « Stephen D » de L’Homme qui prenait sa femme pour un chapeau et le « patient 75 » de Migraine (Seuil, 1986 et 1988) –, mais aussi un peu dans chacun des malades, tous atteints d’affections neurologiques, dont il a relaté le cas. Etrange était leur existence, étrange fut la sienne, du moins inattendue. Le neurologue britannique Oliver Sacks, qui s’est éteint en 2015, en laisse trace dans sa belle autobiographie, En mouvement.

  • Angleterre

Dans la famille, il était entendu qu’il serait médecin depuis son quatorzième anniversaire. Mais de grâce, pas dans la capitale. « J’estimais qu’il y avait beaucoup trop de docteurs Sacks à Londres : ma mère, mon père, mon frère aîné, David, l’un de mes oncles et trois de mes cousins germains. » C’est ainsi qu’Oliver s’éloigne de « l’imposante maison pleine de coins et de recoins » de Mapesbury Road et décolle pour Montréal, le 9 juillet 1960, le jour de ses 27 ans. Il reste par la suite en Amérique, à San Francisco puis à Los Angeles, enfin à New York où il enseigne à l’université Columbia.

Cette autobiographie, publiée trois mois avant sa mort, survenue le 30 août 2015, est empreinte d’une distance toute british. Des raisons de son ­départ, par exemple, on saura peu de chose, Oliver Sacks évoquant pêle-mêle une ­affectation non obtenue au Colonial Service (qui le pousse à fuir plutôt que d’accepter la conscription), le soulagement ­à quitter un foyer perturbé par les crises d’un jeune frère psychotique, « si tragiquement désespéré et mal soigné », l’aveu de son homosexualité, insupportable à sa mère. Ce grand spécialiste du cerveau manie peu l’introspection. Sa douce ironie à l’égard de lui-même comme de la vie voile à peine une forme d’intranquillité, subie plus qu’analysée, aiguillon dont on sent la pression dans tous les chapitres d’une existence aussi surprenante dans l’intimité que socialement brillante.

  • Chapeau

L’Homme qui prenait sa femme pour un chapeau, paru aux Etats-Unis en 1985 alors qu’il a dépassé la cinquantaine et a déjà trois livres à son actif, fait de lui un auteur à succès, traduit dans le monde entier. Le grand public découvre un médecin plein d’empathie qui, depuis longtemps, ne conçoit plus de séparer la neurologie de la psychiatrie. Sacks considère ses patients non comme des individus amoindris par leur maladie, mais au contraire comme riches d’une nouvelle façon d’être humain. Chacun des récits de cas clinique qui forment l’ouvrage est ainsi transformé en un portrait sensible, quand ce n’est en une véritable aventure, exploration de contrées inconnues.

Ce don de conteur, Sacks l’attribue à sa mère : « Elle nous avait raconté depuis notre plus tendre enfance des histoires médicales qui, si macabres et terrifiantes fussent-elles parfois pour mes trois frères et moi, mettaient toujours l’accent sur les qualités personnelles, les mérites spécifiques et la vaillance du patient concerné. » L’Eveil (1973, Seuil, 1993), le livre qui précède L’Homme qui…, a été rédigé sous son œil attentif. Ou plutôt sous son écoute : Oliver lui lisait ses récits dont elle décrétait qu’ils sonnaient « juste » ou « faux ».

Sinon, à bien observer le riche cahier de photos d’En mouvement, Sacks portait plus volontiers la barbe que le chapeau.

  • Alexandre Luria

Alors que, dans les années 1960, la neurologie est en pleine révolution pharmacologique, Oliver Sacks s’étonne qu’on ne fasse presque jamais allusion aux recherches plus anciennes : « J’en étais d’autant plus consterné que ma pensée est avant tout narrative et historique. » A l’inverse de ses collègues, il se passionne pour le Manual de William Gowers, paru en 1888, mais aussi pour les Leçons de Charcot (1825-1893) et pour toute la littérature médicale du XIXe siècle dont la beauté le « galvanise ».

En 1968, ce grand lecteur attrape un livre, intitulé Une prodigieuse mémoire, qu’il dévore comme un roman, avant de s’apercevoir, au bout de trente pages, qu’il s’agit d’une description de cas. C’est sa ­seconde rencontre avec Alexandre Luria (1902-1977). Deux ans auparavant, il avait déchiré l’un de ses livres – un exemplaire de bibliothèque qu’il dut racheter –, « bouleversé » à l’idée que le neurologue soviétique avait déjà vu, dit, écrit tout ce qu’il pourrait jamais dire, écrire ou penser. Heureusement, le jeune homme, moins flegmatique qu’il ne pouvait paraître mais aussi moins modeste, n’y crut pas tout à fait. Ce livre changea néanmoins « l’objectif et l’orientation de[sa] vie en servant de modèle non seulement à L’Eveil mais à tous [s] es écrits suivants ».

  • Musique

L’histoire commence par un accident pas banal, une malencontreuse rencontre avec un taureau en Norvège (mais peu de choses sont banales dans la vie d’Oliver Sacks), qui le prive de l’usage de sa jambe, très endommagée et soumise à de multiples opérations. Mais voilà qu’on lui demande de se relever. Oliver Sacks entend soudain « avec une force hallucinatoire un passage super­bement rythmé du Concerto pour violon et orchestre en mi mineurde Felix Mendelssohn ». L’audition mentale de cette musique lui rend instantanément sa faculté de locomotion.

Miraculeuse parfois, et sans effet secondaire, la puissance de la musique sur le cerveau nourrira Sur une jambe (1984, Seuil, 1987), récit de cette guérison, puis l’un des plus gros livres de Sacks, Musicophilia (2007, Seuil, 2009).

Dans l’index d’En mouvement, on trouve, bien sûr, « Musique comme thérapie » à côté de « Buñuel » ou de « Freud », d’« Hallucinations » ou de « Plasticité ­cérébrale », de « Notes de bas de page » (quatre occurrences) ou de « Ver de terre » (facéties tout à fait « sacksiennes »).

  • Muscle Beach

En 1960, sur cette plage de Los Angeles, le jeune Anglais ne se contente pas de regarder les corps d’haltérophiles. Il s’en fabrique un et il parade, comme d’autres, sous le soleil californien, fier de sa centaine de kilos.En mouvement révèle un étudiant infa­tigable, timide et réservé, qui se lance dans l’haltérophilie avec la même absence de mesure qu’il met à essayer les drogues. Leur consommation est certes très en vogue dans les campus américains des sixties, mais lui la pousse jusqu’à rester quatre ans accro aux amphétamines.

Extravagant ? Sacks n’était pas tout à fait conforme – c’est là l’une des raisons, sans doute, de son empathie envers les malades et leur bizarrerie, qui offraient un miroir à ses propres singularités. A San Francisco, quand il n’est pas de garde le week-end, l’interne revêt ses vêtements de cuir, chevauche sa moto (l’une des grandes passions de sa vie) le plus longtemps possible, dort peu et rentre à l’aube. A ceux qu’il croise, il dit s’appeler Wolf.

Solitaire, Sacks le reste longtemps, une caractéristique qu’il met sur le compte de son tempérament, de sa difficulté à reconnaître les visages et de son absence d’intérêt pour les sujets les plus propices à la conversation, comme l’actualité ­politique ou sociale. Ses amours furent rares. Avec une sincérité émouvante, il explique être resté quarante ans sans faire l’amour. Sa rencontre avec Billy transforma sa vie, il avait 75 ans.

  • Vivant

Rapport à la religion « inexistant », précise Oliver Sacks, qui fut pourtant élevé dans une famille juive pratiquante. Quelque temps après avoir mis un point final à son autobiographie, Sacks apprend qu’il est atteint d’un cancer incurable. Dans ses adieux, un texte adressé au New York Times, il écrit : « J’ai été un être sensible, un animal pensant sur cette belle planète et rien que cela a été un privilège et une aventure immenses. »

Extrait d’« En mouvement »

« Finissant par comprendre qu’il aurait été absurde de faire venir ma moto d’Angleterre par voie maritime, je décidai d’en acheter une neuve – une Norton Atlas assez conçue pour le trial pour que, quittant les routes, je puisse la conduire sur les pistes des déserts ou les sentiers montagneux. (…)

Les week-ends, je faisais en général de la moto tout seul aux environs de San Francisco. Un jour, cependant, j’aperçus une bande très différente de notre calme et respectable groupe de Stinson Beach : aussi bruyants que désinhibés, ses membres buvaient des canettes de bière et fumaient, chacun assis sur sa propre moto. Je vis en m’approchant que des logos des Hells Angels étaient cousus sur leurs blousons, mais il était trop tard pour faire demi-tour, si bien que je leur lançai : “Salut !” en arrivant à leur hauteur. Mon audace et mon accent anglais les intriguèrent, et il en alla de même quand je leur appris que j’étais médecin : ils m’acceptèrent sur-le-champ, sans me soumettre au moindre rite de passage ! J’étais d’une compagnie agréable, je ne les jugeais pas et j’étais médecin (profession qui m’amènerait de temps à autre à prodiguer des conseils à des motards blessés). Je m’abstins de participer à leurs randonnées ou à leurs autres activités, puis notre relation aussi bénigne qu’inattendue – pour moi autant que pour eux – s’interrompit paisiblement lorsque je partis de San Francisco un an plus tard. »

En mouvement. Une vie, pages 84-85

 

Julie Clarini

 

 

 

Oliver Sacks peut-il faire de vous un futur neurologue ?

Oliver Sacks (1933-2015) est un neurologue et écrivain britannique , auteur de nombreux ouvrages dont l'audience a été planétaire. En 1993, "L'éveil" ("awakenings") , qui décrivait les premiers essais d'administration de dopamine à une population de patients présentant de graves syndromes parkinsoniens secondaires à une encéphalite virale survenue des décennies auparavant, était porté à l'écran par la réalisatrice Penny Marshall, avec Robert De Niro et Robin Williams dans les rôles principaux.

Afficher
 l'image d'origine

Quelques années auparavant, "L'homme qui prenait sa femme pour un chapeau" avait déjà marqué les esprits : collection de cas cliniques saisissants, décrits avec un immense talent du récit, Oliver Sacks y faisait montre d'une réelle empathie pour les personnes qui lui confiaient leurs histoires souvent pathétiques. Les drames, les situations inextricables dans lesquelles se trouvaient ces patients, étaient analysés par le neurologue, toujours avec un grand souci d'humanité, évitant la froide distance objectivatrice que les récits médicaux croient nécessaire d'entretenir. Mais peut-on aller de la lecture des ouvrages de Sacks vers la pratique de la neurologie ? Les récits de Reinhold Meissner ont bien poussé des lecteurs sur les pentes des montagnes !

Afin d'étudier l'influence de la lecture des ouvrages d'Oliver Sacks, tous publiés en français, sur la vocation des neurologues, nous avons, avec ma collègue, le Dr Hannah Doudoux, mené une enquête auprès de 113 neurologues et spécialisations apparentées(neuroréanimateurs, neurochirurgiens, neurorééducateurs...), au sujet de leurs lectures, leurs appréciations, les recommandations éventuelles, et, en particulier, la question de savoir si leur choix de la spécialité de la neurologie pouvait avoir été favorisé par celles-ci (1).

Quelques éléments de réponse (le détail sera présenté au congrès européen de neurologie, à Copenhage fin mai) : Sacks a été beaucoup lu par les neurologues ayant participé à l'enquête. Le livre qui arrive en tête des lectures est, sans surprise, "l'homme qui prenait sa femme pour un chapeau" que les deux tiers des neurologues interrogés ont lu (figure). C'est également le livre le plus recommandé à un étudiant qui s'intéresserait à la neurologie (il faut d'ailleurs noter, si l'on regarde le détail des réponses ci-dessous, que certains livres doivent être recommandés sans avoir été lus, ce qui signale l'adhésion à un auteur plus qu'à un livre en particulier : "il faut tout lire de Sacks !")

En pratique, seule une minorité des neurologues interrogés (environ 10%) a lu Sacks avantd'avoir pris la décision de s'orienter vers la neurologie. Il est probable que ce soit plutôt l'intérêt pour le cerveau et ses pathologies qui ait conduit les neurologues à aborder les ouvrages du britannique. Mais lorsqu'on les interroge sur l'influence de ces lectures sur leur pratique, les participants soulignent l'orientation vers une pratique de la neuropsychologie ou une attention plus marquée vers le détail des histoires cliniques.

Enfin, il était demandé aux participants trois mots pouvant illustrer au mieux Oliver Sacks. Les mots sont ensuite reportés dans une représentation où chacun est mis à la taille qui correspond à sa fréquence ("word cloud"). Le résultat est le nuage de mot qui apparait en tête de cet article. 

Si vous n'avez pas lu Oliver Sacks, n'hésitez pas. C'est une magnifique introduction au monde de la neurologie et une fenêtre ouverte sur le cerveau. 

 Laurent Vercueil

 

 

 

 

"What hallucination reveals about our minds"

 

Conférence de Oliver Sacks

TED X sous-titrée 

 

https://www.youtube.com/embed/SgOTaXhbqPQ

 

PATCHWORK ESTIVAL

1° septembre 2016

" Cellule Souche" Michel Delage

Petra Hüppi, exploratrice du cerveau des grands prématurés

 

 

Petra Hüppi.Petra Hüppi.  

Il repose dans la couveuse. Minuscule, bras et jambes agités de petits mouvements. Une belle énergie vitale, déjà. A sa naissance, il y a quelques jours, il ne pesait que 825 grammes. Il est né onze semaines avant le terme prévu : c’est un très grand prématuré. Nous sommes dans l’unité de soins intensifs de l’Hôpital des enfants de Genève(Suisse), début août. Alimenté par une sonde gastrique, le nourrisson respire avec l’aide d’une ventilation non invasive. « Il s’est très bien adapté », se réjouit la professeure ­Petra Hüppi, cheffe du service développement et croissance de cet hôpital.

A 55 ans, la pédiatre rayonne de douceur et d’empathie, face à ces bébés et à leurs familles. Une plénitude, aussi. « A l’âge de 8 ou 9 ans, j’ai dû subir une intervention pour un problème ­orthopédique : l’effet d’une manipulation un peu brusque lors de ma naissance. Hospitalisée à Zurich, j’ai pu aider d’autres enfants atteints d’infirmité motrice cérébrale. C’est là que j’ai ­décidé de devenir pédiatre. » Quarante-sept ans plus tard, la voici dans son bureau lumineux, avec vue panoramique sur la ligne bleue du Jura. Aux murs, d’innombrables photos d’enfants ; sur les étagères, des rangées de classeurs bien alignés.

« Jusqu’à la fin des années 1980, on considérait que le nouveau-né ne percevait pas grand-chose. On croyait, par exemple, qu’il ne ressentait pas la douleur. » Lourde erreur : le cerveau d’un nourrisson, même prématuré, est bien plus fonctionnel et réactif qu’on ne le pensait. « Le cerveau est un organe extrêmement plastique. Tout ce que l’on fait en termes de stimulation est intégré, même très tôt. Et tout ce que l’on ne fait pas peut entraîner ou aggraver des déficits ! » Cette révélation viendra de l’imagerie par résonance magnétique (IRM) cérébrale, dans les années 1990.

« On essayait de les endormir en leur chantant de l’opéra »

Petra Hüppi jouera ici un rôle pionnier. La première, au milieu des années 1990, elle osa placer des prématurés dans le tunnel d’un ­appareil d’IRM : « Il a fallu construire une mini-couveuse spéciale, compatible avec l’appareil, pour protéger les tout-petits du bruit et les réchaufferOn essayait de les endormir en leur chantant de l’opéra. » Les données de cette imagerie feront souffler un vent nouveau sur la prise en charge de ces nourrissons infiniment fragiles – mais infiniment réceptifs. « C’est étonnant de voir comment un progrès technologique a opéré un tel tournant ­clinique, presque sociétal, dans la façon de traiter ces enfants. »

« Un des grands apports de Petra Hüppi est d’avoir montré la plus-value de l’IRM chez les prématurés pour prédire le risque de handicaps ultérieurs, souligne le professeur Olivier Baud, néonatalogiste à l’hôpital Robert-Debré ­(Paris). L’IRM figure aujourd’hui dans la prise en charge standard des prématurés. » Au-delà des données de l’imagerie, « Petra Hüppi cherche à comprendre les mécanismes cérébraux sous-jacents », relève le professeur Pierre Gressens, du même hôpital. Par ailleurs, dans le suivi à long terme des prématurés, la pédiatre « a développé une approche qualitative, avec des évaluations précises, ­répétées, filmées du développement moteur et psychologique », ajoute Olivier Baud. « Mon principe est de prendre en charge tous les ­bébés qui naissent vivants, de les assister correctement puis d’évaluer leur risque de handicaps qui seraient ­incompatibles avec une vie de qualité », explique la pédiatre.

Travaux fondateurs

Retour sur ce singulier parcours. Son diplôme de médecine en poche, en 1986, Petra Hüppi poursuit son cursus à Berne : une année d’anesthésie, puis une autre de néonatalogie. « Les premiers appareils d’IRM arrivaient en médecine. De 1986 à 1988, j’ai utilisé cette technique pour mesurer le métabolisme du cerveau des nouveau-nés. »

En 1994, envol pour Boston. A l’Ecole de ­médecine de Harvard, elle développera ­durant quatre ans des techniques d’IRM pour quantifier le développement cérébral des prématurés, sous le mentorat du professeur Joseph J. Volpe, considéré comme le « pape » de la neurologie néonatale.

Ces techniques, ce sont l’IRM conventionnelle et l’IRM de diffusion (qui mesure la diffusion de l’eau dans les tissus), suivie d’une analyse d’images, pixel par pixel, en 3D. On peut ainsi distinguer la substance grise du cerveau (en gros, les neurones) de la substance blanche (les fibres nerveuses recouvertes de myéline, cette gaine qui accélère l’influx nerveux). « Chez le grand prématuré, nous avons montré que les fibres du corps calleux [ce pont de matière blanche qui relie les deux hémisphères cérébraux] sont bien présentes, mais qu’elles ne sontpas du tout myélinisées comme chez l’adulte. » Ces travaux fondateurs ouvriront un champ de recherches florissant : « On recense aujourd’hui des milliers de publications sur l’IRM du cerveau en développement. »

En 1998, la pédiatre rentre en Suisse, aux ­Hôpitaux universitaires de Genève (HUG), pour y diriger le service développement et croissance de l’enfant. Elle contribuera à montrer qu’une naissance prématurée peut affecter la myélinisation des réseaux qui ­relient le cortex, dans le cerveau, à la moelle épinière. La présence de tels déficits, sur l’IRM, prédit le risque ultérieur d’infirmité motrice cérébrale (IMC). Un tel handicap ­atteint 5 % à 10 % des grands prématurés qui naissent aujourd’hui.

Stimuli sensoriels, affectifs, émotionnels

Plus insidieux, un autre risque menace les grands prématurés à moyen et long terme. C’est le risque de souffrir, à l’âge scolaire et au-delà, de problèmes cognitifs (des troubles de l’attention et des fonctions d’exécution et de planification), mais aussi de troubles de la régulation émotionnelle. Près de la moitié des grands prématurés présentent de telles difficultés, a révélé la vaste cohorte française Epipage. Or ces déficits sont corrélés à des ­lésions des aires cérébrales impliquées dans les émotions, l’attention, l’inhibition des comportements. « Mais la valeur pronostique de ces lésions, au niveau individuel, reste faible », admet Petra Hüppi.

Identifier les circuits cérébraux les plus vulnérables, chez les grands prématurés, a eu des retombées cliniques : ces bébés ne sont plus isolés, même en soins intensifs. Leur prise en charge inclut tout un « jeu » de stimuli sensoriels, affectifs, émotionnels. Selon une étude américaine, « le temps que passent les parents avec leur bébé prématuré semble améliorer l’activité des zones frontales du cerveau de l’enfant, devenu adolescent ».

D’autres interventions sont explorées à ­Genève. Quels sont les effets de la musique sur les prématurés, par exemple ? Le groupe de ­Petra Hüppi lance une étude pour évaluer l’impact de différents morceaux à base de harpe, de flûte et de cloches, composés sur mesure par le musicien suisse Andreas Vollenweider. Autre piste : l’équipe suisse va ­explorer l’effet de la méditation de pleine conscience chez des ­enfants de 12 à 14 ans nés prématurés.

Cette native de la Suisse allemande parle couramment l’allemand, l’anglais, le français et l’italien. « Il lui arrive de commencer une phrase dans une langue et de la finir dans une autre », s’amuse Olivier Baud. « Elle est invitée partout », renchérit Pierre Gressens, qui salue son charisme. Très investie dans plusieurs ­sociétés savantes, Petra Hüppi préside l’Association européenne pour les soins de soutien au développement (AESSD). « Nous luttons pour promouvoir la présence des parents dans l’accompagnement de leur bébé. »

Fin 2017, un nouveau Centre de développement de l’enfant verra le jour dans cet hôpital. Il réunira les services de pédiatrie, de pédo­psychiatrie et de neuropédiatrie, et un volet ­recherche en neurosciences du développement.« Un grand espace sera dédié à l’évaluation des nouvelles interventions », se réjouit Petra Hüppi.

Florence Rosier


 

La révolution des cellules souches

NEUROLOGIE DU NÉANDERTAL

10 août 2016

La neurologie du Néandertal

Il est déjà difficile de décoder le génome de l'homme du Néandertal. Mais décoder son cerveau? Les participants au congrès annuel de la Société de neurosciences auraient eu des raisons de croire que le conférencier, Svante Pääbo, s'était trompé de salle.

Pääbo est celui qui est devenu mondialement célèbre ces dernières années en décodant petit à petit le génome de notre cousin néandertalien, disparu depuis près de 30 000 ans. Et s'il est devenu célèbre, c'est parce que ce faisant, il a accompli un exploit qui, il y a seulement une décennie et demie, était considéré impossible. On ne s'étonne donc pas que sa conférence devant les neurologues, à Washington, ait été l'événement le plus couru de leur congrès annuel. Mais on peut se demander quel était le lien avec la neurologie.

Et pourtant, il y en a un: en recherchant les gènes qui nous différencient du Néandertalien, on tombera inévitablement - ça ne fait que commencer - sur des gènes liés à la croissance du cerveau, à la mémoire ou à l'apprentissage. Auparavant, le seul lien - ténu - qu'avaient les neurologues pour spéculer là-dessus, c'étaient les crânes fossilisés. Aujourd'hui, c'est comme s'ils commençaient à examiner ce qui se passait - ou ne se passait pas - dans le cerveau de ces cousins qui ont quitté l'Afrique il y a 300 ou 400 000 ans, ont peuplé l'Europe avant nous, et se sont si mystérieusement éteints.

Ainsi, les derniers chiffres disponibles révèlent qu'il n'y a que 78 mutations propres à l'Homo sapiens qui ont changé la structure de l'une ou l'autre de nos protéines. On ignore à quoi ont servi la plupart de ces mutations. Mais puisqu'il était devant des neurologues, Pääbo a rappelé le cas du gène FoxP2, surnommé le gène du langage.

 

Il y a de cela 10 ans, rappelle ici le journaliste Carl Zimmer, les psychologues ont découvert que des mutations de ce gène étaient associées, chez nous, à des difficultés de langage. Pääbo et ses collègues ont découvert que ce gène était l'un de ceux qui ont changé très vite: la plupart des mammifères en ont une doublure identique, tandis que notre génome a deux acides aminés différents. Les Néandertaliens aussi.

On n'en sait pas plus pour l'instant, mais des équipes de neurologues, de linguistes et de généticiens sont sur le cas FoxP2 : on essaie même de comparer avec des souris qui, semble-t-il, apprennent plus vite lorsqu'elles reçoivent cette mutation.

Ce gène apportera-t-il la preuve que les Néandertaliens avaient un langage? C'est une possibilité, mais qui contient aussi un mystère: si les Néandertaliens pouvaient parler, pourquoi ne retrouve-t-on pas de traces d'art chez eux?

 

 

Mesurer le cerveau humain : un sujet à risque !

Comparatif du volume cervical des hominidés

D'une manière générale, sur les derniers millions d'années, on peut observer une progression du cerveau des hominidés. De l' Australopithecus (410 cm3) à l'Homo sapiens (1400 cm3) on assiste à un triplement du volume du cerveau. La facilité serait d'en déduire que nos facultés cognitives ont aussi progressé dans les mêmes proportions.

La taille du cerveau n'a pas de réel rapport avec l'intelligence.
Si on observe le cerveau d' Homo sapiens actuels, force est de constater que nos plus grands scientifiques ou artistes ne sont pas dotés d'un cerveau supérieur à la moyenne...
Quelques ancêtres apportent même de nouvelles pièces à contradiction... !



 

 

 

 

 

Tout d'abord Homo neanderthalensis ... En effet cet hominidé était doté d'un cerveau compris entre 1500 et 1750 cm3* (soit 350 cm3 de plus que sapiens !). On ne peut donc établir un rapport direct entre taille du cerveau et intelligence, ou alors il faudrait admettre que nous avons 17 % de moins de capacité cognitive que les néandertaliens...!


 

  

 

 

 

 

 

 

Homo georgicus  pose lui aussi problème... cérébral ! Jusqu'à sa découverte, on pensait que le premier hominidé à avoir quitté le berceau africain pour s'aventurer en Europe était doté d'un cerveau et de capacités importants. L'Homo erectus était tout désigné pour cette migration : un cerveau volumineux et une grande capacité à fabriquer des outils... Mais les restes d'Homo georgicus, retrouvés à Dmanissi et vieux de 1,8 millions d'années, en font le plus vieil hominidé connu sur le continent européen avec un cerveau plus petit d'un tiers qu'Homo erectus...



Cerveau de Cro-magnon

 

 

 

 

 

 

N'oublions pas également le cerveau de Cromagnon, un ancêtre direct de l'homme moderne dont le cerveau était en moyenne de 15% supérieur en taille. Le cerveau du spécimen Cromagnon 1 a été récemment modélisé en 3D. Les chercheurs ont estimé qu'il était supérieur en taille de 20% ! 

Le cerveau des néanderthaliens surdéveloppé ?
Tous le chercheurs ne sont pas de cet avis...
Parmi eux, Loïc Hibon  trouve le nombre d'individus étudiés trop faible pour établir une véritable moyenne.
" ...les néandertaliens n'avaient pas un volume cérébral supérieur à celui de l'homme moderne. La moyenne que l'on avance chaque fois pour les néandertaliens est calculée sur une demi-douzaine d'individus (...), et il n'est guère scientifique d'en tirer des conclusions ! 
Et il faut en effet rappeler que si l'homme moderne a un volume moyen de 1500 cm3, les valeurs s'échelonnent entre 1000 et 2000 cm3".
Loïc Hibon cite en exemple :
" M. H Wolpoff, dans Human evolution (éd. 1996-97), nous dresse un tableau des moyennes pour la "taille du cerveau" des néandertaliens würmiens : 
4 femelles --> 1286 cm3 
7 mâles --> 1575 cm3.
Wolpoff remarque au passage que la plus grande représentation de mâles nuit à la possibilité de comparaisons... 
A l'heure actuelle les paléoanthropologues considèrent que si le volume crânien était globalement le même, l'architecture était par contre différente (avec des lobes frontaux bien moins développés)".


 

Le crâne humain.. resté au stade foetal ?
Selon Gérard Nissim Amzallag (biologiste) le rapport tête/corps de l'être humain est anormalement élevé... pour un adulte !
En effet, à l'état embryonnaire, tous les mammifères ont un coefficient d'encéphalisation élevé : le crâne se développe de manière plus rapide que le reste du corps. Puis, au fur et à mesure du développement, ce rapport diminue progressivement et les mammifères retrouvent, à l'âge adulte, une taille de crâne plus proportionnelle au reste du corps.

L' homme fait partie des très rares mammifères à garder "une grosse tête"... Comme si nous avions conservé des caractéristiques embryonnaires et stoppé notre développement.
A noter aussi, le grand nombre de circonvolutions du cerveau humain qui ressemble très fortement à celui du chimpanzé... à la naissance !
Gérard Nissim Amzallag en déduit : "C'est encore une indication de l'arrêt précoce du développement accompagnant l'hominisation"... 
"L' homme végétal" Gérard Nissim Amzallag (Albin Michel)

 

 
Mesurer un crâne n'est pas sans danger !

Au 19 et 20e siècle notre société a cherché à classifier tous les êtres et la faune qui nous entourent (Linné, Lamarck). 
Un sujet a particulièrement passionné les scientifiques de l'époque, l'étude de la taille du cerveau humain. 
En filigrane, ces études voulaient également classifier entre eux les différents êtres humains et démontrer que l'homme se trouvait en haut de l'échelle de l'évolution.
Le concept était relativement simple : plus le volume du cerveau est important, plus l'être est intelligent et évolué.
Cette classification simpliste permettait de classer les noirs en bas de l'échelle avec les singes, puis les jaunes et enfin les blancs… 
Les protagonistes sur le sujet sont nombreux, en voici quelques-uns :
Paul Broca (1824-1880), fondateur de la Société d'anthropologie, publia de nombreuses études sur la taille des cerveaux masculins, féminins, mais aussi sur leurs évolutions dans le temps…
Gustave Le Bon (1841-1931) qui soutenait que l'écart entre le cerveau de l'homme et celui de la femme se creusait, en éliminant les sujets extrêmes qui contre-carraient sa théorie (ou ses préjugés ?).
Emile Durkheim dans " L'Homme et les sociétés " (1881) qui reprit dans un premier temps les thèses de Gustave Le Bon avant de s'en écarter.

Toutes ces théories ont servi de base au racisme et à la prétendue inégalité entre les "races ". Même L'origine des espèces de Charles Darwin a pu être ainsi détournée en distinguant les "races moins évoluées", " le plus évolué l'emporte" et en l'appliquant aux être humains…


 

Le gène qui rend notre cortex si humain

 

Des chercheurs ont réussi à isoler un des gènes du néocortex, cette mince couche de matière grise toute plissée, si caractéristique du cerveau humain. Mieux : ils sont remontés à l’origine de son apparition.

Cette image
 montre le cortex cérébral d'un embryon de souris. Les noyaux cellulaires sont marqués en bleu et les neurones de la couche profonde en rouge. © MPI f. Molecular Cell Biology and Genetics
 
Cette image montre le cortex cérébral d'un embryon de souris. Les noyaux cellulaires sont marqués en bleu et les neurones de la couche profonde en rouge. 

Sans lui, on ne vaudrait pas tripette en matière de réflexion, de planification, d’anticipation ou d’imagination. Lui, c’est le néocortex, cette mince couche de matière grise toute plissée qui recouvre nos deux hémisphères cérébraux, siège des fonctions cognitives supérieures de l’être humain. Une équipe du Max Planck Institute of Molecular cell biology and genetics (Allemagne) affirme avoir réussi à isoler un des gènes responsables de cette structure caractéristique et à remonter à l’origine de son apparition.

56 gènes jouant un rôle dans le développement du cerveau humain

EXPANSION. Notre néocortex est à peine 15 % plus épais que celui du macaque… mais dix fois plus étendu. De ce fait, pour tenir dans notre petite boîte crânienne non extensible, il se plisse encore et encore, formant sillons et circonvolutions, si caractéristiques de notre encéphale. "L’expansion du néocortex est typique de l’évolution des primates et surtout des humains,explique Wieland Huttner, directeur du groupe de recherche. Pour parvenir à une telle croissance cérébrale, notre génome (ensemble du matériel génétique de l’organisme, ndlr) a dû se transformer durant l’évolution"

COMPARAISON AVEC LA SOURIS. Pour fabriquer un gros cortex humain, il faut donc qu’à un moment donné du développement cérébral, un nombre très élevé de neurones soit produit. Dans l’embryon, les neurones se forment à partir de plusieurs populations de cellules souches cérébrales appelées "progéniteurs". Ce sont elles qui ont retenu l’attention des chercheurs. Ils ont tout d’abord isolé les différentes populations existantes puis ont identifié précisément quels gènes étaient actifs pour chaque type cellulaire. Enfin, ils ont comparé ces gènes actifs dans l’embryon humain à ceux actifs chez le fœtus de souris.

Sachant que si le cerveau humain est gros et plissé, celui de la souris est petit et lisse. Au final, l’équipe a identifié 56 gènes jouant un rôle dans le développement cérébral et présents chez les humains uniquement. Parmi eux et le gène ARHGAP11B s’est montré particulièrement actif chez certains progéniteurs dits "basaux" fondamentaux dans le processus d’expansion du cortex.

Des informations clés sur l'évolution de l'Homme

UN GÈNE SPÉCIAL. Pour aller plus loin, les chercheurs se sont concentrés sur la fonction de ce gène spécial. Ils ont fait l’hypothèse que s’il était responsable d’un plus gros pool de cellules souches chez l’humain et ainsi d’un cortex plus étendu (et plissé), alors ce gène spécifique à l’humain devrait déclencher un développement similaire dans le cerveau d’une souris.

Ni une ni deux, ils ont introduit le gène ARHGAP11B humain chez l’embryon de souris et, en effet, ils ont pu apprécier le résultat cinq jours plus tard : sous l’influence du gène spécifique à l’humain, la souris s’est mise à produire plus de cellules souches cérébrales. Mieux, dans la moitié des cas, des plissures du néocortex sont apparues ! "Nous n’avons pas testé les fonctions cognitives de ces (super)souris, affirme Wieland Huttner car jusque-là nous n’avons observé que les embryons de souris. Pour tester ces fonctions nous aurions besoin d’une lignée de souris transgéniques, que nous n’avons pas encore".

NÉANDERTAL. En revanche, cela apporte des informations clés sur l’évolution de notre espèce. En effet, des données collectées par d’autres chercheurs du Max Planck  Institute for Evolutionary Anthropology montrent que le ARHGAP11B était présent également dans le génome de l’homme de Neandertal et du Denisovien (hominidé identifié en 2010, qui aurait vécu en même temps que l’homme de Néandertal et Homo sapiens), mais pas chez le chimpanzé qui a un cerveau trois fois plus petit que le nôtre et avec qui nous partageons pourtant 99% de notre génome. "ARHGAP11B est donc apparu après la séparation de la lignée humaine et de la lignée chimpanzée, mais avant la séparation entre Néandertal et l’homme moderne, conclut Wieland Huttner. En d’autres termes, ARHGAP11B aurait bien contribué à l’expansion du néocortex qui est notre marque de fabrique."

Elena Sender

À lire aussi " Environnement et SN" "Histoire"
 
- Comment l'ADN de Néandertal influe sur notre santé
 
- Deux études précisent notre part de Néandertal
 
- Paléopathologie paléolithique . Les maladies de l'homme préhistorique 
 
- Le Néandertal en nous : Quand les gènes revisitent la préhistoire

 

"LE CERVEAU DES ATTENTATS"

20 juillet 2016

Le Massacre des Innocents Bruegel

Le « cerveau des attentats » au pied de la lettre

 

Chaque année, de nouveaux mots et de nouvelles expressions naissent ou renaissent dans un débat public constamment remué par l’évolution des techniques et des sociétés. Or le langage joue une influence considérable – souvent implicite – sur la formation des opinions, d’où résulte l’exigence toujours renouvelée d’en préciser le sens et d’en mesurer la portée.

A la suite des tueries commises en 2015 sur le territoire français, une expression est devenue un élément de langage quasi incontournable pour dénoter notre ennemi public n°1  : le «  cerveau des attentats  », cette menace dépersonnalisée et multiforme qui prospère tantôt dans les mosquées salafistes, tantôt dans les faubourgs de Saint-Denis, tantôt en Syrie.

Reprise par la plupart des organes de presse et par de nombreux hommes politiques, le «  cerveau des attentats  » fait partie de ces expressions toutes faites qui traduisent d’abord la difficulté, sinon le renoncement à penser le terrorisme au-delà des lieux communs et des rhétoriques trompeuses.

Le cerveau des attentats
Le cerveau des attentats - Antoine Doré

Un cerveau pour dix terroristes ?

Si on prend l’expression au pied de la lettre, chercher sans relâche lecerveau d’attentats commis par une dizaine d’individus revient en quelque sorte à nier l’existence d’une psychologie propre à ceux-là qui ont agi. Elle réduit ces kamikazes à des pantins cérébro-lessivés par une intelligence occulte, extérieure à notre société et étrangère à notre culture. Dangereuse car implicite, cette représentation de la situation est problématique à l’heure où nous voudrions déradicaliser et donc comprendre l’infime frange de la jeunesse française candidate au "djihad mineur".

Les motifs d’espoir existent pourtant. Depuis une décennie, quelques chercheurs se sont penchés avec rigueur sur les déterminants de la violence terroriste. Dans le même temps, neurobiologistes et psychologues ont fait d’importants progrès dans la compréhension des comportements violents et antisociaux. Il est urgent que ces connaissances entrent dans le débat public, qu’elles soient prises en compte par les institutions, et qu’elles fassent l’objet de sérieux approfondissements. C’est aussi le sens de l'appel publié le 18 novembre 2015 par Alain Fuchs, président du CNRS.

Le « cerveau des attentats » est-il un « cerveau malade » ?

Bien qu’il soit juste et compréhensible sur un plan moral, le lexique de la folie et de l’aliénation (« fous », « monstres », « malades », etc.) utilisé pour décrire les terroristes est rarement justifié sur le plan clinique. En effet, les nombreuses études rétrospectives menées sur les combattants de l’IRA (Irlande), de l’ETA (Pays-Basque) ou d’Al-Qaeda montrent que les terroristes – islamistes ou non – sont le plus souvent dans la «  distribution normale  » en matière de pathologies psychiatriques, d’origine sociale ou d’éducation. Autrement dit, il n’existe pas de tableau psychiatrique, psychologique ou socioéconomique qui serait typique du terroriste kamikaze. 

Établi et accepté dans un rapport remis au Congrès des Etats-Unis dès 1999, ce constat a aussi été discuté dans la prestigieuse revue Science sous l'impulsion de Scott Atran. Pionnier de la recherche sur le terrorisme, cet anthropologue franco-américain rappelle par ailleurs que le «  succès » associé à l’engagement djihadiste sur Twitter ou Facebook constitue une motivation aussi simple que puissante pour les candidats au martyre, sensibles au respect et à l’admiration suscités chez certains par leur projet morbide (voir l’intervention d’Atran auprès du conseil de sécurité de l’ONU, en anglais, et le rapport en français qui lui est associé).

Un altruisme paradoxal

Psychologiquement, l’attentat suicide s’apparente d’ailleurs plus à ce que les chercheurs nomment une «  punition altruiste  » qu’à la folie meurtrière responsable des nombreuses tueries observées aux Etats-Unis. Cette dernière est souvent liée à une pathologie mentale préexistante, ce qui explique les efforts de Barack Obama pour renforcer le contrôle des ventes d'armes aux individus souffrant de maladies psychiatriques.

Au contraire, « [la punition altruiste consiste à] encourir un coût (en argent, en effort, en statut social, etc.) pour rétablir une norme sociale (de coopération ou autre) qu’il estime importante, au-delà donc de son strict intérêt personnel. Au quotidien, un individu aura tendance à le faire s’il se sent supporté par le reste ou la majorité des individus environnants. » Sacha Bourgeois-Gironde .

Ainsi, que les terroristes aspirent à la charia ou à la souveraineté démocratique en terre d’islam ne change pas grand-chose, puisque le soutien (effectif ou présumé) du groupe social auquel ils s’identifient apparaît comme la cause première de leur démarche. C’est aussi pourquoi l’échange bidirectionnel entre les cultures arabo-musulmanes et judéo-chrétiennes est le premier remède contre le terrorisme. Symbolisée par l’ouverture des synagogues, des églises et des mosquées ou encore par la tolérance des signes religieux comme la kippa, la croix et le voile, la construction du sentiment d’appartenance à la société française dépend fortement de la capacité des citoyens à comprendre les émotions et les sentiments moraux qui animent autrui au-delà du cercle social habituel.

Si l’appartenance religieuse joue évidemment un rôle important puisqu’elle supplante l’appartenance nationale dans l’imaginaire des djihadistes, la recherche montre que ceux-ci ne naissent pas et ne vivent pas dans un milieu plus religieux que la moyenne. Une étude menée en Palestine suggère même qu’en dépit de sa capacité à segmenter l’humanité en communautés de croyances, le sentiment religieux lui-même ne prédispose pas à considérer le terrorisme comme une cause moralement juste.

Le dilemme du tramway, très utilisé pour étudier la prise de décision morale
Le dilemme du tramway, très utilisé pour étudier la prise de décision morale

Adaptant le célèbre "dilemme du tramway", les chercheurs ont demandé à plus de 1000 jeunes de décider s’il serait juste ou non de tuer un Palestien pour sauver cinq Israéliens ou cinq Palestiniens. Au premier groupe de sujets, on demandait de décider directement de la meilleure conduite à tenir. Au second groupe, on demandait quelle décision Dieu approuverait le plus. Or, contrairement à l’idée reçue selon laquelle les croyances religieuses seraient l’épicentre de la violence inter-ethnique, les jeunes du second groupe étaient clairement plus enclins que ceux du premier groupe à sacrifier l’homme palestinien pour sauver des vies israéliennes...

Peut-on prévenir les dérives violentes à l’aide des neurosciences ?

Si le terroriste ne se distingue ni par son état mental, ni par sa religiosité, ni par son niveau d’éducation, ni par ses croyances, comment initier une réflexion d’ordre neurobiologique  ? Commençons peut-être par ce qui fait du djihadiste un criminel  : la violence préméditée et le passage à l’acte.

En termes scientifiques, la violence préméditée correspond à l’agression proactive, par opposition à l’agression réactive. Les causes et les conséquences de ces deux phénomènes sont très différentes. En 2015, une étude menée chez plus de 250 adolescents a par exemple montré que la violence proactive pourrait refléter la volonté d’accéder à un statut social élevé, tandis que la violence réactive dénoterait plutôt un statut social bas. De plus, alors que la violence proactive n’est pas ou peu dépendante des niveaux circulants de cortisol (l’hormone du stress), la violence réactive l’est fortement. Enfin, l’agression proactive résulte plutôt d’une difficulté à ressentir des émotions, tandis que l’agression réactive provient d’une incapacité à réguler ces dernières.

Au niveau cérébral, ces découvertes se traduisent, chez les individus violents de type proactif, par l’hypo-réactivité d’une structure centrale pour les émotions, l’amygdale. Chez les individus violents de type réactif, on observe au contraire une hyper-réactivité de cette même structure. Poursuivant une piste de recherche prometteuse, un groupe de recherche a même montré qu’une stimulation électrique douce du cortex préfrontal antérieur permettait de réduire les niveaux d’agression proactive, mais qu’elle restait sans effet sur les niveaux d’agression réactive. 

L'amygdale, structure clé des émotions
L’amygdale, structure clé des émotions -  

Etant donné que la stimulation du cortex préfrontal antérieur modifie aussi la manière dont les individus perçoivent les relations de dominance entrenues avec autrui, ces résultats renforcent peut-être le lien entre violence proactive et quête de statut social (voir aussi la thèse soutenue par l’auteur du présent blog, -bases cérébrales des processus de compétion et de hiérarchisation sociales , p. 241-246).

Sera-t-il un jour possible par cette technique de prévenir les dérives en traitant précocément les auteurs d’actes violents ? Des essais cliniques répondront peut-être à cette question dans les deux décennies à venir. En attendant, il faut garder à l’esprit que la visibilité des études en laboratoire est limitée, puisque les protocoles expérimentaux les plus « violents » utilisent seulement des petits chocs électriques, de faible intensité et sans conséquences.

Syndrome E, amphétamines et psychopathie

Il y a presque 20 ans, le neuroscientifique Itzhak Fried proposait déjà que les individus capables de tuer froidement se démarquent moins par un raisonnement dysfonctionnel que par une «  fracture cognitive  » entre processus émotionnels et décisionnels. Cette fracture aboutirait à ce que Fried a appelé le «  Syndrome E  » apparenté à la psychopathie, qui mêle disparition de l’empathie et diverses modifications émotionnelles.

D’ailleurs, sans altérer profondément le libre arbitre ou la volonté comme le voudrait un fantasme très répandu, la cocaine et les amphétamines utilisées par certains djihadistes peuvent néanmoins faciliter le passage à l’acte et le sang-froid. En amont de l’acte lui-même, parce qu’ils agissent sur le système dopaminergique et altèrent les activités de l’amygdale, ces psychostimulants miment en quelque sorte la psychopathie et induisent un important narcissisme, une confiance en soi exacerbée, ainsi qu’une sensibilité accrue aux questions de dominance sociale. La rencontre avec ces molécules joue donc peut-être un rôle dans les changements de personnalité qui précèdent ou accompagnent la radicalisation.

Conclusion

Pour conclure, nous espérons avoir montré que la recherche sur les causes du terrorisme, à l’échelle de l’individu et de son groupe social, est possible, souhaitable, et que ses conclusions s’opposent parfois directement à certaines idées préconçues sur le phénomène. C’est pourquoi l’idée selon laquelle les seuls cerveaux qui importent sont ceux qu’il nous resterait à tuer ou à emprisonner est particulièrement mortifère.

En focalisant notre attention sur cet insaisissable «  cerveau des attentats  » qui gambaderait entre les bombes de nos Rafales, nous perdons de vue l’essentiel  : les causes ayant amené des Français à sacrifier leur vie pour punir le peuple auquel ils sont censés appartenir. Tout comme la vraie-fausse «  fermeture des frontières  » actée puis annulée par François Hollande le 13 novembre au soir ou l’ubuesque débat sur la «  déchéance de nationalité  », la traque du «  cerveau des attentats  » s’inscrit dans un subtil jeu de glissements sémantiques qui servent sans doute les ambitions électorales de certains, mais qui s’opposent aussi à une lutte intelligente contre le terrorisme. 

Romain Ligneul

 

Une morale sans dieu ?

 

La non-violence et le respect d'autrui reposent sur des bases cérébrales indépendantes des cultures et des religions. Cette réalité biologique rend a priori possible une morale universelle, dont les neurobiologistes poseraient les fondements. 

 
 

Le 24 août 1572, jour de la Saint Barthélémy, le carillon de l’église Saint-Germain l’Auxerrois donne le signal du massacre des protestants. Ici, scène de massacre dans l’appartement de la reine de Navarre, par Fragonard.

 

Le contexte international est un triste rappel de la capacité des religions, sous leurs formes extrêmes, à entretenir la violence. Derrière les attentats à l'échelle planétaire et les conflits séculaires au Moyen-Orient, résonnent les discours doctrinaires où se mêlent le bien et le mal, où l'on condamne des infidèles et où l'on promet le paradis en récompense de meurtres commis au nom de la parole divine.

Cette situation n'est pas nouvelle : croisades et guerres de religion ont régulièrement mis l'humanité à feu et à sang. Tout comme la Sainte Inquisition il y a quelque siècles, le djihad prône aujourd'hui l'élimination d'une frange de l'humanité qui ne partage pas ses conceptions du « bon droit ».

Les religions sont-elles coupables de dresser les hommes les uns contre les autres en vertu d'idéaux intransi­geants ? Le plus souvent, les motifs des conflits sont aussi économiques et impérialistes : même si les religions ne constituent pas le principal motif de désaccord entre individus (elles énoncent, au contraire, nombre de principes communs), elles délimitent des frontières entre les communautés, créent des motifs de ralliement, reléguant au second plan l'intérêt pour les préceptes spirituels.

Ces clivages peuvent-ils être dépassés ? Les religions n'ont pas toujours divisé les hommes. Le sociologue Émile Durckheim soulignait que la vocation originelle des religions (songeons aux tables de la loi reçues par Moïse) était d'aider les hommes à se fixer des règles de vie, une « morale » ou une « éthique », en même temps qu'elles expliquaient l'origine du monde à travers une imagerie mythique. La source de la discorde proviendrait plutôt du fait qu'elles ont évolué en parfaite ignorance les unes des autres, s'entourant au fil des millénaires de formulations apparemment contradictoires, mais qui portent le plus souvent sur la lettre que sur l'esprit. Ne peut-on essayer de revenir aux fondements de l'éthique (recherche du bien) que partagent la plupart des religions, et qui pourraient s'appliquer à tous ? Pour ce faire, il faudrait revenir à ce qui caractérise tous les êtres humains : un cerveau et des interactions sociales.

Un système cérébral d'inhibition de la violence

Le cerveau humain dispose d'une capacité unique dans le règne vivant : la capacité de se représenter ce qu'éprouve autrui. Devant une personne qui, les sourcils froncés et le front plissé, remue des papiers sur une table, nous pensons : « Cette personne ne trouve pas ce qu'elle cherche et cela la préoccupe. » Chacun est capable d'opérer ce changement de perspective, chacun est doué d'empathie.

Quand nous voyons une personne tendre la main vers une pile de papiers, certains neurones dans notre cerveau reproduisent l'activité nerveuse qui commande ce geste chez la personne observée. C'est, en quelque sorte, comme si nous répétions le geste en silence. Si nous ne le réalisons pas à proprement parler, c'est parce que d'autres zones cérébrales inhibent l'action et se contentent de la laisser sous forme « virtuelle ».

Les neurones qui imitent l'action d'autrui en silence sont nommés neurones miroirs. Ils ont été mis en évidence chez des singes macaques voici une dizaine d'années, puis récemment chez l'homme lors d'opérations chirurgicales destinées à soigner l'épilepsie.

Outre la faculté d'imiter intérieurement les gestes d'autrui, le cerveau détecte spontanément, derrière ces gestes, des intentions, et ce, dès le plus jeune âge. Le psychologue David Premack a démontré, dans les années 1980, que les nourrissons attribuent des intentions à des objets animés de mouvements, quand ceux-ci se heurtent. S'ils entrent en contact avec douceur, l'enfant leur attribue une intention « bonne » ; s'ils se heurtent violemment, il leur attribue une intention « méchante ». On le voit, les notions morales se développent spontanément chez l'enfant. Cette caractéristique très précoce est indépendante de son contexte culturel : le cerveau détecte des intentions derrièe les mouvements.

Dans les années 1990, le psychiatre James Blair, de l'Université de Bethesda, note que chez les animaux vivant en groupes, aucun animal n'attaque un congénère qui adopte une attitude soumise. Il observe la même attitude de commisération chez des enfants voyant un autre enfant pleurer : ils ressentent de la tristesse et répriment leur agressivité. Dès lors, J. Blair suppose l'existence, dans le cerveau, un système d'inhibition de l'agressivité : le cortex frontal contrôlerait les pulsions agressives issues des noyaux profonds du cerveau, dans le système limbique. Un tel système d'inhibition de l'agressivité identifierait la souffrance chez l'autre et nous la ferait ressentir en stimulant les zones cérébrales habituellement activées lorsque l'on souffre soi-même.

Selon J. Blair, ce système d'inhibition de l'action est une des clés du comportement éthique naturel qui conduit l'être humain à épargner son semblable. Il remarque notamment que, lorsque des lésions cérébrales ont altéré le système d'inhibition de la violence, l'individu peut certes identifier l'état mental ou émotionnel d'autrui grâce à ses neurones miroirs, mais que cela ne l'empêche pas de faire le mal. C'est le cas de certains psychopathes (adultes et enfants) qui évaluent correctement les états mentaux de l'autre, mais se comportent néanmoins violemment sans être le moins du monde touchés par le spectacle de la souffrance qu'ils infligent.

Si l'être humain dispose de structures cérébrales, présentes en germe dès la naissance, qui lui offrent un accès aux émotions et aux pensées d'autrui, et le porte à épargner ses semblables, pourquoi la violence existe-t-elle ?

On le sait, la compassion peut être occultée par le souci de sa propre survie, ou par toute règle sociale conduisant à dégrader l'image de l'autre. Les conduites meurtrières « légalisées », souvent citées dans les massacres ethniques du Rwanda dans les années 1990, ont ainsi été interprétées par le neurologue Itzhak Fried, de l'Université de Californie, comme le résultat d'un dysfonctionnement collectif des aires préfrontales du cerveau, entraînant une « déconnexion » du système d'inhibition de la violence. Dans pareil cas, le contexte social et le discours tenu au sein d'un groupe ont laissé leur empreinte sur le fonctionnement du cerveau. À l'évidence, la morale naturelle fondée sur les neurones miroirs, l'accès aux pensées d'autrui et l'inhibition de la violence, est de peu de poids si elle n'est relayée par une morale institutionnalisée.

Le neurobiologiste Jean-Pierre Changeux a développé, dans les années 1980, le concept d'épigenèse pour rendre compte de la malléabilité du cerveau et de la façon dont il est façonné par les lois du groupe. L'enfant apprenant à se conduire en conformité avec les règles sociales, morales ou religieuses de sa communauté subit un modelage cérébral : les idéaux qu'on lui transmet sont mémorisés sous forme de connexions synaptiques dans son cerveau. Le pouvoir des discours religieux à cet égard est considérable.

La morale est-elle naturelle ou culturelle ?

Pour le neurobiologiste, deux morales coexistent : une morale naturelle reposant sur la compassion et sur l'inhibition de la violence, et une morale culturelle imprimée dans le cerveau par l'éducation. Les règles morales et religieuses s'articulent aussi selon ces deux composantes. Elles comportent des principes proches de la disposition naturelle empathique et un florilège de préceptes contingents, édictés au gré des cultures et des exigences propres à chaque société. Les enfants, dès l'âge de trois ans, ont l'intuition de ce qui est important et de ce qui l'est moins dans ces codes de conduite. Selon le psychologue américain Elliott Turiel, de l'Université de Berkeley, il existe chez les Amish ou les Juifs orthodoxes, un domaine de conventions sociales et un domaine d'impératifs moraux. Les enfants de ces communautés considèrent que les préceptes conventionnels, tels le jour du culte, les habitudes alimentaires ou le port d'un couvre-chef, peuvent être transgressés, tandis que des obligations morales, telle la non-agression physique, sont inflexibles.

Les trois grandes religions monothéistes proposent des formulations similaires de ces règles fondamentales. C'est le cas du commandement : « Tu ne tueras point » du Judaïsme, de l'injonction « Tu aimeras ton prochain comme toi-même » des Chrétiens, et de l'interdiction de tuer pour un Musulman. C'est dans le détail des préceptes secondaires que les religions se distinguent, mais ces divergences sont suffisantes pour enfanter l'intolérance, car, pour chaque communauté, l'ensemble des codes moraux est issu d'une divinité surnaturelle et revêt, par conséquent, un caractère non négociable.

Au XVIIIe siècle, Kant évoqua la notion de dignité humaine, l'interdiction de considérer l'autre comme un moyen, et l'obligation de le considérer comme une fin en soi. Cette dignité est universelle et Kant la voulait indépendante des cultures ou des croyances. Aujourd'hui, les neurosciences nous montrent que ce concept, forgé par l'esprit du philosophe, s'accorde avec une réalité biologique : l'inhibition de la violence et la capacité de reconnaître sa parenté avec l'autre.

À la différence de la religion, les sciences considèrent que l'impératif moral est issu de l'observation et de la réflexion méthodique, consensuelle et débattue. L'universalité des méthodes scientifiques de raisonnement, d'investigation et de réfutation, laisse espérer l'identification de principes éthiques universels, fondés sur la connaissance du cerveau et de la cognition sociale. En outre, la science n'est pas un système dogmatique, ni un édifice achevé. L'éthique fondée sur des bases scientifiques est ainsi sujette à révision, en fonction des circonstances, de l'histoire des idées ou des situations politiques.

Pour éviter les disparités d'interprétation et les sectarismes, une telle éthique se doit d'être légitimée par la faculté d'observation, de délibération et de raisonnement, dont Descartes estimait chacun dépositaire. Après tout, ce transfert d'autorité a déjà été réalisé dans le domaine politique, lors de la transition de la monarchie à la démocratie en France au XVIIIe siècle. Jusqu'alors le roi était de droit divin : il est devenu le roi de droit populaire, c'est-à-dire un chef élu.

Comment mettre en pratique cette éthique démocratique ? La prise en compte des avancées scientifiques, comme œuvre collective et vérifiable par chacun, ne peut que bénéficier à l'universalité des règles éthiques et au dépassement des conflits entre « sous-systèmes » religieux et culturels. Le comité d'éthique travaille en ce sens, mais ses efforts seront vains s'il n'est relayé par un comité mondial, épaulé par la plus grande puissance militaire du moment (dont la réflexion éthique reste, à ce stade, très limitée). Pour l'instant, cette approche peut sembler déstabilisante, car elle donne du bien l'image d'une valeur sujette à révision, redéfinissable en fonction de l'évolution des sociétés, relative dans le temps autant qu'universelle dans l'espace, contrastant en cela avec les certitudes propagées par les religions.

Une éthique universelle : un projet utopique ?

L'approche scientifique admet en outre un présupposé de taille : l'existence d'un lien de causalité entre la nature humaine biologique et les règles du bien et du mal en vigueur dans la société, ce que contestent certains moralistes qui font valoir la dimension historique de la morale. La détermination d'une loi, bonne dans le cadre d'une société donnée et à une époque donnée, ne peut résulter du seul examen des cerveaux des individus, mais reste liée aux données particulières de la morale dans cette société et à cette époque.

C'est la principale critique formulée par le philosophe Paul Ricœur, dubitatif quant au bien-fondé d'une morale naturelle. Selon P. Ricœur, l'éthique ne saurait être fondée sur l'analyse du cerveau humain. Pourquoi ? Parce que rien ne permet d'affirmer que les prédispositions cérébrales pour l'empathie l'emportent sur les prédispositions violentes. Les neurobiologistes qui entendent donner une justification naturelle à la morale partent du fait moral tel qu'il existe aujourd'hui (une production historique et sociale) ; ils constatent que ce fait moral s'articule autour de la règle de non-violence, et cherchent ensuite, par une démarche rétrospective, à dénicher ce qui, dans la lignée évolutive menant à l'homme, justifierait cette morale. Si les repères moraux étaient différents (comme ils l'ont été sous l'idéologie nazie), la même démarche identifierait des faits scientifiques le corroborant.

La persistance du mal comme une possibilité de tous les instants, à part égale avec la notion diffuse du « bon comportement », montre bien que le cerveau ne détient pas à lui seul les clés de l'éthique. Selon P. Ricœur, il faut une norme institutionnelle qui matérialise notre choix d'un bien devant un mal. Mythes et religions sont un espace de décision morale pour l'individu, qui choisit, en adhérant à une entité qu'il veut plus haute et plus forte que lui, de préférer le bien (une visée) au mal (un penchant humain, selon Kant). Les systèmes moraux et religieux doivent, par conséquent, être conservés comme justification des choix de vie, et préférés à la science.

P. Ricœur constate à ce propos la pluralité des systèmes de justification existants : il y a plusieurs morales sur Terre, plusieurs mythes, plusieurs religions. Alors que J.-P. Changeux déplore ce buissonnement source de dissensions, et prône un retour aux sources de la compassion commune à tous les textes sacrés, P. Ricœur soutient que cette pluralité est nécessaire. Chaque culture a besoin de son accès propre au religieux, comme chaque personne a besoin de sa langue pour fournir un socle à sa pensée. Sans langue maternelle, on n'accède pas au signifié ; sans code complet de symboles et de rites, on n'accède pas au fait religieux, dans ce qu'il a de structurant devant le bien et le mal. La pluralité des systèmes moraux ne représente que la diversité des accès à la morale ; on pourrait presque dire, à condition d'un dialogue intelligent entre systèmes éthiques, que le fait moral représente un noyau vers lequel les religions et les systèmes éthiques convergent.

Plutôt que d'abolir les religions, il conviendrait par conséquent d'y introduire une nuance nouvelle : aucune religion « n'a raison », pas davantage qu'une langue n'exprime, mieux qu'une autre, la réalité des choses. Elles sont simplement la déclinaison d'un fait qui nous aide à définir ce que nous pensons être le bien, et à y adhérer.

Quelle position assigner aux neurosciences dans ce débat ? Si la norme morale, dans sa dimension historique, voire spirituelle, conserve un pouvoir législatif indispensable, son application ne peut que s'enrichir de la découverte, dans le cerveau humain, d'un soubassement « naturel » à l'exercice du bien. Le choix reste à faire des méthodes à employer pour faire vibrer cette corde bienveillante. Pour l'instant, la certitude scientifique que nous l'avons tous dans nos gènes doit nous rendre plus attentifs aux circonstances qui en entravent le fonctionnement.

Sébastien Bohler

BÂILLER , POURQUOI ?

un dossier de Olivier Walusinski

10 juillet 2016

"Un Client Sérieux" Marius Joseph Weiss

Pourquoi le bâillement est-il communicatif ?

 

Un célèbre dicton populaire prédit qu' « un bon bâilleur en fait bâiller sept ». Alors, pourquoi un bâillement est-il communicatif ? Du point de vue neurologique, ce comportement mimétique serait principalement dû aux neurones moiroirs. Explications.

Il est coutumier de parler de « contagion » lorsqu'un individu bâille après un autre. Ce terme est pourtant adapté aux maladies infectieuses quand, par contact direct ou indirect, un Homme sain devient malade en raison de la transmission d'un virus ou d'un microbe.

La « réplication » d'un comportement ne sous-entend quant à elle aucune transmission d'un agent quelconque, à la différence du terme « contagion ». Il semble donc plus précis de parler d'imitation comportementale, de synchronisation d'actions en ce qui concerne le bâillement. C'est pourquoi nous userons du terme de « réplication ».

 

Le bâillement est souvent communicatif.
 Cela est dû aux neurones miroirs. Ici, l'impressionnant bâillement d'un mandrill. © Edwin Butter, Shutterstock
Le bâillement est souvent communicatif. Cela est dû aux neurones miroirs. Ici, l'impressionnant bâillement d'un mandrill.  

La transmission du bâillement

L'étude éthologique des primates révèle qu'à certains moments, un groupe entier se met à bâiller ensemble, sans qu'un individu ne puisse percevoir l'autre de quelque manière que ce soit, ni visuellement, ni auditivement, ni olfactivement.

Il ne peut donc pas être considéré qu'un tel comportement soit comparable à la réplication interhumaine ; il est lié, par exemple, à la reprise d'activité de façon synchrone, en raison des rythmes circadiens repos-activité. Évidemment, chez l'Homme, dans certains cas, ces deux variantes peuvent se confondre. Compte tenu de ces précisions et d'autres observations éthologiques, on peut estimer que la réplication du bâillement n'est retrouvée que chez l'Homme.

Cette réplication de bâillement est initiée involontairement. Le bâilleur n'éprouve aucun désir de faire bâiller et le spectateur-receveur de la réplication n'a pas conscience d'un désir de bâiller. Le bâillement de ce dernier est, lui aussi, initié de façon totalement involontaire, mais seulement si son niveau de vigilance l'autorise.

En effet, l'implication dans une tâche intellectuelle soutenue (c'est-à-dire avec une concentration élevée ou un niveau de vigilance optimum) ne permettra pas le déclenchement du bâillement. Ce point est fondamental pour l'interprétation éthologique humaine du rôle de synchronisation des états de vigilance entre deux individus soumis à la transmission du bâillement.

Ces photos montrent la variation
 de la longueur des canines d'un macaque et de son statut de dominant… donc de grand bâillleur. © Olivier Walusinski, tous droits réservés
Ces photos montrent la variation de la longueur des canines d'un macaque et de son statut de dominant… donc de grand bâillleur. 

La vue et la réplication du bâillement

Comment se déclenche cette réplication ? La vue est un puissant stimulant. Provine montre que 55 % des spectateurs d'une vidéo montrant 30 bâillements successifs vont bâiller dans les cinq minutes. Le temps de latence varie de quelques secondes à cinq minutes. Temps de latence et durée de la visualisation n'ont pas permis d'établir une règle précise, un type de synchronisation spécifique. Des sourires répétés, en utilisant la même technique que la vidéo des bâillements, n'engendrent que quelques rares sourires, indiquant ainsi la spécificité de la réplication de ce comportement de bâillement.

Provine a également vérifié que le visage du bâilleur n'a aucunement besoin d'être dans un axe visuel précis par rapport à celui qui subit la réplication. Face à face, à 90°, 180°, 270° l'un de l'autre, la réplication a lieu. L'existence d'une susceptibilité à la réplication des aveugles confirme que la vue n'est pas le seul déclencheur stimulant.

La vue d'une partie seulement du visage, comme la bouche largement ouverte, ne déclenche pas la réplication. Il existe donc la nécessité d'une perception multimodale de toute la configuration du visage et des temps respiratoires audibles avec une dynamique coordonnée pour que la réplication se réalise. Alors que la présentation de vidéo de bâillements répétés déclenche la réplication, la visualisation de dessins animés, ne comportant qu'une simplification des traits du visage et de la mimique mobile du bâilleur ne permettent pas la réplication.

Comment déclencher un bâillement ?

D'autres mécanismes que la vue et l'audition peuvent déclencher des bâillements : la suggestion, la lecture d'un texte sur le bâillement, l'évocation par la pensée peuvent ainsi déclencher un bâillement.

La réplication du bâillement semble se situer à un niveau « basique » car elle est indépendante de la connaissance préalable du déclencheur, indépendante de caractères raciaux, éducatifs, socio-culturels, témoignant de l'absence d'intervention mnésique.

Il n'y a pas besoin de caractérisation explicite de l'autre pour subir la réplication. Il faut être à un niveau de vigilance intermédiaire entre somnolence et concentration soutenue, percevoir l'autre de façon inconsciente mais être capable de percevoir une chronologie rigoureuse de la cinématique du bâillement par ces composantes visuelles et ou sonores de l'ouverture de bouche, des modifications spécifiques des autres traits faciaux qui s'y associent, des mouvements et bruits de la ventilation, des reflets de l'inspiration ample et prolongée, de l'acmé et, à un moindre degré, de l'expiration.

Comment déclencher un bâillement ? © DP
Comment déclencher un bâillement ? 

Que se passe-t-il dans notre cerveau lorsque nous bâillons ?

Quels sont les substrats neurophysiologiques du bâillement ? L'expertise visuelle de reconnaissance faciale fait intervenir une grande variété de processus, réponses spécifiques à un besoin social : reconnaissance anatomique d'un visage, du sexe, de l'âge, de ses composants fixes et mobiles avec des critères de vitesse, de coordination, d'harmonie ou de dysharmonie, des expressions qu'ils véhiculent etc.

L'examen des déficits corticaux comme la cécité cérébrale, la prosopagnosie, par exemple, montre qu'à côté de la perception consciente existe un grand nombre d'informations « d'ambiance » de la scène regardée qui ne franchissent pas le seuil de la conscience mais participent implicitement et obligatoirement à la perception d'ensemble.

La perception fait intervenir différentes régions anatomiques des deux hémisphères :

  • Des structures du cortex visuel, par trois parties des régions occipito-temporales : gyrus occipital inférieur, gyrus fusiforme latéral, sulcus temporal supérieur.
  • Des structures du cortex auditif : noyaux cochléaires du tronc cérébral, noyaux olivaires supérieurs, lemnis latéral vers le colliculus inférieur, corps genouillé médian du thalamus, cortex temporal.

Les structures sous corticales gèrent ces perceptions par des boucles amygdalethalamus-insula-système limbique, avec des projections vers le tronc cérébral. Les réactions émotionnelles inconscientes sont supportées par ces modalités baptisées modèle perceptuel et moteur des émotions.

Une fois la perception acquise, le déclenchement moteur du réflexe de bâillement est involontaire et résulte de mise en action de boucles motrices « sous-corticales noyaux gris - tronc cérébral ». En parallèle, il existe une extraction consciente du déroulement du phénomène, de son stimulus et de sa valence contextuelle par les voies de l'intéroception permettant une perception hédoniste consciente. Les voies « tronc cérébral - noyau ventro-médian du thalamus - cortex insulaire - cortex orbitofrontal » sont alors mises en jeu.

Le bâillement est-il perçu comme une affordance ? Les travaux de J. Decety et de son équipe ont identifié les structures corticales engagées lorsqu'un sujet imite les actions réalisées par un expérimentateur ou lorsque ses propres actions sont imitées par l'expérimentateur et les ont comparées à une condition de production d'actions sans imitation : « Comme attendu, en plus des régions impliquées dans le contrôle moteur, un réseau d'activations commun au sein du cortex pariétal et du lobe frontal (les régions préfrontales dorsomédianes) a été détecté entre ces deux conditions d'imitation. Ce réseau d'activations partagées est cohérent avec l'hypothèse d'un codage commun entre les actions du soi et celles d'autrui. Si l'on regroupe les données neurophysiologiques concernant l'implémentation neuronale des trois types d'activité (préparation, simulation et observation pour imiter) qui impliquent les représentations motrices, on s'aperçoit qu'il existe une étroite équivalence fonctionnelle entre elles ».

À gauche : menace. À droite : bâillement. © Olivier
 Walusinski, tous droits réservés
À gauche : menace. À droite : bâillement.  

Menace et bâillement (voir les photos ci-dessus) illustrent les deux aspects de la communication, active (« signal primaire ») et passive (« indice » ou « signal secondaire »). Les deux mimiques sont à leur apogée, en ce qui concerne l'ouverture de la bouche. La menace présente une phase « stationnaire » correspondant à une évolution motrice « conditionnelle » ; c'est-à-dire que son intensité et sa durée dépendent de la réponse du partenaire. Celui-ci est « fixé du regard».

Le bâillement quant à lui, présente une évolution motrice « inconditionnelle ». Il évolue indépendamment du comportement des partenaires. Il ne présente d'orientation privilégiée que lorsqu'il est émis à la suite d'une interaction (sur la photo ci-dessus un mâle adulte, Macaca fascicularis).

Bâillement, neurones miroirs et mimétisme

L'activation du gyrus frontal inférieur dans l'hémisphère gauche, au cours de l'observation d'actions, peut s'expliquer par une verbalisation silencieuse des sujets. Cette zone appartient en effet à la région de Broca dont la lésion provoque une aphasie de production. Rizzolati a découvert dans le cortex prémoteur ventral du macaque, dans les aires F4 et F5, des groupes de neurones appelés « neurones miroirs », dont l'activité est corrélée à l'observation d'une action d'autrui en fonction de son but, catégorisant les actions à un niveau intentionnel. Ces neurones semblent exister chez l'Homme.

En juin 2003, R. Hari a présenté le premier travail d'imagerie fonctionnelle cérébrale, réalisé lors de la perception du bâillement d'autrui. Le sillon temporal supérieur, appartenant à la zone des neurones miroirs, s'active électivement lors de cette perception et n'entre pas en fonction lors de l'observation d'autres mouvements expressifs d'un visage. Il s'agit là de la première preuve scientifique d'un mécanisme neurophysiologique spécifique de la réplication du bâillement.

  • Gyrus occipital inférieur : perception initiale, identification d'une face.
  • Sulcus temporal supérieur : perception des mouvements, des traits et du regard, de l'expression de la bouche.
  • Gyrus fusiforme latéral : perception des éléments invariants d'un visage, perception de l'identité individuelle
  • Sulcus pariétal interne : attention directionnelle.
  • Cortex auditif : perception du langage des bruits respiratoires
  • Amygdale, insula, système limbique : valeur émotive.
  • Cortex temporal antérieur : identification, biographie.
  • Structures sous-corticales : perception inconsciente d'ambiance.

Percevoir les actions réalisées par autrui impliquerait un processus de simulation qui permettrait d'en comprendre les intentions. Cette résonance chez l'observateur ne produit pas nécessairement un mouvement ou une action. Un mécanisme inhibiteur, parallèlement activé et qu'on peut situer au niveau frontal, bloquerait le déclenchement moteur mimétique des actions. En effet, l'étude de la pathologie neurologique humaine des dysfonctionnements frontaux retrouve deux circonstances où l'imitation non inhibée perturbe les comportements :

  • La maladie de Gilles de la Tourette, touchant le cortex préfrontal, les ganglions de la base et le système limbique, associe trois éléments principaux : les tics, la rare coprolalie, et l'écholalie-échopraxie ;
  • Le syndrome préfrontal ou prémoteur associe une aphasie kinésique (lésions hémisphère gauche), et des troubles de la sélectivité des schémas moteurs alors que les fonctions supérieures sont respectées (désautomatisation des activités avec persévérations et imitation rudimentaire et erronée des derniers mouvements de la personne face au malade, cétopraxie).

La réplication du bâillement serait-il un comportement non inhibé, de façon physiologique, et se rapprochant par ses mécanismes de ces pathologies ? À quel âge, chez l'Homme, la réplication du bâillement apparaît-elle ? Piaget, avait montré que l'imitation du bâillement par le bébé n'apparait qu'au cours de la deuxième année de vie, alors que les nouveau-nés bâillent fréquemment, prolongeant ainsi ce comportement apparu précocement au cours de la vie fœtale. Meltzoff propose une interprétation ontogénique à cette discordance. Dans les six premiers mois de la vie, le bébé est capable d'imiter les mouvements des mains parce qu'il voit les mains d'autrui comme les siennes. Par contre, il n'a pas la perception consciente de lui-même comme individu ni perception des mouvements de son visage.

Lorsque le test du miroir indique qu'il a sa propre perception d'individu autonome, qu'il acquiert la capacité de se reconnaître dans le miroir, son développement mental de l'imitation s'achève par la capacité à imiter des mimiques, expliquant ainsi qu'il devienne sensible à la réplication du bâillement au cours de la deuxième année de vie seulement.

L'excès de bâillement peut révéler des pathologies neurologiques. © DR
L'excès de bâillement peut révéler des pathologies neurologiques. 

Bâillements excessifs, pathologies et antidépresseurs

Le 23 octobre 1888, Jean-Martin Charcot présentait à ses confrères une jeune femme incommodée par sept bâillements par minute, soit 420 par heure ! Il mit ces bâillements sur le compte de l'hystérie, mais les autres symptômes qu'elle présentait laissent penser qu'elle souffrait d'une tumeur de l'hypophyse.

L'excès de bâillements peut révéler des pathologies neurologiques d'origine tumorale, vasculaire ou épileptique. La prise d'antidépresseurs est la cause la plus fréquente d'excès de bâillements. Banals lors d'une hypoglycémie ou d'un malaise vagal, les bâillements répétés sont, pour de nombreux migraineux, prémonitoires du début ou de la fin de leur crise.

Inversement, les bâillements disparaissent quasiment au cours de la maladie de Parkinson. Le traitement antiparkinsonien les fait réapparaître.

Le bâillement peut aussi être un outil de diagnostic. Cette patiente de Charcot (voir photo ci-dessus) bâillait toutes les huit secondes environ. Ses bâillements provenaient sans doute d'une tumeur cérébrale qui comprimait et déréglait des zones neuronales impliquées dans le bâillement.

En résumé, admettant que le développement du cortex frontal (moteur) et préfrontal (prémoteur) est spécifique aux bipèdes, on peut donc proposer que la réplication du bâillement soit une véritable échokinésie, pour reprendre ce mot inventé par J.-M. Charcot, que l'on peut caractériser par trois critères :

  • La réplication serait une spécificité humaine interprétée comme un mimétisme comportemental.
  • L'observation d'un comportement moteur d'autrui est mimée par les aires motrices de l'observateur et le plus souvent non suivi d'actes moteurs par inhibition frontale, le bâillement serait-il, lui, sous certaine condition de niveau de vigilance, le résultat d'un comportement non inhibé ?
  • La réplication aurait conféré un avantage sélectif en permettant une synchronisation efficace des niveaux de vigilance entre les membres d'un groupe. Elle participerait d'une forme d'empathie instinctive involontaire, probablement apparue tardivement au cours de l'évolution des hominidés.

D'autres comportements se révèlent contagieux comme le rire (le rire et le cri pathologiques sont associés à des dysfonctions des voies de communications réciproques cortex cingulaire préfrontal antérieur - cervelet), les émotions, avec par exemple la peur, génératrice de fuites collectives ; d'autres structures corticales sont en jeu. Après avoir distingué les réactions programmées, communes à tout le monde animal et les réactions émotionnelles élaborées, propres aux primates, il apparaît que la réplication du bâillement peut participer des deux types de comportements.

Les réactions programmées sont retrouvées chez tous les mammifères. Elles apparaissent nécessaires à la survie individuelle ou de groupe. Elles sont contagieuses par communication non verbale. Il s'agit d'un processus cognitif de communication directe, immédiat non conscient, engendrant des schémas moteurs innés ou acquis telle la fuite ou l'évitement. Baldwin, en 1894 a baptisé mimétisme ce type de comportement. Le bâillement contagieux ne peut correspondre que pour une part à ce niveau comportemental archaïque. Son automatisme l'en rapproche. Mais son caractère aléatoire, sa latence éventuelle sont bien différents.

L'empathie et le partage des émotions

Une émotion exprimée par un congénère nécessite un traitement analytique de l'information afin d'être décryptée. Base de la cognition sociale, l'expression faciale des émotions sous-tend des processus cognitifs élaborés et flexibles. Leurs mises en œuvre et la réponse adaptée nécessitent un temps de réaction nettement plus important, mal adapté à un réflexe immédiat de survie. Seuls les primates humains manifestent la capacité de percevoir les autres comme des agents intentionnels, avec capacité d'identification. Cette capacité à penser l'autre, à comprendre le raisonnement d'autrui et ses désirs sont cruciaux pour l'acquisition de compétences à une vie sociale.

C'est la base de l'empathie réfléchie : comprendre le ressentiment de l'autre, ressentir soi-même ce que l'autre ressent. La réplication du bâillement s'apparente au décryptage d'une émotion, d'un état de vigilance d'autrui à un niveau automatique non conscient permettant une synchronisation d'état de vigilance entre individus, qu'on pourrait qualifier d'empathie instinctive involontaire. Cette capacité à partager des émotions avec autrui (résonnance avec des affects inconscients) repose sur une communication implicite, façonnée au cours de l'évolution, dont les mécanismes neurobiologiques commencent à s'éclairer.

« L'analyse des substrats neurologiques des comportements montre un caractère modulaire permettant une explication évolutive par accroissement graduel des composants. Des structures neuronales spécifiques sous-tendent ce traitement de l'information émotionnelle : l'amygdale, le cortex occipito-temporal, le cortex cingulaire antérieur, le cortex orbitofrontal, avec comme autre caractéristique la prédominance hémisphérique droite ». Le cervelet participe également par ses connexions avec les noyaux gris centraux, comme agent de coordination et de modulation de mouvements automatiques innés ou acquis.

Les études d'imagerie cérébrale, chez l'Homme, s'accordent sur l'idée que la perception des mouvements, des actions réalisés par autrui, et l'imagerie mentale de l'action partagent avec la génération de l'action intentionnelle un ensemble de régions cérébrales.

Olivier Walusinski

 
 

La dernière mise au point d'Olivier Walusinski

 

 

http://pdf.lu/6IRo

 (la suite du dossier : onglet "Environnement et SN" sous-onglet "Autres")

SPRING'S DIGEST

vendredi 1° juillet 2016

Le premier visage humain (La Dame de Brassempouy)

En sculptant il y a 25.000 ans ce fragment minuscule d'ivoire de mammouth un artiste venu du fond des âges nous dit la beauté et la jeunesse de notre plus vieille humanité.
(le cerveau des Cro-magnons était plus volumineux de 15% que celui de l'homme moderne)

LES VEDETTES DU PRINTEMPS 

- Les 5 sens fenêtres ouvertes sur notre cerveau (1)(2)

vendredi 1° avril 2016 et vendredi 8 avril 2016

 
- D'Hippocrate à Brenda Milner / de Phileas Gage à Woodstock 
 
vendredi 15 avril 2016
 

- CANADA NEWS

vendredi 22 avril 2016



- Fête au Travail ? 

1°mai 2016


- Esprit Sain ?

Pentecôte 2016


- Transhumanisme 
   vendredi 27 mai 2016


- Un Seigneur des anneaux

vendredi 3 juin 2016

 

"EURO"-Environnement

vendredi 10 juin 2016

- Faites de la Musique

21 juin 2016   Fête de la musique

 

FAITES DE LA MUSIQUE

21 juin 2016   Fête de la musique

Bernard Vincent "L' orchestre"

La musique contre les troubles de la mémoire

 

La musique renforce la mémoire et les réserves cognitives, précieuses pour lutter contre les effets du vieillissement normal. On a même découvert que des personnes atteintes de la maladie d'Alzheimer peuvent encore mémoriser de nouvelles mélodies.

 

Les musiciens, et notamment les chefs d'orchestre, ont une mémoire impressionnante. Leur pratique musicale renforce les « réserves cérébrales ». Ici, Antoine Marguier dirige le concert donné le 21 mars 2014 au Victoria Hall de Genève, en Suisse.

 

 

- Il existe cinq grands types de mémoire, qui tous sont sollicités par la musique. La pratique musicale renforce notamment la mémoire de travail.

- Cette pratique renforce la connectivité entre les aires cérébrales. C'est sans doute pourquoi elle atténue les effets délétères du vieillissement, en permettant des stratégies compensatrices.

- On montre que des personnes atteintes de la maladie d'Alzheimer à un stade avancé peuvent encore mémoriser des extraits musicaux. 

On a tous en mémoire une chanson particulière, et l'on se souvient de l'année et des circonstances où on l'a écoutée. Le lien entre la musique et les souvenirs personnels est fréquent et étroit, qu'il s'agisse de chansons, de musique folklorique, de musique classique, de chansons populaires : certaines musiques sont des jalons de notre mémoire autobiographique, voire de notre identité.

Je me souviens de ton bouquet de pensées amoureusement cueilli autour du monument aux morts.

Je me souviens de beaucoup de chansons de Claude François.

Je me souviens que mon père nous emmenait à l'école dans la remorque à vélo.

Extrait de Je me souviens, Georges Perec, 1978

 

Ce n'est que depuis la fin des années 1990, c'est-à-dire tout récemment, que les sciences cognitives et les neurosciences ont com-mencé à s'intéresser à la mémoire musicale. Or ces recherches présentent un intérêt tant fondamental que clinique. Intérêt fondamental, car l'écoute et la pratique de la musique sont des activités qui aident à mieux comprendre la diversité et la spécificité des mécanismes neurocognitifs de la mémoire ; intérêt clinique, car les activités musicales sont de plus en plus utilisées pour restaurer des fonctions cognitives dégradées par certaines pathologies. Cela tient notamment au fait que la mémoire musicale est une fonction cognitive étonnamment résistante aux maladies du cerveau.

Qu'est-ce que la « mémoire musicale » ? Bien que la mémoire soit complexe et présente de multiples facettes, plusieurs de ses dimensions sont liées au domaine de la musique. Tout d'abord, elle peut fonctionner selon un mode volontaire, contrôlé, explicite, ou mode conscient, ou selon un mode involontaire, automatique, implicite, ou mode inconscient. En effet, nous mémorisons le monde qui nous entoure soit en faisant un effort mental afin de retenir des informations, ce qui passe par des stratégies de répétitions ou d'associations de ces informations – mode conscient –, soit sans faire d'effort particulier – mode inconscient. Cette distinction est importante, car, en musique, beaucoup de nos connaissances et représentations sont acquises par exposition « naturelle ».

Nous savons que les mécanismes cognitifs complexes et contrôlés, tels que l'encodage d'informations et leur récupération, sont sensibles aux effets des maladies qui perturbent la mémoire. Or la mémoire implicite est plus résistante aux maladies du cerveau. Dès lors, la mémoire musicale, qui est largement supportée par les mécanismes de la mémoire implicite, serait-elle résistante à certaines maladies du cerveau ? Permettrait-elle même de lutter contre elles ? Nous allons examiner ici de nombreux résultats qui l'indiquent.

Mémoire consciente et mémoire inconsciente

À partir de la distinction entre mémoire implicite et mémoire explicite, il est possible d'identifier cinq grands types de mémoires : la mémoire de travail, qui nous permet de retenir et de manipuler une petite quantité d'informations pendant quelques secondes, le fonctionnement de cette mémoire étant volontaire et nécessitant un contrôle conscient ; la mémoire épisodique, qui nous permet de nous rappeler une information spécifique dans le contexte où elle a été acquise, cette mémoire étant celle des événements que nous avons vécus et nécessitant un niveau de contrôle mental complexe ; la mémoire sémantique, qui correspond à nos savoirs sur le monde, dont l'encodage et la récupération peuvent se faire aussi bien de façon relativement automatique, que de façon volontaire et contrôlée ; la mémoire perceptive à long terme, correspondant à la conservation du traitement sensoriel d'une information, et fonctionnant de façon involontaire ; enfin, la mémoire procédurale, qui permet d'acquérir des procédures cognitives et motrices (par exemple, faire du vélo), cette mémoire nécessitant généralement une phase d'apprentissage consciente avant que les procédures apprises ne soient exécutées de façon automatique.

Or il existe de nombreux exemples musicaux de ces différentes facettes de la mémoire : maintenir une mélodie temporairement en mémoire (mémoire de travail), se remémorer le contexte d'exécution ou d'écoute d'une pièce musicale (mémoire épisodique), identifier et reconnaître une musique familière (mémoire sémantique), distinguer et reconnaître des orchestrations différentes d'une pièce musicale (mémoire perceptive), automatiser l'exécution d'une pièce musicale sur un instrument particulier (mémoire procédurale).

Le rôle de l'expertise musicale

Ainsi, l'activité musicale active toutes « les mémoires », surtout lorsqu'elle est pratiquée par un chanteur ou un instrumentiste. Au-delà de ces différents types de mémoires musicales, la musique se conserverait également sous une forme émotionnelle. Les musiciens, et plus généralement les artistes, soulignent l'importance de ce répertoire émotionnel. La prodigieuse mémoire de certains interprètes ou chefs d'orchestre, parfois malgré un âge respectable, fascine. Quel est donc ce lien entre expertise musicale et mémoire ? Est-ce qu'apprendre de nombreuses partitions par cœur a un effet particulier sur l'organisation et le fonctionnement de la mémoire des musiciens ?

L'impact cognitif de la musique a été très étudié, mais, curieusement, l'effet de l'expertise musicale sur le fonctionnement de la mémoire a été négligé, alors qu'apprendre la musique a un effet stimulant sur les processus mnésiques. On sait que les fonctions de planification d'actions, d'inhibition (des erreurs) et de contrôle cognitif sont aussi importantes que les capacités auditives et motrices pour apprendre la musique. Par ailleurs, des travaux d'imagerie par IRM fonctionnelle et électroencéphalographie montrent que le stockage en mémoire de travail et les opérations exécutives appliquées au matériel musical ne semblent pas faire intervenir de modules corticaux spécifiques de la musique : ils impliquent des réseaux généraux qui servent aussi au traitement d'autres types de stimulus (visuels, verbaux).

Chez les non-musiciens, on constate que l'écoute musicale sollicite préférentiellement les aires auditives primaires et secondaires. Chez les musiciens, outre ces aires, sont également activées des régions corticales associatives, telles que le gyrus supramarginal, le cortex préfrontal, le cortex pariétal, le gyrus cingulaire. Or ces aires associatives ont la capacité d'intégrer – d'associer – des stimulus perceptifs différents. Ainsi, sont combinés des stimulus auditifs, visuels (les notes, les portées, etc.) et linguistiques (le « nom » des notes). L'analyse réalisée par le cerveau musicien est plus complexe et plus riche, combinant des informations de natures différentes. Plus la difficulté de la tâche augmente, plus les experts ont recours à ces régions multimodales, et plus leurs performances surpassent celles des sujets contrôles.

Le dialogue des aires cérébrales

Quelles sont les spécificités du fonctionnement cérébral des musiciens ? Comme nous l'avons évoqué, les aires cérébrales « dialoguent » davantage que chez le non-musicien. En outre, on sait que le cerveau des personnes non voyantes de naissance se réorganise, les aires visuelles inutilisées étant allouées à d'autres tâches : par exemple, elles ont une meilleure mémoire verbale que les voyants. C'est aussi le cas dans le cerveau des musiciens. Cette réorganisation fonctionnelle n'est alors pas due à une privation sensorielle (comme chez les aveugles), mais à leur pratique instrumentale qui nécessite d'utiliser le plus de ressources neuronales disponibles pour intégrer toutes les informations associées aux différentes modalités sensorielles : auditives bien sûr, mais aussi, nous l'avons évoqué, visuelles, linguistiques, tactiles (le toucher du piano, la pression de l'archet sur les cordes), ou encore motrices et posturales.

Une équipe de l'Université de Beijing a montré que le cortex frontal, l'amygdale et l'hippocampe, des structures clefs des processus mnésiques, en particulier épisodiques, sont davantage activés chez les musiciens. En 2010, nous avons mis en évidence une augmentation de la densité de substance grise dans l'hippocampe gauche chez les musiciens. Or on sait que cette région est particulièrement importante pour la mémoire épisodique verbale et autobiographique.

Une augmentation de la connectivité cérébrale

Par ailleurs, nous avons récemment montré que certaines régions cérébrales sont mieux synchronisées chez les musiciens du fait de leur pratique. Ce résultat a été obtenu en analysant la connectivité fonctionnelle de leur cerveau au repos : les sujets sont placés dans un scanner IRM et ils ont pour consigne de ne penser à rien de particulier, de laisser leur esprit vagabonder pendant qu'on enregistre l'activité de leur cerveau. Le « connectome » ainsi obtenu révèle que certaines régions du cerveau des musiciens sont davantage connectées, associées à des réseaux cérébraux impliqués dans des fonctions cognitives de haut niveau, telles que le jugement émotionnel, le langage, et les mémoires autobiographique et sémantique. Autrement dit, la pratique musicale a renforcé le « dialogue » de certaines régions cérébrales, qui sont impliquées dans des fonctions cognitives de haut niveau. On comprend pourquoi cette pratique renforce de façon indirecte l'efficacité de ces fonctions cognitives.

Ainsi, le cerveau du musicien est modifié, et présente des caractéristiques directement liées au niveau d'expertise musicale, ce qui influe sur les performances cognitives. Or on sait que ces performances évoluent différemment selon les individus. Ainsi, pour un même degré d'atrophie de telle ou telle aire cérébrale, les conséquences cliniques varient considérablement d'un sujet à l'autre, même s'ils sont génétiquement très proches. Certains ont une plus grande capacité à résister à la perte de neurones et maintiennent un fonctionnement cognitif relativement bon, alors que d'autres subissent un déclin handicapant qui peut conduire à une perte d'autonomie. Deux enfants ne se développent ni à la même vitesse ni de la même façon. De même, la vitesse du déclin cognitif lié à l'âge aussi bien que son amplitude semblent être régulées par les gènes, les comportements et l'environnement.

Réserve cognitive et réserve cérébrale

Afin d'expliquer ce phénomène, les chercheurs ont proposé la notion de réserves cérébrale et cognitive. La réserve cérébrale est liée aux caractéristiques anatomiques du cerveau : en cas d'atrophie, l'apparition des premiers troubles sera d'autant retardée que le volume de substance grise est important (réserve physiologique). Quant à la réserve cognitive, elle fait plutôt appel à des mécanismes de neuroplasticité : en cas d'atrophie, les premiers troubles seraient retardés si un réseau cérébral engagé pour réaliser une tâche est particulièrement efficace, ou s'il existe des réseaux supplémentaires ou alternatifs, qui permettent de mettre en place des stratégies de compensation. Ces mécanismes permettraient une performance cognitive efficace, malgré les perturbations physiologiques liées à l'âge.

La réserve cérébrale est déterminée très tôt par des critères génétiques et le niveau d'éducation, mais aussi tout au long de la vie, par l'hygiène de vie des individus, notamment la diététique et les activités sportives qui favorisent la vascularisation et l'oxygénation cérébrale. La réserve cognitive serait plutôt liée à d'autres déterminants environnementaux, tels que le niveau d'éducation, les activités de loisir (jouer aux cartes ou aller au théâtre par exemple), la qualité du réseau social et le caractère stimulant de la profession exercée. Plusieurs études réalisées sur le long terme ont établi que les activités de loisir réduisent le risque d'être atteint d'une démence 20 à 40 ans plus tard.

La pratique musicale : un stimulant neuronal

Par ailleurs, en 2008, Michael Valenzuela et ses collègues, de l'École de psychiatrie de Sydney, en Australie, ont montré, chez 37 sujets sains âgés, que leur hippocampe – une aire cérébrale essentielle à la mémoire – était d'autant plus volumineuse qu'ils avaient eu de nombreuses activités sociales au cours de leur vie. Un nouvel examen réalisé trois ans après le premier a révélé que la perte neuronale dans l'hippocampe est moindre chez les sujets ayant eu le plus d'activités.

Les travaux de neuropsychologie expérimentale laissent penser que la pratique d'un instrument de musique est une activité particulièrement adaptée à la constitution d'une réserve cognitive, et serait utile pour lutter contre les effets du vieillissement normal. Nous l'avons évoqué, cette pratique fait intervenir un large réseau associant les aires frontales, temporales et pariétales, notamment les aires de Broca et de Wernicke, essentielles à la production et à la compréhension du langage. Dès lors, on conçoit que des stratégies de compensation puissent se mettre en place plus facilement.

Le fait que la pratique musicale mette en jeu simultanément ces différents réseaux de neurones optimiserait son effet dans le cadre du vieillissement normal. Des mesures de la densité de fibres de substance blanche, couplées à des données comportementales recueillies chez des sujets âgés, ont montré que la quantité de myéline et l'intégrité des fibres de substance blanche sont des indices qui prédisent les performances mnésiques et exécutives ainsi que la vitesse de traitement de l'information (rappelons que les longs prolongements des neurones sont recouverts d'une gaine de myéline, ou substance blanche). La musique pourrait même être plus appropriée que les programmes d'entraînement standardisés de la cognition, car elle favorise les communications au sein de chaque hémisphère et entre les hémisphères, ce qui facilite la réorganisation corticale fonctionnelle indispensable à l'utilisation de stratégies de compensation. Enfin, jouer d'un instrument de musique a un aspect hédonique qui donne envie de recommencer et augmente les adaptations plastiques tout en procurant un sentiment de satisfaction et de développement personnel ainsi qu'une diminution des scores sur les échelles qui évaluent la dépression.

L'étude de Brenda Hanna-Pladdy et d'Alicia Mackay, de l'Université du Kansas, réalisée en 2011, est l'une des rares à s'être intéressée au fonctionnement cognitif d'individus âgés qui se sont adonnés à une activité musicale au cours de leur vie. Les résultats ont mis en évidence des différences significatives : les musiciens obtiennent de meilleurs résultats aux tests cognitifs, et les performances des musiciens amateurs se situent à mi-chemin entre celles des musiciens professionnels et celles des sujets contrôles. Ainsi, la pratique musicale améliorerait un grand nombre d'opérations mentales, stimulerait les circuits neuronaux de la mémoire, et permettrait de lutter contre les effets du vieillissement cérébral.

La musique protège-t-elle de tout ?

Malheureusement, la musique n'est pas la panacée, et les musiciens ne sont pas à l'abri des maladies du cerveau. Toutefois, dans les maladies neurodégénératives, quelques cas cliniques ont montré que d'anciens musiciens atteints de la maladie d'Alzheimer conservent de remarquables capacités musicales, alors qu'ils présentent d'importants troubles de la mémoire et du langage. Certains restent capables de jouer des compositions apprises avant le début de leur maladie. Ils conservent de surprenantes aptitudes de reconnaissance et d'apprentissage musical, contrastant avec les difficultés mnésiques et langagières associées à cette pathologie.

Ces observations ont conduit les chercheurs à proposer des études plus systématiques permettant d'évaluer les compétences en mémoire musicale de non-musiciens atteints de la maladie d'Alzheimer. La synthèse de tous les résultats publiés sur cette question, que nous avons réalisée en 2013, nous a permis de faire le point et de proposer une explication possible aux divergences constatées. Ces différences tiennent en partie au fait que les résultats ne sont pas comparables, car les processus de mémoire évalués varient dans les études selon les stades de la maladie. Par ailleurs, aux stades précoces de la maladie, la mémoire épisodique musicale est à peu près la seule à être systématiquement évaluée ; elle apparaît déficitaire chez ces patients, mais ce n'est pas surprenant.

En revanche, à partir des stades modérés de la maladie, on observe que ce sont plutôt la mémoire sémantique et les apprentissages implicites, connus pour résister plus longtemps à la pathologie, qui sont évalués. La mémoire épisodique est alors trop déficitaire à ces stades de la maladie. Ainsi, les études portant sur les personnes atteintes de la maladie d'Alzheimer suggèrent que les capacités d'associations verbales concernant les connaissances musicales sont altérées de façon précoce, alors que les traces perceptives résistent durablement. Dans plusieurs séries d'expériences, réalisées en collaboration avec Odile Letortu dans l'Unité Alzheimer de la Maison de retraite Les pervenches, à Biéville-Beuville, dans le Calvados, nous avons montré que cette trace pouvait être évaluée à partir de l'émergence d'un sentiment de familiarité (le sujet sait qu'il a déjà entendu la mélodie). Chez ces personnes, on ne peut pas toujours mesurer l'émergence d'un sentiment de familiarité en leur demandant si elles reconnaissent l'extrait. En revanche, on peut le faire en écoutant leurs éventuels commentaires spontanés, en observant leur attitude, les mimiques faciales ou l'intonation de la voix.

Nouveaux apprentissages

En notant la force de ce sentiment de familiarité sur une échelle de un à six, nous avons montré chez des personnes atteintes de la maladie d'Alzheimer à un stade avancé que la présentation au cours de séances répétées pendant huit jours des différents extraits de musiques instrumentales produit une augmentation du sentiment de familiarité entre la première séance d'exposition et la dernière. Ces personnes qui ne mémorisent plus aucun événement récent, et qui ne connaissent pas la mélodie la première fois, la mémorisent, au point qu'elle devient familière au bout de quelques séances. Ces personnes présentent un sentiment de familiarité plus marqué pour les morceaux auxquels elles ont été exposées que pour les extraits nouveaux.

Qui plus est, deux mois et demi après ces séances, nous avons observé que le sentiment de familiarité pour ces extraits musicaux reste présent. On n'obtient pas ce type de résultats avec des poèmes ou des paroles de chansons. Ces observations plaident en faveur d'un système de mémoire musicale à long terme particulièrement résistant, distinct de la mémoire verbale, et confirment que les personnes atteintes de la maladie d'Alzheimer conservent d'étonnantes capacités d'apprentissage de nouvelles mélodies.

Quand le sentiment de familiarité pour une musique augmente, et que le patient affirme connaître telle ou telle musique, peut-on dire qu'il y a eu création d'une nouvelle représentation en mémoire sémantique ? La question du statut en mémoire de ces nouvelles traces reste ouverte : doit-on parler de nouvelles représentations perceptives à long terme ou de nouvelles connaissances ? L'étude en imagerie cérébrale que nous réalisons actuellement permettra peut-être d'apporter des éléments de réponses sur la nature des processus de mémoire sous-tendant l'émergence d'un tel sentiment de familiarité chez ces malades.

Ces capacités préservées d'apprentissage implicite de nouvelles mélodies, absentes quand il s'agit de matériel linguistique, sont-elles vraiment spécifiques de la musique ? La musique aurait-elle un statut particulier ? Le pouvoir attractif, émotionnel et la richesse perceptive du matériel musical utilisé sont indéniablement des facteurs d'une importance cruciale. En plus des effets sur la cognition, le fort pouvoir émotionnel de la musique semble avoir un impact sur les composantes sensorielles, affectives, sociales et comportementales des personnes atteintes de la maladie d'Alzheimer.

Utiliser la musique pour renforcer la mémoire ?

La musique, en tant que matériel riche au plan de la perception et de l'émotion, permet de montrer que diverses capacités, y compris mnésiques, restent présentes chez les personnes atteintes de la maladie d'Alzheimer, même à un stade avancé de la maladie. Les recherches doivent s'orienter vers la mise en évidence de ces aptitudes préservées, notamment des capacités d'apprentissage. On saura alors si ce support artistique a vraiment des effets uniques et spécifiques sur notre mémoire, et comment utiliser la musique pour entretenir le lien ténu avec des malades dont la mémoire se délite au fil du temps. 

Hervé Platel, Mathilde Groussard, Baptiste Fauvel

Du rythme pour marcher à nouveau

 

Continuer à marcher en dépit de la maladie de Parkinson, après un accident vasculaire cérébral ou malgré le vieillissement : la musique le permet quand on l'adapte à la personne concernée.

 

  

La danse met en œuvre des fonctions motrices bien sûr, mais exige de suivre le rythme et la musique. Elle active également diverses fonctions cognitives d'attention, de planification, de coordination avec le partenaire, sans oublier les émotions et le plaisir.

 
 

- Les troubles de la marche, qu'ils soient associés à la maladie de Parkinson, à un accident vasculaire cérébral, ou au vieillissement sont invalidants.

- Quand une personne atteinte de la maladie de Parkinson synchronise son pas avec un rythme adapté, elle apprend à remarcher naturellement.

- Les victimes d'un accident vasculaire cérébral récupèrent leurs capacités motrices avec de la musique rythmée ou en apprenant à jouer du piano.

- Les personnes âgées saines se déplacent plus vite et font de plus grandes enjambées quand elles écoutent une musique rythmée pendant la marche.

 

 Quelques jours après la naissance, le cerveau du nouveau-né réagit à un changement de la durée d'une séquence de sons de percussion. Dès sept mois, un bébé peut apprendre différents rythmes, par exemple ceux d'une marche ou d'une valse, et les mouvements associés. Ainsi, au cours d'une de leurs études, les psychologues canadiennes Laurel Trainor et Jessica Phillips-Silver dansaient avec des bébés dans les bras sur un rythme qui correspondait soit à une valse, soit à une marche. Dans la seconde phase de l'expérience, les psychologues faisaient entendre aux bébés des séquences de sons ayant un rythme de valse ou de marche. Elles ont observé qu'ils préféraient la musique ayant le même rythme que celui de la phase d'apprentissage : le mouvement permet aux bébés de mémoriser différents rythmes.

Malgré sa simplicité apparente, la capacité de bouger au rythme de la musique fait appel à un réseau complexe de régions cérébrales. Ces dernières sous-tendent la perception du rythme et des durées, la planification et le contrôle du mouvement, ainsi que les processus d'intégration faisant le pont entre perception et action. Quand on écoute de la musique, on a envie de bouger : les aires cérébrales motrices s'activent. Mais il est plus surprenant de constater que si l'on demande à un sujet d'effectuer une tâche purement perceptuelle, par exemple de dire si une séquence de notes présente un rythme particulier, les régions associées à la motricité, tels les ganglions de la base et le cortex prémoteur, s'activent aussi malgré l'absence de mouvement ! La simple écoute d'un morceau sollicite donc les aires cérébrales motrices.

Cette observation est essentielle et a fait naître l'idée que l'on pourrait utiliser la musique comme outil de rééducation du mouvement chez certaines personnes. Ainsi, le rythme de la musique, par le fait qu'il stimule notre « cerveau moteur », même en l'absence de mouvement (juste par l'écoute), peut aider à réactiver ou à améliorer le mouvement chez des personnes présentant des troubles de la motricité. En effet, de plus en plus de travaux de recherche montrent que marcher au rythme d'une musique est efficace pour la rééducation des fonctions motrices. Nous examinerons deux exemples : celui des personnes atteintes de la maladie de Parkinson et celui des victimes d'un accident vasculaire cérébral. Et nous nous demanderons si la musique pourrait aider les personnes âgées à marcher de façon plus assurée.

Le rythme contre la maladie de Parkinson

La maladie de Parkinson est une maladie neurodégénérative qui touche en Europe plus de 1,2 million de personnes. Chez la personne âgée de plus que 65 ans, 160 individus sur 100 000 souffrent de cette maladie. En raison du vieillissement de la population, ce chiffre doublera d'ici 2030. Cette maladie est liée à un dysfonctionnement des structures cérébrales nommées ganglions de la base, situées au cœur du cerveau. Une personne atteinte de la maladie de Parkinson présente des tremblements au repos, des mouvements volontaires lents, et une difficulté à déclencher ses mouvements. Les symptômes sont visibles quand le patient doit se lever et quand il marche. Ces déficits, auxquels s'ajoutent une rigidité musculaire généralisée et des troubles de l'équilibre, perturbent la marche. Le sujet se déplace lentement, fait des petits pas ; parfois, il s'arrête de marcher et tombe.

Les déficits de la marche sont très handicapants pour les personnes atteintes de la maladie de Parkinson et réduisent leur qualité de vie. De surcroît, ils favorisent les chutes. Dès lors, les risques de blessure, de fracture du col du fémur, de traumatismes crâniens, voire de mortalité associés augmentent. En bref, les troubles de la marche constituent l'une des causes principales de handicap et de dépendance chez des personnes atteintes de la maladie de Parkinson.

Comment réduire ces troubles ? Le traitement pharmacologique dont nous disposons pour lutter contre la maladie de Parkinson, la L-dopa, réduit efficacement les symptômes moteurs, tel le tremblement, du moins au début du traitement. Malheureusement, il est quasi inefficace vis-à-vis des troubles de la marche. C'est pourquoi d'autres pistes ont été explorées. La musique s'est révélée particulièrement efficace pour améliorer la marche de ces personnes. Plus que la musique elle-même, c'est le rythme qui semble être l'élément le plus important.

Marcher en rythme

Comment procède-t-on ? On fait, par exemple, écouter aux malades des sons répétés et réguliers alors qu'ils sont en train de marcher. Quand le rythme des sons répétés ou le tempo de la musique sont adéquats – ni trop lents, ni trop rapides –, le sujet tend à synchroniser ses pas sur leur rythme. Ce faisant, ses pas se font plus longs, plus assurés, il accélère. Sa marche devient plus naturelle et plus régulière. Il retrouve la spontanéité de la marche « normale ».

La méthode, nommée indiçage auditif, et ses effets bénéfiques sont connus depuis les années 1940. Toutefois, ce n'est que beaucoup plus récemment qu'elle a été étudiée de façon plus approfondie. Ainsi, en 1997, Michael Thaut, un des pionniers de la rééducation neurologique, et ses collègues, de l'Université d'État du Colorado, ont étudié l'effet du rythme sur la marche de 21 personnes atteintes de la maladie de Parkinson. Parmi eux, dix recevaient de la L-dopa, dix ne recevaient aucun traitement. Dix personnes du même âge, mais qui n'étaient pas atteintes de la maladie, étaient également testées. Chaque participant devait marcher une trentaine de mètres à sa vitesse maximale avec ou sans une stimulation sonore rythmée (le rythme était adapté à une marche rapide). L'expérience a montré que la stimulation rythmée améliore la marche pour tous les participants. De surcroît, la longueur de l'enjambée augmente chez les personnes atteintes de la maladie de Parkinson, mais pas chez les personnes non atteintes du même âge.

Dès lors, la synchronisation du mouvement de ces malades avec le rythme de la musique peut-elle être utilisée pour la rééducation de la marche ? Oui, et des programmes d'entraînement fondés sur la stimulation rythmique ont été conçus. Ils impliquent des sessions de marche rythmée par la musique plusieurs fois par semaine, pendant un à deux mois. Ces programmes donnent des résultats très encourageants, car non seulement la marche s'améliore aux cours des séances d'entraînement, mais des effets positifs restent visibles après la thérapie, les sujets marchant plus vite, avec des enjambées plus longues et ce en l'absence du stimulus rythmé.

Des réseaux parallèles

Quels sont les mécanismes cérébraux qui permettent cette rééducation ? Le rythme permettrait aux personnes atteintes de la maladie de Parkinson d'utiliser un réseau neuronal secondaire, compensant le réseau moteur endommagé par la maladie (voir la figure 2). Ce réseau compensatoire inclurait des régions cérébrales impliquées dans la motricité et dans le contrôle fin du mouvement, telles que le cervelet. Ces aires s'activent notamment quand on bouge au rythme d'un stimulus externe, ce qui est le cas des méthodes d'indiçage auditif.

Les effets bénéfiques du rythme décrits chez le patient parkinsonien ne se limitent pas à la marche. Ses bienfaits pourraient aller au-delà de la motricité. Nous l'avons montré avec Sonja Kotz, à l'Université de Manchester, et Charles-Étienne Benoit, au Centre EuroMov de l'Université de Montpellier I. Un groupe de personnes atteintes de la maladie de Parkinson était soumis à un programme d'entraînement par indiçage auditif pendant un mois. Les sujets marchaient au rythme d'une chanson populaire, trois fois par semaine pendant 30 minutes. Après la thérapie, la marche était améliorée. De surcroît, ils percevaient mieux la durée des sons, mais aussi le tempo. Ainsi, les réseaux neuronaux influencés par l'indiçage auditif sous-tendraient aussi la perception des durées.

Il est nécessaire d'étudier de façon plus approfondie le couplage des mouvements et de la stimulation rythmique. D'autres recherches en cours se focalisent sur le développement d'outils qui faciliteraient la rééducation de la marche chez les personnes atteintes de la maladie de Parkinson. Par exemple, une application pour smartphone délivrant une musique rythmique au cours de la marche pourrait s'adapter à la performance motrice de chaque sujet.

Réapprendre à bouger

Si les recherches se poursuivent autour de cette maladie, les approches musicales et rythmiques ne s'appliquent pas uniquement à cette pathologie. On découvre de nouveaux champs d'application, notamment dans le cadre des accidents vasculaires cérébraux. Ces derniers, qui touchent environ 150 000 personnes chaque année en France, laissent souvent des séquelles graves, parmi lesquelles des troubles du langage et des troubles moteurs, notamment des paralysies. On a donc tenté d'appliquer la méthode de l'indiçage auditif chez des victimes d'un accident vasculaire cérébral.

M. Thaut et ses collègues l'ont appliquée à des personnes qui avaient un bras paralysé et, par conséquent, présentaient des difficultés pour atteindre un objet. Les sujets devaient tenter d'attraper un objet, soit dans le silence, soit en présence d'un son rythmé régulier, par exemple le tic-tac d'un métronome. En présence du rythme, on a constaté que la trajectoire des mouvements était plus régulière et plus reproductible, le mouvement du coude plus ample et l'ensemble du mouvement plus fluide. Comme nous l'avons évoqué dans le cas des personnes atteintes de la maladie de Parkinson, les sons réguliers permettraient d'augmenter la capacité du cerveau à optimiser certains mouvements. Cette méthode utilise des séquences de sons simples et repose surtout sur le rythme musical.

Une autre approche plus récente propose aux sujets d'apprendre à jouer d'un instrument, notamment du piano. Cette approche se fonde sur les résultats de diverses recherches ayant montré que la pratique d'un instrument renforce la plasticité cérébrale dans un large réseau. Ce dernier comprend les régions traitant l'information auditive (notamment le cortex temporal et le cortex frontal), le cortex moteur et le cortex prémoteur (utile pour la planification et la préparation des mouvements), ainsi que des régions assurant l'intégration des informations sensorielles et motrices (notamment les régions frontales et pariétales).

Des recherches récentes ont montré que cette plasticité n'est pas seulement observée quand on compare des musiciens, qui ont une longue pratique de la musique, à des non-musiciens. Elle est à l'œuvre chez des enfants et des adultes qui apprennent à jouer d'un instrument pendant quelques semaines ou quelques mois dans le cadre d'un protocole de recherche. On observe un phénomène nommé couplage auditivo-moteur, c'est-à-dire que la perception des sons active bien sûr les aires auditives primaires et secondaires, mais aussi le cortex moteur. Ainsi, chez une personne ayant appris à jouer du piano, l'écoute des mélodies apprises active aussi le cortex moteur (ce qui n'était pas le cas avant l'apprentissage).

Apprendre à jouer du piano

Dès lors, pourrait-on exploiter l'apprentissage d'un instrument dans le cadre d'une thérapie pour réhabiliter les capacités motrices des personnes victimes d'un accident vasculaire cérébral ? Eckart Altenmüller et son équipe, de l'Université de Hanovre en Allemagne, ont proposé un tel programme thérapeutique en utilisant des tambourins électroniques (émettant des sons de piano) et des claviers de piano. Les deux types d'instruments permettaient de travailler la motricité grossière (avec le bras) et la motricité fine (avec la main).

Les sujets apprenaient à jouer des mélodies avec l'aide d'un thérapeute. On évaluait leurs progrès moteurs en les comparant à ceux d'un groupe de personnes ayant eu un accident vasculaire cérébral qui ne suivaient qu'un programme de rééducation standard. Chez les sujets du groupe « apprentissage musical », la vitesse, la précision et la fluidité des mouvements se sont améliorées plus que chez les sujets de l'autre groupe. On l'a mis en évidence en analysant les caractéristiques des mouvements, et aussi au moyen de tests qui évaluent des activités motrices dans la vie de tous les jours. Par exemple, dans un test, on demande aux patients de saisir neuf petites baguettes et de les placer dans des petits trous – un exercice qui nécessite précision et rapidité. Les personnes des deux groupes ne présentaient pas de différences avant le traitement, mais après, le groupe ayant suivi l'apprentissage du piano se montrait plus performant.

Ainsi, apprendre à jouer du piano semble améliorer les capacités motrices des personnes victimes d'un accident vasculaire cérébral. Le bénéfice de cette thérapie tient sans doute à plusieurs facteurs agissant de conserve, tels que la répétition des mouvements, le couplage du geste avec le son, ou encore l'association à des facteurs émotionnels et motivationnels. Mais en plus de l'émotion et de la motivation, le couplage du son et du geste pourrait avoir un autre effet. Des neuroscientifiques ont montré un renforcement des connectivités entre les régions auditives et les régions sensori-motrices après l'apprentissage. On en déduit qu'un apprentissage combinant des informations auditives, sensorielles et motrices jouerait un rôle notable dans la rééducation motrice.

Comment expliquer les effets d'une telle association du geste et du son, appuyer sur une touche (activation du circuit moteur) engendrant un son (activation du circuit de la perception) ? Dans le cadre du projet européen EBRAMUS, qui étudie les effets bénéfiques de la musique sur le cerveau, Floris Van Vugt, à l'Université de Hanovre et au Centre de recherche en neurosciences de Lyon, s'est intéressé à cette question. Dans une de ses études, les personnes ayant eu un accident vasculaire cérébral apprenaient à jouer du piano soit dans des conditions normales (l'appui sur la touche de piano est immédiatement suivi par le son), soit dans des conditions modifiées : le son était retardé d'un délai aléatoire compris entre 100 et 600 millisecondes, pour perturber le couplage auditivo-moteur. Contrairement à l'hypothèse qui avait été émise, les sujets appartenant au groupe « sons retardés » progressaient plus au test des neuf petites baguettes que ceux du groupe « sons normaux ». Les expérimentateurs ont montré par le biais de questionnaires que les sujets n'étaient pas conscients du fait que le son n'était pas émis au moment où ils appuyaient sur les touches.

Cette étude incluant des sons retardés par des délais variables montre qu'on pourrait améliorer la réhabilitation motrice sans perturber la motivation ou l'émotion ressentie. Nous avons donc décidé d'étudier plus en détail le rôle de l'intégration sensorielle et motrice dans l'amélioration du mouvement, et ainsi sa contribution dans la réhabilitation motrice. L'ensemble des résultats suggère que l'utilisation d'un programme d'apprentissage de la musique, notamment du piano, semble une stratégie thérapeutique innovante, plaisante, motivante et efficace pour améliorer la réhabilitation des capacités motrices chez les victimes d'un accident vasculaire cérébral.

Et la personne âgée ?

Marcher au rythme de la musique et jouer du piano semblent améliorer la rééducation de la motricité chez les personnes atteintes de la maladie de Parkinson ou victimes d'un accident vasculaire cérébral. Toutefois, les bienfaits de la musique ne se limitent pas à la rééducation de ces sujets. Ces stratégies peuvent être aussi appliquées pour améliorer la qualité de vie des personnes âgées saines qui, elles aussi, présentent des difficultés motrices. Ainsi, dix pour cent de la population âgée saine marche lentement. Outre les difficultés que pose une marche difficile, le déclin de la vitesse de marche va souvent de pair avec un déclin cognitif.

Autant de raisons de rechercher des méthodes susceptibles de lutter contre les difficultés de la marche. Or les méthodes d'indiçage auditif fondées sur la musique semblent particulièrement intéressantes. Par exemple, en 2013, Joanne Wittwer et ses collègues, de l'Université de Melbourne en Australie, ont étudié des personnes saines âgées de plus de 65 ans qui devaient marcher soit avec un métronome, soit avec de la musique. Le rythme du métronome et celui de la musique étaient ajustés à celui de la marche de chaque individu. Au son de la musique, les sujets marchaient plus vite qu'à leur vitesse naturelle, et faisaient de plus grands pas, ce qui n'était pas le cas avec un métronome.

L'indiçage par la musique serait-il une solution peu coûteuse pour ralentir la réduction naturelle de la motricité chez la personne âgée, et le déclin cognitif qui l'accompagne ? Cette question fait l'objet de plusieurs recherches, notamment dans le Centre EuroMov à Montpellier. Par exemple, le projet européen BeatHealth étudie comment utiliser la musique pour améliorer la motricité de la personne âgée, augmenter sa mobilité et sa qualité de vie pour lui permettre de « mieux vieillir ». Comme pour les personnes atteintes de la maladie de Parkinson, des applications pour smartphones capables de présenter une stimulation musicale rythmique adaptée aux caractéristiques de la marche de la personne âgée sont en cours de développement.

Les effets de la musique chez l'individu sain ne se limitent pas aux troubles moteurs. Dans des études récentes, Andrea Trombetti et ses collègues, de l'Université de Genève, ont proposé à des personnes saines âgées de plus de 65 ans un entraînement associé à la musique, par exemple marcher sur la musique ou apprendre à jouer d'un instrument. Après la période d'entraînement, les participants non seulement marchaient mieux et tombaient moins souvent, mais ils obtenaient de meilleures performances aux tests cognitifs standards et étaient moins anxieux quand ils marchaient (car ils avaient repris confiance et avaient moins peur de tomber). Ces résultats prometteurs soulignent l'urgence de conduire des recherches plus nombreuses et bien contrôlées sur le rôle de la musique dans la prévention du déclin cognitif et moteur chez la personne âgée.

Simone Dalla Bella, Barbara Tillmann,

Que se passe-t-il dans le cerveau des musiciens quand ils improvisent ?

Selon les émotions que ressentent les musiciens, ce ne sont pas les mêmes mécanismes cérébraux qui œuvrent pour le processus de création.

en préambule

KEITH JARRETT : IMPROVISATION

https://www.youtube.com/embed/CpFBHn2HfLQ

 

 
 
Où naît notre créativité ? Des chercheurs américains se sont penchés sur cette question en étudiant les mécanismes cérébraux de 12 pianistes de jazz.

 

Parfois mise sur le compte du génie ou du divin, la créativité commence à peine à révéler ses secrets. Très récemment, des chercheurs de l'Université de Californie (San Francisco) ont pour la première fois montré que les circuits cérébraux qui la sous-tendent sont significativement modifiés par la nature et l'intensité des émotions qui nous habitent.

«Ce n'est pas simplement une situation binaire où votre cerveau fonctionne d'une certaine manière lorsque vous êtes dans un processus créatif, et d'une autre façon lorsque vous ne créez pas», explique l'un des coauteurs de l'étude Charles Limb, chercheur en neurosciences, chirurgien ORL et saxophoniste amateur. «A la place, il existe de plus ou moins grands degrés de créativité et différentes versions de cet état. Et nos émotions jouent un rôle crucial dans ces différences», poursuit le scientifique.

Improvisation musicale et neurosciences

L'étude, publiée dans le numéro de janvier de la revue Scientific Reportsa consisté à «scanner» le cerveau de 12 pianistes de jazz professionnels grâce à l'imagerie par résonance magnétique fonctionnelle (IRMf), une technique corrélant flux sanguin et activité cérébrale. Allongés dans l'imposante machine, les musiciens ont vu défiler plusieurs photographies d'une personne exprimant différentes émotions. En fonction de ce que leur inspirait l'expression du visage, qui pouvait être heureuse, triste ou neutre, les musiciens devaient improviser une mélodie sur un piano miniature posé sur leurs genoux.

«Les musiciens de jazz sont des experts de l'improvisation, qui est une forme immédiate de créativité dans laquelle les artistes peuvent spontanément générer de la nouveauté. L'improvisation leur permet d'incorporer de nombreuses composantes musicales dans le but d'exprimer une émotion», expliquent les scientifiques pour justifier le choix de ce modèle original.

Dans une précédente étude faisant appel à un protocole similaire, l'équipe s'était intéressée à la créativité des rappeurs «freestyle», dont la spécialité est d'improviser des textes rythmés sur de la musique. Avec l'IMR fonctionnelle, les chercheurs se sont aperçus que, pendant qu'ils improvisaient, une région très particulière du cerveau des rappeurs s'est momentanément «mise en veille». Cette région, le cortex préfrontal dorso-latéral, est impliquée dans un grand nombre de tâches dont la planification et le contrôle du comportement.

Ainsi dégagés de leur inhibition, les rappeurs étaient plus à même de se lancer dans une improvisation mobilisant leur créativité. Parallèlement, les noyaux amygdaliens, impliqués dans le système émotionnel, étaient actifs, accréditant l'idée que certaines émotions favorisent la créativité.

 

Charles Limb : Votre cerveau pendant une impro

https://www.youtube.com/embed/MkRJG510CKo

 

Créativité et émotion

Dans le cas des 12 pianistes, les chercheurs ont découvert que la désactivation du cortex préfrontal dorso-latéral était plus importante lorsque les musiciens jouent des mélodies inspirées par le visage heureux que lors des improvisations en réaction au visage triste. Y aurait-il davantage de lâcher prise dans la musique joyeuse?

Les scientifiques ont également noté que, lors d'une improvisation sur visage triste, l'activité des régions impliquées dans le circuit de la récompense augmentait. Ce circuit favorise l'exécution de nos fonctions vitales mais aussi d'expériences plaisantes apprises en les accompagnant d'une sensation agréable. Ces résultats semblent indiquer qu'en musique, différents mécanismes cérébraux sont en jeu en fonction du type d'émotion exprimée.

«La limite de cette étude est qu'il n'y a pas de mesure de la créativité de ces 12 musiciens», commente Hervé Platel, professeur de neuropsychologie à l'Université de Caen et chercheur à l'Inserm. «Certes ils improvisent, mais rien ne dit qu'ils n'appliquent pas des schémas appris. Or la créativité, c'est notre capacité à produire quelque chose de nouveau adapté à un certain contexte, et à associer de manière originale des éléments qui n'ont pas de lien apparent».

Cécile Thibert 

Le top 5 des effets de la musique sur notre cerveau et notre comportement

"EURO"-ENVIRONNEMENT

vendredi 10 juin 2016

Se décider bien... et vite !

 

Tous les sportifs experts ont engrangé de nombreuses situations de jeu de façon automatique et non consciente dans leur mémoire implicite. Ils sont ainsi capables de réagir correctement face à un adversaire !

 
 

- Un sportif doit prendre la « bonne » décision, rapidement, selon la situation où il se trouve. Il exploite pour ce faire les connaissances qu'il a emmagasinées sur son sport.

- Ces données sont stockées dans différentes mémoires. Certaines situations de jeu sont mémorisées de façon automatique et non délibérée dans la mémoire implicite.

- Les experts dans un sport réagissent plus vite et mieux que les novices. Car les données stockées dans leur mémoire implicite sont accessibles de façon inconsciente.

 

Un joueur de football s'apprête à tirer un penalty. Il est seul, face au gardien de but adverse. Ce dernier va probablement anticiper son tir et choisir de plonger d'un côté ou de l'autre. Souvent c'est son unique chance d'arrêter le ballon avant qu'il ne franchisse la ligne de but. De quel côté et quand va-t-il plonger ? Où le tireur doit-il placer son ballon ? La force du joueur expert est qu'il choisit bien et vite. Selon ce qu'il sait des habitudes du gardien notamment.

Face à une décision qu'il doit prendre ou confronté à une question qui lui est posée, un expert – quel que soit son domaine de compétence – donne rapidement des réponses pertinentes, adaptables et reproductibles, produites à faible « coût » (que l'effort soit physique ou mental). En sports collectifs, l'expertise ne repose pas seulement sur l'habileté technique et les capacités physiques, elle s'appuie surtout sur l'aptitude à prendre des décisions appropriées dans un contexte dynamique, changeant, où la rapidité est un paramètre déterminant pour être le plus performant à un moment donné.

Différents types de mémoires

La prise de décision repose sur une comparaison des éléments émergeant de la situation présente avec les connaissances stockées dans le « disque dur » cérébral : la mémoire à long terme. La quantité de connaissances spécifiques stockées et la vitesse d'accès à ces données sont deux paramètres essentiels. L'expert et le débutant n'ont pas les mêmes aptitudes « mnésiques » !

Il existe plusieurs mémoires, qui représentent des systèmes spécifiques traitant divers types de matériels ou utilisant différents modes de stockage. La mémoire de travail, à court terme, permet de traiter rapidement les nouvelles informations. Puis, celles-ci sont soit perdues, parce qu'elles sont sans intérêt, soit placées dans la mémoire à long terme, qui est constituée de plusieurs registres : la mémoire épisodique, stockant les données autobiographiques, telles les meilleures actions du match ; la mémoire sémantique concernant les faits et les connaissances sur le monde, tels que les 17 règles de jeu au football. Ensemble, ces deux mémoires engrangent des connaissances qui peuvent être verbalisées : c'est la mémoire déclarative ou explicite. D'autres modules emmagasinent les informations sous un autre format, non verbalisable, auquel l'accès est automatique : ce sont le système de représentation des perceptions et la mémoire implicite, ou procédurale, la mémoire des actions (celle où est par exemple stockée la capacité à réaliser différentes actions durant le match : dribbler, faire une passe, tirer).

Dans la plupart des modèles de la mémoire experte, les chercheurs étudient tout particulièrement la mémoire sémantique. On l'évalue avec divers tests. Par exemple, on présente à un sujet un ensemble d'éléments qui doivent être mémorisés. Après quelques minutes, on lui demande de citer ces éléments (c'est un test de rappel) ou de les reconnaître parmi d'autres facteurs perturbateurs (c'est un test de reconnaissance). Dans le domaine sportif, dès les années 1970, Hubert Ripoll, de l'Insep à Paris, a étudié les capacités de rappel de phases de jeu de basketball, chez des experts, des amateurs et des novices. Les sujets observaient des séquences de jeu présentées sur un écran vidéo pendant cinq secondes. On leur demandait ensuite de reproduire les emplacements successivement occupés par les joueurs, les trajets du ballon et les déplacements des athlètes.

Ripoll a montré que plus le joueur est expert, plus ses réponses sont correctes. Il en est de même au football et au volley-ball, et dans des sports individuels tels que la gymnastique et le patinage artistique. Cette supériorité se limite au domaine d'expertise de l'individu et dépend des situations présentées, c'est-à-dire de leur signification dans le cadre de l'activité considérée. En effet, Marc Williams, à l'Université John Moores de Liverpool, a mis en évidence que les performances de rappel des experts surpassent celles des novices seulement quand on leur présente des séquences de jeu qui ont un sens en fonction de la logique du jeu.

Pourquoi l'expert mémorise-t-il mieux des phases de jeu correspondant à son domaine ? On a émis plusieurs hypothèses. L'une d'elles propose que les sportifs disposent d'une riche « banque » de connaissances propres à leur domaine d'expertise. Cette banque serait très structurée, organisée hiérarchiquement, et les connaissances y seraient rapidement accessibles (elles sont peut-être directement récupérées dans la mémoire à long terme). Ainsi, la mémoire explicite jouerait un rôle primordial dans l'expertise.

Une banque de situations

Mais ce n'est pas tout : on a peu étudié la mémoire implicite, un des registres de la mémoire à long terme, qui pourtant pourrait avoir un rôle important dans l'expertise. En quoi mémoire explicite et mémoire implicite diffèrent-elles ? La première est sollicitée quand la réalisation d'une tâche exige le souvenir conscient (explicite) des événements passés. En revanche, la mémoire implicite intervient à chaque fois que le sujet est confronté à un événement auquel il a déjà été exposé, mais dont il n'a pas conscience d'avoir conservé un souvenir. Les expériences antérieures modifieraient le comportement du sujet sans qu'il s'en rende compte.

En général, on étudie la mémoire implicite avec des tests d'amorçage : dans une première phase, on demande aux participants de lire des mots ou de nommer des images, qui représentent des amorces, mais on ne leur impose pas de les mémoriser (lors de ces tests, les sujets ignorent que leur mémoire est l'objet de l'étude). Dans une deuxième phase, les participants doivent compléter des mots, dont certains sont déjà apparus au cours de la première phase. On évalue leur mémoire implicite en comparant la pertinence et la cohérence des réponses, ainsi que les temps de réaction, selon que le mot a déjà été présenté ou bien qu'il est nouveau.

Les résultats révèlent que le temps de réaction est plus court pour les mots préalablement lus ; la mémoire implicite est alors mise en œuvre. Ainsi, la présentation initiale d'un élément déclencherait l'activation ou la création d'une représentation de cette information dans la mémoire à long terme. Et le maintien de cette activation faciliterait le traitement de l'élément lorsqu'il est présenté une deuxième fois.

En sport, où des décisions doivent être prises rapidement, on a supposé que la mémoire implicite intervient dans la performance des experts. En effet, dans ces situations, les décisions ne nécessitent pas de verbaliser des connaissances, mais de déclencher des actions. Par exemple, au handball, le joueur qui a le ballon doit décider de ce qu'il va en faire dans une situation donnée. S'il est seul face au but, il peut dribbler et tirer. Si un défenseur l'empêche d'avancer, il peut faire une passe à un coéquipier.

Pour évaluer le rôle de la mémoire implicite dans la prise de décision chez les sportifs, nous avons étudié les performances de deux groupes d'experts, des joueurs et des entraîneurs de football, et d'un groupe de novices. Dans une première expérience, nous leur présentions, sur un écran, 96 photographies de situations de jeu réelles, et ils devaient décider quelle était la meilleure action pour celui qui avait le ballon : le passer à un partenaire démarqué, le garder ou tirer au but. Nous proposions chaque situation deux fois au cours de l'expérience, séparées l'une de l'autre par 7 à 15 situations distinctes. Le nombre des joueurs (attaquants ou défenseurs) et la nature de l'action appropriée différaient dans chaque situation.

Nous avons alors mesuré la pertinence de leurs réponses : coïncidait-elle avec la réponse la plus adaptée, définie par un groupe d'entraîneurs experts indépendants ? Nous avons aussi enregistré le temps nécessaire à la prise de décision et la cohérence des options choisies pour les deux présentations d'une même situation séparées par d'autres. Si la mémoire implicite est « meilleure » chez les experts, nous devions observer aussi un effet d'amorçage plus marqué chez ces sujets que chez les novices.

Nos résultats ont révélé que les réponses des experts étaient plus pertinentes que celles des novices, et surtout, qu'il existait chez les experts, et seulement chez eux, un effet d'amorçage : ils répondaient plus vite, et correctement, lors de la deuxième présentation d'une même situation de jeu. Et quand, à la fin de l'expérience, nous demandions aux sujets s'ils avaient réalisé que certaines situations leur avaient été présentées deux fois, nous constations qu'aucun n'en avait eu conscience.

La supériorité des experts dans les tâches de mémorisation d'informations spécifiques à leur domaine se manifeste donc de deux façons. Ils ont une meilleure mémoire explicite, car ils ont stocké en mémoire à long terme plus de connaissances structurées et de schémas relatifs à leur activité. En outre, ils ont une meilleure mémoire implicite, automatique et non délibérée, des informations propres à leur domaine d'expertise.

Quels sont les mécanismes responsables de la création ou de l'activation des représentations stockées dans la mémoire implicite ? Dans ce traitement, la mémoire de travail, où les informations sont gérées en premier lieu, jouerait un rôle déterminant. La mémoire de travail n'est pas seulement un lieu de maintien temporaire de l'information, c'est aussi, voire surtout, un lieu de traitement de l'information nécessaire à la réalisation des opérations cognitives complexes. Elle a quatre composantes : un système de contrôle, nommé « administrateur central », et trois systèmes périphériques . L'administrateur central est responsable de la sélection, de la coordination et du contrôle des opérations de traitement. Les systèmes périphériques sont la boucle phonologique, le calepin visuo-spatial et le « tampon » épisodique. La boucle phonologique assure le maintien temporaire de l'information verbale et sa réactivation par un mécanisme de répétition. Le calepin visuo-spatial gère notamment le maintien et la répétition des informations visuelles et spatiales. Quant au tampon épisodique, il combine les informations en provenance de la boucle phonologique, du calepin visuo-spatial et de la mémoire à long terme.

La mémoire de travail consomme une grande partie des ressources allouées au traitement des opérations cognitives et elle est lente. Dès lors, nous avons fait l'hypothèse que, chez les experts, elle est court-circuitée.

Pour évaluer le rôle de la mémoire de travail dans les phénomènes d'amorçage par répétition, nous avons utilisé un protocole de double tâche : nous avons comparé les performances de deux groupes de sujets, experts et novices, qui devaient prendre le même type de décision de jeu que dans les expériences précédentes, mais en réalisant en même temps une tâche de mémorisation. Celle-ci était soit verbale (ils avaient une liste de mots à apprendre, puis à reconnaître, ce qui mobilisait la boucle phonologique de la mémoire de travail), soit visuo-spatiale (ils devaient mémoriser, puis reconnaître un ensemble de points répartis sur une grille, ce qui occupait le calepin visuo-spatial).

Un court-circuit cérébral

Dans la tâche de prise de décision face à une situation de jeu donnée, les réponses des experts étaient à nouveau plus pertinentes que celles des novices. Et nous constations un effet d'amorçage chez les experts dans toutes les conditions, y compris lors de la double tâche, c'est-à-dire que leur temps de réponse diminuait lors de la deuxième présentation d'une même situation de jeu. Chez les experts, la charge supplémentaire que représentait la tâche de mémorisation ne perturbait donc pas la pertinence de leurs réponses. Au contraire, chez les novices, cette surcharge entraînait une baisse notable de la pertinence des réponses et une diminution de l'effet d'amorçage.

Ainsi, les experts en football n'utiliseraient pas leur mémoire de travail pour prendre une décision. Ce qui leur permet de réagir bien et vite ! En outre, cela libère des ressources cognitives pour le traitement d'autres données, par exemple pour anticiper les phases de jeu suivantes. Le tireur de penalty anticipe déjà l'action suivante : il peut suivre et frapper à nouveau dans le ballon si ce dernier est repoussé par le gardien.

Bachir Zoudji, Bettina Debû et Bernard Thon

Ces jours où tout réussit…

 

Les jours de grande forme, le tennisman trouve la balle plus grosse, plus lente et le filet plus bas ! Est-ce une aptitude extraordinaire ? Les psychologues de la cognition explorent les miroirs déformants de la perception.

 

- Au tennis, les joueurs trouvent parfois la balle plus grosse, plus lente, et le filet plus bas. Les golfeurs, quant à eux, perçoivent le trou plus gros et la balle plus légère.

- Les sportifs ont une perception modifiée les jours où ils réussissent tout. À l'inverse, il est possible de les rendre plus performants en utilisant des illusions perceptives.

- Perception et action sont liées ; les mécanismes cognitifs en jeu restent encore méconnus. Mais cela permettrait aux grands joueurs d'être plus performants.

 

Novak Djokovic était-il en état de grâce quand il a battu Rafael Nadal en finale du Master 1000 de Rome le 18 mai 2014 ? Demandons-lui déjà s'il avait l'impression de voir la balle plus grosse…

 

À écouter les sportifs, ils auraient de temps à autre la berlue. Ainsi, les golfeurs percevraient le trou comme s'il était plus gros qu'à l'habitude dans les bons jours (« Ce n'est pas un trou mais une bassine ») ou plus petit dans les mauvais jours (« Les trous sont minuscules aujourd'hui »). Les effets sont similaires chez des stars nord-américaines de base-ball : la balle aurait la taille d'un pamplemousse lors d'une bonne partie, mais d'un cachet d'aspirine lors d'une mauvaise. La joueuse Martina Navratilova voyait les balles de tennis comme dans un ralenti dans les moments du match où tout lui réussissait.

Quel sens donner à ces anecdotes ? Les grands sportifs sont-ils des « superhommes » ? Ont-ils parfois des hallucinations visuelles ou l'efficacité de leurs actions modifie-t-elle vraiment leur perception ? D'autres facteurs de performance, par exemple la capacité d'action ou l'intention, modifient-ils la perception visuelle ? Par exemple, l'embrasure d'une porte est-elle perçue plus étroite lorsqu'on tient un parapluie ouvert, parce qu'il réduit la capacité de déplacement ? À l'inverse, les changements perceptifs induits par des illusions visuelles influencent-ils l'action ?

Dans un article publié en 2005, les psychologues Jessica Witt, de l'Université Purdue à West Lafayette, et Dennis Proffitt, de l'Université de Virginie à Charlottesville, ont pris au sérieux les déclarations des sportifs sur la perception de la taille des balles. Ils ont testé la perception de joueurs de softball (un genre de base-ball) à l'issue d'une compétition. Chacun des 47 sportifs de l'étude, après avoir regardé un poster sur lequel figuraient huit cercles noirs d'un diamètre variant de 9 à 11,8 centimètres, a choisi le cercle dont la taille correspondait le mieux, selon lui, à celle d'une balle de softball. Les tailles choisies ont ensuite été mises en relation avec l'efficacité des actions du jour, déterminée par la proportion de balles que le batteur avait frappées et qui avaient mis l'équipe adverse en difficulté. L'analyse des données a révélé que plus les actions étaient efficaces, plus la balle semblait grosse. Concrètement, la balle de 10 centimètres semblait en mesurer 9 quand les actions n'avaient pas été gagnantes, mais 11 quand l'action avait été gagnante ! Les sportifs perçoivent bien que l'efficacité des actions modifie la perception.

La balle, grosse « comme un pamplemousse » !

Ce phénomène s'observe aussi pour les cibles fixes. En 2004, Richard Wesp et ses collègues, de l'Université d'East Stroudsburg en Penn- sylvanie, ont demandé à des étudiants d'effectuer une tâche de précision consistant à lancer des fléchettes miniatures pour atteindre un minuscule cercle de un demi-centimètre de diamètre. En analysant les résultats de ce concours, les scientifiques ont constaté que les meilleurs lanceurs voyaient la cible plus grosse que les moins bons.

Ainsi, les joueurs qui réussissent éprouveraient un sentiment de facilité, et c'est peut-être pour cette raison que la cible leur paraît plus grosse. Si tel est le cas, les balles de tennis (ou d'autres sports) devraient également donner l'impression de se déplacer plus lentement.

Pour tester cette prédiction, Jessica Witt et Mila Sugovic ont mené en 2010 une étude auprès de joueurs de tennis qui devaient retourner 25 balles envoyées par une machine. Après chaque retour, les participants ont estimé la durée du déplacement de la balle envoyée (c'est-à-dire le temps séparant l'envoi de la balle par la machine du moment où ils la frappaient). Pour estimer cette durée, les joueurs devaient simplement enfoncer pendant une durée équivalente la barre d'espace d'un ordinateur.

Ainsi, les joueurs trouvaient que la balle arrivait sur eux plus lentement dans les cas où leur frappe était réussie, mais qu'elle arrivait plus vite quand leur frappe était ratée. En l'occurrence, ils avaient l'impression que la balle envoyée par la machine était plus lente de huit kilomètres par heure en cas de frappe réussie.

Ces effets peuvent prendre des formes variées et parfois surprenantes : le filet au tennis semble plus bas lorsque les retours sont réussis. Ceux qui ont vu le tennisman John McEnroe se plaindre que le filet était trop haut quand il était en difficulté comprendront que ce n'était peut-être pas de la mauvaise foi ou une manœuvre destinée à déstabiliser l'adversaire, mais le résultat de ce lien intéressant entre perception et réussite. Les actions gagnantes influencent la perception dans le sens d'une facilitation de l'action : la balle à frapper paraît plus grosse et plus lente, et le filet à franchir plus bas. Le terrain semble-t-il aussi plus grand ? Cela reste à démontrer !

En 2008, Jessica Witt, Dennis Proffitt et leurs collègues ont examiné si la modification de la perception visuelle était liée au classement des joueurs. Pour ce faire, ils ont eu recours à des golfeurs dont le handicap – qui fournit un indicateur fiable du classement – était compris entre 7 (pour le meilleur joueur) et 36 (pour le moins bon). Après un parcours de 18 trous, leur perception du trou a été testée : ils devaient choisir, parmi neuf cercles noirs dont le diamètre variait de 9 à 13 centimètres, celui qui correspondait le mieux, selon eux, au diamètre du trou (qui était en réalité égal à 10,8 centimètres). Aucun lien n'est apparu entre le classement du joueur et la taille estimée du trou. En revanche, plus l'efficacité des actions du jour (estimée par le nombre total de coups joués) était élevée, plus le trou semblait large. Le phénomène de modification perceptive est par conséquent temporaire : ce qui compte, c'est la performance à court terme (et non à long terme).

Une analyse plus précise du nombre de coups joués uniquement sur le 18e et dernier trou indique que les coups ou putts réalisés sur le green, c'est-à-dire la zone de gazon rase où se trouve le trou, influencent la taille perçue, ce qui n'est pas le cas des coups joués en dehors du green. L'effet de l'action sur la perception serait donc limité aux objectifs liés à l'action en cours : la qualité des gestes réalisés hors du green ne modifie pas la perception du trou, car le but est de s'approcher du green. Au contraire, la qualité des actions réalisées sur le green influe sur la perception du trou, car l'objectif est alors d'envoyer la balle dans le trou. Il serait intéressant d'observer si l'efficacité des actions menées en dehors du green modifie la perception des dimensions du terrain. Enfin, soulignons que cette étude n'a porté que sur des joueurs débutants à intermédiaires ; elle laisse donc en suspens la question de savoir si d'excellents joueurs ne voient pas les trous plus gros quelle que soit leur position sur le terrain…

Des illusions gagnantes

En outre, changer la perception que les gens ont de leur environnement peut-il rendre leurs actions plus ou moins efficaces ? En 2012, Jessica Witt et ses collègues ont fait jouer des golfeurs débutants à un petit jeu truqué : le trou de la balle était présenté entouré d'autres cercles plus ou moins grands . Ces motifs sont connus par les psychologues sous le nom d'illusion d'Ebbinghaus. Un même trou de 5 centimètres de diamètre semble plus grand s'il est entouré de petits cercles de 3,8 centimètres de diamètre que s'il est entouré de grands cercles de 28 centimètres.

Cette manipulation des sens a eu un effet sur leurs performances : les golfeurs placés face au trou entouré de petits cercles réussissaient deux fois plus de coups gagnants que ceux placés face au même trou entouré de grands cercles ! Cette étude prouve la réciprocité de la relation entre perception et action.

Les effets des illusions visuelles sur l'action sont-ils temporaires ou durables ? En 2014, Guillaume Chauvel, de l'Université Joseph Fourier à Grenoble, Gabriele Wulf, de l'Université du Nevada à Las Vegas, et moi-même avons d'abord demandé à des étudiants de faire une cinquantaine de putts (les coups joués sur le green) vers un cercle noir (ressemblant à un trou), entouré soit de plus petits cercles noirs (pour une moitié des étudiants), soit de plus grands (pour l'autre moitié). Et le lendemain, les étudiants des deux groupes ont effectué à nouveau des putts, mais, cette fois-ci, sans les cercles noirs. Nous avons montré que les participants qui percevaient le trou comme plus large (car entouré de petits cercles) étaient plus performants pendant les derniers essais du premier jour (lorsque l'illusion visuelle d'Ebbinghaus était présente), mais aussi le lendemain en l'absence de l'illusion (lorsque les cercles noirs étaient supprimés).

Au golf, les illusions visuelles semblent faciliter le souvenir d'un geste, et donc son apprentissage. Dès lors, il est sans doute envisageable qu'elles aient des effets semblables dans d'autres sports impliquant l'atteinte d'une cible, tels le tir à l'arc, la pétanque, le curling…

Une adaptation ancestrale

Comment expliquer ces effets ? Jessica Witt suppose que notre cerveau a acquis au fil des millénaires des mécanismes particuliers qui modifient la perception de notre environnement en fonction des objectifs à atteindre. La mise en place de tels mécanismes a dû avoir lieu dans des temps immémoriaux, quand les hommes lançaient des flèches ou des sagaies, et non des balles de tennis – un temps où l'enjeu n'était ni plus ni moins que la survie ! Dans ce contexte, il aurait été avantageux de trouver une proie plus grosse, car le chasseur aurait alors eu plus de chances de la tuer. Les chasseurs dotés de ces curieuses distorsions de la perception auraient mieux nourri leur famille – une forme de sélection naturelle…

Une autre explication de ces curieuses distorsions de la perception provient de la conception dite « incarnée » de la cognition. Selon ce principe, la perception visuelle est nécessairement calibrée sur des unités de mesure propres au corps. Ces unités sont de trois ordres : morphologiques (par exemple, la hauteur du regard), physiologiques (par exemple, la quantité de ressources métaboliques disponibles) et comportementales (par exemple, l'amplitude des gestes). Ce que voit le joueur de tennis dépendrait donc de ces unités, en particulier de la nature de ses actions sur le court.

Dans un bon jour, quand ses retours de balle sont toujours précis, le joueur envoie tous ses coups dans un espace restreint, de hauteur élevée. En calibrant sa perception de la balle sur cet espace, le joueur la juge comme plus grosse. À l'inverse, dans un mauvais jour, les coups du sportif couvrent un espace large, de plus faible hauteur : la balle est alors perçue plus petite.

Plus simplement, l'origine de la relation réciproque entre perception et action pourrait être liée au stress suscité par le contexte. Après une succession d'échecs, le stress augmenterait, ce qui aurait pour effet de rendre difficile la focalisation de l'attention sur la cible, réduisant sa taille perçue. Inversement, dans un contexte de réussite, le stress diminuerait, ce qui faciliterait la focalisation de l'attention sur la cible et augmenterait par conséquent sa taille perçue.

En réalité, si les influences de l'action sur la perception et de la perception sur l'action ont été bien décrites, il n'existe pas encore d'explication solide à ce phénomène. La nature des mécanismes cognitifs et des activations cérébrales associées reste à élucider. Sur le plan historique, Voltaire disait que « les anecdotes […] sont de petits détails longtemps cachés ». Les anecdotes sportives, point de départ des travaux présentés ici, ont aussi permis de révéler la présence de petits détails susceptibles d'éclairer des mécanismes jusque-là méconnus de la perception humaine.

 

François Maquestiaux

Nature experience reduces rumination and subgenual prefrontal cortex activation / La randonnée change votre cerveau

 

article original :

http://pdf.lu/VB7K

 

2012-08-18-Lions-Binkert-Hike-9867-MKH

 

 

Bien qu’il puisse sembler évident qu’une bonne randonnée à travers une forêt ou une montagne peut purifier votre esprit, le corps et l’âme, la science est en train de découvrir que la randonnée peut réellement changer votre cerveau … pour le mieux!

 

« La paix de la nature va s’infiltrer en vous comme les rayons du soleil pénètrent les arbres. Le vent va vous insuffler sa fraîcheur, et les orages leur énergie, en même temps que les soucis tomberont comme les feuilles d’automne », a écrit John Muir dans Our National ParksDe toute évidence, John Muir comprenait la valeur fondamentale de passer du temps dans la nature.

Comme John Muir, nous sommes nombreux à reconnaître que randonner dans la nature est bon pour le corps, l’esprit et l’âme. Marcher dans les bois tout en observant les oiseaux et les feuillages colorés, en humant l’arôme des épicéas et des pins, et en écoutant le murmure apaisant d’un cours d’eau, tout cela dégage notre esprit et nous nous sentons bien. Heureusement, les médecins sont d’accord. Les études successives montrent que passer du temps à randonner dans la nature procure de multiples avantages pour la santé mentale.

La randonnée dans la nature réduit la rumination

chien

 

Ceux qui ruminent ou se concentrent sur trop de pensées négatives sur eux-mêmes peuvent présenter de l’anxiété, la dépression et d’autres problèmes tels que des crises de boulimie ou un trouble de stress post-traumatique. Dans une étude récente, les chercheurs ont voulu savoir si passer du temps dans la nature affecte la rumination et ils ont constaté qu’une excursion dans la nature diminue ces pensées négatives obsessionnelles.

Dans cette étude, les chercheurs ont comparé la rumination signalée par des participants qui ont fait une randonnée dans un environnement urbain ou dans la nature.  Ils ont trouvé que ceux qui avaient marché pendant 90 minutes dans la nature, un environnement de prairies près de l’Université de Stanford, ont signalé moins de rumination et avaient également réduit l’activité neuronale dans le cortex préfrontal subgenual, qui est associée à la maladie mentale. Ceux qui avaient marché dans un environnement urbain n’avaient pas éprouvé les mêmes bienfaits.

Ces chercheurs expliquent que notre monde devient de plus en plus urbain et que l’urbanisation est liée à la dépression et d’autres formes de maladie mentale. Visiblement, nous éloigner d’un environnement urbain et passer du temps à l’extérieur où il y a moins de stress mental, moins de bruit et moins de distractions peuvent être bénéfiques pour notre santé mentale.

La randonnée en se déconnectant de la technologie stimule la résolution créative de problèmes

2811

Selon une étude de Ruth Ann Atchley et David L. Strayer, la résolution créative de problèmes peut être améliorée en se déconnectant de la technologie et en renouant avec la nature. Dans cette étude, les participants ont randonné dans la nature pendant environ quatre jours et ils n’étaient pas autorisés à utiliser la technologie. On leur a demandé d’effectuer des tâches exigeant de la créativité et la résolution de problèmes complexes. Ils ont constaté que les participants immergés dans la nature avaient des performances accrues de 50 % dans les tâches de résolution de problèmes.

Les chercheurs indiquent que la technologie et le bruit des zones urbaines accapare sans cesse notre attention et nous empêche de nous concentrer, ce qui affecte nos fonctions cognitives. C’est pourquoi lorsque nous nous sentons submergés par les contraintes de la vie urbaine et les connexions 24 /7, les balades dans la nature peuvent être une puissante médecine.  Elles réduisent notre fatigue mentale, apaisent notre esprit et nous aident à penser de façon créative.

Elles peuvent améliorer le TDAH chez les enfants

tumblr_m59rppyKxO1qhb5oto1_500

Les enfants souffrant de TDAH ont généralement du mal à rester concentrés, sont facilement distraits, présentent des troubles d’hyperactivité et ont de la difficulté à maîtriser leurs impulsions.

Cela peut être déconcertant parfois d’élever des enfants souffrant de ce trouble. Néanmoins, de belles nouvelles sont venues du monde médical et scientifique. Dans une étude menée par Frances E. Kuo, PhD et Andrea Faber Taylor, PhD, les chercheurs ont constaté que l’exposition de ces enfants à des « activités de plein air et dans la nature » réduisait leurs symptômes.  Ainsi, selon cette étude, les bénéfices de l’exposition à la nature peuvent s’étendre à toute personne ayant les symptômes d’inattention et d’impulsivité.

Les auteurs concluent que de simples changements impliquant des activités dans la nature peuvent améliorer l’attention. Par exemple, même s’asseoir plus longtemps devant une fenêtre ouvrant sur un paysage de verdure, participer à une après-midi de balade dans la nature ou simplement jouer au ballon dans le parc peuvent soulager les symptômes du TDAH.

La randonnée dans la nature est un excellent exercice, qui stimule l’intelligence

258816309806066766o5AmFLbSc

 

Nous avons tous entendu l’expression un esprit sain dans un corps sain. La randonnée dans la nature est une excellente forme d’exercice et cela peut brûler entre 400 et 700 calories en une heure, selon la difficulté de la marche. L’avantage supplémentaire est que la randonnée n’est pas aussi contraignante pour nos articulations que d’autres formes d’exercice comme la course. De plus, il est avéré que ceux qui font de l’exercice à l’extérieur sont plus susceptibles de se tenir à leurs programmes d’exercice, ce qui rend la randonnée un excellent choix pour ceux qui envisagent d’intégrer l’exercice dans leur vie quotidienne.

L’esprit et le corps sont naturellement reliés. L’exercice aide à maintenir les cellules de notre cerveau nourries et en bonne santé. En fait, selon les chercheurs de l’Université de Colombie Britannique, l’exercice en plein-air peut même améliorer la mémoire et les capacités cognitives. Dans l’étude, ils ont trouvé que l’exercice en plein air augmente le volume de l’hippocampe chez les femmes âgées. L’hippocampe est une partie du cerveau associée à la mémoire spatiale et épisodique.

Non seulement l’exercice améliore la capacité cognitive et peut prévenir son déclin, comme montré dans l’étude, mais il peut également réduire le stress et l’anxiété, stimuler l’estime de soi, et libérer des endorphines (les hormones du bien-être). Il est étonnant qu’une activité physique aussi simple et bon marché que la randonnée puisse procurer tant de bienfaits pour la santé mentale.

La randonnée : prescription médicale !

iceland18

Est-ce que votre médecin vous a déjà dit de « faire une randonnée » ? Ce n’est pas une phrase que nous voulons spécialement entendre, surtout de la part de notre médecin, mais ils ont en fait notre bien-être à l’esprit. Les médecins progressistes sont maintenant conscients que les gens qui passent du temps dans la nature souffrent moins de stress et jouissent d’une meilleure santé physique.

Selon WebMD, de plus en plus de médecins écrivent « des ordonnances de nature » ou recommandent « l’écothérapie » pour réduire l’anxiété, améliorer les niveaux de stress et pour lutter contre la dépression. De plus, les prescriptions de nature deviennent mieux acceptées par les fournisseurs traditionnels de santé car de plus en plus de recherches montrent les bienfaits de l’exercice et du temps passé dans la nature.

L’Etat de Californie est traditionnellement l’un des Etats les plus progressistes dans le domaine de la santé alternative. A titre d’exemple, l’Institute at the Golden Gate a mené un combat pour promouvoir l’écothérapie grâce à son initiative « Healthy Parks Healthy People (HPHP) ». Dans ce programme, des organisations associatives travaillent avec les professionnels de santé pour améliorer la santé de leurs parcs, et pour promouvoir l’utilisation des parcs en tant que moyen de regagner la santé pour les personnes qui y viennent.

Comment commencer à faire de la randonnée ?

enhanced-15487-1420669034-4

Faites ce que vous avez à faire jusqu’à ce que vous puissiez faire ce que vous voulez faire

Heureusement, la randonnée est l’un des sports les plus faciles et les moins chers, et c’est amusant et bénéfique pour toute la famille. Si vous êtes juste un débutant, n’envisagez pas l’ascension du Mont-Blanc ou le GR20 en Corse. Vous pouvez commencer par des petites marches. Découvrez les sentiers locaux de petite randonnée et assurez-vous d’entreprendre une distance sûre et confortable. Vous pouvez trouver des guides de randonnée par régions, ou en ligne, et il existe des applications smartphone pour vous aider à trouver les meilleurs sentiers pour votre niveau et vos intérêts.

Assurez-vous de porter des chaussures de randonnée robustes et appropriées pour le terrain. Lorsque vous les choisissez, n’hésitez pas à parcourir le magasin de long en large plusieurs fois afin d’éviter que les chaussures vous blessent par la suite. Selon les goûts, vous pouvez envisager des bâtons de marche, qui pour certains réduisent le stress sur les genoux, augmentent la vitesse et améliorent la stabilité. Prévoyez autant de vêtements que nécessaire selon la météo, et portez des vêtements aérés en tissus qui laissent la transpiration s’évacuer et permettent de rester au chaud. Utilisez des lunettes de soleil et un chapeau pour vous protéger du soleil. Restez hydraté et amusez-vous !

L’étude publiée dans Proceedings of the National Academy of Sciences (lien ci-dessus)

 UN SEIGNEUR DES ANNEAUX

vendredi 3 juin 2016

Enthousiaste, Accessible, Généreux, Loquace, André BRAHIC m'a fasciné (B.Montagne)

Neptune au Musée du Bardo de Tunis

Connaître le ciel change-t-il l'Homme ? CourCour

Enfants du Soleil : à la recherche de nos origines et de la vie dans l’univers

André Brahic, seigneur des anneaux planétaires, nous a quittés

Le mardi 9 décembre 2014, André Brahic était l’invité de la Société astronomique de Bourgogne. Le sujet de sa conférence intitulée Enfants du Soleil : À la recherche de nos origines
et de la vie dans l’Univers portait aussi bien sur l’origine du Système solaire que sur l’exobiologie.

 

André Brahic était Professeur à l’université de Paris-VII Denis Diderot et Directeur de l’équipe universitaire « Gamma-Gravitation » au Commissariat à l’énergie atomique (CEA Saclay), mais il était surtout une figure passionnée et passionnante de la vulgarisation scientifique, bien connue du grand public. Il avait d’ailleurs reçu le prix Carl-Sagan 2000 aux États-Unis et le prix Jean-Perrin 2006 pour cette raison. Pour ses collègues, il était le codécouvreur des anneaux de Neptune et une figure importante des missions Voyager et Cassini. Le cancer vient de l’empêcher définitivement de continuer à explorer les anneaux de Saturne.

 

« Quel est le but qui vaudrait que l’on choisît de naître plutôt que de ne pas exister ? Spéculer sur le ciel et sur l’ordre du cosmos entier » ainsi s’exprimait le philosophe grec Anaxagore au Ve siècle av. J.-C. Il était difficile de ne pas partager cette idée lorsque l’on écoutait André Brahic nous parler, avec un enthousiasme communicatif, des dernières avancées de la planétologie via les grands projets de sondes spatiales comme Voyager et Cassini, et tout simplement de la Science comme le montre si bien la vidéo ci-dessous. Son bouillonnement intellectuel émaillé de traits d’humours, parfois corrosifs, avait fait de l’astrophysicien de réputation mondiale, qui avait codécouvert en 1984 les anneaux de Neptune, un habitué des plateaux de télévision depuis les années 1980 où on le trouvait parfois en compagnie d'Hubert Reeves et de Jean-Pierre Luminet, autres grands vulgarisateurs.

Il vient, hélas, de décéder le 15 mai 2016 des suites d’un cancer.

En 2011, il avait accordé une longue interview à Futura-Sciences, malgré le fait qu’il était débordé par ses multiples activités, notamment en tant que membre de l’équipe d’imagerie de la mission Cassini, explorant actuellement Saturne  et ses lunes. Le chercheur nous avait expliqué son parcours.

 

https://www.youtube.com/embed/dr4okjltJac     

Connaître le ciel change-t-il l'Homme ? 


Dans cette vidéo André Brahic fait clairement partager la conviction de bien des grands esprits scientifiques au cours des siècles. La Science est la plus grande aventure jamais entreprise par l’Humanité et avec la pensée rationnelle qui l’accompagne, elle devrait être une des composantes majeures de vie et de la société.  

De la simulation des galaxies aux images des anneaux planétaires

Né le 30 novembre 1942 à Paris, il commence tout comme Jean-Pierre Luminet, par faire des études de mathématiques. En licence, comme bien d’autres astrophysiciens français devenus célèbres, c’est sous l’influence des cours (qu’il prend en option) et de l’enthousiasme d'Évry Schatzman qu’il a définitivement basculé dans le monde de l’astrophysique. Le charisme et la personnalité de celui qui fut le père de l’astrophysique française l’influencent profondément, mais c’est sa rencontre avec le mathématicien et astronome Michel Hénon, son directeur de thèse, qui a joué un rôle essentiel dans sa carrière.

Hénon est considéré comme l’un des meilleurs scientifiques de la fin du XXe siècle. Ses travaux sur la dynamique stellaire et les problèmes à N corps font autorité. Dans la lignée d’Henri Poincaré, il explora la physique du chaos et découvrit le célèbre attracteur étrange qui porte son nom. André Brahic lui rendra hommage dans une passionnante conférence que l’on peut trouver dans une vidéo de l'Institut Henri Poincaré.

Au début des années 1970, André Brahic étudiait les collisions d’un système de N nuages interstellaires afin de comprendre l’aplatissement des galaxies spirales et la formation des disques. Pour tester son modèle, il l’appliqua à la formation des anneaux de Saturne, considérés comme un ensemble de N corps tournant autour de la planète et subissant d’incessantes collisions mutuelles. Cet astre lui avait paru initialement, a priori, peu intéressant, comparé au monde des étoiles et des galaxies, jusqu’au moment où il réalisa que les plus grands noms de l’astronomie s’y étaient cassé les dents. Galilée, Cassini, Laplace, Maxwell et Poincaré, pour ne citer qu’eux, y ont consacré une partie de leur vie sans pouvoir résoudre tous les problèmes posés par ces anneaux.

Mais l’invention des ordinateurs qui permettent de faire des simulations numériques complexes et le lancement des sondes spatiales qui donnent la possibilité d’observer de près les astres du Système Solaire ont tout changé. Les anneaux de Saturne sont devenus de véritables laboratoires de physique, à portée de main, et il nous faudra quelques siècles supplémentaires pour tout comprendre.

Finalement, alors qu’il ne pensait consacrer que quelques mois à l’étude des anneaux, André Brahic y aura passé plus de trente-cinq ans. Il ne le regrettait pas car cette décision va être la chance de sa vie. En effet, quand les travaux de préparation des missions Voyager ont été lancés, personne au monde n’étudiait l’évolution et la dynamique des anneaux de Saturne. C’est tout naturellement qu’on proposa alors au chercheur français de rejoindre l’équipe d’imagerie de Voyager pour analyser les données concernant les anneaux.

L’aventure des sondes Voyager et la découverte des anneaux de Neptune

Les sondes Voyager I et Voyager II ont été construites au Jet Propulsion Laboratory à Pasadena en Californie. Le JPL dépend du fameux California Institute of Technology où Richard Feynman était l’un des professeurs. Au début des années 1960, en conclusion d’un de ses célèbres cours de physique sur l’hydrodynamique, le grand théoricien des particules élémentaires prophétisait que lorsque l’exploration du Système solaire serait plus avancée, ce serait une leçon salutaire pour la physique. On verrait alors qu’une grande richesse de phénomènes, largement imprévisibles au stade de développement actuel de l’intelligence humaine, émergerait de simples équations comme celles des lois de la mécanique et de la gravitation de Newton, et surtout celles de la mécanique des fluides de Navier-Stokes.

Cette richesse et cette diversité, qui ne cessent de surprendre les chercheurs, sont bien présentes dans le Système solaire, comme le montre magnifiquement l’ouvrage d’André Brahic qu’il avait publié chez Odile Jacob et intitulé De feu et de glace, planètes ardentes. L’auteur y raconte d’ailleurs l’anecdote suivante, parmi bien d’autres : « Au sein de l’équipe d’imagerie des sondes Voyager, dans les années 1980, nous nous amusions avant chaque rencontre à prédire la physionomie des astres juste avant de les visiter. Celui qui perdait les paris que nous lancions invitait ses collègues dans le meilleur restaurant des environs. À l’arrivée, tout le monde a invité tout le monde ! D’astronomes, nous devenions gastronomes ! ».

Richard Feynman, André Brahic n’a fait que l’apercevoir à plusieurs reprises, mais au début des années 1980, une autre star était bien présente dans l’équipe d’imagerie des sondes Voyager au JPL : Carl Sagan. Ils deviendront des amis très proches et c’est ainsi que l’un des hommes à l’origine du programme Seti et du Golden Record de Voyager donnera une conférence grand public en compagnie d’André Brahic à Toulouse. Comme il l’a confié à Futura-Sciences, André Brahic se sentait en parfait accord avec la démarche de Carl Sagan, pour qui, comme il l’a fait avec sa célèbre série Cosmos, il est important de faire partager au plus grand nombre la culture scientifique, l’esprit scientifique et rationaliste qui la fonde, et l’émerveillement devant le spectacle des lois de la nature à l’œuvre en astrophysique.

 

https://www.youtube.com/embed/2fR-hMhIPgI

Les anneaux planétaires (1995)

En 1995, l’émission Cassiopée, André Brahic et sa collaboratrice Cécile Ferrari nous parlent de la découverte des anneaux des planètes dans le Système solaire.  

Des anneaux de Saturne aux anneaux de Neptune

En 1989 la sonde Voyager 2 permettra de photographier pour la première fois les anneaux de Neptune dont l’existence avait été démontrée en 1984 grâce au programme d’observation d’occultation d’étoiles proposé par André Brahic et ses collègues, Bruno Sicardy et Françoise Roques de l’Observatoire de Paris-Meudon, et réalisé par Patrice Bouchet, Reinhold Häfner et Jean Manfroid à l’Observatoire de La Silla (Eso). Une confirmation a été également donnée par les observations de F. Vilas et L.-R. Elicer, suivant un programme conduit par Williams Hubbard. Les cinq anneaux de Neptune sont nommés d’après les astronomes qui ont contribué à d’importants travaux sur la planète à savoir Galle, Le Verrier, Lassell, Arago et Adams. En 1989 également, on découvre avec Voyager trois arcs dans le dernier anneau (Adams) qui furent baptisés Liberté, Égalité et Fraternité. Cécile Ferrari découvrit en fait qu’il existait un quatrième arc baptisé depuis Courage, le "c" faisant dit-on référence à l’astronome française.

En juin 1980, alors que la sonde Voyager 1 était sur le point d’arriver aux abords de Saturne et devant le succès, déjà remporté par Voyager avec l’exploration de Jupiter, André Brahic et quelques-uns de ses collègues réfléchissaient déjà à la prochaine étape, c’est-à-dire la mise en orbite d’une sonde autour de Saturne, après les survols de Voyager 1 et 2. Toutefois, tous ne sont pas enthousiastes, pensant que le projet est trop ambitieux et trop coûteux.

André Brahic apostropha donc ses collègues un peu frileux en leur disant : « dans la vie, il suffit de dire qu’une chose est impossible pour qu’elle le devienne ». Il faudra tout de même dix ans pour que la Nasa  et l’Esa se mettent d’accord pour construire la sonde Cassini qui sera lancée en 1997. La mission elle-même aura coûté environ 4 milliards de dollars, c’est-à-dire presque aussi cher que la construction du LHC et elle sera finalement prolongée au moins jusqu’en 2017, date à laquelle André Brahic comptait bien encore travailler dans l’équipe d’imagerie de la mission Cassini, allergique à l’idée de prendre sa retraite. Il se serait bien vu d’ailleurs, toujours vivant, comme membre d’une mission spécialement dédiée à l’étude de Neptune et ses anneaux, à l’horizon 2060.

Interrogé sur la possibilité de découvrir de la vie extraterrestre dans un futur proche, la grande passion de Carl Sagan, André Brahic se montrait très prudent, mais probablement confiant. « À la question de savoir si une vie extraterrestre existe, un scientifique ne peut répondre que : je ne sais pas et c’est pour cela que nous cherchons ! » insistait-il et il n’est pas vraiment possible de faire un pronostic selon lui. « Sans doute, si l’on découvrait prochainement une véritable exoterre, beaucoup de moyens seraient mis en œuvre pour détecter une biosignature dans les dizaines d’années qui suivraient. Nous pourrions alors espérer une réponse avant la fin du XXIesiècle » ajoutait le chercheur. Il avait consacré récemment son dernier livre, Terres d'ailleurs, à cette question en compagnie de l’astrophysicien Bradford Smith.

 Laurent Sacco

Cinq images de 450 secondes de pause ont été prises le 15 mai 2016, entre 20h11 et 20h52, de l'astéroïde (3488) BRAHIC, nommé ainsi en l'honneur de l'astrophysicien. On voit donc les étoiles défiler, et l'astéroïde lui-même est bien visible dans le cercle en haut à droite de cette image composite.

Mort du physicien André Brahic, découvreur des anneaux de Neptune

 

 

Le physicien André Brahic vient de mourir. Redécouvrez un entretien exceptionnel avec lui sur la place de la science dans la société.

Introduction à l’article initial de 2012 : qui n’a jamais lu, entendu ou vu André Brahic ? Un des astrophysiciens français les plus connus, découvreur des anneaux de Neptune, André Brahic, bientôt 70 ans, a l’énergie et la vivacité d’esprit d’un jeune homme qui commence ses études. Ce passionné devant l’éternel défend avec vigueur, entre deux conférences et trois réunions de recherche, l’utilité de la recherche fondamentale, et se désole de constater le peu d’engouement du monde médiatique et politique pour elle. Pendant la campagne présidentielle, il a publié «La Science : une ambition pour la France». Il y exhortait les candidats à mettre la Science au cœur de leur projet. Mais au fait, à quoi sert-elle, la Science ? Est-il vraiment utile d’envoyer des robots sur Mars, des sondes à l’assaut de nos planètes voisines ? Le monde actuel de la recherche n’est-il pas terriblement sclérosé ? Tentative de réponses.

 

Le physicien André Brahic en 2009

 

 

Contrepoints (CP) : Comment avez-vous décidé de devenir chercheur ?

André Brahic (AB) : Enfant, j’étais fasciné par les étoiles et les planètes. Mais dans mon entourage, personne ne  connaissait ce domaine. Comme souvent dans la vie, tout peut changer à la suite d’une rencontre. Celle de deux chercheurs exceptionnels m’a permis de réaliser ce qui n’était alors qu’un rêve. Le premier, Évry Schatzman, a fondé l’astrophysique en France. Brillant élève de l’École Normale Supérieure de la rue d’Ulm au moment de l’invasion nazi, il a été profondément marqué par l’assassinat de son père à Auschwitz. Il a œuvré toute sa vie pour un monde meilleur et il était convaincu que la science pouvait jouer un rôle important dans la lutte contre l’obscurantisme et contre la violence. Il a consacré beaucoup d’énergie à la diffusion des connaissances et à la promotion de la culture scientifique. Il m’a transmis le virus de la science et il m’a fait comprendre le primat de la raison. Le second, Michel Hénon, est l’un des meilleurs scientifiques de la fin du 20è siècle. Sa logique implacable, sa rigueur mathématique et sa culture m’ont particulièrement impressionné. J’ai eu la chance de travailler de nombreuses années avec lui et je considère qu’il m’a appris le métier. Le charisme et la puissance intellectuelle de ces deux maîtres m’ont rendu amoureux de la recherche scientifique.

CP : À quoi sert la science ?

André Brahic : La science a pour ambition de comprendre le monde. Ceci repose sur deux postulats : le monde obéit à des lois et nous pouvons les découvrir. Notre seul outil est notre cerveau. Est-il capable de tout comprendre ? À vrai dire, je ne sais pas. Mais, le progrès des connaissances depuis plusieurs millénaires ne peut que nous encourager à continuer tout en faisant preuve de beaucoup de modestie et d’humilité. Il faut se méfier des certitudes qui mènent souvent au fanatisme et à des attitudes irrationnelles. Je rejette tout autant le fanatisme religieux que le scientisme qui baignent tous deux dans l’intolérance. Contrairement aux scientistes, je n’affirmerai pas que la science a réponse à tout et peut résoudre tous les problèmes, mais je suis persuadé que nous courons à la catastrophe si nous négligeons la science.

CP : Faut-il continuer à dépenser autant de crédits dans la recherche fondamentale, en particulier en ces temps de crise ?

André Brahic : En fait, il faut augmenter l’effort si nous voulons sortir de cette crise. Il ne faut pas confondre la science et la technologie ni la recherche fondamentale et la recherche appliquée. La première n’a a priori aucun but pratique, elle est mue par la seule soif de connaissance. La seconde exploite les résultats de la première pour trouver des solutions à nos problèmes domestiques, sociaux, économiques, industriels et médicaux et inventer des outils et des machines utiles à l’homme. Ces deux activités sont complémentaires. L’une ne peut pas exister sans l’autre.  Ne faire que de la recherche appliquée et négliger la recherche fondamentale reviendrait à construire une maison sur du sable. Ne faire que de la recherche fondamentale sans jamais l’appliquer serait une fantastique perte d’énergie. En temps de crise, la SEULE solution est de donner la priorité à la recherche.

Par ailleurs, beaucoup d’esprits chagrins parlent de crise. J’aimerais relativiser et prendre un peu de recul. Notre époque est merveilleuse, comparée à celles de nos ancêtres. Nous n’avons jamais vécu aussi vieux et en aussi bonne santé. Nous n’avons jamais fait autant de découvertes. Je fais partie de la première génération depuis des millénaires qui n’a pas connu la guerre. Pendant des siècles, chaque mauvaise récolte entrainait des famines et des dizaines de milliers de morts. Chaque épidémie décimait une grande partie de la population. Quand ma grand-mère est née, la voiture et l’avion n’avaient pas encore été inventés. Quand elle est décédée, les hommes posaient le pied sur la Lune.

Ce que certains appellent crise est en fait une crise essentiellement financière. Il est important de comprendre que c’est d’une certaine manière l’absence de pensée scientifique qui a mené à cette crise. En physique, on apprend que l’énergie se conserve et qu’on ne peut pas créer quelque chose à partir de rien. Certains ont cru qu’on pouvait faire fortune à partir de rien. En clair, on crée un monde virtuel qui est celui de la finance, ce monde virtuel rapporte de l’argent au début, mais dès que le monde virtuel rencontre le monde réel, la situation est fortement instable et tout se termine en crise. C’est donc une approche irrationnelle du monde qui entraîne une crise financière. Davantage de science, c’est moins d’irrationnel, donc moins de risque de «crise» comme celle que nous connaissons.

CP : On pourrait vous faire remarquer que les traders auxquels vous faites référence sortent généralement d’école comme Polytechnique où ils étudient beaucoup de matières scientifiques.

André Brahic : Vous touchez là un point essentiel relatif à l’éducation. Si on ne vous enseigne que des techniques ou des « recettes de cuisine » sans vous faire réfléchir sur leur utilité et leur rôle, vous n’avez pas de recul. Trop souvent l’enseignement est celui de la répétition de la parole du maître. On n’apprend pas assez aux élèves comment raisonner. Les polytechniciens que vous citez sont des gens brillants qui ont très bien compris la technique, ce qui est différent d’avoir une véritable culture scientifique. Ils n’ont jamais fait de recherche. Ils créent des modèles, cherchent celui qui sera le plus efficace, qui entraînera le maximum de gain, mais sans vraiment se poser la question du pourquoi. Quand je présente nos enseignements de troisième cycle aux jeunes polytechniciens, je leur dis qu’il n’était pas nécessaire qu’ils se fatiguent à passer le concours pour finalement devenir un simple trader. Ils gagneront beaucoup d’argent dans la finance, mais il n’est pas certain qu’ils y trouvent le bonheur. Beaucoup seront las à l’âge de 40 ans alors qu’ils se seraient beaucoup plus épanouis dans la recherche.

CP : Venons-en à votre livre, La Science, une ambition pour la France. Pourquoi l’avoir écrit ?

André Brahic : C’est un véritable cri du cœur. Au moment de la campagne présidentielle, j’ai voulu lancer un appel. Ce livre est en fait un plaidoyer pour la culture scientifique. Notre vie de tous les jours est bercée par la science et conditionnée par des découvertes récentes. Nous bénéficions de moyens que n’avaient pas nos parents pour chacun de nos actes pour nous déplacer, communiquer, nous faire soigner, etc. Il est paradoxal de constater que les scientifiques sont absents des cercles de décision. Prenez les présidents, les ministres, les députés, les sénateurs, les directeurs des journaux, des chaînes de radio et de télévision, les grands capitaines d’industrie : aucun n’a fréquenté le monde de la recherche ! Des écoles prestigieuses comme Sciences-Po, H.E.C., l’E.N.A. sont éloignées du monde des laboratoires. Nombre d’hommes politiques en sont issus. Des scientifiques de haut niveau fréquentaient la cour de Louis XIV. Le grand astronome François Arago fut un ministre important de la IIème République. Le mathématicien Paul Painlevé et le physicien et prix Nobel Jean Perrin furent ministres de la IIIème République. L’époque moderne fourmille d’anecdotes sur l’ignorance des ministres de la Recherche. L’un d’entre eux, juriste de formation, est venu un jour nous voir à Saclay. Alors qu’on lui présentait le dernier satellite produit par nos équipes, celui-ci s’est demandé si les satellites volaient au-dessus ou en-dessous des nuages… Je peux comprendre qu’un citoyen non intéressé l’ignore. Mais nous pouvons nous poser des questions sur la qualité des décisions d’un tel ministre. Il n’avait aucune connaissance de la chose scientifique en général. La ministre de la Recherche d’un récent gouvernement de S. Berlusconi s’est illustrée en croyant que l’Italie avait financé la construction d’un tunnel de 730 kilomètres de long emprunté par des neutrinos, particules qui traversent sans difficulté toute forme de matière. Un vice-président des États-Unis croyait que nous allions sur Mars pour photographier les martiens…

CP : Votre livre ne visait-il que le monde politique ?

AB : Évidemment, non. Tout le monde est concerné, l’école, les journaux, la télévision, le citoyen, etc. Au lieu d’acheter des documentaires américains ou japonais, la télévision pourrait produire d’excellentes émissions scientifiques ludiques et de qualité et les diffuser à des heures de grande écoute. Les jeunes lycéens pourraient apprendre quelle est la nature de la démarche scientifique. Les journaux pourraient annoncer les bonnes nouvelles scientifiques au lieu de s’appesantir sur des scandales sans intérêt ou de mettre en avant des faits divers anecdotiques. Plus généralement, je suis persuadé que la solution à de nombreux problèmes actuels (violence, chômage, etc.) sera trouvée grâce à la science.

Au-delà du manque de culture scientifique, notre pays manque de considération pour ses chercheurs. Alors que notre avenir dépend des chercheurs les plus brillants, leurs salaires sont médiocres surtout si on les compare à ceux des jeux du cirque. Quant aux jeunes chercheurs, recrutés après des concours difficiles une dizaine d’années après le baccalauréat, ils sont payés à peine plus que le S.M.I.C. alors que d’autres pays comme les États-Unis les accueillent à bras ouverts, avec des salaires à la hauteur de leurs mérites et de leurs capacités. La France dépense des sommes non négligeables pour éduquer des jeunes chercheurs qui, une fois formés, vont renforcer les laboratoires américains. Tout se passe comme si la France finançait la recherche des États-Unis. Plus généralement, les rémunérations des chercheurs dépendent peu du mérite. Entre ceux qui y consacrent toute leur vie et ceux qui ont perdu la passion, les différences de salaires sont faibles. C’est au point où un membre d’une commission de recrutement du C.N.R.S. a déclaré un jour d’élection : « Aujourd’hui nous allons nommer des rentiers ! ».

Un ministre de la Recherche nous a demandé si les satellites volaient au-dessous des nuages…

CP : Dans votre livre vous dénoncez plusieurs fois l’obscurantisme de notre siècle. N’est-il pas la conséquence d’une certaine arrogance scientifique, qui considère que la science peut tout expliquer et qu’il est un peu « stupide » de croire en Dieu ?

AB : Ah ! Ne confondons pas science et religion ! Certains de mes collègues sont croyants et d’autres athées. Ces deux activités n’ont rien en commun. La science a l’ambition d’expliquer le comment. La religion voudrait expliquer le pourquoi.

Il est vrai que l’histoire nous enseigne que la science et la religion n’ont pas fait bon ménage dans le passé. Les progrès scientifiques de la Grèce Antique ont eu lieu aux époques où la religion était peu pesante. Ce n’est pas à l’honneur de l’Église catholique d’avoir brûlé vif Giordano Bruno le 17 février 1600, d’avoir condamné Galilée en 1633 ou d’avoir rejeté Darwin au XIXème siècle. Lorsqu’il a essayé de déchiffrer la Pierre de Rosette, Champollion s’est heurté à une forte opposition de l’Église catholique qui craignait que l’on ne découvrit des sociétés plus anciennes que ce que la Bible prévoyait. Les fondamentalistes musulmans ou protestants du XXème siècle refusent les progrès scientifiques et imposent un enseignement obscurantiste là où ils sévissent. En fait, à certaines époques, les religions  ont fait preuve de beaucoup d’intolérance, ce qui a conduit à d’épouvantables massacres et à des millions de victimes bien au-delà du monde scientifique.

Je n’ai pas traité dans mon livre les rapports entre la science et la religion. On peut simplement remarquer ici que la notion de Dieu recouvre bien des attitudes différentes. Il y a ceux qui sont simplement superstitieux. Ce sont les plus nombreux, mais leur attitude est critiquée aussi bien par les scientifiques que par les théologiens (à voix plus basse). Il y a aussi ceux qui pensent que la religion est liée à la morale et que les hommes se comportent mieux dans la crainte de l’enfer. Mais je n’ai pas le sentiment que les athées massacrent leurs voisins. Il y a enfin la dimension métaphysique : ce que certains appellent Dieu est appelé la Nature par d’autres. Je me contenterai de rappeler la réponse de Laplace à Napoléon, après lui avoir présenté sa nouvelle théorie sur la formation des planètes. « Monsieur le marquis, je ne vois pas beaucoup Dieu dans votre théorie » lui dit l’empereur. « Sire, c’est une hypothèse dont je n’ai pas eu besoin » lui répondit Laplace. En ce domaine, la qualité la plus importante est la tolérance.

CP : Plus prosaïquement, vous critiquez le système de notation des chercheurs, très peu méritocratique. Comment améliorer ce système ?

AB : Vous posez là un problème majeur dans la recherche actuelle, le problème de l’évaluation. De nos jours, j’ai l’impression que les bureaucrates ont pris le pouvoir et passent leur temps à demander de lourds dossiers aux chercheurs afin de les faire évaluer. Le nombre de comités a crû de façon déraisonnable au point où sont apparus des critères de sélection ridicules comme le nombre d’articles publiés. Il est évident que le seul jugement possible doit être fait après la lecture des articles du chercheur évalué. Or les bureaucrates en sont arrivés à simplement compter le nombre d’articles quelle que soit leur qualité ou le nombre de citations même si elles ne sont qu’un relevé d’erreurs.

Au cours de ma carrière, j’ai connu trois systèmes

  • Le mandarinat, système dans lequel la décision est prise par une seule personne, le grand professeur. S’il est un grand chercheur honnête et éclairé, tout va bien. Mais s’il est incompétent ou malhonnête, cela conduit à des abus et des dérives regrettables. Les événements de mai 1968 eurent lieu en grande partie en réaction aux excès de ce système.
  • L’assemblée générale. Au mois de mai 1968, beaucoup eurent l’illusion romantique de retrouver la démocratie grecque à l’époque où on réunissait le peuple sur l’agora. En fait, on y retrouve soit un parfait chaos, soit la prise de pouvoir de démagogues qui se sont emparés du micro.
  • Le comité. Ce système qui paraît a priori raisonnable présente en fait de multiples défauts. Aucun membre ne se sent réellement responsable et les décisions sont souvent décevantes à force de compromis. Mon patron de thèse avait coutume de dire « Si vous demandez à un comité de dessiner un cheval, à force de compromis, il représentera un animal avec une trompe d’éléphant, une queue de girafe et une bosse de chameau ! » C’est un système qui dilue totalement les responsabilités individuelles. Ainsi lorsqu’un jeune candidat est débouté, et vient voir l’un après l’autre les membres du jury, chacun rejette la cause du rejet sur les autres. De plus, ce système attire les professionnels de la réunionnite qui ont perdu la passion pour l’enseignement ou la recherche.

Il me semble que la solution repose sur le choix d’une seule personne responsable et nommée pour une période limitée. Elle peut s’appuyer sur l’avis uniquement consultatif d’un comité d’experts.

CP : Quid de la sélection de ces chercheurs ?

AB : Le système actuel est à bout de souffle. Il décourage les plus brillants et il ne permet pas la sélection des meilleurs. Aucune compagnie privée ne survivrait si elle recrutait ses employés de manière aussi lourde, aussi bureaucratique et aussi éloignée de ses besoins.

Je préconise de ne pas hésiter à faire des paris et à favoriser l’originalité et les qualités d’imagination. Faire quelques erreurs n’est pas grave si on peut attirer un Galilée ou un Darwin. Actuellement, on a tendance à recruter des jeunes du même profil et qui ont appris les mêmes choses de la même façon.

Il me semble qu’il devrait y avoir plus de passerelles entre les différents organismes de recherche. Par exemple, il serait bon d’accéder au C.N.R.S. pour quelques années seulement, le temps d’y mener des recherches d’importance. Seuls les très grands chercheurs pourraient rester plus de dix ans. La nomination à vie contribue à ankyloser les chercheurs. Chacun devrait avoir l’occasion au cours de sa carrière d’enseigner devant des étudiants de tous les niveaux.

 

CP : Vous critiquez également la bureaucratisation de la recherche. Pouvez-vous expliquer à quoi vous faites référence ?

AB : Le monde de la recherche souffre en effet d’une incroyable bureaucratisation. Je dis toujours en plaisantant que si j’étais ministre, j’interdirais à tous les chercheurs de remplir le moindre papier. Actuellement, les chercheurs passent pratiquement les trois quarts de leur temps à remplir des rapports quand ils ne sont pas membres d’un comité de sélection. Ce n’est pas leur métier. C’est un temps considérable de recherche qui est perdu. Les chercheurs devraient se concentrer sur la publication de leurs résultats dans des revues spécialisées en évitant de multiplier les articles superficiels pour simplement faire gonfler artificiellement leur liste de publications. Ils devraient aussi être très disponibles pour l’animation de leur laboratoire et l’accueil des jeunes étudiants.

Tout d’abord, j’en profite pour dénoncer à nouveau la politique du chiffre

CP : Pensez-vous que la recherche doive forcément s’accompagner de l’enseignement ?

AB : Pour moi, l’un ne va pas sans l’autre. Un enseignant qui n’est pas un chercheur actif est déconnecté du monde réel et risque la sclérose en se contenant de répéter ce qu’on lui a appris il y a de nombreuses années. À l’inverse, un chercheur qui n’enseigne pas risque de se couper du monde et de ne plus être capable de communiquer. En caricaturant au maximum, nous risquerions d’avoir des chercheurs autistes et des enseignants incompétents si les deux mondes n’étaient pas étroitement liés.

Le système actuel manque totalement de souplesse. Les enseignants chercheurs ont trop d’heures de cours et les chercheurs pas assez. De plus, les passerelles entre l’Université et les centres de recherche sont trop étroites. Le meilleur moyen de dominer un sujet est de l’enseigner. L’effort pédagogique pour être compris de tous et pour passionner son auditoire a de multiples vertus. Je suis convaincu que si les chercheurs faisaient davantage de pédagogie, le grand public serait plus attiré par le monde de la recherche, qu’il ressent à tort comme aride. Par contre, les jeunes enseignants chercheurs devraient être soulagés au maximum afin de pouvoir consacrer beaucoup de temps à leur activité de recherche à un âge où ils ont tout à apprendre et où la suite de leur carrière se décide. Plus généralement, on ne devrait pas accepter que des enseignants aient abandonné la recherche sans augmenter leurs heures de cours. Les enseignants des classes préparatoires aux concours des grandes écoles, là où sont les meilleurs étudiants, devraient être des chercheurs actifs, ce qui n’est pas le cas actuellement.

CP : Que pensez-vous du système de publication scientifique, très oligopolistique, et qui coûte une petite fortune à la fois aux lecteurs et aux auteurs ?

AB : Bien entendu, tout ceci devrait être amélioré. Tout d’abord, j’en profite pour dénoncer à nouveau la politique du chiffre. Le système pousse les jeunes chercheurs à publier un maximum d’articles (« publish or perish ! »). J’ai connu une expérience totalement opposée. Un jour, mon maître, Michel Hénon, avait fait un travail extraordinaire sur la dynamique des astéroïdes. Après plusieurs années de travail intensif, il avait rédigé un brouillon d’une centaine de pages. Après en avoir discuté avec lui, je suis parti à une réunion aux États-Unis. J’y ai découvert le travail d’un collègue américain qui avait fait la moitié du chemin parcouru par Michel Hénon. De retour en France, je me suis précipité pour le prévenir et lui dire : « Dépêche toi de publier, la concurrence avance ! » La réponse de Michel a été : « Quelle bonne nouvelle ! Tu m’annonces que j’ai eu le plaisir de faire cette recherche et qu’un autre aura la peine de rédiger les résultats ! ». Cette expérience a été très profitable pour moi. J’ai compris combien le travail en profondeur et le plaisir étaient importants, en totale opposition avec une recherche bâclée pour alimenter son curriculum vitae.

Quant aux revues scientifiques, la République française pourrait créer une revue scientifique gratuite et de très haut niveau. Cela permettrait aux découvertes les plus importantes de ne pas passer par un filtre très anglo-saxon comme celui des revues telles que Nature ou Science qui privilégient trop souvent le spectaculaire au détriment de l’important. Dans de nombreuses revues scientifiques, les chercheurs, une fois leur travail achevé, doivent écrire eux-mêmes leurs rapports au format précis demandé par les revues scientifiques. Ils font ce qui devrait être le travail de l’éditeur. En plus, ils payent de leur poche pour pouvoir être éventuellement publiés

Par ailleurs, il faut se méfier de ces sites Internet qui permettent soi-disant un accès libre, même si en réalité il faut là encore payer pour soumettre un article. Certains de ces sites n’ont pas le sérieux nécessaire et profitent du système pour gagner beaucoup d’argent sur le dos de chercheurs qui voient là une occasion de gonfler artificiellement leur liste de publications. Ils participent à l’inflation déraisonnable des publications.

CP : Que pensez-vous de nouvelles initiatives comme « ArXiv.org», qui sont totalement gratuites ?

AB : Je n’ai a priori rien contre ces initiatives, mais il faut faire très attention à avoir des lecteurs de grande qualité pour juger les articles. Dans notre jargon, nous les appelons des referees. Or, relire des papiers de recherche et les juger demande de solides compétences, beaucoup de temps et une éthique solide. Cela explique pourquoi cela ne peut pas vraiment être fait gratuitement et rapidement.

Extraits de la suite:

– Réchauffement climatique : « Beaucoup crient d’autant plus fort qu’ils sont incompétents »

– « J’ai beaucoup de sympathie pour le mouvement écologiste mais je me désole de la présence en leur sein d’obscurantistes qui déconsidèrent une cause noble. »

– « Tel Christophe Colomb à l’avant de sa Caravelle, nous découvrions de nouveaux mondes. »

 

Entretien réalisé par Pierre-Louis Gourdoux et Benjamin Guyot, pour Contrepoints.


 

This 3-minute animation will change your perception of time

vendredi 27 mai 2016

Duart Paco "Transhumanisme"

Cadrage du Transhumanisme

 

Le mouvement transhumaniste émerge dans les années 1980 aux Etats-Unis, berceau de tant de technologies qui ont radicalement modifié nos manières de travailler et nos modes de vie. A ses débuts, il est facile et souvent justifié de confondre les individus qui s’en revendiquent avec la population bigarrée des amateurs de science-fiction et autres geeks. Mais les années qui suivent montrent une rapide progression de ce mouvement, au vu de sa capacité considérable à mobiliser des financements et de son apparition de plus en plus fr&

 

The nerve bypass: how to move a paralysed hand

https://www.youtube.com/embed/60fAjaRfwnU

 

 

Grâce à une puce électronique implantée au niveau du cortex moteur de son cerveau, Ian Burkhart, tétraplégique suite à un accident, a pu retrouver l'usage de sa main. Avec cette neuroprothèse, un ordinateur qui interprète les signaux électriques de son cerveau et un système d’électrostimulation musculaire, il peut déjà réaliser des gestes complexes. L’espoir est immense, mais beaucoup de travail reste à accomplir pour qu’un tel dispositif puisse un jour être utilisé au quotidien.

Ian Burkhart est devenu tétraplégique suite à un accident
 à l’âge de 19 ans. Il est la première personne à avoir retrouvé l’usage de ses membres grâce à un implant cérébral qui interprète l’activité électrique associée
 à la pensée d’un mouvement. © Ohio State University Wexner Medical Center, Battelle

Ian Burkhart est devenu tétraplégique suite à un accident à l’âge de 19 ans. Il est la première personne à avoir retrouvé l’usage de ses membres grâce à un implant cérébral qui interprète l’activité électrique associée à la pensée d’un mouvement.  

 

Ian Burkhart est un pionnier. Tétraplégique, ce jeune Américain de 24 ans est la première personne à avoir pu « réanimer » l’un de ses membres, en l’occurrence son bras et sa main droite, à l’aide d’une interface neuronale. Il s’agit d’une puce électronique située au niveau du cortex moteur qui détecte l’activité électrique associée à un geste auquel pense Ian. L’information est envoyée à un ordinateur sur lequel un logiciel d’apprentissage automatique va la décoder puis la transformer en signaux électriques transmis ensuite à un dispositif d’électrostimulation musculaire placé sur l’avant-bras.

Deux ans après avoir reçu cet implant, le jeune homme, qui a perdu l’usage de ses membres à 19 ans suite à un accident, est capable de contrôler ses doigts individuellement et d’accomplir six gestes différents avec le poignet et la main. Dans une vidéo tournée par la revue scientifique Nature (lien ci-deessus), on peut le voir saisir une bouteille, verser son contenu, utiliser son index et son pouce pour tenir une fine baguette et même jouer au jeu Guitar Hero ! « C’est devenu si fluide, presque comme avant l’accident. Je pense à ce que je veux faire et je le fais », explique Ian.

Une découverte importante sur le fonctionnement du cerveau

Si les interfaces neuronales de ce type sont expérimentées depuis plusieurs années pour contrôler par la pensée ordinateurs ou des prothèses, c’est la première fois qu’une personne paralysée peut s’en servir pour retrouver l’usage de l’un de ses membres. Le dispositif qu’utilise Ian Burkhart a été codéveloppé par des chercheurs du Wexner Medical Center, de l’université d’État de l’Ohio (États-Unis) et la société Battelle.

Dans leur article scientifique publié par Nature (cliquer sur ce lien), ils expliquent avoir fait une découverte importante sur le fonctionnement du cerveau. Des études précédemment menées sur des lésions de la moelle épinière ont suggéré que cet organe réaffectait les connexions synaptiques associées aux fonctions motrices. Or, l’expérience menée avec Ian Burkhart, tétraplégique, tend à démontrer que les modifications neuronales ne sont pas aussi importantes qu’on l’imaginait.

« Cela nous donne beaucoup d’espoir quant au fait que les changements neuronaux après ce genre de blessure ne sont peut-être pas aussi nombreux que nous le pensions et que l’on puisse shunter une zone endommagée de la moelle épinière pour restaurer un mouvement », explique le professeur Chad Bouton qui participe à cette étude.


Après de longs mois d’entraînement, Ian parvient à accomplir des gestes complexes et même à jouer à 
Guitar Hero !  

Le logiciel progresse avec Ian Burkhart

L’un des aspects les plus impressionnants de cette interface neuronale est que l’algorithme d’apprentissage automatique est capable de s’adapter à l’évolution de l’activité cérébrale. À mesure que le cerveau établit des connexions entre des muscles sur lesquels il avait encore le contrôle et que l’activité cérébrale passe par la neuroprothèse, le logiciel apprend. Concrètement, cela signifie que la précision des gestes va en s’améliorant. Dans le cas de Ian, les chercheurs ont pu constater que sa capacité à tenir un objet tout en le bougeant avait progressé graduellement et était corrélée à des changements importants de son activité cérébrale.

Malheureusement, nous sommes encore loin d’un système viable. Il faut savoir que Ian Burkhart ne peut bouger sa main par la pensée seulement lorsqu’il est au laboratoire et que sa neuroprothèse est physiquement reliée à l’ordinateur par un câble qui vient se brancher sur une interface de connexion située sur la partie externe de son crâne. Par ailleurs, l’interface neuronale doit être recalibrée à chaque nouvelle session. Autre inconvénient majeur, Ian ne ressent pas ses gestes et ne peut donc ajuster sa force de préhension.

Comment rendre les neuroprothèses plus performantes ?

L’un des enjeux cruciaux pour qu’un tel dispositif puisse devenir vraiment fonctionnel concerne le développement des neuroprothèses. D’une part, il faut trouver le moyen de les rendre plus performantes afin qu’elles puissent couvrir de plus larges zones du cerveau, et donc permettre d’affiner le contrôle sur un voire plusieurs membres simultanément. D’autre part, il faut aller vers des techniques beaucoup moins invasives.

Une piste très prometteuse a été récemment présentée par une équipe de chercheurs de l’université de Melbourne (Australie). Ils ont mis au point un « stentrode », un implant flexible glissé dans un vaisseau sanguin qui peut enregistrer les ondes cérébrales du cortex moteur sans être en contact direct avec le cerveau. Cela évite d’avoir à pratiquer une craniotomie pour implanter une interface neuronale à la surface du cerveau. Un travail important doit également être fait au niveau du dispositif d’électrostimulation qui ne retranscrit pas encore assez de variantes de mouvements.

Quant à Ian Burkhart, l’expérience prendra bientôt fin car le programme de recherche n’était prévu que pour deux ans. Les spécialistes estiment qu’il faudrait au moins encore une dizaine d’années avant que ce type d’interface puisse aider certaines personnes paralysées à retrouver un usage partiel de leurs membres.

« Même si c’est quelque chose [ce dispositif de contrôle, NDLR] que je ne le ramènerai jamais chez moi de toute ma vie ; je suis heureux d’avoir eu l’opportunité de prendre part à cette étude. Je me suis énormément amusé. Et je sais aussi que j’ai beaucoup travaillé pour aider d’autres personnes », déclare le jeune homme qui fait preuve d’un altruisme assez admirable.

Marc Zaffagni

 ESPRIT SAIN ?

Pentecôte 2016

 

L'intelligence humaine en progrès

Tout au long du XXe siècle, le QI n’a cessé d’augmenter dans les pays développés avant de se stabiliser aujourd’hui. Comment expliquer ces évolutions ?

L’« effet Flynn » (EF) constitue l’un des phénomènes les plus intrigants et probablement la découverte la plus importante des recherches récentes en psychologie de l’intelligence. Qu’a donc découvert ce chercheur néo-zélandais, James R. Flynn ? En 1984, à la suite d’une analyse de 73 études américaines publiées entre 1932 et 1978, J.-R. Flynn note une augmentation de 3 à 5 points du quotient intellectuel (QI) par décennie aux tests d’intelligence les plus utilisés, les échelles de Weschler (WISC, WAIS) et les matrices de Raven. Cette progression du QI constatée dans les pays développés au long du XXe siècle a été confirmée par de nombreuses recherches. Elle peut s’expliquer, à première vue, par plusieurs facteurs dus aux transformations de la société et de la culture. L’urbanisation et l’amélioration des conditions de vie ont certainement joué sur les progrès du système scolaire et sur les changements survenus dans l’environnement familial. L’amélioration de la nutrition a sans doute contribué à l’augmentation des performances intellectuelles au moins jusqu’au milieu du XXe siècle, son impact ayant probablement diminué par la suite. A contrario, l’environnement visuel n’a cessé de s’enrichir, ce qui a entraîné une maîtrise accrue des habiletés visuospatiales, d’où probablement la meilleure performance de la génération actuelle à certains tests non verbaux du QI comme les matrices de Raven. Ajoutons que le développement de la technologie et l’accès généralisé aux médias font appel à des habiletés cognitives plus complexes qui permettent de traiter les informations abstraites et symboliques de plus en plus abondantes…


Nos ancêtres étaient-ils des arriérés mentaux ?

Mais ces évolutions ne vont pas sans soulever quelques paradoxes et certaines questions à propos de l’intelligence : si le QI a augmenté continuellement depuis qu’on le mesure, nos ancêtres étaient-ils retardés ? L’environnement prend-il le pas sur les gènes ? Qu’en est-il de la différence de progression selon les aspects de l’intelligence que l’on mesure ? Et surtout, comment expliquer que dans certains pays – Norvège, Danemark ou Suède –, on constate aujourd’hui que l’EF plafonne et même régresse légèrement ?


Mesurée depuis près d’un siècle, l’augmentation des scores aux tests d’intelligence est telle qu’en appliquant le même constat à rebours, on devrait conclure qu’un bon nombre de nos ancêtres étaient déficients intellectuels. Évidemment, le gros bon sens et l’histoire empêchent d’adhérer à un tel raisonnement, ce qui fait conclure à J.R. Flynn que l’augmentation des scores de QI ne correspond pas nécessairement à une augmentation de l’intelligence . En fait, l’intelligence de nos ancêtres était fort bien adaptée aux exigences bien concrètes de leur époque. Au gré des progrès scientifiques et technologiques, une large part des travaux manuels a fait place au raisonnement, à la réflexion logique et à la formulation d’hypothèses, instruments cognitifs indispensables pour résoudre les problèmes abstraits que présente la vie quotidienne contemporaine.


Ainsi, nous serions plus doués que nos ancêtres quant au raisonnement abstrait et aux aptitudes visuospatiales, sans les dépasser pour autant sur d’autres aspects de l’intelligence.


Les travaux sur les vrais jumeaux (monozygotes) ont mis en évidence qu’une part importante des performances intellectuelles est attribuable à des facteurs génétiques. Il est clairement établi que des jumeaux monozygotes élevés séparément dès la naissance montreront plus tard grosso modo le même QI en raison, du moins partiellement, de leurs gènes identiques. Pourtant, nous avons vu que l’augmentation des scores de QI est assez forte pour être imputable à la présence d'importants facteurs environnementaux et sociaux. Comment dès lors concilier des explications strictement environnementales avec le rôle de la génétique ?


Un dialogue 
gènes-environnement


En 2001, J.-R. Flynn et William T. Dickens  ont proposé une hypothèse : les individus qui excellent dans une habileté se donnent habituellement les moyens de la parfaire et, ce faisant, l’expression de leurs gènes se trouve avantagée. Par exemple, les individus dont la taille et la rapidité se situent au-dessus de la moyenne sont susceptibles d’exceller au basket-ball ou au volley-ball. Au début, les effets de ces avantages physiques peuvent être modestes, mais comme ils sont très bons, ils ont plus de chance d’aimer jouer et joueront probablement plus que beaucoup d’autres.


Dans un tel cas, un avantage génétique ajouté à des facteurs environnementaux (ici, le temps passé à jouer et à se pratiquer) favorise l’amélioration des habiletés. Autrement dit, un avantage génétique même modeste peut entraîner une amélioration considérable de la performance. Cette hypothèse explique comment un petit changement génétique peut déboucher sur des résultats remarquables avec le temps. En fait, des conditions environnementales de plus en plus propices au développement de l’intelligence se sont mises en place au cours du XXe siècle dans les sociétés industrialisées, et ces conditions ont permis d’augmenter les habiletés cognitives des individus. Autrement dit, le sempiternel débat « inné vs acquis » est périmé. Dans une perspective épigénésique, les gènes ont besoin de rencontrer un environnement adéquat pour se manifester. Au fil des ans, les gènes dynamisent et orientent l’expérience (genes drive experience). Les individus les plus brillants rechercheront des situations propices à l’actualisation de leur potentiel intellectuel. Ainsi, un individu qui aime relever des défis cognitifs choisira des loisirs appropriés, fréquentera des individus dont les compétences intellectuelles sont stimulantes, cherchera des informations variées et enrichissantes, etc. En somme, il s’aménage un environnement propice à l’expression de son potentiel génétique permettant du coup à celui-ci de s’exprimer. L’effet multiplicateur qui s’ensuit est un facteur probable de l’EF.


Qu’ont en commun les chiens et les lapins ?


Les échelles de Weschler, utilisées depuis les années 1940, sont considérées par la communauté scientifique comme un bon instrument de mesure de l’intelligence. Constamment réactualisées, elles comportent actuellement une quinzaine de sous-tests, destinés à mesurer les compétences cognitives qui correspondent aux composantes de l’intelligence générale. L’expérience montre que ceux qui obtiennent un score supérieur à la moyenne dans un sous-test tendent à exceller dans tous les autres sous-tests d’où l’idée d’un facteur d’intelligence générale, appelé le facteur G. Si l’intelligence générale des populations augmentait, les progrès devraient être équivalents pour tous les sous-tests. Or, ce n’est pas le cas. Les progrès s’avèrent faibles dans les épreuves mettant en jeu des compétences verbales ou arithmétiques, qui relèvent plutôt d’un apprentissage de nature scolaire. Alors que les progrès les plus visibles font appel à des compétences visuospatiales ou de logique comme les matrices de Raven et les sous-tests de similitude des échelles de Weschler.


Comment expliquer que l’augmentation des scores de QI ne soit pas uniforme d’un sous-test à l’autre ? Pour expliquer par exemple, les progrès au sous-test « Similitude », J.-R. Flynn recourt à la distinction entre les pensées « préscientifique » et scientifique. Par exemple, à la question « qu’ont en commun les chiens et les lapins ? », question typique du sous-test « Similitude », les citoyens du début du XXe siècle auraient fourni une réponse concrète du genre « on utilise les chiens pour attraper les lapins ».


La réponse actuelle pour obtenir le maximum de points au test relève, elle, d’un raisonnement abstrait : « Les deux sont des mammifères. » Les sujets de l’époque dite préscientifique utilisaient des réponses de nature perceptive et fonctionnelle, alors que celles des sujets de l’époque scientifique se traduisent plus souvent en catégories mises en avant par la science. Qui plus est, même si les sujets de l’époque préscientifique savaient pertinemment que les chiens et les lapins sont des mammifères, ils n’en avaient cure puisqu’une réponse qui eût relevé de la pensée abstraite ne correspondait en rien à l’univers spatio-temporel dans lequel ils baignaient.


L’EF a-t-il atteint sa limite ?


Après avoir progressé pendant plusieurs années, on assiste actuellement dans certains pays occidentaux non seulement à un plafonnement du QI, mais également dans d’autres à une légère régression. Ce phénomène est particulièrement sensible dans les pays scandinaves. Ainsi, en Suède, des chercheurs constatent que dès le début des années 1980, le rythme de l’amélioration des habiletés intellectuelles a ralenti puis plafonné . Des études auprès des jeunes conscrits norvégiens (18 à 22 ans) montrent également une tendance à la baisse puis à la stabilisation . Au Danemark, une recherche a montré une augmentation de 3 points de QI par décennie entre 1959 et 1979, de près de 2 points entre 1979 et 1989 et d’environ 1,3 point entre 1989 et 1998 pour disparaître à partir de 2000 .


Cependant, si l’EF semble s’être stabilisé et même être en légère régression dans certains pays développés, c’est loin d’être le cas partout. Notamment dans certains pays africains comme le Kenya et le Soudan, où les gains de QI commencent à peine à se manifester.


Comment finalement expliquer l’arrêt de l’EF ? En biologie, lorsque les conditions environnementales sont optimales pour le développement d’un organisme, un « effet plateau », déterminé par le potentiel génétique, se manifeste. Analogiquement, les conditions environnementales auraient permis une progression maximale de l’intelligence telle qu’observée par l’EF et celui-ci, à l’instar de tout phéno­type, aurait atteint sa limite dans certains pays occidentaux. En effet, si un trait dépend en partie de l’environnement, comme c’est le cas de l’intelligence, il atteint un plateau lorsque les conditions environnementales sont maximales puisqu’il ne peut se développer au-delà de ce que les gènes lui permettent. Un effet plateau peut aussi apparaître lorsque les savoirs, les technologies et les méthodes d’intervention sont abondamment partagés entre les populations. C’est probablement ce qui s’est passé à la suite de l’urbanisation et de la mondialisation qui ont alors entraîné une augmentation de l’immigration. On peut dès lors supposer que la mise en commun des stratégies éducatives, des techniques de soin de santé, des médias et des technologies de l’information puisse avoir profité à différentes cultures, particulièrement aux individus défavorisés. Ce mixage social découlant de la plus grande mobilité des populations serait impliqué dans les gains de QI qui tendent maintenant à se stabiliser. Précisons aussi que des recherches conduites dans divers pays (Angleterre, Espagne, Danemark, France, Norvège) ont montré que l’EF ne découle pas d’un changement uniforme dans la population : les gains les plus importants touchent les sujets dont le QI se situe dans la basse moyenne.


Les paradoxes de l’effet Flynn


Résoudre les paradoxes soulevés par l’EF est une question complexe qui suppose donc de prendre en compte tout un ensemble de facteurs… L’une des explications cependant passe par la compréhension des relations gènes-environnement. Les gènes ne produisent leurs effets qu’à la faveur d’un environnement propice à leur actualisation. À défaut de celui-ci, les capacités génétiques restent inexprimées. Mais il y a plus. En admettant qu’un génotype se traduit en comportements grâce aux stimulations de l’environnement, la question de savoir si nous devenons de plus en plus intelligents de génération en génération n’est peut-être pas le bon angle d’approche de l’EF.


Puisque la principale caractéristique de notre environnement est d’être en constante mutation, ne doit-on pas considérer que l’EF illustre l’évolution historique de l’intelligence phénotypique au plan culturel ?


Dans cette perspective, il serait plus juste de conclure que nous ne sommes pas plus intelligents, mais que notre intelligence s’exprime autrement, comme si l’environnement faisait le tri des aspects de l’intelligence qui lui sont utiles.

 

Serge Larivée et Carole Sénéchal

Pourquoi notre Q.I. est plus élevé que celui de nos grands-parents

La «plantation de cerveau», statue de Suharyanto Tri, en Indonésie.

https://www.youtube.com/embed/JJhf8-SLe-o

 

Sommes-nous condamnés à devenir de plus en plus bêtes ?

 

Le chercheur américain Gerald Crabtree est un pessimiste. Selon lui, depuis le développement de l’agriculture, l’humanité perd peu à peu ses capacités intellectuelles. La faute à un manque de sélection des gènes qui nous rendent intelligents.

Ce tournant dans notre histoire pourrait être à double tranchant, à en croire les réflexions du scientifique américain de l’université Stanford, Gerald Crabtree. Selon ses hypothèses, qu’il développe dans deux articles de la revue Trends of Genetics, l’ère de la civilisation s’accompagne d’une diminution continue de nos capacités intellectuelles.

Des milliers de gènes de l’intelligence…

Sa théorie est la suivante. Depuis l’aube de l’humanité, le moteur de la survie est l’inventivité. Les Hommes les plus adroits dans la création d’outils ou la mise en place de lieux de refuge devenaient de meilleurs chasseurs, des cueilleurs plus habiles et de moins bonnes proies. La moindre erreur pouvant engendrer la mort, les plus adroits s’en sortaient le mieux.

Ainsi, l’intelligence, sous le contrôle de nombreux gènes, jouait un rôle fondamental dans la sélection naturelle. Les fragments chromosomiques les plus avantageux passaient de génération en génération. Aujourd’hui, quelques années après le séquençage complet de l'ADN humain, les scientifiques estiment que l’on trouve entre 2.000 et 5.000 gènes directement liés à nos facultés intellectuelles. C’est énorme : cela représente entre 8 % et 20 % de l’ensemble du génome!

Le peuple bochiman, dans le désert
 du Kalahari, vit toujours de la chasse et de la cueillette. Si l'hypothèse de Crabtree est vérifiée, peut-être pourrait-on prouver que les Bochimans sont plus intelligents que les membres de nos sociétés vivant
 de l'agriculture et de l'élevage dans des groupes humains de forte densité... © Charles Roffey, Fotopédia, cc by nc sa 2.0
Le peuple bochiman, dans le désert du Kalahari, vit toujours de la chasse et de la cueillette. Si l'hypothèse de Crabtree est vérifiée, peut-être pourrait-on prouver que les Bochimans sont plus intelligents que les membres de nos sociétés vivant de l'agriculture et de l'élevage dans des groupes humains de forte densité... © Charles Roffey, Fotopédia, cc by nc sa 2.0

Cette diversité a fait notre force, mais pourrait aussi faire notre faiblesse. Étant donné le nombre, la probabilité d’une mutation génétique sur l’un d’eux devient plus importante. Les estimations récentes considèrent qu’entre chaque génération, 60 mutations viennent modifier les séquences d’ADN. Gerald Crabtree y est allé de ses propres calculs : à un tel taux, il faut entre 20 et 50 générations pour qu’un des gènes de l’intelligence soit altéré. Ainsi, en postulant que le pic d’intelligence date d’il y a 3.000 ans (120 générations), chacun d’entre nous aurait hérité de deux à six mutations.

… de moins en moins soumis à la sélection naturelle

Or, notre mode de vie de ces derniers millénaires laisse moins la part belle aux facultés cognitives qu’avant. Non pas que nous n’en avons pas besoin ni ne continuons à créer. Simplement, cela ne devient plus un enjeu de survie aussi crucial qu’auparavant, affirme Gerald Crabtree. De ce fait, l’impact de la sélection naturelle sur ces fragments d’ADN se fait moins prégnant. Une mutation altérant légèrement nos capacités intellectuelles pourrait très bien s’y glisser sans que cela affecte le nombre de descendants. De fil en aiguille, l’espèce humaine serait en train de faire marche arrière, certes très doucement, mais sûrement.

Une hypothèse plutôt inattendue, mais qui pourrait éventuellement se tenir. Cependant, les études récentes révèlent que le QI, l’un des indicateurs pour évaluer l’intelligence, n’a cessé d’augmenter ces dernières décennies. Des résultats en contradiction avec les propos de Crabtree. Mais le chercheur a une explication. Cela résulterait de meilleurs soins prénataux, d’une meilleure alimentation (avec notamment l’introduction de l’iode dans le sel, évitant les cas de crétinisme) ou du retrait de certains polluants comme le plomb, mauvais pour le cerveau.

L'empathie, la solidarité, d'autres moteurs de la survie

Légèrement provocatrice, cette théorie est aussi un peu réductrice, car l’intelligence est un paramètre extrêmement complexe à définir. En plus, elle ne constitue pas une caractéristique qui se transmet à l’identique à la descendance. Son héritabilité, jugée une fois encore sur les résultats de tests de QI, serait comprise entre 50 et 70 %, bien moins que la couleur des yeux. Une bonne partie de l’intellect dépend aussi du développement de l’individu, de son éducation, des stimulations reçues ou encore de son bien-être.

Certains éléments sont avancés par le chercheur et reposent eux-mêmes sur des suppositions qui ne sont pas forcément prouvées, ce qui les rend contestables. Sait-on si, vraiment, les individus aux capacités intellectuelles les plus avancées avaient davantage de descendants ?

La vérité est peut-être plus complexe, l'espèce humaine étant sociale et solidaire. Une théorie moderne, expliquée par le primatologue néerlandais Frans de Waal, suppose que c'est notre empathie, et donc notre propension à nous tourner vers les autres en difficulté, qui a été la clé de notre survie. Il s'agit de mettre nos compétences (qu'elles soient intellectuelles, physiques ou sociales) au service de la société. Des fouilles ont par exemple révélé que des infirmes avaient survécu jusqu'à des âges leur permettant de se reproduire. L'intelligence était-elle vraiment l'élément clé de la sélection naturelle ? On ne peut l'affirmer. C'est tout le raisonnement qui pourrait alors tomber à l'eau...

 

Janlou Chaput

FÊTE AU TRAVAIL ? 

1°mai 2016

 

 

Le vocabulaire du bien-être et de la qualité de vie s’invite de plus en plus sur nos lieux 
professionnels. Mais les conditions de travail ont
 du mal à se mettre au diapason.

S’épanouir au travail, est-ce encore possible ? Posez la question autour de vous, vous ne manquerez pas de trouver quelques heureux élus. Peut-être en faites-vous partie ? C’est le cas de Marion, cette enseignante d’une quarantaine d’années rencontrée à la sortie d’une conférence d’historiens. Marion est lumineuse, souriante. Elle enseigne l’histoire-géographie dans une classe de lycée. Elle a convaincu certains élèves de venir un samedi après-midi assister à une conférence sur l’esclavage et son enthousiasme est communicatif.« On va faire un dossier sur l’esclavage, c’est passionnant, non ? » : comme s’il n’y avait rien de plus exaltant que d’étudier la vie des esclaves !


Conditions de travail et réalisation 
de ses aspirations profondes


Marion n’est pas, tant s’en faut, la seule enseignante à s’épanouir dans son travail . L’enseignement fait partie de ces professions, comme celle d’agriculteur ou d’infirmière, qui suscitent encore de véritables vocations. Car aussi surprenant que cela puisse paraître, l’enseignement fait partie du trio de tête des métiers qui rendent encore heureux : 79 % des enseignants déclarent être animés par la « passion d’enseigner » . Le constat est d’autant plus paradoxal que ces métiers génèrent en même temps beaucoup de stress et de mal-être. Ces professions sont guettées, comme tant d’autres, par le syndrome du burn out, cette nouvelle épidémie, un peu fourre-tout qui semble résumer à elle seule tous les maux du travail contemporains : stress, surcharge, surmenage, dépression, souffrance morale, etc. Comment expliquer ce paradoxe entre, d’un côté, les déclarations d’amour pour son travail et, de l’autre, tant de mal-être ?


Dans son livre Le Travail et la nature de l’homme (1971), Frédérick Herzberg, qui fut en son temps un des gourous du management, avait distingué deux composantes principales du bien-être au travail. La première relève de ce qu’il appelait « facteurs d’hygiène » (on parlerait aujourd’hui de conditions de travail) plus ou moins confortables : le salaire, la sécurité, le confort, les bonnes relations avec ses collègues… Pour F. Herzberg, ces ingrédients sont indispensables au bien-être au travail, mais sont insuffisants. Les humains ne recherchent pas simplement le confort, ils veulent avant tout se réaliser dans des activités qui correspondent à leurs aspirations profondes. Admettons que vous soyez devenu clerc de notaire : les meilleures conditions de travail (salaire, horaires avantageux, relations humaines…) vous laisseront tout de même insatisfait si, au fond de vous-même, vous rêviez d’être architecte ou éleveur de moutons.


Cette distinction fondamentale entre les bonnes conditions de travail et ce qui nous motive vraiment est reprise aujourd’hui sous des formes différentes : les psychologues américains Edward L. Deci et Richard M. Ryan parlent de « motivations intrinsèques » (pour l’activité en elle-même) et de « motivations extrinsèques » (salaire, statut, reconnaissance), ce qui recoupe en partie ces deux composantes principales de l’épanouissement au travail : l’aspiration à s’accomplir, d’une part, les bonnes conditions de travail, de l’autre.


De la vocation


La première condition pour s’épanouir au travail, serait donc de « trouver sa voie », autrement dit chercher à faire correspondre ses aspirations et son métier. « Fais de ta passion ton métier et tu n’auras plus jamais à travailler », postule un proverbe (faussement attribué à Confucius). Chacun connaît des gens qui ont réussi à faire coïncider leur job et leur passion : ce sont des bourreaux de travail qui ont le sentiment de ne jamais travailler… Ils apportent un démenti à ceux qui réduisent le travail à son étymologie : travail = tripalium, l’instrument de torture.


Faire coïncider ses passions et son travail, chacun en rêve. Mais comment y parvenir ? Telle est la question à laquelle s’attaque Roman ­Krznaric, l’auteur de Comment se réaliser dans son travail (2014). A priori, la première raison pour travailler est de gagner de l’argent, remplir son réfrigérateur, payer son loyer et s’offrir un certain standing de vie. Mais contrairement à l’idée courante, peu de gens se comportent en purs matérialistes assoiffés par l’appât du gain. Pour la plupart des gens, l’argent est un moyen, non une finalité. Il est utile, nécessaire, enviable mais ne constitue pas une vraie raison de vivre.


Le statut social (et la considération qui va avec) est un autre mobile dans le choix d’un emploi. Il est des métiers prestigieux (reporter, écrivain, chirurgien ou top model) et d’autres qui le sont moins. Mais là encore, le prestige n’est pas suffisamment puissant pour écarter le reste.


Faire quelque chose d’utile apparaît comme un troisième motif puissant dans l’attrait pour une profession. Être infirmière, pompier, policier mais aussi garagiste ou plombier, c’est d’une certaine façon rendre un « service » aux malades ou à ceux dont la voiture ou la chaudière est tombée en panne. Se sentir important et utile aux yeux des autres : voilà qui donne du sens à son travail. R. Krznaric cite le cas d’un embaumeur qui ne trouve rien de plus gratifiant dans son métier que de recevoir des remerciements émus d’une famille pour avoir redonné à leur cher défunt une belle apparence.


Reste enfin une autre source du sens au travail, la plus importante mais la plus indéfinissable : celle qui consiste à accomplir une activité que l’on juge plaisante, attirante en soi. Les raisons qui poussent à aimer telle activité plutôt que telle autre sont très personnelles et pas toujours communicables. Dès l’enfance, Paul Veyne raconte qu’il a rêvé de devenir « épigraphiste ». D’autres trouveront passionnant le droit ou la cuisine, le fait de s’occuper d’animaux, de réparer des motos  ou de concevoir des pylônes électriques .


Améliorer les conditions de travail


Mais même si l’on a réussi à faire coïncider ses aspirations et son travail, reste un second élément pour s’épanouir au travail : que les conditions soient favorables. Or c’est là que le bât blesse… Personne ne connaît les recettes du bonheur au travail, mais on connaît bien des façons de le gâcher.


Depuis quelques années, les conditions de travail se sont en effet durcies dans nombre de secteurs de travail sous l’effet de plusieurs causes. La première raison est économique. Les entreprises sont soumises à une rude concurrence et aux effets de la crise, ce qui les oblige à augmenter sans cesse la productivité. Partout, il faut « faire plus avec moins », c’est-à-dire réduire les coûts, les effectifs pour une production équivalente. Dans le secteur public, les coupes budgétaires, les diminutions de postes et la montée des exigences font exercer une forte pression sur les personnels.


On assiste parallèlement à la montée des tensions au travail, liée à un effet inattendu de la démocratisation des relations de travail. Dans les entreprises et les administrations, le management hiérarchique (l’entreprise H décrite par le japonais Masahiko Aoki) a laissé place depuis trois décennies à un management plus participatif, synonyme de travail d’équipe, de projets, d’autonomie, de communication. Mais cette évolution a aussi un coût humain : les processus de décision se sont complexifiés, les arbitrages supposent de longues discussions, négociations et bras de fer entre des acteurs multiples. Les managers de proximité (cadres intermédiaires) se retrouvent entre le marteau et l’enclume : ils doivent prendre en compte les exigences de performance dictées par les directions, et en même temps se soucier du facteur humain – les motivations, la communication, la reconnaissance.


Marion, par exemple, au-delà des déclarations d’amour pour son travail, trouve de plus en plus difficile de devoir répondre à toutes les attentes. Non seulement elle doit boucler un programme chargé, mais est invitée à impulser des projets pédagogiques, ce qu’elle fait de bonne grâce (comme ce projet sur l’esclavage très énergivore). Elle doit proposer un enseignement de qualité pour tous, tout en veillant à la réussite de chacun. Elle se sent aussi de plus en plus sollicitée et contrôlée par des parents, dont certains se montrent très intrusifs.


Trois réactions face au stress


Toutes ces contraintes et pressions ne favorisent pas vraiment l’épanouissement au travail. Face au stress et à la frustration, il reste alors trois façons de réagir : fuir, subir ou faire face. 


Fuir - Quand le travail devient un fardeau trop lourd à porter, le travailleur le mieux disposé se lasse, prend en grippe ce qu’il avait aimé et se prend à rêver de tout plaquer pour s’évader vers d’autres cieux. C’est le « syndrome de la chambre d’hôte »  : on envisage de tout plaquer, de quitter la ville pour aller s’installer à la campagne, quitter un métier stressant pour un métier d’art, passer de trader à moine ou à réparateur de motocyclettes. C’est devenu un horizon enviable. En fait, peu de gens font le pas, mais beaucoup en rêvent. Une autre façon d’équilibrer travail et vie personnelle, se ménager des temps de pause, se déconnecter : pratiquer le « lâcher-prise ».


Subir - Subir sans broncher est une autre possibilité. Mais le coût psychologique est élevé. Henri Laborit a montré que le fait de subir sans pouvoir réagir (par la fuite ou l’attaque) produit un stress pathologique. Une bonne partie de l’augmentation des risques psychosociaux vient de ce sentiment d’impasse. Pour Yves Clot, le fait d’être « empêché » de faire son travail est l’une des grandes sources du malaise au travail . La frustration et le stress s’accompagnent d’un sentiment de culpabilité, de la perte d’estime de soi, et entretiennent la rancœur, la lassitude et la démotivation.


Faire face - Faire face, c’est rechercher des solutions positives. Tel est l’objectif de nombreuses propositions visant à améliorer le bien-être au travail, émanant depuis peu de sources très diverses . La qualité de vie au travail a même fait l’objet d’un ANI (accord national interprofessionnel) signé en juin 2013. Viser la qualité de vie au travail, ce n’est plus simplement prévenir les risques, mais aussi promouvoir le bien-être. Les propositions se déclinent à tous les niveaux d’intervention. À l’échelle individuelle, certains préconisent d’apprendre à faire face au défi du travail autonome. : apprendre à mieux s’organiser, gérer ses priorités, les sollicitations multiples, ses émotions, les conflits. D’autres veulent promouvoir de nouvelles relations professionnelles et une forme de management plus humaniste fondé sur la bienveillance, la convivialité, la confiance et la reconnaissance. D’autres propositions portent sur une nouvelle répartition du temps de travail entre vie professionnelle et vie personnelle, permise par le travail à distance. D’autres propositions se situent à l’échelle des organisations : elles visent à imposer des nouvelles normes et règles limitant la pénibilité du travail.


Interrogée pour savoir ce qui pour elle contribuerait le plus à réenchanter son travail, Marion répond sans hésiter : « J’aime être libre de travailler comme je l’entends avec mes élèves. »Mais elle admet aussitôt en souriant qu’il serait difficile d’accorder le même droit à ses élèves…

Jean-François Dortier

Virginie Roussel
"burn out"

 

Le burn-out est un grave accident de santé qui existe bel et bien, mais qui est trop souvent confondu par le corps médical français avec d'autres problèmes tels que le stress ou la dépression, au détriment hélas de ceux qui en souffrent.

Non, le Burn-out n'est pas une imposture. Aucun de ceux qui ont accompagnés de vrais accidentés psychiques ne pourra jamais le prétendre.

Moins encore ceux qui ont souffert d'un réel Burn-out !

L'incessante discordance des discours prétendument autorisés, l'absence ou les silences gênés de la Faculté, les postulats idéologiques variés autant que fantaisistes, certaines croyances enfin, en forme de déni du réel pourraient cependant faire croire à l'inconsistance de cette réalité hélas certaine.

A titre d'exemple : tout passe désormais en France par une loi ou un règlement, associés à un fort battage idéologique et médiatique. C'est donc sur proposition d'un ministre, à la suite d'une petite pétition (10.000 signataires) et d'un habile lobbying, qu'une trentaine de parlementaires français se sont saisis du Burn-out afin de faire reconnaître un caractère professionnel à cet "accident".  Il n'est pas sûr qu'il s'agisse là de la bonne réponse à cette pandémie, aussi méconnue que complexe.

 

Qu'est-ce donc qu'un vrai Burn-out, quelles sont ses formes particulières - qui le distingue du stress ou de la dépression - et surtout quelles sont les méthodes efficaces et pérennes pour le prévenir ou le guérir ? Les croyances idéologiques, les enjeux politiques, financiers ou de santé publique dont beaucoup trop parlent et sans cesse, en parfaite ignorance de cause, apparaissent alors bien secondaires !

Qu'est qu'un Burn-out ?

Le psychanalyste américain Herbert J. Freudenberger a développé et vulgarisé ce concept dans les années 70, à la suite de Harold B. Bradley qui le premier, l'a décrit. La description de Freudenberger est explicite : "En tant que psychanalyste praticien, je me suis rendu compte que les gens sont parfois victimes d’incendie, tout comme les immeubles. Sous la tension produite par la vie dans notre monde complexe, leurs ressources internes en viennent à se consumer comme sous l’action des flammes, ne laissant qu’un vide immense à l’intérieur, même si l’enveloppe externe semble plus ou moins intacte."

Cette observation porte sur des bénévoles-soignants, au sein d'un hôpital américain publique, accueillant des toxicomanes. Freudenberger observent que ces bénévoles enthousiastes et volontaires peuvent perdre toute motivation et toute énergie, sans aucune cause apparente, après quelques mois de travail seulement. Il récence les différents symptômes qui accompagnent cet incendie intime, tels que l’épuisement, la fatigue, des maux de tête, des troubles gastro-intestinaux ou respiratoires et des insomnies.

A la même époque (de 1956 à 1977), l'endocrinologue Hans Selye publie ses recherches sur le stress, qu'il identifie comme une réponse unique (non-spécifique) de l'ensemble de l'organisme (le métabolisme tout entier : neuronal, hormonal...) pour se défendre face à une agression (réelle ou imaginaire). La définition évoluera ; l'engagement biologique tout entier du corps du stressé ne cessera cependant d'être confirmé. L'épuisement né du stress est physique, métabolique, et non pas seulement psychique, à l'inverse de celui d'une victime d'un Burn-out.

Si leurs symptômes peuvent se ressembler, leurs causes en sont donc clairement différentes, encore que potentiellement miscibles.

La dépression est quant à elle une pathologie, dont les causes semblent être principalement endogènes, contrairement au Burn-out et au stress. Il s'agit d'une vraie pathologie qui requiert un authentique traitement médical.

La plus grande confusion règne dans le corps médical au sujet du Burn-out, au détriment hélas de ceux qui souffrent. En Amérique du Nord, en Allemagne, en France et en Suisse, la Faculté propose une unique –  même si double – réponse lors du prétendu diagnostic, souvent très aléatoire, d'un Burn-out.

La "camisole chimique" est le premier des subterfuges médicaux, abrutissant encore davantage celui qui souffre et le privant de ses propres ressources psychiques et personnelles – qu'il est pourtant essentiel de savoir remobiliser pour guérir vraiment. Soignons donc allégrement les symptômes plutôt que les causes, afin d'enterrer le cas !

Le second est hélas tout aussi systématique : le renvoi dans la sphère privée – et donc culpabilisante – par la prescription d'un traitement psychanalytique de cet accident professionnel. L'expérience montre que cet accident est toujours lié à une forme certaine de toxicité de l'environnement professionnel. Mais seul le souffrant en serait responsable ?

Brulé de l'intérieur, abruti de tranquillisants plus ou moins bien dosés, dramatiquement isolé, le Burn-outé est encore renvoyé à sa seule responsabilité, inconsciente, qui plus est ! Le petit trou d'air initial est devenu un abime sans fond !

Comment être surpris que si peu s'en sorte réellement ou définitivement ? Comment éviter les récidives et les Burn-out en série ?

Les formes d'un authentique Burn-out.

 

Le mot Burn-out est devenu une dénomination générique. Il a perdu son sens originel et sert désormais à décrire beaucoup trop d'embarras ou d'accidents professionnels, sans assez de précision.

Selon notre expérience, il est existe 3 formes réelles, alternatives et miscibles, qui caractérisent un véritable Burn-out.

La première forme est un épuisement psychique profond. Le corps semble indemne, mais il n'y a plus d'énergie psychique. Les batteries ont été épuisées et la prise pour les réalimenter est perdue. Si cette forme est la plus fréquente, elle est aussi la plus simple et la plus rapide à guérir. L'expérience montre que quelques exercices, simples et quotidiens, pendant quelques semaines, peuvent suffire à restaurer la personnalité dans son intégralité et lui permettre de créer sa propre résilience, pour l'avenir. Une forme d'heureuse mithridatisation, en quelque sorte.

Ce cas est majoritairement celui des managers prétendument stressés, bourreaux de travail consommés, écolos dans leurs assiettes mais qui se laissent intoxiquer sans aucune écologie psychique ni morale.

La seconde forme est plus rare, plus intense et plus profonde aussi. Il s'agit de l'écoeurement professionnel, appelé le Bore-out. Contrairement à l'épuisement, il est quasiment imprévisible, immédiat ou instantané. Sa prévention est donc plus complexe. Il se caractérise, chez celui qui en est victime, par un général et profond dégoût de sa vie professionnelle actuelle. Les manifestations du Bore-out sont souvent et premièrement physiques : vertiges, nausées, vomissements, agitations et insomnies. La volonté de s'enfuir est un premier stade. A l'état ultime, cette forme de souffrance psychique peut mener au suicide.

La troisième est quasi inconnue en Europe de l'Ouest – par la Faculté, toujours : il s'agit de ce que les américains appellent le syndrome d'imposture (ou de l'imposteur). Une image intérieurement dégradée de soi-même en est à l'origine. Celui ou celle qui en souffre s'enferme dans la terreur de l'importun qui viendra certainement, un jour, dénoncer devant tous son imposture – pourtant entièrement fictive. Il vit donc dans l'angoisse de la découverte par ceux qu'il aime qu'il est un imposteur – ce qui est faux ! Le diagnostic précis de ce syndrome est assez aisé, pour peu qu'on sache écouter et entendre. Il contribue à un peu plus d'un tiers des Burn-out que nous avons pu connaître et guérir.

Comment prévenir ?

Né dans un hôpital aux USA, le Burn-out a désormais envahit l'entreprise et un très grand nombre d'organisations, d'administrations, d'ONG et même certaines associations caritatives ou de bienveillance ! Sa progression semble irrésistible, voire exponentielle.

Nous l'avons dit : s'il partage des symptômes avec le stress ou la dépression, les causes du Burn-out comme ses mécanismes internes sont très différents.

Tous, nous sommes attentifs à ce avec quoi nous nourrissons notre corps et nous veillons à bien alimenter notre intelligence consciente de savoirs utiles. Il n'en est pas de même avec notre psychisme, c'est à dire la partie inconsciente de notre esprit. Ecolos dans nos assiettes, nous pouvons nous laisser aller à la plus grande incurie ou goinfrerie toxique avec notre personnalité la plus profonde.

Les outils de prévention des troubles des comportements professionnels – travestis enrisques psycho-sociaux pour je ne sais quel carnaval de l'hypocrisie sémantique – sont simples, de bon sens et très efficaces. Profondément curatifs, ils procèdent d'un renouvellement d'une bonne écologie humaine, intime et personnelle, que chacun peut implanter ou ré-implanter dans son cerveau, pour la rendre ensuite collective et partagée.

En d'autres termes et pour utiliser les mots à la mode, il s'agit de promouvoir une authentique résilience individuelle et d'installer collectivement et concrètement, une solide intelligence collaborative. Laquelle est bien plus performante et essentielle que les pseudos analyses complexes provenant des QI, QE ou autres résultats des 53.000 tests dits de personnalité, qui séviraient dans notre monde !

A titre d'exemple, une population professionnelle particulière, constituée par les RH, risque fort de se retrouver très souvent intoxiquée et donc potentiellement contagieuse. Ils sont en effet sans cesse confrontés à tout ce qui dysfonctionne dans l'entreprise ou dans l'organisation : les conflits, les sanctions, les évaluations souvent problématiques et toujours difficiles à vivre, les licenciements, le risque inhérent à chaque recrutement...

Loin de certaines usines à gaz rationalisante, de très simples méthodes permettent d'identifier les foyers pathogènes, les comportements inconscients – mais dangereux – et de les prévenir ensuite.

Comment guérir ?

"On ne résout pas un problème avec les modes de pensée qui l’ont engendré." écrivit un jour Albert Einstein.

Sans doute est-ce par incapacité à sortir du moule d'une pensée toute faite, bien trop théorique et enserrée de concepts, que beaucoup se retrouvent démunis et inopérants dans leur loyale intention comme leurs actives résolutions de guérir réellement les Burn-outés.

Les rares scientifiques qui s'attellent avec courage et bienveillance à l'étude du Burn-out le font en usant hélas des schémas normatifs et conceptuels comme d'un système de pensée – qui n'a pourtant pas su prévenir et se montre incapable de guérir vraiment ces accidentés psychiques professionnels. 

Ils se retrouvent donc dans une impasse thérapeutique, qui poussent certains à dénier la réalité du Burn-out. 

Là encore, il convient de revenir sur terre et d'y solliciter l'expérience concrète, récente et empirique de l'accompagnement des accidentés psychiques.

Précisons d'abord le critère réel de la vraie guérison : le retour rapide au travail, dans les mêmes fonctions, au sein de la même organisation, au milieu de la même équipe, sans aucune rechute, dans la durée. Ou alors le choix libre d'une autre vie. De nombreuses fausses guérisons se caractérisent par la fuite et la dérobade : autre métier, autre entreprise, parfois autre région ou autre pays, voire même autre conjoint...

La victime de l'accident psychique est habituellement courageuse, volontaire et déterminée. Par le fait de ses qualités, elle est habituellement très engagée et connaît de nombreux succès.

 

Si elle a inconsciemment laissé se consumer toute son énergie psychique, il est essentiel qu'elle la reconstitue par elle-même ! Un accompagnement individuel est indispensable, même si on peut concevoir de très bénéfiques ateliers collectifs.

Il importe de lui apprendre aussi une forme de vigilance, de sorte qu'elle puisse éviter toute rechute future.

Mais le plus déterminant consiste à lui proposer les bons exercices, adaptés à sa personnalité, pour toujours savoir recharger, à tout moment et complètement, sa propre batterie d'énergie psychique.

Le Burn-out n'est pas une fatalité. Il est parfaitement rémissible, si on s'y prend bien. Une résilience accrue, après cet accident psychique, est tout à fait possible.

Une seule imposture serait véritable : celle de nier l'existence réelle du Burn-out, né du travail et résultant de l'exercice professionnel.

Xavier Camby

CANADA NEWS

vendredi 22 avril 2016

Zika de nouveau mis en cause dans une maladie neurologique

Zika virus may now be tied to another brain disease

AMERICAN ACADEMY OF NEUROLOGY

VANCOUVER

 

VANCOUVER, BRITISH COLUMBIA - The Zika virus may be associated with an autoimmune disorder that attacks the brain's myelin similar to multiple sclerosis, according to a small study that is being released today and will be presented at the American Academy of Neurology's 68th Annual Meeting in Vancouver, Canada, April 15 to 21, 2016.

"Though our study is small, it may provide evidence that in this case the virus has different effects on the brain than those identified in current studies," said study author Maria Lucia Brito Ferreira, MD, with Restoration Hospital in Recife, Brazil. "Much more research will need to be done to explore whether there is a causal link between Zika and these brain problems."

For the study, researchers followed people who came to the hospital in Recife from December 2014 to June 2015 with symptoms compatible with arboviruses, the family of viruses that includes Zika, dengue and chikungunya. Six people then developed neurologic symptoms that were consistent with autoimmune disorders and underwent exams and blood tests. The authors saw 151 cases with neurological manifestations during a period of December 2014 to December 2015.

All of the people came to the hospital with fever followed by a rash. Some also had severe itching, muscle and joint pain and red eyes. The neurologic symptoms started right away for some people and up to 15 days later for others.

Of the six people who had neurologic problems, two of the people developed acute disseminated encephalomyelitis (ADEM), an attack of swelling of the brain and spinal cord that attacks the myelin, which is the coating around nerve fibers. In both cases, brain scans showed signs of damage to the brain's white matter. Unlike MS, acute disseminated encephalomyelitis usually consists of a single attack that most people recover from within six months. In some cases, the disease can reoccur. Four of the people developed Guillain-Barré syndrome (GBS), a syndrome that involves myelin of the peripheral nervous system and has a previously reported association with the Zika virus.

When they were discharged from the hospital, five of the six people still had problems with motor functioning. One person had vision problems and one had problems with memory and thinking skills.

Tests showed that the participants all had Zika virus. Tests for dengue and chikungunya were negative.

"This doesn't mean that all people infected with Zika will experience these brain problems. Of those who have nervous system problems, most do not have brain symptoms," said Ferreira. "However, our study may shed light on possible lingering effects the virus may be associated with in the brain."

"At present, it does not seem that ADEM cases are occurring at a similarly high incidence as the GBS cases, but these findings from Brazil suggest that clinicians should be vigilant for the possible occurrence of ADEM and other immune-mediated illnesses of the central nervous system," said James Sejvar, MD, with the Centers for Disease Control and Prevention in Atlanta and a member of the American Academy of Neurology. "Of course, the remaining question is 'why'-why does Zika virus appear to have this strong association with GBS and potentially other immune/inflammatory diseases of the nervous system? Hopefully, ongoing investigations of Zika virus and immune-mediated neurologic disease will shed additional light on this important question."

 

 

Sir William Osler (1849-1919)

William Osler at work on his landmark medical textbook, "The Principles and Practice of Medicine", at Johns Hopkins Hospital. This highly respected textbook, which was the last to cover all aspects of medicine, was first published in 1892 and continued to be published after his death in 1919.

 
 Sir William Osler, médecin, écrivain, professeur (Bond Head, Canada-Ouest, 12 juill. 1849 -- Oxford, Angl., 29 déc. 1919). Il est reconnu pour ses contributions dans une vaste gamme de champs cliniques, ses activités et ses écrits dans le domaine de la formation, la stimulation qu'il a procurée aux étudiants qui sont devenus des leaders de la profession médicale, son appui généreux aux bibliothèques scientifiques et pour ses caractéristiques personnelles, son intégrité, sa sérénité et sa bienveillance. Après avoir passé son enfance à Bond Head et à Dundas, au Canada-Ouest, il étudie à l'U. de Toronto, puis à l'U. McGill, où il obtient son doctorat en médecine en 1872. Des études postdoctorales en Angleterre et ailleurs en Europe le mènent à entreprendre une carrière en enseignement à McGill, où il donne des cours de médecine et de pathologie, produit de nombreuses publications et acquiert une réputation internationale comme clinicien astucieux et humain. En 1884, il se joint, sur invitation de l'U. de Pennsylvanie, au corps professoral. Cinq ans plus tard, il devient le premier professeur de médecine de l'U. Johns Hopkins à Baltimore.

Au tournant du siècle, il est probablement le médecin le plus en vue du monde anglophone. Il doit cette renommée à sa remarquable pratique de la médecine, à son enseignement excellent et innovateur, à la grande variété de ses publications et aux rapports qu'il entretient avec d'éminents collègues de l'école la plus avancée de l'époque, Johns Hopkins. Ses intérêts professionnels sont exceptionnellement variés, mais Osler se spécialise surtout dans le diagnostic des maladies du coeur, des poumons et du sang. Son manuel, The Principles and Practice of Medicine, publié pour la première fois en 1892 et révisé souvent par la suite, est considéré comme l'autorité en la matière pendant plus de 40 ans. Sa description de l'inaptitude des méthodes de traitement utilisées dans la plupart des maladies a joué pour beaucoup dans la création du Rockefeller Institute for Medical Research à New York.

Osler est un homme ouvert et enjoué qui aime faire des farces et jouer des tours. Il sait comment alléger l'atmosphère dans une chambre de malade et donner de l'espoir à ses patients. Il propose que les programmes de médecine comptent moins d'heures d'apprentissage théorique et plus de temps consacré aux patients. Il compte parmi ceux qui ont structuré les méthodes de formation postdoctorale pour les médecins, contribuant ainsi à la création du système tel qu'on le connaît aujourd'hui. Osler se marie à l'âge de 42 ans avec une descendante directe de Paul Revere. Un de leurs deux enfants mourra à la naissance et l'autre sera tué pendant la Première Guerre mondiale. En 1905, la famille quitte l'Amérique du Nord pour la Grande-Bretagne, où Osler devient professeur titulaire de la chaire royale de médecine à Oxford. Récipiendaire de nombreux diplômeshonoris causa, il est fait baronnet en 1911. Il consacre les dernières années de sa vie à une pratique très active, à l'écriture, à l'enseignement et à l'enrichissement de sa grande bibliothèque sur l'histoire de la médecine, qui appartient aujourd'hui à McGill. En 1919, Osler meurt d'une pneumonie contractée après un long voyage de consultation. Ses cendres sont conservées à la bibliothèque Osler à Montréal. On le cite encore souvent et sa vie continue de servir d'exemple aux étudiants et aux médecins.

 

 

 

Often referred to as the "doctor's doctor"[1] and the father of modern clinical practice, the Canadian Sir William Osler achieved extraordinary influence over modern-day medicine, most importantly through his support of clinical experience (or "bedside" learning) for medical students.[2-4] Osler'sThe Principles and Practice of Medicine: Designed for the Use of Practitioners and Students of Medicine, published in 1892, became the standard textbook for physicians around the world and helped cement the movement away from exclusively textbook-based education towards clinic-based learning.

The youngest of nine children[5] and from a small town in rural Ontario, Osler completed his medical degree at McGill University. He held leading academic positions at McGill, the University of Pennsylvania, Johns Hopkins (where he revolutionized the education of medical students by having students follow his "rounds"), and finally Oxford University.[3] With his emphasis on bedside manner and compassionate care, William Osler had more influence on the behavior and education of his fellow clinicians—and, by extension, their patients—than any other physician in modern times.[6,7]

Some of his famous aphorisms:

Listen to your patients; they are telling you the diagnosis.

The practice of medicine is an art, not a trade; a calling, not a business; a calling in which your heart will be exercised equally with your head.

 

  1. William Osler: Innovator in Canadian medical education. Canadian Heritage Information Network.http://www.virtualmuseum.ca/edu/ViewLoitDa.do;jsessionid=E82938D48CBE77B5E9BFED90FD245F07?method=preview&lang=EN&id=4137 Accessed January 29, 2016.
  2. About William Osler. McGill.ca. https://www.mcgill.ca/library/branches/osler/oslerbio Accessed January 29, 2016.
  3. Sir William Osler (1849-1919). University of Ottawa.http://www.med.uottawa.ca/students/md/professionalism/eng/sir_william_osler.html Accessed January 29, 2016.
  4. Sir William Osler. The Canadian Medical Hall of Fame. http://cdnmedhall.org/inductees/sir-william-oslerAccessed January 29, 2016.
  5. Sir William Osler, Baronet. Encyclopædia Britannica Online. http://www.britannica.com/biography/Sir-William-Osler-Baronet Accessed January 29, 2016.
  6. Silverman BD. Physician behavior and bedside manners: the influence of William Osler and The Johns Hopkins School of Medicine. Proc (Bayl Univ Med Cent). 2012;25:58-61.
  7. Andrews BF. Sir William Osler's emphasis on physical diagnosis and listening to symptoms. South Med J. 2002;95:1173-1177.

« AU TREMBLANT, NOUS ÉTIONS À NOUVEAU AUX PETITS OISEAUX »

Septembre 2000 : Congrés Commun ANQ/ANLLF

Novembre 2000 : cette page sur le Journal Faxé de Neurologie diffusée à tous les Neurologues Francophones

22 avril 2016 : souvenir à l'occasion de l'AAN à Vancouver,

et regret de votre rédacteur (et auteur de cette page) de la disparition d'un organe scientifique désintéressé diffusé en langue vernaculaire à l'ensemble de la communauté neurologique francophone ...

   

LE JOURNAL FAXÉ DE NEUROLOGIE  

du 9 novembre 2000

INFORMATION COMMUNIQUÉE PAR L’ANLLF ET LE SNN

DIRECTEURS DE LA PUBLICATION                                                                               

Dr H. DECHY – Dr J. VRIGNEAUD 

 

 

Tous les deux ans, depuis une décennie (du cerveau), les membres de l’Association des Neurologues du Québec (ANQ) qui regroupe toutes les modalités d’exercice… et les membres de l’Association des Neurologues Libéraux de Langue Française (ANLLF) se rencontrent, à l’occasion d’un Congrès commun, alternativement au Québec et en France.

Madame Pauline Marois, Ministre d’Etat de la Santé et des Services Sociaux du Québec, nous a fait l’honneur de sa participation et d’une allocution sur les projets du système de soins, particulièrement neurologiques, du Québec – qui fera l’objet d’un prochain journal. Impossible, au Québec, de faiblir sur la francophonie, impossible, auprès du Ministre de la Santé et de nos confrères, de taire notre mise au banc des accusés. Voici le discours de réponse.

 

 

Madame la Ministre,

« French forbidden » titrait au début d’année notre Quotidien du Médecin national en réaction à la décision officielle de hautes autorités savantes de l’Assistance Publique des Hôpitaux de Paris d’imposer l’idiome anglais à tout travail scientifique.

Rassurez-vous, ce camouflet, pour tous nos amis francophones, a rapidement  fait l’objet d’un «Grand Métinge de la Langue Française en colère » à l’Assemblée Nationale de la République Française.

Dieu Merci, des responsables et politiques de tous horizons nous ont convaincus, sans s’opposer à un véhicule de communication universelle, de la défense d’une âme, d’un passé, d’une culture commune, de la pérennisation d’un autre mode de pensée.

Comme en 1996, lors de notre précédent congrès au Québec, organisé par les Docteurs Yves Lapierre et Martin Veilleux, nous retrouvons tous, je crois, le bonheur et la fierté de notre parlure. Nous sommes « aux petits oiseaux ».

Nos membres fondateurs, le Docteur Hubert Dechy en particulier, et notre ancien Président le Docteur Pierre Hinault ont voulu, dès 1987, créer l’Association des Neurologues Libéraux de Langue Française pour pouvoir s’élargir au monde francophone tout entier sous l’autorité d’un vice-président à la francophonie, hier le Docteur Guy Monseu de Bruxelles, aujourd’hui le Docteur Jean-Marie Gerard de Mons en Belgique.

Outre le Québec, nous nous sommes déplacés en 1991 à Bruxelles, et en 1998 au Liban dans la Vallée de la Bekaa à Sahlé chez le Docteur Michel Ferzli. Nous recrutons actuellement dans 13 pays. Nous œuvrons, depuis sa création, à l’invitation et à la participation de Neurologues Francophones des cinq continents à nos Journées de Neurologie de Langue Française, équivalent de l’Académie Américaine de Neurologie. Nous poursuivons la mise au point d’un développement d’aide matérielle particulièrement en Afrique Noire et dans le Sud Est Asiatique sous l’autorité d’un chargé de mission dynamique le Docteur Nicolas Schmidt. Le Docteur Jacques Reis nous prépare un prochain congrès au Maroc.

En naviguant sur la toile très dense et remarquable du Québec, j’ai atteint le port du Ministère de la Santé et des Services Sociaux et avoue avoir été éberlué de la réglementation en matière du devoir de respect par tous les membres du personnel quel que soit leur statut ou leur catégorie professionnelle de la politique relative à l’emploi et la qualité de la langue française. Vous êtes dans ce challenge, Madame la Ministre, les meilleurs.

Madame la Ministre, sans doute partageons-nous les mêmes constatations au Québec et en France, le poids de la pathologie neurologique. Le coût direct et indirect de la maladie d’Alzheimer en inflation dans une population vieillissante, le coût direct et indirect des accidents vasculaires cérébraux qui restent une des causes de morbidité et de mortalité les plus élevées dans nos pays, le coût direct et indirect de la sclérose en plaques largement diffusée dans nos pays septentrionaux, le coût direct et indirect de la maladie épileptique objet d’une grande et ancienne école Canadienne, le coût direct et indirect de la maladie de Parkinson, de la maladie migraineuse, des troubles mentaux, des dégâts occasionnés par l’alcool et les drogues et j’en passe…

La décennie du cerveau a voulu convaincre que nous n’étions plus contemplatifs dans ces maladies mais commençons à être actifs… mais à quel prix ! Les médecins français, notamment les Neurologues sont aujourd’hui mis au banc des accusés pour leurs dépenses alors que notre système de santé est valorisé par l’étude de l’Organisation Mondiale de la Santé qui le place au premier rang pour la qualité de vie apportée à nos concitoyens. La rigueur de la détection et la rigueur du redressement des déviations par rapport à des normes pénalisent nos compatriotes. L’évaluation du besoin de santé, l’accréditation des hommes et des structures de soins – comme notre activité de formation médicale continue ici au Mont Tremblant – paraissent les vrais garants pour l’excellence de notre service au public.

Madame la Ministre, au nom de mes Collègues et de leur famille ici présents, au nom des 650 membres de l’Association des Neurologues Libéraux de Langue Française, je vous remercie très chaleureusement et sincèrement de votre présence, témoignant de la grande amitié entre le Québec et la France.

Je profite pour remercier, en votre présence, les neurologues du Québec et leur Président le Docteur François Delisle. Nous partageons depuis plus de 10 ans, l’Association des Neurologues du Québec et l’Association des Neurologues Libéraux de Langue Française, une même motivation pour la qualité scientifique et humaine de nos relations.

Le 9 novembre 2000

 

Docteur Bernard MONTAGNE

Président de l’Association des Neurologues Libéraux de Langue Française 

D'HIPPOCRATE À BRENDA MILNER
DE PHILEAS GAGE À WOODSTOCK
 
vendredi 15 avril 2016

Neuropsychologue, 97 ans et toujours au travail

Brenda Milner, neuropsychologue à l'Université McGill

 radio Canada :

http://ici.radio-canada.ca/emissions/le_15_18/2015-2016/chronique.asp?idChronique=397417

 

Brenda Milner est l'une des figures importantes de l'étude de la mémoire au 20e siècle. Elle travaille toujours à l'Institut de neurologie de Montréal, où elle enseigne et fait de la recherche depuis le début des années 1950. Cette femme inspirante parle à Jocelyn Lebeau de son amour pour la langue française et de sa passion pour le soccer, et donne quelques conseils de vie. 
 
Née en juillet 1918 en Angleterre, Brenda Milner est arrivée au Canada durant la Seconde Guerre mondiale. Mme Milner a, entre autres, été élue à l'American Academy of Arts and Sciences, à la Royal Society of London et à la Société royale du Canada, et qu'elle a été nommée compagne de l'Ordre du Canada, plus haut grade de cet ordre, en 2004. Une femme inspirante au parcours impressionnant! 

 

 

 

Naissance de l'hystérie

 

 

Le concept d’hystérie est né au XVIIIe siècle. Médecins, femmes et hommes de lettres s’emploient à en faire l’emblème des passions ou des abus de la modernité.

Dans sa célèbre nosologie de 1763 classifiant 2 400 pathologies, le médecin François Boissier de Sauvages de Lacroix regroupe sous le terme latin « hysteria » une série de diagnostics. Son traducteur est l’un des premiers à employer le terme « hystérie » (absent chez Hippocrate), suivi de peu par William Cullen en langue anglaise. En dépit de la racine étymologique (utérus) du mot « hystérie », leurs ouvrages n’en font pas une maladie de la matrice, ni même une maladie féminine.





L’hystérique feule et offense les bienséances


Nombreux sont les médecins à regrouper dès lors sous le nom d’hystérie des diagnostics qui avaient jusque-là pour principal point commun le caractère imprévisible des symptômes : l’affection hystérique, la passion hypocondriaque, la suffocation de matrice, l’épilepsie utérine, le mal de mère, le spleen, les vapeurs. Ils indiquent une constellation de symptômes et de causes, insistant sur la difficulté de la reconnaître et de l’expliquer.


Quels sont donc ces symptômes ? On parle de spasmes et de torpeurs, de stupeurs et d’étourdissements, de tremblements et de roideurs. Ce sont des palpitations, parfois même des convulsions. Mouvements exacerbés et intempestifs, ces symptômes semblent avoir pour seuls dénominateurs communs d’être imprévisibles et de troubler l’entourage. L’hystérique feule et offense les bienséances, feint la migraine et altère sa santé, tombe en catalepsie au risque d’être prise pour morte, ou se convulse, interrompant le rythme des premières usines du Lancashire.


Depuis longtemps déjà, les ouvrages d’Honoré d’Urfé, d’Agrippa d’Aubigné, ou les correspondances de la marquise de Sévigné abondent de ce type de descriptions. Le corps s’y bat pour accaparer les regards et ne s’écouter que dans la déchirure. Pourtant, les médecins s’emparent peu à peu de ces émois, et en font les symptômes d’une pathologie unique, quitte à déplorer de ne pouvoir en offrir une liste. Ils lui donnent la principale caractéristique de déroger à l’ordre des maladies ; on ne sait ni bien la reconnaître, ni l’expliquer, ni la soigner ; elle s’étend parfois d’une première victime à tous ses spectateurs ; elle réapparaît quand on ne l’attend plus. C’est souvent avec frustration ou avec désarroi que l’on parle de cette pathologie, à moins que ce ne soit avec fascination.


La matrice, un organe menaçant


Comment les médecins donnent-ils une cohérence à cette pathologie multiforme ? Dans une visée synthétique, on peut distinguer plusieurs formes de conceptualisations. Elles visent différents types de patients, s’adressent à différents types de lecteurs, indiquent différentes positions d’écriture, et mettent en jeu différentes rhétoriques.


Au XVIe siècle et jusqu’en 1670 environ, tandis que domine une compréhension du corps en termes de tempéraments, on parle d’obstructions de tous types, et en particulier du sang menstruel et des fleurs blanches. Lorsqu’il n’est pas évacué à temps, cet amas pourrit, source de vapeurs ou du déplacement de la matrice. Aussi difficile soit-il de tracer son trajet, ce mouvement ascendant perturberait tout le corps. Dans les ouvrages sur la mélancolie érotique, les passions, la génération, ou encore les dissertations sur les convulsions dans les couvents, la matrice est un organe menaçant. D’autres obstructions venant d’indigestions, du foie, d’un cancer, ou de la présence de vers, permettent de décliner ces mêmes symptômes au masculin. On leur donne alors le plus souvent le nom d’affection ou de passion hypochondriaque.


Or au XVIe  siècle, le cerveau est lui aussi adjoint à de tels symptômes par Jean Fernel et Charles Le Pois. Mais c’est seulement en 1670, quand Thomas Willis détaille son rôle dans la circulation d’esprits animaux par les canaux des nerfs, que cette explication connaît un grand crédit. Les médecins s’accordent désormais à refuser d’associer la pathologie aux femmes. Pourtant, le rôle donné au cerveau ne dominera jamais ; on le réserve souvent à l’épilepsie. Il s’estompera au XVIIIe  siècle, réapparaissant avec Étienne Georget, en 1820, avant d’être oublié à nouveau.


« Les vaporeux ont d’autant plus besoin de l’art de guérir qu’ils ont perdu l’art de vivre », écrit Moublet-Gras à la Société royale de médecine en 1786, résumant en une phrase le fer de lance des médecins du XVIIIe  siècle. Dès 1675, et une dissertation sur l’affection hystérique de Thomas Sydenham, la modernité et ses excès deviennent un sujet de prédilection. Nombre de médecins empruntent les genres littéraires pour s’adresser à l’aristocratie. Ils tracent le portrait d’une pathologie insaisissable, vouant toute tentative de la cerner à l’échec. Ils adaptent leurs versions aux vogues lancées dans les salons ou les académies. Pierre Hunauld s’applique à qualifier les effets de la sensibilité et des atermoiements de l’âme. Julien de La Mettrie et Antoine Le Camus y voient la force de l’imagination, Claude Révillon, celle de l’électricité, d’autres encore, un magnétisme animal. On parle beaucoup de nerfs, sans qu’ils soient considérés dans leur dimension physiologique. C’est le mot brandi pour expliquer la sympathie entre l’âme et le corps, la contagion entre les corps, ou la portée du progrès et de ses modes. D’aucuns s’amusent à voir le succès d’une pathologie promue témoin d’une vie de privilèges.


L’apanage d’une classe, puis des femmes


Fruit de la séparation en termes de classe sociale opposant les aristocrates à un peuple soi-disant dénué de sensibilité, l’hystérie devient toutefois l’attribut exclusif des femmes au lendemain de la Révolution française. Une nouvelle ambition politique domine alors, faisant de la santé de la nation l’absolue priorité. La différence sexuelle, et en particulier la matrice, est alors l’objet privilégié des médecins. Ils s’appesantissent sur leurs inquiétudes concernant l’organe qui porte les fils de la nation, et plus encore sur les risques d’une ardeur sexuelle qui gouverne la femme. La patiente est désormais capturée dans le croisement du biographique et du physiologique, pour illustrer les ouvrages sur les femmes, l’éducation et le mariage. On ne parle plus de délicatesse, d’émotion ou de sensibilité, mais de susceptibilités excessives, de jalousies exacerbées et d’attachements démesurés. Ce déplacement implique la séparation de l’hystérie de toutes les maladies nerveuses, et en particulier de son ancien pendant, l’hypocondrie.


Théorisation hybride, la conceptualisation de l’hystérie est avant tout une réappropriation d’imaginaires. Dans cet éclatement d’approches, ce qui la caractérise, c’est l’action répétée des médecins d’en faire le lieu exemplaire d’une théorie à la mode. Cherchant leur inspiration en dehors de leur objet (les symptômes), l’adoption de références diverses est pour eux le moyen d’affirmer l’actualité de la pathologie tout en l’inscrivant dans une généalogie de textes. L’hystérie, plus qu’un objet d’interprétation, apparaît comme un objet d’investissements politiques et épistémologiques. Pour beaucoup, il ne s’agit pas tant de la théoriser que de parler d’autre chose : critiquer les effets de la civilisation et la féminisation des mœurs, attaquer la royauté en France, ou au contraire sauver George III du discrédit de la folie en Angleterre. Ce sont les discours apocalyptiques de Hugues Maret, le portrait des femmes par Denis Diderot, les ruses des aristocrates selon l’abbé Paumerelle, les passes magnétiques de Franz Mesmer, les séances de catalepsie orchestrées par Jacques Pétetin… À travers la construction de la pathologie, il se joue bien plus que la définition d’une maladie ou du patient hystérique : la perception de la femme, du rapport entre les sexes et entre les nations, le rôle de la médecine et du langage scientifique. Tel est le paradoxe de l’hystérie : catégorie médicale qui devait mettre fin au corps possédé comme aux simulations, elle donne prise à toutes formes de mystifications stimulant une kyrielle d’investissements symboliques.

L'hystérie, reine disparue

L’hystérie a occupé une place majeure dans les débats théoriques du XIXe siècle. À partir des années 1870, à l’hôpital parisien de la Salpêtrière, Jean Martin Charcot, l’un des fondateurs de la neurologie, attire le Tout-Paris à ses spectaculaires conférences du vendredi, où sont présentées au public des patientes atteintes de ce qu’il appelle « la grande hystérie » : convulsives, clownesques, délirantes, paralysées… J.M. Charcot considère que l’hystérie a des causes uniquement psychiques, puisqu’il parvient à la provoquer sous hypnose. À Nancy, l’école regroupée autour d’Hippolyte Bernheim considérera que les crises relèvent non de l’hypnose mais de la suggestion ou de l’autosuggestion, étant donné que l’on n’observe de grande hystérie qu’à la Salpêtrière. Le jeune Sigmund Freud, stagiaire chez J.M. Charcot puis chez H. Bernheim, ouvrira une troisième voie en cherchant des causes inconscientes à l’hystérie.


On ne parle plus aujourd’hui, dans la psychiatrie officielle, d’hystérie mais de troubles somatoformes ou de personnalité histrionique. Les premiers font globalement référence à des symptômes physiques multiples (par exemple, la douleur ou la paralysie) éprouvés sans cause biologique apparente, non feints, et aggravés par le stress. La seconde se manifeste par des attitudes exagérément émotionnelles, séductrices et théâtrales, visant à attirer l’attention sur soi. Mais l’hystérie telle que J.M. Charcot l’observait au XIXe siècle a bel et bien disparu. 


Jean-François Marmion
 

La nymphomanie, stade ultime de l'hystérie ?

La nymphomanie figure dans le dictionnaire de Trévoux dès 1721, avec pour seule explication un renvoi à « fureur utérine », et devient après 1770 un sujet de dissertations médicales. Les fureurs utérines appartiennent depuis longtemps aux maladies des femmes, Jean Liébault y voit le désir « d’arousement du membre viril ». Quelques exemples restent célèbres, comme celui de femmes s’étant jetées dans un puits afin de rafraîchir leurs ardeurs. Selon l’étymologie, la nymphomanie serait le désir excessif des nymphes, jeunes mariées, bientôt compris comme celui du clitoris. Les médecins parlent de désirs sexuels effrénés, et se plaisent à portraiturer des femmes devenues hagardes à force de concupiscence.


En 1771, J.T.D. de Bienville lui consacre un traité, marqueté d’observations au caractère romanesque. Il y voit le rôle de l’imagination plus que celui du libertinage, et insiste sur le danger de la lecture. Au XIXe siècle, la nymphomanie est souvent mentionnée aux côtés de l’hystérie, pour en décrire le stade ultime. Selon Jean-Baptiste Louyer-Villermay, si l’hystérie est l’effet d’un amour moral ignoré, la nymphomanie est celui de désirs érotiques. Les causes en sont la vie sédentaire, la sensibilité trop vive, la pudeur, le contact des vêtements, le mode de vie, la chaleur. Il aime à dire que les femmes d’Afrique et d’Amérique y sont propices. Philippe Pinel en fait une névrose de la génération et d’aucuns conseillent d’attacher les mains des enfants la nuit. 


Si les médecins s’accordent sur les causes, ils s’opposent au sujet de sa publication au nom du risque de nouveaux adeptes. En 1760, M. Astruc écrit en latin les pages qu’il lui consacre au cœur d’un ouvrage publié en français. J.T.D. de Bienville choisit quant à lui le français, mais J.‑B. Louyer-Villermay interroge : « Oserons-nous confier à la langue française le tableau souvent obscène des nombreuses anomalies de cette affection », avant de s’engager à être pudique. La nymphomanie, c’est la maladie faite obscénité. À discourir sur de tels sujets, le médecin risque-t-il son crédit ? Affecter l’effroi est le plus sûr moyen d’assurer son rôle pour la prévenir.

Sabine Arnaud

 

Les 5 sens :

fenêtres ouvertes sur notre cerveau (2)

vendredi 8 avril 2016

 

 Pierre Decourt (psychanalyste) 23 mn

 

www.youtube.com/embed/m-uxBRQDb_Q

 

Les 5 sens :

fenêtres ouvertes sur notre cerveau (I)

vendredi 1° avril 2016

  • Le Pont Japonais de Claude Monet

  •  

     

Monet a l'habitude de peindre vraiment ce qu'il voit. Peu à peu ses peintures ont des teintes qui s'accentuent dans les rouges et les jaunes. Les détails s'estompent également. Les bleus ont tendance à disparaître.
Quelques tableaux qui représentent le même motif permettent de se rendre compte des effets de la cataracte sur Monet, par exemple « Le Pont japonais à Giverny – le Bassin aux Nymphéas », réalisé l'un en 1897, l'autre en 1923. Une fois la cataracte de son meilleur œil devenue mûre, les contours deviennent de plus en plus imprécis et les détails disparaissent. Monet ne voit plus les teintes froides, les violets et les bleus disparaissent au profit des rouges.

 

 

Quand il a appris en 1995 qu'il souffrait de la maladie d'Alzheimer, William Utermohlen, un artiste américain à Londres, a decidé de faire un série d'autoportraits chaque année: les peintures révèlent crûment la descente de l'artiste dans la démence, comment son monde commence à basculer.

son but était de tenter de mettre un visage sur sa condition

Les autoportraits de M. Utermöhlen ont été exposésun peu partout dans le monde en lien avec l'Association Alzheimer.

petit à petit les détails ont fondu et il y a des problèmes dans les perspectives, on se rapproche de l'impressionnisme abstrait

https://www.youtube.com/embed/DvtKFUHZIKE

 

Yasmine Ounnoughène

 

 

Wenzel HOLLAR (1607 - 1677)Encre brune, pierre noire, plume - 8,8 x 8,8 cm - Musée du Louvre, Paris

 

 

 

 

 

  Benoît Kullman

 

 

http://www.youtube.com/embed/fBKdw7li8MM

 

 

Docteur Martine Adrian-Scotto - Institut de Chimie de Nice UMR 7272 -
Alias Tina Scott -Tina Scott Quartet -
 
Martine Adrian-Scotto : sa conférence à La Celle le 05/03/2016
réunion réalisée par Pierre Lemarquis
"Plaisir des sens : le fonctionnement de notre cerveau est-il supra sensoriel?"
 
extrait de son répertoire
 
Son site CourCour
 

LA COMPILATION DE L'HIVER

vendredi 18 mars 2016

le nombre de visiteurs depuis la création du site aux "JNLF" en avril 2013

- Christmas's brain (25 décembre 2015)
 
 
- Intelligence artificielle :
Les voeux de Scheherazade, Emily, Shimon,  Watson
( 31 décembre 2015)
 

 

- Plaidoyer pour la Neuro-éducation (15 janvier)

 

- "Je suis donc je pense"  : Babies's brain (22 janvier)

 

-  Les "DYS" : défauts migratoires ou culturels ? (29 janvier)

 

- Empathie (5 février)

 

- La tyrannie d’Henri VIII expliquée par la biologie

(12 février)

 
- Chirurgie éveillée (19 février)
 
- CRISPR-cas9 (4 et 11 mars)
 
 

Suite du dossier "CRISPR-cas9"

vendredi 11 mars 2016

Nobel de chimie: Emmanuelle Charpentier, la meilleure chance française?

 

  Jennifer Doudna  TED Talks exceptionnel Cour

(TRADUCTION SIMULTANÉE EN FRANÇAIS)

https://www.youtube.com/embed/TdBAHexVYzc

 

The genome editing method CRISPR restored production of the protein dystrophin (light green) to muscle cells in mice with a mutation in its gene.

 

Trois équipes indépendantes viennent de montrer qu'il était possible de guérir en partie une dystrophie musculaire de Duchenne en modifiant le gène de la protéine dystrophine.

 

Les «ciseaux» génétiques (technique CRISPR, sacrée découverte de l'année 2015) accumulent les succès. Trois équipes indépendantes viennent de montrer qu'il était possible, dans un modèle murin, de guérir en partie une dystrophie musculaire de Duchenne en modifiant le gène de la protéine dystrophine (travaux publiés dans la revue Science). C'est son absence, totale ou partielle, qui entraîne un affaiblissement progressif des muscles, puisque la dystrophine est essentielle au maintien de la structure des fibres musculaires.

Une équipe américaine - Christopher Nelson et ses collègues -, en allant couper une partie bien précise du gène de la dystrophine, a pu permettre une production de la protéine suffisante pour restaurer la fonction musculaire. Ils ont utilisé un adénovirus vecteur pour amener les ciseaux génétiques dans les cellules musculaires des souris. Le niveau de production de dystrophine a retrouvé 8 % de son niveau normal, ce qui est suffisant pour assurer un bon fonctionnement musculaire. Les chercheurs ont aussi traité des souris âgées de six semaines: une nette amélioration du fonctionnement de leurs muscles cardiaque et pulmonaires a été obtenue.

Les deux techniques sont efficaces

Une autre équipe de l'université du Texas (Chengzu Long et ses collègues) a utilisé un autre adénovirus vecteur, à forte affinité pour les cellules musculaires, pour transporter les ciseaux génétiques dans les cellules cibles. Ils ont commencé par vérifier que le système était efficace dans les ovules et dans le sperme des souris: résultat, 80 % des souriceaux nés après ce traitement présentent la modification génétique permettant la production de suffisamment de dystrophine. Dans une autre expérience, les chercheurs ont injecté les ciseaux génétiques dans l'abdomen des souris ou dans les muscles. Les deux techniques sont efficaces, avec un meilleur résultat pour l'injection dans les muscles. La troisième équipe, de l'université de Harvard et du MIT, a utilisé le même dispositif et a constaté les mêmes améliorations. Elle s'est, de plus, intéressée, grâce à des marqueurs fluorescents, à la diffusion du système de réparation génétique de cellules en cellules. Ils ont pu montrer que certaines cellules précurseurs de fibres musculaires étaient également «soignées».

Gare toutefois aux espoirs excessifs: on est encore loin de soigner la maladie de Duchenne chez l'homme.

Jean-Luc Nothias    01/2016

 

CRISPR helps heal mice with muscular dystrophy

By Jocelyn Kaiser 12/ 2015 (Sciences)

The red-hot genome editing tool known as CRISPR has scored another achievement: Researchers have used it to treat a severe form of muscular dystrophy in mice. Three groups report today in Science that they wielded CRISPR to snip out part of a defective gene in mice with Duchenne muscular dystrophy (DMD), allowing the animals to make an essential muscle protein. The approach is the first time CRISPR has been successfully delivered throughout the body to treat grown animals with a genetic disease.

DMD, which mainly affects boys, stems from defects in the gene coding for dystrophin, a protein that helps strengthen and protect muscle fibers. Without dystrophin, skeletal and heart muscles degenerate; people with DMD typically end up in a wheelchair, then on a respirator, and die around age 25. The rare disease usually results from missing DNA or other defects in the 79 exons, or stretches of protein-coding DNA, that make up the long dystrophin gene.

Researchers haven’t yet found an effective treatment for the disorder. It has proven difficult to deliver enough muscle-building stem cells into the right tissues to stop the disease. Conventional gene therapy, which uses a virus to carry a good version of a broken gene into cells, can’t replace the full dystrophin gene because it is too large. Some gene therapists are hoping to give people with DMD a “micro” dystrophin gene that would result in a short but working version of the protein and reduce the severity of the disease. Companies have also developed compounds that cause the cell’s DNA-reading machinery to bypass a defective exon in the dystrophin gene and produce a short but functional form of the crucial protein. But these so-called exon-skipping drugs haven't yet won over regulators because they have side effects and only modestly improved muscle performance in clinical trials.

Now, CRISPR has entered the picture. The technology, which Science dubbed 2015's Breakthrough of the Year, relies on a strand of RNA to guide an enzyme called Cas9 to a precise spot in the genome, where the enzyme snips the DNA. Cells then repair the gap either by rejoining the broken strands or by using a provided DNA template to create a new sequence. Scientists have already used CRISPR to correct certain genetic disorders in cells taken from animals or people and to treat a liver disease in adult mice. And last year, researchers showed CRISPR could repair flawed dystrophin genes in mouse embryos. 

But using CRISPR to treat people who already have DMD seemed impractical, because mature muscle cells in adults don’t typically divide and therefore don’t have the necessary DNA repair machinery turned on for adding or correcting genes. CRISPR could, however, be used to snip out a faulty exon so that the cell’s gene reading machinery would make a shortened version of dystrophin—similar to the exon-skipping and microgene approaches.

Now, three teams have done just this in young mice with DMD. Graduate student Chengzu Long and others in Eric Olson’s group at University of Texas Southwestern Medical Center in Dallas used a harmless adeno-associated virus to carry DNA encoding CRISPR’s guide RNA and Cas9 into the mice’s muscle cells and cut out the faulty exon. In the treated mice, which had CRISPR-ferrying viruses injected directly into muscles or into their bloodstream, heart and skeletal muscle cells made a truncated form of dystrophin, and the rodents performed better on tests of muscle strenght than untreated DMD mice. Teams led by biomedical engineer Charles Gersbach of Duke University in Durham, North Carolina, and Harvard stem cell researcher Amy Wagers, both collaborating with CRISPR pioneer Feng Zhang of Harvard and the Broad Institute in Cambridge, Massachusetts, report similar results. CRISPR’s accuracy was also reassuring. None of the teams found much evidence of off-target effects—unintended and potentially harmful cuts in other parts of the genome.

The Wagers team also showed that the dystrophin gene was repaired in muscle stem cells, which replenish mature muscle tissue. That is “very important,” Wagers says, because the therapeutic effects of CRISPR may otherwise fade, as mature muscle cells degrade over time.

The treatment wasn’t a cure: The mice receiving CRISPR didn’t do as well on muscle tests as normal mice. However, “there’s a ton of room for optimization of these approaches,” Gersbach says. And as many as 80% of people with DMD could benefit from having a faulty exon removed, Olson notes. However, he adds, researchers are years away from clinical trials. His group now plans to show CRISPR performs equally well in mice with other dystrophin gene mutations found in people, then establish that the strategy is safe and effective in larger animals.

Other muscular dystrophy researchers are encouraged. “Collectively the approach looks very promising for clinical translation,” says Jerry Mendell of Nationwide Children’s Hospital in Columbus. Adds Ronald Cohn of the Hospital for Sick Children in Toronto, Canada: “The question we all had is whether CRISPR gene editing can occur in vivo in skeletal muscle.” The new studies, he says, are “an incredibly exciting step forward.”

Dystrophin (light green) is abundant in cardiac muscle from normal mice (left), missing in mice with DMD (center), and partially restored in Duchenne mice treated with CRISPR/Cas9 (right).

 

 

 Le professeur Christian Hervé est directeur EA (4569) « Éthique, politique et santé », à l'université Paris-Descartes.

 

Récemment un article a été refusé par les prestigieux journaux Nature et Sciencepour des raisons éthiques à propos d'une nouvelle technique (CRISPR/Cas9), laquelle appliquée à des embryons permet de découper une séquence d'ADN précise dans le but de modifier l'activité d'un gène. Devant l'absence de consensus en regard des évolutions possibles de la société et des individus posées par diverses théories actuelles, sur l'invocation de quels arguments et légitimités les journaux sont-ils amenés, à refuser un article d'une expérimentation déjà effectuée?

Le débat est-il bien «posé»? En la matière, la transmission de mutations délétères pourrait alors être avérée, ce qui conduit certains à prôner l'interdiction de toute intervention sur la lignée germinale au contraire de la lignée somatique, réputée non dangereuse alors que tout clonage peut être réalisé sans trop de moyens par un chercheur «félon» n'appliquant pas le consensus actuel sur cette question.

Posons-nous, en effet, en général l'effectivité des interdictions, surtout lorsqu'elles sont suivies de dérogations, attitudes législatives qui illustrent l'évolution des lois de bioéthique et la bioéthique en général dans son développement depuis quelques décennies. Sont-elles encore pertinentes dans le climat de mondialisation désormais enserrant les équipes dans la concurrence scientifique et la production de techniques devenues éléments économiques de premier plan? Chacun sait que le droit est dépassé par les applications techniques de la science, différentes morales existant dans le monde philosophique, quelle attitude imposer pour des questions aussi essentielles? En la matière, la bioéthique essaie par des conventions et des déclarations d'aboutir à une des résolutions possibles proposées par Hans Jonas: que les hommes maîtrisent le progrès technoscientifique par des traités internationaux (auxquels il ne croyait guère en leurs effets pour limiter certains progrès) ou qu'ils interdisent, solution qui avait le risque de l'entrée dans un système totalitaire.

Accepter des recherches, dans des conditions discutées devant les comités internationaux reconnus et multidisciplinaires, intégrant un suivi (une vigilance même sur les conséquences des pratiques) minutieux des suites sur de périodes longues et les publier de manière critique, ne serait-il pas la solution devant des interdictions qui pourraient obérer des réussites scientifiques pour la collectivité. Sachant qu'il serait intéressant, peut-être, de dissocier, comme l'affirment certains auteurs, l'individu de la collectivité en termes de risque et de finalité (soins et savoirs). En effet, la thérapeutique d'un individu peut-elle être la seule voie légitimant une recherche scientifique, privilégiant ainsi la seule conception utilitariste? La recherche fondamentale, dès lors qu'une réflexion sur la nature de l'embryon et sur les recherches possibles a été faite, d'autant qu'il est déconnecté d'un projet parental, devrait-elle appliquer des règles qui échappent à ses propres problématiques?

Notre interrogation à propos de cette nouvelle technique et de son application pose la question de la société dans laquelle chacun prétend vivre en collectivité, et de laquelle des humanités possibles dépendent. N'assistons-nous pas là à un choix entre deux post-humanismes: l'un occidental, qui apparaît appliqué (matérialiste et capitaliste), et l'autre asiatique, plus idéologique et politique, s'orientant vers une amélioration déterminée de l'espèce, voire de l'intelligence des êtres sélectionnés par de telles recherches? Enfin, avons-nous un quelconque moyen de nous y opposer, à l'un ou à l'autre, sinon de s'éveiller et de penser nos destinées communes?

La technique ne profanant ni sacralisant les objets sur lesquels elle s'applique, comment ne pas appliquer la pensée rationnelle d'une métaphysique qui vérifie ses décisions sur des faits vérifiés (et non seulement déclarés et promulgués en contradiction avec les pratiques) et ainsi des actes qui ne soient pas consécutifs a des appréhensions, des a priori, des stéréotypes, voire des peurs, attitudes toujours stigmatisantes, dévalorisantes de la personne humaine qui agit d'autant plus si elle est chercheur. Penser l'être, le lien social et la société du futur, l'humanité, ne peut être évacué, et au contraire doit devenir un impératif catégorique de la construction démocratique, ouverte avec les scientifiques comme les «Rencontres Hippocrate», avant de formuler toute expression qui ne résulterait pas d'une telle pensée rationnelle dépendante d'un espoir d'une humanité collectivement plus juste et plus éclairée, vérifiée expérimentalement dans ses pratiques sociales, notamment scientifiques. 

Christian Hervé -

CRISPR-cas9

Vendredi 4 mars 2016

 

Emmanuelle Charpentier et Jennifer Doudna, en octobre à Oviedo, après avoir reçu un trophée du roi d'Espagne pour leur découverte

 

 Jennifer Doudna  TED Talks exceptionnel Cour

(TRADUCTION SIMULTANÉE EN FRANÇAIS)

https://www.youtube.com/embed/TdBAHexVYzc

 

 


 

 

 

Genome Editing with CRISPR-Cas9 Aime bien

(vidéo démonstrative des ciseaux à ADN)

https://www.youtube.com/embed/2pp17E4E-O8

 

 


 

 

La révolution en marche des «ciseaux génétiques»

La «découverte de l'année», sacrée par le magazine Science, permet de modifier des gènes de manière très précise et simple.

La technique de manipulation du génome, appelée CRISPR, vient d'être sacrée " Découverte de l'année" par le célèbre magazine américain Science.Fait exceptionnel, la technologie avait déjà été nominée en 2012 puis en 2013 parmi les dix finalistes, mais en 2015, elle est devenue incontournable. «En trois ans, elle s'est déjà répandue dans les laboratoires du monde entier, ce qui a provoqué une prolifération considérable des publications scientifiques dans des domaines très variés», constate Emmanuelle Charpentier, la microbiologiste française qui l'a développée en collaboration avec l'Américaine Jennifer Doudna (les deux femmes sont pressenties pour le prix Nobel dans les années à venir).

Tout est parti de recherches très fondamentales sur le génome de bactéries à la fin des années 1980. Des chercheurs japonais découvrirent des séquences de lettres répétitives qui pouvaient se lire indifféremment dans les deux sens (des palindromes) dans le matériel génétique des bactéries E. coli. Elles furent baptisées CRISPR (pour «Clustered regularly-interspaced short palindromic repeats») sans que l'on sache encore très bien à l'époque à quoi elles pouvaient servir.

Ce n'est qu'en 2007 que des industriels laitiers comprendront que ces séquences sont en fait l'équivalent du système immunitaire des bactéries pour se défendre contre les virus. Entre les CRISPR se trouvent en effet des morceaux d'ADN caractéristiques de virus. Lorsque ces séquences sont traduites en molécules, cela donne des «vaisseaux» contenant l'empreinte de l'ADN viral. Ils sont ainsi capables de s'arrimer sur tout morceau d'ADN contenant cette séquence particulière.

Le vaisseau moléculaire est par ailleurs doté d'une arme: des ciseaux moléculaires. Dès qu'il s'accroche à un virus, il peut découper son ADN en deux pour le détruire. Emmanuelle Charpentier et Jennifer Doudna ont ainsi l'idée d'utiliser ce type de vaisseau moléculaire pour supprimer des bouts de codes génétiques, en introduire de nouveaux, inhiber l'expression d'un gène ou encore la renforcer. Elles y parviennent en 2012, ouvrant tout un pan de recherche en génie génétique.

Crainte de dérives

La méthode CRISPR révolutionne la génétique car elle est à la fois précise, rapide, facile et peu chère. Et elle fonctionne sur à peu près tous les êtres vivants sur lesquels elle a été testée (des dizaines à ce jour). En 2015, des moustiques ont ainsi été modifiés génétiquement de façon à ce qu'ils ne puissent plus abriter le vecteur du paludisme (et donc le transmettre à l'homme). Cette mutation artificielle a de plus été pensée de façon à ce qu'elle se transmette à leur descendance.

Une autre équipe a réussi à supprimer d'un coup 62 morceaux d'ADN viral qui s'était intégré dans le génome d'un cochon. Or cet ADN viral est l'un des freins importants à l'utilisation de greffons animaux chez l'homme. En avril, enfin, des scientifiques chinois ont fait grand bruit en manipulant le génome d'embryons humains (non viables) pour tenter de corriger une maladie génétique. L'intention, louable, a néanmoins immédiatement fait craindre des dérives et soulevé des interrogations éthiques.

Quelques mois suffisent désormais pour introduire un gène nouveau chez une espèce donnée. «C'est un outil extrêmement puissant», reconnaît Emmanuelle Charpentier. Et comme tout outil, son usage peut être détourné. Un étudiant peut ainsi facilement s'approprier la technique pour mener à bien ses expériences. Un jeune post-doctorant a par exemple mis au point des virus transportant des outils CRISPR capables, une fois inhalés, de bidouiller l'ADN des cellules pulmonaires de souris pour déclencher un cancer du poumon «humain». Jennifer Doudna, qui assistait à la présentation de ces travaux, fut «effrayée» de voir que de telles recherches pouvaient être menées par de simples étudiants, relate le magazine Nature.

Mais les promesses de CRISPR sont à la hauteur des craintes qu'elle suscite: modifications à l'envi du génome de bétail ou de plantes, création de nouveaux modèles animaux «humanisés» pour la recherche, thérapie génique, éradication de maladies parasitaires…

 

Tristan Vey 

 

 

 


CHIRURGIE ÉVEILLÉE 

Vendredi 19 Février 2016

La réalité virtuelle au secours de la neurochirurgie : une première mondiale au CHU d’Angers

 http://www.francetvinfo.fr/sante/soigner/quand-la-realite-virtuelle-sert-la-neurochirurgie_1317995.html

 

Pendant l'opération qui a eu lieu le 27 janvier 2016, le patient éveillé, était muni de lunettes 3D de réalité virtuelle.

 

Fin janvier, au CHU d’Angers, un patient atteint d’une tumeur au cerveau a été opéré grâce à la réalité virtuelle. Cette première mondiale ouvre des perspectives dans le domaine de la neurochirurgie.

C’est une prouesse médicale et une première mondiale qu’ont réalisées le neurochirurgien Philippe Menei et son équipe au CHU d’Angers (Maine-et-Loire). Le 27 janvier, un patient a été opéré à cerveau ouvert grâce à un casque de réalité virtuelle, dans le cadre du projet de recherche intitulé Cervo (Chirurgie éveillée sous réalité virtuelle dans le bloc opératoire) réalisé en collaboration avec l’Esiea, une école d’ingénieur de Laval spécialisée dans le numérique.

 

L’homme, âgé d’une cinquantaine d’années et atteint d’une tumeur au cerveau située près des zones du langage et des connexions visuelles, a été opéré pendant six heures par le professeur Philippe Menei, chef du service de neurochirurgie du CHU d’Angers. Trois semaines après l'intervention, il est en parfaite santé, a révélé mardi 16 février l'équipe du CHU.

Pendant l’opération, le patient, éveillé, était muni d’un casque équipé de lunettes 3D de réalité virtuelle. Dans ses lunettes, défilait un programme de test du champ visuel mis au point par l’Esiea. Objectif : pousser plus loin encore la précision de l’acte.

"Des points lumineux ont été diffusés, et le patient a pu détailler ce qu’il voyait, ce qui a permis au neurochirurgien d’être certain de ne pas porter atteinte à la fonction visuelle lors de l’ablation de la tumeur", explique Marc Le Renard, enseignant-chercheur à l’Esiea, contacté par France 24. Il était d’autant plus important de préserver cette fonction que l’homme, atteint d’une maladie ophtalmique, avait déjà perdu l’usage de son œil droit.

"Jeu vidéo"

L'innovation du 27 janvier réside dans l’immersion du patient dans une réalité virtuelle. "Grâce à cette technique, nous avons pu tester le champ visuel, une fonction extrêmement complexe, qu’on ne pouvait éprouver jusqu’à présent qu’en post opératoire", indique à France 24 Philippe Menei.

"Cette première étape offre des perspectives nouvelles dans l’ablation de tumeurs cérébrales difficilement placées", a estimé le CHU d’Angers.

Cette nouvelle possibilité pourrait aussi se révéler particulièrement utile pour la chirurgie infantile : "Pour ne pas les effrayer, on peut imaginer que l’on pourra, au bloc opératoire, immerger les enfants dans une sorte de jeu vidéo, et, pendant qu’on travaille, leur faire faire des tests sans même qu’ils s’en rendent compte, pour avoir une vision précise de l’évolution de l’opération sur le cerveau", s’enthousiasme le chef du service de neurochirurgie du CHU d’Angers.

Autre champ d’exploration : plonger le malade éveillé dans un environnement relaxant. "Nous allons travailler sur le bien-être du patient, tenter de lui procurer davantage de confort pendant l’opération en l’immergeant dans une réalité virtuelle agréable", indique Marc Le Renard.

Neurochirurgie éveillée

La neurochirurgie éveillée n’est quant à elle pas une première et se pratique depuis le début des années 2000 au CHU d’Angers et dans d'autres hôpitaux français, le cerveau étant "le seul organe qui n’est pas sensible à la douleur" précise Philippe Menei.

Cette technique permet l’ablation de tumeurs cérébrales qui seraient considérées comme inopérables sous anesthésie générale. "Avec une électrode, on stimule le cerveau au cours de l’opération et on peut réaliser une cartographie précise de ce qui s’y passe, et préserver ainsi les zones impliquées dans des fonctions essentielles comme la motricité et le langage", détaille le professeur Menei.

Françoise Marmouyet
 

Chirurgie éveillée du cerveau au CHU de Montpellier

http://www.dailymotion.com/video/x2ajk7y_chirurgie-eveillee-du-cerveau-operer-avec-l-aide-du-patient_news

Interview de Hugues Duffau

 

Le Pr Hugues Duffau, responsable du département de neurochirurgie au CHU de Montpellier, opère des patients du cerveau en les maintenant éveillés. Sciences et Avenir lui a posé 3 questions.

VIDÉO. Une chirurgie éveillée du cerveau AMELIE-BENOIST / BSIP / AFP
 

TECHNIQUE. Le "gliome diffus de bas grade" est constitué de cellules anormales, précancéreuses, infiltrant le cerveau. Il se transforme inéluctablement, au fil des années, en une tumeur maligne. Son ablation chirurgicale doit être réalisée le plus précocement possible.

Cette intervention neurochirurgicale doit également être effectuée le plus extensivement possible, avec un retrait de tissu cérébral qui peut se situer à proximité, voire au voisinage immédiat, de régions impliquées dans la parole, la motricité ; des zones cruciales dont l'intégrité doit être préservée. Autant donc se renseigner avant. Comment ? En demandant au malade, maintenu éveillé pendant  l’opération !

 Le Pr Hugues Duffau, responsable du département de neurochirurgie au CHU de Montpellier, est le pionnier mondial de ce type d'intervention. Dans la vidéo ci-dessous, il réalise une exérèse par chirurgie éveillée d'un gliome diffus de bas grade de l'aire de Broca. Toutes les étapes de cette opération délicate sont détaillées par le Pr Duffau dans la vidéo ci-dessous.

Attention, il s'agit d'une opération chirurgicale, les images de cette vidéo peuvent choquer.

https://www.youtube.com/embed/ddtJiA9nEkU

3 questions au Pr Hugues Duffau


Sciences et Avenir : Faudrait-il envisager un dépistage systématique du gliome diffus, qui touche environ une personne sur 100 000 par an en France ?

Hugues Duffau : La question se pose. Il existe un stade où le gliome, visible à l'IRM, n'entraîne encore aucun trouble. Avec une croissance d'un gliome non traité de l'ordre de 4 mm de diamètre par an, cette phase silencieuse peut être estimée à environ quatorze ans. Un dépistage, tous les cinq ans, par une IRM systématique serait donc envisageable dans une population sélectionnée (de 18 à 45 ans).

Sciences et Avenir : Le traitement en serait-il plus efficace ?

Hugues Duffau : Le traitement sera d'autant plus efficace que le diagnostic est précoce. Il sera alors possible de réaliser une résection supra-totale [une ablation] avec un minimum de risque neurologique fonctionnel.

Sciences et Avenir : Quel est le rapport coût/efficacité ?

Hugues Duffau : À 120 euros l'IRM, faire passer cet examen à 10 000 personnes reviendrait à 1,2 million d'euros et permettrait de dépister quatre gliomes silencieux. Cette stratégie est efficace économiquement, un traitement précoce permet en effet de gagner au moins trois années de vie*. A l'avenir, on pourra même réduire les coûts grâce à l'utilisation de biomarqueurs qui offriront de mieux détecter les patients les plus à risque de développer un gliome.


* Le coût annuel d'un patient est estimé à 90 000 euros environ, d'après une étude parue dans Cancer 2014.

Marc Gozlan

 

 

 

L’hypnose pour la chirurgie éveillée de certaines tumeurs du cerveau : une première au Chru de Tours

La cartographie cérébrale

 

février 2016 
 

Au CHRU de Tours, pour la première fois, l’hypnose est utilisée dans la première phase de cette intervention (c'est-à-dire la phase de l'ouverture du crâne), pour opérer les patients atteints de certaines tumeurs du cerveau.

En effet,  « Dans les cas où une chirurgie éveillée est nécessaire pour retirer une tumeur du cerveau, la technique classique consiste à endormir le patient par anesthésie générale, à ouvrir sa peau, son crâne, puis à le réveiller pour établir sa cartographie cérébrale (c’est-à-dire l’identification des aires du cerveau liées au langage, à la motricité, à la vision, afin de ne pas les endommager), enlever la tumeur, et enfin à le rendormir pour finir l’intervention. 

Au CHRU de Tours, pour la première fois, nous avons utilisé la technique de l’hypnose dans la première phase de cette intervention (l’ouverture du crâne), pour opérer les patients atteints de gliome (tumeur cérébrale infiltrante) », explique le Dr Ilyess Zemmoura, Neurochirurgien au CHRU de Tours.

Pourquoi proposer l'hypnose ?

Hypnose tumeur cerveau chirurgie chru tours

L’intervention sur la tumeur

Les équipes de neurochirurgie du CHRU de Tours, à l’initiative du Pr Stéphane Velut, Chef de service de Neurochirurgie, et du Pr Christophe Destrieux, Neurochirurgien, pratiquent depuis longtemps la chirurgie éveillée classique, pour traiter les tumeurs cérébrales. Et ceci en étroite relation avec le Pr Hugues Duffau, Neurochirurgien au CHU de Montpellier et initiateur de cette technique.
L’hypnose permet au patient de recouvrer immédiatement, dès la levée de la transe, une vigilance normale très utile à la fiabilité des tests ; une vigilance parfaite est en effet moins rapidement obtenue après une première phase d’anesthésie générale. D’autre part, certains patients atteints de gliomes présentent des contre-indications anesthésiques (personnes âgées, problèmes d’obésité...). La technique classique est donc difficile à mettre en place.
Suite à des échanges entre le Pr S. Velut, le Dr I. Zemmoura et le Dr Eric Fournier, Anesthésiste du CHRU de Tours formé aux techniques d’hypnose médicale, l’idée a germé, de proposer l’hypnose à ces patients. Une étude a donc été lancée, afin de valider cette nouvelle technique.

Comment se déroule l'intervention sous hypnose ?

Dès lors que le patient donne son accord, son degré d’hypnotisabilité va être validé, afin de décider de réaliser l’intervention sous hypnose ou non. A noter que l’hypnotisabilité est variable dans le temps et au cours de la vie. La motivation du patient est essentielle pour obtenir une bonne efficacité de l’hypnose. Le patient opéré en chirurgie éveillée est un patient actif et motivé, en raison de sa participation en per-opératoire.

La préparation du patient débute bien avant l’intervention, par une consultation pré-opératoire avec l’anesthésiste, au cours de laquelle celui-ci échange avec le patient, afin de définir « l’histoire » personnalisée (selon ses loisirs, ses habitudes de vie...) qu’il lui contera au fil de l’intervention, pour le plonger et le maintenir en état d’hypnose. Le principe est de se laisser aller, et de séparer l’esprit du corps.

Au moment de l’intervention, l’anesthésiste plonge le patient en hypnose, avant même que le neurochirurgien ne le touche. Sous hypnose, les piqûres d’anesthésie locale sont réalisées, et la phase de craniotomie (ouverture de la peau et du crâne, provoquant d’importants bruits et vibrations) est réalisée.
« Cette phase de l’opération nécessite encore plus de collaboration entre l’anesthésiste et le neurochirurgien : de l’anesthésiste pour « raconter son histoire » mettant en sécurité le patient et l’adapter aux phases de l’intervention, et du neurochirurgien, pour s’adapter à cette histoire et aux réactions du patient », explique le Dr I. Zemmoura.

Les conclusions de l'étude et les perspectives

L’étude*, réalisée au CHRU de Tours de 2011 à 2015, sur 37 patients atteints d’un gliome et ayant subi une craniotomie sous hypnose, a montré la faisabilité de cette approche, et a démontré que les résultats de cette cohorte étaient conformes à ceux de la littérature pré- existante.
Des tests mesurant le stress ont aussi été réalisés auprès de ces patients traités, grâce au Pr Wissam El-Hage, Psychiatre au CHRU de Tours. Ces tests ont confirmé que cette expérience était bien vécue par la majorité des patients.

« Nous opérons entre 20 et 30 patients par an, en chirurgie éveillée, au CHRU de Tours : le réel intérêt du développement de l’hypnose sur nos interventions est de pouvoir opérer des patients en chirurgie éveillée, alors qu’ils présentaient des contre-indications à la technique classique d’anesthésie. Ils peuvent ainsi bénéficier, sans anesthésie générale, d’une intervention minimisant les risques d’endommager des zones clés de leur cerveau au moment d’ôter la tumeur », conclut le Dr I. Zemmoura.

*étude « Hypnosis for Awake Surgery of Low-grade Gliomas : Description of the Method and Psychological Assessment », dont les résultats ont été présentés en décembre 2015 dans la revue Neurosurgery.

 

vendredi 12 février 2016

Henri VIII, connu pour son caractère colérique, a eu six femmes, dont deux qu’il a fait décapiter. L’histoire aurait pu être toute autre s’il n’avait pas été victime d’accidents lors de tournois.
Detail of portrait of Henry VIII by the workshop of Hans Holbein the Younger.

 

Des chercheurs ont fait le lien entre des lésions cérébrales occasionnées lors de tournois de joute et la modification du caractère du souverain. Ou comment un traumatisme crânien peut changer le cours de l’Histoire.

 

Henri VIII reste l’un des monarques les plus tristement célèbres.Alors qu’il est souvent décrit comme un tyran d’humeur exécrable, une étude à paraître dans Journal of Clinical Neurosciencesuggère qu’en réalité, jeune, il était d’une nature plutôt gentille. Ainsi en 1529, Érasme le décrit comme quelqu’un de convivial et doux dans le débat, affirmant même qu’il « agit plus comme un compagnon qu’un roi ». Mais son tempérament aurait changé suite à plusieurs accidents de joute.

Dans cette étude, des chercheurs de l'université de Yale ont analysé différentes sources historiques sur la santé et la vie du roi. Les descriptions d’Henri VIII dans sa jeunesse le présentent comme un homme intelligent, d’humeur égale, prenant des décisions politiques et militaires sages. Rien à voir avec les décisions impulsives et les crises de rage que le souverain montre plus tard…

En effet, le comportement du roi a ensuite beaucoup évolué, et ces changements coïncident avec trois accidents majeurs dont il a été victime lors de tournois. Le premier d’entre eux eut lieu en 1524, où une lance l’a frappé près de l’œil. Et le plus grave de ces accidents se déroula en 1536 : le roi est resté inconscient pendant deux heures après être tombé de cheval et que l’animal lui soit tombé dessus. Comme l’explique Arash Salardini, auteur de ces travaux, « les historiens conviennent que son comportement a changé après 1536 ».

Le roi a eu plusieurs accidents lors de tournois de joute, le plus grave
 en 1536.
Le roi a eu plusieurs accidents lors de tournois de joute, le plus grave date de 1536. 

Amnésies, colères, peuvent être causées par des lésions cérébrales

Après ces accidents, Henri VIII a eu des symptômes qui peuvent apparaître après un traumatisme crânien : problèmes de mémoire, dépression, comportement agressif, anxiété, instabilité émotionnelle. Ainsi, en 1541, il a connu un épisode sévère de dépression. Le roi a aussi fait exécuter deux de ses femmes, Anne Boleyn en 1536 et Katherine Howard en 1542, toutes deux dans les mois et les années qui ont suivi ces accidents de joute.

Henri VIII souffrait aussi d'amnésie et d’une incapacité à se contrôler, comme le montre cet incident en 1546 : alors qu’il assurait à sa femme d’alors, Catherine Parr, qu’il ne l’enverrait pas à la Tour de Londres, des soldats sont arrivés pour l’emmener. Le roi s’emporta contre les soldats : il avait oublié qu’il avait donné cet ordre la veille… Le traumatisme crânien peut expliquer les problèmes demémoire, les colères, les maux de tête, l’insomnie, dont le monarque était affligé pendant la décennie qui précéda son décès en 1547.

Les auteurs de cette étude concluent qu’il « est tout à fait plausible, mais peut-être pas prouvable, que la répétition des lésions cérébrales traumatiques ont entraîné des changements dans la personnalité d’Henri. » De plus, les chercheurs font aussi l’hypothèse que des lésions ont conduit à un hypogonadisme. Le souverain souffrait probablement de problèmes d'impuissance, ce qui semble attesté par la correspondance d’une de ses femmes, Anne Boleyn.

Pour Arash Salardini, « Il est fascinant de penser que l’histoire européenne moderne peut avoir changé à jamais à cause d’un coup à la tête. »

 

 

 

Did Henry VIII suffer same brain injury as some NFL players?

 

Henry VIII may have suffered repeated traumatic brain injuries similar to those experienced by football players and others who receive repeated blows to the head, according to research by a Yale University expert in cognitive neurology.

Traumatic brain injury explains the memory problems, explosive anger, inability to control impulses, headaches, insomnia — and maybe even impotence — that afflicted Henry during the decade before his death in 1547, according to a paper published online the week of Feb. 1. 

“It is intriguing to think that modern European history may have changed forever because of a blow to the head,” said Arash Salardini, behavioral neurologist, co-director of the Yale Memory Clinic and senior author of the study.

The English monarch is best known for his dispute with the Catholic Church over his desire to annul his first marriage to Catherine of Aragon and marry Anne Boleyn. The affair led to the English Reformation and the creation of the Church of England. Henry would marry six times — and execute two of his wives.

Research assistants Muhammad Qaiser Ikram and Fazle Hakim Saijad analyzed volumes of Henry’s letters and other historical sources to document his known medical history and events that may have contributed to his ailments.  Their findings confirm conjecture by some historians that jousting injuries caused later health and behavioral problems.

Henry suffered two major head injuries during his 30s. In 1524, a 

 lance penetrated the visor of his helmet during a jousting tournament and dazed him. A year later, he was knocked out when he fell head-first into a brook he was trying to vault across with a pole. However, said the researchers, the English monarch’s increasingly unpredictable behavior may have been triggered by an accident during a jousting match in January of 1536 when a horse fell on Henry, causing him to lose consciousness for two hours.

“Historians agree his behavior changed after 1536,’’ said Salardini, noting that descriptions of Henry during his youth portrayed an intelligent and even-tempered young man who made wise military and policy decisions. His behavior in the later years of his life became notoriously erratic: He was forgetful and prone to rages and impulsive decisions.

In 1546, for instance, he was assuring his sixth wife Catherine Parr, that he would not send her to the Tower of London when soldiers arrived to arrest her. He launched into a tirade against the soldiers, having forgotten that he had given that order the day before.

Other occasional side effects of traumatic brain injury are growth hormone deficiency and hypogonadism, which may lead to metabolic syndrome and impotence, respectively. Despite the womanizing reputation of his youth, Henry had difficulty completing sexual intercourse as far back as his marriage to his second wife, Ann Boleyn, in 1533, some evidence suggests.

Other ailments attributed to Henry — such as syphilis, diabetes, or Cushing Syndrome, a condition marked by weight gain and obesity — seem less likely in light of the available evidence, said the study’s authors, noting that traumatic brain injury best explains most of his behavioral abnormalities.

February 2, 2016

 GWAS of 89,283 individuals identifies genetic variants associated with self-reporting of being a morning person

http://pdf.lu/rWT5 (article original)

 

Selon une étude, être matinal ou oiseau de nuit est inscrit dans nos gènes. Des chercheurs ont scruté les habitudes de 89.000 personnes et ont découvert une quinzaine de spécificités génétiques spécifiquement associées aux réveils matinaux. Les adultes âgés de plus de 60 ans ont une plus grande probabilité d'être debout tôt.

 

« Ces découvertes peuvent guider les études futures sur
 les rythmes circadiens, le sommeil et des troubles associés » estime David Hinds, un des auteurs de l'étude. © Syda Productions, shutterstock.com« Ces découvertes peuvent guider les études futures sur les rythmes circadiens, le sommeil et des troubles associés » estime David Hinds, un des auteurs de l'étude.  

Une étude menée par des chercheurs californiens sur plus de 89.283 personnes, de la cohorte 23andMe, et publiée dans Nature Communications (ci dessus) a révélé une sorte de signature génétique chez les personnes se déclarant « du matin ». Chez elles sont retrouvés 15 sites particuliers (ou loci), dont 7 se trouvent près de gènes connus pour être impliqués dans le rythme circadien(alternance entre la veille et le sommeil). Parmi eux figurent HCRTR2, lié à la narcolepsie, FBXL3, qui allonge ce cycle circadien, et VIP, qui prolonge le sommeil paradoxal. Autrement dit, le fait d'être lève-tôt ne dépend pas que de nos styles de vie et de notre environnement. C'est aussi une affaire de génétique.

Les rythmes circadiens ou biologiques, dont les cycles durent en moyenne 24 heures, sont communs aux organismes vivants. Ils ont une incidence sur presque tous les processus biologiques.

Les lève-tôt sont semblent moins exposés à la dépression que les individus qui se sont déclarés couche-tard. © A. et I. Kruk, shutterstock.com
Les lève-tôt sont semblent moins exposés à la dépression que les individus qui se sont déclarés couche-tard. 

Un IMC plus bas et moins de risques de dépression pour les matinaux

L'étude rapporte également d'autres observations. Parmi les participants, 56 % se considèrent noctambules. D'après les résultats, les adultes âgés de plus de 60 ans ont une plus grande probabilité d'être les plus matinaux. Ils connaissent aussi beaucoup moins d'épisodes d'insomnie, sans avoir besoin de plus de 8 heures de sommeil. Ils sont également beaucoup moins exposés à la dépression que les individus qui se sont déclarés couche-tard.

En tenant compte des critères d'âge et de sexe, les chercheurs ont également constaté que les personnes à tendance matinale ont un indice de masse corporelle (IMC) plus bas. Avec prudence, les chercheurs ne font pas de lien direct entre tendance matinale et minceur.

En revanche, David Hinds, coauteur de l'étude, avance l'hypothèse selon laquelle ces nouvelles informations sur cette influence génétique pourront aider à repérer certaines maladies et mieux comprendre les différences de comportement des individus concernant le rythme cicadien : « Ces découvertes peuvent guider les études futures sur les rythmes circadiens, le sommeil et des troubles associés ».

02/2016   Relaxnews

 

Le cerveau d'Albert Einstein (ici, son moule présenté lors d'une exposition à Londres), malgré sa relative petite taille, présentait dans certaines zones des circonvolutions plus complexes que des cerveaux «moyens».

 
Les forces mécaniques s'exerçant lors de la croissance cérébrale permettent d'expliquer la formation des circonvolutions. 

Ce pourrait être une insulte de cours de récréation: «T'as le cortex lisse !» L'homme partage cette caractéristique avec le cheval, le mouton ou le chat : son cerveau est parcouru de plis et de bosses tandis que d'autres, comme la souris, ont l'encéphale lisse comme une peau de bébé.

Ces circonvolutions nous offrent un avantage : le cortex peut ainsi, dans un espace restreint, multiplier sa surface, donc le nombre de neurones qui le peuplent et de connexions qui le parcourent, et raccourcir la distance entre deux neurones. Jugez-en : dans un volume de 1200 millilitres en moyenne, un adulte cache une surface de matière grise qui ferait 2,4 m2 si elle était dépliée, abritant 20.000 milliards de neurones et 150.000 km de fibres nerveuses. Et malgré un «dessin» de base commun nous ne possédons pas tous exactement les mêmes plis : une équipe américaine a ainsi révélé dans la revue Brain en 2012 que le cerveau d'Einstein, qui avait beaucoup déçu par sa relative petite taille, présentait dans certaines zones des circonvolutions plus complexes que des cerveaux "moyens".

Cela ne suffit pas pour autant à affirmer que là se cache le secret de l'intelligence humaine. Du mouton et du rat, le plus intelligent n'est pas celui dont le cerveau est plissé…

Les circonvolutions du cortex

Mais un débat agite les neuroscientifiques : qu'est-ce qui pousse notre cortex à se plisser ? Injonction de nos gènes, tambouille biochimique ? Une fois n'est pas coutume quand on parle de cerveau, l'explication la plus simple est peut-être la bonne : lors de son développement, la substance blanche multiplie son volume par 20 tandis que le cortex qui l'enveloppe multiplie sa surface par 30. Les circonvolutions du cortex seraient générées par cette expansion contrainte. Une bête histoire de mécanique.

L'hypothèse a été formulée il y a une quarantaine d'années mais nul n'avait encore pu en prouver la validité. Une équipe de chercheurs finlandais, américains et français ont (partiellement) résolu le problème et publient leurs conclusions dans Nature Physics. L'IRM cérébrale d'un fœtus de 22 semaines, âge où le cerveau est encore lisse, leur a permis de fabriquer un modèle en élastomère souple figurant la matière blanche (le centre du cerveau), recouvert couche après couche d'un gel figurant la matière grise (le cortex). Immergé dans un solvant, ce «cortex » a gonflé beaucoup plus vite que la «matière blanche » et la tension exercée l'a forcé à se plisser pour aboutir à une structure très semblable à un cerveau humain. «Les circonvolutions sont une conséquence inévitable d'une expansion corticale contrainte », concluent les chercheurs.

La contrainte exercée par le crâne

Un modèle numérique poussé jusqu'à l'âge adulte montre, là encore, une évolution très semblable à la réalité : un pliage qui démarre doucement, des sillons et des bosses s'alignant perpendiculairement au stress compressif maximum avant de se diviser en diverses «branches », et un cortex fin et souple sensible au moindre changement de paramètre.

Ce modèle «beau et simple » permet même de prédire où apparaîtront les circonvolutions, commente dans la même revue Ellen Kuhl, du département d'ingéniérie mécanique et de bioingéniérie de l'université de Stanford. Mais il présente tout de même quelques limites.

Avec le modèle fait de gel gonflant, le développement du cerveau n'a pu être mimé que jusqu'à 34 semaines de gestation (presque le terme d'une grossesse) car «il était impossible de faire grossir également le centre du modèle comme cela se passe dans la réalité», précise François Rousseau, professeur en imagerie médicale à l'Institut Mines-Télécoms. Cosignataire de la publication, il admet que le rapport entre croissance du cortex et croissance de la matière blanche «n'est sans doute pas la seule explication au plissement du cerveau. Il nous faudra ajouter d'autres contraintes, par exemple celle exercée par le crâne. Mais cette étude montre que le simple fait que le cortex croît un peu plus vite que la substance blanche suffit à créer des sillons.»

Soigner certaines maladies

«Maintenant que nous avons une théorie physique et un modèle rigoureux (…), que faisons-nous avec?», s'interroge Ellen Kuhl. Le prochain pas sera, estiment les chercheurs, de «comprendre comment la forme et les fonctions du cerveau se régulent mutuellement ». Corréler ces nouvelles données avec ce que l'on sait de la localisation des fonctions cognitives, la formation des neurones et les liens qui les connectent, pourrait permettre de mieux diagnostiquer, voire soigner certaines maladies liées à des anomalies du plissement cortical comme la lissencéphalie (cerveau lisse) ou la polymicrogyrie (très plissé). Des chercheurs du CNRS ont même récemment identifié qu'un pli particulier présentait une anomalie chez des enfants autistes.

Les chercheurs franco-américains ont donc utilisé un index qui indique «le degré de plissement du cerveau », résume François Rousseau. Peut-être un jour pourra-t-on prédire, à partir d'une IRM cérébrale, qu'un cerveau en croissance risque de pâtir de ses faux plis…

Soline Roy  02/2016