"He who receives ideas from me, receives instruction himself without lessening mine; as he who lights his taper at mine receives light without darkening me”

Thomas JEFFERSON    3rd US President

 

 LES CRAPAUDS FOUS

avril 2018

 

COMMENT PENSENT LES ANTICONFORMISTES ?

Les neurosciences s'intéressent depuis de nombreuses années aux personnalités anticonformistes. L'enjeu est important : ces individus permettent de faire évoluer la société et progresser la science.
 

Peu nombreux sont les chercheurs à remettre en cause les dogmes et à prendre le risque d’être attaqués voire marginalisés par leurs pairs. L’histoire est pourtant riche de ces scientifiques qui, comme Albert Einstein ou Marie Curie, sont sortis des clous et ont révolutionné leur discipline.

La sélection naturelle semble privilégier le conformisme chez les individus. En même temps, l’évolution préserve une minorité aux idées hors normes, dont la créativité pourrait bien conditionner, ni plus ni moins, la survie de l’espèce.

Le mathématicien Cédric Villani et l’ingénieure Thanh Nghiem appellent à valoriser ces individus atypiques. Ils estiment que ceux qu’ils ont rebaptisés les «crapauds fous» sont les plus à même d’inventer de nouveaux modèles dans un monde secoué par le changement climatique, le bouleversement numérique et le terrorisme.

L’anticonformisme existe à toutes les époques. Parmi les chercheurs d’aujourd’hui, on voit se dessiner des profils dont les idées suscitent des réactions de rejet chez leurs confrères.

( note du rédacteur : selon l’Académie de médecine, l’inquiétude à l’égard de la maladie de Lyme est attisée par la diffusion d’assertions sans fondement scientifique, ce qui ne perturbe pas le fond de l'article)

Combat solitaire contre la maladie de Lyme

C'est notamment le cas dans des domaines polémiques comme celui de la maladie de Lyme, une infection de plus en plus fréquente transmise par les tiques.

Un scientifique solide comme Christian Perronne, spécialiste des maladies infectieuses et tropicales, se retrouve sous le feu des critiques parce qu’il réclame la reconnaissance d’une forme chronique de la maladie.

Pendant une dizaine d’années, ce professeur à l’université de Versailles Saint-Quentin-en-Yvelines a mené un combat solitaire, dénonçant l’abandon dans lequel se trouvaient les personnes souffrant d’une maladie de Lyme non soignée. Les douleurs dont elles se plaignaient n’étaient pas prises en considération et leur valaient des diagnostics psychiatriques.

À l’automne 2016, l’annonce par le gouvernement d’un plan de lutte contre la maladie de Lyme est venu confirmer les positions de cet iconoclaste. Dans son livre publié six mois plus tard, La vérité sur la maladie de Lyme (Odile Jacob), Christian Peronne détaille les études montrant qu’un traitement antibiotique prolongé améliore nettement la qualité de vie des patients. Le cas de ce chercheur montre comment la société tire finalement bénéfice des personnalités anticonformistes.

Marie Curie, un destin hors normes

L’histoire a retenu des destins hors normes comme celui de Marie Curie, lauréate des prix Nobel de physique et de chimie. Née en Pologne, elle débute sa carrière en France –les études supérieures étant interdites aux femmes dans son pays d’origine.

En 1906, elle devient la première femme professeure, mais sa nomination à l’Académie des sciences lui est refusée à cause d’un jury conservatiste et anti-féministe.

Son éloge de l’anticonformisme, cité dans le livre Madame Curie de sa fille Ève (The Da Capo Series in Science), mérite d’être relu aujourd’hui:

«Nous ne devrions pas laisser croire que tout progrès scientifique peut être réduit à des mécanismes, des machines, des rouages, quand bien même de tels mécanismes ont eux aussi leur beauté. Je ne crois pas non plus que l’esprit d’aventure risque de disparaître dans notre monde. Si je vois quelque chose de vital autour de moi, c’est précisément cet esprit d’aventure, qui me paraît indéracinable et s’apparente à la curiosité. Sans la curiosité de l’esprit, que serions-nous? Telle est bien la beauté et la noblesse de la science: désir sans fin de repousser les frontières du savoir, de traquer les secrets de la matière et de la vie sans idée préconçue des conséquences éventuelles.»

Albert Einstein dans le spectre autistique?

Célèbre pour sa théorie de la relativité, Albert Einstein incarne lui aussi l’anticonformisme, bien au-delà de son époque.

Né en Allemagne en 1879, Albert Einstein se confronte dès le début de sa scolarité à ses professeurs, dont il conteste l’autorité. Considéré comme un mauvais élève à cause de ses difficultés à s’exprimer et à s’adapter au système scolaire, il subit de nombreux échecs.

Renvoyé du collège de Munich, il est n'est pas bachelier et échoue à l’examen d’entrée à l’école Polytechnique fédérale de Zurich. Il se distingue toutefois par d’excellentes capacités en mathématiques, reconnues par des spécialistes de renom.

Le destin d’Albert Einstein suscite de nombreuses questions chez les neurobiologistes cherchant à élucider les mystères de l’intelligence. Une équipe de chercheurs canadiens a étudié des photographies de l’autopsie de son cerveau et les a comparées à celles d’un cerveau «banal».

Leur étude, parue dans la revue  The Lancet en 1999, a révélé des connexions anormalement nombreuses entre les deux hémisphères du cerveau d’Albert Einstein, qui présente également des circonvolutions anormales. Il s’agit de deux caractéristiques observées dans le spectre de l’autisme, suggérant que le prix Nobel aurait pu y appartenir.

Les difficultés d’expression d’Albert Einstein pendant l’enfance sont un autre indice allant dans ce sens. Des scientifiques comme le professeur britannique de mathématiques Ioan James, dans son article sur les "scientifiques singuliers", ou le professeur irlandais de pédopsychiatrie Michael Fitzgerald, dans son article "Einstein, cerveau et comportement", considèrent qu’Einstein aurait pu être concerné par le syndrome d'Asperger.

Cette forme d’autisme associe des capacités intellectuelles normales voire supérieures, et des déficits dans la sociabilité. Le non-conformisme de certaines personnalités pourrait peut-être s’expliquer par un syndrome d’Asperger.

 À l'origine du conformisme

 

De nombreuses études ont été menées ces dernières années sur «l’influence sociale», pour décrypter les ressorts du conformisme.

Chez l’homme, il a été démontré qu'il dépend notamment de l’attitude adoptée par l’individu vis-à-vis des «informations sociales» –par exemple, un échange d’opinion avec un autre individu.

Une expérience menée par une équipe britannique de l’Université de St Andrews, publiée en 2012, en atteste. Différents objets comme un cube, une boule ou un cône étaient présentés aux sujets de l’étude sous des angles différents, ce qui les rendait difficiles à reconnaître. Ces personnes devaient dire si, d’après elles, ces objets avaient ou non la même forme et déterminer s'il s’agissait du même objet.

Chacun des sujets montrait ensuite ses résultats à un autre groupe de participants. Ces derniers avaient passé plus tôt le même test et partageaient également leurs conclusions –cet échange correspond à ce qu’on appelle de «l’information sociale».

Les sujets repassaient alors le test de départ. Ce deuxième passage permettait de voir si ses réponses avaient changé, donc de mesurer à quel point l’information sociale l’avait influencé.

Cette expérience a montré que davantage de sujets se rangeaient à la décision de la majorité quand deux conditions étaient remplies: quand le groupe donnant les avis était important (douze personnes) et quand les sujets étaient incertains de leurs choix.

Capacité à s'adapter à l'inhabituel

L’anatomie du cerveau chez des individus anticonformistes a pu être étudiée par une équipe internationale en 2012. Grâce à une analyse d’IRM fonctionnelle de leur cerveau, ces chercheurs ont montré que chez les personnes en question, la matière grise du cortex orbito-frontal latéral est moins importante que chez les individus conformistes. Cette région, située à l’arrière des yeux, contrôle le comportement social et la prise de décision.

Les chercheurs britanniques de St Andrews ont passé en revue les études réalisées sur les bases biologiques du conformisme, dans un article publié en 2012. De l’ensemble de ces travaux, ils concluent que le conformisme aurait contribué, au cours de l’évolution, au développement d’adaptations cognitives spécifiques destinées à faciliter l’apprentissage social chez l’être humain. Autrement dit, le cerveau humain se serait adapté pour permettre d’apprendre de ses congénères.

Il semblerait que la sélection naturelle ait fait son choix en favorisant le conformisme, sans pour autant renier les individus hors normes: ces derniers apparaissent davantage capables de s’adapter à des situations inhabituelles.

Théorie du «crapaud fou»

La diversité des types de cerveaux, ou neurodiversité, permettrait ainsi la survie de l’espèce. C’est l’hypothèse sur laquelle repose également la théorie "du crapaud fou", défendue par le mouvement du même nom, lancé à l'automne 2017 par trente-quatre scientifiques et autres personnalités inclassables. «Le changement commence toujours par les quelques pourcents que l'on traite de fous au départ», écrivent-ils sur leur site.

L’initiative vise à identifier les anticonformistes dans notre société et à les encourager à prendre la parole. Elle emprunte son argumentation à l’étude des animaux:

«Les crapauds vivent dans une zone et se reproduisent dans d’autres. Chaque année, de manière grégaire, tous migrent dans le même sens. Lorsque nous construisons de nouvelles routes en travers, ils se font massivement écraser. Sauf que… quelques-uns vont dans l’autre sens, ou trouvent les tunnels que des écologistes font creuser pour eux sous les routes. Parce qu’ils s’aventurent dans des directions non conventionnelles, ces crapauds fous inventent des voies d’avenir et sauvent l’espèce.»

Pour en revenir à la communauté scientifique, le caractère anticonformiste ne semble pas apporter aux individus une situation confortable. L’absence de reconnaissance par les pairs peut même mener à l’arrêt des recherches, par manque de financement.

L’histoire des sciences montre pourtant l’importance des anticonformistes pour le progrès des connaissances. Qu’en aurait-il été si de grands chercheurs comme Marie Curie ou Albert Einstein n’avaient pas persisté dans leurs travaux? On peut espérer que les neurosciences nous viennent en aide pour mieux repérer de tels individus et, à terme, stimuler le progrès scientifique.

Amandine Bery

 

Suggestions du mois

Les crapauds fous 

 Chaque espèce a ses stratégies pour survivre

Celle des crapauds est d'avoir dans chaque groupe des individus divergents : les crapauds fous.

Malgré les apparences c'est souvent sur eux que repose la survie du groupe. Un exemple à suivre ?

("SN ET ENVIRONNEMENT" "PSYCHO-SOCIAL 2")

 

 Les bienfaits de la curiosité

Dans un monde où nous avons parfois l'illusion d'être informés de tout, que reste-t-il de la curiosité ?
Le récit d'un voyageur du XIVe siècle nous rappelle les vertus d'une qualité éternelle, aujourd'hui fragilisée.

("SN ET ENVIRONNEMENT" "PSYCHO-SOCIAL 2")


Sérendipité : Heureux hasards en médecine

La stimulation cérébrale profonde chez le Malade Parkinsonien : la curiosité du Professeur Benabid.

Des centaines de milliers de malades dans le monde ont pu en bénéficier.

(" MALADIES ET ENVIRONNEMENT" "PARKINSON")

 

Paracelse : un anticonformiste

"... si, d’aventure, il se trouvait un marginal capable de guérir avec des méthodes différentes, on peut être certain qu’il serait accueilli avec joie, fraternité et tolérance par toute la Faculté. C’est probablement pour cela que l’éthique développée par Paracelse n’a pas besoin d’être enseignée : ses critiques ne concernent plus personne ... "

( "SN ET ENVIRONNEMENT"  "HISTOIRE")

 

Les mathématiques de haut niveau, au cœur de l’étude du cerveau

La journée de pi, c'est mercredi 3/14 !

A l'initiative du ministère de l'Éducation nationale, une Semaine des mathématiques se tient chaque année pendant la semaine du 14 mars.

L'occasion de s'intéresser au cerveau mathématicien.

(" SN ET ENVIRONNEMENT" "IMAGERIE")

 

UN GÉNIE PEUT ÊTRE UNE CRUCHE

mars 2018

La fouille d’une nécropole de la ville de Yehud a livré un penseur vieux de presque 4 000 ans !

Le cerveau des génies

 

Wolfgang Amadeus Mozart (1756-1791), a composé son premier opéra à l'âge de 11 ans. Combien d'enfants, ayant reçu la même formation musicale, auraient déployé un tel génie ?

 

Qu'est-ce qui permet aux surdoués de penser différemment ? Sans doute un cerveau plus connecté et qui suit une maturation accélérée au cours de l'enfance et de l'adolescence

Michel Habib

En 2013, les médias diffusèrent divers reportages sur Maximilian, un jeune Suisse âgé de dix ans qui venait de passer son baccalauréat de mathématiques et se préparait à entrer à l'Université. Le père de Maximilian, lui-même professeur de mathématiques, fut longtemps interrogé à la radio ou à la télévision sur le talent de son fils. Le cas ne fut pas sans évoquer l'enfance de Mozart, le compositeur prodige écrivant son premier opéra à l'âge de 11 ans, poussé par un père, lui-même compositeur, et baignant dans un univers tout entier consacré à la musique.

Mais combien d'enfants, mêmes plongés dans pareil environnement, deviendraient Maximilian ou Mozart ? Sans doute moins de un sur 10 000 ! Le génie est l'exemple typique d'une faculté issue de la rencontre entre un milieu, d'une part, et un « potentiel », un « talent » ou encore des « dispositions », d'autre part. Ne dit-on pas que le surdoué possède un don, sans que l'origine de ce don soit connue ? Aujourd'hui, les neurosciences s'intéressent naturellement à ce qui se passe dans le cerveau de ces personnes dotées d'un don particulier. Fonctionnement différent, agencement particulier des neurones ou des aires cérébrales ? Les découvertes récentes nous permettent aujourd'hui de percer quelques secrets des génies.

Un cortex plus plastique

Nous commencerons cette histoire par la fin, au moment où les techniques de mesure du cerveau ont atteint un stade critique de perfectionnement. Ainsi, une équipe de neurobiologistes du Centre américain de la santé du Maryland, conduite par le neuroscientifique Jay Giedd, a examiné, au moyen des techniques d'imagerie cérébrale, le cerveau de 307 hommes et femmes à plusieurs moments de leur vie, de l'enfance jusqu'à l'âge adulte. Cette équipe s'est particulièrement intéressée à l'épaisseur du cortex, la partie la plus externe du cerveau où sont traitées les informations sensorielles et motrices, et où ces sensations sont combinées pour donner lieu à des raisonnements et des intentions. En mesurant l'épaisseur du cortex au fil des ans, il a vu se dégager trois tendances.

Les personnes d'intelligence normale (au quotient intellectuel compris entre 83 et 108) voient leur cortex s'amincir progressivement entre 7 et 19 ans (voir figure 3). Les personnes d'intelligence élevée (entre 109 et 120 points de QI) ont également un cortex qui s'amincit progressivement au fil des ans, mais en partant d'une épaisseur supérieure au début. Enfin, les personnes d'intelligence supérieure (121 à 149, en grande partie des surdoués) présentent un profil nettement différent. À l'âge de sept ans, leur cortex cérébral est beaucoup plus mince que celui des autres enfants. Puis, de 7 à 11 ans, il s'épaissit à un rythme élevé, pour ensuite s'amincir comme les autres, mais plus rapidement.

Que signifie donc ce profil si particulier observé chez les surdoués : un cortex qui s'épaissit, puis s'amincit rapidement, alors qu'il ne fait que s'amincir doucement chez les autres enfants ? L'épaisseur du cortex dépend à la fois du nombre des neurones et de la quantité des connexions (synapses) qui les relient. Chez le tout jeune enfant, ce nombre atteint son maximum entre un et deux ans pour les neurones, et deux et trois ans pour les synapses. D'autres facteurs peuvent moduler l'épaisseur du cortex, par exemple la quantité de cellules gliales (qui entourent, soutiennent et protègent les neurones) et la présence d'une gaine isolante à base de lipides qui entoure les principaux prolongements (axones) des neurones.

Quand le maximum est atteint, le nombre global de neurones dans le cortex tend à diminuer, tout comme celui de synapses. On pense que l'élimination de certaines synapses permet l'apprentissage en créant des voies privilégiées de traitement de l'information. Dans ces conditions, il est assez naturel d'observer un amincissement du cortex chez les personnes d'intelligence moyenne ou élevée.

Le fait que le cortex continue de s'épaissir chez l'enfant surdoué jusqu'à l'âge de 11 ans suggérerait que ce processus pourrait être décalé : les neurones continueraient de développer leurs connexions et leurs arborisations à l'âge où se mettent en place les premiers apprentissages, tels que la lecture ou les mathématiques, créant des voies de traitement de l'information qui mobilisent du matériel neuronal de façon dynamique. Ensuite, la phase d'élagage et d'élimination des synapses serait plus rapide, permettant l'acquisition de nouvelles compétences avec une efficacité accrue.

Les mécanismes à l'œuvre dans le cerveau en phase de construction sont multiples et étroitement imbriqués. Le schéma proposé ici n'est donc qu'une façon d'imaginer ce qui se produit chez les surdoués. Une certitude demeure : le cortex des surdoués semble plus changeant et plastique que celui des personnes d'intelligence normale.

La raison de cette différence biologique est difficile à identifier. Des facteurs génétiques seraient en cause, même si leur complexité et leur nombre rendent sans doute illusoire la recherche de bases génétiques de l'intelligence. Mais l'environnement initial dans lequel grandit l'enfant joue certainement un rôle, les expériences du psychologue canadien Donald Hebb ayant montré, dès les années 1950, que les milieux dits enrichis (comportant de nombreuses stimulations) accélèrent la production de neurones dans le cerveau.

 Deux faisceaux de fibres neuronales dans le cerveau des surdoués sont plus développées que chez les sujets moyens. Il s'agit du faisceau longitudinal (en bleu clair) et du faisceau arqué (en vert). Ces structures reliant des territoires éloignés du cortex peuvent ainsi coopérer plus efficacement.

Un câblage hors normes

Mais il n'y a pas que l'épaisseur du cortex qui change chez les surdoués. Les voies de communication entre différentes parties du cerveau jouent aussi un rôle déterminant. Ces connexions sont formées de faisceaux de fibres ressemblant à des câbles optiques et que les récents clichés obtenus par imagerie par tenseur de diffusion ont permis de visualiser.

Il y a quelques mois, des chercheurs madrilènes ont observé ces faisceaux de fibres (aussi nommés substance blanche, car les produits chimiques utilisés initialement pour leur conservation en laboratoire les faisaient apparaître blancs) chez des adolescents âgés de 12 à 14 ans d'intelligence moyenne et chez des surdoués en mathématiques. Ils ont constaté deux types de faisceaux de fibres plus denses et robustes : d'une part, le corps calleux qui relie les deux hémisphères cérébraux ; d'autre part, le faisceau longitudinal qui relie le cortex frontal (à l'avant du cerveau) et le cortex pariétal (à l'arrière du cerveau). Ainsi, chez ces surdoués en mathématiques, la communication entre les deux hémisphères, mais aussi entre les parties antérieures et postérieures du cerveau, serait plus concertée et efficace.

Effectivement, le développement de ces fibres de substance blanche semble lié à l'intelligence : plus le QI est élevé, plus ces deux structures semblent développées. Plusieurs études ont confirmé l'existence d'un lien statistique entre l'intelligence mesurée et la taille des faisceaux de substance blanche, principalement du faisceau arqué, et surtout de sa partie moyenne nommée territoire de Geschwind, plaque tournante des informations sensorielles, dont les neurones se projettent sur les aires impliquées dans la motricité.

Parmi ces études, citons celle du neuroscientifique japonais Hikaru Takeushi de l'Université de Sendai. Il a mesuré les différents faisceaux de substance blanche et a relié ces résultats au degré de créativité, qu'il évaluait grâce à une forme particulière d'intelligence nommée « pensée divergente », la capacité d'imaginer plusieurs solutions à un problème en proposant des idées nouvelles. Cette faculté peut se mesurer au moyen de questionnaires où les questions posées sont, par exemple : « En plus de la lecture, à quoi peut servir un journal ? » (par exemple, à envelopper les objets) ; « Quelles sont les caractéristiques d'un bon téléviseur ? » (recevoir des émissions du monde entier) ; « Qu'arriverait-il s'il n'y avait plus de souris sur Terre ? » (par exemple, le monde serait plus propre).

Plusieurs types de mesure sont alors effectués : la fluence – ou aptitude à donner le plus grand nombre de réponses différentes –, la flexibilité – ou capacité à donner des réponses relevant de champs différents –, l'originalité – ou caractère inattendu et peu commun des réponses –, et enfin l'élaboration – ou aptitude à offrir des réponses détaillées. Le tout fournit un score de créativité que les chercheurs ont trouvé être directement lié à ces structures du cerveau déjà évoquées : le faisceau arqué et une portion du corps calleux.

Les preuves convergent donc vers un rôle particulier joué par ces faisceaux de substance blanche. En 2008, Jessica Tsang et son équipe de l'Université Bar-Ilan en Israël ont constaté que les compétences mathématiques de jeunes élèves âgés de 10 à 15 ans étaient reliées à la densité de fibres dans le faisceau arqué qui, rappelons-le, relie les aires frontales et pariétales du cerveau.

La puissance des réseaux

Quel est le rôle de ces câbles de substance blanche ? Pourquoi semblent-ils associés à des facultés particulières chez les enfants ? La substance blanche permet de véhiculer l'information sur de grandes distances au sein du cerveau, de sorte que des territoires distants peuvent travailler ensemble pour résoudre des problèmes. Le faisceau arqué, par exemple – dont la densité semble associée au score de quotient intellectuel – relie les régions corticales postérieures aux parties inférieures du lobe frontal. Le corps calleux, quant à lui, permet aux deux hémisphères de communiquer. Et le faisceau longitudinal, l'ensemble de fibres connectant les parties frontales et pariétales du cerveau, est particulièrement développé chez les surdoués en mathématiques.

Insistons sur ce dernier point. La communication renforcée entre les parties frontales et pariétales du cerveau semble constituer une composante clé du très haut potentiel intellectuel. Des spécialistes de l'étude des jeunes à haut potentiel, les psychologues américains Rex Jung et Richard Haier, ont recensé 37 études sur ce sujet et constaté qu'elles pointent vers l'implication de réseaux de neurones particulièrement intégrés entre les parties frontales et pariétales du cerveau chez ces sujets. Ils ont alors proposé une théorie dite de l'intégration fronto-pariétale pour rendre compte de certaines formes d'intelligence.

La théorie fronto-pariétale de l'intelligence

Cette vision repose sur un certain nombre d'observations : celles du neuroscientifique John Geake, de l'Université d'Oxford, par exemple, qui a constaté que ces réseaux fronto-pariétaux sont particulièrement actifs lors de tâches faisant intervenir ce que l'on nomme l'intelligence fluide (qui permet de produire des réponses multiples et variées à un problème, par exemple « si abc donne abd, que donne kij ? ») par opposition à une forme d'intelligence dite cristallisée, qui suppose de trouver la solution unique à un problème (« si abc donne abd, que donne ijk ? »).

D'autres neuroscientifiques en Corée ont enregistré l'activité cérébrale chez des sujets passant des tests de quotient intellectuel évaluant l'intelligence générale, à savoir la capacité à obtenir des scores d'intelligence élevés indépendamment du type de test passé, qu'il s'agisse de tests verbaux ou purement géométriques par exemple. Ils ont constaté que chez les sujets ayant une intelligence générale supérieure à 99 pour cent de la population, les réseaux fronto-pariétaux s'activent beaucoup plus que chez les personnes ayant une intelligence générale légèrement au-dessus de la moyenne de la population.

Enfin, l'implication du réseau fronto-pariétal est aussi observée chez les surdoués en mathématiques. L'équipe du neuroscientifique Michael O'Boyle, à l'Université du Texas, a ainsi constaté que, chez ces surdoués, ces réseaux fronto-pariétaux s'activent lors de tâches consistant à faire tourner mentalement une figure géométrique, ce qui n'est pas le cas chez des sujets « normaux ».

Pourquoi le développement particulier de telles connexions entre l'avant et l'arrière du cerveau procure-t-elle des capacités mentales hors du commun ? Selon le neuroscientifique Marcus Raichle, le réseau fronto-pariétal remplirait des fonctions de « contrôle cognitif », permettant de prendre en compte les informations extérieures et de puiser dans les connaissances stockées en mémoire. Chacune de ces deux fonctions semble reposer sur des réseaux de neurones distincts, l'un parcourant la partie supérieure et dorsale du cerveau, l'autre mobilisant des régions plus internes dont l'hippocampe et le cortex préfrontal. Le réseau fronto-pariétal, de par sa localisation intermédiaire par rapport à ces deux systèmes, permettrait de réguler leur activité de façon optimale pour les faire interagir efficacement.

Quand le surdoué se repose

Être surdoué, c'est donc avoir un cerveau où certaines connexions seraient peut-être plus robustes ou efficaces, se traduisant par un fonctionnement cérébral particulier dans certaines tâches. Mais que font les surdoués lorsqu'on ne leur demande pas de résoudre des équations ardues ? Leur cerveau fonctionne, là aussi, différemment. C'est le constat fait par certaines études où l'IRM fonctionnelle est utilisée non plus pour observer les zones cérébrales activées lors d'une tâche mentale, mais pour repérer celles qui ont tendance à s'activer simultanément quand la personne est au repos. Les régions qui s'activent de façon conjointe sont considérées comme connectées les unes aux autres, au moins sur un plan fonctionnel – et probablement aussi par des fibres de substance blanche.

Cette approche dite de « connectivité au repos » a permis de montrer que les sujets à haut potentiel présentent une plus forte connectivité dans le lobe frontal et entre les lobes frontaux et pariétaux, y compris lorsque ces sujets ne font rien de particulier. Le fait que cette différence existe même au repos prouve que les enfants précoces diffèrent des autres par une caractéristique de leur cerveau, déjà perceptible en l'absence de toute tâche cognitive.

Mais alors, d'où vient cette connectivité si particulière au cerveau des surdoués ? « La vertu ne s'apprend pas plus que le génie », disait Schopenhauer, une autre façon de dire que la question du caractère inné de ces très hauts potentiels reste intacte. Et elle sera très difficile à trancher, car les recherches en génétique, tout en faisant apparaître une composante héréditaire pour l'intelligence, ne laissent guère entrevoir un nombre limité de gènes qui sous-tendraient ces particularités. Génétique et neurosciences sont encore loin de nous avoir livré le code du génie !

Suggestions du mois :

La légende noire des surdoués
 
Si l’on en croit ce qu’on lit dans les médias et dans les livres spécialisés, les surdoués sont les véritables damnés de la Terre: ils sont en échec scolaire, inadaptés, hypersensibles, anxieux, dépressifs, dyslexiques, et plus si affinités. Comment est-ce possible, alors que le sens commun suggèrerait au contraire que les enfants les plus intelligents ont les meilleures chances de réussite dans tous les domaines ? Dans cet article, nous allons montrer que la plupart de ces allégations, sinon toutes, sont des mythes sans fondement.

"ENVIRONNEMENT ET SN" "PSYCHO-SOCIAL1"
*
Émile Zola : entre génie et folie

Le grand écrivain français était-il un génie un peu fou ? Au XIX° siècle, différents médecins et psychiatres, dont Édouard Toulouse, étudièrent son esprit sous tous les angles.

"ENVIRONNEMENT ET SN" "PSYCHO-SOCIAL1"

*
 

Fabriquer des surdoués grâce à la génomique ?

Et si la génomique permettait de localiser les gènes du très haut potentiel intellectuel ? C'est le projet démiurgique de chercheurs chinois... pour améliorer la population.

"ENVIRONNEMENT ET SN" "GÉNÉTIQUE"


 

LA MÉMOIRE : D'UN ART HERMÉTIQUE  À L'ENCYCLOPÉDIE PARTICIPATIVE

février 2018

Giotto. Chapelle des Scrovegni de Padoue . 1303/1306

L'ART PERDU DE LA MÉMOIRE

Mnémosyne d'après Dante Gabriel Rossetti, 1875-1881, Delaware Art Museum. Le mot « mémoire » vient de la déesse Mnémosyne. Mystérieuse, elle n’a laissé aucune représentation dans l’Antiquité. Il a fallu le talent de Rossetti pour l’imaginer.

 

Avant l’avènement du livre imprimé, c’était la mémoire qui régissait la vie quotidienne aussi bien que le savoir occulte. « L’art qui conserve tous les arts » (Ars artium omnium conservatrix) : ce titre donné plus tard à l’imprimerie aurait pu être le sien. C’était la mémoire des individus et des communautés qui véhiculait le savoir à travers le temps. Pendant des millénaires, ce fut elle, la mémoire personnelle, qui régna sur les divertissements comme sur l’information, sur la transmission et le perfectionnement des techniques, la pratique du commerce et celle des diverses professions. C’était par elle et en elle qu’étaient engrangés, préservés, accumulés les fruits de l’éducation. Elle était une faculté impressionnante, que chacun se devait de cultiver selon des méthodes et pour des raisons que nous avons depuis longtemps oubliées. Depuis cinq siècles, nous ne voyons plus de cet empire, de ce pouvoir de la mémoire, que quelques pitoyables vestiges. 

À cette réalité qui gouvernait leur vie, les Grecs donnèrent une forme mythologique. La déesse de la mémoire (Mnémosyne), était de la race des Titans, fille d’Uranus (le ciel) et de Gaia (la Terre) ; elle était aussi la mère des neuf Muses. Celles-ci, selon la légende, étaient la poésie épique (Calliope), l’histoire (Clio), la flûte (Euterpe), la tragédie (Melpomène), la danse (Terpsichore), la lyre (Erato), le chant sacré (Polymnie), l’astronomie (Uranus) et la comédie (Thalie).                                                      

Lorsque les neuf filles du roi Piéros les défièrent, dit-on, dans un concours de chant, leur punition fut d’être changées en pies, tout juste capables de répéter inlassablement une même note. Chacun avait besoin de la mémoire. Tout comme les autres arts, elle pouvait être cultivée et l’on connaissait d’habiles moyens de la parfaire. Elle possédait ses virtuoses que l’on admirait. Ce n’est qu’à une époque toute récente que les « exercices de mémoire » sont devenus un sujet de dérision et un refuge pour charlatans.  Les arts traditionnels de la mémoire, dont Frances A. Yates a retracé l’histoire avec tant de charme, prospérèrent en Europe pendant des siècle.

L’inventeur de la mnémotechnie fut, dit-on, le poète lyrique grec Simonide de Céos (env. 556-468 ? av. J.-C.). Homme aux talents variés, il semble par ailleurs avoir été le premier à accepter le paiement de ses poèmes. Cicéron, lui-même connu pour l’excellence de sa mémoire, nous conte dans son ouvrage sur l’art oratoire les origines de la réputation de Simonide. Lors d’un banquet que Scopas donnait en sa maison de Thessalie, le poète avait été invité à chanter, moyennant finances, les louanges de son hôte. En fait, seule une moitié de ses vers furent dédiés à Scopas, le reste de son chant étant un éloge des divins jumeaux, Castor et Pollux. Scopas, irrité, refusa de payer davantage que la moitié de la somme promise. De nombreux invités étaient encore attablés lorsqu’on vint dire à Simonide que deux jeunes gens l’attendaient à la porte. Il sortit et ne vit personne. Bien entendu, ces mystérieux visiteurs n’étaient autres que Castor et Pollux en personne ; ils avaient trouvé ce moyen de récompenser Simonide pour leur part du panégyrique. En effet, à peine le poète avait-il quitté la salle que le toit s’écroulait, enfouissant tous les autres convives sous un monceau de décombres. Lorsque les parents des victimes vinrent chercher les cadavres pour leur rendre les derniers honneurs, il fut impossible de les identifier tant ils étaient défigurés. C’est alors que Simonide exerça sa remarquable mémoire,  indiquant à chacun des parents endeuillés quel était le corps qui leur revenait. Il se souvenait parfaitement de leur place avant l’accident, et c’est ainsi qu’il put identifier les dépouilles - illustration ci-contre -. 

 
 
 

Cette expérience devait lui suggérer la forme classique de l’art de la mémoire dont il est censé être l’inventeur. Cicéron, pour qui  la mémoire était l’une des cinq composantes de la rhétorique, explique ainsi la démarche de Simonide :

Il déduisit que les personnes désireuses d’éduquer cette faculté devaient choisir des lieux, puis former des images mentales des choses dont elles souhaitaient se souvenir ; elles pourraient alors emmagasiner les images dans ces différents lieux, de sorte que l’ordre de ces derniers préserveraient l’ordre des choses, tandis que les images évoqueraient les choses elles-mêmes ; nous utiliserions ainsi les lieux et les images de la même façon qu’une tablette de cire et les lettres qu’on y trace.

L’art de Simonide, qui domina la pensée européenne pendant tout le Moyen Âge, était donc fondé sur deux principes simples, celui des lieux (loci) et celui des images (imagines) ; ces principes allaient servir de base durable aux procédés mnémotechniques des rhéteurs, des philosophes et des savants.

L’ouvrage le plus couramment utilisé fut un traité écrit vers 86-82 avant J.-C. par un maître de rhétorique romain. Ce texte, connu sous le nom de Ad Herennium - illustration ci-contre-, sa dédicace, était d’autant plus estimé que certains en attribuaient la rédaction à Cicéron lui-même. L’autre grand maître latin de la rhétorique, Quintilien (env. 35-95 de notre ère), devait préciser les choses en élaborant une méthode « architecturale » destinée à graver la mémoire de lieux.  Pensez, dit-il, à un grand bâtiment dont vous traverserez successivement les nombreuses salles en en mémorisant tous les ornements et le mobilier. Attribuez ensuite une image à chacune des idées dont vous désirez vous souvenir et, traversant à nouveau le bâtiment, déposez chacune de ces images selon cet ordre dans votre imagination. Si, par exemple, vous déposez mentalement une lance dans le salon et une ancre dans la salle à manger, vous saurez, plus tard, qu’il vous faut parler d’abord de la guerre et ensuite de la marine … Ce système n’a rien perdu de son efficacité.

Au Moyen Âge, il s’établit tout un jargon technique distinguant entre la mémoire « naturelle », que chacun possède en naissant et qu’il utilise sans aucun entraînement particulier, et la mémoire « artificielle », que l’on peut développer. Les techniques étaient différentes selon qu’il s’agissait de mémoriser des choses ou des mots, les opinions variaient quant au lieu où on devait se trouver pour faire ses exercices, et quant aux endroits les plus appropriés pour servir d’entrepôt imaginaire aux loci et images de la mémoire. Certains maîtres conseillaient de choisir un endroit tranquille où l’esprit puisse procéder à son travail de fixation sans être gêné par les bruits ambiants ou le passage des gens. Bien entendu, une personne observatrice et qui avait voyagé possédait l’avantage de pouvoir s’équiper de « lieux » nombreux et variés. Il n’était pas rare à l’époque de voir les étudiants en rhétorique arpenter fébrilement l’intérieur de bâtiments déserts, notant la forme et l’ameublement de chaque pièce afin de fournir à leur imagination les moyens d’une mise en mémoire.

 
 
 

 Sénéque le Père -illustration ci-contre- (v.55 av. J.-C./ 37 ap. J.-C.), célèbre professeur de rhétorique, était capable, disait-on, de reproduire fidèlement de longs passages de discours qu’il n’avait entendus qu’une seule fois, bien des années auparavant. Il impressionnait vivement ses élèves en demandant à une classe de deux cents d’entre eux de réciter chacun un vers tiré de quelque poésie, pour les répéter tous, ensuite, dans l’ordre inverse. Quant à Saint Augustin, qui avait lui aussi, à ses débuts, enseigné la rhétorique, il cite avec admiration le cas d’un de ses amis qui pouvait réciter tout Virgile – à l’envers.

 Les exploits, et surtout les acrobaties, de la mémoire « artificielle » étaient fort appréciés. « La mémoire, dit Eschyle, est la mère de toute sagesse.» Opinion partagée par Cicéron : «  La mémoire est trésor et gardien de toutes choses. » À l’apogée de la mémoire, avant la diffusion de l’imprimerie, la mnémotechnie était une nécessité pour l’amuseur, le poète et le chanteur, tout comme pour le médecin, l’homme de loi ou le prêtre. 

 
 
 

Les premières grandes œuvres épiques d’Europe naquirent de la tradition orale, ce qui revient à dire qu’elles furent préservées et récitées grâce aux arts de la mémoire. L’Iliade et l’ Odyssée - illustration ci-contre- se transmirent d’abord de bouche à oreille.  Pour désigner le poète, Homère emploie le mot « chanteur » (aoidos). Et ce « chanteur », avant Homère, semble avoir été celui qui récitait un seul poème, suffisamment court pour être dit en une seule fois devant le même auditoire. Le brillant chercheur américain Milman Parry nous a décrit, en Serbie musulmane, la survivance d’une pratique similaire, sans doute proche de celle de l’antiquité homérique. Il montre qu’à l’origine la longueur du poème était fonction de la patience des auditeurs et de l’étendue du répertoire de chaque chanteur. La grandeur d’Homère quelle que soit, par ailleurs, la réalité que recouvre ce nom – homme, femme ou ensemble de personnes – est d’avoir songé à réunir divers chants d’une heure en un seul poème épique, plus ambitieux dans son propos, plus développé dans ses thèmes et de structure complexe.

Les premiers livres de la Méditerranée antique furent écrits sur des feuilles de papyrus collées à la suite les unes des autres puis roulées. Le déroulement de ces livres était peu commode, et lorsque l’opération se répétait trop souvent, elle avait pour effet d’effacer l’écriture. Comme il n’y avait pas de pages numérotées, la vérification d’une citation était si fastidieuse que les gens préféraient s’en remettre à leur mémoire.

C’est par la mémoire aussi qu’étaient conservées les lois, avant de l’être par des documents. La mémoire collective fut donc le premier registre d’archives légales. Le droit coutumier anglais était un usage « immémorial », c’est-à-dire qui remontait en fait « aussi loin que mémoire d’homme n’avait point de souvenir contraire ». Sir William Blackstone -illustration ci-contre- pouvait écrire en 1765 : « Jadis, l’ignorance des lettres était, dans le monde  occidental, aussi profonde qu’universelle. Elles étaient figées dans la tradition, et ceci pour la simple raison que les nations n’avaient qu’une faible idée de ce que pouvait être l’écriture. Ainsi, les druides celtes et gaulois s’en remettaient à leur mémoire pour leurs lois comme pour leur savoir ; parlant des Saxons primitifs qui s’établirent en notre pays ou leurs frères du continent, on a pu dire : leges sola memoria et usu retinebant *. »

* Ils ont retenu les lois uniquement par la mémoire et l'usage

 
 
 

 Rites et liturgie étaient également préservés par la mémoire, avec les prêtres pour gardiens. De fréquents services religieux servaient à fixer les prières et le rituel dans l’esprit des jeunes fidèles. La prépondérance des textes versifiés et de la musique en tant que procédés mnémotechniques témoigne de l’importance que pouvait avoir la mémoire en ces temps d’avant l’imprimerie. Pendant des siècles, l’ouvrage de base pour la grammaire latine fut le Doctrinale, écrit au XIIe siècle par Alexandre de Villedieu, et qui se composait de deux mille vers de mirliton. Ces règles en vers étaient plus faciles à retenir, même si leur grossièreté était telle qu’elle consterna Aldus Manutius lorsqu’en 1501 il eut à réimprimer l’ouvrage.

Pour les philosophes scolastiques du Moyen Âge, il ne suffisait pas que la mémoire fût un procédé; ils en firent une vertu, l'un des aspects de la prudence. Après le XIIe siècle et la réapparition, sous forme de manuscrit, du classique Ad Herennium, les scolastiques semblent s'être intéressés bien moins à la technique de la mémoire qu'à son aspect moral. Il s'agissait de savoir en quoi elle pouvait encourager à une vie chrétienne.

Saint Thomas d'Aquin (1225-1274), proclament ses biographes, se souvenait parfaitement de tout ce qu'on lui avait enseigné à l'école. À Cologne, Albert le Grand l'avait aidé à développer sa mémoire. Les paroles des Pères de l'Église que Thomas rassembla pour Urbain IV après avoir visité de nombreux monastères furent couchées sur le papier non pas d'après des notes prises de sa main, mais au seul souvenir des textes qu'il avait parcourus. Il lui suffisait de lire un texte pour le retenir. Dans la Summa Theologiae (1267-1273), il reprend la définition de Cicéron, pour qui la mémoire est un élément de la prudence, et en fait l'une des quatre vertus cardinales. Puis il propose quatre règles pour le perfectionnement de cette mémoire, qui prévaudront jusqu'au triomphe du livre imprimé et seront inlassablement reproduites.  Si Lorenzetti et Giotto peignirent les vertus et les vices, ce fut surtout, comme l'explique Frances A. Yates, pour aider le public à appliquer les règles thomistes de la mémoire artificielles. La fresque de la salle capitulaire de Santa Maria Novella, à Florence, offre à la mémoire du spectateur une représentation frappante de chacune des quatre vertus cardinales de saint Thomas ainsi que de leurs différentes parties. "Nous devons nous souvenir assidûment des joies invisibles du Paradis et des tourments éternels de l'Enfer",  peut-on lire dans cet ouvrage fondamental du Moyen Âge qu'est le traité de Boncompagno. Pour celui-ci, la liste des vertus et des vices n'est qu'une série de "mémoratifs" dot le but est d'aider l'âme pieuse à fréquenter "les chemins de souvenance".

Dans la Divine Comédie de Dante (ci-contre), avec son plan de l'Enfer, du Purgatoire et du Paradis, lieux et images, conformément aux préceptes de Simonide et de saint Thomas, nous sont présentés de façon prégnante et dans un ordre facile à retenir. Sans compter d'autres exemples plus humbles. Les manuscrits des moines anglais du XIVe siècle contiennent des descriptions - l'idolâtrie en prostituée, par exemple-  dont le but n'est pas tant d'être perçues par l'œil du lecteur que de fournir à sa mémoire des images invisibles. 

 
 
 

Pétrarque (1304-1374)avait lui aussi la réputation d'être une autorité quant à la mémoire et à la meilleure façon de la cultiver. Il propose ses propres règles pour le choix des "lieux" où emmagasiner les images pour un usage ultérieur. L'architecture imaginaire de la mémoire, dit-il, doit comporter des lieux de rangement d'une taille moyenne, ni trop vastes ni trop petits pour l'image qu'il s'agit d'y mettre en réserve.

 Lorsque naquit l'imprimerie, d'innombrables systèmes avaient été élaborés au service des arts de la mémoire. Au début du XVIe siècle, l'ouvrage le plus connu du genre était un texte pratique, Phœnix, sive Artificiosa Memoria (Venise, 1491). Ce manuel connut une grande popularité, comme en témoignent les nombreuses rééditions et traductions dont il fut l'objet. L'auteur Pierre de Ravenne y assure que les meilleurs loci sont ceux d'une église déserte. Une fois celle-ci trouvée, dit-il, il faut en faire le tour trois ou quatre fois en fixant dans son esprit tous les endroits où l'on déposera par la suite ses images mnémotechniques. Chaque locus devra être distant de cinq à six pieds des autres. Pierre se vante d'avoir pu, tout jeune encore, fixer de la sorte près de 100 000 lieux mémoratifs ; par la suite, ses voyages lui permirent d'en ajouter des milliers d'autres. L'efficacité de son système, disait-il, se trouvait suffisamment démontrée par le fait qu'il était capable de reproduire mot pour mot l'ensemble du droit canon, deux cents discours de Cicéron et vingt mille  points de droit civil.

Après Gutenberg, tout ce que la mémoire avait, dans la vie quotidienne, à la fois régi et servi passa désormais sous l'égide de la page imprimée. À la fin du Moyen Âge, les livres manuscrits avaient été, parmi la classe restreinte des lettrés, une aide, un substitut parfois, à la mémoire. Mais le livre imprimé était infiniment plus transportable; il était aussi plus exact, plus facile à consulter, et touchait, bien sûr, un public plus large. Ce qui s'imprimait d'un auteur était connu de l'imprimeur, du correcteur et de quiconque se trouvait avoir en main la page imprimée. On pouvait maintenant se référer aux règles grammaticales, aux discours de Cicéron, aux textes théologiques, au droit canon, à la morale sans avoir à les porter en soi.

Le livre imprimé était un nouveau dépositaire de la mémoire, supérieur de mille manières à ces réserves individuelles, intérieures et invisibles, que chacun avait pu constituer jusqu'alors.Déjà, lorsque le codex de pages manuscrites reliées avait remplacé le long rouleau des origines, il était devenu bien plus commode de faire référence à une source écrite.

Après le XIIe siècle, certains livres manuscrits comportent même des tables, des titres courants, voire des index rudimentaires, ce qui montre que la mémoire commence alors à perdre du terrain. Mais la recherche deviendra plus facile encore lorsque les livres imprimés auront des pages de titre et des pages numérotées. El lorsqu'ils seront équipés d'un index - ce qui est le cas dès le XVIe siècle pour certains ouvrages-, le travail de la mémoire ne consistera plus qu'à connaître par cœur l'ordre alphabétique. Avant la fin du XVIIIe siècle, l'index alphabétique placé à la fin du livre était devenu chose courante. Les procédés mnémotechniques, bien qu'encore nécessaires, perdirent une bonne part de l'importance qu'ils avaient eue dans les hautes sphères de la religion, de la pensée et du savoir. Les performances spectaculaires cessèrent d'être admirées, devenant de simples curiosités.

Certaines des conséquences de cet état de choses avaient été annoncées quelque deux mille ans plus tôt. Dans son dialogue avec Phèdre, tel qu'il nous est rapporté par Platon, Socrate, en effet, regrette que le dieu égyptien Thot, inventeur de l'écriture, ait mal pesé les conséquences de son invention. Le dieu Thamos, alors roi d'Égypte, lui en fait le reproche : "Toi, père de l'écriture' tu lui attribues une efficacité contraire à celle dont elle est capable; car elle produira l'oubli dans les âmes en leur faisant négliger la mémoire; confiants dans l'écriture, c'est du dehors, par des caractères étrangers, et non plus du dedans, du fond d'eux-mêmes, que ceux qui apprennent chercheront à susciter leurs souvenirs; tu as trové le moyen, non pas de retenir, mais de renouveler le souvenir; et ce que tu vas procurer à tes disciples, c'est la présomption qu'ils ont la science, non la science elle-même; car, quand ils auront beaucoup lu sans apprendre, ils se croiront très savants, et ils ne seront le plus souvent que des ignorants de commerce incommode, parce qu'ils se croiront savants sans l'être"

 
 
 

Si déjà la parole écrite, selon Socrate, comportait pareils dangers, alors combien de fois ceux-ci allaient-ils être multipliés par l'introduction du texte imprimé ?

Victor Hugo nous le suggère avec bonheur dans un passage bien connu de Notre-Dame de Paris (1831)*. Le savant, tenant en main son premier livre imprimé, se détourne de ses manuscrits et, regardant la cathédrale : "Ceci, dit-il, tuera cela." L'imprimerie allait également détruire "les cathédrales invisibles de la mémoire", dès lors qu'il n'était plus indispensable d'associer choses ou idées à des images frappantes pour les mettre dans les lieux de mémoire.

Mais l'ère qui vit décliner l'empire de la mémoire sur le quotidien fut aussi celle de l'émergence du néo-platonisme,  cet empire nouveau, mystérieux, où tout était caché, secret, occulte. Ce renouveau des idées platoniciennes en pleine Renaissance redonna vie et importance à la mémoire. Platon, en effet, disait que l'âme "se  souvient" des formes idéales. Or voici que toute une constellation de talentueux mystiques inventait une nouvelle technologie de la mémoire. Elle cessait d'être un simple aspect de la rhétorique, une servante du discours, pour devenir une alchimie, un lieu d'entités ineffables; l'art hermétique découvrait les replis cachés de l'âme humaine. L'étrange théâtre de la Mémoire de Giulio Camillo, que l'on put voir à Venise et à Paris, proposait ses "lieux" non plus comme de simples commodités destinées au classement des souvenirs, mais, disait-il, dans le but de révéler " la nature éternelle des choses en des lieux éternels". Membres de l'Académie néo-platonicienne qu'avait fondée à Florence Cosme de Médicis, Marsile Ficin (1433-1499) et Pic de la Mirandole - illustration ci-contre - (1463- 1494) incorporèrent à leur fameuse philosophie tout un art occulte de la mémoire. 

 
 
 

L'explorateur le plus remarquable de ces continents obscurs fut un vagabon inspiré, Giordano Bruno (1548- 1600). Dans sa jeunesse, il avait été moine, à Naples, où les dominicains l'avaient instruit dans leur art fameux de ma mémorisation. Lorsqu'il quitta son ordre, les laïcs espérèrent qu'il leur révèlerait quelques-uns de ses secrets. Ils ne furent pas déçus. Dans son livre Circé, ou les Ombres des Idées (1582), Bruno leur faisait savoir que cette habileté particulière n'était ni naturelle ni magique, mais qu'elle était le produit d'une science. L'ouvrage s'ouvre par une incantation émanant de Circé en personne, puis évoque l'étrange pouvoir que possèdent  les décans du Zodiaque et les images qui les représentent. Les images sidérales, ombres des Idées, représentant des objets célestes, sont donc plus proches de la réalité que celles du monde transitoire d'ici-bas. Son système consistant à " se souvenir de ces ombres d'Idées, contractées pour une lecture intérieure" à partir des images célestes, devait permettre ainsi à ses disciples d'accéder à un plan supérieur.

" Il s'agit de donner forme au chaos informel. (...) Pour le contrôle de la mémoire, il faut que les nombres et les éléments soient disposés dans un certain ordre (...) à l'aide de certaines formes mémorable (les images du Zodiaque) ... J'affirme que, si vous méditez attentivement ces choses, vous atteindrez un art si justement figuratif que non seulement il vous aidera en votre mémoire, mais aussi, de façon merveilleuse, en tous les pouvoirs de votre âme"

 

Un moyen garanti d'accéder à l'Un qui se cache derrière la multiplicité des choses, de parvenir à l'Unité Divine !

Mais la mémoire au quotidien ne retrouva jamais l'importance qu'elle avait eue avant l'avènement du papier et de celui de l'imprimerie. Elle perdit de son prestige. En 1580, Montaigne écrit qu'une bonne mémoire est généralement synonyme d'absence de jugement. Et les intellectuels  du temps de renchérir : " Rien n'est plus commun, disaient-ils, qu'un imbécile doué de mémoire".

 
 
 

 

Au cours des siècles qui suivirent l'invention de l'imprimerie, l'attention allait se déplacer des techniques de mémorisation à la pathologie de la mémoire. En cette fin du XXe siècle, les chercheurs mettent plutôt l'accent sur l'aphasie, l'amnésie, l'hystérie, l'hypnose et, bien entendu, la psychanalyse, tandis que les pédagogues se détournent des arts de la mémoire au profit de l'art d'apprendre, conçu, de plus en plus, comme un processus social.

Dans le même temps se manifeste un regain d'intérêt pour l'art de l'oubli. Selon Cicéron, lorsque Simonide offrit à Thémistocle de lui enseigner l'art de la mémoire, l'homme d'État athénien refusa, disant : " Ne m'apprends pas à me souvenir, mais plutôt à oublier, car je me souviens de choses que je préfèrerais laisser dans l'oubli, tandis que je ne puis oublier ce que je souhaiterais effacer de ma mémoire".

 L'étude de l'oubli devint un des secteurs de pointe de la psychologie moderne, pour laquelle les processus mentaux devaient avant tout être examinés de façon expérimentale et mesurés. " La psychologie, déclare Hermann Ebbinghaus (1850-1909), a un long passé, mais son histoire est courte." Ses expériences, que William James qualifie d' "héroïques", étaient aussi remarquablement simples. Décrites dans l'ouvrage intitulé De la mémoire, contribution à la psychologie expérimentale (1885), elles jettent les bases de toute la psychologie moderne.

Pour les expériences, Ebbinghaus utilise des syllabes dépourvues de sens. En prenant deux consonnes au hasard, et en y intercalant une voyelle, il obtient quelque deux mille trois cents phonèmes mémorisables (et oubliables), qu'il dispose ensuite en séries. Ces syllabes présentaient l'avantage d'éviter toute association. Pendant deux années, il se prit lui-même comme cobaye afin de tester les capacités de mémorisation et de reproduction de ces syllabes, prenant scrupuleusement note de chaque expérience, des temps nécessaires à la remémoration, des intervalles entre deux tentatives. Il expérimenta également les techniques de "réapprentissage". Ses travaux auraient pu être de peu d'utilité s'il n'avait eu la passion des statistiques.

Ce livre était dédié à Gustave Fechner (1801- 1887) qui avait commencé l'étude des perceptions sensorielles. Ebbinghaus espérait que ces dernières ne seraient plus seules "à faire l'objet d'un traitement expérimental et quantitatif" , mais que les phénomènes proprement mentaux pourraient être abordés de la même manière. La "courbe d'Ebbinghaus" montrait l'existence d'une corrélation entre l'oubli et le temps. Les résultats de ses expériences, qui conservent aujourd'hui toute leur valeur, montraient que l'on oublie le plus souvent peu de temps après avoir "appris".

 
 
 

C'est de cette manière inattendue que débuta le balisage de notre monde intérieur au moyen d'instruments offerts par les mathématiques. D'autres expérimentateurs, cependant, poursuivant la tradition néo-platonicienne, continuaient à s'intéresser aux mystères de la mémoire. Ebbinghaus lui-même avait étudié "la résurgence involontaire des images mentales, passant des ténèbres de la mémoire à la lumière de la conscience". Quelques autres psychologues s'engouffrèrent derrière lui dans ces "ténèbres" de l'inconscient, affirmant qu'ils venaient d'inventer une "science" nouvelle.

Les fondateurs de la psychologie moderne portaient un intérêt croissant aux phénomènes d'oubli, tels qu'ils se manifestent dans la vie quotidienne. L'incomparable William James (1842-1910) écrivait ceci : " Dans l'usage pratique de notre intellect, l'oubli possède une fonction aussi importante que la mémoire ... Si nous nous souvenions de tout, nous serions, dans la plupart des cas, aussi mal lotis qu'en ne nous souvenant de rien. Pour nous rappeler une période écoulée, il nous faudrait autant de temps que cette période en a pris, et notre pensée n'avancerait pas.Toute durée remémorée implique des raccourcis et ceux-ci sont dus à l'omission d'une énorme quantité de faits qui remplissaient la durée en question. Nous arrivons, dit M. Ribot, à ce résultat paradoxal que l'une des conditions nécessaires au souvenir est justement d'oublier. Sans l'oubli total d'une quantité prodigieuse d'états de conscience, sans l'oubli momentané d'un grand nombre d'entre eux, nous ne pourrions nous souvenir de rien ..."

 

En un siècle où la quantité disponible de savoir humain et de mémoire collective allait être augmentée et diffusée comme elle ne l'avait jamais été, l'oubli devenait, plus que jamais, la condition première d'une certaine santé mentale.

Mais que devenaient les souvenirs "oubliés" ? Où étaient les neiges d'antan ? Au XXe siècle, le monde de la mémoire allait connaître une nouvelle  mutation : on allait le redécouvrir dans les vastes territoires de l'Inconscient. Dans sa Psychopathologie de la vie quotidienne (1904), Sigmund Freud (1856- 1939) prenait pour point de départ des exemples simples tels que l'oubli des noms propres, celui des termes étrangers ou de l'ordre des mots. Le nouvel art  de la mémoire qui fit la  célébrité de Freud possédait à la fois les prétentions scientifiques de Simonide et de ses successeurs, et le charme occulte des néo-platoniciens. L'homme, bien sûr, s'était toujours interrogé sur le mystère des rêves. Or voilà que Freud, dans ce mystère, débusquait tout un vaste trésor de souvenirs. Son Interprétation des rêves (1900) montrait que la psychanalyse pouvait devenir un art et une science du souvenir.

D'autres, stimulés par Freud, poussèrent plus loin encore cette recherche. La mémoire latente, ou inconscient, devint une ressource nouvelle pour la thérapie, l'anthropologie, la sociologie. L'histoire d'Œdipe n'était-elle pas applicable à la vie intérieure de tout être humain ? Les  métaphores mythologiques de Freud suggéraient que nous étions tous les héritiers d'une expérience commune et fort ancienne, mais ce fut Carl Jung (1875-1961) qui, plus proche de la tradition hermétique, popularisera la notion d' "inconscient collectif". Ainsi Freud, ses disciples et dissidents avaient-ils redécouvert, et peu-être reconstruit à leur manière, les cathédrales de la Mémoire.

 

Daniel BOORSTIN ( Les Découvreurs )


 

 
 
 

DES GÈNES SAUTEURS  

DANS LE CERVEAU

Janvier 2018

LES TRANSPOSONS (ici, en fausses couleurs et grossi 40 000 fois) sont des éléments génétiques mobiles. Ils se déplacent au hasard dans l'ADN de la cellule qui les héberge. Ces mouvements seraient nombreux dans les neurones.

Le génome des neurones n'est pas immuable. Des fragments d'ADN s'y déplacent, expliquant en partie comment des vrais jumeaux, élevés de la même façon, peuvent avoir des personnalités différentes. Ce phénomène participerait également à l'apparition de troubles mentaux, tels l'autisme et la schizophrénie.

Fred Gage et Alysson Muotri

 
Prenez deux individus au hasard et étudiez leur cerveau. Des différences apparaissent, de la cellule à l'architecture macroscopique : le cerveau humain contient 100 milliards de neurones, qui se déclinent en milliers de types distincts ; en outre, il existe plus de 100 000 milliards de connexions entre ces neurones. Au final, deux cerveaux ne sont jamais parfaitement identiques. Ces différences favorisent la diversité de la pensée et des comportements, et influent sur la sensibilité aux maladies mentales. Cette diversité des réseaux de neurones et des fonctions cérébrales résulte en partie de celle du patrimoine génétique. Les expériences vécues interviennent également, par exemple en influant sur l'intensité des connexions entre des ensembles particuliers de neurones.
Ces variations se retrouvent-elles chez des vrais jumeaux, élevés par les mêmes parents ? Oui, on peut observer des différences marquées de caractère, de comportement et de sensibilité aux maladies du cerveau. Ainsi, des souris génétiquement semblables, d'âge et de sexe identiques et traitées de la même façon en laboratoire, n'ont ni les mêmes capacités d'apprentissage ni les mêmes réactions d'évitement et de réponse au stress.
Des facteurs différents de l'hérédité et de l'environnement sont donc à l'œuvre. Susceptibles d'intervenir à un stade précoce du développement embryonnaire ou plus tard au cours de la vie, ils modifient par exemple les gènes ou la production de protéines. Ainsi, lors de l'épissage alternatif, les ARN issus de la transcription d'un gène sont « taillés » de diverses façons, de sorte qu'un même gène peut coder deux protéines différentes, voire davantage. Les protéines effectuant la plupart des opérations dans les cellules, cela influe sur le fonctionnement des tissus. De nombreux chercheurs étudient également le rôle des modifications épigénétiques, qui changent l'activité des gènes (en augmentant ou en diminuant la quantité de protéines synthétisées) sans modifier le code génétique.
Des gènes sauteurs
Ces dernières années, nous avons découvert, avec nos collègues, un mécanisme étonnant, qui semble plus actif dans le cerveau que dans d'autres tissus : il s'agit des gènes sauteurs, aussi nommés éléments mobiles. Identifiés chez presque toutes les espèces, y compris chez l'homme, ces derniers sont capables de se dupliquer et de s'insérer dans diverses régions du génome. En d'autres termes, ils sont autonomes, ou anarchistes. Ils peuvent ainsi changer le fonctionnement d'une cellule, qui ne se comporte plus comme ses voisines. En grand nombre, ces sauts de gènes modifieraient certains aspects du fonctionnement du cerveau.
Pourtant, le cerveau ne doit pas se dérégler. Dès lors, pourquoi l'évolution a-t-elle permis à un processus qui modifie sa programmation génétique de persister ? Nous l'ignorons, mais nous pensons qu'en créant de la variabilité dans les cellules cérébrales, les gènes sauteurs rendent les organismes plus flexibles et plus aptes à s'adapter rapidement à un nouvel environnement. Ces gènes sauteurs auraient donc été conservés par l'évolution, car le bénéfice serait supérieur aux risques.
On sait depuis longtemps que des éléments mobiles se déplacent dans le génome. Toutefois, on découvre chaque jour un peu plus l'importance de leur activité dans le cerveau. Le saut de gènes a été découvert pour la première fois dans des plantes, avant même que James Watson et Francis Crick ne décrivent la structure en double hélice de l'ADN en 1953.
Dans les années 1940, Barbara McClintock, du Laboratoire de Cold Spring Harbor, a observé que des éléments contrôlant l'expression des gènes se déplaçaient d'un endroit à un autre dans le génome du maïs. Sous l'effet du stress, certaines régions du génome migraient et activaient ou inactivaient des gènes à proximité de leur nouvel emplacement. Lors de ses expériences, McClintock a produit des épis de maïs aux grains de couleurs différentes. Elle a ainsi créé des mosaïques génétiques, où les gènes étaient activés et inactivés selon des schémas parfois différents d'une cellule à la cellule voisine.
Une mosaïque génétique
Les recherches de McClintock, qui se sont d'abord heurtées au scepticisme de la communauté scientifique, lui ont valu le prix Nobel en 1983. Progressivement, on a découvert que le phénomène des mosaïques génétiques ne se limite pas aux plantes, mais concerne de nombreux organismes, dont l'être humain.
McClintock a étudié des transposons, des éléments mobiles qui se déplacent dans le génome de la cellule par un mécanisme de « couper-coller » : ils s'extraient de l'ADN environnant, puis s'insèrent en un nouvel endroit. Des recherches plus récentes sur les éléments mobiles du cerveau portent sur des rétrotransposons, qui agissent plutôt par copier-coller : ils se répliquent au lieu de s'extraire de l'ADN, et c'est la copie qui se déplace.
Les rétrotransposons représentent la moitié de l'ADN du génome humain. En comparaison, les quelque 23 000 gènes codant des protéines constituent moins de deux pour cent de notre ADN. Les gènes sauteurs sont des descendants des premiers systèmes moléculaires de réplication qui ont envahi les génomes des eucaryotes (des organismes dont les cellules ont un noyau). On les a longtemps considérés comme de l'ADN non fonctionnel, mais en 1988, un groupe dirigé par Haig Kazazian, de l'Université de Pennsylvanie, a montré qu'ils étaient actifs chez l'homme.
En particulier, un type de rétrotransposon nommé LINE 1 ou L1 (pour Long Interspersed Nuclear Element, soit Long élément nucléaire disséminé) joue un rôle clé dans le génome humain. Il se déplace souvent, probablement parce que, à l'inverse d'autres éléments mobiles, il code sa propre machinerie de saut ; elle lui permet d'insérer des copies dans des endroits éloignés du génome cellulaire. L'élément L1 est d'abord transcrit en un brin d'ARN qui passe du noyau dans le cytoplasme, où il sert de modèle pour la production de protéines. Celles-ci forment ensuite un complexe moléculaire avec l'ARN, puis l'ensemble retourne dans le noyau, à un nouvel emplacement.
Là, une de ces protéines, une enzyme nommée endonucléase, coupe l'ADN en des sites spécifiques. Elle utilise l'ARN comme modèle pour fabriquer une copie du double brin d'ADN du rétrotransposon L1. Enfin, elle insère cette copie dans le génome, à l'endroit d'une coupure. Une telle transcription inverse, d'ARN en ADN, n'est pas rare : le virus VIH, dont le génome est constitué d'ARN, se sert de ce mécanisme pour convertir son ARN en ADN, ce qui lui permet de l'intégrer de façon permanente dans le génome des cellules qu'il infecte.
La rétrotransposition échoue souvent en cours de route, produisant des copies tronquées de l'ADN d'origine. Quelles sont les conséquences de l'insertion d'un fragment ou d'une copie entière de l'élément L1 ? Parfois, il ne se passe rien, parfois les effets sont positifs, parfois ils sont délétères. Dans certains cas, par exemple, des éléments mobiles s'insèrent dans la région codante d'un gène et la modifient. Une nouvelle protéine – potentiellement bénéfique ou nuisible – est codée par ce gène. L'insertion peut aussi arrêter la synthèse protéique. Dans d'autres cas, l'ADN s'insère dans une région non codante, mais agit comme un promoteur (un « interrupteur » activant les gènes proches) : il modifie le degré d'expression du gène (la quantité de protéines produites à partir du gène). Là encore, les résultats peuvent être favorables ou non pour la cellule ou l'organisme.
Récemment encore, la plupart des biologistes supposaient que la rétrotransposition d'éléments L1 survenait surtout dans les cellules germinales (à partir desquelles sont formés les ovules et les spermatozoïdes), au sein des ovaires et des testicules. On avait trouvé quelques indices suggérant qu'elle intervenait aussi dans les tissus somatiques (les tissus qui ne sont pas constitués de cellules germinales) pendant le développement embryonnaire, voire plus tard, mais ils avaient été réfutés. La localisation spécifique de la rétrotransposition dans les cellules germinales semblait logique : si les gènes ont pour finalité de se propager, comme le prétend une théorie évolutionniste, le saut de gènes a peu de raisons de rester actif dans les cellules somatiques, puisqu'elles disparaissent en même temps que l'individu qui les porte.
Cependant, de meilleurs outils de détection ont permis de réfuter cette hypothèse. Ils ont révélé que les rétrotransposons se déplacent aussi dans le génome des tissus somatiques, même après le développement embryonnaire. Dans notre laboratoire, nous avons étudié les rétrotranspositions chez une souris. Ses cellules avaient été génétiquement modifiées pour émettre une fluorescence verte lorsqu'un élément L1 s'insérait dans le génome, quel que soit l'endroit dans l'organisme. Nous avons observé une fluorescence dans les cellules germinales, comme prévu, mais aussi dans certaines régions du cerveau, dont l'hippocampe (une région importante pour la mémoire et l'attention).
Les éléments L1 se déplaceraient donc davantage dans le cerveau que dans d'autres tissus somatiques. Cela contredit un dogme ancien, selon lequel les codes génétiques des cellules cérébrales chez les adultes sont identiques et stables pendant toute la vie des cellules.
On a constaté que les rétrotranspositions survenaient dans les cellules dites progénitrices : de telles cellules sont en attente, prêtes à se diviser et à engendrer des cellules spécialisées (ici de nouveaux neurones de l'hippocampe) ; leur division est déclenchée par un signal d'activation, émis par exemple après la mort de certaines cellules – qui sont alors remplacées. De nombreux tissus abritent des populations de cellules progénitrices. L'hippocampe est l'une des régions du cerveau où siège une neurogenèse (la production de nouveaux neurones). Ainsi, les éléments L1 seraient actifs lorsque des neurones naissent, soit à un stade précoce du développement, soit dans les quelques régions du cerveau où la neurogenèse persiste à l'âge adulte.
Pour confirmer que les rétrotrans-posons sont plus actifs dans le cerveau qu'ailleurs, nous avons effectué des analyses post mortem chez l'homme. Nous avons compté le nombre d'éléments L1 présents dans les noyaux cellulaires des tissus cérébral, cardiaque et hépatique, et constaté qu'il était beaucoup plus élevé dans le tissu cérébral que dans les deux autres.
Des sauts de gènes par milliers
La plupart des rétrotranspositions ont dû se dérouler lors du développement du cerveau. En effet, la rétrotransposition semble nécessiter des divisions cellulaires – on ne l'a jamais observée dans des cellules qui ne se divisent pas. Or, dans le cerveau, les divisions s'arrêtent après la petite enfance, sauf dans les régions progénitrices. Selon une étude réalisée notamment par Nicole Coufal, de notre laboratoire, chaque neurone humain connaîtrait en moyenne 80 intégrations d'éléments L1. Une telle fréquence entraîne une grande variabilité entre cellules chez une même personne et entre individus.
L'activité des éléments L1 dans le cerveau humain a été confirmée en 2011 par Kenneth Baillie, de l'Institut Roslin, près d'Édimbourg, en Écosse, et ses collègues. Les chercheurs ont identifié 7 743 insertions d'éléments L1 dans l'hippocampe et le noyau caudé (une zone intervenant également dans la mémoire) chez trois personnes décédées.
Lors de son étude, l'équipe de l'Institut Roslin a fait une découverte inattendue : elle a trouvé environ 15 000 exemplaires d'une autre classe de rétrotransposons, les SINE (pour Short Interspersed Nuclear Elements, ou Élément nucléaire court et disséminé). Le SINE le plus abondant, membre d'une famille nommée Alu, n'avait jamais été observé dans le cerveau.
Nous nous sommes alors demandé ce qui déclenche l'activité des éléments L1. Comme la neurogenèse se déroule notamment dans l'hippocampe et qu'elle est stimulée par l'exercice physique, ce dernier est-il l'élément déclencheur des rétrotranspositions ? Pour le savoir, nous avons fait courir des souris transgéniques dans une roue : le nombre de cellules fluorescentes vertes a presque doublé dans leur hippocampe.
Les nouvelles situations et les défis stimulant aussi la neurogenèse constituent-ils d'autres facteurs déclenchant la rétrotransposition ? Si les sauts d'éléments L1 augmentent lorsque le système nerveux apprend et s'adapte au monde extérieur, cela signifie que le cerveau est en constante évolution génétique et change à chaque nouvelle expérience. Des différences notables pourraient en résulter, même entre des vrais jumeaux.
Pour étayer l'hypothèse que les gènes sauteurs contribuent à la diversité cérébrale chez l'homme, nous ne nous sommes pas contentés de compter les éléments L1 dans l'ADN. Nous avons aussi cherché un lien entre nos résultats et des événements visibles, telles des maladies mentales. Les conséquences délétères sont plus faciles à mettre en évidence que les effets positifs.
En 2010, nous avons montré qu'une mutation d'un gène nommé MeCP2modifiait la rétrotransposition des éléments L1 dans le cerveau. Or des mutations de ce gène sont à l'origine de plusieurs maladies du cerveau, dont le syndrome de Rett, un trouble grave du développement cérébral qui touche presque exclusivement les filles. Il nous reste à comprendre les mécanismes moléculaires et cellulaires de ces troubles. Chez les souris et les êtres humains atteints du syndrome de Rett, la mutation du gène MeCP2 que nous avons identifiée entraîne la multiplication des insertions de L1 dans les neurones. Les gènes sauteurs seraient-ils responsables de certains des symptômes du syndrome de Rett ?
Un rôle dans la schizophrénie et l'autisme ?
L'activité des éléments L1 est aussi élevée dans d'autres maladies cérébrales. Une analyse du cortex frontal chez des sujets atteints de schizophrénie a révélé une augmentation du nombre de séquences L1 par rapport à des personnes indemnes. On pense également que les éléments L1 interviennent dans des troubles tels que l'autisme. La compréhension du rôle que jouent les éléments mobiles dans les maladies psychiques conduira peut-être à de nouvelles méthodes de diagnostic, de traitement et de prévention.
Les études sur les gènes sauteurs dans le cerveau pourraient stimuler divers champs de recherche. Les généticiens du comportement suivent souvent des groupes de jumeaux sur de longues périodes pour étudier les effets des gènes et déterminer les contributions de l'environnement à des troubles tels que la schizophrénie. Les gènes sauteurs remodelant le génome après la période du développement embryonnaire, les vrais jumeaux ne sont pas aussi génétiquement semblables qu'on l'admettait jusqu'à présent. Ce résultat complique alors la tâche consistant à démêler la part de l'inné et de l'acquis.
Une question subsiste : pourquoi l'évolution n'a-t-elle pas détruit ces vestiges d'anciens virus qui risquent d'introduire des défauts génétiques fatals dans nos cellules ? L'être humain a toujours subi les attaques de parasites viraux et d'autres envahisseurs qui ont inséré leur génome dans celui de l'individu attaqué. Nos ancêtres n'ont pas été capables d'éliminer totalement ces intrus, mais ils se sont adaptés pour coexister avec eux : ils les ont rendus silencieux grâce à différents mécanismes qui les ont fait muter et les ont désactivés. Dans certains cas, l'insertion de nouveaux éléments a été bénéfique. C'est l'une des raisons pour lesquelles les cellules permettent parfois, voire encouragent, le saut d'éléments L1 à l'intérieur du génome, dans des conditions soigneusement contrôlées.
Nous en apprendrons peut-être plus en analysant pourquoi la réponse au stress de souris génétiquement identiques et élevées dans les mêmes conditions varie à ce point. Les différences de comportement observées présentent une distribution caractéristique dans la population, dessinant une courbe en forme de cloche. Cela suggère que les mécanismes à l'origine de cette variabilité sont aléatoires, comme semblent l'être les sites d'insertion des rétrotransposons L1.
La nature aléatoire présumée des déplacements des éléments L1 dans le génome évoque un mécanisme de sélection naturelle, où les bénéfices des insertions utiles sont supérieurs aux conséquences délétères des autres. En jetant souvent les dés dans les cellules neurales progénitrices de l'hippocampe, la nature optimise la possibilité qu'émerge une population de neurones adaptés aux tâches auxquelles le cerveau est confronté.
Un processus voisin a lieu lorsque l'ADN des cellules immunitaires se réarrange, les conduisant à produire de nouvelles gammes d'anticorps. Les mieux adaptées à la lutte contre un agent pathogène sont ensuite sélectionnées.
Les effets des insertions n'ont pas besoin d'être importants ni de concerner un grand nombre de cellules pour influer sur le comportement. Chez les rongeurs, un changement dans les modalités d'activation d'un seul neurone suffirait à faire apparaître une différence.

L'idée d'insertions utiles est étayée par la découverte que la seule sous-famille d'éléments sauteurs L1 active dans le génome humain est apparue il y a environ 2,7 millions d'années, à une époque où nos ancêtres ont adopté des outils en pierre. Les éléments L1 pourraient donc avoir contribué à la construction de cerveaux inventifs, susceptibles de s'adapter à des conditions environnementales et climatiques changeantes. Ainsi, les rétrotransposons L1 auraient bien participé à l'évolution d'Homo sapiens.

SANS EUX SERIONS-NOUS DANS LA PRÉHISTOIRE ?  

20 avril 2017

les lions de la grotte Chauvet, créés il y a 30 000 ans, sont-ils l'oeuvre d'un artiste autiste ?

Comment nos ancêtres autistes ont joué un rôle clé dans l'évolution

 

 

 

Les gènes de l'autisme ont pesé lourd au cours de l'évolution humaine. De quoi porter un autre regard sur ce handicap. Mais aussi sur la préhistoire.

 
L'archéologie
 et l'histoire des origines de l'homme commencent seulement à prendre en compte le rôle important des personnes autistes.

L'archéologie et l'histoire des origines de l'homme commencent seulement à prendre en compte le rôle important des personnes autistes.  

Dis-moi qui tu es, je te dirai pour qui tu votes

 

Pour la science 
politique, 
il existe quatre 
grands modèles 
pour expliquer 
les comportements 
électoraux.

Toute élection au suffrage universel semble à première vue le résultat d’autant de choix individuels qu’il y a d’électeurs. Or, même si les vainqueurs d’une élection particulière diffèrent à chaque fois, ses résultats ressemblent beaucoup à ceux de celles qui l’ont précédée. Ainsi, aux États-Unis, les suffrages se concentrent régulièrement sur les deux partis historiques du pays, le Parti démocrate et le Parti républicain. Ils obtiennent au minimum plus de 95 % des suffrages à eux deux. En France, le rapport de force entre droite et gauche témoigne depuis des décennies d’un partage à peu près équilibré de l’électorat. Comment expliquer de telles régularités au fil du temps dans la répartition des suffrages, sinon par des logiques tout aussi permanentes au niveau des choix des électeurs ? La science politique a distingué de fait quatre mécanismes – non exclusifs les uns des autres – qui influencent le choix électoral des individus : la géographie, la sociologie, l’identification politique et la rationalité économique.

 

1 - Dis-moi 
où tu habites…


La première source de régularité dans le vote tient à la répartition des électeurs dans l’espace, à la géographie. Dis-moi où tu habites, je te dirai pour qui tu votes. C’est au Français André Siegfried que nous devons la première grande démonstration en ce sens avec son célèbre Tableau politique de la France de l’Ouest, paru dès 1913. Étudiant les élections des députés au suffrage universel masculin organisées depuis l’instauration de la IIIe République, il montrait, sur les cas bretons, normands et vendéens, qu’au-delà des étiquettes partisanes changeantes et encore largement floues de l’époque, l’observateur pouvait distinguer des terroirs aux électeurs plus ou moins acquis aux valeurs de la République. Surtout, A. Siegfried indique que, si les électeurs votent « conservateur », « républicain », ou « républicain avancé », pour reprendre les termes de l’époque, c’est en raison des influences sociales qu’ils subissent sur leur lieu d’habitation. Par cette notion d’influence sociale, il souligne toutes les pressions, économiques ou morales, que peut alors subir un électeur rural, aussi bien celles du curé de son village que celles du grand propriétaire terrien.


De fait, cette découverte des régularités géographiques dans les résultats électoraux ne sera jamais démentie par la suite : toutes les cartes électorales que l’on a pu établir dans tous les pays qui pratiquent sur la durée le suffrage universel montrent des régularités étonnantes. Pourquoi de telles permanences géographiques ? Trois lignes d’explication peuvent être proposées. En premier lieu, elles peuvent provenir d’un traumatisme historique qui a durablement clivé l’électorat sur une base géographique, comme par exemple celui lié à la Révolution française en Vendée. En deuxième lieu, ces permanences tiennent au fait que les partis, une fois à la tête du pouvoir local d’une région, peuvent tenir un territoire par leur réseau d’élus et de militants : les électeurs votent alors pour ce dernier parce qu’ils en attendent des aides pour leur vie quotidienne. La domination électorale du Parti socialiste (belge) en Wallonie tient à ce genre de processus où une force politique s’est rendue indispensable à une majorité des électeurs. Enfin, cette permanence peut tenir à des lieux qui accueillent au fil des époques des électeurs de niveau social semblable. Ainsi les beaux immeubles de l’ouest parisien accueillent au fil des générations – depuis qu’ils ont été construits au xixe siècle – des électeurs d’orientation tout aussi conservatrice que leurs prédécesseurs.


 

2 - Dis-moi quelle 
est ta place 
dans la société…


La deuxième source de régularité dans les choix des électeurs n’est autre que le poids de la classe sociale, du sexe et de la religion dans l’orientation électorale. Dis-moi quelle est ta place dans la société, je te dirai comment tu votes.


Cette découverte se confond avec des revendications de la part d’acteurs politiques. En effet, depuis la fin du XIXe siècle, tout au moins en Europe, des partis revendiquent leur capacité à rassembler les électeurs sur une base de classe ou sur une base religieuse – au moment même où les femmes doivent, elles, encore se battre pour se voir accorder le droit de vote. D’une part, les partis travaillistes, socialistes, communistes prétendent regrouper tous les votes de la classe ouvrière, pour défendre ses intérêts supposés distincts de ceux du reste de la population. D’autre part, les partis chrétiens-démocrates, chrétiens sociaux, confessionnels prétendent de leur côté regrouper tous les croyants en une seule force électorale, pour défendre les raisons du christianisme contre la modernité issue des Lumières.


La science politique a été sommée de vérifier la validité de ces prétentions – l’ouvrier d’usine qui va à la messe, pour qui vote-t-il ? –, et le grand instrument de cette vérification fut le sondage d’opinion. Celui-ci permet dès les années 1960 de vérifier s’il existe au niveau individuel des corrélations significatives entre la classe sociale, la religion d’une part, et l’orientation politique d’autre part. Pour la France, dans les années 1970, Guy Michelat et Michel Simon, sur des entretiens semi-directifs, ont montré que l’espace politique français se structurait effectivement sur une opposition entre l’électeur communiste, ouvrier et athée à gauche, et l’électeur catholique à droite.


Cependant, la science politique, en France comme dans les autres pays de vieille démocratie, tend plutôt à souligner le déclin du « vote de classe » et de celui de la religion dans les orientations politiques des électeurs. Ce double déclin, observable partout en Europe, tient aussi au fait que les grands partis politiques se sont, respectivement, « social-démocratisés » ou « déconfessionalisés ». À l’image des partis nord-américains des années 1960, ces derniers prétendent en appeler à tous les électeurs sans distinction de classe ou de religion. De même, la science politique avait pu montrer pour la France que le vote des femmes – acquis seulement en 1944 – était plus conservateur en moyenne que celui des hommes ; aujourd’hui, on observe plutôt la situation inverse, sans doute sous l’effet conjoint de la baisse de la pratique religieuse catholique et de l’entrée massive des femmes sur le marché du travail.


Malgré tout, cette ligne d’explication reste valable, surtout si l’on adapte la notion de « classe sociale » aux actuelles conditions de la vie économique – par exemple en tenant compte de la détention par certains électeurs d’un patrimoine investi sur les marchés financiers –, ou celle de « religion » aux nouvelles manières de croire et aux nouvelles religions présentes en Europe.


Par ailleurs, pour les États-Unis, on observe au contraire depuis un quart de siècle un poids de plus en plus important des mouvements protestants évangéliques dans l’orientation républicaine des électeurs. Classe, sexe et religion ne sauraient donc être oubliés dans une explication globale du vote.


 

3 - Dis-moi pour qui ton père votait…


La troisième source de régularité dans les choix des électeurs est l’identification partisane. Aux États-Unis, dans les années 1960, en se fondant sur des sondages d’opinion, des chercheurs basés à l’université du Michigan se sont rendu compte que le facteur le plus important du point de vue statistique pour expliquer une orientation lors d’une élection présidentielle n’est autre que le simple fait de se déclarer « démocrate » ou « républicain ». Les électeurs républicains déclarent voter républicain…, parce qu’ils sont républicains. Les chercheurs découvrent par la même occasion que la majorité des électeurs ne connaît rien à la politique entendue comme les affaires de l’État. Ils semblent donc simplement voter en se fiant à une tradition de vote, soit républicaine, soit démocrate, elle-même largement liée à une transmission familiale. Dis-moi pour qui ton père votait, je te dirai comment tu votes. Cette vision de l’électeur, qui fait de la plupart des votants l’équivalent d’un supporter d’une équipe sportive ou du tenant d’une marque de voiture, n’est pas allée sans déclencher de vives controverses aux États-Unis. En effet, elle sape à la base la croyance en un choix électoral raisonné de la part du peuple souverain.


En France, en raison des changements incessants connus par les partis en lice, les chercheurs ont eu tendance à transposer la notion d’identification partisane en une notion équivalente de positionnement sur l’axe gauche/droite. Une équipe de chercheurs a ainsi pu montrer récemment, sur des données de sondage, que le déterminant principal du point de vue statistique du vote au second tour des trois dernières élections présidentielles (1988, 1995, 2007) ayant eu une configuration ordinaire (2002 étant à part avec le vote « républicain » des personnes s’identifiant à la gauche pour Jacques Chirac) n’était autre que le positionnement déclaré des électeurs interrogés sur cet axe gauche/droite.


 

 

4 - Dis-moi 
ce qui compte 
le plus pour toi…


Enfin, la quatrième source de régularité dans le choix des électeurs intervient largement comme une réaction interne à la science politique face aux trois précédentes. Se développant essentiellement à compter des années 1970, elle consiste à poser que l’électeur est « rationnel », au sens où ce dernier examine les propositions des différentes forces politiques en lice lors d’une élection et vote pour celle qui lui paraît la plus favorable à ses intérêts matériels ou symboliques. Dis-moi ce qui t’importe, je te dirai comment tu votes. C’est aussi ce que l’on a appelé le vote « sur enjeux ». Cette nouvelle vision permet d’expliquer la plus grande mobilité électorale que l’on observe depuis cette époque, et la progression de nouvelles forces politiques (écologistes, extrême droite, régionalistes, etc.). Cet électeur « stratège » ou « sophistiqué » correspondrait à l’élévation du niveau général d’éducation de la population depuis 1945. Plus éduqué en moyenne, plus intéressé par la politique que ses prédécesseurs, l’électeur occidental voterait désormais pour le candidat incarnant la politique publique qu’il considère comme la meilleure pour lui ou pour le pays.


Ce vote rationnel correspond surtout à la prise en compte des effets de la situation économique générale du pays sur les orientations électorales. En effet, les électeurs rendent responsable l’équipe gouvernementale sortante de l’état de l’économie, et sanctionnent un haut niveau d’inflation et/ou de chômage. Pour les élections présidentielles américaines, ce poids de la situation économique sur la décision électorale semble avéré, et les dernières élections en Europe occidentale depuis 2008 tendent à confirmer ce modèle. Toutefois, la rationalité dont il est ici question est « myope » au sens où les électeurs ne prennent en compte que la situation économique aux alentours immédiats de l’élection (une année tout au plus, voire un semestre), sans voir des trajectoires de redressement de l’économie de plus long terme – donc en opposition éventuelle à la rationalité économique telle que la définiraient certains économistes. Par ailleurs, les recherches les plus récentes tendent à mettre en lumière à quel point la rationalité de l’électeur ne peut pas s’étudier en mettant à part les émotions qu’il ressent et les informations dont il dispose au moment de faire son choix.


De fait, dans les pays de vieille démocratie, toutes ces lignes d’analyse s’additionnent pour aboutir à des changements d’orientation électorale mesurés et graduels. C’est pourquoi l’on observe une inertie de l’électorat, observation renforcée par la prise en considération des raisons pour lesquelles les électeurs participent au rite électoral. Or, pour un pays comme la France contemporaine, la raison majeure de la non-inscription sur les listes électorales, ou de la non-participation régulière aux élections lorsque l’on se trouve inscrit, demeure la plus ou moins grande insertion dans la société. De fait, les personnes qui se trouvent le plus marginalisées par le fonctionnement global de la société – les jeunes sans qualification scolaire par exemple – sont aussi celles qui participent le moins aux élections. On doit sans doute tenir présent cet aspect à l’esprit lorsque l’on s’essaye à comprendre pourquoi la démocratie représentative semble représenter de moins en moins les aspirations de toute la population.



Les médias : un rôle limité

Les hommes et femmes politiques portent une attention constante à leur image médiatique. Ils semblent croire qu’une bonne prestation télévisée de leur part les fera élire. De ce fait, la professionnalisation de la communication politique depuis le milieu des années 1960 est indéniable sous la pression des politiques eux-mêmes qui cherchent à rationaliser les conditions de leur élection. Le storytelling, méthode consistant à raconter une histoire, captivante si possible, pour retenir l’attention de l’électeur, a été mis en évidence par le sociologue Christian Salmon à propos de l’élection présidentielle de 2007. Elle n’est que le dernier épisode en date de ces visées de manipulation des électeurs qui commencent au XIXe siècle avec l’usage d’images d’Épinal à la gloire du général Boulanger, largement diffusées par ses partisans.


En fait, les électeurs ne se laissent pas si facilement manipuler, et les capacités de décryptage, de filtrage, de sélection de l’information de chacun d’entre nous ne sont nullement négligeables 
– y compris chez certains électeurs en dépolitisant complètement un message politique. En revanche, si les médias ne nous disent pas quoi penser, ils nous invitent, par leur focalisation partagée sur certains thèmes d’actualité, à quoi réfléchir. Collectivement, ils possèdent un fort pouvoir de « mise sur agenda » des thèmes de la campagne électorale. C’est la théorie l’« agenda setting », formulée par Maxwell McCombs et Donald Shaw dès les années 1970. Elle montre la capacité des médias à influencer le choix des électeurs dans la mesure où certaines forces politiques semblent plus à même de traiter un sujet particulier parce qu’elles furent les premières à en parler dans l’espace public. Dans le cas français, la focalisation des médias lors de la campagne présidentielle de 2002 sur les problèmes d’insécurité – au sens de délinquance de rue – n’a sans doute pas été sans avantager les candidats de droite et d’extrême droite dans la mesure où, depuis les années 1970, ces forces en avaient fait l’un de leurs thèmes favoris. De même, selon que les médias insistent sur le problème économique prioritaire 
que constitue le chômage ou l’inflation, ce ne 
sont pas les mêmes forces qui en profiteront électoralement.

Christophe Bouillaud


 

 

La Mémoire du Vin

 Conférence de Dominique Pringuey

 

11 Mars 2017  Abbaye de La Celle

« Comment briller en société sans sortir son smartphone »

Journée conçue et réalisée par Pierre Lemarquis

 


A la question « Comment briller en société sans sortir son smartphone », et même sans être un expert en oenologie ni un nez reconnu à Grasse, on saura agrémenter un repas gastronomique d’appréciations utiles tenant à la dégustation des vins, commentaires toujours bienvenus et ajustés aux convives du jour. Mais, y a-t-il vraiment une mémoire du vin ? Google – inévitable -donne ce jour 12.200 liens à « mémoire du vin », et les plus divers. On cite dans l’ordre de l’affichage :
- En premier, la proposition d’un mobilier électronique sophistiqué destiné à la gestion de votre cave
- Un cru : le Château Mémoires, du Lieu-Dit Cussol, 33490 à Saint Maixant
- Les coordonnées d’un club « Mémoire des vins suisses »
- La proposition d’un Weekend de formation Théma : « Mémoire et oubli/ Mémoire olfactive » à la Cité du Vin à Bordeaux dans le cadre de l’Obervatoire B2V des mémoires
- Une entreprise de distribution par internet : La mémoire des Vins, 12 rue Léo Lagrange 51700 Leuvrigny
- La Vitisphère : Institut Universitaire de la vigne et du vin de Dijon : « La mémoire du vin » signalant les travaux du Helmholz Center de Munich décryptant la signature biologique des forêts d’origines des fûts de chêne qui ont servi au vieillissement des bourgognes
- OEnologie.fr : site qui rappelle que le « Le vin rouge pourrait améliore la mémoire....... »


Cet effet bénéfique, essentiellement attaché à la fermentation des vins rouges, est porté par le Resvératrol, un stilbène de la famille des phytoalexines, composé biphénolique de la classe des flavonoïdes. Ce polynutriment extrait du raisin manifeste une action cardio-protectrice inattendue. C’est un antioxydant puissant, anti-inflammatoire, possiblement anti-cancéreux. La molécule entre en compétition avec la CoQ10, diminuant la chaine oxydative complexe III, détruit les radicaux superoxides mitochondriaux et inhibe la peroxydation lipidique et la fixation membranaire des LDL. Ce composé est donc un protecteur de la mémoire, ce qui console des effets dévastateurs de l’alcoolisme, ce dont le Korsakoff ne saura jamais témoigner.


Le vin et le cerveau La question fait l’objet d’abondantes recherches, publications et conférences, ce qu’illustre par exemple Jan De Maere : à la fois historien de l’Art, expert juridique « post gradué » et Ph D en Neurosciences, il propose sur le web et sous ce titre une synthèse brillante actualisée d’une neurobiologie socio-culturelle des rapports entre « le vin et le cerveau », signant ses compétences en « Evaluation and Connoisseurschip of Fine Art chez IPAVUB ».


De l’étude des multiples médiations mises à jour entre le vin et le cerveau, le vin apparait comme un psychotrope magique tenant d’avantages neurochimiques d’une activation Gaba, 
proche de celle des anxiolytiques, couplée d’une facilitation DA, d’où une stimulation cérébrale de type psychostimulant, bénéficiant d’une prise olfactive corticale basale directe, et d’un relais thalamique simple pour les saveurs. On sait l’importance de son apport métabolique en vitamine B1. Son action psychotrope finale se joue au plan comportemental dans son effet désinhibiteur spécifique de type BZD par levée de l’inhibition suppressive des comportements appétitifs à renforcement positif.


Cette chimie superbe qui relève d’une sollicitation habile des systèmes du plaisir, lui octroie une puissance hédonique majeure, ce qui aura sans doute animé la thèse veillotte mais bien émouvante de Paulhan (1903) en faveur d’une fondation des mémoires sur le souvenir affectif. Le bonheur de la dégustation, son histoire humaine et ses fondations culturelles sont célébrés depuis les temps, ce que rappelle récemment Michel Onfray (Poche 2009, pp 86) dans un opuscule intitulé « Les formes du temps » sous titré « Théorie du Sauternes », essai consacré à une métaphysique de l’hédonisme au travers d’une ontologie du vin, texte érudit, nerveux, mais aussi divertissant visant seulement à penser le réel à partir de sa manifestation. Gouleyant, en quelque sorte !


La démonstration scientifique des effets psychotropes spécifiques de l’alcool rapportée dans son travail de thèse par Kraepelin lui-même – ce père incontournable de la psychiatrie – confirme la puissance hédonique du vin. Et cela, au delà d’une abondance de facteurs confondants où il convient de « contrôler » l’époque biographique soit l’âge et l’expérience acquise du sujet qui teste le vin, le contexte social du moment, la tradition, les attentes, le respect du rituel, les rencontres qui y sont faites, les dimensions de jeu et de défi .... Il y a là pourtant un petit bonheur logé dans une expérience de plaisir, d’accord, de partage, une fête qui fait lien, souvenir, qui peut devenir passion, et même métier et expertise.


« La mémoire du vin » est ici aussi celle de nos amis Pierre Lemarquis et Benoit Kullmann et de leur souvenir d’une dégustation proposée lors d’un cours du Diplôme Universitaire de Phénoménologie Psychiatrique illustrant la thèse de Hubertus Tellenbach selon laquelle le Goût (au sens figuré) et l’atmosphère de toute expérience sont au fondement de la constitution de l’être humain (Goût et Atmosphère PUF Psychiatrie ouverte Paris, 1983 pp144). Ils forment un opérateur précis et essentiel pour la mise en place de la fonction orale biologique couplant odeurs, contact de la muqueuse buccale et saveurs.


La mémoire du vin assume une mise en proportion entre le souvenir et la confiance. Certes le souvenir s’altère dans l’oubli, mais rappelons que l’oubli est nécessaire à la gestion informationnelle « cognitive » en vue d’une sélection motivée (affective) des souvenirs à sauvegarder et ainsi d’éviter la saturation du système. L’oubli est évalué à 5% par mois en comptes événementiels dans les études dites des « Life events ». Un collègue anglo-saxon s’est employé à démontrer que la mémoire est faite pour oublier et suggère que les troubles psychiatriques valent pour des pathologies de la mémoire, quand notamment ils tiennent à un échec de l’oubli (dépression) ou à son excès (état maniaque, schizophrénies). Le souvenir est ressouvenu, jusqu’à être inventé dans les confabulations...


Or la mémoire du vin contient aussi cette validation de contenu qui s’élabore, grandit, pour atteindre à un acquis culturel fondamental que l’on appelle la confiance, « cum fidere ». Avoir confiance en quelqu'un, en un projet ... c’est se fier, s’abandonner à la bienveillance et à la bonne foi, c’est une assurance, une sécurité. C’est le fruit d’une compréhension, bien plus que d’une explication à laquelle d’ailleurs on ne parvient jamais totalement. D’une compréhension immédiate et totale. On y saisit une signification, un sens. C’est une certitude absolue, celle d’un consensus global, certitude totale, « digitale », en on/off. Cette compréhension résulte d’une communication de « haute fidélité » relevant d’une assise relationnelle première et majeure. Parmi les exemples, on peut renvoyer à ce repérage immédiat de l’état de colère de quelqu’un : c’est d’une évidence telle que cela appelle surtout en retour précautions et stratégie... avant d’en explorer les motifs et d’en détailler l’historique.


Cette communication de « haute fidélité » est immédiate, instantanée, claire et simple, sûre, efficace, « sécure » même, soit sans risque de piratage. C’est un fonctionnement « High Tech » qui répond d’un processus énergétique autonome - sans batterie ni chargeur ni connexions, d’une base naturelle depuis les fonctions organiques aisément disponibles. Ce fonctionnement présente un mode de transfert peu couteux puisque emprunté à l’environnement, l’atmosphère, et fonctionne sur un code universel simple. Il véhicule un message vital, essentiel. Il construit à chaque instant l’un des fondamentaux de l’existence – l’un des « existentaux » dit-on en phénoménologie – la confiance, que le psychiatre envisage dans son antinomie régulatrice, l’angoisse (Binswanger).


Dans l’expérience du quotidien, cette fabrique de la confiance unifie odeurs, saveurs et contact buccal en une sensorialité orale qui tient pour référent le Goût, dans son sens figuré, le flair relationnel, et qui s’élabore depuis le vécu d’émotions positives comme la joie ou l’amour qui font face aux dimensions négatives de la peur et de la tristesse. L’établissement du sens oral relève selon l’écologie humaine de processus « ancrés » élémentaires tels :
- la biophilie – amour du vivant, caractère fondamental de notre système relationnel
- la résonnance – mode archaïque premier de relation, situé en deçà de la multimodalité perceptive, qui est fondé sur des partages rythmiques qui ensuite soutiennent l’élaboration de l’auditif, des cohérences formelles qui président ensuite au visuel, des modules de compétence transactionnelle qui fournissent au nouveau né de précieuses clefs de communication.


La genèse maternelle, infantile et familiale, de la fonction orale, est garantie de sincérité et de loyauté, pour accomplir un objectif d’importance : la formation de l’identité, une signature et un lien à la communauté.


L’approche herméneutique du sens oral procède du même renversement phénoménologique du sens (comme direction) que le renversement de la flèche augustinienne du temps vécu, qui elle déroule classiquement la temporalité depuis le passé dans un présent orienté vers l’avenir. La vue existentielle considère au contraire que le devenir (et la chance d’en disposer) ouvre dans notre futur des possibilités qui vont nous permettre dans chaque présent de construire notre passé. De même le renversement de la flèche psycho-physique du goût, qui depuis la perception et par intégration fournit le Goût (fig.) soit le flair, offre une genèse existentielle inverse : c’est le Goût-(fig.) qui va éduquer notre affectivité (comme être-affecté-par) pour élaborer les qualités perceptives du goût et affiner les dimensions du sens oral.


Le caractère composite du sens oral, associant olfaction, gustation, sentir contact buccal, l’ordonne en maître de la sensorialité en ce qu’il prévaut sur la vue - le visuel certes donne la forme, et l'ouïe - le sonore, la force – le tact jouant dans une autre dimension. Le sens oral tient sa puissance de ce qu’à partir des odeurs et des saveurs, il donne l'atmosphère, l'ambiance, le climat, et livre ainsi une compréhension précise et exacte du monde. Celle que nous ressentons par exemple lorsque nous pénétrons dans cette magnifique salle conventuelle voutée de l’abbaye de la Celle, chargée d’histoire, de foi et de dévotion.


Plus, cette fonction orale détient le sens d'une propriété spécifique dans l’ordre de la communication : la faculté de son message de se répandre au dehors et de pénétrer au-dedans, et par là d’une communication immédiate. Dans un sens émanatif, l'homme sent une odeur spécifique, propre, déterminante. Un chien sait reconnaitre son maître. Bébé dès sa naissance, l’odeur du sein maternel. Dans un sens réceptif : l'homme sent les odeurs du monde, et par là s’y trouve lié, soumis. Cette dualité est génératrice de la tonalité affective : on sait que l’arôme appelle l’union, évoque la liberté, et aussi combien la mauvaise odeur déclenche la fuite, l’isolement. Le sens oral apparait alors comme le grand sens médiateur qui crée le milieu humain, rapprochant le lointain, éloignant le proche.


De fait l’espace de l'odeur est sans distance, illimité, se déployant depuis le plus intime, en fusion naïve, jusqu’au loin, selon la puissance des fragrances, mais sans limites imposées. Il fait lien à l'ambiance. La bonne odeur (maternelle, familiale, religieuse) incite à l’intimité, à la proximité, à la confiance. La mauvaise odeur provoque éloignement, exiguïté, refus, interruption : la mauvaise odeur ne rend-elle pas méprisable ? Le temps de l'odeur a la forme vide du maintenant, d’une temporalité immédiate, naïve, saisie fugace dans l'instant, mais qui est assez puissante pour réveiller le souvenir et annoncer le futur. Il est sens de la répétition (la « madeleine » de Proust). Il augure une heureuse issue de la rencontre. Mais avec une intelligence prudente : une odeur agréable ne peut être vécue avec plaisir que si elle est perçue pendant une durée limitée, comme pour se protéger du risque addictif !


Ainsi le sens oral est sens des substances, censeur de l'incorporation, avertisseur des nuisances et protecteur. L'atmosphérique provient de fonctions organiques et produit le flair. Le Sens oral est thymique : il rend possible le sentiment "d'être-affecté-par " qui est une mise en ambiance et en même temps une homogénéisation de l'être humain. Lié à la vitalité végétative, il détermine leur sphère vitale et en gouverne les actes: le respiratoire par le parfum, le digestif dans le culinaire, le sexuel pour l'érotique.


Mais et c’est son sens premier, le sens oral fonde d’abord la confiance. Savoir faire confiance est une condition élémentaire de l’existence qui forme l’assise du rapport à Soi et à l’autre. Et son prototype est largement illustré notamment de puis la renaissance : l'enfant dans les bras de sa mère – superbes Madones col bambino - qui unifie présence diffuse, abandon, sincérité, loyauté, dans une perception absolument immédiate.


« La présence maternelle est faite de l'odeur et du goût de ce qu'elle donne. Dans cette aura maternelle qui plus tard s'étend à la cellule familiale, s'élabore le sens de la présence d'autrui. » Tellenbach H


Et si l’on reconnait, aux fondements de la confiance, l’expérience de la fête comme « festum », comme le suggère Bin Kimura dans un prolongement qui analyse la formation du Soi, ce qui reprend aussi le concept de « nous » originaire ou « nostrité » de Binswanger, ce qui conforte aussi au plan anthropologique le primat humain de la verticalité, c’est affirmer que seule la rencontre avec l’autre, et plus particulièrement dans son acception médicale, permet de structurer l’organisation du soin et de guider le rituel qui consiste à « S’occuper de ». En atteste dans le registre le plus banal au quotidien, l’expérience d’une dégustation.

 

Pr Dominique Pringuey
Faculté de Médecine de Nice &
Société de Phénoménologie Clinique et de Daseinsanalyse
pringuey@unice.fr

En remerciement à Pierre Lemarquis, son association Sirènes et les partenaires industriels soutiens de la manifestation : Sanofi Genzyme, Orkyn Neurologie et Aguettant.

 

Annexe


La dégustation


L’OEIL
Saisissez le verre sous le pied et penchez-le sur fond blanc. Scrutez la robe du vin, sa couleur ; sa limpidité vous informe sur son âge et sur son état. Bien fait, il doit être limpide brillant et le rester
Les vins blancs jeunes sont peu colorés et avec des reflets verts. Ils évoluent avec une teinte plus marquée
Noter :
Intensité : pâle, claire, légère, moyenne, soutenue, foncée, sombre
Couleur (Blancs) : paille, citron, canari, jaune-vert, ambré, doré , topaze
(Rosés : cerise, abricot, violet, pivoine, orangé
Rouges : rubis, grenat, violacé, vermillon, acajou)
Limpidité : limpide, brillant, cristallin, net , voilé, flou, trouble
(Effervescence) : faible, moyenne ….la mousse ajoute vie et fraicheur


LE NEZ 70% des informations
Reniflez le vin en vous penchant sur le verre : ainsi vous percevez une première information globale : l’intensité perçue. Faites doucement tourner le vin et replongez le nez dans le verre. S’élèvent alors les arômes les plus denses. Détaillez les composantes du bouquet : florales, végétales, animales, fumées, épicées, minérales (Arômes primaires (cépage) secondaires (fermentation) tertiaires (maturité))
Jugez de la qualité, du caractère , de l’élégance


Noter
Intensité : faible, fermée, discrète, moyenne, expressive, puissante, lourde
Nuances Aromatiques :
cerise, fraise, cassis, mure, groseille
pomme, poire, abricot, prune, prunelle, coing, figue, amande, rhubarbe, confit, menthe
poivre, citronnelle, violette, acacia, aubépine, noix
miel, beurre, caramel, vanille, cannelle, levure, banane
sous-bois, champignon, herbe, fougère, mousse, foin coupé, humus
tabac, café, pain grillé, musc, fumé, brioche
minérale, pierre à fusil, silex, craie, terreux, souffre
Qualité : simple, fin, moyen, élégant, complexe


LA BOUCHE
Mettez le vin en bouche : les papilles gustatives et la langue perçoivent les 4 goûts fondamentaux : sucré (pointe), salé (avant latéral), acide( postérieur latéral), amer (postérieur)
Le sucré est associé au « fruit »: moelleux, souplesse, gras (richesse en alcool). L’acidité, colonne vertébrale, apporte fraicheur, souligne le fruit. Amer, tanins.
Astringence modérée des tanins, toucher régulier et doux des effervescents
Rétroolfaction (garder le vin en bouche et respirer de l’air, Cracher ou déglutir (persistance aromatique). Harmonie = cohérence des différentes étapes


Noter
Attaque : discrète, molle, souple, douce, dure, fruitée, fine, droite, ferme, directe, riche, vive, imposante, massive, chaleureuse
Milieu de bouche
Acidité : absente, plate, faible, fraiche, agrume, fondue, marquée, mordante, acide, permanente, agressive
Fruité : sec, suave, souple, rond, mûr, mature, fondu, sec, sucré, concentré, épais, dur
Alcool : faible, discret, léger, corsé, chaud, chaleureux, brûlant
La Mémoire du Vin - Dominique Pringuey - Abbaye de La Celle - Samedi 11 Mars 2017
(Tanins : absents, légers, moyens, souples, durs, dominants)
Sensation tactile : asséchant, sec, fluide, gras, onctueux, rond, moelleux, fondu, souple, vif, ferme, dur, épais, lourd (effervescent)


ARRIERE BOUCHE - PERSISTANCE
Longueur : court, moyen, soutenu, long, très long, persistant
Dominante : acidulé, doux, fruité, alcool, sec, nerveux, amer,
vif, épices, poivre, gingembre, amande , citronnelle,
frais, agréable, gourmand , savoureux, plat, dur


CONCLUSION
Sensation : modeste, sec, court, frais, aromatique, doux, élégant, onctueux
Intensité : vif, friand, franc, direct, dur
Densité : riche, expressif, ample, opulent, chaleureux, désaltérant, généreux, puissant
Structure : équilibré, harmonieux,
Fruité, rafraichissant, madérisé, lourd, décharné, grossier,


APERITIF
Conseils de dégustation
Apéritif, du latin "aperire" = qui ouvre l'appétit
(ne pas le couper avec des cocktails, du sucré ou alcoolisé)
Objectif : Mise en bouche pour réveiller les papilles en douceur
Il doit être léger, fruité et pertinent avec les mets qu’il accompagne
Champagne (le plus classique) ou même simplement un blanc sec « tranquille » (pas un grand cru)
(compter 7 verres par bouteille)
Sancerre (parfait avec des crudités à dipper)
Chablis

 



 

 

CONFIANCE

20 mars 2017

"Samson et Delilah" Rubens

Ce que les neurosciences nous disent sur le travail journalistique

Pour le journaliste de Pour la science, ce qui frappe en premier lieu est « l’omniprésence de l’émotion et plus particulièrement de la peur. La peur comme moteur de la diffusion d’information, et comme agent de transformation des opinions ».

Les études des sociologues des médias Robert Reid et Curtis MacDougall ont montré ce que savent plus ou moins intuitivement les journalistes : « Les informations les plus largement répercutées par la presse se distinguent par quatre critères : la récence (ça s’est passé hier, aujourd’hui), la proximité (c’était près de chez vous), l’ampleur (cela a touché 30, 40, 100 personnes) et le caractère choquant, générateur de sensations (c’est effrayant, il y a des dégâts, des morts, de la souffrance, ou il y a quelque chose de très étonnant, de scandaleux) ».

La théorie de la gestion de la peur

Les journaux télévisés nous le rappellent à longueur d’année : la peur fait recette. « On comprend pourquoi si l’on s’attarde un peu sur le fonctionnement du cerveau. Cette émotion négative suspend la réflexion critique en libérant dans le cerveau une molécule, le cortisol, lequel perturbe le fonctionnement des zones frontales du cerveau, nécessaires à l’évaluation rationnelle de la situation (Rozendaal 2004). Lorsqu’un danger insaisissable est présenté (pédophilie, vache folle, épidémie de grippe aviaire), le cerveau du consommateur d’information doit évaluer la validité de l’information et l’étendue de la menace à partir de moyens cognitifs, de moyens mentaux limités.

« La tendance naturelle est de considérer qu’une information effrayante est vraie. Pour la simple raison que la peur est une réaction de l’urgence, principalement destinée à fuir un danger ou à le combattre, sans place pour les grandes délibérations. » En termes évolutionnistes, « les chances de survie étaient augmentées lorsqu’une information potentiellement dangereuse était considérée comme vraie par défaut ».

Quelles conséquences pour nos comportements ? La théorie de la gestion de la peur, ou Terror management theory, part du point de vue qu’un grand nombre de comportements humains sont motivés par la peur de la mort.

Selon cette théorie (Sheldon Solomon, Tom Pyszczynski, et Jeff Greenberg), les symboles qui forment la culture propre de l’individu sont alors renforcés : « Lorsqu’on amène expérimentalement des sujets à se représenter leur propre mort, on constate une exaltation de tels symboles d’unité tels le drapeau, la nation, l’armée, même la cuisine locale. L’idée étant que ces symboles rassurent et donnent un sentiment d’appartenance qui transcende l’individu. »

L’autre effet de la terreur dans le cadre de cette théorie concerne l’autoritarisme : « La théorie de la gestion de la terreur prévoit en effet que, face à une fragilisation de l’ordre social, le souci de l’individu est d’affermir les institutions ou interventions policières visant à consolider l’ordre ».

Le biais de confirmation

Dix jours après les attentats du 11 septembre 2001 à New York, l’usine AZF de Toulouse explose, tuant 31 personnes et en blessant 2500 autres. Bien que l’enquête conclue rapidement à un probable accident dû à une erreur de manutention, la presse évoque périodiquement la possibilité d’un attentat. « On est là face à un exemple typique d’une pratique médiatique consistant à toujours donner au lecteur ou au téléspectateur ce qu’il attend. Évidemment, dans les consciences, on s’attend à un attentat puisqu’on est encore sous le choc des attentats de New York. L’opinion est en attente d’une confirmation. Elle est sujette au biais de confirmation. »

Le biais de confirmation a été étudié par le psychologue Stuart Oskamp (Oskamp, 1965) qui avait constaté que dès qu’une hypothèse est formulée, on ne prend plus en compte les pièces nouvelles d’un dossier qu’on nous donne et qui auraient pu pourtant suggérer le contraire. On ne retient que les éléments confirmant notre hypothèse initiale, c’est ce qu’on a appelé le biais de confirmation. « Ce biais psychologique se manifeste dans une multitude de situations de notre vie. Dans la lecture d’un texte, il permet de comprendre comment l’énoncé initial est décisif et peut tordre l’analyse du lecteur dans le sens désiré. Le biais de confirmation déforme l’analyse d’une façon pernicieuse et imparable. Car rien n’empêche de lire un titre tel que « Le virus H5N1 pourrait frapper l’Europe », il n’y a aucune raison de le rejeter d’emblée, car logiquement le texte doit permettre de se faire son avis sur cette question. Le problème, c’est qu’une fois le titre lu, la lecture est orientée, et on n’assimile plus de façon égale les différentes parties du message, celles qui informent l’énoncé premier et celles qui le confirment. Du coup, on entre sans s’en rendre compte dans une machine à former des croyances – en l’occurrence celle du déferlement d’un virus en Europe – par la présence innocente d’un titre. »

Le cerveau est attiré par les éléments confirmant son hypothèse première

D’où vient le biais de confirmation ? « Des études sur le cerveau ont été réalisées pour répondre à cette question. Doll et al. (2011) ont ainsi montré que le cortex préfrontal enregistre l’information initiale et guide la recherche d’informations par des structures d’apprentissage tel le striatum en favorisant la recherche d’informations allant dans le sens de l’hypothèse initiale, et en diminuant l’importance accordée aux informations contradictoires. »

Doll et coll. font remarquer que ce sont vraisemblablement les mêmes structures qui identifient les mécanismes d’action causale, qui expliquent également le biais de confirmation : « Lorsqu’on cherche à identifier la cause d’événements se produisant dans notre environnement, le cerveau formule des hypothèses dont il vérifie les conséquences afin de valider l’explication causale. En ce sens, il est normal et nécessaire qu’il soit prioritairement attiré par les éléments confirmant son hypothèse.

« Simplement, cette situation devient contre-productive quand l’environnement extérieur se travestit lui-même de manière à éliminer ou atténuer les éléments contradictoires, comme c’est le cas en partie de l’environnement médiatique.

La théorie du renforcement

« Le lecteur, l’auditeur ou le téléspectateur en constatent les conséquences. Une fois qu’une idée est implantée dans les esprits, les médias l’exploitent jusqu’au bout : Outreau, chiens tueurs, manèges tueurs, enfants oubliés dans les parkings. Par bouffées, des phénomènes s’enflamment et le citoyen croit réellement à des épidémies de chiens tueurs d’enfants, alors que les médias décident simplement d’y consacrer des reportages pendant quelques semaines, constatant que l’idée « prend ». Le psychologue social spécialiste des médias Joseph Klapper l’avait saisi, il y a un demi-siècle, à travers sa théorie du renforcement. Selon lui, le rôle des médias n’était pas tant de créer des attitudes ou des opinions, ni de les changer, que de renforcer ces attitudes et croyances préexistantes dans le public. »

Voilà qui peut expliquer les phénomènes de surenchère et d’emballement médiatique.

Mais on ne s’arrête pas là. Tout cela va être précipité par deux autres phénomènes : la loupe médiatique et le pouvoir de la peur.

« Souvenez-vous de Papy Voise. On est au mois d’avril 2002 et ce vieux Monsieur vient de se faire agresser par des jeunes dans son pavillon, la photo fait la une des magazines. Le reportage sera diffusé 19 fois dans la seule journée du 19 avril sur LCI. » Difficile pour le téléspectateur d’échapper à l’idée que l’insécurité a réellement augmenté. Or, il s’agit d’un pur effet de loupe médiatique, les chiffres du ministère de l’intérieur ne faisant état d’aucune hausse significative sur cette même période.

L’heuristique de disponibilité

« Nous sommes là face à une heuristique, à savoir un raccourci opéré par l’esprit pour apprécier un risque, d’après des indices environnants. »

L’heuristique de disponibilité a été mise en évidence par les économistes Amos Tversky et Daniel Kahneman. C’est le fait que nous nous fondons sur la facilité avec laquelle des exemples d’un fait nous viennent à l’esprit, pour juger de l’importance de ce fait. Ainsi, plus nous trouvons facilement un grand nombre d’images ou descriptions d’un risque, plus nous en déduisons que ce risque est élevé.

« Un exemple bien connu est celui des accidents d’avion. Beaucoup de gens croient que l’avion est plus dangereux que la voiture, alors que c’est l’inverse. Simplement, les médias nous livrent des descriptions plus détaillées des crashes aériens, et notre cerveau dispose de banques d’images plus fournies de ce risque. Il en déduit une probabilité plus élevée. (…) Les médias jouent ici avec le feu. En surfant sur une demande supposée (le biais de confirmation), ils nourrissent une psychose qui finit par se détacher du monde réel. »

Le syndrome du « grand méchant monde »

Dans les années 1980, le psychologue social George Gerbner a englobé ce phénomène sous le concept de « grand méchant monde ». « C’est la représentation du monde comme un endroit fondamentalement dangereux. Cette représentation noircie résulte du bombardement d’informations catastrophistes dont fait l’objet le citoyen moderne connecté à l’actualité internationale. Les faits divers, catastrophes nucléaires, viols, attentats, épidémies de grippe aviaire, tremblements de terre, déraillements, crashs d’avions, scandales de l’amiante ou du sang contaminé, maladie de la vache folle, enfants oubliés dans des voitures sur des parkings, manèges défaillants ou autres massacres en milieu scolaire convergent vers son salon. Et c’est finalement la représentation, déformée, du monde qui s’impose. »

Gerbner a constaté, par exemple, que « les plus gros consommateurs de médias surestiment d’un facteur 50 environ la probabilité d’être victime d’une agression en sortant de chez soi. C’est là qu’il aura cette image d’un monde devenu, dans sa représentation, une menace en soi ». 

Les mots de la peur

Dernier point de l’analyse de M. Bohler, « le type de lexique employé par les médias peut orienter le jugement des auditeurs, lecteurs ou téléspectateur vers un traitement rationnel ou émotionnel de l’information, inspirant la peur ou la confiance, soufflant le chaud et le froid à partir d’une même information factuelle. La question a été étudiée par des psychologues de l’Université de Stanford, qui ont recensé l’emploi de termes à connotation émotionnelle ou au contraire technique à propos d’une même thématique, la maladie de la vache folle, dans deux journaux français, le Monde et les Echos, entre 1991 et 2002 (Sinacoeur et al., 2005). Le but était d’observer les effets de l’emploi d’une terminologie émotionnelle ou technique sur l’attitude des citoyens vis-à-vis du danger représenté par la viande bovine en consommation courante, et sur les achats de viande.

« Les scientifiques ont ainsi dénombré le nombre d’occurrences, semaine après semaine, des termes « vache folle » (connotation émotionnelle) et « encéphalite bovine spongiforme » (connotation technique). Parallèlement, ils ont suivi le niveau total de consommation de viande bovine à l’échelle nationale sur cette même période. Les résultats montrent que la consommation baisse pendant les périodes d’emploi du terme de vache folle et augmentent lorsqu’est employé le terme encéphalite bovine spongiforme.

Les journalistes ne doivent plus ignorer ces effets cognitifs

« Cette expérience montre toute la difficulté de transmettre une juste évaluation du danger dans l’opinion. Le mode de traitement émotionnel, enclenché par certaines images, oriente l’esprit vers une réaction de rejet ou d’adhésion instinctive. Les termes techniques incitent au contraire à une analyse. Que signifie encéphalite ; que signifie spongiforme. On se renseigne, on s’informe sur les mécanismes de réplication du prion, l’agent infectieux. On prend une décision fondée sur une appréciation rationnelle des risques. Deux approches fondamentalement différentes, qui ont des impacts économiques contrastés.

« Introduire une régulation à cet échelon semble difficile, estime Sébastien Bohler. Les journaux sont libres de choisir leur terminologie et leur style d’écriture. En revanche, les journalistes doivent être informés de ces effets, pour ne plus les ignorer, et pour gagner en niveau de responsabilisation. On se heurte aussi aux impératifs d’un média : gagner et fidéliser des lecteurs. Un traitement émotionnel est souvent plus efficace à cet égard qu’un traitement analytique. L’action citoyenne devra peut-être plus porter sur l’information du public à propos de ces effets, pour conférer au consommateur de médias une capacité de recul par rapport aux réflexes viscéraux auxquels l’exposent ses lectures. »

Sébastien Bohler

 

Comment faire mieux dans l’avenir ?« Les quelques mécanismes psychologiques décrits ici permettent de décortiquer, conclut Sébastien Bohler, la nature anxiogène des médias. La peur est un bon fonds de commerce car elle est une émotion qui fixe l’attention, et qui tend à faire accepter les informations comme étant vraies. Le biais de confirmation provoque facilement le gonflement et l’agrégation des informations similaires. L’heuristique de disponibilité agit enfin pour nous faire surestimer les risques. L’opinion est ainsi constituée et débouche sur des choix, notamment politiques.« Qui est le coupable, dans cet enchaînement ? Le journaliste. Il doit être informé de ces mécanismes, pour ne pas y céder. Les informations anxiogènes doivent être délivrées de façon mesurée, et sur un ton objectif. La tentation de les reprendre en boucle pour faire de l’audience en surfant sur le biais de confirmation me semble devoir être combattue. L’inflation d’images doit être contenue, pour ne pas alimenter l’heuristique de disponibilité.« Les conséquences sont potentiellement importantes pour une appréciation juste de l’état du monde par l’opinion, et pour des choix éclairés. Mais elles sont aussi sociétales et épidémiologiques : l’état d’anxiété d’une population se répercute sur la santé mentale (dépression, anxiété pathologique, phobies, tocs) et physique (obésité, maladie d’Alzheimer). Nos médias doivent se tenir à une ligne de conduite par rapport à cela. »

Peut-on gouverner par la confiance ?

 

 

L’histoire de Ralph, cadre dans un groupe, montre que la confiance est un enjeu 
déterminant des relations au travail. 
Elle se construit à certaines conditions. 
Quand elle est trahie, le collectif du travail peut s’effondrer. Démonstration en trois étapes.

Gouverner par la confiance ? Pour répondre à cette question, j’ai, heureusement, comme Montaigne, une bibliothèque-thébaïde. Le livre de Diego Gambetta Trust me donne un conseil éclairé : « Demander trop peu à la confiance est aussi mal avisé que lui en demander trop… Soyez économes de votre confiance. » (1).


Voilà un bon point de départ. À partir de ce principe, un cas concret, celui de Ralph, permet d’illustrer ce que l’on peut attendre de la confiance, en s’appuyant sur ce que nous enseignent les sciences humaines et Paul Ricœur.


De l’engagement


à l’amertume


Les salariés entretiennent avec leur entreprise un rapport qui dépasse ce que prévoit explicitement leur contrat de travail. Ils s’investissent et s’engagent souvent au-delà de ce qui leur est demandé et, en retour, attendent des récompenses (en matière de carrière ou d’équité). Mais la vie apporte souvent des désillusions, entraînant parfois de l’amertume, voire le sentiment d’avoir été trahi.


Prenons le cas de Ralph, cadre à « haut potentiel » dans un groupe. Il a accepté d’aller remettre à flot une unité en difficulté. De nouveaux investissements devaient permettre de sauver l’activité. Le contrôleur de gestion lui a montré des chiffres sur lesquels fonder son action, et son chef hiérarchique lui a promis la reconnaissance de la société. Ralph a donc déménagé. Mais le soutien financier n’a pas été à la hauteur des engagements ; Ralph a été obligé de couper dans les coûts, jusqu’au moment où il a dû alerter sa hiérarchie sur le risque de mettre en danger les compétences mêmes de l’unité. Bien que tiraillé entre des objectifs contradictoires, Ralph a poursuivi son travail avec loyauté. Pourtant, plus tard, le contrôleur de gestion a écrit sur lui un rapport négatif, et son supérieur hiérarchique a publiquement « admis » s’être trompé sur son compte.


Voilà un cas malheureusement courant : un cadre qui s’engage en échange d’une promesse de reconnaissance, une situation ambiguë – des problèmes de terrain complexes, un soutien financier insuffisant, peut-être à cause d’un changement de conjoncture. Toujours est-il qu’à la fin de l’épisode, Ralph était fondé à se sentir amer. De son côté, la direction avait peut-être de bonnes raisons de penser que Ralph n’avait pas été à la hauteur de sa tâche. Perte de confiance réciproque donc…


Agonismes et antagonismes


Pour analyser l’histoire de Ralph et de sa firme, nous aurons recours à deux sociologues allemands, Georg Simmel (1858-1918) et Niklas Luhmann (1927-1998), et à deux philosophes, l’un allemand lui aussi, Axel Honneth (né en 1949), l’autre français, Paul Ricœur (1913-2005). 


Les dirigeants font souvent appel à la confiance comme s’il s’agissait d’une croyance magique, comme s’il suffisait d’y croire pour qu’elle advienne. Mais il semble plus raisonnable de suivre G. Simmel et de parler, plutôt que de confiance, d’un continuum confiance-défiance que les acteurs sociaux peuvent parcourir dans un sens comme dans l’autre ou, plus précisément, d’un état de « suspension temporaire » (« Aufhebung ») de la confiance ou de la défiance. Accorder sa confiance à un autre acteur ou à une organisation est un acte de foi tout à fait réversible.


Le travail de N. Luhmann complète celui de G. Simmel sur les conditions qui fondent la confiance et la défiance :


• la mémoire des épisodes passés et de l’expérience de l’acteur dans des situations similaires, parfois avec les mêmes partenaires ;


• les anticipations de ce qui peut advenir, des bénéfices à attendre et des risques de l’action, le niveau de l’incertitude et la stratégie proposée pour y faire face ;


• les spécificités du contexte de l’interaction – règles du jeu, teneur des contrats entre les acteurs, « encastrement » dans des ensembles sociaux plus larges ;


• la réalité des interactions entre les acteurs : ce que les uns et les autres disent, font, décident, les responsabilités qu’ils prennent, les valeurs qu’ils défendent (2).


A. Honneth ajoute une autre dimension à la compréhension de la confiance. La vie sociale en général, et celle des entreprises en particulier, est tout sauf angélique. Par essence, les organisations sont marquées par des asymétries de pouvoir et d’intérêts, horizontales et verticales. La confiance se crée et se perd dans un jeu d’« agonismes » et d’antagonismes. Elle ne peut advenir que si, au préalable, chacun se décentre de lui-même pour « reconnaître » l’autre, ses droits, sa valeur et ses capacités. Or, cette reconnaissance ne va pas de soi : c’est un combat ou, comme l’écrit P. Ricœur, un « parcours », que je propose de dérouler en trois étapes.


Première étape - Michel Crozier, le Nobel d’économie et le chien de Jack Welsh. Ralph est un grand naïf. Il a cru en la parole du pouvoir et aux chiffres qu’on lui montrait ; il s’est engagé et a agi, mais sans comprendre le jeu politique dans lequel il était inséré, ni les bonnes raisons qu’avaient les autres acteurs de s’allier contre lui pour se protéger. M. Crozier aurait dit que les cartes qu’il détenait n’étaient pas suffisantes et que les autres acteurs maîtrisaient trop de variables (les cordons de la bourse, le choix des indicateurs d’évaluation). Le prix Nobel – Oliver Williamson – aurait dit, comme François Ier : « Bien fol est qui s’y fie. » En d’autres termes : rédigez des contrats détaillés, prévoyez des parachutes dorés et des bonus, ne dépendez jamais de l’arbitraire d’autrui, n’ayez jamais confiance. Quant à J. Welsh, le dirigeant de General Electric et grand gourou du management, il aurait sans doute conclu : les entreprises ne vivent pas de sentiment, mais de réalisme économique : un chef doit se faire craindre, surveiller et punir, manier la carotte et le bâton. Autrement dit : « If you look for loyalty, get a dog. »

Les groupes humains finalisés et structurés ont tendance à être ingrats et amnésiques. Ils vivent dans le court terme de l’action et dans l’illusion de l’équivalence entre discours et réalité. Malgré tout, ils savent d’expérience que la confiance peut leur être utile pour réduire l’incertitude et gagner du temps. Mais l’on oublie volontiers ses engagements quand cela nous arrange.
Les organisations sont condamnées à affronter le temps. Si, dans l’immédiat, la confiance n’est pas utile, les contrats donnant-­donnant suffisant théoriquement à définir les relations, dans la durée, cela n’est pas possible : le jeu n’est pas à un seul coup, la mémoire des coups passés comme l’anticipation des coups à venir marquent les décisions des acteurs.


Deuxième étape - Le don/contre-don. La construction d’espaces sociaux, où des acteurs vont partager des histoires et des anticipations, de l’imaginaire et du symbolique, et former des engagements mutuels est nécessaire pour qu’existe une action collective. Le principe du don/contre-don mis au jour par l’anthropologue Marcel Mauss permet de conceptualiser ce processus. 


« Envoyer et renvoyer l’ascenseur » sont des pratiques courantes dans les organisations : on offre un appui, on donne une information, on met en contact avec un client, etc. Ce petit service appelle en retour un contre-don, qui viendra à son heure.


La vraie coopération repose sur ce principe, qui échappe au calcul rigoureux de l’échange marchand, mais pas à une forme d’échanges informels inscrits dans les relations de travail. Le don implicite fabrique une forme de coopération qui va bien au-delà de la coordination managériale ; la force du lien peut ajouter le plaisir d’être ensemble à celui de produire une action collective efficace. Ce plaisir d’être ensemble peut être célébré par des fêtes et des moments de complicité et de partage. Il implique de l’affect et de la compréhension mutuelle : complicité et connivence.


Le niveau pertinent d’analyse est alors le rapport entre l’ensemble des salariés et la firme ; celle-ci peut être considérée comme un lieu où l’on peut s’identifier à quelque chose ou à quelqu’un et se construire en la construisant. On arrive alors à la troisième étape de la construction de la confiance.


Troisième étape - L’identité narrative. L’œuvre de P. Ricœur, notamment le concept d’identité narrative, donne des clés essentielles pour comprendre la confiance. Résumons : tout comme les individus, les organisations, les entreprises et les institutions en général possèdent une identité. Celle-ci n’est pas une pure construction managériale, produite par l’affirmation de valeurs par un comité exécutif (et révélée au cours d’un séminaire dans un château…). L’identité est une construction narrative, c’est-à-dire un récit dont les épisodes sont fournis par l’action réelle autant que par ce que les dirigeants en disent car le réel est toujours infiniment plus riche et contradictoire que le discours que l’on tient sur lui. 


L’identité narrative a un ancrage dans le temps. Vers le passé, elle renvoie à une mémoire, toujours réorganisée. Vers l’avenir, elle pose la question : quel est notre problème majeur ? Qu’est-ce qui est vital pour nous ? Que faire ? P. Ricœur dit que l’identité narrative « énonce des promesses » – ce qui est, au final, l’essence de la stratégie.


L’identité possède une deuxième dimension : l’altérité. L’identité collective doit répondre à la question : qui sommes-nous ? Cela implique de savoir ce qui nous rassemble, ce qui peut nous diviser et enfin qui sont nos ennemis. Bref, l’identité s’affirme dans une relation aux autres : les adversaires, les partenaires, les concurrents.


L’identité narrative, lorsqu’elle est crédible, a pour fonction d’apaiser les conflits internes et de donner du sens à l’engagement individuel et à la coopération entre les agents d’une même collectivité. Elle permet à chacun de s’identifier à un collectif, être imaginaire, mais qui s’impose alors à tous. Son critère de réussite est simple : quand l’intérêt collectif prime sur l’intérêt individuel, chacun peut agir en confiance, sachant que cet effacement devant le collectif sera source de bénéfices et le protégera contre l’iniquité et l’injustice. La théorie économique le confirme : confiance et coopération réduisent les coûts d’organisation et de transaction et constituent par là une ressource rare et pertinente, qui ne peut s’acheter ou être imitée – la source même de l’avantage concurrentiel.


Affirmer une identité narrative, formuler des promesses, proposer des valeurs ou un idéal confrontent le détenteur du pouvoir – leader ou manager de proximité – à un problème fondamental : il n’est crédible que s’il arrive à surmonter la suspicion et la défiance attachées spontanément à la différence hiérarchique. Détenant l’autorité formelle, il a le pouvoir de renier sa parole, de récompenser et de punir selon son désir, d’interpréter les valeurs ou l’idéal comme cela lui convient. Mais s’il le fait, il casse la confiance, le respect et la reconnaissance se retournent en haine et mépris.


La confiance passe donc par la reconnaissance d’une sorte de transcendance : il existe des principes, des valeurs, qui sont supérieurs, qui s’imposent à tous et dont le chef est le garant : l’équité et la justice, la raison, le primat de la réalité. Sans ce « tiers-garant », le don/contre-don n’est plus possible.


Trahir le rôle de tiers-garant ouvre la porte au primat des intérêts particuliers sur les intérêts collectifs, à la jouissance du pouvoir par une caste au détriment du collectif, justifiant la critique de Pierre Legendre dans Dominium Mundi (3).


Le pouvoir de trahir sa promesse : Gambetta, Ricœur et Montaigne pour viatique. L’histoire de Ralph le rappelle : les promesses n’engagent que ceux qui y croient. Les dernières pages du Parcours de la reconnaissance de P. Ricœur nous mettent en garde : il ne faut pas méconnaître l’asymétrie des pouvoirs et des positions. Celui qui s’engage aujourd’hui n’est pas celui qui accepte la promesse, et il ne sera plus vraiment le même quand, à l’avenir, il aura à la tenir ou à la trahir. On échange des dons et non pas des places. « Je » n’est pas l’autre, même s’il peut parfois faire illusion en se traitant « soi-même comme un autre ».


Ne gaspillez pas la confiance, réservez-la aux situations où, comme Montaigne, vous pouvez dire : « Parce que c’était lui, parce que c’était moi. »

 Roland Reitter

1. Diego GambettaTrust. Making and breaking cooperative relations, Basil Blackwell, 1988.
 
2. Niklas LuhmannLa Confiance. Un mécanisme de réduction de la complexité sociale, 1968, trad. fr. Economica, 2006. 

 
3. Pierre LegendreDominium Mundi. L’empire du management, Mille et Une Nuits, 2007.
 
 

Confiance, moralité et ocytocine

Aussi dans ce N° :

"Environnement et SN"  "Psycho-Social 1"
 

- La politique française à l'âge de la défiance 

- Qu'est-ce que la confiance ?
 
- La confiance, vitale et faillible 
 
- Plus on ment, plus il est facile de mentir et plus le cerveau est endommagé
 
- La psychologie de la crédulité

 

MANIPULATION

20 février 2017 : Atteinte de la 500 000° visite ! 

Merci de votre fidélité 

Jérôme BOSCH, "l'escamoteur"​

La manip pour tous

Sommes-nous tous manipulés ? Oui ! Mais pas comme nous l’imaginons. Mieux encore, serions-nous tous des manipulateurs, sans le savoir ?

Un soir, un jeune commercial en formation est passé à la maison dans l’espoir de me faire souscrire un abonnement. Il m’a posé une série de questions auxquelles je ne pouvais répondre que par l’affirmative, a insisté, tout sourire, sur le fait que ma signature n’engageait à rien et que du reste, bien sûr, j’étais libre de ne pas signer. J’ai refusé tout net, en claironnant qu’il employait des techniques de manipulation que je connaissais par cœur. « C’est pas de la manipulation !, s’est-il récrié. C’est mon chef qui me dit de faire comme ça ! – Alors c’est votre chef qui vous manipule, en dissimulant qu’il vous forme à manipuler ! – De toute façon, si c’est vraiment de la manipulation, moi je vais démissionner ! » Il est reparti blême et penaud. Ce malheureux pouvait-il manipuler ses clients potentiels sans le savoir ?

Les grosses ficelles du marionnettiste

Si l’on se fie au sens commun (mais on se doute bien qu’il a tort), le manipulateur apparaît comme un stratège supérieurement intelligent qui, parfois sans l’air d’y toucher, obtient ce qu’il veut d’une victime impuissante, voire inconsciente de ce qui l’attend. Cette conception hante l’imaginaire collectif, depuis les hypnotiseurs de spectacles aux méchants supérieurement intelligents du cinéma, en passant par la vogue des pervers narcissiques et les théories du complot plus ou moins étayées. À défaut d’être toujours faux, voilà qui semble en tout cas très limitatif. Car les recherches en psychologie sociale, notamment, présentent un panel extrêmement varié des techniques de manipulation.

Veut-on, par exemple, manipuler par la persuasion ? Élaborés voici une trentaine d’années, le modèle de probabilité d’élaboration (ou ELM) signé Richard Petty et Tom Cacioppo, ou encore le modèle du traitement heuristique/systématique de Shelly Chaiken, restent très influents aujourd’hui : ils montrent que la persuasion se révèle d’autant plus efficace que l’individu concerné est intéressé par le sujet dont il est question, et capable d’apprécier une argumentation de qualité. À défaut, il doit jouer le béni-oui-oui face à un interlocuteur perçu comme un expert. Voilà qui fait, certes, beaucoup de conditions ! Cependant, les modèles issus de la théorie de la dissonance cognitive (Leon Festinger, 1957) ne s’embarrassent pas de telles fioritures : ils insistent sur le bricolage intérieur permettant d’harmoniser nos pensées conflictuelles (ou de « réduire la dissonance »), quand nous sommes prêts à toutes les acrobaties pour justifier a posteriori, en y croyant nous-mêmes, nos contradictions, nos changements d’avis, et surtout nos comportements inhabituels. La manipulation la plus efficace, en effet, se base avant tout sur les actes. On agit d’abord, on se convainc ensuite qu’on a bien fait. Le paradigme d’« hypocrisie induite » joue par exemple sur la mauvaise conscience des individus pour leur faire modifier leurs comportements : à la piscine, interroger des nageurs sur leur gaspillage d’eau ordinaire leur fait prendre « spontanément » des douches plus courtes…

Auteurs du célébrissime (et toujours d’actualité) Petit traité de manipulation à l’usage des honnêtes gens (1987), Robert-Vincent Joule et Jean-Léon Beauvois décrivent de leur côté la « soumission librement consentie » comme consécutive à la mise en œuvre d’un acte anodin, produit devant témoin(s) et en toute liberté. Le tour de passe-passe le plus classique est celui du pied dans la porte, scientifiquement démontré avec l’exemple d’un gigantesque panneau publicitaire en faveur de la prévention routière que les citadins doivent accepter dans leur jardin. Si vous leur demandez de but en blanc, le plus probable est qu’ils refusent tout net. Si vous leur proposez simplement d’apposer un autocollant sur leur boîte aux lettres, vous aurez beaucoup plus de chances de parvenir à vos fins en leur proposant ultérieurement le fameux panneau. Un tout petit oui qui ne mange pas de pain augmente les chances d’accepter ensuite, graduellement, ce qui aurait dû paraître inacceptable.

Persuasion et manipulation par l’engagement sont-ils inconciliables ? Pas forcément : la « communication engageante » testée par les mêmes Joule et Beauvois articule ces deux dimensions : l’accomplissement d’un acte anodin favorise alors une tentative de persuasion consécutive. Mais pour quoi faire ? Eh bien, de même que selon Pierre Desproges il n’y a qu’une différence d’intention entre une mauvaise cuisinière et une empoisonneuse, tout dépend de ce que le manipulateur a en tête. Il peut vous faire accepter avec gourmandise d’acheter une encyclopédie volumineuse et onéreuse que vous ne consulterez jamais, alors que tout son contenu est disponible en libre accès sur Internet et ne vous a jamais intéressé. Il peut aussi vous amener à faire des économies d’énergie, utiliser plus souvent des préservatifs ou grignoter des vers de terre (tout cela, des psychologues l’ont vérifié) : disons qu’on donne alors un gros coup de pouce pour obtenir le meilleur comportement possible, pour l’intéressé et la communauté.

Je manipule, tu manipules

Ainsi le schéma intuitif de la manipulation, se jouant entre un tireur de ficelles démoniaque et un gentil pantin, se voit-il mis à mal. Les techniques comportementales les plus rapides et les plus efficaces font les délices de certains commerciaux qui ne sont ni machiavéliques ni psychopathes ni stratèges hors pair… mais pragmatiques. Si aucune n’est infaillible, leur combinatoire et l’art de les amener peuvent susciter des comportements qui n’auraient jamais été obtenus spontanément, parfois aberrants et contre-productifs. Et nous sommes tous des manipulateurs, peu ou prou, au quotidien. Des parents triomphants parce qu’ils ont trouvé une astuce pour faciliter (pour quelques soirs, en tout cas…) le coucher de leurs enfants surexcités, des enseignants se faisant part mutuellement des stratagèmes propres à décourager l’insolence d’un élève notoirement pénible, un sourire pour mieux faire passer la pilule en délivrant une facture, ou tout simplement l’usage du puissant « s’il vous plaît », qui insiste sur le sentiment de liberté de l’interlocuteur et limite ainsi nos chances d’essuyer un refus, tout cela relève de la manipulation, ou, si le terme vous gêne, d’une influence, mais sciemment exercée. Tous, nous manipulons au quotidien les images que nous arborons sur Facebook, non pas en les retouchant comme voici quelques décennies, mais en sélectionnant les meilleures, celles qui présentent des facettes de notre vie valorisantes aux yeux de notre communauté.

D’une manière ou d’une autre, personne n’échappe à l’influence : on ne peut pas ne pas être influencé, et on ne peut pas ne pas influencer. Peut-on ne pas être manipulé ? Et ne pas manipuler, même avec les meilleures intentions du monde ? La différence entre influence, persuasion et manipulation ordinaire n’est sans doute qu’une question de degré, de vocabulaire et d’intention.

Jean-François Marmion

Expérience de Milgram-Soumission à l'autorité (I comme Icare)

Machiavel, la machine du pouvoir

  

 

 

 

 

Comment garantir la stabilité et la grandeur d’un État ? Cette question a obsédé l’auteur du Prince et des Discours sur la première décade de Tite-Live. Il en a tiré une œuvre subversive sur les ressorts du pouvoir politique.

 

L’un des portraits les plus célèbres de Nicolas Machiavel (1469-1527), exposé au Palazzo Vecchio de Florence, en Italie, le représente avec un étrange sourire pincé (ci-contre). Diabolique pour les uns, subtil pour les autres, ce rictus incarne à lui seul l’énigme qui embrasse les écrits du diplomate florentin. Cinq siècles après sa mort, ceux-ci n’en finissent pas d’être étudiés, commentés, décriés ou loués.

Peu d’auteurs peuvent en effet se targuer d’avoir influencé la pensée politique au point de voir leur patronyme faire irruption dans le langage courant. C’est le cas de Machiavel : ne dit-on pas d’un esprit fourbe et calculateur qu’il est machiavélique ? Son ouvrage le plus célèbre, Le Prince, y est pour beaucoup. Écrit en 1513, ce court traité fait scandale dès sa publication posthume en 1532 – autant chez les protestants que chez les catholiques, qui allaient bientôt s’entredéchirer pendant toute la seconde moitié du 16e siècle. Y sont exposées sans détours les recettes pour fonder l’autorité du gouvernant, la renforcer. Machiavel explique notamment que le prince doit savoir « entrer au mal » s’il y a nécessité, par exemple en éliminant les éventuels rivaux qui menacent son autorité. On aurait tort cependant de résumer Machiavel à une apologie du mal en politique. Son œuvre est complexe, sujette à des interprétations variées et parfois contradictoires. Si dans Le Prince, il semble se faire l’apôtre de la monarchie et de la domination d’un seul, d’autres écrits, comme le Discours sur la première décade de Tite-Live, révèlent un attachement sincère à la république, et font entrevoir Machiavel comme un authentique penseur de la vie libre.

« Il suffit de l’initiation la plus rapide à l’histoire de la société où vivait Machiavel, et d’une lecture, si superficielle soit-elle, de ses ouvrages, pour se persuader qu’il ne fut ni le pratiquant, ni l’auteur de cette perversion politique », soutiendra le philosophe Claude Lefort dans l’ouvrage de référence Le Travail de l’œuvre, Machiavel (1972).

Au service de Florence

La pensée de Machiavel est étroitement liée au contexte historique qui l’a vue naître : celui de « l’air chaud et subtil de Florence  (1) ». Niccolò Machiavelli y voit le jour en 1469. L’Italie est à l’époque un pays morcelé, et ses cités autonomes sont régulièrement victimes d’invasions étrangères – quand elles ne se font pas la guerre entre elles. Une instabilité chronique qui se prête du reste aux expériences politiques. Le 15e siècle florentin est émaillé de turbulences : son régime républicain est à l’agonie depuis que la puissante famille de Médicis en a pris le contrôle en 1434 ; leur règne est jalonné de conjurations, de soulèvements populaires et de coups d’État.

En 1494, alors que la cité se voit décimée par de nouvelles invasions barbares, les Médicis sont chassés par une révolte d’aristocrates florentins, partisans de Jérôme Savonarole. Qui est J. Savonarole ? Un prédicateur dominicain qui dit recevoir ses ordres directement de Dieu, un bretteur terrible et enflammé qui entend abolir la débauche et redonner à Florence son lustre d’antan. La république théocratique qu’il institue s’effondre quatre ans plus tard, son architecte avec elle : J. Savonarole est pendu puis brûlé place de la Seigneurie le 23 mai 1498 pour hérésie. Machiavel assiste à l’exécution, et entre en scène quelques jours plus tard.

Il a alors 29 ans et prend la tête de la deuxième chancellerie de Florence. Le poste est prestigieux, et les réseaux humanistes fréquentés par son père, issu de la petite noblesse, sont sûrement pour beaucoup dans cette nomination. Sa tâche consiste à superviser les correspondances entre la cité et les provinces qu’elle contrôle. C’est un observatoire idéal du jeu politique, à un moment où les Italiens se posent des questions cruciales pour leur avenir : comment sortir de la crise ? Comment restaurer une stabilité politique ? Comment moderniser les institutions ? Quel sort attend les petits États italiens face à l’émergence de grandes puissances européennes ?

Rapidement, les prérogatives du jeune secrétaire sont élargies, et il effectue sa première mission diplomatique en Romagne un an seulement après être entré au Palazzo Vecchio. En 1500, Florence est alors embourbée dans une guerre contre la cité voisine de Pise. Lors d’une énième tentative de reconquête, les mercenaires franco-suisses embauchés par les Florentins ont déserté. Machiavel a alors pour mission de convaincre les Français que cette défaite découle non de l’impéritie du commandement florentin mais de la déloyauté du camp français. Son séjour à la cour de Louis XII instille dans la tête du jeune diplomate une idée féconde qu’il exposera dans plusieurs ouvrages  (2) : mieux vaut se doter de sa propre milice que de confier son sort aux « armes d’autrui » et aux mercenaires. Autrement dit, tout gouvernant doit avoir son armée, composée par des citoyens et animée par un élan patriotique. La guerre n’est pas seulement l’affaire des grands, mais aussi celle du peuple. Il ira même jusqu’à encourager l’immigration dans le Discours sur la première décade de Tite-Live pour permettre à la cité de se doter d’une armée fidèle à la patrie.

César Borgia et la « bonne » cruauté

Le sens politique et la discrétion du jeune diplomate forcent le respect. Son ascension durant cette première décennie du 16e siècle mérite d’être mis en parallèle avec celle, beaucoup plus fulgurante, d’un autre personnage emblématique de la Renaissance italienne, César Borgia. Fait duc de Romagne par son père le pape Alexandre VI, il se lance rapidement dans une série de campagnes militaires, et réclame en 1501 une alliance avec Florence. Machiavel est alors mandaté par le Palazzo Vecchio pour engager des pourparlers officieux avec ce nouveau souverain qui s’agite aux frontières de la République.

Impressionné par l’audace du duc auprès duquel il demeure pendant quatre mois et avec qui il s’entretiendra régulièrement, Machiavel rédigera de nombreux rapports diplomatiques qui seront repris quasiment à l’identique dans le chapitre VII du Prince. Le personnage de Borgia sera l’un des points d’appui empiriques essentiels dans les théories politiques que formulera le diplomate. En ce qui concerne le « bon » et le « mauvais » usage de la cruauté, notamment. Il relate par exemple l’épisode où le duc de Romagne, soucieux de résoudre les troubles qui secouaient ses provinces nouvellement acquises, charge l’un de ses barons, Rimiro de Orco, d’y rétablir l’ordre. La besogne est accomplie de la manière la plus cruelle et expéditive qui soit selon Machiavel, mais le résultat est là : le territoire est pacifié. L’efficacité du baron aurait pu être récompensée, mais César Borgia décide du contraire. Pour se désolidariser de son lieutenant zélé et se prémunir de la haine du peuple et des petits seigneurs qu’il lui a ordonné de violenter, il le fait traduire devant un tribunal public. Rimiro de Orco est condamné à mort et, en guise de caution cathartique, son corps « en deux morceaux » est exposé publiquement à la foule.

Une manœuvre calculée que l’on pourrait sûrement juger odieuse, mais qui préfigure en un sens les gouvernements-fusibles d’aujourd’hui, nommés pour remplir des missions impopulaires et, une fois leur tâche accomplie, sont évincés en guise d’apaisement. Face à une telle hardiesse dans ses prises de décision, Machiavel ne cache en tout cas pas son admiration pour Borgia. Il en fait même un exemple à suivre : « Qui donc juge nécessaire (…) de s’assurer de ses ennemis, s’attacher des amis, vaincre par force ou par ruse, se faire aimer et craindre du peuple, suivre et respecter des soldats, ruiner ceux qui nous peuvent ou doivent nuire, (…) celui-là ne peut choisir plus frais exemples que les faits du duc  (3). »

Comme l’intrigant Borgia qui ne profita guère longtemps de son titre (le pape Jules II le fit arrêter en 1504 et démantela ses domaines et conquêtes), la glorieuse carrière de diplomate qui s’offrait à Machiavel s’achève de manière abrupte. Après avoir été l’émissaire privilégié de Florence auprès de Borgia, il parvient à convaincre le conseil exécutif de sa ville natale de créer sa propre milice en 1506, et continue d’être régulièrement sollicité pour des missions diplomatiques auprès de l’empereur du Saint-Empire romain germanique Maximilien, Ferdinand d’Espagne ou encore le pape Jules II, hommes d’État dont les choix, succès et égarements ne manqueront pas d’alimenter ses conceptions politiques. En 1512, les deux derniers souverains cités concluent une alliance et parviennent à renverser le gouvernement florentin pour y replacer… la famille Médicis. Machiavel, révoqué de son poste, accusé à tort d’avoir fomenté un complot contre le nouveau gouvernement, est emprisonné, torturé, puis assigné à résidence.

 

Fortuna et virtù

S’ouvre alors la période (1512-1527) où il va, jusqu’à sa mort, rédiger tous ses grands textes. Il s’attaque à un opuscule, De principatibus, achevé en 1513 qui deviendra Le Prince. « Reçoive donc Votre Magnificence ce petit don de tel cœur que je lui envoie ; (…) et si (elle) du comble de sa hautesse, tourne quelquefois les yeux vers ces humbles lieux, elle connaîtra combien indignement je supporte une grande et continuelle malignité de fortune », préface-t-il à l’attention de Laurent II de Médicis, sur lequel il compte pour revenir aux affaires. La démarche initiale a beau être intéressée, elle n’en atténue pas la révolution contenue dans ce traité.

Machiavel évoque dans sa dédicace son manque de fortune (du latin fortuna, chance), l’un de ses concepts clés. Selon lui, la grandeur et la ruine des souverains sont en grande partie liées à des aléas providentiels avec lesquels il faut savoir composer. Il associe par exemple les succès de Jules II, personnage qu’il qualifie pourtant d’« impétueux », à sa faculté de s’attirer les faveurs de la fortuna  (4). La fortune, écrit-il, « nous élève et nous ruine sans pitié, sans lois ni raison ». À l’instar des marchands florentins qui devraient anticiper la « fortune de mer », c’est-à-dire les risques encourus, un gouvernant doit savoir qu’il existe en toute chose de l’imprévisible, bon ou mauvais… Pour lui, la fortuna est « maîtresse de la moitié de nos œuvres », et sourit en priorité aux personnes vertueuses (virtuoso), qui savent la dompter et la retourner pour la mettre à leur service.

S’adapter aux situations imprévues

La virtù est l’autre idée fondamentale du système machiavélien. Cette fois, l’ancien diplomate s’affranchit totalement de ses prédécesseurs, notamment de la liste exhaustive des qualités du souverain modèle, dressée par les moralistes classiques (Platon, Cicéron, Sénèque) et reprise par ses contemporains (Francesco Patrizi). Il se sert à rien, selon Machiavel, de tenter à la fois d’être « pitoyable, fidèle, humain, intègre, religieux » – autant de traits de caractère qui composent la virtù classique. Et ce pour deux raisons. D’une part, parce que c’est impossible : l’homme a un penchant naturel pour le vice, et ne peut atteindre le degré de perfection enjoint. D’autre part, toutes ces qualités irréprochables sur le plan moral peuvent aussi mener un chef d’État à la ruine : « Il faut qu’il ait l’entendement prêt à tourner selon les vents de la fortune », soutient Machiavel, qui l’invite à « ne pas s’éloigner du bien, s’il peut, mais savoir entrer dans le mal  (5) ». La virtù est donc une capacité à s’adapter aux situations imprévues et à les surmonter, symbolisée au chapitre XVIII par une métaphore devenue célèbre : le prince doit se faire lion pour la force, et renard pour la ruse. Machiavel proclame ainsi la primauté de l’efficacité politique sur l’éthique. Pis, il encourage le souverain à duper ses sujets en leur faisant croire qu’il possède toutes les qualités.

Le Prince serait-il donc un « manuel pour gangsters », comme l’a désigné le moraliste britannique et prix Nobel de littérature Bertrand Russell (1872-1970) ? On peut en douter. Les exhortations à trahir, tromper et assassiner apparaissent sous la plume de Machiavel plutôt comme un mal nécessaire dont le peuple serait en fin de compte le bénéficiaire que comme une invitation à la domination tyrannique. N’affirme-t-il pas que la cruauté ne doit s’exercer que « par nécessité et par sûreté » et à condition de « se converti(r) en profit des sujets » ? Dans Le Prince, il s’interroge certes sur les réponses à donner à certaines situations, mais sa réflexion porte davantage sur la nature du pouvoir. Lui, qui connaîtra quatre renversements de régime, pense que l’instabilité est le lot commun de toute politique et que le gouvernant doit chercher autant que possible à limiter cette instabilité. Mais comment y parvenir ?

Le Discours sur la première décade de Tite-Live, son autre ouvrage majeur, prend cette question à bras-le-corps. Mais cette fois, Machiavel s’intéresse à un tout autre type de régime : la république. « L’expérience prouve que jamais les peuples n’ont accru et leur richesse et leur puissance sauf sous un gouvernement libre  (6) », écrit-il, bien loin de sa renommée de cajoleur de tyrans. Se fondant sur l’Histoire romaine de Tite-Live, il tente d’identifier les raisons de la grandeur de la ville de Rome, qui est parvenue à allier pendant plusieurs siècles grandeur, richesse, puissance militaire et liberté populaire.

Le primat des intérêts personnels

L’une de ses idées phare avait été brièvement évoquée dans son précédent opuscule. Selon lui, le peuple est affecté par deux « humeurs » : les grands veulent nécessairement oppresser le peuple, et le peuple ne veut pas être oppressé. Les deux, de par leur condition d’homme, ont un point commun : ils cherchent à faire primer les intérêts personnels sur le bien commun. Dès lors, il n’est pas souhaitable que l’une ou l’autre des deux factions prenne unilatéralement le pouvoir, au risque d’en voir une légiférer contre les intérêts de l’autre, dérive ouvrant la voie à la division et aux coups d’État. Cette observation, comme le fait remarquer Quentin Skinner, place le Florentin devant un dilemme : pour qu’une cité atteigne la grandeur, il est essentiel que le corps social tout entier soit détenteur de la virtù. Mais comment y parviendrait-il s’il en est dénué au départ ?

La réponse se situe selon Machiavel dans ce rapport conflictuel, seul à même d’accoucher de lois équilibrées, et donc de parvenir à la vie libre des citoyens. Dès l’origine, si des lois constitutionnelles fortes, inspirées par un chef d’État créateur – Machiavel prend l’exemple du fondateur de Rome, Romulus –, parviennent à retourner cette opposition naturelle entre grands et peuple de manière à leur faire acquérir cette volonté d’œuvrer au bien collectif de la cité, alors sa prospérité est garantie. Tout du moins pour un temps. Car la difficulté est alors de régénérer régulièrement cette virtù civique originelle, qui a une fâcheuse tendance à s’étioler. Dans l’idéal, Machiavel suggère que l’État républicain se dote régulièrement d’un chef qui « rend(rait) à ses lois leur première virtù, et qui l’empêch(erait) de courir à la décadence  (7) ». Sinon, il faut que les citoyens redoutent suffisamment de défier leurs lois pour en prévenir la désuétude.

De l’utilité de Dieu

La religion peut alors être d’un grand secours, et la crainte de Dieu, agir comme ciment social. L’association entre non-respect des lois et blasphème, comme au temps de la Rome antique ou de J. Savonarole à Florence, permet de garantir une certaine discipline des citoyens. Cette conception purement utilitariste de la religion constituera, on s’en doute, une raison de plus donnée à ses contemporains pour haïr Machiavel.

Par chance, ces derniers n’auront pas le plaisir de le maudire de son vivant. Hormis L’Art de la guerre (1521), tous ses écrits politiques seront publiés de manière posthume. Au cours de ses dernières années, Machiavel parvient finalement à gagner les faveurs des Médicis, qui lui confient la rédaction des Histoires florentines. S’il ne boude pas son retour en grâce, la tâche est plutôt délicate : les Médicis sont pour Machiavel responsables de nombreux désastres qui ont terni la grandeur de sa ville natale. Coup du sort, la puissante famille est de nouveau renversée en 1527, et une république est instaurée. Le diplomate reconverti en historien est, une fois de plus, mis de côté. Sa collaboration avec les Médicis l’a sans aucun doute discrédité aux yeux de la république qui se constitue, quand bien même ce nouveau régime bénéficierait de toute sa bienveillance.

Machiavel meurt un mois plus tard. Sur sa tombe de la basilique Santa Croce est toujours inscrite l’épitaphe : « Aucun éloge n’atteindra jamais à la grandeur de ce nom. »

Clément Quintard  

NOTES

1. Friedrich NietzschePar-delà le bien et le mal, 1886, rééd. Hachette/BnF, 2013. 

2.Le Prince (chap. XII et XIII) et L’Art de la guerre, où il revient tout au long du livre I sur la constitution d’une armée de citoyens. 

3.Nicolas MachiavelLe Prince in Œuvres complètes, La Pléiade, 1982. 

4.Ibid, chap. XXV. 

5.Ibid., chap. XVIII. 

6.Nicolas MachiavelDiscours sur la première décade de Tite-Live in Œuvres complètes,op. cit. 

7.Ibid.

Aussi dans ce N° :

"Environnement et SN"  "Psycho-Social 2"
 

- Pervers narcissiques : de purs manipulateurs ?

- Les neurones de la pensée libre

 

- L'attribution causale
 
- L'erreur fondamentale d'attribution
 
- Et pourtant je comm'unique (spot de l'AFP) 
 
 
"Bibliographie"
 
Rumeurs : le plus vieux média du monde
 
 "Au delà du SN"
 
Laurent Alexandre au Sénat ("Intelligence Artificielle" et Société de demain)

 

FAUX SOUVENIRS

20 janvier 2017

Colette Degouy "fausses notes"

Je me souviens donc je me trompe

 

Hippocampal slice culture stained for neurons (blue), astrocytes (green) and proliferating cells (red) (20x)

http://tinyurl.com/h2zwzsk

 

Petite histoire des recherches sur les « faux souvenirs »

 

 

 

Francis Bacon, Extrait de De dignitate et augmentis scientiarum

Les erreurs dans les témoignages

La recherche sur les faux souvenirs est née, dès la fin du XIXe siècle, d’un doute portant sur l’exactitude et la fiabilité des témoignages. En 1893, James McKeen Cattell (1860-1944) mit au point à l’Université de Columbia une expérience informelle pour mesurer la fiabilité des souvenirs et publia dans Science le premier article américain sur la psychologie des témoignages. Cette expérience portant sur 56 étudiants l’amena à constater avec étonnement des différences importantes entre leurs témoignages1. Il conclut son étude en exprimant l’espoir que la mesure de la fiabilité des souvenirs puisse être utilisée dans le domaine judiciaire :  » Comme dernier exemple de l’utilité des mesures de la précision des observations et des souvenirs, je veux parler de leurs applications dans les cours de justice. L’exactitude probable d’un témoin pourrait être mesurée et son témoignage serait pondéré en fonction du résultat. Une correction numérique pourrait être introduite selon le temps écoulé, l’insuffisance moyenne (« average lack ») de véracité, l’effet moyen de l’intérêt personnel, etc. Le témoignage pourrait être recueilli de façon indépendante et communiqué à des experts qui pourraient affirmer, par exemple, que les chances que l’homicide ait été commis par l’accusé sont de 19 sur 1, et de 4 sur 1 qu’il ait été prémédité. »2

L’expérience de Cattell influença d’autres pionniers de la psychologie du témoignage comme le psychologue français Alfred Binet (1857-1911) et le psychologue allemand William Stern (1871-1938).

Dès 1916, on s’interrogea sur l’exactitude et la fiabilité du témoignage oculaire, dans les interrogatoires de police et dans les procès, bien avant l’examen des traces et des indices. Elizabeth Loftus, dans la riche littérature qu’elle a consacrée à l’étude de la mémoire et de ses illusions, raconte, entre autres faits, qu’en 1979, dans l’État du Delaware, un prêtre catholique avait été soupçonné de vols à main armée sur la base de témoignages oculaires. Sept témoins lui avaient donné le nom de « bandit gentleman », pour décrire le raffinement et l’élégance du voleur. Au cours du jugement, plusieurs personnes identifièrent le prêtre voleur. Mais, coup de théâtre, un autre individu reconnut avoir commis ces vols, et le jugement fut cassé.

C’est ainsi que quantité de gens sont accusés à tort sur la base de témoignages oculaires erronés. Le témoignage oculaire est propice à la création de faux souvenirs. De plus, il donne lieu à un récit dont le risque est d’être subjectif en raison de la difficulté à différencier ce qui relève des faits observés et des « connaissances préalables », c’est-à-dire acquises avant d’avoir assisté à un délit ou à un crime.

En 1992, aux États-Unis, une jeune femme adulte, Holly Ramona, consulte une thérapeute pour venir à bout des troubles nutritionnels dont elle souffre depuis l’adolescence. La thérapie est accompagnée d’injections de penthotal, familièrement appelé « sérum de vérité » et censé garantir la véracité des souvenirs. Au bout de quelques mois, Holly retrouve le souvenir ignoré jusque-là d’actes d’inceste commis dans son enfance par son père. Elle accuse celui-ci, lui fait un procès. La famille Ramona est détruite, les parents divorcent. Puis, grâce au témoignage au procès d’Elizabeth Loftus, spécialisée dans les recherches sur les faux souvenirs induits par certaines thérapies, le père de Ramona est disculpé. Le « cas Ramona » est devenu paradigmatique, mais d’autres semblables à lui vont surgir dans l’actualité brûlante des années 1990 et conduire des équipes de chercheurs états-uniens, Elizabeth Loftus en tête, à étudier le « syndrome des faux souvenirs »3.

Les étapes successives de la recherche sur le témoignage et les faux souvenirs

1916 – Estimation de la vitesse de véhicules

L’une des premières études de psychologie sur ce sujet a été publiée en 1916 par F.E. Richardson. Les participants de l’expérience devaient juger la vitesse d’une Cadillac à huit cylindres et de deux modèles Ford, passant devant leurs yeux.

Les conclusions de l’expérience montrèrent que les participants développaient des stéréotypes sur les conducteurs de différents types de véhicule, qui influençaient leur estimation. Par exemple, dans l’une des études, ils décrivaient le conducteur d’une grosse cylindrée comme étant plutôt un homme, peu soucieux des limitations de vitesse, menant une vie plus stressante, s’habillant mieux, plus impatient, bénéficiant d’un salaire et d’une situation professionnelle plus élevés, et ayant eu un plus grand nombre de contraventions que le conducteur d’une petite cylindrée. Toutefois, on constate que ces stéréotypes influencent plus fortement les participants lorsqu’on leur demande une estimation un jour après le visionnage des vidéos, ou sans les avoir vues.

L’expérience conduisit à la conclusion que l’estimation de la vitesse des véhicules est beaucoup plus influencée par les stéréotypes, quand l’accès aux informations n’est pas immédiat ou direct.4

1974-1975 – L’effet des questions dirigées sur la mémoire des témoins

L’objet de cette étude, menée par Loftus et Palmer, était de voir si la formulation des questions avait un impact sur l’estimation de la vitesse de véhicules. Cette expérience a apporté la conclusion que les témoins oculaires jugent la vitesse d’un véhicule plus élevée, si le verbe utilisé dans la question suggère une collision violente entre les automobiles (« elles se sont télescopées », « il a fallu désincarcérer le conducteur et les passagers »...) Dans ce cas, les témoins « se souviennent » avoir vu du verre cassé, du sang sur les lieux de l’accident, si on leur pose la question. L’objectif de cette expérience est de déterminer de quelle manière la mémoire est influencée par l’incitation entourant la mise en mémoire et le rappel. Les études ont établi que les souvenirs n’étaient pas nécessairement des souvenirs fidèles d’évènements présentés, mais étaient en fait construits en utilisant des expériences passées et d’autres influences.5 Une série d’expériences publiées récemment (2009) par le psychologue Graham Davies, de l’Université de Leicester au Royaume-Uni, montre que l’estimation de la vitesse de deux véhicules est à peu près exacte quand les participants la jugent au moment où ils visionnent des vidéos de ces deux automobiles roulant à différentes allures. Elle l’est moins quand ils doivent évaluer les vitesses rétrospectivement, un jour après le visionnage.6

1978 – Paradigme des informations trompeuses

Loftus, Miller et Burns ont mis au point une méthodologie pour &eacut