Peut-on se fier à Wikipédia ?

 

L'encyclopédie gratuite et en ligne Wikipédia connaît un réel engouement. Elle est cependant inachevée et son mode d'élaboration ne la préserve pas des erreurs ou des manipulations de l'information.

Annaïg Mahé

 

LA VERSION FRANÇAISE de Wikipédia a reçu près de 25 millions de consultations en juin 2017 (Médiamétrie). Cette utilisation de plus en plus massive suscite de légitimes inquiétudes lorsqu’elle représente l’unique source de documentation de certains élèves ou étudiants.

 

Sur la page d'accueil de la version française, Wikipédia se décrit comme « le projet d'encyclopédie libre que vous pouvez améliorer », tandis que la page d'accueil de la version anglaise indique « l'encyclopédie libre que chacun peut réviser ». Wikipédia est ainsi un site Internet à visée encyclopédique dont la particularité première est que tout un chacun peut proposer un article, compléter ou modifier les articles déjà existants.

Le succès grandissant de Wikipédia a fait couler beaucoup d'encre (numérique) et des critiques se sont fait jour. Elles mettent en cause la fiabilité des informations diffusées par ce projet participatif et soulignent le risque lié à une élaboration libre d'un contenu encyclopédique, sans vérifications par des experts faisant autorité. Non seulement de nombreux articles contiendraient des inexactitudes, mais certains contenus feraient l'objet de manipulations volontaires. Un risque de manipulation qui peut par exemple se vérifier à l'aide de Wikiscanner, un moteur de recherche lancé en 2007 et qui permet d'identifier les organismes à l'origine des modifications faites de façon anonyme dans l'encyclopédie : plusieurs internautes ont ainsi relevé l'effacement de détails gênants dans la biographie de certains hommes politiques français.

Pour évaluer la vulnérabilité et les défauts de Wikipédia, il faut d'abord comprendre comment fonctionne ce projet collaboratif. Wikipédia est né de l'échec d'une tentative de création d'une encyclopédie classique, mais gratuite et en ligne, Nupedia. En 2000, un entrepreneur américain, Jimmy Wales, embauche Larry Sanger comme rédacteur en chef de ce projet fondé sur le mouvement du logiciel libre. L'idée initiale était de proposer des articles écrits et validés par des experts, comme dans les autres encyclopédies, mais en les mettant à disposition en ligne et gratuitement.

Cependant, dans les 18 premiers mois, une vingtaine d'articles seulement furent publiés. L. Sanger décida alors d'ouvrir la participation à la rédaction des articles grâce à WikiWikiWeb (de l'hawaïen wiki wiki qui signifie « rapide » ou « informel »), un logiciel permettant l'écriture simple et collaborative de pages Web. Cela ne fut pas du goût des experts chargés de la validation des articles de Nupedia. L'entreprise devint alors un projet séparé qui prit le nom de Wikipédia et dont le succès fut immédiat : un millier d'articles rédigés à la fin du premier mois, 100 000 à la fin de la deuxième année.

Une tour de Babel

Aujourd'hui, le projet Wikipédia représente une tour de Babel dont il n'est pas facile de donner une photographie stable et claire du contenu : il existe près de 270 versions différentes, qui totalisent près de 14 millions d'articles (sept millions en 2007). Les nombres d'articles et de consultations continuent d'augmenter, même si une étude récente mentionne une relative baisse du nombre de contributeurs. La version anglaise est de loin la plus importante, avec plus de trois millions d'articles. Elle attire en outre près de la moitié du trafic sur toutes les versions. Elle est suivie par la version allemande (près de un million d'articles), puis par la version française (plus de 800 000 articles), qui a reçu plus de 15 millions de consultations en septembre 2009. En quatrième et cinquième places viennent la version polonaise et la version japonaise (plus de 600 000 articles).

Certaines versions sont très peu développées : si 27 versions ont plus de 100 000 articles (pour l'instant seule la version anglaise dépasse le million d'articles), elles sont près de 100 à proposer moins de 1 000 articles. Les versions diffèrent aussi par le nombre de participants, leur taux d'activité ou le type de contenu. Notamment, la proportion d'images disponibles varie beaucoup d'une version à une autre. Chaque version est créée indépendamment des autres, et les articles sur un même sujet ne sont pas équivalents. Et si certains proposent au départ une traduction d'un article d'une autre version (c'est loin d'être le cas général), les modifications qui y sont apportées entraînent rapidement des différences importantes.

Comment fonctionne cette entreprise éditoriale ? Financièrement, le contenu ne coûte rien au projet puisqu'il est fourni par une armée de bénévoles : près de 90 000 contributeurs actifs (dont 11 000 très actifs) en août 2009, toutes versions confondues (pour près de un million de contributeurs enregistrés). Les sites Internet, eux, nécessitent du matériel et de la maintenance. Comme Wikipédia refuse le financement par la publicité, elle a fait appel aux investissements et aux dons financiers ou matériels d'entreprises, de fondations et de particuliers pour répondre à la forte croissance des différents projets, et a mis en place la fondation Wikimédia. Cette fondation à but non lucratif, qui a récemment quitté la Floride pour la Californie, gère le fonctionnement matériel et informatique (notamment en hébergeant les différents sites), mais ne s'ingère pas dans les projets éditoriaux. Il existe aussi quelques associations locales (Wikimédia France, par exemple) dont le but est de promouvoir Wikipédia.

Des contributeurs anonymes

Quant au fonctionnement éditorial, Wikipédia repose sur quelques principes de base assez simples (l'incitation faite à tout un chacun à participer, l'exigence d'une neutralité de point de vue dans les articles, etc.). Ces principes, cependant, ne sont pas des obligations, et la croissance fulgurante des différentes versions a très vite entraîné une évolution des différentes communautés de « Wikipédiens » : chacune définit ses propres règles de gestion éditoriale et se structure autour de rôles spécialisés et d'un jargon spécifique. Les différents rôles sont clairement définis par des « statuts » qui ne correspondent pas à une hiérarchie entre utilisateurs, mais décrivent les différents pouvoirs fonctionnels, attribués de façon collégiale par la communauté.

On trouve ainsi des statuts techniques standards (l'utilisateur anonyme ou enregistré, ce dernier statut autorisant plus de participation directe), des statuts techniques évolués qui sont élus ou désignés par la communauté (l'« administrateur », le « steward », le « bureaucrate », etc.) ou des rôles informels (« utilisateurs prêts à aider », « wikipompiers », « patrouilleurs », « wikitraducteurs », etc.). Une grande part du contenu est apportée par des contributeurs souvent occasionnels, anonymes ou non. Et les contributeurs les plus actifs, qui participent au bon fonctionnement du site (ménage, organisation, surveillance du vandalisme, notamment), sont peu nombreux : quelques centaines pour la version francophone, pour près de 50 000 contributeurs enregistrés depuis la mise en place de cette version.

En 2009, Wikipédia figurait parmi les dix sites les plus consultés en France, selon les données récoltées par Médiamétrie (ou 6e site le plus consulté, selon Alexa ; 15e en 2007). Il est intéressant de noter que c'est le seul site à contenu éducatif parmi les 30 sites les plus visités, les autres étant soit des sites de moteurs de recherche, soit des sites de services commerciaux.

Un premier constat s'impose donc : Wikipédia est très populaire et toujours plus utilisée. Cependant, un tel succès n'est pas en soi un gage de qualité du contenu, et un second constat suit immédiatement : Wikipédia est loin de laisser indifférent.

Car ce qui a permis un tel succès est aussi ce qui constitue la principale critique à son encontre, à savoir la possibilité ouverte à tous de rédiger, modifier, compléter les articles de cette encyclopédie. À l'inverse des encyclopédies existantes jusqu'alors, les articles proposés dans les différentes versions de Wikipédia ne sont pas rédigés ni validés par des experts (re)connus et (re)nommés. Il n'y a aucun travail éditorial classique, aucune sélection ni validation a priori des contenus disponibles. Ceux-ci ne sont d'ailleurs jamais figés et peuvent évoluer d'un jour à l'autre, voire d'une heure à l'autre.

Par ailleurs, la popularité de Wikipédia est renforcée par le fonctionnement du moteur de recherche Google et l'usage quasi monopolistique qui en est fait, notamment par les lycéens et étudiants, les premiers liens à une requête formulée sur Google renvoyant souvent à une page de l'encyclopédie. Ces deux sources se renforcent donc mutuellement et finissent par devenir, pour une population croissante, les seules portes d'entrée vers l'information.

Un questionnement sur la validité et sur l'autorité

Les professionnels de l'information et les enseignants, et pas seulement en France, se sont très vite alarmés de cet engouement généralisé. Depuis ses débuts en 2002, Wikipédia cristallise les débats sur les notions de validité de l'information et d'autorité sur Internet. La jeune encyclopédie a ses détracteurs et ses défenseurs passionnés : pour les premiers, Wikipédia n'est pas (et ne pourra jamais être) ce qu'elle affirme être, une encyclopédie ; pour les seconds, souvent eux-mêmes contributeurs, Wikipédia symbolise bien les possibilités de partage de l'information offertes par Internet. Entre les deux se situe toute une population d'enseignants, de chercheurs, de professionnels de l'information qui ne savent comment se positionner face au contenu et au fonctionnement de cette encyclopédie libre en ligne et qui se demandent quel peut être un usage raisonné de Wikipédia.

Auparavant, le professionnel de l'information ou l'enseignant étaient les médiateurs privilégiés d'une sélection d'informations a priori validées. Or Internet en général, et Wikipédia en particulier, donnent aujourd'hui accès à tous types d'informations. Dans ce contexte, la responsabilité de l'évaluation de ces informations repose sur le lecteur, qui n'en est pas toujours conscient. Que faut-il donc penser de Wikipédia, projet qui ne cesse de s'affirmer et qui semble bien résister à un environnement numérique particulièrement mouvant ? Comment et quand l'utiliser ?

Avant toute réponse, il convient de remarquer que Wikipédia est un projet jeune, en phase de maturation, comme le sont ses usages, en particulier comme outil pédagogique (par exemple, au travers de la rédaction, vérification ou correction d'articles de Wikipédia). Les Wikipédiens sont conscients des critiques dont l'encyclopédie fait l'objet et mènent des réflexions en vue d'améliorer sa gestion éditoriale, même s'ils soulignent que l'état actuel de l'encyclopédie n'est que provisoire.

Par ailleurs, une attitude de rejet total de Wikipédia ne peut être une réponse face à l'utilisation de plus en plus massive de cette encyclopédie par les lycéens et les étudiants. Il est cependant important que ces derniers aient conscience des limites des différents outils offerts par Internet.

Quelle est la fiabilité des informations que l'on trouve dans Wikipédia ? Plusieurs détracteurs ont testé la réactivité de l'encyclopédie en intégrant volontairement de fausses informations. Mais cela a fait ressortir que les erreurs les plus flagrantes sont généralement rapidement corrigées, et que les articles les plus controversés sont aussi les plus surveillés – l'accès à certains articles, souvent sur des sujets d'actualité, pouvant même être temporairement bloqué en cas de problème. La principale difficulté réside sans doute plutôt dans le risque de prolifération d'informations inexactes, incomplètes, voire biaisées ou intentionnellement falsifiées, qui seraient non corrigées parce que moins visibles.

Plusieurs analyses comparatives (notamment celle présentée par l'hebdomadaire britannique Nature en 2005, qui portait sur 42 articles scientifiques, ou celle publiée en 2006 par Roy Rosenzweig, historien à l'Université George Mason, aux États-Unis) ont permis de constater que le taux d'erreurs relevées dans les articles de Wikipédia n'est pas significativement supérieur à celui des encyclopédies classiques. D'autres études ont constaté que toutes les thématiques n'étaient pas équivalentes, en quantité comme en qualité d'articles ; ainsi, les textes scientifiques et techniques seraient en général de meilleure qualité que ceux de sciences humaines.

Les professionnels de l'information formulent parfois des avis et des recommandations sur l'utilisation de Wikipédia. Ainsi, les bibliothécaires de la Gould Library du Carleton College, aux États-Unis, proposent sur leur site une page de conseils d'utilisation à l'attention des professeurs, où sont soulignés tant l'intérêt de Wikipédia (des articles longs et complets ainsi que des informations parfois absentes dans d'autres encyclopédies) que le risque inhérent de manque de fiabilité et de stabilité des informations. Ces bibliothécaires considèrent que la facilité d'accès, la gratuité et le suivi des nouveautés constituent des atouts supplémentaires et soulignent l'intérêt de Wikipédia comme outil éducatif via des travaux de contribution, de traduction ou d'analyse (de plus en plus d'enseignants choisissent d'intégrer Wikipédia dans leurs projets pédagogiques ; une page de la version française liste ces initiatives, assorties de conseils pédagogiques).

Absence de projet éditorial

Si le modèle de production collaborative de Wikipédia peut servir d'exemple pour la mise à disposition d'informations fiables et de qualité, c'est bien l'absence de projet éditorial qui pose problème : on trouve sur Wikipédia nombre d'articles sur des sujets populaires et d'actualité, alors que d'autres thèmes sont moins, voire pas du tout, traités. Par ailleurs, selon l'analyse de l'historien R. Rosenzweig, si les faits sont globalement bien rapportés dans ces textes, le style des articles reste assez plat et ne vaut pas la richesse d'analyse et de contextualisation de certains historiens, ce qui souligne à la fois un des défauts potentiels de l'écriture collective et la nécessaire complémentarité des sources. De ce point de vue, Wikipédia, comme toute encyclopédie, ne peut qu'être un point de départ, une première source d'informations qu'il est nécessaire de compléter par d'autres lectures. Précisons tout de même que pour pallier le manque de projet éditorial, les portails thématiques se multiplient, permettant d'organiser un peu le contenu.

De l'avis de professionnels de l'information, de chercheurs ou d'enseignants, cependant, l'usage généralisé de l'anonymat parmi les contributeurs de Wikipédia reste une difficulté fondamentale pour l'utilisation de cette encyclopédie. En effet, à la différence des autres encyclopédies, les articles de Wikipédia n'étant pas signés, les lecteurs n'ont que peu de preuves, voire aucune, de la bonne foi des contributeurs, malgré la mise en avant des bonnes pratiques. Comme le souligne Laurent Bloch, informaticien à l'inserm : « La confiance s'accorde, pour de bonnes raisons, à des humains précis et nommés » ; c'est la présence d'un nom d'auteur (ou d'un responsable éditorial) qui permet de respecter les règles du jeu démocratique à travers la notion de responsabilité individuelle, alors que l'anonymat rend possible la violation de ces règles et les abus.

C'est cette même raison qui a amené L. Sanger, un des fondateurs de Wikipédia, à quitter l'entreprise et à revenir sur le schéma de départ en proposant en 2006 un projet alternatif, nommé Citizendium et fondé sur un collectif d'experts éditoriaux et d'auteurs identifiés. Ce projet utilise notamment la matière première accessible au travers de Wikipédia (selon ses propres règles de libre réutilisation), et une partie de ses contributeurs a d'ailleurs déjà participé à Wikipédia.

Plus largement que Nupedia, le projet initial, Citizendium reprend à son compte le principe de production collective de savoir de Wikipédia, tout en y intégrant de vrais repères d'autorité. Cependant, le faible nombre d'articles présents sur Citizendium (un peu plus de 12 000) montre qu'il s'agit d'une logique de niche différente de la volonté populaire à l'œuvre dans Wikipédia. Même la récente initiative de Google (Knol, contraction de l'anglais Knowledge, savoir), dans laquelle les auteurs s'identifient et précisent leur domaine de spécialité, est encore loin de concurrencer l'encyclopédie en ligne. Toutefois, ces alternatives fondées sur l'intégration d'une expertise ont amené Wikipédia à affiner ses méthodes de sélection et d'évaluation de l'information.

Inversement, le modèle participatif fait tache d'huile dans des encyclopédies classiques, comme Larousse : celle-ci permet la publication d'articles par des internautes, à côté des articles d'experts sollicités. L'existence de Wikipédia, qui illustre l'importance de la notion de responsabilité (à la fois celle du lecteur et celle de l'auteur), s'inscrit donc dans un paysage de production et d'accès au savoir qui n'a pas fini de se recomposer…

Comment mémoriser efficacement | Vincent Delourmel | TEDxRoanne

https://www.youtube.com/embed/bG9nj0uG2uI

Vincent Delourmel nous démontre par l'exemple les ressorts de la mémorisation. Avec de l'entrainement mémoriser est à la portée de tous.

SOMMAIRE

 

PSYCHO-SOCIAL 2

Peut-on se fier à Wikipédia ?

Comment mémoriser efficacement | Vincent Delourmel | TEDxRoanne

 

L'énigme du vote

 

Dis-moi qui tu es, je te dirai pour qui tu votes

 

La Mémoire du Vin

 

Pourquoi la guerre

 

Pervers narcissiques : de purs manipulateurs ?

Les neurones de la pensée libre 

L'erreur fondamentale d'attribution​

L’attribution causale

Et pourtant je comm'unique

Pourquoi les faits ne suffisent pas à convaincre les gens qu’ils ont tort

Expérience de Milgram-Soumission à l'autorité (I comme Icare)

La manip pour tous

Se décider bien... et vite !

Ces jours où tout réussit…

Nature experience reduces rumination and subgenual prefrontal cortex activation / La randonnée change votre cerveau

Le sport rend plus intelligent

Trop de coups sur la tête

Se doper à tout prix

La langue maternelle laisse des traces dans le cerveau

Pour les seniors, conduire c'est bon pour le moral et la santé

Des animaux doués d'empathie

La face sombre de l’empathie

« Alice cares » : vers l'empathie artificielle

Conférence : "L'Empathie"

L’apport de la recherche en neurosciences à l’étude de l’empathie

Comment l'empathie vient aux enfants 

Le génie linguistique des bébés 

Que pensent les bébés ?

Les bisous des mamans ne guérissent pas les bobos 

Le bilinguisme sculpte le cerveau

Stimuler le langage par la musique

Comment la connaissance du cerveau permet-elle de mieux enseigner ?

Plaidoyer pour la neuro-éducation

Quand les neuro-sciences rencontrent l'éducation

Les grands principes de l'apprentissage

Les secrets du cerveau des bébés (6 items)

Le latin, discipline de l’esprit . Nos élèves doivent savoir s’abstraire 

La science de la peur

La foi contre la culture

Soumission à l autorité - expérience de Milgram

La mémoire traumatique

« Je n’existe pas! » : quand on se croit mort

Croire en la vie après la mort

L'intelligence repousse la mort

Les carabins, dopés aux stimulants

La voix et ses troubles

Ce que notre voix dit de nous

Pourquoi crie-t-on quand on a mal ?

Le "vocal fry", la façon de parler qui fait trembler l’Amérique

Pourquoi vous ne pouvez rester insensibles aux cris humains ?

Les nouveaux-nés crient  dans leur langue maternelle/Newborns’ Cry Melody Is Shaped by Their Native Language

Loin du sexe, les bienfaits sans pareils des câlins

Osez la calinothérapie

Être père change le cerveau

L’homme qui ne reconnaît pas les visages

Le cerveau des bébés, as de la reconnaissance des visages/Rapid categorization of natural face images in the infant right hemisphere

Un esprit sain dans un corps sain

Comment l'architecture influence notre pensée

"Seven"  John Doe, le psychopathe; les détectives David Mills et William Somerset.

Dr Jekyll et Mr Hyde : l'insupportable altérité

An fMRI study of affective perspective taking in individuals with psychopathy: imagining another in pain does not evoke empathy

L’audition publique « Prise en charge de la psychopathie » organisée par la Haute Autorité de santé.

Dans la tête du psychopathe une anomalie dans la perception des visages

Dans la tête d'un psychopathe : la dérive dans un monde sans émotion

Le suicide : pathologie de la décision ?

Syndrôme de l'Amok...

Le donjuanisme comme déviance ? Enjeux de l’analyse médicale et psychanalytique d’un héros littéraire

Syndrome du selfie : les réseaux sociaux nous rendent-ils narcissiques ? 

Messieurs, vos selfies révèlent le psychopathe qui est en vous/Hey, Guys: Posting a Lot of Selfies Doesn’t Send a Good Message/

Viralité du selfie, déplacements du portrait

Comment les smartphones remodèlent le cerveau

 

L'énigme du vote

 

Quand et comment l’électeur fait-il son choix ? 
Quelles sont ses motivations réelles ? 
Qu’est-ce qui fait basculer les indécis ? 
Les théories du vote permettent (en partie) de décrypter cette énigme.

Le jour J, à l’heure du choix, ils seront des milliers à hésiter encore. Parmi eux, il y aura les éternels perplexes, les agnostiques en politique, ceux qui ne savent jamais pour qui voter. Il y aura aussi ceux qui avaient arrêté leur choix mais qu’un ultime scrupule tourmentera, qui reliront les programmes « histoire d’être bien sûr » avant d’aller aux urnes. Il y aura encore quelques vieux militants qui se surprendront à vaciller dans leur conviction. Il y aura celui ou celle qui restera dans l’isoloir plus longtemps que prévu, à triturer les bulletins de vote du bout de ses doigts hésitants. Balançant entre cœur et raison, adhésion et protestation, et suppliant sa conscience de lui délivrer, là, maintenant, le bon mot d’ordre.

 


Liturgie laïque


Difficile de démêler tout ce qui se joue et se noue dans un isoloir. Le vote est en partie imprévisible. À la fois excitant et intimidant, c’est un pouvoir qui garde sa part d’ombre. Il a quelque chose qui touche au sacré ; son étymologie en témoigne : le vote est d’abord « le vœu, la prière », le suffrage est « l’intercession d’un saint auprès de Dieu », le scrutin est « la cérémonie où les catéchumènes étaient interrogés sur la foi » (Dictionnaire historique de la langue française, Alain Rey). Théâtre d’une liturgie laïque, l’isoloir matérialise l’espace où l’électeur doit se prononcer, en âme et conscience, sur l’intérêt général. Il faut « laisser en dehors nos passions, nos sympathies, nos haines, nos intérêts privés, nos parentés, nos ambitions, nos considérations de personnes », écrivaient solennellement les républicains de la IIIe République (1). Tenir à distance à la fois ses affects et ses pulsions, pour laisser parler ses convictions et sa raison.


Voilà pour les grands principes, exposés par Yves Déloye et Olivier Ihl dans L’Acte de vote (Presse de Sciences Po, 2008). En passant le rideau de l’isoloir, l’électeur cesse d’être un individu lambda, immergé dans son quotidien, pour devenir un citoyen, libre et autonome, doté d’une part de souveraineté.


Cet idéal imprègne en profondeur la culture républicaine. Mais dans les faits, il est impossible à tenir. Car on ne peut pas, en passant le rideau de l’isoloir, laisser au vestiaire une partie de soi-même. Tout électeur porte en lui son histoire et son humeur. Il charrie une tradition familiale, par rapport à laquelle il se positionne (pour ou contre). Il possède une expérience singulière de la société, du travail, du vivre-ensemble. Il a sa culture, son bagage. Ses préoccupations (son logement, son argent, le bulletin de notes de son enfant, le bulletin de santé de sa vieille mère…) et ses émotions du moment : inquiétudes, colères, enthousiasmes, peurs, déceptions, amertumes.


Partant de ce constat, on peut considérer que le vote est un drame qui se joue en trois temps. Les politistes Anne Muxel et Bruno Cautrès, auteurs d’une enquête sur la dynamique du vote (2), distinguent ainsi « le temps long de la décision électorale », celui où s’enracinent profondément nos croyances politiques, « le temps court de la campagne présidentielle », où nous jonglons avec une masse d’informations nouvelles, et enfin le moment de la décision finale…


 

Héritiers politiques


L’analyse du « temps long » – la première strate – est la plus ancienne et la plus développée par la science politique. Elle montre que nos idées politiques sont irriguées par de multiples influences. On ne vote jamais seul. La famille, premier lieu de formation au politique, aiguillonne fermement notre cheminement idéologique, tout au long de notre vie. Deux Français sur trois seraient ainsi des « héritiers politiques » : 46 % votent – à gauche ou à droite – comme leurs parents, chiffre auquel il faut ajouter les 20 % d’électeurs qui reproduisent la même « absence de choix » que celle de leurs parents. Quant à l’autre tiers d’électeurs, ils se positionnent aussi souvent par rapport à un conjoint, un ami charismatique, un ancien professeur admiré qui aura joué un rôle clé à un moment de leur vie… 


L’origine géographique et sociale de l’électeur fait également office de « code comportemental », affectant significativement le vote. « Dis-moi d’où tu viens, je te dirai pour qui tu votes », disent une partie des sociologues français. Ces explications « écologiques » (par le milieu) permettent également d’éclairer certaines formes de démobilisation et de rancœur à l’égard du politique, notamment dans les catégories populaires… Cette école de pensée garde une grande vitalité : savoir ce qui se transmet de génération en génération – que ce soit dans une famille, un territoire, une classe sociale – est une question débattue et qui mobilise de nombreux chercheurs.


Mais ces modèles achoppent sur un point. Ils échouent à saisir les phénomènes de volatilité et d’indécision qui travaillent – de plus en plus – l’électorat. D’où le regain d’intérêt pour le « temps court » des campagnes – la deuxième strate de nos décisions électorales – et la réhabilitation d’un modèle ancien d’analyse, celui de l’Homo œconomicus. Dans une période où les grandes affiliations partisanes sont en crise et la classe politique frappée de désamour , l’électeur type serait tenté de faire son choix sur le « marché politique » comme le consommateur achète une marque de lessive. Il se demande, selon sa situation : quel candidat va réduire le chômage ? Les impôts ? L’insécurité ? Il prend en compte les sondages pour voter le plus stratégiquement possible. Les politistes évoquent aussi des phénomènes de « saillance » : tel ou tel thème, dans la campagne, vient s’imposer, ce qui favorise le candidat qui paraît offrir la meilleure réponse.


 

Un calcul stratégique


Avec ce type d’analyse, dit « stratégique », la question de l’offre politique devient décisive. Elle est susceptible de faire basculer Le Choix de Marianne (Pascal Perrineau (3)) d’un côté ou de l’autre. L’intérêt des Français pour la campagne présidentielle – 6 sur 10 disent la suivre quotidiennement – renforce cette vision d’un électeur informé, à l’affût des arguments qui lui permettront de « bien voter ».


Peut-on cependant s’en tenir à cette image d’électeur si cartésien ? La limite de cette approche est qu’elle a tendance à faire de la campagne présidentielle un moment dominé par des logiques rationnelles. Or une campagne politique n’est évidemment pas qu’une phase de délibération et de calcul.


C’est aussi un moment d’émotions intenses, où se produisent des enjeux de « présentation de soi » (Philippe Braud, L’Émotion en politique, Presses de Sciences Po, 1996) et des phénomènes d’identification, d’illusions, de déni, de défiances et de violents rejets… C’est un moment où des familles se déchirent et où de parfaits inconnus tombent dans les bras l’un de l’autre en plein meeting.


Ces aspects psychoaffectifs ne sont pas sans lien avec l’histoire personnelle de chacun. La campagne, sorte de « climax » politique et social, réactive des préférences politiques ancrées depuis longtemps, plus ou moins consciemment. Plusieurs études mettent d’ailleurs en évidence le fait que les électeurs « filtrent » les informations, pour retenir essentiellement celles qui vont dans le sens de leur conviction (4). Pour certains politistes, comme Thierry Vedel, l’enjeu électoral passe même au second plan. Il n’est que le prétexte d’un spectacle passionnant où l’on suit des personnages clés : les amis, les ennemis, les bons, les mauvais, les menaçants, les incapables, les champions, les outsiders… «On prête attention à la campagne parce qu’elle constitue une sorte de récit dramatique, avec ses intrigues et ses rebondissements », souligne ce chercheur du Cevipof.


Le jour J, l’ensemble de ces facteurs interviennent pour produire une « décision électorale » (la troisième strate) : les arguments rationnels se greffent sur les élans du cœur ; l’histoire ancienne – éducation, rencontres, trajet de vie – colore le face-à-face final avec sa conscience. Malgré la sophistication des sondages, rien n’est figé, rien n’est sûr. En témoigne le niveau d’indécision des électeurs : lors du premier tour de l’élection présidentielle de 2007, près d’un quart des électeurs hésitaient encore le jour même du vote, selon l’enquête du Cevipof sur le « Panel électoral français » (5).


 

Émotions primaires


Quels sont les ultimes éléments susceptibles de faire pencher le choix des indécis du côté de tel ou tel candidat ? L’« image » d’un candidat, son sourire, l’une de ses phrases peuvent suivre l’électeur jusque dans le bureau de vote et jouer un rôle décisif. Mais « il faut rester prudent vis-à-vis de l’hypothèse d’un électeur dont la décision finale pourrait être influencée ou modifiée par des éléments ultimes d’information », préviennent A. Muxel et B. Cautrès. Des expériences montrent que la plupart des électeurs votent conformément aux prédispositions politiques qu’ils avaient avant même qu’ils connaissent les candidats.


Reste la part d’imaginaire, de pulsions et d’émotions primaires qui peuvent s’immiscer, en dernière instance, dans l’isoloir. Cette dimension est plus difficile à saisir. P. Braud est l’un des rares politistes français à s’y intéresser. Il distingue plusieurs types de profils. Certains, note-t-il, sont « mus par la recherche d’une tranquillité intérieure » et finissent par donner leur voix à un candidat familier et rassurant, même si, peu convaincus, ils ont tergiversé jusqu’au dernier moment. D’autres au contraire « verront dans le geste électoral le moyen de libérer une agressivité nourrie de frustrations accumulées, d’origine sociale, professionnelle ou même privée » : ceux-là se réfugieront dans le vote-sanction. Une partie encore, sans considération de programme, s’attachera à une personnalité dont elle attend qu’elle le dépasse, le valorise et le grandisse. C’est ce que l’on appelle le mécanisme de « remise de soi » : dans un mouvement presque pieux, on remet sa destinée entre les mains de quelqu’un que l’on juge plus grand que soi…, au risque de quelques désillusions ultérieures. D’autres enfin s’en référeront à l’ultime sondage pour faire un choix « utile ». En espérant que les sondeurs ne se seront pas trompés…


De cet empilement de strates, de cet enchevêtrement d’héritages, de réflexes, d’enthousiasmes, de rancœurs et de doute surgira le prochain président de la République française. « Le passé est un prologue », écrivait William Shakespeare. L’épilogue, lui, n’est jamais écrit d’avance.

 

NOTES

(1) Yves Déloye et Olivier IhlL’Acte de vote, 
Presses de Sciences Po, 2008.
(2) Bruno Cautrès et Anne Muxel (dir.), 
Comment les électeurs français font-ils leur choix ? 
Le Panel électoral français 2007, 
Presses de Sciences Po, 2009.
(3) Pascal PerrineauLe Choix de Marianne. Pourquoi, pour qui votons-nous ?, 
Fayard, 2012.
(4) Voir Hilde T. HimmelweitHow Voters Decide, Open University Press, 1985.
(5) Thierry Vedel, « Le suivi de campagne », 
in Bruno Cautrès et Anne Muxel (dir.), op. cit.

Pourquoi aller voter ?

Sur les cartes d’électeur des Français figure cette précision : « Voter est un droit, c’est aussi un devoir civique. » Pour autant, ce « devoir » n’est pas passible de sanctions. Personne ne sera convoqué par le juge s’il s’abstient de voter. Dès lors, pourquoi se déplacer ?


L’économiste Anthony Downs est le premier à avoir soulevé « le paradoxe et l’énigme de la participation ». Selon lui, il n’est pas rationnel d’aller voter. En effet, chaque vote représente un poids infinitésimal dans l’élection et n’a donc pratiquement aucune chance de faire varier le résultat (en France, un vote ne représente qu’une voix sur 43 millions d’électeurs). Or voter a un « coût de participation » important : il faut faire des démarches administratives pour s’inscrire sur les listes électorales, se déplacer dans son bureau de poste, renoncer à un dimanche à la pêche… Le « coût d’information » pour « bien voter » est également très élevé, car il suppose un véritable investissement intellectuel (en comparant les programmes, leur degré de réalisme, supputant sur les chances de succès…).


Bref, dans ces conditions, tout individu rationnel devrait s’abstenir de voter.


D’autres chercheurs tempèrent ce point de vue en mettant en avant le caractère social et moral du vote, et les bénéfices psychologiques qu’il est possible d’en retirer. L’expérience suivante en est une bonne illustration : en 2008, Alan Gerber, Donald Green et Christopher Larimer ont envoyé une lettre à 20 000 ménages du Michigan (États-Unis), où ils leur annonçaient qu’ils recevraient, à l’issue d’un scrutin, la liste nominale de tous ceux qui auraient voté. Le résultat fut très significatif : 37,9 % des destinataires du courrier se sont rendus aux urnes, contre seulement 29,7 % des autres électeurs (1).


Les citoyens ont été éduqués à l’idée que le vote est un devoir, qu’il est peu glorieux de s’y soustraire et valorisant d’y participer. Comme en religion, il y a de « bonnes ouailles » et de « mauvais déserteurs ». Des enjeux de reconnaissance sociale et d’estime de soi interviennent. Philippe Braud le souligne aussi à sa manière : « La participation aux urnes est source de profits psychologiques bien réels, même s’ils sont soigneusement cachés derrière des arguments purement politiques (Sociologie politique, LGDJ, 2006). » 

(1) Alan Gerber, Donald Green 
et Christopher Larimer,

« Social pressure and voter turnout. Evidence from a large-scale field experiment », American Political Science Review, vol. CII, n° 1, février 2008

Héloïse Lhérété


Le cerveau politique

Lorsque l’on assiste à un débat, on se met en position de supporter qui compte les points fébrilement ; on se place successivement en position d’attaque et défense. En somme, on se comporte en partisan passionné et assez peu en individu rationnel qui pèserait posément le pour et le contre de chaque thèse.

Le psychologue américain Drew Wensten (The Political Brain, Public Affairs, 2007) a confirmé ce fait à partir d’une expérience menée en 2004 auprès d’électeurs – 15 démocrates et 15 républicains.


Ils avaient alors accepté de regarder un débat Bush-Kerry durant la campagne électorale alors que leur cerveau était scanné par un IRM. Résultat, pendant que les électeurs suivaient les débats, leurs centres cérébraux impliqués dans le raisonnement (frontaux) étaient très peu sollicités, alors que les centres émotionnels, eux, étaient vivement excités.


Conclusion : le discours politique sollicite les émotions plus que la raison.

Jean-François Dortier
 

 

La Mémoire du Vin

 Conférence de Dominique Pringuey

 

11 Mars 2017  Abbaye de La Celle

« Comment briller en société sans sortir son smartphone »

Journée conçue et réalisée par Pierre Lemarquis

 


A la question « Comment briller en société sans sortir son smartphone », et même sans être un expert en oenologie ni un nez reconnu à Grasse, on saura agrémenter un repas gastronomique d’appréciations utiles tenant à la dégustation des vins, commentaires toujours bienvenus et ajustés aux convives du jour. Mais, y a-t-il vraiment une mémoire du vin ? Google – inévitable -donne ce jour 12.200 liens à « mémoire du vin », et les plus divers. On cite dans l’ordre de l’affichage :
- En premier, la proposition d’un mobilier électronique sophistiqué destiné à la gestion de votre cave
- Un cru : le Château Mémoires, du Lieu-Dit Cussol, 33490 à Saint Maixant
- Les coordonnées d’un club « Mémoire des vins suisses »
- La proposition d’un Weekend de formation Théma : « Mémoire et oubli/ Mémoire olfactive » à la Cité du Vin à Bordeaux dans le cadre de l’Obervatoire B2V des mémoires
- Une entreprise de distribution par internet : La mémoire des Vins, 12 rue Léo Lagrange 51700 Leuvrigny
- La Vitisphère : Institut Universitaire de la vigne et du vin de Dijon : « La mémoire du vin » signalant les travaux du Helmholz Center de Munich décryptant la signature biologique des forêts d’origines des fûts de chêne qui ont servi au vieillissement des bourgognes
- OEnologie.fr : site qui rappelle que le « Le vin rouge pourrait améliore la mémoire....... »


Cet effet bénéfique, essentiellement attaché à la fermentation des vins rouges, est porté par le Resvératrol, un stilbène de la famille des phytoalexines, composé biphénolique de la classe des flavonoïdes. Ce polynutriment extrait du raisin manifeste une action cardio-protectrice inattendue. C’est un antioxydant puissant, anti-inflammatoire, possiblement anti-cancéreux. La molécule entre en compétition avec la CoQ10, diminuant la chaine oxydative complexe III, détruit les radicaux superoxides mitochondriaux et inhibe la peroxydation lipidique et la fixation membranaire des LDL. Ce composé est donc un protecteur de la mémoire, ce qui console des effets dévastateurs de l’alcoolisme, ce dont le Korsakoff ne saura jamais témoigner.


Le vin et le cerveau La question fait l’objet d’abondantes recherches, publications et conférences, ce qu’illustre par exemple Jan De Maere : à la fois historien de l’Art, expert juridique « post gradué » et Ph D en Neurosciences, il propose sur le web et sous ce titre une synthèse brillante actualisée d’une neurobiologie socio-culturelle des rapports entre « le vin et le cerveau », signant ses compétences en « Evaluation and Connoisseurschip of Fine Art chez IPAVUB ».


De l’étude des multiples médiations mises à jour entre le vin et le cerveau, le vin apparait comme un psychotrope magique tenant d’avantages neurochimiques d’une activation Gaba, 
proche de celle des anxiolytiques, couplée d’une facilitation DA, d’où une stimulation cérébrale de type psychostimulant, bénéficiant d’une prise olfactive corticale basale directe, et d’un relais thalamique simple pour les saveurs. On sait l’importance de son apport métabolique en vitamine B1. Son action psychotrope finale se joue au plan comportemental dans son effet désinhibiteur spécifique de type BZD par levée de l’inhibition suppressive des comportements appétitifs à renforcement positif.


Cette chimie superbe qui relève d’une sollicitation habile des systèmes du plaisir, lui octroie une puissance hédonique majeure, ce qui aura sans doute animé la thèse veillotte mais bien émouvante de Paulhan (1903) en faveur d’une fondation des mémoires sur le souvenir affectif. Le bonheur de la dégustation, son histoire humaine et ses fondations culturelles sont célébrés depuis les temps, ce que rappelle récemment Michel Onfray (Poche 2009, pp 86) dans un opuscule intitulé « Les formes du temps » sous titré « Théorie du Sauternes », essai consacré à une métaphysique de l’hédonisme au travers d’une ontologie du vin, texte érudit, nerveux, mais aussi divertissant visant seulement à penser le réel à partir de sa manifestation. Gouleyant, en quelque sorte !


La démonstration scientifique des effets psychotropes spécifiques de l’alcool rapportée dans son travail de thèse par Kraepelin lui-même – ce père incontournable de la psychiatrie – confirme la puissance hédonique du vin. Et cela, au delà d’une abondance de facteurs confondants où il convient de « contrôler » l’époque biographique soit l’âge et l’expérience acquise du sujet qui teste le vin, le contexte social du moment, la tradition, les attentes, le respect du rituel, les rencontres qui y sont faites, les dimensions de jeu et de défi .... Il y a là pourtant un petit bonheur logé dans une expérience de plaisir, d’accord, de partage, une fête qui fait lien, souvenir, qui peut devenir passion, et même métier et expertise.


« La mémoire du vin » est ici aussi celle de nos amis Pierre Lemarquis et Benoit Kullmann et de leur souvenir d’une dégustation proposée lors d’un cours du Diplôme Universitaire de Phénoménologie Psychiatrique illustrant la thèse de Hubertus Tellenbach selon laquelle le Goût (au sens figuré) et l’atmosphère de toute expérience sont au fondement de la constitution de l’être humain (Goût et Atmosphère PUF Psychiatrie ouverte Paris, 1983 pp144). Ils forment un opérateur précis et essentiel pour la mise en place de la fonction orale biologique couplant odeurs, contact de la muqueuse buccale et saveurs.


La mémoire du vin assume une mise en proportion entre le souvenir et la confiance. Certes le souvenir s’altère dans l’oubli, mais rappelons que l’oubli est nécessaire à la gestion informationnelle « cognitive » en vue d’une sélection motivée (affective) des souvenirs à sauvegarder et ainsi d’éviter la saturation du système. L’oubli est évalué à 5% par mois en comptes événementiels dans les études dites des « Life events ». Un collègue anglo-saxon s’est employé à démontrer que la mémoire est faite pour oublier et suggère que les troubles psychiatriques valent pour des pathologies de la mémoire, quand notamment ils tiennent à un échec de l’oubli (dépression) ou à son excès (état maniaque, schizophrénies). Le souvenir est ressouvenu, jusqu’à être inventé dans les confabulations...


Or la mémoire du vin contient aussi cette validation de contenu qui s’élabore, grandit, pour atteindre à un acquis culturel fondamental que l’on appelle la confiance, « cum fidere ». Avoir confiance en quelqu'un, en un projet ... c’est se fier, s’abandonner à la bienveillance et à la bonne foi, c’est une assurance, une sécurité. C’est le fruit d’une compréhension, bien plus que d’une explication à laquelle d’ailleurs on ne parvient jamais totalement. D’une compréhension immédiate et totale. On y saisit une signification, un sens. C’est une certitude absolue, celle d’un consensus global, certitude totale, « digitale », en on/off. Cette compréhension résulte d’une communication de « haute fidélité » relevant d’une assise relationnelle première et majeure. Parmi les exemples, on peut renvoyer à ce repérage immédiat de l’état de colère de quelqu’un : c’est d’une évidence telle que cela appelle surtout en retour précautions et stratégie... avant d’en explorer les motifs et d’en détailler l’historique.


Cette communication de « haute fidélité » est immédiate, instantanée, claire et simple, sûre, efficace, « sécure » même, soit sans risque de piratage. C’est un fonctionnement « High Tech » qui répond d’un processus énergétique autonome - sans batterie ni chargeur ni connexions, d’une base naturelle depuis les fonctions organiques aisément disponibles. Ce fonctionnement présente un mode de transfert peu couteux puisque emprunté à l’environnement, l’atmosphère, et fonctionne sur un code universel simple. Il véhicule un message vital, essentiel. Il construit à chaque instant l’un des fondamentaux de l’existence – l’un des « existentaux » dit-on en phénoménologie – la confiance, que le psychiatre envisage dans son antinomie régulatrice, l’angoisse (Binswanger).


Dans l’expérience du quotidien, cette fabrique de la confiance unifie odeurs, saveurs et contact buccal en une sensorialité orale qui tient pour référent le Goût, dans son sens figuré, le flair relationnel, et qui s’élabore depuis le vécu d’émotions positives comme la joie ou l’amour qui font face aux dimensions négatives de la peur et de la tristesse. L’établissement du sens oral relève selon l’écologie humaine de processus « ancrés » élémentaires tels :
- la biophilie – amour du vivant, caractère fondamental de notre système relationnel
- la résonnance – mode archaïque premier de relation, situé en deçà de la multimodalité perceptive, qui est fondé sur des partages rythmiques qui ensuite soutiennent l’élaboration de l’auditif, des cohérences formelles qui président ensuite au visuel, des modules de compétence transactionnelle qui fournissent au nouveau né de précieuses clefs de communication.


La genèse maternelle, infantile et familiale, de la fonction orale, est garantie de sincérité et de loyauté, pour accomplir un objectif d’importance : la formation de l’identité, une signature et un lien à la communauté.


L’approche herméneutique du sens oral procède du même renversement phénoménologique du sens (comme direction) que le renversement de la flèche augustinienne du temps vécu, qui elle déroule classiquement la temporalité depuis le passé dans un présent orienté vers l’avenir. La vue existentielle considère au contraire que le devenir (et la chance d’en disposer) ouvre dans notre futur des possibilités qui vont nous permettre dans chaque présent de construire notre passé. De même le renversement de la flèche psycho-physique du goût, qui depuis la perception et par intégration fournit le Goût (fig.) soit le flair, offre une genèse existentielle inverse : c’est le Goût-(fig.) qui va éduquer notre affectivité (comme être-affecté-par) pour élaborer les qualités perceptives du goût et affiner les dimensions du sens oral.


Le caractère composite du sens oral, associant olfaction, gustation, sentir contact buccal, l’ordonne en maître de la sensorialité en ce qu’il prévaut sur la vue - le visuel certes donne la forme, et l'ouïe - le sonore, la force – le tact jouant dans une autre dimension. Le sens oral tient sa puissance de ce qu’à partir des odeurs et des saveurs, il donne l'atmosphère, l'ambiance, le climat, et livre ainsi une compréhension précise et exacte du monde. Celle que nous ressentons par exemple lorsque nous pénétrons dans cette magnifique salle conventuelle voutée de l’abbaye de la Celle, chargée d’histoire, de foi et de dévotion.


Plus, cette fonction orale détient le sens d'une propriété spécifique dans l’ordre de la communication : la faculté de son message de se répandre au dehors et de pénétrer au-dedans, et par là d’une communication immédiate. Dans un sens émanatif, l'homme sent une odeur spécifique, propre, déterminante. Un chien sait reconnaitre son maître. Bébé dès sa naissance, l’odeur du sein maternel. Dans un sens réceptif : l'homme sent les odeurs du monde, et par là s’y trouve lié, soumis. Cette dualité est génératrice de la tonalité affective : on sait que l’arôme appelle l’union, évoque la liberté, et aussi combien la mauvaise odeur déclenche la fuite, l’isolement. Le sens oral apparait alors comme le grand sens médiateur qui crée le milieu humain, rapprochant le lointain, éloignant le proche.


De fait l’espace de l'odeur est sans distance, illimité, se déployant depuis le plus intime, en fusion naïve, jusqu’au loin, selon la puissance des fragrances, mais sans limites imposées. Il fait lien à l'ambiance. La bonne odeur (maternelle, familiale, religieuse) incite à l’intimité, à la proximité, à la confiance. La mauvaise odeur provoque éloignement, exiguïté, refus, interruption : la mauvaise odeur ne rend-elle pas méprisable ? Le temps de l'odeur a la forme vide du maintenant, d’une temporalité immédiate, naïve, saisie fugace dans l'instant, mais qui est assez puissante pour réveiller le souvenir et annoncer le futur. Il est sens de la répétition (la « madeleine » de Proust). Il augure une heureuse issue de la rencontre. Mais avec une intelligence prudente : une odeur agréable ne peut être vécue avec plaisir que si elle est perçue pendant une durée limitée, comme pour se protéger du risque addictif !


Ainsi le sens oral est sens des substances, censeur de l'incorporation, avertisseur des nuisances et protecteur. L'atmosphérique provient de fonctions organiques et produit le flair. Le Sens oral est thymique : il rend possible le sentiment "d'être-affecté-par " qui est une mise en ambiance et en même temps une homogénéisation de l'être humain. Lié à la vitalité végétative, il détermine leur sphère vitale et en gouverne les actes: le respiratoire par le parfum, le digestif dans le culinaire, le sexuel pour l'érotique.


Mais et c’est son sens premier, le sens oral fonde d’abord la confiance. Savoir faire confiance est une condition élémentaire de l’existence qui forme l’assise du rapport à Soi et à l’autre. Et son prototype est largement illustré notamment de puis la renaissance : l'enfant dans les bras de sa mère – superbes Madones col bambino - qui unifie présence diffuse, abandon, sincérité, loyauté, dans une perception absolument immédiate.


« La présence maternelle est faite de l'odeur et du goût de ce qu'elle donne. Dans cette aura maternelle qui plus tard s'étend à la cellule familiale, s'élabore le sens de la présence d'autrui. » Tellenbach H


Et si l’on reconnait, aux fondements de la confiance, l’expérience de la fête comme « festum », comme le suggère Bin Kimura dans un prolongement qui analyse la formation du Soi, ce qui reprend aussi le concept de « nous » originaire ou « nostrité » de Binswanger, ce qui conforte aussi au plan anthropologique le primat humain de la verticalité, c’est affirmer que seule la rencontre avec l’autre, et plus particulièrement dans son acception médicale, permet de structurer l’organisation du soin et de guider le rituel qui consiste à « S’occuper de ». En atteste dans le registre le plus banal au quotidien, l’expérience d’une dégustation.

 

Pr Dominique Pringuey
Faculté de Médecine de Nice &
Société de Phénoménologie Clinique et de Daseinsanalyse
pringuey@unice.fr

En remerciement à Pierre Lemarquis, son association Sirènes et les partenaires industriels soutiens de la manifestation : Sanofi Genzyme, Orkyn Neurologie et Aguettant.

 

Annexe


La dégustation


L’OEIL
Saisissez le verre sous le pied et penchez-le sur fond blanc. Scrutez la robe du vin, sa couleur ; sa limpidité vous informe sur son âge et sur son état. Bien fait, il doit être limpide brillant et le rester
Les vins blancs jeunes sont peu colorés et avec des reflets verts. Ils évoluent avec une teinte plus marquée
Noter :
Intensité : pâle, claire, légère, moyenne, soutenue, foncée, sombre
Couleur (Blancs) : paille, citron, canari, jaune-vert, ambré, doré , topaze
(Rosés : cerise, abricot, violet, pivoine, orangé
Rouges : rubis, grenat, violacé, vermillon, acajou)
Limpidité : limpide, brillant, cristallin, net , voilé, flou, trouble
(Effervescence) : faible, moyenne ….la mousse ajoute vie et fraicheur


LE NEZ 70% des informations
Reniflez le vin en vous penchant sur le verre : ainsi vous percevez une première information globale : l’intensité perçue. Faites doucement tourner le vin et replongez le nez dans le verre. S’élèvent alors les arômes les plus denses. Détaillez les composantes du bouquet : florales, végétales, animales, fumées, épicées, minérales (Arômes primaires (cépage) secondaires (fermentation) tertiaires (maturité))
Jugez de la qualité, du caractère , de l’élégance


Noter
Intensité : faible, fermée, discrète, moyenne, expressive, puissante, lourde
Nuances Aromatiques :
cerise, fraise, cassis, mure, groseille
pomme, poire, abricot, prune, prunelle, coing, figue, amande, rhubarbe, confit, menthe
poivre, citronnelle, violette, acacia, aubépine, noix
miel, beurre, caramel, vanille, cannelle, levure, banane
sous-bois, champignon, herbe, fougère, mousse, foin coupé, humus
tabac, café, pain grillé, musc, fumé, brioche
minérale, pierre à fusil, silex, craie, terreux, souffre
Qualité : simple, fin, moyen, élégant, complexe


LA BOUCHE
Mettez le vin en bouche : les papilles gustatives et la langue perçoivent les 4 goûts fondamentaux : sucré (pointe), salé (avant latéral), acide( postérieur latéral), amer (postérieur)
Le sucré est associé au « fruit »: moelleux, souplesse, gras (richesse en alcool). L’acidité, colonne vertébrale, apporte fraicheur, souligne le fruit. Amer, tanins.
Astringence modérée des tanins, toucher régulier et doux des effervescents
Rétroolfaction (garder le vin en bouche et respirer de l’air, Cracher ou déglutir (persistance aromatique). Harmonie = cohérence des différentes étapes


Noter
Attaque : discrète, molle, souple, douce, dure, fruitée, fine, droite, ferme, directe, riche, vive, imposante, massive, chaleureuse
Milieu de bouche
Acidité : absente, plate, faible, fraiche, agrume, fondue, marquée, mordante, acide, permanente, agressive
Fruité : sec, suave, souple, rond, mûr, mature, fondu, sec, sucré, concentré, épais, dur
Alcool : faible, discret, léger, corsé, chaud, chaleureux, brûlant
La Mémoire du Vin - Dominique Pringuey - Abbaye de La Celle - Samedi 11 Mars 2017
(Tanins : absents, légers, moyens, souples, durs, dominants)
Sensation tactile : asséchant, sec, fluide, gras, onctueux, rond, moelleux, fondu, souple, vif, ferme, dur, épais, lourd (effervescent)


ARRIERE BOUCHE - PERSISTANCE
Longueur : court, moyen, soutenu, long, très long, persistant
Dominante : acidulé, doux, fruité, alcool, sec, nerveux, amer,
vif, épices, poivre, gingembre, amande , citronnelle,
frais, agréable, gourmand , savoureux, plat, dur


CONCLUSION
Sensation : modeste, sec, court, frais, aromatique, doux, élégant, onctueux
Intensité : vif, friand, franc, direct, dur
Densité : riche, expressif, ample, opulent, chaleureux, désaltérant, généreux, puissant
Structure : équilibré, harmonieux,
Fruité, rafraichissant, madérisé, lourd, décharné, grossier,


APERITIF
Conseils de dégustation
Apéritif, du latin "aperire" = qui ouvre l'appétit
(ne pas le couper avec des cocktails, du sucré ou alcoolisé)
Objectif : Mise en bouche pour réveiller les papilles en douceur
Il doit être léger, fruité et pertinent avec les mets qu’il accompagne
Champagne (le plus classique) ou même simplement un blanc sec « tranquille » (pas un grand cru)
(compter 7 verres par bouteille)
Sancerre (parfait avec des crudités à dipper)
Chablis
.

Pourquoi la guerre

Augusto Ferrer-Dalmau

 

http://pdf.lu/2wqC

Conférence de Dominique Pringuey

 

Pervers narcissiques : de purs manipulateurs ?

 

 

Sans scrupules, virtuoses, indétectables, les pervers narcissiques sont le dernier avatar du manipulateur. Ils sont pourtant loin de faire l’objet d’un consensus au sein des psys…

On les dit froids, calculateurs, dominateurs, ne ressentant ni émotion, ni culpabilité, ni la moindre considération pour l’autre. Des prédateurs qui se servent des gens comme faire-valoir pour regonfler un ego en panne. Séducteurs, ils cachent leur jeu. Dans le face-à-face, ils paraissent sincères et touchants, peuvent feindre de s’intéresser aux autres, se montrer empathiques et même reconnaître leurs torts, mais toujours dans le but de s’attirer des bonnes grâces. C’est dans l’ombre qu’ils agissent, ce qui trompera leurs victimes. Une fois démasqués, ils crient à l’injustice. Incapables de se remettre en question, certains seraient tout simplement incurables.

La victime : martyr ou complice ?

Le « pervers narcissique » est un concept psychanalytique qui apparaît dans les années 1980 sous la plume de Paul-Claude Racamier. Il associe deux entités pathologiques distinctes : le narcissisme, qui est l’intérêt excessif pour soi, et la perversion, qui consiste à utiliser l’autre à ses propres fins. Dans la lignée de P.C. Racamier, d’autres psychanalystes en font leur objet d’étude. Pour Alberto Eiguer, « les pervers narcissiques n’ont de cesse de vouloir formater les autres, les conditionner en tant que leur objet, leur chose. On les retrouve chez les gourous, les chefs de groupuscules extrémistes, les délinquants économiques, les escrocs, les meurtriers ou les délinquants sexuels. Mais la perversion narcissique est à distinguer de la perversion sexuelle, une entité psychopathologique qui suppose une symptomatologie différente », explique le psychanalyste. S’il y a bien des pervers narcissiques parmi les délinquants sexuels, la perversion narcissique ne renvoie pas nécessairement à une sexualité déviante.

Aujourd’hui, des voix s’élèvent pour remettre en cause ce modèle du méchant pervers narcissique exploitant des victimes innocentes. Certains osent même affirmer que la victime trouve un certain compte dans cette situation. Déjà en 1989, A. Eiguer, en publiant Le Pervers narcissique et son complice, considérait que le complice en question n’était personne d’autre que la victime. « Inconsciemment elle joue son jeu », évoque le psychanalyste. Elle irait donc, sans le vouloir, dans son sens. Mais, c’est aussi parce que le pervers narcissique est tout d’abord un séducteur qui répond à ses besoins narcissiques. A. Eiguer dit avoir choisi ce titre pour pousser les victimes à prendre conscience de ce piège. « Il faut soutenir les victimes, les renforcer dans l’idée qu’elles peuvent exister sans un pervers narcissique. L’important, c’est le tiers. Il faut aider les victimes à sortir de l’isolement, à partager avec d’autres leur souffrance », dit A. Eiguer. Mais parfois, les victimes s’enferment dans un cercle vicieux. Des femmes, et aussi des hommes, persistent dans des relations dans lesquelles ils sont instrumentalisés, voire maltraités, tout en défendant leur partenaire, collègue de travail ou supérieur hiérarchique lorsque celui-ci est mis en cause par l’entourage. La victime pourrait donc bien se trouver complice de son bourreau malgré elle, d’où la nécessité de l’aider à repérer les faiblesses dans lesquelles s’engouffre le pervers, pour mieux s’en défendre.

Un terme à la mode… absent des manuels psychiatriques

Qui est concerné par ce trouble ? Récemment, le psychiatre Dominique Barbier a avancé le chiffre de 10 % de pervers narcissique en France, estimation largement relayée dans les médias. Pour le pédopsychiatre et biostatisticien Bruno Falissard, ce chiffre ne correspond à aucune réalité. « Il n’y a pas eu à ma connaissance d’études scientifiques pour mesurer la prévalence de la perversion narcissique en France et ce pour plusieurs raisons. Le diagnostic est très difficile à établir. Si l’on veut le faire de façon scientifique, il faut des entretiens longs, des praticiens d’expérience, évaluer un grand nombre de personnes. Il faudrait inclure les pervers narcissiques dans ces études, mais comme ils ne sont pas en demande de soins, c’est difficile. Par ailleurs, il s’agit d’un diagnostic dimensionnel. Pervers narcissique, on peut l’être un peu, moyennement ou beaucoup. En fonction de l’endroit où on mettra le seuil, la prévalence peut varier énormément. » Bien que ce terme soit rentré dans le langage courant en France, il fait encore l’objet de contestations. Il n’existe pas véritablement d’équivalent en anglais et on n’en trouve aucune référence, ni dans le Manuel diagnostique et statistique des troubles mentaux (DSM), ni dans la Classification internationale des maladies (CIM). Au-delà du manque d’études scientifiques, d’autres raisons peuvent expliquer cela. « En Amérique du Nord, les assurances maladie ne remboursent pas les prises en charge pour des troubles de la personnalité. Du coup, les médecins ne les cotent plus et ils ont tendance à disparaître de la nomenclature. Par ailleurs, c’est un diagnostic issu de la tradition psychanalytique qui n’est pas vraiment à la mode dans les manuels psychiatriques actuels. Il y a un clivage entre, d’un côté, une nomenclature qui tourne beaucoup autour des médicaments et, de l’autre, une réalité clinique beaucoup plus complexe. Les deux ont du mal à se rencontrer », explique B. Falissard.

La surmédiatisation des pervers narcissiques en a fait un terme désormais employé (trop ?) facilement. Dès qu’une relation amoureuse ou professionnelle se passe mal, le conjoint ou l’employé est tenté de brandir le spectre du pervers narcissique pour disqualifier l’autre. « Il est vrai qu’on a tendance à en faire trop aujourd’hui, on a tendance à coller des étiquettes psychiatriques sur tout le monde. Mais c’est aussi parce que nous sommes dans une société de la victimisation. Aujourd’hui pour être reconnu, il faut être victime », commente B. Falissard. Tout politique ambitieux, tout patron un peu trop rigide et autoritaire ou tout amoureux infidèle n’est pas forcément un pervers narcissique. Soyons vigilants, mais sans voir le mal partout…



Comment devient-on pervers narcissique ?

Si le pervers narcissique est à première vue celui qui fait du mal aux autres, il est peut-être aussi l’otage d’un fonctionnement qui lui échappe. Pour Alberto Eiguer, « il y a probablement des milieux où la perversion narcissique prospère. Ce sont tout d’abord les familles où tous les membres sont narcissiques. Dans ces milieux, l’enfant n’est pas considéré comme une personne, mais comme un être qui doit servir à quelque chose au détriment de son développement d’enfant. Par exemple, parce qu’il a un don particulier, ses parents attendent de lui qu’il réalise de grandes choses. Il est en quelque sorte formaté, ce qui le rend froid et sans âme. Dans ces familles, la mère est en général dominante et distante, le père plutôt absent ou dévalorisé. Les enfants ne sont pas assez entendus, mais découvrent qu’ils peuvent obtenir des choses quand ils attaquent, humilient ou culpabilisent les autres. D’autres pervers narcissiques ont connu des parcours institutionnels dans leur enfance et n’ont pas pu s’identifier à leurs parents, ce qui a laissé chez eux un vide identificatoire. » 

Marc Olano

Les neurones de la pensée libre

 

Penser par soi-même nécessite de lutter contre ses propres automatismes mentaux. Notre cerveau contient des neurones dotés de cette capacité. En les entraînant régulièrement, nous progressons vers une pensée plus dynamique et robuste.

 

des neurones

 
 
 

Il y a quelques années de cela, j'ai eu une conversation avec des amis sur un sujet touchant à la politique. J'ai défendu mes opinions, mes interlocuteurs avaient les leurs. Nous nous sommes opposés, d'abord courtoisement puis de plus en plus frontalement. À mesure que la soirée avançait, j'étais davantage persuadé d'avoir raison, et que mes adversaires avaient tort. Il m'a fallu de sérieux efforts pour rester en bons termes avec eux, me rappelant que nos liens affectifs étaient plus forts que nos divergences d'opinions.

Quelques années plus tard, je me suis rendu compte que je me trompais. J'ai intégré de nouveaux éléments à ma vision du monde, en un mot j'ai changé d'avis. Mais surtout, en repensant à cet épisode, je suis frappé par le fait que mes opinions ce jour-là ne m'aient pas aidé à y voir plus clair. Elles m'ont plutôt freiné. Comme des entraves cognitives, elles m'ont empêché de raisonner librement et d'accéder à une proposition neuve et intéressante, à une compréhension plus juste de notre conversation.

En fait, il est très difficile de penser librement. Nos croyances plongent des racines interminables dans notre passé lointain, notre éducation, le milieu social où nous vivons, le discours des médias et l'idéologie dominante. Parfois, elles nous empêchent de réfléchir au sens propre. Dans certains cas extrêmes, elles peuvent esquisser une vision dogmatique et meurtrière du monde.

Mais si notre cerveau contient des entraves cognitives, pourquoi ne renfermerait-il pas aussi une fonction libératrice ? Si de tels neurones existaient, savoir les mobiliser serait alors la clé d'une pensée « libre », du moins d'une pensée affranchie de bien des défauts et idées reçues.

Nos entraves cognitives

Aujourd'hui, je dirige un laboratoire de psychologie et de neurosciences qui explore en partie cette question des entraves cognitives. À l'aide d'appareils à IRM, d'outils psychométriques et d'études de comportement, j'essaie de comprendre ce qui distingue la pensée libre de la pensée automatique. Celles-ci portent dans mon domaine un nom scientifique : pensée algorithmique et pensée heuristique…

Présentons d'abord la pensée algorithmique. Logique et rationnelle, elle procède par déductions, inférences et comparaisons. Elle est, bien souvent, lente et difficile d'accès. Tout le contraire de sa cousine, la pensée heuristique : celle-ci repose sur des croyances, des habitudes, opinions, stéréotypes, des idées reçues depuis tout petit. Comme vous vous en doutez, elle est nettement plus opérationnelle et confortable dans de nombreuses situations !

En veut-on un exemple ? Pour rester dans le champ politique, imaginons que j'essaie de savoir, au moyen de ma pensée algorithmique, si le candidat de droite aux élections présidentielles est meilleur que le candidat de gauche. Il me faudra des années, sans garantie de résultat.

Au contraire, si j'utilise ma pensée heuristique pour répondre à la même question, le résultat sera rapide et sans effort – j'utiliserai simplement le mélange d'idées inculquées pendant l'enfance, de croyances sur les groupes sociaux, de rejet de certains principes, d'alliances professionnelles ou quoi que ce soit d'autre. La pensée heuristique est rapide, facile, presque sans effort. Souvent, ce n'est que des années plus tard, comme ce fut mon cas, qu'on s'aperçoit qu'elle nous a trompés…

Les pièges du cerveau

Un moyen d'étudier les différences entre pensée heuristique et pensée algorithmique est de les observer à l'œuvre chez les enfants. Ceux-ci, plus que personne, sont sujets aux croyances et leur cerveau doit développer, au fil des années, une capacité de raisonnement apte à remettre ces dernières en question. En laboratoire, nous pouvons observer comment cela se passe en soumettant de jeunes participants à des tests pendant que leur cerveau est observé à la loupe grâce à des examens par IRM – parfaitement inoffensifs, précisons-le.

On peut, par exemple, montrer à un enfant deux rangées de jetons comportant l'une et l'autre le même nombre de jetons, si ce n'est que ceux-ci sont plus espacés dans la seconde rangée que dans la première. Un enfant n'ayant pas encore 7 ans déclare généralement qu'il y a plus de jetons dans la seconde rangée, car il est habitué à penser – de manière heuristique – « qu'il y en a plus là où c'est plus long ». Il commet cette erreur car il se repose sur sa croyance habituelle et oublie d'enclencher sa capacité de raisonnement – ici il s'agit simplement de la faculté de comptage, qui représenterait une pensée algorithmique.

Comment l'enfant pourrait-il s'extraire de ce mode de pensée automatique ? Dans les faits, en intervenant auprès des jeunes participants en leur expliquant qu'ils peuvent suspendre ce mode de raisonnement et prendre le temps de compter les jetons, un expérimentateur adulte obtient de bons résultats. L'enfant parvient à mettre entre parenthèses sa croyance habituelle pour examiner la situation au moyen de ses outils logiques .

Mais ce n'est pas tout : nous observons un changement notable dans son cerveau. Les zones de la pensée heuristique (le sillon intrapariétal latéral, voir la figure ci-dessous) s'éteignent, tandis qu'une autre partie de son cerveau, située à l'avant, s'active. Il s'agit du cortex préfrontal inférieur, véritable commutateur qui permet de basculer de la pensée heuristique à la pensée algorithmique. Lorsqu'on fait comprendre à l'enfant qu'il a intérêt à compter et non à évaluer « au jugé », le cortex préfrontal opère cette conversion : il éteint la zone heuristique et allume une zone du comptage dans le cortex pariétal . En un mot, le cortex préfrontal inférieur, véritable pivot cognitif, permet de bloquer les automatismes mentaux pour activer une pensée discursive, logique et dynamique.

Comment le cortex préfrontal parvient-il à nous engager sur les rails d'une pensée méthodique ? Le neuroscientifique Stanislas Dehaene explique que cette partie de notre cerveau renferme des neurones dotés de très longs câbles (axones) qui leur permettent d'envoyer des signaux à tout le reste du cortex afin que d'autres neurones, dits « inhibiteurs », prennent le relais localement et fassent taire (« chut », écrit-il) des groupes entiers ou populations de neurones pré-activés. C'est très précisément ce type de câblage neurobiologique inhibiteur qu'il faut exercer, sur l'ensemble du cerveau, pour apprendre à résister aux tentations de raisonnement heuristique simple et immédiat.

 

Apprendre à penser librement, c'est donc apprendre à devenir maître de son cortex préfrontal. Mais comment faire concrètement ? C'est là que notre libre arbitre intervient une seconde fois, à travers une indispensable prise de conscience.

Suspendre les croyances

Pour faire taire nos opinions ou réflexes de pensée, encore faut-il se rendre compte qu'ils sont activés. Or, la plupart des choses que nous tenons pour vraies ont un talent incroyable pour nous sembler parfaitement naturelles et nous dispenser de tout examen logique. C'est ce qu'a notamment mis en évidence l'économiste Daniel Kahneman, prix Nobel d'économie en 2002 . Ses expériences ont montré que, lorsque nous trouvons une idée crédible, notre capacité à enclencher notre pensée critique s'éteint. Nous avons beaucoup de difficulté à la mettre à l'épreuve du raisonnement. Ce biais de crédibilité semble donc constituer un obstacle de taille à la mobilisation de notre cortex préfrontal.

 

Comment le surmonter ? Au prix d'un effort quotidien afin de distinguer, au sein de nos propres idées, celles qui nous semblent à la fois crédibles, bonnes, légitimes, de celles qui sont rigoureusement fondées. Ce n'est pas équivalent ! Pour peu qu'il y réfléchisse quelques instants, chacun se rendra compte que la majorité des croyances ou opinions qui lui sont chères ne reposent pas sur grand-chose. Ainsi, une opinion peut être valable du point de vue éthique, répondre aux attentes d'un milieu social, paraître désirable ou correspondre à nos intérêts ou habitudes personnelles, sans pour autant reposer sur un raisonnement sérieux. Savoir opérer cette distinction est l'étape cruciale du choix de pensée qui nous incombe. En prenant conscience de ce distinguo, nous nous offrons la possibilité de faire fonctionner notre cortex préfrontal et d'opter pour une pensée algorithmique, méthodique, rationnelle.

Tout est-il alors gagné ? Sur le papier, peut-être, mais nous sommes des êtres de chair et de sang, et une fois que l'on a reconnu en son for intérieur : « Bon, je vois bien que mon opinion n'est pas certaine à 100 % », cela implique de réexaminer un certain nombre de points de raisonnement à tête reposée, ce qui prend toujours un certain temps. Un temps où il faut rester sans avoir rien à dire dans cette conversation qui semble aller bon train et où chacun ne demande qu'à s'enflammer. Il faut donc s'imposer le silence et la réserve. Combien sommes-nous à l'accepter ? C'est pourtant la condition pour accéder au cortex préfrontal et à une forme de liberté de pensée.

Former les cerveaux de demain

Comme on l'aura compris, jouir d'un cortex préfrontal en bon état de marche n'est pas une mince affaire. D'autant plus que cette structure cérébrale se développe et se façonne jusqu'à l'âge adulte, faisant de l'élaboration d'une pensée critique une affaire de tous les instants pour les parents, les éducateurs ou professeurs.

De petits exercices peuvent être pratiqués pour sensibiliser les enfants aux pièges de la pensée heuristique. Dites-leur par exemple que : a) les éléphants sont des mangeurs de foin et b) les mangeurs de foin ne sont pas lourds. Demandez-leur ensuite si cela veut dire que c) les éléphants sont lourds. Les enfants d'école primaire (6-12 ans) répondent souvent « oui », alors que rien ne permet à leur cerveau de déduire logiquement cette conclusion des prémisses du syllogisme, c'est-à-dire des deux premières phrases (a et b). Il a été démontré que la difficulté de ce type de tâche de raisonnement, au cours du développement, est de parvenir à inhiber le contenu sémantique de la conclusion (réseaux du cerveau dits « sémantiques » ou « de connaissances générales »), c'est-à-dire ici la forte croyance des enfants quant au poids des éléphants. D'où leur réponse trop rapide et erronée.

Ce genre de petit jeu est utile pour faire comprendre à un enfant la différence entre une croyance et un raisonnement. D'autres pièges interviennent souvent dans les apprentissages à l'école, notamment en cours de maths… On sait qu'en classe les enfants butent souvent sur des énoncés verbaux du type : « Louise a 25 billes. Elle a 5 billes de plus que Léo. Combien Léo a-t-il de billes ? » Fréquemment, l'enfant ne parvient pas à inhiber l'heuristique implicite, trop rapide, « il y a le mot “plus”, alors j'additionne » (25 + 5 = 30) afin d'activer l'algorithme de soustraction (25 − 5 = 20). Inutile, donc, de lui répéter au-delà du nécessaire les règles de l'addition et de la soustraction (déjà automatisées). C'est plutôt, dans ce cas, l'inhibition de l'automatisme lié au mot « plus » qu'il faut exercer ! Inhiber pour bien raisonner. Ici, l'ennemi est intérieur : c'est l'impulsion, l'automatisme de pensée, tels « les éléphants sont lourds », « longueur égale nombre », « il y a le mot plus, alors j'additionne », etc., heuristiques très bien rangées dans notre cerveau – au tout premier plan – et prêtes à bondir, à tout moment, par réflexe cognitif. C'est une véritable armée de neurones à combattre ! La résistance est dès lors tournée vers soi. Comme l'écrit fort bien Jean d'Ormesson, « penser, c'est refuser, c'est dire non, c'est penser contre soi ». 

Plus d'esprit critique !

Comme l'avaient déjà bien pressenti les penseurs grecs de l'Antiquité depuis Aristote à travers les sophismes et paralogismes (écarts à la logique), suivis par les philosophes de la Renaissance qui ont souligné le poids des coutumes et des habitudes égocentrées (Montaigne) ou l'action des « puissances trompeuses » (Pascal), ce sont donc nos propres impulsions, intuitions, croyances, stéréotypes et erreurs cognitives auxquels il faut apprendre à résister. Et c'est la partie antérieure de notre cerveau, le cortex préfrontal, qui doit s'exercer à bien les inhiber. Or cela ne va pas de soi, car sa maturation est lente au cours de l'enfance.

L'éducation des parents et les apprentissages à l'école ont un rôle essentiel à jouer dans cette capacité de résistance cognitive et d'inhibition. Le programme pédagogique de l'Académie des sciences, porté par la fondation La main à la pâte, a suggéré ces dernières années d'ajouter un quatrième terme à la trilogie classique issue de l'école de Jules Ferry : lire, écrire et compter, certes, mais aussi raisonner. Et apprendre à bien raisonner, c'est apprendre à bien résister (inhiber).

Parvenus à l'âge adulte, nous devrions en principe être armés sur le plan neuronal pour déjouer ces pièges. Ce n'est – hélas – pas si simple. Notre cerveau heuristique est toujours très actif et, face à cela, il faut malheureusement admettre que notre cerveau algorithmique n'est pas toujours entraîné de façon très régulière. Quant à notre cortex préfrontal, nécessaire pour orienter la pensée vers un mode ou vers l'autre, certains exercices permettent d'en améliorer la forme . Pourquoi ne pas s'y mettre dès aujourd'hui ?

Olivier Houdé


 

L'erreur fondamentale d'attribution​

L’attribution causale

 

 

  

Comme son nom le laisse supposer, l’attribution causale désigne en psychologie sociale la tendance naturelle de l’homme à attribuer des causes aux comportements qu’il observe. L’attribution est un processus qui consiste « à émettre un jugement, à inférer « quelque chose », une intuition, une qualité, un sentiment sur son état ou sur l’état d’un autre individu à parti d’un geste, d’un objet, d’une disposition spatiale, d’une humeur » (Moscovici).

Les travaux sur l’attribution causale rendent donc compte d’une psychologie du « sens commun » : comment j’explique les évènements auxquels j’assiste ? Comment j’explique ce que je fais, ce qui m’arrive, ce que je ressens ? Comment j’explique ce que font les autres, ce qui leur arrive ?

 

 

I. On ne se contente pas de ce que l’on voit

———————–

Le psychologue autrichien Fritz Heider fit dans les années 40 une découverte intéressante concernant la façon dont nous expliquons les situations que nous sommes amenés à observer. Il mit en évidence notre tendance naturelle à ne pas nous contenter de l’information disponible, et à inférer des informations supplémentaires pour rendre compte de la logique des situations observées.

Le dispositif expérimental était simple, et la vidéo ci-dessous vous permet de vous en convaincre : regardez-la, et répondez à la question : que voyez-vous ?

La plupart des sujets soumis à cette expérience développe un discours (parfois très élaboré) sur les comportements des formes géométriques et leurs relations (« Le gros triangle se cache, il tend un piège au petit triangle et au rond » ; « le rond est acculé dans la pièce » ; « le triangle ouvre la porte »…), sur leurs émotions (« le petit rond a peur » ; « le gros triangle est énervé »…). Dans presque tous les cas, on obtient un discours architecturé autour de l’idée que le gros triangle chasse les deux petites formes géométriques.

Pourtant, qu’en savons-nous ? Un observateur extérieur rigoureux, soucieux de ne rendre compte que de ce qu’il a observé, ne pourra que dire que la vidéo présente des formes géométriques (trois : un gros triangle, un petit triangle, un petit rond) en mouvement autour de plusieurs segments.

En effet, la quasi-totalité des informations que nous proposons pour rendre compte de cette vidéo sont des informations… inventées ! On peut déjà s’étonner de notre tendance à attribuer des émotions, des désirs, des pulsions à des formes géométriques. Et même en admettant que ces formes pensent et ressentent, rien ne nous permet d’affirmer que l’un est méchant, que l’autre se cache, etc.

Bref : nous avons tendance à générer des informations supplémentaires, ces informations permettant d’expliquer la situation et d’attribuer des causes aux comportements que nous observons.

 

II. Une disposition naturelle

———————–

Cette tendance est naturelle, et normale. Dans la vie de tous les jours, nous inférons et devinons un certain nombre d’informations, nous ne nous contentons pas des données transmises par nos sens. En cela, les informations recueillies (les sensations) font l’objet d’un traitement les enrichissant et parfois les déformant en fonction de ce que l’on sait déjà, de notre expérience passée (la perception). Ainsi, lorsque vous voyez une ambulance ou un véhicule d’intervention des pompiers devant un bâtiment, vous supposez naturellement et sans même y penser qu’il y a un blessé, vous ne vous contraignez pas à penser « tout ce que je peux dire et croire, c’est qu’un véhicule des forces de secours se trouve devant le bâtiment ».  C’est un processus normal qui permet d’ordonner et de donner un sens à la réalité sociale. Grâce à cela, nous pouvons :

  • Comprendre et dans une certaine mesure contrôler et expliquer notre environnement, nous évitant le désagréable sentiment d’être dépassé par les évènements et de ne rien comprendre à ce qui nous environne ;
  • Prédire notre environnement, et éventuellement agir suffisamment tôt pour nous éviter certains problèmes. Si un homme se dirige vers vous la nuit un couteau à la main, vous allez sûrement lui attribuer de mauvaises intentions et agir en conséquence avant d’en savoir plus !

 

———————–

III. Attribution interne et attribution externe

———————–

Il existe deux grandes catégories d’attributions causales : les attributions internes et les attributions externes.

  • Les attributions internes désignent les explications rendant compte du comportement au moyen de facteurs personnels, internes, dispositionnels. Par exemple :

« Roger n’a pas eu la moyenne à son examen. Il n’a probablement pas assez travaillé, ça lui ressemble bien. »

  • Les attributions externes désignent les explications rendant compte du comportement au moyen de facteurs environnementaux, externes, situationnels. Par exemple :

« Roger n’a pas eu la moyenne à son examen. Il faut dire que le sujet était dur, et le prof ne l’aime pas de toute façon. »

 

Dans les deux cas, les faits sont les mêmes (Roger n’a pas eu la moyenne à son examen), ils sont objectifs et vérifiables par tous. En revanche, l’explication qui est proposée s’appuie soit sur des facteurs internes, propres à Roger (sa paresse, sa tendance naturelle à ne pas réviser en avance, etc.), soit sur des facteurs externes, extérieurs à Roger (la difficulté du sujet d’examen, les conditions d’examen,  un ressenti particulier de l’enseignant à l’égard de Roger, etc.)

« Ce qui fut infligé par Dieu, par le monde, le destin, la nature, les chromosomes et les hormones, la société, les parents, la police, les maîtres, les médecins, les patrons, et, pis que tout, par les amis, est si injuste et cause une telle douleur qu’insinuer seulement que je pourrais peut-être y faire quelque chose, c’est ajouter l’insulte à l’outrage. » (Watzlawick, p. 25)

 

 

IV. Erreur fondamentale d’attribution et norme d’internalité

———————–

Norme d’internalité

Si vous ne l’aviez pas déjà deviné, rappelons une chose importante : dans nos sociétés occidentales postmodernes/hypermordernes, une des formes d’attribution est plus appréciée et valorisée socialement que l’autre : l’attribution interne. C’est ce que l’on appelle la norme d’internalité.

A l’ère de l’individu autonome et responsable, les explications internes sont en effet plus désirables et acceptées socialement : par exemple, si un individu attribue son manque de réussite à l’examen à un manque de travail, il sera considéré comme honnête et lucide vis-à-vis de lui-même, responsable, capable de reconnaître ses erreurs, alors qu’en revanche s’il attribue son échec à des facteurs sur lesquels il n’a aucune prise, il sera soupçonné de se chercher des excuses, de faire porter la responsabilité à d’autres que lui., etc. Bref, de pas y mettre du sien et de refuser de regarder la réalité en face : s’il avait travaillé, il n’en serait pas là…

Pas convaincu ? Pensez au demandeur d’emploi…

 

Erreur fondamentale d’attribution

Aussi appelée biais d’internalité, l’erreur fondamentale d’attribution désigne la tendance naturelle à privilégier les facteurs internes pour expliquer le comportement des autres (ou comme on dit parfois, à « psychologiser »). Ainsi, nous avons naturellement tendance à sous-estimer le poids des facteurs situationnels et à surestimer le poids des facteurs personnels lorsqu’il s’agit d’expliquer un comportement observé (et qui n’est pas le nôtre).

Par exemple, une réaction classique au visionnage de l’expérience de Milgram est de penser que les personnes testées sont des personnes au fond mauvaises, qui tirent un certain plaisir sadique dans la tâche, et de minimiser le poids de l’expérimentateur et du dispositif expérimental. Beaucoup de personnes nient ou sous-estiment l’influence importante du contexte dans cette expérience, influence pourtant bien présente et déterminante (rappelons que la soumission peut varier de 0% à quasiment 100% suivant les conditions expérimentales, ce qui montre bien l’importance du contexte).

 

 

V. Et le social dans tout ça ?

———————–

Une des limites de la théorie de l’attribution présentée de la sorte est sa tendance à psychologiser et à ne pas toujours tenir compte des facteurs sociaux. Il existe pourtant des dimensions sociales de l’attribution (Jaspars & Hewstone, 1984) :

  • La catégorisation sociale : on sait que l’attribution est différente lorsqu’il s’agit d’évaluer les comportements de membres d’un groupe différent du sien plutôt que d’évaluer des comportements de son propre groupe. Proche du biais pro-endogroupe (tendance naturelle à évaluer plus positivement les membres de son groupe), on sait par exemple que lorsqu’il est question d’évaluer les actions négatives, les facteurs internes seront utilisés pour un groupe « opposé » alors que des facteurs externes seront nommés pour un membre de son propre groupe (et inversement) : c’est l’erreur ultime d’attribution.
  • L’influence sociale : il faut également tenir compte du fait que l’environnement social de la personne peut influencer sa perception et sa déclaration : l’avis de son entourage peut influencer sa propre opinion.
  • La nature sociale de ce qui est expliqué : il est également possible d’envisager l’attribution de causes non pas à des comportements mais à des faits sociaux ou des conditions sociales.
  • Les représentations sociales : enfin, les représentations partagées au sein d’un même groupe peuvent influencer également le processus d’attribution.

 

            VI. Et pour soi ?

———————–

Le biais d’auto-complaisance

Est-ce qu’on explique son comportement de la même façon que l’on explique celui des autres ? Non, c’est plus compliqué ! Il faut en effet distinguer l’hétéro-attribution (explication du comportement des autres) de l’auto-attribution (explication de son propre comportement). Lorsque nous expliquons nos propres conduites, nous mobilisons moins les facteurs internes et accordons autant voire plus d’importance aux facteurs externes.

Nous serions donc plus clairvoyants concernant nos propres comportements, et capables de rendre compte aussi bien des élans et dispositions internes que des déterminismes et facteurs externes ? Oui et non. C’est ce que désigne le biais d’auto-complaisance. Dave T. Miller et Lee Ross ont démontré que nous expliquons différemment nos comportements selon qu’il s’agit d’expliquer des réussites ou des échecs :

  • Lorsqu’il s’agit d’expliquer une réussite, nous avons tendance à privilégier les explications internes (comprendre : « j’ai réussi parce que j’avais en moins les éléments nécessaires à la réussite »).
  • Lorsqu’il s’agit d’expliquer un échec, nous avons tendance à privilégier les explications externes (comprendre : « j’ai raté parce que l’environnement m’a handicapé »).

Bref, lorsque je réussis c’est grâce à moi, quand je rate ce n’est pas à cause de moi… Ainsi, si nous avons tendance à être plus dur avec les autres et à ramener assez spontanément la plupart de leurs comportements à des variables individuelles, nous sommes plus nuancés nous concernant, reconnaissant beaucoup plus facilement le poids des contraintes environnementales sur nos actions et décisions (surtout quand on s’est trompé !).

 

Le locus de contrôle (LOC)

Le locus of control (lieu de contrôle ou locus de contrôle en français, abrégé LOC) désigne la façon dont nous percevons et expliquons notre capacité générale à agir et à influencer notre environnement. Alors que l’auto et l’hétéro-attribution désignent un processus d’attribution ponctuel, le LOC désigne une tendance générale et stable en nous, un peu comme un trait de personnalité.

Comme pour le mécanisme d’attribution, il est ainsi possible d’avoir un locus de contrôle interne ou externe. Les individus ayant un LOC interne présentent une croyance générale en leur capacité à agir et à influencer, à considérer que ce qui leur arrive est en grande partie le fruit de leurs actions et leur engagement (« quand on veut on peut ! »). A l’inverse, les individus ayant un LOC externe présentent une tendance à considérer que ce qui leur arrive est le fruit d’actions, de décisions, d’évènements qui les dépassent et sur lesquels ils n’ont pas de prise (« c’est le destin / le hasard / la chance… »).

 

 VII. A quoi ça sert ?

———————–

Ces travaux – nombreux – sur les mécanismes de l’attribution doivent au moins nous enseigner à nous méfier de nous-mêmes. Lorsqu’il est question d’évaluer une situation, de donner son avis sur le comportement d’une personne, il est souhaitable de rester mesuré et d’envisager aussi bien les facteurs internes qu’externes, et de s’interroger sur les biais et influences sociales qui pourraient parasiter notre regard. Aussi, ces recherches doivent nous permettre de mieux repérer les discours trop internalisant ou externalisant : tout rapporter à des variables environnementales ou à des variables psychologiques revient nécessairement à nier une partie de la réalité sociale.

Quelques travaux et pistes de réflexion :

  • Dans le domaine de l’orientation-insertion, il est courant de mettre en œuvre en parallèle de l’action de bilan un travail sur le LOC des apprenants, bien souvent malmené. Il a ainsi été démontré qu’il était possible de conditionner quelqu’un à développer l’équivalent d’une attitude externe : l’impuissance apprise. Et lorsqu’il s’agit d’aider quelqu’un à élaborer et mettre en œuvre un projet professionnel, il est souhaitable qu’il s’en sente capable et qu’il croit en lui !
  • Dans le domaine de la santé, il apparaît que les personnes ayant un locus de contrôle interne supportent moins bien les blessures/ la maladie et l’impuissance générée, alors que les personnes ayant un locus de contrôle externe sont plus à même d’accepter les conséquences négatives de la santé dégradée.
  • Dans le domaine de l’évaluation, nous avons tendance à évaluer plus favorablement les personnes présentant un LOC interne.

 

 Maxime Pollet

 

 

Et pourtant je comm'unique

Pourquoi les faits ne suffisent pas à convaincre les gens qu’ils ont tort

 

Les sciences cognitives expliquent pourquoi il est plus facile de nier les preuves factuelles que de renoncer à ses croyances.

terre plate ou terre ronde ?

 
 
 

Avez-vous déjà rencontré des gens qui changent d’avis quand vous leur exposez des faits qui sont contraires à leurs convictions ? Moi jamais. Pire, les gens semblent renforcer leurs croyances et les défendre avec acharnement quand il y a des preuves accablantes contre elles. L’explication est liée au fait que notre vision du monde nous semble menacée par des preuves factuelles qui ne vont pas dans son sens.

Les créationnistes, par exemple, contestent les preuves de l'évolution comme les fossiles ou la génétique parce qu'ils s'inquiètent que des forces séculières empiètent sur la foi religieuse. Les anti-vaccination se méfient des firmes pharmaceutiques et pensent que l'argent corrompt la médecine. Cela les amène par exemple à croire qu’il y a un relation de cause à effet entre les vaccins et l’autisme malgré la vérité gênante que la seule étude affirmant un tel lien a été rétractée et son auteur principal accusé de fraude. Les conspirationnistes du 11 septembre se concentrent sur des détails minutieux comme le point de fusion de l'acier dans les tours du World Trade Center, qui a causé leur effondrement, parce qu'ils pensent que le gouvernement américain ment et mène des opérations « sous faux pavillon » pour créer un nouvel ordre mondial. Les négationnistes du climat étudient les cernes de croissance des arbres, les carottes de glace et les concentrations de gaz à effet de serre parce qu'ils sont passionnés par la liberté, en particulier celle des industries à mener leurs affaires sans être contraintes par des réglementations gouvernementales restrictives. Les obsédés de l’origine de Barack Obama ont désespérément disséqué son certificat de naissance en quête d’une fraude, car ils croyaient que le premier président afro-américain des Etats-Unis était un socialiste qui avait pour but de détruire le pays.

Dans ces exemples, les conceptions du monde profondes de ces partisans sont perçues comme étant menacées par les rationnalistes, ce qui fait de ces derniers « l'ennemi à abattre ». Ce emprise de la croyance sur la preuve s'explique par deux facteurs : la dissonance cognitive et l'effet rebond (backfire). Dans un ouvrage classique publié en 1956 intitulé Quand la prophétie échoue, le psychologue Leon Festinger et ses co-auteurs ont décrit ce qui est arrivé à une secte vouant un culte aux ovnis après que le vaisseau-mère extraterrestre attendu n'est pas arrivé à l’heure annoncée. Au lieu d'admettre leur erreur, « les membres du groupe ont cherché frénétiquement à convaincre le monde de leurs croyances », et ils ont fait « une série de tentatives désespérées pour effacer cette dissonance entre leur croyance et la réalité en faisant de nouvelles prédictions après la prophétie initiale, dans l'espoir que l'une finirait par être la bonne ». Festinger a qualifié cet état de dissonance cognitive, une tension inconfortable qui survient lorsque l'on considère deux idées contradictoires simultanément.

Dans leur livre Les erreurs des autres. L'autojustification, ses ressorts et ses méfaits, publié en 2007, les deux psychologues sociaux Carol Tavris et Elliot Aronson (un ancien étudiant de Festinger) documentent des milliers d'expériences démontrant comment les gens déforment et sélectionnent les faits pour les adapter à leurs croyances préexistantes et réduire leur dissonance cognitive. Leur métaphore de la « pyramide de choix » illustre comment deux individus ayant des positions proches – côte à côte au sommet de la pyramide – peuvent rapidement diverger et finir au pied de la pyramide sur des faces opposées, avec des opinions inverses, dès lors qu’ils se sont mis en tête de défendre une position.

Dans une série d'expériences, Brendan Nyhan, de Dartmouth College, et Jason Reifler, de l'Université d'Exeter, ont identifié un second facteur, connexe, qu'ils ont nommé « effet rebond » (en anglais, backfire) : corriger les erreurs factuelles liées aux croyances d’une personne n’est pas seulement inefficace, mais cela renforce ses croyances erronées, car « cela menace sa vision du monde ou l’idée qu’elle se fait d’elle-même ». Les sujets d’une expérience recevaient par exemple des articles de presse fictifs qui confirmaient des idées fausses répandues, comme la présence d’armes de destruction massive en Irak. Puis on donnait aux participants un article qui démontrait qu’aucune arme de destruction massive n’avait été trouvée. Résultat : les sujets d’orientation libérale qui étaient opposés à la guerre ont accepté le nouvel article et rejeté les anciens, alors que les conservateurs qui soutenaient la guerre ont fait le contraire. Pire, ils ont déclaré être encore plus convaincus de l’existence d’armes de destruction massive après avoir lu l’article montrant qu’il n’y en avait pas, au motif que cela prouvait seulement que Saddam Hussein les avait cachées ou détruites. En fait, Nyhan et Reifler ont noté que chez de nombreux conservateurs, « la croyance que l'Irak possédait des armes de destruction massive juste avant l'invasion par les États-Unis a persisté longtemps après que l'administration Bush elle-même a fini par admettre que ce n’était pas le cas ».

 
 

Si les corrections factuelles ne font qu'empirer les choses, que pouvons-nous faire pour convaincre les gens que leurs croyances sont erronées ? Selon mon expérience empirique, on peut adopter le comportement suivant :

  1. Mettre ses émotions de côté.
  2. Discuter, ne pas attaquer (pas d’attaque ad hominem ni de point Godwin).
  3. Ecouter attentivement et essayer de d'analyser la position de votre interlocuteur avec précision.
  4. Montrer du respect.
  5. Reconnaître que vous comprenez pourquoi quelqu'un peut soutenir cette opinion.
  6. Essayer de montrer comment changer de vision des faits n’implique pas nécessairement de changer de vision du monde.

Ces stratégies ne fonctionnent pas toujours pour convaincre les gens de changer de point de vue, mais en ces temps où il est devenu si courant de s’affranchir de la vérité dans le débat public, cela pourrait au moins aider à réduire les dissensions inutiles.

Michael Shermer 


 

Expérience de Milgram-Soumission à l'autorité (I comme Icare)

La manip pour tous

Sommes-nous tous manipulés ? Oui ! Mais pas comme nous l’imaginons. Mieux encore, serions-nous tous des manipulateurs, sans le savoir ?

Un soir, un jeune commercial en formation est passé à la maison dans l’espoir de me faire souscrire un abonnement. Il m’a posé une série de questions auxquelles je ne pouvais répondre que par l’affirmative, a insisté, tout sourire, sur le fait que ma signature n’engageait à rien et que du reste, bien sûr, j’étais libre de ne pas signer. J’ai refusé tout net, en claironnant qu’il employait des techniques de manipulation que je connaissais par cœur. « C’est pas de la manipulation !, s’est-il récrié. C’est mon chef qui me dit de faire comme ça ! – Alors c’est votre chef qui vous manipule, en dissimulant qu’il vous forme à manipuler ! – De toute façon, si c’est vraiment de la manipulation, moi je vais démissionner ! » Il est reparti blême et penaud. Ce malheureux pouvait-il manipuler ses clients potentiels sans le savoir ?

Les grosses ficelles du marionnettiste

Si l’on se fie au sens commun (mais on se doute bien qu’il a tort), le manipulateur apparaît comme un stratège supérieurement intelligent qui, parfois sans l’air d’y toucher, obtient ce qu’il veut d’une victime impuissante, voire inconsciente de ce qui l’attend. Cette conception hante l’imaginaire collectif, depuis les hypnotiseurs de spectacles aux méchants supérieurement intelligents du cinéma, en passant par la vogue des pervers narcissiques et les théories du complot plus ou moins étayées. À défaut d’être toujours faux, voilà qui semble en tout cas très limitatif. Car les recherches en psychologie sociale, notamment, présentent un panel extrêmement varié des techniques de manipulation.

Veut-on, par exemple, manipuler par la persuasion ? Élaborés voici une trentaine d’années, le modèle de probabilité d’élaboration (ou ELM) signé Richard Petty et Tom Cacioppo, ou encore le modèle du traitement heuristique/systématique de Shelly Chaiken, restent très influents aujourd’hui : ils montrent que la persuasion se révèle d’autant plus efficace que l’individu concerné est intéressé par le sujet dont il est question, et capable d’apprécier une argumentation de qualité. À défaut, il doit jouer le béni-oui-oui face à un interlocuteur perçu comme un expert. Voilà qui fait, certes, beaucoup de conditions ! Cependant, les modèles issus de la théorie de la dissonance cognitive (Leon Festinger, 1957) ne s’embarrassent pas de telles fioritures : ils insistent sur le bricolage intérieur permettant d’harmoniser nos pensées conflictuelles (ou de « réduire la dissonance »), quand nous sommes prêts à toutes les acrobaties pour justifier a posteriori, en y croyant nous-mêmes, nos contradictions, nos changements d’avis, et surtout nos comportements inhabituels. La manipulation la plus efficace, en effet, se base avant tout sur les actes. On agit d’abord, on se convainc ensuite qu’on a bien fait. Le paradigme d’« hypocrisie induite » joue par exemple sur la mauvaise conscience des individus pour leur faire modifier leurs comportements : à la piscine, interroger des nageurs sur leur gaspillage d’eau ordinaire leur fait prendre « spontanément » des douches plus courtes…

Auteurs du célébrissime (et toujours d’actualité) Petit traité de manipulation à l’usage des honnêtes gens (1987), Robert-Vincent Joule et Jean-Léon Beauvois décrivent de leur côté la « soumission librement consentie » comme consécutive à la mise en œuvre d’un acte anodin, produit devant témoin(s) et en toute liberté. Le tour de passe-passe le plus classique est celui du pied dans la porte, scientifiquement démontré avec l’exemple d’un gigantesque panneau publicitaire en faveur de la prévention routière que les citadins doivent accepter dans leur jardin. Si vous leur demandez de but en blanc, le plus probable est qu’ils refusent tout net. Si vous leur proposez simplement d’apposer un autocollant sur leur boîte aux lettres, vous aurez beaucoup plus de chances de parvenir à vos fins en leur proposant ultérieurement le fameux panneau. Un tout petit oui qui ne mange pas de pain augmente les chances d’accepter ensuite, graduellement, ce qui aurait dû paraître inacceptable.

Persuasion et manipulation par l’engagement sont-ils inconciliables ? Pas forcément : la « communication engageante » testée par les mêmes Joule et Beauvois articule ces deux dimensions : l’accomplissement d’un acte anodin favorise alors une tentative de persuasion consécutive. Mais pour quoi faire ? Eh bien, de même que selon Pierre Desproges il n’y a qu’une différence d’intention entre une mauvaise cuisinière et une empoisonneuse, tout dépend de ce que le manipulateur a en tête. Il peut vous faire accepter avec gourmandise d’acheter une encyclopédie volumineuse et onéreuse que vous ne consulterez jamais, alors que tout son contenu est disponible en libre accès sur Internet et ne vous a jamais intéressé. Il peut aussi vous amener à faire des économies d’énergie, utiliser plus souvent des préservatifs ou grignoter des vers de terre (tout cela, des psychologues l’ont vérifié) : disons qu’on donne alors un gros coup de pouce pour obtenir le meilleur comportement possible, pour l’intéressé et la communauté.

Je manipule, tu manipules

Ainsi le schéma intuitif de la manipulation, se jouant entre un tireur de ficelles démoniaque et un gentil pantin, se voit-il mis à mal. Les techniques comportementales les plus rapides et les plus efficaces font les délices de certains commerciaux qui ne sont ni machiavéliques ni psychopathes ni stratèges hors pair… mais pragmatiques. Si aucune n’est infaillible, leur combinatoire et l’art de les amener peuvent susciter des comportements qui n’auraient jamais été obtenus spontanément, parfois aberrants et contre-productifs. Et nous sommes tous des manipulateurs, peu ou prou, au quotidien. Des parents triomphants parce qu’ils ont trouvé une astuce pour faciliter (pour quelques soirs, en tout cas…) le coucher de leurs enfants surexcités, des enseignants se faisant part mutuellement des stratagèmes propres à décourager l’insolence d’un élève notoirement pénible, un sourire pour mieux faire passer la pilule en délivrant une facture, ou tout simplement l’usage du puissant « s’il vous plaît », qui insiste sur le sentiment de liberté de l’interlocuteur et limite ainsi nos chances d’essuyer un refus, tout cela relève de la manipulation, ou, si le terme vous gêne, d’une influence, mais sciemment exercée. Tous, nous manipulons au quotidien les images que nous arborons sur Facebook, non pas en les retouchant comme voici quelques décennies, mais en sélectionnant les meilleures, celles qui présentent des facettes de notre vie valorisantes aux yeux de notre communauté.

D’une manière ou d’une autre, personne n’échappe à l’influence : on ne peut pas ne pas être influencé, et on ne peut pas ne pas influencer. Peut-on ne pas être manipulé ? Et ne pas manipuler, même avec les meilleures intentions du monde ? La différence entre influence, persuasion et manipulation ordinaire n’est sans doute qu’une question de degré, de vocabulaire et d’intention.

Jean-François Marmion

Se décider bien... et vite !

 

Tous les sportifs experts ont engrangé de nombreuses situations de jeu de façon automatique et non consciente dans leur mémoire implicite. Ils sont ainsi capables de réagir correctement face à un adversaire !

 
 

- Un sportif doit prendre la « bonne » décision, rapidement, selon la situation où il se trouve. Il exploite pour ce faire les connaissances qu'il a emmagasinées sur son sport.

- Ces données sont stockées dans différentes mémoires. Certaines situations de jeu sont mémorisées de façon automatique et non délibérée dans la mémoire implicite.

- Les experts dans un sport réagissent plus vite et mieux que les novices. Car les données stockées dans leur mémoire implicite sont accessibles de façon inconsciente.

 

Un joueur de football s'apprête à tirer un penalty. Il est seul, face au gardien de but adverse. Ce dernier va probablement anticiper son tir et choisir de plonger d'un côté ou de l'autre. Souvent c'est son unique chance d'arrêter le ballon avant qu'il ne franchisse la ligne de but. De quel côté et quand va-t-il plonger ? Où le tireur doit-il placer son ballon ? La force du joueur expert est qu'il choisit bien et vite. Selon ce qu'il sait des habitudes du gardien notamment.

Face à une décision qu'il doit prendre ou confronté à une question qui lui est posée, un expert – quel que soit son domaine de compétence – donne rapidement des réponses pertinentes, adaptables et reproductibles, produites à faible « coût » (que l'effort soit physique ou mental). En sports collectifs, l'expertise ne repose pas seulement sur l'habileté technique et les capacités physiques, elle s'appuie surtout sur l'aptitude à prendre des décisions appropriées dans un contexte dynamique, changeant, où la rapidité est un paramètre déterminant pour être le plus performant à un moment donné.

Différents types de mémoires

La prise de décision repose sur une comparaison des éléments émergeant de la situation présente avec les connaissances stockées dans le « disque dur » cérébral : la mémoire à long terme. La quantité de connaissances spécifiques stockées et la vitesse d'accès à ces données sont deux paramètres essentiels. L'expert et le débutant n'ont pas les mêmes aptitudes « mnésiques » !

Il existe plusieurs mémoires, qui représentent des systèmes spécifiques traitant divers types de matériels ou utilisant différents modes de stockage. La mémoire de travail, à court terme, permet de traiter rapidement les nouvelles informations. Puis, celles-ci sont soit perdues, parce qu'elles sont sans intérêt, soit placées dans la mémoire à long terme, qui est constituée de plusieurs registres : la mémoire épisodique, stockant les données autobiographiques, telles les meilleures actions du match ; la mémoire sémantique concernant les faits et les connaissances sur le monde, tels que les 17 règles de jeu au football. Ensemble, ces deux mémoires engrangent des connaissances qui peuvent être verbalisées : c'est la mémoire déclarative ou explicite. D'autres modules emmagasinent les informations sous un autre format, non verbalisable, auquel l'accès est automatique : ce sont le système de représentation des perceptions et la mémoire implicite, ou procédurale, la mémoire des actions (celle où est par exemple stockée la capacité à réaliser différentes actions durant le match : dribbler, faire une passe, tirer).

Dans la plupart des modèles de la mémoire experte, les chercheurs étudient tout particulièrement la mémoire sémantique. On l'évalue avec divers tests. Par exemple, on présente à un sujet un ensemble d'éléments qui doivent être mémorisés. Après quelques minutes, on lui demande de citer ces éléments (c'est un test de rappel) ou de les reconnaître parmi d'autres facteurs perturbateurs (c'est un test de reconnaissance). Dans le domaine sportif, dès les années 1970, Hubert Ripoll, de l'Insep à Paris, a étudié les capacités de rappel de phases de jeu de basketball, chez des experts, des amateurs et des novices. Les sujets observaient des séquences de jeu présentées sur un écran vidéo pendant cinq secondes. On leur demandait ensuite de reproduire les emplacements successivement occupés par les joueurs, les trajets du ballon et les déplacements des athlètes.

Ripoll a montré que plus le joueur est expert, plus ses réponses sont correctes. Il en est de même au football et au volley-ball, et dans des sports individuels tels que la gymnastique et le patinage artistique. Cette supériorité se limite au domaine d'expertise de l'individu et dépend des situations présentées, c'est-à-dire de leur signification dans le cadre de l'activité considérée. En effet, Marc Williams, à l'Université John Moores de Liverpool, a mis en évidence que les performances de rappel des experts surpassent celles des novices seulement quand on leur présente des séquences de jeu qui ont un sens en fonction de la logique du jeu.

Pourquoi l'expert mémorise-t-il mieux des phases de jeu correspondant à son domaine ? On a émis plusieurs hypothèses. L'une d'elles propose que les sportifs disposent d'une riche « banque » de connaissances propres à leur domaine d'expertise. Cette banque serait très structurée, organisée hiérarchiquement, et les connaissances y seraient rapidement accessibles (elles sont peut-être directement récupérées dans la mémoire à long terme). Ainsi, la mémoire explicite jouerait un rôle primordial dans l'expertise.

Une banque de situations

Mais ce n'est pas tout : on a peu étudié la mémoire implicite, un des registres de la mémoire à long terme, qui pourtant pourrait avoir un rôle important dans l'expertise. En quoi mémoire explicite et mémoire implicite diffèrent-elles ? La première est sollicitée quand la réalisation d'une tâche exige le souvenir conscient (explicite) des événements passés. En revanche, la mémoire implicite intervient à chaque fois que le sujet est confronté à un événement auquel il a déjà été exposé, mais dont il n'a pas conscience d'avoir conservé un souvenir. Les expériences antérieures modifieraient le comportement du sujet sans qu'il s'en rende compte.

En général, on étudie la mémoire implicite avec des tests d'amorçage : dans une première phase, on demande aux participants de lire des mots ou de nommer des images, qui représentent des amorces, mais on ne leur impose pas de les mémoriser (lors de ces tests, les sujets ignorent que leur mémoire est l'objet de l'étude). Dans une deuxième phase, les participants doivent compléter des mots, dont certains sont déjà apparus au cours de la première phase. On évalue leur mémoire implicite en comparant la pertinence et la cohérence des réponses, ainsi que les temps de réaction, selon que le mot a déjà été présenté ou bien qu'il est nouveau.

Les résultats révèlent que le temps de réaction est plus court pour les mots préalablement lus ; la mémoire implicite est alors mise en œuvre. Ainsi, la présentation initiale d'un élément déclencherait l'activation ou la création d'une représentation de cette information dans la mémoire à long terme. Et le maintien de cette activation faciliterait le traitement de l'élément lorsqu'il est présenté une deuxième fois.

En sport, où des décisions doivent être prises rapidement, on a supposé que la mémoire implicite intervient dans la performance des experts. En effet, dans ces situations, les décisions ne nécessitent pas de verbaliser des connaissances, mais de déclencher des actions. Par exemple, au handball, le joueur qui a le ballon doit décider de ce qu'il va en faire dans une situation donnée. S'il est seul face au but, il peut dribbler et tirer. Si un défenseur l'empêche d'avancer, il peut faire une passe à un coéquipier.

Pour évaluer le rôle de la mémoire implicite dans la prise de décision chez les sportifs, nous avons étudié les performances de deux groupes d'experts, des joueurs et des entraîneurs de football, et d'un groupe de novices. Dans une première expérience, nous leur présentions, sur un écran, 96 photographies de situations de jeu réelles, et ils devaient décider quelle était la meilleure action pour celui qui avait le ballon : le passer à un partenaire démarqué, le garder ou tirer au but. Nous proposions chaque situation deux fois au cours de l'expérience, séparées l'une de l'autre par 7 à 15 situations distinctes. Le nombre des joueurs (attaquants ou défenseurs) et la nature de l'action appropriée différaient dans chaque situation.

Nous avons alors mesuré la pertinence de leurs réponses : coïncidait-elle avec la réponse la plus adaptée, définie par un groupe d'entraîneurs experts indépendants ? Nous avons aussi enregistré le temps nécessaire à la prise de décision et la cohérence des options choisies pour les deux présentations d'une même situation séparées par d'autres. Si la mémoire implicite est « meilleure » chez les experts, nous devions observer aussi un effet d'amorçage plus marqué chez ces sujets que chez les novices.

Nos résultats ont révélé que les réponses des experts étaient plus pertinentes que celles des novices, et surtout, qu'il existait chez les experts, et seulement chez eux, un effet d'amorçage : ils répondaient plus vite, et correctement, lors de la deuxième présentation d'une même situation de jeu. Et quand, à la fin de l'expérience, nous demandions aux sujets s'ils avaient réalisé que certaines situations leur avaient été présentées deux fois, nous constations qu'aucun n'en avait eu conscience.

La supériorité des experts dans les tâches de mémorisation d'informations spécifiques à leur domaine se manifeste donc de deux façons. Ils ont une meilleure mémoire explicite, car ils ont stocké en mémoire à long terme plus de connaissances structurées et de schémas relatifs à leur activité. En outre, ils ont une meilleure mémoire implicite, automatique et non délibérée, des informations propres à leur domaine d'expertise.

Quels sont les mécanismes responsables de la création ou de l'activation des représentations stockées dans la mémoire implicite ? Dans ce traitement, la mémoire de travail, où les informations sont gérées en premier lieu, jouerait un rôle déterminant. La mémoire de travail n'est pas seulement un lieu de maintien temporaire de l'information, c'est aussi, voire surtout, un lieu de traitement de l'information nécessaire à la réalisation des opérations cognitives complexes. Elle a quatre composantes : un système de contrôle, nommé « administrateur central », et trois systèmes périphériques . L'administrateur central est responsable de la sélection, de la coordination et du contrôle des opérations de traitement. Les systèmes périphériques sont la boucle phonologique, le calepin visuo-spatial et le « tampon » épisodique. La boucle phonologique assure le maintien temporaire de l'information verbale et sa réactivation par un mécanisme de répétition. Le calepin visuo-spatial gère notamment le maintien et la répétition des informations visuelles et spatiales. Quant au tampon épisodique, il combine les informations en provenance de la boucle phonologique, du calepin visuo-spatial et de la mémoire à long terme.

La mémoire de travail consomme une grande partie des ressources allouées au traitement des opérations cognitives et elle est lente. Dès lors, nous avons fait l'hypothèse que, chez les experts, elle est court-circuitée.

Pour évaluer le rôle de la mémoire de travail dans les phénomènes d'amorçage par répétition, nous avons utilisé un protocole de double tâche : nous avons comparé les performances de deux groupes de sujets, experts et novices, qui devaient prendre le même type de décision de jeu que dans les expériences précédentes, mais en réalisant en même temps une tâche de mémorisation. Celle-ci était soit verbale (ils avaient une liste de mots à apprendre, puis à reconnaître, ce qui mobilisait la boucle phonologique de la mémoire de travail), soit visuo-spatiale (ils devaient mémoriser, puis reconnaître un ensemble de points répartis sur une grille, ce qui occupait le calepin visuo-spatial).

Un court-circuit cérébral

Dans la tâche de prise de décision face à une situation de jeu donnée, les réponses des experts étaient à nouveau plus pertinentes que celles des novices. Et nous constations un effet d'amorçage chez les experts dans toutes les conditions, y compris lors de la double tâche, c'est-à-dire que leur temps de réponse diminuait lors de la deuxième présentation d'une même situation de jeu. Chez les experts, la charge supplémentaire que représentait la tâche de mémorisation ne perturbait donc pas la pertinence de leurs réponses. Au contraire, chez les novices, cette surcharge entraînait une baisse notable de la pertinence des réponses et une diminution de l'effet d'amorçage.

Ainsi, les experts en football n'utiliseraient pas leur mémoire de travail pour prendre une décision. Ce qui leur permet de réagir bien et vite ! En outre, cela libère des ressources cognitives pour le traitement d'autres données, par exemple pour anticiper les phases de jeu suivantes. Le tireur de penalty anticipe déjà l'action suivante : il peut suivre et frapper à nouveau dans le ballon si ce dernier est repoussé par le gardien.

Bachir Zoudji, Bettina Debû et Bernard Thon

Ces jours où tout réussit…

 

Les jours de grande forme, le tennisman trouve la balle plus grosse, plus lente et le filet plus bas ! Est-ce une aptitude extraordinaire ? Les psychologues de la cognition explorent les miroirs déformants de la perception.

 

- Au tennis, les joueurs trouvent parfois la balle plus grosse, plus lente, et le filet plus bas. Les golfeurs, quant à eux, perçoivent le trou plus gros et la balle plus légère.

- Les sportifs ont une perception modifiée les jours où ils réussissent tout. À l'inverse, il est possible de les rendre plus performants en utilisant des illusions perceptives.

- Perception et action sont liées ; les mécanismes cognitifs en jeu restent encore méconnus. Mais cela permettrait aux grands joueurs d'être plus performants.

 

Novak Djokovic était-il en état de grâce quand il a battu Rafael Nadal en finale du Master 1000 de Rome le 18 mai 2014 ? Demandons-lui déjà s'il avait l'impression de voir la balle plus grosse…

 

À écouter les sportifs, ils auraient de temps à autre la berlue. Ainsi, les golfeurs percevraient le trou comme s'il était plus gros qu'à l'habitude dans les bons jours (« Ce n'est pas un trou mais une bassine ») ou plus petit dans les mauvais jours (« Les trous sont minuscules aujourd'hui »). Les effets sont similaires chez des stars nord-américaines de base-ball : la balle aurait la taille d'un pamplemousse lors d'une bonne partie, mais d'un cachet d'aspirine lors d'une mauvaise. La joueuse Martina Navratilova voyait les balles de tennis comme dans un ralenti dans les moments du match où tout lui réussissait.

Quel sens donner à ces anecdotes ? Les grands sportifs sont-ils des « superhommes » ? Ont-ils parfois des hallucinations visuelles ou l'efficacité de leurs actions modifie-t-elle vraiment leur perception ? D'autres facteurs de performance, par exemple la capacité d'action ou l'intention, modifient-ils la perception visuelle ? Par exemple, l'embrasure d'une porte est-elle perçue plus étroite lorsqu'on tient un parapluie ouvert, parce qu'il réduit la capacité de déplacement ? À l'inverse, les changements perceptifs induits par des illusions visuelles influencent-ils l'action ?

Dans un article publié en 2005, les psychologues Jessica Witt, de l'Université Purdue à West Lafayette, et Dennis Proffitt, de l'Université de Virginie à Charlottesville, ont pris au sérieux les déclarations des sportifs sur la perception de la taille des balles. Ils ont testé la perception de joueurs de softball (un genre de base-ball) à l'issue d'une compétition. Chacun des 47 sportifs de l'étude, après avoir regardé un poster sur lequel figuraient huit cercles noirs d'un diamètre variant de 9 à 11,8 centimètres, a choisi le cercle dont la taille correspondait le mieux, selon lui, à celle d'une balle de softball. Les tailles choisies ont ensuite été mises en relation avec l'efficacité des actions du jour, déterminée par la proportion de balles que le batteur avait frappées et qui avaient mis l'équipe adverse en difficulté. L'analyse des données a révélé que plus les actions étaient efficaces, plus la balle semblait grosse. Concrètement, la balle de 10 centimètres semblait en mesurer 9 quand les actions n'avaient pas été gagnantes, mais 11 quand l'action avait été gagnante ! Les sportifs perçoivent bien que l'efficacité des actions modifie la perception.

La balle, grosse « comme un pamplemousse » !

Ce phénomène s'observe aussi pour les cibles fixes. En 2004, Richard Wesp et ses collègues, de l'Université d'East Stroudsburg en Penn- sylvanie, ont demandé à des étudiants d'effectuer une tâche de précision consistant à lancer des fléchettes miniatures pour atteindre un minuscule cercle de un demi-centimètre de diamètre. En analysant les résultats de ce concours, les scientifiques ont constaté que les meilleurs lanceurs voyaient la cible plus grosse que les moins bons.

Ainsi, les joueurs qui réussissent éprouveraient un sentiment de facilité, et c'est peut-être pour cette raison que la cible leur paraît plus grosse. Si tel est le cas, les balles de tennis (ou d'autres sports) devraient également donner l'impression de se déplacer plus lentement.

Pour tester cette prédiction, Jessica Witt et Mila Sugovic ont mené en 2010 une étude auprès de joueurs de tennis qui devaient retourner 25 balles envoyées par une machine. Après chaque retour, les participants ont estimé la durée du déplacement de la balle envoyée (c'est-à-dire le temps séparant l'envoi de la balle par la machine du moment où ils la frappaient). Pour estimer cette durée, les joueurs devaient simplement enfoncer pendant une durée équivalente la barre d'espace d'un ordinateur.

Ainsi, les joueurs trouvaient que la balle arrivait sur eux plus lentement dans les cas où leur frappe était réussie, mais qu'elle arrivait plus vite quand leur frappe était ratée. En l'occurrence, ils avaient l'impression que la balle envoyée par la machine était plus lente de huit kilomètres par heure en cas de frappe réussie.

Ces effets peuvent prendre des formes variées et parfois surprenantes : le filet au tennis semble plus bas lorsque les retours sont réussis. Ceux qui ont vu le tennisman John McEnroe se plaindre que le filet était trop haut quand il était en difficulté comprendront que ce n'était peut-être pas de la mauvaise foi ou une manœuvre destinée à déstabiliser l'adversaire, mais le résultat de ce lien intéressant entre perception et réussite. Les actions gagnantes influencent la perception dans le sens d'une facilitation de l'action : la balle à frapper paraît plus grosse et plus lente, et le filet à franchir plus bas. Le terrain semble-t-il aussi plus grand ? Cela reste à démontrer !

En 2008, Jessica Witt, Dennis Proffitt et leurs collègues ont examiné si la modification de la perception visuelle était liée au classement des joueurs. Pour ce faire, ils ont eu recours à des golfeurs dont le handicap – qui fournit un indicateur fiable du classement – était compris entre 7 (pour le meilleur joueur) et 36 (pour le moins bon). Après un parcours de 18 trous, leur perception du trou a été testée : ils devaient choisir, parmi neuf cercles noirs dont le diamètre variait de 9 à 13 centimètres, celui qui correspondait le mieux, selon eux, au diamètre du trou (qui était en réalité égal à 10,8 centimètres). Aucun lien n'est apparu entre le classement du joueur et la taille estimée du trou. En revanche, plus l'efficacité des actions du jour (estimée par le nombre total de coups joués) était élevée, plus le trou semblait large. Le phénomène de modification perceptive est par conséquent temporaire : ce qui compte, c'est la performance à court terme (et non à long terme).

Une analyse plus précise du nombre de coups joués uniquement sur le 18e et dernier trou indique que les coups ou putts réalisés sur le green, c'est-à-dire la zone de gazon rase où se trouve le trou, influencent la taille perçue, ce qui n'est pas le cas des coups joués en dehors du green. L'effet de l'action sur la perception serait donc limité aux objectifs liés à l'action en cours : la qualité des gestes réalisés hors du green ne modifie pas la perception du trou, car le but est de s'approcher du green. Au contraire, la qualité des actions réalisées sur le green influe sur la perception du trou, car l'objectif est alors d'envoyer la balle dans le trou. Il serait intéressant d'observer si l'efficacité des actions menées en dehors du green modifie la perception des dimensions du terrain. Enfin, soulignons que cette étude n'a porté que sur des joueurs débutants à intermédiaires ; elle laisse donc en suspens la question de savoir si d'excellents joueurs ne voient pas les trous plus gros quelle que soit leur position sur le terrain…

Des illusions gagnantes

En outre, changer la perception que les gens ont de leur environnement peut-il rendre leurs actions plus ou moins efficaces ? En 2012, Jessica Witt et ses collègues ont fait jouer des golfeurs débutants à un petit jeu truqué : le trou de la balle était présenté entouré d'autres cercles plus ou moins grands . Ces motifs sont connus par les psychologues sous le nom d'illusion d'Ebbinghaus. Un même trou de 5 centimètres de diamètre semble plus grand s'il est entouré de petits cercles de 3,8 centimètres de diamètre que s'il est entouré de grands cercles de 28 centimètres.

Cette manipulation des sens a eu un effet sur leurs performances : les golfeurs placés face au trou entouré de petits cercles réussissaient deux fois plus de coups gagnants que ceux placés face au même trou entouré de grands cercles ! Cette étude prouve la réciprocité de la relation entre perception et action.

Les effets des illusions visuelles sur l'action sont-ils temporaires ou durables ? En 2014, Guillaume Chauvel, de l'Université Joseph Fourier à Grenoble, Gabriele Wulf, de l'Université du Nevada à Las Vegas, et moi-même avons d'abord demandé à des étudiants de faire une cinquantaine de putts (les coups joués sur le green) vers un cercle noir (ressemblant à un trou), entouré soit de plus petits cercles noirs (pour une moitié des étudiants), soit de plus grands (pour l'autre moitié). Et le lendemain, les étudiants des deux groupes ont effectué à nouveau des putts, mais, cette fois-ci, sans les cercles noirs. Nous avons montré que les participants qui percevaient le trou comme plus large (car entouré de petits cercles) étaient plus performants pendant les derniers essais du premier jour (lorsque l'illusion visuelle d'Ebbinghaus était présente), mais aussi le lendemain en l'absence de l'illusion (lorsque les cercles noirs étaient supprimés).

Au golf, les illusions visuelles semblent faciliter le souvenir d'un geste, et donc son apprentissage. Dès lors, il est sans doute envisageable qu'elles aient des effets semblables dans d'autres sports impliquant l'atteinte d'une cible, tels le tir à l'arc, la pétanque, le curling…

Une adaptation ancestrale

Comment expliquer ces effets ? Jessica Witt suppose que notre cerveau a acquis au fil des millénaires des mécanismes particuliers qui modifient la perception de notre environnement en fonction des objectifs à atteindre. La mise en place de tels mécanismes a dû avoir lieu dans des temps immémoriaux, quand les hommes lançaient des flèches ou des sagaies, et non des balles de tennis – un temps où l'enjeu n'était ni plus ni moins que la survie ! Dans ce contexte, il aurait été avantageux de trouver une proie plus grosse, car le chasseur aurait alors eu plus de chances de la tuer. Les chasseurs dotés de ces curieuses distorsions de la perception auraient mieux nourri leur famille – une forme de sélection naturelle…

Une autre explication de ces curieuses distorsions de la perception provient de la conception dite « incarnée » de la cognition. Selon ce principe, la perception visuelle est nécessairement calibrée sur des unités de mesure propres au corps. Ces unités sont de trois ordres : morphologiques (par exemple, la hauteur du regard), physiologiques (par exemple, la quantité de ressources métaboliques disponibles) et comportementales (par exemple, l'amplitude des gestes). Ce que voit le joueur de tennis dépendrait donc de ces unités, en particulier de la nature de ses actions sur le court.

Dans un bon jour, quand ses retours de balle sont toujours précis, le joueur envoie tous ses coups dans un espace restreint, de hauteur élevée. En calibrant sa perception de la balle sur cet espace, le joueur la juge comme plus grosse. À l'inverse, dans un mauvais jour, les coups du sportif couvrent un espace large, de plus faible hauteur : la balle est alors perçue plus petite.

Plus simplement, l'origine de la relation réciproque entre perception et action pourrait être liée au stress suscité par le contexte. Après une succession d'échecs, le stress augmenterait, ce qui aurait pour effet de rendre difficile la focalisation de l'attention sur la cible, réduisant sa taille perçue. Inversement, dans un contexte de réussite, le stress diminuerait, ce qui faciliterait la focalisation de l'attention sur la cible et augmenterait par conséquent sa taille perçue.

En réalité, si les influences de l'action sur la perception et de la perception sur l'action ont été bien décrites, il n'existe pas encore d'explication solide à ce phénomène. La nature des mécanismes cognitifs et des activations cérébrales associées reste à élucider. Sur le plan historique, Voltaire disait que « les anecdotes […] sont de petits détails longtemps cachés ». Les anecdotes sportives, point de départ des travaux présentés ici, ont aussi permis de révéler la présence de petits détails susceptibles d'éclairer des mécanismes jusque-là méconnus de la perception humaine.

 

François Maquestiaux

Nature experience reduces rumination and subgenual prefrontal cortex activation / La randonnée change votre cerveau

 

article original :

http://pdf.lu/VB7K

 

2012-08-18-Lions-Binkert-Hike-9867-MKH

 

 

Bien qu’il puisse sembler évident qu’une bonne randonnée à travers une forêt ou une montagne peut purifier votre esprit, le corps et l’âme, la science est en train de découvrir que la randonnée peut réellement changer votre cerveau … pour le mieux!

 

« La paix de la nature va s’infiltrer en vous comme les rayons du soleil pénètrent les arbres. Le vent va vous insuffler sa fraîcheur, et les orages leur énergie, en même temps que les soucis tomberont comme les feuilles d’automne », a écrit John Muir dans Our National ParksDe toute évidence, John Muir comprenait la valeur fondamentale de passer du temps dans la nature.

Comme John Muir, nous sommes nombreux à reconnaître que randonner dans la nature est bon pour le corps, l’esprit et l’âme. Marcher dans les bois tout en observant les oiseaux et les feuillages colorés, en humant l’arôme des épicéas et des pins, et en écoutant le murmure apaisant d’un cours d’eau, tout cela dégage notre esprit et nous nous sentons bien. Heureusement, les médecins sont d’accord. Les études successives montrent que passer du temps à randonner dans la nature procure de multiples avantages pour la santé mentale.

La randonnée dans la nature réduit la rumination

chien

 

Ceux qui ruminent ou se concentrent sur trop de pensées négatives sur eux-mêmes peuvent présenter de l’anxiété, la dépression et d’autres problèmes tels que des crises de boulimie ou un trouble de stress post-traumatique. Dans une étude récente, les chercheurs ont voulu savoir si passer du temps dans la nature affecte la rumination et ils ont constaté qu’une excursion dans la nature diminue ces pensées négatives obsessionnelles.

Dans cette étude, les chercheurs ont comparé la rumination signalée par des participants qui ont fait une randonnée dans un environnement urbain ou dans la nature.  Ils ont trouvé que ceux qui avaient marché pendant 90 minutes dans la nature, un environnement de prairies près de l’Université de Stanford, ont signalé moins de rumination et avaient également réduit l’activité neuronale dans le cortex préfrontal subgenual, qui est associée à la maladie mentale. Ceux qui avaient marché dans un environnement urbain n’avaient pas éprouvé les mêmes bienfaits.

Ces chercheurs expliquent que notre monde devient de plus en plus urbain et que l’urbanisation est liée à la dépression et d’autres formes de maladie mentale. Visiblement, nous éloigner d’un environnement urbain et passer du temps à l’extérieur où il y a moins de stress mental, moins de bruit et moins de distractions peuvent être bénéfiques pour notre santé mentale.

La randonnée en se déconnectant de la technologie stimule la résolution créative de problèmes

2811

Selon une étude de Ruth Ann Atchley et David L. Strayer, la résolution créative de problèmes peut être améliorée en se déconnectant de la technologie et en renouant avec la nature. Dans cette étude, les participants ont randonné dans la nature pendant environ quatre jours et ils n’étaient pas autorisés à utiliser la technologie. On leur a demandé d’effectuer des tâches exigeant de la créativité et la résolution de problèmes complexes. Ils ont constaté que les participants immergés dans la nature avaient des performances accrues de 50 % dans les tâches de résolution de problèmes.

Les chercheurs indiquent que la technologie et le bruit des zones urbaines accapare sans cesse notre attention et nous empêche de nous concentrer, ce qui affecte nos fonctions cognitives. C’est pourquoi lorsque nous nous sentons submergés par les contraintes de la vie urbaine et les connexions 24 /7, les balades dans la nature peuvent être une puissante médecine.  Elles réduisent notre fatigue mentale, apaisent notre esprit et nous aident à penser de façon créative.

Elles peuvent améliorer le TDAH chez les enfants

tumblr_m59rppyKxO1qhb5oto1_500

Les enfants souffrant de TDAH ont généralement du mal à rester concentrés, sont facilement distraits, présentent des troubles d’hyperactivité et ont de la difficulté à maîtriser leurs impulsions.

Cela peut être déconcertant parfois d’élever des enfants souffrant de ce trouble. Néanmoins, de belles nouvelles sont venues du monde médical et scientifique. Dans une étude menée par Frances E. Kuo, PhD et Andrea Faber Taylor, PhD, les chercheurs ont constaté que l’exposition de ces enfants à des « activités de plein air et dans la nature » réduisait leurs symptômes.  Ainsi, selon cette étude, les bénéfices de l’exposition à la nature peuvent s’étendre à toute personne ayant les symptômes d’inattention et d’impulsivité.

Les auteurs concluent que de simples changements impliquant des activités dans la nature peuvent améliorer l’attention. Par exemple, même s’asseoir plus longtemps devant une fenêtre ouvrant sur un paysage de verdure, participer à une après-midi de balade dans la nature ou simplement jouer au ballon dans le parc peuvent soulager les symptômes du TDAH.

La randonnée dans la nature est un excellent exercice, qui stimule l’intelligence

258816309806066766o5AmFLbSc

 

Nous avons tous entendu l’expression un esprit sain dans un corps sain. La randonnée dans la nature est une excellente forme d’exercice et cela peut brûler entre 400 et 700 calories en une heure, selon la difficulté de la marche. L’avantage supplémentaire est que la randonnée n’est pas aussi contraignante pour nos articulations que d’autres formes d’exercice comme la course. De plus, il est avéré que ceux qui font de l’exercice à l’extérieur sont plus susceptibles de se tenir à leurs programmes d’exercice, ce qui rend la randonnée un excellent choix pour ceux qui envisagent d’intégrer l’exercice dans leur vie quotidienne.

L’esprit et le corps sont naturellement reliés. L’exercice aide à maintenir les cellules de notre cerveau nourries et en bonne santé. En fait, selon les chercheurs de l’Université de Colombie Britannique, l’exercice en plein-air peut même améliorer la mémoire et les capacités cognitives. Dans l’étude, ils ont trouvé que l’exercice en plein air augmente le volume de l’hippocampe chez les femmes âgées. L’hippocampe est une partie du cerveau associée à la mémoire spatiale et épisodique.

Non seulement l’exercice améliore la capacité cognitive et peut prévenir son déclin, comme montré dans l’étude, mais il peut également réduire le stress et l’anxiété, stimuler l’estime de soi, et libérer des endorphines (les hormones du bien-être). Il est étonnant qu’une activité physique aussi simple et bon marché que la randonnée puisse procurer tant de bienfaits pour la santé mentale.

La randonnée : prescription médicale !

iceland18

Est-ce que votre médecin vous a déjà dit de « faire une randonnée » ? Ce n’est pas une phrase que nous voulons spécialement entendre, surtout de la part de notre médecin, mais ils ont en fait notre bien-être à l’esprit. Les médecins progressistes sont maintenant conscients que les gens qui passent du temps dans la nature souffrent moins de stress et jouissent d’une meilleure santé physique.

Selon WebMD, de plus en plus de médecins écrivent « des ordonnances de nature » ou recommandent « l’écothérapie » pour réduire l’anxiété, améliorer les niveaux de stress et pour lutter contre la dépression. De plus, les prescriptions de nature deviennent mieux acceptées par les fournisseurs traditionnels de santé car de plus en plus de recherches montrent les bienfaits de l’exercice et du temps passé dans la nature.

L’Etat de Californie est traditionnellement l’un des Etats les plus progressistes dans le domaine de la santé alternative. A titre d’exemple, l’Institute at the Golden Gate a mené un combat pour promouvoir l’écothérapie grâce à son initiative « Healthy Parks Healthy People (HPHP) ». Dans ce programme, des organisations associatives travaillent avec les professionnels de santé pour améliorer la santé de leurs parcs, et pour promouvoir l’utilisation des parcs en tant que moyen de regagner la santé pour les personnes qui y viennent.

Comment commencer à faire de la randonnée ?

enhanced-15487-1420669034-4

Faites ce que vous avez à faire jusqu’à ce que vous puissiez faire ce que vous voulez faire

Heureusement, la randonnée est l’un des sports les plus faciles et les moins chers, et c’est amusant et bénéfique pour toute la famille. Si vous êtes juste un débutant, n’envisagez pas l’ascension du Mont-Blanc ou le GR20 en Corse. Vous pouvez commencer par des petites marches. Découvrez les sentiers locaux de petite randonnée et assurez-vous d’entreprendre une distance sûre et confortable. Vous pouvez trouver des guides de randonnée par régions, ou en ligne, et il existe des applications smartphone pour vous aider à trouver les meilleurs sentiers pour votre niveau et vos intérêts.

Assurez-vous de porter des chaussures de randonnée robustes et appropriées pour le terrain. Lorsque vous les choisissez, n’hésitez pas à parcourir le magasin de long en large plusieurs fois afin d’éviter que les chaussures vous blessent par la suite. Selon les goûts, vous pouvez envisager des bâtons de marche, qui pour certains réduisent le stress sur les genoux, augmentent la vitesse et améliorent la stabilité. Prévoyez autant de vêtements que nécessaire selon la météo, et portez des vêtements aérés en tissus qui laissent la transpiration s’évacuer et permettent de rester au chaud. Utilisez des lunettes de soleil et un chapeau pour vous protéger du soleil. Restez hydraté et amusez-vous !

L’étude publiée dans Proceedings of the National Academy of Sciences (lien ci-dessus)

 

Le sport rend plus intelligent

 

Le sport est une pilule miracle : couplant activités physiques et intellectuelles, il augmente les performances du cerveau. Les dernières avancées des neurosciences nous expliquent comment.

 
 

- Le cerveau est plastique : de nouveaux neurones apparaissent tandis que d'autres disparaissent. L'activité physique, même modérée, stimule cette neurogenèse.

- Mais les nouvelles connexions cérébrales ne sont maintenues et efficaces que si elles servent : une activité exigeante, sur le plan cognitif, est nécessaire.

- Le sport a l'avantage de coupler activités physiques et cognitives. Quelques règles à respecter : changer ses habitudes, varier les situations de jeu.

 

Sentez-vous sport, santé vous bien ! C'était le slogan des premiers rendez-vous Sport, santé, bien-être organisés en septembre 2014 par le ministère de la Santé et des Sports, le mouvement sportif français et la Mutualité française. L'objectif : inciter les Français à pratiquer une activité physique ou sportive régulière et modérée. Nul ne peut aujourd'hui l'ignorer, il faut « pratiquer une activité physique régulière »… Car sport rime avec meilleure santé. De nombreuses études scientifiques claires et rigoureuses l'ont maintes fois confirmé. Amélioration générale de la santé, diminution des troubles cardiaques ou respiratoires, ainsi que du risque de développer certaines maladies tels les cancers, augmentation de l'espérance de vie.

Mais ce n'est pas tout : les recherches actuelles montrent que le sport permet aussi d'améliorer les performances du cerveau. « Musclez sa tête avec ses jambes » en quelque sorte. Alors par quels mécanismes les activités sportives stimulent-elles les capacités cérébrales telles que le raisonnement ou la mémoire ?

Plus que jamais, on s'intéresse au fonctionnement du cerveau, et, de fait, aux moyens de l'améliorer ou au moins de l'entretenir à mesure que l'âge avance. Cet intérêt pour la santé mentale repose sur deux phénomènes : l'augmentation du nombre de personnes atteintes de maladies affectant les fonctions cognitives, telle la maladie d'Alzheimer, et la découverte relativement récente de la « plasticité cérébrale ».

Un cerveau « plastique »

Que signifie ce terme qui peut sembler quelque peu obscur ? Jusqu'à peu, on pensait que le cerveau se développait de la naissance au début de l'âge adulte – jusqu'à l'âge de 20 ou 25 ans –, puis déclinait régulièrement et inéluctablement. Mais grâce aux récentes découvertes scientifiques, on a désormais une vision plus optimiste du cerveau : à tout moment, le système nerveux peut produire de nouvelles connexions en formant non seulement de nouvelles synapses, les zones de contact entre cellules nerveuses, mais aussi de nouveaux neurones . La plasticité cérébrale est une réalité prometteuse. Elle souligne le dynamisme des fonctions cognitives, offrant de ce fait des perspectives encourageantes d'entraînement et de rééducation.

Forts de ces résultats, de nombreux développeurs en informatique se sont engouffrés dans le créneau, porteur, de l'entraînement cérébral. Que ce soit sur consoles de jeux, ordinateurs ou smartphones, le principe est similaire : proposer des exercices visant à stimuler les fonctions cognitives, telles la mémoire, l'attention ou encore la vitesse de réaction.

Toutefois, aujourd'hui, les scientifiques pensent que ce type d'entraînements ne se « transfère » pas ou peu aux tâches de la vie quotidienne. En d'autres termes, vous êtes imbattable sur votre smartphone au sudoku, mais cela ne sert pas à grand-chose. Les capacités de raisonnement acquises en pratiquant ce jeu ne sont probablement pas celles que vous utilisez à votre travail.

Pourtant, un remède au déclin du cerveau existe. Accessible au plus grand nombre, sans nécessiter de souscriptions coûteuses ou de moyens financiers importants. C'est l'activité physique. Les scientifiques sont unanimes : l'exercice est bénéfique pour la santé mentale, via des mécanismes neurophysiologiques désormais bien connus. En particulier, il favorise la neurogenèse, la création de nouveaux neurones, dans certaines régions de l'hippocampe, structure du cerveau jouant un rôle central dans l'apprentissage spatial et la mémoire, ainsi que dans différentes aires du cortex, siège des fonctions cognitives les plus complexes, telle la planification et l'anticipation.

L'exercice physique engendre aussi la production de nouvelles cellules sanguines et une irrigation plus efficace du système nerveux, et, par conséquent, prolonge la durée de vie des neurones existants. Ces effets sont provoqués par une augmentation naturelle, dans l'organisme, de la concentration d'hormones de croissance (BDNF, IGF-1, VEGF) et de neurotransmetteurs (surtout dopamine, sérotonine, épinéphrine, norépinéphrine et mélatonine).

Le sport, c'est travailler le physique et le mental

Pour ces raisons, on prescrit souvent une activité physique pour retarder ou éviter certains troubles mentaux des maladies d'Alzheimer et de Parkinson par exemple, ou des syndromes dépressifs et des déficits attentionnels. L'exercice favorise aussi la rééducation après un accident vasculaire cérébral. Ces résultats prometteurs ont d'ailleurs poussé l'Organisation mondiale de la santé (OMS) à préconiser l'exercice physique comme moyen global de prévention des troubles de la santé.

L'activité physique favorise donc l'apparition de nouvelles cellules nerveuses. Mais ce n'est pas suffisant. Les tâches impliquant un engagement intellectuel important aident à leur survie. Faire de l'exercice engendre la production de nouveaux neurones, mais la plupart d'entre eux sont détruits après une à deux semaines environ s'ils ne sont pas intégrés au réseau neuronal existant. Or, la meilleure façon de les conserver est de prendre part à des activités exigeantes sur le plan intellectuel. Il faut pousser le cerveau hors de ses limites ; bouger pour créer de nouveaux neurones et penser pour les conserver. De là découle l'idée de combiner activités physiques et intellectuelles pour obtenir les meilleurs résultats.

C'est exactement la direction que nous avons prise dans notre laboratoire, à l'Université de Princeton. Nous avons imaginé des activités physiques complexes sur le plan cognitif. Les participants devaient résoudre des problèmes perceptifs, moteurs et cognitifs, tout en maintenant un effort physique constant. Par exemple, certains mémorisaient une suite de mouvements, puis les répétaient, alors que d'autres imaginaient des mouvements inédits leur permettant de se sortir de situations délicates. Cette composante cognitive était couplée à une composante physique : de petits sauts sur place ou des courses à allures modérées.

Quel est l'avantage d'une telle pratique par rapport à des sollicitations physiques et cognitives séparées ? L'organisme se retrouve dans une situation délicate à gérer, à cause d'une compétition de ressources entre muscles et cerveau. Maintenir une capacité de concentration importante dans cette situation est difficile, mais le corps s'adapte à mesure de l'entraînement et progresse.

Mettre en œuvre ce genre d'entraînement à la maison se révèle difficile… Un minimum de connaissances en neurosciences et en sciences du mouvement est nécessaire. Néanmoins, la bonne nouvelle est que ces activités complexes, à la fois physiques et intellectuelles, existent déjà : ce sont les activités sportives.

La clé d'un développement cognitif continu tient en trois points : nouveauté, diversité, complexité. Ces aspects sont naturels durant les premières années de la vie, quand toute expérience est nouvelle et complexe, mais deviennent plus rares à mesure que l'âge avance.

Vous vous spécialisez, toujours plus. Vous devenez expert dans un domaine. La pratique sportive ne déroge pas à cette règle. Vous jouez sur vos acquis. Vous ne progressez plus. Casser ce cycle demande effort et volonté.

Nouveauté, diversité, complexité

Rechercher la nouveauté ne signifie pas forcément changer d'activités. Vous pratiquez l'escalade, le judo ou la gymnastique ? Essayez de vous concentrer sur les données non visuelles, par exemple en fermant les yeux pendant une partie de votre séance. Ce petit détail, anodin en apparence, force le cerveau à traiter des informations normalement présentes, tels les bruits autour de vous, mais largement ignorées au profit de la vision. Progressivement, le corps apprend à s'organiser à partir de données provenant d'autres sens. Si le procédé est ponctuel, les changements neuronaux seront minimes. Si vous persévérez, vous ouvrirez la porte à des modifications beaucoup plus durables et permanentes.

Vous pouvez aussi pratiquer diverses activités mettant en jeu des capacités distinctes. Plusieurs combinaisons de sports vous permettent d'enrichir le panel d'interactions avec votre environnement. Un sport collectif associé à un art martial, une activité artistique avec un sport d'endurance. La diversité peut aussi s'envisager au sein d'une même activité. Vous pratiquez le tennis, avec un style régulier, voire défensif, du fond du court ? Étoffez votre panoplie de jeu. Montez au filet, attaquez, tentez de déséquilibrer l'adversaire. Vous jouez au football, avant-centre à la pointe d'une équipe de club ? Initiez-vous à d'autres facettes du jeu, en évoluant en défense ou dans les buts.

De nouvelles exigences, différentes de celles ayant forgé vos automatismes de jeu, vous poussent à « repenser » votre activité de prédilection, lançant le remodelage de vos réseaux neuronaux. Ce qui est plus enrichissant que de passer du temps sur des mots fléchés, sudokus ou autres programmes d'entraînement cérébral censés stimuler les fonctions intellectuelles. Et tellement plus épanouissant, avec des conséquences bien plus importantes !

Une autre clé de la quête de santé cognitive est la complexité. Avec la compétition par exemple. Souvent dénigrée, sans doute par le caractère extrême des pratiques qu'elle peut provoquer, la compétition reste un moyen intéressant de repousser vos limites et ainsi de progresser tant sur le plan physique que mental. Lorsqu'elle est appréhendée de façon positive, elle représente une source non négligeable de motivation, via la fixation d'objectifs précis et tangibles. Ainsi, avec des adversaires de niveaux souvent similaires, la compétition favorise la recherche des meilleures solutions face à des situations complexes. Cette démarche est particulièrement saine dans le sens où elle offre un degré de difficulté approprié, favorable à l'émergence de réponses adéquates.

C'est en effet une constante de tout programme d'entraînement : le fait qu'il vise le développement physique ou cognitif : le niveau de complexité proposé doit être adapté à vos capacités – ni trop facile, ni démesurément difficile – pour optimiser la progression. Quand vous débutez au saut à la perche, inutile de placer la barre à 6 m 16 !

Enfin, mettez l'accent sur la continuité de l'effort. La majorité des études scientifiques a montré que la formation de nouveaux neurones à l'âge adulte est issue de programmes d'entraînement de type aérobie, reposant sur des efforts modérés, mais continus. Vous devez donc limiter les coupures supérieures à quelques minutes dans votre séance. Il est parfois difficile d'éviter les temps morts, surtout si vous pratiquez en groupe avec des partenaires moins consciencieux. Dans ce cas, une récupération active, à faible intensité – sautez sur place – est préférable à l'arrêt de l'effort.

Tout individu peut-il pratiquer une activité sportive, et donc renforcer sa santé mentale ? En sport et ailleurs, progresser passe par l'identification de ses points faibles – en d'autres termes, il faut bien se connaître pour s'améliorer. L'entraînement des facultés intellectuelles ne déroge pas à la règle : certains types d'entraînements ont plus d'impact sur certaines personnes que d'autres, car ils mettent l'accent sur des points particuliers qui sont à travailler pour certains individus mais pas pour d'autres.

Des différences interindividuelles

C'est bien là toute la difficulté de ce champ de recherche : définir les points fondamentaux à l'amélioration des performances cognitives, en tenant compte des différences interindividuelles. Pour revenir aux exercices d'entraînement cérébral, il faut préciser que l'ordinateur peut être un complément intéressant dans certains cas. Par exemple pour des patients atteints de troubles de l'attention, des personnes âgées ou des individus diminués physiquement. Quand certaines aptitudes cognitives sont déficientes ou que les stimulations quotidiennes sont pauvres, un entraînement informatisé se révèle utile. En revanche, pour toute personne qui en est capable, le sport reste une activité naturelle, saine pour l'esprit et le corps. En novembre 2009 à Marseille, le président de la République déclarait que « le sport est un élément capital de la santé ». Précisons : « de la santé physique et mentale ».

 David Moreau

Trop de coups sur la tête

 

Dans les sports de contact, les commotions cérébrales que peut subir un joueur ne diffèrent pas tant des traumatismes liés à un accident… Le souci est que le sportif les cumule au cours de sa carrière.

 

 
 

- Suite à un coup violent à la tête, un joueur peut souffrir d'une commotion cérébrale. Ses fonctions cognitives s'en trouvent perturbées.

- Les symptômes aigus disparaissent vite et l'athlète rejoue. Mais il a alors plus de risques de perdre conscience lors d'un second choc.

- Les sportifs cumulent souvent les commotions au cours de leur carrière. Les conséquences à long terme sont graves : troubles mnésiques et moteurs.

 

Au football américain, au rugby, au hockey sur glace, etc., les joueurs se « tamponnent » souvent. Parfois tête contre tête. Dans le jargon des hockeyeurs, on parle de « mise en échec » : l'objectif du contact, souvent violent, est d'empêcher la progression de l'adversaire. Mais ce genre de pratique n'est pas sans conséquence, notamment pour la santé mentale des joueurs. Ces derniers subissent parfois une commotion cérébrale, à savoir un traumatisme au cerveau si grave que les fonctions cognitives s'en trouvent modifiées.

En Amérique du Nord, les commotions cérébrales dues au sport sont devenues l'un des enjeux de santé publique. Pour trois raisons. D'abord, parce que ce fléau concerne une large proportion des jeunes adeptes des sports de contact. Ensuite, parce que les médias ont rapporté les poursuites judiciaires intentées par les associations de joueurs professionnels, ainsi que les nombreux cas de suicide d'athlètes « commotionnés » – qui voyaient leur carrière anéantie à cause des traumatismes répétés. Enfin, parce que les commotions cérébrales ont parfois des conséquences dramatiques.

Le public commence donc à prendre conscience du problème. Toutefois, à ce jour, les commotions cérébrales sont encore considérées comme « banales » : il est normal que le joueur en sport de contact se prenne quelquefois des coups sur la tête… D'autant que les signes visibles d'un traumatisme cérébral disparaissent vite. En effet, le plus souvent, l'athlète semble de visu, ainsi qu'à l'examen neuropsychologique, tout à fait bien.

On a longtemps pensé qu'une commotion cérébrale dans la pratique sportive représentait une blessure mineure. On reconnaît aujourd'hui qu'elle a des conséquences semblables à celles d'un traumatisme « cranio-cérébral » léger d'origine non-sportive, par exemple, suite à un accident de la route. Les physiopathologies des deux types de chocs sont presque les mêmes. Toutefois, la commotion en sport diffère de celle consécutive à un accident de la route ou du travail : le risque que la personne commotionnée « cumule » un autre traumatisme cérébral peu de temps après est beaucoup plus élevé. Et c'est là que le bât blesse.

Retourner au combat, quoi qu'il arrive

La « culture » sportive est ambiguë. L'orgueil poussant le sportif à rejouer rapidement après une blessure ou une commotion se confond souvent avec la bravoure du guerrier, selon laquelle le sacrifice personnel est légitime s'il bénéficie à la collectivité. Ainsi, les athlètes sont vulnérables, car ils peuvent retourner sur les terrains de sport dans les jours, voire les heures, suivant la blessure initiale. Et ce sans être complètement guéris. Or le retour prématuré au jeu a des conséquences négatives sur la cognition : les anomalies cérébrales sont d'autant plus importantes que les commotions sont rapprochées. Une prise en charge adéquate se révèle donc cruciale.

Un traumatisme cranio-cérébral se décompose en deux phases, une aiguë, une chronique. Quand ils sont visibles, les symptômes aigus varient beaucoup d'une personne à l'autre . La première phase dure au maximum trois mois après l'accident. Au-delà, les athlètes n'ont pas de nouveaux symptômes. En général, 90 pour cent des personnes commotionnées se remettent en deux à dix jours, bien que cette période perdure parfois chez les enfants et adolescents. Toutefois, le processus de rétablissement est plus long pour les athlètes présentant des antécédents de commotions cérébrales multiples. Et ce, peu importe leur âge.

Une personne ayant subi plusieurs commotions cérébrales a besoin de plus de temps pour se remettre d'un nouveau traumatisme et retrouver des fonctions cognitives normales, telles que le repérage spatial ou la mémorisation. Diverses études ont montré que les « commotionnés » multiples présentent plus de risques que les sujets en étant à leur premier traumatisme de subir des symptômes prolongés de confusion mentale immédiatement après l'accident. Et ces symptômes sont souvent plus importants et s'aggravent durant les semaines suivant l'accident, en fonction du nombre de commotions cérébrales antérieures.

Des effets cumulés plus graves

De même, une étude réalisée auprès de jeunes footballeurs suggère qu'avoir subi au moins une commotion cérébrale avec perte de conscience augmente de quatre fois le risque de perdre conscience suite à un nouveau traumatisme. En 2002, Michael Collins, du Centre médical de l'Université de Pittsburgh aux États-Unis, et ses collègues ont révélé que les athlètes présentant des antécédents de commotions cérébrales multiples expérimentent plus souvent une perte de conscience accompagnée d'amnésie et de confusion lors de la survenue d'une nouvelle commotion cérébrale. Quatre « marqueurs » caractérisent la gravité d'une commotion cérébrale : la perte de conscience, l'amnésie antérograde (oubli des événements suivant le choc), l'amnésie rétrograde (oubli des événements ayant précédé l'accident) et la confusion. Dans leur étude, Michael Collins et ses collègues ont notamment montré que les commotionnés multiples ont sept fois plus de risques de subir trois de ces quatre marqueurs comparés aux athlètes en étant à leur première commotion cérébrale.

Alors faut-il inciter le sportif à revenir au jeu après un traumatisme… dès qu'il a retrouvé ses esprits ? Depuis plusieurs années, les responsables des ligues professionnelles de sports de contact réfléchissent à la validité des protocoles de retour au jeu. Mais ils ne les ont toujours pas modifiés. Les athlètes sont pourtant vulnérables quand ils subissent régulièrement des commotions cérébrales. D'autres travaux ont montré que les antécédents de commotions cérébrales représentent un facteur prédisposant aux commotions cérébrales ultérieures ; cet effet étant d'autant plus important chez les femmes. Après un premier traumatisme, un athlète court trois fois plus de risques d'en subir un deuxième durant la même saison sportive.

Le plus tragique dénouement d'une phase aiguë de commotion cérébrale est le « syndrome du second impact ». Ce dernier survient en général lorsqu'un athlète reçoit un coup à la tête avant la disparition des symptômes aigus d'une commotion cérébrale précédente. Dans les secondes ou minutes qui suivent le second impact, l'athlète s'écroule au sol dans un état semi-comateux. Les conséquences de ce syndrome sont souvent catastrophiques, allant de séquelles permanentes au cerveau au décès du sportif. Quels sont les mécanismes de ce syndrome ? Il y aurait une encéphalopathie diffuse, c'est-à-dire une atteinte globale de tout le cerveau, avec un « gonflement » du cortex. Ce phénomène est relativement rare, mais souligne à quel point il serait bien plus prudent que les sportifs patientent quelque temps avant de rejouer…

Abordons la phase chronique des commotions cérébrales, qui a des conséquences bien plus graves que celles de la phase aiguë. Notamment parce que des effets surviennent plusieurs années après le premier traumatisme. Aujourd'hui, les techniques en neuro-imagerie décèlent et révèlent des séquelles dans le cerveau des patients ayant subi plusieurs commotions cérébrales. Mais la nature exacte des dysfonctions cognitives correspondant aux anomalies ou lésions cérébrales mises en évidence reste à ce jour plutôt nébuleuse. Toutefois, couplées aux effets du vieillissement, les commotions cérébrales du sport entraînent des séquelles cognitives et motrices inquiétantes, tout à fait quantifiables au plan clinique.

Un déclin cognitif après 60 ans

D'abord, des données épidémiologiques alarmantes ont suggéré que les joueurs professionnels de football américain, retraités et ayant subi trois commotions cérébrales ou plus au cours de leur carrière, présentent cinq fois plus de risques de développer des troubles cognitifs légers, par exemple une diminution de l'attention ou de la mémorisation. Et ces derniers se « convertissent » en maladie d'Alzheimer dans 60 à 80 pour cent des cas.

En outre, en 2009, nous avons montré que, contrairement à leurs homologues non commotionnés, les anciens athlètes universitaires ayant des antécédents de commotions cérébrales subies entre les âges de 20 et 30 ans souffrent, après leur 60 ans, de déclin cognitif et de lenteur d'exécution motrice. Ils sont pourtant en bonne santé et ont subi moins de trois traumatismes durant leur carrière. Nous avons obtenu cette différence à partir de tests neuropsychologiques utilisés en clinique pour mesurer les processus impliqués dans la mémoire et les fonctions exécutives, telles la planification, l'attention et la prise de décision. En outre, ces altérations cognitives sont corrélées aux anomalies persistantes des commotions cérébrales, mises en évidence par imagerie et qui existent déjà chez le jeune athlète commotionné. Cela suggère que le vieillissement révèle une fragilité des fonctions cognitives que le sportif parvenait jadis à compenser.

Déclin de la mémoire, des capacités d'apprentissage, de l'attention et de la vitesse d'exécution : ces dysfonctions cognitives des anciens athlètes désormais sexagénaires dépendent également des dommages de leur substance blanche cérébrale, à savoir l'ensemble des fibres nerveuses qui relient les différentes régions du cerveau. Ainsi, les lésions concernent les régions frontopariétales du cerveau, impliquées dans de nombreuses fonctions exécutives et qui sont particulièrement vulnérables au processus de vieillissement.

Ces symptômes cognitifs apparaissent aussi lors de l'encéphalopathie chronique traumatique (ECT). Autrefois réservée aux sports de combat, telle la boxe, cette maladie a été mise en évidence chez des athlètes pratiquant d'autres sports de contact, tels que le hockey sur glace, le football américain et le football.

L'ECT est une maladie neurodégénérative du cerveau entraînant des troubles à la fois cognitifs et moteurs, proches de ceux des maladies d'Alzheimer et de Parkinson. Mais des études sur le cerveau des patients décédés ont montré que le processus neurodégénératif de l'ECT se distingue de ceux mis en œuvre dans ces pathologies. La localisation et l'évolution des marqueurs de dégénérescence, par exemple l'accumulation de protéines tau dans les neurones, sont propres à l'ECT : les protéines tau sont disséminées dans le cerveau, mais de façon prédominante dans les lobes frontaux et temporaux. Ce qui n'est pas le cas dans les maladies d'Alzheimer et de Parkinson. De larges études, en cours, devraient nous permettre de mieux comprendre la pathophysiologie des commotions cérébrales du cerveau vieillissant.

Cumuler les commotions cérébrales en sport n'est donc pas aussi bénin qu'on le croyait… Le hockey sur glace serait-il un sport vraiment différent si on interdisait les mises en échec ? Ces dernières ne sont déjà pas autorisées dans d'autres formes de hockey, telles que celle pratiquée en gymnase avec des rollers.

Louis De Beaumont

Se doper à tout prix

 

Un athlète impressionne par ses performances. Est-il dopé ? Les sportifs ne consomment pas des substances uniquement pour gagner… La psychologie du sport a identifié des facteurs prédisposant à de tels comportements.

 

 
 

 

 

- Le sportif qui se dope n'est pas seulement un tricheur qui ne pense qu'à gagner. Certains athlètes cherchent à se construire une identité parfaite – personnelle et sociale – et à appartenir à un groupe.

- La descente vers le dopage suit un processus bien particulier : l'athlète est souvent « addict » à son sport ; il a l'habitude de consommer d'autres substances, pas forcément interdites ; parfois, tout son entourage se dope…

- L'impact psychique du dopage est varié. Le sportif peut avoir l'impression qu'il est plus puissant ; quelquefois, il ne se contrôle plus, ne connaît plus les limites de son corps et a des difficultés pour récupérer.

 

Stéroïdes, EPO, bêtabloquants, cocaïne… La liste des produits dopants, qui augmentent les performances physiques et mentales, est très longue. Et les médias se délectent à l'idée de présenter les héros déchus : le cycliste américain Lance Armstrong s'est vu retirer tous ses titres du Tour de France pour dopage à l'EPO.

Incontestablement, en se dopant, le sportif se sent plus fort, moins fatigué, a moins de douleurs et récupère mieux… Mais il utilise des substances souvent interdites. S'il est contrôlé positif, il risque de ne plus pouvoir pratiquer son activité. Et de nombreux produits ont des effets néfastes sur la santé. Alors les grands sportifs se dopent-ils uniquement pour améliorer leurs performances, devenir des « surhommes », les meilleurs de leur discipline ?

Les règles antidopage

La psychologie du sport s'intéresse au dopage depuis de nombreuses années. Les chercheurs aux États-Unis, en Europe et en Australie tentent de mettre en évidence les facteurs psychologiques qui incitent les sportifs à consommer des substances dopantes et l'impact psychique de telles pratiques. L'objectif de ces travaux est d'améliorer les contrôles antidopage et la prévention.

Les programmes de recherches en psychologie du dopage portent sur trois violations des règles antidopage définies par le Code mondial antidopage : le sportif a volontairement utilisé un produit interdit ou a tenté de le faire ; il a fourni un échantillon (de sang, d'urine…) contenant une substance interdite, mais il n'a pas forcément « conscience » de s'être dopé ; ou bien les membres de son entourage sont responsables, par exemple ils ont falsifié un contrôle antidopage.

Le premier programme, dit de motivation, étudie les « forces » conscientes et inconscientes qui poussent un individu à se doper. Les chercheurs s'intéressent aux traits de personnalité du sportif, à l'image qu'il a de son corps, de lui-même et de son identité. Le deuxième programme, « cognitiviste », s'attache à identifier les facteurs psychosociologiques des consommations. On met en évidence les attitudes, les connaissances, les croyances ou encore l'engagement moral des sportifs. Et le dernier programme, « dynamique », se focalise sur les modes d'organisation des consommations de substances, légales ou non, dans la vie des sportifs.

Ces travaux ont permis de comprendre la psychologie du sportif qui se dope et de révéler certains facteurs de prédisposition. Ainsi, on sait désormais qu'il faut relativiser l'idée selon laquelle le sportif dopé est un tricheur avéré, sans vergogne, individualiste, obnubilé par la victoire sportive et dont l'unique motivation est une amélioration immédiate de ses performances. Tout n'est pas si simple que cela…

Peut-on dresser le portrait psychologique du sportif qui consomme, consciemment, des substances améliorant les performances ? On a utilisé plusieurs approches pour répondre à cette question. En 1995, John Porcerelli et Bruce Sandler, de l'Institut psychiatrique de Détroit aux États-Unis, ont interrogé 37 bodybuilders et révélé que ceux ayant admis utiliser des stéroïdes présentaient des traits marqués de narcissisme pathologique et étaient peu empathiques. En d'autres termes, ils étaient incapables de maintenir un sentiment positif d'eux-mêmes et ne décryptaient pas les émotions d'autrui. Une autre étude, menée en 2009 par Gary Goldfield et Blake Woodside, de l'Institut de recherche CHEO à Ottawa au Canada, a mis en évidence quelques caractéristiques des bodybuilders consommateurs de stéroïdes : ils se préoccupent beaucoup de leur poids et de leur forme corporelle ; sont peu satisfaits de leur corps ; ont des tendances dépressives et se sentent inutiles et méfiants dans leurs relations avec autrui.

En clinique, d'autres analyses ont montré que ce type de dopage – visant à modifier la morphologie du corps – était associé à une relative faiblesse du « moi », mettant en jeu une détresse physique, sociale ou affective. Par exemple, des appels au numéro vert Écoute Dopage proviennent de pratiquants des salles de musculation, en général des adolescents, qui cherchent à se construire un corps « social » pour être reconnus par autrui, et qui souffrent de troubles identitaires.

Ce dopage correspond donc à la construction d'un idéal corporel, qui réduirait en quelque sorte une souffrance personnelle et intime.

Mais l'athlète veut aussi peaufiner son identité sociale. À ce titre, plusieurs études cognitivistes ont analysé les facteurs psychosociologiques du dopage. Elles ont souligné que la consommation de substances (interdites ou non) en sport repose sur une croyance très répandue : les sportifs considèrent que les usages de dopants dépendent du niveau de performances dans lequel ils évoluent (par exemple, niveau international ou régional). En 2013, Bob Steward, de l'Université Victoria à Melbourne, et ses collègues ont interrogé des sportifs de niveau régional ou prénational ; tous précisaient que des compléments alimentaires étaient nécessaires pour leur niveau de pratique et que le dopage – avec des substances interdites – était réservé au niveau international (qu'ils ne connaissaient pas personnellement d'ailleurs).

Dans ces croyances, il y a aussi sans doute la manifestation de certaines limites morales ou de mécanismes de défense que les sportifs utilisent pour ne pas être tentés. En 2013, James Connor, de l'Université de Nouvelle-Galles du Sud, près de Sydney en Australie, et ses collègues ont revisité le dilemme de Goldman. En 1984, ce dernier avait montré que 50 pour cent des sportifs accepteraient de prendre des produits interdits leur garantissant la réussite, même s'ils mouraient dans les cinq ans qui suivaient.

Tout le groupe se dope, et moi ?

Mais les résultats d'aujourd'hui sont bien différents : seulement 2 sportifs sur les 212 athlètes américains de haut niveau interrogés prendraient la substance les faisant gagner… et les tuant. Et si la mort n'était pas au rendez-vous, ils ne seraient que 25 sur 212. Les sportifs ne chercheraient donc pas à gagner à tout prix et préserveraient leur santé… Ce qui contrecarre les affirmations médiatiques suggérant que sport de haut niveau et dopage sont forcément associés.

Alors comment les sportifs perçoivent-ils le dopage ? Ont-ils toujours conscience de s'être dopés ? De nombreuses études cognitivistes se sont penchées sur le sujet. Elles ont révélé que les sportifs de tous niveaux, tous sexes et dans tous les sports connaissent peu les procédures de contrôle du Code mondial antidopage. En général, ils parlent peu du dopage et sont plus favorables aux contrôles qu'aux sanctions. Mais leurs attitudes révèlent-elles leurs intentions d'usage, voire leurs consommations ?

On a proposé plusieurs modèles de « prédiction », mais seul celui de Robert Donovan, de l'Université de technologie Curtin à Perth en Australie, et de ses collègues a été vraiment testé. Ce modèle conçoit l'athlète comme un « calculateur rationnel ». Ainsi, plusieurs facteurs influent sur ses attitudes vis-à-vis de la consommation de substances dopantes et sur ses intentions d'en faire usage.

Le premier est la moralité : est-il acceptable de consommer ces produits quelles que soient les circonstances ? Comment le sportif sera-t-il jugé ? Le deuxième facteur correspond aux opinions du groupe où évolue l'athlète : le dopage est-il fréquent dans son entourage ? Le dernier facteur est la légitimité perçue des contrôles antidopage ; plus l'athlète trouve les procédures justes, plus son attitude vis-à-vis du dopage est négative. Un sportif calculerait donc « le pour et le contre » de la consommation de substances, en fonction du groupe social où il pratique son activité sportive.

De simples compléments alimentaires…

Quant au programme de recherche « dynamique », qui s'intéresse aux modes d'organisation des consommations, il a supposé que les sportifs en venaient à se doper selon un processus de développement bien particulier. En 2012, nous avons identifié quelques éléments clés de ce processus en comparant les carrières de grands sportifs reconnus dopés à celles d'autres grands sportifs non dopés.

D'abord, au moment où ils commencent à consommer des produits interdits, les sportifs sont souvent « addicts » à leur sport, ne pensent qu'à leur activité et sacrifient tout pour son accomplissement. Ce sont aussi ces sportifs qui, au début de leur carrière, ont supprimé toutes autres activités telles que l'école ou un loisir. En outre, ils ont vécu avec beaucoup d'anxiété les situations difficiles que tout athlète rencontre : par exemple l'éloignement du domicile familial, les hauts et les bas des performances sportives. La somme de ces expériences négatives ou anxiogènes rendrait donc possible la consommation d'un produit interdit lors d'une nouvelle situation difficile, telle une blessure récurrente. Enfin, les athlètes dopés ont toujours consommé certaines substances, légales, telles que des vitamines, des compléments alimentaires…

En 2013, une enquête menée aux États-Unis par Jennifer Buckman, de l'Université Rutgers dans le New Jersey, et ses collègues a confirmé ce dernier point. Les sportifs reconnaissant utiliser des substances interdites étaient aussi de grands consommateurs d'autres produits : alcool, tabac et compléments alimentaires. Cet aspect est crucial, car on sait aujourd'hui que les athlètes subissent une forte pression pour qu'ils associent des compléments alimentaires à leur performance. Par exemple, ils doivent avaler des protéines supplémentaires pour prendre de la masse corporelle, mais personne ne vérifie que leur alimentation habituelle est satisfaisante. Ainsi, les sportifs consommateurs de compléments alimentaires auraient des attitudes plus positives vis-à-vis du dopage que les non consommateurs, et plus de risques de prendre des substances interdites.

Apprendre à consommer

En outre, nous avons montré comment les athlètes se dopent : ils sont souvent seuls et se cachent, alors que dans toutes les autres situations de leur vie, ils se comportent en général de façon morale et « normale ». Lors de leur carrière, on leur donne des « cours » de consommation, en leur apprenant que certaines substances, pas forcément interdites, favorisent la récupération, d'autres évitent un déficit énergétique potentiel…

Plusieurs facteurs psychosociologiques permettent donc de comprendre pourquoi certains sportifs consomment des substances augmentant les performances. Être et rester le meilleur ne sont pas les seules causes. Mais quel est l'impact psychologique du dopage sur la performance ? En 2007, Mary McClung et David Collins, de l'Institut écossais du sport à Blackburn, ont révélé un effet placebo de la consommation de produits sur la performance : les sportifs pensant ingérer une substance dopante – qui n'avait en réalité aucun effet physiologique – ont amélioré leurs résultats.

Rien que de penser qu'ils se dopent augmenterait les performances des sportifs ! Néanmoins, il serait imprudent d'estimer que les effets du dopage reposent uniquement sur les croyances des athlètes… Peu d'études s'intéressent aux ressentis des sportifs, mais il est clair que ces derniers, quand ils consomment des substances améliorant la performance, ont l'impression d'avoir un « corps propre » amélioré.

Le corps augmenté

Le corps propre correspond aux perceptions que le sportif a de son organisme : il intègre en un tout son corps et les outils qu'il utilise pour être performant (chaussures, perche, ballon…). Le dopage modifie ses perceptions unifiées : tout lui semble plus facile, il se sent puissant face à la tâche à accomplir et sait mieux exploiter les propriétés de son environnement. Les effets psychologiques du dopage dépassent donc les simples conséquences physiologiques des substances ingérées.

Mais il existe des effets contre-productifs du dopage bien plus importants : perte de contrôle de soi en cas de difficulté, incapacité à ressentir les limites de son corps, mauvaise récupération, modifications des repères… Les sportifs cherchent alors à adapter leurs consommations de produits, ajustent le dosage, arrêtent d'en prendre, puis en reprennent, ce qui peut conduire au surdosage.

Une étude réalisée en 2013 a identifié d'autres effets néfastes, à long terme, de la consommation de produits dopants : de nombreux athlètes ayant pris des stéroïdes dans les années 1960 à 1980 souffrent aujourd'hui de maladies psychiques telles que dépression, anxiété ou troubles du sommeil. Alors une question reste en suspens : comment le monde du sport, avec son dopage organisé, peut-il masquer, voire gommer, les préoccupations que les sportifs ont de leur santé et de leur bien-être ? Armstrong en a « payé le prix fort »… 

Denis Hauw

La langue maternelle laisse des traces dans le cerveau

article original    http://pdf.lu/8zUd

Past experience shapes ongoing neural patterns for language

 

Denise Klein

Denise Klein

Une découverte qui a des implications pour la plasticité du cerveau et l’élaboration de nouveaux méthodes pédagogiques.

Vous croyez peut-être que vous avez oublié le chinois que vous parliez lorsque vous étiez enfant, mais votre cerveau, lui, se souvient de tout. Qui plus est, la première langue que vous avez apprise, puis « oubliée », pourrait très bien influer sur ce qui se passe dans votre cerveau lorsque vous parlez le français ou l’anglais aujourd’hui.

Dans un article publié aujourd’hui dans la revue scientifique Nature Communications, des chercheurs de l’Université McGill et de l’Institut neurologique de Montréal expliquent que l’exposition précoce à une langue, même si elle est de courte durée, influence la façon dont le cerveau traite les sonorités d’une deuxième langue plus tard la vie. Et ce, même si le sujet ne parle plus cette première langue.

Il s’agit d’une découverte importante, car elle permet aux scientifiques de comprendre non seulement les mécanismes qui président au câblage du cerveau pour l’apprentissage d’une langue, mais également la façon dont ce câblage évolue et s’adapte au fil du temps en réponse à de nouveaux environnements linguistiques. Cette étude permet en outre de mieux comprendre la plasticité du cerveau et pourrait mener à l’élaboration de méthodes pédagogiques adaptées à divers types d’apprenants.

Des mots dépourvus de sens pour tester les fonctions cérébrales

Les chercheurs ont demandé à trois groupes de jeunes (âgés de 10 à 17 ans) ayant des bagages linguistiques très différents d’exécuter une tâche consistant à identifier des pseudo-mots français (comme vapagne etchansette). Les sujets de l’un de ces groupes étaient nés et avaient grandi dans des familles unilingues francophones. Les sujets du deuxième groupe, nés en Chine, avaient été adoptés avant l’âge de trois ans par une famille francophone, avaient cessé de parler chinois et, par la suite, n’avaient entendu parler que le français et n’avaient parlé que cette langue. Les sujets du troisième groupe parlaient couramment le chinois et le français. Lorsque les enfants réagissaient aux mots qu’ils entendaient, les chercheurs avaient recours à l’imagerie par résonance magnétique fonctionnelle afin de déterminer quelles parties de leur cerveau étaient activées.

Si tous les sujets se sont bien acquittés de leur tâche, les régions du cerveau qui étaient activées différaient entre les groupes. Chez les jeunes unilingues francophones qui n’avaient jamais été exposés au chinois, les zones cérébrales connues pour présider au traitement des sons associés au langage ‒ soit la circonvolution frontale inférieure gauche et l’insula antérieure, ont été activées. Toutefois, chez les sujets bilingues (chinois et français) et ceux qui avaient été exposés au chinois en bas âge et avaient cessé de le parler par la suite, d’autres régions du cerveau ‒ particulièrement la circonvolution frontale moyenne droite, le cortex frontal moyen gauche et la première circonvolution temporale bilatérale ‒ ont également été activées.

Les sonorités de la première langue entendue laissent des traces dans le cerveau

Les chercheurs ont découvert que, chez les enfants chinois qui avaient été adoptés par des familles unilingues francophones et ne parlaient plus leur langue maternelle et qui, par conséquent, étaient fonctionnellement unilingues au moment de l’étude, le cerveau continuait de traiter le langage comme s’ils étaient bilingues.

« Au cours de la première année de vie et de la première étape du développement du langage, le cerveau des bébés recueille et stocke des informations sur les sons qui se révèlent pertinents et importants pour la langue qu’ils entendent parler autour d’eux », affirme Lara Pierce, doctorante à l’Université McGill et auteure principale de l’article. « Nous avons découvert que, chez les enfants adoptés par une famille unilingue francophone et qui ne parlaient plus le chinois, tout comme chez les enfants bilingues, les régions du cerveau qui participent à la mémoire à court terme et à l’attention générale étaient activées lorsqu’on demandait à ces sujets d’effectuer des tâches faisant intervenir le langage. Ces résultats suggèrent que les enfants exposés au chinois en bas âge ne traitent pas la langue française de la même façon que les enfants unilingues francophones. »

L’héritage linguistique complexe des enfants adoptés à l’étranger

Selon les chercheurs, cette découverte témoigne de l’influence unique et durable des premières expériences langagières sur l’organisation ultérieure du cerveau, ainsi que de la capacité du cerveau à s’adapter à divers environnements linguistiques afin d’acquérir de nouvelles compétences dans une autre langue.

« Les enfants adoptés qui ont participé à notre étude avaient un bagage intéressant, car ils avaient été exposés à une langue dès leur naissance, mais avaient cessé de l’utiliser à un très jeune âge après avoir été adoptés par une famille qui en parlait une autre », explique Lara Pierce. « Il s’agit d’une situation très intéressante du point de vue du développement du langage, car elle nous permet d’étudier l’influence qu’exerce cette première période de l’acquisition du langage sur le traitement de la langue à un âge ultérieur, indépendamment des effets exercés par l’exposition continue à une ou à plusieurs langues. »

Les chercheurs sont intéressés à savoir si les mêmes régions du cerveau seraient activées si les langues « perdues » ou « acquises » après l’adoption se ressemblaient davantage que le chinois et le français comme, par exemple, le français et l’espagnol.

Source du texte: McGill University

Pour les seniors, conduire c'est bon pour le moral et la santé

Driving Cessation and Health Outcomes in Older Adults

http://pdf.lu/E1xr  (article original)

 

Continuer à conduire le plus longtemps possible ne permet pas seulement aux personnes âgées de rester indépendantes : une nouvelle étude américaine montre en effet que les seniors qui conduisent encore sont également en meilleure santé.

Une nouvelle étude américaine
 montre que les personnes âgées qui continuent à prendre le volant sont en meilleure santé. © Nika Art, shutterstock.comUne nouvelle étude américaine montre que les personnes âgées qui continuent à prendre le volant sont en meilleure santé.

Une équipe de chercheurs de la Mailman School of Public Health (rattachée à l’université Columbia de New York) a examiné 16 études précédentes s’étant penchées sur la santé de conducteurs des deux sexes âgés de 55 ans et plus, puis a comparé ces résultats avec des données provenant de conducteurs actuels. Conclusion : après l’arrêt de la conduite, les seniors voient leur risque de développer des symptômes dépressifs quasiment doubler. La probabilité d’être admis dans une maison de retraite ou un foyer spécialisé est alors multipliée par cinq.

De même, bien que beaucoup de ces seniors aient arrêté de conduire par suite d’un déclin de leurs capacités physiques et cognitives, les résultats de l’étude montrent clairement qu’il n’a fait qu’empirer après leur abandon du volant. L’arrêt de la conduite a également provoqué une réduction de 51 % de la taille des cercles sociaux, les femmes connaissant une baisse plus forte dans ce domaine que les hommes. Ceci pourrait contribuer à l’aggravation de l’état de santé observé dans les autres domaines.

« Les personnes âgées qui ont arrêté de conduire substituent petit à petit les activités intérieures et domestiques aux activités extérieures, et il se peut que ces activités d’intérieur ne soient pas aussi bénéfiques pour la condition physique qu’une occupation extérieure, comme un emploi ou une activité bénévole, explique Thelma Mielenz, l’une des responsables de l’étude. Quand le temps est venu de cesser de conduire, il est important d’établir un programme personnalisé pour préserver ses fonctions de mobilité et sa vie sociale. »

Selon l’Association américaine
 de l’automobile, les seniors sont parmi les conducteurs les plus sûrs. © jwblinn, shutterstock.com
Selon l’Association américaine de l’automobile, les seniors sont parmi les conducteurs les plus sûrs.

Des conducteurs souvent plus sûrs mais aussi plus fragiles

Selon l’Association américaine de l’automobile (AAA), les seniors sont parmi les conducteurs les plus sûrs, et leur risque d’accident est moindre, car ils portent plus facilement leur ceinture, respectent mieux les limitations de vitesse et sont moins susceptibles de prendre le volant après avoir consommé de l’alcool.

Cependant, leur fragilité allant croissant, les seniors sont naturellement plus enclins à souffrir de blessures graves – ou à trouver la mort – en cas d’accident. En prenant en compte ce risque accru, l’AAA a lancé en 2003 aux États-Unis un programme spécifique (Lifelong Safe Mobility) destiné à permettre aux seniors de continuer à conduire le plus longtemps et le plus sûrement possible, et à rester mobiles même après leur arrêt de la conduite.

Les résultats de cette étude sont publiés dans le Journal of the American Geriatrics Society (PDF ci-dessus)

01/2016 Relaxnews

Des animaux doués d'empathie

 

C'est une scène de la vie ordinaire. Une aveugle, désorientée, cherche son chemin. Une voyante vient à son secours, la guidant de la voix. L'infirme la remercie par de bruyantes effusions. Scène ordinaire, à cela près qu'elle se passe en Thaïlande, dans un parc naturel, et que les deux protagonistes sont des éléphantes. Cet exemple est l'un de ceux dont fourmille le nouveau livre de l'éthologue Frans de Waal, spécialiste des primates et professeur de psychologie à Atlanta (Géorgie). Intitulée L'Age de l'empathie, cette passionnante leçon de choses, bousculant les frontières entre l'homme et l'animal, est aussi un plaidoyer pour le "vivre-ensemble" à l'usage de nos sociétés.

"La cupidité a vécu, l'empathie est de mise, proclame l'auteur. Il nous faut entièrement réviser nos hypothèses sur la nature humaine." A ceux, économistes ou responsables politiques, qui la croient régie par la seule lutte pour la survie - et, selon l'interprétation dévoyée que le darwinisme social a donnée de la théorie de l'évolution, par la sélection des individus les plus performants -, il oppose un autre principe, tout aussi actif que la compétition : l'empathie. C'est-à-dire la sensibilité aux émotions de l'autre. Une faculté compassionnelle qui, loin d'être l'apanage de l'homme, est partagée par de nombreux mammifères, à commencer par les primates, les éléphants et les dauphins. Et qui, de surcroît, est vieille comme le monde.

Dans ses formes les plus rudimentaires, ou les plus archaïques, elle se manifeste par l'imitation, ou la synchronisation des comportements : de même que nous applaudissons sur le même tempo que nos voisins à la fin d'un concert, que deux promeneurs accordent la longueur de leurs pas, ou que des vieux époux finissent par se ressembler, un attelage de chiens de traîneau se meut comme un corps unique, un chimpanzé baille à la vue d'un congénère se décrochant la mâchoire, et rit quand l'autre s'esclaffe. Mieux, cette contagion franchit la barrière des espèces : ainsi un singe rhésus bébé reproduit-il les mouvements de la bouche d'un expérimentateur humain.

Mais l'empathie a des expressions plus élaborées. Dans le parc national de Thaï, en Côte d'Ivoire, des chimpanzés ont été observés léchant le sang de compagnons attaqués par des léopards, et ralentissant l'allure pour permettre aux blessés de suivre le groupe. Dans la même communauté ont été décrits plusieurs cas d'adoption d'orphelins par des adultes femelles, mais aussi par des mâles. Une sollicitude qui peut sembler naturelle pour des animaux sociaux, qui trouvent un intérêt collectif à coopérer.

Comment l'expliquer, toutefois, lorsque l'individu n'a rien à gagner à un comportement empathique, qui devient alors proprement altruiste ? Une expérience a montré que des singes rhésus refusaient, plusieurs jours durant, de tirer sur une chaîne libérant de la nourriture si cette action envoyait une décharge électrique à un compagnon dont ils voyaient les convulsions. Préférant ainsi endurer la faim qu'assister à la souffrance d'un semblable.

Autoprotection contre un spectacle dérangeant ? Mais pourquoi, alors, un singe capucin de laboratoire ayant le choix entre deux jetons de couleurs différentes, dont l'un lui vaut un morceau de pomme tandis que l'autre garantit également cette récompense à un partenaire, opte-t-il pour le jeton assurant une gratification commune ? Mieux, pourquoi un chimpanzé ouvre-t-il une porte dont il sait qu'elle donnera accès à de la nourriture à un congénère, mais pas à lui-même ?

Pour Frans de Wall, la réponse tient en un mot : l'empathie, précisément, ou le souci du bien-être d'autrui. Même lorsque cet autre n'appartient pas à la même espèce que soi. On a vu, dans un zoo, une tigresse du Bengale nourrir des porcelets. Un bonobo hisser un oiseau inanimé au sommet d'un arbre pour tenter de le faire voler. Ou un chimpanzé remettre à l'eau un caneton malmené par de jeunes singes.

Dans ses formes les plus simples, la "sympathie" animale - terme employé par Darwin lui-même - ne mobilise nullement des capacités cognitives complexes, réputées propres à l'homme. Elle met en jeu, décrit l'éthologue, de purs mécanismes émotionnels. Des souris se montrent ainsi plus sensibles à la douleur quand elles ont vu souffrir d'autres souris dont elles sont familières. En revanche, des processus cognitifs entrent en jeu pour des modes de compassion plus complexes, nécessitant de se mettre à la place de l'autre. Comme lorsqu'un chimpanzé délaisse ses occupations pour venir réconforter un congénère molesté lors d'une rixe.

La compassion prendrait ses racines dans un processus évolutif lointain, à une période bien antérieure à l'espèce humaine, avec l'apparition des soins parentaux. "Pendant 200 millions d'années d'évolution des mammifères, les femelles sensibles à leur progéniture se reproduisirent davantage que les femelles froides et distantes. Il s'est sûrement exercé une incroyable pression de sélection sur cette sensibilité", suppose le chercheur. Voilà pourquoi les mammifères, dont les petits, allaités, réclament plus d'attention que ceux d'autres animaux, seraient les plus doués d'empathie. Et les femelles davantage que les mâles. Un trait que partageaient peut-être les derniers grands reptiles. Ce qui expliquerait pourquoi certains oiseaux - probables descendants des dinosaures - semblent eux aussi faire preuve de commisération. Le rythme cardiaque d'une oie femelle s'accélère ainsi, battant la chamade, quand son mâle est pris à partie par un autre palmipède.

L'éthologue ne verse pas pour autant dans l'angélisme. Comme pour les autres animaux, "il existe chez l'homme un penchant naturel à la compétition et à l'agressivité". Mais sa propension à la compassion est "tout aussi naturelle". Reste que l'empathie n'est pas toujours vertueuse. C'est aussi sur la capacité à ressentir les émotions d'autrui que se fondent la cruauté et la torture.

 Pierre Le Hir

La face sombre de l’empathie

 

Selon plusieurs études publiées ces dernières années, des sentiments respectables comme l'amour, la compassion et surtout l'empathie peuvent nous rendre agressif, méchant voire violent.

 

La face sombre de l’empathie

L’être humain se distingue des mammifères en général par des capacités d’empathie.

Atlantico : Comment expliquer ce processus neurologique qui peut conduire d'un bon sentiment à un mauvais comportement ? 

Alexandre Baratta : La colère et l’agressivité sont des comportements propres à tous les mammifères, et l’Homme est encore plus concerné. Ces réactions peuvent conduire à des actes de violences adaptés : sous sa forme verbale (cris à visée dissuasive) ou physique. La violence réactionnelle est donc un mécanisme hautement conservé dans l’évolution des espèces animales afin d’assurer sa propre protection, ou celle de ses partenaires. Elle n’est pas antinomique d’une vie sociale mais participe à la structurer (principe du mâle dominant par exemple dans une société patriarcale). 

L’être humain se distingue des mammifères en général par des capacités d’empathie (ou théorie de l’esprit). 

Il s’agit de la capacité à se représenter les états d’âmes d’autrui, via le métalangage par exemple (émotions exprimées via la mimique ou la gestuelle). De telles capacités d’empathie ne sont pas l’apanage de l’Homme et ont été identifiées dans d’autres groupes de primates, ainsi que chez les dauphins. En terme plus simplifiés, la capacité d’empathie correspond à la faculté de « se mettre à la place » de son interlocuteur. En le voyant souffrir physiquement, il est possible de s’en faire une représentation mentale. Il ne va de même avec la souffrance morale : voir une image de visage triste provoquera un sentiment de malaise ou de tristesse. 

Dans le cas des personnes émotionnellement investies, les capacités d’empathies peuvent déclencher des réactions de violences verbales ou physiques. Elles ont la particularité d’être : 

Impulsives : brèves et non préméditées

Situationnelles et entièrement contextuelles. Le meilleur exemple est la jalousie, avec en point d’orgue le meurtre passionnel. Un tel meurtre n’est, le plus souvent, pas le fait de psychopathes multi récidivistes. Il s’agit bien entendu d’un exemple rare et particulier. Mais la violence peut être réalisée dans une optique de protection de soit ou de proches. L’attaque de personnes investies affectivement peut déclencher des réactions de violences passionnelles : elles sont là encore situationnelles, impulsives et brèves. 

La violence passionnelle est un effet collatéral et indissociable de la capacité d’empathie. 

Qu'est-ce qui crée l'empathie ? Un récit peut-il stimuler une empathie comparable à celle qu'une image ou vidéo peut provoquer ? Ce mécanisme s'est-il plus développé ces dernières années, avec l'expansion des nouvelles technologies, et donc de l'accessibilité à l'information et à l'image ?

Alexandre Baratta : L’empathie est un processus cérébral complexe mettant en jeux l’interaction de plusieurs zones cérébrales : elle n’est pas le fait d’un point précis dans le cerveau. L’une des zones concernées est le cortex préfrontal. Plusieurs études ont retrouvé, à titre d’exemple, une extinction de cette zone dans 2 situations différentes :

Les sujets psychopathes (exposition précoce à la violence ; carences éducatives et affectives)

Une surexposition aux jeux vidéos à contenu violent. Plusieurs études ont démontré que la pratique assidue de jeux tels que Call of Duty provoquait un phénomène d’extinction d’empathie avec recrudescence d’agressivité physique et diminution des capacités pro sociales. 

Oui, un récit peut stimuler l’empathie positivement ou négativement. Tout comme une photo ou une vidéo. Le meilleur exemple est la photo du petit Aylan échoué sur la plage. Il s’agit d’un stimulus puissant du sentiment d’empathie. Seuls les individus dépourvus d’empathie n’y seront pas spontanément réceptifs. Dans un tel cas de figure une mise à distance rationnelle est indispensable pour une analyse de l’image tant la charge émotionnelle est forte.  Ce qui explique son impact sans précédent dans les médias. Les précédentes images ne véhiculaient pas la même charge émotionnelle : yeux révulsés, corps désarticulés, viscères visibles, sang s’écoulant d’orifices. Le dégout primait sur l’apitoiement. Dans le cas du petit Aylan, le visage est partiellement caché et le corps adopte la position naturelle d’un enfant endormi. La composante de dégout et d’effroi est totalement inactivée. Et l’image avec un enfant « endormi pour l’éternité » s’active instantanément dans nos esprits. 

Ces réactions sont-elles courantes et communes à tous ? 

Alexandre Baratta : Oui, à tout être humain sauf anomalie neuropsychologique. En effet, des individus présentant des déficits neurologiques en capacité d’empathie existent. Deux catégories relèvent de maladies neurobiologiques :

L’Autisme infantile. Les enfants autistes présentent d’importantes perturbations des relations sociales du fait, entre autre, d’un déficit en « théorie de l’esprit ». 

La schizophrénie. Les sujets souffrant de cette pathologie présentent, à côté des troubles délirants, un défaut d’empathie. Ils sont incapables ou trouvent très difficile de déchiffrer les émotions faciales chez autrui. Le second degré leur est inaccessible et un propos nous paraissant drôle pourra être interprété comme hostile.

Une 3ème catégorie d’individus existe : les psychopathes. Il s’agit d’un cas très particulier. Les dernières études montrent que les psychopathes savent très bien identifier les états d’âmes de leur victime. Ce qui oriente leur choix victimologique vers les personnes les plus vulnérables. Mais ils sont incapables de se représenter la souffrance de l’autre : ils ne peuvent pas se « mettre à leur place ». Ce qui leur donne l’impression d’une grande froideur affective, et leur capacité à projeter des crimes de sang en toute indifférence. 

 

Comment l'empathie peut-elle devenir une faiblesse et peut-être manipulable ? 

Alexandre Baratta : L’empathie peut être sciemment et aisément stimulée dans un but de communication marketing (publicité) ou politique (paquet de cigarette illustré par des photos de pathologies graves). Les campagnes de communication de la SPA sont également bien connues du grand public. 

Dans le cas des recrues djihadistes, la plupart des individus auxquels j’ai été confronté présentent un profil stéréotypé. A ce jour, j’ai été amené à en examiner une quinzaine aussi bien en pratique d’évaluation en détention qu’en soins en unité psychiatrique sécurisée. 

Il s’agit d’individus :

Psychopathes. Ils sont capables d’analyser et de reconnaitre les émotions chez autrui mais sont incapables de se mettre à leur place. Ils sont donc capables de violences cruelles et préméditées en toute indifférence émotionnelle. 

 

Certains présentent, en plus de leur psychopathie, une schizophrénie. Il s’agit de sujet croyant vraiment que Dieu leur parle par exemple: ils sont d’autant plus dangereux. Ils sont des cibles de choix pour des recruteurs djihadistes psychopathes et manipulateurs.

Très souvent polytoxicomanes (alcools forts, cocaïne, opiacés…).

En d’autres termes, l’individu lambda peut présenter des accès de violence dite passionnelle en lien avec son empathie. Mais il ne pourra pas constituer une cible adaptée pour un recrutement djihadiste. Ses capacités d’empathie l’en protègent par définition. Seuls les sujets « prédisposés » pourront verser dans de tels actes cruels et violents : ce qui explique le profil psychopathique commun à toutes les recrues. Un tel profil limite nécessairement l’impact des programmes dits de « déradicalisation ».  Ils présentent une prédisposition à la violence instrumentale, qu’elle s’inscrive dans une dimension « religieuse » ou plus simplement criminelle (braquages à main armée, home jacking, trafic de stupéfiants…). 


 

« Alice cares » : vers l'empathie artificielle

 

Les robots de compagnie proposent aux personnes âgées vivant seules un étonnant substitut émotionnel. Mais pourquoi notre cerveau attribue-t-il spontanément des émotions aux machines ?

 

Alice cares

Alice, petit humanoïde de 80 centimètres de haut, exprime son contentement en regardant les albums de photos de sa propriétaire. Même programmée, cette réaction activerait des liens empathiques sincères chez l'utilisateur humain.

 

Dans un monde où les personnes âgées seront de plus en plus nombreuses et où leurs enfants se font moins présents auprès d'elles, qui fournira aux séniors une compagnie et des échanges affectifs ? Depuis quelques années, les progrès de la technologie ont donné le jour à des robots anthropomorphes qui remplissent partiellement cette fonction empathique.

Le film Alice Cares permet, sur un mode très documentaire, de visualiser ce futur proche. Il met en scène un tel agent de compagnie joliment prénommé Alice. Ce petit humanoïde de 80 centimètres de haut a le corps d'un automate et le visage d'une petite fille. Il ne marche pas, mais sait déjà se tenir assis dans un fauteuil, et faire beaucoup d'autres choses, comme poser des questions aux personnes âgées sur leurs activités, entretenant ainsi leurs facultés conversationnelles. Si la personne aime chanter, Alice lui fournit la musique d'accompagnement et l'encourage par ses mimiques. Et si son hôte désire lui montrer un album de famille, Alice s'extasie sur la beauté de ses enfants et petits-enfants. Par la variation et la multiplicité de ses intonations, elle invite les personnes âgées à exprimer davantage la palette de leurs propres émotions.

Configuré pour être confident

Une véritable compagnie, donc, doublée d'un coach en rééducation physique qui rappelle à son propriétaire l'importance de faire chaque jour quelques exercices simples pour ne pas perdre sa motricité. Programmée à cet effet, Alice montre l'exercice, observe ce que la personne âgée est capable de faire, puis refait le mouvement et invite la personne âgée à se corriger. Et ce, chaque jour et à heure fixe.

Enfin, le robot rappelle à son propriétaire les dates anniversaires de ses enfants et petits-enfants, et l'encourage à réaliser ces gestes simples consistant à chercher une carte à leur envoyer, ou à trouver la motivation suffisante pour leur téléphoner. Ce qui permet à ces personnes de conserver le sentiment de gérer leur propre vie.

Il ne serait pas étonnant, dès lors, que les propriétaires âgés de tels robots s'attachent à ce compagnon de tous les jours. Jusqu'à brouiller les frontières habituelles entre ce que l'on peut éprouver pour une machine et pour un humain. Dans les maisons de retraite, des personnes âgées tricotent des vêtements pour Nao, un des automates actuellement sur le marché, et de vieilles dames donnent à leur humanoïde le prénom de leur mari disparu. Alors, une fois cet appareil personnalisé par un prénom et des vêtements, ne devient-il pas beaucoup plus qu'une simple machine, un confident privilégié des pensées et des émotions de son utilisateur ?

La pulsion anthropomorphisante

Prêter des intentions, des émotions, voire des pensées à un robot relève d'une tendance générale de l'être humain. Nos lointains ancêtres n'ont dû leur survie qu'à leur capacité d'essayer de comprendre leur environnement, et le seul moyen dont ils ont longtemps disposé était la projection. Ils attribuaient des intentions au vent, à la foudre, ou au mouvement des feuilles sur les arbres, et bien sûr aussi aux animaux qu'ils chassaient ou dont ils devaient se protéger. Imaginer que l'ensemble du monde puisse réagir comme eux aux mêmes situations était le seul moyen dont ils disposaient pour tenter d'anticiper les événements. Et, pour ce qui concerne les animaux tout au moins, ce n'était pas un si mauvais moyen.

Cette attitude n'a pas totalement disparu de notre vie psychique puisque nous aimons les poèmes et les récits dans lesquels le monde inanimé pense et éprouve comme nous, et que nous apprécions de nous entourer d'objets anthropomorphes, comme le montre le succès du design qui met des yeux sur nos tire-bouchons et donne un visage à nos salières. La tentation d'imaginer qu'un robot a les mêmes émotions que nous ne serait donc finalement que la manifestation d'une caractéristique générale de l'être humain, et comme toutes les manifestations, celle-ci serait très inégalement répartie : certains la posséderaient à un degré élevé, d'autres moins et quelques-uns pas du tout. Bref, il ne s'agirait que de subjectivité personnelle. Mais le problème est plus compliqué, d'abord parce que les robots nous invitent à cultiver cette tendance, et ensuite parce qu'ils resteront connectés en permanence à leur fabricant d'une façon qui pourra être connue ou au contraire ignorée de leur utilisateur. Voyons ce qu'il en est.

Les robots qui « ont du cœur »

Éprouver de l'empathie à l'égard d'une machine, pouvoir interagir avec elle comme avec un de nos semblables, relève de ce qu'on appelle de plus en plus aujourd'hui l'empathie artificielle. De nombreux laboratoires travaillent en effet à simplifier les interfaces homme-machine de façon à ce que nous puissions communiquer avec un robot exactement de la même façon qu'avec un humain : nous lui parlons, et il est capable non seulement de comprendre ce que nous lui disons, mais aussi d'identifier l'état affectif dans lequel nous nous trouvons, et de nous répondre avec des intonations et des mimiques adaptées. D'ores et déjà, Alice peut suivre les déplacements de ses interlocuteurs grâce à la mobilité de sa tête et de ses yeux, leur témoigner un intérêt appuyé par le regard, et réagir à ce qu'ils disent par un large éventail de mimiques.

L'empathie artificielle va donc encourager la tendance de l'utilisateur de robots à les considérer comme des créatures vivantes, voire humaines. Mais un autre élément intervient dans cette situation : la façon dont les robots sont présentés et vendus à leurs utilisateurs. En effet, certains fabricants parlent « d'émorobots » ayant des émotions, et même « du cœur », avec le risque de renforcer chez leurs utilisateurs la conviction que ces machines auraient des émotions et des intentions semblables à celles des humains. Quelques-uns essayent de limiter ce risque en donnant à leur robot une voix métallique – comme pour le célèbre Nao –, mais d'autres font le choix d'une voix totalement humaine, comme dans le cas d'Alice. Le problème est qu'à force de penser que leur robot pourrait avoir de vraies émotions, beaucoup d'utilisateurs risquent d'imaginer qu'il pourrait avoir aussi des sensations. Et le danger serait qu'une personne âgée mette sa propre vie en péril pour tenter de sauver son robot qu'elle voit trébucher ou en train de se brûler… La situation est tout à fait imaginable : il a déjà été constaté que des soldats américains utilisant des robots démineurs mettent parfois leur vie en danger pour épargner des dommages à la machine qui est en principe destinée à les protéger !

L'écueil de la vie privée

L'empathie artificielle pose encore un autre problème. C'est qu'à force de penser que nos robots auraient des émotions « comme nous », nous risquons bien d'oublier qu'ils resteront toujours connectés à leur fabricant. Dans les hôtels japonais tenus entièrement par des robots, les clients jouent avec les robots installés dans leur chambre, puis oublient de les débrancher lorsqu'ils ont des activités plus intimes, bien qu'il soit indiqué que, « pour des raisons de sécurité, le robot est relié en permanence à un PC de sécurité »…

Nous voilà face à la question de la protection de la vie privée. Que l'on peut toujours évacuer sous prétexte que le désir de protéger cette dernière varie selon chacun, et que ceux qui voudront débrancher leur robot le pourront toujours. Mais cela dépend aussi de la façon dont ces machines sont conçues. Pour que l'utilisateur soit libre, plusieurs conditions doivent être réunies : qu'il puisse déplacer facilement le robot, que le bouton de déconnexion soit accessible, et que le fait de l'arrêter ne provoque pas une mise en scène de la mort subite ! Or c'est aujourd'hui exactement ce qui arrive lorsqu'on débranche un robot de type Pepper, lancé en 2014. Il semble frappé d'une crise cardiaque ! Aucune personne âgée ne prendra le risque d'une déconnexion dans cette situation.

Enfin, le dernier problème psychologique posé par l'introduction des robots concerne l'évolution des relations que nous aurons avec nos semblables. Alice est programmée pour formuler des jugements constamment positifs. L'une de ses premières phrases en arrivant chez quelqu'un est : « Votre appartement est très joli », ou « Vous êtes vraiment très bien installé, ici ». Le robot domestique ne parle jamais de lui, il est toujours attentif à son maître, prêt à rebondir sur ce que celui-ci lui dit, de telle façon que beaucoup de relations humaines risquent finalement de paraître à la personne âgée bien plus frustrantes que celles qu'elle entretient avec son robot. Nous savons déjà que la pratique quotidienne du téléphone mobile a rendu beaucoup d'entre nous plus intolérants à l'attente. Les robots de compagnie pourraient bien de la même façon rendre beaucoup de leurs utilisateurs moins sensibles à la contradiction, voire plus intolérants au caractère toujours imprévisible des interlocuteurs humains. Les robots donneront-ils aux personnes âgées la certitude d'aimer et d'être aimées, si importante pour l'équilibre émotionnel de chacun, et le sentiment que leur vie est vraiment utile, sans même parler d'une sensualité plus heureuse ? Il est à craindre que non. Mais ils risquent pourtant de se rendre rapidement indispensables parce qu'ils seront capables, en plus de tous les services bien réels et bien concrets qu'ils rendront, de satisfaire à la demande que le bon sens populaire a su si bien formuler : « Parlez-moi de moi, il n'y a que ça qui m'intéresse. »

Sauf si les programmes conçus pour ces robots prévoient aussi d'encourager les séniors à rencontrer d'autres humains, et à leur faciliter les démarches dans ce sens, au point de savoir s'effacer quand cette relation est établie. Mais quel pouvoir avons-nous chacun sur cette évolution ? Le pouvoir du consommateur, celui de refuser d'acheter des robots conçus uniquement comme des fournisseurs d'accès à des services tarifés. Pour augmenter nos chances de voir un jour des robots socialisants, boudons ceux qui n'y correspondent pas. Refusons les robots occupationnels, et attendons les robots humanisants.

Serge Tisseron

en écoutant François Mauguière vous pouvez suivre son diaporama en téléchargeant en simultané :
http://pdf.lu/B5ob

L’apport de la recherche en neurosciences à l’étude de l’empathie

Comment l'empathie vient aux enfants

 

Scène de vie ordinaire dans une cour d'école. Emma, 4 ans, mange un pain au chocolat. Soudain, elle fait tomber sa viennoiserie et se met à pleurer. Pas longtemps. Agathe, 6 ans, lui tend la moitié de son goûter. Pitié, altruisme, compassion... les mots ne manquent pas pour décrire les motivations d'Agathe. Les psychologues du développement, eux, préfèrent employer le terme de « comportement prosocial », déclenché par l'empathie.

« L'empathie est la capacité que nous avons à nous mettre à la place de l'autre pour comprendre ses émotions et ses sentiments », explique Jean Decety, de l'Inserm et de l'université de Washington à Seattle. Ce neurobiologiste est l'un des premiers à s'être intéressé aux bases cérébrales de l'empathie. « Une faculté importante pour la vie en société : l'empathie peut conduire à aider autrui. Mais se mettre à la place des gens permet éventuellement de les manipuler ou d'appuyer là où ça fait mal. »

Des années de maturation du cerveau sont nécessaires avant que cette capacité s'exprime pleinement. L'enfant ne montre ainsi d'empathie - et ses corollaires : réconfort, jeux coopératifs... - qu'à partir de 4 ou 5 ans. Est-ce à dire que le bébé ne comprend pas les émotions des gens qui l'entourent ? Loin de là. Mais « il n'a pas encore les moyens cérébraux pour contrôler ses émotions et prendre de la distance avec autrui, appuie J. Decety. Or ce n'est qu'à cette condition que l'enfant peut se mettre à la place des autres sans perdre son identité ».

Une foule d'expériences de psychologie illustrent le cheminement de l'enfant vers ce « plus de contrôle émotionnel » nécessaire à l'empathie. Audacieuses, certaines d'entre elles sont allées jusqu'à tester des bébés âgés... de quelques minutes ! Qu'ont-elles découvert ? Étonnamment, que l'éveil empathique commence dès la naissance. « Le nourrisson a une capacité innée à reconnaître implicitement que l'autre est semblable à lui. Une composante essentielle de l'empathie », note J. Decety.

Imitateurs nés

Cette information a été apportée au début des années quatre-vingt par les travaux d'Andrew Meltzoff, de l'université de Washington à Seattle. Ce psychologue démontre alors formellement ce que toute mère a décelé en grimaçant au-dessus du berceau : le bébé est capable d'imiter ses congénères. Tirez-lui la langue, il la tire aussi. Formez un « O » avec vos lèvres, il fait de même.

Mais comment être sûr que la mère n'interprète pas comme étant une imitation une expression approximative de l'enfant qui n'a, en fait, aucun rapport ? Pour le savoir, A. Meltzoff installe son laboratoire dans une maternité et répète, avec quatre-vingts nouveau-nés, le même protocole. Il filme le visage des nourrissons, ainsi que les expressions d'un expérimentateur qui tantôt montre sa langue, tantôt ouvre la bouche voir photos ci-contre. Dans un second temps, il demande à un observateur indépendant de décrire les mimiques des bébés. Leurs expressions coïncident étroitement avec celles de l'expérimentateur. Les bébés nous imitent donc. Et ce, dès les premiers instants de la vie extra-utérine puisque le plus jeune nourrisson testé « avec succès » n'est âgé que de 42 minutes [1].

Au risque de décevoir bon nombre de parents, précisons que les nouveau-nés ne les imitent pas sciemment : « Cette capacité qu'ont les bébés de reproduire les mouvements et expressions des personnes est automatique et non intentionnelle, indique J. Decety. C'est ce qu'on appelle la résonance motrice. » Les fondements neurophysiologiques de ce phénomène sont documentés depuis 1996, date à laquelle Giacomo Rizzolatti, de l'université de Parme, en Italie, a mis au jour les « neurones miroirs » chez le macaque [2]. Localisées dans le cortex prémoteur la région impliquée dans la programmation des mouvements volontaires, ces cellules nerveuses s'activent non seulement lorsque le singe manipule un objet avec la main mais, chose plus surprenante, lorsque le primate se contente d'observer un autre singe manipuler l'objet.

L'homme n'est pas en reste. Depuis le milieu des années quatre-vingt-dix, de nombreuses études ont montré que l'observation et l'exécution d'un geste faisaient appel aux mêmes réseaux de neurones, au niveau des régions de notre cortex prémoteur et pariétal, spécialisées dans la génération des mouvements.

Bien qu'aucune exploration neurophysiologique n'ait été menée sur le nourrisson, l'imitation néonatale laisse préjuger de l'existence de tels systèmes miroirs chez le petit d'homme. « Cette résonance directe entre l'observation et l'action permettrait aux bébés de comprendre que les autres personnes sont identiques à eux », selon J. Decety.

Une autre forme de résonance s'applique au domaine des émotions. Elle aiderait les bébés à percevoir l'état émotionnel des gens qui les entourent, premier pas vers l'empathie. Les bébés nous en donnent régulièrement l'exemple. Un nourrisson pleure dans une pouponnière ? Les autres nouveau-nés se mettent à crier. Dans les années soixante-dix, Marvin Simner, de l'université de Western Ontario, au Canada, a étudié cette « contagion émotionnelle ». Il a fait entendre des pleurs de bébés enregistrés à des nourrissons âgés de 5 jours [3]. À cette écoute, les nourrissons ont pleuré plus fort que lorsque le silence était fait dans la pièce ou qu'ils entendaient des pleurs « fabriqués » par ordinateur.

Quelques années plus tard, en 1987, Grace Martin et Russel Clark, de l'université d'État de Floride, sont allés plus loin. Ils ont montré, dans une expérience similaire à celle de M. Simner, que cette réaction enfantine à la détresse des autres ne s'exerçait qu'envers les êtres humains. Les bébés ne versent pas une larme lorsqu'ils entendent les plaintes d'un petit chimpanzé [4]. « Ces expériences montrent non seulement que le nouveau-né entre en résonance émotionnelle avec les autres, mais que ce partage affectif est d'autant plus fort qu'il y a une similarité entre le bébé et autrui », explique J. Decety. Par ailleurs, les bébés ne s'émeuvent pas lorsqu'ils écoutent... leurs propres pleurs préalablement enregistrés. Preuve que la résonance émotionnelle s'applique aux autres plus qu'à soi-même.

Le dégoût et la douleur

Les mécanismes neurologiques qui sous-tendent cette forme de résonance se rapprochent de ceux de la résonance motrice. Là encore, ils ont été mis en évidence chez l'homme adulte et non chez l'enfant. En 1999, William Hutchison de l'hôpital de Toronto, au Canada, a ainsi exploré, à l'aide d'électrodes, le cortex d'une femme sur le point de subir une opération chirurgicale cérébrale. Il a découvert que les mêmes neurones du cortex cingulaire s'activaient lorsque l'on piquait le doigt de la patiente... ou lorsqu'elle regardait une autre personne subir ce stimulus douloureux. En 2003, Bruno Wicker, de l'institut des neurosciences cognitives de la Méditerranée, à Marseille, a montré que l'observation d'une personne qui exprime du dégoût active, chez le spectateur, les régions cérébrales impliquées dans l'expérience de cette émotion : insula et cortex cingulaire antérieur.

« La compréhension des émotions exprimées par autrui nécessiterait une forme de simulation interne, impliquant les mêmes circuits neuronaux », analyse J. Decety. Elle existerait déjà chez le bébé. Beaucoup de psychologues estiment que cette simulation mentale de l'état émotionnel de l'autre est suffisante pour rendre compte de l'empathie. « C'est discutable, objecte le neurologue. La résonance est un mécanisme automatique. Toute personne "bien câblée" résonne avec les autres. Mais si le spectacle d'une personne en situation de détresse me plonge moi-même dans la détresse, je me replie sur ma propre souffrance et ne vais pas l'aider. L'empathie nécessite de garder la distance avec autrui. Cela mobilise des ressources "exécutives", sous-tendues par le cortex préfrontal. Ces fonctions nous donnent un meilleur contrôle sur nos émotions : je perçois la douleur de l'autre mais je ne souffre pas comme l'autre. Sans les fonctions exécutives, je serais submergé par ce qui se passe autour de moi. »

Ce mécanisme de contrôle met près de quatre ans à devenir fonctionnel, temps pendant lequel l'enfant explore sa relation à l'autre et affine sa perception de l'univers intérieur d'autrui. « Vers 4 à 6 mois, le bébé développe des attentes sociales, explique Philippe Rochat, de l'université Emory d'Atlanta. Il s'attend que la personne en face de lui se comporte de façon cohérente. Par exemple, si elle manifeste des tics et que soudain elle ne le fait plus, l'enfant réagit. » À ce stade, il semble que le bébé repère les comportements, les attitudes propres aux uns et aux autres. « Plus tard, il connaît ce qu'on appelle l'angoisse du huitième mois : l'enfant éprouve du désarroi quand un étranger s'approche. Preuve qu'il spécifie les gens, distingue les personnes familières de celles qui ne le sont pas. » Enfin, vers 14 à 18 mois, l'enfant prend conscience qu'il peut avoir une action sur autrui. Ce qu'a montré, en 2004, une expérience de P. Rochat. Un bébé, doté d'un cube en mousse, est placé face à deux expérimentateurs habillés de la même manière et possédant, chacun, le même cube. Le premier expérimentateur imite exactement les gestes de l'enfant sur le jouet. Le second agit sur le cube en même temps que l'enfant mais n'effectue pas les mêmes gestes. Par exemple, si le bébé appuie sur le cube, l'expérimentateur tirera sur l'objet. À partir de 18 mois, l'enfant regarde davantage l'imitateur que la personne simplement synchrone avec lui [5]. « Cela signifie que l'enfant commence à se projeter dans la personne qui lui ressemble. Il apprend à s'identifier à autrui. » Souvent, l'enfant adopte un nouveau comportement en cours d'expérience : il complique son geste afin de rendre l'imitation difficile pour l'imitateur. « Il regarde si l'adulte réussit à reproduire ses gesticulations. L'enfant s'aperçoit désormais qu'il peut avoir une action sur autrui. »

S'il comprend qu'il peut agir sur son entourage, le bébé ne perçoit pas pour autant que les personnes sont douées d'un univers intérieur qui leur est propre. Ainsi, avant l'âge de 18 mois, l'enfant pense que ses parents... ont les mêmes désirs et les mêmes goûts que les siens. Or, « l'empathie sous-entend que l'enfant ait non seulement conscience que l'autre est semblable à soi mais que c'est autrui qui éprouve une émotion et non pas lui-même », remarque J. Decety. Cette distinction commence aussi vers 18 mois.

Expérience gourmande

C'est par une jolie expérience gourmande qu'Alison Gopnik, de l'université de Californie, et Betty Repacholi, de l'université de Washington, mirent en évidence cette capacité pour la première fois, en 1997 [6]. Un expérimentateur et un enfant sont assis à une même table. Au menu : deux coupelles contenant des brocolis crus et des biscuits salés. L'expérience se déroule en deux actes. D'abord, l'expérimentateur saisit un bouquet de chou et l'avale en lançant un « mmmh, c'est bon » de plaisir - l'enfant le regarde et grimace de dégoût : une expérience préliminaire a vérifié qu'il préférait les biscuits au brocoli. Montrant les légumes, l'adulte demande à l'enfant : est-ce que tu aimes ? « Non. » Deuxième acte : l'expérimentateur demande à l'enfant de lui donner quelque chose à grignoter. Avant 18 mois, l'enfant lui tend des biscuits apéritifs, c'est-à-dire ce qu'il désirerait manger. Et ce même lorsque l'adulte a lancé un « beurk » significatif en y croquant précédemment. Après 18 mois tout change : l'enfant donne à l'expérimentateur ce que cet adulte aime, des brocolis. Il montre ainsi qu'il a compris que l'autre a des désirs différents des siens.

Ainsi, au cours de sa deuxième année, l'enfant perçoit cette nuance subtile : bien que les autres soient des personnes comme lui, elles sont différentes et ne désirent pas forcément les mêmes choses. C'est à partir de cet âge que l'enfant commence à exprimer de l'empathie. Et, avec elle, tout un cortège d'émotions et de comportements sociaux : réconfort, fierté, honte, culpabilité... « Leur apparition est la preuve indirecte d'un développement avancé des fonctions exécutives frontales chez l'enfant, estime J. Decety. Le cortex préfrontal exerce un contrôle cognitif suffisant pour que l'enfant puisse se mettre à la place de l'autre, tout en comprenant bien que les émotions qu'il ressent sont différentes de celles de l'autre. »

En utilisant l'imagerie par résonance magnétique fonctionnelle IRMf, J. Decety et ses collaborateurs ont récemment montré où se situait, chez l'adulte, la signature neuronale de cette capacité à se distinguer des autres. Les chercheurs ont présenté deux sortes de photographies à des volontaires : des photos « neutres » une main en train de couper un concombre, un pied nu et des photos « douloureusement chargées » : un couteau qui s'apprête à trancher le doigt plutôt que le concombre, un orteil pris dans la charnière d'une porte voir photos p. 36. Face à chaque cliché, les volontaires devaient se « mettre à la place de l'autre » et noter, sur une échelle analogique, quelle douleur ils ressentiraient dans cette situation. Ou quelle douleur ressentirait une autre personne. En accord avec l'expérience de William Hutchison citée plus haut, « l'IRMf montre que, lorsqu'on regarde quelqu'un avoir mal, notre réseau impliqué dans le traitement cognitif de la douleur s'active dans le cerveau - l'insula antérieure, le cortex cingulaire antérieur et le cortex pariétal supérieur », explique J. Decety.

Pourtant, nous n'avons pas aussi mal que le sujet qui vient de se cogner le pied. Comment l'explique-t-on ? « Quand on imagine l'autre dans une situation douloureuse, l'étendue des activations au sein du circuit qui traite la douleur est moins importante que lorsque l'on s'imagine soi-même dans ces situations. En plus, une région spécifique, située à la jonction du cortex pariétal inférieur et temporal droit, s'active. En revanche, quand on s'imagine dans une situation douloureuse, cette zone ne s'active pas. Pour nous, cette région joue un rôle crucial pour nous permettre de distinguer soi d'autrui. De garder la distance nécessaire pour que l'empathie s'exprime et que nous venions en aide à l'autre, le cas échéant [7]. » Si les expériences explorant ces bases neuronales se sont multipliées chez l'adulte ces dernières années, elles sont inexistantes chez l'enfant. On imagine volontiers la difficulté de maintenir un bébé immobile dans un appareil d'IRM. Les expériences de psychologie restent, pour un bon moment, le seul moyen de se pencher sur l'empathie de ces turbulentes têtes blondes.

En deux mots : À partir de quel âge l'enfant est-il capable d'exprimer de l'empathie, c'est-à-dire de se mettre à la place de l'autre pour comprendre ses sentiments ? Quatre à cinq ans, répondent les psychologues expérimentaux. Ce qui n'empêche pas le nourrisson de percevoir très tôt les émotions d'autrui. Dès la naissance, le bébé se met au diapason de son entourage en l'imitant et en exprimant des émotions similaires. Mais l'empathie ne s'explique pas totalement par la perception de l'univers intérieur d'autrui. L'enfant doit pouvoir prendre de la distance avec les autres. Une capacité qui se développe en parallèle avec le cortex frontal.

Par Sophie Coisne

le génie linguistique des bébés

Les bisous des mamans ne guérissent pas les bobos/Maternal kisses are not effective in alleviating minor childhood injuries (boo-boos): a randomized, controlled and blinded study

Fin 2015, une revue scientifique a publié une étude montrant que les bisous des mamans ne guérissent pas les bobos de leurs enfants. L’article satirique basé sur une recherche imaginaire a suscité des réactions, car l’information a circulé sur le net sans qu’il soit forcément stipulé que l’étude était fausse.

 

La fausse étude conclut en l’inutilité des bisous maternels pour guérir les bobos et recommande un moratoire sur cette pratique. © Blaj Gabriel, Shutterstock

La fausse étude conclut en l’inutilité des bisous maternels pour guérir les bobos et recommande un moratoire sur cette pratique.  

Une revue scientifique sérieuse peut-elle publier une fausse étude pour faire sourire ses lecteurs ? Le débat semble lancé suite à la publication par le Journal for Evaluation in Clinical Practice d’une fausse recherche qui montrait l’inutilité des bisous maternels dans la guérison des bobos.

Cette étude inventée de toutes pièces, et dont les auteurs ne sont pas mentionnés sous le titre de l’article, partait du constat que de nombreuses mamans font des bisous « magiques » sur les bobos de leurs enfants ; cependant, cette pratique très répandue ne se base sur aucune preuve scientifique. L’objectif de l’étude était donc de réparer cet oubli.

Le protocole fictif incluait 943 enfants d’Ottawa âgés de 18 à 36 mois, et leurs mères, sélectionnées selon des critères précis : elles devaient avoir des lèvres capables de faire des bisous palpables et les mamans avec des aphtes ou convaincues de négligence ou d’abus sur leurs enfants étaient exclues. Pour les besoins de l’étude, les enfants se sont fait de petits bobos, soit en se cognant à une table soit en se brûlant légèrement avec un objet chaud. Les enfants étaient répartis en trois groupes : certains recevaient un bisou de leur maman, d’autres le bisou d’une autre personne et d’autres rien. Résultat : les bisous maternels étaient inefficaces.

La fausse étude concluait donc à la nécessité d’un « moratoire » sur la pratique des bisous, vu son inutilité. Dans la discussion, l’auteur suggère aussi que le temps inutilement passé par les mamans à faire des bisous pourrait être employé à d’autres activités plus bénéfiques pour les enfants, comme les initier aux fonctions algébriques ou au mandarin…

Une fausse étude qui lance un débat sur l’information scientifique

La publication, certes très drôle, n’a pas fait rire tout le monde car le journal n’a pas prévenu explicitement qu’il s’agissait d’une blague. Ainsi, Jack Marshall, un avocat spécialisé dans l’éthique, a suggéré dans le National Post que la revue, qui aurait dû avertir le lecteur que l’étude était fausse, fasse des excuses. De même, Matthew McLennan, un professeur associé d'éthique à l’université Saint-Paul à Ottawa a souligné que, Internet étant déjà une source de confusion pour le public, il attendait d’une revue comme Journal for Evaluation in Clinical Practice qu’elle n’y contribue pas. D’après lui, de tels articles peuvent nuire à la confiance que les lecteurs ont dans les publications scientifiques.

Le journal tout comme l’auteur ont reconnu qu’il s’agissait d’un article satirique, dans la tradition des articles saugrenus qui sortent en fin d’année, comme dans l'édition de Noël de BMJ. L’auteur de cette fausse étude est Mark Tonelli, un professeur de médecine et de bioéthique de l’université de Washington à Seattle. Il a expliqué qu’il y avait plein d’indices dans l’article montrant que l’étude était fausse, tels que le nom du groupe de travail (SMACK), les références bibliographiques inventées, le soi-disant financement par l’entreprise Proctor and Johnson inc., etc. L’objectif n’était pas de tromper les gens, mais plutôt de susciter la discussion sur les faiblesses de la recherche clinique. Il a aussi précisé que la ville d’Ottawa avait été choisie au hasard.

Malgré ces indices, différents sites d’information ont repris l’étude sans signaler qu’elle était fausse. Ainsi, The Daily Caller a titré sur l’étude « la plus stupide » dans un article mis à jour ensuite pour signaler que c’était un canular. Quant à l’American Mirror, l’article paru sur son site le 31 décembre et toujours en ligne « GOV'T STUDY : Mother's kiss doesn't heal boo-boos», ne signale pas la farce…

 

 Marie-Céline Jacquier 

Stimuler le langage par la musique

 

La musique – et en particulier le rythme – redonne parfois la parole à ceux qui l'ont perdue. Elle semble aussi améliorer certains troubles associés à la dyslexie et les compétences linguistiques des enfants sourds.

 

 

La musique aide les personnes atteintes de troubles du langage à améliorer le traitement de la parole tant en perception qu'en production, c'est-à-dire qu'ils comprennent et parlent mieux.

 Le langage (notamment la parole) et la musique partagent des caractéristiques qui demandent des traitements similaires. Ces similarités peuvent être décrites à plusieurs niveaux, du sensoriel jusqu'au cognitif. Qu'il s'agisse de la musique ou du langage, ces deux domaines nécessitent un traitement précis de la hauteur (des sons graves aux sons aigus), du timbre (par exemple, la différentiation des instruments de musique ou des phonèmes, tels que [ta] ou [da]) et de la dimension temporelle (tempo ou rythme, par exemple). De plus, le langage et la musique reposent sur des éléments organisés en structures hiérarchisées : pour le langage, les phonèmes et les mots ; pour la musique, les notes et les accords. Ces structures peuvent être décrites par une « syntaxe ». Par conséquent, le traitement des structures linguistiques, tout comme celui des structures musicales nécessite de la mémoire, de l'attention et une capacité d'intégration temporelle des événements, afin de créer une représentation mentale cohérente.

Le traitement de la musique et celui du langage partagent-ils certaines ressources neuronales ? Un entraînement musical a-t-il une influence bénéfique sur le traitement cognitif en général et sur le traitement du langage en particulier ? Nous examinerons comment les réponses qu'apportent les neurosciences à ces questions permettent d'envisager une utilisation de la musique et des rythmes musicaux pour prendre en charge des pathologies du langage, telles que la perte de la parole, des difficultés d'élocution ou la dyslexie. Plus surprenant encore, contrairement à ce que l'on a longtemps admis comme une évidence, les troubles du langage associés à la surdité peuvent être soulagés par la musique.

Un transfert de compétences

Commençons par l'étude des corrélats cognitifs et neuronaux impliqués dans le traitement du langage et de la musique. Pour faire ce type d'études, on compare souvent les performances de sujets musiciens et non musiciens. On a d'abord recherché l'existence de ressources neuronales partagées par la musique et le langage et la possibilité de transférer des compétences d'un de ces deux domaines à l'autre. Afin d'exclure la possibilité que le cerveau des musiciens et des non-musiciens aient été différents avant l'entraînement musical, on a mis en place des protocoles d'entraînement à long terme ; des enfants non musiciens sont partagés en deux groupes et suivent soit un entraînement musical soit un autre type d'entraînement (peinture, art dramatique) durant quelques mois. On compare les performances de chaque enfant avant et après l'entraînement, et celles des enfants qui ont suivi soit l'entraînement musical, soit l'autre type d'entraînement. On peut ainsi mettre en évidence l'existence (ou l'absence) d'effets bénéfiques d'un entraînement musical sur les corrélats neuronaux, ainsi que sur les processus sensoriels et cognitifs impliqués dans le traitement du langage. Ces recherches ont révélé le bénéfice d'un entraînement musical sur le traitement langagier à plusieurs niveaux.

Les effets se manifestent sur les corrélats neuronaux, tant anatomiques que fonctionnels, ainsi que sur les processus sensoriels et cognitifs impliqués dans le traitement du langage. Nina Kraus et ses collègues de l'Université de Northwestern ont montré que l'expertise musicale modifie la façon dont le colliculus inférieur (un relais sous-cortical du traitement auditif) traite l'information langagière : le traitement des sons est amélioré, et, avec lui, celui de la prosodie de la parole aussi bien chez l'adulte que chez l'enfant musicien.

La pratique musicale influe sur le traitement de divers paramètres des sons linguistiques, tels que la hauteur (la fréquence fondamentale), mais aussi d'autres aspects du son, tels les formants vocaliques, qui permettent de distinguer les voyelles (par exemple [a] et [o]), et les transitoires rapides qui assurent la distinction des consonnes (par exemple [d] et [t]). On note aussi une sélection plus performante des informations pertinentes pour la compréhension du discours ; on dit que le filtrage attentionnel s'améliore, quand il s'agit de discriminer la parole dans le bruit, par exemple.

On observe aussi des changements neuronaux à la suite d'un entraînement musical au niveau du cortex auditif qui améliore la perception des sons musicaux et linguistiques (des voyelles et des consonnes). On constate également que les réseaux neuronaux impliqués dans le traitement des phonèmes et ceux qui traitent les mélodies se chevauchent au niveau du cortex temporal (gauche et droit). Ce chevauchement expliquerait pourquoi les personnes ayant un entraînement musical auraient également un traitement phonologique performant pour le langage. On observe aussi que la pratique musicale peut modifier des fonctions plus complexes, telles que le traitement de structures syntaxiques.

Un partage des ressources neuronales

On a montré que traiter des extraits musicaux dont on a modifié les structures musicales active également le cortex frontal inférieur, c'est-à-dire l'aire de Broca dans l'hémisphère gauche et son homologue dans l'hémisphère droit, de façon similaire à ce que l'on observe lors du traitement des structures linguistiques. Le langage est plutôt traité par l'aire de Broca, donc le cortex frontal inférieur de l'hémisphère gauche, et la musique plutôt par le cortex frontal inférieur de l'hémisphère droit, mais chacune intervient dans le traitement du langage et celui de la musique. Ce partage des ressources neuronales expliquerait aussi pourquoi le traitement des structures linguistiques est parfois meilleur chez les enfants musiciens, quand on les compare à des enfants non musiciens.

Ainsi, le traitement de la hauteur des sons et celui des structures syntaxiques pour la musique et le langage partagent certaines ressources neuronales. C'est également le cas pour le traitement des structures temporelles, tel le rythme. Dans le langage, et plus précisément la parole, le rythme résulte du regroupement d'éléments (les phonèmes) dans une configuration temporelle globale. Les intervalles temporels qui séparent les syllabes en français ou les accents en anglais, façonnent un rythme de parole à partir duquel émerge une structure dite métrique, qui est marquée par une alternance de phonèmes accentués et non accentués.

La perception de cette structure influe sur le traitement du langage parlé (ses structures syntaxiques et sémantiques). On a constaté que lorsque des événements séquentiels présentent une régularité temporelle, cette régularité facilite le traitement de l'information, qu'il s'agisse de percevoir un extrait musical ou des mots. Dans le cadre du programme européen EBRAMUS (pour Europe, Brain and Music), nous avons exploré avec Nia Cason, de l'Institut de neurosciences des systèmes, à Marseille, la combinaison d'un matériel musical et langagier. Ainsi, nous faisions écouter aux sujets testés un rythme musical, puis, juste après, un mot ou une phrase, l'extrait et la phrase présentant une structure métrique similaire.

Nous avons constaté que la perception de la parole est « augmentée », sans doute grâce à une optimisation des mécanismes de prédiction temporelle : comme l'extrait musical précède la phrase, le sujet connaît sa structure métrique, ce qui en améliore la compréhension. Ces résultats confortent l'hypothèse selon laquelle l'apprentissage de la musique influe sur la perception et la production des structures rythmiques et métriques dans la musique, mais qu'il se transfère aussi à la perception de la parole, et plus précisément à ses aspects rythmiques et métriques qui semblent jouer un rôle majeur dans l'acquisition des compétences phonologiques.

Une plasticité cérébrale renforcée

Ainsi, les ressources neuronales sont partagées pour le traitement de la musique et celui du langage, et la pratique de la musique peut faciliter le traitement du langage. Cela repose en grande partie sur une amélioration du traitement de l'information temporelle à plusieurs échelles, allant de l'information spectrale et temporelle fine (de l'ordre de la milliseconde) à la capacité de construire une représentation mentale de ce que l'on entend, qui permet de prédire et d'anticiper des événements dans le temps (l'échelle de temps est alors de plusieurs secondes). Dès lors, on a proposé d'utiliser la musique pour stimuler le traitement du langage, voire de l'utiliser dans des programmes de réhabilitation.

En 2013, Ani Patel, de l'Université de Tufts, dans le Massachusetts, a émis l'hypothèse que l'entraînement musical peut renforcer la plasticité neuronale, qui améliore le traitement du langage dans certaines conditions. C'est en partie dû au fait que le traitement de la musique et celui du langage partagent certains réseaux neuronaux, et que le premier requiert une précision plus importante et des demandes attentionnelles plus élevées que le second, car il fait aussi intervenir des processus émotionnels et attentionnels, ainsi que des répétitions.

La musique se retrouve donc dans une position privilégiée pour participer à la réhabilitation des troubles du langage. En plus des raisons évoquées, la musique peut se pratiquer en groupes et pas seulement en séances individuelles, comme c'est souvent le cas pour la rééducation orthophonique. Or travailler en groupes renforce l'aspect ludique et émotionnellement positif de la rééducation. De surcroît, chez le jeune enfant (âgé de deux à trois ans), une activité musicale réalisée dans un contexte social et d'imitation améliore les compétences de synchronisation, qui sont aussi nécessaires dans le traitement de la parole davantage qu'avec un programme sans partenaire, un programme d'entraînement sur ordinateur, par exemple.

Pratiquée en groupes, la musique stimule les systèmes sensoriels et cognitifs, et implique aussi le corps, les émotions et les intentions, qui s'influencent et s'enrichissent dans un processus dynamique complexe. Cela sollicite l'audition, la motricité et le couplage entre les deux, ainsi que des mécanismes d'anticipation, de prédiction et de préparation, compétences qui facilitent l'acquisition des représentations multisensorielles de la parole. En d'autres termes, faire de la musique dans un contexte social nous permet de mieux anticiper à chaque instant les événements à venir. Comme les exemples que nous allons développer le suggèrent, le rythme est le paramètre qui a le plus d'importance dans l'utilisation de la musique pour la rééducation. Examinons donc pourquoi une activité rythmique semble appropriée à la prise en charge de divers troubles du langage.

La musique peut être efficace dans la prise en charge des personnes victimes d'un accident vasculaire cérébral, qui présentent souvent, après leur accident, des troubles de la parole et de troubles moteurs. L'aphasie, ou perte de la parole, peut être plus ou moins importante. Pour la rééducation du langage, plusieurs approches ont été proposées, par exemple la thérapie d'intonation mélodique (Melodic Intonation Therapy). Cette méthode est assez souvent utilisée, surtout en Amérique du Nord, pour des personnes aphasiques ayant une importante lésion de l'hémisphère gauche et présentant une importante aphasie.

Le rythme pour rendre la parole

La thérapie d'intonation mélodique a été développée à partir de l'observation de personnes aphasiques présentant une énonciation hachée (ces patients sont dits aphasiques non fluents) et qui peuvent produire correctement des mots en les chantant. Cette thérapie utilise des modèles chantés (dits patrons intonatifs chantés) qui exagèrent la musicalité de la parole (l'intonation) : la prosodie de la parole est traduite en mélodies de deux notes, la plus aiguë représentant la syllabe accentuée. Le patient commence par chanter des mots ou des syntagmes à deux syllabes. Quand ce niveau est maîtrisé, il passe à un niveau plus complexe, par exemple à des phrases plus longues.

En plus du chant, la thérapie d'intonation mélodique utilise aussi le rythme : le patient tape avec sa main gauche (commandée par l'hémisphère droit), par exemple sur une table, à chaque syllabe. La méthode faciliterait la production de la parole grâce à une implication plus importante de l'hémisphère droit dans l'articulation de la parole. Cet hémisphère est sollicité par la mélodie, la production relativement lente des syllabes (une syllabe par seconde) et les mouvements de la main gauche. Une étude récente suggère que la composante rythmique joue un rôle crucial dans la récupération des fonctions langagières. Les auteurs de l'étude ont comparé les effets respectifs de la mélodie et du rythme chez des sujets aphasiques non fluents, et montré que le rythme serait le paramètre essentiel dans la rééducation, en particulier pour les personnes présentant des lésions sous-corticales (localisées notamment dans les ganglions de la base).

Il est intéressant de mentionner également que l'équipe de Gottfried Schlaug à Boston a commencé à développer une méthodologie inspirée de la thérapie d'intonation mélodique, afin de proposer des programmes d'entraînement du langage à une population d'enfants autistes.

Dyslexie et dysphasie aussi

Certaines recherches récentes ont montré que les enfants présentant des troubles développementaux du langage, telles qu'une dyslexie (difficultés d'écriture et de lecture) ou dysphasie (troubles du langage) présentent parfois aussi des difficultés de traitement des aspects temporels d'un signal auditif, notamment le rythme et la métrique dans un matériel musical. On suppose que ces déficits rythmiques perturbent le traitement de certains indices acoustiques de la parole, tels que le voisement nécessaire à distinguer un [ba] d'un [pa] (les sons voisés dépendent de la position des lèvres et non de la vibration des cordes vocales, ce qui est le cas des sons non voisés). En outre, les indices permettant par exemple d'extraire des syllabes et des mots d'un flot de paroles sont mal utilisés.

Plusieurs chercheurs ont alors émis l'hypothèse selon laquelle le déficit de la lecture observé chez les dyslexiques serait dû à une anomalie du traitement temporel, notamment dû à un système perceptif fonctionnant avec une résolution temporelle trop faible pour traiter précisément l'information langagière. Compte tenu, d'une part, des déficits du traitement du langage et des aspects temporels musicaux chez ces enfants et, d'autre part, des recherches sur l'influence de l'attention rythmique et du traitement temporel, les chercheurs ont postulé qu'un entraînement musical et notamment une stimulation rythmique auraient des effets bénéfiques pour le traitement du langage.

Katie Overy de l'Université d'Édimbourg a été la première à proposer un programme d'entraînement musical rythmique à des enfants dyslexiques. Bien que l'étude ait été réalisée sur un petit échantillon d'enfants, elle a révélé une amélioration des performances phonologiques connues pour être déficitaires chez l'enfant dyslexique. Dans une étude clinique multicentrique récente coordonnée par Elena Flaugnacco à Trieste, des enfants dyslexiques ont suivi un entraînement musical pendant un an, et leurs performances ont été comparées à celles d'un groupe contrôle ayant suivi une activité d'arts plastiques. Les performances du groupe « musical » sont meilleures en termes de compétences phonologiques, le rythme jouant un rôle prépondérant dans cette rééducation. Les différents résultats obtenus sont encourageants pour les enfants dyslexiques ou dysphasiques qui discriminent difficilement les phonèmes, et segmentent mal les mots dans la parole et lors de la lecture.

En plus de l'entraînement musical à long terme, un bénéfice de la musique se manifeste aussi à très court terme, notamment via une stimulation rythmique qui précède directement la présentation du langage. Cette stimulation a un effet bénéfique sur le traitement syntaxique des enfants présentant des troubles développementaux du langage, notamment les enfants dyslexiques et dysphasiques. Un extrait musical avec une structure temporelle soit régulière soit irrégulière était suivi par des phrases (présentées oralement) dont les enfants devaient dire si elles étaient grammaticalement correctes ou non. Les performances étaient meilleures après les extraits à structure régulière. La rythmicité de l'amorce musicale semble donc influencer le traitement de l'information langagière, et cet effet perdure au-delà de la durée de l'extrait musical, probablement grâce à un couplage entre le stimulus musical et des réponses neuronales qui modifient l'attention temporelle. Tous les résultats obtenus sont encourageants, et davantage d'études sur l'influence d'une stimulation rythmique sur le traitement du langage devraient être réalisées, surtout pour la prise en charge des enfants dyslexiques.

Les troubles du langage associés à la surdité

Nous terminerons par la surdité, un handicap sensoriel avec une prévalence de 1 pour 1000 naissances, se manifestant par un déficit langagier (phonologique, lexical, syntaxique, discursif et prosodique). Le travail classique dans la prise en charge de ce handicap est réalisé par les orthophonistes qui tentent de restaurer les éléments du langage absents, et ce afin de favoriser l'intégration scolaire et sociale du sujet. Toutefois, les profils langagiers et les capacités d'intégration de ces enfants après rééducation orthophonique restent hétérogènes.

La déprivation sensorielle révèle d'abord un déficit langagier, mais elle engendre en réalité différents troubles d'origine centrale, souvent liés à une difficulté de traitement temporel : en l'absence de stimulation auditive, les capacités de traitement séquentiel des données perceptives se développent difficilement. Les enfants atteints de surdité perçoivent mal le déroulement temporel et, par conséquent, maîtrisent mal les aspects du langage qui lui sont reliés, et les aspects temporels liés à la capacité de prédire et d'anticiper les événements multisensoriels.

Les liens de succession, de cause à effet, de structuration ou d'organisation qui se réalisent de façon implicite chez l'enfant entendant, se mettent en place tardivement et de manière grossière chez l'enfant sourd. Ces enfants n'arrivent pas à utiliser précisément ce qui a trait au traitement du temps, à sa structuration et à son organisation. Il apparaît donc primordial, en termes de prise en charge, de favoriser l'acquisition des processus cognitifs temporels, et l'entraînement musical est pour cela un outil de choix. La stimulation musicale a longtemps été considérée comme inappropriée pour des personnes souffrant de surdité. Du fait de leur déficience auditive, l'accès à la musique ne leur était jamais proposé partant du postulat qu'elle serait très peu perçue et de façon distordue.

Pourtant, un projet de recherche récent, réalisé par Emmanuel Bigand et ses collègues, de l'Université de Bourgogne, propose un programme d'entraînement auditif à des enfants malentendants en utilisant des sons musicaux ainsi que des sons de l'environnement et des voix. Le programme propose un jeu combinant des sons et des gestes pour stimuler des opérations cognitives fondamentales dans la perception auditive, telles que la discrimination des sons, leur identification ou la mémoire auditive. Après quelques mois d'entraînement, non seulement les enfants sont meilleurs dans les tâches du jeu sur lesquelles ils s'étaient entraînés, mais ils discriminent aussi mieux les stimulus phonétiques, et leur production vocale est améliorée.

L'amorçage rythmique

Récemment, nous nous sommes intéressés au lien entre structures rythmiques dans la musique et dans la parole, afin de déterminer si la perception et la production de la parole peuvent bénéficier d'un amorçage rythmique (on commence par présenter un rythme musical et on voit si cette amorce améliore la perception des structures temporelles de la parole). Nous avons montré que chez des sujets qui entendent normalement, le traitement phonologique des mots et des phrases est renforcé lorsque la parole est conforme aux prédictions temporelles des auditeurs, mais aussi que l'amorçage rythmique peut améliorer la perception et la production phonologique chez les enfants malentendants. Lorsqu'une phrase (parlée) est précédée par un rythme musical qui lui ressemble, les enfants arrivent à reproduire bien plus précisément les sons et les mots contenus dans la phrase.

Étant donné les résultats très prometteurs obtenus lors de cette étude avec un simple amorçage rythmique, c'est-à-dire sur une échelle de temps très courte, nous pensons qu'un entraînement musical sensori-moteur, ludique, réalisé en groupes et sur le long terme est une approche thérapeutique adaptée à la prise en charge de la surdité pour l'amélioration de la perception et de la production du langage. Ainsi, la musique redonne la parole aux personnes qui entendent bien, mais présentent des troubles du langage, même importants, et aux personnes qui entendent mal !

Daniele Schon, Céline Hidalgo, Barbara Tillmann

Le bilinguisme sculpte le cerveau

 

Des recherches récentes montrent que l’acquisition précoce de plusieurs langues étrangères a des répercussions sur la structuration du cerveau.

La recherche des spécificités du « cerveau bilingue » est un thème attractif et médiatique. Il suffit d’évoquer les nombreuses questions qui surgissent à ce propos : comment le cerveau peut-il accueillir plusieurs langues ? Le cerveau bilingue est-il différent du cerveau monolingue ? Comment le cerveau change-t-il sous l’influence de l’apprentissage d’une deuxième ou de plusieurs autres langues ? Les études neurocognitives récentes, en relation avec les travaux sur la perception, la mémoire et l’attention, ont démontré une neuroplasticité permanente du cerveau adulte dans l’apprentissage du langage qui n’aurait pu être imaginée il y a quelques années. le développement des neurosciences cognitives depuis les années 1990, et l’utilisation des méthodes de neuroimagerie qui progressent très rapidement ont révélé une organisation plus complexe et plus distribuée des fonctions langagières dans le cerveau.

Parmi les différentes méthodes d’imagerie cérébrale, deux sont particulièrement utilisées : l’imagerie fonctionnelle par résonance magnétique (IRMf), qui se fonde sur les variations du flux sanguin au sein des différentes aires cérébrales, et l’analyse électrique du cerveau par le recueil de différentes ondes, les potentiels évoqués (PE) enregistrés à la surface du scalp grâce à des électrodes

La question centrale des recherches en imagerie (IRMf) est de savoir si le traitement du langage natif (L1) et de la langue seconde (L2) implique ou non les mêmes systèmes cérébraux. L’une des recherches princeps est celle de Karl Kim  (1), centrée sur le rôle de l’âge d’acquisition. Deux groupes de bilingues sont comparés : bilingues précoces ayant acquis les deux langues dans la petite enfance, et bilingues tardifs exposés à une seconde langue à l’entrée dans l’âge adulte. Chez les bilingues précoces, les deux langues donnent lieu à des activations dans la même région de l’aire de Broca alors que chez les bilingues tardifs, L1 et L2 ont activé des régions voisines, mais différentes. Ces résultats ont conduit les auteurs à conclure que l’âge d’acquisition affecte l’organisation fonctionnelle du langage dans le cerveau, en particulier l’aire de Broca.

Récemment, d’autres travaux sont arrivés à des conclusions différentes, cette fois en se centrant sur le niveau de maîtrise d’une seconde langue (et non plus sur l’âge d’acquisition). Selon Arturo Hernandez et Ping Li  (2), les sujets ayant une maîtrise élevée de leur bilinguisme activent les mêmes zones cérébrales quelle que soit la langue qu’ils parlent ou écoutent. Au contraire, ceux qui maîtrisent moins bien la seconde langue activent des zones différentes, et ce davantage en compréhension qu’en production.

Quelques recherches très nouvelles s’intéressent au degré de similitude entre les langues du bilingue, en particulier dans la morphologie. Dans une synthèse récente  (3), certains chercheurs concluent que les aires activées sont les mêmes lorsqu’il y a similarité entre les langues, .

Du point de vue fonctionnel, une découverte fondamentale réside dans le fait que les deux langues sont constamment activées et disponibles. Pour prévenir les interférences, des activités de contrôle exécutif (inhibition, attention sélective, rapidité de changement) sont nécessaires et assurées par un réseau de structures impliquant le cortex préfrontal. Ce réseau est mis en place très précocement chez les bilingues simultanés.

Changements structuraux

L’expérience bilingue a donc un impact sur les structures anatomiques du cerveau. Toute la question est alors de savoir quels en sont les effets. Être bilingue aide-t-il à mieux apprendre, mieux mémoriser, mieux se concentrer, voire à mieux penser ? Ou au contraire cela ralentit-il certaines acquisitions ?

Des travaux récents d’Ellen Bialystok et ses collègues  (4) ont montré l’avantage des bilingues dans le contrôle exécutif (planifier, passer d’une tâche à l’autre ou en mener plusieurs de front…). Les bilingues âgés de 5 à 9 ans réussissent mieux que les monolingues dans les tâches métalinguistiques où il faut décider que la grammaire est correcte en dépit d’une absence de sens de la phrase, ce qui est difficile à cet âge où le sens est un puissant attracteur. De nombreuses tâches cognitives impliquant des indices conflictuels ou des changements de règle d’un essai à l’autre, sont maîtrisées plus précocement par les enfants bilingues que par les monolingues.

Le bilinguisme a en outre des effets neurocognitifs tout au long de la vie, contribuant à contrecarrer le déclin du volume de la matière grise au cours du vieillissement. Une recherche a montré que bilinguisme retarde de quatre à cinq ans l’apparition des symptômes de la maladie d’Alzheimer. L’hypothèse serait que l’expérience bilingue prolongée maintiendrait l’intégrité de la matière blanche notamment dans le corps calleux et une connectivité fonctionnelle plus distribuée dans les régions frontales que chez les monolingues. Les mécanismes neuronaux qui sous-tendent cette protection sont encore largement méconnus de même que l’on ignore si la pratique de plusieurs langues pourrait accroître cette protection.

En conclusion, l’étude de la neuroplasticité en fonction de l’acquisition bilingue prône en faveur d’un enseignement précoce des langues, en même temps qu’elle fournit une fenêtre sur le caractère adaptatif du cerveau humain et de la cognition.

Stimuler son intelligence grâce aux langues

Et s’il suffisait de travailler son anglais pour gagner de la matière grise ? C’est ce que suggère une étude récente publiée dans le Journal of Neuroscience  (5). Les chercheurs ont fait suivre un entraînement du vocabulaire anglais pendant seize semaines auprès d’enfants japonais qui ont commencé l’apprentissage de l’anglais à 11ans. Après l’entraînement, les apprenants montrent une augmentation de la densité de la matière grise et de la substance blanche dans le gyrus frontal inférieur droit. Un suivi scan un an après montre que la densité de la matière grise est revenue au niveau préentraînement chez les bilingues qui n’ont pas poursuivi l’apprentissage, mais continue à augmenter chez ceux qui ont exercé leur vocabulaire. . Cette plasticité nous renvoit à l’aphorisme « use it or lose it » (« on s’en sert ou on le perd »). C’est pourquoi les musiciens et les athlètes s’entraînent ! Consciemment ou inconsciemment, le cerveau bilingue doit constamment choisir. Il semble bien que ce soit une chance.

Michèle Kail
 
1. Karl Kim et al., « Distinct cortical areas associated with native and second languages »,Nature, vol. CCCLXXXVIII, 1997.
 
2. Arturo Hernandez et Ping Li, « Age of acquisition. Its neural and computational mechanisms », Psychological Bulletin, vol. CXXXIII, n° 4, 2007.

3. Leida Tolentino et Natasha Tokowicz, « Across languages, space and time », Studies in Second Language Acquisition, vol. XXXIII, n° 1, février 2011.

4. Ellen Bialystok, « Bilingualism. The good, the bad and the indifferent », Bilingualism. Language and cognition, vol. XII, n° 1, janvier 2009.

5. Chihiro Hosoda et al., « Dynamic neural network reorganisation associated with second language vocabulary acquisition. A multimodal imaging study », Journal of Neuroscience, vol. XXXIII, n° 34, 21 août 2013.
 

Comment la connaissance du cerveau permet-elle de mieux enseigner ?

Steve Masson

 

https://vimeo.com/130961300

 

Plaidoyer pour la neuro-éducation

Quand les neuro-sciences rencontrent l'éducation

Les grands principes de l'apprentissage

Le latin, discipline de l’esprit . Nos élèves doivent savoir s’abstraire

 

Dès lors qu’on s’en prend au latin, à l’allemand (langues à déclinaisons), qu’on affaiblit ou qu’on dilue ces enseignements, on s’en prend à la grammaire mais aussi aux fonctions cognitives : à l’analyse et à la synthèse, à la logique, à la mémoire pourtant si nécessaire, à l’attention.

latin école Education nationale

« Le grammairien qui une fois la première ouvrit la grammaire latine sur la déclinaison de “Rosa, Rosae” n’a jamais su sur quels parterres de fleurs il ouvrait l’âme de l’enfant. »

Péguy, L’Argent, 1913

 

 

 On s’en prend à la computation sémantique et symbolique, au calcul (exactement comme on parle de calcul des variantes aux échecs), à la concentration. On s’en prend donc indirectement à la vigilance intellectuelle et à l’esprit critique.

« L’âme intellective » qu’Aristote plaçait au dessus de « l’âme animale », elle-même supérieure à « l’âme végétative » : voilà désormais l’ennemi.

Mais le pédagogisme a déclaré la guerre à cette âme. Il est un obscurantisme qui travaille à humilier l’intelligence cartésienne, présumée élitiste : il est un mépris de la mathématique et de la vérité, il sape le pari fondateur de l’instruction de tous, il nie les talents et la diversité, fabrique de l’homogène ou de l’homogénéisable. Il mixe et il broie, il ne veut rien voir qui dépasse. Il est d’essence sectaire et totalitaire. Il est un ethnocentrisme du présent  comme le souligne Alain Finkielkraut : « Ce qu’on appelle glorieusement l’ouverture sur la vie n’est rien d’autre que la fermeture du présent sur lui même. »  Il utilise à ses fins la violence d’une scolastique absconse,  jargon faussement technique destiné à exercer un contrôle gestionnaire. Le novmonde scolaire exige en effet sa novlangue. Activement promue par nos managers, elle est loin d’être anodine : elle montre l’idée que ces gens se font de ce qu’est la fonction première du langage : une machine à embobiner et à prévenir le crime par la pensée claire.

L’URSS, à qui ont peut faire bien des reproches, eut au moins cette idée géniale, à un moment, de faire faire des échecs à tout le monde ! Quel plaisir pour beaucoup d’enfants, quelle passion dévorante qui vit éclore tellement de talents. De très grands joueurs vinrent des profondeurs du petit peuple russe : c’est cela aussi ce que Vilar appelait l’élitisme pour tous, utopie pour laquelle je militerai sans trêve ! Si j’avais la tâche d’apprendre les échecs à mes élèves, je ne leur ferais pas tourner des pièces en buis avec une fraise à bois dans le cadre d’un EPI (enseignement pratique interdisciplinaire) ! Je leur apprendrais, pour leur plus grand bonheur, le déplacement des pièces, les éléments de stratégie et de tactique ! je les ferais JOUER : Je ne pars pas du principe désolant, pour filer mon analogie, que ce noble jeu est réservé à une élite, aux happy few, tout simplement parce que c’est faux ! Je ne pars pas du principe également faux que ce jeu est ennuyeux !

Le plaisir de décortiquer une phrase latine est unique : c’est un plaisir de l’intelligence et de la volonté, une algèbre sémantique avec ses règles, comme les échecs. On perce à jour une phrase de latin comme Œdipe résout l’énigme du Sphinx. Tout le monde devrait pouvoir y parvenir. Construire une maquette de Rome avec le professeur d’histoire ou un habit de gladiateur avec celui d’arts plastiques… ne relève pas du même plaisir ! Je pense que ce qui ressortit au périscolaire, même astucieux, ne doit plus empiéter sur le scolaire.

Mais la logique, aujourd’hui, est attaquée et l’Instruction avec elle. Des dispositifs « interdisciplinaires » nébuleux proposant des « activités » bas de gamme et souvent franchement ridicules, viennent jeter le discrédit sur les disciplines et dévorer leurs heures. Comme si des élèves qui ne possèdent pas les fondamentaux allaient magiquement se les approprier en « autonomie » en faisant n'importe quoiPauvre Edgar Morin ! La complexité devient… le chaos et la transmission, le Do it yourself. Portés par une logorrhée toxique produite en circuit industriel fermé, des « concepts » tristement inspirés du management portent la fumée et même la nuit dans les consciences. La « langue » des instructions officielles donnerait un haut-le-cœur à tous les amoureux du français : on nage dans des « milieux aquatiques standardisés », on finalise des « séquences didactiques », on travaille sur des « objectifs » (de production), on valide des « compétences » (Traité de Lisbonne), on doit « socler » son cours, donner dans le « spiralaire » et le « curriculaire », prévoir des « cartographies mentales ». Voilà à quoi devrait s’épuiser l’intelligence du professeur. Voilà où son désir d’enseigner devrait trouver à s’abreuver. Cela ne fait désormais plus rire personne… En compliquant la tâche du professeur, on complique aussi celle de l’élève. On plaque une complexité didactique artificieuse et vaine sur la seule complexité qui vaille : celle de l’objet littéraire, linguistique, scientifique, qui seul devrait mobiliser les ressources de l’intelligence.

Dans les années 2000, déjà, le grand professeur Henri Mitterand, spécialiste de Zola,  appelait le quarteron d’experts médiocres qui s’appliquaient et s’appliquent encore  à la destruction de l’école républicaine, les « obsédés de l’objectif » ! Depuis, ils sont passés aux « compétences » et noyautent toujours l’Institution : rien ne les arrête dans leur folie scientologico-technocratico-égalitaro-thanatophile. Finalement ces idéologues fiévreux ne travaillent pas pour l’égalité (vœu pieu) mais pour Nike, Google, Microsoft, Coca-Cola, Amazon, Bouygues, etc. Toutes les multinationales de l’entairtainment, de la bouffe, des fringues, de la musique de masse, disent en effet merci à la fin de l’école qui instruit : ce sont autant de cerveaux vierges et disponibles pour inscrire leurs injonctions publicitaires. Bon, il est vrai que nos experts travaillent aussi pour Bercy : l’offre publique d’éducation est à la baisse, il faut bien trouver des « pédagogies », si possible anti-élitistes et ultra démocratiques, pour justifier ou occulter ce désinvestissement de l’État et faire des économies.

Après trente ans de dégâts, il serait temps de remercier les croque-morts industrieux de la technostructure de l’E.N. qui travaillent nuit et jours à faire sortir l’école du paradigme instructionniste à coup de « réformes » macabres. Des experts pleins de ressentiment, capables de dégoûter pour toujours de la littérature (bourgeoise !) et de la science (discriminante !) des générations d’élèves ! Des raboteurs de talents qui, et c’est inédit, attaquent à présent, en son essence même, l’exercice souverain de l’intelligence : les gammes de l’esprit ! Ils n’ont toujours pas compris que l’élève joue à travailler et que l’art souriant du maître consiste à exalter ce jeu.Plus que jamais aujourd’hui, nos élèves ont besoin, avec l’appui des nouvelles technologies s’il le faut, mais pas toujours, de disciplines de l’esprit qui fassent appel à toutes les facultés mentales. Ils doivent décliner, conjuguer, mémoriser, raisonner, s’abstraire. Ils doivent apprendre la rigueur, la concentration et l’effort : toutes choses qu’un cours transformé en  goûter McDo interdisciplinaire ne permet guère. Ils ont besoin d’horaires disciplinaires substantiels à effectifs réduits, de professeurs passionnés et bien formés et non d’animateurs polyvalents : la réforme du collège prend exactement le chemin inverse.

Quant à moi, dans l’œil de tous mes élèves, je la vois, oui, l’étincelle du joueur d’échecs potentiel, du latiniste en herbe qui s’ignore, du musicien ou du grammairien, du germaniste, de l’helléniste en herbe qui veut aussi faire ses gammes pour pouvoir s’évader dans la maîtrise. Déposer dans la mémoire d’un élève de ZEP, pour toujours, le poème fascinant et exotique de l’alphabet grec. Peu me chaut qu’on ne devienne pas Mozart ou Bobby Fischer ou Champollion, c’est cette étincelle ou cette lueur qu’il me plaît de voir grandir. L’innovation en passera désormais par une ré-institution de l’école et une réaffirmation de ses valeurs. Il faut participer à la reconstruction d’une véritable culture scolaire, où l’élève apprenne à conquérir sa propre humanité. Au lieu de moraliser, il faut instruire ! Au lieu d’abandonner l’élève il faut le guider.

Par la pratique assidue des langues, la lecture des grands textes, il faut maintenir les intelligences en état d’alerte maximum au lieu de baisser pavillon et de glisser plus avant dans l’entonnoir de la médiocrité en prêchant un catéchisme citoyen bas de gamme à usage commun. Il ne s’agissait pas pour Condorcet et les autres de fabriquer du citoyen pacifié, docile, lénifié, mais bien de porter partout la connaissance, l’esprit de doute méthodique, l’esprit scientifique, la fin des préjugés ! Dans le même mouvement, qu’on en finisse avec cette espèce de maximalisme égalitaire qu’on dirait inspiré de doux idéologues cambodgiens génocidaires. Comme l’a montré Ricœur en son livre sur l’histoire (La mémoire, l’histoire, l’oubli) une société dépense une grande violence pour ramener à chaque instant une position d’équilibre (égalité/normalité) quand il y a un déséquilibre (inégalité/anormalité). A grande échelle, cette violence peut s’avérer meurtrière et criminelle. Relisons notamment Hannah Arendt sur les questions d’éducation et sur l’analyse du totalitarisme. L’égalité ne saurait être l’égalisation, elle doit être l’égalité des chances : chacun a le droit de réussir autant qu’il le peut et autant qu'il le mérite.

Pour un pouvoir politique, quel qu’il soit, c’est prendre un grand risque d’émanciper le peuple, de le rendre autonome. L’école des « compétence » et de « l’employabilité » qu’une poignée de réformateurs nous impose est une école du brouillage et de l’enfumage des esprits, de l’asservissement du prof-exécutant et des élèves « apprenants ». En attaquant le latin, elle s’en prend de façon larvée non pas à un ornement scolaire, mais à sa substance même : la gymnastique de l’esprit.

Si, comme le pensait Valéry, la politique est l’art d’empêcher les gens de se mêler de ce qui les regarde, on comprend mieux que l’école programme désormais l’impuissance intellectuelle et l’art d’apprendre à ignorer.

Antoine Desjardins

La science de la peur

La foi contre la culture

 

Les phénomènes religieux qui se développent aujourd’hui ne sont pas un « retour » aux identités traditionnelles. Au contraire, ils impliquent une quête de pureté religieuse, qui les pousse à désolidariser la foi de la culture.

Vous contestez l’idée communément admise d’un « retour du religieux » et préférez parler d’une « mutation » de la religion. Pourquoi ?

Pour deux raisons. La première est que l’idée d’une augmentation généralisée de la pratique religieuse doit être sérieusement nuancée. Dans tout l’espace occidental, y compris donc les États-Unis, la pratique diminue, alors que l’on n’a jamais autant parlé de l’influence de la religion sur la politique. La « religion » qui fait le plus grand nombre d’adeptes aux États-Unis depuis vingt ans est… l’athéisme (les gens se déclarant non croyants passent de 7 à 13 % de la population entre 1990 et 2003) ; en Europe, la pratique a continué de baisser entre 1980 et 2000 et cette chute touche des bastions catholiques comme l’Irlande et l’Espagne (où le nombre de foyers fiscaux qui acceptent le prélèvement de l’impôt religieux passe de 42 à 34 % de 1993 à 2002). 

D’autre part, les religions qui réussissent aujourd’hui ne sont pas les religions traditionnelles, mais des formes nouvelles. Il n’y a pas retour, mais mutation du religieux. Les évangélismes protestants contemporains s’enracinent dans les réveils des XVIIIe et XIXe siècles, les mouvements Haredim et Hassidim juifs datent du XVIIIe siècle ; le salafisme est dans la filiation du wahhabisme, fondé lui aussi à la fin du XVIIIe siècle. Le renouveau catholique se fait sous la forme soit d’un charismatisme emprunté aux protestants, soit de la tradition « tridentine » qui date de la fin du XVIe siècle. Témoins de Jéhovah et mormons, deux mouvements particulièrement prosélytes, datent du XIXe siècle. Enfin, les NMR (nouveaux mouvements religieux) sont encore plus récents : le zen, la méditation transcendantale, les formes de néobouddhisme, etc. Même ce que l’on appelle le réveil de l’hindouisme se fait autour d’une pseudotradition, réinventée, unifiée, normalisée et… politisée.

 

Comment caractérisez-vous ces nouveaux mouvements, selon vous centrés sur le « pur religieux » ?

La première chose qui les caractérise, c’est leur indifférence ou leur hostilité à la notion de culture. Ils voient la culture comme au mieux profane, au pire païenne. Ils pensent qu’elle n’a rien à apporter, sinon une dégradation du « pur » message religieux. Tous les mouvements fondamentalistes contemporains se construisent comme purement « religieux », comme des communautés de foi minoritaires, distinctes de la société séculière. D’où leur grande visibilité, que l’on confond avec un « retour » : on exhibe la croix ou le voile.

Mais ce détachement d’avec la culture, ce que j’appelle la déconnexion entre marqueurs culturels et marqueurs religieux, leur offre une capacité remarquable de s’adapter à la mondialisation, comme l’illustrent les fast-foods hallal ou casher. Car la mondialisation est un marché qui suppose que les produits, pour circuler et être consommés, doivent apparaître comme universaux, détachés de toute culture particulière. Si bien que les religions déculturées (comme l’évangélisme ou le salafisme) s’exportent aisément alors que celles qui sont profondément liées à une culture donnée (orthodoxie chrétienne, islam traditionnel, mais aussi catholicisme) ont du mal à s’exporter. La déculturation, c’est donc aussi la déterritorialisation, ce qui explique entre autres la spécificité des phénomènes de conversion aujourd’hui : elles sont à la fois individuelles et massives.

 

Qu’est-ce que la « sainte ignorance » ?

Ce que je nomme la sainte ignorance, c’est d’abord une déculturation valorisée qui peut tourner en anti-intellectualisme. Selon ce type de doctrines, le salut peut être atteint sans la médiation d’un savoir discursif, d’un apprentissage : la foi est une rencontre, elle suppose la présence directe du divin, dans une fusion émotionnelle. La théologie est réduite à une profession de foi minimaliste et à un code de comportements. Selon cette conception de la religion, l’émotion remplace la raison. Le savoir intellectuel est donc perçu avec une certaine méfiance. C’est la fin de l’alliance entre foi et raison.

Un exemple emblématique réside selon moi dans le pentecôtisme, qui pratique la « glossolalie » : le croyant est censé prêcher dans une langue qu’il ne connaît pas, mais cela n’est que l’émission de sons sans rapport avec aucune langue existante. La parole de Dieu passe ainsi en dehors du vecteur même de la culture, à savoir la langue. C’est donc une valorisation de l’ignorance au nom de la foi.

Propos recueillis par Régis Meyran

 

Entretien avec Olivier Roy ("la Sainte Ignorance")

 

Soumission à l autorité - expérience de Milgram

La mémoire traumatique

« Je n’existe pas! » : quand on se croit mort

Croire en la vie après la mort

L'intelligence repousse la mort

 

L'intelligence modifie la longévité de bien des façons... plutôt surprenantes.

 

 
 
 
 

 

  

Benjamin Franklin écrivit : « En ce monde, rien n'est certain, sauf la mort et les impôts. » Si certaines personnes arrivent mieux que d'autres à esquiver l'inévitable, la mort l'emporte toujours. Néanmoins, certains se blessent ou sont malades plus souvent que d'autres, de sorte que nous n'avons pas tous le même état de santé... ni la même durée de vie. La génétique et le hasard jouent un rôle important. Mais si nous comprenions pourquoi certaines personnes vivent plus longtemps que d'autres, nous pourrions réduire ces différences. Lorsque les épidémiologistes et les médecins découvrent un style de vie ou un facteur biologique qui augmente la durée de vie, en bonne santé, ils conçoivent des programmes pour améliorer l'état de santé de la population générale.

On sait que certaines habitudes, tel le tabagisme, sont néfastes pour la santé, mais on ignore en général pourquoi elles affectent la longévité de façon si différente. En fait, chaque individu naît avec un patrimoine génétique et dans des conditions environnementales uniques, et fait ensuite des choix qui ont un impact sur sa santé. Aucune étude scientifique ne peut prendre en compte tous les facteurs.

Ces dernières années, nous avons étudié, avec d'autres psychologues et épidémiologistes, les facteurs influant sur la santé et la mort. Nous travaillons avec des études qui ont duré plusieurs décennies, où l'état de santé de centaines, de milliers, voire de millions, d'individus a été évalué régulièrement. En analysant ces données, les spécialistes du domaine ont découvert un nouvel indicateur prédictif de la longévité : les scores obtenus aux tests d'intelligence réalisés avant l'âge adulte.

Les résultats sont sans équivoque, bien que peu de professionnels de santé les connaissent. Plus une personne a un faible score d'intelligence, plus elle risque de mourir jeune, de développer des maladies, physiques ou mentales, de décéder d'une maladie cardio-vasculaire ou d'un accident, ou encore de se

suicider. Encore plus surprenant : des scores faibles sont de bons indicateurs prédictifs de plusieurs facteurs de risques, telles l'obésité et l'hypertension artérielle.

Ce facteur inattendu de la longévité est-il fiable ? Nous avons exploré si des facteurs autres que l'intelligence, par exemple le statut socio-économique des individus, leur éducation et leur emploi, pouvaient expliquer ces résultats. En effet, les scientifiques ont déjà montré que les personnes les moins éduquées, exerçant des professions manuelles plutôt qu'intellectuelles, ou ayant des revenus plus faibles contractent davantage de maladies et meurent souvent plus jeunes.

Par exemple, on pourrait imaginer que les jeunes plus intelligents font des études plus longues, sont mieux informés des risques sanitaires, et vivent donc plus longtemps. En effet, quand on réalise, sur de larges populations, des études de corrélation entre deux facteurs, ici l'intelligence et la santé, il est nécessaire de prendre en compte les caractéristiques des sujets qui peuvent être associées à l'état de santé, telles que l'éducation, le statut socio-économique, les revenus professionnels et le niveau d'études par exemple. On nomme ces paramètres des facteurs de confusion (voir l'encadré page 61).

Ainsi, si nous prenons en compte, dans les analyses, le niveau d'études des individus, la corrélation entre l'intelligence et la santé diminue. Mais quand nous considérons les différents facteurs de confusion séparément, notre observation reste valable : l'intelligence d'une personne est liée à son état de santé. Si nous pouvions préciser le rôle de l'intelligence dans les inégalités de santé, nous trouverions peut-être comment améliorer le bien-être de la société. L'objectif de ce type de recherches, dites d'épidémiologie cognitive, est de diminuer les inégalités sociales en matière de santé. Les épidémiologistes souhaitent aider les personnes à vivre en meilleure santé, indépendamment de leur performance aux tests d'intelligence.

Pendant plus d'un siècle, les psychologues se sont demandé si l'intelligence se définissait par de nombreuses aptitudes distinctes, ou si elle était au contraire une caractéristique unique s'exprimant à des degrés divers selon les individus.

Nous connaissons tous des personnes ayant des « forces » et des « faiblesses » cognitives. Par exemple, certaines présentent une fluidité verbale limitée, mais résolvent facilement des problèmes mathématiques. Ou au contraire, elles excellent dans ces deux tâches, mais ne peuvent vaincre leur stress en public, par exemple.

De multiples intelligences

En 1904, le psychologue britannique Charles Spearman (1863-1945) a découvert que les personnes ayant de bonnes performances à un type de tâche cognitive réussissent en général bien aux autres. Spearman nomma cette corrélation le facteur d'intelligence générale, ou facteur G. De nombreuses études utilisant de multiples tests ont confirmé ce résultat.

Mais l'intelligence humaine ne se résume pas au seul facteur G. Bien que ce dernier explique la majorité des différences de performances cognitives, le cerveau recrute plusieurs aptitudes pour effectuer une tâche donnée. Chaque individu présente trois types de capacités : l'intelligence générale, des caractéristiques cognitives, par exemple le raisonnement et la mémoire, et des aptitudes spécifiques, telle la vitesse de traitement de l'information. L'idée d'intelligence générale est correcte, mais ce n'est pas la clef d'une intelligence supérieure.

Toutefois, en ce qui concerne la santé, le facteur G est la caractéristique associée à l'intelligence. Le score d'intelligence générale reste stable tout au long de la vie. Et il a l'avantage de prévoir la réussite dans de nombreux domaines, tels que le niveau d'études, l'emploi, la vie sociale et la prise quotidienne de décisions. Dans une large étude concernant plusieurs dizaines de milliers de participants en Angleterre, l'intelligence à l'âge de 11 ans prévoyait bien la performance aux examens cinq ans plus tard. La mobilité sociale et le revenu étaient aussi liés au facteur G.

Au cours d'une vie, le cerveau humain fonctionne généralement sans heurt : il traite les informations sensorielles, gère les interactions sociales et réagit de façon appropriée aux aléas de la vie. Toutefois, environ une personne sur trois souffre d'une maladie mentale et des dizaines d'études soulignent qu'une intelligence « faible » est associée au risque de développer une telle maladie. En Grande-Bretagne, des scientifiques ont montré que les enfants ayant des scores d'intelligence plus faibles à l'âge de 10 ou 11 ans avaient plus de risques que les enfants ayant des scores élevés de traverser une période de détresse psychologique au début de leur vie adulte. Et vers 45 à 50 ans, ces mêmes individus risquaient davantage d'être hospitalisés pour un trouble psychique.

Une autre étude a suivi un groupe d'écoliers suédois pendant plus de 30 ans. À l'entrée dans la vie adulte, les enfants ayant de faibles scores d'intelligence développaient plus souvent des troubles de la personnalité que ceux ayant de meilleurs scores. L'étude de la cohorte nommée Vietnam Experience Study a confirmé ces résultats et examiné le lien inverse : les individus souffrant de plusieurs troubles psychiatriques avaient les scores les plus faibles aux tests d'intelligence.

Santé mentale et longévité

D'autres données proviennent d'une enquête réalisée auprès d'un million d'hommes scandinaves appelés pour leur service militaire. Une intelligence plus faible vers 20 ans était associée à un risque élevé de maladies psychiatriques nécessitant une hospitalisation. Ces maladies comprenaient la schizophrénie et des troubles de l'humeur, tels que des épisodes de dépression grave et une dépendance à l'alcool.

L'étude réalisée sur les écoliers suédois a aussi montré qu'une intelligence plus faible augmenterait le risque de se blesser. Les jeunes ayant les scores les plus faibles aux tests d'intelligence avaient aussi plus de risques de se suicider ; la mortalité par homicide suivait la même tendance. Ce résultat surprenant a conduit les chercheurs à explorer le lien entre intelligence et hospitalisation pour agression. Et en effet, les hommes les plus intelligents ont moins de risques d'être victimes d'une attaque, quelle qu'elle soit. De même, le risque d'être impliqué dans une bagarre est huit fois plus élevé pour les membres les moins intelligents d'un groupe, par rapport aux plus intelligents. Les données concernant les blessures accidentelles, telles celles consécutives à un accident de voiture, vont dans le même sens.

Comment expliquer ces corrélations entre santé et facteur G ? Un résultat est commun à l'ensemble des études : le lien entre l'intelligence et le facteur étudié est graduel. En d'autres termes, le risque n'augmente pas brusquement pour les scores d'intelligence faibles, mais il s'accroît progressivement à mesure que les scores d'intelligence diminuent.

En quoi cet élément nous renseigne-t-il sur les causes des maladies mentales ? Si l'effet de l'intelligence existait uniquement pour les personnes ayant les scores les plus faibles, nous pourrions supposer que les tests d'intelligence reflètent des anomalies neurodéveloppementales non détectées. Cette interprétation explique probablement quelques cas, mais nous pouvons aussi faire l'hypothèse que certaines personnes seraient à un stade précoce d'un trouble psychiatrique, qui diminue l'intelligence ; et que plus la maladie progresse, plus l'intelligence décline.

Cette corrélation entre faible intelligence et maladie mentale pourrait aussi expliquer le risque de suicide. Des pathologies telles que la dépression augmentent ce risque. Et il pourrait encore être aggravé si le patient n'est pas capable de résoudre les problèmes auxquels il est confronté, de sorte que le suicide représenterait, selon lui, la seule issue possible. Néanmoins, ces spéculations restent à confirmer.

Discuter ou frapper ?

En ce qui concerne le lien entre intelligence et agressions, les chercheurs ont proposé plusieurs hypothèses. On sait que les personnes ayant une intelligence plus faible évoluent davantage dans des environnements de faible niveau socio-économique. Les risques auxquels elles sont confrontées pourraient simplement refléter le fait de vivre dans des quartiers défavorisés. Mais une autre hypothèse existe : la perception du risque dépend de chaque individu. Les personnes ayant les scores d'intelligence les plus élevés pourraient être plus conscientes de leur environnement et éviteraient, par exemple, de prendre un raccourci les obligeant à passer par une zone sombre, potentiellement plus dangereuse.

Une troisième possibilité repose sur le fait que les habiletés verbales et le raisonnement sont des composantes de l'intelligence ; les personnes présentant un facteur G plus faible choisiraient plus facilement d'en venir aux mains plutôt que d'argumenter. En ce qui concerne les blessures accidentelles, une intelligence plus faible correspond à une perception diminuée du risque et à un temps de réaction supérieur. Or une appréciation précise d'une situation à risque et des réactions rapides semblent utiles pour éviter les accidents.

De faibles scores d'intelligence ont aussi un effet sur la santé des adultes. Notamment en ce qui concerne les différentes démences qui se développent avec l'âge. Comprendre les causes des démences et les diagnostiquer de façon précoce permettraient d'en minimiser l'impact.

En 2008, des chercheurs ont examiné si l'intelligence est un indicateur prédictif de la démence, en analysant les données de l'étude Scottish Mental Survey datant de 1932, qui avait testé l'intelligence de presque tous les enfants nés en 1921 et scolarisés en Écosse en 1932, soit 87 498 enfants (95 pour cent de la population cible). Ils ont montré qu'un score faible à un test d'intelligence réalisé pendant l'enfance était associé à un risque de démences vasculaires tardives, mais pas de démences neurodégénératives, telle la maladie d'Alzheimer.

Les symptômes des démences vasculaires et de la maladie d'Alzheimer se ressemblent, les patients présentant des déficits cognitifs graves. Mais, contrairement à la maladie d'Alzheimer, la démence vasculaire serait davantage liée à la santé physique : le diabète, les maladies cardio-vasculaires et l'hypertension sont des facteurs de risque. Les résultats de l'étude écossaise suggèrent que le lien entre intelligence en début de vie et déclin cognitif implique un mécanisme vasculaire – une circulation sanguine efficace – plutôt que la résilience mentale face à des lésions cérébrales, par exemple.

En fait, plusieurs études ont établi une corrélation entre une faible intelligence, mesurée pendant la jeunesse, et des maladies cardiovasculaires, c'est-à-dire maladies coronariennes et infarctus. Chez les adultes des pays occidentaux, les pathologies cardio-vasculaires représentent la cause de mortalité et d'incapacité la plus fréquente. Aux États-Unis, la maladie coronarienne en particulier est la première cause de décès. Elle se produit quand des dépôts adipeux obstruent les artères coronariennes irriguant le cœur. Si le sang ne circule plus, les cellules cardiaques sont détruites et le sujet a un infarctus.

Risques élevés d'infarctus et de démence

Quel est le rôle de l'intelligence dans les maladies cardio-vasculaires ? Une moindre intelligence serait liée à des choix de styles de vie néfastes pour la santé. Fumer, consommer trop d'alcool ou être alcoolique, manquer d'activité physique ou avoir une alimentation malsaine – des comportements qui augmentent le risque de maladie cardio-vasculaire – sont plus fréquents chez les individus ayant les scores d'intelligence les plus faibles dans l'enfance et au début de l'âge adulte.

Les habitudes délétères pour la santé auraient d'autres conséquences physiologiques, par exemple le syndrome métabolique. Ce terme décrit une combinaison de caractéristiques favorisant le diabète et les maladies cardio-vasculaires : obésité et indice de masse corporelle, glycémie à jeun, concentration de triglycérides, tension artérielle trop élevés. En 2008, une étude a révélé que le syndrome métabolique expliquerait environ un tiers de l'association entre intelligence et décès consécutif à une maladie cardio-vasculaire.

Ces résultats montrent comment une intelligence « supérieure » permettrait à certaines personnes de préserver leur santé, voire leur vie. Mais la recherche en épidémiologie a des difficultés pour élaborer un modèle général des liens entre intelligence et maladies.

Selon une des hypothèses, celle dite de l'intégrité du système, les différences entre les organismes sont en cause : les tests d'intelligence ne refléteraient pas seulement l'efficacité du cerveau, mais aussi celle de l'organisme entier qui serait mieux préparé à réagir aux défis de la vie. Les temps de réaction, qui reflètent l'efficacité du traitement de l'information, prédiraient la longévité.

En fait, si l'on prend en compte le facteur temps de réaction dans les analyses reliant la santé et l'intelligence, le facteur G n'est plus un indicateur prédictif de la mortalité. Si la vitesse de traitement cérébral reflète l'intégrité du système nerveux – et peut-être un bon fonctionnement de l'organisme –, nous pourrions expliquer différemment les liens avec les maladies cardio-vasculaires, la démence vasculaire et les blessures accidentelles. Mais tant que l'on ignore pourquoi l'intelligence et le temps de réaction sont fortement corrélés, l'interprétation des mécanismes sous-jacents reste sujette à caution.

Enfin, ces résultats soulignent sans doute les effets de l'environnement. Nous l'avons dit, les scores d'intelligence élevés sont associés au niveau d'études et à la réussite socio-économique. Les personnes ayant de moins bonnes performances aux tests d'intelligence occuperaient des postes moins élevés dans les entreprises, ce qui peut créer un stress.

En outre, de nombreux facteurs environnementaux influent sur l'intelligence générale : par exemple la relation entre l'enfant et ses parents, l'alimentation, la pollution environnementale (avec le plomb, le bisphénol A, etc.), la consommation d'alcool pendant la grossesse, l'allaitement, etc. Or ces facteurs modifient aussi la santé et la longévité. L'intelligence dans l'enfance pourrait n'être qu'un marqueur d'un environnement bon pour la santé, et absolument pas la cause de cette bonne santé à l'âge adulte.

Quels que soient les liens entre intelligence et longévité, les nombreux choix que nous faisons tout au long de notre vie pourraient être impliqués à chaque fois. Devrais-je arrêter de fumer ? Devrais-je parler à mon médecin de cette douleur dans ma poitrine ? Est-ce que je prends un taxi pour rentrer, ou suis-je assez courageux pour traverser à pied un quartier difficile ? Les personnes plus intelligentes font peut-être les choix qui favorisent santé et longévité.

Faire le bon choix au bon moment

Pour l'instant, force est de constater que s'il existe une corrélation, les causes de ce lien entre intelligence et longévité ne sont pas élucidées. Pourtant, ces travaux ont fait naître de nouvelles idées que de futures expériences pourront tester. Ce n'est qu'en étudiant les individus

sur des périodes suffisamment longues que nous pourrons préciser ces résultats.

Les études de génétique réalisées sur des jumeaux et des familles ont montré que les gènes jouent un rôle important dans l'intelligence. Mais nous pensons qu'une meilleure compréhension des effets de l'intelligence permettrait de préserver la santé des individus, quelles que soient leurs capacités, tout en étant conscients que les modalités de la mise en place de programmes éducatifs selon les résultats à des tests d'intelligence restent à définir et poseraient des difficultés pratiques et éthiques.

Enseigner aux enfants et aux adultes, quelle que soit leur intelligence, comment avoir un style de vie sain, des habitudes alimentaires correctes et éviter le stress, devrait améliorer la longévité et le fonctionnement mental à long terme. En effet, les épidémiologistes cognitivistes confirment ce que l'on sait depuis longtemps : adopter de bonnes habitudes et des comportements sains protège contre les ravages du temps. Soulignons encore qu'être intelligent pourrait ne pas être la clef de la longévité. Agir et décider comme le font les personnes intelligentes serait le facteur critique...

Ian Deary, Alexander Weiss et David Betty

Les carabins, dopés aux stimulants

 

 

 

Boissons énergisantes, caféine concentrée, mais aussi Ritaline ou encore corticoïdes… La consommation de psychostimulants pour améliorer ses performances intellectuelles est fréquente chez les étudiants en médecine, selon une enquête française en cours de publication. Bien décrite sur les campus américains, où elle est de plus de plus en vogue depuis vingt ans, cette pratique dite de neuroenhancement, terme traduit par « neuro-augmentation » ou « neuro-optimisation », était jusqu’ici très peu étudiée dans l’Hexagone. Mais une étude, inédite par son ampleur, menée par six médecins auprès d’un échantillon représentatif de 1 700 étudiants en médecine et jeunes diplômés, montre que le phénomène est loin d’être marginal.

 

Au total, un tiers a déjà pris des psychostimulants – hors café et pilules de vitamine C – dans sa vie. La consommation de produits en vente libre (tels le Guronsan – mélange de caféine concentrée et de vitamine C – et les boissons énergisantes à la caféine) est de loin la plus banale, retrouvée dans 30 % des cas. Une proportion non négligeable de carabins (6,7 %) a recours à des psychostimulants sur ordonnance : corticoïdes, methylphenidate, une molécule proche des amphétamines commercialisée, entre autres, sous le nom de Ritaline dans le traitement du TDAH (trouble du déficit de l’attention avec hyperactivité) et celui de Modafinil (traitement de la narcolepsie). Enfin, 5,2 % d’entre eux ont indiqué avoir consommé des psychostimulants illicites en France : cocaïne, dérivés d’amphétamines tel que l’ecstasy.

Des médecins diplômés également

Pour ce travail, les psychiatres et chercheurs Guillaume Fond et Philippe Domenech (groupe hospitalier Henri-Mondor, Créteil) et leurs collègues ont recueilli et analysé 1 700 questionnaires ; 63 % des participants étaient des femmes, une proportion représentative du sex-ratio dans les études médicales. Les trois cycles du cursus étaient représentés, avec également des médecins diplômés depuis moins de cinq ans.

Au-delà des données brutes, les auteurs ont regardé de plus près qui prenait quoi et dans quel but. Premier constat, les adeptes de Guronsan et de boissons énergisantes commencent pour la plupart leur consommation dans les années précédant le concours de première année de médecine ou l’examen classant national de sixième année. Pour la plupart, l’objectif est d’augmenter leur vigilance, probablement pour compenser le manque de sommeil en période de préparation d’examens. Une pratique somme toute banale, quoi que… « Ces sujets ont un risque multiplié par deux de consommer d’autres psychostimulants », précise Guillaume Fond.

Quant aux 6,7 % d’individus ayant recours à des psychostimulants prescrits médicalement, ils cherchent à améliorer leur vigilance, mais également à booster leurs performances académiques, selon l’enquête. Il s’agit pour la plupart de médecins ayant validé leur internat, qui peuvent donc prescrire. La consommation de Ritaline et de Modafinil (respectivement 1,5 % et 0,7 %) est moins fréquente que dans d’autres pays, notamment les Etats-Unis. Le docteur Fond et ses co-auteurs ont été en revanche surpris par la proportion élevée de consommateurs de corticoïdes : 4,5 %. Une spécificité française selon eux, et qui s’explique sans doute en partie par un accès plus simple à ces médicaments qu’au methylphenidate et au Modafinil. De fait, en France, la réglementation les concernant est très stricte. Ainsi, la prescription initiale de Modafinil ne peut être réalisée que dans un service de neurologie ou un centre du sommeil. Le methylphenidate est inscrit sur la liste des stupéfiants…

Pour augmenter leur vigilancecis

Classiquement, les corticoïdes sont utilisés dans de nombreuses pathologies pour leurs effets anti-inflammatoires ou immunosuppresseurs. Dans l’étude, les étudiants qui en prenaient cherchaient surtout à augmenter leur vigilance. Une proportion importante d’entre eux déclarait d’ailleurs y avoir recours surtout dans la période où ils commençaient à prendre des gardes. Or, « les corticoïdes peuvent avoir des effets délétères sur la santé, même à court terme », souligne Martine Gavaret, neurologue au CHU de Marseille et coauteur de l’enquête. Ces médicaments induisent notamment une augmentation de l’appétit et une prise de poids ; ils favorisent l’hypertension artérielle et le diabète, et peuvent entraîner des troubles psychiques.

Point positif, aucun des participants n’a déclaré de dépendance physique ou psychologique aux produits consommés, mais il ne s’agit que d’autodéclarations…

« Notre étude suggère que les comportements de consommation de psychostimulants sont très fortement influencés par les rythmes académiques des études médicales, et notamment les deux grands examens, en première et en sixième annéeLe type de psychostimulant dépend, lui, de l’accessibilité au produit », résument les auteurs.

Dans une revue de la littérature sur les psychostimulants, parue le 8 juillet dans la revue Psychiatry Research, Guillaume Fond et ses collègues constatent que le nombre d’études consacrées à ces produits dans le cadre de la neuro-amélioration est relativement faible, de l’ordre d’une cinquantaine. Sans doute parce que ce sujet, qualifiée de dopage cognitif par ses détracteurs, fait débat. D’où des difficultés à conclure sur leur efficacité sur la cognition. En 2014, le Comité national consultatif d’éthique (CCNE) a rendu un avis mitigé sur la neuro-amélioration par des psychostimulants ou des techniques comme la stimulation cérébrale transcrânienne. Le CCNE soulignait notamment les inconnues à long terme sur le rapport bénéfice-risque et s’inquiétait des risques d’aggravation des inégalités sociales ainsi induits dans la société.

Sandrine Cabut

 

 

La voix et ses troubles

Ce que notre voix dit de nous

 

Blanche, cassée, perchée… Les métaphores foisonnent pour évoquer la voix, cet outil révélateur de notre personnalité. Pourtant, nous n’y prêtons attention que lorsqu’elle nous fait faux bond. Extinction de voix, extinction de soi ? Que cachent nos cordes vocales ?

« Ce matin-là, devant le micro, alors qu’elle s’apprête à attaquer sa chronique radio quotidienne, plus de voix, raconte cette jeune animatrice. Brutalement, plus un son ne sort, pas même un coassement. » Elle sera aphone plusieurs jours, sans aucun autre symptôme. Ces journées-là resteront gravées (comme sur un CD !) dans sa mémoire : enfermée, sans voix, elle s’est sentie étouffer…

« Il n’y a pas d’organe spécifique de la voix, rappelle David Le Breton, sociologue et anthropologue. Bien sûr, nous lui associons les cordes vocales, mais il y a aussi le larynx et les poumons : le souffle passe à travers le larynx et fait vibrer les cordes vocales. Toutes les civilisations associent le souffle et l’âme. C’est sans doute une des raisons pour lesquelles la voix est perçue comme l’expression de l’âme, elle vient de l’intérieur, invisible, aérienne. Nous pouvons percevoir la présence d’une personne par son simple timbre. » Cette présence invisible signe donc bien notre identité. Il n’y a d’ailleurs pas une voix pour ressembler à une autre. Elle est comme une empreinte digitale, confirme Agnès Augé, psychologue et orthophoniste, raison pour laquelle il est si émouvant de réentendre la voix d’une personne disparue. Jeanne, 65 ans, avoue pleurer lorsqu’elle écoute les enregistrements de sa mère, philosophe et essayiste : « C’est étrange, car je peux regarder des photos d’elle ou même des films sans être plus émue que cela. Mais la présence de sa voix me touche au plus profond. »

L’aphonie de notre animatrice radio l’aurait-elle donc privée d’une part de son identité ? « Certainement, répond Agnès Augé. Ne plus avoir de voix, c’est comme mettre un voile devant son visage. Il manque une part essentielle de soi. » Si le son de la voix nous touche aussi profondément, c’est parce qu’il est la première musique que nous entendons. Pas encore nés, nous baignons in utero dans la voix maternelle. « Des expériences ont montré que les bébés se calment dès qu’ils entendent la voix de leur mère, explique David Le Breton. L’ouïe est le premier des sens, bien avant la vue. » L’écrivain américain William Styron sortit ainsi d’une grave dépression en écoutant une mélodie que lui chantait sa mère dans son enfance. De plus, la voix laisse passer les émotions, sans qu’il soit possible de les maîtriser longtemps. Les raisons en sont d’abord physiologiques. « Son inflexion suit l’humeur, les neurotransmetteurs intervenant directement sur le larynx, précise Agnès Augé. En cas de grande émotion, celui-ci se resserre, limitant le passage du souffle. C’est ainsi par exemple que nous aurons “la voix brisée par le chagrin”. » Il est impossible de contrôler pleinement ce processus physiologique. Au soir du premier tour de la primaire socialiste, le 9 octobre dernier, Ségolène Royal, submergée par les larmes, fut incapable de poursuivre son discours. Son visage reprit son calme quelques secondes avant sa voix.

Porte-parole de nos émotions

« En médecine chinoise, la gorge est le siège des émotions, poursuit l’orthophoniste. Nous n’y prêtons pas suffisamment attention, mais des extinctions vocales à répétition peuvent être le signal d’un conflit qui ne se résout pas. » Car inconscient et voix sont intimement liés. En psychanalyse, elle est, avec la parole, le chemin royal par lequel il passe. Une hésitation, un soupir, une baisse de la tonalité en révèlent autant qu’une phrase élaborée ou un lapsus.

« L’invisibilité de la voix semble en résonance avec l’intériorité du sujet qu’elle révèle, écrit David Le Breton. Elle dit une subjectivité, une singularité. » Lawrence Durrell, dont la voix a été l’un des sujets de prédilection de ses romans, évoque ainsi un de ses personnages : « Il pouvait suivre ses sentiments d’après le timbre de sa voix comme on suit une partition de musique. » L’impossibilité de connaître pleinement sa propre voix est l’un des paradoxes les plus fascinants : nous ne la percevons jamais que de l’intérieur, et jamais comme les autres nous entendent. D’où la surprise, souvent douloureuse, de s’écouter à l’occasion d’un enregistrement. Ce n’est plus nous. L’écrivain et ethnologue Michel Leiris parlait de son « double » à l’audition de sa propre voix. Sentiment d’étrangeté qui peut en amener certains à détester la leur. Mais ce n’est pas tant sa tonalité, sa puissance ou sa faiblesse que l’expression de bien-être ou de mal-être avec soi-même. « Il s’agit de retrouver alors sa voix et sa voie », résume David Le Breton.

Agnès Augé cite le cas d’une de ses patientes, cadre d’une grande entreprise, qui ne parvenait littéralement pas à se faire entendre devant une assemblée. En réfléchissant à cette question, elle a réalisé qu’elle ne se sentait pas pleinement légitime dans sa fonction. Peu à peu, en travaillant sa voix, sa posture physique, son souffle et les raisons de son trouble, elle a retrouvé toute sa place. « Il arrive alors que l’entourage ne reconnaisse plus la personne, parce que sa voix aura changé », assure David Le Breton. Changer de voix, l’accorder avec son moi, c’est ça aussi retrouver l’harmonie intérieure. Depuis, notre animatrice radio a rejoint la presse écrite.

Christilla Pellé Douel


 

Pourquoi crie-t-on quand on a mal ?

 

Le Cri par Rodin (Ph. Couscouschocolat via Flickr CC BY 2.0)

Le Cri par Rodin 

Les scientifiques ne le savent pas précisément, mais ils avancent pourtant trois grandes hypothèses… peut-être complémentaires : le cri de douleur servirait à prévenir qu’on est menacé afin qu’il nous soit porté secours ; à se défendre, en effrayant et faisant fuir l’agresseur, ou en lui signifiant d’arrêter son geste, et/ou, enfin, à soulager la douleur.

Concernant la théorie du cri comme moyen de communication, en 2003, une équipe canadienne menée par Michael Sullivan a montré sur 64 volontaires que les cris sont plus longs lorsqu’ils sont émis en présence d’autres personnes ; ce qui soutient l’idée que la vocalisation de la douleur a pour but d’attirer l’attention afin de se faire aider.

En revanche, l’hypothèse selon laquelle le cri soulagerait la douleur suppose que crier déclencherait, via des mécanismes encore inconnus, la libération de substances neuronales calmantes (enképhalines, endorphines…).

LE CRI SERAIT UNE PROTECTION RÉFLEXE

De manière générale, crier est une réponse de protection réflexe à la douleur, au même titre que le retrait de la main quand on se brûle. Mais, “contrairement au réflexe de retrait, le cri est émis lors des douleurs perçues comme fortes, rarement lors de douleurs faibles”, précise Radhouane Dallel, chercheur en neurobiologie de la douleur à Clermont-Ferrand.

L’ÊTRE HUMAIN N’EST PAS LE SEUL À CRIER QUAND IL A MAL

Mais face à une même douleur, on ne crie pas tous et pas toujours. Et pour cause : “La perception de la douleur est très subjective ; selon notre vécu ou notre état psychologique du moment, on ne ressent pas une douleur donnée de la même façon que son voisin, ni de la même façon que la veille.” Enfin, le cri de douleur n’est pas l’apanage de l’homme : les animaux capables d’émettre des vocalisations (chiens, rongeurs…) “crient” aussi lorsqu’ils ont mal.

K.B.


 

Le "vocal fry", la façon de parler qui fait trembler l’Amérique

Zooey Deschanel est aussi une « fryeuse ». (Los Angeles, 12 janvier 2015.)

 

 

Vous l'avez entendu sans le savoir. Adopté par de nombreuses jeunes femmes aux États-Unis, le phénomène vocal fry (traduisez : « friture vocale ») consiste à baisser sa voix en fin de phrase jusqu’à la faire étrangement grésiller (voir la vidéo ci-dessous). Alors que la semaine dernière, une tribune du Guardian venait fustiger la pratique, voici l'article que nous avions publié en août 2014 sur cette façon de parler déjà controversée. Pourquoi font-elles ronronner leurs cordes vocales ? Focus.

 

Il y a la voix parlée naturelle, dite « modale ». Et il y a le vocal fry. Comprendre : finir ses phrases comme si l’on avait un crapaud coincé dans la gorge. Si le terme n’est pas usité en France, la sonorité, elle, est familière, puisque les jeunes Américaines y ont recours de manière assez systématique. En 2011 en effet, l’universitaire Nassima Abdelli-Beruh, professeure au département d’orthophonie de l'université de Long Island (New York) a constaté que les deux tiers des étudiantes de son campus le pratiquaient, soit quatre fois plus que les garçons.

Techniquement, les linguistes parlent de « voix craquée ». « C’est le résultat naturel d’un abaissement du ton. Les cordes vocales vibrent de plus en plus doucement. À un certain moment elles se relâchent, les vibrations deviennent souples et irrégulières », nous explique Penelope Eckert, professeure de linguistique à l’université de Stanford (Californie). Joana Révis, orthophoniste spécialisée en « vocologie » (1), atteste du caractère au départ médical de cette technique utilisée pour la rééducation des dysphonies. « En soi, elle existe partout, ajoute-t-elle. On l'utilise en français, lorsqu’on fait "euuuuh", par exemple. Mais aujourd’hui, elle désigne aussi cette mode spécifiquement américaine. »

Si l’origine de cette excentricité est attribuée à Ira Glass, producteur vedette de la National Public Radio, créateur et animateur de « This American Life » depuis 1995, plusieurs artistes de la pop culture se sont emparés de la tendance. À commencer par Britney Spears, qui, déjà en 1998, chantait en « craquant » dans Baby One More Time. Aujourd’hui, Katy Perry, Zooey Deschanel et même Kim Kardashian usent et abusent de cette « friture » sonore. À l’image de leurs groupies. Cela fait donc plus de dix ans que la folie vocal fry alimente les sujets d’études universitaires, de décryptages et... de critiques virulentes de la part de ceux que ces tremblements insupportent. Sur la Toile, la comédienne Faith Salie s’est adonnée à l'analyse suivante :

 

www.youtube.com/embed/YEqVgtLQ7qM

 

 

  

La sonorité, plus importante que les paroles ?

 

Mais aller jusqu'à la faire crépiter ne donnerait pas, semble-t-il, davantage de crédibilité et d’autorité au locuteur. Loin de favoriser leur embauche, cette fantaisie les pénaliserait. Dans son étude, Rindy Anderson a demandé à 14 personnes (7 femmes et 7 hommes) de prononcer la phrase « thank you for considering this opportunity », (« merci de considérer ma candidature ») deux fois : l'une avec le crépitement de la voix, et l'autre sans. Ils étaient ensuite écoutés par un jury composé de 800 personnes chargées de déterminer le candidat le plus apte à être recruté. Résultat : quel que soit le genre, la voix naturelle était préférée dans 85 % des cas, comme l'explique Joana Révis. Mieux vaut donc ne pas trop faire vibrer ses cordes vocales si l'on veut sonner « sérieux ». Même s'ils sont nombreux, notamment sur le Web, à demander aux jeunes femmes de mettre fin à cette loufoquerie, l'engouement ne semble pas près de s’arrêter.

Le phénomène pourrait s’implanter en France

« Lorsqu’on parle avec quelqu’un, inconsciemment, il y a "convergence" », explique l’orthophoniste. Cela entraîne l’auditeur vers la même longueur d’onde que le locuteur. Ainsi, si les jeunes femmes sont prescriptrices du vocal fry, les jeunes hommes et les adultes outre-Atlantique commencent petit à petit à « fryer » eux aussi. « Je pensais que c’était une pratique réservée à la langue anglaise. Pourtant, j’ai entendu récemment dans une émission de téléréalité française des gens l’utiliser à la fin de leurs phrases, comme aux États-Unis, raconte Joana Révis. « Le show et ses participants ont des influences américaines, mais j’ai l’impression que le phénomène pourrait s’implanter en France. » Enfin de bonnes raisons de trembler. 

Tatiana Chadenat 


 

Pourquoi vous ne pouvez rester insensibles aux cris humains ?

 

The Famous Shower Scene From_2462-2493

*A part si vous souffrez d’un trouble auditif, bien évidemment…

Le son d’une personne qui crie est si puissant qu’il active instantanément le circuit de la peur dans notre cerveau, c’est ce qu’ont révélé de nouvelles expériences qui ont tenté de documenter la "signature acoustique des cris humains".

Les différents types de cris (les cris de bébé et de femmes sont les moins plaisant pour l'humain) ont tous une propriété appelée rugosité acoustique, qui se réfère à la vitesse à laquelle change le volume d’un son. Reproduire cette qualité acoustique, qui est décrite dans cette nouvelle étude, pourrait rendre les films d’horreur encore plus effrayants, mais surtout améliorer les systèmes d’alerte… les alarmes.

Selon l’auteur principal, David Poeppel de l’université de New York :

Si vous demandez à une personne dans la rue ce qui est spécial à propos des cris, ils vont dire qu’ils sont bruyants ou qu’ils ont un ton / une fréquence plus élevée. Mais il y a énormément de choses bruyantes dans la vie courante et il y a beaucoup de choses qui sont très aiguës, de sorte que vous vous attendez à ce qu’un cri ne soit pas véritablement utile dans un contexte de communication.

Pour comprendre ce qui rend les cris si uniques, Poeppel  et son collègue Luc Arnal (maintenant à l’université de Genève) ont utilisé des enregistrements récupérés à partir de vidéos YouTube, de films populaires, et de "crieurs" bénévoles qui ont été enregistrés dans leur laboratoire.

Les scientifiques ont ensuite déterminé comment les cris étaient traités par le cerveau.

Nous avons constaté que les cris occupent une bonne partie du spectre auditif, mais nous voulions passer par tout un tas de sons pour vérifier que cette aire est unique aux cris.

Dans une série d’expériences, nous avons constaté que cette observation est restée vraie lorsque nous avons comparé les cris au chant et à la parole, même à travers différentes langues. La seule exception est que les signaux d’alarme (alarmes de voiture, alarmes de maison, etc.) activent aussi la zone réservée aux cris.

Les chercheurs ont noté que les modèles normaux du parler présentent de très légères différences dans leurs fréquences sonores (entre 4 et 5 Hz), mais les cris peuvent se moduler très rapidement, variant entre 30 et 150 Hz. C’est cette “rugosité” que les chercheurs ont décrite. Elle est traitée par l’amygdale, une masse de matière grise en forme d’amande dans le cerveau, qui a été associée avec le traitement et l’expression de la colère et de la peur.

Selon Arnal :

Ces résultats suggèrent que la conception des signaux d’alarme peut être encore améliorée. De la même façon qu’une mauvaise odeur est ajoutée au gaz naturel pour le rendre facilement détectable; le fait d’ajouter de la rugosité aux sons des alarmes peut améliorer et accélérer leur traitement.

Le fait que les humains réagissent de manière similaire aux cris et à une alarme qui retentit suggère que la capacité à les détecter est profondément ancrée en nous et pourrait trouver son origine chez nos ancêtres primates. Comme d’autres animaux vocalisent de la même manière lorsqu’ils sont effrayés, cette capacité de détection pourrait même se porter sur de nombreux animaux en dehors des primates. De futures études aideront à déterminer si ce trait est conservé à travers de multiples espèces.

Bien qu’en dehors de la portée de la présente étude, les travaux de Poeppel et Arnal suggèrent que d’autres sons humains risquent de déclencher des réponses similaires, y compris les sons émis par les pleurs des bébés. Et c’est exactement sur cela que les chercheurs souhaitent se concentrer maintenant.

L’étude publiée dans Current Biology : Human Screams Occupy a Privileged Niche in the Communication Soundscape.


 

Les nouveaux-nés crient dans leur langue maternelle/Newborns’ Cry Melody Is Shaped by Their Native Language

article original

http://pdf.lu/xeji

 

 

 

Tandis que les nourrissons français ont la voix qui monte, celle des petits allemands va de l'aigu vers le grave, révèle une étude publiée jeudi par une équipe franco-allemande.

 

Il y a des chercheurs qui ont vraiment du courage. Ceux du laboratoire des sciences cognitives de l'Ecole normale supérieure de Paris en font partie. Avec leurs homologues allemands de l'université de Würzburg, ils ont écouté pendant plus de 20 heures les cris de 60 bébés français et allemands âgés de trois à six jours. Sans bouchons anti-bruit. Mais le jeu en vaut la chandelle : les courageux scientifiques ont réussi à prouver que les nouveaux-nés français crient différemment de leurs petits camarades d'outre-Rhin, comme le prouve cet enregistrement de la BBC.

L'explication de ce phénomène est simple : les fœtus sont des auditeurs attentifs pendant le dernier tiers de la grossesse, l'ouïe étant le premier des sens à se développer chez eux. Ils peuvent donc percevoir les intonations vocales de leur mère, qu'ils vont ensuite reproduire une fois venus au monde.

Conclusions inédites

Résultat : les bébés français ont la voix qui monte vers les aigus, tandis que les cris des bébés allemands vont vers les graves. Comme le constate Angela Friederici, l'un des auteurs de l'étude parue sur le sujet dans la revue scientifique Current Biology, les mots en français «sont accentués à la fin, si bien que la mélodie est ascendante, tandis que c'est généralement l'inverse en allemand». Ainsi, c'est la première syllabe de «papa» qui porte l'accent tonique en allemand, contrairement au français.

Les conclusions de cette étude des nouveaux-nés sont inédites. Jusqu'ici, les chercheurs pensaient que les cris des nourrissons humains étaient uniquement déterminés, comme chez les bébés chimpanzés, par l'augmentation et la diminution de la pression dans le système respiratoire. Il n'en est donc rien.

J.J. (lefigaro.fr) avec AFP


 

Loin du sexe, les bienfaits sans pareils des câlins

 

 
Dans La Calinothérapie , Céline Rivière, psychologue clinicienne, analyse le câlin à l'aune des avancées scientifiques en neurosciences ou en génétique.

 

Le câlin est à la mode. Des «free hugs» (câlins gratuits) aux bars à câlins, des animaux à caresser dans les hôpitaux ou les maisons de retraite au grand retour du câlin dans les livres et les films, tout est prétexte à câliner et se faire câliner. Céline Rivière, psychologue clinicienne, propose, avec un enthousiasme touchant, dans son ouvrage La Câlinothérapie, d'en faire une règle de vie pour aller bien en toutes circonstances et «activer nos propres mécanismes de santé».

L'originalité de sa démarche est de considérer le câlin à l'aune de certaines récentes avancées scientifiques en neurosciences ou en génétique. Mais attention, il ne faut pas en abuser: Céline Rivière estime que huit à dix câlins par jour sont nécessaires à notre bien-être. «Les câlins sont en soi une thérapie, car ils changent notre façon d'être, notre regard sur le monde et sur nous-mêmes», écrit-t-elle. En particulier, le toucher, les massages et les câlins déclencheraient la production d'ocytocine, souvent appelée, un peu abusivement, «hormone du bonheur» ou «nectar de guérison». Si l'ocytocine est au centre de l'accouchement et de l'allaitement, elle est présente chez les femmes comme chez les hommes. Des recherches ont montré qu'elle était aussi impliquée dans un état de confiance vis-à-vis d'autrui, dans l'attachement d'une personne envers une autre et que sa production était augmentée par des stimuli agréables. Elle serait à la paix et à la tranquillité ce qu'est l'adrénaline au stress. L'ocytocine combat d'ailleurs le taux de cortisol, aussi appelée «hormone du stress».

 Le langage de la peau

Autre facteur positif dans le câlin, le sens tactile qui passe par «le langage de la peau». Et il est vrai que l'épiderme est sensible et qu'il peut se faire miroir de nos émotions, transmettant des informations et des réactions dans tout l'organisme. Côté cœur, Céline Rivière insiste sur le fait que «le cœur a une place de choix dans notre système émotionnel». Il possède d'ailleurs un «cerveau» propre, un ensemble de neurones qui lui sont dédiés. Les répercussions des câlins (d'ordre non sexuel) ont un effet nettement apaisant sur le rythme cardiaque et sur la pression artérielle.

Céline Rivière parle aussi clairement, avec plus ou moins de bonheur, des neurones miroirs, de l'épigénétique, de la plasticité cérébrale… À l'appui de sa thèse, elle met en exergue l'exemple d'une femme indienne, Amma (mère en hindi). Elle est devenue une figure spirituelle contemporaine de l'Inde et est la fondatrice de l'ONG Embracing the World. Partie de rien, elle parcourt aujourd'hui le monde pour étreindre entre ses bras, contre elle, tous ceux qui le veulent ou en ressentent le besoin. «Elle fait passer dans ses étreintes ce qui est inscrit jusqu'au plus profond d'elle-même: un amour inconditionnel et total.» Il n'y a pas de mal à se faire du bien ou à se sentir bien. Conformément aux vœux de Céline Rivière, son ouvrage est en lui-même une étreinte apaisante qui prête à réflexion. À quand un médicament-câlin? Jamais, pourrait-on espérer…

Jean-Luc Nothias - 07/2015


 

 

 

Osez la calinothérapie

Être père change le cerveau

L’homme qui ne reconnaît pas les visages

 

"Aussi loin que je me souvienne, je n'ai jamais été capable de faire la différence entre les personnes à l'aide de leur visage." L'auteur de cette surprenante confession s'appelle David Fine. Ce gastro-entérologue britannique, aujourd'hui âgé de 60 ans, est un homme qui ne reconnaît pas les visages. "Il m'a fallu au moins trente ans pour m'apercevoir que ma reconnaissance faciale était inférieure à la moyenne et dix à quinze ans de plus pour comprendre que, dans la perception de la plupart des gens, les visages des individus sont uniques. J'avais presque 50 ans quand j'ai entendu pour la première fois entendu parler de "prosopagnosie" et ce trouble m'a finalement été diagnostiqué à l'âge de 53 ans." La prosopagnosie est la difficulté ou l'incapacité à reconnaître ses congénères par leur visage. Elle est soit congénitale, soit consécutive à un accident touchant le cerveau. Méconnu du grand public alors qu'il touche un nombre non négligeable de personnes, le problème l'est aussi souvent de ceux qui en sont atteints : comme il me l'a simplement expliqué, David Fine a, pendant des décennies, "cru que tout le monde était comme [lui]" !

J'ai découvert son cas grâce à l'émouvant témoignage , intitulé "Une vie avec la prosopagnosie", qu'il a récemment publié dans la revue Cognitive Neuropsychology.Par un clin d'œil malicieux de l'existence, David Fine a trois ans lorsque naissent... deux petites sœurs jumelles. Même si sa mère lui reproche de ne pas faire d'effort, on ne s'étonne guère qu'il soit incapable de les distinguer l'une de l'autre. Quand David Fine fouille au plus profond de ses souvenirs et songe par exemple à son école maternelle, une étrange structurelle mémorielle se fait jour : "Je revois le bâtiment et ses alentours quasiment avec une mémoire photographique, mais aucun visage. Si je pense à la directrice de l'école, je vois des cheveux blonds-roux et des taches de rousseur, mais pas de visage. Si je pense aux trois garçons avec lesquels je m'entendais bien, je me souviens que l'un portait une casquette d'occasion cabossée, un autre des chaussures Richelieu et le troisième avait des lunettes avec un œil caché pour corriger son amblyopie. Mais pas de visage."

Très vite, David Fine utilise les détails vestimentaires – ou les différences de coiffure pour les filles – afin de reconnaître ses camarades. Il se rappelle aussi avoir lu, garçonnet, l'histoire d'un policier aux trousses d'un cambrioleur et se déguise pour ne pas être reconnu de lui : il s'affuble d'une moustache postiche et de lunettes. La ruse plonge le jeune Fine dans un abîme de perplexité car, pour lui, un policier n'a pas besoin de se grimer pour ne pas être reconnu : il lui suffit de retirer son uniforme...

En grandissant, David Fine perfectionne et diversifie ses techniques d'identification des autres. Au collège, il se sert du fait que l'établissement est divisé en vingt "maisons" – tout comme, dans Harry Potter, le pensionnat Poudlard est scindé en quatre maisons, Gryffondor, Poufsouffle, Serdaigle et Serpentard – et que chaque maison attribue à ses membres une cravate d'une couleur spécifique. Les élèves restent aux mêmes pupitres en classe, ce qui lui facilite aussi la tâche pour attribuer un nom à chacun. Malgré ces "béquilles", David Fine est parfois pris en flagrant délit de "non-reconnaissance" : "On attendait des élèves qu'ils soulèvent leur casquette devant les professeurs, même à l'extérieur de l'école, se souvient-il. J'ai acquis une réputation de rebelle et de malpoli pour avoir oublié cette marque de respect. J'ai le vif souvenir d'un matin froid où une femme étrange, dont la tête était enveloppée dans une écharpe verte, s'est dirigée vers moi à grands pas avec des cris de colère. C'était mon professeur principal dont la très reconnaissable chevelure rousse était cachée par l'écharpe. J'ai écopé de 100 lignes pour ne pas avoir soulevé ma casquette."

David Fine a opté pour la médecine hospitalière. Pour quelqu'un comme lui, cela présente bien des avantages. Ceux qui travaillent en sa compagnie portent des blouses avec des badges et ils se cantonnent à une partie bien spécifique de l'établissement. Les patients qui viennent en consultation sont annoncés par leur nom et, pour ceux qui sont hospitalisés, une fiche nominative se trouve toujours à portée de main. David Fine se soupçonne de s'être inconsciemment spécialisé dans un secteur très particulier de la gastro-entérologie afin de compenser son handicap, notamment pour les grandes conférences : alors que certains colloques internationaux brassent des milliers de chercheurs, ceux auxquels il assiste "ne dépasseront jamais les 150 participants, un faible nombre qui ne donnera que peu de chances de rencontrer un chercheur en dehors d'une conférence".

C'est à l'âge de 30 ans passés que David Fine a fini par prendre conscience de son état et ce notamment grâce à son épouse. "L'incident critique, m'a-t-il raconté,s'est produit un jour où, dans un grand magasin, j'ai discuté pendant plusieurs minutes avec une jeune femme qui, de toute évidence, me connaissait. Quand elle est partie, mon épouse ma demandé qui c'était et pourquoi je ne la lui avais pas présentée. J'ai répondu que je n'avais pas la moindre idée de qui elle était. Mon épouse a été la première à s'apercevoir que quelque chose n'allait pas plutôt que de mettre cela sur le compte de la distraction ou, comme quelques personnes le pensaient, sur celui de l'impolitesse." Même s'il lui arrive encore parfois, au bout de trente-trois ans de mariage, de la perdre dans la foule, son épouse lui sert de poisson-pilote lors des soirées ou des fêtes auxquelles le couple se rend.

Mais son aide ne se cantonne pas à la vie en société. Je me suis demandé comment David Fine se débrouillait dans un exercice en apparence aussi anodin que le visionnage d'un film. "J'éprouve de grandes difficultés à suivre des films ou des séries télévisées, a-t-il avoué. Si nous sommes à la maison, mon épouse me fait le commentaire en direct ("c'est le meurtrier mais il a enlevé son chapeau", etc.), mais cela devient bien plus compliqué au cinéma ou au théâtre. Je reconnais les voix mais, malheureusement, je ne suis pas très doué pour cela. Je me débrouille beaucoup mieux avec les vêtements, qui peuvent cependant changer d'une scène à l'autre. Mon épouse suit les carrières des acteurs. Quant à moi, je m'arrête aux personnages et je ne vais pas au-delà pour reconnaître les comédiens qui sont derrière. C'est pour cette raison que je ne connais que très peu de noms d'acteurs. En revanche, en musique classique mais surtout en jazz, je suis capable de reconnaître les interprètes à l'aveugle, simplement par leur style."

Quand il se présente aujourd'hui, David Fine prévient ses interlocuteurs qu'il souffre de prosopagnosie et leur explique ce dont il s'agit. Leur réaction est invariablement la même : "Comment est-ce de ne pas pouvoir reconnaître les gens ?" Et le médecin de leur répondre qu'il lui est impossible de répondre à cette question : "C'est comme si vous demandiez à un aveugle de naissance ce que cela fait de ne pas voir ou à un sourd ce que c'est de vivre sans entendre." Il sait qu'on l'a pris soit pour le professeur Nimbus, tellement dans ses pensées qu'il ne reconnaissait pas les personnes qu'il croisait, soit pour un malpoli incapable de dire bonjour à une connaissance, soit pour un autiste. Maintenant qu'il est sexagénaire, une de ses plus grandes craintes est qu'on attribue son comportement à une démence sénile.

J

J'ai voulu poser une dernière question à David Fine sur un aspect qu'il n'évoquait pas dans son article : se reconnaît-il lui-même ? Non pas dans le miroir de sa salle de bain mais sur les photographies. "En général, je peux me retrouver sur une photographie à condition de savoir que j'y figure, m'a-t-il répondu. Je l'examine de manière systématique, regardant tous les hommes et attachant une attention particulière aux vêtements : j'ai l'habitude de m'habiller avec des couleurs vives, ce qui m'aide. Souvent je me rappelle quand la photographie a été prise et par conséquent où j'étais et ce que je faisais. Au cours des dernières années, j'ai remarqué que j'avais tendance à pencher sur la droite en raison d'un problème de dos et c'est aussi un bon indice. Sur les vieilles photos d'école, je cherche un garçon de grande taille à côté duquel je sais que je me trouvais et je regarde autour de lui. Mais si la photographie a été prise sans que je m'en aperçoive, c'est bien plus compliqué et, si l'on ne me donne pas d'indices, je n'arrive pas à me trouver moi-même." David Fine n'a pas répondu directement à ma question... Mais, entre les lignes, on comprend que le visage ci-dessus, le sien, est pour lui celui d'un inconnu.

Pierre Barthélémy 


 

Le cerveau des bébés, as de la reconnaissance des visages/Rapid categorization of natural face images in the infant right hemisphere

 Les aires du cerveau spécialisées dans la reconnaissance des visages sont déjà bien définies chez les enfants de 4 mois.

 Le cerveau humain est imbattable pour reconnaître les visages. Une particularité avec laquelle ne peuvent rivaliser ni les autres espèces, ni les ordinateurs, et qui apparaît dès les premiers mois de la vie. Une partie de la communauté scientifique considère que durant les premières années, la reconnaissance des visages ne mobilise pas les mêmes zones cérébrales que chez les adultes, et que cette capacité ne se «fixe» dans l'hémisphère droit qu'après la spécialisation d'une partie de l'hémisphère gauche pour la lecture. Une théorie que des chercheurs de l'université catholique du Louvain (UCL), en Belgique, contredisent dans une étude publiée mardi dernier dans le journal eLife.

Les chercheurs ont enregistré l'activité cérébrale de 25 bébés âgés de 4 à 6 mois, confrontés à un défilement rapide d'images (150 millisecondes par image) alors qu'ils étaient équipés de 32 capteurs d'électroencéphalogramme (EEG). Les chercheurs leur ont présenté des séquences de 20 secondes avec un défilement de 6 images par seconde. Au milieu d'une sélection d'images d'outils, d'animaux et de plantes, ils ont fait apparaître, une fois sur 5, des visages différents.

Expérience avec EEG
Expérience avec EEG

Pour la première fois, l'équipe de recherche a démontré que non seulement les jeunes enfants portent un intérêt particulier à tous les visages, quel que soit leur position, leurs particularités (sexe, origine etc…) ou le décor, mais en plus l'activité de leur cerveau était particulièrement importante dans l'hémisphère droit, dans des proportions supérieures à ce qui a déjà été mis en évidence chez l'adulte. «On ne s'attendait pas à avoir des résultats aussi marqués dans le cerveau des jeunes enfants», confie au Figaro Bruno Rossion, chercheur à l'UCL et responsable de l'étude.

Dépister l'autisme précoce

La reconnaissance spécifique des visages, typique du cerveau adulte, chez des sujets aussi jeunes vient remettre en question certaines théories sur la spécialisation des aires du cerveau pendant le développement. Mais cette découverte pourrait aussi, dans un second temps, aider à dépister et comprendre l'autisme dans les stades précoces, estime Bruno Rossion. En effet, l'une des particularités de l'autisme est un problème récurrent dans la reconnaissance des visages.

Cette expérience fait déjà des émules dans la communauté scientifique. Selon Bruno Rossion, d'autres équipes de recherche souhaitent utiliser ce protocole expérimental. «L'avantage de cette méthode est qu'elle s'applique aussi bien aux enfants qu'aux adultes, qu'elle permet de tester une personne en moins de 5 minutes et qu'elle évalue une réaction immédiate sans parasitage», explique-t-il. Le défilement rapide d'images et le matériel de captage des ondes cérébrales ne présentent en outre aucun risque pour les nourrissons.

Nicolas Plantey - 06/2015

Rapid categorization of natural face images in the infant right hemisphere

 
 
Introduction

A fundamental function of the human brain is to organize sensory events into distinct classes, that is, perceptual categorization (Rosch, 2007). This function is well illustrated in vision, the dominant sensory modality in humans: visual categorization in natural scenes occurs extremely rapidly (Thorpe et al., 1996) and in the near absence of attention (Li et al.,2002). Yet, visual categorization is extremely challenging. For instance, categorizing a visual stimulus as a face—arguably the most significant visual stimulus for human social ecology—requires to isolate the face from its natural background scene (‘figure-ground segregation’,Appelbaum et al., 206; Peterson, 2014) and distinguish the face from the wide range of non-face stimuli in the environment which share visual properties with faces. Moreover, a common response (i.e., generalization) should be given to faces appearing under various viewing conditions (i.e., changes of head orientation, size, illumination, etc) and varying greatly in terms of gender, age, expression, ethnic origin, so on. Despite this challenge, human performance at face categorization is impressive (Crouzet et al., 2010), surpassing even the most sophisticated automatic systems (Scheirer et al., 2014).

Up to now, the ontogeny of face categorization remains largely unknown. Classical studies have reported preference for facelike over non-facelike patterns at birth (Goren et al, 1975 Johnson and Morton, 1991). At a few months of age, differences in event-related potentials (ERPs) have been found between face stimuli and meaningless patterns (Halit et al., 2004; Kouider et al., 2013) as well as between faces and exemplars of a single object category segmented from its natural background (e.g., toys,de Haan and Nelson,1999; cars,Peykarjou and Hoehl, 2013; houses or cars, Gliga and Dehaene, 2007). However, there is no evidence on the effectiveness of infant vision in segmenting faces in natural images and representing them as a distinct, generalized category, or on the developing neural systems that may achieve this process. Clarifying this issue is also important for understanding the origin of hemispheric lateralization for face-selective processes in the human brain. In human adults, areas of the ventral and lateral occipito-temporal cortex are more active when viewing faces vs a variety of non-face objects (Sergent et al., 1992;Puce et al., 1995;Kanwisher et al., 1997;Haxby et al., 2000;Rossion et al., 2012;Weiner and Grill-Spector, 2013). This face-selective activation is typically larger in the right than the left hemisphere and, in right handed individuals at least, right unilateral brain lesions can lead to selective impairment in face recognition (prosopagnosia: e.g.,Barton et al., 2002;Busigny et al., 2010;Hecaen and Angelergues, 1962;Sergent and Signoret, 1992). According to a recent hypothesis, this right hemispheric dominance for face perception, which seems specific to humans (e.g.,Tsao et al., 2008), is driven by the left hemispheric lateralization for words emerging during reading acquisition (Dundas et al., 2013). Thus, according to this view, right hemispheric lateralization for faces should not be present in infancy. Up to now, infant ERP studies have not been able to provide evidence for right hemispheric lateralization of face-selective processes (de Haan and Nelson, 1999; Gliga et al., 2007;Peykarjou and Hoehl, 2013) and right hemispheric lateralization has only been observed when comparing faces to meaningless stimuli that differ in terms of low-level visual cues (Tzourio-Mazoyer et al., 2002;Kouider et al., 2013).

We addressed these outstanding issues by means of a simple ‘frequency tagging’ or ‘fast periodic visual stimulation’ (FPVS) approach, providing robust electroencephalographic (EEG) responses—steady state visual evoked potentials (SSVEPs,Regan, 1989; for a review see Norcia et al., 2015)—over the left and right hemispheres of 4- to 6-month-old infants. This approach is ideal to study the infant brain because it is relatively immune from artifacts and provides high signal-to-noise ratio (SNR) responses in a few minutes only. Moreover, compared to other approaches such as ERPs to transient stimulation, the FPVS approach is objective and predictive because the response appears exactly at the periodic frequency of stimulation defined by the experimenter. So far, infants have been tested with this approach only in response to low-level visual stimuli (i.e., acuity, contrast sensitivity, spatial phase, orientation, or motion; e.g.,Braddicket al., 1986;Norcia et al., 1990). A recent EEG study tested infants with segmented faces and objects in different stimulation streams, but without testing face vs object discrimination or generalization across diverse face views, and without providing evidence of hemispheric lateralization (Farzin et al., 2012). Here, to achieve these goals, we isolated face-selective responses by means of a fast periodic oddball paradigm (Heinrich et al., 2009) recently adapted to characterize adults' individual face discrimination (Liu-Shuang et al., 2014) and face-selective responses in adults (Rossion et al., 2015).

Results

Isolation of a face-selective right hemispheric response

We recorded 32-electrode EEG in a group of 15 4- to 6-month-old infants (5 females, mean age = 155 days, range 125–197 days) looking at complex images of various faces and objects presented one-by-one on a computer screen at a rapid frequency rate of 6 images/s (i.e., 6 Hz, stimulus onset asynchrony of 167 ms,Figure 1A;Video 1), in sequences of 20 s. Infants viewed between 5 and 12 sequences (i.e., 100 s–240 s; eight sequences on average).

Video 1.8 s excerpt of experiment 1 (20 s sequences) showing faces at a rate of 1 image every 5 images, at a 6 Hz base rate.

DOI:http://dx.doi.org/10.7554/eLife.06564.004

 

Figure 1.
Download figureOpen in new tabDownload powerpointFigure 1.(A) Examples of face (F) and object (O) stimuli presented during a 20-s sequence at 6 Hz (i.e., 120 images).

Face stimuli, varying considerably in size, viewpoint, expression, gender, so on appeared as every fifth image, that is, at 1.2 Hz rate (=6 Hz/5). For copyright reasons, the face pictures displayed in the figure are different than those used in the actual experiment, but the degree of variability across images is respected. The full set of face pictures is available athttp://face-categorization-lab.webnode.com/publications/together with the paper reporting the original study performed in adults (Rossion et al., 2015). (B) Stimuli were presented in the center of the screen by means of sinusoidal contrast modulation at a rate of 6 Hz (i.e., 6 images/s).

DOI:http://dx.doi.org/10.7554/eLife.06564.003

 

Thanks to the high temporal resolution of EEG and the high frequency resolution provided by the analysis (1/20 s = 0.05 Hz), responses occurring exactly at the fast 6 Hz rate were identified in the SNR spectrum, obtained by dividing each frequency bin by the 20 neighboring bins (Rossion et al., 2012; see ‘Materials and methods’). On grand-averaged data, this high SNR response at 6 Hz (averaged SNR = 8.87 at channel Oz) focused over the medial occipital cortex, reflecting infants' visual system synchronization to the stimulus presentation rate (Figure 2A). On these grand-averaged data, a Z-Score computed as the difference between amplitude at the frequency of interest and the mean amplitude of 20 surrounding bins divided by the standard deviation of the 20 surrounding bins (e.g.,Rossion et al., 2012;Liu-Shuang et al., 2014; see also ‘Materials and methods’) was highly significant at electrode Oz (Z = 52.9, p < 0.00001). To ensure that this effect was not driven by the data of a few infants, a t-test against 1 (i.e., signal above noise level) was also performed using the individual SNR values at Oz (range: 0.19–17.07;Figure 2B). This response was highly significant (t(14) = 7.075, p < 0.0001). Moreover, the high frequency resolution of the approach provides many frequency bins to estimate the noise so that the Z-score procedure could be applied to each individual infant's data. At electrode Oz, a significant response was observed in every infant tested but one (Z-score range of 14 infants: 6.10–35.46; not significant for 1 infant only). This observation indicates that the infant brain synchronizes strongly to the rapid 6 Hz visual presentations of multiple object categories.

Figure 2.
Download figureOpen in new tabDownload powerpointFigure 2.(A) Grand-averaged EEG signal-to-noise ratio (SNR) spectrum at a medial occipital electrode site (channel Oz).

The SNR is computed across the whole spectrum as the ratio of the amplitude (in microvolts) at each frequency bin and the 20 surrounding frequency bins (Liu-Shuang et al., 2014; see ‘Materials and methods’). For EEG amplitude spectra. (B) The SNR response at 6 Hz on electrode Oz, showing above noise level (>1) responses for all infants tested but one.

DOI:http://dx.doi.org/10.7554/eLife.06564.005

 

Most interestingly, face stimuli were presented at a slower periodic rate in the stimulation sequence, that is, as every fifth stimulus (Figure 1A). Hence, if the infant's brain discriminates between faces and non-face objects, another response is expected exactly at a rate of 6 Hz/5 = 1.2 Hz in the EEG spectrum. On grand-averaged data, a clear 1.2 Hz response emerged, with the largest response found over the right occipito-temporal channel P8 (SNR = 2.56; i.e., 156% signal increase;Figure 3A; Table 1 inSupplementary file 1A). This peak at 1.2 Hz was well above noise level at P8 (Z = 12.16, p < 0.001) even when correcting for multiple comparisons (all electrode channels, see Table 1 inSupplementary file 1Afor SNR and Z-scores at every channel at 1.2 Hz). Four other electrodes were associated with significant 1.2 Hz responses on grand-averaged data (O1, F3, F7, P7; see Table 1 inSupplementary file 1A) but with much lower SNR values (range: 1.14–1.47). The subsequent analysis based on individual infant's data focused on electrode P8.

Figure 3.
Download figureOpen in new tabDownload powerpointFigure 3.(A) Grand-averaged EEG SNR spectrum at the right hemisphere occipito-temporal channel P8, showing a distinct peak exactly at the face stimulation frequency (1.2 Hz).

(B) The SNR response of individual infants at 1.2 Hz, on electrode P8. Color codes are congruent withFigure 2.

DOI:http://dx.doi.org/10.7554/eLife.06564.006

 

Considering the variance across infants' data for statistical tests, the response at P8 is highly significant (i.e., above noise level, or SNR = 1, t(14) = 3.11, p = 0.004;Figure 3B). For 12 infants out of 15, the signal at 1.2 Hz is above noise level (SNR range of all 15 infants at P8: 0.52–6.13,Figure 3B). Using the Z-score approach for testing individual infants, the response at P8 is also significant for the individual data of 7 infants out of 15 (ps < 0.05, Z-score > 1.64 for signal vs noise computed over neighboring frequency bins, see ‘Materials and methods’). The other 7 infants showed a significant 1.2 Hz face categorization response on at least one other electrode (p < 0.05), while none of the electrodes reached significance for one infant. Even though a 1.2 Hz response was also observed over the homologous left occipito-temporal channel P7 (SNR of grand-averaged data = 1.47, Z = 3.61; Table 1 inSupplementary file 1A), this response was significantly lower than that at P8 (t(14) = 2.45, p = 0.013).

A significant response at 1.2 Hz indicates that the infant brain generates aspecificresponse to faces compared to the other object categories presented in the stimulation sequences (i.e., discrimination) and that such a differential response is generated periodically, that is, for virtually every face presented in the sequence (i.e., generalization) (Figure 1A). Moreover, although the faces and objects are relatively well centered, the color images are embedded in their natural and diverse backgrounds. Hence, to be identified as distinct shapes, both the face and object stimuli have to be segmented from their background, a nontrivial accomplishment for the visual system (Appelbaum et al., 2006;Peterson, 2014). Moreover, both the objects and faces substantially vary in size, color, lighting, and viewpoint, and the faces also vary in gender, age, ethnical origin, and expression. Thus, to generate a periodic discriminative 1.2 Hz response in the EEG, the infant brain has to categorize the face stimuli, namely to produce a response that is specific to face images and invariant to their differences (Rossion et al., 2015).

Experiment 2: replication and exclusion of low-level contributions

In theory, putative low-level visual cues differing between faces and objects cannot contribute to the periodic response unless they are systematically present in all or the large majority of face stimuli and if they differ systematically between faces and objects but not within non-face object categories. Given the naturalness and variability of the images used, this is highly unlikely. Thus, the constraint of periodicity provides an elegant way to identify a high-level face categorization response while preserving the natural aspect of the stimuli (Rossion et al., 2015).

Nevertheless, to ensure that low-level visual cues do not contribute to the infant face-selective response, we exposed another group of 10 4–6 months infants (4 females, mean age = 163 days) to alternating 20-s sequences of phase-scrambled faces and objects (e.g.,Sadr and Sinha, 2004;Rossion and Caharel , 2011) and of natural stimuli replicating exactly those used in the previous experiment. The phase-scrambled images contain the same low-level information (i.e., power spectrum) as the natural images, but they are unrecognizable as faces or objects (Video 2). In this second experiment, infants performed 2 to 12 sequences in total, with no significant difference in the number of sequences by condition (i.e., 90 s; 4.5 sequences on average). On grand-averaged data, we again found a large EEG response at the base stimulation frequency (6 Hz) over the medial occipital lobe for both conditions (electrode Oz; SNR for natural images: 6.01; Z = 29.42, p < 0.00001; SNR for scrambled images: 7.25; Z = 27.4, p < 0.00001).

Video 2.8 s excerpt of experiment 2 (20 s sequences) showing scrambled faces at a rate of 1 image every 5 scrambled images, at a 6 Hz base rate.

DOI:http://dx.doi.org/10.7554/eLife.06564.007

 

The response at channel Oz was significant for every infant in each of the conditions (Z-score range of 10 infants for natural images: 1.66–29.58; for scrambled images: 2.81–27.76; SNR range for natural images: 1.9–13.65; for scrambled images: 2.57–13.55).

A comparison between the two conditions using the individual infants SNR values at 6 Hz did not reveal any difference (t(9) = 1.103, p = 0.3;Figure 4), indicating that the synchronization of the visual system to the stimuli does not differ between conditions.

Figure 4.
Download figureOpen in new tabDownload powerpointFigure 4.Grand-averaged SNR at channel Oz in Experiment 2.

The SNR peak at the base stimulation frequency (6 Hz) is highly significant and spread over the medial occipital lobe (O1-Oz-O2) in both conditions, as indicated on the scalp topography. There was no significant difference between the 2 conditions.

DOI:http://dx.doi.org/10.7554/eLife.06564.008

 

On grand-averaged data, there was a significant response at the oddball (1.2 Hz) face frequency at the right occipito-temporal electrode P8 for natural images (mean SNR = 2.09, Z = 2.09, p < 0.05;Figure 5A). No other electrode was significant on grand-averaged data, which is based on a lower number of infants than in Experiment 1 (10 vs 15) and about half of the stimulation sequences. Critically, this response at P8 was absent for scrambled images (mean SNR = 0.78, Z = −0.8, p > 0.05).

For natural images, the 1.2 Hz response was above noise level (i.e., 1) for 9 infants out of 10 (SNR range of all 10 infants: 0.82–3.98) and highly significant (t(9) = 3.431, p = 0.004;Figure 5A). It reached significance for 6 individual infants out of 10 (ps < 0.05, Z-score > 1.64). The other 3 infants showed a significant 1.2 Hz face categorization response over at least one other electrode while none of the electrodes reached significance for the last infant. In contrast considering individual infants data as the source of variance, there was no significant response to phase-scrambled images at electrode P8 (SNR range = 0.11–1.93; t(9) = 1.156, p = 0.278;Figure 5B, see alsoFigure 5—figure supplement 1for data in amplitude, also showing the second harmonic at 2.4 Hz). Hence, there was a significant difference at the oddball (1.2 Hz) frequency between natural and scrambled images at P8 (paired t-test: t(9) = 2.969, p = 0.016).

Discussion

Collectively, the findings of Experiments 1 and 2 demonstrate that the infant right hemisphere discriminates natural photographs of faces from non-face objects of multiple categories and generalizes across face photographs despite their high physical variability. In both experiments, faces are temporally embedded in a rapid stimulation sequence of non-face objects, so that there is an inherent comparison, or contrast, without the need to perform a subtraction between conditions recorded at different times. That is, there is an oddball response only because the face is discriminated from all other object categories, activating a (face-)specific population of neurons at a rate of 1.2 Hz. Although this is unlikely, we cannot formally exclude at this stage that another visual category than faces would be represented by a distinct population of neurons and would therefore also elicit an oddball response of this amplitude at 4–6 months of age. However, to our knowledge, there is no other visual category that elicits such a large specific response, with a right hemisphere advantage, in the human adult brain. Moreover, the face is arguably the most frequent and socially relevant stimulus in the human (infant) visual environment, making it the best candidate for the early development of category-selective responses.

Thanks to this original fast periodic visual stimulation (FPVS) approach, the infant's face categorization response identified here goes beyond previous observations of discrimination between segmented faces and non-face stimuli in ERPs (de Haan and Nelson, 1999;Halit et al., 2004;Gliga and Dehaene-Lambertz, 2007;Peykarjou and Hoehl, 2013), near infrared spectroscopy responses (NIRS;Kobayashi et al., 2011) or positron emission tomography (PET;Tzourio-Mazoyer et al., 2002) activations obtained with a standard presentation mode (i.e., transient, slow, and non-periodic stimulation). Despite the great interest of these studies, it is fair to say that it is difficult to define sensitive (i.e., high SNR) and objective face-selective responses in infants with a conventional stimulation mode as used in these studies, so that there is a lack of consistency across studies. Moreover, given time constraints, these studies used segmented stimuli rather than natural images, and could only compare faces to a limited number of categories. Hence, the face-selective responses obtained in previous studies could be due to systematic differences between categories in terms of a homogenous stimulus, such as contour for instance (e.g., all round faces vs rectangular pictures of cars). Finally, a significant contribution of low-level visual cues to faces vs objects responses could not be excluded from these studies, or precisely evaluated.

Here, in Experiment 2, removing shape information while preserving low-level visual differences in the power spectrum completely erased the 1.2 Hz face-selective response. In other words, the 1.2 Hz face-selective response identified here for natural face images cannot be attributed to low-level visual confounds, such as differences in power spectrum between faces and other object categories. Moreover, the face stimuli were always embedded within distinct natural backgrounds, suggesting that the infant's brain is able to perform complex figure-ground segregation. This is even more impressive considering the brief presentation duration of each face stimulus (i.e., 167 ms SOA, about 100 ms for stimulus duration above 20% contrast, see ‘Materials and methods’) and the rapid mode of stimulation where each stimulus interrupts the processing of the previous one. Considering the enormous amount of resources devoted to develop face segmentation algorithms in computer vision (Scheirer et al., 2014), this is not a trivial accomplishment.

Finding a dominant face-selective response over the right hemisphere in young infants has important implications for our understanding of hemispheric lateralization in humans. It demonstrates that the right hemispheric dominance for face-selective processes—typical of the adult brain (Hecaen and Angelergues, 1962; Hillger and Koenig, 1991;Sergent et al., 1992;Kanwisher et al., 1997;Busigny et al., 2010;Rossion , 2014; see Rossion et al., 2015 with the present approach) is already present in infancy, independently of low-level cues. This observation refutes the view that the right hemispheric lateralization for faces arises only after a few years of age, following and being driven by the left hemispheric lateralization for words that emerges during reading acquisition (Dundas et al., 2013,2014). Rather, even if literacy can refine cortical organization for vision and language (Dehaene et al., 2010), the right hemispheric face-selective response identified here in young infants indicates that the right lateralization for face perception is present well before reading acquisition (see also Dehaene et al., 2010 for right hemisphere lateralization in illiterate adults, and Cantlon et al., 2011 for right lateralization in 4 years old children). Instead, our findings are in agreement with an early emergence of right lateralization for faces during development (de Schonen and Mathivet, 1990), a view so far based on evidence collected with face stimuli only (de Schonen and Mathivet, 1990;Tzourio-Mazoyer et al., 2002;Le Grand et al., 2003) or by comparing faces to meaningless stimuli that also differ in terms of low-level visual cues (Tzourio-Mazoyer et al., 2002;Kouider et al., 2013).

What is the origin of this early face-selective response? Some authors have suggested a face-processing module pre-specified in the genome (Farah et al., 2000), compatible with newborns' preferential looking behavior for face patterns at birth (Goren et al., 1975;Johnson and Morton , 1991; but see;Turati et al., 2002). However, infants are already extensively exposed to faces after a few months of life. Hence, face-selective responses observed here in 4–6 month-old infants may originate from a combination of initial biological constraints and of accumulation of visual experience with faces during early development. Neuroimaging studies in children show that the magnitude of face-selective neural responses is not adult-like at 7 years of age and keeps increasing until adolescence (Golarai et al., 2007,2010;Scherf et al., 2007), suggesting that face-selectivity continues to increase during development. Given its advantages in terms of sensitivity, implicit recording and objectivity (i.e., measuring brain responses at a known, exact rate of periodic stimulation), the FPVS approach used here with electroencephalography is well positioned to test this hypothesis and characterize the full human developmental course of face processing and natural visual scene categorization.

Materials and methods

Experiment 1

Participants

Nineteen full-term 4- to 6-month-old infants completed Experiment 1 approved by the Biomedical Ethical Committee from the University of Louvain (Belgian number: B403201215103). Their parents gave written informed consent and none of them reported their infant suffering from any psychiatric or neurological disorders. The data of one infant were excluded because of large artifacts recorded at one channel of interest (P8) during the whole experiment. Three infants paid fully attention only to one sequence and were therefore excluded from the study. Thus, the final sample consisted of 15 healthy full-term 4- to 6-month-old infants (10 males, mean age = 155 days, SE = 6 days). Note that a rejection rate of 4 datasets out of 19 is extremely low compared to typical EEG studies run with infants of that age, requiring much longer testing durations and a data rejection rate of at least 50% (e.g.,de Haan and Nelson, 1999).

Stimuli

Two-hundred images of various objects (animals, plants, man-made objects) and 48 images of faces were collected from the internet. They differed in terms of color, viewpoint, lighting conditions, and background (Figure 1). They were all resized to 200 × 200 pixels, equalized in terms of luminance and contrast in Matlab (Mathworks, USA), and shown in the center of the screen at a 800 × 600 pixel resolution. At a testing distance of 40 cm, they subtended approximately 13 by 13° of visual angle. The same stimuli were used in grayscale versions and with a slightly different stimulation paradigm in a recent study with adults (Rossion et al., 2015).

Procedure

Stimuli were presented through sinusoidal contrast modulation (0–100%) at a rate of 6 Hz (6 images/s) using the Psychtoolbox 3.0.9 for Windows in Matlab 7.6 (MathWorks Inc.). This base stimulation frequency rate was selected because it elicits large periodic brain responses to faces in adults (Alonso-Prieto et al., 2013). The stimulation cycle of each image presentation therefore lasted 166.66 ms (1000 ms/6) and started with a uniform grey background. A sinusoidal contrast modulation was used because it generates fewer harmonics (i.e., responses at exact multiple of the stimulation frequency, reflecting the nonlinearity of the brain response;Regan, 1989;Norcia et al., 2015) and because it is a smoother visual stimulation than a squarewave stimulation mode. Full contrast was reached midway through each cycle, that is, at 83.33 ms from cycle onset. Each sequence was composed of 4 objects (O) followed, every fifth stimulus, by a face (F), all randomly selected from their respective category (Figure 1). Given this design, the face (F) stimulus was presented at the oddball frequency of 6 Hz/5 = 1.2 Hz and could be directly identified in the EEG spectrum as the signature of infants' face categorization response. Each trial lasted 20 s and was flanked by a 2-s fade-in and a 2-s fade-out, at the beginning and at the end of the sequence, respectively. This linear increase/decrease of contrast modulation depth at the beginning and end of each stimulation sequence was used to avoid abrupt onset and offset of the stimuli, which could elicit eye movements.

Infants were comfortably seated on their mother's laps (N = 5) or in a car seat (N = 10) in a dimly lit and sound-attenuated room during EEG recording. The mothers were instructed not to interact with their babies. Infants viewed between 5 and 12 trials during the experiment and therefore performed between 1 min and 40 s and 4 min of experimentation overall.

EEG acquisition

EEG was acquired using a 32-channel BioSemi Active 2 system (BioSemi, Amsterdam, Netherlands), with electrodes including standard 10–20 system locations as well as 2 additional reference electrodes (http://www.biosemi.com/). Electrode offset was reduced to between ±25 microvolts for each individual electrode by injecting the electrode with saline gel. Eye movements were monitored with a webcam fixed on the computer screen. The experimenter manually launched each sequence when the infant looked at the back-lit screen. If the infant did not look at the screen, the experimenter would attract his/her gaze towards it in between the stimulation sequences by means of her voice or of a ringing colored toy. During the experiment, triggers were sent from the stimulation computer through a parallel port to the recording computer at the start of each trial and at the minima of each stimulation cycle (grey background, 0% contrast) for the object (O) stimulus and the oddball face (F) stimulus.

EEG analyses pre-processing

All EEG analyses were carried out using Letswave 5 (http://nocions.webnode.com/letswave), and MATLAB 2012 (The Mathworks) following procedures described with adult participants (e.g.,Liu-Shuang et al., 2014). EEG sequences could be removed because of (1) a technical problem during recording; (2) an electrode went off during recording; or (3) because the infant did not fixate for the majority of the 20 s. Additionally, the sequence was removed if the SNR was below 2 for the base rate frequency at all medial occipital electrodes Oz, O1, and O2. These criteria led to 1 to 5 sequences excluded per infant. As long as an infant performed one stimulation sequence satisfying these criteria, his/her data was considered into the analyses. EEG data were first filtered with a low cut-off value of 0.1 Hz and high cut-off value of 100 Hz using a FFT band-pass filter. They were then downsampled to 250 Hz to reduce file size and data processing time, and segmented in order to include 2 s of recording before and after each trial. The 28-s long sequences (i.e., 2-s base

d'après une satire de Juvénal.

http://pdf.lu/40U3


 

 

"Pour s'aérer l'esprit, Salk fit un voyage à Assise, en Italie, où il visita la basilique Saint-François d'Assise datant du XIIIe siècle, se promenant entre les colonnes et dans les jardins des cloîtres.
Là, de nouvelles idées surgirent dans son esprit, dont celle qui finit par le conduire à un vaccin efficace contre la poliomyélite, en 1955. Le chercheur devint convaincu que l'environnement d'un bâtiment peut influer sur l'esprit. "

 

Les recherches sur le cerveau permettent aux architectes de concevoir des espaces de vie ou de travail qui améliorent les performances et le bien-être.

 

Dans les années 1950, le biologiste et médecin américain Jonas Salk (1914-1995) cherchait un traitement contre la poliomyélite dans un sombre laboratoire d'un sous-sol de Pittsburgh. Les progrès étaient lents, et, pour s'aérer l'esprit, Salk fit un voyage à Assise, en Italie, où il visita la basilique Saint-François d'Assise datant du XIIIe siècle, se promenant entre les colonnes et dans les jardins des cloîtres.

Là, de nouvelles idées surgirent dans son esprit, dont celle qui finit par le conduire à un vaccin efficace contre la poliomyélite, en 1955. Le chercheur devint convaincu que l'environnement d'un bâtiment peut influer sur l'esprit. Dans les années 1960, il s'associa à l'architecte Louis Kahn (1901-1974) pour construire l'Institut Salk à La Jolla, près de San Diego en Californie : cela devait être un établissement de recherche capable de stimuler la créativité des scientifiques.

Salk redécouvrait ainsi ce dont les architectes ont l'intuition de longue date : les endroits que nous habitons peuvent agir sur nos pensées, nos sentiments et nos comportements. Depuis plusieurs années, les spécialistes du comportement apportent des arguments empiriques en ce sens. Leurs recherches suggèrent qu'il est possible de concevoir les espaces de vie qui favorisent la créativité, l'attention et la vigilance, ou la relaxation et la convivialité. Des institutions telles que l'Académie des neurosciences pour l'architecture de San Diego encouragent la recherche interdisciplinaire sur ce thème. Et certaines écoles d'architecture proposent désormais des cours d'introduction à la psychologie et aux neurosciences.

Concrètement, des projets architecturaux d'avant-garde commencent à voir le jour. Ainsi des résidences pour personnes atteintes de la maladie d'Alzheimer sont conçues pour améliorer la prise en charge des patients (voir l'encadré de la page 34). Dans le domaine scolaire, des établissements, telle l'École Kingsdale à Londres, sont restructurés, avec l'aide de psychologues, pour susciter la cohésion sociale entre les élèves, leur éveil et leur créativité. Selon l'architecte David Allison, qui dirige le programme architecture et santé de l'Université de Clemson, en Caroline du Sud, nous n'en sommes qu'au tout début, mais les recherches en neurosciences devaient nous permettre de mieux comprendre comment l'environnement des bâtiments influe sur notre santé, notre bien-être, nos activités et nos sensations.

Conscience sociale

L'étude scientifique des interactions de l'homme avec l'environnement architectural a commencé dans les années 1950. Plusieurs groupes de recherche ont alors analysé dans quelle mesure la conception des hôpitaux, notamment psychiatriques, modifie les comportements et l'évolution de l'état de santé des patients. Au cours des années 1960 et 1970, le domaine, aujourd'hui nommé psychologie environnementale, a pris son essor.

« À l'époque, la conscience sociale grandissait dans le monde de l'architecture », raconte John Zeisel, un sociologue de l'Université Columbia, à New York, spécialisé dans la conception d'établissements d'accueil de personnes atteintes de la maladie d'Alzheimer. Selon lui, les architectes ont alors commencé à s'interroger sur ce que nous devons savoir sur les habitants d'un bâtiment pour répondre au mieux à leurs besoins.

À la fin du XXe siècle, avec les progrès des neurosciences, les chercheurs se sont demandé comment utiliser les méthodes rigoureuses de cette discipline et une meilleure compréhension du cerveau pour améliorer la conception architecturale. Les résultats obtenus jusqu'à présent confirment que l'environnement peut influencer nos facultés mentales. Prenons quelques exemples.

En 2007, Joan Meyers-Levy, professeur de marketing à l'Université du Minnesota, a montré que l'espace d'une pièce joue sur la façon dont ses occupants pensent. Elle a réparti au hasard 100 personnes dans des pièces dont le plafond était haut soit de 2,5 mètres, soit de 3 mètres. Puis elle leur a demandé de regrouper dix activités sportives en catégories qu'elles devaient choisir.

Hauteur sous plafond

Les sujets installés dans la pièce dont le plafond était le plus élevé ont proposé des catégories abstraites, par exemple des sports « qui représentent un défi » ou qu'ils aimeraient pratiquer. Les participants des pièces basses de plafond ont proposé des regroupements plus concrets, par exemple le nombre de joueurs par équipe. Ainsi, selon J. Meyers-Levy, la hauteur des plafonds influence la façon dont nous traitons les informations. Dans les pièces où le plafond était le plus bas, les sujets ont eu tendance à se concentrer sur des détails plus ou moins importants.

Les travaux antérieurs de J. Meyers-Levy avaient révélé que les gens se sentent moins contraints physiquement lorsque les plafonds sont hauts. Elle suppose de ce fait que de grands volumes encouragent les occupants à penser librement, ce qui pourrait les conduire à établir des associations d'idées plus abstraites. Au contraire, une impression de confinement inspirerait une vision plus focalisée sur les détails, ce qui est préférable dans certaines circonstances. Ainsi, dans un bloc opératoire, un plafond bas est mieux adapté, car le chirurgien doit se concentrer sur les détails. Inversement, de grandes œuvres artistiques ont plus de chances de naître dans des studios spacieux. Toutefois, la hauteur réelle du plafond est moins importante que sa hauteur perçue, et l'on peut modifier cette perception de l'espace en utilisant des couleurs claires ou des miroirs.

La verdure et le mental

En plus de l'espace, la vue qui s'offre aux occupants des bâtiments est susceptible d'influer sur les capacités cognitives, notamment sur la concentration. Regarder par la fenêtre laisse supposer que l'on est en train de rêver ou que l'on est distrait. En fait, la contemplation d'un jardin ou d'une forêt améliore la concentration. Dans une étude publiée en 2000, l'équipe de la psychologue Nancy Wells, de l'Université Cornell, à New York, a suivi des enfants âgés de 7 à 12 ans avant et après un déménagement. Les psychologues ont évalué l'environnement de l'ancien logement de chacune des familles suivies et celui du nouveau. Les enfants dont le nouvel environnement était plus verdoyant ont obtenu de meilleurs résultats à un test standardisé de l'attention (la seule différence notable était cet environnement, les habitations en elles-mêmes n'étant guère différentes en termes de taille ou de confort). Une autre expérience a montré que les étudiants de premier cycle qui apercevaient la nature depuis leur chambre de cité universitaire obtenaient des scores de concentration supérieurs comparés à ceux qui n'avaient que des bâtiments comme vis-à-vis.

Les espaces verts seraient particulièrement bénéfiques pour les enfants et adolescents souffrant de troubles de l'attention. Le paysagiste et chercheur William Sullivan et ses collègues de l'Université de l'Illinois ont étudié 96 enfants souffrant de troubles de l'attention. Ils ont demandé aux parents de décrire la capacité de leur enfant à se concentrer sur un travail scolaire ou sur des instructions, après avoir joué dans divers cadres. Les résultats ont montré que les troubles de l'attention étaient moindres lorsque les enfants avaient joué dans des espaces verts.

Selon une notion développée par les psychologues Stephen et Rachel Kaplan, de l'Université du Michigan, à Ann Arbor, ces bénéfices résulteraient d'un effet mental restaurateur. Selon leur théorie, les tâches de la vie moderne engendreraient une fatigue mentale, et l'observation de la nature reposerait l'esprit. La nature serait plus rassérénante que la ville, parce que les êtres humains ont une tendance naturelle à se sentir bien dans la nature – selon l'hypothèse dite de la biophilie proposée par le psychologue américain d'origine allemande Erich Fromm (1900-1980). En effet, nous avons évolué dans un environnement qui nous prédispose à être plus efficaces dans un espace verdoyant.

Utiliser la nature pour stimuler l'attention serait utile, comme l'indique une étude conduite par Kenneth Tanner, directeur du Laboratoire de conception et planification scolaires à l'Université de Géorgie. Avec ses collègues, il a suivi plus de 10 000 élèves de CM2 dans 71 écoles élémentaires de l'État en les évaluant au moyen de tests de vocabulaire, de langage et de calcul. Les élèves des classes dont les fenêtres donnaient sur des jardins, des montagnes et d'autres espaces naturels, ont obtenu de meilleurs résultats que les élèves dont les classes donnaient sur des routes, des parkings ou diverses structures urbaines.

Voir la lumière

Un environnement naturel a quelque chose d'autre à offrir aux occupants des bâtiments : la lumière du jour. Elle synchronise notre cycle veille-sommeil, ou rythme circadien, ce qui nous permet de rester alertes pendant la journée et de dormir la nuit. Pourtant, la plupart des bâtiments ne sont pas conçus pour la laisser pénétrer autant qu'il serait nécessaire.

Le manque de lumière peut être particulièrement problématique pour les enfants. En Suède, une étude de 1992 a suivi des enfants d'âge scolaire de quatre classes différentes pendant un an. Elle a montré que la concentration sanguine de cortisol, une hormone de stress régulée par le rythme circadien, était perturbée chez les enfants qui étaient dans les classes les moins bien éclairées par la lumière naturelle.

D'autres études ont montré qu'une quantité suffisante de lumière solaire améliore les résultats des élèves. Par exemple, en 1999, des chercheurs d'un cabinet californien de consultants spécialisé dans la construction d'édifices économes en énergie ont analysé les notes de plus de 21 000 élèves de Californie, de l'État de Washington et du Colorado. À l'aide de photographies, de plans architecturaux et de visites sur site, ils ont déterminé, sur une échelle de 1 à 5, la quantité de lumière disponible dans chacune des quelque 2 000 salles de classe étudiées. Sur une année, dans l'un des bassins scolaires, à Capistrano, en Californie, les élèves bénéficiant des salles les plus ensoleillées progressaient plus vite en lecture (26 pour cent) et en mathématiques (20 pour cent), que les enfants dont les salles de classe recevaient le moins de lumière. Dans les deux autres districts, une lumière abondante avait augmenté les scores de 7 à 18 pour cent.

De même, les maisons de retraite sont parfois trop sombres pour permettre le fonctionnement normal de l'horloge circadienne. En 2008, Rixt Riemersma-van der Lek et ses collègues de l'Institut néerlandais de neurosciences, à Amsterdam, ont tiré au sort six établissements pour personnes dépendantes, et y ont fait installer des éclairages supplémentaires, de façon à ce que la luminosité atteigne 1 000 lux environ ; six autres centres n'avaient qu'un éclairage de l'ordre de 300 lux. Lors de tests réalisés à six mois d'intervalle durant trois ans et demi, les résidents des centres les mieux éclairés ont montré un déclin cognitif un peu inférieur (cinq pour cent) à celui des résidents des bâtiments plus sombres. De plus, la lumière supplémentaire a réduit de 19 pour cent les symptômes de dépression. D'autres études ont confirmé que le cycle circadien maintient un fonctionnement optimal du cerveau, notamment en diminuant les fluctuations des hormones et du métabolisme.

Éclairage diurne et nocturne

La longueur d'onde de la lumière est un autre facteur essentiel qui joue sur notre esprit. Le rythme circadien est principalement régulé par la lumière bleue, à longueur d'onde courte ; certains photorécepteurs de la rétine, les cellules ganglionnaires à mélanopsine, transmettent l'information lumineuse à l'horloge biologique du noyau suprachiasmatique, une aire de l'hypothalamus. Ces neurones ont une activité maximale lorsqu'ils détectent de la lumière bleue. Au contraire, les photorécepteurs à bâtonnets et à cônes, responsables de la vision, déchargent le plus lorsqu'ils sont exposés à de la lumière verte ou jaune-vert.

C'est pourquoi des chercheurs recommandent d'utiliser dans les bâtiments des diodes luminescentes bleues et des ampoules fluorescentes émettant dans la totalité du spectre lumineux pendant la journée ; les deux types de lampes comportent suffisamment de lumière bleue pour maintenir les résidents éveillés et alertes. En revanche, après la tombée de la nuit, l'éclairage des bâtiments devrait utiliser des ampoules dont le rayonnement, à plus grande longueur d'onde, serait moins susceptible d'être détecté par le système circadien et d'interférer avec le sommeil pendant la nuit. « Fournir aux habitants un éclairage leur permettant de distinguer le jour et la nuit dans les bâtiments serait une décision architecturale judicieuse », d'après Mariana Figueiro, du Centre de recherche sur l'éclairage de l'Institut polytechnique Rensselaer, à Troy, dans l'État de New York.

La lumière et les formes font l'ambiance

Bien qu'une lumière brillante soit susceptible de stimuler la cognition, des travaux récents suggèrent qu'elle interfère avec la relaxation et l'ouverture aux autres, des qualités plus importantes que la vigilance dans certaines situations. Dans une étude datant de 2006, 80 étudiants ont été interrogés l'un après l'autre dans un bureau à éclairage tamisé, ou à éclairage fort, avant de remplir un questionnaire évaluant leurs réactions à l'entretien. Les étudiants interrogés dans le bureau faiblement illuminé se sentaient plus décontractés, percevaient l'entretien plus positivement et livraient plus d'informations sur eux-mêmes que les étudiants du bureau très éclairé. Ce résultat confirme qu'une lumière tamisée est source de détente.

La luminosité d'une pièce peut donc avoir des effets relaxants ou stressants. C'est vrai aussi pour l'ameublement ou la décoration. Moshe Bar et Maital Neta, de la Faculté de médecine de Harvard, ont montré à des sujets des photographies de différentes versions d'objets neutres, par exemple des divans et des montres, dont certains avaient des bords arrondis, et d'autres des contours rectilignes. Lorsqu'on leur demandait d'émettre un jugement rapide sur ces objets, les sujets préféraient ceux qui étaient curvilignes. Les chercheurs supposent que cette préférence existe parce que les contours très marqués (rectilignes) sont codés, dans notre cerveau, comme des dangers potentiels.

À l'appui de cette théorie, M. Bar a examiné des sujets regardant une série d'objets neutres pendant que leur cerveau était observé par imagerie par résonance magnétique fonctionnelle. Il a observé que l'amygdale cérébrale, une structure impliquée dans le traitement de la peur et des émotions, était plus activée lorsque les sujets observaient des objets dont les coins étaient très marqués. Cette réaction semble ancrée dans le cerveau, car diverses formes élémentaires sont riches en informations qui alertent notre conscience d'un danger ou, au contraire, lui indiquent l'absence de risques. Bien sûr, les contours des objets ne sont pas seuls à guider nos préférences esthétiques. Mais il semble que meubler une pièce à vivre ou une salle d'attente avec des meubles dont les bords sont ronds ou curvilignes aide leurs occupants ou les visiteurs à se détendre.

La convivialité par les meubles

La disposition des meubles peut aussi influer sur les relations sociales. Certaines recherches initiales en psychologie environnementale se sont intéressées à la disposition des sièges dans des résidences de soins ; on a ainsi découvert que la pratique courante consistant à placer les chaises le long des murs des salles de séjour empêchait la socialisation. En revanche, disposer les meubles en petits groupes dispersés dans la pièce encourage les échanges entre pensionnaires.

En 1999, des psychologues de l'Université de Magdeburg, en Allemagne, et de l'Université d'Uppsala, en Suède, ont repris ce thème de recherche avec des élèves. Une classe deCM1 a utilisé pendant huit semaines des bureaux alignés puis, pendant une durée identique, des bureaux placés en demi-cercle autour de l'enseignant. La deuxième configuration a augmenté la participation des élèves et le nombre de questions qu'ils posaient. D'autres études suggèrent cependant que mettre les bureaux en rang encourage les élèves à travailler indépendamment et améliore la discipline en classe.

Le revêtement du sol semble également intervenir. À l'hôpital, la présence d'une moquette augmente le temps que les amis et la famille des patients passent en visite, selon une étude publiée en 2000 par la psychologue Debra Harris. Or le soutien social accélérerait la guérison. Évidemment, une moquette est bien plus difficile à nettoyer que les sols habituels des hôpitaux ; elle peut représenter un risque pour la santé dans certains services, tel celui des urgences. Mais les chambres et les services de séjours de longue durée pourraient sans doute tirer parti de cette constatation.

Jusqu'à présent les scientifiques se sont surtout intéressés aux bâtiments publics, tels les hôpitaux, les écoles et les magasins, mais peu aux habitations privées. Pourtant, de plus en plus d'études montrent que l'architecture, l'agencement des pièces et des ouvertures, les couleurs et les sources de lumière (la nature même de la lumière), l'ameublement et les revêtements jouent un rôle notable sur le bien-être éprouvé dans les lieux de vie ou de travail. La psychologie environnementale est un nouveau champ de recherche dont l'un des objectifs est d'améliorer la vie au quotidien. 

Emily Anthes


 

 

Le roman de Robert Louis Stevenson possède une charge symbolique et émotionnelle hors du commun. Qu'est-ce qui rend l'être humain double, présentant en puissance une face sombre et un visage lumineux ? Les psychiatres ont exploré cette question, dont l'auteur avait pressenti les principaux enjeux.

 

 

« Avec un courage exalté par mon ardeur, j’avalai d’un trait la potion. Les douleurs les plus atroces s’ensuivirent : mes os semblèrent se broyer, je ressentis une terrible nausée et une horrible angoisse […] ».

Quand Robert Louis Stevenson publia L'étrange cas du Dr Jekyll et de Mr Hyde en 1886, il était sans doute loin de se douter que son récit resterait ancré dans l'imaginaire populaire au point de devenir une expression du langage courant et le prototype du personnage qui mène une double vie. Jekyll et Hyde est devenu le portrait du psychopathe à double visage habité par une personnalité mortifère, tel Norman Bates dans Psychose de Hitchcock, mais aussi la figure du savant fou ayant conclu un contrat faustien, et ne remarquant que bien trop tard la nature immorale de ses manipulations.

Bien au-delà du thème simpliste de la dualité entre bien et mal et de la notion caricaturale de la schizophrénie en tant que « dédoublement de la personnalité » passée dans le langage commun, le texte de Jekyll et Hyde est riche en idées pertinentes pour la psychologie et la neurologie d'aujourd'hui. On y trouvera une réflexion profonde sur les thèmes du rejet de l'altérité et du refoulement des émotions qui caractérise l'essor de la modernité et de l'individualisme à l'ère victorienne, mais également des intuitions remarquables sur la notion de modularité de l'esprit ainsi que sur les concepts cliniques de dissociation et de perturbation de la conscience de soi.

On se trompe souvent en pensant que l'histoire évoque deux êtres totalement indépendants l'un de l'autre. Au contraire, il me semble que le drame se situe dans le fait que Jekyll ne quitte jamais Hyde, et vice versa.

Vladimir Nabokov, dans sa leçon sur Jekyll et Hyde à l'Université Cornell, avait proposé un schéma simple et pertinent pour illustrer la nature des rapports entre les deux identités. Jekyll ne se « transforme » pas, à proprement parler, en Hyde, comme s'il s'agissait d'une entité étrangère. Les deux identités coexistent dès le début, et l'effet de la potion secrète développée par Jekyll, qui, rappelons-le, est chimiste, est de « précipiter », ou « sédimenter » la portion de mal qui existe en lui.

Deux sois imbriqués

À l'état normal, Jekyll contient donc toujours Hyde. Sous la forme de Hyde, il conserve des aspects de Jekyll qui ne peuvent tout à fait être « isolés » de Hyde, et c'est d'ailleurs ce qui permet à ce dernier de reprendre la potion pour devenir Jekyll à nouveau. Ainsi, jamais Jekyll et Hyde ne sont parfaitement séparés, Hyde est simplement une version plus « concentrée » des aspects les plus négatifs de Jekyll. Les deux identités partagent les mêmes souvenirs, y compris les turpitudes de Hyde et les remords de Jekyll. C'est bien cette impossibilité de se débarrasser l'un de l'autre qui constitue le tragique de l'histoire. Et la découverte du carnet de laboratoire de Jekyll montre qu'il en était parfaitement conscient : en regard de l'expérience sobrement intitulée « double », on trouve le commentaire « échec total !!! ».

Jekyll, la multiplicité du moi

Qu'est-ce qui a bien pu motiver un scientifique de renom à se livrer à des expériences aussi bizarres ? Jekyll est un « homme de cinquante ans, corpulent, bien bâti, au visage sans rides », il peut se targuer de multiples titres honorifiques, il est célèbre pour ses œuvres de charité, c'est, en somme, « la fine fleur de la bonne société ». Pourtant, malgré tous ces signes de « compétence » et de « bonté », on peut déceler chez lui « une touche de duplicité ».

La nature même de ses travaux l'a d'ailleurs brouillé avec son confrère le Dr Lanyon. « Depuis plus de dix ans, dit-il, Henry Jekyll est devenu bien trop fantasque pour moi. Quelque chose s'est détraqué dans son esprit […] », et de dénoncer les « foutaises prétendument scientifiques » auxquelles se livrait Jekyll. Ce dernier semble également traîner un lourd passé : « Dans sa jeunesse, il y a certes fort longtemps de cela, il a fait bien des folies », nous apprend succinctement l'un de ses proches. Les aveux de Jekyll lui-même, dans sa lettre finale, ne sont guère plus instructifs : « Le pire de mes défauts était une certaine et irrésistible inclination aux jouissances de l'existence, […] qui pour moi était difficilement conciliable avec l'impérieux désir que j'avais de garder la tête haute, et de présenter en public une gravité hors du commun. […] Bien des hommes se seraient même vantés de ces mêmes extravagances de conduite dont j'étais coupable ; mais étant donné les buts élevés que je m'étais fixés, je considérais celles-ci, et partant les dissimulais, avec un sentiment de honte presque maladif. »

On n'en saura pas plus sur ces « extravagances de conduite », mais elles semblent avoir travaillé la conscience de Jekyll au point qu'il ne conçoit plus de vivre sans y remédier. À ce stade de ses réflexions, Jekyll réalise que ses préoccupations morales sur « la lutte permanente entre les éléments de [sa] personnalité » rejoignent ses intérêts scientifiques, « qui tendaient entièrement vers le mystique et le transcendantal ». Sa conclusion est que « l'homme n'est pas une créature simple, mais en vérité double » et qu'il « se révélera être une simple organisation de diverses et nombreuses individualités, disparates et indépendantes ». Partant, il entrevoit la possibilité de résoudre scientifiquement ce problème : « J'avais appris à m'attarder avec plaisir, comme dans une rêverie souvent caressée, sur l'idée de la séparation de ces éléments. Si l'on pouvait seulement, me dis-je, loger chacun d'eux dans une identité distincte, la vie serait débarrassée de tout ce qui, en elle, est insupportable ; l'homme inique pourrait aller son chemin, délivré des aspirations et des remords de son jumeau plus honnête ; et le juste pourrait gravir résolument et en toute sécurité le sentier de la vertu, […] désormais à l'abri de la honte et du repentir provoqués par cette nature malfaisante qui lui est étrangère. C'est la malédiction de l'humanité que ce faisceau d'éléments disparates soit ainsi réuni – et qu'au sein de la conscience torturée, ces jumeaux opposés mènent une lutte qui jamais ne finit. Comment, par conséquent, les dissocier ? »

La solution prendra la forme d'« un simple sel cristallisé de couleur blanche », mélangé à « une liqueur rouge sang qui irritait fortement le nez ». Mais attardons-nous sur les motivations exprimées par Jekyll. Il semble qu'en restant volontairement flou sur le passé et la nature exacte des contradictions de son personnage, Stevenson fasse en fait le portrait de l'homme moderne en général, contraint de jongler entre son image publique et sa véritable personnalité, entre ses devoirs et ses aspirations. Cette dualité a sans doute pris des proportions considérables sous l'ère victorienne, une période où les avancées scientifiques et industrielles devaient être conciliées avec des préoccupations religieuses exacerbées, et où l'essor de l'individualisme bousculait les anciennes structures sociales et les frontières entre le privé et le public. Stevenson, issu d'une famille extrêmement pieuse, vécut difficilement ces tiraillements.

Mais son évocation d'un « faisceau d'éléments disparates » comme constitutifs de la personnalité humaine résonne plus profondément encore avec les progrès des sciences de l'esprit contemporaines. En effet, la notion de « modularité » est aujourd'hui centrale en psychologie et en neurosciences. La pensée, la perception, la mémoire et les émotions sont conçues comme autant de parcelles plus ou moins indépendantes du comportement humain, reflétant l'activité de régions cérébrales distinctes. Comme autant de petits robots qui opèrent en dessous du seuil de conscience, les « modules » contribuent à résoudre des problèmes spécifiques aux environnements physiques, biologiques et sociaux auxquels les humains doivent faire face. Stevenson met ainsi le doigt sur la possibilité de conflit entre les modules, anticipant non seulement les thèses sur l'inconscient de la psychanalyse en devenir, mais également la révolution des sciences cognitives.

Hyde, l'altérité absolue

Tournons-nous à présent vers la seconde identité de Jekyll : Hyde. La première métamorphose est racontée par Jekyll lui-même : « Avec un courage exalté par mon ardeur, j'avalai d'un trait la potion. Les douleurs les plus atroces s'ensuivirent : mes os semblèrent se broyer, je ressentis une terrible nausée et une horrible angoisse. […] Puis ces tortures commencèrent à s'apaiser rapidement, et je revins à moi comme au sortir d'une grave maladie. Il y avait quelque chose d'étrange dans mes sensations, quelque chose d'indiciblement nouveau, et, par le fait même de cette nouveauté, d'incroyablement agréable. » La métamorphose, bien sûr, est physique également, Hyde est « singulièrement petit », il semble beaucoup plus jeune que Jekyll, il marche d'« un pas léger », parle d'une voix « enrouée, basse et quelque peu étranglée », et donne « une impression de difformité, sans que l'on pût distinguer chez lui de malformation caractérisée ».

Tous ceux qui croisent son chemin s'accordent à le décrire comme « le genre d'homme avec qui personne ne voudrait avoir de rapport, un être absolument odieux », perçoivent « quelque chose d'insolite dans son apparence, quelque chose de désagréable, quelque chose de franchement haïssable », ressentent une « forte et désagréable impression » ainsi qu'une « curiosité mêlée de dégoût » dès la première rencontre, mais sans savoir pourquoi. Un personnage rapporte que sa « moelle se recroquevillait de froid » en le voyant. Tous perçoivent une difformité physique, mais ne savent pas dire laquelle. Tous ressentent également de la haine à son égard : un docteur, rien qu'à le voir, « était malade et blême de l'envie de le tuer ».

Rien d'étonnant, dans ces conditions, qu'il soit tour à tour qualifié de « monstre », de « chose », ou d'« homme des cavernes », et que la figure du diable soit souvent évoquée dans le récit. Bien sûr, le nom même de « Hyde » évoque cette sensation insaisissable, « cachée ». Stevenson produit ainsi un effet subtil. Au lieu de livrer au lecteur une description du « mal » en tant que tel, il évoque uniquement les réactions qu'il suscite chez ceux qui le voient. Le seul qui n'éprouve pas de réaction de rejet, d'ailleurs, est Jekyll/Hyde lui-même : « Lorsque je considérais dans le miroir cette horrifique apparition, je ne ressentais à son égard aucun dégoût, mais l'accueillais au contraire avec un sursaut de joie. Car lui aussi, c'était moi. Il me semblait naturel et humain. » Mais il n'est pas dupe, il sait que personne ne peut rester indifférent en sa présence, car si tous les êtres humains, note-t-il, sont un amalgame de bien et de mal, « Edward Hyde, lui, et lui seul, parmi tous les humains, était le mal à l'état pur ».

C'est sans doute pour cette raison qu'il inspire également fascination et curiosité, comme si la potion secrète de Jekyll contaminait les autres à travers Hyde, et éveillait en eux leurs propres tourments sur la dualité de l'homme. La haine et l'angoisse que Hyde suscite chez ceux qui le voient ne sont autres que la crainte inconsciente chez l'observateur de découvrir en chair et en os la face sombre qui l'habite lui-même. Cette interprétation se rapproche de la notion freudienne d'« inquiétante étrangeté », cette anxiété indéfinissable face au familier inattendu, l'habituel qui soudain paraît incongru et suscite l'effroi. Freud donnait d'ailleurs un exemple personnel où il vécut une expérience désagréable devant un personnage incongru, avant de se rendre compte qu'il s'agissait d'un reflet de lui-même dans une vitre. Dans des proportions tout à fait exagérées, c'est bien cette sensation qu'évoque Hyde à quiconque croise son chemin. La potion de Jekyll n'est donc pas uniquement un philtre magique qui n'agirait qu'en lui-même, elle fonctionne comme un révélateur pour ses contemporains.

L'histoire de Jekyll et Hyde est devenue l'emblème du concept de « double personnalité » ou de « personnalité multiple ». La question de la dualité de l'esprit humain était en vogue à l'époque où Stevenson écrivait son œuvre, elle se retrouvait par exemple dans la fascination de l'auteur pour l'histoire vraie de Deacon Brodie, un notable d'Édimbourg qui menait une double vie : gentleman et politicien le jour, cambrioleur la nuit.

Personnalités multiples

Stevenson travaillait sur une adaptation théâtrale de ce fait divers dès 1865, c'est-à-dire plus de 20 ans avant Jekyll et Hyde. On sait aussi qu'il travaillait régulièrement pour le magazine populaire Cornhill, dans lequel nombre d'articles évoquant les recherches pionnières sur l'hystérie, le somnambulisme et les états dissociatifs, dont des cas célèbres de personnalité multiple, ont été rapportés. Dans ses mémoires, la femme de Stevenson évoque, sans le nommer, un article en français sur la notion de subconscient qui aurait beaucoup impressionné son mari. Il pourrait s'agir du cas de Félida X, née en 1843, qui avait développé dès son adolescence des épisodes de migraine, convulsions, douleurs et somnambulisme au décours desquels elle émergeait avec une personnalité différente, beaucoup plus gaie que sa personnalité « première ». Cette seconde Félida avait accès à ses propres souvenirs et à ceux de la première Félida, mais l'inverse n'était pas vrai. Au fil des années, la seconde personnalité en vint d'ailleurs à l'emporter progressivement sur la première, si bien que la première, la « vraie » Félida, devint quasi inexistante. Jekyll – nous allons le voir – a suivi un destin comparable, mais beaucoup plus tragique.

Les causes de cette étrange forme d'hystérie ne sont pas connues, mais le cas Félida X a donné lieu à de nombreuses théories et controverses. Aujourd'hui, la notion d'« état second », désignant un état qui semble étranger à la conscience, est familière, mais elle était au cœur des préoccupations des cliniciens et philosophes du début du XIXe siècle et a largement contribué à l'émergence du concept d'inconscient. C'est parce que certaines instances de notre vie mentale nous sont inconnues, ou ont été rendues telles par un mécanisme de refoulement ou une barrière dissociatrice, que leur émergence soudaine fut comprise comme la clé des symptômes dissociatifs. Plus récemment, ces idées sont revenues en force avec l'émergence, dès les années 1980, de troubles de personnalités multiples dans les cabinets américains. L'inconscient, dans ce contexte, concernait essentiellement des souvenirs d'abus sexuels subis pendant l'enfance et qui auraient été refoulés depuis lors.

Le mécanisme de défense postulé était celui d'un fractionnement de la personnalité, permettant d'évacuer le traumatisme vécu. Un des problèmes de cette approche fut bien sûr de déterminer si de tels abus sexuels avaient effectivement eu lieu, et il s'est avéré que ces souvenirs étaient souvent inventés de toutes pièces par des thérapeutes peu scrupuleux ou simplement incompétents, qui voyaient dans l'hypnose le moyen idéal de retrouver, à tout prix, des souvenirs d'événements qui avaient été conçus comme la seule explication possible des symptômes rapportés par leurs patientes.

Je veux le bien, mais fais le mal

En ce qui concerne Hyde, il n'est pas la manifestation de l'inconscient de Jekyll. Le texte est explicite : Jekyll veut mettre à jour une facette de son identité dont il n'est que trop conscient, et ce pour l'écarter. Son « cas » est bien plus subtil qu'un simple « retour du refoulé ». Insistons sur le fait que dès le départ, Jekyll et Hyde ne forment qu'une seule et même identité, dont la proportion de « négativité » varie. Du reste, à mesure que l'on s'approche de l'issue fatale, les personnages de Jekyll et de Hyde deviennent de plus en plus indissociables. Dans sa confession finale, qui précède son suicide, Jekyll montre une certaine confusion sur son identité. C'est que, à court d'un ingrédient clé, Jekyll ne peut plus produire sa potion et se retrouve emprisonné dans le corps de Hyde, incapable de revenir à son identité première.

Malgré les différences physiques qui distinguent Jekyll et Hyde, le conflit se situe entièrement au sein d'un même esprit, celui de Jekyll. C'est en son sein que « les forces de Hyde semblaient avoir profité de la faiblesse maladive de Jekyll ». Du reste, dans les moments où Hyde redevient Jekyll, ce dernier ne peut tout simplement pas se tourner vers la « vertu » et oublier la « honte » de ses pensées néfastes.

Ce qui manque à l'expérience de Jekyll, c'est un troisième personnage, qui serait un concentré du bien, entièrement séparé à la fois de Hyde et de Jekyll. Or Jekyll contient Hyde. Dès lors, même sous ses traits respectables, Jekyll était « encore porté vers une vie de plaisirs […] dégradants ». C'est cette asymétrie qui fait que Jekyll est irrésistiblement attiré par Hyde, alors que ce dernier préférerait se débarrasser de son encombrant jumeau. Et c'est ainsi que Hyde va finir par prendre le dessus : « Alors qu'au début la difficulté avait été de me défaire du corps de Jekyll, dernièrement, au contraire, elle s'était inversée d'une manière progressive, mais très nette. Tout, par conséquent, semblait indiquer que j'étais lentement en train de perdre le contrôle de cette partie première, et la meilleure, de ma personnalité, pour m'incorporer lentement à la seconde, de beaucoup pire. »

La neurologie du double

Dans ces conditions, Jekyll ne sait alors plus très bien qui il est. Sa confession alterne entre la première et la troisième personne. En tant que Jekyll, il écrit à propos de Hyde : « Je dis “il” – je ne puis me résoudre à dire “je”. » Mais plus loin, c'est Jekyll qui devient « il ». Hyde se manifeste aussi à travers l'identité de Jekyll, en lui jouant des « mauvais tours », comme écrire des blasphèmes en marge des livres pieux au travers desquels Jekyll cherche la rédemption, ou brûler les lettres de son père ainsi que son portrait.

Ces manifestations évoquent certains syndromes neurologiques, comme celui de la « main étrangère ». Chez ces patients présentant une lésion de la connexion qui relie les deux hémisphères, la main gauche semble devenir indépendante de la droite et agir contre la volonté du sujet, fermant une porte qu'il vient d'ouvrir ou déboutonnant une chemise tout juste fermée. Dans certains cas extrêmes, la vie devient impossible et il faut immobiliser cette main par un moyen ou un autre. En outre, lors de lésions de l'hémisphère droit, il peut arriver que le patient rejette l'appartenance de son bras gauche, comme si c'était celui d'un étranger ou un cadavre. Ces cas de « somatoparaphrénie » sont proches d'un autre symptôme nommé « misoplégie », où les malades maltraitent verbalement ou physiquement leur bras paralysé après un accident vasculaire cérébral. Il existe des cas encore plus complexes, tel l'« héautoscopie » ou « sensation de présence », où le malade perçoit l'existence d'un double ou d'une « ombre » qui perturbe le sens de l'identité et qui peut se montrer hostile vis-à-vis du patient.

Ces étranges manifestations cliniques sont peut-être plus proches du « cas » de Jekyll et Hyde que celle de la dissociation, car plus tranchées, moins controversées et présentant plus souvent la notion d'une lutte interne, une division au sein du moi plutôt qu'un dédoublement entre plusieurs personnalités s'ignorant les unes les autres.

La portée de l'étrange histoire de Jekyll et Hyde, ainsi qu'en témoigne son succès jamais démenti, dépasse de loin la morale étroite qu'en retire Jekyll, à savoir : « J'ai appris par expérience que le destin accablant de notre vie repose pour toujours sur nos épaules ; et lorsque nous tentons de nous en libérer, ce n'est que pour le voir retomber sur nous d'un poids encore plus étrange et plus terrible. » Certes, on ne manipule pas impunément la fragile identité humaine. Mais pour chaque imposteur qui échappe à la réprobation de ses contemporains, pour chaque double vie révélée au grand jour, combien sont les malheureux qui subissent une existence qui n'est pas vraiment la leur ? Et combien sont les Hyde qui restent impunis parce que trop bien intégrés à la société ? ■

Sebastian Dieguez

A. Stiles, Robert Louis Stevenson's Jekyll and Hyde and the double brain, inStudies in English Litterature, vol. 46(4), pp. 879-900, 2006.

E. Azam, Hypnotisme, double conscience et altérations de la personnalité : le cas Félida X, L'Harmattan, 1887/2004.

R. Mighall, Diagnosing Jekyll : the scientific context to Dr Jekyll's experiment and Mr Hyde's embodiment, in Robert Louis Stevenson, The strange case of Dr Jekyll and Mr Hyde and other tales of terror, Penguin Classics, pp. 145-161, 2002.

E. Scarlett, The infernal door : medical and literary notes on Dr Jekyll and Mr Hyde, in Canadian Medical Association Journal, vol. 48, pp. 243-249, 1943.


 

 

Les neuroscientifiques découvrent que certains tueurs de sang-froid souffrent d'une anomalie cérébrale qui les laisse dériver dans un monde sans émotions.

 

 

Le mot « psychopathe » évoque des images de violence brutale vues au cinéma : Jack Nicholson poursuivant sa famille avec une hache dans The Shining, ou Anthony Hopkins incarnant Hannibal Lecter, le visage enfermé dans une muselière renforcée pour l’empêcher de tuer les gens en les déchiquetant avec ses dents. Mais la vie offre d’autres images, celles de tueurs à l’apparence agréable : les psychopathes sont des gens aimables, quand ils veulent.

Nous avons interrogé des centaines de détenus pour évaluer leur santé mentale. Nous sommes habitués à côtoyer les psychopathes, et pourtant, se trouver en face d’un vrai psychopathe peut être fascinant, autant que déstabilisant. L’une des particularités les plus frappantes des psychopathes est leur manque d’empathie ; ils sont capables de balayer d’un revers de main les obligations sociales les plus universelles. Ils mentent et manipulent, et n’en ressentent ni remords ni regrets : ils n’éprouvent aucun sentiment.

L’émotion est fondamentalement ce qui permet aux gens normaux de trouver un sens au monde. Elle éclaire nos décisions « viscérales », nos liens aux personnes et aux lieux, elle nous donne le sentiment d’appartenir à un groupe, d’avoir un but. Il est presque impossible d’imaginer la vie sans sentiments – jusqu’à ce qu’on rencontre un psychopathe. Mais les psychopathes masquent souvent leurs déficits en se montrant charmeurs et séduisants, et il peut s’écouler un certain temps avant qu’on ne réalise à qui on a affaire.

Les psychopathes sont difficiles à démasquer

L’un d’entre nous (K. Kiehl) avait l’habitude de demander à des doctorants inexpérimentés d’interviewer un détenu avant de les mettre au courant de son passé criminel. Ces psychologues en herbe ressortaient convaincus qu’une personne s’exprimant aussi bien, semblant tout à fait digne de confiance, devait avoir été emprisonnée par erreur. Du moins jusqu’à ce qu’ils aient lu son dossier – proxénétisme, trafic de drogue, fraude, vol, etc., – et qu’ils retournent alors l’interroger, pour s’entendre répondre : « Oh, oui, je ne voulais pas vous raconter tous ces trucs. C’était le moi d’avant. »

Cette apparence de normalité – ce masque de normalité – a largement compliqué l’étude des psychopathes. Bien que coupables des comportements les plus irresponsables, et parfois les plus destructeurs et violents, ils ne présentent aucun signe de maladie mentale. Ils n’ont pas d’hallucinations et n’entendent pas de voix. Ils ne sont ni confus, ni anxieux, ni dominés par des pulsions irrépressibles. Ils ne sont pas non plus maladroits en société. Ils ont souvent une intelligence supérieure à la moyenne. Ajoutons qu’ils n’expriment pas de réels remords ni de désir de changer. Il a donc été facile de considérer les psychopathes non pas comme les victimes d’un grave dysfonctionnement mental, mais simplement comme des opportunistes. On se demandait même s’ils étaient fous ou simplement mauvais.

Du Caïn de la Bible au kunlangeta des Inuits parlant le Yupi et au arankan du Niger, presque toutes les cultures ont rapporté l’existence d’individus dont les comportements antisociaux menacent la paix des communautés. Mais grâce aux méthodes capables d’évaluer l’activité cérébrale en temps réel, les spécialistes ne sont plus limités à la seule étude des comportements des psychopathes. Aujourd’hui, nous pouvons étudier ce qui se passe dans leur cerveau quand ils pensent, prennent des décisions et réagissent à leur environnement. Et ce que nous découvrons, c’est que les psychopathes présentent une anomalie biologique grave. Leur cerveau ne traite pas les informations comme celui des autres personnes. Ils semblent souffrir d’un trouble de l’apprentissage qui interfère avec leur développement émotionnel.

Dans un mouvement collectif de renoncement, les psychiatres ont souvent écrit qu’on ne pouvait rien pour les psychopathes. Mais maintenant que la science révèle les mécanismes sous-jacents de cette pathologie, il est temps de changer d’attitude. Si des déficits physiologiques spécifiques empêchent les psychopathes de ressentir de l’empathie envers autrui, de former des relations stables et de tirer des enseignements de leurs erreurs, alors mieux les comprendre pourrait conduire à de nouveaux traitements : des médicaments, et peut-être des stratégies comportementales plus adaptées.

K. Kiehl a engagé un programme ambitieux de plusieurs millions de dollars – financé par l’Institut américain de santé mentale (nimh), l’Institut américain de toxicomanie (nida) et la Fondation John et Catherine MacArthur – pour collecter des informations génétiques, les scanners cérébraux et les dossiers de quelque 1 000 psychopathes, et les compiler afin de construire une base de données destinée aux chercheurs. Pour accélérer le travail, il a contribué à la conception d’un scanner portable – un appareil d’irm fonctionnelle qui tient dans un camion. Cet appareil est introduit dans les prisons, ce qui évite d’avoir à demander les autorisations administratives visant à laisser sortir des psychopathes dangereux.

Nous pensons que comme toutes les personnes souffrant de maladies mentales, les psychopathes ont droit à un traitement ; même si l’on n’éprouve aucune sympathie pour eux, on peut vouloir les aider. Aux États-Unis, entre 15 et 35 pour cent des détenus sont des psychopathes. Ils enfreignent la loi plus souvent et plus violemment que les autres, et ont une probabilité quatre à huit fois plus élevée de récidiver après leur libération. En fait, il existe une corrélation directe entre le score que les personnes interrogées obtiennent sur une échelle de psychopathie en 40 points (voir l’encadré page 66) et leur probabilité de ne pas tenir leurs engagements. K. Kiehl a récemment estimé que le coût des poursuites et de l’incarcération des psychopathes, ajouté au coût des drames qu’ils provoquent dans la vie des autres, atteint, aux États-Unis, entre 250 et 400 milliards de dollars par an. Aucun autre trouble mental d’une telle dimension n’est à ce point occulté.

Tête pleine, cœur vide

Un homme que nous appellerons Brad était en prison pour un crime particulièrement horrible. Au cours d’un entretien, il décrivit comment il avait kidnappé une jeune femme, l’avait attachée à un arbre, l’avait violée pendant deux jours, puis l’avait égorgée et l’avait laissée morte. Il racontait l’histoire, puis concluait, avec une froideur inoubliable : « Vous avez une fille ? Parce que je pense que c’est vraiment important de parler avec elle, de lui donner votre amour et beaucoup de compassion. C’est le secret d’une bonne relation. J’ai essayé de pratiquer cela dans toutes mes relations. » Il parlait sans hésitation, totalement inconscient de l’effet que provoquaient ces phrases après son atroce confession.

Aussi charmants qu’ils puissent paraître, les psychopathes sont incapables de nuances parce qu’ils n’ont pas accès à leurs propres sentiments ni à ceux des autres. Imaginez ce que ce serait que de n’être jamais déprimé ou anxieux, de n’avoir jamais de regrets, mais aussi de ne jamais aimer profondément qui que ce soit ou quoi que ce soit. Les émotions des psychopathes sont superficielles : ils sont irrités lorsqu’ils n’obtiennent pas ce qu’ils veulent et adoptent des comportements risqués pour les raisons les plus futiles. Privés de loyauté et de passions, ils errent dans la vie, basculant souvent dans le crime. Vols, agressions et même meurtres sont susceptibles d’être commis sans raison apparente. En ce qui concerne les émotions complexes telles que le dévouement, la culpabilité ou la joie, ils n’en ont qu’une compréhension livresque.

Des dizaines d’articles révèlent que les psychopathes ressentent le monde différemment. Ils ont des difficultés à émettre des jugements appropriés sur les valeurs morales et à dominer leurs pulsions. Ils sont insensibles aux indices émotionnels. En 2002, James Blair, de l’Institut américain de santé mentale, a montré qu’ils ont du mal à détecter les émotions, notamment la peur, dans la voix d’une autre personne. Ils ont aussi des difficultés à identifier la peur sur un visage. Dans une expérience classique réalisée en 1991, l’équipe du psychologue Robert Hare, de l’Université de Colombie-Britannique, a montré que les psychopathes ne perçoivent pas les nuances émotionnelles présentes dans le langage. Les chercheurs ont présenté brièvement des mots réels et des pseudomots à des prisonniers, dont certains étaient des psychopathes, et leur ont demandé d’appuyer sur un bouton lorsqu’ils voyaient un vrai mot.

Les psychopathes étaient aussi rapides que les autres pour différencier les mots des non-mots. Mais l’expérience était allée un peu plus loin : parmi les mots, certains avaient une connotation positive ou négative (« lait », « cicatrice »), tandis que d’autres étaient neutres (« crayon »). Les non-psychopathes repéraient instantanément les mots chargés émotionnellement ; sur l’électroencéphalogramme, on distinguait des pics de l’activité électrique reflétant des réponses cérébrales automatiques, et ils appuyaient très vite sur le bouton. Au contraire, les psychopathes ne réagissaient pas plus vite aux mots émotionnels qu’aux autres et leur activité cérébrale restait stable (voir l’encadré ci-contre).

Hyperfocalisés sur leur objectif

Un nombre croissant de données montre que les psychopathes présentent des anomalies de la compréhension du langage. Ils ont du mal à comprendre les métaphores – par exemple, ils ont une plus grande probabilité que des sujets standards de juger que la phrase « L’amour est un antidote aux maux de ce monde » est négative. Dans une étude datant de 1999, K. Kiehl a trouvé que les psychopathes font plus d’erreurs dans des tâches consistant à identifier des noms abstraits – des mots tels que « amour », « tromperie », « confiance », « dévouement » et « curiosité ».

Un autre déficit des psychopathes concerne les mécanismes de l’attention. Dans une expérience, Joseph Newman, de l’Université de Wisconsin-Madison, a montré que les psychopathes ont du mal à changer de stratégie, même lorsque celle choisie pour atteindre leur objectif échoue. Dans cette expérience sur ordinateur, les participants recevaient un paquet de 100 cartes arrangées de telle sorte que neuf des dix premières cartes étaient des figures, mais seulement huit des dix suivantes, sept des dix suivantes et ainsi de suite. On leur expliquait qu’à chaque fois qu’ils retournaient une carte, ils gagnaient un point si c’était une figure, et ils perdaient un point si ce n’était pas le cas. Il était facile de gagner des points au début. Cependant, à mesure que les probabilités diminuaient, les non-psychopathes le remarquaient et arrêtaient de jouer, généralement après environ 50 cartes. Au contraire, les psychopathes continuaient jusqu’à ce qu’il ne reste pratiquement plus de cartes et qu’ils aient perdu tous leurs gains.

Selon J. Newman, la brutalité des psychopathes résulterait d’un trouble de l’attention : ils n’enregistrent pas les nouvelles informations lorsque leur attention est engagée dans une tâche. Des recherches antérieures suggéraient que les psychopathes étaient insensibles : ils ne transpirent pas lorsqu’ils sont exposés à des odeurs nauséabondes ou quand on leur montre des images de visages mutilés. Mais J. Newman et ses collègues ont récemment montré que les psychopathes ont des réactions physiologiques normales aux stimulus déplaisants, par exemple la menace d’une décharge électrique – sauf lorsque leur attention est focalisée sur quelque chose d’autre. Quand ils se sont fixés un but, les psychopathes continuent imperturbablement. Cette hyperfocalisation associée à une impulsivité marquée pourrait être à l’origine des horreurs que peuvent commettre les psychopathes, incapables de se détourner de leur but avant de l’avoir atteint et insensibles à tout ce qui pourrait les en détourner.

En 1848, un jeune homme nommé Phinéas Gage travaillait comme contremaître sur le chantier de construction d’une voie ferrée, dans le Vermont. Avec son équipe, il dégageait une zone rocheuse lorsqu’une explosion accidentelle souffla sa barre de mine – une lourde barre métallique de plus de un mètre de longueur – qui traversa la moitié gauche de son visage et ressortit au sommet de son crâne. Une telle blessure semblait devoir le tuer. Mais bien qu’« une demi-tasse » de son cerveau ait coulé au sol, comme le nota le médecin qui le prit en charge, Gage ne perdit apparemment pas conscience, et récupéra assez bien. Toutefois, ses collègues remarquèrent un changement notable de sa personnalité. Alors qu’avant l’accident, il avait bon caractère et était sensé et responsable, Gage était devenu grossier et imprévisible, contrôlé par ses passions immédiates. Le cas de Gage est devenu classique en neurosciences parce qu’il révéla que le comportement, dont on pensait qu’il dépendait de la « volonté », était de nature biologique.

Gage avait perdu l’usage d’une partie de son cerveau, le cortex préfrontal ventromédian. Située derrière le front, cette région est proche du cortex orbitofrontal – dont de nombreux scientifiques pensent qu’il fonctionne mal chez les psychopathes. Le cortex orbitofrontal est impliqué dans la prise de décision qui nécessite une évaluation du risque, de la récompense et de la punition. Les personnes ayant une lésion de cette région du cerveau souffrent d’impulsivité et explosent quand elles ont l’impression d’avoir subi un affront – tout comme Gage. En fait, ces individus souffriraient de « psychopathie acquise ».

Un cerveau altéré

Même si son accident l’avait transformé, Gage ne présentait pas toutes les caractéristiques de la psychopathie, par exemple l’absence d’empathie. On en déduit que d’autres régions cérébrales sont impliquées. L’amygdale cérébrale, impliquée dans la genèse de la peur, est une des aires possibles. Les singes ayant une lésion de l’amygdale n’ont pas peur et se dirigent droit sur les gens qu’ils croisent. De même, les psychopathes n’éprouvent aucune peur : lorsqu’ils sont confrontés à des images qui déclencheraient un sentiment de peur chez tout un chacun, ils ne cillent pas.

Mais une ou deux aires cérébrales ne suffisent vraisemblablement pas à produire les profonds déficits des psychopathes. K. Kiehl a récemment suggéré que la psychopathie dépendrait du système paralimbique, un ensemble de structures cérébrales interconnectées impliquées dans le traitement des émotions, la poursuite de buts, la motivation et l’autocontrôle (voir l’encadré page ci-contre). Cette hypothèse est étayée par des données d’irmf qui révèlent un amincissement du tissu paralimbique – ce qui indique que cette région cérébrale est sous-développée. En plus du cortex orbitofrontal et de l’amygdale cérébrale, le système paralimbique comprend le cortex cingulaire antérieur et l’insula. Le cingulaire antérieur régule les états émotionnels et aide les individus à contrôler leurs pulsions et la survenue d’erreurs dans leur comportement.

L’insula joue un rôle essentiel dans la reconnaissance de la violation des normes sociales, ainsi que dans le ressenti de la colère, de la peur, de l’empathie et du dégoût. Par définition, le psychopathe est insensible aux attentes sociales, et, comme nous l’avons indiqué, les psychopathes sont susceptibles d’avoir des seuils de dégoût particulièrement élevés, tolérant les odeurs et les images répugnantes avec sérénité.

L’insula est aussi impliquée dans la perception de la douleur. Des études de psychopathes – dont une dans laquelle les sujets recevaient des chocs électriques – ont montré que, dans certaines conditions, ils sont remarquablement imperturbables s’ils savent qu’ils vont souffrir ; ils ont aussi des difficultés à remarquer leurs erreurs et à ajuster leur comportement en fonction des conséquences de ces erreurs (ce qui contribue à expliquer pourquoi ils se retrouvent en prison de façon répétée, incapables de tirer des leçons de leurs expériences passées).

La psychopathie est-elle innée ou acquise ? La réponse est probablement : les deux. Si, comme le pensent les chercheurs, les gènes rendent compte de 50 pour cent de la variabilité entre les personnes qui présentent des traits antisociaux, cela signifie que les circonstances de la vie sont tout aussi importantes que l’hérédité biologique. Certains psychopathes sont marqués par les cicatrices d’une enfance difficile, mais d’autres sont les « moutons noirs » de familles stables. Indépendamment de savoir qui des gènes ou de l’environnement a l’importance prépondérante, l’intervention précoce pourrait être essentielle. Tout comme il y a un moment dans l’enfance où le cerveau est prêt pour apprendre le langage, ce qui devient beaucoup plus difficile par la suite, nous pensons qu’il pourrait exister une fenêtre temporelle précoce pour le développement de compétences sociales et cognitives sous-jacentes à ce que nous appelons la « conscience ».

Les psychopathes sont mal compris. Certains chercheurs estiment que le nombre de psychopathes résidant dans les prisons aux États-Unis atteindrait 500 000, et que 250 000 autres vivraient en liberté. Même s’ils ne commettent pas nécessairement de crimes, on protégerait d’éventuelles victimes en les aidant à contrôler leur impulsivité et leur agressivité. Cependant, peu d’efforts ont été faits dans cette direction jusqu’à présent. Aux États-Unis encore, des milliards de dollars ont été dépensés pour la recherche sur la dépression ; mais probablement moins d’un million pour trouver des traitements contre la psychopathie. Les psychologues ont en partie été découragés par les données suggérant que les psychopathes ne peuvent être soignés.

Certaines études ont même montré que les psychopathes qui avaient bénéficié d’une thérapie de groupe en prison ont révélé une plus grande probabilité de commettre de nouveaux crimes à leur sortie que s’ils n’avaient reçu aucun traitement ! Écouter les autres délinquants se confier à un groupe n’est certainement pas une bonne stratégie ; on sait que les psychopathes ont d’excellentes capacités pour exploiter les faiblesses des autres. Ils ont aussi des difficultés à intégrer les idées abstraites, si bien qu’il y a peu de chances que des sermons sur la responsabilité personnelle soient efficaces.

Malgré cela, nous sommes optimistes : un nouveau traitement pour les jeunes délinquants ayant des tendances psychopathes a un réel succès. Michael Caldwell, un psychologue du Centre de traitement des jeunes délinquants Mendota à Madison, dans le Wisconsin, a utilisé une thérapie dite de décompression dont l’objectif est de mettre un terme à un cercle vicieux, la punition des mauvais comportements entraînant davantage de comportements répréhensibles, qui sont à leur tour punis, etc. On a constaté que les jeunes incarcérés qui suivaient ce programme passaient moins souvent à l’acte et devenaient capables de participer à des programmes standards de réhabilitation.

Une thérapie efficace ?

Après ce traitement, un groupe de plus de 150 jeunes traités par M. Caldwell a révélé une probabilité deux fois plus faible de commettre un crime qu’un groupe comparable pris en charge dans un centre classique. Dans ce dernier cas, les jeunes gens ont tué 16 personnes dans les quatre premières années qui ont suivi leur libération ; ceux du programme de M. Caldwell n’ont tué personne. Les bénéfices économiques sont aussi énormes : à chaque fois que la société dépense 10 000 dollars en traitement, nous économisons 70 000 dollars nécessaires pour les maintenir en prison.

Les études sur le cerveau et la génétique devraient encore améliorer les résultats de M. Caldwell ; peut-être que, comme dans le cas de la dépression, une combinaison de thérapie et de médicaments se révélera efficace. Mais ces progrès sont ralentis par le fait que la psychopathie est souvent ignorée par le système de santé. Elle n’est même pas mentionnée dans le Manuel diagnostique et statistique des maladies mentales – le dsm. Pourquoi la psychopathie a-t-elle été exclue ? Peut-être parce que le diagnostic est difficile à poser : les psychopathes mentiront de façon convaincante pendant tout l’entretien.

À mesure que les scientifiques continueront de décrire les dysfonctionnements cérébraux de psychopathes, leurs découvertes permettront non seulement d’aider ces individus perturbés, mais aussi d’améliorer l’état sanitaire de la société dans son ensemble. De fait, il serait irresponsable d’ignorer les psychopathes alors qu’ils représentent un tel danger. Lorsque les juristes, les gardiens de prison, les psychiatres et d’autres commenceront à prendre les psychopathes pour ce qu’ils sont – non pas des monstres, mais des personnes dont les incapacités émotionnelles peuvent les conduire à agir de façon monstrueuse –, nous serons tous sur la voie d’un avenir moins dangereux.

Kent Kiehl et Joshua Buckholtz


 

 

L'examen du cerveau des psychopathes révèle une anomalie dans la perception des visages.


 

Qu’est-ce, au fond, qu’un psychopathe ? La définition décrit un individu insensible, superficiel, creux, ne craignant pas la sanction, dénué d’empathie et incapable de se représenter l’état émotionnel de ses victimes.

Les psychopathes ont inspiré le cinéma. On pense bien entendu à Hannibal Lecter, prototype du psychopathe hollywoodien, intelligent en diable et cruel comme personne… Mais un autre psychopathe des écrans est au moins aussi glaçant et fascinant. C’est Anton Chigurh, campé par le magistral Javier Bardem dans No country for old men (E & J Coen, 2007), qui fait irruption dans une station-service et entreprend une conversation avec le patron.  

Dans cette scène apparaît un trait frappant du psychopathe : il semble traiter le rapport humain sous un angle pointilleux et logique, insensible et froid. N’importe qui sentirait que ce vieil homme exprime une détresse qui se peint sur son visage sous les traits de l’angoisse, du doute, de l’incompréhension. Chigurh, lui, ne semble pas percevoir ces indices. De notre point de vue, il le fait exprès. Mais peut-être ne les voit-il réellement pas.

Jean Decety, spécialiste mondial de l’empathie et professeur à l’Université de Chicago, vient d’étudier ce qui se passe dans le cerveau de psychopathes confrontés à un visage humain exprimant diverses émotions. Son équipe a examiné 80 psychopathes incarcérés en les faisant passer dans une IRM et a constaté que les zones du cerveau identifiant l’expression des visages sont pratiquement éteintes quand on leur montre des vidéos de visages humains exprimant aussi bien la peur que la tristesse, la joie ou la souffrance.

 

Dans ces expériences, des sujets psychopathes devaient regarder des vidéos de visages exprimant diverses émotions. L'activité de leur cerveau était mesurée.

L’autre comme une chose

Il y a comme un défaut d’identification des émotions sur les visages, qui pourrait expliquer que les psychopathes voient autrui comme une chose, d’où leur tendance à instrumentaliser les gens et aussi à ne pas mettre un frein à leurs actes violents quand ils voient l’expression de la peur ou la souffrance sur les visages.

Cela nous interroge sur ce qui fait de nous des « non-psychopathes ». Evitons-nous de faire souffrir les autres parce que le spectacle de leur souffrance nous est insupportable ? En fait, nous l’avons appris depuis notre plus tendre enfance. Lorsque nous faisons mal à un camarade, nos parents nous expliquent : « regarde, comme il est triste, maintenant ». Notre cerveau apprend à créer une association entre le geste qui fait mal et l’émotion gravée sur le visage de la victime. Les psychopathes n’ont vraisemblablement pas pu faire cet apprentissage.

Sébastien Bohler

J. Decety et al., Neural processing of dynamic emotional facial expressions in psychopathsSocial Neuroscience, vol. 9, p. 36, 2014.


 

 

Culture-Bound Syndroms en PDF :
http://pdf.lu/ZPy4

       
Edouard de Mareschal
Intérieur du cockpit d'un Boeing 787.

 

INTERVIEW - Parmi les pistes étudiées, la crise de folie meurtrière d'un des pilotes n'est pas exclue. Un comportement qui porte un nom dans la culture asiatique : l'Amok, explique Rebecca Duvillié, ethnopsychologue à l'Université Paris V.

Après dix jours de recherches intensives, la disparition du Boeing 777 de Malaysian Airlines reste toujours inexpliquée. Les deux pilotes sont au centre de l'enquête, alors que la trajectoire de l'appareil a manifestement été modifiée par quelqu'un présent dans le cockpit qui maîtrisait le fonctionnement de l'avion. La piste d'un détournement ou d'un suicide plane. Dans la culture asiatique, la crise de folie d'un seul homme porte un nom: l'Amok. Ce phénomène a passionné scientifiques et écrivains, à l'image de Stefan Zweig qui en a tiré une nouvelle devenue un classique de la littérature ( voir page "bibliographie" sur ce site). Rebecca Duvillié, ethnopsychologue à l'université Paris 5, explique au Figaro dans quelle mesure cette pathologie psychiatrique n'est pas à exclure du champ des recherches.

LE FIGARO - Que désigne l'Amok, cette crise de folie meurtrière qui mène au suicide?

REBECCA DUVILLIÉ: C'est une maladie psychiatrique observée dans plusieurs pays asiatiques comme la Malaisie ou les Philippines. Elle a été théorisée dans les années 1950 par des ethnologues et des psychiatres. Parmi eux, il y a Georges Devereux, le fondateur de l'ethnopsychiatrie. Dans les cultures traditionnelles, l'Amok désigne la course soudaine, effrénée et meurtrière d'un homme possédé par un esprit vengeur. C'est une pathologie exclusivement masculine. Les coureurs d'Amok sont des guerriers humiliés, qui n'arrivent pas à leur dessein. L'issue logique est le suicide.

Pourquoi l'Amok concernerait uniquement les personnes de culture asiatique?

Une maladie s'inscrit dans une culture, un contexte social. C'est ce qu'on intègre en ethnopsychiatrie. Georges Devereux l'expliquait ainsi: lorsqu'un individu a des pulsions psychiatriques, c'est sa culture qui lui prescrit comment les exprimer. D'un point de vue occidental, nous parlerions de pathologie psychiatrique. Mais dans leur culture, c'est une forme de punition qui se traduit par un envoûtement d'esprits vengeurs. Et ce contexte culturel est essentiel pour comprendre cette maladie.

Peut-on prévoir et prévenir une crise d'Amok?

Non, absolument pas. Le coureur d'Amok n'a pas nécessairement de prédispositions psychiatriques. Il peut passer à l'acte de manière imprévisible dans n'importe quel contexte.

En plein vol, par exemple?

Ce pourrait être une hypothèse à envisager dans l'enquête sur la disparition du Boeing. Il faudrait observer le contexte familial des personnes dans le cockpit: quelles étaient leurs croyances, leur représentation du monde ou leurs critères de la normalité. Mais quoi qu'il en soit, il n'aurait probablement pas été possible de déceler ce type de penchant en amont. Les tests de recrutement des pilotes ne sont pas faits pour les détecter.


 

Tirso de Molina (1583 - 1648) est célèbre pour avoir écrit la première pièce de théâtre sur le personnage mythique de Don Juan, avant Molière : El Burlador de Sevilla.

 

Aurélia Gournay

 

Don Juan est l’un des grands mythes de l’Occident chrétien et une source d’inspiration constante dans notre imaginaire. Au XXe siècle, il fait son entrée au cinéma mais il inspire surtout un abondant discours critique qui va se focaliser notamment sur le comportement amoureux du héros. En effet, si Jean Rousset a souligné que le scénario mythique donjuanesque s’articule autour de trois invariants (le Mort, les femmes et le héros) et a insisté sur la place centrale du châtiment, c’est bien la psychologie de Don Juan et son rapport à l’amour qui vont être placés au centre de l’intérêt des critiques. Gregorio Marañon, par exemple, considère la fascination que le personnage exerce sur les femmes et son attitude à leur égard comme l’élément primordial de la légende et n’hésite pas à privilégier cet aspect, au détriment de la dimension religieuse et morale. C’est donc en tant que modalité particulière de l’amour que le mythe est analysé et devient l’objet d’un discours normatif, qui va l’envisager sous l’angle de la déviance, voire de la pathologie.

Mais cette évolution ne risque-t-elle pas de réduire Don Juan à un type, représentatif d’une certaine forme de comportement amoureux ? Comment, après avoir été considéré comme un déviant, est-il en passe de définir, à son tour, une nouvelle norme amoureuse ?

Santé ou déviance du héros mythique : une préoccupation récurrente

La question de la santé de Don Juan a très tôt intéressé la critique puisque, dès 1903, Georges Gendarme de Bévotte cherche à aborder le héros en termes de normalité et de déviance. Il en arrive à une affirmation paradoxale puisqu’il postule, d’un côté, l’universalité du personnage, ce qui corroborerait plutôt la thèse de la normalité, la norme étant, à ses yeux, ce qui est partagé par une communauté d’individus. Mais il fait référence, d’un autre côté, à un « état physique et moral irrégulier », ce qui indique bien l’existence d’un écart par rapport à la norme précédemment établie : « Toutefois, si universel qu’il soit, il n’est pas totalement normal : il est l’indice d’un état physique et moral irrégulier. Il intéresse le psychologue et le physiologiste comme un cas dont la fréquence ne diminue pas l’originalité. Le moraliste s’en inquiète comme d’un désordre apporté dans l’ordre social. » On voit ici que le héros apparaît comme déviant en regard de trois types de normes : psychologique, physiologique et morale. Il relève, par conséquent, d’un discours médical qui vise à comprendre sa déviance et, si possible, à la corriger.

Pourtant, paradoxalement, le même auteur insiste sur la santé de Don Juan, jusqu’à faire de lui un modèle de masculinité : « La santé physique, qui est le fondement du Donjuanisme, agit sur l’ensemble de l’individu. Don Juan est beau ; il est brave, habile à tous les exercices ; c’est un exemplaire parfait du type masculin. » Cette bonne santé exemplaire est liée au fait que, selon lui, Don Juan correspond au modèle de l’homme naturel puisque « on peut même dire que le Donjuanisme est un instinct inné, primitivement normal, et qu’il n’est devenu une anomalie que par l’institution du mariage, par la force des lois et des mœurs, en même temps que par l’appauvrissement physique de la race. » Don Juan devient alors le symbole du conflit entre nature et culture et ce sont la société et la morale qui, en instaurant des normes, le rejettent du côté de la déviance et le contraignent à se marginaliser.

L’approche normative et médicale du héros mythique est approfondie par Gregorio Marañon, puisqu’il l’aborde comme un patient à diagnostiquer. Don Juan n’y est plus considéré comme un personnage littéraire mais plutôt comme un type humain, permettant de comprendre une forme de comportement : le donjuanisme, que l’on retrouverait, de façon innée, chez certains individus. Le titre du dernier chapitre de l’essai est, à cet égard, significatif : « La tendance congénitale et le milieu dans la création de Don Juan ». Les analyses proposées évoquent les théories naturalistes de l’influence du milieu sur les êtres. Le héros littéraire sert, avant tout, à construire une catégorie de la vie sexuelle et amoureuse, dans laquelle on peut, ensuite, choisir de ranger des personnalités historiques et des individus réels. On voit, une nouvelle fois, comment le mythe littéraire se retrouve pris dans un discours très normatif et dogmatique. Gregorio Marañon établit, par exemple, des lois de correspondance entre la pression exercée par le milieu et le degré de manifestation de « l’instinct donjuanesque » : « Cette inhibition peut durer toute la vie ; mais, dans certains cas, si la pression du milieu se relâche, le donjuanisme apparaît tardivement. Ce genre de cas est universellement connu. » Notons au passage que, pour illustrer cette affirmation, l’auteur opère un rapprochement entre le donjuanisme et l’homosexualité, motivé par le fait qu’il s’agit, à ses yeux, de deux formes de déviance du comportement amoureux : « On n’est un homosexuel que si on possède une disposition congénitale à l’être. Et cette disposition peut être si puissante qu’elle triomphe malgré milieu, éducation et morale opposés. Elle peut aussi demeurer latente et se manifester ou non selon que les circonstances la favorisent ou l’étouffent. »

Ce désir de proposer des règles scientifiques pour comprendre Don Juan se retrouve également dans certains développements sur les particularités physiques du héros, qui évoquent la physiognomonie. En effet, Gregorio Marañon cherche à défendre la thèse selon laquelle Don Juan, contrairement aux idées reçues, se caractériserait par une virilité diminuée et, pour le démontrer, il aboutit au constat que « le physique du véritable Don Juan confirme son indécise virilité ». Si l’on s’arrête sur cette affirmation, on en conçoit le caractère problématique car comment établir le portrait du « véritable Don Juan » ? Rappelons, d’ailleurs, que les Don Juan littéraires, notamment dans les premières versions théâtrales, ne sont pas systématiquement décrits, et que les indications éparses dans les pièces ne permettent pas d’établir un portrait donjuanesque type, qu’auraient ensuite repris les réécritures successives. La façon dont le critique résout cette difficulté est révélatrice d’un problème méthodologique soulevé par une approche médicale d’un personnage littéraire : la tentation de faire un amalgame entre Don Juan comme héros mythique, le type banalisé du don juan et, en troisième lieu, les avatars historiques du personnage qui ont pu, à une époque donnée, être confondus avec lui. C’est ainsi que, pour appuyer ses analyses sur le physique du séducteur, Gregorio Marañon recourt au portrait de deux de ses « avatars » : Miguel de Mañara et Casanova, dont certaines particularités physiques sont utilisées pour corroborer l’hypothèse centrale du manque de virilité donjuanesque : « La taille gigantesque et le maxillaire inférieur peu développé correspondent au type morphologique de l’eunuque et sont l’antithèse du type hypergénital caractérisé précisément par la taille exiguë et le prognathisme. » L’auteur range donc Don Juan dans ce qu’il appelle les « secteurs équivoques de la sexualité », à tel point qu’il postule, dans le comportement du séducteur, une inversion des rapports hommes/ femmes : « [C]’est lui, Don Juan, qui devient le centre de la gravitation sexuelle. Le mécanisme normal de l’amour en est donc bouleversé puisque l’attraction doit se produire en sens inverse, c’est-à-dire que l’homme doit être attiré vers la femme, centre physiologique et source du désir. »

L’intérêt de cette analyse est de situer Don Juan à la place de ses victimes féminines, au centre du processus de séduction, ce qui revient à faire de lui l’objet passif du désir féminin. Or, cette posture objectale du héros mythique prend une grande importance dans les réécritures contemporaines du mythe puisque nombreux sont les auteurs du XXe siècle qui insistent sur l’instrumentalisation de Don Juan par les femmes et qui transforment le chasseur en proie du désir féminin. Yves Salgues, par exemple, dans Don Juan 40, montre son jeune héros soumis aux offensives des femmes prédatrices qui le choisissent et insistent pour parfaire son initiation amoureuse : « Lady Glendale aperçut, découvrit puis admira – à la dérobée – le jeune Jean Brumaire. Durant ses trente ans de vie, elle n’avait jamais vu un si joli garçon. […] pudique et gêné, il baissa la tête tandis que la confusion colorait de cramoisi ses joues hâlées. Le grand âge de Lady Glendale le terrifiait. »

On retrouve ici une mise en cause de la virilité du héros, qui perd ses moyens face aux avances de femmes libérées, qui assument pleinement leurs désirs. Don Juan se tourne alors vers d’autres figures féminines, plus rassurantes, car elles sont contraintes à la passivité. En effet, le XXe siècle voit l’émergence de figures de prostituées, qui acquièrent, dans différentes versions, une importance quantitative et narrative. Gille, héros du roman de Drieu la Rochelle L’homme couvert de femmes, les préfère car elles lui font moins peur et lui permettent d’être à l’abri des caprices de son désir : « Je ne suis pas pour les femmes propres, les bourgeoises, les femmes du monde… J’aime les putains. » Cette déclaration est complétée après puisqu’il expose son échec récurrent avec les autres femmes : « Je les rate toutes, seulement elles ne le disent pas, ou si elles le disent, les autres ne les croient pas ou, tout de même, veulent voir. »

Cette inversion est accentuée dans Saint Don Juan de Joseph Delteil où la statue explique à Don Juan qu’il n’a pas été un séducteur mais plutôt une « putain des femmes » : « Nigaud ! elles t’ont eu… Sais-tu ce que tu es pour elles ? Un instrument mon cher. Tu les instrumentes… […] À leur gré, à leur guise ! Comme un bon soldat et comme un bon chien ! […] Toutes celles qui ont envie, caprice ou besoin de se payer Don Juan ! […]. » Cette instrumentalisation de Don Juan par les femmes est récurrente au XXe siècle.

La thèse de la virilité indécise de Don Juan conduit à lui attribuer une certaine ambiguïté sexuelle puisque, selon Gregorio Marañon, « l’amour particulier à Don Juan se trouve proche de l’amour des adolescents, des faibles et des intersexuels. En somme, loin du grand amour, caché et différencié, de l’homme véritable ». Cette interrogation sur les orientations du héros en matière de sexualité rencontre une grande fortune chez les écrivains contemporains. Le Don Juan représenté par Éric-Emmanuel Schmitt, dans La nuit de Valognes, en arrive à s’interroger sur ses préférences sexuelles puisqu’il découvre l’amour d’une façon inattendue, en la personne du chevalier de Chiffreville, avec lequel il avait noué des liens d’amitié. Cette découverte est présentée comme une punition pour le héros mythique : « Vous appréciez le sexe, et le destin vous envoie l’amour sous une forme que vous ne pouvez désirer. Puni !... Moi, j’étais fait pour aimer, mais pas là où il fallait, ni comme il fallait. Puni aussi. »

Mais l’ambiguïté est poussée à son comble par Roland Topor et inscrite dans le titre même de sa pièce : L’Ambigu. Don Juan y est attiré indifféremment par des femmes ou des hommes et se transforme en figure androgyne puisque son double féminin, Jeanne, prend possession d’une partie de son enveloppe charnelle. Le héros apparaît ainsi comme une personnalité clivée entre une part masculine et une part féminine, cette dernière affichant, d’ailleurs, elle aussi sa bisexualité, puisqu’elle n’hésite pas à abuser des maîtresses de Don Juan.

Le XXe siècle s’est donc plu à jouer avec le motif de l’homosexualité latente du héros, sujet que Gregorio Marañon avait abordé, et présenté comme une dérive possible mais non systématique de l’amour donjuanesque : « [S]i l’indétermination de l’instinct, typique chez Don Juan, suppose la possibilité de s’écarter du chemin normal (ce que la réalité démontre dans les cas les plus imprévus) elle n’empêche pas qu’il existe beaucoup plus de Don Juan qui, pendant toute leur vie, suivent physiologiquement ce bon chemin et ne s’en écartent jamais. » Ce sont justement sur ces « écarts » que les auteurs contemporains se plaisent à baser leurs réécritures du héros, illustrant la circulation intense qui s’établit entre la littérature et le discours critique.

On peut faire le même constat au sujet d’un autre postulat défendu par Gregorio Marañon : la stérilité de Don Juan. En effet, beaucoup d’auteurs contemporains traitent cet aspect du personnage. La question de l’impuissance est abordée par Yves Salgues, puisque Jean Brumaire connaît les affres de l’impuissance avec son épouse Stefania. Le jugement de cette dernière est sans pitié : pour elle, un Don Juan dévirilisé et impuissant ne sert plus à rien. Il est comme mort : « Le désir était mort en Brumaire, tué par le jeu. […] Stefania, de temps à autre, se mit à l’appeler “Feu”. “Feu Don Giovanni”, “Feu Don Juan” : il croyait entendre, de la bouche édentée d’un prêtre fantôme, le début de son oraison funèbre. » L’impuissance revient de façon récurrente dans les réécritures contemporaines du héros mythique et équivaut, pour lui, à une mort symbolique.

De fait, la question de la descendance, qui était, jusqu’à présent, passée sous silence est approfondie dans les versions modernes, notamment les transpositions narratives, qui disposent de plus de libertés et de latitude au niveau de la temporalité. L’image d’un Don Juan marié et père de famille, comme chez Denis Tillinac ou Patrick Poivre d’Arvor, s’associe mal aux critères de l’héroïsme donjuanesque, faisant basculer le personnage dans le conformisme et l’embourgeoisement. Seule l’évocation discrète d’une multiplicité de descendants, dispersés aux quatre coins du monde, peut permettre de concilier la paternité avec les caractéristiques du donjuanisme. Ainsi, Montherlant, dans La mort qui fait le trottoir, choisit de remplacer le traditionnel valet par un des fils naturels du héros : Alcacer. Mais en le présentant, avant tout, dans sa fonction de comparse, la pièce ne s’appesantit pas sur la question familiale et Alcacer n’est qu’un cas particulier de ce que Don Juan nomme le » peuple de ses bâtards et de ses bâtardes », dont il ne se soucie aucunement, ce qui souligne bien qu’il n’a pas la fibre paternelle. Néanmoins, même si le rôle paternel de Don Juan est, somme toute, peu développé, il n’en reste pas moins que le problème est évoqué et que le soupçon de stérilité est levé. L’antithèse ultime de cette théorie est l’enfantement par le héros lui-même, devenu androgyne, de son propre enfant. Ce parti pris, relativement provocant, est celui de Roland Topor à la fin de L’Ambigu puisque la part féminine de Don Juan, Jeanne, accouche d’un bébé qui est un garçon mais qui est aussi une fille, perpétuant ainsi le mythe de l’androgynie fondamentale du héros et de sa capacité à s’auto-engendrer, à se renouveler sans cesse, au même titre que le mythe.

Georges Gendarme de Bévotte et Gregorio Marañon portent donc un regard essentiellement normatif sur le héros et ne parviennent que difficilement à sortir de l’opposition binaire entre normalité et déviance. Or, ce qui, dans la réalité, est inconciliable, ne l’est pas forcément chez un personnage littéraire et les auteurs ont très bien su montrer, au XXe siècle, qu’il était possible de jouer avec ces contradictions. Micheline Sauvage, dans Le cas Don Juan, leur reproche d’ailleurs d’enfermer le héros dans ce qu’elle nomme un « diagnostic contradictoire, qui fait de don Juan, à la fois le type du mâle parfaitement sain et un homme blessé » alors que, sur le plan du mythe, le héros peut être « les deux à la fois sans contradiction ». La psychanalyse offre alors, peut-être, un moyen de surmonter cette opposition.

Don Juan et la psychanalyse

Selon Jean Bellemin-Noël, l’originalité de la psychanalyse est d’avoir montré qu’il y a « continuité entre l’enfant et l’adulte, entre le “primitif” et le “civilisé”, entre le pathologique et le normal, entre l’extraordinaire et l’ordinaire ». Mais, si l’approche psychanalytique du mythe de Don Juan semble pertinente, il ne faut pas la confondre avec l’analyse du héros par la psychanalyse, comme le précise Camille Dumoulié : « [L]a psychanalyse des personnages de théâtre ou de roman, qui n’ont ni psyché ni inconscient, est une entreprise vaine ; mais c’est pour la même raison que l’approche psychanalytique est justifiée dans la lecture des textes ou des récits mythiques : elle évite le psychologisme […]. » Il est donc important de bien préciser la nature de l’objet à étudier, ce qui, dans le cas de Don Juan, ne va pas de soi puisque ce dernier a fait l’objet de nombreuses réécritures et que ces versions peuvent présenter, entre elles, d’importantes variations.

Ce flottement se retrouve au niveau des interprétations puisque des divergences s’élèvent entre les psychanalystes. Micheline Sauvage remarque à ce propos : « Il ne faudrait d’ailleurs pas croire que, d’accord avec les autres sur le mal de Don Juan, les psychanalystes le soient entre eux sur la nature de ce mal. » Cette idée d’un « mal » dont souffrirait le héros, lié à la perte initiale de l’objet aimé, demeure, cependant, un point de départ important des hypothèses de la psychanalyse et conduit à une voie particulièrement explorée : le rapprochement entre Don Juan et Œdipe. Pour Camille Dumoulié, il s’agit même de l’élément central puisque « de Freud à Lacan, le processus d’intégration psychanalytique de Don Juan consiste à l’“œdipianiser” ». Maurice Molho montre, quant à lui, que la force du Burlador de Sevilla, de Tirso de Molina, première version du mythe, est de réunir le schéma mythique donjuanesque et la structure œdipienne : « Ceci revient à dire que le propre de DJ1 est de réaliser la structure mythique DJ à travers une structure psychique essentiellement fondée sur les tensions de l’Œdipe, – ce qui d’emblée lui assure son universelle efficacité. »

Le critique reconstitue la pièce en mettant en son centre l’élément principal du schéma œdipien : le meurtre du Père. Mais le Commandeur ne peut se lire comme substitut de la figure paternelle que si l’on prend en considération la configuration de l’Œdipe féminin, auquel cas le père d’Anna apparaît comme le rival à éliminer, qui se dresse entre le héros et la femme convoitée, en tant qu’objet sur lequel se cristallise le désir féminin. Ce déplacement vers l’Œdipe féminin est, selon Maurice Molho, une des raisons de la réussite de l’œuvre : « L’originalité du Burlador est, du reste, d’avoir situé le héros mythique dans la perspective d’un Œdipe féminin, ce qui conduit l’artiste – solution heureuse et féconde – à faire fonctionner Don Juan en tiers entre une femme et l’instance paternelle représentée par le Commandeur. » Mais il va plus loin et démontre qu’Anna peut être vue, à son tour, comme un substitut de la mère. On s’achemine, dès lors, vers une représentation beaucoup plus courante de l’Œdipe qui confère à la figure du Commandeur une complexité nouvelle : « Il est, certes, le rival de Don Juan en tant que père de Doña Ana, mais si Doña Ana porte en elle l’image de la mère, le rival du moi dans le jeu triangulaire de l’Œdipe n’est autre que son propre père qu’il lui faut tuer. » Les multiples femmes séduites seraient donc des substituts de la mère car la structure œdipienne, si on la projette sur l’activité amoureuse de Don Juan, a pour caractéristique d’être indéfiniment réitérative.

Cette idée d’une réitération permanente du mythe et d’une multiplication sans fin de l’Œdipe est utilisée dans certaines versions contemporaines, comme dans le Don Juan de Pierre-Jean Rémy. La fin ouverte du roman suggère que l’histoire peut se répéter inlassablement puisque la mort de Don Juan est suivie d’un épilogue au cours duquel Frère Narcisse, qui est un double de l’écrivain et a écrit le destin du héros avant même qu’il n’advienne, porte son attention sur une nouvelle famille, susceptible de reproduire la même histoire tragique. De plus, par un subterfuge narratif, Don Juan tue son propre père puisqu’il est, à son insu, le fils du Commandeur et le frère d’Anna, qu’il vient de violer. Le scénario œdipien s’en trouve donc renforcé, d’autant plus que le tabou de l’inceste est réellement transgressé par le héros.

Néanmoins, pour séduisante qu’elle soit, cette analyse du héros mythique à la lumière de l’Œdipe est soumise à des restrictions. Maurice Molho rappelle que Don Juan n’est qu’un être de papier et non un patient face à son analyste. Il n’a, dès lors, ni inconscient, ni langage propre, en dehors de celui que lui prête le texte. Quant à Otto Rank, il voit dans l’application des catégories de la psychanalyse à un motif littéraire un risque de simplification et de déformation réductrice : « Il est tout de même inadmissible de considérer la légende de Don Juan uniquement dans le sens de Freud et de l’expliquer par le complexe du père. […] une telle interprétation qui se justifie dans l’analyse d’un individu ne peut nous suffire quand il s’agit d’un motif littéraire populaire. » On retombe alors sur l’écueil auquel se heurtait l’approche psychologique et clinique : la tentation d’enfermer le héros dans un discours normatif et de passer du mythe au type.

À l’encontre de ces analyses, une autre psychanalyste, Monique Schneider, fait de Don Juan « l’Anti-Œdipe ». Elle oppose, en effet, la quête donjuanesque de la séduction à celle de la vérité, menée par Œdipe. De plus, le parricide est déplacé vers un autre représentant de l’autorité, n’appartenant plus à la lignée du héros, ce qui, selon elle, correspond à un éclatement de la « vision monolithique de l’ancêtre ». Or, elle place ce thème au centre des interrogations de la psychanalyse, qu’elle situe dans une « position de continuité ou d’écart à l’égard de l’héritage patriarcal », pour préciser ensuite que « le thème de la continuité ou de la discontinuité sur lesquelles s’ouvre la filiation est au centre de l’héritage donjuanesque ». Don Juan et Œdipe incarneraient donc les deux postures de la psychanalyse freudienne : désir œdipien de renouer avec l’héritage patriarcal ou volonté donjuanesque de « casser la continuité de la perpétuation ancestrale ». Pourtant, derrière cette opposition des deux mythes, la psychanalyste ne nie pas l’existence d’une complicité cachée entre eux et voit finalement, en Don Juan, « à la fois le frère masqué et l’antithèse d’Œdipe ».

La mise en relation des deux récits mythiques est d’autant plus inévitable que le passage de Don Juan au genre romanesque permet de compléter le canevas mythique. On voit ainsi se développer les récits consacrés à l’enfance du héros, aux relations avec ses parents, domaines que le resserrement de l’intrigue théâtrale avait laissés inexploités. La souplesse du genre narratif offre aux romanciers des moyens variés de combler ces « trous » dans la biographie donjuanesque : analepses permettant de remonter aux souvenirs d’enfance du personnage, récit chronologique débutant à sa naissance, apparition du personnage de la mère, grande absente du scénario mythique à l’origine…

Cette préoccupation nouvelle pour le « roman familial » du héros mythique est d’autant plus marquante que ces œuvres, postérieures à l’avènement de la psychanalyse, jouent avec les hypothèses de cette dernière, dont elles sont imprégnées, traduisant un va-et-vient entre analyses critiques et réécritures littéraires, les secondes s’inspirant des premières, avant de devenir, à leur tour, objets de nouvelles interprétations.

Cependant, les relectures du mythe au travers de la psychanalyse peuvent avoir un aspect réducteur. Camille Dumoulié insiste sur le paradoxe de cette volonté d’enfermer dans des catégories préétablies un personnage caractérisé par son inconstance et son désir perpétuel de fuir : « On pourra trouver qu’à changer de catégorie on ne gagne rien, et que l’on enferme encore plus cet être de fuite multiforme dans un schéma réducteur, voire caricatural. » Il existe néanmoins, à ses yeux, une catégorie d’analyse assez large pour contenir le mythe sans le réduire : la perversion.

L’étude de Don Juan sous l’angle de la perversion n’entend pas se substituer à l’approche œdipienne, dans la continuité de laquelle elle se place puisque, pour Paul-Laurent Assoun, la comparaison avec Œdipe est un mode d’accès à la structure perverse du mythe. Mais ce dernier introduit un motif essentiel : le défi, étroitement lié à la perversion car, selon lui, « un mot permet de nommer cette structure du défi : c’est le terme “pervers” ». Ce terme est équivoque car il renvoie à la double idée de perversité morale et de perversion au sens psychopathologique. Or, cette ambiguïté correspond, pour Paul-Laurent Assoun, à la nature même du défi, qui se situe au croisement de l’éthique et du désir, et le mythe de Don Juan en est l’expression parfaite puisque « type du pervers – au double sens du terme – il incarne la question de la perversité en même temps que le problème de la structure perverse ».

Un autre point de coïncidence entre l’Œdipe et la structure perverse est le rapport à la Loi car Don Juan est un héros de la transgression, qui a besoin d’une norme à laquelle s’opposer et du regard des autres pour valider sa révolte : « On peut donc conclure que le défi est dépendant d’une structure de la Loi. Qu’il ne soit pas vu comme défi, et il est annulé : vu par personne, il ne serait littéralement rien. Qu’il ne soit pas éprouvé comme défi, et il serait un acte “normal” ou indifférent, ce qui serait le pire danger pour qui veut le provoquer. »

Ce constat de la nécessité d’une norme était présent chez Gregorio Marañon mais Paul-Laurent Assoun, en montrant comment ce rapport à la Loi se joue sur le plan de l’inconscient, l’articule avec la question de l’Œdipe et de la perversion. En effet, le pervers se construit sur un manque quand il réalise, après avoir évincé le père, qu’il ne peut désirer sans la Loi et qu’il en a besoin pour exister. La tentative, sans cesse renouvelée, mais vouée à l’échec, de combler ce manque se fait sur deux plans : l’accumulation insatiable des conquêtes féminines et le besoin de réitérer la transgression initiale à l’égard du père, en cherchant des figures à défier. Cette approche, sans rompre avec l’interprétation œdipienne, permet de l’affiner et d’éclairer le rapport de Don Juan à la norme, en l’inscrivant comme un éternel déviant.

Intégration du discours critique sur la déviance du héros par la littérature et le cinéma

Si la psychanalyse a fourni de nombreuses interprétations du mythe de Don Juan, les auteurs contemporains se sont plu à donner, à leur tour, prise à une lecture psychanalytique de leurs œuvres. Les relations familiales du héros sont ainsi développées : dans La Mort de Don Juan, le narrateur évoque l’amour trop étouffant de sa mère : » En dépit de mon jeune âge, de ma compassion pour sa solitude de femme délaissée et de l’amour qu’elle me portait, je voulus m’éloigner d’elle autant que possible », tandis que chez Denis Tillinac, c’est plutôt la haine du père qui ressort, associée à l’absence de la mère : « Je suis seul sur la terre. Mon père me hait, ma mère est décédée […] ». L’intérêt nouveau porté à la mère du personnage fait écho aux hypothèses formulées par la psychanalyse à son sujet, notamment en ce qui concerne le rapprochement avec Œdipe.

La rivalité œdipienne est particulièrement développée par Yves Salgues puisque Jean Brumaire entretient une liaison avec la maîtresse de son père, qui incarne un substitut maternel. Néanmoins, le parricide est inversé : « [L]ui – l’enfant prodigue – allait être trahi par son géniteur. Il allait être tué, lui, Don Juan, par le sous-préfet de Reims, Alexis Brumaire, qui commettrait un infanticide sur sa personne. ».

Le cinéma peut également contenir ce type d’allusions aux travaux critiques : le film de Joseph Losey se plaît à renforcer la présomption d’homosexualité qui plane sur le héros en l’entourant, à la fin du deuxième acte, par de jeunes garçons séduisants qui le regardent manger, juste avant l’arrivée de la statue du Commandeur.

Au-delà de ces clins d’œil, les versions contemporaines du mythe se caractérisent également par une volonté de mettre en abyme le discours critique sur la psychologie donjuanesque. Des personnages nouveaux font irruption et se présentent comme des « spécialistes » de Don Juan. Ils ont souvent une fonction parodique, comme chez Montherlant, qui consacre une scène entière (II, 3) aux querelles d’école de trois « penseurs-qui-ont-des-idées-sur-Don-Juan », soulignant ainsi la vanité des discours normatifs qui veulent à tout prix expliquer le comportement du héros et l’enfermer dans des catégories toutes faites. Monique Schneider voit dans cette irruption des exégètes à l’intérieur des œuvres la preuve d’une méprise généralisée, l’analyste devenant victime des duperies du héros, au même titre que les autres personnages. Don Juan apparaît alors comme un sujet qui résiste à l’interprétation et il est même mis en situation de répondre aux travaux érudits sur lui, comme dans le Don Juan de Gonzalo Torrente Ballester où Sonja, éprise du héros, est l’auteur d’une thèse sur lui, qu’il réfute complètement.

Ces mises en abyme montrent bien que Don Juan est désormais associé à des attentes précises, auxquelles les autres personnages exigent qu’il se conforme. Dans La Nuit de Valognes, les anciennes victimes du héros lui reprochent de ne plus chercher à les séduire ou à les tromper, tandis que, dans le Don Juan de Pierre-Jean Rémy, la marquise de M. ne supporte pas l’idée qu’il puisse devenir fidèle et dédaigner les plaisirs. Le héros n’est, en définitive, jamais aussi conforme à sa définition d’abuseur que lorsqu’il décide justement de ne plus abuser les femmes et de s’essayer à la monogamie (projet de mariage avec Angélique dans la pièce d’Éric-Emmanuel Schmitt, par exemple).

Ne peut-on, dès lors, penser que Don Juan est devenu, à son tour, une norme, servant à désigner, comme le dit Camille Dumoulié, « une déviation du comportement amoureux » ?

Or, la mise en évidence de cette « norme donjuanesque » nous invite à nous demander si cette dernière n’a pas remplacé l’ordre moral et social, incarné par la figure du Commandeur, auquel le héros pouvait naguère s’opposer. La libéralisation des mœurs, en le privant de cette confrontation, lui fait courir le risque de disparaître puisque, pour conserver sa dimension mythique, il doit rester marginal. En devenant lui-même l’auteur de la norme à transgresser, il peut, au contraire, rester éternellement un déviant : par rapport à la société s’il reste lui-même, et par rapport à lui-même s’il s’intègre à la société et se normalise…

Le film de Jérémy Leven, Don Juan de Marco, pose cette question de la norme en des termes intéressants : Jack, le psychiatre qui soigne le héros, incarne la réussite sociale mais à son contact, il réfléchit peu à peu à la notion de normalité et choisit de se laisser pénétrer par l’univers donjuanesque. Le discours médical est mis au centre de l’intrigue, qui se déroule, pour une grande partie, dans un hôpital psychiatrique. Le protagoniste illustre toute une galerie de pathologies mentales : tentative de suicide, psychose délirante, troubles obsessionnels compulsifs, érotomanie, dépression avec tendance obsessionnelle et personnalité hystérique. Cette accumulation de troubles psychopathologiques discrédite la surenchère interprétative dont a pu faire l’objet Don Juan. Jérémy Leven insiste sur la façon dont ce type de discours, en voulant tout normaliser et en tentant d’enfermer le héros dans des catégories, passe à côté de toute la dimension symbolique et poétique du mythe. Don Juan apparaît donc, dans ce film, comme un patient mais son mal est contagieux, comme le souligne la fin ouverte, qui met en avant le pouvoir de fascination et l’universalité du mythe.

En définitive, Don Juan est peut-être un héros de la déviance, qui a besoin de lois à transgresser pour exister. La force du mythe réside dans la mise en abyme du discours critique, dans la circulation permanente entre exégèse et création artistique, qui lui permet de se renouveler constamment et de se constituer, à son tour, en une nouvelle norme, désignant un certain type de comportement amoureux. En devenant lui-même la norme à transgresser, il trouve un moyen de survivre à l’affaiblissement de l’arrière-plan religieux et moral, confirmant ainsi sa palingénésie.

 

Assoun, Paul-Laurent, Le pervers et la femme, Paris, Anthropos, 2e édition, 1995.

Bellemin-Noël, Jean, Psychanalyse et littérature, Paris, PUF, 2002.

Brunel, Pierre (dir.), Dictionnaire de Don Juan, Paris, Robert Laffont, 1999.

Delteil, Joseph, Saint Don Juan, Paris, Grasset, 1961.

Drieu La Rochelle, Pierre, L’homme couvert de femmes, Paris, Gallimard, 1925.

Dumoulié, Camille, Don Juan ou l’héroïsme du désir, Paris, PUF, 1993.

Gendarme de Bévotte, Georges, La légende de Don Juan : son évolution dans la littérature des origines au romantisme, Paris, Hachette, 1906.

Marañon, Gregorio, Don Juan et le donjuanisme, Paris, Gallimard, 1958.

Molho, Maurice, Mythologiques : Don Juan, La vie est un songe, Paris, José Corti, 1995.

Montherlant, Henri de, La mort qui fait le trottoir, Paris, Gallimard, 1958.

Poivre d’Arvor, Patrick, La mort de Don Juan, Paris, Albin Michel, 2004.

Rémy, Pierre-Jean, Don Juan, Paris, Albin Michel, 1982.

Salgues, Yves, Don Juan 40, Paris, Albin Michel, 1995.

Sauvage, Micheline, Le cas Don Juan, Paris, Seuil, 1953.

Schmitt, Éric-Emmanuel, La nuit de Valognes, Paris, Magnard, 2004.

Schneider, Monique, Don Juan et le procès de la séduction, Paris, Aubier, 1994.

Tillinac, Denis, Don Juan, Paris, Robert Laffont, 1998.

Torrente Ballester, Gonzalo, Don Juan, Madrid, Alianza Editorial, 1998.

 


 

 

D’après cette infographie publiée sur Visual.ly, les réseaux sociaux nous rendraient narcissiques et nous pousseraient à nous prendre en photo nous-mêmes (selfie ou autophoto). A moins que ce soient déjà les gens narcissiques qui fréquentent les réseaux sociaux ?

source

 

Self-Portrait, Francis Bacon

  

 
Selon une étude américaine, publiée dans la revue Personnality and Individual Differences , les hommes qui postent beaucoup de selfies auraient une forte tendance narcissique et psychopathe.

 

Le selfie est devenu le moyen pour exister sur les réseaux sociaux, au risque, si vous n'y cédez pas, d'être réduit à une image fantomatique. Tous, jeunes et moins jeunes, filles ou garçons, hommes ou femmes se sont épris de ces photos à la mode qui consistent simplement à se prendre soi-même en photo.

Si l'on en croit Jesse Fox, auteur principal d'une étude et professeur assistante en communication à l'Université de l'Ohio, les hommes qui publient beaucoup de selfies sur les réseaux sociaux seraient des personnes narcissiques et psychopathes. Pour réaliser cette étude, que l'on retrouve dans la revue en ligne Personnality and Individual Differences, 800 hommes américains de 18 à 40 ans ont été sélectionnés et ont répondu à des questionnaires cherchant à évaluer leurs tendances narcissiques et psychopathiques ainsi que la fréquence de publication de selfies sur les réseaux sociaux.

La science a parlé

Résultat, les individus ayant obtenu un score élevé dans les personnalités narcissiques et psychopathes indiquent afficher des selfies fréquemment. Selon Jesse Fox, cette étude prouve l'existence de relations entre les traits de personnalité et l'utilisation des réseaux sociaux. Ainsi, le narcissisme serait associé au fait de poster des selfies et de retoucher ses photos. Les hommes concernés partageraient et retoucheraient souvent leurs photos afin de maximiser leur attractivité, ce qui dénote une tendance à la manipulation de leur image et donc de la réalité. Les psychopathes seraient caractérisés par une impulsivité et le manque de maîtrise de soi impliquant une abondante publication de selfies mais sans retouche, faute de temps.

Cependant, rassurez-vous, Jesse Fox précise que les résultats n'indiquent pas que les hommes sont nécessairement des narcissiques ou des psychopathes quand ils publient des selfies.

Le symptôme ne fait pas la pathologie

Jean-Charles Bouchoux, psychanalyste et écrivain, ayant participé à la formation de thérapeutes, de psychanalystes et de publics confrontés à la relation d'aide, nous éclaire sur la situation. «Le narcissisme est le moment de l'évolution de l'Homme qui rencontre son image». Manipuler son image en utilisant des retouches photos sur les réseaux sociaux permet de valoriser son image. Il est tout à fait normal de chercher à se valoriser. Quant à ces hommes qui postent de façon pulsionnelle de nombreux selfies, Jean-Charles Bouchoux y voit plutôt un «S'il vous plaît regardez-moi», une angoisse d'abandon qu'ils compensent par un besoin du regard des autres sur soi et non des psychopathes. «Le symptôme ne fait pas la pathologie», l'impulsivité ne suffit pas à diagnostiquer une personne de psychopathe.

En revanche, selon lui, notre société favoriserait les personnes narcissiques et psychopathes à cause d'une mise en avant constante de l'image, pour les premières, et d'une perte de la temporalité, pour les secondes. En effet, le psychopathe veut tout, tout de suite. Aujourd'hui, on peut avoir tout plus vite, grâce aux évolutions technologiques. Et les réseaux sociaux favorisent ces personnalités narcissiques et/ou psychopathes qui se permettent plus de choses, renforcées par un sentiment de sécurité. Derrière son écran on ose plus.

 

Alphée Ponsin    01/2015

 

Posting more online photos of yourself may suggest anti-social traits

 

A new study showed that men who posted more online photos of themselves than others scored higher on measures of narcissism and psychopathy.

COLUMBUS, Ohio – The picture isn’t pretty for guys who post a lot of selfies on social media sites like Facebook and Instagram.

In addition, men who were more likely to edit their selfies before posting scored higher in narcissism and self-objectification, which measures how much they prioritize their appearance.

“It’s not surprising that men who post a lot of selfies and spend more time editing them are more narcissistic, but this is the first time it has actually been confirmed in a study,” said Jesse Fox, lead author of the study and assistant professor of communication at The Ohio State University.

“The more interesting finding is that they also score higher on this other anti-social personality trait, psychopathy, and are more prone to self-objectification.”

Fox conducted the study with Margaret Rooney, a graduate student at Ohio State. Their results are published online in the journal Personality and Individual Differences.Fox emphasized that the results don’t mean that men who post a lot of selfies are necessarily narcissists or psychopaths. The men in the study all scored within the normal range of behavior – but with higher than average levels of these anti-social traits.

Narcissism is marked by a belief that you’re smarter, more attractive and better than others, but with some underlying insecurity. Psychopathy involves a lack of empathy and regard for others and a tendency toward impulsive behavior.

The sample included 800 men from age 18 to 40 who completed an online survey asking about their photo posting behavior on social media. The participants also completed standard questionnaires for anti-social behaviors and for self-objectification. (This study doesn’t include women because the dataset, which Fox received from a magazine, did not have comparable data for women.)

In addition to asking how often they posted photos, the survey inquired about whether the men edited their photos before posting, including cropping photos, using filters and using picture-editing software.

“Most people don’t think that men even do that sort of thing, but they definitely do,” Fox said.

Results showed that posting more photos was related to narcissism and psychopathy, but psychopathy was not related to editing photos.

“That makes sense because psychopathy is characterized by impulsivity. They are going to snap the photos and put them online right away. They want to see themselves. They don’t want to spend time editing,” she said.

Editing photos was also related to higher levels of self-objectification, which has been rarely studied in heterosexual men, Fox said.

Self-objectification involves valuing yourself mainly for your appearance, rather than for other positive traits.

“We know that self-objectification leads to a lot of terrible things, like depression and eating disorders in women,” Fox said.

“With the growing use of social networks, everyone is more concerned with their appearance. That means self-objectification may become a bigger problem for men, as well as for women.”

While this study didn’t include women, Fox said she is currently conducting follow-up work that suggests the same findings found in this research also apply to women. Women who post more selfies also show higher levels of narcissism and psychopathy.

However, self-objectification plays a larger role with women, as would be expected.

Fox said she believes there is a self-reinforcing cycle when it comes to self-objectification. People who score higher on self-objectification post more selfies, which leads to more feedback from friends online, which encourages them to post even more photos of themselves.

“It may make people objectify themselves even more,” she said. “We are running a study on that now.”

Overall, Fox said this and other studies suggest our personality traits may influence how we present ourselves online.

“We are all concerned with our self-presentation online, but how we do that may reveal something about our personality.”

 Jeff Grabmeier  January 2015


 

 

André Gunthert

Le selfie, c’est entendu, est un sujet oiseux. Ne s’agit-il pas d’un mot anglais? Et “self” ne veut-il pas dire: “soi-même”? Traduction express: photo de soi, célébration du narcissisme, pouah! Sans compter que les selfies sont produits avec ces maudits smartphones qui nous empoisonnent la vie, et diffusés par ces réseaux sociaux qui sont le repaire des adorateurs du vaudou numérique. En un mot, un comble de technologie futile et niaise, un symbole de tout ce qui peut exciter un réactionnaire bon teint.

Ces jugements agacés en disent plus sur leurs auteurs que sur les images elles-mêmes. Plusieurs articles critiques du phénomène “selfie” ne comportent pas une photographie, encore moins une analyse de contexte1. A quoi bon, puisque les fantasmes suffisent?

1. Infographie "The Selfie Syndrome. How social media is making us narcissistic" (détail), 2013.


La photographie “amateur”, outil de l’autoreprésentation

Cela fait 175 ans qu’on porte sur la photographie un regard distrait. Pas celle de la cimaise ou de la page imprimée, faite par des acteurs légitimes et scrutée par la critique, mais celle de tous les jours, qu’on fait sans y penser. La photo telle qu’elle a été inventée, non pour ajouter un art subsidiaire à la liste des Muses, mais pour donner à chacun la capacité de produire ses propres images. Ne sait-on pas d’avance tout ce qu’il y a à savoir à son propos?

Pourtant, faute de la considérer, nous ne connaissons pas grand chose de cette photo ordinaire, réduite à quelques schémas expéditifs2. “Selfie” n’est qu’un mot. Mais la pratique à laquelle il renvoie dessine pour la première fois un territoire distinct dans l’aire confuse de la photo dite “amateur”, privée, familiale ou vernaculaire (autant de termes peu satisfaisants auxquels je préfère substituer l’expression dephotographie autoproduite).

Et pas n’importe quel territoire. S’appuyant sur une histoire des progrès techniques du portrait, Gisèle Freund proposait dès 1936 de penser la signification historique de la photographie comme l’accession de larges couches de la société à une plus grande visibilité sociale3.

L’analyse de Freund décrit la photo essentiellement comme un outil de représentation de soi. Baudelaire l’avait perçu de la même manière, et entonnait dès l’époque daguerrienne le même air que nos modernes détracteurs de selfies: «La société immonde se rua, comme un seul Narcisse, pour contempler sa triviale image sur le métal. Une folie, un fanatisme extraordinaire s’empara de tous ces nouveaux adorateurs du soleil. D’étranges abominations se produisirent4

L’un et l’autre avaient raison. A l’opposé de l’imagerie descriptive que l’on demande aux professionnels de produire, en se mettant eux-mêmes en retrait, à quoi pourrait bien servir la photo autoproduite si ce n’est à enregistrer nos bribes d’histoire, c’est à dire à produire des images de nous?

2. Jacques Henri Lartigue, page d'album, Royan, 1924 (Donation Jacques Henri Lartigue).

Si la photo est, comme l’explique Freund, cet outil qui donne accès à une visibilité jusque là refusée, de quoi la photographie dite “amateur” pourrait-elle être le miroir, si ce n’est de nous? Et à quoi servirait la technique photographique, qui nous confère la capacité de produire nos propres images, si ce n’est à exécuter nous-mêmes notre propre portrait?

On peut qualifier de narcissique cette pratique, mais alors il faut dire clairement, dans la tradition baudelairienne, que la représentation doit être réservée aux héros, à l’élite de la société, qui seule mérite ce privilège: hommes d’Etat, généraux, chefs d’entreprises, notables, artistes… Comme autrefois le catéchisme enjoignait la modestie aux petites gens, ceux qui qualifient d’amour exagéré de soi l’auto-représentation ne font que camoufler sous une psychologie de comptoir leur vision de classe d’une hiérarchie sociale immuable.

Tout le monde a le droit à son image. Et l’histoire privée est toujours plurielle. Il est en réalité burlesque d’associer Narcisse, qui n’avait d’yeux que pour son miroir, à la pratique de l’image autoproduite, qui est fondamentalement un acte social. Pourquoi commence-t-on à utiliser l’outil photographique lors de la formation d’un couple ou d’une famille, si ce n’est parce que l’image sert de support à l’écriture d’une histoire partagée? Pourquoi produit-on si peu de photos lorsqu’on vit seul, si ce n’est parce qu’on n’a personne à qui les montrer? La pratique photo dite “amateur” est proportionnelle à l’activité sociale, familiale ou amicale, et participe activement à renforcer les liens entre membres d’un réseau.

3-5. Autophotographie multiple (Londres, Rio de Janeiro, Rome, 2009-2012, photos AG).

Comme l’ont bien noté Joëlle Menrath et Raphaël Lellouche, le selfie s’exécute souvent à plusieurs5. Narcisse aurait-il admis quelqu’un d’autre que lui dans l’image? La définition de l’autoportrait repose sur la coïncidence de l’auteur et du sujet du portrait. Peut-on parler d’autoportrait si l’un seulement des modèles appuie sur le bouton?

Le selfie, portrait d’occasion

La bonne question serait plutôt: le selfie est-il un autoportrait? Il faudrait, pour y répondre précisément, se lancer dans une vaste discussion sur l’histoire et la nature du portrait6. En résumé, le portrait est un genre qui a plusieurs usages. Mais celui auquel on pense prioritairement lorsqu’on utilise ce terme est sa visée de “présentation de soi”, sa fonction identitaire.

6-29. Sélection d'images de profil parmi mes contacts Facebook, décembre 2013.

Les avatars des réseaux sociaux nous montrent abondamment que l’image que nous choisissons pour nous représenter n’est pas nécessairement celle à laquelle nous réduit l’identification policière – notre physionomie. Portrait d’acteur ou d’actrice, animal totémique, tableau, masque, affiche, détail corporel, etc.: comme un blason, comme un jeu, on peut retenir à peu près n’importe quelle image pour lui faire dire qui nous sommes (voir ci-dessus). Un portrait n’est pas seulement un buste, qui n’est que la forme la plus traditionnelle de la présentation de soi: il est une déclaration publique qui porte le message de notre revendication identitaire.

Le selfie comporte au contraire toujours la manifestation de la présence de l’auteur de l’image. Il peut servir d’avatar, mais il est globalement peu utilisé comme support identitaire. Il faut dire qu’il produit souvent une présentation de soi peu flatteuse. Lorsqu’il est réalisé dans les règles, avec un smartphone tenu à bout de bras, l’objectif grand angle déforme le visage. A défaut d’un contrôle efficace du cadrage, la composition comporte le plus souvent une dimension aléatoire. En situation, cette figuration peut avoir un effet comique qui donne de l’intérêt à l’image, mais qui ne peut pas forcément être partagée avec le plus grand nombre ni assumée comme représentation publique.

30. Alain François, "Autoportrait du jour: Le selfie type", novembre 2013 (courtesy Alain François). 31-32. André Gunthert, selfies, 2013.

Mon ami Alain François m’a aidé à mieux distinguer entre autoportrait et selfie. Praticien de l’autorepresentation, sous ses formes écrites ou visuelles, Alain s’est essayé à l'image de soi avec smartphone (voir ci-dessus, fig. 30). Mais dans son cas, la dimension intemporelle, la neutralité de l’autoreprésentation, le soin du cadrage et l’éloignement du sujet évoquent immédiatement la tradition de l’autoportrait pictural.

Ce qui caractérise le selfie, c’est au contraire la forte composante occasionnelle, l’inscription dans un contexte ou une situation, ainsi que la relative impréparation, manifestée par les défauts formels, comme un cadrage incertain ou la déformation des perspectives.

La tradition à laquelle il se rattache le plus directement est celle de l’autophotographie touristique, où il s’agit d’inclure la présence des acteurs du voyage dans le contexte d’un site connu (voir ci-dessous). On peut noter à ce propos la fluidité des pratiques, qui place sur un même plan autophoto simple ou automatisée (par l’intermédiaire d’un retardateur), photographie d’un groupe par un de ses membres, voire prise de vue par un tiers, du moment que la camera utilisée est celle d’un des membres du groupe.

33-35. Venise, autophoto touristique: un jeune homme photographie son amie devant le pont des soupirs, puis demande à un passant de les photographier tous les deux; un autre groupe s'autophotographie au smartphone (2013, photos AG).

Une variante du genre consiste à profiter de la présence d’une célébrité pour se photographier ou se faire photographier à son côté. Les versions parodiques de cette pratique, comme celle du Tourist Guy, l’un des plus anciens mèmes du web, suggèrent de la décrire comme une opération d’inclusion, qui utilise l’apparence visuelle comme une attestation de présence (“J’y étais”). Le selfie typique requiert donc trois éléments: la présence au moins partielle de l’auteur, une situation identifiable pour le(s) destinataire(s), et la manifestation du caractère autoproduit de l’image, par le biais de défauts devenus traits stylistiques.

36. Fabio M. Ragona, autophoto aux côtés du pape François, 29 aout 2013 (Twitter). 37. Roberto Schmidt, prise de vue d'une autophoto au smartphone par la première ministre danoise Helle Thorning-Schmidt aux côtés de Barack Obama et David Cameron lors de la cérémonie d'hommages à Nelson Mandela, 11 décembre 2013 (AFP).

38-39. Anon., "The Tourist Guy" (photomontages), 2001.

Ces traits inscrivent le selfie dans la lignée de l’instantané sur le vif, un genre né à la fin du XIXe siècle, encouragé par les progrès techniques de la photographie, et reconnaissable par un choix de sujets qui manifeste leur rapidité et leur caractère occasionnel7. Le selfie partage avec l’instantané l’héritage d’une esthétique du moment quelconque, mais aussi la caractéristique d’exhiber ses codes visuels de manière apparente dans l’image, créant ainsi une culture identifiable et reproductible.

Si le selfie peut être utilisé à des fins d’autodépiction, il déplace et renouvelle profondément le genre, en y introduisant de nouvelles composantes. Alors que la tradition du portrait pictural imposait des principes d’idéalisation nécessitant une préparation soigneuse, fidèlement transmis aux pratiques d’atelier, la photographie familiale fait évoluer la représentation des individus, et notamment des enfants, au cours du XXe siècle, en favorisant la prise de vue sur le vif8. Mais il restait difficile de transposer sur le terrain de l’autoreprésentation ce désir d’authenticité. Le selfie résoud la contradiction qui opposait image de soi et instant accidentel, et accomplit la rencontre paradoxale du portrait d’occasion.

40. Studio Harcourt, portrait de Mélanie Laurent, 2008. 41. Anon., photographie familiale, 1986.

Au-delà du portrait: les usages connectés

Interrompre ici l’analyse serait pourtant une erreur. La photographie autoproduite comprend une part d’usages contextuels nettement plus ouverte que les formes institutionnelles. Ces usages, qui modifient la signification des images, ont connu une extension sans précédent depuis la révolution numérique, et plus particulièrement avec la photographie connectée. Pour en tenir compte, l’approche habituelle de la sémiologie déductive ne suffit pas. Il est nécessaire de se tourner vers une ethnographie des usages, qui nécessite une connaissance approfondie des contextes.

Dans ma propre collection d’autophotos, j’identifie par exemple des images qui pourraient passer pour des portraits, mais qui ont été réalisées dans un but utilitaire, sans aucune intention identitaire, comme un selfie envoyé à ma femme en sortant de chez le coiffeur, pour l’informer de la fin de la séance et lui permettre de juger de ma coupe (voir ci-dessus, fig. 31), ou un autre effectué pour vérifier l'effet d’une nouvelle paire de lunettes. La disponibilité du smartphone permet de l’employer ici à la manière d’un miroir augmenté.

A noter que l’intention première ne referme pas le domaine d’usage d’une image. Au contraire, dans la photographie autoproduite, son destin reste ouvert à un éventail de possibles qui pourront faire l’objet de décisions a posteriori. Ainsi le selfie du coiffeur se verra-t-il choisi dans un second temps comme image de profil sur Facebook, à la fois pour son aspect comique et pour le caractère déclaratif – cette fois pleinement identitaire –, d’une telle photo au titre de mon avatar public (en combinaison avec un détournement de Caspar David Fredrich par Kim Dong-Kyu).

42-43. André Gunthert, selfies conversationnels, juillet-septembre 2013.

De manière plus caractéristique, je trouve parmi mes selfies des photos exclusivement destinées à alimenter le dialogue avec mon réseau amical sur Facebook. Là encore, l'image d'un coup de soleil (fig. 42) ou d’une chemise non repassée (fig. 43, prétexte pour informer mes contacts de ma participation à un colloque) constituent des embrayeurs pour le jeu conversationnel plutôt que des autoportraits au sens classique du terme. Ces images peu académiques résistent à l’interprétation d’un regard non averti.

Il convient également de rappeler l’usage signalé du selfie dans le registre de la communication amoureuse et érotique. Cette forme ancienne – et particulièrement mal documentée – des applications privées de la photographie a connu elle aussi une progression explosive avec les outils numériques9. Plusieurs sites spécialisés attestent que le genre est identifié de longue date. Notons toutefois que la partie visible par l’intermédiaire des réseaux sociaux n’est probablement que peu de chose par rapport aux échanges protégés sur les messageries instantanées.

Pris comme une pratique indifférenciée, le selfie nous confronte à la présence insistante des visages. Pourtant, ces quelques remarques suggèrent qu’identifier portrait et physionomie, lorsqu’on ignore l’intention qui a présidé à la réalisation de la photo, relève d’un a priori culturel plutôt que d’une approche fondée. La recherche visuelle nous a habitué à déduire les usages de situations fermées. Mais les pratiques ordinaires sont à la fois moins connues et moins prédictibles. Leur analyse impose de poursuivre l’investigation au-delà des apparences.

Le selfie paraît un terrain propice pour tester les dynamiques de la culture populaire. Il permet notamment de compléter l’hypothèse de Gisèle Freund sur la démocratisation du portrait. Au-delà de la seule prise en compte de l’outil de production des images, c’est sa visibilité et sa valorisation culturelle qui confèrent à une pratique la reconnaissance nécessaire à sa diffusion.

44-46. Selfies de célébrités: Rihanna, Lindsay Lohan, Justin Bieber, 2013.

Si les réseaux sociaux ont contribué à ce travail, l’apport essentiel à l’identification du selfie comme genre a été son usage sur Twitter ou Facebook par quelques vedettes de la chanson et du cinéma. Mobilisée pour ses valeurs d’authenticité et d’intimité, la photo autoproduite offre aux fans un degré supplémentaire de proximité avec leur idole. Ces jeunes stars ont donc à la fois réutilisé un modèle issu des pratiques vernaculaires, et favorisé à leur tour sa dissémination, par l’intermédiaire des gazettes people en ligne. Attestant que cette visibilité a atteint un seuil critique, les réactions courroucées des vieilles barbes ne fait qu’inciter le plus grand nombre à participer au jeu.

  1. Sherry Turkle, “The Documented Life“, The New York Times, 15 décembre 2013. 
  2. Parmi les rares approches plus attentives à la complexité de la photographie ordinaire, on peut notamment citer: Richard Chalfen,Snapshot. Versions of Life, Bowling Green, Bowling Green State University Popular Press, 1987; et en français: Marin Dacos, ”Le regard oblique. Diffusion et appropriation de la photographie amateur dans les campagnes (1900-1950)“, Études photographiques, n° 11, mai 2002. 
  3. Gisèle Freund, “Les précurseurs”, La photographie en France au XIXe siècle (1936), Paris, Christian Bourgois, 2011. 
  4.  Charles Baudelaire, “Le public moderne et la photographie” (Salon de 1859)Etudes photographiques, n° 6, mai 1999. 
  5.  Joëlle Menrath, Raphaël Lellouche, “Le Selfie, portrait de soi narcissique ou nouvel outil de construction identitaire ?“, Observatoire de la Vie Numérique des Adolescents, 27 novembre 2013.
  6. On se reportera notamment aux synthèses proposées par Edouard Pommier, Théories du portrait. de la Renaissance aux Lumières, Paris, Gallimard, 1998; Adeline Wrona, Face au portrait. De Sainte-Beuve à Facebook, Paris, Herrmann, 2012. 
  7. André Gunthert, “Esthétique de l'occasion. Naissance de la photographie instantanée comme genre“, Études photographiques, n° 9, mai 2001. 
  8.  Irène Jonas, “Portrait de famille au naturel. Les mutations de la photographie familiale"“, Études photographiques, n° 22, septembre 2008. 
  9. Fred Pailler, “Pornographie , appareillage numérique et internet. Vers une culture sexuelle augmentée ?“, Politiques des affects, 22 octobre 2013.

 

Pour ceux qui, comme moi, ne viennent qu'occasionnellement dans une grande ville (en l'occurrence Paris), le spectacle que donnent à voir les usagers des transports en commun ne laisse pas d'étonner. C'est, dans le métro, le bus, le tramway ou le RER, une cohorte d'esseulés les yeux rivés à quelques centimètres carrés sur lesquels, dans une danse cabalistique, ils font glisser, virevolter leurs doigts, écrivant un SMS ou un email, feuilletant un journal électronique, naviguant entre leurs "applis", jouant à Candy Crush ou à 2048, etc. Dans nos civilisations d'aujourd'hui, personne n'est autant caressé que l'écran tactile de notre téléphone portable... Le plus beau de l'histoire, c'est que des chercheurs viennent de tirer profit de ces nouvelles pratiques digitales – aux deux sens du mot – pour monter une expérience sur la plasticité de notre cerveau, décrite ce mardi 23 décembre dans la revue Current Biology.

 

Les ressources que notre cerveau alloue au traitement des différents signaux sensoriels ne sont pas figées. Une personne qui devient aveugle compensera en partie la perte de ce sens en développant les autres et notamment le toucher pour la lecture en braille. On a aussi étudié, chez des violonistes, violoncellistes et un guitariste, la place que, dans le cortex somatosensoriel, qui reçoit les informations en provenance de la surface du corps, prenaient les doigts appuyant sur les cordes. La représentation cérébrale de ces doigts, très sollicités pour des tâches requérant vitesse et précision, était nettement plus importante que chez des non-musiciens. Mais ce qui est vrai chez un groupe d'experts ayant, le plus souvent, commencé l'apprentissage de l'instrument au cours de l'enfance l'est-il aussi dans la population générale avec un outil découvert plus tard ?

Pour répondre à cette question, l'équipe suisse qui signe l'article de Current Biology s'est dit que les téléphones à écran tactile étaient les violons de Monsieur et Madame Tout-le-Monde et que, à voir le temps considérable passé sur ces petits appareils et la vitesse parfois surprenante à laquelle nous tapons nos SMS, nous étions tous un peu des Yehudi Menuhin du smartphone. Ces spécialistes des neurosciences ont donc recruté 37 personnes ayant entre 19 et 34 ans, toutes droitières. Vingt-six se servaient d'un portable à écran tactile (sans stylet) tandis que les 11 autres avaient un bon vieux téléphone à touches et servaient de groupe témoin.  Toutes se sont retrouvées avec 62 électrodes réparties sur le scalp pour un électro-encéphalogramme (EEG). L'idée consistait à tapoter avec une machine le bout de trois doigts de la main droite (pouce, index et annulaire), ce plusieurs centaines de fois, et à enregistrer l'activité électrique que cette stimulation suscitait dans le cortex somatosensoriel. Résultat : chez les propriétaires de smartphones, l'amplitude des signaux captés par l'EEG était plus importante que chez les autres (surtout pour ce qui concernait le pouce), comme si le cerveau était plus sensible aux doigts dans le premier groupe.

Pour vérifier que cette augmentation de la sensibilité cérébrale était bien liée à l'utilisation du smartphone, les chercheurs se sont intéressés à l'usage que chacun des "cobayes" faisait de son portable, ce en analysant l'historique de la batterie sur les dix jours ayant précédé l'expérience. Plus le téléphone (qui sert désormais moins à téléphoner qu'à jouer, lire, écrire) avait été utilisé au cours de la décade précédente, plus les signaux enregistrés par l'EEG étaient amples. D'ailleurs, quand les participants venaient juste de sortir d'une "session" intensive de tapotages et autres glissements, le cortex réagissait de manière plus importante aux stimulations des doigts.

Pour les auteurs de l'étude, l'utilisation d'un écran tactile entraîne donc bien une "réorganisation corticale", à la manière de ce qui est mesuré chez les personnes jouant d'un instrument à cordes. Cependant, chez ces derniers, l'importance allouée par le cerveau aux doigts sollicités est liée à l'âge auquel les musiciens ont commencé leur apprentissage de l'instrument. Ce n'est pas du tout le cas chez les utilisateurs de smartphones. Seule l'utilisation récente de l'écran tactile influe sur la manière dont l'encéphale "sent" les doigts, ce qui implique que les processus en jeu dans la plasticité cérébrale sont ici activés au quotidien.

Ceci dit, il existe sans doute bien d'autres voies par lesquelles les smartphones remodèlent notre cerveau, la moindre n'étant pas la véritable addiction que ces appareils créent chez certains. Il y a quelques mois, l'Agence France Presse diffusait une dépêche décrivant l'ampleur croissante du problème dans la jeunesse suréquipée des dragons asiatiques (Singapour, Hongkong, Corée du Sud et Taïwan). Par curiosité, j'ai fait une petite recherche sur le sujet sur Google Scholar et je n'ai pas été déçu : le phénomène est tel que l'addiction au smartphone est devenue, en Corée du Sud notamment, un véritable axe de recherche avec plusieurs dizaines d'études, si ce n'est plus, publiées sur le sujet au cours des dernières années...

Pierre Barthélémy