Considérons que la « décentration » est la capacité d’un individu à adopter un point de vue qui n’est pas le sien, ou autrement dit, le fait de pouvoir « se mettre à la place de l’autre » d’un point de vue cognitif. Dans cet article, nous développons en quoi cette aptitude nous semble primordiale pour se forger une pensée critique authentique, face aux « bulles de filtre » et autres « biais d’appartenance ».
Biais d’appartenance, chambres d’écho et polarisation
En 2003, Cohen montre que l’appartenance politique présumée du décideur a davantage d’impact sur l’adhésion d’un individu que la nature de la décision. Ainsi, pour un répondant « républicain », si un décideur « républicain » prend une décision (même si celle-ci est tout à fait « démocrate »), l’individu testé l’approuvera statistiquement davantage que si elle avait été prise par un décideur « démocrate », alors qu’à l’inverse, les personnes « démocrates » la désapprouveront davantage. Ceci fonctionne tant pour les sympathisants démocrates que les républicains, et dans les deux cas l’appartenance supposée du décideur a plus d’impact que la nature du programme sur lequel leur avis leur est demandé.
Sperber et Mercier mentionnent également ce type de biais, qu’ils distinguent du simple « biais de confirmation ». Pour eux, les humains ne sont pas crédules de manière aléatoire : « les positions à propos desquelles nous sommes les plus aveugles sont les nôtres ».
« To the extent that confirmation bias leads people to dismiss evidence of new or underappreciated threats—the human equivalent of the cat around the corner—it’s a trait that should have been selected against. The fact that both we and it survive, Mercier and Sperber argue, proves that it must have some adaptive function, and that function, they maintain, is related to our “hypersociability.”
Mercier and Sperber prefer the term “myside bias.” Humans, they point out, aren’t randomly credulous. Presented with someone else’s argument, we’re quite adept at spotting the weaknesses. Almost invariably, the positions we’re blind about are our own.
A recent experiment performed by Mercier and some European colleagues neatly demonstrates this asymmetry. Participants were asked to answer a series of simple reasoning problems. They were then asked to explain their responses, and were given a chance to modify them if they identified mistakes. The majority were satisfied with their original choices; fewer than fifteen per cent changed their minds in step two ».
Source : Kolbert, E., « Why Facts Don’t Change Our Minds » (2017) – Traduction du titre : « Pourquoi les faits ne nous font pas changer d’avis ».
Je relevais ce problème dans « La logique face aux mauvais arguments » (2014) et dans mon dossier « Lutter contre la haine de l’autre » (2016). Cela rejoint également les propos de Paul Ricœur qui écrit ceci dans :
« L’idéologie est toujours un concept polémique. Elle n’est jamais assumée en première personne : c’est toujours l’idéologie de quelqu’un d’autre ».
> Un parallèle peut aussi être dressé avec le concept de « point aveugle », c’est-à-dire le biais consistant à croire que nous sommes moins biaisés que les autres, présenté par La Tronche en Biais.
> Au sujet de la persistance de croyances erronées (partisanes, notamment), lire aussi : Shermer, M., How to Convince Someone When Facts Fail (Scientific American, 2017 – Traduction disponible), Taub, A., The Real Story About Fake News Is Partisanship (2017) ou encore Taub, A., Nyhan, B., Why People Continue to Believe Objectively False Things (2017).
> Au sujet de la difficulté à changer une opinion lorsque celle-ci est tributaire d’une certaine vision du monde, d’un certain « système de croyance » (socialement, moralement et/ou affectivement coloré), lire aussi : Weber, N., Voilà pourquoi, qu’importent tous les faits et les preuves rationnelles qui contredisent vos opinions profondes, vous ne les accepterez jamais (2017), inspiré de The Oatmeal, Believe – You’re not going to believe what I’m about to tell you (2017). Cf. également la notion d’effet retour de flamme – backfire effect (David McRaney, 2011) et du même auteur, The neuroscience of changing your mind (2017) et How motivated skepticism strengthens incorrect beliefs (2017).
Les exemples de ce phénomène d’adhésion « identitaire » sont nombreux. Dans l’illustration ci-dessous, chaque candidat rencontre un maximum d’adhésion à ses propos auprès de ses sympathisants. Nous pouvons émettre la thèse que certains répondants approuvent le message avant même que « leur » candidat ouvre la bouche, ou encore qu’un individu fait confiance à un candidat parce qu’il estime a priori que le candidat est comme lui, qu’il lui ressemble.
> Voir aussi : Sondage Harris Interactive (billet daté du 6 avril 2017). Rapport complet disponible en pdf sur le site d’Harris Interactive.
> Lire aussi : le débat de l’entre-deux tours des présidentielles n’aurait aucun impact sur le résultat (Le Figaro, 2012).
Je relevais des données similaires (que l’on peut observer entre autres dans les baromètres de confiance à l’égard de la presse) dans Médias : influence, pouvoir et fiabilité, en 2012 :
Certains auteurs montrent à quel point des dynamiques de groupe peuvent conforter ces tendances. Ainsi, dans l’article « Echo Chambers » (2017), Martin Moore explique qu’après discussion au sein de « groupes d’appartenance », les individus ont tendance à affirmer des opinions encore plus tranchées et polarisées qu’avant d’avoir échangé. Autrement dit, la corroboration sociale amène les gens à être plus confiants et moins nuancés envers leurs propres opinions, et donc moins aptes à les remettre en question et en perspective.
« Social Psychology
What do we know about the effects of group dynamics on people’s perspectives? Well, we know that when people’s views are reaffirmed and consolidated by those around them, these views tend to be strengthened and made more extreme. Conversely, when they are contradicted, they tend to be weakened. Social psychologists call this group or attitude polarization. Over two decades ago Robert Baron and his co-authors saw this across a variety of different non-political settings: when judging other people’s looks, in rating the comfort of a dentist’s chair, or in deciding how much to give to a particular charity (Baron et al, 1996). When you apply the same tests to politics, similar things happen. People get more extreme in their views after discussing them with like-minded people. Cass Sunstein, in a fascinating 2002 article on ‘The law of group polarization [2002]’, cites studies that found:
(a) A group of moderately pro feminist women will become more strongly pro-feminist after discussion. (b) After discussion, citizens of France become more critical of the United States and its intentions with respect to economic aid. (c) After discussion, whites predisposed to show racial prejudice offer more negative responses to the question whether white racism is responsible for conditions faced by African-Americans in American cities. (d) After discussion, whites predisposed not to show racial prejudice offer more positive responses to the same question.
Social corroboration, in other words, leads people to become more confident and less equivocal in their attitudes. Less willing, in other words, to question their views or to compromise ».
Source : Moore, M., « Echo Chambers » (2017).
Moscovici constatait déjà des effets de polarisation suite à une discussion groupale dans une étude de 1969. Il écrit :
« L’extrémisation mène pour l’ensemble des items à une polarisation : l’attitude favorable à l’égard du général de Gaulle le devient encore davantage après l’interaction collective, tandis que l’attitude défavorable à l’égard des Américains devient plus hostile dans les mêmes conditions. Le même phénomène se produit dans la troisième condition expérimentale : les jugements se polarisent aussi bien pour les items qui sont considérés comme favorables que pour ceux qui sont considérés comme défavorables à l’égard du président.
Source : Doise, W., Moscovici, S., « Les décisions collectives », in Moscovici, S. (dir.), Introduction à la psychologie sociale, tome 2, Paris : Librairie Larousse, 2002.
Ces enjeux ne datent pas d’hier. Dans un article de mai 2017, Jeremie Poiroux écrit :
« Un peu de contexte historique : les théories selon lesquelles nous sommes enfermés dans notre “monde” et notre “bulle” ne sont pas nées avec Internet. Dès les années 1940, des chercheurs (Lazarsfeld et al., 1944) étudient les sources et la sélection d’information par les électeurs, les concepts de biais de confirmation (Nickerson, 1998) et de dissonance cognitive (Festinger, 1954). Plus récemment McPherson (2001) a développé une théorie de l’homophilie [idée selon laquelle les contacts sont plus fréquents entre gens similaires qu’entre gens dissimilaires (McPherson, Smith-Lovin et Cook, 2001)] ».
Source : Poiroux, J., « Fake news et accès à l’info : les “bulles de filtres” ne sont pas le plus gros problème ! » (2017).
Bulles de filtre, algorithmes et uniformisation
Toutefois, la structure même des médias sociaux pose question dans la mesure où tant les dispositifs techniques (les algorithmes) que leurs usages ont tendance à renforcer ces « chambres d’écho » – ou « bulles de filtre » – dans lesquelles les personnes sont « enfermées » en grande partie à leur insu. Il s’agit de bulles relationnelles et informationnelles qui font qu’un individu n’est exposé qu’à certaines infos et à certains points de vue (auxquels il adhère a priori), et pas aux autres.
> Lire aussi : « Facebook nous isole de plus en plus des opinions différentes des nôtres » (2016)
Cela pose non seulement la question de l’uniformisation de l’information, mais aussi celle de l’uniformisation de la consommation de cette information au sein de groupes identitaires.
Ironie de l’uniformisation de l’information : plusieurs titres de presse reprennent telle quelle la dépêche AFP de mars 2017 intitulée « les articles en ligne de plus en plus uniformes ».
En effet, les études et articles cités ici montrent qu’il y a une tendance relativement forte à s’exposer, sélectionner, mémoriser ou encore partager des choses auxquelles nous adhérons déjà a priori. Dans le New-York Times, Kevin Quealy titre que « nous évitons ou ignorons les actualités que nous n’aimons pas » (We Avoid News We Don’t Like. Some Trump-Era Evidence, 2017).
Face au manque d’efficacité de la vérification des faits, Vincent Glad épingle lui aussi ce phénomène :
« Comme je l’expliquais sur ce blog, le fact-checking n’est qu’une munition comme une autre dans la bataille de l’information qui fait rage sur les réseaux. Les articles de presse servent souvent à conforter une position ou une autre. Et s’ils ne collent pas à ce que l’on pense, il suffit d’aller chercher une autre vérité ailleurs. Tout existe sur Internet : la vérité, sa contre-vérité et toutes les nuances. Il convient juste de trouver la bonne URL ».
Source : Glad, V., Le Brexit, ou l’impuissance du fact-checking (2016).
> Lire aussi Campbell, T. H., Lauren Griffin, L., Who Are You Calling Anti-Science ? Those who reject vaccines or the climate consensus often embrace other legitimate areas of research, 2017 : « This biased analysis of science is due to the now well-known psychological phenomenon of motivated reasoning. Research suggests that all people tend to seek out information that confirms (or at least does not challenge) the conclusions they want to draw on a given topic. In other words, we will work to discredit or avoid information that might require us to reconsider our pre-existing beliefs. Motivated reasoning is particularly likely when taking the other side might create conflict within our social circle – think making a break from your political party ».
Un grand nombre de données relatives aux échanges sur les médias sociaux en ligne montrent clairement des phénomènes de polarisation. Cf. notamment les analyses de Nicolas Vanderbiest à ce sujet.
Une fois le tout affiné pour #legranddébat / #debattf1 de 17h à 20h30 pic.twitter.com/rmnOTPt02o
— Nicolas Vanderbiest (@Nico_VanderB) March 20, 2017
- Network analysis of link sharing from politically affiliated accounts on twitter. Source : Krasodomski-Jones, A., Talking to Ourselves, Demos, 2016.
- William Brady et al. (2017), récupéré dans l’article « One graph shows how morally outraged tweets stay within their political bubble » (2017).
Lire aussi : « One graph shows how morally outraged tweets stay within their political bubble » (2017) : « regardless of how persuasive or amusing your tweets are, chances are they’re unlikely to be well-received by anyone who doesn’t agree with you already ». Lien vers l’article de l’étude : « Emotion shapes the diffusion of moralized content in social networks » (2017).
Dans mon entretien avec Nurten Aka, je résume les enjeux que cela suppose comme suit :
« Les médias d’information sont accusés d’être des « bulles déformantes », mais en fait ils reflètent la manière dont nous fonctionnons en tant qu’individus. Comme les médias, nous sélectionnons l’information à laquelle nous sommes confrontés. Nous l’interprétons à notre manière et nous en discutons avec nos proches. Pas mal d’études tendent à montrer que nos propres filtres conditionnent davantage nos opinions que les discours des médias. […]
Pour moi, cela pose la question de la « décentration », c’est-à-dire la capacité à s’ouvrir aux opinions et aux pratiques différentes des nôtres. Avec les médias sociaux et les algorithmes, il y a une tendance à se cloisonner encore davantage dans les sphères qui nous ressemblent. Cela pose question quant à l’accueil et la compréhension de la diversité ».
Comme je le laisse entendre dans cet entretien, les « bulles déformantes » sont avant tout un phénomène social et non une nouveauté due simplement aux algorithmes. C’est également l’avis du sociologue Dominique Cardon, cité par André Gunthert :
« La bulle, c’est nous qui la créons. Par un mécanisme typique de reproduction sociale. Le vrai filtre, c’est le choix de nos amis, plus que l’algorithme de Facebook ».
Source : Cardon, D., cité dans Gunthert, A., « Et si on arrêtait avec les bulles de filtre ? » (2016).
> A ce sujet, lire aussi Dans leur bulle (de filtres), les internautes ? Pas si simple… (Slate, 2017).
Ces phénomènes n’étant pas neufs, il est difficile de distinguer dans quelle mesure les médias sociaux et algorithmes contribuent ou non à renforcer les tendances au cloisonnement :
« Il est aujourd’hui impossible de répondre si oui ou non les algorithmes de recommandation et les techniques de personnalisation nous enferment dans des bulles plus que nous nous enfermons nous-mêmes ».
Source : Poiroux, J., « Fake news et accès à l’info : les “bulles de filtres” ne sont pas le plus gros problème ! » (2017).
Pensée critique, décentration et métacognition
Comme nous l’avons dit, la décentration fait référence à l’aptitude à se mettre à la place de l’autre, à pouvoir comprendre son point de vue, sans nécessairement être d’accord avec lui. C’est un des principes d’une démarche cognitive authentique. Dans son blog de philosophie des sciences, Quentin Ruyant identifie lui aussi la capacité à « faire pleinement droit » à la position qui n’est pas la sienne comme une qualité indispensable d’un philosophe :
« Je ferai appel à un principe qui correspond, je pense, avec la clarté que nous évoquions précédemment, à l’une des qualités les plus importantes chez un philosophe (et qui manque cruellement à la plupart des politiciens) : le principe de charité.
Il s’agit, comme l’exprime Daniel Dennett, d’être capable d’exprimer une position adverse de manière si fidèle que même notre opposant pourra nous remercier d’avoir exprimé sa position avec tant de justesse. La connaissance doit être issue d’un travail collaboratif, ce qui est impossible si l’on ne sait pas faire justice aux positions auxquelles on s’oppose pour leur opposer des arguments sérieux ».
Cette capacité d’ouverture à l’opinion d’autrui me semble être l’un des fondements d’une pensée et d’un dialogue constructifs. Il s’agit même d’une condition de l’apprentissage, au final : si une personne est incapable de changer ses représentations initiales erronées par le « nouveau savoir », elle est incapable d’acquérir des connaissances.
« Face au réel, ce qu’on croit savoir clairement [sens commun, ndlr] offusque ce qu’on devrait savoir ».
1967 (1934).
> Frans de Waal identifie l’empathie et l’imitation (formes de « décentration » émotionnelle et comportementale) comme étant à la base de l’apprentissage et de l’éthique. Lire Rencontre avec Frans de Waal. L’empathie, des animaux aux humains, Sciences Humaines, 2010.
Cette capacité de décentration ne semble pas innée et surtout, comme nous l’avons vu, elle ne « s’actualise » pas systématiquement. Autrement dit, ce n’est pas parce que nous avons le « potentiel » de nous décentrer que nous le faisons effectivement à travers nos actes. Au contraire, si « nos propres positions sont celles à propos desquelles nous sommes le plus aveugles », la mise en perspective de celles-ci fait probablement défaut.
A fortiori, la décentration est à mon sens aux fondements de la « métacognition » ou de la « réflexivité ». Concrètement, la métacognition consiste à pouvoir « connaître ses propres processus de pensée ». La réflexivité fait référence à l’aptitude de la pensée qui consiste à pouvoir se remettre elle-même en question.
En somme, il s’agit de la capacité à mettre son propre point de vue en perspective (cf. la notion de perspectivisme).
Or, il nous semble que pour pouvoir prendre quelque chose pour objet, il nous faut le mettre à distance (cf. le concept hégélien de dialectique). Il nous faut passer par l’altérité, c’est-à-dire ce qui est différent. Pour prendre conscience de ses propres processus de pensée, il est utile de pouvoir les comparer à d’autres, par exemple. Pour pouvoir se prendre elle-même pour objet, la connaissance doit sortir d’elle-même, se faire « extérieure » à elle-même.
> Dans Question de points de vue, je développe l’idée qu’un « méta point de vue » propice à la connaissance est celui qui permet le maximum d’ouverture aux différents points de vue.
Peut-on envisager qu’il soit possible pour un individu de penser autrement si lui-même n’entre pas dans une démarche dans laquelle il sous-pèse différentes alternatives dans une forme de « dialogue » (y compris une forme de dialogue « intérieur ») ?
Dans cet ordre d’idées, dans mon cours « Médias, philosophie et citoyenneté », je développe la thèse que l’esprit critique n’est pas une chose que l’on détient ou que l’on acquiert une fois pour toutes.
Si la métacognition et la réflexivité sont des processus qui ne sont pas innés et que l’on peut mettre en pratique ou non, et que ceux-ci sont constitutifs d’une « pensée critique » authentique, alors il est possible et souhaitable de les entraîner, de les développer.
Cette considération peut être reliée aux déclarations d’Hannah Arendt à propos de la « banalité du mal » et des « aptitudes à exercer son jugement moral ». Concrètement, pour Arendt, l’être humain le plus « banal » peut être amené à commettre les actes les plus atroces si celui-ci ne fait pas l’exercice de son jugement moral. Pour elle, il est possible de développer une sorte d’intelligence pratique, une habitude à mobiliser sa pensée. Selon Arendt, les jugements d’une personne dépendent d’une aptitude de questionnement qui peut être exercée, « entraînée », tout en n’étant pas quelque chose d’acquis une fois pour toutes. Même un « brillant intellectuel » est susceptible d’adopter une posture qui n’est pas « critique », à un moment donné, c’est-à-dire de ne pas exercer ses facultés de jugement.
A noter aussi qu’Arendt développe la thèse de la « banalité du mal » par rapport à un contexte probablement propice à une forme « d’aliénation » des individus. Il est intéressant d’interroger comment le « terreau » sociologique et historique peut être favorable ou non à l’exercice d’une pensée authentique : comment un individu peut-il mettre en place une prise de décision « atypique » dans un contexte aliénant et violent ? Comment le contexte influence-t-il les aptitudes à exercer une pensée critique ?
En guise de conclusion, il nous semble par conséquent intéressant de décliner l’aptitude de décentration en éléments qu’il est possible de travailler, en termes d’approches et de contenus d’apprentissage.
Plusieurs composantes de la décentration peuvent en effet être abordées et faire l’objet d’une prise de conscience ou d’une réflexion :
- Notre perception est située et elle « construit » en partie nos représentations (cf. constructivisme en épistémologie). De plus, nous n’avons pas toujours accès à toute l’information, nous n’en voyons qu’une partie (voir aussi Simons & Chabris, 1999). Il s’agit donc de développer des aptitudes d’observation et de logique, mais aussi une forme de conscience du fonctionnement de la cognition.
- Nous sommes sujets à des biais cognitifs. Certaines dynamiques sociales (notamment observables dans les médias sociaux) peuvent renforcer les « bulles de filtre » dans lesquelles nous sommes, en nous confortant dans nos opinions préalables. Nous interprétons les informations, nous formulons des hypothèses, et les mémorisons également de manière biaisée.
- Ces biais découlent régulièrement de paramètres socioaffectifs, et se jouent à un niveau « identitaire » (à propos des dynamiques sociales liées au concept d’identité, cf. Guerre(s) et philosophie – La problématique de l’identité – L’identité selon Brubaker – Idéologies et communautarismes : le cas belge – Idéologies, communautarismes et arrogance).
- L’ouverture à la différence, aux points de vue différents et à la diversité, est un enjeu majeur dans un contexte de « cloisonnement » (sérendipité, navigation et exploration). Il est également possible de relier cela à une éthique de l’attention (to care) et de la rencontre. Cette ouverture est une disposition relationnelle (qui suppose peut-être d’ailleurs l’instauration d’un climat de confiance, de sécurité…).
- …
En somme, il s’agit de s’interroger sur ce qui est susceptible de favoriser ou d’entraver l’exercice du jugement moral et/ou de la décentration, que ce soit dans « notre » fonctionnement cognitif ou à différents niveaux de réalités sociales (aliénations et autres déterminismes qui limiteraient la remise en question des individus).
Sources principales
Bachelard, G. (1967 (1934)), La formation de l’esprit scientifique
Baron, RS, et al (1996), Social Corroboration and Opinion Extremity
Brady, W. et al (2017), Emotion shapes the diffusion of moralized content in social networks
Campbell, T. H., Lauren Griffin, L. (2017), Who Are You Calling Anti-Science ? Those who reject vaccines or the climate consensus often embrace other legitimate areas of research
Casteele, A. (2017), Les algorithmes dans les médias sociaux
Cohen, G.L. (2003), Party over policy : The dominating impact of group influence on political beliefs, in Journal of Personality and Social Psychology 85(5), 808-822.
Glad, V. (2016), Le Brexit, ou l’impuissance du fact-checking
Goldhill, O. (2017), One graph shows how morally outraged tweets stay within their political bubble
Gunthert, A. (2016), Et si on arrêtait avec les bulles de filtre ?
Journet, N. (2011), Rencontre avec Frans de Waal. L’empathie, des animaux aux humains
Krasodomski-Jones, A. (2016), Talking to Ourselves
Kolbert, E. (2017), Why Facts Don’t Change Our Minds
La Tronche en Biais (2016), Le point aveugle
Le Figaro (2012), le débat de l’entre-deux tours des présidentielles n’aurait aucun impact sur le résultat
Lecomte, J. (2012), Médias : influence, pouvoir et fiabilité
– (2013), Pour une éthique de la discussion
– (2014), La logique face aux mauvais arguments
– (2014), Sur la réflexivité dans les pratiques d’éducation aux médias et à l’information
– (2016), Lutter contre la haine de l’autre
– (2017), 8 questions sur l’éducation aux médias
– (2017) Médias, philosophie et citoyenneté
McRaney, D. (2011), The backfire effect
– (2017), The neuroscience of changing your mind
– (2017), How motivated skepticism strengthens incorrect beliefs
Moore, M. (2017), Echo Chambers
Moscovici, S., Doise, W. (1973), « Les décisions collectives », in Moscovici, S., Introduction à la psychologie sociale (tome II)
Nejrotti, F. (2016), Facebook nous isole de plus en plus des opinions différentes des nôtres
Oremus, W., traduit par Champion, Y. (2017), Dans leur bulle (de filtres), les internautes ? Pas si simple… (Slate)
Poiroux, J. (2017), Fake news et accès à l’info : les “bulles de filtres” ne sont pas le plus gros problème !
Quealy, K. (2017), We Avoid News We Don’t Like. Some Trump-Era Evidence
Ricoeur, P. (1997 (1986)), L’idéologie et l’utopie
Ruyant, Q. (2014), De la vulgarisation philosophique ?
Shermer, M. (2017), How to Convince Someone When Facts Fail, Scientific American – Traduction disponible
Sunstein, C. (2002), The law of group polarization
Taub, A. (2017), The Real Story About Fake News Is Partisanship
Taub, A., Nyhan, B. (2017), Why People Continue to Believe Objectively False Things
The Oatmeal (2017), Believe – You’re not going to believe what I’m about to tell you
Weber, N. (2017), Voilà pourquoi, qu’importent tous les faits et les preuves rationnelles qui contredisent vos opinions profondes, vous ne les accepterez jamais
Wikipédia, Effet retour de flamme
– Biais cognitif
Illustrations
@Janine_BD sur son blog « Poil à Fille », Une illustration de l’idée de « décentration »
Sondage Harris Interactive
Vanderbiest, N., Reputatiolab.com