La pensée critique peut être définie comme la faculté qui permet de séparer le bon grain de l’ivraie : séparer bonnes et mauvaises argumentations et bonnes (dans le sens de justifiées) et mauvaises croyances.
La pensée critique est en réalité plus qu’une manière de penser; c’est une pratique qui consiste à mettre en place des stratégies, des méthodes, des outils pour prendre de meilleures décisions, éclairées, réfléchies, informées, fondées.
Elle est proche de l’esprit scientifique, au sens où elle peut utiliser les stratégies et outils dont s’est dotée la science pour faire face aux limites de la subjectivité, des préconceptions, des intuitions qui sonnent juste mais ne le sont pas nécessairement, des premières impressions et des fausses impressions, de la tendance tout à fait naturelle à se trouver toujours d’accord avec soi même, de la crédulité ou de la méfiance excessives, des difficultés à reconnaitre dans une nouvelle situation un vies problème pour lequel on saurait trouver une solution…La philosophie aussi prête ses outils: analyse, vigilance, réflexivité à la pratique de la pensée critique.
La pensée critique n’intéresse pas que les philosophes et les scientifiques toutefois, mais aussi les éducateurs ; son enseignement est d’autant plus d’actualité à l’ère des nouvelles technologies – alors qu’on assiste à la multiplication et diffusion d’informations plus ou moins fiables, susceptibles de servir de fondements pour la prise de décision.
1. L’intuition et la pensée critique. Deux tendances opposées
Dans la société contemporaine nous sommes confrontés à deux invitations de signe fortement opposé. D’un côté la société se tourne de plus en plus vers la science et l’évidence afin de guider la bonne prise de décision en médecine, dans le policy-making et plus récemment dans le domaine de l’éducation. De l’autre côté, nous sommes invités à nous méfier de la science, à laisser libre cours à notre intuition naturelle et à la sagesse de l’expérience individuelle, voire à nous fier à nos sentiments profonds afin de guider nos choix. Ce tiraillement en deux directions opposées est souvent représenté par l’image d’un hypothétique dualisme entre « cerveau droit » – plus créatif, féminin, empathique, intuitif – et « cerveau gauche » – logique, rationnel et mathématique ; le cerveau masculin à ce qu’il paraît. Souvent, ceux qui utilisent cette image pensent que le monde serait meilleur si on pouvait développer plus le cerveau droit, ou du moins contrebalancer l’apparente dominance du cerveau gauche – en réalité, les deux hémisphères assurent des fonctions en partie différentes mais complémentaires, et sont très bien connectés grâce à un épais corps de fibres (le corps calleux) ; le dualisme entre cerveau droit et cerveau gauche est donc un « neuromythe » : une fausse croyance habillée en jargon scientifique.
Mais la question reste ouverte : peut-on/doit-on faire confiance à notre intuition ? Est-ce que l’intuition peut nous guider vers de meilleures choix que l’utilisation avertie de science et évidence ?
La réponse à cette question a des retombées en termes d’éducation. Si la réponse est oui, alors – et indépendamment du mythe du cerveau droit/cerveau gauche – il pourrait être utile de mettre en place des formes d’instruction capables de renforcer les capacités intuitives ; si la réponse est non, alors il s’agit plutôt d’apprendre à utiliser science et évidence de manière avertie, et en particulier à apprendre la ou les manières pour séparer le bon grain de l’ivraie dans la masse d’informations en circulation.
2. Nos intuitions ne sont pas toujours correctes, même quand elles nous concernent!
Prenons le cas classique de l’illusion de Mueller-Lyer : deux lignes parallèles de la même longueur, la première avec à ses extrémités des arêtes de poisson ouvertes, l’autre fermées ; on peut savoir que la longueur est la même, mais les lignes nous apparaitront toujours de longueur différente. Tout le monde sait que la perception peut nous tromper, parce que ce genre d’illusion est largement répandue et expliquée. Face à d’autres illusions – moins connues – nous ne sommes pas moins dupes, mais cette fois sans le savoir (la connaissance de nos processus cognitifs ne fait pas partie des compétences qu’on nous enseigne à l’école).
Si on vous demandait si vous pourriez manquer de remarquer un gorille qui marche en plein milieu de votre champ visuel, s’arrête, vous regarde et se bat la poitrine en acte de défiance avant de repartir, vous diriez probablement que non. Pourtant c’est ce qui arrive à la moitié environ de ceux qui visionnent une vidéo fabriquée par Daniel Simons and Christopher Chabris, et qui sert à tester le rôle joué par l’attention dans la perception[i].
Notre intuition nous dit que – à moins de conditions particulières – nous percevons tout ce qui est devant nous, qui est grand et « évident » ; mais ceci est faux puisque notre capacité de voir est fortement influencée par ce qu’on s’attend à voir (on peut ne pas voir un cycliste dans la rue, mais le plus qu’il y a de cyclistes dans la rue, le moins qu’il y a d’accidents). La même considération s’applique à notre mémoire : notre intuition nous dit qu’on peut oublier quelque chose qui s’est passé, mais qu’on ne peut pas se rappeler de quelque chose qui n’est pas arrivé ; pourtant Elisabeth Loftus et d’autres ont montré qu’on peut amener quelqu’un à construire des faux souvenirs[ii]. Nous avons aussi tendance à surestimer nos capacités[iii] (ou à nous considérer sous-estimés par les autres) aussi bien que nos connaissances[iv], et sommes donc les victimes de ce qu’on peut appeler une « illusion de confiance en soi » ; d’ailleurs, dans plusieurs situations nous préférons écouter ceux qui montrent une grande confiance en eux mêmes : le médecin qui nous présente un diagnostic est plus crédible et rassurant s’il prend un air d’assurance que s’il consulte devant nous la base de données MedLine à la recherche de la meilleure évidence disponible – et pourtant le deuxième a plus de chances de prendre la bonne décision. Nous entretenons donc un certain nombre d’illusions cognitives qui nous renvoient un portrait optimiste de nos capacités cognitives[v]. L’illusion optimiste s’accompagne de toute une série de biais et heuristiques qui influencent « silencieusement » notre raisonnement et la capacité à prendre de bonnes décisions. Nous voyons des patterns en des configurations de stimuli, des corrélations – voire des relations de cause et effet, même là où il n’y en a pas[vi].
Un accident d’avion qui vient de se produire nous fera apparaître le risque de voler comme étant beaucoup plus important qu’il ne l’est pas en réalité ; peut-être nous déciderons alors de nous déplacer en voiture, qui reste le moyen de transport le plus dangereux, selon les statistiques. Ca s’appelle le biais de proximité, et il pourrait expliquer pourquoi dans les mois qui ont suivi les attentats du 11 septembre 2001 les USA ont enregistré une augmentation significative des morts sur la route.
D’autres biais, comme le biais de confirmation, nous cachent les explications alternatives à celle que nous avons choisie, et nous renforcent de plus en plus dans nos opinions. Ainsi, nous avons tendance à rechercher les informations qui nous confortent sur nos croyances, et en plus à les évaluer comme étant meilleures que celles de signe opposé.
Pour résumer: Biais cognitifs et heuristiques rendent notre pensée peu fiable.
Ceci ne veut pas dire que notre pensée, comme notre perception, mémoire, et nos fonctions cognitives en général, sont comme des machines cassées, qui fonctionnement mal et nous mettent à mal! En grande partie, les limites de l’intuition et de la cognition humaine constituent la contrepartie d’autres capacités, quant à elles adaptives. De fait, les mécanismes qu’on vient de discuter nous permettent de focaliser l’attention sur des détails importants sans se laisser distraire, de se rappeler de pas mal de détails utiles, de repérer les dangers réels et aussi ceux non réels – dans une nature peuplée de dangers cachés et bêtes féroces, mieux vaut quelques faux positifs qu’un seul faux négatif, de s’orienter et agir pour gérer « le quotidien ».
3. La surcharge informationnelle: un problème
La considération des limites de la cognition nous donne des raisons pour douter de notre intuition, pour se méfier des anecdotes, pour être exigeants quant à l’évidence d’une assertion qui se dit « neuro-scientifique» (ou scientifique tout-court). Savoir que nous y sommes sujets nous met dans la condition d’aller à la recherche de supports et d’outils pour contenir limites, illusions, bias, heuristiques, automatismes – du moins quand des problèmes inédites ou des choix critiques se présentent à notre esprit.
Cette connaissance nous pousse donc vers les outils de la pensée critique. D’autres considérations, externes à notre fonctionnement cognitif, nous poussent dans la même direction.
Trop d’information nuit à l’information
La première considération est spécialement liée aux problématiques de l’éducation et de la formation. Nous vivons en effet à l’époque de l’information omniprésente. Il ne s’agit pas de critiquer, mais de prendre acte d’une situation par rapport à laquelle on reviendra pas en arrière : les technologies de l’information et de la communication sont là pour rester, l’information disponible n’ira qu’en s’accroissant, les formations vont être de plus en plus « libres ».
La multiplication de l’information disponible passe par Internet, avec ses forums d’experts, ses encyclopédies, ses podcasts, vidéos et conférences en ligne, mais aussi les réseaux sociaux[i] ; la multiplication des formations « libres » passe par l’accessibilité de cours en ligne de grandes universités[ii] ; ou de cours libres sous forme de vidéo[iii].
Comment juger si cette information est fiable, comment séparer le bon grain de l’ivraie quand on est submergé d’informations ?
Consulté avec les mots « climate change » le moteur de recherche Google nous restitue « About 117,000,000 results (0.14 seconds) ». Si la page 1 est dominée par des agences nationales américaines sur le contrôle de l’environnement, à page 4 on trouve la page du Huffington Post dédiée au changement climatique et au débat que cela a ouvert aux USA confrontés avec les primaires républicaines. De fait, l’on découvre, le rôle de l’homme dans le changement climatique ne fait pas l’unanimité – du moins parmi les hommes politiques ; certains accusent d’ailleurs les scientifiques de fausser leurs données, et de toute manière de ne pas avoir atteint un consensus en la matière[iv]. Il n’est pas facile de se repérer dans ce genre d’informations contradictoires. Est-il possible qu’à un certain moment l’information disponible soit tellement vaste que la « bonne information » en vient à être noyée dans le bruit général, et qu’il devienne de plus en plus difficile de la trier ? De leur côté, moteurs de recherche, réseaux sociaux et sites commerciaux repèrent facilement nos préférences, grâce au nombre de visites qu’on fait à certains liens plutôt qu’à d’autres, ou aux achats qu’on fait. Cela crée une « filter bubble » qui reproduit le biais de confirmation[v]. Cela nous fait probablement gagner du temps, mais mettre nos opinions à l’épreuve d’idées différentes, donc de devenir critiques par rapport à nos idées, devient encore plus difficile. La multiplication de l’information disponible et la manière dont elle est dispensée requièrent donc un exercice de suspension de la croyance et de scepticisme aussi bien que des outils pour évaluer et combiner sources de différente nature et connaissances passées de manière à pouvoir évaluer les faits, comparer les hypothèses rivales, établir si l’information est réellement informative ou circulaire (comme dans le cas des neuroimages qui abondent sur Internet).
La science en société
La deuxième considération qui nous pousse vers un meilleur exercice de la pensée critique est liée à l’accroissement de l’importance des connaissances scientifiques, tant dans la vie des individus que dans celle de la société et des nations. Autant qu’à la plus grande disponibilité d’informations, nous assistons en effet à la multiplication des connaissances scientifiques, susceptibles d’avoir un impact applicatif sur santé, éducation, environnement.
Il est alors d’autant plus important de s’inspirer de la « bonne science » : de savoir juger la solidité de l’évidence proposée, l’existence d’un accord entre scientifiques. Si les sciences du cerveau sont en ce moment à la mode, par exemple, ceci ne veut pas dire que les connaissances théoriques qu’elles ont multiplié lors des vingt dernières années soient prêtes à être traduites en méthodes testables et donc applicables à l’éducation.
Le besoin de connaissances immédiatement applicables, et la séduction « naturelle » du langage et des images neuroscientifiques, peuvent attribuer un succès immérité à des méthodes qui se targuent d’être « brain based » mais qui sont, au mieux, des principes généraux vaguement inspirés de notions générales sur le fonctionnement du cerveau et, au pire, des véhicules de neuromythes.
La capacité de juger de la solidité de l’évidence disponible ne concerne pas seulement les décideurs (en éducation ou ailleurs). La capacité des citoyens de participer au débat sur le changement climatique, le tabac, le nucléaire, les thèmes de la bioéthique en dépend aussi. L’alphabétisation scientifique devient donc une priorité de l’éducation à la citoyenneté.
On considère d’ailleurs que la compétitivité des états les plus développés sur le marché de l’innovation et du travail dépend d’un investissement massif de la part des systèmes éducatifs – à tous les niveaux, dans tous les états – sur les STEM : Science, Technology, Engineering, Mathematics. Du coup, l’évaluation des compétences relatives devient de plus en plus significative pour l’éducation au niveau international. La notion d’alphabétisation scientifique ne se limite pas à la capacité à maîtriser des connaissances scientifiques, mais aussi celle à les mobiliser là où nécessaire, afin de juger les affirmations scientifiques qui circulent par les media, ou d’utiliser les connaissances et les méthodes de la science pour juger de la solidité d’autres argumentations[vi].
Afin d’utiliser les connaissances disponibles et tirer des conséquences basées sur l’évidence il ne suffit ni de posséder des connaissances, il faut aussi être capables d’en juger la pertinence (savoir quand et comment les mobiliser) et d’en évaluer la solidité empirique et la cohérence des arguments. Pour cela, l’éducation à la pensée scientifique ne peut pas se limiter à une éducation centrée sur les contenus, mais doit être capable de former les étudiants à séparer le bon grain de l’ivraie. On prend pour hypothèse ici que cet apprentissage passe par une éducation à la pensée scientifique et critique et que la pensée critique est donc une capacité – qu’on peut posséder à différents degrés d’expertise – qui permet de décider si on a suffisamment de raisons pour accepter une croyance comme probablement vraie, grâce à l’analyse des arguments et des données disponibles.
Mais commet enseigner la pensée scientifique et critique? Dans un prochain billet nous explorerons des méthodes existantes, leurs atouts et limites…
4. Lectures conseillées, sites web à consulter
https://cortecs.org/cours/pensee-critique/
A bientôt sur [Lab]map.
Restez Curieux.
Notes:
Dans la partie 2 de ce billet
[i] Dans la vidéo, deux équipes de trois personnes sont en train de se passer une balle de basket. On demande à l’audience de la vidéo de compter combien de passes effectue l’équipe habillée en blanc, en ignorant les passes de l’équipe en noir. La moitié des spectateurs ne s’aperçoivent pas que trente secondes après le début de la vidéo une femme déguisée en gorille a traversé le champ, performé les mouvements décrits et est restée environ neuf secondes en pleine vue. Quand on leur demande s’ils ont noté quelque chose de bizarre dans la vidéo, un objet qui aurait traversé la scène, ils disent simplement « Non ». Si on leur demande s’ils ont vu un gorille, ils sont surpris qu’on puisse leur attribuer un tel manque d’observation. Lorsque ils revoient la vidéo (cette fois ils voient le gorille) ils sont fortement surpris par leur erreur.
[ii] Notamment, le faux souvenir d’enfance de s’être perdu dans un centre commercial à partir de faux témoignages de membres de la famille, et d’autres souvenirs (comme un mémorable tour en ballon aérostatique) à partir de photos retouchées au Photoshop.
[iii] Chabris et Simons ont conduit des expériences lors de tournois d’échecs, en demandant aux participants leur position actuelle dans le classement et celle qu’ils méritent effectivement : 75% se considère sous-estimé par une forme de classement pourtant robuste et valide (capable de prévoir le résultat d’une rencontre entre deux joueurs ayant la même position ou différentes positions dans le classement) et ceci même si les joueurs ont une grande maîtrise des échecs, et reçoivent un feedback constant à propos de leurs capacités. De fait, leur estimation ne prévoit même pas leur position dans le classement après le tournoi, car même après cinq ans ils n’ont pas attient le niveau indiqué lors de l’expérience. Tout en étant présente même chez les experts, en effet, cette illusion est plus fréquente lorsqu’on a une maîtrise limitée d’un certain champ de connaissance ou d’action : entraîner des personnes à résoudre des tâches de raisonnement logique, réduit leurs erreurs et améliore leur capacité à juger correctement (ne pas surestimer) leurs compétences. Toutefois, l’illusion résiste à la connaissance parce qu’elle est renforcée par d’autres tendances, comme celle de remarquer plutôt les actions qui sont allées à bonne fin, que les ratés : par exemple, on tend à se rappeler les fois où nous avons reçu le coup de téléphone de quelqu’un à qui on était de penser en ce précis instant, mais on oublie toutes les fois que cela ne s’est pas produit (parce qu’on a pensé à quelqu’un mais ce quelqu’un n’a pas appelé, ou parce qu’on a été appelé par quelqu’un à qui on ne pensait point). Il suffit d’attribuer les ratés à la mauvaise chance et les succès à nos capacités pour voir la confiance en nous même monter irrationnellement.
[iv] Par exemple, on a l’impression de savoir répondre à des questions comme : Pourquoi le ciel est-il bleu ? Mais si on est soumis à des questions qui évaluent la profondeur de cette connaissance on est bientôt amenés à ne plus savoir répondre. Nos connaissances sont souvent plus superficielles que nous ne le pensons. C’est peut-être l’une des raisons pour lesquelles les tests – surtout ceux qui éprouvent la connaissance profonde d’un contenu – sont si utiles pour apprendre : parce qu’ils exposent notre manque de connaissance, alors que continuer à relire le même passage peut nous donner la fausse impression d’avoir gagné une compréhension profonde.
[v] « By now you may be sensing a pattern to the everyday illusions we have been discussing : They all tend to cast an overly favorable light on our mental capacities. There are no illusions of blindness, amnesia, idiocy, and cluelessness. Instead, everyday illusions tell us that we perceive and remember more than we do, that we are all above average, and that we know more about the world and the future than is justified. Everyday illusions might be so persistent and pervasive in our thought patterns precisely because they lead us to think better of ourselves that we objectively should. Positive illusions can motivate us to get out of bed and optimistically take up challenges we might shrink from if we constantly had the truth about our minds in mind. » (Chabris & Simons, 2009, p. 126)
[vi] Il n’existe même pas une corrélation entre vaccin MMA et autisme, mais notre appareillage cognitif est plus réceptif aux anecdotes, spécialement s’ils contiennent des éléments émotionnels forts, qu’aux statistiques. C’est pour cela que la méthode expérimentale donne tant d’importance à la constitution de groupes de contrôle et à la randomisation des sujets lors d’une expérience (Goldacre, 2008 ; Chabris & Simons, 2010).
[vii] C’est peut-être (aussi) pour cette raison que des méthodes éducatives comme Brain Gym© et des idées comme celle des traits stéréotypés de la personnalité « parlent cerveau », c’est-à-dire s’habillent du langage neuroscientifique sans avoir aucun contenu de science : pour mieux nous induire à les croire de manière intuitive.
Dans la partie 3 de ce billet:
[i] « Watching a TEDTalk is not a passive act — it’s the beginning of a deep interaction with a bold idea. Our commenting system on TED.com allows for spirited conversation around the talks, and our Creative Commons license (Attribution-NonCommercial-NonDerivative) lets viewers share them freely. Every day, we watch our audience engage with our content and with one another through email, Twitter, Facebook, and hundreds of thousands of blog posts… TEDTalks often go viral — gaining wide viewership through « word of mouth » on social media sites such as Facebook, Twitter, YouTube, StumbleUpon and Reddit. When we release a talk, we update our official Facebook page, post messages to our Twitter streams and upload the video to our YouTube channel, immediately reaching more than 4 million users » (TED : http://www.ted.com/)
[ii] Comme les cours, examens et vidéos de MIT Opencourseware : http://ocw.mit.edu/index.htm
[iii] « With a library of over 2,400 videos covering everything from arithmetic to physics, finance, and history, and 180 practice exercises, we’re on a mission to help you learn what you want, when you want, at your own pace. » (Kahn Academy : http://www.khanacademy.org/)
[iv] On découvre encore, en cherchant dans la direction des négationnistes, que l’un parmi eux est Kary Mullis : prix Nobel en chimie en 1993 pour avoir découvert la réaction en chaîne par polymérase, impliquée dans la possibilité de copier des fragments de ADN. Si on continue dans cette direction – Google le permet et le facilite – on découvre que Mr. Mullis nie aussi le rôle du virus HIV dans le SIDA et affirme la validité de la parapsychologie et de l’astrologie, tout en célébrant l’expérience comme base de l’entreprise scientifique moderne.
[v] On nous propose de lire les livres qui peuvent nous plaire, de visiter des sites web susceptibles de nous intéresser ; en plus, à ce qu’il paraît, on nous présente les résultats d’une recherche (conduite avec Google par exemple) dans un ordre différent selon le « profil » défini par nos recherches précédentes ; on risque ainsi de moins en moins de tomber sur une information en contradiction avec nos visions, même par hasard (Pariser, 2011).
[vi] « Scientific literacy is the capacity to use scientific knowledge, to identify questions and to draw evidence-based conclusions in order to understand and help make decisions about the natural world and the changes made to it through human activity » (OECD : http://www.oecd.org/pages/0,3417,en_32252351_32236102_1_1_1_1_1,00.html)
Je ne suis pas d’accord sur ce que VOUS appelez intuition. Tous les chercheurs ( Bon, presque, ou au moins les bons) ont l’esprit critique. Mais l’intuition ce n’est pas se laisser berner par ce qui « Parait ». Une fois que vous avez exercé l’esprit critique, et donc accumulé des savoirs vrais,. Vous avez fabrique des « rails » de pensée qui vous donnent une compréhension de ce qui est Vraisemblable, et de ce qui est Plausible, avant d’avoir a l’expliciter. Plusieurs fois il m’est arrivée de « Savoir » intuitivement la bonne réponse avant d’avoir eu besoin de reconstruire un argumentaire cohérent et convaincant pour l’auditoire. (Je suis chercheur).
J’aimeJ’aime
P.E.S.Y., peut-être serez vous intéressé par la lecture du livre de Gerd Gigerenzer « Le génie de l’intuition », Belfond, 2009.
Du même auteur, je conseille également « Penser le risque », Markus Haller, 2009.
J’aimeJ’aime
Je découvre (un peu tard) ce site et particulièrement vos articles. J’attends la suite…
J’ajoute le lien sur mon site.
À propos de l’enseignement de l’esprit critique, vous savez sans doute que chaque enseignant a reçu un mail du Ministère annonçant un « appel à contribution sur l’esprit critique » (lien : http://eduscol.education.fr/cid107295/appel-a-contributions-sur-l-esprit-critique.html)
Peut-être en parlerez-vous dans le prochain billet ?
Petite remarque : les notes en bas de page comportent des liens qui ne fonctionnent pas très bien… les notes de la partie 3 mènent à la partie 2.
J’aimeJ’aime
Merci beaucoup pour votre commentaire, oui je connais les travaux de Gigerenzer et je les trouves très intéressants, notamment la manière de montrer comment ces « biais » sont des heuristiques qui ne sont pas juste des erreurs, mais de bonnes solutions, sélectionnées au fil de notre évolution, pour répondre à des besoins précis. Sauf que des fois elles nous amènent sur des faux cheminée t il est bien d’en être avertis. encore merci et pourquoi pas bientôt un billet sur Gigerenzer!!!
J’aimeJ’aime
« De leur côté, moteurs de recherche, réseaux sociaux et sites commerciaux repèrent facilement nos préférences, grâce au nombre de visites qu’on fait à certains liens plutôt qu’à d’autres, ou aux achats qu’on fait. Cela crée une « filter bubble » qui reproduit le biais de confirmation[v]. »
Si je me souviens bien de « La démocratie des crédules » de Gérald Bronner, lecture que vous conseillez à la fin de votre billet, il y est mentionné que le « filter bubble » n’est que très peu vérifié voire pas du tout.
J’aimeJ’aime