Accueil > Encyclopédie > Cognition / Intelligence / Langage / Mémoire
Les derniers articles
09 Juillet 2018
Dans le cadre de la révision de la loi portant sur la bioéthique, le Conseil d'État a présenté en juillet 2018 les options dont dispose le Gouvernement.
02 Juillet 2018
Ces trois termes font référence d’une part au côté social de la médecine, d’autre part à son aspect collectif.
25 Juin 2018
Organe est un mot générique qui inclut le terme viscère.
18 Juin 2018
La médecine est tout à la fois une science humaine et un savoir technique.
11 Juin 2018
Ces trois termes concernent la façon de comptabiliser les recettes, que ce soit en médecine de ville ou en hospitalisation, publique ou privée.

Cognition / Intelligence / Langage / Mémoire

Le premier terme, cognition, englobe les trois autres.


La cognition et les sciences cognitives sont un vaste domaine de recherche, qui bénéficie des avancées des neurosciences. L’intelligence artificielle, qui n’en est qu’à ses débuts, est un sujet qui évolue très rapidement. Cet article risque donc l’obsolescence rapide.

 


Cognition et fonctions cognitives. Sciences cognitives

La définition exacte de ce que recouvre le terme cognition fait l’objet de débats scientifiques dans lesquels on évitera de rentrer. Comme souvent, l’étymologie nous renseigne : le substantif cognitio, en latin, désigne l’action de connaître, et le verbe cognoscere, le fait de chercher à savoir, de prendre connaissance. La cognition et les fonctions cognitives englobent donc l’ensemble des processus mentaux mis en œuvre par le cerveau  pour la connaissance et l’acquisition du savoir, notamment, par ordre alphabétique : l’apprentissage, l’attention, l’intelligence, le jugement, le langage, la mémoire et la mémorisation, la perception de l’environnement, la prise de conscience des émotions, la prise de décision, le raisonnement, la résolution de problèmes, et j’en oublie sûrement…
Sont exclus  de la cognition les processus mentaux liés aux affects et à la fonction affective.
Les disciplines qui étudient la cognition sont qualifiées de sciences cognitives, parmi lesquelles on peut citer en particulier les neurosciences, la neuroanatomie, la neuropsychologie ou psychologie cognitive, l’imagerie cérébrale, l’électrophysiologie…
Mais bien d’autres domaines scientifiques sont concernés par la cognition, notamment, et comme précédemment, par ordre alphabétique : l’anthropologie, l’informatique par le biais de l’intelligence artificielle, la linguistique, la modélisation mathématiques des fonctions mentales, la philosophie …
Ce chapitre est inspiré de l’article « Cognition » du remarquable site « La Toupie » (www.toupie.org).
Chaque fonction cognitive peut être perturbée par un trouble pathologique, appelé trouble cognitif. La démence en est un parfait exemple. Mais nous limiterons cet article aux troubles du langage et à ceux de la mémoire.

Neurosciences cognitives

Les neurosciences cognitives englobent tous les domaines de recherche qui étudient les mécanismes neurobiologiques à l’œuvre dans la cognition. Les neurosciences cognitives font partie des sciences cognitives.
La « révolution cognitiviste » des années 1950 a abouti à la constitution d’une discipline unifiée à la fin des années 1970, dont le nom a été imaginé par deux chercheurs en neurosciences et en psychologie cognitive, M. Gazzaniga et G. Miller.

Neuroanatomie (anatomie du système nerveux)

La neuroanatomie est la branche de l’anatomie qui étudie la structure et les fonctions du système nerveux, aussi bien central (encéphale et moelle épinière) que périphérique (racines, plexus, nerfs rachidiens et nerfs crâniens). Il existe une anatomie topographique et une anatomie fonctionnelle du cerveau. Ce qui nous intéresse ici plus particulièrement est la description d’aires cérébrales dévolues à une fonction. Par exemple, on attribue aux aires de Broca et de Wernicke la fonction langagière. La première serait rattachée à la production des mots, la seconde à leur compréhension. L’aire de Broca a été décrite en 1861 par l’autopsie d’un patient aphasique, ce qui montre bien que cette connaissance est plus ancienne qu’on ne pourrait le croire. Mais, compte tenu de la complexité du cerveau et de ses innombrables connections neuronales, la réalité est un peu plus complexe que cette ancienne description anatomique.

Neuropsychologie et psychologie cognitive

La psychologie cognitive est une branche de la psychologie clinique exercée par des psychologues spécialisés. Cette discipline clinique étudie les rapports entre les fonctions cognitives et les structures cérébrales. La neuropsychologie est une discipline scientifique qui étudie plus particulièrement l’impact de lésions cérébrales présentes ou à venir (à la suite d’un acte neurochirurgical) sur les fonctions du cerveau. Pour ce faire, le neuropsychologue dispose de tests neuropsychologiques, en plus des habituels entretiens avec le patient.
Pour faire court et schématique, la neuropsychologie s’intéresse plus au cerveau malade qu’au cerveau sain, qui est le domaine d’action de la psychologie cognitive.

Imagerie cérébrale

L’imagerie cérébrale (ou neuro-imagerie) a deux objectifs : le premier est clinique, à savoir l’identification des lésions cérébrales, notamment les tumeurs, primitives ou secondaires ; le second est un objectif de recherche, à savoir l’étude du fonctionnement cérébral (cerveau sain et pathologique). Comme pour la neuroanatomie, il existe une imagerie structurelle (ou anatomique), et une imagerie fonctionnelle.
La neuro-imagerie structurelle recourt au scanner, à l’IRM, à la TEP (tomographie par émission de positrons). Outre son rôle essentiel dans la caractérisation des lésions du cerveau, elle est utilisée comme outil de recherche en neurosciences cognitives. Il est ainsi possible de corréler la densité en neurones d’une région cérébrale avec des résultats comportementaux. On a pu montrer par exemple que l’hippocampe, structure cérébrale impliquée dans la mémoire spatiale, était plus développé chez les chauffeurs de taxi londoniens.
La neuro-imagerie fonctionnelle recourt à l’IRM fonctionnelle (IRMf) et à la TEP, ces différentes techniques cherchant à visualiser le fonctionnement cérébral, et à déterminer quelles sont les aires cérébrales impliquées dans les différentes activités cognitives.
À côté de ces techniques relativement récentes, on peut citer des techniques nettement plus anciennes comme l’électroencéphalographie ou les potentiels évoqués, que certains classent  dans la neuro-imagerie, bien que les tracés obtenus ne soient pas vraiment des images.

Électrophysiologie

L’électrophysiologie est l’étude des phénomènes électrochimiques qui se produisent dans les cellules ou les tissus des organismes vivants, notamment les neurones pour ce qui nous concerne ici. Appliquée au fonctionnement cérébral, l’électrophysiologie se résume à l’électroencéphalographie, détaillée dans la première partie de l’article de cette encyclopédie consacré à la neurologie.

Langage

Le langage est défini comme la capacité de communiquer au moyen d'un système de signes, pas nécessairement vocaux (les signes en question peuvent être gestuels, graphiques, olfactifs, tactiles, etc.). Si l’on s’en tient à cette stricte définition, tous les animaux ont un langage, parfois assez développé comme le chant des oiseaux ou leurs parades nuptiales.
Ce qui caractérise le langage  humain, c’est la capacité d'exprimer une pensée, de recourir à l’abstraction. Pour cela, le langage humain est doté d'une sémantique et d'une syntaxe. Fruit d'une acquisition réservée à l’espèce humaine, la langue est une des manifestations du langage. La langue peut être orale (langue parlée), ou non (langue écrite). Il existe des langages humains non vocaux et non écrits, comme la langue des signes utilisés par les sourds.
L’élocution désigne la façon dont on utilise la langue orale. Quand elle n’est pas fluide, on parle de défaut d’élocution. Quand elle a des prétentions artistiques, il s’agit alors de l’éloquence.
Le langage est une des principales fonctions cognitives. La discipline scientifique qui s’intéresse aux langues, et notamment aux rapports qu’elles entretiennent entre elles, est la linguistique.

Troubles du langage

Compte tenu de l’importance du langage, aussi bien oral qu’écrit, dans la vie sociale, les troubles du langage peuvent avoir un retentissement important chez les individus qui en sont atteints. Signalons par exemple que, jusqu’aux travaux de l’abbé de L’Épée, au XVIIIème siècle, les enfants nés sourds étaient considérés comme des débiles mentaux.
On peut globalement séparer ces troubles du langage en deux catégories : ceux qui relèvent d’une lésion cérébrale, comme l’aphasie d’un patient atteint d’AVC, et ceux qui relèvent d’un défaut de l’apprentissage, et qui sont d’origine neurobiologique, comme la dyslexie. Les premiers s’observent chez l’adulte, les seconds apparaissent tôt dans l’enfance, en fait dès l’acquisition du langage.
Le trouble du langage le plus fréquent en rapport avec une atteinte cérébrale est l’aphasie (du grec phasis, la parole). L’aphasie désigne tous les troubles du langage qui ont en commun le fait d’affecter la production et la compréhension du langage parlé, dès lors qu’il n’a ni déficit sensoriel (surdi-mutité par exemple), ni trouble de la phonation. Les deux principaux types d’aphasie sont l’aphasie « motrice », ou aphasie de Broca, et l’aphasie de Wernicke, dite « réceptive » ou « sensorielle ». Elles affectent respectivement les aires cérébrales de Broca et de Wernicke. La première entraîne une difficulté plus ou moins grande à produire des sons compréhensibles, la seconde est caractérisée par une difficulté plus ou moins grande de compréhension du langage de l’aphasique. Dans l’aphasie de Broca, le patient comprend parfaitement ce qu’on lui dit, sait exactement ce qu’il souhaite répondre, mais n’arrive pas à  produire cette réponse. Il est donc parfaitement conscient de son trouble, ce qui peut produire chez lui des troubles de l’humeur. Dans l’aphasie de Wernicke, l’élocution est correcte, mais le sens de la phrase est incompréhensible. Le patient n’a pas conscience du problème.
Les troubles de l’apprentissage du langage oral et écrit sont de deux types : les troubles du langage proprement dit, les dysphasies, et les troubles de la lecture, la dyslexie, qui entraîne dans son sillage tout un cortège de troubles « dys » (pour dysfonctionnements) : dysgraphie, dysorthographie, dyscalculie. Ces troubles semblent très fréquents (5 à 10% des enfants et adolescents en souffriraient), et se décomposent en troubles spécifiques et non spécifiques. Les seconds s’intègrent dans un contexte de déficience mentale ou de troubles psychopathologiques sévères ; les premiers, les plus fréquents, s’observent en dehors de ce contexte.
On peut aussi ajouter à ces différents troubles le bégaiement, qui est un trouble de la parole. L’OMS considère une personne bègue comme atteinte de « troubles émotionnels ou comportementaux ». Le bégaiement est appréhendé par certains phoniatres comme une forme de dyslalie, terme qui désigne un trouble de la communication caractérisé par des difficultés d’articulation.
Les spécialistes de ces différents troubles du langage sont le phoniatre et l’orthophoniste. Le premier est médecin, pas le second.

Mémoire

La mémoire est une fonction cognitive essentielle, que l’on utilise en permanence. En fait, nous disposons de plusieurs types de mémoire, qui dépendent de structures cérébrales différentes. Première distinction, il existe une mémoire verbale, qui nous permet par exemple d’apprendre par cœur un poème, et une mémoire visuelle, qui est fortement tributaire de nos capacités d’attention. Certaines personnes sont dotées d’une mémoire visuelle très performante, qu’on appelle souvent « mémoire photographique » : il leur suffit par exemple de regarder attentivement une partition musicale pour la mémoriser.
Selon la durée du souvenir mémorisé, on distingue la mémoire sensorielle,  la plus fugace (quelques fractions de seconde) ; la mémoire à court terme, dite mémoire de travail, d’une durée de l’ordre de la minute (mémoriser un numéro de téléphone le temps de le composer) ; la mémoire à long terme, dans laquelle la durée de conservation de l’information peut durer toute la vie.
La mémoire à long terme peut mémoriser différents types d’informations. On décrit ainsi une mémoire épisodique (se rappeler ce qu’on a fait la veille, ou le rendez-vous du lendemain) ; une mémoire sémantique, qui concerne les règles de grammaire (et beaucoup d’entre nous oublient qu’on se souvient de quelque chose ou de quelqu’un, mais qu’on se rappelle quelque chose ou quelqu’un), le sens des mots, les dates historiques (1515 !) ou encore le nom des départements ; enfin une mémoire procédurale, qui s’occupe de tous nos savoir-faire, comme faire du vélo (dont tout le monde sait que « cela ne s’oublie pas ») ou jouer d’un instrument de musique.
La mémoire est une fonction cognitive à elle toute seule, mais elle joue également un grand rôle dans d’autres fonctions cognitives, comme la lecture. Elle permet à chacun d’entre nous de se constituer un stock de souvenirs personnels (et chacune des personnes qui a assisté à un événement précis en a gardé son propre souvenir), et un bagage culturel plus ou moins important.
Il est amusant de constater que les ordinateurs ont aussi une mémoire, ou, plus exactement, des mémoires : mémoire vive, mémoire de stockage, mémoire cache, mémoire flash, et j’en passe.

Troubles mnésiques

La mémoire est la capacité cognitive que l’on craint le plus de perdre, d’autant que chacun sait que les performances mémorielles diminuent avec l’âge en dehors de toute pathologie. Quand la mémoire est défaillante, on parle de troubles mnésiques, qui peuvent aller du simple « trou de mémoire » à l’amnésie complète, ce qui représente une situation très difficile à vivre pour l’amnésique et son entourage. Les troubles mnésiques peuvent concerner la capacité à mémoriser un fait actuel, ou à se souvenir d’un évènement ancien.
Les trous de mémoire sont très fréquents, et tout le monde y a été confronté un jour. Ils ne sont nullement pathologiques, et sont provoqués par le stress ou la fatigue. Ils deviennent plus fréquents avec l’âge.
Il existe différentes formes d’amnésie : l’amnésie rétrograde, dans laquelle seuls les faits anciens, antérieurs à l’épisode, sont oubliés ; l’amnésie antérograde, dans laquelle les faits récents ne sont pas mémorisés, alors que le souvenir des faits anciens sont conservés ; l’amnésie lacunaire, pendant laquelle tout ce qui s’est passé pendant l’épisode est oublié, comme pendant une crise d’épilepsie.  L’ictus amnésique est une forme particulière d’amnésie lacunaire : il s’agit d’une amnésie globale transitoire idiopathique et sans gravité. L’épisode dure en général moins d’une heure, et reste en général unique dans la vie du patient, qui retrouve ses souvenirs sauf ceux qui concernent la période de l’ictus. Pendant celle-ci, on assiste à une amnésie antérograde massive accompagnée d’une amnésie rétrograde portant sur des souvenirs plus ou moins anciens.
Les causes d’amnésie sont très fréquentes : cérébrales (Alzheimer) ; comportementales (apnée du sommeil) ; médicamenteuses (anxiolytiques) ; nutritionnelles (alcoolisme) ; psychologiques (dépression) ; toxiques (cannabis) ; traumatiques (traumatisme crânien) ; vasculaire (AVC). De toutes ces causes, la plus connue et probablement la plus redoutée est la maladie d’Alzheimer, qui tend à devenir un véritable fléau sanitaire.

Intelligence

Dire en quelques mots ce que recouvre une notion aussi complexe que l’intelligence n’est pas chose facile. Une définition possible est la suivante : l’intelligence désigne l’ensemble des fonctions mentales à l’œuvre dans la connaissance conceptuelle et rationnelle. Pris dans cette acception, l’intelligence se mesure par le QI, quotient intellectuel, qui est un test psychométrique destiné à fournir une indication quantitative standardisée de l’intelligence humaine, indépendamment des acquis culturels (par exemple, le QI peut être utilisé pour mesurer l’intelligence d’un  sujet illettré). Environ 50% des individus ont un QI compris entre 90 et 110, ce qui correspond donc à une intelligence « (dans la) moyenne ». De très rares individus possèdent un QI supérieur à 220 !
Il semble évident qu’il existe plusieurs formes d’intelligence, chacune étant axée sur une compétence particulière : un philosophe et un physicien peuvent avoir tous les deux un QI très élevé, et pourtant ne rien comprendre à leur discipline réciproque, même s'ils s'enrichiraient intellectuellement en s'intéressant chacun à la discipline de l'autre (comme le suggère le physicien-philosophe-écrivain Etienne Klein dans son dernier ouvrage, paru en 2018, Matière à contredire).

Schématiquement, on peut identifier sept opérations majeures de la pensée humaine, qui sont autant d’aptitudes intellectuelles nous permettant de comprendre le monde et d’agir en conséquence : la déduction (dont le syllogisme est un bon modèle), l’induction, l’analogie, l’intentionnalité, la synthèse a priori, la compréhension et l’imagination.
Toute la question actuelle est de savoir si les performances du cerveau humain sont susceptibles d’être dépassées un jour par celles des ordinateurs. Il semble bien que la réponse soit déjà « oui », si l’on prend chaque fonction séparément. Mais le cerveau humain possède une très grande variété de capacités qui peuvent être actionnées en même temps.

Intelligence artificielle

L’apparition des ordinateurs (les computers des anglo-saxons) a permis le développement de l’intelligence artificielle, qui est le grand sujet et l’enjeu des prochaines décennies, notamment en matière médicale.
Un petit rappel historique n’est pas inutile. L’expression même d’intelligence artificielle (IA) date de 1955. Mais dès 1950 le mathématicien anglais Alan Turing avait élaboré un test, dit test de Turing, toujours en vigueur, qui permet de savoir si un observateur indépendant est capable de reconnaître à l’aveugle s’il parle à un humain ou à un ordinateur. On attend toujours qu’un ordinateur réussisse le test, c’est-à-dire qu’un observateur prenne durablement le logiciel avec qui il converse pour un humain. Alan Turing est un des pionniers de l’informatique. Sa vie (dont sa fin dramatique) a été racontée en 2014 dans un film, le très passionnant Imitation game.
Le premier programme d’IA, spécialisé dans la résolution de problèmes logiques, a vu le jour en 1956. En 1965 Gordon Moore, cofondateur d’Intel, prédit que la puissance de calcul des ordinateurs doublera tous les ans. En 1975, il réajuste sa prédiction, à savoir que la puissance de calcul doublera tous les 18 mois. Cette « loi de Moore » ne s’est jamais démentie depuis. En 1971, cette même société Intel commercialise le premier microprocesseur.
Puis les ordinateurs se sont mis à battre des champions incontestés dans des jeux d’intelligence : en 1997, Deep Blue bat le champion du monde d’échecs Garry Kasparov, pourtant doté d’un QI de 190. En 2011, le logiciel Watson gagne au jeu télévisé Jeopardy, qui consiste à retrouver la question dont on a donné la réponse. Enfin, en 2016, AlphaGo bat le champion de jeu de go Ke Jie. Le jeu de go est considéré comme le jeu le plus complexe que l’homme soit capable d’imaginer. Et, pour terminer ce rappel forcément provisoire, Erica, robot humanoïde japonais, a présenté en 2018 le journal télévisé au Japon, de manière encore très sommaire.
On le voit, les ordinateurs sont capables de battre l’intelligence humaine, mais à chaque fois dans un domaine bien précis de compétences. D’où les critiques émises  à leur encontre : les logiciels d’IA ne savent que calculer ; ils ne savent faire qu’une chose à la fois (contrairement à un champion d’échecs ou de go) ; ils ne prennent pas en compte le contexte ; ils ne maîtrisent pas le langage naturel (cf. le test de Turing); ils n’apprennent pas et n’inventent rien ; enfin, ils sont dépourvus de conscience. Ces deux derniers points méritent une explication. Les logiciels sont capables d’apprendre par eux-mêmes, et c’est ce que l’on appelle le deep learning : le logiciel AlphaGo a pu battre le champion du jeu de go en jouant des millions de parties contre lui-même. Quant à l’absence de conscience de ce que font les machines, cela reste vrai tant que l’on est dans l’IA dite « faible ». Quand arrivera (si elle arrive), l’heure de l’intelligence artificielle « forte », les machines seront capables, selon le transhumaniste Ray Kurzweil (considéré par beaucoup comme un dangereux illuminé extrémiste), de prendre des décisions, dont l’une d’elles pourraient être de détruire leur créateur, en l’occurrence l’espèce humaine.
Ce paragraphe doit beaucoup à l’excellent dossier consacré à l’intelligence artificielle par la revue Philosophie Magazine dans son N° 118 d’avril 2018.

Vous n'avez pas trouvé l'information recherchée dans cet article ? Consultez notre page de sites recommandés.