Nouveaux horizons dans l’étude du langage et de l’esprit - Chapitre I

Noam Chomsky


VONew Horizons in the Study of Language and Mind, Cambridge University Press, 2000

VF : Noam CHOMSKY, Nouveaux horizons dans l’étude du langage et de l’esprit, Stock, © 2005


Chapitre I

Nouveaux horizons dans l’étude du langage

L'étude du langage est l'une des branches les plus anciennes de la recherche systématique. Elle remonte à l'Inde et à la Grèce classiques, et son histoire est riche en découvertes. D'un autre point de vue, elle est toute jeune. Les principales recherches actuelles ont pris forme il y a quarante ans à peine, lorsque certaines idées fortes de la tradition furent ravivées et remaniées, ce qui ouvrit la voie à des développements qui se sont avérés très féconds.

Que le langage ait exercé une telle fascination au cours des ans n'a rien d'étonnant. La faculté de langage semble bien être une « propriété de l'espèce », qui varie peu parmi les humains et est sans équivalent significatif dans d'autres espèces. C'est sans doute chez les insectes que se rencontrent les phénomènes les plus analogues, à une distance d'un milliard d'années en termes d'évolution. Il n'existe pas aujourd'hui de raisons sérieuses de contester la conception cartésienne selon laquelle l'aptitude à utiliser des signes linguistiques pour exprimer des pensées librement formées caractérise « la véritable distinction entre l'homme et l'animal » ou la machine, que nous entendions par « machine » les automates qui captivaient l'imaginaire du XVIIe siècle ou les machines qui stimulent aujourd'hui la pensée et l'imagination.

La faculté de langage intervient en outre de manière essentielle dans tous les aspects de la vie, de la pensée et des interactions humaines. C'est elle qui explique, dans une large mesure, que, dans le monde biologique, seuls les hommes présentent une histoire, une évolution et une diversité culturelles d'un certain niveau de complexité et de richesse, voire une réussite biologique, au sens technique qu'ils sont extrêmement nombreux. Un scientifique martien qui observerait les étranges faits et gestes de la planète Terre ne pourrait qu'être étonné par l'émergence et l'importance de cette forme apparemment unique d'organisation intellectuelle. Il est d'autant plus naturel que ce sujet, avec tous ses mystères, ait éveillé la curiosité de ceux qui cherchent à comprendre leur propre nature et la place qu'ils occupent dans l'univers.

Le langage humain repose sur une propriété élémentaire qui semble être, elle aussi, biologiquement unique : la propriété de l'infinité discrète, qui s'exprime sous sa forme la plus pure dans les nombres naturels 1, 2, 3... Cette propriété, les enfants ne l'apprennent pas : si l'esprit n'en possédait déjà les principes fondamentaux, aucune accumulation de données ou d'évidences ne les lui fournirait. De même, un enfant n'a pas à apprendre qu'il existe des phrases de trois ou de quatre mots, mais aucune de trois mots et demi, et que cela peut continuer à l'infini, qu'il est toujours possible de construire une phrase plus complexe, avec une forme et une signification définies. Il faut que nous tenions une telle connaissance de « la main originelle de la nature », pour reprendre l'expression de David Hume (1748), et qu'elle soit constitutive de notre patrimoine biologique.

Cette propriété intriguait Galilée, qui considérait la découverte d'un moyen de communiquer « nos pensées les plus secrètes à une autre personne avec vingt-quatre petits caractères » (Galilée, 1632, fin du premier jour) comme la plus grande des inventions humaines. Celle-ci réussit parce qu'elle reflète l'infinité discrète du langage que ces caractères servent à représenter. Quelques années après Galilée, les auteurs de la grammaire de Port-Royal s'étonnaient de « la merveilleuse invention » qu'est notre faculté d'élaborer à partir de quelques douzaines de sons une infinité d'expressions nous permettant de révéler à autrui ce que nous pensons, imaginons et sentons – nous dirons d'un point de vue contemporain non une « invention », mais le produit non moins « merveilleux » d'une évolution biologique dont, en l'occurrence, on ne sait presque rien.

La faculté de langage peut logiquement être considérée comme un « organe linguistique », au sens où les scientifiques parlent du système visuel, du système immunitaire ou du système sanguin comme d'organes corporels. En ce sens, un organe n'est pas quelque chose que l'on peut retirer du corps en laissant le reste intact. C'est un sous-système de structure plus complexe, dont on s'emploie à comprendre toute la complexité en en explorant les parties dotées de caractéristiques distinctes et leurs interactions. L'étude de la faculté de langage procède de la même manière.

Nous partons en outre de l'idée que l'organe du langage ressemble aux autres organes en ce que son caractère fondamental est une expression des gènes. La manière dont cela a lieu demeure une perspective de recherche lointaine, mais nous pouvons étudier par d'autres moyens l'« état initial » de la faculté de langage déterminé génétiquement. À l'évidence, chaque langue est le résultat de l'action combinée de deux facteurs : l'état initial et le cours de l'expérience. Nous pouvons concevoir l'état initial comme « un dispositif d'acquisition du langage » (language acquisition device), qui reçoit l'expérience comme « entrée » et donne la langue comme « sortie » – laquelle est représentée intérieurement dans l'esprit/cerveau. L'entrée et la sortie s'offrent toutes deux à l'examen : nous pouvons étudier le cours de l'expérience et les propriétés des langues acquises. Ce que nous en apprenons ainsi nous renseigne beaucoup sur l'état initial qui les médiatise.

Il existe par ailleurs de très bonnes raisons de croire que l'état initial est commun à l'espèce : si mes enfants avaient grandi à Tokyo, ils parleraient japonais comme les autres enfants de cette ville. Cela signifie que les faits du japonais valent directement pour les hypothèses que nous pouvons faire quant à l'état initial de l'anglais. Il est ainsi possible de fixer des conditions empiriques rigoureuses auxquelles la théorie de l'état initial doit satisfaire, et de poser également de nombreux problèmes relatifs à la biologie du langage : comment les gènes déterminent-ils l'état initial et quels sont les mécanismes du cerveau impliqués dans l'état initial et dans les états ultérieurs qu'il suppose ? Ce sont là des problèmes extrêmement ardus, même s'agissant de systèmes plus simples où l'expérimentation directe est possible, mais certains d'entre eux sont peut-être à l'horizon de la recherche.

L'approche dont je viens d'esquisser les grandes lignes porte sur la faculté de langage : son état initial et les états qu'il suppose. Imaginons que l'organe de langage de Peter soit dans l'état L. Nous pouvons concevoir L comme étant le « langage internalisé » de Peter. Lorsque je parle ici d'une langue, c'est de cela que je parle. Ainsi comprise, une langue est quelque chose comme « la manière dont nous parlons et comprenons », conception tout à fait traditionnelle.

En adaptant un terme traditionnel à un cadre nouveau, nous appellerons la théorie de la langue de Peter la « grammaire » de sa langue. La langue de Peter détermine une série infinie d'expressions, chacune avec un son et une signification propres. En termes techniques, la langue de Peter « génère »  les expressions de sa langue. C'est pourquoi la théorie de sa langue est appelée une grammaire générative. Chaque expression consiste en un complexe de propriétés qui fournissent des « instructions » aux systèmes de performance de Peter : son appareil articulatoire, les modes d'organisation de sa pensée, etc. Une fois que son langage et ses systèmes associés de performance sont en place, Peter dispose d'une grande quantité de connaissances sur le son et la signification des expressions, ainsi qu'une capacité corrélative à interpréter ce qu'il entend, à exprimer ses pensées et à utiliser sa langue de diverses autres manières.

La grammaire générative est née dans le contexte de ce que l'on appelle souvent la « révolution cognitive » des années 1950, et elle a été un facteur notable de son développement. Que le mot « révolution » soit approprié ou non, il se produisit un important changement de perspective : on passa de l'étude du comportement et de ses produits (tels les textes) à celle des mécanismes internes constitutifs de la pensée et de l'action. Le point de vue cognitiviste ne considère pas le comportement et ses produits comme son objet de recherche mais comme autant de données susceptibles de fournir des indications sur les mécanismes internes de l'esprit et sur les façons d'opérer de ces mécanismes dans l'exécution des actions ou l'interprétation de l'expérience. Les propriétés et les structures auxquelles on s'attachait surtout dans la linguistique structurale y trouvent leur place, mais en tant que phénomènes parmi beaucoup d'autres, à expliquer du point de vue des mécanismes internes générateurs des expressions. Cette approche est « mentaliste », mais en un sens qui ne devrait pas soulever de difficultés. Elle s'intéresse aux « aspects mentaux du monde » qui existent à l'instar de ses autres aspects, mécaniques, chimiques ou optiques. Elle s'emploie à étudier un objet réel du monde naturel – le cerveau, ses états et ses fonctions – et à intégrer ainsi progressivement l'étude de l'esprit au sein des sciences biologiques.

La « révolution cognitive » a renouvelé et reformulé de nombreux aperçus, acquis et dilemmes de ce que l'on pourrait appeler la « première révolution cognitive » des XVIIeet XVIIIe  siècles, elle-même inséparable de la révolution scientifique qui a transformé si radicalement notre compréhension du monde. On s'aperçut à cette époque que le langage met en jeu « l'usage infini de moyens finis », pour reprendre l'expression de Wilhelm von Humboldt ; mais cette intuition ne pouvait être développée que de façon limitée, car les idées sur lesquelles elle reposait demeuraient vagues et obscures. Au milieu du XXesiècle, les progrès accomplis dans les sciences formelles ayant fourni des concepts adéquats sous une forme nette et claire, il devint possible de donner une explication précise des principes computationnels qui engendrent les expressions d'une langue et ainsi de se représenter, du moins partiellement, l'idée d'un « usage infini de moyens finis ». D'autres progrès ouvrirent la voie à des recherches portant sur des questions traditionnelles, avec, désormais, davantage d'espoir de les résoudre. L'étude des changements linguistiques avait enregistré des succès de premier ordre. La linguistique anthropologique nous offrait une compréhension bien plus riche de la nature et de la variété des langues, ce qui eut pour effet d'ébranler de nombreux stéréotypes. De même, la linguistique structurale du XXe siècle a beaucoup fait progresser l'étude de certains sujets de recherche, notamment celle des systèmes phonétiques.

Les premières tentatives pour mener à bien le programme de la grammaire générative montrèrent rapidement que, même dans les langues les mieux étudiées, des propriétés élémentaires étaient passées inaperçues, et que les grammaires et les dictionnaires traditionnels les plus complets ne font qu'effleurer la surface. Les propriétés fondamentales des langues y sont entièrement présupposées, non-reconnues, non-exprimées. Cela suffit tout à fait tant qu'il ne s'agit que d'aider les gens à apprendre une deuxième langue, à trouver la signification et la prononciation conventionnelles des mots ou à se faire une idée générale de la manière dont les langues diffèrent. Mais si l'on a pour but de comprendre la faculté de langage et ses états possibles, nous ne pouvons pas tacitement présupposer l'« intelligence du lecteur ». C'est bien plutôt celle-ci qui constitue l'objet même de la recherche.

L'étude de l'acquisition du langage mène à la même conclusion. Un examen attentif de l'interprétation des expressions révèle très vite que l'enfant, dès les tout débuts, en sait beaucoup plus que ce que l'expérience a pu lui apporter. Cela est vrai même pour des mots simples. Aux sommets de sa croissance linguistique, l'enfant acquiert les mots au rythme d'environ un à l'heure, à la suite d'une exposition extrêmement limitée dans des conditions de grande ambiguïté. Les mots sont compris de manières subtiles et complexes, qui échappent à tout dictionnaire et que l'on commence seulement à étudier. Au-delà des mots isolés, les conclusions sont encore plus spectaculaires. De manière générale, l'acquisition du langage ressemble beaucoup à la croissance des organes : cela arrive à l'enfant et il n'y est pour rien. Et, bien que le milieu ait évidemment son importance, le cours général du développement et les caractéristiques fondamentales de ce qui émerge sont prédéterminés par l'état initial. Or, celui-ci est commun à tous les hommes. Il faut donc que les langues, dans leurs propriétés essentielles, voire jusque dans les détails, soient coulées dans le même moule. Le scientifique martien pourrait raisonnablement en conclure qu'il n'y a qu'une seule langue humaine dont les différences ne sont que marginales.

Lorsqu'on entreprit d'étudier plus attentivement les langues du point de vue de la grammaire générative, il apparut que leur diversité avait été sous-estimée aussi radicalement que leur complexité et que l'étendue de leur détermination par l'état initial. Par ailleurs, nous savons que la diversité et la complexité ne peuvent être qu'une apparence superficielle.

C'étaient là des conclusions étonnantes, paradoxales mais indéniables. Elles posent sous une forme abrupte ce qui est devenu la question principale de l'étude moderne du langage : comment démontrer que toutes les langues sont des variations sur un même thème, tout en prenant fidèlement en compte la complexité de leurs propriétés phonétiques et sémantiques, superficiellement diverses ? Une théorie authentique du langage humain doit satisfaire à deux conditions : l'  « adéquation descriptive » et l'« adéquation explicative ». La grammaire d'une langue particulière satisfait à la condition d'adéquation descriptive si elle rend compte de manière complète et précise des propriétés de cette langue, de ce que sait la personne qui parle cette langue. Pour satisfaire à la condition de l'adéquation explicative, une théorie du langage doit montrer comment chaque langue particulière peut être dérivée d'un état initial uniforme dans les « conditions limites » imposées par l'expérience. C'est ainsi qu'elle fournit une explication des propriétés des langues à un niveau plus profond.

Entre ces deux axes de recherche, il existe une tension importante. La recherche de l'adéquation descriptive semble conduire à une complexité et à une diversité des systèmes de règles toujours plus grandes, tandis que celle de l'adéquation explicative exige que la structure du langage soit invariable, sauf aux marges. C'est cette tension qui a, dans une large mesure, balisé l'investigation. La manière naturelle de la résoudre est de mettre en question l'hypothèse traditionnelle, reprise par la grammaire générative à son début, selon laquelle une langue est un système de règles complexe, propre à une langue particulière et à des constructions grammaticales spécifiques, telles les règles pour former les propositions relatives en hindi, les syntagmes verbaux en swahili, les passifs en japonais, etc. La prise en compte de l'adéquation explicative indique qu'il ne peut en être ainsi.

Le problème principal consistait à trouver les propriétés générales des systèmes de règles qui pussent être attribuées à la faculté de langage elle-même, dans l'espoir que le résidu s'avérerait plus simple et plus uniforme. Il y a une quinzaine d'années, ces efforts se cristallisèrent en une approche du langage qui rompait beaucoup plus radicalement avec la tradition que la grammaire générative antérieure ne l'avait fait. Cette approche, baptisée « Principes et paramètres », rejetait entièrement le concept de règle et de construction grammaticale : il n'y a pas de règles servant à former les propositions relatives en hindi, les syntagmes verbaux en swahili, les passifs en japonais, etc. Les constructions grammaticales sont désormais considérées comme des artefacts taxinomiques, peut-être utiles pour une description informelle mais sans statut théorique. Elles ont en quelque sorte le statut de « mammifère terrestre » ou d'« animal de compagnie ». Quant aux règles, elles se décomposent en principes généraux de la faculté de langage, lesquels entrent en interaction pour produire les propriétés des expressions.

On peut se représenter l'état initial de la faculté de langage comme un réseau fixe connecté à un tableau de distribution ; le réseau est constitué des principes du langage tandis que le tableau de distribution correspond aux options à déterminer par l'expérience. Lorsque les interrupteurs sont réglés d'une certaine manière, on a du swahili ; lorsqu'ils le sont autrement, on a du japonais. Chaque langue humaine possible est identifiée comme correspondant à un réglage particulier des interrupteurs – un ensemble de paramètres, en termes techniques. Si le programme de recherche réussit, nous devrions être capables littéralement de déduire le swahili d'un choix de réglage, le japonais, d'un autre et ainsi de suite pour toutes les langues que les humains peuvent acquérir. Les conditions empiriques de l'acquisition du langage exigent que ces réglages puissent se faire à partir des informations très limitées dont dispose l'enfant. Remarquez que de petites modifications des réglages peuvent entraîner de grandes différences apparentes à la sortie, car les effets prolifèrent dans le système. Ce sont là des propriétés générales du langage dont toute vraie théorie doit être capable de rendre compte d'une manière ou d'une autre.

Il s'agit, bien entendu, d'un programme, loin d'un produit fini. Les conclusions encore incertaines auxquelles on est arrivé ne subsisteront sans doute pas sous leur forme actuelle et, faut-il le dire, rien n'assure que la démarche dans son ensemble soit sur la bonne voie. Cependant, en tant que programme de recherche, il a été très fructueux, car il a conduit à une véritable explosion de la recherche empirique sur des langues de typologies très différentes, à de nouvelles questions qu'il aurait été impossible de formuler antérieurement et à de nombreuses réponses qui laissent perplexe. Les questions portant sur l'acquisition, le processing, les pathologies et d'autres sujets ont aussi pris des formes nouvelles et très fécondes. De plus, quel que soit le sort qui lui est réservé, ce programme donne une idée de la manière dont la théorie du langage pourrait satisfaire aux conditions contradictoires des adéquations descriptive et explicative. Il esquisse, au moins dans ses grandes lignes, et vraiment pour la première fois, ce que pourrait être une authentique théorie du langage.

Dans ce programme de recherche, la tâche principale est de découvrir et de clarifier les principes et les paramètres ainsi que leur mode d'interaction, et d'élargir le cadre de manière à y inclure d'autres aspects du langage et de ses usages. Bien que beaucoup de choses demeurent encore obscures, des progrès suffisants ont été réalisés, qui permettent au moins de prendre en considération et peut-être de creuser des questions nouvelles et plus ambitieuses au niveau du langage en général. Il est permis en particulier de s'interroger sur la qualité de ce plan. Étant donné les conditions auxquelles le langage doit satisfaire, à quel point s'approche-t-il de ce qu'un superingénieur pourrait construire ?

Ces questions doivent être affinées et il existe des moyens pour cela. La faculté de langage est enchâssée dans l'architecture plus large de l'esprit/cerveau. Elle entre en interaction avec d'autres systèmes qui imposent des conditions auxquelles le langage doit satisfaire pour être seulement utilisable. Ces conditions, on peut les concevoir comme des « conditions de lisibilité », au sens où les autres systèmes doivent être capables de « lire » les expressions du langage et les utiliser en tant qu'« instructions » pour la pensée et l'action. Les systèmes sensori-moteurs, par exemple, doivent être en mesure de lire les instructions ayant trait au son, c'est-à-dire les « représentations phonétiques » générées par le langage. Les mécanismes articulatoires et perceptifs ont une constitution spécifique leur permettant d'interpréter certaines propriétés phonétiques et non d'autres. Ces systèmes imposent donc des conditions de lisibilité aux processus génératifs de la faculté de langage, laquelle doit fournir des expressions ayant la forme phonétique adéquate. Il en va de même pour le système conceptuel et pour d'autres qui utilisent les ressources de la faculté de langage : ces systèmes ont des propriétés intrinsèques qui exigent que les expressions générées par le langage possèdent certaines « représentations sémantiques » et non d'autres. On peut par conséquent se demander dans quelle mesure le langage est une « bonne solution » aux conditions de lisibilité imposées par les systèmes extérieurs avec lesquels il entre en interaction. Jusqu'à tout récemment, cette question n'aurait pu être sérieusement posée, ni même formulée de manière sensée. Il semble qu'elle puisse l'être maintenant, et il y a même des indications permettant de penser que la faculté de langage confine à la « perfection » en ce sens. Si cette conclusion est vraie, elle est surprenante.

Ce que l'on a fini par appeler le « programme minimaliste » consiste en une tentative d'exploration de ces questions. Il est trop tôt pour porter un jugement définitif sur ce projet. Selon moi, il est maintenant possible et avantageux d'inscrire ces questions à l'agenda de la recherche, d'autant que les premiers résultats sont prometteurs. Avant de revenir à quelques problèmes qui demeurent à l'horizon de la recherche, j'aimerais dire quelques mots des idées et des perspectives.

Le programme minimaliste exige que nous soumettions les hypothèses traditionnelles à un examen scrupuleux. La plus vénérable d'entre elles est que le langage est fait de son et de signification. Dans la terminologie actuelle, cela se traduit naturellement en la thèse selon laquelle la faculté de langage s'articule à d'autres systèmes de l'esprit/cerveau à deux « niveaux d'interface », l'un relié au son, l'autre à la signification. Une expression particulière générée par le langage contient une représentation phonétique lisible par les systèmes sensori-moteurs et une représentation sémantique lisible par le système conceptuel ainsi que par d'autres systèmes de pensée et d'action.

Il s'agit notamment de savoir s'il y a d'autres niveaux que les niveaux d'interface : existe-t-il des niveaux « internes » au langage, en particulier les niveaux de structure profonde et de surface postulés par les travaux modernes (voir par exemple, Chomsky, 1965, 1981a, 1986) ? Le programme minimaliste cherche à démontrer que tout ce qui a été expliqué en fonction de ces deux niveaux a été mal décrit, et se comprend aussi bien, voire mieux, en termes de conditions de lisibilité aux deux niveaux d'interface : pour qui connaît la littérature technique, je veux dire le principe de projection, la théorie du liage, la théorie du cas, la condition sur les chaînes, etc.

On tâche aussi de montrer que les seules opérations computationnelles sont celles qui demeurent inévitables avec les hypothèses les plus faibles concernant les propriétés de l'interface. L'une de ces hypothèses est qu'il existe des unités du type des mots : les systèmes externes doivent être capables d'interpréter des items comme « Peter » et « grand ». Une autre hypothèse est que ces items s'organisent en expressions plus étendues, telles que « Peter est grand ». Une troisième hypothèse est qu'ils ont des propriétés phonétiques et sémantiques : le mot « Peter » commence par une fermeture des lèvres et il s'emploie pour référer à des personnes. Le langage met donc en jeu trois types d'éléments :

les propriétés phonétiques et sémantiques appelées « traits » ;

les items assemblés à partir de ces propriétés, appelés « items lexicaux » ;

les expressions complexes construites à partir de ces unités « atomiques ».

Il s'ensuit que le système computationnel qui génère les expressions accomplit deux opérations fondamentales : l'une assemble les traits en items lexicaux, l'autre forme des objets syntaxiques plus étendus à partir de ceux qui sont déjà construits, en commençant par les items lexicaux.

Nous pouvons nous représenter la première opération comme consistant essentiellement en une liste d'items lexicaux. Dans la terminologie traditionnelle, cette liste – appelée le lexique – est faite     d'« exceptions », d'associations arbitraires de son et de signification, ainsi que de choix particuliers parmi les propriétés flexionnelles offertes par la faculté de langage, qui déterminent comment l'on indique que les noms et les verbes sont au pluriel ou au singulier, que les noms sont au nominatif ou à l'accusatif, etc. Ces traits flexionnels jouent un rôle important dans la computation.

Un plan optimal serait tel qu'il n'introduirait pas de nouveaux traits au cours de la computation. Il ne devrait pas y avoir d'indices, ni d'étiquettes syntagmatiques, ni de niveaux de projection (et, par conséquent, pas de règles des structures syntagmatiques ni de théorie Xbarre ; voir Chomsky, 1995c). On essaie aussi de montrer que n'entre en jeu aucune autre relation structurelle que celles imposées par les conditions de lisibilité ou induites de manière naturelle par la computation ellemême. Dans la première catégorie, on trouve des propriétés telles que l'adjacence au niveau phonétique et la structure argumentale ou les relations quantificateurvariable au niveau sémantique. Dans la seconde catégorie, il s'agit de relations très locales entre des traits et de relations élémentaires entre deux objets syntaxiques réunis au cours de la computation. La relation entre l'un et les parties de l'autre est la relation de c-commande. Comme l'indique Samuel Epstein (1999), c'est là une notion qui joue un rôle central à travers tout le plan du langage, et que l'on a jugée très peu naturelle, alors même qu'elle s'ajuste parfaitement du point de vue défendu ici. En revanche, nous excluons le gouvernement, les relations de liage créées pendant la dérivation des expressions, ainsi que diverses autres relations et interactions.

Comme le sait quiconque est familier des travaux récents, il existe quantité de données empiriques pour appuyer des conclusions radicalement opposées. Pire encore, une hypothèse centrale des travaux dans le cadre du programme « Principes et paramètres », aux résultats plutôt impressionnants, est que tout ce que je viens de proposer est faux – que le langage, sur ces points, est, comme on pouvait s'y attendre, très « imparfait ». Ce n'est donc pas une mince affaire que de montrer qu'un tel appareillage peut être éliminé comme technique descriptive superflue ; mieux encore, que l'on gagne en force descriptive et explicative si l'on se débarrasse d'un tel « excédent de bagages ». Je pense néanmoins que la recherche de ces dernières années semble indiquer que ces conclusions, qui paraissaient hors de propos auparavant, sont au moins plausibles et qu'il est fort possible qu'elles soient justes.

Les langues diffèrent manifestement et nous voulons savoir pourquoi. L'un des aspects par lesquels elles diffèrent demeure dans le choix des sons, qui varient à l'intérieur d'un certain registre. Un autre aspect réside dans l'association, essentiellement arbitraire, du son et de la signification. Ces aspects vont de soi et il n'est pas nécessaire de s'y arrêter. Plus intéressant est le fait que les langues diffèrent également par leurs systèmes flexionnels : le système casuel, par exemple. Nous savons que celui-ci est assez élaboré en latin, encore plus en sanscrit et en finnois, mais qu'il est minimal en anglais et invisible en chinois. Du moins le semble-t-il. La prise en compte de l'adéquation explicative donne à penser que là aussi les apparences peuvent être trompeuses, et, de fait, des recherches récentes (Chomsky, 1995c ; 1998) montrent que ces systèmes varient beaucoup moins qu'il ne paraît à en juger par les formes superficielles. Il se peut, par exemple, que le chinois et l'anglais aient le même système casuel que le latin, mais que la réalisation phonétique en soit différente. De plus, il semblerait qu'une grande partie de la diversité des langues se réduise aux propriétés des systèmes flexionnels. Si cette hypothèse est juste, la variation linguistique se situe dans une partie restreinte du lexique.

Les conditions de lisibilité imposent une triple division au sein des traits assemblés en items lexicaux :

1. les traits sémantiques, interprétés au niveau de l'interface sémantique ;

2. les traits phonétiques, interprétés au niveau de l'interface phonétique ;

3. les traits qui ne sont interprétés au niveau d'aucune des deux interfaces.

Dans une langue parfaitement construite, chaque trait serait sémantique ou phonétique, aucun ne serait un simple procédé pour créer une position ou faciliter la computation. Il n'y aurait pas alors de traits formels non interprétables. Il semble que ce soit là une exigence trop forte. Des traits formels prototypiques tels que le cas structurel – le nominatif et l'accusatif latins, par exemple – ne sont pas interprétables au niveau de l'interface sémantique et ne sont pas nécessairement exprimés au niveau phonétique. D'autres exemples semblables se rencontrent dans les systèmes flexionnels.

Dans la computation syntaxique, il semble que le plan du langage souffre, du moins en apparence, d'une seconde imperfection plus spectaculaire : la « propriété de déplacement », omniprésente dans le langage ; des syntagmes sont interprétés comme s'ils occupaient une position différente dans l'expression, où des items semblables apparaissent parfois et sont interprétés en fonction des relations locales naturelles. Prenons la phrase Clinton seems to have been elected (Clinton semble avoir été élu).Nous comprenons la relation entre « élire » et « Clinton » comme nous le faisons lorsque ces deux mots sont reliés localement dans la phrase It seems that they elected Clinton (Il semble qu'on ait élu Clinton) : « Clinton » est l'objet direct de « élire », dans la terminologie traditionnelle, quoiqu'il soit « déplacé » dans la position de sujet de « semble ». Dans ce cas, le sujet et le verbe s'accordent pour leurs traits flexionnels, mais ils n'ont pas de relation sémantique ; le sujet est en relation sémantique avec le verbe distant « élire ».

Nous avons maintenant deux « imperfections » : des traits non interprétables et la propriété de déplacement. Dans l'hypothèse d'un plan optimal, nous nous attendrions à ce qu'elles soient reliées, et il semble que ce soit le cas : les traits non-interprétables constituent le mécanisme grâce auquel se réalise la propriété de déplacement.

Celle-ci n'est jamais introduite dans les systèmes symboliques conçus à des fins particulières et appelés métaphoriquement « langages » ou « langages formels » : le « langage de l'arithmétique », les « langages informatiques » ou les « langages scientifiques ». Ces langages n'ont pas non plus de systèmes flexionnels et, par conséquent, pas de traits non-interprétés. Déplacement et flexion sont des propriétés spécifiques du langage humain, parmi bien d'autres que l'on ignore lorsqu'il s'agit de concevoir des systèmes symboliques pour d'autres usages qui peuvent ne pas tenir compte des conditions de lisibilité imposées au langage humain par l'architecture de l'esprit/cerveau.

La propriété de déplacement du langage humain s'exprime en termes de transformations grammaticales ou par quelque autre procédé, mais elle s'exprime toujours d'une manière ou d'une autre. Quant à savoir pourquoi la langue a cette propriété, c'est une question intéressante dont on discute depuis les années 1960 sans l'avoir résolue. Je soupçonne que l'explication a en partie trait à des phénomènes qui ont été décrits en termes d'interprétation de la structure de surface ; beaucoup d'entre eux nous sont familiers grâce à la grammaire traditionnelle : thème-rhème, spécificité, information ancienne et nouvelle, agentivité présente même en position déplacée, etc. Si cela est juste, alors la propriété de déplacement est effectivement imposée par les conditions de lisibilité : elle est motivée par des exigences interprétatives imposées de l'extérieur par nos systèmes de pensée, lesquels possèdent ces propriétés particulières (ainsi que l'indique l'étude de l'usage de la langue). Ces questions sont actuellement à l'étude de manière intéressante mais je ne m'étendrai pas ici.

Depuis les origines de la grammaire générative, on suppose que les opérations computationnelles sont de deux sortes :

des règles de structure syntagmatique qui forment des objets syntaxiques plus étendus à partir d'items lexicaux ;

des règles transformationnelles qui expriment la propriété de déplacement.

Les unes et les autres s'enracinent dans la tradition, mais on n'a pas tardé à découvrir qu'elles diffèrent de façon importante de ce que l'on supposait, et qu'elles sont d'une variété et d'une complexité insoupçonnées. Le programme de recherche s'est attaché à montrer que cette complexité et cette diversité ne sont qu'apparentes et que les deux types de règles peuvent se ramener à une forme simple. Une solution « parfaite » du problème de la diversité des règles de structure syntagmatique serait de les éliminer entièrement au profit de l'opération irréductible consistant à prendre deux objets déjà formés et à les rattacher l'un à l'autre, formant ainsi un objet plus vaste ayant uniquement les propriétés de la cible de l'attachement : cette opération peut être appelée Fusion (Merge). Des travaux récents indiquent que cet objectif peut être atteint.

La procédure computationnelle optimale consiste alors en l'opération de Fusion et en des opérations visant à construire la propriété de déplacement, des opérations transformationnelles ou quelque chose d'équivalent. L'autre entreprise parallèle a consisté à simplifier au possible la composante transformationnelle ; mais, à la différence de la structure syntagmatique, il semble impossible d'éliminer cette dernière. Le résultat final a été la thèse selon laquelle il n'y a pour un ensemble central de phénomènes qu'une seule et unique opération de Déplacement, c'est-à-dire, fondamentalement, que tout peut être déplacé n'importe où sans qu'il soit besoin de propriétés spécifiques aux langues ou de constructions particulières. La façon dont cela s'applique est déterminée par les principes généraux qui entrent en interaction avec les choix paramétriques particuliers – les réglages évoqués précédemment – qui déterminent une langue particulière. L'opération de Fusion prend deux objets distincts X et Y et attache Y à X. L'opération de Déplacement prend un seul objet X et un objet Y qui fait partie de X, puis fusionne Y avec X.

Le problème suivant consiste à montrer qu'effectivement les traits non-interprétables constituent le mécanisme qui réalise le déplacement, de sorte que les deux imperfections fondamentales du système computationnel se ramènent à une seule. S'il s'avère que la propriété de déplacement est motivée par les conditions de lisibilité imposées par les systèmes externes de la pensée, ainsi que je viens de le suggérer, alors les imperfections sont complètement éliminées et le plan du langage se révèle au bout du compte optimal : les traits non-interprétés sont requis en tant que mécanisme pour satisfaire à une condition de lisibilité imposée par l'architecture générale de l'esprit/cerveau.

La manière dont procède cette unification est très simple mais l'expliquer de façon cohérente dépasserait le cadre de ces remarques. L'intuition de base est que les traits non-interprétables doivent être effacés pour satisfaire à la condition de l'interface, effacement qui requiert une relation locale entre le trait incriminé et un trait d'égale valeur capable de l'effacer. Le plus souvent, ces deux traits sont éloignés l'un de l'autre pour des raisons liées à la façon dont procède l'interprétation sémantique. Par exemple, dans la phrase Clinton seems to have been elected (Clinton semble avoir été élu), l'interprétation sémantique exige que « élu » et « Clinton » soient localement reliés dans le syntagme « élire Clinton » pour que la construction soit interprétée correctement, comme si la phrase était en réalité « semble avoir élu Clinton ». Le verbe principal de la phrase, semble (seems)  a des traits flexionnels noninterprétables : il est singulier/troisième personne/masculin, propriétés qui n'ajoutent rien en elles-mêmes à la signification de la phrase, puisqu'elles sont déjà exprimées dans le syntagme nominal qui s'accorde avec « semble » et d'où il est impossible de les éliminer. Les traits illicites de « semble » doivent par conséquent être effacés au sein d'une relation locale, ce qui est une version explicite de la catégorie descriptive traditionnelle de l'« accord ». Pour obtenir ce résultat, les traits concordants du syntagme accordé « Clinton » sont attirés par les traits illicites du verbe principal « semble », lesquels sont alors effacés sous accord local. Mais le syntagme      « Clinton » est désormais déplacé.

Remarquez que seuls les traits de « Clinton » sont attirés ; le syntagme tout entier se déplace pour des raisons ayant trait au système sensori-moteur, lequel est incapable de « prononcer » ou d'  « entendre » des traits séparés du syntagme auquel ils appartiennent. Si, toutefois, pour une raison quelconque, le système sensori-moteur n'est pas activé, alors seuls les traits se déplacent et, à côté de phrases comme an unpopular candidate seems to have been elected (un candidat impopulaire semble avoir été élu), où le déplacement est visible, on a des phrases de la forme seems to have been elected an unpopular candidate (semble avoir été élu un candidat impopulaire) ; ici le syntagme éloigné « un candidat impopulaire » s'accorde avec le verbe « semble », ce qui signifie que ses traits, se détachant du reste du syntagme, ont été attirés dans une relation locale avec   « semble ». Le fait que le système sensorimoteur ait été désactivé est appelé « déplacement furtif », un phénomène aux propriétés des plus intéressantes. Dans de nombreuses langues – l'espagnol, par exemple – il existe des phrases de ce type. L'anglais en possède également, bien qu'il soit nécessaire, pour d'autres raisons, d'introduire l'élément sémantiquement vide there, ce qui donne la phrase There seems to have been elected an unpopular candidate (il semble avoir été élu un candidat impopulaire); et en outre, pour des raisons très intéressantes, de procéder à une inversion de l'ordre des mots, d'où au final There seems to have been an unpopular candidate elected (littéralement il semble un candidat impopulaire avoir été élu).Cespropriétés découlent de choix paramétriques spécifiques qui exercent leurs effets de façon générale à travers les langues et qui entrent en interaction pour produire un éventail complexe de phénomènes qui ne sont distincts que superficiellement. Dans le cas qui nous occupe, tout se ramène au simple fait que des traits formels non-interprétables doivent être effacés dans une relation locale avec un trait concordant, d'où résulte la propriété de déplacement requise par l'interprétation sémantique au niveau de l'interface.

Cette brève description laisse beaucoup de choses de côté. Si l'on remplissait les blancs, on obtiendrait un tableau assez intéressant, riche en ramifications vers des langues typologiquement différentes. Mais cela nous entraînerait bien au-delà de l'objet des présentes remarques.

J'aimerais terminer en faisant brièvement allusion à d'autres questions concernant la manière dont l'étude internaliste du langage se rapporte au monde extérieur. Pour simplifier, prenons des mots simples. Supposons que « livre » figure dans le lexique de Peter. Le mot est un complexe de propriétés, phonétiques et sémantiques. Les systèmes sensori-moteurs utilisent les propriétés phonétiques pour l'articulation et la perception, qu'ils relient à des événements extérieurs, à des mouvements moléculaires, par exemple. Lorsque Peter parle du monde et interprète ce que d'autres en disent, d'autres systèmes de l'esprit utilisent les propriétés sémantiques du mot.

Il y a plus ou moins consensus sur la manière dont les choses se passent pour le son, mais pour la signification, on constate de profonds désaccords. Les travaux à orientation empirique me semblent aborder les problèmes de la signification à peu près de la manière dont elles étudient le son, phonologiquement et phonétiquement. Elles essaient de trouver les propriétés sémantiques du mot   « livre » : le fait qu'il soit nominal et non verbal, qu'on l'emploie pour désigner un artefact et non une substance comme l'eau ou une abstraction comme la santé, etc. On pourrait demander si ces propriétés font partie de la signification du mot « livre » ou du concept associé au mot ; dans l'état actuel de nos connaissances, il n'existe pas de bonne manière de distinguer entre ces deux possibilités, mais il se peut qu'on découvre un jour qu'il y a là une question empirique. Quoi qu'il en soit, certains traits de l'item lexical « livre », qui lui sont internes, déterminent les modes d'interprétation du type mentionné à l'instant.

Lorsqu'on étudie l'usage de la langue, on découvre que les mots sont interprétés en fonction de facteurs tels que la composition matérielle, la forme, l'usage caractéristique prévu, le rôle institutionnel, etc. Les choses sont identifiées et rapportées à des catégories en fonction de propriétés comme celles-là – dont je suppose qu'elles sont des traits sémantiques –, à l'instar des traits phonétiques qui déterminent le son. L'usage du langage tient compte de diverses manières de ces traits sémantiques. Supposons que la bibliothèque possède deux exemplaires de Guerre et Paix  de Tolstoï ; Peter en emprunte un, John l'autre. Peter et John ont-ils emprunté le même livre ou des livres différents ? Si nous tenons compte du facteur matériel dans l'item lexical, ils ont emprunté des livres différents ; si nous ne retenons que sa composante abstraite, ils ont emprunté le même livre. Nous pouvons prêter attention aux facteurs matériel et abstrait simultanément, comme lorsque nous disons « Le livre qu'il projette pèsera au moins deux kilos si jamais il l'écrit » ou « Son livre est dans toutes les librairies du pays ». De même, on peut peindre la porte en blanc et la franchir, en utilisant le pronom « la » pour désigner de manière ambiguë la figure et le fond. On peut annoncer que la banque a sauté après avoir augmenté le taux d'intérêt ou qu'elle a augmenté le taux d'intérêt pour éviter qu'on la fasse sauter. Ici le pronom « elle » et la catégorie vide sujet de « éviter » prennent en compte simultanément des facteurs matériels et institutionnels.

Les faits relatifs à de telles questions sont souvent clairs, mais jamais insignifiants. Ainsi, les éléments référentiellement dépendants, même ceux qui sont soumis aux contraintes les plus étroites, observent certaines distinctions mais en ignorent d'autres, de manières étrangement variables selon les différents types de mots. On peut étudier de telles propriétés selon plusieurs angles : acquisition du langage, généralité à travers les langues, formes inventées, etc. Ce que nous découvrons est d'une complexité étonnante, et, ce qui n'est pas étonnant, connu antérieurement à toute donnée,donc commun à toutes les langues. On ne s'attend pas a priori à ce que le langage humain possède de telles propriétés ; le martien serait peut-être différent. Les systèmes symboliques des sciences et des mathématiques le sont à coup sûr. Personne ne sait dans quelle mesure les propriétés spécifiques du langage humain sont une conséquence de lois biochimiques générales s'appliquant à des objets dotés des traits généraux du cerveau, autre problème important qui se profile à un horizon encore lointain.

La philosophie des XVIIe et XVIIIe siècles a abordé l'interprétation sémantique en des termes semblables et fort intéressants, adoptant souvent le principe de Hume selon lequel l'« identité que nous attribuons aux choses [n'est que] fictive » (Hume, 1740), formée par l'entendement humain. La conclusion de Hume est très plausible. Le livre sur mon bureau ne possède pas ces propriétés étranges en vertu de sa constitution interne mais bien plutôt en vertu de la façon dont les gens pensent et de la signification des termes dans lesquels ces pensées sont exprimées. Les propriétés sémantiques des mots servent à penser et à parler à propos du monde selon les points de vue mis à notre disposition par les ressources de l'esprit, un peu à la manière dont l'interprétation phonétique semble procéder.

La philosophie contemporaine du langage suit une voie différente. Elle demande à quoi un mot réfère, question à laquelle elle apporte diverses réponses. Mais cette question n'a pas de signification claire. L'exemple de « livre » est typique à cet égard. Il n'y a pas beaucoup de sens à demander à quelle choseréfère l'expression « Guerre et Paix de Tolstoï » lorsque Peter et Jean empruntent des exemplaires identiques du livre à la bibliothèque. La réponse dépend de la manière dont sont employés les traits sémantiques lorsque nous pensons et parlons. D'une façon générale, un mot, même de l'espèce la plus simple, ne choisit pas une entité du monde ou de notre « espace de croyance ». Les hypothèses reçues sur ces questions me paraissent très douteuses.

J'ai dit plus haut que la grammaire générative a cherché à répondre aux préoccupations qui agitaient la tradition, en particulier l'idée cartésienne selon laquelle la « distinction vraie » (Descartes, 1649) entre les êtres humains et les autres créatures ou les machines réside dans l'aptitude à agir d'une manière, dont on considérait alors qu'elle était illustrée le plus clairement par l'usage ordinaire du langage : sans limites finies, influencé mais non déterminé par l'état interne, adapté aux situations mais non causé par elles, cohérent et évocateur de pensées que l'auditeur aurait pu exprimer, etc. La recherche exposée ici vise à mettre au jour quelques-uns des facteurs qui entrent dans la pratique normale. Quelques-uns seulement.

La grammaire générative cherche à découvrir les mécanismes utilisés, contribuant ainsi à découvrir  comment ils sont utilisés de manière créative dans la vie normale. Ce comment est le problème qui intriguait les cartésiens et qui demeure aussi mystérieux pour nous qu'il l'était pour eux, même si l'on comprend beaucoup mieux aujourd'hui les mécanismes en œuvre.

À cet égard, l'étude du langage ressemble à nouveau beaucoup à celle des autres organes. L'étude des systèmes visuel et moteur a mis au jour les mécanismes grâce auxquels le cerveau interprète des stimulidispersés, tels un cube et le bras qui se tend pour saisir un livre sur la table. Mais ces branches de la science ne s'interrogent pas sur la manière dont on décide de regarder un livre posé sur la table ou de le ramasser, et les spéculations sur l'usage des systèmes visuel ou moteur ou autre se montent à très peu de chose. Ce sont ces capacités, manifestées de la façon la plus frappante par l'usage du langage, qui se trouvent au cœur des préoccupations traditionnelles : pour Descartes, au début du XVIIe siècle, elles sont « la chose la plus noble que nous ayons » et elles sont tout ce que « nous possédions en propre ». Un demi-siècle avant Descartes, le philosophe et médecin espagnol Juan Huarte remarquait que cette « faculté générative » de l'action et de l'entendement humains ordinaires est étrangère aux « bêtes et aux plantes » (Huarte, 1575/1698, voir aussi Chomsky, 1966), tout en étant une forme inférieure de compréhension, déficiente comparée à l'exercice véritable de l'imagination créatrice. Même cette forme inférieure reste hors de portée de nos théories, excepté pour l'étude des mécanismes en jeu.

Dans un grand nombre de domaines, dont celui du langage, on a beaucoup appris ces dernières années sur ces mécanismes. Les problèmes auxquels nous pouvons maintenant nous confronter sont ardus et constituent un défi, mais bien des mystères demeurent inaccessibles à la forme d'investigation humaine que nous nommons « science », conclusion qui ne devrait pas nous étonner dès lors que nous considérons les êtres humains comme partie du monde organique, et qui peut-être ne devrait pas non plus nous plonger dans le désarroi.


http://www.chomsky.fr