La biolinguistique et la capacité humaine

Noam Chomsky


VOExposé à MTA (Budapest), 17 mai 2004

VF : Noam CHOMSKY, Le langage et la pensée, Payot, © 2009, Editions Payot & Rivages pour la traduction française


 J’aimerais dire quelques mots sur ce qu’on en est venu à appeler la «perspective biolinguistique », qui a commencé à prendre forme il y a un demi-siècle dans des discussions entre étudiants diplômés qui étaient très influencés par les développements en biologie et en mathématiques au début de l’après-guerre, y compris par les travaux en éthologie dont on venait juste de prendre connaissance aux États-Unis. L’un deux s’appelait Eric Lenneberg, dont l’étude de 1967, Biological Foundations of Language,qui reste un document fondamental dans la discipline, eut une forte influence. Des échanges considérables s’ensuivirent, incluant des séminaires interdisciplinaires et des conférences internationales. C’est en 1974, dans une étude de très grande envergure, que le mot « biolinguistique » apparaît pour la première fois. Nombre de questions majeures discutées alors restent tout à fait pertinentes aujourd’hui.

Une question régulièrement soulevée comme «la question fondamentale à se poser du point de vue biologique» est de déterminer dans quelle mesure les principes apparents du langage, y compris ceux qui n’ont été mis en lumière que récemment, sont uniques à ce système cognitif. Une question encore plus fondamentale du point de vue biologique est de déterminer jusqu’où on peut donner à une langue une explication fondée sur un principe (principled explanation), que des éléments homo logues puissent ou non être trouvés dans d’autres domaines ou d’autres organismes. Dans le cas du langage, ces dernières années, on en est venu à nommer la tentative d’affûter ces questions et de les étudier «le programme minimaliste », mais des questions identiques se posent pour n’importe quel système biologique, indépendamment de la persuasion théorique en linguistique et dans d’autres domaines. Les réponses à ces questions ne sont pas seulement fondamentales pour comprendre la nature et le fonctionnement des organismes et de leurs sous- systèmes, mais également pour l’investigation de leur croissance et de leur évolution.

     La perspective biolinguistique considère la langue d’une personne sous tous ses aspects — le son, le sens, la structure — comme l’état d’une composante de la pensée, «la pensée» s’entendant ici au sens des scientifiques du XVIIIesiècle, qui reconnurent qu’après la démolition de la «philosophie mécaniste» par Newton, fondée sur le concept intuitif d’un monde matériel, la question esprit-corps n’avait plus aucune cohérence, et que, de ce fait, l’on ne peut considérer les aspects du monde dit «mental» que comme le résultat d’« une structure organique comme celle du cerveau», ainsi que le fit observer le philosophe et chimiste Joseph Priestley. David Hume, lui, fit remarquer que la «pensée est une petite agitation du cerveau»; et, commentaire de Darwin un siècle plus tard: «la pensée étant une sécrétion du cerveau», il n’y a aucune raison de la considérer comme plus merveilleuse que «la gravité, propriété de la matière». L’opinion plus modérée que Newton avait introduite à propos des objectifs de la science était alors devenue sens commun scientifique: à savoir la conclusion, établie à contrecœur par Newton, selon laquelle nous devons nous satisfaire du fait que la gravité universelle existe, même si nous ne pouvons fournir une explication qui saute aux yeux en termes de «philosophie mécaniste». Ainsi que de nombreux commentateurs l’ont observé, cette avancée intellectuelle «amorça une nouvelle théorie de la science», où l’objectif «n’est pas de chercher des explications absolues», mais de trou ver la meilleure explication théorique possible des phénomènes par l’expérience et par l’expérimentation (experience andexperiment) (I. Bernard Cohen).

Des questions centrales, très similaires dans la forme, se posent encore dans le domaine de l’étude de la pensée. Ces questions ont été soulevées avec force à la fin de «la décennie du cerveau» qui conclut le dernier millénaire. L’Académie américaine des arts et des sciences publia un volume pour marquer l’occasion, résumant l’état actuel de la science. La formulation du fil directeur en revint au neuroscientifique Vernon Mountcastle dans son introduction à l’ouvrage: c’est la thèse selon laquelle «les choses mentales, en fait les pensées, sont des propriétés émergentes des cerveaux, même si ces émergences ne sont pas considérées comme irréductibles, mais sont produites par des principes [ ... ] que nous ne comprenons pas encore». Ces dernières années, on a avancé la même thèse, qui paraphrase à peu de chose près celle de Priestley, «comme une hypothèse étonnante» de la biologie nouvelle, «une idée radicalement nouvelle» de la philosophie de la pensée, «l’affirmation osée selon laquelle les phénomènes mentaux sont entièrement naturels, causés par des activités neurophysiologiques du cerveau», etc. Mais c’est une erreur de compréhension. Cette thèse, ainsi qu’on le reconnut rapidement, découle de l’effondrement de tout concept cohérent de «corps» ou de «matière» au XVIIe siècle. En dehors de la terminologie, la thèse fondamentale demeure ce que l’on a appelé «la suggestion de Locke» : à savoir que Dieu aurait choisi de «surajouter à la matière une faculté de penser», tout comme il a ajouté «des effets au mouvement dont nous ne pouvons en aucun cas concevoir que le mouvement puisse les produire».

La référence de Mountcastle aux principes réducteurs «que nous ne comprenons pas encore» pose également quelques questions intéressantes, comme le montre un coup d’œil à l’histoire de la science, et même de la science très récente. Elle fait penser à l’observation de Bertrand Russell en 1929, qui reflète aussi les croyances standard, selon lesquelles «les lois chimiques ne peuvent aujourd’hui être réduites aux lois physiques». Le syntagme «aujourd’hui », comme le terme «pas encore» utilisé par Mountcastle, exprime l’attente de voir cette réduction se produire dans le cours normal du progrès scientifique, bientôt qui sait. Dans le cas de la physique et de la chimie, elle ne s’est jamais produite: ce qui s’est produit, c’est l’unification d’une chimie pratiquement inchangée avec une physique radicalement révisée. Il est à peine nécessaire d’ajouter que l’état de compréhension et d’avancement dans ces secteurs il y a quatre-vingts ans était à des années-lumière des conclusions à propos du cerveau et des sciences cognitives aujourd’hui. En conséquence, avoir confiance dans la «réduction» au peu que l’on comprend n’est pas nécessairement approprié.

     À partir de la panoplie de phénomènes que l’on pourrait de façon lâche considérer comme liés au langage, l’approche biolinguistique centre l’attention sur une composante de la biologie humaine qui entre en jeu dans l’utilisation et l’acquisition du langage; cependant, on interprète le terme «langage». Appelons-le «la faculté de langage», adaptant ainsi un terme traditionnel à un nouvel usage. Cette composante est plus ou moins semblable au système de vision des mammifères, à la navigation des insectes ou autres. Dans nombre de ces cas, les meilleures théories explicatives disponibles attribuent à l’organisme des systèmes computationnels — et ce qu’on appelle dans l’usage informel «l’observation de la règle» — par exemple, quand un texte récent sur la vision présente «le principe de rigidité», ainsi qu’on l’appelle, tel qu’il a été formulé il y a cinquante ans: «Si possible, et si les autres lois le permettent, il convient d’interpréter les mouvements de l’image comme des projections de mouvements rigides en trois dimensions.» Dans ce cas, les travaux ultérieurs ont fourni une intelligence substantielle des computations mentales qui semblent être impliquées lorsque le système visuel suit ces règles, mais même pour des organismes très simples, ce n’est pas exactement — et c’est caractéristique — une tâche mineure, et la mise en relation des computations mentales avec l’analyse au niveau cellulaire reste, en général, un objectif lointain. Quelques philosophes ont émis une objection quant à la notion d’«observation de la règle»

pour le langage, rarement pour la vision. Mais je pense qu’il y a là une autre erreur d’interprétation, parmi des erreurs d’interprétation multiples, à mon avis. La comparaison peut s’avérer intéressante entre les inquiétudes exprimées aujourd’hui sur les théories du langage, et, plus généralement, sur les aspects du monde dit «mental», avec les débats qui ont agité les scientifiques majeurs jusque tard dans les années 1920, quant à la question de savoir si la chimie n’était qu’un simple procédé de calcul permettant de prédire les résultats d’expériences, ou si elle méritait le statut honorifique d’explication de «la réalité physique», débats dont on a compris plus tard qu’ils étaient totalement sans objet. Les ressemblances, elles, que j’ai discutées ailleurs, sont étonnantes et, je pense, instructives.

     Laissons de côté ces sujets intéressants: si nous adoptons la perspective biolinguistique, une langue est un état de la faculté de langage — un langage I (ou LI) à usage technique, où le « I» souligne le fait que la conception est internalisée, individuelle et intensionnelle (avec un «s» et non un «t »), c’est-à-dire la formulation authentique des principes génératifs eux-mêmes, non l’ensemble qu’elle énumère; nous pouvons concevoir ce dernier comme une propriété plus abstraite du LI, un peu comme nous pouvons envisager l’ensemble des trajectoires possibles d’une comète à travers le système solaire comme une propriété abstraite de ce système.

     La décision d’étudier le langage dans ce sens, c’est-à-dire comme partie du monde, était aussi considérée par de nombreux linguistes comme une source de controverse majeure à l’époque, et elle l’est encore. Il me semble que les arguments avancés contre la légitimité de cette approche ont peu de poids. Thèse faible. Il me semble que ses hypothèses de base sont adoptées tacitement même par ceux qui les rejettent avec force. Thèse beaucoup plus puissante. Je n’entrerai pas ici dans ce chapitre de l’histoire intellectuelle contemporaine, mais poserai simplement en hypothèse que les aspects essentiels du langage peuvent être étudiés comme partie du monde naturel, au sens où l’entend l’approche biolinguistique qui a pris forme il y a un demi-siècle, intensément étudiée depuis, selon des voies diverses et variées.

La faculté de langage est une composante de ce que Alfred Russel Wallace, cofondateur de la théorie évolutionnaire moderne, appelait «la nature intellectuelle et morale de l’homme»: les capacités humaines d’imagination créative, de langage et d’autres modes de symbolisme, les mathématiques, l’interprétation et l’enregistrement de phénomènes naturels, de pratiques sociales compliquées et autres, un complexe de capacités qui, assez récemment, il y a un peu plus de cinquante mille ans peut-être, semble avoir pris corps parmi un petit nombre d’espèces dont nous sommes tous les descendants, complexe qui, à en juger par les données archéologiques, sépare très nettement les humains des animaux, autres hominidés inclus. La nature de la «capacité humaine», ainsi que l’appellent à présent quelques chercheurs, reste un mystère considérable. Ce fut un élément d’un désaccord célèbre entre les deux fondateurs de la théorie de l’évolution, Wallace prétendant, contrairement à Darwin, qu’on ne pouvait pas expliquer seulement l’évolution de ces facultés en termes de variation et de sélection naturelle, mais qu’elle nécessitait «quelque autre influence, loi ou agence», quelque principe de la nature parallèlement à la gravitation, la cohésion, et d’autres forces sans lesquelles l’univers matériel ne pourrait exister. Bien que ces questions soient cadrées différemment aujourd’hui, elles n’ont pas disparu.

     On suppose généralement que, quelle que soit la capacité intellectuelle humaine, la faculté de langage lui est essentielle. De nombreux scientifiques sont d’accord avec le paléoanthropologue Ian Tattersal, qui écrit qu’il est «presque sûr que ce fut l’invention du langage» qui fut l’événement «soudain et émergent», le «stimulus libérateur» (releasing stimulus) de l’apparition de la capacité humaine dans l’historique de l’évolution — le «Grand Saut en Avant», ainsi que l’a appelé Jared Diamond, résultat de quelque événement génétique qui reconfigura le cerveau, entraînant l’origine du langage humain doté de cette riche syntaxe qui fournit une multitude de modes d’expression de la pensée, prérequis du développement social et des vifs changements dans le comportement qui sont révélés par l’histoire archéologique, et dont on suppose généralement aussi qu’il déclencha l’aventure rapide au départ de l’Afrique, où, par ailleurs, les humains modernes étaient apparemment alors présents depuis des centaines de milliers d’années. Opinion similaire à celle des cartésiens, mais plus forte: ils considéraient, eux, l’utilisation normale du langage comme la preuve empirique la plus évidente qu’une autre créature avait un esprit comme le nôtre, mais non comme la preuve par neuf de la pensée et de l’origine de la capacité humaine.

Si ce tableau général a une quelconque validité, alors l’évolution du langage peut être une affaire très brève, même si c’est un produit très récent de l’évolution. Naturellement, il y a d’innombrables précurseurs, et ils ont sans doute une longue histoire évolutionnaire. Par exemple, les os du milieu de l’oreille sont un système merveilleux d’amplification des sons, magnifiquement conçus pour interpréter le discours, mais ils semblent avoir migré à partir de la mâchoire du reptile comme un effet mécanique de la croissance du néocortex chez les mammifères qui a commencé il y a cent soixante millions d’années, dit-on. Nous en savons trop peu sur les systèmes conceptuels pour en dire davantage, mais il est raisonnable de supposer qu’ils eurent, eux aussi, une longue histoire après la séparation des hominidés, donnant des résultats qui n’ont aucune ressemblance proche ailleurs. Mais la question de l’évolution du langage elle-même n’est pas étrangère à la façon dont ces divers précurseurs s’organisèrent en la faculté de langage, peut-être à travers quelque événement génétique mineur qui apporta une innovation majeure. Si tel est le cas, alors l’évolution du langage lui-même est brève, spéculations qui ont des retombées sur le style d’enquête sur le langage, susceptible d’être productive.

Tattersal considère le langage comme «pour ainsi dire synonyme de la pensée symbolique». Allant plus loin, l’un des initiateurs du symposium de 1974, le Prix Nobel François Jacob, fit observer que «le rôle du langage comme système de communication entre les individus ne serait advenu qu’en second lieu», se référant peut-être aux discussions de la conférence de 1974, où son homologue Salvador Luria, autre lauréat du Nobel, fut l’un des avocats les plus véhéments de l’opinion selon laquelle les besoins communicatifs n’auraient pas fourni «une grande pression sélective pour produire un système tel que le langage», avec sa relation vitale au «développement de la pensée abstraite ou productive». «La qualité du langage qui le rend unique ne semble pas tant être son rôle dans la communication des directives d’action» ou autres caractéristiques communes de la communication animale, poursuit Jacob, que plutôt «son rôle dans la symbolisation et l’évocation des images cognitives», le «façonnement» de notre notion de la réalité et la production de notre capacité de pensée et de planification, à travers sa propriété unique qui est de permettre d’«infinies combinaisons de symboles» et, en conséquence, «une création mentale des mondes possibles », idées qui remontent à la révolution cognitive du XVIIe siècle.

     Jacob a aussi souligné le fait que la réponse commune aux questions sur l’évolution «se limite, dans la plupart des exemples [ ... ], à des conjectures plus ou moins rationnelles »; et que, dans la plupart des cas, il en est à peine ainsi. Un exemple qui est peut-être d’intérêt ici est l’étude de l’évolution du système de communication des abeilles, inhabituel en ce qu’il permet en principe la transmission d’informations sur une portée infinie (continue). Il est des centaines d’espèces de miel et d’abeilles sans dard, dont certaines ont des variantes des systèmes de communication,

d’autres non, bien qu’elles semblent toutes assez bien survivre. Ainsi, il y a là une belle opportunité pour des travaux comparatifs. Les abeilles sont incomparablement plus faciles à étudier, dans toutes les dimensions, que les humains. Mais notre connaissance en est infime. Même la littérature est mince. La revue extensive la plus récente que j’aie vue, par l’entomologiste Fred Dyer, observe que, même les problèmes computationnels de base de codage de l’information spatiale pour les signaux moteurs, et l’inverse pour les abeilles ouvrières (following bees), restent «déconcertants»; et on ne sait pas «quels types d’événements neuraux pourraient sous-tendre ces divers procédés de projections», tandis que les origines évolutionnaires, elles, dépassent à peine la spéculation. Rien à voir avec l’énorme littérature et les déclarations confiantes sur l’évolution du langage humain, fait que l’on pourrait aussi trouver un peu «déconcertant».

Nous pouvons ajouter un autre éclairage de la philosophie du XVIIe et du XVIIIe siècles, qui prend ses racines et remonte jusqu’à l’analyse que fit Aristote de ce qui fut, plus tard, interprété comme des entités mentales: à savoir que même les concepts les plus élémentaires du langage humain ne sont pas reliés à des objets indépendants de la pensée au moyen d’une quelconque relation de type référence entre les symboles et les caractéristiques physiques identifiables du monde externe, comme cela semble être universellement le cas dans les systèmes de communication animale. Ce sont plutôt les créations des «capacités cognoscibles» (cognoscitive powers) qui nous fournissent de riches moyens de nous référer au monde extérieur selon certaines perspectives, mais par des opérations mentales d’individuation qui ne peuvent être réduites à une «appartenance naturelle particulière» à la chose dont nous parlons, selon les termes de Hume, qui, ainsi, résume un siècle de recherches. «La théorie de la sémantique lexicale» de Julius Moravcsik est un développement récent de quelques-unes de ces idées depuis leurs origines aristotéliciennes, et, avec de riches implications pour la sémantique des langues naturelles.

Ce sont là des observations critiques sur la sémantique élémentaire des langues naturelles qui suggèrent que ses éléments les plus primitifs sont reliés au monde indépendant de la pensée plutôt à la façon dont les éléments internes de la phonologie le sont, non par une relation de type référence, mais en tant que partie d’un type de conception et d’action considérablement plus complexe. Je ne chercherai pas à approfondir ce point ici, mais je pense que de telles considérations, si elles sont étudiées sérieusement, révéleront qu’il est vain d’essayer de fonder la sémantique des langues naturelles sur un quelconque type de relation «mot-objet», aussi intriquée que puisse être la notion d’« objet» construite, tout comme il serait vain de fonder la phonétique des langues naturelles sur une relation «son- symbole», où les sons sont pris comme des événements physiques construits, des constructions indescriptibles à quatre dimensions peut-être, basées sur les déplacements des molécules, avec des questions complémentaires dispatchées au département de physique, ou encore, pour être sûr de ne pas trouver de solution au problème, au département de sociologie. On est universellement d’accord sur le fait que ce sont là des démarches erronées pour l’étude de l’aspect son du langage, et je pense que les conclusions sont tout aussi raisonnables pour l’aspect sens. Il y a un événement physique pour chaque expression, mais cela n’implique pas que nous ayons à chercher une quelconque relation mythique entre un objet interne tel que la syllabe [ta] et un événement identifiable indépendant de la pensée; et, pour chaque acte de référence, il y a un aspect complexe quelconque du monde, expérimenté ou imaginé, sur lequel cet acte concentre l’attention, mais cela ne revient pas à dire qu’une relation de référence existe pour les langues naturelles. Je pense pour ma part que, même au niveau primitif, elle n’existe pas.

 Si, dans l’ensemble, cela est la bonne voie, alors deux problèmes fondamentaux au moins se posent quand nous nous penchons sur les origines de la faculté de langage et sur son rôle dans l’émergence soudaine de la capacité intellectuelle humaine: 1, la sémantique centrale des éléments minimaux porteurs de sens, y compris le plus élémentaire d’entre eux; et 2, les principes qui permettent des combinaisons de symboles illimitées, organisées hiérarchiquement, qui donnent les moyens d’utilisation du langage sous ses nombreux aspects. Et la preuve, c’est que la théorie centrale du langage — la grammaire universelle, ou GU — doit fournir, 1, un inventaire structuré des items lexicaux possibles qui sont reliés ou sont peut-être identiques aux concepts, éléments «des capacités cognoscibles », et 2, fournir les moyens de construire, à partir de ces items lexicaux, l’infinie variété de structures internes qui entrent en jeu dans la pensée, l’interprétation et la planification, et d’autres actes mentaux humains, et sont parfois externalisés, processussecondaire si les spéculations que je viens de passer en revue s’avèrent correctes. Sur le premier problème, l’appareil lexical conceptuel apparemment spécifique à l’humain, il y a des travaux très intuitifs sur les notions relationnelles liées aux structures syntaxiques et sur les objets en partie internes à la pensée qui semblent jouer un rôle critique (événements, propositions, etc.). Mais, passé les remarques descriptives, il y a peu de travaux sur l’appareil central de référence utilisé pour parler du monde. Le second problème est au centre des préoccupations de la recherche linguistique depuis un demi-siècle avec une longue histoire qui, auparavant, utilisait des termes différents.

L’approche biolinguistique a adopté dès le départ le point de vue que le neuroscientifique cognitiviste R. G. Gal-listel appelle «la norme en neuroscience» aujourd’hui, «la théorie modulaire de l’apprentissage»: la conclusion que, chez tous les animaux, l’apprentissage est basé sur des mécanismes spécialisés, «des instincts d’apprendre» selon des façons spécifiques. Il suggère que nous considérions ces mécanismes comme «des organes à l’intérieur du cerveau» atteignant des états dans lesquels ils opèrent des types spécifiques de computation. «Environnements extrêmement hostiles» à part, ils changent d’états sous l’effet déclencheur et formateur de facteurs externes, plus ou moins par réflexe, et en accord avec la conception interne. C’est le «processus d’apprentissage» — même si «croissance» serait sans doute un terme plus approprié —, qui éviterait les connotations trompeuses du terme «apprentissage». On pourrait relier ces idées au travail encyclopédique de Gallistel sur l’organisation du mouvement, basé sur des «contraintes structurelles» qui mettent «des limites au type de solutions qu’un animal brandit dans une situation d’apprentissage».

     La théorie modulaire de l’apprentissage n’entraîne naturellement pas que les composantes lui soient uniques: à un niveau quelconque — la cellule par exemple —, tous posent en hypothèse qu’elles ne le sont pas. La question du niveau d’organisation auquel émergent les propriétés uniques reste une question fondamentale d’un point de vue biologique, tout comme elle l’était à la conférence de 1974. Les observations de Gallistel rappellent le concept de «canalisation» introduit il y a soixante ans par C. H. Waddington dans la biologie évolutionnaire et développementale, qui fait référence aux processus «ajustés afin de déterminer un résultat final précis, indépendamment des variations mineures des conditions au cours de la réaction », assurant ainsi «la production du type normal, c’est à dire optimal, face aux inévitables dangers de l’existence». Cela semble être une description juste de la croissance du langage chez l’individu. Un problème central dans l’étude de la faculté de langage est de découvrir les mécanismes qui limitent les résultats aux «types optimaux».

Depuis les origines de la biologie moderne, on a reconnu que les contraintes de développement externe à l’organisme, ainsi que les principes structuraux et architecturaux, entrent non seulement en jeu dans la croissance des organismes, mais aussi dans leur évolution. Dans un article contemporain classique, Maynard Smith et ses collègues retracent la version post darwinienne jusqu’à Thomas Huxley, qui fut frappé par le fait qu’il semble y avoir «des lignes de modification prédéterminées» conduisant la sélection naturelle à «produire des variétés d’un nombre et d’un type limité» pour chaque espèce. Ils passent en revue diverses contraintes de ce type dans le monde organique, et décrivent la façon dont «les restrictions sur la variabilité phénotypique» sont «causées par la structure, le caractère, la composition ou la dynamique du système de développement». Ils soulignent également que de «telles contraintes développementales jouent sans aucun doute un rôle significatif dans l’évolution», bien qu’il y n’ait cependant «pas concordance quant à leur importance lorsqu’on les compare à la sélection, l’évolution, et autres facteurs de ce type, dans le façonnement de l’histoire évolutionnaire ». À peu près à la même époque, Jacob écrivait que «les lois contrôlant le développement de l’embryon», presque entièrement inconnues, interagissent avec d’autres facteurs physiques pour «restreindre les changements possibles de structures et de fonctions» dans le développement évolutionnaire, fournissant «des contraintes architecturales» qui, pour citer une revue récente, «limitent le champ adaptatif et canalisent les modèles évolutionnaires ». Les personnalités les plus connues qui ont consacré une grande partie de leurs travaux à ces sujets sont D’Arcy Thompson et Alan Turing, qui ont adopté une position très ferme sur le rôle central de tels facteurs en biologie. Ces dernières années, des considérations comme celles-ci ont été alléguées à propos d’une gamme étendue de problèmes de développement et d’évolution, depuis la division cellulaire chez les bactéries jusqu’à l’optimisation de la structure et de la fonction des réseaux corticaux, allant même jusqu’à proposer, comme argumenté par le neuroscientifique computationnel Chris Cherniak, que les organismes «ont le meilleur des cerveaux possibles». Ces problèmes sont la limite de l’enquête, mais il n’y a pas de controverse quant à leur pertinence.

 Prenant pour hypothèse que la faculté de langage a les propriétés générales d’autres systèmes biologiques, nous devrions en conséquence explorer trois facteurs qui entrent dans la croissance du langage chez l’individu:

 1 — les facteurs génétiques, apparemment presque uniformes pour l’espèce, thème de la GU. La dotation génétique interprète une partie de l’environnement comme expérience linguistique, tâche non triviale que l’enfant en bas âge mène à bien par réflexe, et qui détermine le cours général du développement de la faculté de langage jusqu’’aux langues auxquelles il accède;

 2 — l’expérience, qui conduit à la variation, à l’intérieur d’un cadre assez étroit, comme c’est le cas pour d’autres sous-systèmes de la capacité humaine et de l’organisme en général;

 3 — des principes non spécifiques à la faculté de langage.

 Le troisième facteur inclut les principes de l’architecture structurale qui restreignent les résultats, y compris les principes de computation efficace, dont on s’attendait à ce qu’ils aient une portée significative particulière pour les systèmes computationnels tels que le langage, déterminant le caractère général des langues auxquelles on accède.

 L’on peut retracer l’intérêt pour ce troisième facteur jusqu’à l’intuition galiléenne que «la nature est parfaite», depuis les marées jusqu’aux vols des oiseaux, et que c’est la tâche du scientifique que de découvrir en quel sens exactement cela est vrai. La confiance de Newton dans le fait que la nature doit être «très simple» reflète la même intuition. Aussi obscure soit-elle, cette intuition à propos de ce que Ernst Haeckel appelait «le sens de la nature pour le beau» (Sinn für das Schoene) est l’un des fils directeurs de la science moderne dès le tout début de ses origines modernes.

Les biologistes ont eu tendance à penser différemment quant aux objets de leurs recherches, adoptant l’image de Jacob qui compare la nature à un ferronnier ambulant qui fait son possible pour bricoler de son mieux avec les matériaux à portée de main, travail souvent médiocre, comme l’intelligence humaine semble être résolue à le démontrer à son sujet. Le généticien britannique Gabriel Dover saisit l’opinion dominante lorsqu’il conclut que «la biologie est une affaire étrangement embrouillée», et que «“la perfection” est le dernier mot que l’on utiliserait pour décrire la façon dont fonctionnent les organismes, particulièrement tout ce qui est produit par la sélection naturelle» — même si, comme il le souligne, produit en partie seulement par la sélection naturelle —, et ce, comme tout biologiste le sait, dans une proportion que nous ne sommes pas en mesure de quantifier à l’aide des outils disponibles. Ces attentes font du sens pour les systèmes qui ont une histoire évolutionnaire longue et complexe, avec de nombreux accidents, les effets chroniques de l’histoire évolutionnaire qui mènent à des solutions non optimales aux problèmes, etc. Mais la logique ne s’applique pas à l’émergence relativement soudaine, qui pourrait très bien conduire à des systèmes qui ne ressemblent pas aux résultats complexes de millions d’années de «bricolage» jaco-bien, ressemblant peut-être davantage à des flocons de neige, à une phyllotaxie ou à la division des cellules en sphères plutôt qu’en cubes, ou aux polyèdres comme matériaux de construction, ou à beaucoup d’autres choses trouvées dans le monde naturel. Notre intuition que quelque chose de ce type pourrait être vrai du langage humain a motivé le programme minimaliste, et je pense que les travaux récents nous donnent quelque raison de croire que, sous bien des aspects, le langage est une solution optimale aux conditions auxquelles il doit satisfaire, et bien davantage, ainsi que cela a pu être anticipé il y a quelques années.

Pour en revenir aux prémices, à l’intérieur des cadres structuraux et comportementaux des années 1950, les analogies les plus proches de la GU furent les approches procédurales développées par Trubetzkoy, Harris et d’autres, conçues pour déterminer les unités linguistiques et leurs modèles à partir d’un corpus de données linguistiques. Dans le meilleur des cas, aussi vaste soit le corpus, et quels que soient les procédés computationnels utilisés, ces approches ne peuvent aller très loin. Même les éléments formels élémentaires et porteurs de sens, les morphèmes, n’ont pas les caractéristiques «de perles sur une rangée de perles» requises pour des approches procédurales, mais sont reliées bien plus indirectement à la forme phonétique. Leur nature et leurs propriétés sont fixées à l’intérieur du système computationnel plus abstrait qui détermine la gamme illimitée d’expressions. Les premières approches de la grammaire générative ont, en conséquence, posé en hypothèse que la dotation génétique fournit un format aux systèmes de règles, et une méthode pour en sélectionner l’instanciation optimale, compte tenu des données de l’expérience. Des propositions spécifiques ont été faites alors et dans les années qui ont suivi. En principe, elles ont fourni une solution possible au problème de l’acquisition du langage, mais elles impliquaient un calcul astronomique et, de ce fait, n’ont pas sérieusement traité les problèmes.

Ces années-là, les préoccupations majeures étaient très différentes, et elles le sont encore. C’est peut-être difficile à croire aujourd’hui, mais on supposait généralement, il y a cinquante ans, que la technologie de base de la description linguistique était disponible et que la variation linguistique était si libre qu’il était improbable de découvrir quoi que ce soit d’une quelconque portée générale. Dès que des tentatives furent faites pour fournir des explications relativement explicites des propriétés du langage, il devint immédiatement évident qu’on en savait fort peu, dans aucun domaine. Chaque proposition spécifique produisit un trésor de contrépreuves, nécessitant des systèmes de lois complexes et variés, ne serait-ce que pour obtenir une approximation très limitée de l’adéquation descriptive. Cela fut très stimulant pour la recherche sur le langage, mais engendra aussi une situation très embarrassante, puisque les considérations les plus élémentaires ont conduit à la conclusion que la grammaire universelle doit — dans le but d’expliquer l’acquisition du langage et de mener à bien la tâche de parvenir à «l’adéquation explicative», ainsi qu’on l’appelle — imposer des contraintes étroites sur les résultats possibles. Ces derniers sont parfois appelés problèmes de «pauvreté du stimulus» dans l’étude du langage, bien que le terme soit trompeur, car il ne s’agit là que d’un cas spécifique des questions de base qui se posent universellement pour la croissance organique, incluant la croissance cognitive, variante de problèmes reconnus en remontant jusqu’à Platon.

     Nombre de voies furent suivies pour essayer de résoudre le conflit. La plus réussie s’avéra être la tentative de formuler les principes généraux attribués à la grammaire universelle — à savoir la dotation génétique —, laissant un résidu finalement assez réduit de phénomènes qui résulteraient en quelque sorte de l’expérience. Ces approches connurent quelques succès, mais les problèmes de base n’étaient pas résolus à l’époque de la conférence de 1974.

     En l’espace de quelques années, le paysage a considérablement changé. Cela fut en partie le résultat d’un large déploiement de matériaux nouveaux, issus d’études de beaucoup plus grande profondeur qu’antérieurement, nés pour une part de l’introduction de nouveaux thèmes de recherche. Il y a environ vingt-cinq ans, une grande partie de ce travail prit corps sous forme d’une approche radicalement différente de la grammaire universelle, le programme «Principes et paramètres», qui, pour la première fois, offrit l’espoir de surmonter les conflits entre adéquation descriptive et adéquation explicative. Cette approche cherchait à éliminer entièrement le cadrage «format conceptuel» et, avec lui, la conception traditionnelle des règles et des constructions qui avaient été largement absorbées et intégrées dans la grammaire générative. À cet égard, ce fut un éloignement beaucoup plus radical d’une tradition riche de deux mille cinq cents ans que le début de la grammaire générative. Le nouveau programme «Principes et paramètres» conduisit à une explosion de recherches sur des langues typologiquement très variées, amenant de nouvelles problématiques non envisagées précédemment, parfois des réponses, et s’avéra revigorant pour les disciplines avoisinantes concernées par l’acquisition et le processing, leurs questions directrices étant à présent recadrées en termes de configuration de paramètres à l’intérieur d’un système fixé de principes de la grammaire universelle. Aujourd’hui, nul familier du champ ne pourrait croire que les horizons de la recherche soient, ne serait-ce que visibles, sans même parler d’être à portée de main.

     L’abandon du cadrage «format conceptuel» eut aussi un impact significatif sur le programme biolinguistique. Si, comme on l’a supposé, l’acquisition est une question de sélection parmi des options rendues accessibles par le format conceptuel que fournit la grammaire universelle, alors le format conceptuel doit être riche et très articulé, et permettre relativement peu d’options; sinon, l’adéquation explicative est hors de portée. La meilleure théorie du langage doit être une théorie très insatisfaisante par d’autres points de vue, avec un déploiement complexe de conditions spécifiques au langage humain, restreignant les instanciations possibles. La question biologique fondamentale de l’explication fondée sur un principe pouvait à peine être envisagée, et corrélativement, les prospectives d’une quelconque recherche sérieuse sur l’évolution du langage étaient minces; évidemment, plus les conditions spécifiques du langage sont variées et intriquées, moins il y a d’espoir d’accéder à une explication raisonnable des origines évolutionnaires de la grammaire universelle. Ces questions font partie de celles qui furent soulevées au symposium de 1974 et à d’autres colloques de cette période, mais furent abandonnées car apparemment insolubles.

Le programme «Principes et paramètres» offrit aussi des perspectives de résolution de ces problèmes. Dans la mesure où ce cadre s’avère valide, l’acquisition est alors une question de configuration de paramètres et, en conséquence, elle est officiellement séparée du format conceptuel restant pour la grammaire: les principes de la grammaire universelle. Il n’y a plus de barrière conceptuelle à l’espoir que la grammaire universelle puisse être réduite à une forme beaucoup plus simple, et que les propriétés de base des systèmes computationnels de langage puissent avoir une explication fondée sur un principe, plutôt que d’être stipulés d’après un format conceptuel pour grammaires, très restrictif et spécifique au langage. Pour en revenir aux trois facteurs de la conception du langage, l’adoption du programme «Principes et paramètres» surmonte une barrière conceptuelle difficile au déplacement de la tâche d’explication du facteur (1) — la dotation génétique — au facteur (3) — les principes d’architecture structurale et d’efficacité computationnelle indépendants de la langue —, apportant de ce fait quelques réponses aux questions fondamentales en biologie du langage, sa nature, son utilisation et peut-être son évolution.

     Une fois levées les barrières conceptuelles imposées par le cadrage du format conceptuel, nous pouvons tenter, de manière plus réaliste, d’affûter la question de ce qui constitue une explication fondée sur un principe pour les propriétés du langage, et nous tourner vers l’une des questions les plus fondamentales de la biologie du langage: dans quelle mesure le langage avoisine-t-il une solution optimale aux conditions auxquelles il doit satisfaire pour être tant soit peu utilisable, compte tenu de l’architecture structurale extralinguistique ? Ces conditions nous ramènent à la caractérisation traditionnelle du langage depuis Aristote comme système qui lie le son et le sens. Dans notre vocabulaire, les expressions générées par une langue doivent satisfaire à deux conditions d’interface: celles qui sont imposées par le système sensorimoteur et celles qui sont imposées par le système conceptuel-intentionnel qui entre en jeu dans la capacité intellectuelle humaine et la variété d’actes de paroles.

     Nous pouvons considérer une explication des propriétés du langage comme fondée sur un principe (principled), dans la mesure où elle peut être réduite aux propriétés des systèmes d’interface et des conditions générales d’efficacité computationnelle et autres. Indépendamment, les systèmes d’interface peuvent être étudiés seuls, y compris l’étude comparative en cours, de manière productive. Et cela est vrai également des principes de computation efficace appliqués au langage par de nombreux chercheurs dans les travaux récents, avec d’importants résultats, et qui pourraient peut-être aussi se prêter à l’étude comparative. Il est donc possible de diverses façons d’à la fois clarifier et aborder quelques-uns des problèmes de base de la biologie du langage.

     Là, il nous faut continuer par une discussion plus technique qu’il n’est possible de le faire ici, mais quelques remarques informelles peuvent au moins aider à dessiner le paysage général.

Un fait élémentaire de la faculté de langage est que c’est un système d’infinité discrète rare dans le monde organique. N’importe quel système de ce type se base sur une opération primitive, qui prend des objets déjà construits, et construit un nouvel objet à partir de ces objets: dans le cas le plus simple, l’ensemble les contenant tous. Appelons cette opération Fusion (Merge). Fusion ou quelque chose d’équivalent est un requis minimum. Si nous disposons de Fusion, nous disposons instantanément d’un système illimité d’expressions structurées hiérarchiquement. L’explication la plus simple du «Grand Saut en Avant» dans l’évolution humaine serait que le cerveau a été reconfiguré, peut-être par quelque mutation mineure, pour donner l’opération Fusion qui pose instantanément une partie centrale de la base de ce qu’on a trouvé à ce moment dramatique de l’évolution humaine: au moins en principe; car la connexion des points est loin d’être un problème trivial. Il y a des spéculations sur l’évolution du langage qui postulent un processus beaucoup plus complexe; d’abord, quelque mutation permettant des expressions à deux unités, produisant peut-être un avantage sélectionneur, en réduisant la charge mémoire des items lexicaux; puis d’autres mutations pour en permettre de plus vastes; et finalement le Grand Saut qui produit la Fusion. Les premières étapes se sont peut-être réellement produites, bien qu’il n’y ait pas d’argument conceptuel ou empirique sérieux de le croire. Une spéculation plus parcimonieuse est qu’elles ne se sont pas produites, et que le Grand Saut fut effectivement instantané, en un seul individu, qui fut immédiatement doté de capacités intellectuelles bien supérieures à celles des autres, transmises à la progéniture, et qui en vint à prédominer. Au mieux, une conjecture raisonnable, comme le sont toutes les spéculations sur de telles questions, mais à peu près la plus simple qu’on puisse imaginer, et non incohérente avec tout ce qui est connu ou présumé de façon plausible. Il est difficile de voir quelle explication de l’évolution humaine n’assumerait pas au moins ceci, sous une forme ou une autre.

     Des questions similaires se posent sur la croissance du langage chez l’individu. On pose généralement en hypothèse qu’il y a une étape «deux mots», une étape «trois mots», etc., avec un Grand Saut en Avant final vers la génération illimitée. On observe ceci dans la performance, mais on observe aussi qu’à une étape précoce l’enfant comprend des expressions beaucoup plus complexes, et que la modification aléatoire d’expressions plus longues — même des changements aussi simples que le placement des mots fonctionnels de manière non cohérente avec la grammaire universelle ou la langue adulte — mène à la confusion et à l’interprétation erronée. Il est possible que la Fusion, illimitée, et quoi que ce soit d’autre qui soit impliqué dans la grammaire universelle, soit présent dès le départ, mais ne se manifeste que de façons limitées, pour des raisons extrinsèques, comme la mémoire, la restriction de l’attention et autres; questions débattues au symposium de 1974, et qu’il est aujourd’hui possible d’étudier beaucoup plus systématiquement et profitablement.

     Le cas le plus restrictif de Fusion s’applique à un objet unique, formant un ensemble singleton. La restriction à ce cas produit la fonction successeur, d’où le reste de la théorie des nombres naturels peut être développé selon des modes familiers. On a là la suggestion d’une réponse possible au problème qui tourmentait Wallace à la fin du XIXesiècle: que, selon ses mots, «le développement gigantesque de la capacité mathématique est entièrement inexpliqué par la théorie de la sélection naturelle et doit être dû à quelque cause totalement distincte», ne serait-ce que parce qu’elle est restée inutilisée. Les nombres naturels résulteraient, c’est une possibilité, d’une simple contrainte sur la faculté de langage, en conséquence non donnée par Dieu, pour reprendre le célèbre aphorisme de Kronecker, bien que, poursuivit-il, le reste soit créé par l’homme. Les spéculations sur l’origine de la capacité mathématique comme abstraction des opérations nous sont familières. Il y a des problèmes évidents, notamment la dissociation avec les lésions et la diversité de localisation, mais la signification de tels phénomènes n’est pas claire pour de nombreuses raisons (incluant la question de la possession vs l’utilisation de la capacité). Il peut y avoir quelque chose de vrai dans ces spéculations, peut-être selon les pistes que nous venons d’indiquer.

Des considérations élémentaires d’efficacité computationnelle imposent d’autres conditions à la solution optimale à la tâche de relier le son et le sens. Il y a à présent une littérature extensive qui explore des problèmes de ce type, et je pense qu’il est juste de dire qu’un progrès considérable a été réalisé dans l’avancée vers une explication fondée sur un principe. Il est même plus clair encore que ces tentatives ont rempli la condition primaire de tout programme de recherche sensé: la stimulation de la recherche, qui a ainsi pu surmonter de vieux problèmes, tout en en mettant de nouveaux en lumière plus rapidement, précédemment inconnus et même à peine formulables, et en enrichissant largement les défis empiriques de l’adéquation descriptive et de l’adéquation explicative auxquels on doit faire face; et, en ouvrant pour la première fois une perspective réaliste, d’avancer de façon significative, au-delà de l’adéquation explicative, vers une explication fondée sur un principe selon les pistes indiquées.

     La quête de l’explication fondée sur un principe est confrontée à des tâches intimidantes. Nous pouvons en formuler les objectifs de façon raisonnablement claire. Nous ne pouvons naturellement pas savoir à l’avance dans quelle mesure ils pourront être atteints, c’est-à-dire dans quelle mesure les états de la faculté de langage sont attribuables à des principes généraux, valant même peut-être pour les organismes en général. À chaque étape vers cet objectif, nous gagnons une meilleure compréhension des propriétés centrales qui sont spécifiques à la faculté de langage, tout en laissant cependant entièrement non résolus des problèmes qui sont soulevés depuis des centaines d’années. Parmi ceux-ci, la question de savoir comment les propriétés dites «mentales» sont reliées à «la structure organique du cerveau», problème loin d’être résolu même pour les insectes, qui comporte des aspects uniques et profondément mystérieux quand il s’agit de la capacité humaine et de ses origines évolutionnaires.

http://www.chomsky.fr