Trois facteurs dans l’architecture du langage *

Noam Chomsky

VOThree Factors in Language Design, Linguistic Inquiry 36(1), 2005, 1-22.

VF : Nouveaux cahiers de linguistique française 27(2006), 1-32.

Traduction : Anne Reboul

Résumé

La perspective biolinguistique considère la faculté de langage comme un « organe du corps », au même titre que les autres systèmes cognitifs. En l’adoptant, nous nous attendons à trouver trois facteurs qui interagissent pour déterminer les langages(-I) obtenus : la dotation génétique (le sujet de la Grammaire Universelle), l’expérience et les principes qui sont indépendants du langage, voire de l’organisme. La recherche s’est naturellement centrée sur les langues-I et sur GU, les problèmes de l’adéquation descriptive et explicative. L’approche des Principes et des Paramètres a rendu possible l’investigation sérieuse du troisième facteur et la tentative de rendre compte des propriétés linguistiques en termes de considérations générales d’efficacité computationelle, éliminant une partie de la technologie considérée comme spécifique au langage et fournissant une explication plus systématique des phénomènes linguistiques.

Mots-clé : minimalisme, explication systématique, Théorie Standard Étendue, Principes et Paramètres, Fusion interne et externe, dérivation par cycle unique, phase.

Il y a 30 ans, en 1974, une rencontre internationale eut lieu au MIT, en coopération avec la Fondation Royaumont à Paris, sur le sujet de la « biolinguistique », un terme suggéré par l’organisateur, Massimo Piatelli-Palmarini, titre d’un livre récent arpentant le domaine et proposant des directions nouvelles par Lyle Jenkins (2002)1. Ce fut seulement l’une parmi de nombreuses autres interactions du même genre dans ces années-là, y compris des séminaires interdisciplinaires et des conférences internationales.

La perspective biolinguistique a commencé à prendre forme plus de 20 ans auparavant dans des discussions parmi quelques étudiants diplômés qui étaient très influencés par les développements en biologie et en mathématiques dans les années qui ont suivi la guerre, ainsi que par les travaux en éthologie qui commençaient seulement à se répandre aux Etats-Unis. L’un d’entre eux était Eric Lenneberg, dont l’étude séminale de 1967, Biological Foundations of Language, demeure un document de base dans ce domaine. De nombreuses questions discutées à la conférence de 1974 et dans les années précédentes restent très actives aujourd’hui.

Une de ces questions, qui réapparut régulièrement durant la conférence comme « une des questions de base à se poser du point de vue biologique », est celle du point jusqu’auquel des principes apparemment linguistiques, dont certains qui étaient récemment apparus, sont uniques à ce système cognitif ou si d’autres « arrangements formels » similaires se retrouvent dans d’autres domaines cognitifs chez les humains ou chez d’autres organismes. Une question encore plus basique du point de vue biologique est jusqu’à quel point on peut donner une explication systématique au langage, que des éléments homologues se retrouvent ou non dans d’autres domaines et organismes. L’effort pour approfondir ces questions et pour y répondre en ce qui concerne le langage a fini par s’appeler le « Programme Minimaliste » dans les dernières années, mais les questions se posent pour n’importe quel système biologique et sont indépendantes de positions théoriques, en linguistique ou ailleurs. Les réponses à ces questions sont fondamentales non seulement pour comprendre la nature et le fonctionnement des organismes et de leurs sous-systèmes, mais aussi pour examiner leur croissance et leur évolution. Pour n’importe quel système biologique, y compris le langage, la seule question générale qui se pose sur le programme est s’il peut être poursuivi de façon fructueuse ou s’il est prématuré.

Dans ces remarques, je vais essayer d’identifier ce qui me semble quelques-uns des thèmes significatifs dans le dernier demi-siècle de recherche sur les problèmes de la biolinguistique et de considérer leur statut actuel. Quelques restrictions préliminaires devraient être évidentes. L’une d’entre elles est que l’image est personnelle ; d’autres feraient sans aucun doute des choix différents. Une deuxième est que certaines choses paraissent plus claires rétrospectivement qu’à l’époque, et qu’il y a donc un peu d’anachronisme dans ce compterendu, mais pas trop je pense. Une troisième est que je ne peux même pas commencer à mentionner les contributions d’un grand nombre de personnes à cette entreprise collective, particulièrement dans la mesure où les domaines liés se sont énormément étendus depuis la conférence de 1974.

La perspective biolinguistique envisage le langage d’une personne comme l’état d’un composant quelconque de l’esprit, en comprenant « esprit » dans le sens des scientifiques du XVIIIe qui ont reconnu qu’après la démolition par Newton du seul concept cohérent de corps, nous pouvons seulement considérer les aspects du monde « appelés mentaux » comme le résultat « d’une structure organique comme celle du cerveau » (Joseph Priestley). Parmi le grand nombre de phénomènes que l’on pourrait considérer comme liés d’une façon ou d’une autre au langage, l’approche biolinguistique centre son attention sur un composant de la biologie humaine qui entre dans l’usage et l’acquisition du langage, quelle que soit la façon dont on interprète le terme « langage ». Appelons-le la « faculté de langage », en adaptant un terme traditionnel à un nouvel usage. Ce composant est plus ou moins sur un pied d’égalité avec les systèmes visuels des mammifères, la navigation chez les insectes et d’autres choses du même type. Dans la plupart de ces cas, les meilleures théories explicatives disponibles attribuent à l’organisme des systèmes computationnels et ce qui est appelé « suivre la règle » dans l’usage informel — par exemple, quand un texte récent sur la vision présente le soi-disant principe de rigidité comme il a été formulé il y a 50 ans : « si possible, et si d’autres règles le permettent, interprétez les mouvements d’images comme des projections de mouvements rigides en trois dimensions » (Hoffman 1998, 169). Dans ce cas, des travaux ultérieurs ont fourni une idée substantielle quant aux calculs mentaux qui semblent impliqués quand le système visuel suit ces règles, mais même pour des organismes très simples, ce n’est typiquement pas une tâche facile, et lier les calculs mentaux à l’analyse au niveau cellulaire est actuellement un but lointain.

Si l’on adopte cette conception, une langue est un état de la faculté de langage, une langue-I selon l’usage technique.

La décision d’étudier le langage comme une partie du monde dans ce sens a été à l’époque et est toujours regardée comme discutable. Un examen plus attentif montrera, à mon avis, que les arguments qui ont été avancés contre la légitimité de cette approche ont peu de poids (une thèse faible) et que ses principes de base sont tacitement adoptés même par ceux qui les rejettent avec force, et, de fait, doivent l’être, y compris par souci de cohérence (une thèse beaucoup plus forte). Je n’entrerai pas dans ce chapitre intéressant de l’histoire intellectuelle contemporaine ici, mais je supposerai simplement que les aspects cruciaux du langage peuvent être étudiés comme une partie du monde naturel, en adoptant l’approche biolinguistique qui a pris forme il y a un demi-siècle et qui a été suivie intensément depuis, suivant différentes voies.

La faculté de langage est un composant de ce que le co-fondateur de la théorie évolutionniste moderne, Alfred Russell Wallace, appelait « la nature morale et intellectuelle de l’homme » : les capacités humaines d’imagination créative, de langage, et de symbolisation en général, les mathématiques, l’interprétation et le recensement des phénomènes naturels, les pratiques sociales complexes etc., un ensemble de capacités qui semble s’être cristallisé de façon relativement récente, peut-être il y a un peu plus de 50 000 ans chez un petit groupe reproducteur dont nous sommes tous les descendants — un ensemble qui sépare les humains de façon tranchée des autres animaux, y compris les autres hominidés, si on en juge par les traces qu’ils ont laissé dans l’archéologie. La nature de la « capacité humaine », comme l’appellent maintenant certains chercheurs, reste un mystère considérable. Ce fut un élément d’un désaccord célèbre entre les deux fondateurs de la théorie de l’évolution, Wallace soutenant, contre Darwin, que l’évolution de ces facultés ne peut pas s’expliquer dans les seuls termes de la variation et de la sélection naturelle, mais requiert « une autre influence, loi, ou instance d’une sorte ou d’une autre », un principe quelconque de la nature du même type que la gravitation, la cohésion, et d’autres forces sans lesquelles l’univers matériel ne pourrait pas exister. Bien que ces questions soient posées différemment aujourd’hui à l’intérieur des sciences biologiques fondamentales, elles n’ont pas disparu (cf. Wallace 1889, chap. 15 ; Marshack 1985).

On suppose souvent que quelle que soit la capacité intellectuelle humaine, la faculté de langage lui est essentielle. De nombreux scientifiques sont d’accord avec le paléoanthropologue Ian Tattersall, qui écrit qu’il est « presque sûr que c’est l’invention du langage » qui a été l’événement « soudain et émergent » qui fut le « stimulus déclencheur » pour l’apparition des capacités humaines dans l’évolution — le « grand bond en avant » comme l’appelle Jared Diamond, le résultat d’un événement génétique quelconque qui a recablé le cerveau, permettant l’origine du langage moderne avec sa riche syntaxe qui fournit une multitude de modes d’expression de la pensée, un pré-requis pour le développement social et pour les changements brusques de comportement que révèlent les données archéologiques, et que l’on considère généralement comme le déclencheur du départ rapide d’Afrique que des hommes par ailleurs modernes avaient occupée pendant des centaines de milliers d’années (Tattersall 1998, 24-25 ; cf. aussi Wells 2002). Tattersall considère le langage comme « virtuellement synonyme de pensée symbolique ». Développant ce point, un des initiateurs du symposium de Royaumont-MIT, FrançoisJacob, a observé que « le rôle du langage comme un système de communication entre individus serait venu de façon secondaire, comme le croient un grand nombre de linguistes » (1982, 59), référant peut-être à des discussions durant le symposium, où la question était souvent revenue, y compris parmi les biologistes. Dans la conférence de 1974, un des compagnons prix Nobel, Salvador Luria, a été l’avocat le plus passionné du point de vue selon lequel les besoins communicatifs n’auraient pas produit « une pression sélective assez forte pour produire un système tel que le langage », avec sa relation cruciale au « développement de la pensée abstraite et productive » (Luria 1974, 195). « La qualité du langage qui le rend unique ne semble pas tant être son rôle dans la communication de directives pour l’action », ou d’autres traits courants de la communication animale, continue Jacob, mais plutôt « son rôle dans la symbolisation, dans l’évocation d’images cognitives », dans son « modelage » de notre notion de la réalité et dans la production de notre capacité pour la pensée et la planification, à travers sa propriété unique de permettre des « combinaisons infinies de symboles » et donc la « création mentale de mondes possibles », idées qui viennent de la révolution cognitive du XVIIe siècle (1982, 59). Jacob insiste aussi sur la compréhension commune selon laquelle les réponses aux questions sur l’évolution « dans la plupart des cas… peuvent difficilement être davantage que des conjectures plus ou moins raisonnables » (1982, 31).

Nous pouvons y ajouter une autre intuition de la philosophie du XVIIe et du XVIIIe siècles : que même les concepts les plus élémentaires du langage humain ne sont pas liés à des objets indépendants de l’esprit par le moyen d’une relation quelconque du type de la référence entre symboles et traits physiques identifiables du monde extérieur, comme il semble que ce soit universel dans les systèmes de communication animale. Plutôt, ce sont des créations de « pouvoirs cognoscitifs » qui nous fournissent de riches moyens pour référer au monde extérieur selon certaines perspectives, mais qui sont individués par des opérations mentales qui ne peuvent se réduire à une « nature particulière appartenant » à la chose dont nous parlons, comme Hume le disait, résumant un siècle de recherche. Ce sont des observations critiques sur la sémantique élémentaire du langage naturel, suggérant que ses éléments les plus primitifs sont liés au monde indépendant de l’esprit de la même façon que les éléments internes de la phonologie le sont entre eux, non par une relation du type de la référence mais comme une partie d’une espèce considérablement plus complexe de conception et d’action. C’est pour des raisons de ce type, bien qu’elles n’aient pas été perçues clairement à l’époque, que les premiers travaux des années cinquante ont adopté une sorte de « théorie de la signification comme usage », à peu près dans le sens de John Austin et du dernier Wittgenstein : le langage était conçu comme un instrument mis au service de diverses intentions humaines, générant des expressions incluant les arrangements des éléments fondamentaux du langage, sans division grammaticalité-agrammaticalité, chacune étant à la base un ensemble d’instructions d’usage (cf. Chomsky 1955, ci-après SLTL) 2.

Si tout ceci est en général sur la bonne voie, alors deux questions de base au moins surgissent lorsqu’on considère les origines de la faculté de langage et son rôle dans la soudaine émergence de la capacité intellectuelle humaine : premièrement, la sémantique centrale des éléments minimaux porteurs de signification, y compris les plus simples d’entre eux ; et deuxièmement, les principes qui permettent la combinaison infinie de symboles, hiérarchiquement organisée, qui produit les moyens pour l’usage du langage dans ses nombreux aspects. Dans cette mesure, la théorie centrale du langage — la Grammaire Universelle (GU) — doit fournir, d’abord, un inventaire structuré des items lexicaux possibles qui sont liés à ou peut-être identiques aux concepts qui sont les éléments des « pouvoirs cognoscitifs », parfois maintenant regardés comme un « langage de la pensée » selon la voie développée par Jerry Fodor (1975) ; et deuxièmement, des moyens pour construire à partir de ces éléments lexicaux l’infinie variété des structures internes qui entrent dans la pensée, l’interprétation, la planification et les autres actes mentaux humains, et qui sont parfois mis en usage dans l’action, y compris l’externalisation qui est un processus secondaire si les spéculations qui viennent d’être présentées se révèlent correctes. Sur le premier problème, l’appareil conceptuel-lexical apparemment spécifique à l’espèce humaine, il y a des travaux importants sur les notions relationnelles liées à des structures syntaxiques et sur les objets en partie internes à l’esprit qui semblent jouer un rôle critique (événements, propositions, etc.)3. Mais il n’y a pas grand’chose d’autre que des remarques descriptives sur l’appareil référentiel central qui est utilisé pour parler du monde. Le second problème a été central dans la recherche linguistique pendant un demi-siècle, avec une longue histoire précédente en des termes différents.

L’approche biolinguistique a adopté depuis le départ le point de vue que C.R. Gallistel (1997) appelle « la norme à l’heure actuelle en neurosciences » (p. 86), la « vision modulaire de l’apprentissage » : la conclusion que chez tous les animaux, l’apprentissage se fonde sur des mécanismes spécialisés, « des instincts pour apprendre » (p. 82), de façons spécifiques. Nous pouvons penser à ces mécanismes comme « des organes dans le cerveau » (p. 86), atteignant des états dans lesquels ils accomplissent des types spécifiques de calcul. Hors « d’environnements extrêmement hostiles » (p. 88), ils changent d’états sous l’effet déclencheur et modeleur de facteurs externes, de façon plus ou moins réflexive, et en accord avec une architecture (design) interne. C’est le « processus de l’apprentissage » (Gallistel 1997, 1999), bien que « croissance » puisse être un terme plus approprié, évitant les connotations trompeuses du terme « apprentissage ». La vision modulaire de l’apprentissage n’implique bien évidemment pas que les éléments composant le module lui soient uniques : à un certain niveau, tout le monde suppose qu’ils ne le sont pas — au niveau cellulaire par exemple — et la question du niveau d’organisation auquel les propriétés uniques émergent reste une question basique d’un point de vue biologique, comme elle l’était déjà à la conférence de 1974.

Les observations de Gallistel rappellent le concept de « canalisation » introduit en biologie évolutionniste et développementale par C.H. Waddington il y a plus de 60 ans, renvoyant à des processus « ajustés de telle façon qu’ils produisent un résultat final défini indépendamment de variations mineures dans les conditions pendant le processus de la réaction », assurant de ce fait « la production du type normal, c’est-à-dire optimal, face aux hasards inévitables de l’existence » (Waddington 1942). Ceci semble une description juste de la croissance du langage chez les individus. Un problème central de l’étude de la faculté de langage est de découvrir les mécanismes qui limitent les résultats à des « types optimaux ».

On a reconnu depuis les origines de la biologie moderne que de telles contraintes n’entrent pas seulement dans la croissance des organismes mais aussi dans leur évolution, avec des racines dans la tradition précédente que Stuart Kauffman appelle la « morphologie rationnelle » (1993, 3-5)4. Dans un article classique contemporain, John Maynard Smith et ses collègues font remonter la reformulation postdarwinienne à Thomas Huxley, qui était frappé par le fait qu’il semble y avoir des « lignes de modification pré-déterminées » qui conduisent la sélection naturelle à « produire des variétés de nombre et de type limités » pour chaque espèce (Maynard Smith et al. 1985 : 266)5. Ils passent en revue une variété de contraintes dans le monde organique et décrivent comment « des limitations sur la variabilité phénotypique » sont « causées par la structure, le caractère, la composition, ou les dynamiques du système développemental », soulignant aussi le fait que de telles « contraintes développementales … jouent indiscutablement un rôle dans l’évolution », bien qu’il n’y ait pour l’instant « que peu d’accord sur leur importance comparée à celle de la sélection, de la dérive et d’autres facteurs du même type dans la mise en forme de l’histoire évolutionniste » (p. 265). À peu près en même temps, Jacob écrit que « les règles contrôlant le développement de l’embryon », presque entièrement inconnues, interagissent avec d’autres contraintes imposées par le plan général du corps, les propriétés mécaniques des matériaux de construction et d’autres facteurs dans la « restriction des changements possibles de structure et de fonction » dans le développement évolutionniste (1982, 21), fournissant des « contraintes architecturales » qui « limitent la portée adaptative et canalisent les patrons évolutionnistes » (Erwin 2003, 1683). Les plus connus de ceux qui ont consacré une grande partie de leur travail à ces sujets sont D’Arcy Thompson et Alan Turing, qui adoptaient une vision très forte sur le rôle central de tels facteurs en biologie. Dans les dernières années, de telles considérations ont été avancées pour un grand nombre de problèmes de développement et d’évolution, depuis la division cellulaire chez les bactéries jusqu’à l’optimisation de la structure et de la fonction des réseaux corticaux, allant même jusqu’à proposer que les organismes ont « le meilleur de tous les cerveaux possibles », comme l’a affirmé le neuroscientifique computationnel Christopher Cherniak (1995, 522)6. Les problèmes sont à la frontière de la recherche, mais leur importance n’est pas controversée.

En supposant que la faculté de langage a les propriétés générales d’autres systèmes biologiques, nous devrions donc chercher trois facteurs qui entrent dans la croissance du langage chez l’individu :

  1. l’héritage génétique, apparemment presque uniforme pour l’espèce, qui interprète une partie de l’environnement comme expérience linguistique, une tâche non-triviale que l’enfant accomplit de façon réflexive, et qui détermine le décours général du développement de la faculté de langage. Parmi les éléments génétiques, certains peuvent imposer des limitations computationnelles qui disparaissent de façon régulière par une maturation génétiquement déterminée d’un point de vue temporel. Kenneth Wexler et ses collègues ont produit des données convaincantes de leur existence dans la croissance du langage, fournissant ainsi une preuve empirique de ce que Wexler (2002) appelle le « rêve de Lenneberg » ;

  2. l’expérience qui conduit à la variation, à l’intérieur d’une gamme relativement étroite, comme dans le cas d’autres sous-systèmes de la capacité humaine et de l’organisme en général ;

  3. des principes qui ne sont pas spécifiques à la faculté de langage.

Le troisième facteur ressortit à plusieurs sous-types : (a) des principes d’analyse de données qui peuvent être utilisés en acquisition du langage et dans d’autres domaines ; (b) des principes d’architecture structurale et des contraintes développementales qui entrent dans la canalisation, la forme organique et l’action sur une grande palette, y compris des principes de calcul efficaces, dont on s’attendrait à ce qu’ils aient une grande importance dans des systèmes computationnels comme le langage. C’est la seconde de ces sous-catégories qui devraient être d’une importance particulière pour déterminer la nature des langues atteignables.

Ceux qui ont exploré ces questions voici 50 ans ont supposé que l’étape primitive de l’analyse de l’expérience linguistique serait l’analyse phonologique basée sur les traits, selon les indications données par Roman Jakobson et ses collègues (cf. Jakobson, Fant & Halle 1953). Nous avons aussi essayé de montrer que les propriétés prosodiques de base reflètent la structure syntaxique qui est déterminée par d’autres principes, y compris de façon cruciale par un principe de calcul cyclique qui s’est étendu bien au-delà dans les années suivantes (cf. Chomsky, Halle & Lukoff 1956). Les principes primitifs doivent aussi fournir ce que George Miller appelle « découpage » (chunking), l’identification des mots phonologiques dans la séquence d’unités phonétiques. Dans SLTL (p. 165), j’ai adopté la proposition de Zellig Harris (1955), dans un cadre différent, pour identifier les morphèmes dans les termes des probabilités transactionnelles, bien que les morphèmes n’aient pas la propriété de perles-sur-un-fil. Le problème de base, comme le note SLTL, est de montrer que de telles méthodes statistiques de découpage peuvent fonctionner avec un corpus réaliste. Cet espoir s’est révélé illusoire, comme l’ont montré récemment Thomas Gambell & Charles Yang (2003), qui vont jusqu’à pointer le fait que les méthodes donnent cependant des résultats raisonnables si elles sont appliquées à du matériel qui est pré-analysé en termes du principe apparemment spécifique au langage selon lequel chaque mot a un accent unique. Si c’est le cas, alors les premières étapes d’élaboration de l’expérience linguistique peuvent être analysées en termes de principes généraux d’analyse de données appliqués à des représentations pré-analysées en termes des principes spécifiques à la faculté linguistique, un type d’interaction auquel on s’attend entre les trois facteurs.

Dans SLTL, on supposait que l’étape suivante serait l’assignation des items découpés (chunked) à des catégories syntaxiques, de nouveau selon des principes généraux d’analyse des données. Une proposition qui avait une saveur de théorie de l’information a été testée papier-crayon à cette époque d’avant l’ordinateur, avec des résultats encourageants, mais le sujet n’a pas été poursuivi, à ma connaissance. Certainement des propriétés que l’on appelle « sémantiques » sont aussi impliquées, mais celles-là soulèvent des problèmes non triviaux au niveau le plus élémentaire, comme indiqué ci-dessus. L’hypothèse de SLTL était que les niveaux supérieurs de description linguistique, y compris les morphèmes, sont déterminés par un format général pour des systèmes de règles fourni par GU, une sélection parmi ceux-ci étant effectuée par une procédure computationnelle qui cherche l’instanciation optimale, une notion définie en termes des principes de généralisation significative de GU. Des propositions spécifiques ont été faites alors et dans les années suivantes. En principe, elles fournissaient une réponse possible à ce qu’on en est venu à appeler le « problème logique de l’acquisition du langage », mais elles impliquaient des calculs astronomiques et ne traitaient donc pas ces problèmes de façon sérieuse.

Les soucis principaux dans ces années-là étaient bien différents et le sont restés. Ce peut être difficile à croire aujourd’hui, mais on supposait généralement il y a 50 ans que la technologie de base de la description linguistique était disponible et que la variabilité linguistique était si libre que rien d’une quelconque généralité ne pourrait être découvert. Dès que des efforts ont été faits pour fournir des analyses un peu explicites des propriétés des langues, cependant, il est devenu évident que peu de choses étaient connues, dans quelque domaine que ce soit. Chaque proposition spécifique a fourni une richesse de preuve du contraire, requérant des systèmes de règles variés et complexes pour arriver même à une approximation très limitée d’adéquation descriptive. Ce fut hautement stimulant pour la recherche sur le langage, mais cela a aussi laissé une perplexité sérieuse dans la mesure où les considérations les plus élémentaires ont conduit à la conclusion que GU doit imposer des contraintes étroites sur les résultats possibles — parfois appelées problèmes de « pauvreté du stimulus » dans l’étude du langage, bien que le terme soit trompeur parce que c’est juste un cas particulier des questions de base qui se posent universellement pour la croissance organique.

Un certain nombre de voies ont été suivies pour résoudre la tension. La plus performante s’est révélé être les efforts pour formuler des principes généraux, attribués à GU — c’est-à-dire à l’héritage génétique — laissant un reste quelque peu réduit de phénomènes qui résulteraient, d’une façon ou d’une autre, de l’expérience. Des propositions précoces étaient le principe A-sur-A, des conditions sur l’extraction-wh de syntagmes wh (relatives et interrogatives), des simplifications des marqueurs-T pour baser la récursion (suivant des observations de Charles Fillmore) et la cyclicité (un problème complexe, comme l’a montré un important article de Robert Freidin (1978), intelligemment passé en revue dans un papier actuel de Howard Lasnik (2006) qui montre que bien des questions centrales restent sans réponse), suivies plus tard de l’étude classique de la taxinomie des îlots par John Robert Ross (1967), qui demeure un riche réservoir d’idées et d’observation à explorer, puis des tentatives pour réduire les îlots à des propriétés comme la localité et la préservation des structures, etc. Ces approches ont connu un certain succès, mais les tensions de base restaient sans solution au moment de la conférence de 1974.

En quelques années, le paysage a changé considérablement. C’est dû en partie au fait que de grands progrès ont été faits dans des domaines qui avaient jusque-là été seulement explorés de façon limitée, y compris en sémantique vériconditionnelle et modèle-théorique et sur les structures prosodiques. Ceci était partiellement le résultat d’un vaste ensemble de matériaux nouveaux tirés d’études d’une profondeur plus grande que précédemment et sur une variété bien plus étendue de langages, dont une grande partie est due au travail de Richard Kayne et à ses conférences en Europe qui ont inspiré une investigation poussée des langues germaniques et romanes, puis d’autres langues, conduisant aussi à de nombreuses idées fructueuses sur les principes de GU. Il y a à peu près 25 ans, la plus grande partie de ce travail se cristallisa en une approche radicalement différente de GU, le cadre théorique des Principes et des Paramètres (P&P), qui a offert pour la première fois l’espoir de dépasser la tension entre l’adéquation descriptive et l’adéquation explicative. Cette approche cherche à éliminer entièrement le cadre du format et, avec lui, la conception traditionnelle des règles et des constructions qui avait été largement récupérée par la grammaire générative. Tout ceci est familier, tout comme le fait que le nouveau cadre des P&P a conduit à l’explosion de recherches dans des langues de la typologie la plus variée, livrant de nouveaux problèmes qui n’avaient pas été envisagés jusque-là, parfois des réponses, et revigorant les disciplines voisines concernées par l’acquisition et le traitement, leurs questions centrales étant reformulées en termes d’ajustement de paramètres dans un système fixe de principes de GU avec enfin des contours visibles. Des voies alternatives, liées de façon variée, conduisaient largement dans la même direction, y compris le travail très éclairant de Michael Brody (1995, 2003). Personne de familier du domaine n’a une quelconque illusion aujourd’hui quant au fait que les horizons d’investigation sont même visibles, ou à portée de main, dans un domaine quelconque.

L’abandon du cadre du format a aussi eu un impact significatif sur le programme biolinguistique. Si, comme on l’a supposé, l’acquisition est une question de sélection parmi des options rendues disponibles par le format fourni par GU, alors le format doit être riche et hautement articulé, permettant relativement peu d’options ; autrement, l’adéquation explicative est hors de portée. La meilleure théorie du langage doit être une théorie extrêmement peu satisfaisante sous d’autres points de vue, avec un faisceau complexe de conditions spécifiques au langage humain, restreignant les instanciations possibles. Les seules théories plausibles doivent imposer des contraintes intriquées sur les relations permises entre son et signification, toutes apparemment spécifiques à la faculté de langage. La question biologique fondamentale d’une explication systématique ne pouvait pratiquement pas être abordée et, de façon correspondante, les débouchés d’une investigation sérieuse de l’évolution du langage étaient obscurs ; de façon évidente, plus les conditions spécifiques au langage sont variées et intriquées , moins on peut espérer une analyse raisonnable des origines évolutionnistes de GU. Ces questions font partie de celles qui ont été posées au symposium de 1974 et à d’autres rencontres de cette époque, mais elles avaient été laissées de côté comme des problèmes apparemment insolubles.

Le cadre P&P offrait aussi des perspectives pour la résolution de ces tensions. Dans la mesure où il se révèle valide, l’acquisition est une question d’ajustement de paramètres et est donc entièrement divorcé du format restant de la grammaire : les principes de GU. Il n’y a plus de barrière conceptuelle à l’espoir que GU puisse être réduite à une forme beaucoup plus simple et que les propriétés de base des systèmes computationnels du langage puissent avoir une explication systématique plutôt que d’être stipulées dans les termes d’un format spécifique au langage extrêmement restrictif pour les grammaires. Dans un cadre P&P, ce qui avait été précédemment la pire théorie — n’importe quoi est possible — pourrait être au moins du domaine concevable, puisqu’elle n’est plus immédiatement réfutée par le fait qu’elle rend l’acquisition impossible. Pour en revenir aux trois facteurs de l’architecture du langage, l’adoption d’un cadre P&P dépasse une barrière conceptuelle difficile pour déplacer le poids de l’explication du premier facteur, l’héritage génétique, au troisième facteur, des principes indépendants de traitement des données, d’architecture structurelle et d’efficacité computationnelle, fournissant de ce fait des réponses à la question fondamentale de la biologie du langage, de sa nature et de son usage, et peut-être même de son évolution.

Comme l’a remarqué Luigi Rizzi (communication personnelle), dont je paraphrase les commentaires ici, l’abandon de la vision basée sur la construction de travaux antérieurs (et traditionnels) a d’autres conséquences encore pour le programme biolinguistique. Dans le cadre antérieur, non seulement les règles mais aussi les principes de GU étaient exprimés en termes de constructions grammaticales (îlots, sujet-spécifié et d’autres contraintes sur les opérations, l’hypothèse de préservation des structures proposée par Emonds, les filtres, etc.), toutes spécifiques de façon inhérente au langage, sans la moindre contrepartie, même lointaine, dans d’autres systèmes biologiques. Dans le cadre P&P, les ingrédients computationnels de base sont considérablement plus abstraits (localité, recherche minimale, récursion basique, etc.) et il devient raisonnable de chercher des explications systématiques dans des termes qui peuvent s’appliquer bien audelà du langage, aussi bien qu’en termes de propriétés liées dans d’autres systèmes. Comme on l’a noté, le troisième facteur subsume deux sortes de principe : (a) traitement des données, et (b) contraintes développementales architecturales/computationnelles.

Considérons la première catégorie. Dans le cadre général P&P, l’acquisition du langage est interprétée en termes d’ajustement de paramètres ; une théorie de l’acquisition chercherait à fixer en plus le mécanisme utilisé pour déterminer la valeur des paramètres. Ceci requiert une compréhension d’un ordre ou d’un autre de ce que sont les paramètres, de leur organisation, peut-être dans une structure hiérarchique où chaque choix d’ajustement de valeur limite les choix suivants. L’approche la plus ambitieuse de cette sorte que je connaisse est celle de Mark Baker (2001). Une approche quelque peu différente, également dans le cadre P&P, a été suggérée par Charles Yang (2002). Selon des suggestions de Thomas Roeper, Yang propose que GU fournit au nouveau-né un faisceau complet de langages possibles, avec évaluation de tous les paramètres, et que l’expérience à venir change la distribution de probabilité sur les langages selon une fonction d’apprentissage qui pourrait être très générale. À chaque étape, tous les langages sont en principe accessibles, mais les probabilités sont suffisamment hautes pour être utilisées seulement pour certains. Il fournit des données expérimentales intéressantes pour défendre cette approche, qui amène les propositions antérieures et précoces sur des principes généraux de traitement des données à un nouveau niveau de sophistication. Considérons maintenant les principes d’architecture structurale et d’efficacité computationnelle indépendants du langage, la souscatégorie du troisième facteur dans la conception de n’importe quel système biologique dont on pourrait s’attendre à ce qu’il soit particulièrement informatif sur sa nature. Une fois détruits les obstacles dressés par le cadre du format, nous n’avons plus besoin de supposer que les moyens de générer des expressions structurées soient hautement articulés et spécifiques au langage. Nous pouvons sérieusement supposer qu’ils soient réductibles à des principes indépendants du langage, qu’il y ait ou qu’il n’y ait pas d’éléments homologues dans d’autres domaines ou organismes. Nous pouvons, en bref, essayer d’avancer sur la question de ce qui constitue une explication systématique des propriétés du langage et nous tourner vers une des questions les plus fondamentales de la biologie du langage : jusqu’à quel point le langage constitue-t-il une solution optimale aux conditions qu’il doit satisfaire pour être simplement utilisable, étant donné l’architecture structurale extra-linguistique ? Ces conditions nous ramènent à la caractérisation traditionnelle du langage, au moins depuis Aristote, comme un système qui lie des sons et des significations. Dans notre terminologie, les expressions générées par un langage doivent satisfaire deux conditions d’interface : celles qu’impose le système sensori-moteur SM et celles qu’impose le système conceptuelintentionnel C-I qui entre dans la capacité intellectuelle humaine et dans la variété des actes de langage.

Laissons de côté la possibilité que le lien avec le son soit secondaire, pour les raisons mentionnées et à la lumière des récentes découvertes sur l’indépendance modale du langage. On peut considérer qu’une explication des propriétés du langage est systématique dans la mesure où elle peut être réduite aux propriétés des systèmes d’interface et à des considérations générales d’efficacité computationnelle, etc. Inutile de dire que ces conditions « externes » sont seulement partiellement comprises : nous devons découvrir les conditions qui posent le problème dans le processus même de le résoudre. La tâche de recherche est interactive : clarifier la nature des interfaces et les principes computationnels optimaux par la recherche sur la façon dont le langage satisfait partiellement les conditions qu’ils imposent, une propriété déjà familière de l’enquête rationnelle. Indépendamment, les systèmes d’interface peuvent être étudiés en eux-mêmes, en incluant des études comparatives qui ont été menées et le sont encore de façon productive. Et la même chose vaut des principes de calcul efficaces, appliqués au langage dans des travaux récents par de nombreux chercheurs avec des résultats importants (cf., e.g., Collins 1997, Epstein 1999, Epstein et al. 1998, Frampton & Gutmann 1999). De nombreuses façons, donc, il est possible tout à la fois de clarifier et d’approcher certains des problèmes de base dans la biologie du langage.

Il faut peut-être rappeler que l’intuition selon laquelle le langage est « bien conçu » relativement aux conditions d’interface a été une heuristique productive pendant longtemps. La recherche d’une notion raisonnable quelconque de « simplicité de la grammaire » remonte aux premières explorations de la grammaire générative à la fin des années 40. Il s’est aussi révélé très utile au cours des ans de se demander si la redondance apparente des principes est réelle ou indique une erreur d’analyse. Un exemple bien connu est les formes passives de constructions exceptionnelles de marques casuelles, qui semblent tout à la fois être générées par la montée et par la transformation passive. L’insatisfaction engendrée par des conditions coïncidentes a conduit à la réalisation que les transformations n’existent pas : plutôt, il y a simplement une règle générale de mouvement dont on peut voir maintenant qu’elle est une nécessité conceptuelle virtuelle. Des travaux plus récents suggèrent que des conceptions apparemment spécifiques à des langages comme le filtre du cas de Jean-Roger Vergnaud et ses descendants pourraient aussi être réductibles à une nécessité conceptuelle virtuelle, dans ce cas, l’interprétabilité des constructions à l’interface, des sujets détaillés et élaborés récemment par Freidin & Vergnaud (2001). Dans l’ensemble, l’intuition directrice selon laquelle la redondance dans la structure computationnelle indique une erreur s’est montrée productive et s’est souvent vérifiée, suggérant que quelque chose de plus profond est impliqué, un sujet ouvert à des investigations plus directes, maintenant que les barrières sont levées dans le cadre P&P.

Pour aller plus loin, de façon concrète, considérons la Théorie Standard Etendue (TSE), maintenant souvent appelée le « modèle-Y », qui a été modifiée et améliorée de façon extensive lorsqu’elle a été reconstruite dans le cadre P&P — bien que je doive peut-être rappeler que les questions minimalistes que je vais maintenant aborder se posent dans n’importe quelle orientation théorique. Au début des années 90, j’ai publié avec Howard Lasnik une esquisse de notre compréhension la meilleure de GU dans ces termes (Chomsky & Lasnik 1993). À partir de cela, posons-nous la question du point jusqu’auquel ses hypothèses peuvent être révisées ou éliminées au profit de conditions d’interface et de principes généraux.

Le modèle TSE/Y postule trois niveaux linguistiques internes qui s’ajoutent aux niveaux d’interface : la structure-D, la structure-S et LF. Un niveau linguistique est postulé pour accueillir des opérations spécifiques. Ainsi, la structure-D est le lieu de l’insertion lexicale et de la projection vers les constructions X-barre ; la structure-S est le point de transfert du calcul vers l’interface phonique et de la transition entre opérations visibles et invisibles ; LF est la sortie des opérations visibles et invisibles et l’entrée de la projection vers l’interface sémantique. Trois niveaux internes nécessitent cinq opérations, chacune supposée cyclique : les opérations qui forment les structures-D par les opérations cycliques de la théorie X-barre depuis des items sélectionnés du lexique ; le cycle syntaxique visible de la Structure-D à la Structure-S, le cycle phonologique/morphologique projetant la structure-S sur l’interface phonique (sound interface), le cycle syntaxique invisible projetant la structure-S sur LF et les opérations sémantiques formelles projetant LF de façon compositionnelle sur l’interface sémantique. La similarité des cycles visibles et invisibles a été reconnue comme problématique dès que le cadre a été développé il y a 35 ans, mais le problème est en fait beaucoup plus large : il y a cinq cycles opérant de façon plutôt similaire. Une question cruciale est donc de savoir si les niveaux internes, lorsqu’ils ne sont pas imposés par des conditions d’interface, peuvent être éliminés et les cinq cycles réduit à un unique cycle. Si c’est possible, ce serait une avancée substantielle, avec de nombreuses conséquences.

Une propriété naturelle du calcul efficace, avec une prétention à la généralité extra-linguistique, est que les opérations formant des expressions complexes ne devraient pas consister en quoi que ce soit de plus qu’un réarrangement des objets auxquels elles s’appliquent, sans les modifier de façon interne par suppression ou par insertion de nouveaux éléments. Si c’est tenable, ceci réduit fortement le poids de calcul : ce qui a été construit une fois peut être « oublié » dans les calculs ultérieurs, dans la mesure où on n’en aura plus besoin. C’est une des intuitions de base derrière la notion de calculs cycliques. Le modèle TSE/Y et d’autres approches violent largement cette condition, en utilisant des niveaux-barre, des traces, des indices et d’autres mécanismes qui tout à la fois modifient les objets donnés et ajoutent de nouveaux éléments. Une seconde question, dès lors, est si toute cette technologie est éliminable et quels sont les faits empiriques susceptibles d’une explication systématique en accord avec la condition de « non-altération» (« no-tampering » condition) du calcul efficace.

D’autres questions se posent quant à la variété des opérations — structure syntagmatique, transformations, reconstruction, etc. ; sur l’appel crucial à des notions comme le gouvernement qui ne semble pas avoir de motivation systématique ; et sur de nombreux principes qui sont même difficiles à formuler sauf en termes spécifiques à la faculté de langage. La question générale est : jusqu’où pouvons-nous progresser pour montrer que toute la technologie spécifique au langage est réductible à une explication systématique, isolant ainsi les propriétés centrales qui sont essentielles au langage, un des problèmes de base de la biolinguistique ?

Un fait élémentaire sur la faculté de langage est que c’est un système d’infinité discrète. N’importe quel système de ce type est basé sur une opération primitive qui prend n objets déjà construits et qui construit sur cette base un nouvel objet : dans le cas le plus simple, l’ensemble de ces n objets. Appelons cette opération Fusion (Merge). Soit Fusion soit un quelconque équivalent est une nécessité minimale. Une fois que Fusion est disponible, nous avons immédiatement un système illimité d’expressions hiérarchiquement structurées. L’analyse la plus simple du « Grand Bond en avant » dans l’évolution des humains serait que le cerveau ait été reconfiguré peut-être par une mutation limitée, pour produire l’opération Fusion, posant ainsi une partie centrale de la base de ce que l’on trouve à ce moment « dramatique » de l’évolution humaine, au moins en principe ; lier les points n’est pas un problème trivial. Il y a des spéculations sur l’évolution du langage qui postulent un processus beaucoup plus complexe : d’abord une mutation quelconque qui permet des expressions de deux unités (fournissant un avantage sélectif pour résoudre les limites mémorielles sur l’explosion lexicale), ensuite des mutations permettant des expressions plus grandes, et finalement le Grand Bond qui livre Fusion. Peut-être les premières étapes se sont-elles vraiment produites, mais une analyse plus parcimonieuse est qu’elles ne se sont pas produites et que le Grand Bond a effectivement été instantané, dans un individu unique, qui a accédé immédiatement à des capacités intellectuelles bien supérieures à celles des autres, transmises à ses descendants et qui en sont venues à prédominer, peut-être en liaison comme un processus secondaire avec le système SM pour l’externalisation et l’interaction, y compris le cas spécial qu’est la communication. C’est au mieux une supposition raisonnable, comme le sont toutes les spéculations à ce sujet, mais c’est la plus simple imaginable et elle n’est pas inconsistante avec ce que l’on sait ou ce que l’on peut supposer de façon plausible. De fait, il est difficile de voir quelle analyse de l’évolution humaine ne supposerait au moins cela, sous une forme ou une autre 7.

Des questions similaires se posent sur la croissance du langage chez l’individu. On suppose communément qu’il y a une étape à deux mots, une étape à trois mots, etc., avec un Grand Bond en avant ultime qui libère la génération. C’est ce qu’on observe en performance, mais on observe aussi qu’à l’étape précoce, l’enfant comprend des expressions beaucoup plus complexes et que la modification au hasard des plus longues — même des changements aussi simples que la position des mots fonctionnels d’une façon inconsistante avec GU ou avec lelangage adulte — conduit à des confusions et à des malentendus. Il se pourrait que la Fusion illimitée, et quoi que ce soit d’autre qui soit impliqué dans GU, soit présente dès le départ, mais se manifeste seulement de façon limitée pour d’autres raisons (des limites mémorielles et attentionnelles, etc.) — sujets qui furent discutés au symposium de 1974 et que l’on peut maintenant formuler explicitement, par exemple, dans le cadre développé par Wexler et Yang, qui a déjà été mentionné 8.

Supposons donc que nous adoptions l’hypothèse la plus simple : le Grand Bond en avant livre Fusion. La question fondamentale de la biologie du langage mentionnée plus haut devient alors : qu’est-ce qu’il y a d’autre de spécifique au langage ?

A moins que l’on ajoute une quelconque autre stipulation, il y a deux sous-cas de l’opération Fusion. Etant donné A, on peut fusionner B avec A depuis l’extérieur de A ou depuis l’intérieur de A ; ce sont les Fusions externe et interne, la dernière étant une opération appelée « Mouvement » (Move), qui pour cette raison « est aussi gratuite », livrant la propriété familière déplacement du langage. Cette propriété a longtemps été regardée, en particulier par moi, comme une « imperfection » du langage qui doit être expliquée d’une façon ou d’une autre, mais en fait il s’agit d’une nécessité conceptuelle virtuelle 9 ; une version quelconque de la grammaire transformationnelle semble être l’hypothèse nulle, et tout autre mécanisme, au-delà de la Fusion interne, porte le poids de la preuve. En supposant la condition de non-altération qui minimise le fardeau computationnel, les deux sortes de Fusion vers A laisseront A intact. Ceci signifie que l’on fusionne à la marge, la « condition d’extension », qui peut être comprise de différentes façons, y compris la théorie du « bordage » (tucking-in) de Norvin Richards (2001), qui est naturelle dans le cadre sonde-but (probe-goal) des travaux récents, et qui peut aussi être interprétée pour accommoder l’adjonction de tête.

La condition de non-altération implique aussi la soi-disante théorie de la Copie du mouvement, qui laisse intactes les objets auxquels elle s’applique, formant un objet étendu. Quand les opérations de mouvement ont commencé à émerger avec les améliorations du cadre plus intriqué de SLTL, on a supposé qu’elles devaient comprendre le mouvement et la suppression, à cause de l’architecture générale du système. Dans l’architecture du modèle TSE/Y, ce n’était pas nécessaire, mais puisqu’il semblait y avoir des effets clairs de la position laissée par le Mouvement, on supposait que l’opération laissait une trace, un nouvel objet co-indexé avec l’élément déplacé ; ainsi, les objets sujets à l’opération sont modifiés, et de nouvelles entités sont introduites, violant les conditions élémentaires du calcul optimal. C’était une erreur — la mienne en l’occurrence. Ni l’indexation ni la notion de trace ne sont requises si nous adoptons la plus simple des hypothèses : la théorie de la copie. Un gain additionnel important est que les règles de reconstruction peuvent être éliminées et que l’on peut rendre compte plus efficacement du phénomène, comme l’ont montré un grand nombre de travaux récents.

Le mouvement laisse derrière lui une copie, peut-être plusieurs, toutes transmises au composant phonologique. Si le langage est optimisé pour l’efficacité communicationnelle, on s’attendrait à ce que toutes soient épelées (spelled out) : ceci résoudrait beaucoup de problèmes de remplissage des trous que rencontrent les modèles de traitement. Si le langage est optimisé pour la satisfaction des conditions d’interface, avec un calcul minimal, alors seule une copie sera épellée, réduisant ainsi fortement le calcul phonologique. La dernière solution est la bonne, une des nombreuses raisons de soupçonner que les spéculations du type indiqué ci-dessus sur la conception et l’évolution du langage sont sur la bonne voie. Laquelle est épelée ? Il y a diverses idées à ce sujet. La plus convaincante me semble être celle de Jon Nissenbaum (2000), en termes de la théorie des phases sur laquelle je reviendrai. Au niveau de la phase, deux opérations de base s’appliquent ; transférez vers l’interface et Fusion, externe ou interne. Si la Fusion interne précède le transfert, le mouvement est visible; autrement, il est invisible. Si le mouvement est invisible, le transfert a déjà lu la copie plus basse ; s’il est visible, le choix est repoussé à la phase suivante. Želijko Bošković (2001) a fait remarquer qu’il devrait y avoir une exception à des calculs minimaux de ce type si l’interface phonétique requiert une lecture partielle d’une copie et il a proposé des exemples intéressants. Pour en prendre un différent, découvert par Idan Landau (2006), l’antéposition du VP en hébreu laisse parfois le V derrière, spécifiquement quand il doit satisfaire ce que Lasnik appelle le « Filtre de l’affixe orphelin » (Stranded Affix Filter), une condition phonétique sur les affixes10. Si ce sont les seules exceptions, alors les calculs syntaxique et phonologique sont optimalement efficaces de ce point de vue, au moins.

Les deux sortes de Fusion semblent étroitement corrélées à des propriétés d’interface, capturant la majeure partie du caractère duel de la sémantique qui est devenu plus clair dans les années 60 dans les travaux de Ray Jackendoff (1969), Peter Culicover (1970), Lyle Jenkins (1972) et d’autres, parfois exprimé en termes d’interprétation profonde et de surface. La Fusion externe est corrélée à la structure argumentale, la Fusion interne à des propriétés de bord (edge), qu’elles soient de portée ou liées au discours (information nouvelle et ancienne, topique, etc.). La corrélation n’est pas parfaite, au moins en surface, mais suffisamment proche pour suggérer que les violations apparentes tombent sous des principes plus larges. Pour la Fusion externe, ceci va au-delà de la structure argumentale associée aux catégories substantives et inclut probablement les catégories fonctionnelles, mises en lumière dans une variété de recherches, notamment dans le projet très producteur de cartographie (Cinque 2002, Rizzi 2004, Belletti 2004). Peut-être des exceptions apparentes comme l’identification morphologique des propriétés de frontière typiques impliquent-elles le mouvement invisible, des sujets étudiés aussi dans des travaux en cours.

La Fusion externe livre les « structures de base » du modèle TSE/Y et de propositions antérieures. Dans la mesure où les structures sont construites en parallèle, il n’y a pas de lieu d’insertion lexicale. Ainsi, la notion de Structure-D n’est pas seulement superflue, elle est informulable, un résultat plus étendu (far-reaching) et plus désirable. Si les structures de base n’ont besoin de rien de plus que Fusion, des niveaux-barre peuvent aussi être éliminés, par extension des idées de Naoki Fukui (1986) et de Margaret Speas (1986) pour compléter la « structure syntagmatique nue ». En allant plus loin, suivant une voie sur laquelle je vais bientôt revenir, la structure-S et LF semblent être informulables aussi, nous laissant juste les niveaux d’interface, la solution optimale.

La distinction spécifieur-complément perd toute signification indépendante, sauf si le complément d’une tête H était le seul domaine accessible pour des opérations dirigées par H, par des conditions de recherche minimale, la propriété centrale de la C-commande, mais en dehors de la C-commande et des relations spécifieur-tête (sauf si le spécifieur est une tête, donc une sonde possible), une conséquence forte et empirique de la recherche minimale. « Complément » et « spécifieur » sont juste des notations pour Fusionner-en premier et Fusionner-plus tard. Le rejet de spécifieurs multiples requiert une stipulation, donc une justification empirique. Les données empiriques me semblent laisser l’hypothèse nulle viable, peut-être justifiée, mais la discussion bat son plein.

Chaque objet syntaxique généré contient de l’information pertinente pour le calcul ultérieur. De façon optimale, ceci sera capturé complètement dans un unique élément désigné qui devrait qui plus est être identifiable par une recherche minimale : son étiquette, l’élément que l’on considère comme « projeté » dans les systèmes de la théorie X-barre. L’étiquette, qui est invariablement un item lexical produit par la Fusion externe, devrait être la seule sonde pour des opérations internes à l’objet syntaxique et le seul élément visible pour les calculs ultérieurs. Nous espérons que les étiquettes sont déterminés par un algorithme naturel, peut-être même par des méthodes aussi riches que celles que Chris Collins (2002) a proposé dans son analyse sans étiquette. De nouveau, ces possibilités optimales sont explorées de façon extensive dans des travaux récents menés par de nombreux chercheurs suivant des voies différentes mais liées.

Remarquons que les étiquettes, ou une contrepartie quelconque, sont le minimum de ce qui est requis, suivant l’hypothèse très faible selon laquelle une information quelconque sur un objet syntaxique est nécessaire pour le calcul futur, à la fois pour chercher à l’intérieur de cet objet et pour son rôle externe. Le fait de mettre des étiquettes souligne une variété d’asymétries : par exemple, dans une construction tête-XP, l’étiquettes sera toujours la tête, et le XP une « dépendance » ; pour des têtes substantives, un argument avec un rôle sémantique qu’il assigne. Donc, de telles asymétries n’ont pas besoin d’être spécifiées dans l’objet syntaxique lui-même, et ne doivent pas l’être, parce qu’elles sont redondantes. Une structure tête-complément est un ensemble, pas une paire ordonnée. Il y a de nombreux cas similaires.

Une asymétrie imposée par l’interface phonétique est que l’objet syntaxique dérivé doit être linéarisé. De façon optimale, la linéarisation devrait être restreinte à la projection de l’objet sur l’interface SM, où il est requis pour des raisons extérieures au langage. Si c’est le cas, alors aucun ordre n’est introduit dans le reste du calcul syntaxique : la syntaxe étroite et la projection sur l’interface C-I. Cela a été un objectif de recherche durant les 25 dernières années au moins, depuis les travaux de Tanya Reinhart (1979) sur la C-commande et cela semble une conclusion plausible, bien que les conséquences soient très restrictives et inconsistantes avec des travaux intéressants : des articles par Danny Fox et Jon Nissenbaum sur la montée des quantificateurs, la suppression contenant l’antécédent, et la Fusion tardive des ajouts, pour mentionner quelques exemples récents. Mais je pense qu’il y a des raisons de penser que la possibilité la plus simple peut être maintenue. La façon dont les objets syntaxiques sont linéarisés est aussi un sujetbrûlant. Une proposition précoce est le paramètre tête, peut-être général, peut-être dépendant de la catégorie. Une approche différente est basée sur l’Axiome de Correspondance Linéaire de Kayne, qui a inspiré une grande quantité de travaux productifs, y compris la découverte par Kayne (2003) de trous surprenants dans la typologie linguistique et ce qui les explique. D’autres idées sont aussi explorées. Un desideratum, tout au long, est que la conclusion introduise peu d’hypothèses, de façon optimale aucune, qui ne puissent être réduites au besoin d’interface et aux conditions d’efficacité computationnelle.

Si l’ordre linéaire est restreint à la projection sur l’interface phonétique, alors cela ne donne aucune raison de demander que l’opération de base Fusion se distingue de sa forme la plus simple. Comme on l’a noté, de nombreuses asymétries peuvent être dérivées de configurations, de propriétés des items lexicaux et des principes indépendamment nécessaires de labellisation, et ainsi n’ont pas besoin — donc ne doivent pas — être spécifiés par l’opération élémentaire qui forme la configuration. Si c’est universel, alors l’opération de base sera la plus simple possible : Fusion non structurée, formant un ensemble.

Il peut y avoir — je pense qu’il y a — des raisons d’introduire une opération asymétrique pour les ajouts, utilisée à la base pour composer les prédicats. Le choix le plus élémentaire est une paire ordonnée, qui, à un point quelconque, devra être simplifiée en un ensemble pour la linéarisation. La simplification devrait de façon optimale être au point d’Épellation, c’est-à-dire du transfert vers les deux interfaces. Si l’on adopte cette hypothèse, on peut dériver quelques-unes des propriétés intriquées de la reconstruction des ajouts explorée par Robert Freidin, Henk van Riemsdijk et Edwin Williams, David Lebeaux et d’autres depuis (Chomsky 2004), si ce n’est toutes.

Il peut être utile d’écarter des inquiétudes qui se font jour dans la littérature technique. Avec un appareil technique minimal, un objet syntaxique X avec l’étiquette A peut être considéré comme l’ensemble {A, X}, où X lui-même est un ensemble {Z, W}. Si A se trouve être un de Z, W, alors l’ensemble {A, X} a les propriétés formelles d’une paire ordonnée, comme Norbert Wiener l’a remarqué il y a 90 ans ; en d’autres termes, il aura les propriétés formelles des paires construites pour des ajouts 11. On a pensé à tort que ceci était problématique. Ce ne l’est pas. La possibilité de donner une interprétation dans la théorie des ensembles des paires ordonnées, suivant les lignes fixées par Wiener, n’a rien à voir avec le fait que les paires ordonnées soient des objets formels avec leurs propres propriétés, des « objets primitifs » pour un calcul mental qui est distinct des ensembles, y compris de ceux qui indiquent des étiquettes.

Sans plus de stipulation, la Fusion externe livre des constituants naires. En particulier depuis le travail de Kayne (1981) sur les chemins non-ambigus, on a supposé généralement que ces unités sont le plus souvent, si ce n’est toujours, binaires. Si c’est le cas, on voudrait trouver une explication systématique. Pour la Fusion interne, cela suit des conditions élémentaires sur le calcul efficace, à l’intérieur du cadre sonde-but, bien que la façon dont cela fonctionne précisément soulève des questions intéressantes d’une considérable importance empirique. Pour la Fusion externe, une source serait les conditions de la structure argumentale imposées à l’interface C-I. Une autre possibilité a été suggérée par Luigi Rizzi (communication personnelle), en termes de la minimisation de la recherche en mémoire de travail.

Le cas le plus restrictif de Fusion s’applique à un objet unique, formant un ensemble singleton. La restriction à ce cas livre la fonction de succession, à partir de laquelle tout le reste de la théorie des nombres naturels peut être développée de façon familière. Ceci suggère une réponse possible à un problème qui a troublé Wallace il y a plus d’un siècle : en ses termes, « le développement gigantesque des capacités mathématiques est entièrement inexpliqué par la théorie de la sélection naturelle, et doit être dû à une quelconque cause distincte » (1889, 467), si ce n’est que parce qu’elle reste inutilisée. Une possibilité est que les nombres naturels résultent d’une simple contrainte sur la faculté de langage, et donc ne sont pas donnés par Dieu, selon le célèbre aphorisme de Kronecker, bien que le reste soit créé par l’homme, selon la suite de cet aphorisme. Les spéculations sur l’origine des facultés mathématiques conçues comme une abstraction à partir des opérations linguistiques ne sont pas inconnues. Il y a des problèmes apparents, y compris une dissociation apparente avec des lésions et des localisations diverses, mais le caractère significatif de tels phénomènes n’est pas clair pour de nombreuses raisons (y compris la question de la possession vs l’usage de ces capacités). Il pourrait y avoir un intérêt à ces spéculations, peut-être selon les directions indiquées, qui ont la saveur minimaliste appropriée.

A partir d’hypothèses très faibles sur le calcul efficace, il ne devrait pas y avoir de niveaux linguistiques au-delà de ceux qui sont imposés par les conditions d’interface : c’est-à-dire les niveaux d’interface euxmêmes. En fait, il n’est pas évident qu’ils existent. Ainsi, on peut imaginer, par exemple, un processus computationnel qui envoie des parties d’objets générés aux systèmes SM au cours de la dérivation (e.g. certaines propriétés phonétiques mais pas toutes), et pas seulement au stade final ; et la même chose du côté de la signification. Bien que de telles propositions n’aient jamais été explorées à ma connaissance, elles pourraient se révéler correctes. Au-delà, cependant, nous aimerions déterminer si on peut se dispenser de tous les niveaux internes, avec les cinq cycles du modèle TSE/Y réduits à un seul — meilleur mais encore informulable, comme l’est la structure-D. Ceci suivra si le calcul s’appuie seulement sur Fusion, peut-être Fusion sur des paires aussi bien que sur des ensembles, livrant des objets syntaxiques qui, à un point quelconque dans la dérivation, sont transférés aux deux interfaces : le transfert vers l’interface phonique est souvent appelé « Épellation» (Spell-out). Appelons les objets syntaxiques qui sont transférés des « phases ». De façon optimale, une fois qu’une phase est transférée, elle devrait être projetée directement vers l’interface, et ensuite « oubliée » ; des opérations ultérieures ne devraient pas avoir à référer à ce qui a déjà été projeté vers l’interface — de nouveau, une intuition de base derrière les opérations cycliques. Nous espérons donc arriver à établir une « Condition d’Impénétrabilité de Phases », qui garantit que les projections vers les deux interfaces peuvent oublier ce qu’elles ont déjà fait, une économie substantielle de mémoire. Si cela est faisable est une question formulée seulement récemment, et à peine explorée. Cela soulève de nombreuses questions sérieuses, mais, pour l’instant en tout cas, pas des problèmes qui semblent insurmontables.

Si ces idées générales vont dans la bonne direction, alors tous les niveaux internes sont informulables, donc pas indispensables dans le sens le plus fort. Il nous reste seulement les niveaux d’interface et les cinq cycles du modèle TSE/Y sont réduits à un seul, basé sur Fusion. Les propriétés cycliques des projections vers l’interface s’ensuivent sans autre commentaire. Le calcul purement cyclique est aussi requis pour l’analyse la plus simple des traits impossibles à interpréter. Leurs valeurs sont redondantes, déterminées par une relation d’Accord avec des traits interprétables. Ils devraient donc être non évalués dans le lexique et, quand on leur attribue une valeur, ils devraient être traités comme ce que Juan Uriagereka (1998) appelle un « virus » ; éliminés aussi tôt que possible, donc au niveau de la phase, où ils sont transférés au composant phonologique pour une éventuelle réalisation phonétique, mais éliminés de la dérivation syntaxique et du transfert vers l’interface sémantique pour éviter un crash. C’est de nouveau une conséquence immédiate du calcul basé sur la phase.

Le sujet des traits impossibles à interpréter a pris le centre de la scène depuis les propositions de Vergnaud concernant la théorie du Cas, il y a 25 ans, et plus particulièrement dans les dernières années. La thèse originelle de Vergnaud selon laquelle des éléments comme le Cas structurel doivent être présents même lorsqu’ils ne sont pas lus a reçu un soutien empirique considérable. Une version très forte de la thèse soutient que les traits flexionnels sont en fait universels, idée développée notamment par Halldór Sigurðsson (2003) comme une partie d’une analyse extensive du rôle de ces traits, y compris le Cas, dans les événements de discours, et leur analyse syntaxique pointue.

Dans la mesure où la copie d’un élément déplacé demeure, elle reste en principe accessible pour des calculs syntaxiques de plus haut niveau (de la même façon qu’on peut y accéder de façon plus globale à l’interface de signification, sous la reconstruction). Jusqu’à quelle profondeur un tel accès est-il permis ? Les données sont pour l’instant maigres, mais pour autant que je le sache, cela ne dépasse jamais une phase. On en trouve des exemples, par exemple, dans le Cas excentrique icelandais : un objet nominatif interne à la phase peut s’accorder avec une inflexion externe. Cet exemple est intéressant et mérite des investigations plus poussées, parce qu’il semble saper une possible explication en théorie des phases pour une partie de l’analyse que donne Vergnaud des sujets qui ne peuvent pas apparaître où le Cas n’a pas été assigné, c’est-à-dire qu’ils sont « invisibles » parce qu’ils sont à l’intérieur d’une phase qui a déjà été passée. Dans le cas icelandais, l’objet n’est pas invisible, bien que la condition de l’impénétrabilité des phases, qui interdit toute interférence avec une phase antérieure, bloque l’extraction. Une analyse différente, basée sur une variété plus riche de matériaux linguistiques et sur des hypothèses différentes, a été proposée par Andrew Nevins (2004).

Quels objets constituent les phases ? Ils devraient être aussi petits que possible, pour minimiser le fardeau computationnel. Pour des raisons déjà mentionnées, ils devraient au moins inclure les domaines dans lesquels les traits impossibles à interpréter sont évalués ; les traits d’accord sauf ceux des noms et le Cas structurel pour les noms. Il y a des données, que je n’indiquerai pas ici, d’après lesquelles ces domaines sont CP et vP (où v est « petit v », qui introduit la structure argumentale pleine et les structures verbales transitives ou d’expérient) et que ce sont les seules phases dans les structures clausales centrales. Peut-être les phases incluent-elles aussi DP, comme le montre Peter Svenonius (2003), développant encore les parallèles entre DP et CP. Si on s’en tient à CP et vP, les objets dérivés ont une structure squelettale dans laquelle C et v sont les étiquettes guidant les opérations internes et pertinentes pour Fusion externe, et sont aussi les points d’évaluation des traits (comme c’est une nécessité virtuelle) et de transfert. Si c’est le cas, un certain nombre de propriétés ont une analyse unifiée. Une spéculation possible est que les structures les plus élaborées révélées par les enquêtes cartographiques sontbasées sur la linéarisation des traits dans ces étiquettes et peut-être dans les étiquettes qui y sont étroitement liées (comme dans la connexion C-T).

Les phases ont des corrélats aux interfaces : la structure argumentale ou la structure complètement computationnelle du côté de la signification, une relative indépendance du côté des sons. Mais la corrélation est moins que parfaite, ce qui soulève des questions.

Cette architecture computationnelle, si elle est défendable, semble être aussi bonne que possible. La structure-S et la FL ne sont plus formulables comme des niveaux, et disparaissent donc, comme la structure-D et les calculs sont réduits à un cycle unique. Ce devrait être le cas que toutes les opérations soient guidées par l’élément construit de la phase, la tête de phase C, v. Ceci devrait inclure la Fusion interne. Mais un problème survient, découvert par Julie Legate (2003) : il y a des sites de reconstruction à des catégories plus petites, bien que le mouvement ne puisse s’y arrêter et doive aller à la tête de phase qui guide l’opération. Une solution à cette énigme a été développée par Cedric Boeckx (2003) dans un cadre légèrement différent, en adaptant des idées de Daiko Takahashi (1994). En bref, la tête de phase guide l’opération de Mouvement, mais elle procède catégorie par catégorie, d’une façon occasionnellement suggérée pour d’autres raisons, jusqu’à ce qu’elle atteigne un point où elle doit s’arrêter. C’est généralement la tête de phase, bien qu’il puisse y avoir une exception, notamment si la tête de phase assigne ses traits impossibles à interpréter à la tête qu’elle sélectionne. Ainsi, la tête de phase C peut être le lieu de l’accord, sélectionnant T et lui assignant des traits-φ (non évalués) de telle sorte que lorsque la montée du DP guidée par l’accord-C atteint le niveau TP, ses traits impossibles à interpréter sont évalués et qu’elle est gelée, incapable d’aller plus loin. Ceci livre de nombreuses propriétés du Principe de Projection Etendu (Extended Projection Principle, EPP) et, si c’est généralisé, cela livre aussi des conséquences empiriques intéressantes qui nous emmèneraient trop loin. Mais le mouvement partiel est impossible à l’intérieur de la phase dans d’autres cas : en particulier, nous pouvons maîtriser l’agaçant manque de structures de la forme *Il semble un homme y avoir dans la pièce (*There seems a man to be in the room), sans l’appareil qui a été proposé pour rendre compte du trou, qui se généralise au spécifieur des phrases participiales et à d’autres constructions du même type. Dans un cadre quelque peu différent, Jan Koster (2003) a développé l’idée intéressante selon laquelle le mouvement-V vers T est un « mouvement partiel » vers C, l’authentique lieu du Temps, analogue au mouvement-wh partiel en allemand, discuté par Henk van Riemsdijk (1983) et Dana McDaniel (1989).

La Fusion interne semble conduire en partie au moins par des traits impossibles à interpréter de la tête de phase, comme un réflexe de l’appariement sonde-but. Si c’est vrai, cela nous conduit en partie vers une explication systématique des raisons pour lesquelles les langues doivent avoir des traits impossibles à interpréter. Mais ce qui n’est pas clair, c’est jusqu’où cela nous conduit. Par exemple, il y a des données considérables en faveur du mouvement cyclique successif à travers les bords des phases, mais pour le mouvement-A, il n’est pas clair s’il y a une motivation indépendante pour les traits qui seraient requis pour formuler les opérations dans ce cadre. Il se peut que les têtes de phase aient un trait bord, parfois appelé un « trait-EPP » (par extension de la notion EPP) ou un « trait occurrence » OCC (parce que l’objet formé est une occurrence de l’élément déplacé dans le sens technique). Ce trait bord permet la montée jusqu’au bord de phase sans projection de trait. Des questions similaires se font jour pour le mouvement-A, particulièrement dans des langues où EPP est satisfait par un élément non nominatif, comme dans l’inversion locative, qui peut s’accorder avec T, comme en bantou, mais pas en anglais, bien qu’il y ait des raisons de douter que l’inversion locative implique le mouvement-A vers le sujet en anglais. Mark Baker (2003) suggère un paramètre distinguant le bantou de l’indo-européen de ce point de vue, avec des conséquences empiriques intéressantes, et il est possible que ses conclusions s’étendent jusqu’à l’apparente attraction vers T par un trait-D dans les langues de type slave ou japonais, suivant les lignes développées par James E. Levine & Robert Freidin (2002) et par Shigeru Miyagawa (2004). Il semble possible que la variété des cas puisse tomber dans un cadre sonde-but avec T paramétré quelque peu selon les lignes suggérées par Baker, mais en s’en tenant à la correspondance sonde-but des traits-φ avec ou sans la contrainte que le but soit actif, c’est-à-dire avec le Cas non évalué ; ou, selon les lignes que Miyagawa développe de façon extensive, avec le Focus jouant le rôle de l’accord dans certaines classes de langues. Si les têtes de phase ont tout à la fois des traits d’accord (ou traits de focus) et des traits de bord, alors on s’attendrait à ce que les deux s’appliquent simultanément. Cette hypothèse livre directement des phénomènes curieux quant aux effets d’intervention discutés par Ken Hiraiwa (2002) et par Anders Holmberg & Thorbjörg Hróarsdóttir (2003), et aussi une analyse de quelques exceptions apparentes à la Condition d’Îlot Sujet. Nous entrons ici largement dans le terrain des problèmes ouverts — un vaste terrain.

J’ai à peine abordé le riche faisceau des recherches avec ces motivations générales dans les dernières années et encore maintenant. Un résumé large, avec beaucoup de nouvelles idées et de nouveau matériel empirique, se trouve dans le livre récent de Cedric Boeckx (2003), Islands and Chains. Il semble raisonnablement clair qu’il y a eu des progrès considérables dans le déplacement vers une explication systématique qui s’intéresse à des questions fondamentales sur la biologie du langage. Il est encore plus clair que ces efforts ont rempli une des principales contraintes pour un programme de recherche raisonnable : stimuler une recherche qui a pu maîtriser quelques problèmes anciens et à peine même formulables et enrichir grandement les défis empiriques de l’adéquation descriptive et explicative auxquels elle a dû faire face.

Notes

* Cet article est l’expansion d’une conférence présentée à la rencontre annuelle de la Société Linguistique d’Amérique, le 9 janvier 2004. Merci à Cedric Boeckx, Samuel David Epstein, Robert Freidin, Lyle Jenkins, Howard Lasnik et Luigi Rizzi, parmi d’autres, pour leurs commentaires sur une version précédente. Traduction de l’américain au français d’Anne Reboul, avec l’autorisation de l’auteur et de MIT Press, de l’article Three Factors in Language Design, Linguistic Inquiry 36(1), 2005, 1-22. Anne Reboul remercie Christopher Laenzlinger, Luigi Rizzi et Ur Shlonsky pour leur aide.

1. La conférence, intitulée « Un débat sur la biolinguistique », s’est tenue à Endicott House, Dedham, Massachussets,20-21 mai 1974, et était organisée par le Centre Royaumont pour une science de l’homme, Paris.

2. Pour une discussion ultérieure, cf. Chomsky (1966), (2001b), McGilvray (1999), Antony & Hornstein (2003).

3. Pour une revue intelligente et une analyse originale, cf. Borer (2004a), (2004b).

4. Pour un commentaire dans un contexte linguistique, cf. Boeckx & Hornstein (2003). Pour une discussion plus générale, cf. Jenkins (2000).

5. Pour une revue de certains de ces sujets, cf. Stewart (1998).

6. Cf. aussi Laughlin & Sejnowski 2003, Cherniak et al. (2004), et Physics News Update (2001), rapportant les travaux de Howard, Rutenberg & de Vet (2001).

7. Pour une discussion dans un cadre beaucoup plus large, cf. Hauser, Chomsky & Fitch (2002) ; et pour une extension intéressante, cf. Piatelli-Palmarini & Uriagereka (2004).

8. Rizzi (2005) argumente pour le fait que les restrictions de performance interagissent avec les principes de GU ; l’inconsistance avec le langage visé dans la production précoce est basée grammaticalement, avec les paramètres fixés et les principes observés, mais dirigés par la performance jusqu’à ce que le système de production mûrisse. La logique est similaire à celle de Gambell & Yang (2003) et de Wexler (2004).

9. Les opérations qui « sont gratuites » peuvent bien sûr ne pas être utilisées, par exemple, dans les systèmes symboliques inventés qui se contentent de la Fusion externe — peut-être parce qu’ils n’ont pas besoin d’utiliser les propriétés de bord qui sont typiquement liées au discours.

10. La formulation de Landau est quelque peu différente.

11. La définition standard par Wiener et Kuratowski de la paire ordonnée est légèrement différente, comme le fait remarquer Howard Lasnik, prenant <a, b> = {a, {a, b}}. La proposition originale de Wiener était plus complexe.

Références

ANTONY L.M. & HORNSTEIN N. (eds) (2003), Chomsky and his Critics, Malden, (Mass.), Blackwell.

BAKER M. (2001), The Atoms of Language, New York, Basic Books.

BAKER M. (2003), « Agreement, dislocation, and partial configurationality », in CARNIE A., HARLEY H. & WILLIE M. (eds), Formal Approaches to Function in Grammar, Amsterdam, John Benjamins, 107–132.

BELLETTI A. (ed.) (2004), The Cartography of Syntactic Structures, Vol. 3 : Structures and Beyond, Oxford, Oxford University Press.

BOECKX C. (2003), Islands and Chains. Resumption as Stranding, Amsterdam, John Benjamins.

BOECKX C. & HORNSTEIN N. (2003), The Varying Aims of Linguistic Theory, ms., University of Maryland, College Park.

BORER H. (2004a), Structuring Sense, Vol. 1 : In Name Only, Oxford, Oxford University Press.

BORER H. (2004b), Structuring Sense, Vol. 2 : The Normal Course of Events, Oxford, Oxford University Press.

BOŠKOVIĆ Ž. (2001), On the Nature of the Syntax-phonology Interface, Amsterdam, Elsevier.

BRODY M. (1995), Lexico-Logical Form. A Radically Minimalist Theory, Cambridge (Mass.), MIT Press.

BRODY M. (2003), Towards an Elegant Syntax, London, Routledge.

CHERNIAK C. (1995), « Neural component placement », Trends in Neuroscience 18, 522–527.

CHERNIAK C., MOKHTARZADA Z. , RODRIGUEZ-ESTEBAN R. & CHANGIZi K. (2004), « Global optimization of cerebral cortex layout », Proceedings of the National Academy of Science online, 13 Janvier 2004 (version imprimée 27 Janvier 2004, 101(4), 1081–1086).

CHOMSKY N. (1955), Logical Structure of Linguistic Theory (LSLT), ms. Une partie de la révision de 1956 publiée à New York, Plenum, 1975, et à Chicago, University of Chicago Press, 1985.

CHOMSKY N. (1966), Cartesian Linguistics, New York, Harper & Row.

CHOMSKY N. (2001a), « Derivation by phase », in KENSTOWICZ M. (ed.), Ken Hale : A Life in Language, Cambridge (Mass.), MIT Press, 1-52.

CHOMSKY N. (2001b), New Horizons in the Study of Language and Mind, Cambridge, Cambridge University Press.

CHOMSKY N. (2004), « Beyond explanatory adequacy », in BELLETTI A. (ed.), The Cartography of Syntactic Structures, Vol. 3 : Structures and Beyond, Oxford, Oxford University Press, 104-131.

CHOMSKY N., MORRIS H. & LUKOFF F. (1956), « On accent and juncture in English », in HALLE M. et al. (ed.), For Roman Jakobson, The Hague, Mouton, 65–80.

CHOMSKY N. & LASNIK H. (1993), « The theory of principles and parameters », in JACOBS J., VON STECHOW A.,

STERNEFELD W. & VENNEMANN T. (eds), Syntax : An International Handbook of Contemporary Research, Berlin, de Gruyter, 506–569. Republié in CHOMSKY N., The Minimalist Program, Cambridge (Mass.), MIT Press, 1995, 13-127.

CINQUE G. (ed.) (2002), The Cartography of Syntactic Structures, Vol. 1 : Functional Structure in DP and IP, Oxford, Oxford University Press.

COLLINS C. (1997), Local Economy, Cambridge (Mass.), MIT Press.

COLLINS C. (2002.), « Eliminating labels », in EPSTEIN S.D. & SEELY T.S. (eds), Derivation and explanation in the Minimalist Program, Malden (Mass.), Blackwell, 42–64.

CULICOVER P. (1970), Syntactic and Semantic Investigation, Doctoral dissertation, MIT, Cambridge (Mass.).

EPSTEIN S.D. (1999), « Un-principled syntax : The derivation of syntactic relations », in EPSTEIN S.D. &

HORNSTEIN N. (eds), Working Minimalism, Cambridge (Mass.), MIT Press, 317–345.

EPSTEIN S.D., GROAT E.M., KAWASHIMA R. & KITAHARA H. (1998), A Derivational Approach to Syntactic Relations, Oxford, Oxford University Press.

ERWIN D. (2003), « The Goldilocks hypothesis », Science 302, 1682–1683.

FODOR J. (1975), Language of Thought, New York, Crowell.

FOX D. (2002), « Antecedent-contained deletion and the copy theory of movement », Linguistic Inquiry 33, 63–96.

FOX D. & NISSENBAUM J. (1999), « Extraposition and scope : A case for overt QR », in BIRD S., CARNIE A. ,

HAUGEN J.D. & NORQUEST P. (eds), Proceedings of the 18th West Coast Conference on Formal Linguistics, Somerville (Mass.), Cascadilla Press, 132–144.

FRAMPTON J., & GUTMANN S. (1999), « Cyclic computation, a computationally efficient minimalist syntax », Syntax 2, 1–27.

FREIDIN R. (1978), « Cyclicity and the theory of grammar », Linguistic Inquiry 9, 519–549.

FREIDIN R. & VERGNAUD J.R. (2001), « Exquisite connections : Some remarks on the evolution of linguistic theory », Lingua 111, 639–666.

FUKUI N. (1986), A Theory of Category Projection and its Applications, Doctoral dissertation, MIT, Cambridge, Mass. Version révisée publiée sous Theory ofProjection in Syntax, Cambridge, Cambridge University Press, et Stanford, CSLI Publications, 1995.

GALLISTEL C.R. (1997), « Neurons and memory », in GAZZANIGA M.S. (ed.), Conversations in the Cognitive Neurosciences, Cambridge (Mass.), MIT Press.

GALLISTEL C.R. (1999), « The replacement of general-purpose learning models with adaptively specialized learning modules », in GAZZANIGA M.S. (ed.), The Cognitive Neurosciences, Cambridge (Mass.), MIT Press, 2nd ed.

GAMBELL T. & YANG C. (2003), Scope and Limits of Statistical Learning in Word Segmentation, ms., Yale University, New Haven.

HARRIS Z.S. (1955), « From phoneme to morpheme », Language 31, 190–222.

HAUSER M.D., CHOMSKY N. & FITCH W.T. (2002), « The faculty of language », Science 198, 1569–1579.

HIRAIWA K. (2002), « Multiple Agree », Paper Presented at the 25th GLOW Colloquium, Utrecht.

HOFFMAN D. (1998), Visual Intelligence, New York, Norton.

HOLMBERG A. & HRÓARSDÓTTIR T. (2003), « Agreement and movement in Icelandic raising constructions », Lingua 113, 997–1019.

JACKENDOFF R. (1969), Some Rules of Semantic Interpretation in English, Doctoral dissertation, MIT, Cambridge (Mass).

JACOB F. (1982), The Possible and the Actual, New York, Pantheon.

JAKOBSON R., FANT G. & HALLE M. (1953), Preliminaries to Speech Analysis. Cambridge (Mass.), MIT Press.

JENKINS L. (1972), Modality in English Syntax, Doctoral dissertation, MIT, Cambridge (Mass.).

JENKINS L. (2000) Biolinguistics, Cambridge, Cambridge University Press.

KAUFFMAN S. (1993), The Origins of Order, Oxford, Oxford University Press.

KAYNE R. (1981), « Unambiguous paths », in MAY R. & KOSTER J. (eds), Levels of Syntactic Representation, Dordrecht, Reidel, 143–183..

KAYNE R. (2003), « Anti-symmetry in Japanese », English Linguistics, 20, 1-40.

KOSTER J. (2003), All Languages are Tense Second, ms., University of Groningen.

LANDAU I. (2006), « Chain resolution in Hebrew V(P) fronting », Syntax 9, 32-

66.

LASNIK H. (2006), « Conceptions of the cycle », in LAI-SHEN CHENG L. & CORVER N. (eds), Wh-movement on the Move, Cambridge (Mass.), MIT Press, 197-216.

LAUGHLIN S. & SEJNOWSKI T.J. (2003), « Communication in neuronal networks », Science 301, 1870–1874.

LAVINE J.E. & FREIDIN R. (2002), « The subject of defective T(ense) in Slavic », Journal of Slavic Linguistics 10, 251–287.

LEGATE J.A. (2003), « Some interface properties of the phase », Linguistic Inquiry 34, 506–516.

LENNEBERG E. (1967), Biological Foundations of Language, New York, Wiley.

LURIA S. (1974), Transcript of remarks at ‘‘A Debate on Bio-Linguistics’’, a conference organized by the Centre Royaumont pour une science de l’homme, Paris, tenu à Endicott House, Dedham, Mass., 20–21 May 1974.

MARSHACK A. (1985), Hierarchical Evolution of the Human Capacity, New York, American Museum of Natural History.

MAYNARD SMITH J., BURIAN R., KAUFFMAN S., ALBERCH P., CAMPBELL J., GOODWIN B., LANDE R., RAUP D. & WOLPERT L. (1985), « Developmental constraints and evolution », Quarterly Review of Biology 60, 265–287.

MCDANIEL D. (1989), « Partial and multiple wh-movement », Natural Language & Linguistic Theory 7, 565–604.

MCGILVRAY J. (1999), Chomsky : Language, Mind, and Politics, Cambridge, Polity.

MIYAGAWA S. (2004), « On the EPP », in MCGINNIS M. & RICHARDS N. (eds), Proceedings of the EPP/Phase Workshop, MIT Working Papers in Linguistics, Cambridge (Mass.) MIT, Department of Linguistics and Philosophy, MITWPL.

NEVINS A. (2004), « Derivations without the Activity Condition », in MCGINNIS M. & RICHARDS N. (eds), Proceedings of the EPP/Phase Workshop, MIT Working Papers in Linguistics, Cambridge (Mass.) MIT, Department of Linguistics and Philosophy, MITWPL.

NISSENBAUM J. (2000), Investigations of Covert Phrase Movement, Doctoral dissertation, MIT, Cambridge (Mass.).

PESETSKY D. & TORREGO E. (2001), « T-to-C movement : Causes and consequences », in KENSTOWICZ M. (ed.), Ken Hale : A Life in Language, Cambridge (Mass.), MIT Press, 355–426.

PHYSICS NEWS UPDATE (2001), American Institute of Physics Bulletin of Physics, News Number 570, December 21, 2001, reporting study by Howard M., Rutenberg A.D. & de Vet S., Physical Review Letters, 31 December 2001.

PIATTELLI-PALMARINI M. & URIAGEREKA J. (2004), « The Immune Syntax: the evolution of the language virus », in

JENKINS L. (ed.), Variation and Universals in Biolinguistics, Amsterdam, Elsevier, 341-377.

REINHART T. (1979), « Syntactic domains for semantic rules », in GUENTHNER F. & SCHMIDT S.J. (eds), Formal Semantics and Pragmatics for Natural Language, Dordrecht, Reidel, 107–130..

RICHARDS N. (2001), Movement in Language, Oxford, Oxford University Press.

RIEMSDIJK H. van. (1983), « Correspondence effects and the Empty Category Principle », in OTSU Y. et al. (eds), Studies in Generative Grammar and Language Acquisition, Tokyo, International Christian University, 5–16.

RIZZI L. (ed.) (2004), The Cartography of Syntactic Structures, Vol. 2 : The Structure of CP and IP, Oxford, Oxford University Press, 70-109.

RIZZI L. (2005), « On the grammatical basis of language development », in CINQUE G. & KAYNE R. (eds), Handbook of Comparative Syntax, Oxford, Oxford University Press, 70-109.

ROSS J.R. (1967), Constraints on Variables in Syntax, Doctoral dissertation, MIT, Cambridge, Mass. Publié sous Infinite syntax!. Norwood (N.J.), Ablex, 1986.

SIGURÐSSON H. (2003), Meaningful Silence, Meaningless Sounds, ms., Lund University.

SPEAS M. (1986), Adjunctions and Projections in Syntax, Doctoral dissertation, MIT, Cambridge (Mass.).

STEWART I. (1998), Life’s Other Secret, New York, Wiley.

SVENONIUS P. (2003), On the Edge, ms., University of Tromsø.

TAKAHASHI D. (1994), Minimality of Movement, Doctoral dissertation, University of Connecticut, Storrs.

TATTERSALL I. (1998), The Origin of the Human Capacity, New York, American Museum of Natural History.

URIAGEREKA J. (1998), Rhyme and Reason, Cambridge (Mass.), MIT Press.

WADDINGTON C.H. (1942), « Canalization of development and the inheritance of acquired characters », Nature 150, 563–565.

WALLACE A.R. (1889), Darwinism, London, Macmillan.

WELLS S. (2002), The Journey of Man : A Genetic Odyssey, Princeton (N.J.), Princeton University Press.

WEXLER K. (2002), « Lenneberg’s dream : Learning, normal language development and specific language impairment », in SCHAEFFER J.C. & LEVY Y. (eds), Language Competence across Populations. Towards a Definition of Specific Language Impairment, Mahwah (NJ), Erlbaum, 11-61.

YANG C. (2002), Knowledge and Learning in Natural Language, Oxford, Oxford University Press.


http://www.chomsky.fr