Les Crises Les Crises
28.février.202028.2.2020 // Les Crises

Du langage et de l’humanité. Conversation avec Noam Chomsky

Merci 257
J'envoie

Source : The Mit Press Reader, Amy Brand, 12-08-2019

Le père de la linguistique moderne continue d’ouvrir de nouveaux champs de recherche et de poser de nouvelles questions.

« Pour la première fois, il me semble que dans des domaines essentiels ; le Graal est au moins en vue, peut-être même à portée de main ». Image : Wikimedia Commons

D’aussi loin que je me souvienne, j’ai toujours été fascinée par la façon dont l’esprit structure l’information. Enfant, de toutes les activités que j’avais au collège, celle que je préférais consistait à mettre les phrases sous forme de diagramme, avec leurs sections de discours. Il n’est donc sans doute pas étonnant que j’aie fini au MIT [Massachusetts Institute of Technology, NdT] où j’ai obtenu mon doctorat grâce à mes travaux sur les modèles formels du langage et de la cognition. C’est là, au milieu des années 1980, que j’ai eu l’immense chance de suivre plusieurs cours de syntaxe avec Noam Chomsky.

Bien que j’aie finalement choisi de ne pas faire carrière dans l’enseignement, j’ai passé la majeure partie de ma carrière au MIT et je suis resté fidèle, à bien des égards, à cet intérêt original pour la façon dont le langage transmet l’information. Diriger une maison d’édition universitaire, c’est aussi, après tout, s’intéresser au passage du langage à l’information, du texte au savoir. Cela m’a également donné l’occasion d’être la rédactrice en chef et l’éditrice de Chomsky. Chomsky et les valeurs fondamentales qu’il incarne, c’est à dire le recours à l’enquête approfondie, la conscience et l’intégrité, continuent d’occuper une place importante pour moi et pour tant d’autres ici au MIT, et l’entretien qui suit en est un excellent témoignage.

Amy Brand : Vous avez eu tendance à séparer votre travail sur le langage de votre rôle et de vos écrits politiques. Mais existe-t-il une contradiction entre, d’une part, la défense du caractère unique de l’homo sapiens en ce qui concerne le langage et, d’autre part, la dénonciation de la responsabilité de l’homme dans le changement climatique et la dégradation de l’environnement ? Autrement dit, se pourrait-il que notre distance par rapport aux autres espèces soit liée à la façon dont nous nous impliquons (ou pas) vis-à-vis de la nature ?

Noam Chomsky : Le travail technique lui-même est en principe bien distinct des engagements personnels dans d’autres domaines. Il n’y a pas de liens logiques, mais il y en a d’autres plus subtils et historiques dont j’ai parfois discuté (comme d’autres l’ont fait) et cela pourrait avoir une certaine importance.

Homo sapiens est radicalement différent des autres espèces à de nombreux égards, trop évidents pour valoir d’être examinés. Le fait que nous soyons dotés du langage est un élément crucial, et cela a de nombreuses conséquences. Avec justesse, celui-ci a souvent été considéré dans le passé comme la caractéristique fondamentale de l’homme moderne, source de la créativité humaine, de l’enrichissement culturel et de notre structure sociale complexe.

Quant à la « contradiction » dont vous parlez, je ne vois pas tout à fait les choses comme vous. Bien sûr, on peut admettre que notre distanciation par rapport aux autres espèces soit liée à notre course criminelle pour détruire l’environnement, mais je ne pense pas que cette conclusion soit étayée par l’histoire. Pendant pratiquement toute l’histoire de l’humanité, les humains ont vécu en harmonie avec le milieu naturel, et c’est ce que font encore les peuples autochtones, quand cela leur est possible (ils sont, en fait, dans le monde entier, à l’avant-garde des efforts pour préserver l’environnement). Les actions humaines ont eu des effets sur l’environnement ; les grands mammifères ont donc eu tendance à disparaître à mesure que l’activité humaine se développait. Mais ce n’est qu’à partir de la révolution agricole et, de manière plus spectaculaire, à partir de la révolution industrielle que cet impact a pris une importance majeure. Et ce n’est qu’au cours de ces dernières années que les effets les plus importants et les plus destructeurs ont été manifestes, et qu’ils s’amplifient bien trop rapidement. Ce qui est à l’origine de la destruction – qui frise la catastrophe – semble être institutionnel et non ancré dans notre essence.

« L’origine de la destruction – qui frise la catastrophe – semble être de nature institutionnelle, et non inhérente à notre essence. »

A.B. : Dans votre préface d’un livre sur le chant des oiseaux et le langage, vous avez écrit, avec le linguiste informaticien Robert Berwick, que « le pont entre la recherche sur le chant des oiseaux et la parole et le langage s’accorde très bien avec les développements récents de certains courants de la pensée linguistique actuelle ». Pouvez-vous nous en dire plus ? En quoi le chant des oiseaux pourrait-il changer notre regard sur notre propre langage ?

N.C. : Ici, il faut être assez prudent, en faisant la distinction entre le langage en soi et la parole, qui est un amalgame, impliquant à la fois le langage et un système sensori-moteur spécifique utilisé pour l’externalisation du langage. Les deux systèmes n’ont aucun lien dans l’histoire de l’évolution ; les systèmes sensori-moteurs étaient en place bien avant l’apparition du langage (et de l’homo sapiens) et n’ont guère été influencés par le langage, voire pas du tout. La parole n’est par ailleurs qu’une forme d’externalisation, même si elle est la plus courante. On pourrait avoir des signes,qui se développent chez les sourds de la même façon que la parole ou même du toucher.

Couverture de « Why Only Us » par Chomsky et Robert Berwick. Leur livre, paru en 2015, « Why Only Us » s’appuie sur les développements récents de la théorie linguistique pour proposer un récit évolutif du langage et de la remarquable capacité spécifique de l’espèce humaine à l’acquérir.

Berwick et moi soutenons (je pense de façon plausible, mais pouvant être sujet à contestation) que le langage, système interne de l’esprit, est indépendant de son externalisation et fournit essentiellement des expressions de pensée formulées linguistiquement. En tant que tel, il s’agit d’un système de pure structure, dépourvu d’ordre linéaire et autres agencements qui ne font pas vraiment partie du langage comme tel mais sont imposés par les exigences du système articulatoire (le signe, qui utilise un espace visuel, exploite quelques autres options). Le langage interne est basé sur des opérations récursives qui produisent ce que nous appelons la Propriété de base du langage : la production d’un ensemble infini d’expressions hiérarchiquement structurées qui sont interprétées comme des pensées. Le système d’externalisation du langage n’a pas d’opérations récursives – il s’agit essentiellement d’un découpage déterministe qui introduit un ordre linéaire et autres agencements qui sont requis par le système en sortie.

C’est très différent en ce qui concerne le chant des oiseaux : c’est un système de sortie qui est fondamentalement basé sur un ordre linéaire avec très peu de structure. Il y a quelques analogies suggestives au niveau des extrants, mais selon moi du moins, avis partagé, je pense, par mes collègues qui font de la recherche sur le chant des oiseaux, même si ces phénomènes sont par eux-mêmes d’un intérêt considérable, ils nous en disent peu sur le langage humain.

« Bien que les phénomènes [du chant des oiseaux] soient par eux-mêmes d’un intérêt considérable, ils nous en disent peu sur le langage humain. »

A.B. : Vous avez développé la théorie de la grammaire transformationnelle – cette idée qu’il existe une structure profonde, basée sur des règles, qui sous-tend le langage humain – alors que vous étiez étudiant en doctorat dans les années 1950, et que votre premier livre sur ce sujet, « Syntactic Structures », était publié en 1957. Dans le domaine de la linguistique théorique, quelle comparaison pouvez-vous faire par rapport à l’avenir que vous auriez pu imaginer il y a 60 ans ?

N.C. : Impossible à comparer, méconnaissable. À l’époque, la linguistique était un domaine plutôt restreint, et l’intérêt que vous décrivez pour ce domaine se limitait au RLE [Laboratoire de Recherche en Electronique]. Les publications étaient peu nombreuses et guère réceptives à ce type de travail. A la suggestion de Roman Jakobson, mon premier livre – « La structure logique de la théorie linguistique » [The Logical Structure of Linguistic Theory (LSLT), NdT] – a été présenté au MIT press en 1955 [MIT Press est une maison d’édition universitaire américaine affiliée au Massachusetts Institute of Technology à Cambridge, Massachusetts, NdT]. Les critiques l’ont rejeté, avec le commentaire plutôt sensé que cela ne semblait convenir à aucun domaine connu (une version de 1956, avec quelques parties supprimées, a été publiée en 1975, lorsque la pertinence de ce domaine a été bien reconnue).

En réalité, il y avait une certaine culture, plutôt fertile en fait, et ce travail l’a, d’une certaine manière, ravivée et étendue. Mais elle était complètement inconnue à l’époque (et elle l’est toujours en grande partie).

À la fin des années 50, Morris Halle et moi avons demandé et obtenu rapidement l’autorisation de créer un département de linguistique, ce que nous avons considéré comme une idée assez folle. Les départements de linguistique étaient rares. Pourquoi devrait-il y en avoir un au MIT, en particulier ? Et pour une forme de linguistique dont presque personne n’avait jamais entendu parler ? Pourquoi un étudiant voudrait-il s’inscrire dans un tel département ? Nous avons décidé d’essayer quand même, et étonnamment, ça a marché. La première promotion s’est avérée être un groupe d’étudiants remarquables, qui ont tous poursuivi des carrières prestigieuses avec un travail original et passionnant – et cela s’est poursuivi, jusqu’à présent. Curieusement – ou peut-être pas – le même modèle a été adopté dans d’autres pays, l’« entreprise générative » prenant racine en dehors des grandes universités.

Notre premier étudiant en doctorat a en fait précédé la création du département : il s’agit de Robert Lees (un collègue du RLE), qui a écrit une étude très remarquée sur la nominalisation en Turquie [la substantivation ou nominalisation consiste à transformer en substantif un mot qui n’appartient pas originellement à cette catégorie, notamment un adjectif ou un verbe, NdT]. Comme il n’y avait pas encore de département, c’est notre ami Peter Elias, directeur du département de génie électrique du MIT, qui a géré le doctorat, il s’agit là d’un aspect informel du MIT plutôt typique et très productif. Cela a dû surprendre les fiers parents qui lisent les titres des thèses à la remise des diplômes.

« De nouveaux domaines d’investigation qui existaient à peine dans les années 50 se sont ouverts. Les étudiants explorent des questions qui n’auraient même pas pu être formulées il y a quelques années. »

Aujourd’hui, la situation est radicalement différente. Il y a des départements florissants partout, avec des contributions majeures en Europe, au Japon et dans de nombreux autres pays. Il existe de nombreuses revues, dont le MIT Press’s Linguistic Inquiry, qui vient de célébrer son 50e anniversaire. Des études de grammaire générative ont été réalisées pour un très large éventail de langues typologiquement diverses, à un niveau de complexité et de portée jamais imaginable auparavant. De nouveaux domaines d’investigation se sont ouverts qui existaient à peine dans les années 50. Les étudiants explorent des questions qui n’auraient pu être formulées il y a quelques années. Et le travail théorique a atteint des niveaux complètement nouveaux de richesse et de validation empirique, avec de nombreuses nouvelles voies prometteuses à explorer.

Dans les années qui ont suivi, Morris et moi avons souvent réfléchi au fait que nous n’aurions pas pu prévoir, ni même imaginer tout cela lorsque nous avons commencé à travailler ensemble au début des années 50. Ce qui s’est passé depuis semble presque magique.

A.B. : C’est dans ce livre de 1957 que vous avez employé votre célèbre phrase : « Des idées vertes sans couleur dorment furieusement » – démonstration de la façon dont une phrase peut être grammaticalement correcte mais ne pas avoir de sens sémantiquement, indiquant ainsi que la structure et la syntaxe sont primordiales et indépendantes du sens. Un poète pourrait contester le fait qu’une telle phrase n’aurait pas de sens (et pourrait peut-être la décrire comme démontrant ce que le linguiste et théoricien littéraire Roman Jakobson appelait la « fonction poétique » du langage), et nombre de personnes ont « injecté », pour ainsi dire, du sens dans cette phrase. Pourquoi pensez-vous qu’il en soit ainsi ?

N.C. : C’est simplement que les gens ne parviennent pas à comprendre le but de cet exemple et d’autres exemples comme celui-ci. Il s’agissait de réfuter les préjugés courants sur le statut grammatical : qu’il était déterminé par une approximation statistique à un corpus matériel, par des cadres formels, par une signification dans un sens structurel indépendant, etc. La phrase que vous citez, appelez-la (1), est simplement grammaticale mais viole tous les critères habituels. C’est pourquoi elle a été inventée à titre d’exemple. (1) diffère de la phrase structurellement similaire (2) « les nouvelles idées révolutionnaires apparaissent rarement » (qui, contrairement à (1), a une signification littérale immédiate) et de (3) « furieusement dorment couleur sans vertes idées des », l’original lu à l’envers, qui peut à peine être prononcé en prosodie normale. Le statut particulier de (1) découle bien sûr du fait que, bien que violant tous les critères de grammaticalité alors en vigueur, elle est de la même forme grammaticale que (2), avec un sens littéral et immédiatement interprétable sans être en aucune façon fallacieuse. Pour cette raison, il n’est pas difficile de construire des interprétations non littérales pour (1) (c’est possible, mais beaucoup plus difficile pour (3), car il manque la similitude structurelle avec des expressions entièrement grammaticales comme (2)).

Tout cela est discuté dans « Syntactic Structures », et beaucoup plus en détail dans LSLT [La structure logique de la théorie linguistique], (qui comprenait certains de mes travaux en collaboration avec Pete Elias développant un exposé de catégorisation avec un penchant d’information théorique qui fonctionne plutôt bien avec de petits échantillons et le calcul manuel qui était la seule option dans les années cinquante lorsque nous étions étudiants dans le supérieur à Harvard).

A défaut d’en saisir le sens, plusieurs personnes ont proposé des interprétations métaphoriques (« poétiques ») de (1), exactement dans le sens suggéré par la discussion dans « Structures syntaxiques ». Moins pour (3), bien que même cela soit possible, en s’y efforçant. Il est généralement possible de concocter une sorte d’interprétation pour à peu près n’importe quelle séquence de mots. La question pertinente, quand on étudie le langage, est de savoir comment les règles conduisent à des interprétations littérales (comme pour (2)) – et, d’autre part, comment d’autres processus cognitifs, reposant en partie sur la structure du langage (comme pour (1), (3)), peuvent fournir une multitude d’autres interprétations.

Commentaires concernant Noam : recueil d’hommages pour le 90e anniversaire de Noam Chomsky

A.B. :Dans notre entrevue avec Steven Pinker en mai, nous lui avons demandé son avis sur les conséquences de la récente explosion de l’intérêt pour l’Intelligence Artificielle et l’apprentissage automatique dans le domaine de la science cognitive [L’apprentissage automatique (en anglais machine learning, littéralement « apprentissage machine ») ou apprentissage statistique est un champ d’étude de l’intelligence artificielle qui se fonde sur des approches statistiques pour donner aux ordinateurs la capacité d’ « apprendre » à partir de données, c’est-à-dire d’améliorer leurs performances à résoudre des tâches sans être explicitement programmés pour chacune. Plus largement, il concerne la conception, l’analyse, le développement et l’implémentation de telles méthodes, NdT]. Pinker estimait qu’il y avait une « stérilité théorique » dans ces domaines et que cela conduirait à des impasses à moins qu’ils ne soient plus étroitement intégrés à l’étude de la cognition. Le domaine des sciences cognitives que vous avez contribué à créer était une rupture nette avec le behaviorisme – l’accent mis sur l’impact des facteurs environnementaux sur le comportement plutôt que sur les facteurs innés ou hérités – et le travail de B. F. Skinner. Voyez-vous la croissance de l’apprentissage automatique comme une sorte de retour au behaviorisme ? Pensez-vous que la direction dans laquelle le domaine de l’informatique se développe est préoccupante ou qu’elle pourrait donner un nouveau souffle à l’étude de la cognition ?

N.C. : Parfois, elle est explicitement revendiquée, même de façon éhontée, voire triomphale. Dans la récente « Révolution de l’apprentissage en profondeur » de Terrence Sejnowski, par exemple, qui proclame que Skinner a raison ! Un malentendu assez sérieux concernant Skinner et les succès de la « Révolution », je pense.

Il y a des questions évidentes à se poser au sujet des projets d’« apprentissage automatique ». Prenons un exemple typique, le Google Parser. La première question à se poser est : à quoi cela sert-il ? Si le but est de créer un dispositif utile – une forme étroite d’ingénierie – il n’y a rien d’autre à dire.

Supposons que le but en soit la science, c’est-à-dire apprendre quelque chose sur le monde, dans ce cas-là, concernant la cognition – en particulier sur la façon dont les humains traitent les phrases. Alors d’autres questions se posent. La question la plus inintéressante, et pourtant la seule qui semble avoir été soulevée, est de savoir dans quelle mesure le programme analyse bien, par exemple, le corpus du Wall Street Journal.

Disons qu’il réussit dans 95 pour cent des cas, comme le proclame Google PR, qui déclare que le problème de l’analyse est fondamentalement résolu et que les scientifiques peuvent passer à autre chose. Qu’est-ce que cela signifie exactement ? Rappelez-vous que nous considérons maintenant que nous sommes dans le domaine de la science. Chaque phrase du corpus peut être considérée comme la réponse à une question posée empiriquement : Êtes-vous une phrase grammaticale en anglais avec telle ou telle structure ? La réponse est : Oui (normalement). Nous posons alors la question qui s’ensuivrait dans n’importe quel domaine de la science. Quel est l’intérêt d’une théorie ou d’une méthode qui permet d’obtenir la bonne réponse dans 95 % des expériences choisies au hasard, réalisées sans objet ? Réponse : Pratiquement aucun intérêt. Ce qui est intéressant, ce sont les réponses à des expériences critiques fondées sur la théorie, conçues pour trouver des réponses à une question importante.

Donc si il s’agit de « science », alors c’est une science qui ne nous est pas connue.

La question suivante est de savoir si les méthodes utilisées sont identiques à celles utilisées par les humains. La réponse est: Absolument pas. Encore une fois, il s’agit d’un domaine de la science qui nous est inconnu.

Mais il y a une autre question, qui apparemment n’a jamais été soulevée. Dans quelle mesure l’analyseur syntaxique peut-il être utilisé de façon efficace sur les langages impossibles, ceux qui violent les principes universels du langage [l’analyse syntaxique consiste à mettre en évidence la structure d’un texte, généralement une phrase écrite dans une langue naturelle, mais on utilise également cette terminologie pour l’analyse d’un programme informatique. L’analyseur syntaxique (parser, en anglais) est le programme informatique qui réalise cette tâche, NdT] ? Il est à noter, si on est dans un contexte scientifique, que le taux de succès dans l’analyse informatique de tels systèmes serait considéré comme un échec. Bien que cela n’ait pas été essayé, à ma connaissance, la réponse est presque certainement que le taux de succès serait élevé, dans certains cas même plus élevé (beaucoup moins d’essais d’apprentissage, par exemple) que pour les langages humains, tout particulièrement quand il s’agit de systèmes conçus pour utiliser des propriétés élémentaires de calcul informatique qui sont en principe bannies pour le langage humain (par exemple en utilisant un ordre linéaire). On sait maintenant beaucoup de choses sur les langages impossibles, y compris certaines évidences psycholinguistiques et neurolinguistiques sur la façon dont les humains gèrent de tels systèmes – si tant est qu’ils le fassent, les considérant alors comme des énigmes, et non pas comme des langages.

« Dans presque tous les domaines pertinents, il est difficile de voir comment [l’apprentissage automatique] apporterait quelque contribution que ce soit à la science, en particulier à la science cognitive. »

Bref, concernant pratiquement tous les aspects significatifs, il est difficile de voir comment ce travail apporterait quelque contribution que ce soit à la science, en particulier à la science cognitive, quelle que soit sa valeur pour la construction de dispositifs utiles ou pour l’exploration des propriétés des processus informatiques employés.

On pourrait faire valoir que cette dernière question est mal formulée parce qu’il n’existe pas de langues impossibles : tout ensemble arbitrairement choisi de séquences de mots est autant une langue qu’une autre. Même en l’absence d’une preuve suffisante du contraire, l’allégation devrait être rejetée pour des raisons logiques élémentaires : si ce raisonnement était vrai, on ne pourrait jamais apprendre une langue, pour parler de façon triviale. Néanmoins, à l’apogée du behaviorisme et du structuralisme, cette conviction était largement répandue, parfois de manière assez explicite, dans le cadre de ce que l’on appelait « la thèse boasienne » selon laquelle les langues peuvent varier les unes des autres de manière arbitraire et doivent être étudiées sans préjugés (les biologistes ont émis des avis similaires concernant la diversité de la faune) [thèse boasienne : en anthropologie, qui adhère aux thèses de Franz Boas, anthropologue américain, fondateur de l’anthropologie moderne (1858-1942), NdT]. Des idées analogues sont au moins implicites dans certains ouvrages sur l’apprentissage automatique. Il est cependant clair que les allégations ne peuvent pas être sérieusement prises en compte et sont maintenant connues pour être incorrectes (en ce qui concerne également les organismes).

Il pourrait être utile d’ajouter un mot sur la notion d’expérience critique, c’est-à-dire d’expérience théorique conçue pour répondre à une question qui suscite un intérêt linguistique. En ce qui concerne cela, les systèmes d’analyse mécanique largement vantés ont des performances assez médiocres, comme l’a montré avec efficacité Sandiway Fong, spécialiste des sciences cognitives informatisées. Et c’est du moins ce qui compte pour la science, et pas seulement de faire correspondre les résultats d’expériences arbitraires sans objectif (comme la simulation, ou l’analyse d’un corpus). Les expériences les plus intéressantes concernent des constructions linguistiques « exotiques » qui sont rares dans le langage habituel mais que les gens comprennent immédiatement ainsi que les conditions curieuses qu’elles remplissent. Plusieurs d’entre elles ont été découvertes au fil des ans. Leurs propriétés sont particulièrement révélatrices parce qu’elles mettent en lumière les principes non explorés qui rendent possible l’acquisition du langage – et même si je n’en parlerai pas ici, l’étude de l’acquisition du langage chez l’enfant et les études statistiques approfondies du patrimoine linguistique (notamment par Charles Yang) dont l’enfant dispose, montrent que cette notion d’« exotique » se décline très largement dans le vécu d’un enfant.

A.B. : Vous restez plus actif que jamais, sur plus d’un front – en collaborant par exemple ces dernières années avec des collègues d’autres domaines comme l’informatique et les neurosciences dans la publication d’une série d’articles. Sur quoi travaillez-vous actuellement ?

N.C. : Cela vaut vraiment la peine de revenir brièvement au tout début. J’ai commencé par faire des essais avec des grammaires génératives comme passe-temps personnel à la fin des années 40. Mon propos était en partie d’essayer de rendre compte des données au travers d’une grammaire générative explicite basée sur des règles, mais encore plus d’explorer le sujet de la simplicité de la grammaire, du « programme le plus court », un problème non trivial, que l’on ne peut résoudre que partiellement par calcul manuel en raison de la complexité des systèmes de règles bien hiérarchisés à l’intérieur du corps de l’ouvrage. Quand je suis arrivé à Harvard peu après, j’ai rencontré Morris Halle et Eric Lenneberg. Nous sommes rapidement devenus des amis proches, en partie grâce au scepticisme partagé au sujet des doctrines dominantes de la science du comportement – qui étaient des dogmes virtuels à l’époque. Ces intérêts mutuels ont rapidement mené à ce qu’on a appelé plus tard le « programme de biolinguistique », l’étude de la grammaire générative comme trait biologique de l’organisme (Eric a ensuite fondé le domaine contemporain de la biologie du langage à travers ses travaux désormais bien connus).

Dans le cadre de la biolinguistique, il est d’emblée clair que ce qui serait le « Saint Graal », ce serait l’explication des propriétés fondamentales du langage sur la base de grammaires génératives fondées sur des principes qui répondent à la double condition de capacité apprenante et d’adaptabilité. C’est le critère d’une véritable explication. Mais cet objectif était loin d’être atteint.

La mission première était d’essayer de donner un sens à l’énorme quantité de nouvelles données et aux problèmes curieux qui se sont rapidement accumulés dès que les premiers efforts ont été faits pour construire des grammaires génératives. Pour ce faire, il semble que des mécanismes assez complexes aient été nécessaires. Je ne reviendrai pas sur l’histoire depuis lors, mais l’idée maîtresse a été de montrer que des hypothèses plus simples et davantage fondées sur des principes peuvent donner des résultats empiriques identiques ou meilleurs sur un large éventail de sujets.

Au début des années 90, il semblait à certains d’entre nous qu’il devenait maintenant possible de prendre le taureau par les cornes : adopter les mécanismes de calcul les plus simples pouvant au moins produire la Propriété Fondamentale et essayer de démontrer que les propriétés fondamentales du langage peuvent s’expliquer en ces termes – en termes de ce que l’on a appelé « la thèse minimaliste forte (SMT) [en français TMF, NdT] ». Je pense que des progrès considérables ont déjà été réalisés dans cette démarche, considérant les premières explications authentiques des propriétés universelles significatives de la langue qui satisfont de manière plausible aux deux conditions.

La tâche qui nous attend comporte plusieurs volets. L’un des premiers volets consiste à déterminer dans quelle mesure la TMF peut englober les principes fondamentaux du langage qui ont été mis en lumière dans les recherches de ces dernières années, et prendre en compte les expériences critiques, celles qui sont particulièrement révélatrices en ce qui concerne les principes qui entrent dans le fonctionnement de la faculté de la parole et qui expliquent l’acquisition du langage.

Un deuxième volet consiste à faire la distinction entre les principes propres à la langue – propres à la structure innée de la faculté du langage – et les autres principes qui sont plus généraux. Les principes de l’efficacité computationnelle sont particulièrement éclairants à cet égard – ce qui n’est pas surprenant pour un système aussi complexe que le langage [La pensée computationnelle s’intéresse à la résolution de problèmes, à la conception de systèmes ou même à la compréhension des comportements humains en s’appuyant sur les concepts fondamentaux de l’informatique théorique, NdT]. Les principes computationnels spécifiques aux systèmes dont la capacité de ressources à court terme est limitée sont particulièrement intéressants, puisqu’il s’agit là d’une catégorie dont les conséquences empiriques critiques ont récemment été démontrées. Un autre volet encore consiste à affiner ces principes afin d’inclure ceux qui jouent un rôle dans l’explication authentique tout en excluant ceux qui paraissent superficiellement similaires mais dont on peut démontrer qu’ils sont illégitimes tant sur le plan empirique que conceptuel.

Des travaux assez intéressants sont en cours dans tous ces domaines, et le moment semble venu de procéder à un examen complet des développements qui, à mon avis, constituent une étape plutôt nouvelle et passionnante dans un ancien domaine de recherche.

« Pour la première fois, il me semble que dans des domaines essentiels le Graal est au moins en vue, peut-être même à portée de main. »

En bref, pour la première fois, je pense que dans certains domaines essentiels le Saint-Graal est au moins en vue, peut-être même à portée de main. C’est le principal sujet de travail dans lequel je me suis récemment engagé et j’espère être en mesure d’arriver à quelque chose très bientôt.

A.B. : Vous avez récemment fêté – sur le campus du MIT, avec un grand nombre d’amis et de collègues – votre 90e anniversaire. De tels événements marquants incitent bien sûr à la réflexion, même lorsqu’on regarde vers l’avenir. En examinant votre travail à ce jour, quelle a été, selon vous, votre contribution théorique la plus significative dans le domaine de la linguistique ?

N.C. : Ouvrir à la recherche de nouveaux types de questions et de sujets.

A.B. : Une question très large, mais qui parle peut-être de l’époque dans laquelle nous vivons en ce moment: Qu’est-ce que vous considérez aujourd’hui comme une raison d’être optimiste ?

N.C. : Plusieurs points. Premièrement, l’époque dans laquelle nous vivons est extrêmement dangereuse, d’une certaine manière plus que jamais dans l’histoire de l’humanité – et sous la forme que nous connaissons, cette histoire se terminera inévitablement si nous ne faisons pas face efficacement aux menaces croissantes de guerre nucléaire et de catastrophe environnementale. Pour cela, il faut renverser la tendance des États-Unis à démanteler les accords de contrôle des armements tout en mettant au point, comme la Russie d’ailleurs, des programmes d’armement toujours plus meurtriers et déstabilisateurs; et de non seulement refuser de se joindre au monde pour tenter de faire quelque chose contre la grave crise environnementale mais même en procédant de façon offensive pour aggraver cette menace, une forme de crime sans aucun antécédent dans notre histoire.

Pas facile, mais c’est faisable.

Il y a eu d’autres crises graves dans l’histoire de l’humanité, même si ce n’est pas à cette échelle. Je suis assez vieux pour me souvenir de l’époque où il semblait que l’avancée du fascisme était inexorable – et je ne parle pas ici de ce que l’on appelle aujourd’hui le fascisme, mais de quelque chose d’incomparablement plus terrible. Mais il a été vaincu.

Il existe des formes très impressionnantes d’activisme et d’engagement, surtout chez les jeunes. C’est très encourageant.

En dernière analyse, nous avons toujours deux choix: nous pouvons choisir de sombrer dans le pessimisme et l’apathie, en présupposant qu’on ne peut rien faire et en nous efforçant de faire en sorte que le pire arrive. Ou bien nous pouvons saisir les opportunités qui existent – et il y en a – et les explorer dans la mesure du possible, contribuant ainsi à faire de ce monde un monde meilleur.

Le choix n’est pas difficile à faire.

Amy Brand est Directrice de la MIT Press.

Source : The Mit Press Reader, Amy Brand, 12-08-2019

Traduit par les lecteurs du site www.les-crises.fr. Traduction librement reproductible en intégralité, en citant la source.

Nous vous proposons cet article afin d'élargir votre champ de réflexion. Cela ne signifie pas forcément que nous approuvions la vision développée ici. Dans tous les cas, notre responsabilité s'arrête aux propos que nous reportons ici. [Lire plus]Nous ne sommes nullement engagés par les propos que l'auteur aurait pu tenir par ailleurs - et encore moins par ceux qu'il pourrait tenir dans le futur. Merci cependant de nous signaler par le formulaire de contact toute information concernant l'auteur qui pourrait nuire à sa réputation. 

Commentaire recommandé

Krokodilo // 28.02.2020 à 15h47

Embrouillé, je dirais même assez creux. Des tonnes de mots pour dire quoi au final? Et surtout en éludant le problème humain principal quant au langage : comment surmonter le mur de Babel, l’incommunicabilité qui règne encore entre la plupart des Humains. On est donc bien dans la linguistique!

15 réactions et commentaires

  • Araok // 28.02.2020 à 08h58

    Merci aux traducteurs, mais…c’est bien embrouillé et jargonesque. Si un collègue des Crises avait quelques références concernant les rapports langage/pensée, et permanence de la structure (syntaxique) du langage, je serais preneur.
    Bonne journée à tous.

      +3

    Alerter
    • Krokodilo // 28.02.2020 à 15h47

      Embrouillé, je dirais même assez creux. Des tonnes de mots pour dire quoi au final? Et surtout en éludant le problème humain principal quant au langage : comment surmonter le mur de Babel, l’incommunicabilité qui règne encore entre la plupart des Humains. On est donc bien dans la linguistique!

        +5

      Alerter
    • Olipo // 28.02.2020 à 17h38

      https://www.facebook.com/notes/olivier-imbert/ensemble-de-textes-sur-lorigine-des-langues-dun-point-de-vue-mat%C3%A9rialiste-compat/10217137000889807/ ensemble auquel j’ajoute la référence à Aubenque le problème de l’être chez Aristote…notamment à l’apport par rapport à Platon dans le cratyle, du traite de l’interprétation et de l’a question de la signification.

        +3

      Alerter
    • jc // 28.02.2020 à 22h06

      @ Araok

      Je remonte ici un commentaire fait du précédent article sur Chomsky (la bicyclette…). Il y est question de pensée, de langage … et de jargonnage (dans la vidéo).

      Je signale les travaux du philosophe-mathématicien René Thom -datant maintenant d’une cinquantaine d’années- qui vont dans le sens “universaliste” de Chomsky (“le système interne, qui donne les propriétés fondamentales du langage en tant que système de pensée, peut être proche de l’uniformité chez les humains”). Thom a consacré le dernier chapitre de son “Stabilité structurelle et morphogénèse” (2ème ed., 1977) à ce sujet. Il l’a intitulé “Pensée et langage” (et je ne serais pas étonné qu’il l’ait intitulé ainsi pour s’opposer au bouquin “Le langage et la pensée” de Chomsky). Thom relie l’universalité “profonde” du langage humain à l’universalité biologique de l’espèce humaine. Les curieux auront une esquisse de sa façon de voir les choses dans son entretien avec Émile Noël, de 28’40 à 32’30. https://www.youtube.com/watch?v=fUpT1nal744

        +1

      Alerter
      • Araok // 29.02.2020 à 12h39

        Merci
        En fait ma préoccupation est de savoir comment on peut prouver formellement une assertion. Autrement dit est-il possible de transformer une affirmation en langage vernaculaire en un langage de type algorithmique puis en langage d’une structure telle qu’on puisse en tester non seulement sa non-fausseté mais sa justesse.
        Chers amis, vous voyez que ma réflexion est balbutiante.
        Bonne journée

          +0

        Alerter
        • jc // 29.02.2020 à 15h47

          Les sempiternels conflits syntaxe/sémantique et signifiant/signifié.

          Je n’ai rien lu de Chomsky mais le titre d’un de ses bouquins « Le langage et la pensée » me suggère qu’il est avant tout un syntaxique (alors que Thom s’affiche clairement comme un sémantique, souligné par le titre du dernier chapitre de « Stabilité structurelle et morphogenèse » (la 2ème ed., pas la première) intitulé « De l’animal à l’homme: pensée et langage » (ce qui, soit dit en passant, va avec sa position lamarckienne en biologie -c’est la fonction qui crée l’organisation- que les logisticiens modernes ne contesteraient sans doute pas en sociologie).

          Thom ne s’intéresse pas prioritairement à la vérité, mais au sens. Pour lui « ce qui limite le vrai, ce n’est pas le faux, c’est l’insignifiant ». Son oeuvre n’est pas une quête de la vérité mais une quête du sens:

          « … le problème important -en matière de philosophie du langage- n’est pas celui de la vérité (affaire d’accident, dirait Aristote), mais bien celui de l’acceptabilité sémantique, qui définit le monde des « possibles », lequel contient le sous-ensemble (éminemment variable) du réel. » (Esquisse d’une sémiophysique, p.16)

            +0

          Alerter
        • jc // 29.02.2020 à 15h50

          (Fin)

          Je ne connais quasiment rien en linguistique hors du prisme thomien. Et je crois que Thom est en linguistique un véritable OVNI méconnu (et, a fortiori, incompris). Ci-après un extrait du dernier chapitre de SSM, p;314, 2ème ed. (ça décoiffe!):

          « L’interaction de l’actant postiche avec le concept signifié peut être regardé comme une catastrophe d’excision¹: excité -fécondé- par la rencontre avec l’actant vide, le concept émet un gamète, comme si son niveau venait à dépasser le niveau du volcan gonadique (…). le gamète émis par le concept n’est autre que le mot (le nom correspondant). l’émission verbale apparaît ainsi comme un véritable orgasme. »

          Jean Petitot a tenté de surmonter le hiatus entre perception morphologique et prédication logique ici: http://jeanpetitot.com/ArticlesPDF/Petitot_ThomUrbino.pdf

          Bon courage!

          ¹: Catastrophe thomienne ombilicale

            +0

          Alerter
        • jc // 02.03.2020 à 09h20

          Chomsky: « Le langage interne est basé sur des opérations récursives qui produisent ce que nous appelons la Propriété de base du langage : la production d’un ensemble infini d’expressions hiérarchiquement structurées qui sont interprétées comme des pensées ».

          Infinitude chomskienne contre finitude thomienne?

          Petitot sur Thom: https://hal.archives-ouvertes.fr/hal-01265180/document

          – « Dans la linguistique moderne, les grammaires casuelles constituent l’un des grands paradigmes alternatifs à celui des grammaires génératives de Noam Chomsky. (…) Les théories structurales, actantielles et casuelles de la syntaxe constituent un véritable continent et Thom a été le premier mathématicien à leur offrir des outils mathématiques idoines non triviaux. » (p.31 bas)

          – « Une des conséquences de sa théorie dont Thom était le plus fier était qu’elle expliquait la limitation drastique de la valence verbale. Dans un graphe actantiel, les vertex sont des nœuds verbaux et les arêtes sont les actants que le nœud verbal fait interagir. Le nombre d’arêtes (le degré du vertex) s’appelle la valence du nœud verbal. On constate empiriquement que, dans toutes les langues, celle-ci est limitée à 4. Pour Thom cela était la conséquence du fait qu’il ne peut pas y avoir plus de 4 déterminations en interaction locale dans les morphologies archétypes. (p.30 bas)

            +0

          Alerter
  • Tournepierres // 28.02.2020 à 11h13

    A Araok
    Avez vous entendu parler de la « Semantique » generale de À Korgibsky ? Je m’étonne de ne pas en entendre parler dans cette entrevue. Peut-être y trouverez-vous des réponses à votre question.
    Cordialement

      +1

    Alerter
    • Araok // 28.02.2020 à 21h30

      Merci Tournepierres
      Non, je ne connais pas, j’y vais.
      Chomsky je le connaissais fin des années 60 aux temps héroiques où on écrivait ses partitions sur 360/50. Le moyen âge quoi…

        +0

      Alerter
  • IMBERT OLIVIER // 28.02.2020 à 17h19

    il n’y a aucune incompatibilité entre la linguistique structuraliste issue de De Saussure dans son cours de linguistique générale( antérieur aux travaux de la linguistique que vous appelez moderne), et la grammaire générative notamment la partie construite conceptuellement par de Saussure sur la linguistique non seulement de la langue et non de la parole mais la construction syntagmatique en complément de la construction paradigmatique qui sont telle la grammaire générative, non normatives, contrairement à la grammaire de port royal issue elle de la pensée de Descartes sur le langage et l’ouverture dite par Chomsky susceptible d’algorithmes est aussi susceptible de dénombrements statistiques et aléatoires, ce que nous voyons dans nos portables…dans l’aide à l’écriture. Foucault le pense très bien dans les mots et les choses.. l’objet langage est susceptible d’objectivité et la grammaire générative n’en est qu’une partie et donc ensemble ont parlé de l’aspect synchronique de la linguistique syntagmatique est susceptible de compléments phonologiques et non seulement phonétiques, en tant que linguistique de la parole, l’acte de phonation ayant comme problème le caractère non homogène de l’aspect physique et de l’aspect psychologique qui lui revient au signe…en tant qu’unité du signifiant image acoustique et concept ou signifié indépendant du référent ou désigné…

      +0

    Alerter
  • aksavavit // 01.03.2020 à 18h57

    Chomsky est un génie linguistique fourvoyé, mais du moins a-t-il été constant dans son fourvoiement.
    Comme il le réaffirme dans cet entretien, il croit que le langage n’est qu’un outil d’expression d’une pensée qui existerait par elle-même dans les cerveaux humains, n’attendant que cet outil pour s’exprimer. Du coup, l’outil pourrait facilement être mis en équations, comme Chomsky n’a cessé de le faire toute sa vie, de la même façon qu’on peut faire le plan d’un bâtiment, expliquer le fonctionnement d’un moteur à quatre temps ou modéliser la trajectoire d’une fusée.
    C’est malheureusement à la fois plus simple et plus compliqué. Le langage est une construction qui a pris des millions d’années, à partir de fonctionnements du cerveau préexistants, qu’il a modifiés en retour, via la sélection naturelle de cerveaux de plus en plus gros et de plus en plus complexes (la taille du cerveau moderne est environ triple de celle des australopithèques).
    La pensée a donc forcément coévolué avec le langage, ce dont témoignent abondamment l’archéologie et la paléontologie humaines.
    Vous qui lisez, avez tous fait l’expérience de vous arrêter au milieu d’une phrase, parfois cherchant le mot convenable, mais aussi parfois cherchant à ordonner vos idées. On pense en même temps qu’on parle, ce que Chomsky ne sait pas concevoir.

      +0

    Alerter
  • jc // 02.03.2020 à 11h45

    aksavavit: « On pense en même temps qu’on parle, ce que Chomsky ne sait pas concevoir. »

    Thom, qu a écrit des choses assez décoiffantes sur les automatismes du langagei, a parfaitement perçu le balancement¹ du « on parle parce qu’on pense » et du « on pense parce qu’on parle »:

    « L’opposition entre la singularité créée comme un défaut d’une structure propagative ambiante et la singularité qui est source de l’effet propagatif lui-même, pose un problème central que l’on retrouve dans presque toutes les disciplines scientifiques. La physique contemporaine admet plutôt le premier aspect [le deuxième?]: la particule est source d’un champ qu’elle génère. En relativité générale, la particule apparaît plutôt comme une singularité de la métrique de l’espace-temps. On retrouve ici cette aporie fondamentale du continu et du discret qui est au coeur de la mathématique². On la retrouvera jusqu’en psychologie: est-ce que nous parlons parce que nous pensons ou, au contraire, est-ce que nos pensons parce que nous parlons? » (Apologie du logos, p.313)

    ¹: Élie-Bernard Weil: « «Il faut apprendre ou réapprendre à penser toujours d’une manière bipolaire et de ne pas céder à l’attrait d’une pensée unipolaire, branchée sur un pôle dominant -ce qu’on appelle aussi « pensée unique » de nos jours -une tentation qui fait immanquablement plonger dans l’erreur et l’impuissance. »

    ²: L’opposition géométrie-topologie/arithmétique-algèbre.

      +0

    Alerter
    • jc // 03.03.2020 à 10h20

      Complément.

      La générativité (des grammaires génératives) est indissociable de la récursivité, de la répétitivité.

      Thom: « Dans la langue, les relations syntaxiques visibles sont d’une effrayante pauvreté, d’une monotonie qui prend peur d’elle-même et stoppe toute générativité (éviter la répétition, pulsion de mort, manifestation de l’instinct de mort selon Freud…). Par contre, les éléments de base -noms, verbes ou adjectifs (et j’emploie à dessein une terminologie naïve mais très probablement universelle)- sont sémantiquement très riches, ils désignent des concepts dont la signification, comme le montre la consultation des grands dictionnaires, est d’une richesse qui dépasse l’imagination. » (Apologie du logos, envoi p.32)

      Opposition des grammaires génératives et casuelles en rapport avec l’opposition mathématique arithmétique/géométrie, la générativité-répétitivité renvoyant à la musique et au langage chanté (Chomsky évoque ici le chant des oiseaux), les grammaires casuelles renvoyant, selon Thom, à la géométrie de l’espace-temps.

      Répétitivité du chant: pulsion de mort ou pulsion de vie?

        +0

      Alerter
    • jc // 04.03.2020 à 14h35

      Supplément.

      Thom: « Au fond, en mathématique, tout sort de l’itération obstinée et stupide de l’opération n → n+1 (addition de 1). Cette générativité, dûment qualifiée (rendue porteuse de qualités) engendre le monoïde libre des « mots » engendrés par un alphabet fini. C’est là le « chaos » primitif d’où vont naître toutes les structures intéressantes de l’algèbre. Tout se passe alors comme si le flot de la combinatoire libre du monoïde venait en quelque sorte à s’« enrouler » autour de figures intéressantes par leurs propriétés
      globales (…) » (1984, Sur le problème de l’innovation.)

      Je ne serais pas étonné d’un rapport « profond » entre les grammaires génératives et l’algèbre mathématique. Issus du chaos dont parle Thom sont certains groupes de réflexion -groupes de Coxeter- qui ont la particularité d’avoir à la fois une présentation algébrique et une présentation géométrique. Une voie de recherche pour établir des liens en linguistique entre les générativistes et les casualistes?

        +0

      Alerter
  • Afficher tous les commentaires

Les commentaires sont fermés.

Et recevez nos publications