La recherche linguistique est depuis longtemps divisée sur la question de savoir si elle doit embrasser une perspective humaniste ou adopter une approche scientifique et formalisante. Les partisans de la première position soutiennent que « la linguistique relève de l'étude de l'humain », et met l'accent sur l'interprétation des phénomènes linguistiques, l'identification des règles, accompagnées d'analyses critiques. Les défenseurs de la seconde orientation soutiennent que la linguistique gagnerait à s'inspirer des principes fondamentaux des sciences naturelles — tels que la vérifiabilité, la reproductibilité et la cumulativité — afin de réduire la subjectivité de l'interprétation, grâce à des méthodes objectivées, fondées sur les données et plus précises. Avec la puissance croissante des ordinateurs, cette seconde approche semble l'emporter.
Le linguiste et philosophe américain Noam Chomsky a intégré la logique mathématique à la recherche linguistique pour proposer la « grammaire générative-transformationnelle », orientant ainsi les études linguistiques vers l'exploration de l'esprit. Cette approche, visant à expliquer la formation de la syntaxe par des méthodes computationnelles formelles, s'est rapidement imposée et a exercé une influence profonde sur le monde académique durant près d'un demi-siècle. Toutefois, cette méthode présente également une faiblesse congénitale : une importance excessive accordée à la scientifisation des sciences humaines.
La compréhension et l'expression humaines ne peuvent pas toujours s'appréhender selon des formules prédéfinies, et les individus n'adoptent pas non plus invariablement un mode de raisonnement logique de type « 1 + 1 = 2 ». Les sciences humaines doivent donc se fonder sur des principes issus de l'expérience humaine vécue. La « philosophie incarnée » et la « linguistique cognitive » mises en avant par le linguiste américain George Lakoff et le philosophe américain Mark Johnson, entre autres, héritent de l'approche chomskyenne des études linguistiques centrée sur l'esprit tout en s'écartant nettement de ses orientations théoriques et méthodologiques. Leurs approches mettent l'accent sur les mécanismes cognitifs qui sous-tendent la formation du langage et rejettent explicitement les méthodes formalistes. Ces dernières années, s'appuyant sur la cognition incarnée et la linguistique cognitive, la « linguistique incarnée-cognitive » développée en Chine insiste sur un point de vue matérialiste et axé sur l'humain, permettant ainsi à la recherche linguistique de renouer avec son authenticité.
Il y a plusieurs années, sous la forte influence de la philosophie du langage idéal — en particulier par la linguistique chomskyenne — la communauté linguistique internationale s'est orientée vers une plus grande formalisation et une plus grande « datafication », au risque de négliger la construction théorique. Après l'introduction de ce courant de pensée en Chine, la statistique linguistique, l'analyse des données et les tableaux formels ont fini par dominer l'écriture académique, donnant à de nombreux articles de linguistique l'apparence de résultats de recherche en sciences naturelles et en ingénierie. Ces études portaient souvent sur des questions de recherche dont les conclusions étaient déjà établies, et certaines se démarquaient même par un manque d'argumentation clairement articulée. Alors que cette vague de recherche formaliste centrée sur les données commençait à s'estomper, il s'est ensuivi une nouvelle déferlante liée à l'intelligence artificielle (IA). Alors que les ordinateurs, le big data et l'IA jouent un rôle de plus en plus central dans la société contemporaine, de nombreuses tâches simples et mécaniques peuvent désormais être déléguées à des machines et à des robots.
En matière de traduction, certains pensent qu'il suffit de tapoter sur un clavier, sans qu'il soit nécessaire pour l'être humain de passer de longues heures pour rendre un travail de qualité. Dans ce contexte où la communauté linguistique se voit submerger par la vague de l'intelligence artificielle, « l'autonomisation par l'IA » est devenue une expression à la mode dans toutes sortes de conférences, cours, revues et rapports. Les MOOC, les micro-cours, les classes fondées sur le big data et les expériences d'électroencéphalographie, tous largement tributaires des technologies numériques, connaissent un grand succès. Certaines universités envisagent dès lors d'annuler les cursus en traduction ou de supprimer les filières de langues étrangères. Bien que de telles mesures puissent se comprendre pour des établissements non spécialisés en langues, leur généralisation risquerait de privilégier les sciences naturelles au détriment des sciences humaines. Il convient donc d'accorder une grande importance à ce phénomène pour ne pas tomber dans le piège du scientisme.
La recherche linguistique doit préserver les principes axés sur l'humain tout en s'inspirant de méthodes issues de l'IA, du big data et des approches expérimentales. Les sciences humaines et les sciences naturelles n'ont jamais entretenu de relation d'opposition binaire ; elles sont au contraire étroitement liées, se renforcent mutuellement et se complètent. Bien que les progrès de la technologie moderne aient rendu notre vie et notre travail plus pratiques et plus confortables, cela ne justifie pas une extension illimitée des méthodes de recherche des sciences naturelles, au point d'occulter la dimension humaine du langage. Par conséquent, la recherche linguistique doit se fonder sur la science sans sombrer dans le scientisme : elle doit promouvoir l'innovation théorique sur la base de données empiriques.
Wang Tianyi et Wang Yin sont professeurs à la Faculté d'Études anglaises de l'Université des Études internationales du Sichuan.