Club Open Prospective
Etienne Grass
A l'heure de l'explosion des grands modèles génératifs tels que GPT-4, Bard ou Llama, que devient notre relation au langage ?
Aujourd'hui, les grammaires génératives se sont repliées dans un formalisme quasi-total, dans un degré d'abstraction algorithmique si grand qu'elles n'ont plus guère de rapport avec la réalité des univers langagiers concrets. » Cette phrase semble venir d'un gourou de l'intelligence artificielle. Elle est en réalité du regretté George Steiner et est vieille de trente ans, dans l'introduction à la réédition de son grand opus, « Après Babel » (Albin Michel). Plus qu'une prescience, le livre de Steiner est le premier à avoir touché une problématique devenue essentielle : à l'heure de l'explosion des grands modèles génératifs (les fameux « LLM ») tels que GPT-4, Bard ou Llama, que devient notre relation au langage ?
Steiner a montré que la langue est une traduction : indépendamment des quêtes éternelles pour la faire tendre vers l'universel, elle s'ancre dans une culture qu'elle a l'obsession de transmettre. Elle reproduit en permanence un système social. C'est à ce titre qu'elle est vivante et chargée de valeurs. Lorsqu'elle s'exprime de façon « naturelle », rien ne la fait tendre vers la vérité, à moins qu'elle ne soit contrainte dans une heuristique. Souvenons-nous qu'existent encore aujourd'hui pas moins de 7.000 langues à travers la planète, dont certaines sont perpétuées à l'échelle d'un unique village depuis plusieurs siècles. « L'algorithme, le projet d'une langue universelle, c'est la révolution contre le langage donné », disait déjà Maurice Merleau-Ponty après-guerre. Vouloir contraindre les algorithmes risquerait de nous déraciner.
C'est le débat qui oppose deux stars mondiales de la linguistique. Ce débat remonte aux années 1960 : d'un côté, Noam Chomsky, qui considère que la langue est une capacité innée de l'hommequi lui est propre. Il évacue la question en s'opposant vigoureusement à l'idée que les LLM produiraient du langage. Leur production ne serait rien d'autre que « du plagiat » ou les artefacts d'un « perroquet stochastique ». De l'autre, les structuralistes, dans la tradition de Quentin Skinner, voient dans l'explosion contemporaine des LLM la confirmation de leur thèse selon laquellele langage est toujours le fruit d'un apprentissage. Ils regrettent l'anthropocentrisme de nos standards d'évaluation de l'IA et soulignent le besoin d'actualiser le test de Turing pour évaluer les risques des IA.
Ici surgit le plus littéraire des mammifères, la baleine, dans une contribution inattendue. Dans le cadre du Ceti Project, une équipe du MIT (le CSAIL) teste des modèles de langage pour établir une communication entre cétacés. Il est en effet établi que les baleines communiquent grâce à des signaux latéraux, que les experts appellent des « codas ». Sans que l'on parvienne à les déchiffrer, une science de ces codas a permis d'établir une sorte d'alphabet, structuré autour d'une vingtaine de codas types.
Un point pour Chomsky : s'ils parviennent à établir un LLM des baleines, les équipes du MIT auront montré que les modèles reproduisent des signaux sans jamais en percer le sens. Mais un point en retour est venu pour Skinner : un « moment Champollion » devient désormais possible pour les équipes du MIT, en confrontant les codas artificielles avec les émotions exprimées par les animaux dans différentes circonstances. La frontière entre « signal » et « langage » se brouille, en somme. A moins qu'elle ne se dévoile, comme une très longue zone d'inconnue, traversant la nature de part en part, et dont l'homme s'est jusqu'alors très peu préoccupé… Heureux détour par lequel l'IA nous rapproche d'une conception plus honnête de la nature.
Comments