Tribune par Jörn Cambreleng, publiée dans Le Monde du samedi 19 octobre
.
Aux avant-postes du débat sur les usages de l’intelligence artificielle (IA) se trouvent les traductrices et les traducteurs. Non seulement parce qu’ils sont sensibles à la langue et qu’ils se sentent concernés à cet égard, mais parce que leur profession, en particulier pour celles et ceux qui traduisent de la littérature, a longtemps été désignée comme un horizon inatteignable pour l’automatisation, alors que le spectacle médusant des résultats produits par les algorithmes fragilise aujourd’hui leur assise économique.
Quelques voix universitaires se sont récemment exprimées pour témoigner de leur optimisme quant à l’avenir des métiers de la traduction, moyennant quelques adaptations à l’irruption de l’IA dans le secteur : un plaidoyer pro domo pour lutter contre la désertion annoncée des formations universitaires à la traduction, dans un contexte où l’avenir de la profession inquiète étudiants et familles. Avec pour maître mot l’adaptation, impératif catégorique ici teinté de darwinisme social.
En tant que professionnel de la traduction également investi dans le champ de la formation (professionnalisante et continue), il me paraît utile de réinterroger les finalités d’une formation à la traduction. Plutôt que de préparer, au nom d’un prétendu pragmatisme, à ces métiers tels qu’ils sont redéfinis et précarisés par le marché, il me paraît important de réaffirmer :
- que la traduction littéraire est un facteur d’émancipation, en ceci qu’elle apprend à celui qui l’exerce le maniement de la langue ; qu’elle est un instrument puissant de formation de l’esprit, dont tous les apprenants, quelle que soit la profession qu’ils exerceront, peuvent tirer bénéfice ;
- que ce bénéfice est largement amputé lorsque l’activité de traduction est privée de sa dimension créatrice, qu’elle est assignée à une tâche de surveillance d’une norme décidée par le critère du plus probable ;
- que les statistiques qui fondent les calculs des algorithmes tendent à réduire le possible au probable, et que cela est en contradiction avec la singularité de la langue, qui est une condition de toute pensée véritable.
.
Le réel et son simulacre
Les traducteurs et les traductrices littéraires manient les langues. Cela leur confère une responsabilité sociale importante, car l’éthique de l’usage d’une langue ne saurait se cantonner à corriger les biais sexistes et racistes des algorithmes. D’une façon très majoritaire, ils et elles s’opposent à l’utilisation de leurs textes comme combustible pour grand modèle de langage. Loin d’être opposés par principe à l’innovation technologique, ils savent cependant la différence ontologique entre une langue et un semblant de langue, entre une subjectivité nourrie par l’expérience humaine et un écrit, aussi correct soit-il, mais dépourvu de toute responsabilité. Partager ce savoir, c’est permettre aux lecteurs de maintenir une distinction entre le réel et son simulacre.
Deux ordres sont convoqués ces derniers mois dans les débats sur l’IA et ses usages : le juridique et l’éthique, complémentaires pour parvenir à une régulation des usages de l’IA au bénéfice de la société.
Le défaut du seul juridique est qu’il ne vise souvent qu’à apporter aux créateurs qui ont subi le ratissage illégal des données issues de leurs œuvres une compensation financière. Laquelle, aussi minimale et forfaitaire soit-elle, viendra en retour apporter une caution morale aux fabricants d’IA. Ce combat se place en aval de la question de la légitimité. Un autre problème avec l’ordre juridique est que son évolution est lente. Les moratoires et autres appels au principe de précaution sont le plus souvent foulés aux pieds en arguant de la compétition internationale dans la course à l’innovation.
.
Un algorithme est par essence amoral
Le défaut de la seule éthique est qu’elle est facilement travestie. Elle émerge aujourd’hui dans le débat de façon massive, tout en étant réputée impuissante à contrer l’âpreté au gain et la volonté de puissance de quelques-uns : une babiole qu’on agiterait devant les esprits enfantins pour les amuser. Signifiant flottant, l’« éthique de l’intelligence artificielle » recouvre des acceptions diverses et parfois opposées.
Du côté de nombreuses entreprises de la tech, on revendique une éthique et une autorégulation, arguant d’une connaissance prospective de l’évolution technologique et des compétences nécessaires à la mise en place technique de dispositifs régulateurs, se plaçant donc dans une perspective techno-solutionniste. A cet endroit, il peut être intéressant de revenir à une définition de l’éthique comme principe de l’action et de la conduite morale, et de noter qu’un algorithme est par essence amoral : une « éthique de l’intelligence artificielle » est donc un oxymore, raccourci paresseux pour parler d’une éthique des usages.
La confusion est créée et entretenue au cœur du vocabulaire utilisé : « intelligence artificielle », « traduction neuronale », « postédition » (mauvaise traduction de postediting)… Bien des analogies mal nommées et des expressions anthropomorphiques ont déjà pavé le chemin du consentement au remplacement de l’humain dans le champ sémantique qui nous occupe. Elles tendent à nous faire oublier que les algorithmes génératifs produisent non pas du langage, mais une langue simulée. Comme des simulateurs de vol pour les pilotes, ils placent l’utilisateur dans une situation qui imite le réel (l’altitude ou la pensée), mais qui n’est pas le réel.
L’intelligence humaine, selon le linguiste américain Noam Chomsky [dans une tribune au New York Times en mai 2023], est capable non seulement de dire ce qui est, ce qui a été et ce qui sera, d’être descriptive et prédictive, mais aussi ce qui n’est pas : « Ce qui pourrait être et ce qui ne pourrait pas être. » Il fait de cette dernière capacité une compétence strictement humaine dont une machine, aussi puissante en description et en prédiction soit-elle, est incapable. Bientôt, différencier une langue de son simulacre nécessitera des yeux et des oreilles exercées. Il est grand temps d’aider le lecteur à les distinguer grâce à un label d’ordre juridique imposé aux écrits qui ne sont pas produits par la chair et les os du réel.