
[Photo : www.petitpetitgamin.com]
Ayant grandement écrit à propos des conséquences de la technologie sur l’emploi, je n’ai pu m’empêcher de faire un parallèle entre les chauffeurs de taxi, une profession décidément en voie de disparition, et les traducteurs. Or, si la plupart des experts s’entendent pour dire que la technologie permettant l’arrivée de voitures sans conducteur sur nos routes existe, ce n’est pas le cas de la technologie de traduction automatique.
En d’autres mots, cette technologie ne semble pas prête de mettre aux chômages les membres de l’Ordre des traducteurs, terminologues et interprètes agréés du Québec. Jointe au téléphone, Johanne Boucher, sa directrice générale, m’a même révélé que le nombre de membres de l’Ordre augmente légèrement chaque année.
Malgré l’amélioration progressive de Google Traduction, tous les spécialistes de la traduction automatique que j’ai interrogés pour un article à paraître dans la prochaine édition papier (et iPad) de Les Affaires m’ont confirmé que la technologie faisait plus ou moins du surplace. Aussi, les start-ups qui se démarquent dans le domaine de la traduction automatique, comme Unbabel à San Francisco et NLP Technologies à Montréal, combinent la traduction automatique à des réviseurs humains.
Dans les faits, depuis les années 1990, la traduction automatique n’a pas véritablement fait de progrès. Aussi, si Google Traduction et compagnie se raffinent malgré tout, c’est qu’ils peuvent baser leur analyse statistique sur une quantité toujours grandissante de contenus traduits dans plusieurs langues.
En effet, depuis les années 1990, les technologies de traduction automatique reposent sur une analyse statistique de contenus déjà traduits par des humains. L’algorithme de traduction de Google décide ainsi de traduire «palais» par «palace» lorsqu’il est suivi du mot «royal», non pas parce qu’il comprend qu’on parle d’un lieu et non d’une partie de la bouche, mais en raison des probabilités statistiques liées aux mots qui l’entourent. Bref, c’est rare qu’un article scientifique sur les maladies de la bouche contienne le mot «royal».
Google Traduction continue ainsi à s’améliorer, en raison de la croissance du volume de textes traduits disponibles en ligne, mais aussi, parce ses utilisateurs peuvent directement lui suggérer des traductions appropriées.
Malgré tout, l’approche statistique a ses limites: «Avec l’approche statistique, on va avoir de bons résultats, par exemple à 80%, voire à 90%, explique Michel Gagnon, professeur à Polytechnique et spécialiste du traitement de la langue. Malheureusement, ce 10% qui manque, on a de la misère à aller le chercher avec des algorithmes et, très souvent, ce 10% est important pour la compréhension.»
Même son de cloche du côté de Philippe Langlais, professeur à l’Université de Montréal et spécialiste du traitement automatique des langues naturelles. Selon lui, les approches statistiques ne pourront jamais concurrencer sérieusement les traducteurs humains. Et les solutions de rechange n’ont pas encore prouvé leur supériorité. «Il y a des chercheurs qui sont parvenus à obtenir des résultats encourageants avec les approches profondes [deep learning], mais pour l’instant, ce n’est pas plus performant que les approches statistiques.»
En gros, les approches relevant du deep learning visent à permettre aux ordinateurs d’apprendre à traduire en tirant eux-mêmes des règles de leur analyse d’un grand volume de textes déjà traduits. Si le deep learning a permis à des ordinateurs d'apprendre à reconnaître des chats sur YouTube, le jour où un un ordinateur pourra traduire l’œuvre de Réjean Ducharme est encore loin. «Je pense que ce n’est pas possible [qu’un ordinateur soit aussi performant qu’un traducteur humain], lance Philippe Langlais. Si on arrive a faire ça, c’est qu’on est arrivé à régler la question de l’intelligence artificielle.»