Logo - Les Affaires
Logo - Les Affaires

L’IA est un moyen, pas une fin

Emmanuel Martinez|22 mai 2024

L’IA est un moyen, pas une fin

­Anne ­Nguyen est directrice de l’IA au ­Conseil de l’innovation du ­Québec. Pour elle, le plus important est que, dans une démarche d’adoption de l’IA, les entreprises aient « les employés en tête à toutes les étapes ». (Photo: Martin Flamand)

SPÉCIAL 300. Un des pièges de l’intelligence artificielle (IA) est de s’en servir sans vraiment avoir bien évalué pourquoi on désire y avoir recours.

« Il faut comprendre ce qu’on veut accomplir comme besoin d’affaires, explique Mathieu Derome, vice-président aux données et à l’analytique chez Desjardins. L’IA n’est pas une fin en soi. C’est pour régler un problème ou saisir une occasion. »

Chez Desjardins (1ère position dans le classement des 300), trois axes ont été déterminés pour dégager de la valeur avec l’IA : maximiser la satisfaction du client ; améliorer l’efficience et la productivité ; bonifier la gestion des risques.

« Ensuite, on évalue la complexité du cas d’usage, la somme de l’investissement en temps et en dollars, le rendement de l’investissement et, finalement, les risques du projet, ajoute le dirigeant de la coopérative financière. Parfois, il y a des manières plus faciles d’y arriver qu’avec l’IA. »

 

Commencer par le commencement

Pour ceux qui font leurs premiers pas dans ce domaine, mieux vaut commencer par un cas d’usage simple pour lequel les bénéfices sont clairs, les utilisateurs bien identifiés et en nombre limité, et les données, disponibles. Donc, il est souhaitable d’éviter de vouloir atteindre plusieurs objectifs d’un coup et d’impliquer des divisions d’affaires différentes. Pour prévenir une explosion des coûts, une planification minutieuse est nécessaire et la collaboration entre les équipes est essentielle.

« Le plus important, c’est l’humain, estime Anne Nguyen, directrice de l’IA au Conseil de l’innovation du Québec. On doit toujours avoir les employés en tête à toutes les étapes. » Comme dans toute gestion du changement, les salariés doivent être consultés et rassurés pour éviter de la résistance et pour que les nouveaux outils comblent leurs besoins.

« L’adoption des gens est critique, juge Stéphane Turbide, vice-président à l’innovation et aux solutions d’affaires chez Harnois. Il faut répondre à la question que les employés se posent tous : “qu’est-ce que cela va m’apporter ?” On doit les convaincre en ce qui concerne les gains. Plus tu le fais rapidement, plus tu augmentes tes chances de succès. L’IA, ce n’est pas un “trip” de TI. »

Selon lui, le choix technologique vient en dernier.

Chez Desjardins, cette décision se prend par un comité spécialisé. L’option de créer un outil en interne ou d’en acheter un déjà prêt se fait selon la complexité du cas, les coûts, les solutions disponibles sur le marché et si les données peuvent être partagées en externe.

 

La qualité des données

Sans des données fiables, dénuées de biais, il est impossible de faire rouler son IA. « Il faut avoir assez de données qui permettent de raffiner le modèle pour l’évaluer et le tester, note Houman Zolfaghari, directeur scientifique au Centre de recherche informatique de Montréal. La donnée, c’est le combustible de l’IA. Il faut en avoir qui est adaptée au cas d’usage. »

Plusieurs équipes doivent ainsi collaborer pour s’assurer de la qualité des données et de bien les classifier. Elles sont souvent fragmentées. Pour chaque type de données, une gouvernance adéquate doit être réalisée. Par exemple, on ne souhaite pas qu’un agent conversationnel intelligent interne puisse fournir des renseignements personnels sur un collègue ou notre patron !

« Il faut toujours effectuer une analyse de risques, déclare Me Paul Gagnon, associé et coleader aux technologies et à l’intelligence artificielle chez BCF Avocats d’affaires (216e au classement des 300). C’est une erreur de penser que l’IA n’aura pas de répercussions sur la réputation et sur le côté légal. Il faut attribuer les bons rôles à la bonne personne pour mettre des balises. Un énorme indicateur de succès est d’avoir une multidisciplinarité. »

Par conséquent, les considérations éthiques et juridiques doivent être abordées dès le début d’un projet d’IA.

Une fois les intrants bien contrôlés, il est essentiel de juger de la pertinence des réponses fournies par l’IA en effectuant des tests.

« Il faut faire attention aux hallucinations, car l’IA générative a le défaut de se tromper avec une grande confiance », prévient Anne Nguyen. Encore là, un travail d’équipe est nécessaire pour s’assurer de la fiabilité des extrants afin de préserver la réputation et le plan d’affaires de l’entreprise tout en respectant les lois, notamment en matière de renseignements personnels.

 

Des erreurs ? Pas grave

Si les risques sont circonscrits, mieux vaut ne pas attendre avant de lancer son IA. Pas besoin que le résultat soit parfait dès le début.

« On a trop tardé avant d’essayer notre agent conversationnel intelligent, confie Martin Constant, vice-président aux services partagés à Cascades. On aurait pu aller plus vite, quitte à avoir moins de bonnes réponses, mais nous avons eu peur de décevoir ceux qui allaient l’utiliser. »

Guy Morissette, directeur de la recherche et du développement pour la Division de l’optimisation à Bid Group (148e au classement des 300), croit aussi que l’échec est normal. « Il faut y aller par essais et erreurs à petite échelle, dit-il. Il faut miser sur le produit minimum viable et l’améliorer par itération. »

Dans ce contexte, la gestion des attentes et un travail d’éducation avant l’implantation sont centraux pour que la direction et les employés comprennent bien les possibilités de ce nouvel outil et qu’ils évitent de porter un jugement trop hâtif.

« Explorez et éduquez-vous, recommande Martin Constant. Il ne faut pas avoir peur, lancez-vous !