Intégrer l’IA générative de manière éthique et sécuritaire
Maxime Johnson|Publié le 13 novembre 2023Les GPTs faciliteront le déploiement de robots conversationnels basés sur ChatGPT et sur les données internes des entreprises. (Photo: 123RF))
TECHNO SANS ANGLES MORTS décortique les technologies du moment, rencontre les cerveaux derrière ces innovations et explore les outils numériques offerts aux entreprises du Québec. Cette rubrique permet de comprendre les tendances d’aujourd’hui afin d’être prêt pour celles de demain.
TECHNO SANS ANGLES MORTS. L’arrivée prochaine des GPTs, des versions personnalisables de ChatGPT, risque d’accélérer l’intégration des intelligences artificielles (IA) génératives dans les entreprises du Québec. Mais encore faut-il le faire d’une manière éthique et sécuritaire.
L’IA générative, ces outils d’intelligence artificielle qui tirent profit des mégadonnées pour analyser et générer du contenu, notamment textuel et visuel, connaît un gros mois de novembre. Non seulement OpenAI s’apprête à célébrer le premier anniversaire de son robot conversationnel ChatGPT, mais l’entreprise californienne a aussi annoncé la semaine dernière le déploiement d’une multitude de nouveautés, tout particulièrement une version plus puissante de ChatGPT et l’arrivée des GPTs.
Les GPTs sont des versions personnalisables de ChatGPT. Pour le grand public, ces GPTs pourront avoir des usages spécifiques, comme un tuteur de mathématiques qui pourrait être utilisé par des enfants, ou un assistant capable de créer des graphiques à partir de fichiers Excel. Pour les entreprises, ces GPTs pourront au besoin être restreints à certains types de requêtes, ou encore accéder à des données internes pour mieux répondre à des questions (un robot conversationnel qui ne répondrait qu’à partir de votre FAQ, par exemple). Et puisqu’ils pourront être créés sans programmation, il faut s’attendre à en voir apparaître un peu partout.
Mais qu’une entreprise compte déployer un GPTs, programmer un autre outil utilisant l’IA générative ou simplement permettre l’utilisation de ChatGPT ou du générateur d’images Midjourney à ses employés, plusieurs facteurs doivent être considérés pour le faire d’une manière éthique et sécuritaire.
Bien saisir les risques
«À mesure que de nouvelles méthodes pour adopter des fonctionnalités d’intelligence artificielle voient le jour, c’est important pour les entreprises d’œuvrer de prudence, afin de bien comprendre quels sont les risques associés avec ces outils», rappelle d’emblée Tony Anscombe, ambassadeur en matière de sécurité informatique de l’entreprise slovaque de sécurité Internet ESET, dans une discussion par courriel.
Un de ces risques, identifié dans un billet publié par ESET la semaine dernière sur les risques associés aux grands modèles de langages, est par exemple relié à la génération de code informatique par les outils d’IA. ChatGPT permet à des néophytes de créer du code, ce qui augmente alors les chances qu’une faille de sécurité soit introduite, par exemple, surtout si le tout est fait sans supervision.
Comme avec tous les outils d’IA, il est important d’avoir une vision d’ensemble du projet.
«Souvent, on se rend compte qu’un petit élément négligé en aval crée des problèmes importants en amont», explique Mathieu Marcotte, directeur de la mobilisation de l’écosystème IA et des projets spéciaux au Centre d’expertise international de Montréal en intelligence artificielle (CEIMIA), à l’occasion d’un panel sur l’IA générative organisé la semaine dernière par le cabinet Lavery.
Les participants au panel «Comment intégrer l’intelligence artificielle générative en entreprise de manière éthique et sécuritaire»: (de gauche à droite) Mathieu Marcotte (CEIMIA), Benoit Yelle (Lavery) et Olivier Blais (Moov AI) (Photo : Maxime Johnson)
Pour Mathieu Marcotte, il est donc essentiel de mettre en place une approche responsable tout au long du cycle de vie de l’IA. «Ça va de la récolte des données, à l’entraînement des algorithmes et à l’impact sur la prise de décision que l’outil d’IA aura», poursuit-il.
Cet impact ne doit d’ailleurs pas seulement être mesuré sur l’utilisateur de la solution, mais aussi sur ceux qui en subiront les effets. Les conséquences d’un outil d’IA pour trier les CV ne devront par exemple pas être mesurées seulement par rapport à leurs effets sur les ressources humaines qui utilisent le logiciel, mais aussi sur les candidats qui postulent.
IA génératives et droits d’auteur
Les IA génératives comportent aussi des risques en lien avec le droit d’auteur. Benoit Yelle, associé et agent de brevet au cabinet Lavery, en voit principalement trois grandes catégories.
Il y a tout d’abord les risques que ce qui est produit par une IA générative ait été inspiré de trop près par du contenu protégé par du droit d’auteur. «Il y a un risque, et ce risque est difficile à mesurer, car on ne peut pas dire avec certitude si on est en contrefaçon ou non», se désole Benoit Yelle.
L’autre risque concerne le droit d’auteur entourant ce qui est généré par les IA. «Quand j’utilise une IA, est-ce que j’ai les droits sur le résultat? Présentement, la réponse n’est pas claire, mais elle est généralement non», ajoute l’agent de brevet.
L’utilisation d’outils de génération d’IA doit aussi être accompagnée d’une analyse des conditions d’utilisations. Avec la version gratuite de ChatGPT, par exemple, les requêtes effectuées (et qui peuvent contenir des informations privées) deviennent la propriété d’OpenAI. Bref, demander au logiciel de résumer la transcription de votre dernière réunion à huis clos n’est pas une très bonne idée. Généralement, les versions payantes de ces services respectent toutefois plus la confidentialité des données.
Cinq conseils pour déployer une IA générative intelligemment
Ne pas toucher à ses compétences centrales
Les risques de déployer une IA générative sont plus grands si cette dernière touche les compétences centrales de l’entreprise. «Chez Lavery, si on demandait à une IA de générer des opinions juridiques, ce serait plus dangereux que si on lui demandait de préparer le programme d’un séminaire», explique Benoit Yelle.
Éviter les services gratuits
Les services d’IA génératives ont généralement des règles différentes pour leurs versions gratuites et leurs versions payantes. C’est le cas notamment de ChatGPT. Par rapport au droit d’auteur, le risque de générer une contrefaçon demeure le même, mais vous conservez au moins le droit d’auteur sur vos requêtes avec la version payante.
Utiliser les cadres existants
Inutile de réinventer la roue pour savoir comment implémenter une IA générative d’une manière éthique et sécuritaire. Plusieurs cadres et outils pour l’IA responsable existent déjà, et plusieurs partenaires peuvent vous aider à les mettre en place. «Nous avons par exemple développé une matrice pour s’assurer que ses données tiennent compte des groupes marginalisés», illustre Mathieu Marcote, du CEIMIA.
Discuter de tous les risques possibles avec son équipe
«Un truc simple est de s’asseoir avec son équipe et de réfléchir aux risques de l’outil qu’on est en train de développer. Quelles sont les conséquences d’une mauvaise décision, de l’automatisation d’un processus, etc. Et dès que tu identifies ces risques, tu te demandes ce que tu peux faire pour les minimiser. Une discussion honnête d’une demi-journée peut vraiment être efficace», note lors du panel sur l’IA générative Olivier Blais, cofondateur de Moov AI, une firme de consultants en intelligence artificielle.
Commencer petit, mais commencer
Même si votre entreprise n’est pas prête à se lancer pleinement dans l’IA générative, un petit projet peut avoir de l’intérêt. C’est par exemple ce qu’a fait Lavery, en mettant en place une interface interne pour permettre à son personnel d’utiliser la version pour entreprises de ChatGPT.
«Nous savions que ce n’était pas réaliste d’interdire ChatGPT, alors on a mis cette version en place», explique Benoit Yelle. Les risques reliés à la propriété intellectuelle sont plus restreints, puisqu’il s’agit de la version payante de ChatGPT, et les règles entourant son usage sont claires. Lavery journalise aussi les requêtes effectuées et les réponses générées par l’agent conversationnel, ce qui permettra à terme d’améliorer l’outil.
«L’objectif est surtout de familiariser le personnel avec la technologie. Et quand il y aura de nouvelles versions vraiment performantes, on espère qu’on aura un peu d’avance sur les autres cabinets qui ne l’auront pas testé», ajoute Benoit Yelle.