Arrêter les avancées de l'IA? Laissez-moi rire (jaune)!

Publié le 06/04/2023 à 07:30

Arrêter les avancées de l'IA? Laissez-moi rire (jaune)!

Publié le 06/04/2023 à 07:30

Par Olivier Schmouker

GPT-4 mettrait en péril l'humanité. Ni plus ni moins. (Photo: D koi pour Unsplash)

MAUDITE JOB! est une rubrique où Olivier Schmouker répond à vos interrogations les plus croustillantes [et les plus pertinentes] sur le monde de l’entreprise moderne… et, bien sûr, de ses travers. Un rendez-vous à lire les mardis et les jeudisVous avez envie de participer? Envoyez-nous votre question à mauditejob@groupecontex.ca

Q. – «Des vedettes de l’intelligence artificielle comme Elon Musk et Yoshua Bengio invitent les chercheurs du monde entier à tout arrêter pendant six mois. Parce que l’IA représenterait, selon eux, un danger pour l’humanité, aucun garde-fou n’empêchant les apprentis sorciers en IA de faire tout et n’importe quoi. Ma question est la suivante: l’IA n’est-elle pas d’ores et déjà dangereuse, en particulier en ce qui concerne la sécurité des travailleurs qui doivent aujourd’hui collaborer avec une IA?» – Élodie

R. – Chère Élodie, vous venez de mettre le doigt sur un sujet sensible concernant l’intelligence artificielle (IA), à savoir les dangers inhérents à l’IA. Ces dangers, ça fait des années que je les mets au jour, en dépit des grincements de dents que cela suscite dans le milieu de l’IA au Québec. Pour montrer qu’elle est un pur cauchemar pour les travailleurs, qu’elle déshumanise le recrutement, qu’elle tue bel et bien des emplois à tout jamais, ou encore qu’elle n’apporte aucune retombée économique significative à Montréal. La liste est longue, mais je m’arrête là.

Vous me parlez de cette fameuse lettre ouverte signée la semaine dernière par un millier de personnalités influentes du milieu de l’IA, qui semblent soudain s’inquiéter de la «course effrénée pour développer et déployer des systèmes numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable». Fort bien, mais laissez-moi doucement rire (jaune).

Tout d’abord, parce que cette lettre est une formidable fumisterie. Et je pèse mes mots. Si les signataires étaient vraiment sincères et sérieux dans leur invitation à tous d’arrêter toute recherche touchant au «développement de systèmes plus puissants que GPT-4» pendant «au moins six mois», ils devraient montrer l’exemple. Et tout mettre sur pause dans leurs propres labos.

Simple question de ma part: Yoshua Bengio, par exemple, est-il parti en vacances au soleil pour les six prochains mois? Est-ce même dans ses plans à court terme? Tout porte à croire que non.

Ensuite, parce que cette fameuse lettre ouverte n’est que du réchauffé. Vous souvenez-vous de la lettre ouverte sur l’intelligence artificielle signée le 12 janvier 2015 par des dizaines de sommités du milieu de l’IA et de scientifiques, à l’image de Stephen Hawking et – déjà – Elon Musk? Dans celle-ci, intitulée «Research Priorities for Robust and Beneficial Artificial Intelligence: An Open Letter», les chercheurs en IA étaient invités à étudier «sans tarder» les «impacts sociétaux» et autres «pièges» que risquaient de présenter les avancées en matière d’IA. Les signataires redoutaient que l’IA ne finisse par «mettre fin à l’espèce humaine si jamais elle était déployée sans précaution». Ni plus ni moins.

Ma question est tout aussi simple que la précédente: cette première lettre ouverte a-t-elle changé quoi que ce soit? La communauté de chercheurs en IA s’est-elle freinée d’elle-même dans son élan vers le précipice annoncé? Pas le moins du monde.

Regardez Elon Musk. Il était signataire de la lettre de 2015, et pourtant son entreprise dédiée à l’IA, Neuralink, n’a cessé de progresser ces dernières années dans son objectif de connecter l’ordinateur au cerveau humain. D’ailleurs, en décembre dernier, Neuralink a promis un implant connecté dans un cerveau humain «d’ici six mois». (En passant, je serais curieux de lire le rapport éthique signé par Neuralink et son éminent cofondateur concernant la pertinence et les dangers éventuels de fusionner le cerveau humain et l’ordinateur…)

Bref, je mets ma main au feu que cette nouvelle lettre ouverte ne donnera rien du tout. Je souligne, rien du tout. On s’en reparle dans six mois, ou même un an, si vous voulez.

Mais revenons à votre dernier point, Élodie. Gordon Burtch est professeur de management à l’école de commerce Questrom de l’Université de Boston, aux États-Unis. Avec deux autres chercheurs, il s’est demandé si l’IA avait le moindre impact sur la sécurité des travailleurs en entrepôt. C’est que, d'une part, on peut s'attendre à ce que le nombre de blessures diminue grâce à l'élimination de tâches dangereuses ou répétitives, prises par l’IA et ses robots. Et d’autre part, à ce qu’elles augmentent auprès des travailleurs dont les tâches ne sont pas assistées, mais supervisées par une IA qui attendrait d’eux un rendement sans cesse optimal.

Pour s’en faire une idée, ils ont analysé les données d’Amazon concernant la santé de ses travailleurs en entrepôt, dans 141 centres de distribution, entre 2016 et 2020. Cela leur a permis de découvrir plusieurs choses fort intéressantes:

– Moins de blessures graves. L’arrivée de l’IA et de ses robots dans un entrepôt diminue de 40% le nombre de blessures graves (celles qui obligent l’employé à manquer un ou plusieurs jours de travail).

– Davantage de blessures mineures. L’arrivée de l’IA et de ses robots dans un entrepôt augmente de 77% le nombre de blessures mineures (celles qui ne nécessitent pas de rater une journée de travail).

– Une IA à la fois stressée et stressante. La hausse du nombre de blessures mineures (tendinites, entorses, foulures, etc.) provient en grande partie de l’augmentation des cadences de travail imposée aux êtres humains par l’IA, soucieuse d’une performance toujours optimale. Et cela se vérifie surtout lors des périodes de grand stress commercial, comme le Black Friday et l’Amazon Prime Day.

Autrement dit, vous aviez raison, Élodie: la sécurité des travailleurs obligés de collaborer avec une IA est aujourd’hui même en danger. Certes, le danger n’est pas «grave», mais il amène les travailleurs manuels à avoir davantage de tendinites et autres entorses que lorsqu’ils ne sont pas pilotés par une IA dont le souci premier est la performance globale de l’entreprise.

D’où ma dernière question: Jeff Bezos va-t-il vraiment se sentir interpellé par la nouvelle lettre ouverte, au point d’arrêter d’utiliser son IA et ses robots au sein de ses entrepôts? Laissez-moi rire (de plus en plus jaune)!

Pour finir, une pensée du dramaturge français Pierre Corneille tirée du Cid: «Le trop de confiance attire le danger».

Sur le même sujet

GPT4 est-elle plus créative que le meilleur des créatifs?

16/04/2024 | Olivier Schmouker

MAUDITE JOB! «Je teste des IA et réalise qu'elles sont hyper performantes en matière de créativité. Ça m'inquiète...»

Souffrez-vous du dilemme du hérisson?

11/04/2024 | Olivier Schmouker

MAUDITE JOB! «Notre boss veut que notre équipe soit une "famille". Mais c'est trop pour moi, et j'en pâtis!»

À la une

Budget fédéral 2024: l'art de se tirer dans le pied

17/04/2024 | Daniel Dufort

EXPERT INVITÉ. Le gouvernement de Justin Trudeau «s’autopeluredebananise» avec son «budget mémorable».

Gain en capital: pas une surprise

17/04/2024 | Dany Provost

EXPERT INVITÉ. «Combien d’impôt ça va vous coûter de plus?»

L'industrie technologique mécontente des mesures sur les gains en capital

Mis à jour le 17/04/2024 | La Presse Canadienne

L'industrie technologique est mécontente des mesures sur les gains en capital.