Des entreprises ont recours à la technologie pour accélérer la diversité

Publié le 23/07/2019 à 06:48

Des entreprises ont recours à la technologie pour accélérer la diversité

Publié le 23/07/2019 à 06:48

Par La Presse Canadienne

Lorsque la Banque Scotia a cherché de nouvelles façons d'équilibrer la représentation des genres au sein de son effectif, elle s'est tournée vers ce qu'elle déployait dans presque tous ses secteurs d'activité: la technologie.

Le prêteur torontois a analysé une «myriade de banques de données» pour ses employés canadiens _ des interactions sur les médias sociaux internes aux données de performances antérieures _ afin de dégager des variables en corrélation avec le succès, a indiqué Permpreet Sidhu, vice-présidente au rendement et à l'inclusion de la Banque Scotia.

La banque a ainsi obtenu un ensemble d'indicateurs clés et un «indice de dirigeants émergents» que la banque utilise depuis novembre pour identifier les employés qu'il convient d'encourager à gravir les échelons de l'entreprise, tout en aidant à éliminer les biais inconscients qui peuvent parfois jouer un rôle dans les décisions de promotion.

«Ce que nous essayons de faire, c'est d'interrompre une partie du parti pris, même lorsque nous identifions les personnes que nous voulons développer 12 mois avant que les emplois ne deviennent disponibles. (...) L'indice mettra en évidence un plus grand nombre de candidats pour les dirigeants», a expliqué Mme Sidhu.

Le cas de la Scotia est un nouvel exemple de l'utilisation de la technologie pour lutter contre les préjugés inconscients dans les milieux de travail et accroître la diversité dans leurs rangs.

Parmi les autres stratégies dans le secteur des entreprises se trouvent notamment un outil capable de détecter les tournures biaisées dans les discussions en ligne en milieu de travail, un logiciel utilisé pour supprimer les identifiants de genre sur les pages LinkedIn dans les opérations de recrutement, et le recours à l'intelligence artificielle pour avoir un processus de promotion plus neutre.

«Nous sommes à la frontière en ce moment, où les gens mènent toutes ces expériences», a observé Sarah Kaplan, directrice de l'Institut sur le genre et l'économie de l'Université de Toronto.

«Et nous ne savons pas encore ce qui est efficace, mais tout le monde tente sa chance et espère que l'intelligence artificielle ou d'autres algorithmes automatisés pourraient aider.»

Modules d'extension pour détecter les biais

Catalyst Group, une organisation dédiée à la promotion de l'égalité des droits des femmes sur le lieu de travail, a lancé en mars un module d'extension pour la plateforme de messagerie Slack appelé BiasCorrect.

Celui-ci est programmé pour détecter 25 mots et expressions témoignant d'un préjugé sexuel. Une fois installé, BiasCorrect devrait automatiquement signaler les locutions potentiellement problématiques à l'utilisateur de Slack et proposer une solution de rechange.

Serena Fong, vice-présidente des engagements stratégiques de Catalyst, a indiqué avoir rendu public le code sous-jacent afin de permettre aux utilisateurs d'ajouter davantage de phrases ou de l'adapter à d'autres plateformes de messagerie.

Catalyst espère que ce module d'extension aidera les gens à prendre davantage conscience de leurs préjugés inconscients et de l'impact de leurs paroles et contribuera à créer un lieu de travail plus inclusif.

«Il n'y a pas de solution miracle au problème des préjugés inconscients», a-t-elle souligné.

Cependant, certains s'inquiètent que la technologie soit aussi biaisée que la personne qui l'a programmée, ou que les informations sous-jacentes qu'elle utilise.

«L'intelligence artificielle n'est pas une panacée. (...) Nous devons simplement y penser. Ce n'est pas comme si nous pouvions retirer toute influence humaine simplement en utilisant ces robots», a observé Mme Kaplan. «Les robots pourraient en fait amplifier les préjugés.»

Deux professeurs du Massachusetts Institute of Technology (MIT) et de la London Business School ont mené une expérience concrète qui a démontré qu'une annonce non sexiste pour une offre d'emploi en ligne dans les secteurs des sciences, de la technologie, de l'ingénierie et des mathématiques était montrée plus souvent aux hommes qu'aux femmes.

Catherine Tucker, du MIT, et Anja Lambrecht, de Londres, ont diffusé une annonce sur Facebook, Instagram, Twitter et d'autres sites par l'entremise du réseau d'affichage des annonces de Google. Sur chaque site, un algorithme a optimisé l'annonce pour obtenir le plus grand nombre de vues, ce qui a entraîné plus de vues chez les hommes que chez les femmes, selon un article publié par «Scientific American».

Les femmes prennent généralement plus de décisions de consommation que les hommes dans les ménages et, conséquemment, les algorithmes de marketing accordent une plus grande importance aux vues féminines d'une annonce, ce qui les rend plus dispendieuses. Afficher la publicité aux hommes est donc plus rentable, a expliqué Mme Tucker à «Scientific American».

Données intrinsèquement biaisées

Mme Kaplan a expliqué que le fait de retirer les noms et autres identifiants qui trahiraient le genre d'une personne peut avoir des conséquences inattendues.

Les données sous-jacentes _ telles que les écoles sur le curriculum vitae d'un candidat _ peuvent être influencées par le genre, a-t-elle indiqué.

«En fait, leur expérience de genre tout au long de leur carrière a façonné toutes les étapes, et il faut vraiment en tenir compte dans le processus de sélection», a-t-elle ajouté.

La Banque Scotia a pris conscience de ce risque et a par conséquent éliminé certaines données de son indice.

La banque a notamment choisi de retirer la scolarité de son modèle et d'utiliser plutôt les expériences de travail, a expliqué Mme Sidhu.

«Il faut en être conscient et il faut être responsable des données», a-t-elle affirmé. «Et éliminer ces champs qui ont un biais intrinsèque, de sorte qu'on ne continue pas à exacerber les difficultés.»

À suivre dans cette section


image

Usine 4.0

Mardi 24 septembre


image

Marché du cannabis

Mercredi 23 octobre


image

Service à la clientèle

Mercredi 23 octobre


image

Communication interne

Mardi 26 novembre


image

Gestion de la formation

Mardi 03 décembre


image

Marché de l'habitation

Mercredi 04 décembre


image

Sommet Énergie

Mardi 21 janvier


image

Santé psychologique

Mercredi 22 janvier


image

Forum Contrats publics

Mardi 11 février

Sur le même sujet

Service à la clientèle : Suivez l’exemple de Dr Clown!

BLOGUE. Il suffit de prononcer le mot clown pour qu’instantanément nous ayons en tête l’image d’un personnage ...

Vos ressources humaines souffrent-elles de comptabilité mentale?

Édition du 14 Septembre 2019 | Nathalie Francisci

CHRONIQUE. Le concept de comptabilité mentale (mental accounting) s'applique généralement aux ...

À la une

Comment Trump alimente les tensions dans le golfe Persique

20/09/2019 | François Normand

ANALYSE - Le golfe Persique est une poudrière sur le point d'exploser; Washington en est en grande partie responsable.

La Bourse attend le prochain déclic

BLOGUE. Les bonnes données économiques et la Fed rassurent mais le test des profits et du conflit commercial approchent.

À surveiller: les titres qui ont retenu votre attention

21/09/2019 | lesaffaires.com

(Re)voici quelques recommandations qui pourraient influencer les cours prochainement.