«Les algorithmes n'éliminent pas les biais de décision. Ils les intègrent.» - Peter Asaro, spécialiste en éthique de l'intelligence artificielle


Édition du 11 Novembre 2017

«Les algorithmes n'éliminent pas les biais de décision. Ils les intègrent.» - Peter Asaro, spécialiste en éthique de l'intelligence artificielle


Édition du 11 Novembre 2017

Par Diane Bérard

Peter Asaro

Les 2 et 3 novembre derniers, Montréal a accueilli le Forum sur le développement socialement responsable de l'intelligence artificielle. Peter Asaro, philosophe et chercheur en science, technologie et média était parmi les conférenciers. Il est également professeur associé à The New School, une des meilleures universités au monde en sciences humaines et sociales.

L'entrevue n° 338

Diane Bérard - Montréal devient un pôle d'excellence en intelligence artificielle (IA). Malgré notre enthousiasme, y a-t-il des choses que nous devons ne pas perdre de vue ?

Peter Asaro - Effectivement, il faut se rappeler que nous ne sommes pas en présence d'objets conscients. L'IA et les robots ne sont que des algorithmes sophistiqués, des ordinateurs de luxe (fancy computers). Pour l'instant, ils n'éliminent pas les biais de prise de décision, ils les intègrent. Prenons un algorithme qui détermine les salaires. Il apprendra rapidement que les salaires des femmes sont plus faibles que ceux accordés aux hommes. Lorsque le candidat sera une femme, l'algorithme proposera un salaire plus faible que s'il s'agissait d'un homme. On peut aussi parler de l'apprentissage automatique (machine learning). Ce n'est pas magique. Pour l'instant, les machines n'apprennent pas. Si vous les programmez correctement, elles arrivent à reconnaître une signature ou un objet dans un ensemble. Cependant, une machine ne comprend pas ce qui se passe dans l'image. Pour l'instant, elle ne saisit pas le contexte. On ignore, par exemple, comment se comporteront les véhicules sans conducteur lors de circonstances imprévues pour lesquelles ils n'ont pas été programmés.

D.B. - Quels enjeux éthiques sont liés aux limites actuelles de l'IA et de la robotique ?

P.A. - Des enjeux éthiques surgissent chaque fois que les décisions de l'algorithme ou du robot influent sur la vie des humains. Voici quelques exemples : quand on vous refuse un emploi, une hypothèque, l'accès au crédit, l'entrée à l'université, etc. Il devrait y avoir un jugement moral et une responsabilité légale liée à chacune des décisions précédentes. C'est impossible si la décision a été prise par un système informatique. Un système n'est pas un agent moral.

D.B. - Pourquoi la programmation morale est-elle difficile ?

P.A. - La plupart des humains se comportent de façon morale parce qu'ils gèrent le risque. Ils se projettent dans le futur et savent que certains comportements sont liés à certaines conséquences désagréables. Ils savent qu'ils porteront la responsabilité de leurs décisions. Pour l'instant, nous n'avons pas trouvé la façon de créer cette association dans l'univers de l'IA et des robots.

D.B. - Quelles sont les trois composantes liées à l'éthique des robots ?

P.A. - D'abord, le système éthique que l'on inclut dans le robot lui-même. Ensuite, l'éthique des gens qui dessinent et utilisent les robots. Enfin, l'éthique de la façon dont on traite les robots.

D.B. - Parlons plus précisément des systèmes autonomes. De quoi s'agit-il et pourquoi posent-ils problème ?

P.A. - Un système autonome n'est pas contrôlé à distance par un humain. Il est programmé par un humain donc il a déjà obéi à des commandes humaines, mais il prend désormais ses propres décisions. Nous n'en sommes pas encore là, mais on s'en approche. Imaginons un peu les conséquences d'un système autonome employé dans le secteur militaire. Ce système choisirait lui-même ses cibles ainsi que le moment de tirer. Il en irait de même pour les véhicules autonomes. Ou des drones. Pour l'instant, il demeure encore une forme de surveillance humaine et de possibilité d'intervention.

D.B. - Le spectre d'utilisation de l'IA et des robots est vaste, les conséquences aussi. Donnez-nous des exemples.

P.A. - Vous pourriez y perdre un orteil... ou toute votre fortune ! Si l'oeil magique qui actionne la porte du magasin est déréglé, votre orteil pourrait y passer. Imaginons maintenant que l'algorithme du système expert qui dicte l'achat et la vente d'actions d'une grande firme de courtage se dérègle et enclenche une série d'opérations erratiques. Cette activité est captée et reproduite par d'autres algorithmes d'autres firmes de courtage. La panique s'installe dans le marché boursier. Ce risque de contagion est bien réel. Les systèmes autonomes communiquent entre eux.

D.B. - Il faut éviter «la boîte noire» de l'IA, insistez-vous. Mais comment ?

P.A.- Le défi consiste à créer des algorithmes que l'on peut expliquer aux citoyens visés par les décisions. Or, les entreprises qui emploient ces algorithmes résistent. Elles insistent sur la propriété de leurs systèmes. Et puis, aucune entreprise n'utilise les mêmes algorithmes. Les autorités réglementaires doivent intervenir. À ce chapitre, l'Union européenne est en avance. En 2018, une loi sera mise en oeuvre pour défendre le «droit à l'explication» du client. Aux États-Unis, la responsabilité appartient, en partie, au Fair Credit Reporting Act. Lorsqu'un organisme comme Equifax ou TransUnion porte un jugement sur votre capacité de crédit, il doit expliquer pourquoi. Les réponses sont toutefois souvent superficielles. On vous dit, «Vous détenez trop de cartes de crédit» ou «Vous n'habitez pas votre maison depuis assez longtemps». De façon générale, aux États-Unis, les autorités comptent sur les entreprises pour se réguler elles-mêmes. En Europe, on se montre plus interventionniste.

D.B. - Vous suggérez que les organismes réglementaires recrutent des spécialistes de l'IA...

P.A.- Cela me paraît incontournable. Lorsque les enjeux deviennent aussi complexes, les autorités réglementaires ne peuvent compter uniquement sur des experts légaux pour les guider.

D.B. - Nous avons l'habitude d'être suivis à la trace sur Internet. Avec l'IA, nous sommes surveillés aussi dans l'univers physique...

P.A.- La notion de vie privée disparaît un peu plus chaque jour. Auparavant, des caméras en circuit fermé captaient des images de votre passage dans un lieu public, une boutique par exemple. Aujourd'hui et demain, des drones volants, qui livrent des colis par exemple, captent des images de votre cour arrière sur leur parcours. Ces images sont très faciles à retrouver. Nous ne sommes plus en circuit fermé. Il faut aussi mentionner des robots personnels, comme Alexa, l'assistant personnel intelligent développé par Amazon. Alexa peut, entre autres, vous donner la météo, régler vos alarmes et contrôler plusieurs appareils intelligents dans votre maison. Vos demandes sont envoyées, par Internet, à un tiers qui les interprètent et passe une commande.

D.B. - Quelle est votre position personnelle par rapport aux percées de l'IA et de la robotique ?

P.A. - Je me définis comme un optimiste pragmatique. Je reconnais les promesses de prospérité et de productivité de la technologie. Cependant, on ne peut pas - on ne doit pas - verser dans la facilité et prendre des raccourcis au nom de ces promesses. Il y a des discussions et des délibérations à mener avant d'aller trop loin. Il n'est pas uniquement question de rendre l'IA plus puissante, mais aussi de la rendre plus pertinente socialement. Quelle sorte de société voulons-nous ? Quel niveau de vie privée souhaitons- nous ? Ce qui me rassure, c'est qu'on voit émerger de nouveaux concepts comme l'IA sécuritaire (safe AI) et l'IA bénéfique socialement (socially beneficial). Et on voit s'organiser des conférences comme le Forum sur le développement socialement responsable de l'intelligence artificielle.

Consultez le blogue de Diane Bérard : www.lesaffaires.com/blogues/diane-berard

À la une

Bourse: Wall Street craint une escalade au Moyen-Orient

Mis à jour le 15/04/2024 | lesaffaires.com, AFP et Presse canadienne

REVUE DES MARCHÉS. Toronto a perdu près de 160 points, plombé par la faiblesse des actions du secteur de l’énergie.

À surveiller: Quincaillerie Richelieu, Cogeco Communications et Constellation Brands

15/04/2024 | Jean Gagnon

Que faire avec les titres de Richelieu, Cogeco et Constellation Brands ? Voici quelques recommandations d'analystes.

Bourse: les gagnants et les perdants du 15 avril

Mis à jour le 15/04/2024 | LesAffaires.com et La Presse Canadienne

Voici les titres d'entreprises qui ont le plus marqué l'indice S&P/TSX aujourd'hui.