L’algorithme : un précieux allié ou un danger à la sécurité ?

Publié le 26/02/2020 à 12:09

L’algorithme : un précieux allié ou un danger à la sécurité ?

Publié le 26/02/2020 à 12:09

(Photo : 123rf)

Depuis des dizaines d’années, et plus particulièrement depuis l’avènement de l’intelligence artificielle, les algorithmes permettent de résoudre des problèmes complexes et multidimensionnels qui peuvent échapper à l’humain. « Or, bien qu’ils puissent être très précis, les modèles statistiques mal conçus ou mal surveillés peuvent aussi devenir vos plus grandes failles de sécurité », avertit Olivier Blais, scientifique de données et cofondateur de Moov AI. M. Blais animera l’atelier Responsabilité algorithmes : prévenir aujourd’hui les failles de sécurité, présenté dans le cadre de la conférence Sécurité de l’information, par les Événements Les Affaires, le 11 mars prochain, à Montréal.

 

Pourquoi les algorithmes peuvent devenir des failles de sécurité?

Olivier Blais : Les algorithmes permettent d’aller au-delà de ce que l’humain peut percevoir. Par contre, ils demeurent des outils informatiques qui exploitent les données à l’aide de techniques statistiques. Et la clé repose sur la robustesse de ces outils et des données sous-jacentes. Actuellement, c’est le Far West dans ce domaine qui est en constante évolution. Les technologies évoluent beaucoup plus rapidement que l’expertise des personnes qui les manipulent. Ce qui crée les problèmes de robustesse. Prenez, par exemple, les cas où les marchés financiers s’emballent. On a déjà été témoin de situations dans lesquelles des algorithmes ont eu des comportements douteux sans qu’un événement économique se soit réellement produit. Et le monde financier est déjà très rigoureux dans leur validation.

 

Comment donner du tonus à cette robustesse ?

O.B. : D’abord, il faut s’assurer que les modèles statistiques fonctionnent adéquatement. Et la tâche n’est pas si simple. Récemment, une étude menée par la firme McKinsey a révélé que 87% des modèles statistiques développés par les organisations ne sont pas utilisés en production. Une raison probable est le manque de robustesse de ces projets quand ils sont testés dans des situations réelles. Et parce qu’il n’existe pas de modèle standard de validation, rien ne prouve non plus que les autres modèles utilisés, l’autre 13%, soient réellement efficaces à 100%. Je trouve cela un peu alarmant.

 

 

Avez-vous des solutions?

O.B. : Il faut mettre en place des processus clairs et rigoureux de validation des modèles statistiques avant de les utiliser. Il est aussi important que la validation ne soit pas effectuée par l’équipe qui exécute le projet afin d’être objective dans sa validation. De plus, il faut impérativement suivre la performance du modèle à travers le temps. Au début, le modèle peut paraître solide, mais avec le temps, s’il n’est pas testé régulièrement, il se détériore. Il faut planifier la maintenance de ces algorithmes au fil des années. Prenez les demandes de carte de crédit en ligne. Il y a 5 ans, si vous aviez inscrit « influenceur » comme métier, je doute que les algorithmes liés au processus vous auraient servi correctement. D’ailleurs, un autre enjeu de sécurité se situe au niveau de la protection des données personnelles des individus. Une fois de plus, un modèle d’intelligence artificielle est un outil informatique qui doit être sécurisé afin d’éviter les failles et l’exposition des données personnelles au grand public.

 

Que conseillez-vous ?

O.B. : Lorsqu’une entreprise collecte des données personnelles hautement sécurisées, elle doit s’assurer de bien identifier les personnes qui peuvent les consulter et qui ne le peuvent pas. Par contre, on observe souvent un passe-droit pour les projets d’intelligence artificielle puisque nous avons besoin de données personnelles afin de personnaliser les processus. Il se crée présentement une forte pression entre les projets d’hyperpersonnalisation qui sont possibles grâce à l’intelligence artificielle et le respect des données personnelles. Les algorithmes de certains modèles statistiques devront être ajustés ou repensés complètement. À ce propos, on assiste à une tendance à vouloir utiliser des données synthétiques similaires aux données collectées. Cette version synthétique permet d’anonymiser les données personnelles originales notamment dans le milieu de la santé afin de ne pas mettre à risque l’identité des patients. Bref, la surveillance des algorithmes ne fait que commencer.

 

Sur le même sujet

Ne craignez pas les règles de protection de données, apprivoisez-les!

BLOGUE. Les départements d’analytique et d’intelligence d’affaires ne doivent pas craindre les nouveaux règlements ...

Faites évoluer les compétences analytiques de vos équipes IA

BLOGUE. L’intelligence d’affaires et l’analytique ont beau utiliser, toutes deux, des méthodes quantitatives avancée ...