Mieux comprendre et servir les clients grâce aux données

Publié le 16/11/2013 à 00:00, mis à jour le 14/11/2013 à 15:28

Mieux comprendre et servir les clients grâce aux données

Publié le 16/11/2013 à 00:00, mis à jour le 14/11/2013 à 15:28

Avec l'évolution des technologies de l'information (TI), il devient possible d'analyser des quantités exponentielles de données non structurées. On peut ainsi mieux cerner les comportements de clients potentiels grâce à des analyses effectuées à partir de variables prédéfinies. Bienvenue dans le monde des mégadonnées (big data).

À la fin d'octobre, Les Affaires, en collaboration avec ProContact, a réuni des leaders des TI dans 11 organisations québécoises afin d'en apprendre plus sur leurs pratiques dans le domaine.

Les enjeux liés aux mégadonnées

À la Caisse de dépôt et placement du Québec, les trois dernières années ont été des années de structuration. «Nous avons classé nos données structurées afin de pouvoir y accéder facilement, explique le vice-président, gestion des données, Alexandre Synnet. Qu'il s'agisse de données de référence, transactionnelles, de risque ou de rendements, il nous reste environ six mois avant d'avoir une base très solide.»

La prochaine étape de la Caisse sera de se positionner pour voir ce qu'elle peut tirer des données non structurées. «Par exemple, nous suivons Alimentation Couche-Tard depuis 1976. Nous aimerions pouvoir réutiliser notre base de connaissances afin de faire de meilleures analyses fondamentales», dit-il.

«D'ici la mi-2014, nous voulons démarrer un projet-pilote afin de faire une évolution de l'analyse de nos données structurées en y ajoutant le traitement de mégadonnées.»

L'industrie manufacturière aux aguets

Soprema souhaiterait commencer à réaliser des analyses prédictives, alors que la firme en est encore à étudier les données du passé. «Nous nous demandons comment franchir la barrière. Pour nous, le défi n'est pas vraiment le volume des données, mais la partie analytique, ce qu'on doit faire pour arriver à des résultats concrets», dit le directeur des TI chez Soprema, Luc Parenteau.

Selon M. Parenteau, la technologie a atteint une limite, et les entreprises doivent embaucher des gens en finance, des statisticiens ou des mathématiciens dont la spécialité est de trouver un sens aux données.

«Il faut trouver un moyen d'aller chercher l'effet de levier que les mégadonnées peuvent procurer. Il faut apprendre à bien utiliser les données pour prendre de bonnes décisions.»

L'information au service des corps policiers

La directrice des ressources informationnelles à la Sûreté du Québec (SQ), Lyse A. Chamberland, rappelle que les objectifs du corps policier sont différents de ceux d'une entreprise privée qui recherche avant tout à faire croître son bénéfice. «Nous visons à avoir une meilleure capacité d'enquête et à améliorer la sécurité sur notre territoire», raconte-t-elle.

«On offre un bien meilleur service quand on est en pleine possession de la capacité technologique des données non structurées, ajoute-t-elle. Comme pouvoir géolocaliser des événements ou des recherches lorsque vient le moment de retrouver des disparus... On sauve des vies avec les mégadonnées.»

Mme Chamberland précise que la SQ est à l'étape des constats. Elle se dit consciente de la richesse cachée dans les mégadonnées. Par contre, cette quantité de connaissances et de ressources nécessite une analyse humaine, juge-t-elle.

«Par exemple, il faut pouvoir donner un sens aux données avant de les déposer devant les tribunaux. En ce moment, nous sommes incapables de digérer toute l'information, sans oublier que nous devons composer avec un cadre légal très rigide.

Que faire avec les données ?

Il y a plusieurs écoles de pensée en la matière. Certains prétendent qu'il faut tout conserver. D'autres préférent garder seulement ce qui est plus récent. François Van Doesburg, vice-président aux TI de Cossette, fait partie des premiers. «Nous avons commencé notre projet Big Data il y a trois ans en ne nous imposant aucune limite pour le stockage de données. Je n'efface jamais de ligne de codes dans mes bases de données, parce que, dans trois ans, je vais peut-être obtenir une information supplémentaire qui me permettra de mieux cerner un comportement en remontant dans le temps», dit-il.

M. Van Doesburg affirme qu'en utilisant l'outil d'analyse Google BigQuery ou un autre système en ligne, il n'est plus nécessaire d'investir beaucoup dans des infrastructures d'analyse, puisque les utilisateurs paient à l'usage. En quelques minutes, il est possible de réaliser des analyses qui prendraient trois semaines si elles étaient réalisées en interne.

Et qu'en est-il de la masse d'information générées par les médias sociaux ? «La première stratégie, c'est d'écouter tout ce qui se passe sur les blogues en général. Quand tu peux schématiser, il devient plus facile de comprendre ce qui se dit. Par la suite, il faut faire un projet de communication en fonction des résultats obtenus», dit M. Van Doesburg.

Il ajoute qu'avec les bons outils mis en place, on arrive à comprendre exactement si les gens ont une opinion positive ou négative d'un produit, d'un service ou d'une entreprise.

Où tracer la ligne ?

De son côté, la Société des transports de Montréal (STM) commence à diffuser des informations en temps réel. «Cela implique que plus de 2 000 autobus circulant chaque jour sur le réseau vont fournir des données de géolocalisation. Est-ce qu'on garde toute cette information ? À un moment, il faut tracer la ligne», croit le directeur des TI de la STM, Luc Lamontagne.

Dans un monde idéal, il souhaiterait conserver toutes les données recueillies. «Toutefois, d'un point de vue stratégique, nous avons préféré commencer avec un plus petit lot de données et apprendre à le gérer avant de l'augmenter», dit-il.

«Toutes les données transmises par les autobus, plus celles qui circulent sur les réseaux sociaux, ça représente beaucoup d'information. Nous enregistrons 55 000 visites sur notre site Internet chaque jour et possédons 48 000 abonnés sur Twitter, ce qui nous permet de récolter beaucoup de données. Il nous est toutefois impossible de tout traiter en ce moment», concède-t-il.

«Actuellement, nous concentrons notre énergie dans l'informatique décisionnelle [business intelligence], raconte pour sa part le directeur des TI de Gaz Métro, Jacques Martin. Nous voyons toutefois un grand potentiel dans l'analyse des données non structurées. Malgré tout, nous avons pris la décision de ne pas conserver toutes les données.»

Tout dépend des besoins d'analyse des entreprises, souligne-t-il. «Par exemple, quand nous enterrons les conduites de notre réseau, nous ne pouvons plus les observer. Par contre, avec de nouvelles technologies, il est possible de tourner des vidéos, de prendre des photos et de conserver cette information quelque part. Or, l'espace disque n'est pas gratuit. Quand on garde des données en sachant que ce qu'on récolte aujourd'hui ne nous servira peut-être pas avant 30 ans, il faut s'imposer des limites», pense-t-il.

Y a-t-il une recette universelle ?

«Les meilleures pratiques peuvent placer tout le monde sous un dénominateur commun. Il faut garder en tête que l'analyse des mégadonnées est un différenciateur qui ne dure pas toujours longtemps. La créativité des entreprises est alors mise à contribution», dit Daniel Crépeau, vice-président des TI chez Investissements PSP, un gestionnaire de fonds.

Il souligne qu'il faut être en mesure d'aller chercher constamment la petite longueur d'avance. «Dans nos investissements, si on va chercher un rendement de 50 points de base de plus sur un actif sous gestion de 100 milliards de dollars, ça fait beaucoupd'argent», dit-il.

M. Crépeau précise que les rendements sont bas en ce moment. Il devient donc important de recueillir le plus de données pertinentes possible et de bien les analyser pour choisir les bons investissements.

«Un autre élément, c'est le moment choisi pour acheter ou vendre une position. Si j'achète une demi-journée avant que la Bourse ne réagisse, sans avoir d'information privilégiée et seulement grâce à des techniques d'analyse raffinées, je peux encore une fois aller chercher quelques points de base de plus», dit-il.

Mahdi Amri, associé en conseils financiers et leader de la pratique d'analytique de données chez Deloitte, ne croit pas qu'il existe une recette magique qui puisse réussir à toutes les entreprises. Il pense toutefois que chaque projet doit avoir le même principe fondamental : «Il faut trouver une question et y répondre. Par exemple, une banque pourrait vouloir apprendre à détecter les fraudeurs en analysant des séquences d'événements avant que les problèmes ne surviennent», explique-t-il.

Selon M. Amri, l'idée est de pouvoir évaluer la probabilité qu'un individu commette une fraude lorsque divers événements se succèdent. Pour y arriver, il faut souvent avoir recours à des scientifiques des données (data scientists), qui seront capables de faire un exercice de corrélation entre les divers événements. La base est alors d'apprendre le fonctionnement de l'être humain.

D'autres projets sont moins complexes, souligne M. Amri. Si une entreprise veut réaliser une analyse des sentiments sur un produit, elle veut alors savoir ce qui se dit sur Twitter et Facebook. Dans ce cas, il n'est pas utile de recueillir des données sur trois, six ou huit mois. Il faut cibler à plus court terme.

Des modèles qui doivent être mis à l'épreuve

«Certains éléments liés aux mégadonnées peuvent devenir des pratiques réutilisables, avance le directeur principal, conseil en technologie chez PwC Canada, Robert Caron. Le processus qui servira à l'analyse exploratoire de données au moyen du Big Data démarrera sur quelque chose de très prototypé et gagnera en maturité au cours des trois à cinq prochaines années. À ce moment, peut-être que les pratiques seront réutilisables.»

À son avis, il faut pouvoir rassembler des sources variées d'information et les traiter de façon à résoudre un problème spécifique. «Il y a beaucoup de paramètres qui varient selon les organisations et qui peuvent devenir des vecteurs de risque, comme la protection des renseignements personnels et la conformité. La vitesse à laquelle l'information se transforme et doit être réanalysée pour reproduire une conclusion varie aussi beaucoup selon les industries», dit-il. M. Caron soutient que le défi par excellence est d'arriver à opérationnaliser l'innovation pour qu'elle génère une valeur ajoutée au sein de l'entreprise.

Les avantages concurrentiels

Il y a deux ou trois ans, l'Industrielle Alliance a commencé une refonte de ses processus et s'est interrogée sur les données qu'elle recueillait dans le secteur de l'informatique décisionnelle traditionnelle. «En assurance, le vecteur principal lié à l'utilisation des mégadonnées est de savoir ce que ça procure au client», explique Pascal Lavoie, directeur architecture, assurance auto et habitation.

L'aspect concurrentiel est indéniable, entre autres par l'introduction du programme Mobiliz, un appareil placé dans les automobiles qui permet de récompenser les clients qui ont de bonnes habitudes de conduite.

«Nous avons été les premiers à le faire il y a un an. Mobiliz et Ajusto (une technologie semblable offerte par Desjardins) ne sont pas concurrents. On propose au consommateur une nouvelle expérience. Le fait que plusieurs entreprises se lancent là-dedans, au début, c'est plus contributif. Les gens découvrent alors une nouvelle façon de travailler avec leur institution financière», dit-il.

Pour sa part, le directeur principal, solutions d'intelligence d'affaires chez Desjardins, Ralph Van Coillie, soutient que les avantages concurrentiels liés à l'analyse des mégadonnées se divisent en trois axes.

«Premièrement, nous voulons améliorer notre gestion du risque, notamment en réduisant les fraudes. Deuxièmement, nous voulons améliorer l'expérience client pour en arriver à faire des recommandations personnalisées», explique-t-il. Il précise que le programme Ajusto est un bon exemple de la personnalisation de l'expérience client.

Le troisième axe est l'optimisation de l'efficacité de l'organisation. «Nous comptons sur une équipe de plus de 3 000 employés en TI. On a des projets en intelligence d'affaires juste pour optimiser les 1 200 projets que nous réalisons chaque année. C'est tout un exercice. On analyse nos façons de faire pour les optimiser et mieux atteindre nos deux premiers objectifs», raconte M. Van Coillie.

Les grands enjeux de l'heure en technologies de l'information vus par ceux qui les gèrent au quotidien.

Série 2 de 3

Denis. lalonde@tc.tc

À la une

Bourse: nouveaux records pour le Dow Jones et le S&P 500 à Wall Street

Mis à jour à 17:10 | lesaffaires.com, AFP et Presse canadienne

REVUE DES MARCHÉS. La Bourse de Toronto est en hausse et les marchés américains sont mitigés.

À surveiller: Microsoft, Apple et Dollarama

Que faire avec les titres de Microsoft, Apple et Dollarama? Voici quelques recommandations d’analystes.

Bourse: les gagnants et les perdants du 28 mars

Mis à jour à 17:54 | LesAffaires.com et La Presse Canadienne

Voici les titres d'entreprises qui ont le plus marqué l'indice S&P/TSX aujourd'hui.