Les GAFA ont-ils fait un pacte avec le diable?

Publié le 10/08/2018 à 06:00

Les GAFA ont-ils fait un pacte avec le diable?

Publié le 10/08/2018 à 06:00

Google & co. oeuvrent main dans la main avec la Défense américaine. Photo: TerminatorV

«Au moment de l’annonce de notre collaboration avec le Département de la Défense, nous devons éviter À TOUT PRIX la moindre mention de l’IA [Intelligence Artificielle]. Il nous faut réfléchir à un bon angle pour les médias, quelque chose de cool comme le stockage ou la sécurité des données, ou encore comme la gestion des réseaux. Parce que l’IA militarisée est probablement l’un des sujets les plus chauds à propos de l’IA – si ce n’est LE plus chaud. Ce serait du gâteau pour les journalistes qui voudraient chercher des poux à Google.»

Ce que vous venez de lire est un extrait d’un courriel envoyé récemment par Fei-Fei Li, directrice scientifique, division Cloud, de Google, à l’attention de ses collègues. Le site Web techno Gizmodo a mis la main dessus en pleine tempête, alors qu’une douzaine d’employés venaient de démissionner et qu’une pétition interne avait récolté plus de 4 000 signatures en guise de protestation contre la collaboration secrète de Google avec la Défense en vue de doter les Forces armées américaines de «matériel militaire équipé d’IA», pour ne pas dire de «robots tueurs». Un courriel qui a permis de mettre au jour le côté obscur des GAFA – l’acronyme qui désigne Google, Apple, Facebook et Amazon, et plus généralement, les entreprises dominantes de la Silicon Valley –, à savoir leur collaboration aussi active que discrète avec la Défense américaine, sans aucune considération éthique. Explication.

Le projet sur lequel Google collabore a pour nom de code «Maven», mais est aussi présenté au Pentagone sous l’acronyme AWCFT, pour Algorithmic Warfare Cross-Functional Team. Lancé en avril 2017, il a officiellement pour but de permettre aux Forces armées «d’intégrer le big data et l’apprentissage en profondeur» (deep learning, en anglais) et figurait cette année-là dans l’enveloppe budgétaire de 7,4 G$ US que la Défense était autorisée à dépenser en matière d’IA.

La toute première mission de Maven consistait à permettre aux Forces armées de traiter en un clin d’œil le déluge de données recueillies en temps réel par leurs drones aériens, l’objectif étant d’identifier aussitôt «n’importe quel individu ou véhicule» et d’être en mesure de suivre en continu ses allées et venues partout où il va, voire, au besoin, de le supprimer au moment voulu. Car, jusqu’alors, cela leur prenait «une éternité» pour traiter les informations, si bien qu’il leur arrivait de repérer des ennemis clés, mais de ne plus être en mesure d’intervenir une fois ceux-ci identifiés.

Une première mission d’ores et déjà remplie, semble-t-il, puisque l’IA née du projet Maven a été utilisée avec succès contre l’État islamique depuis décembre 2017. Mieux, celle-ci est à l’œuvre en ce moment-même dans une demi-douzaine d’endroits sur la planète où interviennent militairement les Etats-Unis, soit «au Moyen-Orient et en Afrique», a dévoilé le lieutenant-colonel Garry Floyd, l’un des directeurs adjoints du projet Maven, lors d’une conférence tenue en mai à Washington. «Selon les standards de la Défense, les résultats obtenus par le projet Maven sont de la pure magie», a même indiqué William Carter, directeur adjoint, programme de politique technologique, du think-tank américain Center for Strategic and International Studies (CSIS), après avoir pu en parler en personne avec le lieutenant-général John ‘Jack’ Shanahan, le directeur de la Defense Intelligence Agency (DIA) qui en charge du projet Maven. Et ce dernier de révéler dans la foulée son empressement de remplir au plus vite d’autres sortes de missions militaires, toujours grâce à l’IA…

Autrement dit, grâce aux GAFA, Google en tête, la Défense américaine est plus efficace que jamais. Elle est aujourd’hui capable de traquer n’importe qui et de le frapper n’importe où, quand bon lui semble. Ce n’est pas de la science-fiction, mais la réalité dans laquelle nous vivons aujourd’hui ; oui, c’est 1984 en 2018 ; et ce, je le souligne, grâce à l’aide fournie par les GAFA.

La question saute aux yeux : «Comment se fait-il que Google – dont le slogan est ‘Do the right thing’ (‘Fais la bonne chose’, en français) – en soit venu à travailler ainsi main dans la main avec la Défense américaine ?». Suivie, en toute logique, de : «Comment se fait-il, de manière plus générale, que les GAFA en soient venus à une telle collaboration militaire ?»

La réponse a filtré, je pense, lors d’une discussion qu’Eric Schmidt a eu en novembre avec un petit comité du think-tank américain Center for a New American Security (CNAS). Celui qui était alors le président exécutif d’Alphabet, le holding qui chapeaute Google, a en effet évoqué une question «d’urgence pour la sécurité du pays»…

«La Chine a récemment dévoilé sa stratégie en matière d’IA, et, je ne sais pas pour vous, mais moi, je l’ai regardée de très très près, a-t-il dit. Cette stratégie est on ne peut plus claire. D’ici 2020, ils veulent récupérer leur retard par rapport aux principaux pays impliqués dans ce domaine. D’ici 2025, ils veulent être meilleurs que nous. D’ici 2030, ils veulent dominer de manière hégémonique toute l’industrie de l’IA.

«Minute. Avez-vous bien entendu ce que je viens de vous dire ? C’est ce qu’a déclaré le gouvernement chinois. Ne sommes-nous pas supposés être les maîtres de l’IA sur notre territoire ? N’est-ce pas nous qui avons inventé tout ce qui a permis à l’IA de voir le jour ? N’est-ce pas à nous d’en tirer profit ?

«Croyez-moi, les Chinois sont doués en IA. Un exemple frappant : lorsque nous organisons des concours de code, les programmeurs chinois ou d’origine chinoise sont presque toujours les meilleurs. Nous ferions une grave erreur que de les sous-estimer. La Chine entend vraiment se servir de l’IA dans des buts commerciaux et militaires, avec toutes les implications que ça a…»

D’après Eric Schmidt, les Etats-Unis sont à un tournant de leur histoire. Ni plus ni moins.

«Notre position de leader en IA est challengée, a-t-il poursuivi. C’est là un enjeu national. Et le problème, c’est que, contrairement à la Chine, nous n’avons aucune stratégie nationale à ce sujet. Aucune. Il nous faut donc réagir, vite et unis, car le pays est en danger.

«Souvenons-nous du ‘moment Spoutnik’, d’accord ? Les ambitions des Soviétiques étaient affichées, comme le sont aujourd’hui celles de la Chine, et ça a amené la Nasa à réagir, en faisant appel au entreprises privées et aux chercheurs universitaires. On a là un modèle inspirant, je trouve. (…)

«Souvenons-nous également de l’émergence du nucléaire dans les années 1940 et 1950. Le gouvernement américain a recouru au savoir des entreprises privées et des chercheurs universitaires pour relever des défis incommensurables. Cela nous a sûrement sauvé. Et cela a eu des retombées folles pour toute la société. Eh bien, il est crucial de nous considérer maintenant à un moment similaire de notre histoire.»

Voilà pourquoi Eric Schmidt, qui a quitté son poste à Alphabet peu après cette discussion, préside à présent le Defense Innovation Board (DIB), un comité de conseillers oeuvrant pour le Secrétaire à la Défense, James Mattis. Sa nouvelle mission : de manière générale, «apporter une culture d’innovation et d’intraprenariat au Département de la Défense», un peu à l’image de ces grandes entreprises qui souhaitent ardemment acquérir un «esprit start-up» ; plus spécifiquement, «fournir des conseils en matière d’intelligence artificielle, d’apprentissage en profondeur, de logiciel, d’infrastructure technologique et de drones de guerre». Autrement dit, il lui faut «apporter de nouvelles perspectives issues des secteurs privé et académique» et «rassembler du data» afin de procurer de «nouvelles solutions» aux défis que la Défense se doit de relever.

Pour ce faire, Eric Schmidt s’est entouré de sommités des plus surprenantes, en ce sens que ceux qui les connaissent bien n’auraient jamais imaginé qu’elles travailleraient, un beau jour, pour les Forces armées. Parmi celles-ci figurent :

– Adam Grant, professeur de psychologie organisationnelle à l’Université Wharton et auteur de bestsellers comme «Option B : Facing dversity, building resilience, and finding joy», cosigné avec Sheryl Sandberg, le bras droit de Mark Zuckerberg.

– Jennifer Pahlka, fondatrice et directrice exécutive de Code for America, une organisation à but non lucratif qui entend rendre le gouvernement américain plus transparent et plus connecté.

– Marne Levine, directrice de l’exploitation d’Instagram ainsi que directrice de l’organisation à but non lucratif Women for Women International, qui vole au secours des femmes victimes de la guerre.

– Milo Medin, vice-président, services d’accès, d’Alphabet. Il a notamment travaillé sur le Google Home, ce haut-parleur intelligent que certains perçoivent comme un «espion à demeure». Et alors qu’il était étudiant à Berkeley, il avait aidé la Défense à améliorer la performance de ses ordinateurs.

– Neil deGrasse Tyson, directeur du planétarium Hayden de l’American Museum of Natural History à New York et auteur de bestsellers comme «Astrophysics for people in a hurry».

– Reid Hoffman, cofondateur de LinkedIn et capital risqueur ayant investi, entre autres, dans Airbnb, Flickr et Digg.

– Richard Murray, professeur de bio-ingénierie au California Institute of Technology.

– Walter Isaacson, PDG de l’Aspen Institute et auteur de bestsellers comme «The Innovators» et «Steve Jobs».

Ensemble, ils planchent sur la modernisation technologique de la Défense, et en particulier sur les mesures concrètes à prendre pour que les Etats-Unis demeurent en tête dans la course à l’IA militarisée. Ils ont d’ores et déjà émis 16 recommandations, qui, disons-le clairement, changeraient carrément le visage de la guerre si elles voyaient le jour.

Prenons un exemple… Le DIB invite la Défense à considérer le data comme une «ressource naturelle globale», «aujourd’hui indispensable pour quiconque entend avoir un avantage militaire sur autrui». Selon lui, cela ne fait aucun doute que «les prochains conflits globaux carbureront au data», car ce dernier permettra au soldat comme à la machine de guerre d’être «plus précis, plus rapide, et donc plus mortel». D’où l’importance vitale d’innover radicalement en matière de stockage, de partage et d’analyse des données.

Comment, au juste ? Tout d’abord, en prenant vraiment conscience de l’importance du data dans la guerre. «Aujourd’hui, les Forces armées perçoivent un avion de combat comme un avion bourré d’ordinateurs qui est piloté par un être humain. Demain, il va leur falloir saisir qu’il s’agit, en vérité, d’une IA dotée d’ailes», notent-ils.

Ensuite, en créant une toute nouvelle agence, chargée de collecter le maximum de data possible et de le diffuser efficacement auprès de n’importe quel militaire en ayant besoin. Cette agence bénéficierait d’un budget annuel «de 500 M$ US à 1 G$ US». Elle stockerait les données «dans les nuages» [ce que la Défense ne fait pas encore vraiment, semble-t-il] et fournirait les outils nécessaires pour les analyser, «que ce soit par un être humain ou par une IA».

Enfin, en donnant davantage les coudées franches à l’IA, «plus rapide, plus précise et plus résiliente que les êtres humains» en matière d’analyse de données critiques. «Le projet Maven est, à cet égard, un superbe exemple de la façon dont le Département peut agir en ce sens. Il gagnerait d’ailleurs à être dupliqué partout dans la Défense (verticaux, agences, antennes à l’étranger,…)», soulignent-ils au passage.

Résultat ? Les pontes de la Silicon Valley sont en train de dessiner, en douce, la guerre de demain. Une guerre «plus précise, plus rapide, et donc plus mortelle». Une guerre où l’IA sera reine. Une guerre où l’humain ne sera plus rien.

Peut-être avez-vous du mal à imaginer ce à quoi une telle guerre pourrait ressembler. Si tel est le cas, je vous invite à regarder attentivement la vidéo ci-dessous, du début à la fin, même si certaines scènes peuvent heurter tant elles sont criantes de vérité…

Il y a un point important que je tiens à souligner à propos de cette vidéo : nous disposons aujourd’hui de toute la technologie nécessaire pour fabriquer de telles armes intelligentes. Oui, vous avez bien lu, un pays, une entreprise, ou même un groupe terroriste sont techniquement capables de mettre au point ces nano-robots tueurs. D’ailleurs, si ça se trouve, un labo secret, quelque part près de chez nous, est peut-être bien en train d’en tester au moment-même où vous lisez ces lignes…

Je me répète, il ne s’agit pas de science-fiction, mais de la réalité de notre époque.

Prenons quelques exemples susceptibles de vous faire froid dans le dos… La Russie travaille sur une version 100% autonome de son tank T-14 Armata, qui doit entrer en service dans l’Armée en 2020. Celui-ci est doté d’un canon de 125 mm alimenté par un carrousel automatisé d’une capacité de 32 obus. Une mitrailleuse de 7,62 mm (1.000 cartouches) et une mitrailleuse de 12,7 mm (33 cartouches) complètent l’armement principal. Sa vitesse sur route est de 75 km/h, et son autonomie, de 500 km.

Les Etats-Unis sont en train de tester un prototype du Sea Hunter, un navire de 40m de long 100% autonome qui est spécialisé dans la traque des sous-marins. Les tests sont, semble-t-il, si concluants que la Defense Advanced Research Projects Agency (DARPA) a donné en février le feu vert à l’Office of Naval Research (ONR) pour accélérer le projet-pilote. Pour l’instant, le Sea Hunter est capable de sillonner les mers pendant 30 à 90 jours sans approvisionnement, à une vitesse maximale de 50 km/h. Il est bourré de toute la technologie nécessaire pour repérer les sous-marins ennemis, et pourrait, à l’avenir, être équipé de l’armement nécessaire pour les couler.

La Corée du Sud a mis au point le Samsung SGR-A1, le tout premier robot sentinelle. Ce dernier correspond à une tourelle fixe, mais mobile, dont l’IA est en mesure de détecter tout être humain à 3 km aux alentours. Il est actuellement placé sur la zone frontalière avec la Corée du Nord, et il a pour ordre de faire feu sur toute personne qui tenterait de franchir la frontière.

Bref, les robots tueurs existent bel et bien. Et nous n’avons encore rien vu de leurs capacités de destruction, si l’on en croit un récent rapport de l’assureur européen Allianz intitulé «The rise of artificial intelligence : Future outlook and emerging risks» :

– Les robots tueurs pourraient très bien former des armées entières, d’une redoutable efficacité puisque chacun serait connecté aux autres. Ce qui pourrait permettre d’envahir mers, terres et ciels de manière foudroyante. «On peut imaginer sans peine une nuée de drones armés qui seraient pilotés par une IA. Or, ce type de risque est encore trop souvent sous-estimé», y est-il noté.

– «L’IA pourrait servir à inventer de nouvelles armes, ou à tout le moins à réduire drastiquement le coût d’armes existantes», est-il aussi indiqué dans le rapport. Ce qui permettrait à n’importe qui, ou presque, d’entrer en conflit armé avec autrui, en bénéficiant de l’effet de surprise.

– «L’IA pourrait tirer parti du fait que de plus en plus de systèmes sont interconnectés pour déclencher des catastrophes à partir d’un simple bug intentionnel. Il suffirait qu’une faille dans une infrastructure informatique ou électrique soit exploitée par l’IA pour provoquer, par effet domino, une panne généralisée de l’ensemble du système», est-il ajouté.

– «Comme les IA apprennent entre elles, il suffirait qu’une IA malveillante soit mise en contact avec d’autres pour toutes les contaminer. Ce qui décuplerait l’impact d’un bug intentionnel», est-il noté.

– «L’IA pourrait être utilisée pour concocter des cyberattaques plus sophistiquées que jamais. Ce qui aurait des conséquences économiques phénoménales, quand on voit ce que les attaques des hackers humains font aujourd’hui comme dégâts», est-il encore dit dans le rapport d’Allianz.

Le think-tank américain RAND Corporation redoute, lui aussi, des cyberattaques d’un tout nouveau genre, en raison de l’avènement de l’IA. Mais dans son rapport intitulé «The risks of artificial intelligence to security and the future of work», il va encore plus loin et imagine qu’une IA de la Défense soit… « retournée » par l’ennemi pour agir comme agent double ! « L’IA retournée pourrait fuiter des informations confidentielles à l’ennemi, procurer de fausses informations confidentielles à la Défense, voire manipuler d’autres IA, ou même des cadres clés des Forces américaines, en leur fournissant des informations triées de façon malveillante, histoire de les amener à des analyses erronées, et donc à des décisions malheureuses », est-il noté dans le rapport.

Fou, n’est-ce pas ? Et pourtant, tout cela est à nos portes. Et ça toque à nous briser les tympans, tant les GAFA et les entreprises prédominantes de la Silicon Valley font des pieds et des mains pour œuvrer de concert avec la Défense américaine.

C’est qu’il n’y a pas que Google qui met ses talents au service de l’IA militarisée, d’autres le font tout autant, vraisemblablement parce qu’il y a là beaucoup d’argent à empocher. Eric Schmidt l’a confié lui-même devant le comité du CNAS, sans fausse pudeur : «Pourquoi travailler avec la Défense ? Eh bien, en tout premier lieu, parce qu’il y a beaucoup d’argent à la Défense. Les programmes sont vastes, pluri-annuels et accompagnés d’achats gigantesques», a-t-il dit.

Ainsi, Apple travaille avec HP et Boeing pour équiper les soldats américains en équipement technologique portable. Un contrat de cinq ans évalué à 75 M$ US. Qui sait ? Cet équipement-là pourrait, un beau jour, permettre aux soldats d’être connectés à une IA, ce qui boosterait indéniablement leur force de frappe…

Idem, Amazon, IBM, Microsoft et Oracle sont en lice pour emporter ce que certains présentent comme le contrat du siècle, à savoir la gestion nuagique de l’ensemble des données de la Défense amérciaine, le Joint Enterprise Defense Infrastructure (JEDI). La valeur de ce contrat est évaluée à 10 G$ US. Celui-ci est d’une durée initiale de deux années, avec une option pour un renouvellement de cinq ans. À noter que le gagnant aura ainsi un pied dans la place, et serait a priori favori pour décrocher un autre contrat juteux encore nébuleux, dont on sait seulement qu’il concerne le développement accéléré des capacités du Pentagone en matière d’IA.

Voilà. L’IA militarisée avance à grands pas ; et ce, je le répète, grâce au coup de main de la Silicon Valley.

Allons-nous droit, par conséquent, à des catastrophes qui dépassent l’entendement ? Et dans l’affirmative, est-il trop tard pour corriger le tir ? Eh bien, aussi surprenant que cela puisse paraître, peut-être pas. Je m’explique…

Pour commencer, la militarisation de l’IA suscite de la grogne au sein même de la Silicon Valley. On l’a vu, des employés de Google ont carrément claqué la porte en découvrant le projet secret sur lequel planchait leur entreprise et des milliers de leurs collègues ont signé une pétition en guise de protestation. Tout ce bruit n’a pas été vain : sous la pression, Diane Greene, la PDG de Google Cloud, a fini par décider, ces derniers jours, l’arrêt de la collaboration de Google au projet Maven en 2019 (Google est légalement tenu de remplir l’essentiel du contrat qu’il a signé avec la Défense, ce qui devrait survenir au courant de l’année prochaine).

Ce n’est pas tout. Sundar Pichai, le PDG de Google, a dévoilé dans la foulée une toute nouvelle liste de principes éthiques pour Google en matière d’intelligence artificielle. Celle-ci stipule que toute IA sur laquelle travaillera à l’avenir Google devra répondre à sept critères :

– Être bénéfique pour la société.

– Éviter de créer ou de renforcer des biais injustes.

– Être fabriquée et testée pour renforcer la sécurité.

– Tenir compte de l’opinion publique.

– Respecter la vie privée des individus.

– Se conformer aux standards d’excellence scientifique.

– Être toujours utilisée en accord avec les six principes précédents.

À ces principes a été ajouté l’engagement ferme de ne jamais travailler, ni utiliser, une IA qui :

– Pourrait créer des dommages (à moins, toutefois, que les bienfaits ne surpassent amplement les dommages collatéraux).

– Servirait d’arme, ou même pourrait servir à blesser quelqu’un.

– Servirait à espionner quelqu’un.

– Contreviendrait aux principes fondamentaux du droit international et des droits de l’être humain.

«Cela étant, nous voulons être clairs sur le fait que nous continuerons notre travail avec les gouvernements et les militaires dans de nombreux domaines, a précisé M. Pichai. Ceux-ci comprennent la cybersécurité, la formation, le recrutement, les soins de santé à l’attention des anciens combattants ainsi que les opérations de sauvetage. Ces collaborations sont importantes, et nous chercherons activement tous les moyens possibles d’œuvrer avec ces organisations et de contribuer à la sécurité tant des militaires que des civils.»

Bref, Google a bel et bien fait un pas en avant vers un comportement plus éthique en matière d’IA militarisée, mais seulement un petit pas. Car, à bien y regarder, la liste et son addendum ne changent pas grand chose : à l’avenir, Google pourrait très bien collaborer à un projet similaire à celui de Maven puisque dès le départ la haute-direction avait indiqué que le travail en question «ne portait pas sur des appareils armés, mais sur du traitement de données en vue d’améliorer les opérations de surveillance aérienne de la Défense» ; ce qui n’enfreint aucune des nouvelles règles éthiques de Google.

Bon. Il y a donc progrès. Et la bonne nouvelle, c’est que d’autres sont enregistrés dans la Silicon Valley…

Mohammad Gawdat, un ex-directeur du développement des affaires du laboratoire secret Google X, a confié aux médias en mars qu’il suffisait d’un simple changement pour éviter les scénarios apocalyptiques de l’IA, un changement qui, en vérité, nous concerne tous directement. Quel est ce changement ? Eh bien, à ses yeux, il faut réaliser que les IA sont, au fond, comme des enfants : elles apprennent tout, ou presque, de leurs parents. Or, qui sont leurs parents ? Nous-mêmes. Oui, chacun de nous.

«Si un parent apprend à son enfant la violence, l’avidité, la compétitivité, ou encore la culture de l’ego, cela fera un petit monstre, a-t-il illustré. En revanche, s’il lui apprend comment cultiver le bien-être, sur les plans individuel et collectif, cela fera un petit bonhomme heureux, qui rayonnera de bonheur tout autour de lui. Voilà pourquoi il est crucial que chacun de nous se serve à l’avenir du web, et en particulier des médias sociaux, de manière bienveillante : en se souciant de ne heurter personne en ligne, et mieux, de contribuer au bonheur d’autrui, chacun de nous contribuera à une bonne éducation des IA de demain.»

Simple, mais ô combien subtil, n’est-ce pas ? D’autant plus qu’un récent rapport de la RAND Corporation intitulé «An intelligence in our image : The risks of biais and errors in artificial intelligence» abonde dans le même sens. Celui-ci a en effet mis au jour trois moyens de remédier aux dérapages de l’IA :

– Transparence. Les entreprises mettant au point des IA doivent être plus transparentes à propos de leur travail, aussi bien à l’interne qu’à l’externe.

– Éducation. Elles doivent aussi éduquer le grand public quant aux impacts potentiels de ses travaux en matière d’IA.

– Prise de conscience. Elles doivent enfin faire éveiller leurs propres employés en matière d’éthique, en incitant chacun d’eux à évaluer les impacts négatifs potentiels de leurs travaux et à en discuter ouvertement avec la haute-direction.

Autrement dit, il convient d’établir des passerelles entre les entreprises et la société dans laquelle elle évolue, histoire de s’assurer que les progrès en IA correspondent bel et bien aux besoins des gens. Or, ces passerelles-là n’existent pas, de nos jours : par exemple, quel citoyen a aujourd’hui accès à ce qui se passe dans les labos des GAFA ? En particulier ici, à Montréal, la supposée «capitale mondiale de l’IA»?

Christian Sandvig, professeur de science de l’information à l’Université du Michigan à Ann Arbor (Etats-Unis), a beaucoup réfléchi sur la question. Il en est arrivé à la conclusion qu’il était devenu impératif d’adopter une politique d’audits indépendants des algorithmes. D’après lui, il convient de juger ceux-ci – et par suite, les IA – en fonction des conséquences de leur fonctionnement (décisions et actions) et non pas en fonction de leurs codes (pensées), à l’image de notre jugement des êtres humains, qui se fait en fonction de leurs actes et non pas de leurs pensées (ex. : on peut maudire intérieurement son voisin, mais pas endommager son jardin). Du coup, on pourrait imaginer la création d’une instance gouvernementale dont le rôle serait d’évaluer l’impact, réel comme potentiel, de tout algorithme ayant une incidence sur la société, et, le cas échéant, de condamner et interdire son utlilisation, sous quelque forme que ce soit.

Cela n’est, bien entendu, qu’une suggestion. Mais une suggestion qui mérite d’être considérée au plus vite. D’ailleurs, Yoshua Bengio, le cofondateur d’Element AI et directeur de l’Institut des algorithmes d’apprentissage de Montréal (MILA), n’a-t-il pas lui-même dit, lors du dernier C2 Montréal : «Nous sommes à présent à un stade de l’évolution de l’IA où celle-ci sort de plus en plus des labos industriels et commerciaux. Il faut donc nous assurer de la création d’une entité forte et neutre dont l’objectif principal serait de veiller à ce que l’IA œuvre pour le plus grand bien de la société» ?

Croisons donc les doigts, il n'est peut-être pas encore trop tard, peut-être avons-nous le temps de nous unir face à l'apocalypse numérique annoncée...

*****

Espressonomie

Un rendez-vous hebdomadaire dans Les affaires et Lesaffaires.com, dans lequel Olivier Schmouker éclaire l'actualité économique à la lumière des grands penseurs d'hier et d'aujourd'hui, quitte à renverser quelques idées reçues.

Découvrez les précédents billets d'Espressonomie

La page Facebook d'Espressonomie

Et mon dernier livre : 11 choses que Mark Zuckerberg fait autrement