Logo - Les Affaires
Logo - Les Affaires

Le G7 Industrie se fixe comme objectif une IA «sûre»

AFP|Publié le 15 mars 2024

Le G7 Industrie se fixe comme objectif une IA «sûre»

L’essor de l’IA est devenu un motif d’inquiétude, amplifié par le lancement en 2022 de ChatGPT, qui a sorti des laboratoires l’IA dite générative permettant de produire textes, images, sons et lignes de codes sur simple requête en langage courant. (Photo: 123RF)

Les ministres de l’Industrie, de la Technologie et du Numérique du G7 se sont fixé vendredi comme «objectif commun» de mettre en place une intelligence artificielle (IA) «sûre, sécurisée et digne de confiance», mais ont reconnu que son encadrement pouvait varier d’un pays à l’autre. 

«Nous sommes déterminés à trouver un juste équilibre entre la promotion de l’innovation et la nécessité de mettre en place des garde-fous appropriés», ont-ils indiqué dans un communiqué.

Cette déclaration commune a été publiée à l’issue de la seconde journée d’une réunion ministérielle à Trente, dans le nord de l’Italie, consacrée à l’IA, l’une des priorités de la présidence italienne du G7.

«Des instruments politiques visant à réaliser la vision et l’objectif communs d’une IA sûre, sécurisée et digne de confiance, peuvent varier entre les membres du G7», ont admis les ministres, laissant entrevoir des divergences sur le sujet.

«Nous saluons les efforts déployés actuellement par les membres du G7 et les encourageons à faire progresser et à renforcer l’interopérabilité entre les cadres de gouvernance de l’IA», ont-ils relevé.

L’essor de l’IA est devenu un motif d’inquiétude, amplifié par le lancement en 2022 de ChatGPT, qui a sorti des laboratoires l’IA dite générative permettant de produire textes, images, sons et lignes de codes sur simple requête en langage courant.

Les députés européens ont approuvé mercredi une législation inédite au niveau mondial pour encadrer les systèmes d’intelligence artificielle comme ChatGPT, après d’intenses négociations sur l’équilibre entre innovation et sécurité.

La législation européenne contraindra les systèmes d’IA à informer l’utilisateur qu’il est en relation avec une machine, et les images, textes ou vidéos générés artificiellement («deep fakes») devront être clairement identifiés comme tels.

Cette loi sera dotée de moyens de surveillance et de sanctions avec la création d’un office européen de l’IA, qui pourra infliger des amendes allant de 7,5 à 35 millions d’euros.

Certains pays membres du G7, comme les États-Unis et le Royaume-Uni, prônent des règles moins strictes que celles de l’UE, misant plutôt sur une autorégulation ou adhésion volontaire des géants de la tech à des dispositifs de surveillance.

«Notre approche de la réglementation de l’intelligence artificielle est différente de celle de l’UE», avait ainsi déclaré jeudi la ministre britannique de la Technologie, Michelle Donelan, présente à la première journée du G7 Industrie qui a eu lieu à Vérone (nord).

«Nous ne voulons pas seulement nous concentrer sur les risques, mais aussi promouvoir l’innovation et éviter de l’entraver», avait-elle fait valoir dans un entretien au journal La Repubblica.