Logo - Les Affaires
Logo - Les Affaires

L’Italie bloque ChatGPT sur l’ensemble de son territoire

AFP|Publié le 31 mars 2023

L’Italie bloque ChatGPT sur l’ensemble de son territoire

Cette décision aura pour conséquence « la limitation provisoire du traitement des données des utilisateurs italiens vis-à-vis d’OpenAI », l’entreprise à l’origine de l’application. (Photo: 123RF)

L’Italie mène-t-elle la fronde contre l’intelligence artificielle? Elle est devenue vendredi le premier pays dans le monde occidental à bloquer ChatGPT pour des craintes liées à l’utilisation des données, deux mois après avoir banni un autre programme commercialisé comme un « ami virtuel ».

Dans un communiqué, l’Autorité italienne de protection des données personnelles prévient que sa décision a un « effet immédiat » et accuse le robot conversationnel de ne pas respecter la réglementation européenne et de ne pas vérifier l’âge des usagers mineurs.

Cette décision aura pour conséquence « la limitation provisoire du traitement des données des utilisateurs italiens vis-à-vis d’OpenAI », l’entreprise à l’origine de l’application, selon le document.

ChatGPT est apparu en novembre et a rapidement été pris d’assaut par des utilisateurs impressionnés par sa capacité à répondre clairement à des questions difficiles, à écrire des sonnets ou du code informatique. Financé par le géant informatique Microsoft, qui l’a ajouté à plusieurs de ses services, il est parfois présenté comme un potentiel concurrent au moteur de recherche Google.

L’institution italienne souligne que ChatGPT « a subi le 20 mars une perte de données concernant les conversations des utilisateurs et les informations relatives au paiement des abonnés au service payant ».

Après les premiers signalements, OpenAI avait brièvement interrompu le service, puis reconnu un bogue dans un outil tiers, désormais résolu, qui avait affecté 1,2% de ses abonnés et un nombre indéfini des utilisateurs gratuits.

L’autorité lui reproche aussi « l’absence d’une note d’information aux utilisateurs, dont les données sont récoltées par OpenAI, mais surtout l’absence d’une base juridique justifiant le recueil et la conservation en masse des données personnelles, dans le but d’entraîner les algorithmes faisant fonctionner la plateforme ».

En outre, alors que le robot est destiné aux personnes ayant plus de 13 ans, elle « met l’accent sur le fait que l’absence de tout filtre pour vérifier l’âge des utilisateurs expose les mineurs à des réponses absolument non conformes par rapport à leur niveau de développement ».

Désinformation et logiciels malveillants

La même institution avait bloqué début février pour des raisons similaires l’application Replika, qui propose de bavarder avec un avatar sur-mesure. Certains utilisateurs s’étaient plaints de recevoir des messages et images trop osés, proches du harcèlement sexuel.

Cette fois encore, l’Autorité demande à OpenAI de « communiquer d’ici 20 jours les mesures entreprises » pour remédier à cette situation, « sous peine d’une sanction allant jusqu’à 20 millions d’euros ou jusqu’à 4% du chiffre d’affaires mondial annuel », le maximum prévu par le Règlement européen sur les données personnelles (RGPD).

Cette affaire montre que le RGPD, qui a déjà entraîné pour les géants de la tech des milliards de dollars d’amendes, pourrait devenir également l’ennemi des nouvelles IA génératrices de contenus.

Selon Nello Cristianini, professeur à l’université de Bath (Royaume-Uni), « les considérations les plus importantes » sont « l’utilisation sans base légale appropriée de données personnelles pour l’entraînement des modèles et la possibilité grandissante de voir ces données reproduites de manière inexacte ».

L’IA nourrit de plus des craintes bien plus profondes que la seule exploitation des données personnelles et l’Union européenne prépare actuellement un projet de régulation qui pourrait être finalisé d’ici début 2024, pour une application quelques années plus tard.

Europol a ainsi averti lundi que des criminels étaient prêts à tirer parti de l’intelligence artificielle pour commettre des fraudes et d’autres cybercrimes.

ChatGPT a aussi été bloqué peu après sa sortie dans plusieurs écoles ou universités dans le monde, après des craintes de tricherie aux examens, et des entreprises ont déconseillé à leurs employés d’utiliser l’application.

« On a vu des salariés fournir les plans stratégiques de leur entreprise à ChatGPT pour lui demander d’en faire une présentation par diapositives. Les idiots! Car toutes les données vont dans ChatGPT qui peut les régurgiter si un concurrent lui demande la stratégie de cette entreprise », a expliqué Françoise Soulie Fogelman, conseillère du Hub FranceIA, lors d’un colloque.

Mercredi, le milliardaire Elon Musk — un des fondateurs d’OpenAI dont il a ensuite quitté le conseil d’administration — et des centaines d’experts mondiaux ont réclamé une pause de six mois dans la recherche sur les IA plus puissantes que GPT-4, la dernière mouture du logiciel sur lequel repose ChatGPT lancée mi-mars, en évoquant « des risques majeurs pour l’humanité ».