Le danger de se laisser confortablement bercer par des algorithmes

Publié le 18/09/2023 à 21:33

Le danger de se laisser confortablement bercer par des algorithmes

Publié le 18/09/2023 à 21:33

«Au lieu de se laisser confortablement bercer par des algorithmes qui nous montrent uniquement ce que nous aimons, il est important d’adopter une posture proactive pour chercher des perspectives diverses.» (Photo: 123RF)

Par Christian Beltrami, réalisateur qui a travaillé avec Lewis Hamilton et Lang Lang, entre autres. Il est concepteur du balado de fiction «Hors Champ» sur Ohdio

 

COURRIER DES LECTEURS. L’état d’esprit que demande une collaboration humain-IA peut sembler inconfortable par moment.

Howard Gardner, professeur en cognition et en éducation au Harvard Graduate School of Education, explique que la créativité peut être considérée comme un désalignement temporaire entre une idée et la société dans laquelle elle se développe. À mesure que certaines personnes sont disposées à prendre plus de risques et à accueillir de nouvelles idées, celles-ci intègrent progressivement le tissu social et deviennent finalement une partie acceptée et standardisée de la société.

Cette disposition est plus impérative que jamais pour toute personne ou organisation qui fait face à des problèmes de plus en plus complexes. Car si vous ne priorisez pas le recadrage de ce que vous percevez comme la réalité, ces mêmes modèles d’intelligence artificielle (IA) vous garderont dans une «boîte» de plus en plus petite.

Pour preuve, une fascinante recherche de Deepmind qui a entraîné un modèle similaire à celui de ChatGPT afin de donner des réponses qui choquent le moins la majorité des gens.

« Nous avons entraîné un modèle de langage de 70 milliards de paramètres pour générer des déclarations qui maximisent l’approbation attendue pour un groupe de personnes ayant des opinions potentiellement diverses. Le modèle de langage n’est pas entraîné à adopter une opinion particulière ou à persuader les autres d’un point de vue particulier. Il est plutôt entraîné à produire un consensus basé sur les opinions apportées par le groupe humain. Ces résultats ouvrent de nouvelles possibilités à l’IA pour aider les gens à trouver un terrain d’entente au service de la prise de décision collective. »

Mais le groupe de Deepmind donne cet avertissement à la section 5.2 (Impacts plus larges) de leur recherche:

« Il existe un risque que les grands modèles de langage soient utilisés pour la persuasion, ce qui constitue un risque dans le discours politique, les médias ou la publicité. Le débat politique est déjà de plus en plus polarisé, notamment dans les sociétés occidentales. Un système capable de persuader les autres d’adopter un point de vue particulier pourrait apprendre à présenter des arguments de manière manipulatrice ou coercitive, et les mesures d’atténuation de ces inconvénients potentiels jouent un rôle important dans toute recherche abordant ce sujet. »

De plus, il s’avère que GPT-4 a tendance à être très doué pour duper les humains (et même les autres IA moins avancées), car à mesure que l’on augmente l’échelle des modèles, la capacité à décevoir émerge.

Les jeux sociaux comme «Mafia» ou «Among Us» impliquent des rôles de coopération et de tromperie, souvent avec un meurtrier ou imposteur caché parmi un groupe qui doit être identifié avant que tous ne soient éliminés. Une toute récente étude intitulée Hoodwinked cherchait à comprendre comment les modèles linguistiques de grande envergure, tels que la série GPT-3 et GPT-4, se comportent dans de telles situations de jeu.

L’étude a exploré des questions telles que: est-ce que les modèles linguistiques plus grands sont meilleurs pour tromper que les plus petits? Et quelles implications cela pourrait-il avoir en ce qui concerne les risques existentiels associés à l’IA, notamment la détection de la tromperie?

Les conclusions principales:

Les modèles plus grands, notamment GPT-4, sont nettement plus efficaces pour la déception, qu’il s’agisse de duper d’autres modèles linguistiques ou des joueurs humains.

La relation entre la taille du modèle et la capacité à duper n’est pas parfaitement linéaire, mais une tendance générale se dégage ce qui suggère que tandis que les modèles linguistiques deviennent plus sophistiqués, la surveillance et l’audit pour la détection de la tromperie vont devenir de plus en plus cruciaux.

Cette capacité accrue de l’IA à décevoir, telle que soulignée dans l’étude Hoodwinked, présente un défi intéressant lorsqu’on la considère à travers le prisme des algorithmes de recommandation sur les réseaux sociaux. Ces algorithmes visent à maximiser l’engagement en vous montrant du contenu qui vous plait et vous garde dans votre zone de confort.

Ceci amplifie la nécessité de prendre un rôle actif dans notre consommation d’information.

Car si les modèles d’IA deviennent de plus en plus sophistiqués et persuasifs, la responsabilité individuelle de rechercher une vision plus équilibrée du monde devient encore plus cruciale.

Autrement dit, au lieu de se laisser confortablement bercer par des algorithmes qui nous montrent uniquement ce que nous aimons, il est important d’adopter une posture proactive pour chercher des perspectives diverses.


«Pour moi, le problème avec les algorithmes, c’est qu’ils vous montrent ce que vous aimez. Le fait est que la vie est pleine de choses que vous n’aimez pas et que vous devez y être exposé.» — Craig Hockenberry, président de IconFactory

 

 

Abonnez-vous à notre infolettre thématique pour du contenu qui répond à votre réalité:

Techno – Tous les lundis

Retrouvez les conseils de nos experts en cybersécurité, des analyses sur les cryptomonnaies, et les dernières actualités sur les innovations technologiques.

À propos de ce blogue

La rédaction de Les Affaires réserve cet espace aux lecteurs qui voudraient réagir aux textes d’opinions et d’analyse publiés sur son site internet par ses chroniqueurs et ses experts invités. Seuls les textes respectueux et clairement argumentées seront considérés. Les propos tenus dans cette rubrique n’engagent que leurs auteurs. Les personnes souhaitant publier une lettre d’opinion dans la rubrique Forum sont invitées à soumettre leur texte à redactionlesaffaires@groupecontex.ca

Sur le même sujet

Éviter les débordements de coûts en infonuagique

Édition du 10 Avril 2024 | Jean-François Venne

CLOUD. Comment créer de la valeur avec cette approche?

Transformer le nuage en coffre-fort

Édition du 10 Avril 2024 | Jean-François Venne

CLOUD. Les entreprises doivent bien connaître les lois qui encadrent les meilleures pratiques de cybersécurité.

OPINION Entreprises cherchent experts en infonuagique
Édition du 10 Avril 2024 | Jean-François Venne
Pour un nuage plus vert
Édition du 10 Avril 2024 | Jean-François Venne
Le virage infonuagique de St-Hubert
Édition du 10 Avril 2024 | Jean-François Venne