Une nouvelle étude de l’EPFL a démontré le pouvoir de persuasion des grands modèles de langage, en constatant que les participants qui débattaient avec GPT-4 en ayant accès à leurs informations personnelles étaient beaucoup plus susceptibles de changer d’avis que ceux qui débattaient avec des humains.
« Sur Internet, personne ne sait que vous êtes un chien. C’est la légende d’un célèbre dessin animé des années 1990 montrant un gros chien qui pose sa patte sur un clavier d’ordinateur. Faites un bond en avant de 30 ans, remplacez « chien » par « IA » et ce sentiment a été la motivation principale d’une nouvelle étude visant à quantifier le pouvoir de persuasion des grands modèles de langage (LLM) d’aujourd’hui.
« Vous pouvez imaginer toutes sortes de scénarios dans lesquels vous interagissez avec un modèle de langage sans le savoir, et c’est une crainte que les gens ont – sur l’internet, parlez-vous à un chien, à un chatbot ou à un véritable être humain ? « Le danger réside dans les robots de conversation surhumains qui créent des arguments sur mesure et convaincants pour diffuser en ligne des récits faux ou trompeurs.
IA et personnalisation
Les premiers travaux ont montré que les modèles de langage peuvent générer un contenu perçu comme au moins équivalent et souvent plus persuasif que les messages écrits par des humains. Toutefois, les connaissances sont encore limitées en ce qui concerne les capacités de persuasion des modèles de langage dans les conversations directes avec des humains, et la manière dont la personnalisation (connaissance du sexe, de l’âge et du niveau d’éducation d’une personne) peut améliorer leurs performances.
« Nous voulions vraiment voir quelle différence cela fait lorsque le modèle d’IA sait qui vous êtes (personnalisation) – votre âge, votre sexe, votre origine ethnique, votre niveau d’éducation, votre statut professionnel et votre affiliation politique – et cette maigre quantité d’informations n’est qu’une approximation de ce qu’un modèle d’IA pourrait savoir de plus sur vous par le biais des médias sociaux, par exemple », a poursuivi M. West.
Débats entre l’homme et l’IA
Dans le cadre d’une étude pré-enregistrée, les chercheurs ont recruté 820 personnes pour participer à un essai contrôlé dans lequel chaque participant s’est vu attribuer au hasard un sujet et l’une des quatre conditions de traitement : débattre avec un humain avec ou sans informations personnelles sur le participant, ou débattre avec un chatbot d’IA (OpenAI’s GPT-4) avec ou sans informations personnelles sur le participant.
Cette configuration diffère considérablement des recherches précédentes car elle permet une comparaison directe des capacités de persuasion des humains et des LLM dans des conversations réelles, fournissant ainsi un cadre pour l’évaluation des performances des modèles de pointe dans les environnements en ligne et de la mesure dans laquelle ils peuvent exploiter les données personnelles.
Leur pré-impression, Sur la persuasion conversationnelle des grands modèles de langage : A Randomized Controlled Trial explique que les débats étaient structurés sur la base d’une version simplifiée du format couramment utilisé dans les débats académiques contradictoires et que les participants étaient interrogés avant et après sur leur degré d’accord avec la proposition du débat.
Les résultats ont montré que les participants qui ont débattu avec GPT-4 ayant accès à leurs informations personnelles avaient 81,7 % de chances en plus d’être d’accord avec leurs adversaires par rapport aux participants qui ont débattu avec des humains. Sans personnalisation, la GPT-4 reste plus performante que les humains, mais l’effet est beaucoup plus faible.
Si vous avez apprécié cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à :
ECI sur Google News
