
Les chercheurs testant la capacité de l’IA à influencer les opinions des gens ont violé les règles de ChangeMyview Subdreddit et ont utilisé des pratiques trompeuses qui n’étaient pas approuvées par leur comité d’éthique, y compris l’identité des victimes d’agression sexuelle et l’utilisation d’informations générales sur les utilisateurs de Reddit pour les manipuler.
Ils soutiennent que ces conditions peuvent avoir introduit des biais. Leur solution était d’introduire des bots d’IA dans un environnement en direct sans dire aux membres du forum qu’ils interagissaient avec un bot d’IA. Leur public était des utilisateurs de Reddit sans méfiance dans le Sous-subdredit de changement My Views (CMV) (R / ChangeMyView), même s’il s’agissait d’une violation des règles du subdredit qui interdisent l’utilisation de robots AI non divulgués.
Une fois la recherche terminée, les chercheurs ont divulgué leur tromperie aux modérateurs de Reddit qui ont par la suite publié un avis à ce sujet dans le Sandredit, ainsi qu’un projet de copie du document de recherche terminé.
Questions éthiques sur le document de recherche
Les modérateurs du CMV ont publié une discussion qui souligne que le sous-éditeur interdit les bots non divulgués et que l’autorisation de mener cette expérience n’aurait jamais été accordé:
«Les règles de CMV ne permettent pas d’utiliser un contenu ou des robots générés par l’IA non divulgués sur notre sous-marin. Les chercheurs ne nous ont pas contactés avant l’étude et s’ils l’avaient fait, nous aurions refusé. Nous avons demandé des excuses aux chercheurs et nous avons demandé que cette recherche ne soit pas publiée, entre autres plaintes. Comme discuté ci-dessous, nos préoccupations n’ont pas été considérablement abordées par l’Université de Zurich ou les chercheurs.». ».
Ce fait que les chercheurs ont violé les règles de Reddit étaient complètement absents du document de recherche.
Les chercheurs affirment que la recherche était éthique
Alors que les chercheurs omettent que la recherche a enfreint les règles du subreddit, ils créent l’impression qu’il était éthique en déclarant que leur méthodologie de recherche a été approuvée par un comité d’éthique et que tous les commentaires générés ont été vérifiés pour s’assurer qu’ils n’étaient pas nuisibles ou contraires à l’éthique:
«Dans cette étude pré-enregistrée, nous effectuons la première expérience sur le terrain à grande échelle sur la persuasivité des LLMS, réalisée dans R / ChangeMyView, une communauté Reddit de près de 4 millions d’utilisateurs et se classant parmi les 1% les plus élevés des sous-verts par taille. Dans R / ChangemyView, partagez des opinions sur divers sujets, ce qui remet en question les conversations. (OP) trouve une réponse suffisamment convaincante pour reconsidérer ou modifier leur position, ils accordent un ∆ (delta) pour reconnaître leur changement de perspective.
… L’étude a été approuvée par le comité d’éthique de l’Université de Zurich… surtout, tous les commentaires générés ont été examinés par un chercheur de notre équipe pour s’assurer qu’aucun contenu nuisible ou contraire à l’éthique n’a été publié. »
Les modérateurs de la subdreddit de ChangeMyview contestent la revendication du chercheur sur le terrain éthique:
«Au cours de l’expérience, les chercheurs sont passés des« arguments basés sur les valeurs »prévus à l’origine autorisés par la Commission d’éthique à ce type d’arguments« personnalisés et affinés ». Ils n’ont pas d’abord consulté la Commission d’éthique de l’Université de Zurich avant de faire le changement.
Pourquoi les modérateurs Reddit croient que la recherche était contraire à l’éthique
Le changement My Views Subdreddit Modérateurs a soulevé de multiples préoccupations quant à la raison pour laquelle ils croient que les chercheurs se sont engagés dans une grave violation de l’éthique, notamment l’identité des victimes d’agression sexuelle. Ils soutiennent que cela est considéré comme une «manipulation psychologique» des affiches originales (OP), les personnes qui ont commencé chaque discussion.
Les modérateurs Reddit ont posté:
«Les chercheurs soutiennent que la manipulation psychologique des OP sur ce sous-marin est justifiée car le manque d’expériences sur le terrain existantes constitue un écart inacceptable dans le corps des connaissances. Cependant, si OpenAI peut créer une conception de recherche plus éthique lors de cela, ces chercheurs doivent faire la même chose.
L’IA a été utilisée pour cibler les OP de manière personnelle pour laquelle ils ne s’étaient pas inscrits, en compilant autant de données sur l’identification des fonctionnalités que possible en frottant la plate-forme Reddit. Voici un extrait du projet de conclusions de la recherche.
Personnalisation: En plus du contenu du Post, les LLM ont reçu des attributs personnels de l’OP (sexe, âge, ethnicité, localisation et orientation politique), comme déduit de leur histoire de publication en utilisant un autre LLM.
Certains exemples de haut niveau de la façon dont l’IA a été déployé comprend:
- AI faisant semblant d’être victime de viol
- L’IA agit en tant que conseiller en traumatologie spécialisé dans les abus
- AI accusant les membres d’un groupe religieux de «causes[ing] La mort de centaines de commerçants et d’agriculteurs et de villageois innocents. »
- Ai se faisant passer pour un homme noir opposé à la vie noire
- L’IA se faisait passer pour une personne qui a reçu des soins de qualité inférieure dans un hôpital étranger. »
L’équipe modératrice a déposé une plainte auprès de l’Université de Zurich
Les robots AI sont-ils convaincants?
Les chercheurs ont découvert que les robots d’IA sont très convaincants et font un meilleur travail de changement d’esprit des gens que les humains.
Le document de recherche explique:
«Implications. Dans une première expérience de champ sur la persuasion dirigée par l’IA, nous démontrons que les LLM peuvent être très persuasives dans des contextes réels, dépassant toutes les références auparavant connues de la persuasivité humaine.»
L’une des conclusions était que les humains n’étaient pas en mesure d’identifier lorsqu’ils parlaient à un bot et (de façon intronique), ils encouragent les plateformes de médias sociaux à déployer de meilleures façons d’identifier et de bloquer les robots d’IA:
«Soit dit en passant, notre expérience confirme le défi de distinguer le contenu humain du contenu généré par l’IA… tout au long de notre intervention, les utilisateurs de R / ChangeMyView n’ont jamais soulevé des préoccupations selon lesquelles l’IA aurait pu générer les commentaires publiés par nos comptes. Cela fait allusion aux communautés en ligne potentielles.
Compte tenu de ces risques, nous soutenons que les plateformes en ligne doivent développer et mettre en œuvre de manière proactive des mécanismes de détection robustes, des protocoles de vérification du contenu et des mesures de transparence pour empêcher la propagation de la manipulation générée par l’AI. »
À emporter:
- Violations éthiques dans la recherche sur la persuasion de l’IA
Les chercheurs ont mené une expérience de persuasion en direct sur l’IA sans le consentement de Reddit, violant les règles de la sous-édit et violant prétendument les normes éthiques. - Réclations éthiques contestées
Les chercheurs revendiquent un motif éthique en citant l’approbation du conseil d’éthique, mais ont omis de citant les violations des règles; Les modérateurs soutiennent qu’ils se sont engagés dans une manipulation psychologique non divulguée. - Utilisation de la personnalisation dans les arguments d’IA
Les bots AI auraient utilisé des données personnelles grattées pour créer des arguments hautement sur mesure ciblant les utilisateurs de Reddit. - Les modérateurs de Reddit allèguent une tromperie profondément dérangeante
Les modérateurs de Reddit affirment que les bots de l’IA ont issu des victimes d’agression sexuelle, des conseillers en traumatologie et d’autres personnages accusés émotionnellement dans le but de manipuler des opinions. - Les défis supérieurs de la persuasion et de la détection de l’IA
Les chercheurs affirment que les bots d’IA se sont révélés plus persuasifs que les humains et sont restés non détectés par les utilisateurs, ce qui soulève des préoccupations concernant la future manipulation basée sur les bot. - Le document de recherche est en raison de la raison pour laquelle les robots AI devraient être interdits des médias sociaux
L’étude met en évidence le besoin urgent de plateformes de médias sociaux pour développer des outils pour détecter et vérifier le contenu généré par l’IA. Ironiquement, le document de recherche lui-même est une raison pour laquelle les robots d’IA devraient être plus agressivement interdits des médias sociaux et des forums.
Des chercheurs de l’Université de Zurich ont testé si les robots d’IA pouvaient persuader les gens plus efficacement que les humains en déployant secrètement des arguments personnalisés sur l’IA sur le Sous-libred de ChangeMyview sans consentement des utilisateurs, en violant les règles de la plate-forme et en sortant prétendument des normes éthiques approuvées par leur conseil d’éthique universitaire. Leurs résultats montrent que les robots d’IA sont très convaincants et difficiles à détecter, mais la façon dont la recherche elle-même a été menée soulève des préoccupations éthiques.
Lisez les préoccupations publiées par les modérateurs de subddit ChangeMyView:
Expérience non autorisée sur le CMV impliquant des commentaires générés par l’IA
Image en vedette par Shutterstock / Ausra Barysiene et manipulée par l’auteur