Clarote & AI4Médias / De meilleures images de l’IA / Utilisateur/Chimère / Sous licence CC-BY 4.0
Par Casey Fiesler, Université du Colorado à Boulder
En avril 2024, un parent a posé une question dans un groupe Facebook privé : quelqu’un a-t-il une expérience avec les écoles publiques de New York pour un enfant à la fois surdoué et handicapé ? La réponse reçue semblait utile, décrivant une école spécifique et mentionnant : « J’ai un enfant qui est aussi en 2e », signifiant deux fois exceptionnel.
Dans un groupe Facebook d’échange d’objets près de Boston, un utilisateur recherchant des articles spécifiques a reçu une offre pour un appareil photo Canon « légèrement utilisé » et une « unité de climatisation portable presque neuve que je n’ai jamais utilisée ».
Ces réponses étaient des mensonges. Ni l’enfant ni les articles n’existaient. Les réponses provenaient d’un chatbot à intelligence artificielle.
Selon une page d’aide Meta, Meta AI répondra à une publication dans un groupe si quelqu’un la marque explicitement ou si personne ne répond dans l’heure. Cette fonctionnalité n’est pas encore disponible partout ni pour tous les groupes. Les administrateurs peuvent la désactiver et la réactiver à tout moment.
Meta AI a également été intégrée aux fonctionnalités de recherche sur Facebook et Instagram, et les utilisateurs ne peuvent pas la désactiver.
En tant que chercheur étudiant les communautés en ligne et l’éthique de l’IA, je trouve l’idée de chatbots non invités répondant aux questions dans les groupes Facebook dystopique pour plusieurs raisons, notamment parce que les communautés en ligne sont destinées aux gens.
Connexions humaines
En 1993, Howard Rheingold a publié «La communauté virtuelle : la propriété à la frontière électronique» à propos de The WELL, une communauté en ligne culturellement significative. Le premier chapitre s’ouvre sur une question parentale : que faire d’une « chose gonflée de sang qui suce le cuir chevelu de notre bébé ».
Rheingold a reçu une réponse d’une personne ayant une connaissance directe du traitement des tiques et a résolu le problème avant de recevoir un rappel du cabinet du pédiatre. Il écrit : « Ce qui m’a étonné n’était pas seulement la rapidité avec laquelle nous avons obtenu précisément les informations dont nous avions besoin, mais aussi l’immense sentiment de sécurité intérieure que procure le fait de découvrir que de vraies personnes – pour la plupart des parents, pour certaines des infirmières, des médecins et des sages-femmes – sont disponibles 24 heures sur 24, si vous en avez besoin. »
Cet aspect « vraies personnes » des communautés en ligne reste essentiel aujourd’hui. Imaginez pourquoi vous poseriez une question à un groupe Facebook plutôt qu’à un moteur de recherche : parce que vous voulez une réponse d’une personne ayant une expérience réelle et vécue ou parce que vous voulez la réponse humaine que votre question pourrait susciter – sympathie, indignation, commisération – ou les deux.
Des décennies de recherche suggèrent que la composante humaine des communautés en ligne est ce qui les rend si précieuses tant pour la recherche d’informations que pour le soutien social. Par exemple, les pères qui autrement se sentiraient mal à l’aise de demander des conseils parentaux ont trouvé refuge dans des espaces en ligne privés réservés aux papas. Les jeunes LGBTQ+ rejoignent souvent les communautés en ligne pour trouver en toute sécurité des ressources essentielles tout en réduisant le sentiment d’isolement. Les forums de soutien en santé mentale offrent aux jeunes appartenance et validation en plus de conseils et d’un accompagnement social.
Les communautés en ligne sont des lieux de soutien bien documentés pour les personnes LGBTQ+.
En plus de résultats similaires dans mon propre laboratoire liés aux participants LGBTQ+ dans les communautés en ligne et Twitter noir, deux études plus récentes, non encore évaluées par des pairs, ont souligné l’importance des aspects humains de la recherche d’informations dans les communautés en ligne.
L’une, dirigée par un doctorant Blakeley Payne, met l’accent sur les expériences en ligne des personnes en surpoids. Beaucoup de nos participants ont trouvé une bouée de sauvetage en accédant à un public et à une communauté partageant des expériences similaires alors qu’ils recherchaient et partageaient des informations sur des sujets tels que la navigation dans des systèmes de santé hostiles, la recherche de vêtements et la gestion des préjugés et des stéréotypes culturels.
Un autre, dirigé par un doctorant Pleins feux sur Faye, a constaté que les personnes qui partagent du contenu en ligne sur leurs maladies chroniques sont motivées par le sentiment de communauté qui accompagne le partage d’expériences, ainsi que par les aspects humanisants de la connexion avec les autres pour rechercher et fournir du soutien et des informations.
Fausses personnes
Les avantages les plus importants de ces espaces en ligne, tels que décrits par nos participants, pourraient être considérablement compromis par les réponses provenant des chatbots plutôt que des personnes.
En tant que diabétique de type 1, je suis un certain nombre de groupes Facebook connexes fréquentés par de nombreux parents confrontés aux défis liés à la prise en charge d’un jeune enfant diabétique. Les questions sont fréquentes : « Qu’est-ce que cela signifie ? » « Comment dois-je gérer ça ? » « Quelles sont vos expériences à ce sujet ? » Les réponses viennent de l’expérience directe, mais elles viennent aussi généralement avec compassion : « C’est difficile. » « Vous faites de votre mieux. » Et bien sûr : « Nous sommes tous passés par là. »
Une réponse d’un chatbot prétendant parler de l’expérience vécue de la prise en charge d’un enfant diabétique, offrant de l’empathie, serait non seulement inappropriée, mais elle serait à la limite de la cruauté.
Cependant, il est tout à fait logique que ce soient les types de réponses qu’un chatbot offrirait. De manière simpliste, les grands modèles de langage fonctionnent plus de manière similaire à la saisie semi-automatique qu’aux moteurs de recherche. Pour un modèle formé sur des millions et des millions de publications et de commentaires dans les groupes Facebook, la réponse « à saisie semi-automatique » à une question dans une communauté d’assistance est définitivement une réponse qui invoque l’expérience personnelle et offre de l’empathie – tout comme la réponse « à saisie semi-automatique » dans un groupe d’achat pourrait offrir à quelqu’un un appareil photo légèrement usagé.
Meta a déployé un assistant IA sur ses applications de médias sociaux et de messagerie.
Garder les chatbots dans leur voie
Cela ne veut pas dire que les chatbots ne sont utiles à rien – ils peuvent même être très utiles dans certaines communautés en ligne, dans certains contextes. Le problème est qu’au milieu de la ruée actuelle vers l’IA générative, on a tendance à penser que les chatbots peuvent et doivent tout faire.
Il y a beaucoup d’inconvénients à utiliser de grands modèles de langage comme systèmes de recherche d’informations, et ces inconvénients indiquent des contextes inappropriés pour leur utilisation. Un inconvénient est que des informations incorrectes peuvent être dangereuses : une ligne d’assistance pour les troubles de l’alimentation ou des conseils juridiques pour les petites entreprises, par exemple.
La recherche souligne des considérations importantes sur la manière et le moment de concevoir et de déployer des chatbots. Par exemple, un article récemment publié dans une grande conférence sur l’interaction homme-machine a constaté que même si les individus LGBTQ+ manquant de soutien social se tournaient parfois vers les chatbots pour répondre aux besoins en matière de santé mentale, ces chatbots ne parvenaient souvent pas à saisir la nuance des défis spécifiques aux LGBTQ+.
Un autre a constaté que même si un groupe de participants autistes a trouvé utile d’interagir avec un chatbot pour des conseils en communication sociale, ce chatbot dispensait également des conseils douteux. Et un autre encore a découvert que même si un chatbot était utile en tant que outil de préconsultation dans un contexte de santé, les patients trouvaient parfois les expressions d’empathie peu sincères ou offensantes.
Le développement et le déploiement responsables de l’IA signifient non seulement vérifier les problèmes tels que les préjugés et la désinformation, mais également prendre le temps de comprendre dans quels contextes l’IA est appropriée et souhaitable pour les humains qui interagiront avec elles. À l’heure actuelle, de nombreuses entreprises utilisent l’IA générative comme un marteau et, par conséquent, tout ressemble à un clou.
Il est préférable de laisser de nombreux contextes, tels que les communautés d’assistance en ligne, aux humains.
Casey Fiesler, professeur agrégé de sciences de l’information, Université du Colorado à Boulder
Cet article est republié à partir de La Conversation sous licence Creative Commons. Lisez l’article original.
The Conversation est une source indépendante d’informations et d’opinions, provenant de la communauté universitaire et de la recherche et diffusée directement au public.