Michelle Nelson, professeure de publicité dans l’Illinois, affirme que les électeurs devraient s’attendre à voir beaucoup plus d’IA générative dans les publicités politiques au cours du cycle électoral de 2024, avertissant qu’il pourrait être difficile, voire impossible, de distinguer ce qui est réel et ce qui est faux. Crédit photo : L. Brian Stauffer
Par Loïs Yoksoulian
On estime que 12 milliards de dollars seront dépensés en publicités politiques cette année. [USA] cycle électoral – 30 % de plus qu’en 2020. Le volume de publicités est remarquable, et il existe un vaste potentiel d’utilisation de ces informations politiques pour contribuer à la démocratie : toucher plus d’électeurs potentiels et fournir des informations précises. Il existe également plus de risques que jamais pour l’intelligence artificielle générative de déformer les candidats et les politiques, entraînant ainsi la confusion dans l’isoloir. Lois Yoksoulian, rédactrice en chef du Bureau d’information, s’est entretenue avec publicité professeur et chef de département Michelle Nelson sur le sujet.
Comment l’IA est-elle utilisée dans les publicités politiques et quels sont quelques exemples récents de publicités politiques générées par l’IA ?
Après que le président Joe Biden a annoncé sa candidature à la réélection, le Comité national républicain a publié une publicité politique générée par l’IA qui décrivait un monde dystopique si Biden était réélu. La publicité vidéo présente un certain nombre de questions « et si » (par exemple, et si la criminalité s’aggravait ?) avec des images générées par l’IA. Il s’agit d’une publicité d’attaque négative classique qui attire la peur. Les publicités émotionnelles nous parviennent et nous nous en souvenons – comme la célèbre Publicité politique Daisy utilisé pendant le cycle électoral de 1964 ou le Publicité de Willie Horton utilisé en 1988. Mais ils peuvent également subir des réactions négatives s’ils sont trop négatifs, trop manipulateurs, notamment parce qu’ils utilisent l’IA.
Certains disent que la publicité Joe Biden RNC est la première publicité générée par l’IA, mais c’est difficile à prouver. Cependant, dans le coin supérieur gauche de l’annonce, vous voyez une mention en petite police : « Construit entièrement avec des images d’IA ». La description de la vidéo sur la page YouTube du GOP indique : « Un aperçu généré par l’IA sur l’avenir possible du pays si Joe Biden est réélu en 2024. » Ils ne cachent donc pas l’utilisation de l’IA. Il existe également une publicité frauduleuse diffusée sur The Daily Show, qui utilise une voix off générée par l’IA pour Biden. Il est assez facile de nos jours d’utiliser des outils d’IA pour créer du contenu et lui donner un aspect assez réel.
Les entités à l’origine de ces types de publicités sont-elles tenues de divulguer que l’IA a été utilisée ?
La Commission électorale fédérale, l’organisme gouvernemental qui réglemente la communication politique, y compris la publicité aux États-Unis, a sollicité les commentaires du public sur la modification d’une réglementation relative à l’utilisation d’une IA délibérément trompeuse dans les publicités de campagne lors de sa réunion intitulée 2023 : REG 2023-02 Intelligence artificielle dans Annonces de campagne. Ils n’ont pas encore pris de décision ici. Cependant, des États comme la Californie, le Texas, le Michigan, Washington et le Minnesota ont promulgué de nouvelles lois exigeant que toutes les images, vidéos ou audios IA deepfakes soient étiquetés. Une loi similaire est en cours de discussion ici dans l’Illinois. On ne sait pas clairement quel est le lien entre ces lois étatiques et la Constitution.
Certaines entreprises technologiques ont commencé à exiger des divulgations. Par exemple, Google a indiqué que toutes les publicités politiques générées par l’IA et diffusées sur YouTube ou d’autres plateformes Google « qui modifient les personnes ou les événements » doivent faire l’objet d’une mention bien visible. Il existe également un processus de vérification des publicités politiques dans certaines régions.
Microsoft a lancé son « Content Credentials as a Service » qui est comme un outil de filigrane – il permet aux utilisateurs de signer et d’authentifier numériquement le média – qu’il s’agisse d’une image ou d’une vidéo via leur Coalition pour la provenance et l’authenticité du contenu. L’idée est que le filigrane sert de métadonnées afin que les utilisateurs puissent voir l’historique du contenu. Par exemple, « comment, quand et par qui le contenu a été créé ou modifié », que ce soit par une personne ou par une IA. Ces informations restent avec le contenu afin que tout le monde puisse voir l’origine.
Dans quelle mesure le contenu politique généré par l’IA est désormais filigrané ou divulgué, je n’en ai aucune idée. Il semble difficile de contrôler toutes ces images à l’heure actuelle.
Quel est le danger potentiel de l’utilisation de l’IA dans les publicités politiques ?
Les craintes de préjudice sont liées aux possibilités de deepfakes et de désinformation. D’autres peuvent recréer quelque chose en utilisant la voix ou des images de l’IA sans autorisation pour créer des histoires et du contenu absolument faux.
Nous disposions d’outils et de technologies dans le passé, comme Photoshop, pour manipuler des images existantes. Vous souvenez-vous des publicités de 2004 présentant des photos modifiées représentant John Kerry, le candidat démocrate à la présidence, et Jane Fonda lors d’un rassemblement contre la guerre du Vietnam ? Les publicités sont régulièrement embellies ou modifiées : les couleurs ou l’éclairage sont modifiés pour donner aux gens un aspect menaçant ou plus jeune. Mais c’est différent. C’est un tout nouveau niveau. N’importe qui peut envoyer des messages IA à l’aide d’outils gratuits tels que ChatGPT d’Open AI ou Bard de Google. Cela peut être une bonne chose lorsqu’il est utilisé de manière responsable, ou cela peut être nocif.
Nos recherches montrent que beaucoup de gens ne savent pas que le Premier Amendement protège la publicité politique aux États-Unis. La publicité politique n’est pas soumise aux mêmes normes que la publicité commerciale, par exemple pour un cheeseburger. Les lois sur la vérité dans la publicité de la Federal Trade Commission ne s’appliquent pas aux publicités politiques. Cela signifie que les publicités politiques peuvent légalement être trompeuses ou mentir. Bien sûr, il existe des lois sur la diffamation, mais elles sont rarement utilisées dans ce domaine.
Au-delà de cette différence réglementaire dans la publicité commerciale et politique, l’idée est que nous voulons que l’information politique circule librement et contribue à un dialogue susceptible de renforcer notre démocratie. Trop de réglementation peut avoir un effet dissuasif sur le discours politique. Pourtant, le potentiel actuel de l’IA à mentir et à tromper et à déployer ces messages de manière personnalisée et à grande échelle constitue peut-être un défi pour notre réflexion sur la réglementation et la publicité politique.
Avez-vous des conseils sur la manière dont les consommateurs peuvent repérer l’utilisation de l’IA générative dans les publicités politiques ?
Ils ne le peuvent pas. Vous pouvez rechercher des irrégularités comme le nombre de pattes du chat. Mais il est de plus en plus difficile de savoir si l’IA crée une image ou une vidéo. Qu’il s’agisse de Taylor Swift, d’une image de Trump en prison ou d’un mème amusant, nous ne pouvons pas toujours le savoir, surtout lorsque nous parcourons nos flux de médias sociaux. Le mieux que nous puissions faire est d’espérer que l’industrie technologique développera des systèmes capables de retracer l’origine du contenu afin que nous puissions voir qui a créé l’image, quand et comment. Si cette technologie est intégrée, il est plus difficile de tromper les gens. Nous pourrions également encourager les obligations de divulgation parmi les entreprises technologiques.
Mais à l’ère de ce type de médias et en cette année électorale, nous devons nous concentrer sur les bases de l’éducation aux médias : rechercher des sources d’information fiables, suivre les débats politiques et essayer de nous forger nos propres opinions éclairées.
Université de l’Illinois