Ci-dessus : Les organisateurs de l’atelier : Approches d’IA explicables pour l’apprentissage par renforcement profond. Crédit image : Biagio La Rosa. Ci-dessous : Atelier sur les modèles linguistiques responsables.
Dans ce quatrième article de synthèse des ateliers de AAI 2024les organisateurs des deux événements suivants présentent leur atelier et présentent leurs principaux enseignements :
- Approches d’IA explicables pour l’apprentissage par renforcement profond
- Modèles de langage responsables
Approches d’IA explicables pour l’apprentissage par renforcement profond
Les organisateurs: Roberto Capobianco, Oliver Chang, Leilani Gilpin, Biagio La Rosa, Michela Proietti, Alessio Ragno.
L’apprentissage par renforcement profond (DRL) a récemment fait des progrès remarquables dans plusieurs domaines d’application, tels que les jeux, la finance, la conduite autonome et les systèmes de recommandation. Cependant, la nature de la boîte noire des réseaux neuronaux profonds et l’interaction complexe entre divers facteurs soulèvent des défis dans la compréhension et l’interprétation des processus décisionnels des modèles.
Cet atelier a réuni des chercheurs, des praticiens et des experts des communautés DRL et IA explicable pour se concentrer sur les méthodes, techniques et cadres qui améliorent l’explicabilité et l’interprétabilité des algorithmes DRL.
Les organisateurs de l’atelier. Crédit image : Biagio La Rosa.
Points clés à retenir de l’atelier :
- Lorsque les agents peuvent expliquer pourquoi ils choisissent une action par rapport à une autre, la capacité de l’utilisateur humain à prédire ce que l’agent fera dans le futur augmente sensiblement. Il s’agit donc d’un aspect crucial à prendre en compte lors du déploiement d’agents RL dans des environnements nécessitant une collaboration homme-agent en temps réel.
- Lorsque vous travaillez avec des explications contrefactuelles, il est important d’effectuer des ajustements de plausibilité et de s’assurer que les changements opérés sont perceptibles par l’homme.
- Comment utiliser les explications pour améliorer le comportement de l’agent reste encore une question ouverte qui mérite d’être étudiée dans un avenir proche.
Deux intervenants à l’atelier. Crédit image : Biagio La Rosa.
Modèles de langage responsables
Les organisateurs: Faiza Khan Khattak, Lu Cheng, Sedef Akinli-Kocak, Laleh Seyed-Kalantari, Mengnan Du, Fengxiang He, Bo Li, Blessing Ogbuokiri, Shaina Raza, Yihang Wang, Xiaodan Zhu, Graham W. Taylor
L’atelier sur les modèles de langage responsables (ReLM) s’est concentré sur le développement, la mise en œuvre et les applications de LM alignés sur les principes de l’IA responsable. Les défis théoriques et pratiques concernant la conception et le déploiement de LM responsables ont été discutés, notamment l’identification et la quantification des biais, l’atténuation des biais, la transparence, les problèmes de confidentialité et de sécurité, les hallucinations, la quantification de l’incertitude et divers autres risques associés aux LM. L’atelier a attiré 68 participants inscrits, démontrant l’intérêt et l’engagement généralisés de diverses parties prenantes.
Contributions à la recherche : Au total, 21 articles acceptés, dont six présentations phares et 15 affiches, ont démontré la profondeur et l’étendue de la recherche sur l’utilisation responsable du LM. Un papier Libérer les modèles de transformateur : l’attribution de contextes spécifiques à une tâche promet une généralisabilité améliorée sans peaufiner les LLM pré-entraînés a reçu le prix du « meilleur article », tandis qu’un autre « Inverse Prompt Engineering for Safety in Large Language Models » a été « finaliste » dans la catégorisation.
Pourparlers: Six conférenciers invités, cinq panélistes et six articles phares ont discuté des pratiques actuelles et exemplaires, des lacunes et des interventions probables basées sur l’IA avec divers conférenciers des États-Unis, du Canada et de l’Inde. L’atelier a réussi à promouvoir la collaboration entre les chercheurs en PNL issus du monde universitaire et de l’industrie.
Notre conférencier invité, Filippo Menczer (Université de l’Indiana) a présenté une conférence intitulée « IA et manipulation des médias sociaux : le bon, la brute et le truand ». L’exposé a porté sur l’analyse et la modélisation de la diffusion de l’information et de la désinformation sur les réseaux sociaux, ainsi que sur la détection et la lutte contre la manipulation des médias sociaux. Lors de la première conférence invitée, Frank Rudzicz (Université Dalhousie) a discuté des dangers des modèles linguistiques dans son exposé intitulé « Qui surveille les observateurs ? » La deuxième conférence invitée était celle de Kun Zhang (Université Carnegie Mellon et Université d’intelligence artificielle Mohamed bin Zayed) qui ont parlé de « Apprentissage des représentations causales : découverte du monde caché ». Muhammad Abdul-Mageed (Université de la Colombie-Britannique) a donné la troisième conférence invitée sur « Modèles linguistiques inclusifs »en se concentrant sur les applications liées aux tâches de compréhension et de génération de la parole et du langage. Balaraman Ravindran (IIT Madras) présenté « InSaAF : Intégrer la sécurité par la précision et l’équité. Les LLM sont-ils prêts pour le domaine juridique indien ? L’exposé a examiné les performances des LLM dans les tâches juridiques dans le contexte indien, en introduisant le Legal Safety Score pour mesurer l’équité et l’exactitude et en suggérant un réglage précis des ensembles de données juridiques. Dernièrement, Sarath Chandar (Ecole Polytechnique de Montreal) discussed « Repenser l’interprétabilité » dans son discours.
Table ronde: Le thème de la table ronde est Combler le fossé : déploiement responsable de modèles linguistiques dans l’industrie et le monde universitaire. La table ronde était animée par Pierre Lewis (Université technologique de l’Ontario) et présenté Antoinette Vladimirova (Roche) Donny Cheung (Google), Emre Kiciman (Recherche Microsoft), Eric Jiawei Il de Borealis AI, et Jiliang Tang (Université de Michigan). Cette discussion s’est concentrée sur les défis et les opportunités associés au déploiement responsable des LM dans des scénarios du monde réel. Les panélistes ont plaidé pour la mise en œuvre de politiques visant à établir des protocoles standardisés pour les LM avant leur déploiement. Cet accent mis sur des mesures proactives s’aligne sur l’objectif de garantir une utilisation responsable et éthique des LM.
Liens vers nos précédents articles de synthèse :
Résumé des ateliers #AAAI2024 1 : Prise de décision et apprentissage des systèmes multi-agents coopératifs
Résumé des ateliers #AAAI2024 2 : L’IA pour des élections crédibles, et les grands modèles linguistiques sont-ils simplement des perroquets causals ?
Résumé 3 des ateliers #AAAI2024 : apprentissage des représentations centré sur l’humain et IA pour accélérer la science et l’ingénierie
AIhub
est dédié à l’information gratuite de haute qualité sur l’IA.
AIhub se consacre à fournir des informations gratuites de haute qualité sur l’IA.