Pour créer un meilleur assistant d’IA, commencez par modéliser le comportement irrationnel des humains | Actualités du MIT

MIT-ModelingAgents-01 Pour créer un meilleur assistant d'IA, commencez par modéliser le comportement irrationnel des humains |  Actualités du MIT NEWS

Pour créer des systèmes d’IA capables de collaborer efficacement avec les humains, il est utile de disposer dès le départ d’un bon modèle de comportement humain. Mais les humains ont tendance à se comporter de manière sous-optimale lorsqu’ils prennent des décisions.

Cette irrationalité, particulièrement difficile à modéliser, se résume souvent à des contraintes informatiques. Un être humain ne peut pas passer des décennies à réfléchir à la solution idéale à un problème donné.

Des chercheurs du MIT et de l’Université de Washington ont développé un moyen de modéliser le comportement d’un agent, qu’il soit humain ou machine, qui tient compte des contraintes informatiques inconnues susceptibles d’entraver les capacités de résolution de problèmes de l’agent.

Leur modèle peut automatiquement déduire les contraintes informatiques d’un agent en voyant seulement quelques traces de ses actions précédentes. Le résultat, appelé « budget d’inférence », peut être utilisé pour prédire le comportement futur de cet agent.

Dans un nouvel article, les chercheurs démontrent comment leur méthode peut être utilisée pour déduire les objectifs de navigation d’une personne à partir d’itinéraires antérieurs et pour prédire les mouvements ultérieurs des joueurs lors de matchs d’échecs. Leur technique correspond ou surpasse une autre méthode populaire de modélisation de ce type de prise de décision.

À terme, ces travaux pourraient aider les scientifiques à enseigner aux systèmes d’IA comment se comportent les humains, ce qui pourrait permettre à ces systèmes de mieux répondre à leurs collaborateurs humains. Être capable de comprendre le comportement d’un être humain, puis de déduire ses objectifs à partir de ce comportement, pourrait rendre un assistant IA beaucoup plus utile, déclare Athul Paul Jacob, étudiant diplômé en génie électrique et informatique (EECS) et auteur principal d’un ouvrage de référence. article sur cette technique.

« Si nous savons qu’un humain est sur le point de commettre une erreur, après avoir vu comment il s’est comporté auparavant, l’agent IA pourrait intervenir et proposer une meilleure façon de le faire. Ou bien l’agent pourrait s’adapter aux faiblesses de ses collaborateurs humains. Être capable de modéliser le comportement humain est une étape importante vers la création d’un agent d’IA qui peut réellement aider cet humain », dit-il.

Jacob a écrit l’article avec Abhishek Gupta, professeur adjoint à l’Université de Washington, et l’auteur principal Jacob Andreas, professeur agrégé à l’EECS et membre du Laboratoire d’informatique et d’intelligence artificielle (CSAIL). La recherche sera présentée à la Conférence internationale sur les représentations de l’apprentissage.

Comportement de modélisation

Les chercheurs construisent des modèles informatiques du comportement humain depuis des décennies. De nombreuses approches antérieures tentent de prendre en compte une prise de décision sous-optimale en ajoutant du bruit au modèle. Au lieu que l’agent choisisse toujours la bonne option, le modèle pourrait lui demander de faire le bon choix dans 95 % des cas.

Cependant, ces méthodes peuvent ne pas tenir compte du fait que les humains ne parviennent pas toujours à comprendre se comporter de manière sous-optimale de la même manière.

D’autres au MIT ont également étudié des moyens plus efficaces planifier et déduire des objectifs face à une prise de décision sous-optimale.

Pour construire leur modèle, Jacob et ses collaborateurs se sont inspirés d’études antérieures sur les joueurs d’échecs. Ils ont remarqué que les joueurs prenaient moins de temps à réfléchir avant d’agir lorsqu’ils effectuaient des mouvements simples et que les joueurs les plus forts avaient tendance à passer plus de temps à planifier que les plus faibles dans les matchs difficiles.

« En fin de compte, nous avons constaté que la profondeur de la planification, ou la durée pendant laquelle quelqu’un réfléchit au problème, est un très bon indicateur du comportement des humains », explique Jacob.

Ils ont construit un cadre permettant de déduire la profondeur de la planification d’un agent à partir d’actions antérieures et d’utiliser ces informations pour modéliser le processus de prise de décision de l’agent.

La première étape de leur méthode consiste à exécuter un algorithme pendant une durée définie pour résoudre le problème étudié. Par exemple, s’ils étudient une partie d’échecs, ils peuvent laisser l’algorithme du jeu d’échecs s’exécuter pendant un certain nombre d’étapes. À la fin, les chercheurs peuvent voir les décisions prises par l’algorithme à chaque étape.

Leur modèle compare ces décisions aux comportements d’un agent résolvant le même problème. Il alignera les décisions de l’agent sur celles de l’algorithme et identifiera l’étape à laquelle l’agent a arrêté la planification.

À partir de là, le modèle peut déterminer le budget d’inférence de l’agent, ou la durée pendant laquelle cet agent planifiera ce problème. Il peut utiliser le budget d’inférence pour prédire comment cet agent réagirait lors de la résolution d’un problème similaire.

Une solution interprétable

Cette méthode peut être très efficace car les chercheurs peuvent accéder à l’ensemble des décisions prises par l’algorithme de résolution de problèmes sans effectuer de travail supplémentaire. Ce cadre pourrait également être appliqué à tout problème pouvant être résolu avec une classe particulière d’algorithmes.

« Pour moi, le plus frappant a été le fait que ce budget d’inférence soit très interprétable. Cela revient à dire que des problèmes plus difficiles nécessitent plus de planification ou qu’être un acteur fort signifie planifier sur plus longtemps. Lorsque nous avons décidé de le faire, nous ne pensions pas que notre algorithme serait capable de détecter ces comportements naturellement », explique Jacob.

Les chercheurs ont testé leur approche dans trois tâches de modélisation différentes : déduire des objectifs de navigation à partir d’itinéraires précédents, deviner l’intention de communication d’une personne à partir de ses signaux verbaux et prédire les mouvements ultérieurs lors de matchs d’échecs entre humains.

Leur méthode correspondait ou surpassait une alternative populaire dans chaque expérience. De plus, les chercheurs ont constaté que leur modèle de comportement humain correspondait bien aux mesures des compétences des joueurs (dans les parties d’échecs) et de la difficulté des tâches.

À l’avenir, les chercheurs souhaitent utiliser cette approche pour modéliser le processus de planification dans d’autres domaines, tels que l’apprentissage par renforcement (une méthode d’essais et d’erreurs couramment utilisée en robotique). À long terme, ils ont l’intention de continuer à s’appuyer sur ce travail pour atteindre l’objectif plus large de développer des collaborateurs en IA plus efficaces.

Ce travail a été soutenu, en partie, par le programme du MIT Schwarzman College of Computing Artificial Intelligence for Augmentation and Productivity et par la National Science Foundation.

Source