Publicité
Technologie

À quand une discussion réelle avec un robot?

15-05-2020

Ilustration: François Berger

Les assistants vocaux tels que Siri et Alexa s’améliorent constamment. Auront-ils un jour une conversation réellement intéressante?

«Siri, appelle au bureau. » Il suffit de quelques mots énoncés à voix haute pour qu’un assistant virtuel vous obéisse, qu’il s’agisse de faire jouer votre liste d’écoute favorite ou de vous renseigner sur la météo du lendemain. Mais n’ouvrez pas votre cœur à ces agents toujours fidèles au poste sur votre téléphone ou haut-parleur intelligent. Cela risque de se corser, comme l’a découvert une équipe de l’Institut québécois d’intelligence artificielle (Mila) qui figurait parmi les finalistes du premier concours Alexa Prize en 2017.

Alexa est l’assistant vocal personnel d’Amazon. La compagnie tente depuis trois ans d’améliorer ses aptitudes oratoires par l’entremise d’une compétition entre scientifiques. Et c’est du sérieux ! Après plusieurs mois de travail, le robot virtuel de chaque équipe interagit avec un humain sous l’oreille attentive de plusieurs juges. Celui qui sera capable de soutenir une conversation cohérente de 20 minutes sur une panoplie de sujets fera gagner à son équipe une cagnotte de un million de dollars américains. Signe que ce défi n’est pas à la portée de tous, aucune n’a encore réussi l’exploit.

Iulian Serban, un membre de l’équipe montréalaise, raconte l’histoire d’une volontaire ayant testé le système de 2017 de l’équipe. Elle avait perdu son mari pendant la guerre en Afghanistan et a confié au système à quel point ce drame affectait toujours sa famille. « Notre robot a compris qu’il s’agissait d’un problème familial et a démontré de l’empathie. Ils ont discuté ainsi pendant une longue période jusqu’à ce que le robot demande : “Parlez-moi de votre famille” », relate Iulian Serban. Malaise… L’incident révèle que les assistants vocaux ont la mémoire courte !

Malgré les limites de ces outils, environ 40 % des Canadiens font appel à leurs services, d’après un sondage réalisé en 2017 par Media Technology Monitor, et la croissance se poursuit, selon eMarketer. Flairant le potentiel commercial de ces bêtes numériques qui bavardent, les géants comme Apple, Microsoft, Google et Amazon travaillent à les perfectionner et investissent massivement dans ce secteur, estimé à 49 milliards de dollars américains. Ils visent ni plus ni moins à mettre au point un assistant vocal qui serait maître dans l’art de la conversation.

Comprendre l’humain

Pourquoi est-ce si compliqué d’y parvenir ? Parce que, pour créer un robot conversationnel réellement intéressant, il faudrait déjà comprendre comment fonctionne la communication humaine, rappelle Sasha Luccioni, chercheuse postdoctorale à Mila. « On ne saisit pas tout à fait la manière dont les êtres humains apprennent et traitent le langage, explique-t-elle. Il y a deux courants de pensée en ce moment dans le domaine de l’intelligence artificielle. Certains croient qu’on doit comprendre les humains et s’en inspirer pour améliorer la machine. D’autres pensent plutôt qu’il faut avoir suffisamment de données pour que la machine puisse apprendre de ces dernières. »

Car les agents conversationnels « s’entraînent » sur de grands jeux de données et se basent sur des probabilités pour construire leur discours. Par exemple, si le robot entend « Comment ça va ? » il reconnaît que la phrase la plus souvent employée pour répondre à cette question ressemble à « Je vais bien et vous ? »

S’il est désormais facile pour un robot de répondre à une question aussi simple − au début de l’implantation d’Alexa, en 2014, il n’était pas rare de devoir répéter une demande à plusieurs reprises avant d’être compris −, c’est autre chose lorsque la phrase de l’interlocuteur est longue. « La machine ne sait plus quoi faire », déclare Marie-Jean Meurs, professeure au Département d’informatique de l’Université du Québec à Montréal (UQAM) et membre d’HumanIA, un regroupement multidisciplinaire de chercheurs qui s’intéressent aux enjeux sociaux et éthiques de l’intelligence artificielle.

Un rien peut faire dérailler le dialogue. C’est le cas des accents des interlocuteurs, notamment celui des Écossais, qui est souvent mal perçu par l’assistant. Il n’y a pas si longtemps, l’accent québécois donnait aussi bien des maux de tête aux robots, qui se sont depuis adaptés pour le comprendre.

Pour déboussoler encore plus la machine, parlez-lui par ellipses, fait observer la professeure de l’UQAM. « Si je plaisante en faisant un sous-entendu sur l’actualité, je n’ai pas besoin de m’expliquer davantage pour que vous compreniez. Mais c’est une tâche impossible pour un système automatique présentement. »

Dans la vie, les discussions ne suivent justement pas de schéma particulier ! Les participants au concours Alexa Prize l’ont bien compris. « La conversation peut porter sur un tas de sujets. On s’assure donc de diversifier le dialogue en incluant une multitude de réponses possibles et en restant cohérent, c’est-à-dire en ne sautant pas d’un sujet à l’autre, mais en gardant l’interlocuteur sur un thème qui l’intéresse », dit Zhou Yu, professeure associée d’informatique, qui agit à titre de conseillère pour l’équipe de l’Université de Californie à Davis.

Qu’arrive-t-il si l’on pose une question pour laquelle aucune réponse n’est prévue dans la base de données ? La machine reste-t-elle bouche bée ? « Notre robot peut avoir de la répartie sur des sujets populaires, mais si la conversation porte sur un thème étrange ou très précis, il dira clairement “Désolé, je ne sais pas” », mentionne Zhou Yu. Son équipe s’est démarquée en 2018 grâce à un robot nommé Gunrock (sans gagner le grand prix) et s’est taillé une place parmi les finalistes de la compétition en cours. Le vainqueur du concours sera connu en juin prochain.

Cancres linguistiques

Les conversations à bâtons rompus avec des assistants vocaux ne sont pas pour demain, en partie parce qu’ils sont de piètres élèves en grammaire et en vocabulaire ! « Les machines ont de la difficulté à intégrer l’information relative à plusieurs échanges et à comprendre tous les liens entre les phrases, notamment l’usage des pronoms », soutient Joelle Pineau, professeure agrégée à l’Université McGill et directrice des laboratoires de recherche en intelligence artificielle de Facebook. Par exemple, si l’on fait référence à notre amie par le pronom elle, le robot pourrait ne pas faire le lien lorsqu’on parle de nouveau d’elle dans la phrase suivante.

Prononcez des mots dont la signification dépend du contexte et votre assistant vocal en perdra son latin ! Elizabeth Allyn Smith, professeure de linguistique à l’UQAM, donne l’exemple du mot café. « Si je parle de café, je pourrais aussi bien parler du lieu, de la tasse, de la boisson, de l’arbre ou encore du grain de café. Le sens des mots est souvent contextuel », indique-t-elle.

C’est sans compter des mots fonctionnels comme les déterminants et les conjonctions, qui sont complexes à intégrer dans les systèmes automatisés. « Ces mots changent le sens de nos phrases. Jean et Lucie ne signifie pas la même chose que Jean ou Lucie, illustre Elizabeth Allyn Smith. Pour engager une réelle conversation, l’agent virtuel ne peut pas se contenter de seulement parler, il doit comprendre la relation entre les mots ainsi que leur lien avec le monde. »

En plus d’être bien souvent un mauvais interprète, le robot n’est pas l’interlocuteur le plus passionnant qui soit. « Il ne sait pas conduire un échange qui provoque une réaction chez la personne, souligne Joelle Pineau. C’est ce qu’on appelle le concept de l’engagement et c’est très difficile à quantifier pour un algorithme. » La machine ne risque pas non plus de vous faire rire aux larmes. Si elle a la capacité de raconter des blagues sur demande, elle ne possède pas le sens de l’humour, un concept qui demeure hors de sa portée, selon les experts interrogés pour ce reportage.

La voix automatisée a tout de même pu intégrer au fil du temps une signature un peu plus humaine. Ainsi, le Gunrock de l’Université de Californie à Davis insère des hésitations et des hum, laissant croire que la machine réfléchit avant de répondre. « Le robot n’est pas en train de penser à sa réponse, précise Zhou Yu. C’est plutôt une façon d’imiter le dialogue humain. »

Les stratégies se multiplient pour injecter une dose d’humanité dans le discours robotisé. Certains spécialistes ont amélioré le rendu de la voix et l’intonation de l’agent virtuel pour que l’utilisateur y perçoive de l’excitation ou de la déception.

D’autres ont programmé l’interface pour qu’il répète la dernière phrase de l’interlocuteur afin de montrer l’attention portée à la discussion, un concept qui ne date pas d’hier. C’est exactement ce que faisait ELIZA, le premier agent conversationnel créé en 1964 au Massachusetts Institute of Technology. Il jouait le rôle d’un psychothérapeute et parvenait à confondre plusieurs utilisateurs, qui croyaient se confier à une vraie personne.

Il se trouve des chercheurs pour qui il est inutile de tenter d’imiter l’humain et de viser à réussir le fameux test de Turing (où un utilisateur ne peut faire la différence entre un système robotisé et une personne). Une équipe de scientifiques d’Édimbourg et de Dublin proposaient plutôt, à la Conference on Human Factors in Computing Systems de 2019, de laisser les voix robotisées s’éloigner du modèle humain, car « l’imitation la plus terrifiante de toutes est celle qu’on ne peut pas déceler », écrivaient-ils dans un article associé à leur présentation.

On comprend ce qu’ils veulent dire en écoutant une conférence de Google de 2018 consacrée aux développeurs où l’on a fait entendre à l’auditoire un appel téléphonique. Le système Google Assistant a pris, avec succès, un rendez-vous chez le coiffeur. L’interlocuteur n’a jamais réalisé qu’il parlait à une machine.

Parler à un robot

Tandis que des chercheurs se penchent sur le discours des robots, d’autres, plus rares, étudient celui des humains qui jasent avec des robots ! Entre 1990 et 2017, une soixantaine d’articles scientifiques ont examiné l’expérience des utilisateurs, selon une revue récente publiée dans Interacting with Computers.

Il y a plus de 10 ans, une équipe de l’Université Carnegie Mellon, aux États-Unis, a installé un robot réceptionniste prénommé Tank à l’accueil d’un pavillon universitaire pour étudier les dialogues. Les chercheurs ont découvert que certaines personnes posent directement leur question sans saluer au préalable, tandis que d’autres prennent le temps de faire des politesses. Ces dernières sont également plus attentives, moins rudes et conversent davantage avec le système. Sachant cela, les chercheurs ont suggéré d’intégrer différents scénarios de conversation pour que le robot s’adapte plus facilement à son interlocuteur et au bout du compte ait de meilleurs échanges.

Même constat du côté d’un groupe de chercheurs américains de l’Université Duke et de l’Université d’État de Caroline du Nord qui, en 2017, ont testé le robot humanoïde KEN − un torse avec une tête, mais sans bras − auprès de différents groupes, dont des jeunes d’une école primaire. KEN était particulier : non seulement il pouvait engager une discussion, mais il reconnaissait les visages et détectait les émotions. Résultat ? Au premier contact, les personnes avaient tendance à fixer intensément KEN, un comportement qu’on éviterait habituellement lors d’une nouvelle rencontre. Le robot suscitait également de la curiosité, de l’excitation, de la confusion… Mais par la suite, les chercheurs ont noté que les humains interagissaient avec KEN pratiquement comme avec leurs semblables.

Dans le futur, les systèmes vocaux prendront assurément plus de place, notamment dans le domaine du service à la clientèle. Cela étant dit, même s’ils sont dotés d’une intelligence artificielle, ils ne surpasseront jamais les humains, affirme catégoriquement Marie-Jean Meurs. « Il faut vraiment se garder d’humaniser le robot, insiste-t-elle. Il s’agit d’un outil qui imite ce qu’on lui dit de faire. Il peut s’avérer très puissant, mais il est construit par l’humain : si l’on tire sur la prise électrique, il ne se passe plus rien. » Bref, on ne résoudra assurément pas le sort de l’humanité en jasant avec un robot. OK, Google ?

Publicité

À lire aussi

Technologie

L’histoire derrière l’écran

L’ordinateur doté de microprocesseur a changé le monde. Voici comment sa version domestique a évolué en quelques décennies. Un développement technologique fulgurant!
Québec Science 19-09-2013
Technologie

L’humain agirait différemment dans la réalité virtuelle

Nos comportements dans la réalité virtuelle sont-ils les mêmes que dans la vraie vie? Des chercheurs s’interrogent.
Technologie

Il faut protéger les enfants des iPhones, clament des actionnaires d’Apple

Deux actionnaires d’Apple demandent au géant californien d'agir contre les effets de la dépendance aux iPhones et autres écrans chez les enfants.
Marine Corniou 09-01-2018