Suivez-nous sur Twitter Suivez-nous sur Facebook VQ  velo.qc.ca 
50 défis

Construire une machine qui apprend

[Défi 27] Il y a 20 ans, on prédisait que les robots nous libéreraient de toute les tâches fastidieuses. Une prophétie sur le point de se réaliser?

21/09/2012

  Hugo Larochelle
Département des sciences informatiques de l’Université de Sherbrooke


Le robot IRL1 et un des ses inventeurs, Wael Suleiman © Jean-François Perreault/Université de Sherbrooke

Mon robot, mon ami

Le rêve d’un robot aussi intelligent et autonome qu’un être humain se concrétisera peut-être dans des laboratoires du Québec.
Par Dominique Forget

C’est un chic type, IRL1! Toujours souriant, jamais un mot de trop. Ouvert aux nouvelles rencontres, il tourne la tête quand quelqu’un entre dans son laboratoire et n’hésite pas à tendre la main à de

Pourtant, à bien y regarder, IRL1 a de vilains défauts. Maladroit, il est incapable d’ouvrir une porte tout seul et il refuse obstinément de gravir des escaliers. Et Monsieur a des goûts de luxe! Il est équipé de moteurs qui coûtent une petite fortune.
Avec sa grosse tête rouge en forme de bloc Lego et son corps parcouru de fils électriques multicolores, le robot humanoïde conçu par l’équipe de François Michaud, de la Chaire de recherche du Canada en robotique mobile et systèmes intelligents autonomes de l’Université de Sherbrooke, a beau être la star de son département, il n’arrive pas à la cheville des automates mis en vedette dans des films comme Blade Runner, Star Wars ou I, Robot.

«On est bien loin du robot imaginé par les auteurs de science-fiction, capable de vider le lave-vaisselle ou de passer l’aspirateur, consent Wael Suleiman, du département de génie électrique et de génie informatique de l’université. Les robots sont partout – sur les chaînes de montage d’automobiles, dans les salles d’opération, sur les champs de bataille –, mais leurs interactions avec les humains sont à peu près nulles.» Dans les usines, les robots industriels sont si dangereux pour les travailleurs qu’ils doivent être confinés à l’intérieur de cages protectrices. Trop forts et pas assez intelligents, ils se déplacent brusquement et leurs gestes peuvent faire bien des dégâts. Ce n’est pas demain la veille qu’on osera s’approcher d’eux pour se faire servir une tasse de café!

Wael Suleiman croit pourtant que le robot humanoïde est bel et bien à notre portée. Ce Syrien d’origine a travaillé en France, en Allemagne et au Japon à des projets aussi sophistiqués que la conception de HRP-4C – un robot japonais qui ressemble à s’y méprendre à une femme, doté d’expressions faciales, capable de danser, de chanter et de répondre à des questions simples. Il faut la voir se dandiner sur l’écran au son d’une musique pop japonaise. «Les Japonais ont facilement 10 ans d’avance sur nous, dit-il songeur. Mais on a toute l’expertise pour rattraper notre retard et faire faire des pas de géant à nos robots.»


                                     © IStockphotos

Pour pénétrer dans l’Institut interdisciplinaire d’innovation technologique (3IT) de l’Université de Sherbrooke, situé en périphérie du campus, il faut montrer patte blanche. Pas de photos, pas de croquis, interdiction formelle de circuler sans accompa­gna­teur. Ici, plusieurs projets de recherche sont top secret. C’est dans ces laboratoires flambant neufs que IRL1 et ses compagnons attendent qu’on leur installe des yeux, des bras, des mains et… qu’on les dote de l’intelligence nécessaire pour partir à la conquête du monde.
C’est Jean-Sébastien Plante qui me présente IRL1. Professeur au département de génie mécanique, ce jeune chercheur conçoit des «muscles artificiels». Dans le jargon, on parle plutôt d’«actionneurs souples» – des moteurs, en quelque sorte.

«Si les robots qu’on trouve actuellement sur les chaînes de montage sont si dangereux, c’est parce qu’ils sont équipés d’actionneurs rigides, explique-t-il. Quand leur “cerveau” leur envoie la commande de se déplacer du point A au point B, ils mettent leurs mécaniques en mouvement en fonçant vers la cible avec toute leur force. Et tant pis si un humain se trouve sur leur chemin.»
Les actionneurs souples, eux, détectent la présence d’un obstacle sur le parcours du robot. Les «muscles» conçus par le professeur Plante renferment un fluide «intelligent», dont la viscosité augmente ou diminue en fonction du champ magnétique auquel il est exposé. Quand le robot s’approche d’un objet, le champ magnétique fluctue, ce qui permet aux actionneurs d’ajuster leur force.

L’objectif ultime? Con­ce­voir un robot si sensible à la présen­ce d’un hu­main qu’il pourrait lui faire une caresse, sur le ventre, par exemple. «Actuellement, avec les actionneurs traditionnels, il faudrait con­naître la forme exacte du ventre pour y arriver sans blesser le courageux volontaire, qui devrait s’abstenir de bouger, dit Jean-Sébastien Plante. Je ne voudrais pas être à sa place! Mais avec les actionneurs souples, le robot pourrait “sentir” la forme du ventre qu’il a sous la main et s’adapter en conséquence.»
Mais à quoi donc serviront ces machines agiles, sensibles et délicates? «À déménager le canapé de votre logement du troisième étage», suggère Alexandre Campeau-Lecours, qui achève son doctorat en robo­tique à l’Université Laval.

Pour accomplir ce genre de corvée, un robot humanoïde n’a pas seulement besoin de bons muscles, mais aussi d’une bonne tête. «Les automates conçus dans nos labos n’ont rien à voir avec des robots humanoïdes, prévient l’étudiant. Il s’agit plutôt de robots industriels, conçus pour aider un travailleur dans une usine automobile à déplacer des charges lourdes comme un tableau de bord. Mais ils savent ajuster leurs mouvements à ceux de l’humain.» Des capteurs placés sur leurs membres détectent les déplacements et relaient l’information vers l’ordinateur central, qui actionne les moteurs selon la séquence appropriée. Cet ordi­na­teur central, croit Alexandre Campeau-Lecours, pourrait très bien équiper les robots humanoïdes de demain. «Ces derniers seraient en mesure de réagir lors d’un déménagement si, par exemple, vous tourniez sans prévenir à droite ou à gauche, ou si vous souleviez le canapé un peu brusquement pour le faire passer par la porte…»

Robot sous-marin © Université LavalUn robot déménageur, c’est bien, mais un robot capable de s’acquitter de toutes les tâches ingrates auxquelles on ne veut pas se plier, ce serait beaucoup mieux. «Plus les robots seront dotés de sens aigus – la vue, l’ouïe, le toucher –, mieux ils seront capables de se substituer aux humains et de répondre à nos désirs», indique Philippe Giguère, nouvelle recrue du département d’informatique et de génie logiciel de l’Université Laval.

L’équipe à laquelle est associé Philippe Giguère conçoit des algorithmes qui aident les robots à traiter les informations visuelles captées grâce à des caméras. Le groupe a notamment mis au point des robots sous-marins, au service de biologistes, capables de distinguer le corail du sable. Le même genre d’algorithme pourrait un jour aider un robot humanoïde à distinguer le trottoir de la rue. Une tâche plus difficile qu’il n’y paraît! «Les caméras numériques sont beaucoup moins perfectionnées que l’œil humain, souligne-t-il. Si vous prenez une photo à l’extérieur et qu’il y a une zone très exposée au soleil et une autre à l’ombre, seulement l’une des deux sera nette sur la photo, selon les paramètres que vous aurez sélectionnés. Heureu­sement, en combinant plusieurs images, prises selon différents paramètres, il est possible d’extraire davantage d’informations.»

À l’École de technologie supérieure, à Montréal, le professeur au département de génie de la production automatisée Vincent Duchaine travaille pour sa part à doter ces robots d’une «peau» de silicone. Flexible, étirable, faisant quelques millimètres d’épaisseur, elle est tapissée de microcapteurs tactiles, chacun capable de détecter une toute petite variation de la pression à sa surface. En fait, cette peau est si sensible qu’un robot pourrait percevoir une mouche qui se poserait sur lui. L’information envoyée par les capteurs vers l’ordinateur central lui permettrait de savoir précisément où elle se trouve.


"Peau" de silicone
© École de technologie supérieure de Montréal

«Un robot dont la main est recouverte de cette peau peut également “sentir” si sa main est ouverte, fermée ou si elle est en contact avec un objet», explique le chercheur qui travaille en tandem avec une équipe de l’université Harvard sur ce projet. Si on veut concevoir un jour un robot capable de vider un lave-vaisselle, une telle peau sera essentielle pour s’assurer que les doigts exercent la bonne pression sur l’assiette: pas moins, pour ne pas la laisser tomber; pas plus, pour ne pas la pulvériser.

Des muscles, des yeux, une peau… Ne leur manque plus qu’un cerveau. Un vrai cerveau! C’est-à-dire capable d’apprendre, comme le ferait un humain. Capable d’apprendre une nouvelle langue, de nouvelles tâches; capable aussi d’apprendre de ses erreurs. Tout ça sans qu’un scientifique ait, chaque fois, à ajouter de nouveaux codes au programme informatique de l’ordinateur central.

C’est le défi auquel se frotte Hugo Larochelle, du département des sciences informatiques de l’Université de Sherbrooke. Plus spécifiquement, ce chercheur travaille à développer des réseaux de neurones artificiels qui simulent le fonctionnement du cerveau humain. «Ce sont en fait des algorithmes qui peuvent compiler des milliers de données transmises par des capteurs d’images, de sons ou de toucher, effectuer un traitement statistique de ces données, puis en “déduire” un compor­tement à adopter.»

Pour tester la capacité d’un de ses algorithmes à apprendre l’anglais, Hugo Larochelle a nourri un superordinateur de centaines de milliers de courtes phrases tirées de textes de nouvelles. Il a ensuite demandé à la machine de cartographier les mots, selon leur sens. Les résultats se présentent sous la forme d’une espèce de «carte du ciel», où les regroupements de mots forment des constellations.

En zoomant sur la carte, on constate que la machine a pu regrouper des mots comme «jour», «heure», «minute» et «année», ou encore «cents», «dollars» et «yens»… par simple déduction logique. «On n’arrivera probablement jamais à reproduire artificiellement le raisonnement humain, mais avec nos algorithmes, on s’en approche un petit peu», avance l’informaticien.
IRL1 devra cependant encore attendre plusieurs années le cerveau qui le rendra intelligent…  l


Untitled Document

Découvrez les 50 defis