Publicité
Catherine Mathys

IA: À l’école du bien et du mal

04-09-2017

Des armes autonomes qui ciblent un ennemi et le combattent sans intervention humaine ? C’est possible. Et très inquiétant. Depuis plusieurs années, une telle perspective interpelle les chercheurs et les experts de l’intelligence artificielle. D’autant plus que le danger est double. Il est concevable qu’un groupe d’individus mal intentionné utilise l’intelligence artificielle à mauvais escient ou encore que l’ordinateur lui-même ne collabore pas comme on l’eût souhaité.

Voilà pourquoi le développement de robots respectueux des intérêts et des valeurs de l’humanité sera l’un des prochains grands défis de l’intelligence artificielle. Et Montréal sera au cœur de ces réflexions. L’Institut des algorithmes d’apprentissage de Montréal, mené par le professeur Yoshua Bengio, s’y intéressera grâce à une subvention de 2,4 millions de dollars US sur quatre ans, octroyée par le Open Philanthropy Project.

On y étudiera entre autres la moralité. Les systèmes intelligents auront à interagir dans la société et devront prévoir les conséquences de leurs interventions. Que ce soit pour la gestion de la Bourse, le diagnostic de maladies ou la conduite automobile, les ordinateurs devront prendre des décisions en fonction de certaines valeurs qui font consensus. Comme ne pas tuer son voisin, par exemple. Je pense qu’on peut s’entendre là-dessus…

L’ambitieux projet de Bengio consiste à enseigner à l’ordinateur le spectre des réponses humaines pour qu’il reconnaisse les limites de l’acceptable. Hélas, comme notre espèce est souvent en désaccord sur ce qui l’est ou ce qui ne l’est pas, l’ordinateur est loin d’avoir relevé ce défi. Prenons simplement la lutte aux changements climatiques. Salutations à notre voisin du sud !

Dernier pépin, mais non le moindre : les valeurs « artificielles » devront être conçues pour évoluer en fonction des valeurs humaines. Mais comment prévoir qu’une pratique considérée comme normale aujourd’hui ne le sera plus dans quelques années? Bref, méchant casse-tête en vue!

Publicité

À lire aussi

Catherine Mathys

Vous n’en croirez plus vos yeux

Les images, qu’il s’agisse de photos ou de vidéos, ont longtemps été les gardiennes de la vérité, en tant que preuves irréfutables d’un passé dont on n’a pas été témoin.
Catherine Mathys 18-04-2018
Catherine Mathys

Un médicament qui vous surveille

Big Brother sera bientôt offert sous forme de comprimé pour vous surveiller… de l’intérieur.
Catherine Mathys 04-01-2018
Catherine Mathys

Ce que les mots disent de nous

Les algorithmes utilisés dans les systèmes d’intelligence artificielle dépendent des données avec lesquelles ils sont programmés. Or, celles-ci contiennent parfois des biais sociaux que ces systèmes contribuent à renforcer.
Catherine Mathys 18-07-2018