Publicité
28-03-2019

Des biais discriminatoires à la collecte d’informations personnelles, l’intelligence artificielle est loin d’être neutre. Comment veiller à ce que les robots respectent nos droits fondamentaux ?

Vous êtes-vous déjà prêté au jeu Art Selfie de Google ? Réalisez un égoportrait et le système de reconnaissance faciale vous renvoie à votre sosie artistique parmi les tableaux exposés dans différents musées du monde. En janvier 2018, le concept a conquis les internautes, et l’application Google Arts & Culture a battu des sommets de téléchargement. Mais rapidement, des femmes se sont plaintes d’être associées à des portraits d’hommes et des Afro-Américains n’ont pas aimé être comparés à des esclaves. Une faille de la reconnaissance faciale ou un algorithme misogyne et raciste ?

Sachant que les machines capables de simuler une intelligence sont de plus en plus utilisées dans des ministères, des banques et des entreprises, ces biais discriminatoires pourraient avoir des conséquences importantes sur nos vies. Les algorithmes d’apprentissage nous seront-ils nuisibles au final ? Voilà qui intéresse des chercheurs d’ici, comme en témoigne le lancement récent de l’Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique (OIISIAN), qui réunit plus de 160 scientifiques québécois.

Il faut savoir qu’un algorithme agit comme une petite boîte noire qui transforme des données en décisions. Il s’appuie généralement sur des informations passées, ce qui signifie qu’il peut facilement reproduire un schéma d’iniquité si celui-ci est originairement présent dans la base de données. « On parle de biais algorithmiques, mais le pauvre et malheureux algorithme n’y est pas pour grand-chose ! Si on lui donne des informations biaisées, il ne faut pas s’étonner que les décisions qu’il prenne le soient aussi », déclare d’emblée Marie-Jean Meurs, professeure au Département d’informatique de l’Université du Québec à Montréal (UQAM). Elle est également cofondatrice du réseau HumanIA, qui propose une réflexion multidisciplinaire sur les enjeux éthiques et sociaux de l’intelligence artificielle (IA).

Dans le cas d’Art Selfie de l’application Google, la base de données de référence, soit les tableaux recensés, manquait de diversité et ne représentait pas l’ensemble des utilisateurs. « C’est comme si vous appreniez une langue avec pour seul vocabulaire celui de la cuisine, alors qu’on vous demande de parler d’histoire », illustre Mme Meurs. Si la majorité des portraits de personnes noires auxquels l’IA avait accès étaient des esclaves, conformément aux peintures des siècles passés, il est normal que l’algorithme s’en soit contenté.

« À partir du moment où les données sont vues comme un objet privé, les droits de propriété entrent en jeu et elles deviennent « marchandisables ». » Photo: Denis Chalifour

Au-delà de ce cas divertissant, les banques de données incomplètes peuvent provoquer des injustices. Allons-y d’un exemple type utilisé par le professeur de l’École nationale d’administration publique (ENAP) Pier-André Bouchard St-Amant, membre de l’OIISIAN. Un algorithme apprend à déterminer parmi divers restaurants montréalais lesquels devront se soumettre à un contrôle sanitaire. Pour ce faire, on attribue au robot une base de données composée des plaintes déposées pour intoxications alimentaires.

Le problème est le suivant : est-ce que les personnes à faible revenu portent autant plainte que celles qui sont plus aisées ? Si l’algorithme travaille essentiellement à partir des données sur les restaurants « chics », ces établissements seront probablement davantage ciblés par les autorités sanitaires. De leur côté, les commerces plus modestes subiront moins de contrôles. La santé des consommateurs moins fortunés en pâtirait-elle ?

Données à vendre

Chaque individu laisse quantité de traces numériques derrière lui. Pensons aux cartes de fidélité, aux commentaires formulés sur Facebook ou aux recherches sur le moteur Google. Toutes ces données peuvent être épluchées par des robots et être vendues à des publicitaires ou à des compagnies d’assurances. « À partir du moment où les données sont vues comme un objet privé, les droits de propriété entrent en jeu et elles deviennent “marchandisables” », explique M. Bouchard St-Amant. Ainsi, en avril 2018, des médias ont révélé que les renseignements personnels de 87 millions d’utilisateurs de Facebook avaient été exploités par la firme Cambridge Analytica pour influencer les électeurs pendant la campagne présidentielle américaine de 2016. Est-ce aux entreprises de prendre plus de précautions et de s’assurer que leurs algorithmes offrent un traitement équitable aux individus ? Ces enjeux doivent être pris en compte dans la conception même des prototypes, selon Pier-André Bouchard St-Amant. « Un travail doit être fait en amont pour codifier les contraintes éthiques dans les algorithmes, mais il faut aussi veiller à ce que les décisions prises à la sortie respectent les droits fondamentaux. » Reste à voir si ces vérifications éthiques seront une priorité pour Google, Apple, Facebook, Amazon et Microsoft, qui détiennent le quasi-monopole de l’intelligence artificielle.

Entre-temps, certains explorent les voies législatives. En 2016, le Parlement européen a adopté un règlement sur la protection des données personnelles. Tout individu sur le territoire européen peut désormais avoir accès à son « dossier » de renseignements personnels, les modifier et s’opposer à leur utilisation. La Californie lui a emboîté le pas : une loi similaire y sera appliquée dès 2020.

Qu’en est-il chez nous ? « Au Canada et au Québec, dans la course effrénée à l’innovation, les gouvernements deviennent eux-mêmes des promoteurs de la technologie », déplore Jonathan Roberge, sociologue au Centre Urbanisation Culture Société de l’Institut national de la recherche scientifique (INRS). Plus de 230 millions de dollars seront injectés par le fédéral pour soutenir les innovations et favoriser l’adoption des technologies d’intelligence artificielle au cours des 10 prochaines années, tandis que le provincial allouera 60 millions de dollars. L’essentiel des investissements seront faits à Montréal.

Image: Shutterstock

Cela étant dit, une réflexion éthique importante a débouché récemment sur la publication de la Déclaration de Montréal, dont les 10 principes encadreront le développement responsable de l’intelligence artificielle.

On y stipule notamment que la vie privée de chacun doit être protégée de l’intrusion des systèmes d’IA et que les personnes engagées dans leur développement doivent anticiper les éventuelles conséquences néfastes.

Jonathan Roberge doute toutefois que les signataires respectent les principes adoptés, qui relèvent de l’utopisme et manquent de fondement scientifique. « Pour que l’intelligence artificielle profite à tous, les chercheurs de tous les domaines devraient travailler conjointement afin de brosser un tableau réel de ces enjeux », soutient Marie-Jean Meurs.

Une vision pluridisciplinaire est également nécessaire pour bien communiquer les intentions des scientifiques et ainsi ménager l’acceptabilité sociale. Un système aura beau être techniquement bien programmé et conforme au droit, si la population est réfractaire aux changements, la réforme sera vouée à l’échec, selon Pier-André Bouchard St-Amant. Il cite l’exemple de Boston, qui a voulu optimiser les horaires des autobus scolaires grâce à l’intelligence artificielle ; le résultat a déplu aux parents, contraints de changer leur emploi du temps. « C’est comme une réforme fiscale : si l’on imposait à certaines personnes de payer plus et à d’autres de payer moins, la réponse automatique serait “pourquoi ?” Il faut expliquer aux gens le principe et les critères employés pour pouvoir justifier la transformation. »

Marie-Jean Meurs ajoute que les débats éthiques sur l’intelligence artificielle doivent être bien circonscrits. « Qu’on réfléchisse à des dilemmes du genre “Est-ce qu’il vaudrait mieux qu’une voiture autonome en perte de contrôle écrase une mamie ou une jeune maman avec sa poussette” n’a pas de sens ! Si elle tue quelqu’un, c’est que ses capteurs ne fonctionnent pas. Alors peu importe qui est devant, elle ne le verra pas ! »

S’il faut demeurer prudent face au développement technologique, Pier-André Bouchard St-Amant reste tout de même confiant en « notre capacité à débrancher la prise électrique si cela va trop mal ». « On ne se sait pas où l’on s’en va avec l’IA, mais il ne faut pas s’interdire d’expérimenter parce qu’on a peur, mentionne-t-il. L’intelligence artificielle nous a énormément apporté, ne serait-ce que dans le domaine de la santé. On va peut-être devoir apprendre de nos erreurs, mais on va apprendre quand même. »

Ce reportage fait partie du supplément réalisé en collaboration avec le réseau de l’Université du Québec

Publicité

À lire aussi

Société

Ces métaux qui révolutionnent la géopolitique

Les métaux rares sont hautement convoités, au point que des nations sont prêtes à se battre pour eux.
Québec Science 01-08-2018
Culture

Le meilleur de la culture scientifique – Octobre-novembre 2017

Notre journaliste déploie son flair pour sélectionner le meilleur de la culture scientifique, qu'il s'agisse de livres, de balados, d'expositions, de documentaires, d'émissions ou d'événements.
Société

À la recherche des travailleurs créatifs

Le temps où les ressources financières étaient garantes de performance est révolu. Aujourd’hui, les bonnes idées valent leur pesant d’or et les recruteurs inscrivent la créativité parmi leurs critères de recherche.