Suivez-nous sur Twitter Suivez-nous sur Facebook VQ  velo.qc.ca 
Je doute donc je suis

C'est pour demain (ou peut-être pas…)

Par Normand Baillargeon - 28/03/2016
Le mot «singularité» passe pour avoir été employé la première fois, en 1983, par Vernor Vinge, chercheur en mathématiques et auteur de science-fiction. Mais, ce moment où l’intelligence artificielle (IA) surpassera l’intelligence humaine, avait été pressenti par un autre mathématicien, John von Neumann, dans les années 1950. Puis, en 1965, dans un article intitulé «Speculations Concerning the First Ultraintelligent Machine», le statisticien britannique Irving J. Good (1916-2009) la formulait très clairement: «Posons la définition suivante d’une machine super intelligente: dans toutes les activités intellectuelles, elle surpasse l’être humain le plus intelligent. Puisque la conception de machines se trouve être l’une de ses activités intellectuelles, cette machine super intelligente pourra concevoir de meilleures machines qu’elle. Il s’ensuivra une explosion de l’intelligence et celle des êtres humains sera rapidement dépassée. La première machine super intelligente ne pourra donc qu’être l’ultime invention des êtres humains.»

  On le devine, une telle hypothèse soulève de nombreuses questions très sérieusement débattues, notamment en philosophie, en biologie, en informatique, mais aussi chez Google, chez Apple et jusque dans cette nouvelle Singularity University, située bien entendu dans la Silicon Valley californienne.

  Est-il plausible qu’un tel événement survienne? Si oui, quand se produira-t-il? Sera-t-il, globalement, une bonne ou une mauvaise chose pour l’être humain? Et comment nous y préparer?

  À toutes ces questions, les intellectuels et scientifiques apportent des réponses variées, au point d’être irréconciliables.

  Il y a d’abord ceux qui sont convaincus que la singularité est proche. Le grand champion de cette catégorie est l’inventeur Ray Kurzweil, auquel on doit entre autres la «Kurzweil Reading Machine», un dispositif permettant aux aveugles de lire et dont le premier exemplaire a appartenu au chanteur Stevie Wonder. Kurzweil est persuadé que la singularité va survenir vers 2045.

  Il arrive à cette date en se fondant, entre autres théories, sur la fameuse loi de Moore, jusqu’ici vérifiée, et souvent interprétée comme prédisant le doublement de la puissance des ordinateurs aux 18 mois. Kurzweil y croit tellement qu’il prend quelque 250 comprimés et vitamines par jour afin d’augmenter ses chances d’être vivant à cette date; il est né en 1948.

  Certes, Kurzweil admet que la singularité nous posera quelques défis, mais il pense qu’elle nous apportera surtout d’immenses bienfaits, par exemple la possibilité de télécharger notre cerveau sur une machine et de parvenir ainsi à une forme d’immortalité. On comprend mieux sa consommation de pilules!

  Puis il y a ceux qui, parce qu’ils croient la singularité possible et dangereuse, exhortent à l’urgence d’approfondir la réflexion. Comme le philosophe australien David Chalmers qui assure qu’elle s’avérerait l’un des plus importants événements de l’histoire de la Terre, entraînant des effets bénéfiques (comme l’élimination de toutes les maladies connues et de la pauvreté), aussi déterminants que de possibles bouleversements funestes (la fin de la race humaine, une guerre entre machines pouvant détruire la planète, etc.).

  Elon Musk, P.D.G. de Tesla Motors, craint tant ces catastrophes qu’il a créé une société pour les prévenir. Le célèbre cosmologiste Stephen Hawking est aussi de cet avis et émet de sérieuses mises en garde contre l’IA: «Les humains, limités par leur lente évolution biologique, dit-il, ne pourront gagner la compétition contre [ces machines] et seront surpassés.»

  Enfin, d’autres penseurs tout aussi éminents n’ont pas peur du tout, pour la simple et bonne raison qu’ils ne croient pas la singularité possible. C’est le cas du linguiste et philosophe Noam Chomsky qui la décrit comme ni plus ni moins que de la science-fiction.

  Les machines, dit-il, exécutent simplement des programmes formulés par des êtres humains et le font de mieux en mieux. Cela explique que le superordinateur Deep Blue ait, dès 1996, pu vaincre Garry Kasparov, le meilleur joueur d’échecs au monde. De la même manière, le programme informatique Watson a pu battre les meilleurs au jeu Jeopardy; et on propose déjà des voitures se conduisant elles-mêmes.

  Mais entre cela et penser, parler ou être conscient, activités spécifiquement humaines, il y a une marge que les programmes des ordinateurs ne franchiront pas. L’IA résoudra sans doute dans les années à venir des problèmes liés à la reconnaissance vocale ou visuelle. Mais ceux du langage ou de l’intelligence générale, dont la singularité exige la résolution, ne le seront pas.

  Le philosophe du langage John Searle a formulé de manière claire ce type d’argumentaire par une célèbre expérience de pensée appelée la «Chambre chinoise».

  Une personne est enfermée dans une pièce entièrement close, à l’exception d’une fente pratiquée dans l’un des murs par laquelle elle reçoit des bouts de papier couverts de signes qui lui sont incompréhensibles. Elle consulte alors un immense registre, y repère les signes se trouvant sur la feuille. À ceux-là correspondent d’autres signes qu’elle recopie sur une autre feuille qu’elle envoie à l’extérieur, par la fente.

  Cette chambre est appelée «chinoise», parce que les signes reçus et envoyés sont du chinois, une langue qu’ignore totalement la personne.

  Mais, à l’extérieur, un autre individu a posé une question dans cette langue et a reçu une réponse pleinement satisfaisante. Il pourrait donc croire que la chambre (ou quoi que ce soit qui s’y trouve ou la constitue) parle chinois. Mais ce n’est pas le cas.

  La signification de cette analogie est limpide. La personne dans la pièce représente l’unité centrale de l’ordinateur; les instructions qu’elle consulte dans le registre représentent le programme; les bouts de papier qui entrent et sortent sont respectivement les intrants et les extrants.

  La chambre chinoise fait donc exactement ce que ferait un ordinateur programmé pour «parler» chinois et elle le fait comme lui. Mais c’est sans les comprendre qu’elle manipule les symboles. Cela constitue l’intelligence artificielle en version faible; la singularité demanderait de l’intelligence artificielle en version forte. Mais selon les sceptiques, nous ne l’aurons sans doute jamais. Les partisans de la singularité ne se laissent pas démonter et attendent que les progrès de l’IA fassent mentir ces pessimistes.

  Ils pourraient par exemple invoquer ce «Deep Learning», auquel prend activement part le chercheur en IA Yoshua Bengio, de l’Université de Montréal, et qui met en jeu de nombreuses couches de modules computationnels, constituant des sortes de neurones artificiels simulant mieux, espère-t-on, l’intelligence humaine, et possédant à terme ce qui ressemble à son pouvoir d’abstraction. Le premier programme à l’emporter au jeu de go à la fin de 2015, tâche redoutablement difficile, a été conçu sur cette base.

  Je pense pour ma part qu’on est ici face à un de ces désaccords d’experts où il est sage, pour le néophyte, de réserver son jugement.

 

Afficher tous les textes de cette section