En 2016, le meilleur joueur de go au monde, le Sud-Coréen Lee Sedol, était défait par le robot AlphaGo, formé d’un réseau de neurones artificiels inspiré du cerveau humain. Son algorithme étant trop complexe, même ses créateurs ne pouvaient prédire ses actions.
En 2020, l’IA est dans les téléphones, les moteurs de recherche, les voitures et les publicités en ligne. En Corée du Sud, où le secteur est mis de l’avant, on peut voir des robots serveurs, guides d’aéroports ou au service aux chambres.
La chercheuse à l’Institut d’intelligence artificielle Mila et professeure agrégée en informatique à l’Université de Montréal (UdeM), Irina Rish, explique toutefois que les robots d’aujourd’hui « ne sont pas bons pour généraliser ». AlphaGo ne saurait pas jouer aux échecs ni traduire un texte, par exemple. L’IA avait peaufiné un algorithme en analysant de nombreuses parties, puis en jouant contre lui-même à répétition.
De plus, un robot ne comprend pas entièrement le sens de ce qu’il fait, poursuit Mme Rish. Une machine qui doit reconnaître des images pourrait utiliser la logique suivante : « les vaches ont plus de chance d’être devant un fond vert et les chameaux devant un fond jaune », explique la chercheuse. Un chameau dans une prairie pourrait alors la confondre. Les machines ignorent « que c’est une projection en deux dimensions d’une réalité à trois dimensions qui est physique », précise le directeur scientifique de l’institut Mila et professeur d’informatique à l’UdeM, Yoshua Bengio.
De son côté, le professeur adjoint en philosophie à l’UdeM Jonathan Simon est porté à croire que cela peut mener à de la discrimination. À titre d’exemple, les recruteurs d’Amazon ont découvert en 2015 que l’IA qu’ils utilisaient avait tendance à rejeter les candidatures de femmes. Les machines « ne font que cracher les tendances statistiques à partir des données avec lesquelles elles ont été nourries », explique-t-il. Si elles se basent sur un historique où les hommes étaient plus souvent embauchés, elles ne peuvent pas se demander « est-ce une bonne chose ? », nuance le professeur adjoint.
En route vers la conscience?
Comme il n’y a pas consensus scientifique sur ce qu’est la conscience, il est difficile de déterminer quand – et si – les machines l’atteindront. Quoi qu’il en soit, « ce serait bien trop optimiste de dire qu’on aura une IA entièrement consciente dans plusieurs années », conclut Irina Rish.
Pour le professeur en psychologie à l’Université du Québec à Montréal Stevan Harnad, la conscience est « la capacité de ressentir quoi que ce soit ». Or, comment vérifier si la machine ressent quelque chose? « On ne le saura jamais », affirme-t-il. On pourrait se servir du test de Turing, qu’un robot passe quand il réussit à tromper des observateurs sur sa nature non-humaine. Mais comment savoir si le robot ne fait pas qu’imiter les signes du ressenti, alors qu’il n’y a rien à l’intérieur?
À cela, Harnad réplique qu’on ne peut pas non plus s’assurer de la conscience des humains : « C’est arbitraire de dire qu’avec toi je n’ai pas de doute, mais qu’avec le robot j’ai des doutes. »
Photo par Alizée Balleux