L'analyse de Stanislas Deprez


Stanislas Deprez




Dans le cadre de notre cours d’éthique, nous avons eu l’occasion de suivre plusieurs séminaires présenté par des spécialistes dans des domaines divers et variés. Stanislas Deprez était l’un d’entre-eux, dans sa qualité d’expert en transhumanisme, il était le plus apte à répondre à nos questions concernant le droit des IA fortes. Stanislas Deprez est chercheur associé à la chaire « Éthique, Technologie et Transhumanismes » (ETHICS, EA 7446) de l’Université Catholique de Lille, et chargé de cours à la Faculté des sciences économiques, sociales, politiques et de communication de l’Université catholique de Louvain.
Avant d’aller plus loin, nous remercions chaleureusement Monsieur Deprez, de part sa réactivité et la qualité de ses réponses il a su se montrer précieux lors de notre réflexion. Nous lui avons principalement posé deux questions, la première d’entre-elle est la suivante :

L'apparence/forme physique de l'IA forte aura-t-elle impact sur ses droits ? Exemple : un robot avec une apparence "humaine" aura-t-elle plus de droit qu'un assistant vocal ?


"Des recherches, notamment japonaises – pour des raisons culturelles, les Japonais sont très rétifs à faire appel à de la main-d’œuvre étrangère, du coup ils sont à la pointe des robots domestiques –, montrent que les humains font plus confiance, et interagissent davantage, avec les IA qui ont une forme humaine. Cela vaut pour le corps des robots, mais aussi pour les inflexions de la voix. Un robot avec de grands yeux et un large sourire passe mieux que le même robot sans yeux et avec une fente pour tout sourire. Et au téléphone, les humains parlent plus volontiers à une IA qui imite la voix humaine plutôt qu’à une IA dotée d’une voix « métallique ». Toutefois, si la ressemblance est trop forte, la confiance se change en méfiance. Pourquoi ? Mon hypothèse est que cela tient à l’incapacité actuelle des constructeurs de robots à fabriquer un robot qui a les mimiques humaines. Pour l’instant, les robots à visage humain ont l’air figé, ce qui fait penser à des fous. Du coup, le robot qui donne le plus aux humains l’envie d’interagir, c’est un robot qui ne ressemble que de loin à un humain : tête ronde, grands yeux, etc. Cela tient sans doute à notre biologie : le grand théoricien de l’évolution Stephen Jay Gould s’est amusé à montrer l’évolution de Mickey : d’abord dessiné comme un rat, et méchant, Mickey s’est peu à peu arrondi et est devenu gentil ; en fait, il a pris les marqueurs des bébés humains, ce qui suscite automatiquement la sympathie, chez la plupart des gens. Bref, il est certain qu’une IA forte avec une apparence humaine suscitera plus la sympathie des humains. Est-ce que cela leur donnera davantage de droits, je n’en suis pas certain. Car les juristes sont très attentifs aux critères utilisés. Par exemple, un Belge très moche a les mêmes droits qu’un autre Belge très beau, et ça semble évident puisque la citoyenneté ne tient pas à la beauté (par contre, être beau donne un avantage social : statistiquement, les gens beaux ont plus de succès et un meilleur salaire). De même, si on définit les droits par la conscience et l’autonomie décisionnelle, alors peu importe la forme. James Hugues, que nous avons brièvement vu au cours (ou que nous aurions dû voir, je ne sais plus) a travaillé cette question. Il distingue les personnes pleinement citoyennes (les humains majeurs, les IA fortes, etc.), les personnes aux capacités limitées (mineurs d’âge, comateux, etc.) et les non-personnes (un « bête » grille-pain, un caillou, etc.). Selon ces critères, si un assistant vocal avait moins de droits, ce ne serait pas parce qu’il n’aurait pas un corps semblable à celui des humains, mais parce qu’il aurait une autonomie limitée (on peut imaginer un assistant vocal spécialisé dans le conseil en assurances, mais incapable d’avoir un avis sur la vie de tous les jours, ou sur la personne qu’il faudrait élire et sur les choix politiques à prendre). Hugues a une éthique utilitariste, qui le pousse à chercher à maximiser la quantité de plaisir. Mais son raisonnement tient aussi dans un cadre kantien, qui base la morale sur l’autonomie et la rationalité ; de façon symptomatique, Kant ne parle pas des humains mais des « personnes raisonnables ». Evidemment, il n’y avait pas d’IA à l’époque de Kant, mais sa réflexion est très utile sur ce point."


Est-ce que les gains technologiques (création des IA fortes, avec une conscience…) prévalent sur les risques éthiques encourus (les robots pourraient-ils devenir trop conscient et renverser l'humain ; va-t-on devenir trop dépendant d'eux, réduction de notre autonomie ; est-ce que l'on pourra faire confiance à une technologie que l'on ne comprendra plus) ? 


"L’avènement d’un IA forte est une des grandes craintes de certains transhumanistes. Nick Bostrom parle d’un risque existentiel pour l’humanité. En 2015, il a été à l’initiative d’un appel à un moratoire sur la recherche d’une IA forte (appel signé entre autres par Bill Gates, Stephen Hawking et Elon Musk). L’idée est que l’accroissement exponentiel des techniques NBIC amènera à plus ou moins brève échéance la survenue d’une IA forte. Dès que celle-ci deviendra aussi intelligente qu’un humain, et avec les connaissances de l’entièreté des données informatiques stockées dans le monde, cette IA forte aura presque instantanément la capacité à devenir radicalement plus développée que n’importe quel humain et même que n’importe quel collectif humain. C’est ce que les transhumanistes appellent la singularité (qui est le moment où l’intelligence ne dépend plus d’un support organique vivant ; on peut aussi voir dans la singularité au sens des transhumanistes le moment où l’intelligence humaine est dépassée par une intelligence plus forte). Comme rien ne dit que cette IA forte respectera les humains, nous pourrions être détruits ou asservis. Pas besoin que cette IA forte nous veuille du mal, il suffit que nous soyons un obstacle à ses objectifs pour qu’elle nous détruise (Bostrom imagine une IA forte qui a pour mission de produire des attache-trombones ; elle commence par transformer tout le métal en attache-trombones, puis elle réoriente toute la production de plastique à son profit, puis elle cherche de nouvelles ressources et elle s’aperçoit que le corps humain est une excellente matière première…). D’autres transhumanistes ne voient pas la singularité comme forcément dangereuse, à condition de s’y préparer. Ainsi, pour Ray Kurzweil, les humains devront s’hybrider aux ordinateurs, créant ainsi des posthumains capables de comprendre à la fois les humains et l’IA. Pour d’autres, comme Anthony Levandowski (concepteur de la Google car), l’IA forte sera comme un dieu, qui récompensera celles et ceux qui l’auront aidé à advenir, et punira les autres. Levandowski a fondé une religion pour préparer l’avènement de l’IA forte (et aussi, peut-être, pour éluder l’impôt, car aux USA les institutions religieuses ne paient pas d’impôt). Pour les ingénieurs qui travaillent en IA, tout cela n’est que du vent. Ces spécialistes sont unanimes pour dire qu’il n’y a pas de danger. C’est vrai, actuellement l’IA forte n’existe pas. Mais cela ne signifie pas qu’il n’y aura jamais d’IA forte dangereuse. D’autre part, il est normal que des spécialistes, qui maîtrisent leur domaine, nient ou minimisent le danger (les constructeurs de centrales nucléaires prétendent eux aussi que le nucléaire n’est pas dangereux car il est bien contrôlé – ce qui est vrai… jusqu’à ce que ce ne le soit plus). Il faut reconnaître qu’aujourd’hui, l’IA forte n’est qu’un rêve pour certains, un cauchemar pour d’autres. Je m’éloigne beaucoup de mon domaine de compétence mais je dirais que le danger actuel est une perte de contrôle des données. Pas parce qu’on ne comprendrait plus les programmes. Il ne faut pas exagérer l’incompréhension : les programmeurs ne savent pas dans le détail comment une IA traite l’information mais ils maîtrisent les processus (pour employer une comparaison qui vaut ce qu’elle vaut, c’est un peu comme les physiciens quantiques, qui ne connaissent pas le détail de ce qu’ils décrivent, mais qui disposent d’équations permettant de comprendre et de prédire). Le danger est plutôt social que technique : même si ce sont des humains qui programment les IA de reconnaissance de visage, ou des drones de combat, il n’empêche que ces systèmes de reconnaissance sont parfois utilisés pour repérer des opposants politiques, et ces drones sont parfois utilisés pour tuer. Un autre danger, que vous soulignez dans votre question, est notre dépendance par rapport à l’IA. A mon avis, cette dépendance ira croissant à mesure que nous utiliserons des dispositifs d’IA, ce que nous faisons déjà largement. Sur ce point, l’IA n’est qu’un pas de plus par rapport aux ordinateurs, qui eux-mêmes sont un pas de plus par rapport aux techniques développées aux 19e et 20e siècle (qui d’entre nous serait capable de survivre seul dans notre monde, ce qui implique non seulement de trouver sa nourriture et sa boisson, mais aussi de se soigner, et d’échapper aux radiations consécutives aux explosions des centrales nucléaires, etc.). Pourra-t-on faire confiance à une technologie que l’on ne comprendra plus ? Mais c’est déjà ce que l’on fait, depuis notre naissance. Je ne sais pas comment fonctionnent ma voiture ou mon PC. J’en ai une vague idée, bien sûr, mais je suis incapable de les réparer s’ils tombent en panne. Peut-être en êtes-vous capables (en ce cas, bravo), mais vous n’êtes certainement pas apte à réparer un Airbus ni à le piloter, et en même temps à maîtriser la chaîne de production d’aspirine, et pourtant vous prenez l’avion et parfois vous avalez une aspirine, en faisant confiance. Pire encore, parfois nous mangeons un hamburger du McDo, et nous faisons confiance aux personnes qui l’ont préparé et à toutes celles qui ont contribué à l’approvisionnement du fast-food. Donc je ne crois pas que l’IA change beaucoup à la nécessité de la confiance dans les collectifs humains. Sauf, bien sûr, si on parle d’une IA forte. Sur ce point, on en revient aux considérations de Bostrom, qui vous paraîtront maintenant peut-être moins délirantes."