En suivant le déontologisme, on évalue une action selon sa conformité ou non à certain devoir : devoir légal, moral, professionnel, … Selon Emmanuel Kant, un principe devient moral si elle respecte l’universalisation, la dignité humaine et la législation.
Admettons que l’intelligence artificielle forte devienne réalisable, que les robots puissent développer une conscience et avoir des émotions. L’homme, a-t-il le droit de créer une machine douée d’une conscience et d’émotions ? Le gain technologique, prévaut-il sur les risques encourus ? Ce questionnement peut paraître futuriste pourtant, il y a déjà des recherches éthiques dans le sujet. Dernièrement, L’Europe a arrêté de subventionner des recherches dans le développement d’une conscience forte pour des questions éthiques. Pour prévenir les risques des IA, la Commission européenne a posé des lignes directrices éthiques pour une IA de confiance.
Tout d’abord, les IA doivent être centrés sur l’humain, et mettre leur utilisation au service de l’humanité. Sur la base d’une approche fondée sur les droits fondamentaux, les systèmes IA doivent respecter 4 principes éthiques : respect de l’autonomie humaine, prévention de toute atteinte, équité et explicabilité. Les IA fortes, remplissent-elles ses devoirs ?
Pour commencer, il faut garantir le respect de la liberté et de l’autonomie des êtres humains. Il faut préserver la démocratie et l’individualité dans les choix. Sans justification, L’IA a interdiction de manipuler , contraindre, régenter un être humain. Au niveau du travail, il faut créer des emplois qui aient du sens. Au niveau des IA fortes, la grande différence est qu’elle possède une conscience. Cette conscience leur permettrait d’avoir des métiers plus sociaux : professeurs, aide-soignant ou même devenir des êtres compagnons contre la solitude. Un problème se pose, en tant qu’être de conscience, L’IA ne sera plus impartiale et développera son propre avis sur le monde et il sera difficile de limiter son impact sur l’humain. Pour aller plus loin, ces machines conscientes pourraient atteindre tous les métiers et sphères de pouvoir. La justification pourrait être que leur conscience sans défaut humain (ce qui est encore à vérifier) leur permettrait de poser des choix plus justes. Avec ses défauts, l’humain sera mis sur la sellette et l’humain ne pourra plus vivre sans les IA fortes.
Ensuite, l’IA a l’interdiction de porter atteinte à l’être humain que ce soit physiquement ou mentalement. Il faut protéger les IA des utilisations malveillantes. La prévention de toute atteinte implique également la prise en compte de l’environnement naturel et de tous les êtres vivants. Avec son niveau de conscience, l’IA forte sera-t-elle manipulable ou sera-t-elle trop consciente d’elle-même au point de nuire à la société et d’atteindre la singularité technologique ? La conscience du robot n’implique pas forcément une empathie envers les humains. Les IA seront conscients de nos défauts et de notre impact sur la planète. Considèrerons-nous t-ils comme leur créateur, comme des parasites ?
Puis, la technologie devra servir toute l’humanité de façon équitable selon le principe d’équité. Les bénéfices et les coûts devront être partagés équitablement et ne devront pas augmenter les inégalités. De plus, L’IA ne doit pas faire de différence entre les êtres humains et les considérer dans leur individualité. Il faut veiller à ce que les individus et les groupes ne fassent pas l’objet de biais injustes, de discrimination et de stigmatisation. Il faut au contraire essayer d'améliorer le caractère équitable de la société. Il convient également d’encourager l’égalité des chances en ce qui concerne l’accès à l’éducation, aux biens, aux services et à la technologie. L’IA consciente pourrait devenir impartiale n’appartenant à aucun groupe particulier, en prenant l’hypothèse qu’elle ne peut pas être manipulée par les humains. Elle pourrait même faciliter l’accès à l’éducation et aux services en occupant des métiers encore non occupés par des humains.
Pour finir, l’explicabilité est nécessaire pour avoir la confiance des utilisateurs. La transparence va de pair avec les responsabilités pour éviter les risques. Nos connaissances sur la conscience humaine étant encore limitées , il est encore difficile de savoir si les avancées dans ce domaine permettrons de comprendre la conscience et le fonctionnement de cette nouvelle intelligence.
En conclusion, avec nos connaissances actuelles et en suivant ces lignes directrices européennes, L’IA forte n’a pas le droit d’exister car les risques éthiques sont trop grands. Cependant, l’évolution de nos connaissances pourrait remettre en cause cette conclusion.
- NDIOR Valère, « Éthique et conscience des robots », Pouvoirs, 2019/3 (N° 170), p. 59-69. DOI : 10.3917/pouv.170.0059. URL : https://www.cairn.info/revue-pouvoirs-2019-3-page-59.htm
Consulter l'article
- Rapport d'une étude de la commission européenne," Lignes directrices éthiques pour une IA digne de confiance", 08 avril 2019
URL:https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai
Consulter l'article