Explication de l'éthique
Avant d’aller plus loin, il est nécessaire de poser la distinction entre norme et vertu. Une vertu peut se définir comme : « Force morale avec laquelle l'être humain tend au bien, s'applique à suivre la règle, la loi morale », tandis qu’une norme fera appel à des notions de lois et de justice. De par l’éthique des vertus, une action se verra juger via des lois « morales », des vertus. Une vertu se définit comme : "Traits caractéristiques de la personnalité humaine qui expriment une valeur dans l'action; elles constituent un socle structuré et durable pour l'action; elles sont susceptibles d'être acquises, entraînées et perfectionnées par l'agent: justice, honnêteté, courage, loyauté, créativité, humour". Ces vertus serviront de critères afin de juger si une action est bonne ou non. Ces actions peuvent être évaluées grâce à l’éthique des vertus, au travers de plusieurs questions :
- Que ferait caractéristiquement une personne pleinement vertueuse dans les mêmes circonstances ?
- Que pourrait faire caractéristiquement une personne pleinement vertueuse, si elle se retrouvait dans les mêmes circonstances ?
- Que pourrait faire caractéristiquement une personne cherchant à devenir pleinement vertueuse, si elle se retrouvait dans les mêmes circonstances ?
- Est-ce que cette action permet aux bénéficiaires ou autres de devenir davantage vertueux ?
Notre analyse
Isaac Asimov a établi il y a moins d’un siècle 4 lois de la robotique. Celles-ci sont applicables aux IA fortes étant donné que l’on peut imaginer qu’un robot peut servir d’enveloppe physique à une IA forte. Par la suite, il ne sera mentionné que le terme robot, mais ce terme fera toujours référence aux IA fortes. Ces 4 lois sont les suivantes :
- Un robot ne peut pas porter atteinte à l'humanité, ni, par son inaction, permettre que l'humanité soit exposée au danger ;
- Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
- Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;
- Un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la première ou la deuxième loi.
Ces 4 lois font ressortir 2 vertus : la bienveillance, la loyauté. Celles-ci sont des vertus que doit avoir l’IA envers l’Homme dans de multiples contextes. La bienveillance est applicable dans le contexte des voitures autonomes, l’IA embarquée dans celle-ci aura une responsabilité morale envers l’usager. À chaque fois qu’un humain montera dans une voiture autonome, sa vie sera entre « les mains » de l’IA et celle-ci devra bien agir afin de protéger son utilisateur. Nous avons donc que l’IA à des devoirs moraux, de vertus envers l’humain. Nous pouvons tout aussi bien envisager les devoirs moraux de l’humain envers l’IA, 2 d’entre elles semblent à priori évidentes : le respect et l’empathie.
D’après Paula Sweeney, ne pas donner de droits sociaux aux robots/IA fortes porterait un préjudice indirect sur les humains. Une étude à montrer que des robots, avec des expressions "humaines", se déplaçant comme des animaux (ce type de robot est appelé robot social), lors d’interactions avec des humains, provoquèrent des réactions émotionnelles et même de l’attachement chez ces humains. Également dans d'autres contextes les émotions des Hommes ne sont pas neutres, notamment lorsqu’ils assistent à des vidéos de "torture" de robots sociaux (Expérience menées par Kate Darling). Nous pouvons également citer "Wall-E", protagoniste du film du même nom. Bien qu'il soit un robot, est extrêmement attachant. Ses gestes, ses expressions font de lui l'exemple évident du robot social. On peut facilement faire le lien avec les animaux, les humains ne sont clairement pas insensibles à la cause animale, certains y dévouent leur vie, tentant de les protéger, de faire en sorte qu’ils aient des droits légaux du type "Toute vie animale à droit au respect", "il ne doit en aucun cas être mis à mort de manière injustifiée". Nous sommes donc sensibles et empathiques envers les animaux, tout comme envers les robots sociaux.
Nous sommes donc sensible et empathique envers les animaux, tout comme envers les robots sociaux.
D’après Kate Darling, ne pas accorder de droits aux robots et donc accepter le fait que certains puissent leur "faire du mal" aux robots sociaux pourrait porter atteinte au caractère moral de la société et conduire à une tendance accrue à un comportement violent ou entraîner des préjudices secondaires ou indirects importants. Accorder des droits aux robots pourrait donc être la bonne action à faire, une personne pleinement empathique, bienveillante, faisant preuve de sagesse n’hésiterait pas à leur en donner dans la même situation. De plus cette action permettrait aux humains de devenir davantage vertueux. Comme disait David Hume : "Nos jugements moraux sont spontanés, entre admiration et dégoût", cela montre notre admiration des actes moraux ainsi que notre dégoût des actes immoraux (Philippe FORTEMPS). Cependant, comme dit ci-dessus, ces droits seraient réservés aux robots sociaux, mais qu’en est-il des IA dont l’apparence ne serait pas celle d’un robot social, qu’en est-il des IA sans enveloppe physique comme par exemple l’assistant personnel de son smartphone ? Nous avons posé cette question à notre expert Stanislas Deprez, ce point sera développé dans la section
Avis d'un expert.
En conclusion, donner des droits aux robots est un acte eudémoniste (Une action est bonne, si et seulement si elle est accomplie pour une bonne raison d’agir et de la bonne manière), renforçant la vertu de l’humanité.
Sources