Ethique de la responsabilité

L’éthique de la responsabilité est un principe fondamental d’une éthique pour une civilisation technologique. Elle montre que si l’être humain est caractérisé par l’affirmation de sa liberté, alors il en va de même pour sa responsabilité.
Chaque grande révolution industrielle (quatre) a mis en jeu cette éthique. La quatrième (qui est encore en cours aujourd’hui) a conduit à une numérisation et une virtualisation avec des visées à court terme pour se rendre plus autonome face à la nature ou pour atteindre des impératifs économiques limités. Cela a ouvert de nouvelles questions éthiques, que ce soit sur la confidentialité des données, sur la responsabilité des machines mais également sur la limite de l’humanité.
Cette éthique se fonde sur deux éléments : ontologique et paradigmatique.
    1. Le fondement ontologique se fait en quatre étapes :
        a. Le libre arbitre : l’être humain est fondamentalement libre et donc de ce fait         responsable. De ce point de vue, nous ne pouvons pas considérer l’IA comme responsable à         partir du moment où elle n’est pas libre mais bien limitée par les fonctions qu’on lui attribue.
        b. La valeur de l’autre : Cette étape considère que chaque être vivant possède une certaine         valeur et donc il y a une certaine forme de supériorité entre l’être et le non être. De ce fait, la         décision d’une IA a moins de valeur que celle d’un juge.
        c. La vulnérabilité de l’autre : La vulnérabilité et l’autonomie sont des caractéristiques de l’être         humain. L’unicité entre chaque être pose un certain impératif : elle ne doit pas compromettre         les conditions de survie indéfinie de l’humanité sur terre. Cette condition ne peut pas être         prise en compte par une machine du fait de son manque de vulnérabilité.
        d. La sphère d’action : La responsabilité serait contenue dans une certaine sphère limitée par         le savoir et les compétences. Il est donc évident que son étendue est unique à chacun et         également que l’IA a une sphère d’action bien supérieure à celle d’un être vivant à partir du         moment où elle est connectée à internet (accès à tout le savoir du monde). Cette étape         impose qu’il n’est pas possible de ne pas agir si on en a les capacités et donc en reprenant le         cas de l’IA : elle aurait l’obligation d’agir à chaque étape d’un jugement car elle aurait les         fonctions pour les exécuter.
    2. Le fondement paradigmatique est une notion surprenante : elle est irréfutable mais pas     irrésistible car certains pourraient décider de ne pas respecter une valeur même si cette     dernière est une évidence. Cette éthique a donc une face objective et une face subjective.     Cette dernière demande la considération des sentiments et donc ne peut être prise en compte     par une intelligence artificielle.

L’heuristique de la peur selon Hans Jonas est une grande aide pour la prise de décision. En effet, nous sommes plus sensibles à l’inhumain que à l’humain et donc plus sensibles aux menaces. La combinaison entre la peur (prudence) et les connaissances est donc une aide non négligeable pour cette prise de décision.


Cette éthique donne donc une condition nécessaire et suffisante entre savoir et responsabilité : Plus on a de connaissances et plus on est responsable de ses actes mais plus on est responsable et plus on doit acquérir de connaissances. De ce fait, en respectant cette optique, comment pourrions nous limiter l’utilisation des données en prenant en compte l’obligation de l’IA à récupérer le plus de savoir pour être considérée comme responsable ?


De plus, en utilisant l’IA en justice, nous aurions la responsabilité de lui fournir le plus de données possibles afin de garantir une décision non biaisée. Or, actuellement seul un faible pourcentage des affaires traitées est disponible sur internet.


La responsabilité met en évidence une certaine éthique des valeurs alliant sentiment et raison. Dans le cadre de la justice, cela implique d’adapter le verdict aux circonstances. Les logiciels prédictifs ne pourraient donc pas être utilisés comme seul critère de décision.


Un autre concept mis en évidence par Hans Jonas est l’éthique des normes : partir de principes suprêmes déterminant ce qui est juste. Etant une décision binaire, cette dernière peut être respectée par l’IA en justice.
Selon Hans Jonas, les générations actuelles sont responsables de l’héritage qu’elles laissent à celles à venir. De ce fait, en attribuant d’avantages d’importance à l’IA en justice, cela impacterait évidemment sur les métiers des générations futurs dans tout ce qui attrait à la justice.


En conclusion, la mise en application de l’IA dans le cadre de la justice ne répond pas à l’éthique de la responsabilité. En effet, l’éthique des normes serait respectée mais celle des valeurs et les deux fondements non. Même en mettant à disposition la base de données la plus complète possible à l’IA, il resterait la question du libre arbitre et des sentiments pour compléter cette éthique.