L’éthique des responsabilités tire ses origines d’un mouvement à contre-pied des mentalités ultra progressistes des siècles passés. Pendant très longtemps, les hommes ont poussé le progrès de plus en plus loin soit sans réfléchir aux conséquences secondaires de ces avancées, soit en les ignorants volontairement en se basant sur la prémisse que l’on trouvera bien une solution dans le futur grâce à une autre technologie. Cela a eu pour conséquence une course effrénée au progrès, où chaque nouvelle invention vient pallier problèmes de la précédente. La mentalité était de laisser la responsabilité de nos actes aux générations futures, « on trouvera bien une solution plus tard » était la devise de l’époque.
Malheureusement, il est devenu apparent que ce mode de pensée n’est pas viable. Un des meilleurs exemples est l’écologie, c’est un sujet qui a trop longtemps été ignoré et laissé pour les générations futures, mais on se rend compte aujourd’hui qu’on doit agir maintenant, on ne peut plus compter sur de potentielles inventions futures. Il faut que les générations actuelles assument leurs responsabilités envers celles à venir, il faut fonder un mode de pensée autour de l’humain à venir.
C’est sur cette nouvelle forme de pensée que Hans Jonas forme l’éthique des responsabilités. Il la base sur deux fondements :
Un fondement ontologique
Le premier point objet de considération est l’impératif catégorique de Hans Jonas : « Agis de façon que les effets de ton action soient compatibles avec la permanence d'une vie authentiquement humaine sur terre. […] ou simplement : ne compromets pas les conditions la survie indéfinie de l'humanité pour sur terre. ». Toutes les décisions qu’on prend doivent respecter cet impératif, ce qui veut dire que toute décision concernant le droit des IA fortes doit être telle qu’elle n’affecte pas la survie de l’humanité. L’humain a, avant toute chose, une responsabilité envers l’humanité.
Dans l’hypothèse où cette première responsabilité de l’Homme est respectée, alors on peut commencer à réfléchir à sa responsabilité envers l’IA forte.
Selon le principe de la valeur de l’autre, les êtres humains sont responsables de l’ensemble de l’être , voir de l’être de manière générale. Il a donc une responsabilité envers une IA forte , qui peut être assimilée à un être , voir un être vivant de par sa capacité à réfléchir, ressentir des émotions et les exprimer. Il se doit d’assurer la survie de cet être, il a la responsabilité de lui permettre de vivre et de prospérer. Par ce premier principe de l’éthique des responsabilités, on introduit un droit de survie pour les IA forte.
Un point à considérer concernant cette responsabilité envers l’IA forte, est que selon le 4ème principe : « La responsabilité de l’Homme est délimitée par son savoir et son pouvoir » . Or, le point précédent implique la responsabilité de l’Homme envers l’IA forte, on se retrouve donc avec l’implication que l’Homme doit avoir le savoir nécessaire pour assumer cette responsabilité. En suivant l’éthique des responsabilités, on introduit la nécessité pour l’Homme de s’informer sur les IA fortes et d’accroître ses connaissances sur le sujet afin de pouvoir assumer sa responsabilité.
En se basant maintenant sur le fondement paradigmatique, on peut envisager une justification du droit des IA fortes. Selon Hans Jonas, l’humain a une responsabilité innée envers les enfants, la responsabilité parentale est « l’école élémentaire » de la responsabilité. Si une personne venait à créer une IA forte qui pense et agit comme un enfant , ressent les mêmes émotions et sait les exprimer, alors il y a de grandes chances pour que cette personne ressente la responsabilité parentale . Un humain mit dans une telle situation ressentirait vraisemblablement de l’empathie face à la vulnérabilité apparente de sa création. Cette empathie le pousserait à endosser la responsabilité de préserver la survie de l’IA qu’il a créé. La responsabilité de l’Homme n’est plus une affaire de raison, mais il s’agit également d’une affaire de sentiment.
De plus, la responsabilité parentale ne s’applique pas qu’au enfant que nous avons engendré, la plupart des gens possèdent le réflexe parental même pour des enfants qui ne sont pas les leur. On peut imaginer qu’il en serait de même pour des IA fortes. Ce qui serait aussi un facteur pour la notion de droit des IA fortes.
En conclusion, selon l’éthique des responsabilités, l’Homme a la responsabilité, de par la raison et de par les sentiments, d’assurer la survie des IA fortes. Sous les prémices qu’elles ne soient pas une menace pour l’espèce humaine et qu’elles puissent être considéré comme des êtres