<

Éthique des responsabilités

Hans Jonas

Concept

A travers les époques, l'Homme a toujours cherché à développer au maximum chacun des domaines qu'il a exploré. Durant des siècles, la façon de penser de l’être humain était définie par une éthique utopiste du progrès indéfini. Celle-ci collait parfaitement avec le slogan « On trouvera bien la solution plus tard ».

Dorénavant, un nouveau concept a fait son apparition. Plus précisément, c'est au travers de l'éthique des responsabilités de Hans Jonas que celui-ci a vu le jour. L'idée générale est la suivante : " Nous avons pour but d'être responsables de ce que nous allons laisser sur Terre ". Autrement dit, la génération actuelle doit assumer ses responsabilités quant aux générations à venir. Cette éthique renferme donc un aspect sentimental important. En effet, il y a en ce concept un choix permanant à faire entre résister à entreprendre une action ou non. Même si celle-ci semble représenter un devoir en tant qu'êtres humains pour les années à venir.
De manière générale, L'Homme est sensible à " l’inhumain ". C'est cette sensibilité qui va le guider vers des choix responsables et le pousser à agir éthiquement par la peur. C'est ce que l'on appelle plus communément : " L'heuristique de la peur ".


L'éthique des responsabilités peut se baser sur plusieurs principes :

  • Le libre arbitre : L’être humain est fondamentalement libre de poser ses choix, il en est donc responsable.

  • La valeur de l'autre : Dans cette partie, la nature vivante est très importante. L’être humain est responsable du vivant et doit agir en conséquence.

  • La vulnérabilité : Elle est basée sur plusieurs caractéristiques de l’être humain : son autonomie, sa vulnérabilité mais aussi son unicité.

  • La sphère d'action : La responsabilité de l’être humain est représentée par une sphère qui est délimitée par le savoir et le pouvoir.


Application à l'IA

L’éthique de la responsabilité se base donc sur ce principe : " Plus nous possédons de connaissances et de savoirs, plus nous sommes responsables de nos actes et, par conséquent, plus la sphère d'action est importante ". Cette façon de penser nous pousse donc à augmenter notre niveau de connaissances dans le but précis de devenir plus responsables.

Tout d'abrd, si nous faisons le parallèle avec l'intelligence artificielle, nous pouvons dire que cette technologie doit acquérir et maitriser énormément de savoirs afin de respecter le concept de cette éthique. Plus spécifiquement, si elle décuple ses connaissances en matière de justice, elle pourra être considérée comme responsable de ses choix. En outre, les données acquises par l'IA ne doivent pas être erronées ou mal interprétées. En effet, gardons en tête qu'une technologie comme celle-ci dépend des informations que nous lui mettons à disposition. Si nous entrainons une technologie à juger quelqu'un de manière raciste ( Même sans le vouloir, ni le savoir intialement ), cela engendrera des décisions judiciaires opposées aux valeurs de l'être humain.

Ensuite, l'intelligence artificielle n'est pas totalement libre lorsqu'elle annonce la sentence lors d'un procès. En effet, les véritables décideurs ( cachés au travers de cette technologie ) sont plutôt les personnes qui l’ont créée et qui l’ont intégrée au système. C'est à eux que revient en réalité la liberté de faire en sorte que l'IA ait son mot à dire dans de telles affaires. En conséquence, elle ne peut pas être qualifiée de totalement responsable. Ces citoyens sont, quant à eux, " responsables de ce qu’ils vont laisser sur Terre " comme Han Jonas nous le décrit dans son éthique. De plus, ils endosseront la responsabilité des différentes pertes d'emplois liées au remplacement de certains métiers par l'IA qui, aujourd'hui, prend de plus en plus de place.

Enfin, l’intelligence artificielle ne développe pas de sentiments. ceux-ci n’interviennent donc pas dans son jugement. Cette technologie n'est donc pas sensible. Elle ne possède aucune notion de peur . Cela fait d'elle une machine qui n'est pas du tout préoccupée par le facteur humain. Viols, meurtres, crimes contre l'humanité, etc. Elle juge ces différentes situations uniquement de manière impassible. C'est pourquoi " l’heuristique de la peur " ne rentre pas en compte dans ce cas.

Concrètement, utiliser l’intelligence artificielle pour prendre une décision finale dans le cadre de la justice ne respecterait pas l’éthique de la responsabilité. En nous référant aux arguments énoncés ci-dessus, trop de caractéristiques ne pourraient être remplies. Tout de même, une solution envisageable serait de laisser l'IA décider en partie du sort des personnes jugées. Dans ce cas, elle serait seulement une aide à la décision. Nous pourrions également la mettre au service du traitement de documents. Ces deux solutions corroboreraient davantage avec l'éthique de Hans Jonas. Le juge garderait la responsabilité quant au choix final et l'IA représenterait une aide précieuse dans les affaires judiciaires.