Ethique de Kant ( Déontologisme )

L’éthique de Kant vise principalement à répondre à la question « Que dois-je faire ? »
Lorsque nous posons un acte, est-ce que nous posons cet acte conformément à un devoir ou alors est-ce par devoir ? Kant distingue ces deux façons d’agir.
Par exemple, pour Kant, si un agent publicitaire est agréable en proposant ses produits, il agit conformément au devoir mais ses motivations sont celles de l’intérêt et non du devoir. On se retrouve donc dans un cadre de légalité et non pas de moralité.

Ainsi, Kant résume donc la façon d’agir en 3 maximes dont la 1ère est :
« Agir toujours de telle sorte que la maxime de ton action puisse être érigée en loi universelle de la nature ». C’est-à-dire, si tout le monde agissait de la sorte que deviendrait la valeur morale ?
Par exemple, est-ce moral de publier des contenus explicites ? Nous devons donc nous poser la question de savoir si la publication de contenus explicites pourrait être universelle. Ce qui n’est pas le cas ; car la pudeur perdrait toute sa valeur.
De même pour l’incitation à la haine, elle ne pourrait être universelle sinon il y aurait énormément de pertes en vie humaines. Cela étant donc assez pour qualifier l’incitation à la haine d’acte immoral.
C’est donc ce raisonnement que nous explique Kant.

Dans le monde des réseaux sociaux, les utilisateurs partagent leurs pensées au quotidien, mais pour éviter de perdre la valeur morale, il existe donc un « arbitrage » de pensées qui peut être entièrement humain, algorithmique, ou alors un mélange des deux.
Dans le cas d’une intelligence artificielle, un entrainement est nécessaire afin d’acquérir une faculté de discernement. L’éthique transmise lors de l’entrainement est- elle juste ? Conserve-t-elle les valeurs morales ? L’intelligence artificielle (IA) renvoie-t-elle toujours la bonne décision ? Une justice parfaite est-elle garantie ?
Les pensées partagées sur les réseaux sociaux ne sont pas toutes les mêmes contextuellement même si les mots sont à peu près les mêmes. L’IA ne comprendra pas forcément le contexte pour appliquer un jugement. Ce qui pourrait ainsi causer des suppressions abusives de publications.
L’IA pourrait également se servir de la fonction « signaler » qui dans un cas de doute aidera ainsi le programme à effectuer un jugement moins biaisé en fonction du nombre reçu. Mais une fois de plus, ceci pourrait être biaisé si un échantillon suffisant d’individus s’arrangeait pour tous signaler la publication.
En ce qui concerne les publications médias (images, vidéos), le jugement devient relativement simple car le programme de reconnaissance visuel s’avère plus pertinent.

Questions éthiques en IA et NTIC
2021-G

Site was created with Mobirise