Au cours de l’histoire, l’humanité a assisté à plusieurs guerres où les techniques ont bien évolué. Tout a débuté avec des lances et épées, évoluant par la suite avec des catapultes et canons; on a très vite remarqué que l’homme a toujours cherché à combattre en s’éloignant de plus en plus de son ennemi.
De nos jours, on entend de plus en plus parler de l’intelligence artificielle et de ses multiples applications telles que les voitures autonomes, drones, … Les robots constituent un autre grand sujet d'actualité; on les voit de plus en plus sur Internet et sont capables de porter des objets, de se déplacer en esquivant des obstacles et bien plus encore. En couplant ces deux grandes technologies, les robots autonomes sont capables d’assister voire même de remplacer les humains dans de nombreuses tâches.
Des métiers restent encore irremplaçables. D'autres professions soulèvent en plus des questions de faisabilité, des questions d’éthiques. Si on remplace les policiers ou encore les soldats par des robots autonomes, autoriserions-nous l’IA à prendre des décisions importantes à la place du corps de police ou des forces armées ? Quels seront les moyens mis à leur disposition pour arrêter des criminels ou défendre le territoire ?
Bien évidemment la question n’est pas simple et plusieurs contextes doivent être définis puisque la réponse à cette question varie en fonction du contexte : elle ne peut pas être la même pour un robot policier patrouillant dans une ville que pour un robot soldat sur le champ de bataille.
Afin d'avoir une idée plus approfondie sur les différents points de vue éthiques de ce sujet, nous vous proposons plusieurs articles
L’utilitarisme est une doctrine en éthique qui a comme vocation d'agir pour le bien-être collectif. Afin de maximiser ce dernier, il faut produire un maximum de bien-être. En effet, une production inférieure à ce qui est réalisable dans la pratique est vu comme du gaspillage et une injustice. Également, l'utilitarisme prone le bien-être de tous; et pas uniquement de l'invividu seul. Cette doctrine est par conséquent impliquée dans les domaines politiques, économiques, sociaux ou judiciaires. Nous allons donc peser le pour et le contre de bien-être produit pour l'IA & l'armement dans la rubrique utilitarisme de notre site web.
Selon Kant l’Homme doit être libre et unifié pour être responsable de ses actes et donc avoir une morale. L’humain doit être doté d’une raison capable d’agir.
Kant définit 3 impératifs catégoriques à l’essence de l’éthique : L’universalisation de la maxime ; L’humain doit être une fin et non un moyen ; En plus de l’universalisation, la maxime doit pouvoir être considérée comme une législation universelle.
Ces 3 impératifs de la raison seront développés dans la rubrique déontologisme de notre site web.
Aristote est le philosophe à l’origine de l’Eudémonisme également appelée éthique des vertus. Une vertu est selon lui :”la réponse appropriée à un tel sentiment.
Il s'agit d'une disposition ferme qui n'est pas innée, mais acquise volontairement” et le bonheur ou le but de l’Homme est de devenir vertueux.
Dans cette rubrique, (Eudémonisme), nous soulèverons les points de notre sujet où l’Homme peut être qualifié de vertueux ou pas grâce aux robots autonomes des forces de l’ordre ou des forces armées.
Grâce à cette analyse, nous avons pu constater la complexité de prendre certaines décisions. En effet, le sujet peut être envisagé selon de nombreux points de vue tels que le robot soldat, le robot policier équipé d’armes létales, le robot policier armé d’armes non létales, …
Toutes ces possibilités doivent être prises en compte puisque leur impact éthique n’est pas le même.
Nous avons pu constater que du point de vue de l’utilitarisme l’utilisation de robots policiers équipés d’armes non létales peut être acceptée. Tandis que du point de vue déontologique, les policiers humains ne peuvent pas être remplacés par des policiers robots. En effet, dans certaines situations un contact humain est nécessaire pour que le policier puisse mener à bien sa tâche.
Nous retrouvons également un conflit entre deux éthiques lorsqu’il s’agit de robots soldats sur un champ de bataille. Selon l’Eudémonisme, l’utilisation de robots autonomes soldats sur un champ de bataille doit être empêchée puisqu’elle prive l’homme de vertus tel que le courage. Et au contraire, selon l’utilitarisme, la meilleur décision est celle rendant le plus de gens heureux et en observant notre sondage, nous constatons que les personnes interrogées sont mitigées sur ce cas de figure.
La décision finale dépendra de l’éthique privilégiée par le décideur. La solution la plus sûre est de n’utiliser, dans le domaine de la sécurité, que des robots autonomes et de l’intelligence artificielle dans des cas de prévention ou d’assistances aux humains. Cette dernière solution reflète l’avis des deux experts interrogés ainsi que le nôtre.