Image de fond

Éthique des responsabilités

Point de vue inspiré de Jonas Hans

Pendant longtemps, les choix en matière de technologie ont été dictés par une éthique utopiste du progrès indéfini, ces progrès technologiques devenant de plus en plus autonomes. Les intelligences artificielles ne font pas exception à la règle : nous les poussons à toujours plus d’autonomie (voiture autonome, chatbot,…). Cette autonomie a des impacts sur notre environnement, notre mode de vie et notre humanité. Lorsqu’il s’agit de l’IA, l’éthique de la responsabilité est particulièrement importante. En effet, celle-ci peut avoir des conséquences considérables sur l’avenir de l’humanité et de la planète. Par exemple, l’IA peut être utilisée pour résoudre des problèmes environnementaux tels que la déforestation, la gestion des ressources naturelles, etc., mais elle peut également être utilisée pour développer des armes autonomes ou pour exercer une surveillance de masse qui menace les droits de l’homme et la vie privée. 

Jonas Hans fonde l’éthique de la responsabilité à l’aide d’un impératif catégorique qui nous dit “Agis de façon que les effets de ton action soient compatibles avec la permanence d’une vie authentiquement humaine sur terre.” Dès lors, il faudrait développer l’IA de telle sorte qu’elle ne soit jamais une menace pour l’humanité sur terre. De plus, « L’heuristique de la peur » peut nous aider à poser des choix responsables. La peur nous pousse à agir éthiquement car nous fuyons l’inhumain, et donc les menaces contre l’humanité. Cependant, selon les experts, la peur ne suffit pas à être responsable. Typiquement, les guerres sont inhumaines mais il y en a quand même. Si l’intelligence artificielle est développée à des fins militaires, nous allons à l’encontre de l’impératif catégorique de Jonas Hans en mettant potentiellement l’humanité en danger. Dès lors, pour les experts, approfondir l’expertise est une obligation éthique. Si nous avons un doute sur le fait qu’une IA en développement puisse, un jour, être une menace pour l’humanité, nous devons tout faire pour savoir si ce sera le cas afin de préserver la vie. Pour adopter une approche de l’éthique de la responsabilité, les concepteurs et les utilisateurs d’IA doivent être conscients des conséquences potentielles de l’IA et prendre des mesures pour éviter les résultats négatifs. Cela implique de considérer les impacts éthiques à chaque étape de la conception, du développement et de l’utilisation de l’IA. 

L’Homme est responsable car il possède un libre arbitre et qu’il reste le concepteur initial des IA. Dans le cas d’une IA extrêmement autonome, il faudrait que son entrainement la rendent, à son tour, responsable.