Home
  • Questionnement
  • Enquête
    • Enquête
    • Enquête Professionnelle
  • Analyse
  • Synthèse
  • Notre Équipe
  • Sources

Conséquentialisme

Le conséquentialisme

L’éthique des conséquences, aussi appelée conséquentialisme, consiste à évaluer une action uniquement à travers ses effets réels. Ce qui importe, ce ne sont pas les intentions, ni les moyens utilisés, mais bien le résultat final. Si une action améliore le bien-être collectif, alors elle est moralement justifiable. Cette approche, théorisée par des penseurs comme Bentham et Mill, met l’accent sur l’utilité sociale, même lorsque certains compromis sont nécessaires. Mill ajoute néanmoins que dans ce calcul, il faut prendre en compte certains éléments moins quantifiables,comme la liberté, la dignité ou encore l’autonomie, car leur perte peut avoir des conséquences invisibles mais profondes.

Lorsqu’on applique ce raisonnement aux logiciels antivirus, une tension importante apparaît. Pour fonctionner correctement, ces outils doivent avoir un accès très étendu au système. Ils lisent tous les fichiers, surveillent les connexions, analysent les comportements. En échange de cette intrusion, ils offrent une promesse : celle d’une cybersécurité renforcée, à l’échelle individuelle et collective. Et sur le papier, si chacun adopte un antivirus efficace et éthique, tout le monde en sort gagnant. La sécurité de chacun renforce celle des autres. Le compromis semble acceptable.

Mais cette vision se heurte rapidement à la réalité. Le pouvoir d’accès que ces logiciels exigent ouvre aussi la porte à des usages qui n’ont plus rien à voir avec la protection. Certaines entreprises collectent des données pour les revendre, d’autres exploitent les comportements pour générer du profit ou orienter l’attention. Dans ces cas, l’effet réel de l’intrusion n’est plus la sécurité, mais la captation. On passe d’un outil qui protège à un système de contrôle. Et une fois que ces effets apparaissent, même partiellement, le calcul moral change complètement. On ne parle plus de protection, mais de méfiance généralisée, d’environnement numérique appauvri, de société fragmentée.

Ce glissement progressif de l'implication des logiciels dans notre vie privée est d’ailleurs ce qu’il y a de plus inquiétant. À force de considérer l’exception comme normale, on change notre seuil de tolérance. Ce qui était autrefois choquant devient habituel. Et ce que l’on accepte aujourd’hui redéfinit ce que la génération suivante trouvera acceptable demain. Ce transfert est une conséquence à part entière, et elle pèse lourd dans l’analyse morale. On ne peut pas défendre une technologie sous prétexte qu’elle protège maintenant, si elle fragilise durablement notre capacité collective à penser autrement.

Du point de vue strictement conséquentialiste, ce sont ces effets à long terme qui comptent le plus. Si une action, même motivée par la sécurité, produit en réalité un climat de surveillance généralisée, une perte de confiance et une société plus passive, alors son impact final est négatif. Et cela suffit à la rendre moralement indéfendable.

Ce n’est donc pas une question de principe ou de refus de la technologie. Ce n’est pas le fait que le logiciel collecte des données qui pose problème en soi. Ce qui compte, c’est ce que cette collecte produit sur le comportement des individus, sur la structure sociale, et sur l’état futur de nos libertés. Si les conséquences sont globalement destructrices, alors il faut revoir l’outil, ses usages, et le cadre dans lequel il s’inscrit.

Il devient alors essentiel de poser des limites concrets. Limiter les privilèges techniques aux fonctions strictement nécessaires. Imposer une transparence sur l’usage réel des données. Renforcer les mécanismes de contrôle et de responsabilité. Ce sont ces conditions qui permettront de préserver les bénéfices sans encourager les dérives. C’est aussi comme ça qu’on peut continuer à exploiter les outils de la cybersécurité sans compromettre ce qui, à long terme, fonde une société libre.

Car en définitive, si seule la conséquence compte, alors elle doit inclure tout ce que l’action transforme aujourd’hui et demain.

Image Responsabilité

Responsabilité

L’éthique de la responsabilité, telle que formulée par Hans Jonas, insiste sur la nécessité de prendre en compte les conséquences de nos actions, notamment lorsqu’elles peuvent avoir un impact négatif sur autrui. Appliquée aux logiciels à forts privilèges, comme les antivirus ou certains outils d’administration système, cette approche soulève des questions essentielles quant à la protection des données privées des utilisateurs et à la responsabilité des éditeurs de ces logiciels.

1. Responsabilité des éditeurs de logiciels

Les entreprises développant des logiciels ayant un accès privilégié au système doivent anticiper et prévenir les risques liés à la collecte, au stockage et à l’exploitation des données personnelles. Ces logiciels ont souvent la capacité de scanner l’ensemble des fichiers, de surveiller les connexions réseau et, parfois, d’envoyer des informations vers des serveurs distants. Une approche responsable implique de :
Minimiser la collecte de données au strict nécessaire, en évitant tout accès superflu aux fichiers et aux activités des utilisateurs.
Informer de manière transparente les utilisateurs sur les données collectées, leur finalité et les éventuelles transmissions à des tiers.
Mettre en place des mesures de sécurité robustes pour éviter les fuites de données et les abus internes.

2. L’impact sur la vie privée des utilisateurs

Un logiciel à forts privilèges mal conçu ou mal utilisé peut devenir une menace pour la vie privée. Dans une perspective de responsabilité, les développeurs et éditeurs doivent évaluer les risques associés à leur technologie et mettre en œuvre des garanties adéquates. L’utilisation abusive ou détournée d’un antivirus, par exemple, pourrait aboutir à :
Une surveillance excessive et injustifiée de l’utilisateur.
Une exposition des données privées en cas de compromission du logiciel (exploits, vulnérabilités).
Une monétisation abusive des données sous couvert de protection (vente d’informations à des annonceurs).

3. L’obligation de rendre des comptes

L’éthique de la responsabilité impose également une obligation de redevabilité. Les entreprises doivent être en mesure de justifier leurs choix en matière de collecte et d’utilisation des données. Cela implique des audits réguliers, des politiques de confidentialité claires et un engagement à respecter les cadres réglementaires comme le RGPD. De plus, en cas de fuite de données ou d’exploitation abusive, elles ont la responsabilité d’informer rapidement les utilisateurs et de prendre des mesures correctives.

Conclusion

L’éthique de la responsabilité exige une prise de conscience des conséquences potentielles des logiciels à forts privilèges sur la vie privée des utilisateurs. Elle impose aux éditeurs un devoir de transparence, de minimisation des risques et de respect des droits fondamentaux. L’objectif est de garantir que ces outils, conçus pour protéger, ne deviennent pas eux-mêmes des vecteurs de menace pour la sécurité et la confidentialité des données personnelles.

Éthique des Vertus

L’éthique des vertus, contrairement au conséquentialisme qui insiste sur les conséquences de l’action et au déontologisme qui insiste sur le devoir/le respect des règles, insiste sur l’intention de la personne qui agit ainsi que sur son caractère moral. Elle représente donc une philosophie plus humaine qui encourage le développement personnel et qui favorise la responsabilité morale continue. Un inconvénient qu'on pourrait reprocher à cette éthique est que les vertus peuvent différer d'une culture à l'autre et trancher entre deux comportements vertueux en conflit peut s'avérer délicat.

En occident, les fondements de cette éthique remontent à l'Antiquité avec des penseurs tels Aristote et Platon (même si une penséee similaire aurait existé antérieurement dans la philosophie chinoise).

Aristote

Aristote

Pour Aristote, les vertus ne sont pas innées, mais découlent des "habitus", ce qui signifie qu'elles se forment via l'enseignement, l'habitude et l'expérience et sont acquises en ayant des actes suivant le modèle d'un homme bon et juste. Pour lui, une action morale découle d'un équilibre vertueux entre deux extrêmes, par exemple, l'homme en bonne santé n'est ni épuisé ni excité, et l'homme courageux n'est ni lâche ou téméraire. La vertu aristotienne est donc une posture de modération et d'équilibre, toutes les vertus découlent donc de la prudence, qui représente la vertu la plus fondamentale. La vie bonne est celle permettant d'atteindre l'épanouissement (eudaimonia) en développant des vertus comme le courage, la justice, etc

Après avoir été quelque peu éclipsée par d’autres courants éthiques modernes, cette approche a été remise à l’honneur au XXe siècle par des philosophes comme Elizabeth Anscombe ou Alasdair MacIntyre.

Elizabeth Anscombe

Elizabeth Anscombe

Alasdair MacIntyre

Alasdair MacIntyre

Pour Elizabeth Anscombe, la démarche éthique relève de la subjectivité et de l'etude des caractère et des dispositions. Dans un article en 1958, elle rejette fermement les éthiques utilitariste et déontologique car elles ont conservé des concepts de devoir et obligation sans fondement , et encourage le développement d'une éthique fondée sur les vertus du caractère pour développer une morale enracinée dans la psychologie humaine, les intentions et la formation morale des gens.

Alasdair MacIntyre, quant à lui, condamne l'idée selon laquelle une posture éthique serait un point de vue neutre et universel et souhaite restaurer une éthique communautaire et téléologique centrée sur les vertus développées à travers la pratique. Il pense qu'une bonne vie suppose des repères culturels partagés et une communauté morale.

Application au domaine des logiciels à forts privilèges (comme les antivirus) :

Intégrons maintenant à notre cas d'étude cette éthique des vertus au niveau de plusieurs acteurs:

Le développeur de l’antivirus/ du logiciel : Si le développeur est vertueux, son action principale est moralement éthique car il y a une volonté de protection du consommateur en créant un logiciel défendant les systèmes informatiques tout en respectant la vie privée; il agit donc avec bienveillance, prudence et honnêteté.

Cependant, il est possible qu’il ait une volonté de mettre en dépendance de son antivirus le consommateur, ou encore pire qu'il cherche à collecter les données des utilisateurs, il agit dès lors par vice et non plus par vertu.

Le vendeur de l’antivirus: Il doit y avoir une volonté de transparence à travers son commerce pour que le consommateur puisse avoir la possibilité de connaître le fonctionnement de son logiciel, notamment en ce qui concerne l'accès aux données privées ou le transfert d'informations. Il doit également y avoir une volonté d’accessibilité/ d’équité : l’antivirus ne doit pas être hors de prix et doit être représentatif du travail fourni par les acteurs de l’industrie, il faut qu'il y ait une équité entre les capacités du produit, le travail fourni, et le prix demandé.

Un vendeur animé par avidité en cherchant à tirer profit des craintes de consommateurs naïfs agirait en contradiction avec les vertus d'un bon commerçant.

L'éthique des vertus nous indique que la confiance repose sur le caractères moral des différentes parties prenantes. Dans le domaine de notre cas d'étude, cette confiance est cruciale car l'utilisateurs doit pouvoir présumer que ceux qui développent et vendent l'antivirus agissent non pas pour exploiter, mais pour rendre service.

Image Déontologisme

Déontologisme

D’un point de vue déontologique, la question des antivirus et de leur accès croissant aux privilèges système pose un problème fondamental. Selon l’éthique kantienne, une action est morale si elle suit une règle universalisable et respecte la dignité humaine. Or, les antivirus, en s’implantant profondément dans les systèmes, exigent une confiance aveugle de la part des utilisateurs, ce qui contrevient au principe selon lequel chaque individu doit pouvoir comprendre et contrôler les outils qu’il utilise. L’universalisation d’un tel principe – faire implicitement confiance à un logiciel aux pouvoirs étendus – pourrait mener à des abus, notamment si ces outils sont détournés ou compromis. Une alternative déontologique serait d’établir une législation garantissant une transparence totale sur leur fonctionnement et de soumettre leur contrôle à un comité d’experts indépendants. Ainsi, on s’assurerait que leur utilisation respecte des principes universels et la dignité des utilisateurs, tout en protégeant leur autonomie et leur droit à un environnement numérique sécurisé.

Ce projet est réalisé dans le cadre du cours "Question Éthique en IA et NTIC" de l'Université Polytechnique de Mons