Afin d’avoir l’avis de différentes personnes sur la question de l’IA en justice, nous avons réalisé un questionnaire en ligne qui comporte 10 questions. Dans celles-ci, il y en a des questions ouvertes permettant d’avoir l’avis des gens et des questions à choix multiples qui nous permettent surtout de voir si la pensée des répondants est liée à certaine(s) particularité(s) (l’âge, la connaissance de l’IA, …).
Voici les 10 questions :
1) De quelle tranche d'âge faites-vous parti(e) ?
2) Avez-vous déjà eu affaire à la justice ? (Délits, crimes, contraventions, divorces, ...)
3) Si oui, pour quel(s) type(s) d'affaire et quel(s) étai(en)t votre position ? (Juge, avocat, témoin, accusé, ...)
4) Vous y connaissez-vous en intelligence artificielle ? (Ce qui existe, comment cela fonctionne, ...)
5) Pensez-vous que l'intelligence artificielle à sa place dans les décisions judiciaires ?
6) Argumentez votre dernière réponse s'il vous plaît.
7) Pensez-vous que la justice est impartiale ?
8) Pensez-vous que l'IA aura un impact sur cette impartialité ? Argumentez.
9) En Estonie, dans des délits mineurs qui concernent des faits dont les dommages sont en- dessous de 7 000 euros, une intelligence artificielle devra déterminer ou non la culpabilité d’une personne. Quel est votre avis quant à l’adoption de ce système en Belgique ? Pourquoi ?
10) On parle de plus en plus de l’aide de l’IA dans la justice prédictive (c’est-à-dire prédire l’issue d’une décision judiciaire en fonction des décisions antérieures déjà rendues en la matière).
Qu’en pensez-vous ?
Avant de partir sur l’analyse des questions ouvertes, nous allons d’abord analyser les caractéristiques générales des répondants, de manière à avoir bien en tête que les réponses de ceux-ci restent un avis à part entière de l’avis de la population mondiale.
En ce qui concerne l’âge, on a majoritairement des personnes ayant moins de 30 ans (83,14% des répondants). Cela s’explique par le fait que notre sondage était publié sur nos murs Facebook ainsi que sur les différents groupes de l’UMons. Les personnes de plus de 30 ans sont certainement des membres de nos familles ou des personnes ayant accès à nos publications.
Ensuite, nous leur avons demandé s’ils avaient un vécu judiciaire. La majorité des personnes n’ont jamais été impliquées dans une affaire (84%). Pour les 16% restants, ce sont essentiellement des divorces, des excès de vitesses ou du harcèlement.
Nous avons ensuite voulu savoir le niveau de connaissance des personnes sur ce qu’est l’IA. Pour la plupart, cette connaissance se limite aux différents discours médiatiques qu’il peut y avoir sur ce sujet (60,17%). Pour 21,99% des répondants le sujet est bien connu, 14,52% disent ne pas connaître ce qu’est exactement l’IA et 3,32% travaillent dans ce domaine.
Maintenant que nous savons à quel type de population nous avons affaire, nous pouvons passez aux différents avis et en réaliser une synthèse.
Pour commencer, nous avons voulu savoir si le répondant pense que l’IA a sa place en justice. Les avis sont assez partagés. La majorité a répondu que cela dépendait (41,95%), nous verrons plus loin la raison de leur réponse. Le tiers pense que l’IA n’a pas sa place en justice, 12% ne savent pas et un peu moins de 10% sont pour. On constate donc une certaine réticence par rapport à l’entrée de l’IA en justice mais ce n’est pas non plus un refus catégorique. Regardons les arguments avancés.
Lorsque nous avons relevé les différentes réponses, nous avons constaté que les avis des personnes ayant répondu « pour » ou « cela dépend » sont très similaires. La barrière entre les deux réponses est plus fine de ce côté-là que du côté « contre » et « cela dépend ». Pour eux, l’IA a sa place en tant qu’aide à la décision, c’est-à-dire que le domaine judiciaire pourrait l’utiliser afin d’aiguiller leurs jugements. Pour tous, l’IA ne doit pas dépasser ce cadre-là. En effet, personne n’a émis le souhait d’être entièrement juger par une machine. Les raisons sont diverses. Pour eux, l’IA ne possède pas de sentiments, elle n’a pas d’émotions et de compassion. Elle ne possède pas non plus d’éthique ou de libre arbitre et elle risque de donner des jugements trop « noirs » ou « blancs ». Cependant, elle serait utile pour des délits mineurs, où la méthode de jugement est répétitive.
Certains pensent qu’elle permettrait d’accélérer la justice (en vérifiant des casiers judiciaires plus rapidement par exemple), d’empêcher la corruption et de déceler certaines particularités dans une affaire que l’homme n’aurait pas vu. Parmi ces personnes (les personnes pour et ceux pour qui cela dépend), quelques-uns pensent que l’IA pourrait être mise en phase de test pour des affaires du type : infractions routières, affaires familiales, ou autres petits délits. L’une d’elle a proposé le fait que l’accusé puisse choisir entre le jugement humain et le jugement de l’IA. Nous avons également pu lire dans les différents avis que la décision de l’utilisation de l’IA ne devrait pas se faire par rapport à la gravité du délit mais plutôt en fonction des circonstances.
En ce qui concerne les personnes ne souhaitant pas l’arrivée de l’IA en justice, elles reprennent les points négatifs qu’ont cité les personnes pour et pour qui cela dépendait, et ajoutent en plus que l’IA ne possède aucune conscience, elle n’est pas capable de ressentir la gravité d’une situation (une personne en détresse qui commet un acte illégal serait jugée de manière très sévère, …) et elle pourrait se faire pirater. Certains trouvent aussi que l’IA risque de prendre la place de personnes qui pourraient alors se retrouver au chômage. Une personne nous a également dit que si l’IA base son jugement sur les anciennes affaires, elle risque de reproduire des erreurs que les juges auraient pu faire dans le passé. Un autre intervenant a aussi relevé le fait que l’IA pourrait entrer dans un principe de cause à effet répétitif et comparatif, c’est-à-dire que si une personne a agi comme X et que ce X a été condamné à telle peine alors la décision doit être la même pour cette nouvelle personne.
En ce qui concerne l’impartialité, une grande partie des personnes pensent que la justice humaine n’est pas impartiale (84,57%) et que l’IA pourrait améliorer cette impartialité. Ce qui est interpellant c’est que les arguments qu’avancent les gens sont très similaires aux points négatifs cités plus haut. En effet, ils disent que le fait que l’IA ne possède pas d’émotions, de compassion et qu’elle ne peut pas ressentir les sentiments humains, la rendent plus impartiale que l’homme. Une minorité pense cependant que l’IA ne serait pas plus impartiale que l’Homme étant donné que c’est ce-dernier qui la programme.
Pour finir, une personne nous a fait remarquer que la culture avait un impact sur la position de l’IA en justice. Pour elle, certaines populations seraient plus ouvertes à l’arrivée d’une telle technologie, que d’autres. Il a émis l’hypothèse qu’un pays anglo-saxon aurait plus facile à déployer ce type de système qu’un pays européens. En effet, pour lui, les anglophones sont moins retissant au changement que d’autres populations.