Enquête

Sommaire

  1. Interviews
  2. Sondage en ligne
  3. Débat

Il est important de développer le sujet sur plusieurs points de vue éthiques mais qu’en est-il de l’avis de la population ? Afin de connaitre le niveau de connaissance global de l’IA ainsi que l’opinion de chacun sur notre sujet, nous avons effectué 3 enquêtes. Nous avons premièrement interviewé différentes personnes de notre entourage afin de connaitre leur avis sur le sujet. Ces interviews duraient en moyenne une quinzaine de minutes. Deuxièmement, nous avons interrogé sous la forme d’un questionnaire en ligne afin d’avoir un échantillon plus grand de la population bien que les questions ne soit plus aussi ouvertes qu’avant. La troisième enquête est commune à tous les groupes de la classe puisqu’il s’agit du débat entre les tous les participants du cours.

1. Interviews

Nous avons tout d’abord interrogé deux professeurs du service informatique afin d’avoir l’avis d’experts ayant une bonne connaissance du sujet.

Lors de notre interview avec le premier professeur, nous avons appris que sa définition de l’IA est d’apprendre à la machine l’expertise se trouvant chez l’homme afin qu’elle puisse résoudre de nouveaux problèmes plus complexes et/ou plus rapidement qu’un être humain. Les machines peuvent acquérir un grand nombre de connaissances grâce à de très grandes bases de données ou à de technologies telles que le deep learning.

Les machines peuvent donc être capables d’effectuer certaines tâches plus rapidement que des humains. L’interviewé a insisté sur un gros problème lors de l’utilisation de dispositifs dotés d’une IA : Qui est le responsable en cas de problème ? En effet, tant qu’un robot effectue des taches n’ayant pas de conséquences graves en cas de d’erreurs telle que la présentation du journal télévisé par exemple, le problème ne se pose presque pas. Par contre, si un dispositif autonome peut ôter la vie à quelqu’un par erreur, la question : « Qui est le responsable ? » est du point de vue de l’interviewé une question très importante dont la réponse est difficile à trouver.
Le problème de responsabilité en cas d’erreur peut être retrouvé à travers énormément de domaines tels que l’automobile si une voiture autonome écrase quelqu’un ou encore dans le domaine de la médecine si l’IA rencontre un bug informatique en pleine opération, …

L’interlocuteur est donc contre des robots soldats ou policiers dotés d’une intelligence artificielle. Mais est pour l’utilisation de robots autonomes capables d’effectuer des tâches complexes et dans un laps de temps inférieur à celui de l’être humain dans la mesure où le dispositif est bien encadré. Les erreurs n’engendreraient que des dégâts matériels.

Le deuxième professeur interrogé a défini l’IA comme une technologie qui permet d’imiter l’intelligence humaine. En appliquant des techniques et des algorithmes à l’ordinateur, il pourrait réfléchir comme un être humain.
Il nous a été fort intéressant d’apprendre que l’IA existe depuis bien plus longtemps qu’on ne le pensait (1950) et qu’elle a connu une grande période de faible développement appelée « hiver de l’IA ». Si nous entendons beaucoup parler d’intelligence artificielle depuis ces dernière années c’est parce que grâce aux nouvelles architectures telles que le cloud computing, l’IA est capable d’utiliser un nombre de données beaucoup plus élevé.

L’interlocuteur nous a expliqué que les résultats de l’IA peuvent être très bons après l’avoir entrainée mais que dans une situation où variant par rapport à sa base de données d’entrainement, les résultats seraient beaucoup plus faibles. L’IA dépend donc énormément des données utilisées lors de son apprentissage mais également qui enseigne à l’IA à interpréter ces données. En effet, dans le cas d’un robot policier, les comportements peuvent varier énormément d’une région du monde à l’autre. La base de données du robot devrait donc en permanence être mise à jour ou améliorée.

L’interviewé est pour l’utilisation de robots policiers pour assister le corps policier humain. En effet, le robot aurait dans ce scénario un rôle de vidéosurveillance et essayerait de prédire des crimes en interprétant les données qu’il reçoit. Et une fois qu’il détecte une activité suspecte, celui-ci notifierait les policiers humains.
L’interlocuteur est donc avec ses connaissances de la technologie actuelle contre l’intervention physique de robots policiers.

Le troisième intervenant est un militaire français. Celui-ci considère que l’IA regroupe toute les intelligences non humaines utilisées par les nouvelles technologies comme les ordinateurs ou les robots.
L’IA est un grand domaine de recherches à l’armée et est utilisé pour effectuer des tâches telles que la détection de mines ou le désarmement d’explosifs.

Du point de vue de l’interviewé, les robots manquent encore beaucoup de discernement et ne sont pas capables de remplacer les humains dans beaucoup de tâches. Les robots policiers patrouillant dans les rues font partie de la science-fiction. Cependant, des robots permettant d’aider les policiers tels que des feux tricolores pour régler la circulation sont déjà d’actualité et très efficaces.

Le dernier intervenant est un étudiant italien dont le père travaille à l’armée italienne. Il avait un avis différent des deux premiers intervenant puisqu’il est d’accord pour que des robots militaires interviennent lors de missions spéciales fort périlleuses pour les humains. Il préfèrerait cependant que la décision de vie ou de mort même des criminels revienne à un humain et que les robots soient équipés d’armes non létales.

Pour ce qu’il s’agit de robots policiers, l’interviewé est contre les robots policiers. En effet, il juge que le métier de policier requiert une certaines proximité et donc des interactions humaines entre les citoyens et les représentants de l’état.

2. Sondage en ligne:

Après avoir recensé environ 150 réponses, nous avons décidé de dresser un bilan des tendances qui nous semblent être les plus évocatrices.
Vous pouvez consulter l'entièreté des résultats à la page suivante: SONDAGE EN LIGNE COMPLET

Maîtrise du sujet de l'intelligence artificielle sur une échelle de 1 à 5 (1=faible, 5=forte):
Favorable à l'intelligence artificielle sur une échelle de 1 à 5 (1=faible, 5=fort):
Sentiment de sécurité si un robot patrouille dans le quartier:
Favorable à l'utilisation des armes par les robots:
3. Débat

Éléments importants survenus lors du débat :

Pour les robots policiers :

  • Le métier de policier est caractérisé par un aspect social fort présent. En effet, le robot n’étant pas capable de ressentir des émotions ou encore de faire preuve d’empathie ne pourrait pas remplacer l’homme. Un policier doit pouvoir faire preuve d’une certain laxisme ou d’humanité en fonction de la situation, ce qu’un robot n’est pas capable de faire.

  • Le port d’arme des policiers peut être justifié comme un moyen de défense en cas de problème ce qui n’est pas justifiable dans le cas d‘une machine.

  • La tendance générale ressortant du débat par rapport aux robots intelligents policiers est qu’ils devraient être utilisés comme une assistance ou un soutien aux policiers humains. Mais les robots autonomes ne pourraient pas totalement remplacer les policiers humains.

    Pour les robots soldats :

    L’opinion générale des membres du débat dépendait fortement de la situation. Nous avons remarqué une tendance à privilégier l’utilisation de robots dans toutes les tâches dangereuses pour les êtres humains. Et une préférence pour les soldats humains dans les postes à décisions difficiles nécessitant l’analyse de situations délicates.

    Comme pour le robot policier, les participants au débat sont pour que les robots autonomes intelligents soient une assistance aux humains. Les robots rempliraient par exemple des rôles d’éclaireurs et effectueraient également des missions de reconnaissance. Mais ceux-ci ne pourraient en aucun cas avoir un pouvoir de décision sur la vie ou la mort d’un être humain.