Présentation de l’intervenante
Madame Sofia Palmieri est une doctorante de l’UGhent spécialisée dans le droit de la santé. Elle travaille plus précisément sur la protection des droits des patients et sur les problématiques éthiques et légales de l’IA.
Sa définition de l’IA ?
Madame Palmieri considère l’IA dans un cadre légal et éthique dans le cadre de sa recherche. Elle se base donc sur des définitions rédigées par d’autres experts tels que ceux de OECD. Si elle devait en donner une définition plus personnelle, l’IA est tout type de système capable de simuler une sorte d’intelligence humaine pour un certain résultat.
Sa position vis-à-vis de l’IA ?
L’IA sur un plan éthique et légal la passionne. Elle considère cependant que celle-ci doit être régulée. Une technologie n’est jamais bonne ou mauvaise, elles sont mêmes pour la plupart neutres.
C’est l’usage de la tecnnologie qui sera bon ou mauvais. Laisser n’importe qui faire n’importe quoi avec une technologie comme l’IA représente donc un risque. On le remarque déà avec les chatbot (ChatGPT par ex).
Une IA autonome est-elle envisageable ? Si oui, quelle est la limite ?
L’experte a dans un premier lieu été surpise par la question. En effet, dans le cadre éthique, ils partent de l’hypothèse que les humains doivent rester au contrôle. Parler d’autonomie totale est donc une blague dans ce domaine car cela a déjà été estimé comme non-désirable.
Pour elle, l’important ce n’est pas de savoir à quel point nous voulons aller loin mais plutôt pourquoi nous voulons y aller.
En faisant la supposition que jusqu’à présent tous les cadres éthiques et légaux vont dans la direction que, malgré le niveau d’autonomie que l’IA peut avoir, l’humain restera celui qui en est responsable, cela est en contraction avec une autonomie totale de l’IA.
En conclusion, une IA sera donc autonome jusqu’à ce que cela rencontre la responsabilité de l’humain de la stopper.
Quelles responsabilités pour qui dans le cadre d’une IA autonome ?
En termes de responsabilité, différents types de responsabilité s’appliquent. Puisque Madame Palmieri est familière avec le milieu médical, nous illustrons ce principe avec un exemple de ce domaine.
Scénario : Prenons un outil qui suggère qu’un patient peut avoir une certaine maladie. Les docteurs ont encore le choix de le croire ou pas. Si le système devient certifié, les docteurs/physiciens sont autorisés à l’utiliser de manière responsable, IA ou pas. Ce qui change, c’est le fait que le physicien prenne des décisions appuyées sur des raisons sensées ou non. Si cela se passe mal, il utilise la machine d’une mauvaise manière et là il sera responsable.
Si nous revenons à l’IA, il faudrait donc savoir quelle est la « bonne » manière de l’utiliser.
Selon la directive de la responsabilité pour l’IA, l’utilisateur est responsable de son utilisation de la machine à moins qu’il prouve que le système de fonctionne pas suivant les exigences de la loi IA. Ce sera le fabricant le responsable.
Donc si, en tant que fabricant, la loi pour la sécurité n’est pas appliquée, nous devenons responsables.
L’IA Act européenne possède deux propositions : l’IA Liability directive pour les responsabilité et le Safety Requirement pour l’IA en elle-même.
Y a-t-il une réflexion de réglementation ou une réglementation cherchant à restreindre ou cadrer l’autonomie, les possibilités d’expansion et de développement d’une IA ?
Pour l’instant, il n’y a aucune limite. La seule est à propos de l’utilisation que l’on peut faire de l’IA et ces utilisations ne dépendent pas de l’autonomie. Cependant, nous l’avons dit, cela peut probablement arriver à l’ère de ChatGPT 5 et d’autres. C’est donc curieux qu’il n’y ait pas de limite.
Elle pense sérieusement que nous sommes plus inquiets par comment interdire des gens d’utiliser certaines IA plutôt que d’éviter que l’IA elle-même devienne autonome.
Et dans un sens, c’est logique qu’on restreigne plus l’humain que la machine car nous voulons que les gens soient conscients de ce qu’ils utilisent mais en même temps jusqu’à présent l’IA ne se développe pas elle-même, on en est encore responsable. Nous devons décider de jusqu’où on veut aller.
Des craintes particulières ?
Elle en a peu, mais elle est effrayée par le fait que l’IA pourra être « empathique » en simulant une empathie.