Présentation de l’intervenant
Monsieur Giovanni Briganti est chargé de cours et titulaire de la Chaire en IA et Médecine Digitale de l’UMONS. Il est également maître de conférences à l’ULB et directeur IA4Health à IA4Belgium.
Êtes-vous pour l’autonomie de l’IA ?
“Une autonomie oui dans une utopie ou un idéal du monde car cela présente beaucoup d’avantages. Cepedant, il faut également considérer les risques dans la réalité.
En l’état actuel : il y a un risque d’un potentiel effondrement économique car si l’I.A. progresse trop vite et comme notre modèle économique capitaliste maximise juste les profits, cela apporte donc risque important d’un remplacement des gens au profit d’une I.A. de plus en plus autonome. Cela peut amener à une perte de travail importante potentielle. Un but idéal serait que l’I.A. remplace l’humain pour qu’il puisse ensuite faire autre chose. Ce n’est pas le cas pour l’instant.
Une manière d’envisager les choses est d’analyser le sujet serait d’en parler en termes de superintelligences. Pas mal de travaux ont été menés sur les risques de celles-ci.
Comme l’IA reste une machine : pas d’émotion, de morale ni de valeurs propres (peuvent être apprises mais maléables donc). Il y a un risque de perte de contrôle, déjà observé avec ChatGPT qui verbalise comment sortir « de ses murs » pour l’instant que ce ne sotn que des paroles. On dit souvent que les paroles mènent à l’action. Ça sera le bordel si ce genre de modèle est capable de sortir de son serveur/ de son système pour aller ailleurs de manière autonome (virtuellement et physiquement) et il y a un risque réel de cela.”
Pour lui, l’autonomie reste quelque chose vers lequel on doit tendre mais on doit avoir une logique agile dans cette évolution, et donc repousser la limite petit à petit en contrôlant. Il faut se poser la question (ex avec Chat GPT 4 et 5) “on est arrivé à ça mais après cela est-ce qu’on a besoin d’aller plus loin ?” et “Pourquoi on le ferait ?” (en effet pour l’instant les avancées technologiques répondent à un besoin mais pas forcément sûr que ça soit le cas ensuite). Il faut que ça soit axé développement et cela nécessite que des consortiums entre les experts internationaux, les entreprises spécialisées dedans et les gouvernements soient mis en place (tlm doit travailler main dans la main). Il ne faut pas freiner le progrès mais le baliser.
Quelle approche serait la plus adaptée pour considérer le problème ?
Pour lui l’approche humaniste est la plus adaptée : une IA de plus en plus autonome pour le bien commun (voir ce que fait l’institut FARI https://www.fari.brussels/).
Avez-vous des craintes ?
“Oui, trois craintes principales.
La première est que e les innovations dans le domaine aillent plus vite que l’avancement de la société et son adaptation à celles-ci, il y a un risque qu’on soit dépassé.
Ensuite, cela peut avoir des impacts socio-économiques que nous n’avons pas pris le temps de mesurer ou que ceux-ci tombent trop tôt.
Enfin, il y a un risque que e la législation notamment intermédicale n’avance pas assez vite sur le sujet ce qui créerait de vrais problèmes dans le domaine médical car il n’y a pas de contrôle, de lois, d’études de cas …”
Intervention spontanée sur le plan philosophique
Il a souhaité nous fournir différentes pistes de réflexion en fonction de courants philophiques.
IA et l’Utilitarisme : Oui à l’autonomie pour le bien, travail inutile de l’homme empêché, on tend vers du mieux, du plus utile, bonne santé de la population favorisée MAIS vision capitaliste.
Selon Kant : notre devoir est d’aller vers le juste. C’est un devoir de developper une IA plus autonome car ça tend vers du bien et il y a une nécessité de baliser l’IA afin qu’elle reste bienveillante.
IA et Bio-conservateur/écologique : c’est un grand NON car une IA plus autonome veut dire plus de données, plus d’entraînements, plus de serveurs et donc surtout plus de CO2 alors qu’il faut privilégier l’homme et la nature. Cela met l’humain en situation dangereuse.
À titre informatif : ChatGPT 3 c’est 504 tonnes de CO2 dégagé cette année donc pire pour ChatGPT4 et 5.
IA et le Transhumanisme : Oui car humain peut augmenter son espérance de vie, devenir immortel à long terme.
IA et Platon : Tendre vers un idéal. Donc une IA plus autonome est un idéal pour société parfaite et l’IA parfaitement autonome est elle-même un idéal. cependant ça reste un idéal inatteignable par manque de moyen et risque que l’IA décide de tout détruire.
IA et Aristote : Similaire à Platon mais vient se demander pourquoi on aurait besoin d’aller vers cet idéal, si c’est utile et si on peut y arriver ?/ Est-ce qu’on en a les moyens ?
IA et le Distantialisme : Qu’est que l’existence de l’Homme face à une IA autonome et omnipotente ? C’est un lien possible avec le point de vue de Jean-Paul Sartre.
IA et l’Humanisme, courant des Lumières : une question centrale “Est-ce qu’une IA autonome peut-être humaniste ?”
IA et le Nihilisme : “Et au final si on s’en fiche ?” Quelle importance cela peut avoir si de toute façon ce qu’on fait ne sert à rien.