Image de fond

Giovanni Briganti

Présentation de l’intervenant

Monsieur Giovanni Briganti est chargé de cours et titulaire de la Chaire en IA et Médecine Digitale de l’UMONS. Il est également maître de conférences à l’ULB et directeur IA4Health à IA4Belgium.

Êtes-vous pour l’autonomie de l’IA ?

“Une autonomie oui dans une utopie ou un idéal du monde car cela présente beaucoup d’avantages. Cepedant, il faut également considérer les risques dans la réalité.

En l’état actuel : il y a un risque d’un potentiel effondrement économique car si l’I.A. progresse trop vite et comme notre modèle économique capitaliste maximise juste les profits, cela apporte donc risque important d’un remplacement des gens au profit d’une I.A. de plus en plus autonome. Cela peut amener à une perte de travail importante potentielle. Un but idéal serait que l’I.A. remplace l’humain pour qu’il puisse ensuite faire autre chose. Ce n’est pas le cas pour l’instant.

Une manière d’envisager les choses est d’analyser le sujet serait d’en parler en termes de superintelligences. Pas mal de travaux ont été menés sur les risques de celles-ci.

Comme l’IA reste une machine : pas d’émotion, de morale ni de valeurs propres (peuvent être apprises mais maléables donc). Il y a un risque de perte de contrôle, déjà observé avec ChatGPT qui verbalise comment sortir « de ses murs » pour l’instant que ce ne sotn que des paroles. On dit souvent que les paroles mènent à l’action. Ça sera le bordel si ce genre de modèle est capable de sortir de son serveur/ de son système pour aller ailleurs de manière autonome (virtuellement et physiquement) et il y a un risque réel de cela.”

Pour lui, l’autonomie reste quelque chose vers lequel on doit tendre mais on doit avoir une logique agile dans cette évolution, et donc repousser la limite petit à petit en contrôlant. Il faut se poser la question (ex avec Chat GPT 4 et 5) “on est arrivé à ça mais après cela est-ce qu’on a besoin d’aller plus loin ?” et “Pourquoi on le ferait ?” (en effet pour l’instant les avancées technologiques répondent à un besoin mais pas forcément sûr que ça soit le cas ensuite). Il faut que ça soit axé développement et cela nécessite que des consortiums entre les experts internationaux, les entreprises spécialisées dedans et les gouvernements soient mis en place (tlm doit travailler main dans la main). Il ne faut pas freiner le progrès mais le baliser.

Quelle approche serait la plus adaptée pour considérer le problème ?

Pour lui l’approche humaniste est la plus adaptée : une IA de plus en plus autonome pour le bien commun (voir ce que fait l’institut FARI https://www.fari.brussels/).

Avez-vous des craintes ?

“Oui, trois craintes principales.

La première est que e les innovations dans le domaine aillent plus vite que l’avancement de la société et son adaptation à celles-ci, il y a un risque qu’on soit dépassé.

Ensuite, cela peut avoir des impacts socio-économiques que nous n’avons pas pris le temps de mesurer ou que ceux-ci tombent trop tôt.

Enfin, il y a un risque que e la législation notamment intermédicale n’avance pas assez vite sur le sujet ce qui créerait de vrais problèmes dans le domaine médical car il n’y a pas de contrôle, de lois, d’études de cas …”

Intervention spontanée sur le plan philosophique

Il a souhaité nous fournir différentes pistes de réflexion en fonction de courants philophiques.

À titre informatif : ChatGPT 3 c’est 504 tonnes de CO2 dégagé cette année donc pire pour ChatGPT4 et 5.