Présentation de l’intervenant
Monsieur Xavier Verdonck occupe le poste de Manager Logistique au sein du groupe Vanheede Environment. Il est ingénieur mineur de formation, à la FPMs.
Sa définition de l’IA ?
“Ce sont des algorithmes au service de la recherche d’un objectif. Mais ce n’est pas forcément le cas de tout le monde. Le problème : on met le mot “IA” derrière un peu tout.
Ici, on parle de Deep Learning. C’est non supervisé donc pour lui, extrêmement dangereux.
Il y a aucune “intelligence artificielle”, il y a plutôt des algorithmes établis par les Hommes. Un ordinateur ne peut pas se coder lui-même. Une information doit y être introduite. Par contre, l’ordinateur muni d’algorithmes peut être plus puissant que l’Homme. L’IA est plus performante qu’un médecin dans le pré-diagnostic par exemple.
Pour lui, l’adjectif “Artificielle” est un terme mal choisi. On pourrait dire assistée ou encore optimisée. Mais laisser croire que derrière, les ordinateurs vont gérer eux-mêmes, ce n’est pas vrai. Ils donnent des réponses mais c’est le fruit de la manière dont nous les codons.
Dans le cadre du Deep Learning, l’ordinateur a la capacité de comparer beaucoup plus d’images que le cerveau humain peut le faire en peu de temps. C’est une très bonne aide à la décision mais elle n’est pas “artificielle”.”
Sa position vis-à-vis de l’IA, des algorithmes non contrôlés et de leur autonomie ?
“À cause de ces algorithmes, les gens n’ont plus accès à de la diversité.
L’avantage c’est dans le cadre du cancer, par exemple, quand on n’a pas besoin de diversité.
Le désavantage, c’est la recommandation de contenu douteux à des gamins parce qu’ils ont déjà consultés quelques liens sur ces thèmes-là. Nous donnons aux gens ce qu’ils aiment bien manger. Ça rend les gens bêtes à manger du foin.
Il a peur en tant que citoyen, de personnes ayant vécu sans et avec Internet.
Nous avons un accès démesuré à l’information et ce de manière quasi instantanée. Il y avait avant un effort à fournir, maintenant ce n’est plus le cas ce qui génial mais il faut pouvoir faire la part des choses.”
L’IA doit être dirigée ?
“Oui, mais la question c’est par qui et comment ? Nous vivons dans des sociétés libérales. Maintenant, c’est plus utilisé en malveillant pour orienter les avis ou les conforter dans certaines manières de penser.”
Quelles sont les limites ?
“C’est difficile de les percevoir, de percevoir où ça commence et où ça s’arrête finalement.
C’est ok si on a des algorithmes plus rapides que l’Homme et si le temps est utilisé à des fins nobles. Ça doit être défini par un législateur sur base de la représentative démocratique. C’était moins difficile pour les jeunes d’avant puisque l’accessibilité à l’information était plus complexe.
Aujourd’hui, certains enfants sortent du primaire ne savent pas lire correctement. C’est selon moi, lié à la digitalisation. Artificiel, vraiment ça veut tout dire et rien dire à la fois. Nous utilisons juste l’outil informatique pour aller plus vite que le cerveau humain.
En réalité, nous avons déjà créé des monstres informatiques que nous ne maitrisons plus (sous couvert de la liberté de pouvoir entreprendre, utiliser des outils, etc.).
Nous voyons déjà beaucoup de groupes sociétaux influencés sans pouvoir remettre en question ce qu’ils pensent. C’est un problème d’éducation. Nous bêtifions tout le monde.
Je ne suis pas contre l’autonomie. Mais c’est comme l’amiante, le nucléaire ou les ondes GSM. Faisons-nous un bon calcul des risques que nous prendrons ? Alors que nous savons qu’il y a des risques.
Il faut un régulateur, des gens indépendants qui peuvent prendre des décisions. Pour la société, il faut en “limiter” les accès ou en canaliser les bienfaits.
Prenons l’exemple du train autonome : c’est génial (ok, il y aura le problème des emplois si on aborde le sujet de façon éthique) mais technologiquement parlant c’est génial. Nous savons éviter les accidents car nous enlevons le facteur humain.
Pour l’exemple de la voiture autonome : que faire d’un point de vue éthique ? Quelle victime choisir en cas d’accident ? On peut laisser le choix final à une machine. Ce n’est plus de l’IA. Qui a la responsabilité ? Ce n’est plus une question d’I.A…. C’est de dire qui a programmé la machine et qui est donc responsable.
La conduite assistée poussée le plus loin possible a un sens pour éviter les bouchons, diminuer les accidents. Mais dans des situations où rien n’est défini pour l’ordinateur, si on a un accident, qui est responsable ?
Pas contre, on utilise aussi le mot IA sans vraiment dire aux gens ce que ça représente, que c’est de l’algorithme derrière, on utilise ça à mauvais escient.
Dans beaucoup de cas, ça a du bon. Seulement, si ça tombe dans de mauvaises mains, et c’est le cas : Piloter drone pour bombarder une ville, c’est de l’IA. Il n’y a plus de pilote dans les avions pour lâcher une bombe. C’est un algorithme qui décide de larguer la bombe dans certains cas, aucun humain n’intervient.
Il y a une perte de sens et donc d’humanité. L’IA rend simpliste la chose, la violence sur les réseaux est aussi un bon exemple. Plus c’est facile, moins nous nous posons de questions, de réflexion. C’est la manière dont on utilise l’IA qui est le vrai coupable. Il n’y a aucun problème avec l’aide mais si nous perdons le contrôle (et c’est déjà un peu le cas), ça fait peur.”
Scénarios
Utilisation de l’IA dans l’éducation ? Pour l’instant, il est mitigé pour la sortie du primaire/secondaire.
“En primaire, on apprend à lire/écrire/calculer, on apprend à savoir faire des efforts. Aujourd’hui, ça n’a plus qu’un intérêt. Tout est fait pour nous. Cependant, ça force les gens à structurer leurs esprits.
C’est des choses qu’on ne sait pas corriger après selon moi. Donc digitaliser pour rendre ça plus attractif, oui mais pour résoudre à notre place, non.
Nous faisons tout cela pour avoir un esprit critique et le recul sur ces outils que nous utilisons.
Nous ne pouvons pas éviter ce contact avec l’IA très tôt mais ceux qui réussissent le plus sont ceux à qui nous mettons des limites et ceux que nous allons essayer d’orienter pour utiliser l’IA dans ce qu’elle a de noble plutôt que de les laisser seule face à l’IA.
L’IA fait aussi que nous négligeons la créativité chez les enfants. L’IA est sympathique si ça enrichit. Elle ne l’est pas pour le reste.
Vous, en tant qu’étudiants en informatique, vous en êtes là et vous avez une capacité de discernement.
Cet outil dans les mains de personnes qui n’ont pas de discernement (trop jeunes ou endoctrinés), ça fait une armée de “cons”. Je ne veux pas de l’IA si ça appauvrit.
Si c’est utilisé par des gens malintentionnés sans contrôle, on augmente le nombre d’abrutis, je suis contre. Le plus gros impact c’est entre 0 et 18 ans, pendant l’éducation. Après éducation, le choix est développé, libre mais il y a une base d’éducation.
Avant aussi, on était influencés mais plus limité car la capacité à toucher du monde est plus important maintenant.”
À quel point pousser l’IA ?
“Le monde est tellement dérégulé aujourd’hui, il n’y a pas de gendarmes.
Ça pourrait être le rôle des nations unies ? Il y a la charte des droits de l’Homme, la constitution. “Tout Homme a droit à une patrie” = début de la connerie. Au moment où on l’a écrit, ça avait du sens. Mais tant qu’on aura des frontières, des rivalités (à tout niveau), … il y aura des tentations de pouvoir d’utiliser l’IA au détriment des autres.
Ça va aller beaucoup plus loin que ce qu’on pense (dans le bon sens comme dans le mauvais).
Prenons l’exemple des algorithmes en bourse : On peut perdre le contrôle et on va le faire.
Souhait : évolution dans l’enrichissement (réchauffement climatique et modèles associés par ex.) mais avec toutes les dérives, dans certains cas, ça sera mal utilisé.
Problème : on ne sait pas réguler au point de vue de la situation mondiale pour éviter des choses dramatiques.
Il faut faire des choix en connaissance de cause.”