Retranscription d’une intervention de Daniel COHEN lors d’une conférence sur l’I.A.

 

Il se trouve que début des années 1990, j’ai évolué dans les univers Techno et de l’IA notamment au cours de mes premières missions. Cela ne fait pas du tout de moi un expert, loin de là, mais quelqu’un qui a une expérience de la programmation et qui a tenté de comprendre ce qu’il pouvait y avoir derrière l’I.A. C’est un point de vue très personnel, je le rappelle, qui peut ne pas recouper les constats du moment.

 

Je fais une très grande différence entre les 3 points suivants : les logiciels et les programmes que l’on peut écrire qui dépendent de l’intelligence humaine, avec la puissance et la vitesse de calcul des ordinateurs, le nombre de datas que l’on peut traiter en même temps avec des calculateurs bien plus puissants que les individus, et puis enfin les statistiques, avec la probabilité qu’une chose puisse apparaître et non pas une autre.

De façon à aider les lecteurs à comprendre dans quels cas, selon ma vision, l’on peut réellement parler d’I.A., je vais tenter d’expliquer avec ces 3 composantes qui viennent s’entremêler, pourquoi il y a certains sujets qui en relèvent et d’autres pas.

Pour ce faire, je vais aborder ma toute première expérience où j’ai eu à programmer deux logiciels qui pourraient s’apparenter aujourd’hui à de l’I.A.

L’I.A. est un concept qui permet à une machine de concurrencer l’intelligence humaine de façon plus ou moins autonome.

Depuis trois décennies environ, Il y a des machines qui sont intelligentes par le fait de logiciels sans que l’on puisse, pour autant, parler d’I.A. Un exemple significatif, l’automate (le pilote automatique) que l’on met en route sur un avion qui est programmé par l’intelligence humaine mais qui ne prendra jamais le contrôle d’un avion de façon autonome, en tous les cas pas pour l’instant.

Donc à quel moment est-ce qu’une certaine forme d’intelligence humaine transmise à la machine va devenir une l’intelligence artificielle ?

Je vais partir de deux exemples expérimentés lors de mes premières missions :

  1. Le premier exemple : un système d’angiographie numérisé. On partait d’un cliché sur un scanner afin de reconnaître les défauts d’une cartographie veineuse.
  2. Le deuxième exemple : la recherche de défauts sur les chaînes de fabrication de cartes électroniques.

Le premier, relativement simple, à partir d’un cliché issu d’un scanner, on injectait un produit de contraste et là ressortait la cartographie veineuse. On identifiait, grâce à des professeurs en médecine qui nous supervisaient, les défauts qu’ils repéraient. De là, on remplissait des tableaux et nous programmions des logiciels qui étaient censés s’améliorer, ceci toujours avec l’aide des professeurs Experts.

Le deuxième cas, c’est la détection de défauts sur les cartes électroniques (qui se trouvent dans vos tablettes, vos ordinateurs, vos téléviseurs, vos smartphones). Donc il fallait repérer les défauts à la sortie des chaînes de fabrication. Il s’agissait de faire un cliché de façon à détecter ces défauts et d’indiquer à la machine « là tu as trouvé le bon défaut et là le défaut n’est pas le bon ». Et ainsi la machine devait petit à petit se modifier.

À l’époque, et encore aujourd’hui, un logiciel qui est capable de s’améliorer de façon automatique, juste en lui indiquant ses erreurs, améliore sa perception : ici on se rapproche de ce qu’il est convenu d’appeler l’I.A.

Dernièrement j’ai vu une émission télé qui qualifiait d’I.A. tout simplement un logiciel très basic qui permettait, avec le visage du président de la République, de lui faire dire un discours qu’il n’avait jamais prononcé. Voici un exemple bien concret, pour moi, de ce qui ne ressort pas de l’I.A. En l’occurrence, ce sont des choses qui existent depuis des décennies mais qui demandaient des moyens de calcul très puissants à l’époque. Aujourd’hui, la puissance d’un smartphone arrive à faire quasiment la même chose que de très gros calculateurs il y a trois décennies. Donc là c’est surtout la puissance de calcul qui vient modifier toutes les micro captures qu’on peut avoir d’un visage pour faire croire que c’est la personne qui prononce ces mots. Malgré cette sophistication, on arrive encore aujourd’hui à reconnaitre une image ou une vidéo truquée d’un support réel. Pour combien de temps ? Je ne sais pas car on améliore constamment les techniques mais ça n’en fait pas pour autant de l’I.A. puisqu’à aucun moment la machine ne raisonne par elle-même.

Le message que j’essaie de vous transmettre est relativement simple : quand vous voyez un logiciel – parce-que il y a toujours un logiciel derrière toutes ces manipulations – la seule question à vous poser est la suivante « Est-ce que ça concurrence l’intelligence humaine et est-ce que ça évolue de façon autonome ? ». Si ça ne fait que reprendre la programmation de quelque chose, alors ce n’est pas de l’I.A.

Par exemple : les derniers Boeings 737 Max qui ont eu des difficultés, à savoir des accidents, ils les ont eues à cause de logiciels et de pilotes automatiques mal programmés. Il ne s’agissait pas du tout d’une intelligence transférée à la machine, mais d’une erreur humaine de mauvaise programmation. De là, on a recommencé la conception et la programmation des logiciels qui déclenchaient ces fameux pilotes automatiques sur les Boeings 737 Max dernière génération.

Ici, le message que je souhaite partager aujourd’hui c’est de bien comprendre à quel moment on bascule de quelque chose qui est de l’ordre de l’I.A. (où la machine va se modifier au fur et à mesure qu’on va lui indiquer qu’elle a tort ou raison, qu’elle est performante ou pas) à quelque chose qui n’est que de la programmation et de l’intelligence humaine que nous-mêmes, êtres humains, avons transféré à la machine.

Il ne faut donc pas confondre un certain nombre d’éléments : les statistiques, les logiciels, la bonne programmation, les calculs de plus en plus rapides, les données de plus en plus importantes, une capacité mémoire que nous n’avons pas et qui peut venir aider l’humain avec une intelligence autonome qui saura demain réfléchir et évoluer sans nous. C’est là que se situe la « différence « entre le simple logiciel et l’I.A.

 

Une dernière réflexion, d’ici quelques années à quelques décennies, la puissance grandissante des ordinateurs permettra, on peut l’imaginer, avec une meilleure connaissance ou non du fonctionnement du cerveau humain, de doter une machine d’un mode autonome d’auto-apprentissage.

Pour avoir suivi des travaux de recherche sur ce sujet depuis deux décennies, nous ne sommes qu’au début de la compréhension de son fonctionnement, par exemple un être humain reconnait visuellement un objet ou une personne après avoir reconnu quelques points d’identification sur un visage ou un objet sans l’analyser totalement.

Ainsi, une meilleure compréhension du fonctionnement humain permettra d’améliorer la programmation autonome.

Mais on ne s’arrêtera pas à ce stade, avec les calculateurs quantiques et autres, on pourra tenter d’ajouter une dose de sensibilité, de doute, d’humanité aux calculateurs…. Nous n’y sommes pas encore, mais peut-être un jour, nous n’en sommes pas loin…..

Soyez vigilants ! C’est mon point de vue, cela ne veut pas dire que ma vision est partagée par tous les experts du secteur, loin de là !