Intelligence artificielle, de quoi s'agit-il ?
-
Il s’agit fondamentalement de techniques informatiques qui s’appliquent dans des domaines algorithmiques pour lesquels soit on ne sait pas les formuler, soit la complexité calculatoire est trop importante[1] pour qu’on puisse espérer trouver un algorithme de résolution en temps raisonnable.
Pour la première catégorie, quand on ne sait pas donner une description formelle de ce qu’on veut, on utilise essentiellement l’apprentissage machine.
Il faut bien s’entendre ici, ce qu’on appelle Intelligence artificielle c’est la simulation de processus intelligents, c’est là la vision behavioriste anglo-saxonne du terme intelligent comme dans Intelligence service où intelligence a le sens de « renseignement ». Certains auteurs considèrent cette simulation au même titre que l'intelligence humaine elle-même, bien sûr ça permet à nombre de ceux qui n'y connaissent rien de vendre du papier, et à d'autres, scientifiques dont le bagage philosphique ne dépasse pas le matérialisme mécanique d'écrire de se fourvoyer.
Apprentissage automatique
Il y a trois grands types d’apprentissage automatique en machine ; par renforcement ; supervisé ; et non supervisé. Les deux premiers sont un peu du même ordre.
Apprentissage par renforcement : une entité (un agent en informatique) est plus ou moins pénalisée ou renforcée en fonction de la nature de ses actions, et ce automatiquement à partir de critères inclus dans le programme de l’agent (je gagne, je perds)[2] ;
Apprentissage non supervisé : là c’est un peu plus subtil, on laisse le programme trouver les points communs entre les exemples qu’on lui présente et on le dote éventuellement d’une fonction de proximité à seuil, permettant ainsi de construire automatiquement des classes ou catégories d’exemples, suivant qu’ils sont proches ou éloignés. Ainsi le programme permet d’organiser les connaissances et éventuellement de les classer d’une façon nouvelle s’apparentant à des connaissances nouvelles ;
Apprentissage supervisé : on présente des exemples étiquetés et une fonction de proximité au programme, comme des images de feuilles d’arbres et le nom de l’arbre correspondant. L’apprentissage consiste alors en ce qu’au bout d’un certain nombre d’exemples, le programme soit capable d’associer un nom d’arbre à la feuille qu’on lui présente. L’apprentissage supervisé moderne peut-être plus complexe et le superviseur d’une nature plus sophistiquée, comme les réseaux de neurones formels.
Ces termes de neurone formel comme celui de synapse ressortissent au vocabulaire anthropomorphique qui préside souvent au discours en intelligence artificielle.
Neurone formel :[3] En fait il s’agit d’une généralisation du concept électronique de porte logique. Il s’agit d’un sommet d’un graphe à plusieurs arcs entrants et un arc sortant, le sommet (neurone) étant doté d’une fonction de seuil. La valeur de sortie (0 ou 1) est liée à la somme pondérée des valeurs entrantes (étant issues de neurones formels elles sont de valeurs (0 ou 1) et à la fonction de seuil.
Réseau de neurones formels : c’est un graphe dont les sommets sont les neurones formels. Ce qui fait la pertinence d’un tel réseau, c’est la fonction d’activation associée aux neurones. On généralise en introduisant le concept de poids synaptique (toujours l’anthropomorphisme) c’est à dire des fonctions numériques sur les arcs d’entrée des neurones. La fonction associée au neurone est alors plus complexe.
Réseaux en couches : Les réseaux de neurones formels actuels sont organisés en 3 strates, le problème avec des centaines de milliers de connexions et donc de fonctions synaptiques est l’établissements de ces dernières. Il n’est pas raisonnable de penser le « faire à la main » on utilise donc ici l’apprentissage supervisé pour ce faire ce qui permet à l’algorithme, à partir d'exemples, d’ajuster les coefficients associés aux synapses formelles pour étiqueter les exemples.
Les jeux d’échecs, alphaGo, alphaZéro[4], et autres Shogis[5] :
La puissance de calcul aidant, les bases de données massives[6] permettent de passer à la vitesse supérieure. Alors que pour faire jouer un ordinateur aux échecs on disposait depuis un demi siècle d’algorithmes comme alpha/beta, SSS* ou SCOUT (un compromis des deux précédents) qui sont des algorithmes d'énumération implicite auxquels il faut donner des critères "d'élagage" dans l'arbre de jeu et auxquels il faut aussi préciser les poids des différentes pièces et donner des fonctions d’évaluation, on peut avec d’énormes puissances de calcul (en 2020 on devrait atteindre l'exaflop, c'est-à-dire 1018 opérations par seconde) se passer de ce type d’algorithme et faire découvrir les bonnes stratégies par des réseaux en couche associés à un apprentissage par renforcement lui-même basé sur le fait qu’on fait jouer l’algorithme contre lui-même avec une procédure arborescente probabiliste de type monte carlo. C'est cet aspect aléatoire qui permet à la fois de faire jouer l'ordinateur contre lui-même et d'introduire de l'apprentissage non supervisé dans le choix des coups. Cet algorithme générique alphaZéro a, après 4 heures d’auto-apprentissage battu tous les autres programmes d’échec, 8h pour le Go, avec un parallélisme de niveau 64 générant 80.000 positions à la seconde sur une machine de puissance teraflopique (c'est-à-dire 1012 opérations par seconde) il a donc pu examiner 8 x 3600 x 80.000 ; soit plus de deux milliards de positions...
Le mythe de la singularité[7] :
Comme on peut s’en douter à la lecture de cette description des réseaux de neurones formels, ils n’ont strictement rien à voir, malgré ce qu’en veut dire une vulgate très répandue, avec les neurones des cerveaux animaux, et a fortiori du cerveau humain.
Ce qui fait la puissance de nombre de ces algorithmes (mais pas tous !), c’est leur couplage avec les très grandes bases de données et l'association à des super ordinateurs au parallélisme massif. En fait on utilise "la force brute" de la machine.
L’intelligence humaine : alors quoi ? L’intelligence humaine ne saurait être celle d’un individu, l’intelligence de chaque individu est celle de la société dans laquelle il vit; ce qu’on nomme intelligence est une production sociale, et les outils fabriqués et conçus par les humains y participent, et en particulier l’informatique et ce qui est appelé I.A.
La puissance des algorithmes d’I.A. associée aux grandes bases de données, fait tourner la tête de quelques scientifiques anglo-saxons pour lesquels l’intelligence est d’ordre syntaxique et ne font pas de différence notable entre intelligence humaine et « intelligence » artificielle. Le behaviorisme ou comportementalisme, consiste à s’attacher à ce qui paraît seulement, pas à ce que ça signifie, à la sémantique. Comme dit au début, traduit en français, l‘expression artificial intelligence devrait se traduire autrement, par le syntagme Informatique Avancée (ce qui garde les initiales I.A.) ou Extraction automatique des connaissances ou Apprentissage automatique. Ces algorithmes s’ils sont imbattables pour jouer, n’ont pas créé de jeu, et plus généralement, on peut faire nôtre cette remarque de Pablo Picasso :
« les ordinateurs sont ennuyeux, ils ne donnent que des réponses ».
C’est bien parce que désormais on sait concevoir ces machines apprenantes que l’Intelligence Artificielle dont on parle depuis longtemps revient sur le devant de la scène.
Les conséquences concrètes sont que l'on est en train de concevoir des machines capables de faire du diagnostic médical de pointe, de traduire très correctement toutes les langues du monde ou d'écrire automatiquement des articles, des véhicules véritablement autonomes, des systèmes capables d'utiliser les informations diffuses de millions de smartphones pour prédire le trafic routier ou les pics de pollution, de chercher un visage donné dans la photo ou la vidéo d'une foule, etc. Avec cela, nous sommes donc en train de nous donner de nouveaux moyens pour améliorer la prévention et le traitement des maladies graves, mieux lutter contre le réchauffement climatique et autres pollutions, décongestionner les villes et optimiser les flux de matières et de marchandises pour par exemple permettre le passage à une économie plus circulaire ou interagir plus naturellement avec les machines qui nous entourent...
Mais évidemment, ce faisant on se dote aussi des moyens de détruire à moyen terme des millions d'emplois de chauffeurs, d’opérateurs téléphoniques, de traducteurs, journalistes, techniciens, ingénieurs et même avocats, architectes ou médecins.
Cela signifie en tous cas qu’une nouvelle augmentation de la densité du travail et donc de l'exploitation devient techniquement envisageable, ainsi que l'augmentation des capacités de surveillance et de répression.
Une fois de plus, la technologie n'est ni bonne, ni mauvaise, ni neutre, mais ce que collectivement nous en faisons. En l'état, elle est poussée par les intérêts de la classe dominante, profit et contrôle social, et l’on doit craindre le pire. Mais face à la menace d’un monde cyberpunk où quelques grandes multinationales maîtrisant les technologies clés de l'exploitation auraient tout pouvoir sur les Etats et les peuples, les résistances sont nombreuses, partant souvent des chercheurs et spécialistes de ces technologies, ou des travailleurs qu'elles menacent. C’est aussi pourquoi nous sommes là aujourd’hui. Le problème est de faire en sorte que ces résistances éparses rencontrent une perspective politique qui leur permette de devenir contre-pouvoir et force de proposition. Et il n’y a qu’une manière de créer une telle perspective de convergence : une pratique exigeante de la démocratie, qui organise la rencontre de l'expertise et de la mobilisation populaire dans l’intérêt général. Une pratique combinant transmission la plus large possible des savoirs exigeants et encadrement des orientations techniques par la décision collective. Ni démagogie technophobe ni règne des experts dans leur tour d'ivoire.
Le fait que les initiateurs de l’I.A. soient pour la plupart des quadras, masculins, blancs de la Silicon Valley n’est certainement pas neutre. Il nous faut en tenir compte.
L'IA n’est au fond que le dernier avatar de la Cyber-révolution portée par le numérique et ses réseaux.
Pour qu’elle soit porteuse de progrès, il y a urgence à construire ensemble le projet d'un numérique de la liberté et du bien commun.
[1] Ainsi, toutes les pièces en position de départ, il y a environ 10110 parties d’échec possibles, plus que d’électrons dans l’univers, il y est donc interdit d’énumérer tous les coups possibles.
[2] Essentiellement utilisé en robotique et pour certains jeux.
[3] Modèle proposé dès 1943 par McCulloch et Pitts à partir de relais téléphoniques électromagnétiques; ils espéraient ainsi fournir un modèle universel de calcul, mais on démontre qu’un réseau de neurones formels n’est pas plus puissant qu’une machine de Turing ou un automate de Markov.
[4] Mastering Chess and Shogi by Self-Play with a General Reinforcement Learning Algorithm David Silver & alii arXiv :1712.01815v1 5 Dec 2017.
[5] Le shogi est une variante des échecs dans laquelle lorsqu’une pièce adverse est prise, on se l’approprie dans son propre jeu.
[6] Big data en globish.
[7] Voir l’ouvrage éponyme de Jean-Gabriel Ganascia, Seuil éd.