L’« intelligence artificielle » se présente simultanément à l’intellect comme un existant, comme un possible et comme un imaginaire1. Or ce que l’on imagine n’est pas nécessairement possible et il n’est pas certain que ce qui est possible puisse exister un jour.
Le concept de l’« intelligence artificielle » fusionne par ailleurs « intelligence » et « artifice » (ce dernier mot désignant ici l’« informatique » ou l’« ordinateur ») et comme tout concept hybride celui-ci doit être examiné pour s’assurer qu’il ne s’agit pas d’une chimère comme le griffon dont la tête d’oiseau est entée sur le corps d’un lion, ou comme Pégase, le cheval ailé de la mythologie.
Le fait est que l’informatique accroît la portée de l’intelligence et de l’action humaines tout comme l’a fait bien avant elle la notation écrite de la parole, des nombres, de la musique et des mathématiques : l’ordinateur exécute des calculs et déclenche des actions avec une rapidité dont l’être humain est incapable. « Intelligence artificielle » n’est de ce point de vue rien d’autre qu’une expression quelque peu prétentieuse pour désigner l’informatique.
Le pilote automatique d’un avion de ligne reçoit les signaux des capteurs et manipule les ailerons afin de maintenir l’avion dans la position qui économise le carburant, action qui pour un pilote humain serait aussi difficile que de maintenir une assiette en équilibre sur la pointe d’une épingle : c’est un bon exemple de l’élargissement du possible qu’apporte l’informatique.
Alan Turing a cependant énoncé une autre ambition2 : concevoir une « machine qui pense » de telle sorte que l’on ne puisse pas distinguer ses résultats de ceux de la pensée d’un être humain. Or si l’on peut dire qu’un programme informatique « pense », puisqu’il traite les données qu’il ingère pour produire des résultats, il est évident qu’il ne pense pas comme nous. Avec les systèmes experts les informaticiens ont tenté de reproduire la façon dont nous raisonnons en suivant des règles3, mais ils ont rencontré des difficultés car nos règles changent avec la conjoncture et en outre certaines sont implicites.
Dans la réalité actuelle et pratique les applications de l’intelligence artificielle relèvent toutes de l’analyse discriminante4 quelle que soit la technique utilisée : il s’agit toujours de classer un être (personne, objet physique, mot, image, etc.) dans une nomenclature donnée a priori.
L’informatique transforme ainsi l’une des opérations les plus courantes, les plus quotidiennes de l’intelligence humaine en lui apportant précision et rapidité. Il en est résulté des conséquences (la victoire de l’« ordinateur » aux échecs, au jeu de Go, etc.) qui frappent l’imagination et l’invitent à extrapoler : des œuvres de fiction comme 2001, odyssée de l’espace l’y encouragent.
Une « machine qui pense comme un être humain » est-elle cependant possible ? On peut l’affirmer mais ce n’est pas une preuve car les réalisations actuelles de l’intelligence artificielle restent limitées en regard de l’ensemble des opérations de notre pensée. On peut le nier, mais ce n’est pas une preuve non plus car nous ignorons ce qui surviendra dans le futur. Entre possible et impossible le raisonnement ne peut donc pas décider : il doit se taire.
Certains postulent donc que l’« intelligence artificielle » pourra progresser non seulement de façon quantitative (rapidité et exactitude du classement), mais aussi de façon qualitative en dépassant ses frontières actuelles pour embrasser, outre le classement, l’ensemble des fonctions de l’intellect et notamment l’intuition et la créativité.
Une « chose qui pense » ?
Cela revient à affirmer la possibilité d’une « chose qui pense ». Une telle nouveauté doit éveiller l’attention du philosophe car elle rompt avec la distinction entre trois degrés parmi les êtres qui ont une consistance matérielle : les « choses » (par exemple les minéraux et les objets que l’on peut produire en les utilisant) ; les êtres vivants (plantes, animaux) ; enfin, parmi les êtres vivants, ceux qui peuvent penser (les êtres humains et certains autres animaux).
Une « chose qui pense » serait un être sans vie mais capable de penser : son existence est-elle concevable ?
Certaines cultures, adhèrant à l’animisme, accordent une pensée aux pierres, aux arbres, aux cours d’eau, aux choses en général : ce monde enchanté sollicite l’imagination. Il est facile d’imaginer des robots humanoïdes d’une intelligence supérieure à celle des humains. On en rencontre dans les romans d’anticipation mais aucune réalité n’approche aujourd’hui cet être imaginaire et l’hypothèse de sa possibilité future doit être discutée.
Il se peut que l’ordinateur soit dans le futur capable de se reproduire (c’est déjà le cas des virus informatiques5) mais la reproduction n’est pas la seule caractéristique du vivant. On dira aussi qu’avec les « réseaux neuronaux » (autre expression qui sollicite l’imagination) l’ordinateur est devenu capable d’apprendre et de se perfectionner, mais cet apprentissage ne concerne aujourd’hui que la qualité du classement.
On dira enfin que tandis que le cerveau humain évolue selon une unité de temps qui est la dizaine de milliers d’années la performance de l’informatique double tous les dix-huit mois, la loi de Moore devant être relayée dans quelques années par l’ordinateur quantique. On peut donc prévoir, prétend-on, que les capacités de l’informatique dépasseront dans tous les domaines celles de l’intelligence humaine : c’est ainsi que raisonne Raymond Kurzweil6.
Mais si l’« intelligence artificielle » est capable, comme nous le sommes, d’intuition, de créativité et de désir, elle voudra naturellement exercer le pouvoir absolu et elle y parviendra, puisqu’elle est supérieure à notre intelligence : les êtres humains seront alors ses esclaves. C’est là le « danger de l’intelligence artificielle7 » qu’évoquent Bill Gates, Stephen Hawking, Elon Musk, Steve Wozniak etc.
Homo informaticus
Le propos des praticiens de l’intelligence artificielle est beaucoup moins ambitieux que celui des journalistes, des écrivains de science-fiction et des hommes d’imagination, dont la pensée n’est pas soumise aux contraintes de la pratique.
L’expérience des praticiens nous enseigne que si l’informatique est capable de faire des choses qui sont hors de la portée de l’intelligence humaine, par exemple en analyse des données, elle est incapable de faire des choses qui sont à la portée d’un petit enfant. Le « jeu de l’imitation » proposé par Turing a incité les chercheurs à tenter de programmer l’« ordinateur » de telle sorte qu’il se comporte comme un être humain mais alors qu’il fait certaines choses beaucoup mieux que lui, il fait d’autres beaucoup moins bien :
« Fondamentalement, l’ordinateur et l’homme sont les deux opposés les plus intégraux qui existent. L’homme est lent, peu rigoureux et très intuitif. L’ordinateur est super rapide, très rigoureux et complètement con » (Gérard Berry, professeur au Collège de France, dans Xavier de La Porte, « Grand entretien avec Gérard Berry », Rue89, 26 août 2016).
La piste la plus féconde n’est donc pas de contraindre l’« ordinateur » à imiter le comportement de l’être humain mais de faire émerger l’être nouveau, homo informaticus, qui résulte de leur symbiose.
« The hope is that, in not too many years, human brains and computing machines will be coupled together very tightly, and that the resulting partnership will think as no human brain has ever thought and process data in a way not approached by the information-handling machines we know today » (Joseph Licklider, « Man Computer Symbiosis », IRE Transactions on Human Factors in Electronics, mars 1960).
Il apparaît alors que la formule du succès n’est pas l’informatisation ni l’automatisation intégrale, mais l’organisation d’une synergie des homo informaticus :
« The strongest chess player today is neither a human, nor a computer, but a human team using computers » (Devdatt Dubhashi et Shalom Lappin, « AI Dangers: Imagined and Real », Communications of the ACM, février 2017).
Les dangers véritables
Les véritables dangers de l’intelligence artificielle ne sont rien d’autre que les dangers qui accompagnent l’informatisation.
Les institutions s’informatisent, certes, mais de façon superficielle car nombre d’entre elles se refusent, de toute la force de leur inertie, à modifier leur organisation et à redéfinir leur mission dans un monde que l’informatisation a transformé. La symbiose de l’être humain et de l’ordinateur et la synergie des homo informaticus sont alors compromises par une automatisation mal conçue ou excessive.
Nombre d’entreprises ignorent « the inadequacy of « reason » unsupported by common sense » qu’a évoquée Alan Turing dans la dernière phrase de son dernier article8 : leur « système d’information » est utilisé non pour faciliter et enrichir le travail des êtres humains, mais pour les contraindre à suivre des procédures figées en niant ce que pourrait apporter leur bon sens.
L’autre danger est la tentation que la société rencontre après chaque révolution technique, celle de tirer parti des nouvelles ressources à des fins destructives. Tandis que la mécanique et la chimie ont permis de bombarder les villes, l’informatique peut être l’instrument efficace de manipulations perverses : elle a par exemple soumis la Banque à des tentations qui se sont révélées irrésistibles en lui donnant les moyens de parasiter le système productif.
Les prédateurs, plus vigilants et plus agiles que les autres, se servent de l’informatique pour s’enrichir et conquérir l’influence à tel point que l’on peut craindre un retour au régime féodal sous une forme ultra-moderne : les rapports sociaux redeviendraient alors de purs rapports de force.
Ces deux dangers sont présents et pressants. Les craintes fantasmatiques qui s’expriment à propos de l’« intelligence artificielle », et qui supposent réalisées des performances de science-fiction qu’elle n’atteindra peut-être jamais, désamorcent notre vigilance en la détournant de ces dangers immédiats et trop réels.
____
1 Etienne Gilson, L’Être et l’Essence, Vrin, 1949.
2 Alan Turing, « Computing Machinery and Intelligence », Mind, 1950.
3 Laurence Negrello, « Systèmes experts et intelligence artificielle », Cahier Technique Merlin Gerin, novembre 1991.
4 Michel Volle, Analyse des données, Economica, 1994, p. 206.
5 Eric Filiol, Les virus informatiques : théorie, pratique et applications, Springer, 2009.
6 Raymond Kurzweil, The Singularity is Near, Penguin, 2005.
7 Darlene Storm, « Steve Wozniak on AI: Will we be pets or mere ants to be squashed our robot overlords? », Computer World, 25 mars 2015.
8 Alan Turing, « Solvable and Unsolvable Problems », Science News, 1954.
Michel Volle
Michel Volle (Polytechnique - ENSAE) économiste, a été responsable des statistiques d'entreprise et des comptes nationaux trimestriels à l'INSEE puis chief economist au CNET (Centre Nationale d'Etudes des Télécommunications) avant de créer des sociétés de conseil en système d'information. Il est l'auteur de plusieurs ouvrages.