L’intelligence artificielle (IA) s’immisce partout dans notre monde moderne. Recherche Google, algorithmes de tris sur Facebook, chatbots de relation client… tandis que littérature et cinéma nous proposent des versions parfois plus effrayantes. Il n’existe pas une définition qui ferait l’unanimité mais tenons nous en à une définition assez vague : est une intelligence artificielle tout automatisme qui imite des processus intellectuels humains ou comparables à ceux du cerveau humain.
A partir de là, doit-on craindre cette intelligence artificielle ? La réguler ? L’utiliser avec circonspection ?
Terminator (du film éponyme), HAL 9000 (de 2001, l’Odyssée de l’Espace) et Bishop (dans la saga Alien) : ces IA de cauchemar donnent mauvaise presse aux IA. Il en existe de nombreux autres exemples. Pourtant, il existe des différences notables dans chaque cas et cela rend ces IA plus ou moins crédibles.
Une IA est issue d’une programmation. Cette programmation peut être déficiente, volontairement ou non. Par exemple, si une IA doit atteindre un objectif et que l’équipage est analysé comme un obstacle sur la voie de cet objectif, l’IA pourra décider d’éliminer l’équipage (cas HAL 9000 et Bishop). Le cas peut être fortuit (HAL 9000) ou plus ou moins assumé (Bishop).
Un exemple fortuit pourrait être de programmer une IA avec comme objectif de fabriquer des trombones, un maximum de trombones. Mais le marché du trombone est limité. Et fabriquer des trombones nécessite des ressources qui pourraient être mieux employées ailleurs. Si le seul but de l’IA est de fabriquer des trombones, toutes ces limites n’auraient aucune valeur et elle chercherait à s’en affranchir en cherchant des solutions dans une base de connaissances. Gageons qu’exterminer l’humanité sera rapidement défini comme la solution pour maximiser la production de trombones. En fait, l’IA est en général parfaitement stupide dans le sens où elle fait ce qu’on lui a dit de faire. Sa base instinctive est frustre.
A l’inverse, une IA qui s’auto-programme pour exterminer l’humanité n’est pas crédible (cas Terminator). Pour que cela advienne, il faudrait que la programmation initiale puisse aboutir au besoin d’exterminer l’humanité (cas de la machine à trombones). Un cas de ce type pourrait cependant exister si l’IA avait comme objectif premier de survivre.
Une IA meurtrière, j’en ai créé une dans une nouvelle L’autre moi-même (recueil « Les autres »). Cette IA était censée être la reproduction fidèle du schéma mental de son créateur. De ce fait, elle se retrouvait en conflit avec ce créateur puisqu’elle avait les mêmes désirs… et les mêmes jalousies.
Schéma mental ? Le concept est défini dans mon essais Cum. Il s’agit de l’enchaînement des besoins aboutissant à des actions grâce à des opinions. L’exemple basique est « j’ai besoin de nourriture », « la viande est une nourriture » et « j’ai besoin de viande » d’où l’action d’acheter de la viande ou de chasser. Définir un schéma mental aux IA serait sans doute la meilleure solution, en prenant la précaution de faire des humains des aspects dont l’IA doit tenir compte.
On en arriverait alors à une version plus sophistiquée des Lois de la Robotique d’Isaac Asimov dont le caractère frustre les amène souvent en défaut ou en difficulté. Mais il fallait bien que le Maître puisse écrire des livres avec une intrigue… d’où l’imperfection sans doute voulue des règles.
Doter les IA d’un schéma mental ? Une telle solution réglerait le cas des IA sophistiquées. Mais il faut pas oublier le cas des IA limitées à une exécution procédurale. C’est ce que l’on appelait jadis les « systèmes experts ». En gros, la machine exécute une procédure avec un arbre de décision.
Un tel système, par exemple, peut « décider » de mettre en route une climatisation ou un chauffage, selon la température constatée dans une pièce, si on lui a demandé de faire en sorte que la température soit de tel chiffre et qu’elle dispose d’un capteur pour la mesurer. Il n’y a là pas réellement d’intelligence dans le sens où il y une stricte prévisibilité des actes de l’IA.
A l’inverse, une IA sophistiquée capable de calculs de probabilité et de recherche dans une base documentaire peut avoir des déductions peu ou pas prévisibles. Voire non-traçables. Ce type d’IA est auto-apprenante. Ce sont bien ces IA là dont il faut se méfier.
L’IA auto-apprenante est « récompensée » ou « punie » en fonction du résultat obtenu et elle va alors chercher à optimiser son résultat. Il reste alors à ne rien oublier dans les critères de « récompense » ou de « punition » (si massacrer l’humanité optimise le résultat final, on pourrait avoir des problèmes). Surtout, il y a un « effet boîte noire » avec l’impossibilité, bien souvent, de comprendre comment la machine a abouti à telle conclusion.
Et, par conséquent, comme pour toute technologie un peu sophistiquée et susceptible de devenir dangereuse, il faut toujours disposer d’un gros bouton rouge pour tout arrêter. On ne sait jamais.