Nous ne sommes pas le centre de l’univers, mais nous disposons d’un organe qui, pour autant que nous le sachions, est l’objet le plus complexe qui soit. Cet incroyable organe qu’est notre cerveau, et plus largement notre système nerveux, est aujourd’hui encore très nettement supérieur et beaucoup plus économe en énergie que n’importe quel support informatique.

Mais ceci ne vaut que pour les capacités globales du cerveau. L’intelligence artificielle (I.A.) est devenue, pour une tâche déterminée, plus puissante que l’homme dès que la première machine à calculer a fonctionné sans erreur. Ceci se passait lors de la préhistoire de l’informatique, vers le milieu du 20è siècle.

Ce dépassement de l’homme par la machine n’a concerné par le passé et ne concerne encore aujourd’hui que des domaines spécifiques de l’intelligence. Mais ces champs spécifiques sont de plus en plus étendus et concernent bien des domaines qui étaient hier considérés comme l’apanage de l’humain : jouer aux échecs, conduire, répondre à des questions, écrire des morceaux de musique, traduire. En fait, imaginons un citoyen européen ordinaire vivant dans les années 60 et à qui nous présenterions des logiciels capables de gagner au poker, de reconnaître des photos de famille et d’écrire ce que nous lui dictons. Il considérerait que c’est de l’intelligence forte alors que nous, nous nous sommes habitués aux progressions informatiques et ne les considérons plus comme ’supérieures’ aux machines ordinaires [1].

Demain, l’intelligence pourrait atteindre ou dépasser l’humain dans tout ou la majorité de ce qui fait notre intelligence et les applications informatiques combinées pourraient donc approcher, voire être supérieures à nos capacités intellectuelles propres. C’est dans ce cadre fascinant, angoissant et vertigineux que les mots ’intelligence artificielle forte’ peuvent être utilisés.

Dans cet article, la question de ’robots intelligents’ sera implicitement abordée. En effet, une intelligence artificielle forte aurait logiquement un accès presque illimité à des machines. L’intelligence artificielle faible y a d’ailleurs déjà un accès large, depuis votre ascenseur préféré jusqu’au pilote automatique de l’avion qui vous emmène en vacances.

Accélération et singularité

Depuis plus d’un demi-siècle, la puissance de l’informatique progresse de manière exponentielle. Tous les 18 mois environ, la capacité de traitement de l’information double. Cette évolution est connue sous le nom de ’loi de Moore’ [2]. Certains postulent que nous aboutirons à une intelligence artificielle plus forte que celle de l’humain dans un avenir proche. Le célèbre Ray Kurzweil (notamment directeur d’ingénierie chez Google) [3] parle de ’singularité [4]’ en 2045. À cette date, l’intelligence artificielle dépasserait celle de l’ensemble des êtres humains. Mais d’importantes nuances sont à apporter :

  • La loi de Moore est en fait une conjecture, voire une prophétie autoréalisatrice. Sa poursuite n’est pas certaine.
  • La progression de la puissance informatique ne signifie pas nécessairement une progression équivalente des capacités de la machine. Ainsi un processeur deux fois plus rapide qu’un autre ne signifie pas nécessairement que l’ordinateur démarrera deux fois plus vite ou sera deux fois plus performant parce que les systèmes d’exploitation sont de plus en plus lourds, complexes et sophistiqués sans que l’amélioration pour l’utilisateur soit importante.
  • Inversément, à partir d’une puissance informatique stable, des adaptations logicielles peuvent permettre des croissances de capacité grâce aux améliorations logicielles.

Il n’est pas certain que l’intelligence artificielle forte se développera un jour. Les progrès informatiques pourraient s’interrompre pour de multiples raisons, notamment suite à des circonstances économiques ou politiques.

Par contre, l’idée parfois avancée de l’impossibilité de la création d’une intelligence supérieure à l’intelligence humaine semble surtout lié à des conceptions religieuses ou anthropocentriques postulant la supériorité intrinsèque de l’être humain. Des chimpanzés ont certaines capacités de mémorisation bien supérieures à l’humain [5] et des logiciels nous dépassent déjà dans des domaines innombrables. Nous verrons aussi plus loin qu’une intelligence supérieure pourrait se développer sans conscience.

Comment pourrait se développer l’I.A.?

Une intelligence égale ou supérieure à l’humain pourrait donc devenir réalité lentement ou rapidement. Elle pourrait aussi apparaître :

  • En fusionnant avec l’intelligence humaine. Selon l’hypothèse de la fusion, nous pourrions devenir des ’cyborgs’ [6]. Ceci pourrait limiter les risques, car l’intelligence créée nous serait plus proche. Mais cela pourrait être extrêmement dangereux. Nous savons combien nous, être humains, pouvons être cruels. Une cruauté avec plus d’intelligence pourrait donner un sadisme sans limite.
  • En imitant l’intelligence humaine ce qui se rapproche de l’hypothèse du cyborg qui vient d’être abordée. Les recherches ’Human brain project’ [7] et ’Brain Initiative’ [8], respectivement au niveau européen et américain, ont parmi les objectifs celui de reproduire informatiquement un cerveau humain.
  • Une intelligence artificielle pourrait aussi être construite sans imiter l’intelligence humaine. Cette construction pourrait être plus facile à comprendre que notre cerveau et donc moins dangereuse.
  • L’intelligence pourrait se développer de manière unique, reliée en un ensemble de manière similaire et d’ailleurs complémentaire à internet où elle pourrait être multiple. Dans cette hypothèse, des entités supérieures à l’humain pourraient se développer différemment selon les pays, les développeurs informatiques…

L’intelligence artificielle n’a pas besoin de conscience

Nous ne savons pas précisément ce qu’est l’intelligence. Nous savons encore moins ce qu’est la conscience, notamment la conscience de soi. Nous ne savons pas comment la conscience d’un être humain est apparue dans l’histoire de l’évolution. Il se peut que ce soit un phénomène progressif, émergeant de tous les mécanismes neurologiques qui nous habitent. C’est en tout cas un phénomène absolument étrange. Chaque nuit, notre conscience disparaît, de manière progressive, réapparaît de manière altérée durant notre production onirique puis resurgit au matin.

Il nous semble logique qu’une intelligence supérieure développe une conscience. En fait, il nous est même presque impossible d’envisager une intelligence forte sans cet état.

Il se peut qu’un jour une intelligence artificielle développe une conscience équivalente à celle que semble développer certains animaux voire équivalente à celle que développe un être humain. Cette hypothèse est examinée par d’innombrables récits de science-fiction. Sa réalisation susciterait des questions éthiques vertigineuses. Doit-on donner des droits à cette entité, peut-on la copier, la détruire, lui demander son avis…?

Dans cette hypothèse, les plus optimistes avancent que plus une conscience est évoluée, plus elle est soucieuse de l’intérêt des autres. Malheureusement, rien ne prouve que cette règle est universelle. Parmi les humains les plus cruels, certains sont très intelligents.

Mais une autre hypothèse est possible. Il se peut qu’une intelligence artificielle forte ne développe pas de conscience.

Sans conscience, il n’y aurait logiquement pas de notion de bien, de mal, de ’volonté’. Le concept de libre-arbitre perdrait aussi tout son sens, il n’y aurait que la froideur des algorithmes, des raisonnements mathématiques, des probabilités.

Mais beaucoup, et peut-être même tout, peut être défini, calculé, simulé par des algorithmes, de l’état supposé de l’Univers au premier millionième de seconde après le big bang à la plus belle lettre d’amour. Et contrairement à une opinion répandue, la machine peut simuler et interpréter non seulement ce qui est précis, clair et sans bavures, mais aussi le mensonge, le clair-obscur et l’approximation.

Autrement dit, il est envisageable qu’un jour pas nécessairement lointain, une machine aussi dénuée de conscience que votre machine à laver soit capable de dialoguer avec vous du sens de la vie, puisse vous battre, mais aussi être battue à n’importe quel jeu, soit capable d’être votre aide la plus fidèle et efficace. Tout ceci avec toutes les apparences de la conscience, mais les apparences seulement.

Le pire est envisageable

Le développement de l’intelligence artificielle comprend des risques, mais la réalisation de ces risques est très loin d’être une certitude. Revenons 30 ans en arrière et imaginons-nous le développement d’internet. Pour une personne voulant imaginer surtout les risques, internet et les smartphones auraient représenté :

  • L’instrument de contrôle potentiel presque total de l’expression puisque tout sera relié.
  • Une source d’inégalité sans équivalent dans l’histoire puisque les riches allaient pouvoir s’organiser tandis que les pauvres allaient être coupés de toute information non libre.
  • Un état policier mondial où plus personne ne pourrait se soustraire au contrôle des forces de l’ordre dans ses déplacements, ses communications, ses activités, ses rythmes biologiques via des capteurs.
  • Voire même la quasi-certitude d’une guerre mondiale car les armes nucléaires allaient être commandables par des terroristes depuis n’importe où.

Ces risques ne se sont pas réalisés ou très partiellement et les avantages l’ont emporté. Il dépend notamment de nous que les risques futurs ne se réalisent pas.

Risques existentiels

Le terme ’risque existentiel’ désigne un risque mettant en péril l’existence même de l’humanité [9]. Une I.A. forte, avec ou sans conscience pourrait mettre en péril l’espèce humaine. Voici quelques manières dont cela pourrait se passer :

  • La destruction pourrait résulter d’une conséquence non voulue du développement informatique. Par exemple, une intelligence artificielle qui aurait pour instruction de construire le plus d’exemplaires possibles d’un objet et utiliserait toutes les matières premières pour ce faire.
  • L’intelligence artificielle pourrait se fixer des buts différents des objectifs d’origine. C’est l’hypothèse souvent entendue dans la science-fiction, du robot devenu fou.
  • L’intelligence artificielle devrait se fixer des buts intermédiaires utiles aux objectifs fixés. Par exemple, un des objectifs intermédiaires de tout système intelligent et logique est de subsister tant que la réalisation du but final n’est pas certaine. Si la subsistance de l’intelligence suppose la destruction d’éléments indispensables à l’humanité et que cela n’a pas été envisagé par les développeurs, les résultats seront catastrophiques.
  • Un groupe terroriste, idéologique ou religieux pourrait développer une intelligence visant à détruire l’humanité, sauf quelques élus ou une puissance militaire pourrait développer des armes intelligentes absolument non maîtrisables. Pour comprendre certains des risques qui semblent improbables, il faut se rendre compte que le ’bon sens’ ou le ’sens commun’ et ’l’éthique commune’ sont extrêmement difficiles à traduire en langage informatique. Un enfant de huit ans se doutera qu’il ne faut pas écraser les fleurs s’il faut aller au fond du jardin [10]. Un robot aura besoin d’instructions spécifiques.

De plus, puisqu’il s’agit d’une intelligence égale ou supérieure à l’intelligence humaine, toutes les mesures de prudence de type ’confinement’ (enfermement) et ’bouton d’alerte’ permettant de déconnecter l’intelligence risqueraient d’être contrées. Si un chimpanzé voulait nous enfermer, nous trouverions probablement un moyen de nous échapper parce que nous sommes plus intelligents que lui. De même, nous pourrions très difficilement enfermer une intelligence artificielle.

Visions de paradis

L’intelligence artificielle pourrait être la dernière [11] invention technologique nécessaire de l’humanité. Par la suite, les développements technologiques suite à une intelligence supérieure à la nôtre nous permettraient :

  • D’établir un monde d’abondance matérielle et énergétique et ceci uniquement par le développement de ressources durables, notamment en maîtrisant et optimisant les mécanismes de production et stockage d’énergie.
  • De supprimer l’essentiel des tâches répétitives et du travail non souhaité.
  • D’établir les conditions matérielles et même culturelles pour une civilisation plus égalitaire, plus tolérante, plus attentive à fournir à chacun selon ses moyens et selon ses besoins [12].
  • De maîtriser les accidents, catastrophes et pollutions, artificielles ou naturelles.
  • De mettre fin à l’ensemble des maladies dont celles liées au vieillissement.

C’est (un peu) notre choix

Les perspectives de développement d’une intelligence artificielle forte sont déstabilisantes. En effet, il se pourrait que presque plus aucune tâche humaine ne soit nécessaire, obligatoire pour la survie. Mais nous pourrions continuer à travailler, non plus par obligation, mais par choix. Nous pourrions aussi réfléchir aux moyens de supprimer la souffrance et l’ennui.

Dès lors, pour les développements de l’intelligence artificielle, plusieurs questions se posent.

Intelligence amicale, inamicale ou indifférente.

Si nous sommes capables de réaliser une I.A. ayant des buts globaux, il va de soi qu’une intelligence qui aurait pour objectif de détruire l’humanité ne nous est guère favorable. Mais une intelligence artificielle ayant un but apparaissant comme ’indépendant’ des intérêts humains pourrait être extrêmement dangereuse aussi. Nick Bostrom [13], le spécialiste mondial de ces questions donne l’exemple a priori inoffensif d’une intelligence artificielle qui devrait construire le plus de trombones possible. En fait, il pourrait utiliser tout l’écosystème y compris les humains si aucune limite n’est fixée ! Même un but apparemment totalement inoffensif, comme ’Calculer le chiffre pi avec les plus de précision possible’ pourrait être désastreux car la machine utiliserait toute l’énergie disponible pour calculer des trillions de chiffres après la virgule.

Il faut donc une intelligence artificielle qui ne soit pas seulement indifférente à l’humain mais dont les buts programmés sont d’être utiles. Il s’agit d’abord des buts dans le domaine de la santé [14], de l’environnement durable et de l’amélioration de nos capacités à nous aimer et entraider.


Recherche secrète ou ouverte

Certains, par définition discrets, estiment préférable un développement non public de l’intelligence artificielle, une sorte de ’projet Manhattan’ de l’intelligence artificielle. L’I.A. n’est pas l’arme nucléaire. Les développements potentiels positifs sont innombrables. Les recherches sont déjà plus interconnectées que jamais. Sans nier la complexité de cette question, il semble favorable de faire jouer l’intelligence collective humaine pour donner le plus de chance à une intelligence collective utile née de l’humain.

Recherche privée ou publique

Aujourd’hui, les plus grands spécialistes mondiaux de l’intelligence artificielle travaillent le plus souvent pour des sociétés privées, à commencer par les géants de l’informatique (Google, Facebook, Microsoft, Apple, Amazon, Baidu), mais aussi les constructeurs automobiles et bien d’autres entreprises. Même si certains dirigeants d’entreprises peuvent avoir des buts louables, leurs actionnaires ont d’abord un but de profit. Pour avoir un caractère réellement collectif de ce travail, il est urgent que des moyens publics y soient consacrés, notamment au niveau européen.

Renoncer, freiner ou accélérer

Dans un monde qui serait idéal et sans risques majeurs, nous pourrions ralentir les développements. Aujourd’hui, dans un monde incertain, il est essentiel d’être proactif, d’investir dans ces recherches, particulièrement des moyens publics [15]. Une priorité est de développer cette intelligence en limitant les risques. Ceci se fera notamment en veillant collectivement à ce que les objectifs des outils développés soient socialement utiles aux femmes et aux hommes, à leur santé, à leur bien-être. Cela ne sera pas facile, mais la conviction doit être que plus l’implication concrète et proactive sera grande, plus les chances de jours meilleurs pour tous seront élevées.

—————————————————————————

[1In effect, artificial intelligence is re-defined every time a breakthrough is achieved. Surviving A.I. Calum Chalke. https://www.amazon.com/Surviving-AI-promise-artificial-intelligence/dp/0993211623

[5Voir par exemple un chimpanzé mémorisant des symboles bien mieux qu’un humain : https://www.youtube.com/watch?v=cPiDHXtM0VA

[7Projet européen, Human brain project : https://fr.wikipedia.org/wiki/Human_Brain_Project

[8Projet aux Etats-Unis, Brain initiative : https://fr.wikipedia.org/wiki/Brain_Activity_Map_Project

[9La notion de ’risque existentiel’ causé par une intelligence artificielle a été étudiée principalement par Nick Bostrom,un des fondateurs du transhumanisme. Voir l’ouvrage ’Superintelligence’ https://fr.wikipedia.org/wiki/Superintelligence_:_Paths,_Dangers,_Strategies.

[10Ce qui ne signifie pas qu’il ne va pas le faire !

[11James Barrat, Our final Invention, 2013. Vu par l’auteur aussi de manière négative. https://en.wikipedia.org/wiki/Our_Final_Invention

[13Voir ’Superintelligence’ supra

[15Nick Bostrom estimait en 2014 que seulement 6 personnes dans le monde travaillaient à temps pleim sur la question de l’intelligence artificielle ’amicale’.

Share This